epoch_size
来源:4-28 动手实现RNN-LSTM循环神经网络(四):编写实用方法(下)2
慕的地591
2018-08-31
学生知道1个epoch等于使用训练集中的全部样本训练一次,但不理解epoch_size的意义,以及为什么要像下式求解?
epoch_size = (batch_len - 1) // num_steps
写回答
2回答
-
==== 一些术语的概念 ==== # Batch size : 批次(样本)数目。一次迭代(Forword 运算(用于得到损失函数)以及 BackPropagation 运算(用于更新神经网络参数))所用的样本数目。Batch size 越大,所需的内存就越大 # Iteration : 迭代。每一次迭代更新一次权重(网络参数),每一次权重更新需要 Batch size 个数据进行 Forward 运算,再进行 BP 运算 # Epoch : 纪元/时代。所有的训练样本完成一次迭代
# 假如 : 训练集有 1000 个样本,Batch_size=10 # 那么 : 训练完整个样本集需要: 100 次 Iteration,1 个 Epoch # 但一般我们都不止训练一个 Epoch
epoch_size 就是 Epoch 的数目。
022018-09-12 -
昵称不能修改
2018-09-13
同问,又不是取的index, 为什么要 - 1?
00
相似问题