epoch_size

来源:4-28 动手实现RNN-LSTM循环神经网络(四):编写实用方法(下)2

慕的地591

2018-08-31

学生知道1个epoch等于使用训练集中的全部样本训练一次,但不理解epoch_size的意义,以及为什么要像下式求解?

epoch_size = (batch_len - 1) // num_steps

写回答

2回答

Oscar

2018-09-03

==== 一些术语的概念 ====
# Batch size : 批次(样本)数目。一次迭代(Forword 运算(用于得到损失函数)以及 BackPropagation 运算(用于更新神经网络参数))所用的样本数目。Batch size 越大,所需的内存就越大
# Iteration : 迭代。每一次迭代更新一次权重(网络参数),每一次权重更新需要 Batch size 个数据进行 Forward 运算,再进行 BP 运算
# Epoch : 纪元/时代。所有的训练样本完成一次迭代
# 假如 : 训练集有 1000 个样本,Batch_size=10
# 那么 : 训练完整个样本集需要: 100 次 Iteration,1 个 Epoch
# 但一般我们都不止训练一个 Epoch

epoch_size 就是 Epoch 的数目。


0
2
限量版灬型男
回复
慕的地591
这个式子里的减1是什么意思啊,为什么要减1?
2018-09-12
共2条回复

昵称不能修改

2018-09-13

同问,又不是取的index, 为什么要 - 1?

0
0

基于Python玩转人工智能最火框架 TensorFlow应用实践

机器学习入门,打牢TensorFlow框架应用是关键!

2214 学习 · 688 问题

查看课程