batch_size 和 epoch的疑惑

来源:3-4 卷积神经网络实战

FANGYUAN_

2018-12-09

batch_size = 20
train_steps = 1000
test_steps = 100

老师 想问一下如果按照2个epoch 进行训练的话,
假设number_example = 101, batch_size = 20的话,
按照cifar-10的代码,如果我想将数据集过两次(epoch = 2)的话。
是不是将train_step设置为(101/20)*2呢?
如果是的话,还剩下1个example不知道有没有被训练,该怎么办。。

纠结于number_example无法被batch_size除尽,以及不知道train_steps该怎么设置的问题。。。

还有一个问题就是训练集会被shuffle,但是如何计算当前训练的是第几个epoch…

写回答

1回答

正十七

2018-12-11

我给的代码的实现是:如果剩下的样本不够一个batch了,就会重新shuffle数据了。

所以如果是101个样本,batch_size=20, 那么每5次重新shuffle一下数据,相当于一个epoch。

所以如果想epoch=2,那么train step 需要是 (101//20)×2次。你算得是对的。

0
1
FANGYUAN_
非常感谢!
2018-12-18
共1条回复

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程