关于batchSize和epochs关系
来源:6-5 训练模型并可视化训练过程

JackyBreak
2021-05-18
5:50您说 “10个batch才能构成一个epochs”,请问为什么是10个呢?
我的理解是一共400个样本,由于模型设置了batchSize=40,batchSize表示每次迭代使用40个样本,因此每个epoch需要10个batch,这个10是这么得出来的吗?
写回答
2回答
-
慕粉3416980
2024-04-03
这个老师都没回答,我来回答一下:epoch:表示将训练数据集中的所有样本都过一遍(且仅过一遍)的训练过程
batch:一般翻译为“批次”,表示一次性输入模型的一组样本。在神经网络的训练过程中,训练数据往往是很多的,比如几万条甚至几十万条——如果我们一次性将这上万条的数据全部放入模型,对计算机性能、神经网络模型学习能力等的要求太高了;那么就可以将训练数据划分为多个batch,并随后分批将每个batch的样本一起输入到模型中进行前向传播、损失计算、反向传播和参数更新。但要注意,一般batch这个词用的不多,多数情况大家都是只关注batch size的。
batch size:一般翻译为“批次大小”,表示训练过程中一次输入模型的一组样本的具体样本数量。前面提到了,我们在神经网络训练过程中,往往需要将训练数据划分为多个batch;而具体每一个batch有多少个样本,那么就是batch size指定的了。
00 -
lewis
2021-05-18
对,你理解的没问题
00
相似问题