关于batchSize和epochs关系

来源:6-5 训练模型并可视化训练过程

JackyBreak

2021-05-18

5:50您说 “10个batch才能构成一个epochs”,请问为什么是10个呢?

我的理解是一共400个样本,由于模型设置了batchSize=40,batchSize表示每次迭代使用40个样本,因此每个epoch需要10个batch,这个10是这么得出来的吗?

写回答

2回答

慕粉3416980

2024-04-03

这个老师都没回答,我来回答一下:epoch:表示将训练数据集中的所有样本都过一遍(且仅过一遍)的训练过程

batch:一般翻译为“批次”,表示一次性输入模型一组样本。在神经网络的训练过程中,训练数据往往是很多的,比如几万条甚至几十万条——如果我们一次性将这上万条的数据全部放入模型,对计算机性能、神经网络模型学习能力等的要求太高了;那么就可以将训练数据划分为多个batch,并随后分批将每个batch的样本一起输入到模型中进行前向传播、损失计算、反向传播和参数更新。但要注意,一般batch这个词用的不多,多数情况大家都是只关注batch size的。

batch size:一般翻译为“批次大小”,表示训练过程中一次输入模型的一组样本的具体样本数量。前面提到了,我们在神经网络训练过程中,往往需要将训练数据划分为多个batch;而具体每一个batch有多少个样本,那么就是batch size指定的了。


0
0

lewis

2021-05-18

对,你理解的没问题

0
0

JavaScript玩转机器学习-Tensorflow.js项目实战

机器学习理论知识+Tensorflow.js实战开发

644 学习 · 189 问题

查看课程