Epoch后面的数字是1875

来源:7-5 实战(二)

慕桂英7589197

2022-02-19

老师,为什么我的Epoch后面的数字是1875,您的是60000呢?
Epoch 1/10
1875/1875 [==============================] - 4s 2ms/step - loss: 0.3479

代码:
#train the model
mlp.fit(X_train_normal,y_train_format,epochs=10)

请问我是哪错了吗?

写回答

2回答

flare_zhao

2022-02-23

加油哈

0
0

flare_zhao

2022-02-19

查看下训练的样本数,和课程的对比一下


0
3
慕桂英7589197
回复
flare_zhao
谢谢老师,我把训练模型中,加了batch_siz参数,终于跟老师的数目一样了 mlp.fit(X_train_normal,y_train_format,epochs=10,batch_size=1) 结果 Epoch 1/10 60000/60000 [==============================] - 88s 1ms/step - loss: 但是加了之后准确率为0.9942166666666666 没加batch size参数时,准确率是0.99985,准确率更高
2022-02-23
共3条回复

Python3入门人工智能 掌握机器学习+深度学习

人工智能基础全方位讲解,构建完整人工智能知识体系,带你入门AI

1946 学习 · 594 问题

查看课程