为什么每次的训练结果都不一样呢?
来源:2-4 实战分类模型之模型构建
plastic_dream
2020-04-23
我看到2-4节的分类模型,老师用了两种写法(add或传数组)去构建模型,为什么会跑出来不同的结果?实际上哪怕是一种写法多跑几次,每次训练后的loss也不完全一样。我看代码中也没有随机的地方,是因为SGD算法吗?
另外,如果是这种情况,对于同样的模型和超参,每次训练结果不同,比如准确率有时候80,有时候60,那这个模型还有什么意义啊?
写回答
2回答
-
闪闪一年
2020-04-23
如果你觉得loss训练好多个epoch还是震荡很大的话,可以更换优化方法,调整learning rate等等方法来改进。
022020-04-24 -
闪闪一年
2020-04-23
我也很菜,我试着回答下,不一定是对的。权值矩阵有初始化值的,这个是随机的。然后SGD是随机梯度下降法。本来就是要训练很多,知道loss趋于稳定,不在减小变化为止。
00
相似问题
请教一个交叉验证的问题
回答 1
model.reset_states()
回答 1