使用dropout在训练过程中随机把权重w设置成0,那么当训练完成后,模型里面是不是会确定了哪些权重是0?

来源:3-13 dropout

慕的地3102425

2024-02-22

我的理解是:
训练的时候随机丢弃节点(把对应w设置成0),这样可以找出哪些节点是没有用的。
当训练完成后,模型已经确定了哪些节点没有用,也就是把对应的权重w设置成0。

不知道我的理解对不对?

写回答

1回答

会写代码的好厨师

2024-02-22

不是,训练的时候是为了提升模型鲁棒性,可以理解在部分参数确实的时候,模型效果也稳定,这样模型在耦合数据的时候,会更稳健,测试的时候会关掉dropout

0
1
慕的地3102425
我训练完模型保存到文件上。然后在测试环境或者生成环境需要预测的时候,我从文件中读取出模型做预测,这个时候的模型实际上不会用dropout。我说的对吧?
2024-02-22
共1条回复

Python3+TensorFlow打造人脸识别智能小程序

理论与实战项目双管齐下,让AI技术真正落地应用,适合毕设展示。

1085 学习 · 538 问题

查看课程