使用dropout在训练过程中随机把权重w设置成0,那么当训练完成后,模型里面是不是会确定了哪些权重是0?
来源:3-13 dropout

慕的地3102425
2024-02-22
我的理解是:
训练的时候随机丢弃节点(把对应w设置成0),这样可以找出哪些节点是没有用的。
当训练完成后,模型已经确定了哪些节点没有用,也就是把对应的权重w设置成0。
不知道我的理解对不对?
写回答
1回答
-
会写代码的好厨师
2024-02-22
不是,训练的时候是为了提升模型鲁棒性,可以理解在部分参数确实的时候,模型效果也稳定,这样模型在耦合数据的时候,会更稳健,测试的时候会关掉dropout
012024-02-22
相似问题