为什么普通的dropout激活值的分布发生了变化,而alpha不会这样?

来源:2-10 实战批归一化、激活函数、dropout

慕设计0293856

2020-06-09

写回答

1回答

正十七

2020-06-09

因为普通的dropout是将被丢弃的数据点设为0, 而alpha dropout则是设为alpha,alpha是变化的,是按照分布不变的约束求出来的,所以分布保持不变。

具体细节可以参考论文:https://arxiv.org/pdf/1706.02515.pdf

0
0

Google老师亲授 TensorFlow2.0 入门到进阶

Tensorflow2.0实战—以实战促理论的方式学习深度学习

1849 学习 · 896 问题

查看课程