为什么BN可以放在激活函数之前?

来源:2-10 实战批归一化、激活函数、dropout

追梦逐梦白日做梦

2019-05-30

bn放在激活函数之前,下一层的输入不就不是均值为0方差为1了吗?

写回答

1回答

正十七

2019-05-30

个人感觉,BN层的作用在于调整和平滑输入的分布,使得梯度更容易的传下去。我们在课上讲解的比较简单,这里有一个更深入的分析:https://www.zhihu.com/question/283715823

0
0

Google老师亲授 TensorFlow2.0 入门到进阶

Tensorflow2.0实战—以实战促理论的方式学习深度学习

1849 学习 · 896 问题

查看课程