return activation(bn)的疑惑

来源:5-11 批归一化实战(2)

Quicklock

2020-03-04

老师好,在做return activation(bn)之前, activation设置为None,那么在添加了批归一化之后的激活函数是None还是relu,批归一化的思想是让每一个batch的特征的均值为0,方差为1的分布,这点理解是否正确?在这里我感觉好像做完批归一化后没有经过relu激活,请是这样吗?

写回答

1回答

正十七

2020-03-05

同学你好,这里批归一化和激活函数的顺序是可以换的,学术界也没有定论,都不影响bn效果的发挥。

可以参考这个问题的解答:https://coding.imooc.com/learn/questiondetail/137723.html

1
0

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程