关于relu和leakyrelu的问题

来源:2-4 实战分类模型之模型构建

SimonYuan2018

2019-06-23

请教老师关于relu和leakyrelu的问题:这两者的概念都懂,但是不知道分别用在什么场景;或者说,什么情况下两者通用,什么情况下最好用其中的一种?

写回答

1回答

正十七

2019-06-27

大部分时候差别不大,但是各有优劣:leaky relu能防止dead relu的问题,但是普通的relu可以导致最后的模型激活值比较稀疏(因为有0的存在)。而激活值稀疏对于online learning比较好。参考https://www.reddit.com/r/MachineLearning/comments/4znzvo/what_are_the_advantages_of_relu_over_the/

还有一种说法是leaky relu非线性能力不如relu,因为可能更加适合生成问题而不是分类问题。虽然我不太同意这种说法,但是有人验证过https://oldpan.me/archives/non-linear-activation-relu-or-lrelu



0
1
SimonYuan2018
回答得很漂亮
2019-06-28
共1条回复

Google老师亲授 TensorFlow2.0 入门到进阶

Tensorflow2.0实战—以实战促理论的方式学习深度学习

1849 学习 · 896 问题

查看课程