激活函数

来源:4-1 卷积神经网络进阶(alexnet)

亨heng

2021-11-25

http://img.mukewang.com/szimg/619f3cc409fa674d04320602.jpg

老师,我理解了为什么使用激活函数,但是根据咱们课中的例子,这样不会把一些信息消除掉吗(负数)这样不是损失了一部分信息吗?

写回答

1回答

正十七

2021-12-07

会损失,但是没关系。原因是:

  • 神经网络中会有参数冗余,因而损失一些信息没有关系。网络容量足够

  • relu会带来稀疏性,起到一种正则化的效果,具体来说就是使得参数之间的依赖变小了,这样能增加网络的泛化能力。

0
0

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程