有点没明白W的意思
来源:3-5 循环神经网络(双向RNN)

Echo鑫
2019-01-04
从公式上理解,解决梯度消失和梯度爆炸,不就是让W=1嘛?
另外梯度消失和梯度爆炸会引起什么现象?
写回答
1回答
-
执着只为坚持
2019-01-21
梯度消失和爆炸会导致模型难以训练,具体来说,如果偏导数部分大于1,那么层数增多的时候,最终的求出的梯度更新将以指数形式增加,即发生梯度爆炸,如果偏导数部分小于1,那么随着层数增多,求出的梯度更新信息将会以指数形式衰减,即发生了梯度消失。 如果让W等于1,那么对于每一个输入结点影响都是一样的,那网络结果就失去意义了
00
相似问题