有点没明白W的意思

来源:3-5 循环神经网络(双向RNN)

Echo鑫

2019-01-04

从公式上理解,解决梯度消失和梯度爆炸,不就是让W=1嘛?
另外梯度消失和梯度爆炸会引起什么现象?

写回答

1回答

执着只为坚持

2019-01-21

梯度消失和爆炸会导致模型难以训练,具体来说,如果偏导数部分大于1,那么层数增多的时候,最终的求出的梯度更新将以指数形式增加,即发生梯度爆炸,如果偏导数部分小于1,那么随着层数增多,求出的梯度更新信息将会以指数形式衰减,即发生了梯度消失。  如果让W等于1,那么对于每一个输入结点影响都是一样的,那网络结果就失去意义了

0
0

NLP实践TensorFlow打造聊天机器人

解析自然语言处理( NLP )常用技术,从0搭建聊天机器人应用并部署上线,可用于毕设。

673 学习 · 281 问题

查看课程