老师,你没答复我,为什么生成文本之前要model.reset_states呢?
来源:10-14 Add、Normalize、Decoding过程与总结
慕勒7399318
2019-11-07
为什么生成文本之前要model.reset_states呢?按照我的理解是,model只要reset_states的话,那里面的参数都重置,这样的话咱们最开始训练出来的那个模型就没意义了啊
写回答
1回答
-
同学你好,reset_state指的是重新设置lstm的状态而非参数。如果没有reset_state的话,那么相当于是在之前的context上继续生成,这样就出错了。
比如你之前生成了“I have",如果从这个状态开始,那么下一个生成的是a的概率很大,如果从头开始,那么生成I的概率则比较大。
012019-11-08
相似问题