请问老师,seq2seq模型怎么把输入的不定长句子转化成定长的向量啊?

来源:7-1 Seq2Seq模型

慕村9918781

2018-08-29

是通过给encoder中的LSTM设置固定的神经元吗?

还有一个不明白的是,比如LSTM有四个神经元,那输入的句子假如是“大家早上好”,这里有五个字,那应该怎么输入啊?

http://img.mukewang.com/szimg/5b8656470001189e19201080.jpg

像这样吗?那“好”怎么输入?

最后,是不是v1,v2,v3,v4这四个值就直接做一下层网络的输入啦?


写回答

1回答

Mr_Ricky

2018-08-29

一般来讲encoder是需要进行训练或者通过一定的算法得到输出,那么这样的话,“大家早上好”这几个字会被送入到encoder的训练器,而这个训练器的输出维度是固定的,这个维度可以对应到LSTM的神经元维度上,来确保其一致性。

2
1
慕村9918781
恩....输出维度是固定的,所以就可以将变长的语句变成固定的向量,这个可以理解。不理解的是LSTM具体的结构和执行,是不是有多个LSTM层,然后每一层的节点之间有时序关系,但是两层LSTM之间的关系就和普通的神经网络的全连接层一样?问题有点多,哈哈,不好意思?如果老师有好的学习资料,啥链接,博文的,可以分享一下吗。非常感谢
2018-08-29
共1条回复

NLP实践TensorFlow打造聊天机器人

解析自然语言处理( NLP )常用技术,从0搭建聊天机器人应用并部署上线,可用于毕设。

673 学习 · 281 问题

查看课程