请问老师,seq2seq模型怎么把输入的不定长句子转化成定长的向量啊?
来源:7-1 Seq2Seq模型

慕村9918781
2018-08-29
是通过给encoder中的LSTM设置固定的神经元吗?
还有一个不明白的是,比如LSTM有四个神经元,那输入的句子假如是“大家早上好”,这里有五个字,那应该怎么输入啊?
像这样吗?那“好”怎么输入?
最后,是不是v1,v2,v3,v4这四个值就直接做一下层网络的输入啦?
写回答
1回答
-
一般来讲encoder是需要进行训练或者通过一定的算法得到输出,那么这样的话,“大家早上好”这几个字会被送入到encoder的训练器,而这个训练器的输出维度是固定的,这个维度可以对应到LSTM的神经元维度上,来确保其一致性。
212018-08-29
相似问题