embedding的合并不是很理解?
来源:7-1 循环神经网络引入与embedding
慕设计0293856
2020-06-20
输入的词有可能是5个,或者7个,老师讲把510,或者710的矩阵最终变为一维的长度为10的一维的,这个为什么要这么变换了,另外一开始5个词为啥是5*10不是很理解
写回答
1回答
-
同学你好,我不太理解你描述的问题,我把整个过程再描述下,你看哪里跟你理解的不一样哈
假设词表大小是1000, 那么我们会给1000个词每一个都分配一个长度为L的向量作为embedding,如果长度为5,或者长度为7,那么输入就是5 * L 或者 7 * L的矩阵,因为是变长,所以我们会做补全,不管是长度为5还是长度为7, 我们都补到长度为T,比如T=10,补全用的字符我们称之为“padding”,这个“padding”也是词表中的一个词,所以这个时候,输入就变成了T*L的矩阵。
00
相似问题