input_vocab_size
来源:10-4 Encoder构建
遇到算法就懵逼
2019-08-08
老师,为什么这个vocab_size要加1啊,word_index的length不就刚好是vocab的size吗?
写回答
1回答
-
正十七
2019-08-23
这是因为我们的word_index是从1开始的。而embedding是从0开始的,所以我们要加一从而避免做一个给输入数据做一个减一的操作。
第二个原因是我们的填充的是0,所以0的位置也被占用了,所以真实词表是len(word_index) + 1
232023-12-23