input_vocab_size

来源:10-4 Encoder构建

遇到算法就懵逼

2019-08-08

老师,为什么这个vocab_size要加1啊,word_index的length不就刚好是vocab的size吗?

写回答

1回答

正十七

2019-08-23

这是因为我们的word_index是从1开始的。而embedding是从0开始的,所以我们要加一从而避免做一个给输入数据做一个减一的操作。

第二个原因是我们的填充的是0,所以0的位置也被占用了,所以真实词表是len(word_index) + 1

2
3
OCEANDREAM
第二个原因我理解, 第一个原因我不明白“embedding是从0开始的”keras.layers.Embedding(vocab_size, embedding_dim), 和0什么关系呀?
2023-12-23
共3条回复

Google老师亲授 TensorFlow2.0 入门到进阶

Tensorflow2.0实战—以实战促理论的方式学习深度学习

1849 学习 · 896 问题

查看课程