AttenDecoderRNN的计算

来源:12-5 Seq2Seq-Attention编程实例-定义模型结构模块(下)

星影L

2021-02-23

图片描述
如红框框所示,为什么是对embedded[0]和hidden[0]进行拼接?为什么softmax要在dim=1这个维度上进行呢?

写回答

1回答

会写代码的好厨师

2021-04-20

拼接可以理解成特征维度上的丰富和常见的一些跳连的结构类似。

维度1表示的是特征维度

0
0

PyTorch入门到进阶 实战计算机视觉与自然语言处理项目

理论基础+技术讲解+实战开发,快速掌握PyTorch框架

1190 学习 · 298 问题

查看课程