Top-Down Bottom-Up Attention

来源:8-7 Bottom-up Top-down Attention模型

不安分的coder

2020-03-26

老师,
1·使用两层LSTM 时间上会不会比 Show Attend and Tell上所花费的时间多。
2·还有一个问题,我看过faster r-cnn中也是使用这样的并联结构,那么它们之间是并行运算还是……

辛苦老师啦

写回答

1回答

正十七

2020-04-07

1. 两层LSTM时间上应该比show attend and tell要高,因为两层lstm是互相依赖的,必须串行运算。

2. 它们是并行的,不过会有短板效应,即以最慢的那个的时间为运行时间。因为在输入给classifier的时候需要两个分支的输入同时输入。

0
1
不安分的coder
好的,谢谢老师
2020-04-09
共1条回复

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程