Top-Down Bottom-Up Attention
来源:8-7 Bottom-up Top-down Attention模型
不安分的coder
2020-03-26
老师,
1·使用两层LSTM 时间上会不会比 Show Attend and Tell上所花费的时间多。
2·还有一个问题,我看过faster r-cnn中也是使用这样的并联结构,那么它们之间是并行运算还是……
辛苦老师啦
写回答
1回答
-
正十七
2020-04-07
1. 两层LSTM时间上应该比show attend and tell要高,因为两层lstm是互相依赖的,必须串行运算。
2. 它们是并行的,不过会有短板效应,即以最慢的那个的时间为运行时间。因为在输入给classifier的时候需要两个分支的输入同时输入。
012020-04-09
相似问题