padding(1)

来源:4-4 VGG-ResNet实战(1)

战战的坚果

2020-03-22

老师,关于本小节有好几个问题:
1、x经过pooling不会增加通道数,这是在ResNet中适用的吗,课件中显示在VGGNet中x经过pooling通道数会加倍的。所以在ResNet中,经过降采样通道数翻倍,在VGGNet经过pooling通道数加倍?。
2、由3,降采样会产生两种后果:(1)通道数翻倍(2)输出神经元图减半。对吗?
3、所以还要把x经过pooling?是因为在第一层卷积中如果存在降采样,会使得神经元图变为原来一半,且通道数加倍,把x经过pooling(步长=2),可以使得神经元图变为原来一半,但是通道数还没有加倍。所以还需要在通道上做padding,使其通道数加倍。
4、老师,为什么padding=‘same’,如果步长是(1,1)的话,那么它的输入与输出大小一样?,(32-3+2P)/ 1 +1 =30不等32呀?在这里没有数据丢失,padding应该为0呀!

写回答

1回答

正十七

2020-03-24

1. x经过pooling层不会增加通道数是通用的。在VGG中的含义是,经过pooling层,在经过一个卷积层去使得通道数目加倍。

2,降采样只会导致你说的(2),(1)的话再VGG中还需要卷积层的辅助。在ResNet中需要padding。

3. 不清楚该问题的具体场景。

4. padding = same 和padding = 1不等价。padding = same,是指输出图像要和输入一样,至于padding是多少,是推断出来的。你说的这个情况padding是0啊。

0
1
战战的坚果
非常感谢老师的耐心与细心,我确实太菜了!,继续学习(手动笑哭)
2020-03-25
共1条回复

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程