padding蒙

来源:4-4 VGG-ResNet实战(1)

战战的坚果

2020-03-22

#32 * 32
x_image = tf.transpose(x_image, perm=[0, 2, 3, 1])

#conv1:神经元图, feature_map, 输出图像
conv1 = tf.layers.conv2d(x_image,
32,# output channel number
(3, 3),# kernel size
padding = ‘same’,
activavtion = tf.nn.relu,
name = ‘conv1’)
老师,在3-4小节中您讲的时候,我一直认为是因为 padding = ‘same’,所以输入图像的大小才没有在卷积层中发生变化,只在pooling层中减为一半,现在看来,我看到您在别的问题中的回答,不是这样子的,输入3232,卷积核为33,步长为1,输出大小为多少呢(我画图看应该为30)?为什么没变还是32呢?

写回答

1回答

正十七

2020-03-24

因为设成same会自动加padding,保证输出是同样的大小。

参考https://coding.imooc.com/learn/questiondetail/176939.html

0
0

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程