padding蒙
来源:4-4 VGG-ResNet实战(1)
战战的坚果
2020-03-22
#32 * 32
x_image = tf.transpose(x_image, perm=[0, 2, 3, 1])
#conv1:神经元图, feature_map, 输出图像
conv1 = tf.layers.conv2d(x_image,
32,# output channel number
(3, 3),# kernel size
padding = ‘same’,
activavtion = tf.nn.relu,
name = ‘conv1’)
老师,在3-4小节中您讲的时候,我一直认为是因为 padding = ‘same’,所以输入图像的大小才没有在卷积层中发生变化,只在pooling层中减为一半,现在看来,我看到您在别的问题中的回答,不是这样子的,输入3232,卷积核为33,步长为1,输出大小为多少呢(我画图看应该为30)?为什么没变还是32呢?
写回答
1回答
-
正十七
2020-03-24
因为设成same会自动加padding,保证输出是同样的大小。
参考https://coding.imooc.com/learn/questiondetail/176939.html
00
相似问题
padding(1)
回答 1
padding(3)
回答 1