为什么 tf.layers.conv2d 的输出是四维呢?

来源:3-4 卷积神经网络实战

Guiglc

2020-02-23

但是原理上的话,课件上的卷积层和池化层都是三维啊。

写回答

1回答

正十七

2020-02-24

四维是因为有一维是batch_size, 正常一张图片是三维[width, height, channel], 卷积处理的也是这样的数据,但是多张图像同时处理时就多了一维,即[batch_size, width, height, channel]。

0
1
Guiglc
那这样的话,在每个batch_size的训练中,每个图像的特征图都会由这个四维数组记录。因为我理解的是:神经网络是一个样本一个样本喂进去的,每次特征图都会更新,而历史的特征图没有必要记录,因为新的样本经过卷积层之后会得到新的特征图,然后梯度下降更新卷积层。不知道我理解的对不对。
2020-03-01
共1条回复

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程