为什么展平后它还是一个二维矩阵??

来源:3-4 卷积神经网络实战

战战的坚果

2020-03-20

图片描述

老师,将pooling3做展平,展平成一维向量,每个样本是一个向量,课程中原话为:“但是它还是一个二维矩阵,因为它还有一个XXXXXX样本(没听清),这里不懂,老师,为什么展平后它还是一个二维矩阵??
还有老师可以把数据从[None, 3072] -> reshape->[None, 3232]->经过这几个层->?->?->?->?->?->?->?->?->?->?->[None, 44*32]
它们具体数据形状的变化说明一下吗?

写回答

1回答

正十七

2020-03-21

展平后还是二维矩阵的原因是因为还有batch_size这个维度。

维度的变化:

[None, 3072] -> [None, 3, 32, 32] -> 通道变换 -> [None, 32, 32, 3] -> 卷积1 -> [None, 32, 32, 32] -> 池化1 -> [None, 16, 16, 32] -> 卷积2 -> [None,  16, 16, 32] -> 池化2 -> [None, 8, 8, 32] -> 卷积3 -> [None, 8, 8, 32] -> 池化3 -> [None, 4, 4, 32] -> 展平 -> [None, 512] -> 全连接 -> [None, 10] 

可以看到,展平只是将后三维展平。所以还是二维矩阵。

0
1
战战的坚果
非常感谢!
2020-03-21
共1条回复

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程