一维卷积与多维卷积理解

来源:7-5 基于CNN的文本分类模型(TextCNN)

慕数据4013138

2019-07-10

老师您好,
如果用一维卷积去操作,ngram的列向量即可以看成是通道数,对于文本分类,当然卷积核也会由一列变为embedding列,对于不同通道数卷积的结果,会进行相加,从而可以认为embedding长度就是通道数?
你有回答一个同学的提问,“实际并不是二维卷积,而是一维多通道卷积。”,想请教下老师,这个一维卷积还是二维卷积的判定是不是与卷积核的大小无关?我看到一维卷积多通道时,对于ngram模型,我们卷积核都是n行embedding列?
与前面cnn图像卷积提到的二维卷积,对于多通道(如3通道rgb ),我们进行二维卷积的时候,卷积核的大小是不是xy 通道数 ?是个三维向量?

写回答

1回答

正十七

2019-07-10

  1. embedding长度就是通道数,你的理解是对的。

  2. 一维卷积和二维卷积都有卷积核大小这个参数,我们不用判定使用什么卷积,因为一维卷积和二维卷积的API是不一样的,你使用哪个API就是哪种卷积。卷积核是n行embedding列,n是卷积核大小,embedding大小是卷积核的通道数。

  3. 对二维卷积核是四维矩阵,一维卷积核则是三维矩阵。

0
1
慕数据4013138
非常感谢!
2019-07-23
共1条回复

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程