一维卷积与多维卷积理解
来源:7-5 基于CNN的文本分类模型(TextCNN)
慕数据4013138
2019-07-10
老师您好,
如果用一维卷积去操作,ngram的列向量即可以看成是通道数,对于文本分类,当然卷积核也会由一列变为embedding列,对于不同通道数卷积的结果,会进行相加,从而可以认为embedding长度就是通道数?
你有回答一个同学的提问,“实际并不是二维卷积,而是一维多通道卷积。”,想请教下老师,这个一维卷积还是二维卷积的判定是不是与卷积核的大小无关?我看到一维卷积多通道时,对于ngram模型,我们卷积核都是n行embedding列?
与前面cnn图像卷积提到的二维卷积,对于多通道(如3通道rgb ),我们进行二维卷积的时候,卷积核的大小是不是xy 通道数 ?是个三维向量?
写回答
1回答
-
embedding长度就是通道数,你的理解是对的。
一维卷积和二维卷积都有卷积核大小这个参数,我们不用判定使用什么卷积,因为一维卷积和二维卷积的API是不一样的,你使用哪个API就是哪种卷积。卷积核是n行embedding列,n是卷积核大小,embedding大小是卷积核的通道数。
对二维卷积核是四维矩阵,一维卷积核则是三维矩阵。
012019-07-23
相似问题
关于卷积核数的问题
回答 1
文本分类embedding卷积的提问
回答 1