已经卷积过后再卷积的细节理解
来源:8-2 卷积神经网络(二)
摩王S
2025-07-26
在LeNet-5中,那个14x14x6,我理解是因为有6个卷积核对原数据进行了6遍卷积,但突然变成了16,我不理解又进行了16个卷积,那原来的6去哪了
1回答
flare_zhao
2025-08-12
原来的14X14X6和每个filter计算得到一个10X10的矩阵,因为有16个filter所有增加了第三维得到16组矩阵
Python3入门人工智能 掌握机器学习+深度学习
2036 学习 · 614 问题
相似问题
回答 1