已经卷积过后再卷积的细节理解

来源:8-2 卷积神经网络(二)

摩王S

2025-07-26

在LeNet-5中,那个14x14x6,我理解是因为有6个卷积核对原数据进行了6遍卷积,但突然变成了16,我不理解又进行了16个卷积,那原来的6去哪了

写回答

1回答

flare_zhao

2025-08-12

原来的14X14X6和每个filter计算得到一个10X10的矩阵,因为有16个filter所有增加了第三维得到16组矩阵

0
0

Python3入门人工智能 掌握机器学习+深度学习

人工智能基础全方位讲解,构建完整人工智能知识体系,带你入门AI

2036 学习 · 614 问题

查看课程