对平坦化之后经过1024的全连接层有些疑惑
来源:4-21 动手实现CNN卷积神经网络(三)
kurisu_
2018-06-02
老师这里为什么需要一个1024的全连接层,为什么不直接7*7*64的向量dropout然后到最后的10个的全连接层呢?这样做是有什么考虑么
写回答
1回答
-
Oscar
2018-06-14
00
相似问题
对平坦化之后经过1024的全连接层有些疑惑
来源:4-21 动手实现CNN卷积神经网络(三)
kurisu_
2018-06-02
老师这里为什么需要一个1024的全连接层,为什么不直接7*7*64的向量dropout然后到最后的10个的全连接层呢?这样做是有什么考虑么
1回答
Oscar
2018-06-14
相似问题