老师,为什么在global_average_pooling2d_1层后面接全连接层效果反倒不好了?
来源:12-5 迁移学习下的模型预测

zozo_zuo
2020-01-24
如题,我在mobilenet的global_average_pooling2d_1层后面接的dense层,参数与课程中一致,但是训练效果并不好,是因为global average pooling之后丢失了特征图的中的信息么?
写回答
1回答
-
lewis
2020-01-24
没听明白,迁移学习本来就是把别的模型最后一层换成dense层,训练效果很好,建议你先可视化diff一下你的代码和示例代码的区别
022020-01-26
相似问题
x的平方
回答 4
MobileNet文件不能下载
回答 1