为什么最后一层不使用非线性变换了?
来源:3-4 卷积神经网络实战
Suspendz
2020-01-12
3-4卷积网络这节前面,使用三个隐藏层的神经网络,隐藏层使用relu非线性函数计算,在最后输出dense(hidden3,10),但是这里为什么不加非线性函数softmax了,在后面直接根据argmax(dense(hidden3,10))取得分类预测值,总感觉很奇怪。我之前以为使用sparse_softmax_cross_entropy可以自动更新y=onehot(y) 更新y_=softmax(y_),但是测试了一下把y和y_拿回来打印出来发现是没有变的。
写回答
1回答
-
Suspendz
提问者
2020-01-13
不过考虑到softmax下面是个e的x次的加和值,分子是e的x次,是个单调函数。而x来自于上一层的relu因此要么是0要么是正数,那似乎看起来argmax(softmax(x))和argmax(x)就没什么区别了。。
00
相似问题
老师,关于激活函数relu
回答 1
1*1卷积核为什么是非线性变换
回答 1