为什么最后一层不使用非线性变换了?

来源:3-4 卷积神经网络实战

Suspendz

2020-01-12

3-4卷积网络这节前面,使用三个隐藏层的神经网络,隐藏层使用relu非线性函数计算,在最后输出dense(hidden3,10),但是这里为什么不加非线性函数softmax了,在后面直接根据argmax(dense(hidden3,10))取得分类预测值,总感觉很奇怪。我之前以为使用sparse_softmax_cross_entropy可以自动更新y=onehot(y) 更新y_=softmax(y_),但是测试了一下把y和y_拿回来打印出来发现是没有变的。

写回答

1回答

Suspendz

提问者

2020-01-13

不过考虑到softmax下面是个e的x次的加和值,分子是e的x次,是个单调函数。而x来自于上一层的relu因此要么是0要么是正数,那似乎看起来argmax(softmax(x))和argmax(x)就没什么区别了。。

0
0

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程