激活函数
来源:3-4 卷积神经网络实战
幕布斯4180522
2019-04-13
最后一层神经网络(全连接层),为什么没有用激活函数?代码如下:
hidden1 = tf.layers.dense(x, 100, activation=tf.nn.relu)
hidden2 = tf.layers.dense(hidden1, 100, activation=tf.nn.relu)
hidden3 = tf.layers.dense(hidden2, 50, activation=tf.nn.relu)
y_ = tf.layers.dense(hidden3, 10)
写回答
1回答
-
计算loss的时候使用:tf.losses.sparse_softmax_cross_entropy()函数会对y_进行一个softmax操作,所以这里就不需要再用了。不知道理解的对不对哈。
00
相似问题