为什么神经网络的loss会逐渐变小?就是经过一次神经网络之后,我们已经得到权重和偏置了,在哪一个步骤进行梯度下降调整?
来源:3-1 神经网络进阶
weixin_慕尼黑0465866
2020-05-03
写回答
1回答
-
loss会逐渐减小是因为代码中要求它变小:
with tf.name_scope('train_op'): train_op = tf.train.AdamOptimizer(1e-3).minimize(loss)
如果你想让它变大,那么给loss乘以一个负一就可以。
梯度的调整是隐式的,发生在这里:
loss_val, acc_val, _ = sess.run( [loss, accuracy, train_op], feed_dict={ x: batch_data, y: batch_labels})
只要train_op在sess.run的参数列表里,就发生梯度下降的调整。
012020-05-07
相似问题