training = is_training

来源:5-2 激活函数到调参技巧(1)

战战的坚果

2020-05-07

老师,在TF2.0的批归一化中还有training这个参数吗?

eval_ops_results = sess.run(
            eval_ops, #可能3、4,是一个变长值
            feed_dict={
                x: batch_data,
                y: batch_labels,
                is_training: True
            })

还有:

with tf.name_scope(‘train_op’):
# train_op = tf.train.AdamOptimizer(1e-3).minimize(loss)
optimizer = tf.train.AdamOptimizer(1e-3)
update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
# 有两个方案使用batch_normalization,第一种如下面的代码使用control dependencies,
# 第二种是不使用control_dependencies, 但在下面训练代码中调sess.run的时候,把update_ops也加进去,即
# sess.run([train_op, update_ops, …], feed_dict = …)
with tf.control_dependencies(update_ops):
train_op = optimizer.minimize(loss)

这段代码中提到的control_dependencies,在TF2.0中也是需要添加的嘛

写回答

1回答

正十七

2020-05-08

都不需要了。

0
0

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程