老师,为什么rnn计算交叉熵里logits和targets的维度不一样?
来源:4-31 动手实现RNN-LSTM循环神经网络(六):编写神经网络模型(中)2

JacksonZ
2018-08-10
# 计算 logits 的序列的交叉熵(Cross-Entropy)的损失(loss) loss = tf.contrib.seq2seq.sequence_loss( logits, # 形状默认为 [20, 35, 10000] self.input_obj.targets, # 期望输出,形状默认为 [20, 35] tf.ones([self.batch_size, self.num_steps], dtype=tf.float32), average_across_timesteps=False, average_across_batch=True)
写回答
1回答
-
Oscar
2018-08-16
https://www.tensorflow.org/api_docs/python/tf/contrib/seq2seq/sequence_loss
logits 和 targets 不是一个概念
00
相似问题