老师,为什么rnn计算交叉熵里logits和targets的维度不一样?

来源:4-31 动手实现RNN-LSTM循环神经网络(六):编写神经网络模型(中)2

JacksonZ

2018-08-10


        # 计算 logits 的序列的交叉熵(Cross-Entropy)的损失(loss)
        loss = tf.contrib.seq2seq.sequence_loss(
            logits,  # 形状默认为 [20, 35, 10000]
            self.input_obj.targets,  # 期望输出,形状默认为 [20, 35]
            tf.ones([self.batch_size, self.num_steps], dtype=tf.float32),
            average_across_timesteps=False,
            average_across_batch=True)


写回答

1回答

Oscar

2018-08-16

0
0

基于Python玩转人工智能最火框架 TensorFlow应用实践

机器学习入门,打牢TensorFlow框架应用是关键!

2214 学习 · 688 问题

查看课程