老师,我按照你的代码一个个敲一遍,为啥是这样结果啊

来源:10-8 模型训练

王浩同学

2021-04-19

图片描述epochs = 10
steps_per_epoch = len(input_tensor)//batch_size

for epoch in range(epochs):
start = time.time()

encoding_hidden = encoder.initialize_hidden_state()
total_loss = 0

for(batch,(inp,targ)) in enumerate(
    train_dataset.take(steps_per_epoch)):
    batch_loss = train_step(inp,targ,encoding_hidden)
    total_loss += batch_loss
    
    if batch % 100 == 0:
        print('Epoch {} batch {} loss {:.4f}'.format(
            epoch+1,batch,batch_loss.numpy()))
print('Epoch {} Loss {:.4f}'.format(epoch+1,total_loss/steps_per_epoch))
print('Time take for 1 epoch {} second\n'.format(time.time() - start))
写回答

1回答

正十七

2021-04-19

所以问题是啥?

另:我们的代码在git上:https://git.imooc.com/coding-344/tensorflow2.0_course,你可以自己diff一下哪里不一样。

0
2
王浩同学
老师 我已经解决了,是attention_weights * encoder_outputs 权重相乘 我打成 相加了!多谢老师!
2021-04-21
共2条回复

Google老师亲授 TensorFlow2.0 入门到进阶

Tensorflow2.0实战—以实战促理论的方式学习深度学习

1849 学习 · 896 问题

查看课程