out.backward

来源:3-33 Pytorch与autograd中的几个重要概念-function

weixin_慕尼黑0465866

2021-09-22

我们重新了Function类中的backward方法,我们新的backward的方法的参数只有ctx 和 grad_out,为什么 out.backward()还需要传入参数 torch.tensor(2,2)??

写回答

1回答

会写代码的好厨师

2021-10-11

这个要看导数是标量还是向量(矩形,张量)。

标量不需要填参数,向量需要输入参数。

可以阅读下这个博客:https://www.cnblogs.com/JeasonIsCoding/p/10164948.html

或者了解下,矩阵如何求导。


0
0

PyTorch入门到进阶 实战计算机视觉与自然语言处理项目

理论基础+技术讲解+实战开发,快速掌握PyTorch框架

1205 学习 · 298 问题

查看课程