out.backward
来源:3-33 Pytorch与autograd中的几个重要概念-function

weixin_慕尼黑0465866
2021-09-22
我们重新了Function类中的backward方法,我们新的backward的方法的参数只有ctx 和 grad_out,为什么 out.backward()还需要传入参数 torch.tensor(2,2)??
写回答
1回答
-
会写代码的好厨师
2021-10-11
这个要看导数是标量还是向量(矩形,张量)。
标量不需要填参数,向量需要输入参数。
可以阅读下这个博客:https://www.cnblogs.com/JeasonIsCoding/p/10164948.html
或者了解下,矩阵如何求导。
00