这一小节相对来说比较晦涩难懂

来源:3-31 Pytorch与autograd中的几个重要概念-variable-grad-grad_fn

weixin_慕尼黑6127149

2021-02-24

我觉得主要原因还是老师只是讲了函数还有参数是什么作用,但是没有真正举例子(敲代码),所以很多时候老师讲了这个函数或者参数是干嘛的我却理解不了,比如torch.autograd.grad()函数的only_inputs,置为True就只计算inputs的梯度置为false就计算所有叶子节点的梯度,那叶子节点是啥,计算叶子节点的梯度与只计算inputs的梯度有什么区别,没有在代码上体现,比较难懂,这一节很多地方都是如此

写回答

1回答

会写代码的好厨师

2021-02-26

问题反馈的很好,因为考虑到课时的限制,所以内容上会有些取舍,不重要的部分会略过一些细节。自动求导在实际是用的时候,实际上不需要太关心,除非是自己需要操作导数。绝大多数时候是用不上。再看这个问题,用户创建的tensor属于叶子张量,中间产生的结果是非叶子张量。叶子张量存在的目的是为了节省内存,因为大多数中间产生的结果是不会被用到的,所以会被释放掉。

0
1
weixin_慕尼黑6127149
看了后面的章节接触了一些代码差不多理解了,谢谢老师
2021-02-26
共1条回复

PyTorch入门到进阶 实战计算机视觉与自然语言处理项目

理论基础+技术讲解+实战开发,快速掌握PyTorch框架

1190 学习 · 293 问题

查看课程