代价函数的梯度问题?

来源:2-5 实战分类模型之数据归一化

慕神4535282

2021-04-14

老师,下午好,请教一个问题?
https://www.jianshu.com/p/c7e642877b0e 中,有这样一段:
图片描述
问题:

  1. 上图中的文字

求解出代价函数的梯度,也就是分别对两个变量进行微分

提到的 “微分” 指的是 “全微分”,而不是 “偏微分” 吧?
因为按照 https://www.zhihu.com/question/22470793 的票数最高答案,并结合上图来理解得出的这个结论。

  1. 根据 https://www.zhihu.com/question/22470793 的票数最高答案,图图片描述
    岂不是写错了,应该写成
    图片描述
    图片描述
    毕竟,按照上面知乎链接的解释,图片描述的结果是0.

  2. 但是根据百度百科,https://baike.baidu.com/item/微分符号 的解释,

在偏导的微分计算中多数使用

,不用

以免出现混淆。

按照这种解释,图图片描述中的符号这么写也是正确的,请问老师这是怎么一回事,是业界对此情况不加区分经常混用吗?是否我以后与人讨论类似的问题时也可以这样混用呢?

问题有点多,麻烦老师尽量以答案1,答案2,答案3的方式来解答我的提问,辛苦老师了,非常感谢!!!

写回答

1回答

正十七

2021-04-19

  1. 是偏微分而不是全微分,在神经网络中有无数的参数,需要对其中的每一个都做偏微分求梯度。

所以2,3问不存在。

0
1
慕神4535282
老师,你好,根据 https://www.zhihu.com/question/272499712,求解代价函数的梯度,应该是求 “全微分”呀? 因为正如文中所说: “当我们考察的函数“邻域”足够小的时候,我们可以把曲面当成平面。这就是所谓线性近似的几何解释。” 得到全微分的定义(二元): [公式]。 为什么是偏微分而不是全微分呢?
2021-04-20
共1条回复

Google老师亲授 TensorFlow2.0 入门到进阶

Tensorflow2.0实战—以实战促理论的方式学习深度学习

1849 学习 · 896 问题

查看课程