为什么这是最后一层的误差,这不是b的偏导数吗??

来源:2-9 神经网络的训练--反向传更新_代码部分

浮夸的小蚂蚁

2018-01-03

delta = self.cost_derivative(activations[-1], y) * sigmoid_prime(zs[-1])

为什么这是最后一层的误差,这不是b的偏导数吗??有点懵了,我是不是漏掉了什么关键信息……

写回答

1回答

卫峥

2018-01-03

恩。你漏掉了关键信息。仔细看推导步骤

0
2
卫峥
回复
浮夸的小蚂蚁
认真看视频 倒数怎么求 前向传播 反向更新,你上面贴的公式都有讲的很清楚
2018-01-03
共2条回复

深度学习之神经网络核心原理与算法

神经网络实现/Tensorflow框架/图片分类实现

474 学习 · 69 问题

查看课程