为什么这是最后一层的误差,这不是b的偏导数吗??
来源:2-9 神经网络的训练--反向传更新_代码部分

浮夸的小蚂蚁
2018-01-03
delta = self.cost_derivative(activations[-1], y) * sigmoid_prime(zs[-1])
为什么这是最后一层的误差,这不是b的偏导数吗??有点懵了,我是不是漏掉了什么关键信息……
写回答
1回答
-
卫峥
2018-01-03
恩。你漏掉了关键信息。仔细看推导步骤
022018-01-03
相似问题