請問影片中7:37中說到b是w的第2維的意思?不是很懂,又為何跟神經元輸出有關係呢

来源:2-6 数据处理与模型图构建(2)

billfu

2018-11-04

写回答

1回答

正十七

2018-11-25

在这里,需要去看一下之前的公式,对于二分类模型:

y = sigmoid(w*x + b), 此时x是向量,w是向量,b是标量。

而对于多输出而言,

y=sigmoid(w*x + b), 此时x是矩阵, w是矩阵,b是向量。

x矩阵大小是[batch_size, data_dim],

w矩阵大小是[data_dim, output_dim],

b向量长度为 output_dim.

这里多输出的含义是对于每个输出,都会有一个对应的w和b去计算,所以对于每个输出,就是二分类时的情况。所以b的长度和w的第二维一样,同时w的第二维也就是类别数目。

对于二分类模型而言,可以把它统一到多输出模型中,此时output_dim = 1罢了。

0
0

深度学习之神经网络(CNN/RNN/GAN)算法原理+实战

深度学习算法工程师必学,深入理解深度学习核心算法CNN RNN GAN

2617 学习 · 935 问题

查看课程