这里的代码不明白

来源:4-2 全连接层GPU实现 代码实现

追梦逐梦白日做梦

2017-10-27

这里输出为什么要乘(1-self.p_dropout)

self.output=self.activation_fn(
   (1-self.p_dropout)*T.dot(self.input,self.w)+self.b
)


写回答

3回答

卫峥

2017-10-27

仔细看。

0
0

佐仓千代

2017-11-13

因为平时的计算是进行了dropout的 有一定百分比的节点被丢弃了的结果

这里的运算使用了所有的节点 如果不乘上(1-self.p_dropout)的话值会偏大

0
0

卫峥

2017-10-27

保留百分比

0
2
卫峥
只是以控制百分比的数值
2017-11-14
共2条回复

深度学习之神经网络核心原理与算法

神经网络实现/Tensorflow框架/图片分类实现

474 学习 · 69 问题

查看课程