老师,小批量随机梯度下降法的学习率也是随迭代次数增大而减小吗,每次选择的样本一般是多少呢

来源:6-9 有关梯度下降法的更多深入讨论

慕用6515613

2018-08-24

写回答

1回答

liuyubobobo

2018-08-24

梯度下降法中的学习率是一个超参,是和迭代次数独立的一个参数,而不是迭代次数的函数。学习率需要在执行算法前进行指定。可以参考我们这个课程中实现的梯度下降法训练的函数声明:

def fit_bgd(self, X_train, y_train, eta=0.01, n_iters=1e4):

其中,eta是学习率;n_iters是迭代次数。


对于小批量梯度下降法,每一个“小批量”是多少,可以根据自己计算环境的计算资源和样本总量而定,10%样本,5%样本,1%样本,都可以:)这也是一个超参数。随机梯度下降法和批量梯度下降法是小批量梯度下降法的两级。随机梯度下降法等于每一个批量的样本数为1;批量梯度下降法等于每一个批量的样本数为100%:)


加油!:)

0
3
慕用6515613
回复
liuyubobobo
嗯嗯,了解了,谢谢老师
2018-08-24
共3条回复

Python3入门机器学习 经典算法与应用  

Python3+sklearn,兼顾原理、算法底层实现和框架使用。

5893 学习 · 2454 问题

查看课程