是否可以说Boosting算法里的决策树都是回归树而非分类树呢?
来源:13-6 Ada Boosting 和 Gradient Boosting

伊利札洛夫
2019-04-08
RT
写回答
1回答
-
我相信你说的是Gradient Boosting:)
因为Gradient Boost的思路就是基于上一层的误差,来创建新的模型。也就是新的模型的数据集是原始的X配上上一层模型的误差值。这本身就是一个回归问题:)(因为误差是一个数)
所以,GB天然的就可以解决回归问题。如果用于解决分类问题,反而要绕个弯子,进行改良。最简单的方法,和逻辑回归一样,将分类问题和预测百分比的值联系起来,将分类问题转换成回归问题。(逻辑回归是将回归问题转化成了分类问题)
继续加油!:)
112019-04-09
相似问题