决策树的局限性

来源:12-7 决策树的局限性

imblackhat

2018-03-15

老师您好,不理解删除了样本后,为什么决策边界会发生变化?删除那个样本后,竖直的决策边界不也可以达到信息熵最小的要求吗?

写回答

1回答

liuyubobobo

2018-03-15

决策树中信息熵的计算,和所有的数据点都相关。有一个数据点有变化,都很有可能会影响信息熵的计算结果,进而影响决策边界(非参数学习都是对数据非常敏感的,回忆一下,我们讲knn的时候也提过这一点。)


删除一个样本后,很有可能在竖直方向不再是信息熵最小的决策边界方向,而某个水平方向才是。

0
0

Python3入门机器学习 经典算法与应用  

Python3+sklearn,兼顾原理、算法底层实现和框架使用。

5839 学习 · 2437 问题

查看课程