KNN归一化后准确率反而下降

来源:4-8 scikit-learn中的Scaler

NTeam6

2020-06-20

如果在KNN算法的应用时,对训练数据集和测试数据集归一化后准确率反而比不归一化时降低了,从85%降到了76%。这种情况是不是还是应该坚持归一化,得到的准确率才更可靠。

写回答

1回答

liuyubobobo

2020-06-20

赞!对的!对于机器学习来说,我们的目的不是为了找到一个更高的准确率,而是找到更可靠的准确率!


继续加油!:)

1
5
liuyubobobo
回复
慕沐9165406
可以这么理解。依然是,对于一组数据,我们用各种方式"hack",最终得到准确率是 100%,其实是很容易的,永远可以得到的。但这不是我们的目的,我们的目的是训练出一个“合理”的模型,具体什么是“合理”,很多时候要具体问题具体分析:)
2022-01-30
共5条回复

Python3入门机器学习 经典算法与应用  

Python3+sklearn,兼顾原理、算法底层实现和框架使用。

5839 学习 · 2437 问题

查看课程