元宵节快乐

来源:3-7 芯片检测实战

慕神9973112

2020-02-09

老师,又学习了一章节新的东西,谢谢老师。老师我比较笨,我有几个问题想下;
第0个,老师的两个案例都是 只有两个特征向量,也就是theta1和theta2,
如果有多个,那么可视化的时候应该怎么可视化,我比较困惑,是像第二章一样线性回归一样,看每两个变量的二维图。
一,老师讲了梯度下降,那么他的步伐那个a,具体表现在哪里,scklearn里面会自己优化这个梯度下降的算法吗?还是在对象的方法中有默认的值。
二。逻辑回归只是针对二分类吗,对多分类还是得用神经网络,决策树那些吗?
二,图片描述

老师求的x2,我试着求了下x1,然后我就晕了。我开始不理解,为什么要用x2_new = -(theta0+theta1*x1)/theta2这个,为什么要用已知的x1去推未知的x2_new,求出的意义又是什么?
三,老师辛苦,元宵节快乐!昨天太累了。没看,今天抓紧时间看了下,很期待老师后面的课程!

写回答

2回答

flare_zhao

2020-02-09

0、当变量非常多的时候,可能无法直接可视化结果,因为通常我们普通作图都是2D或者3D的,这个时候可以主要通过一些模型评估指标来看模型的表现;

1、梯度下降法是实现回归、分类、mlp模型求解用的非常多的,因此我在知识讲解时有专门讲解。但其实线性回归的求解还有另外一种方法,称为正规方程求解(英文:regular expression)。这种方法不需要指定alpha,而是直接通过特征向量的矩阵计算完成,有两个很大的缺点:参数维度很高以后不适用;不能用于逻辑回归、mlp求解。因此flare老师没有介绍。当然,我们调用linearregression模型的时候,通常默认使用了这种求解方法,因此不需要指定alpha。

2、普通的logistic回归只能针对二分类(Binary Classification)问题,要想实现多个类别的分类,必须改进logistic回归,让其适应多分类问题。通常来说有两种改进方法:

第一种方式是直接根据每个类别,都建立一个二分类器,带有这个类别的样本标记为1,带有其他类别的样本标记为0。假如我们有个类别,最后我们就得到了个针对不同标记的普通的logistic分类器。(One VS Rest/ALL)

第二种方式要是将n个数据分类结果任意两个进行组合,然后对其单独进行训练和预测,最终在所有的预测种类中比较其赢数最高的即为分类结果,这样的分类方式最终将训练分为n(n-1)/2个模型(One VS One)

考虑本门课程的受众,没有进行太过深入的讲解,感兴趣的小伙伴可以继续学习一下逻辑回归用于多分类;

3、意义就是为了能够可视化你的分类的边界(decision boundary),这样你就能直观的看到分类的效果了。

问的挺细的,你学的很细心,很会反思,给你点赞。



3
2
flare_zhao
回复
慕码人9485459
加油!
2022-06-08
共2条回复

慕神9973112

提问者

2020-02-10

谢谢老师,辛苦了

1
1
flare_zhao
不客气
2020-02-10
共1条回复

Python3入门人工智能 掌握机器学习+深度学习

人工智能基础全方位讲解,构建完整人工智能知识体系,带你入门AI

1946 学习 · 594 问题

查看课程