7-5中从低维映射回高维公式的意义?

来源:7-5 高维数据映射为低维数据

烈焰卡卡

2018-03-01

老师好!请问一下,从高维映射到低维,是X中每个向量与每个w向量点乘,意义是得到新的X在每个w维度上的模长,这个容易理解。但是反向映射时,将这个结果再与w整个矩阵做点乘,实际上是新的X分别于w矩阵每一列(每个w的第i个元素)相乘,这个做法的实际意义该如何理解?为何结果就是损失了一部分数据的高维数据呢?

写回答

2回答

liuyubobobo

2018-03-01

通常是不需要进行这个反向映射的,在这里只是说明PCA可以进行这个逆向的过程。如果你的特征本身存在语意,由于降维后丢失了语意信息,所以反向映射后,可以看到降维后的数据再恢复到原特征空间,原有的特征对应是多少。不过其实如果特征的语意比较强,通常也不大使用PCA进行降维处理。


降维本身就是有代价的,在降维的过程中一定会丢失信息。这个反向映射是不可能增加信息的。这个很好理解:一个一维数据(一条直线),就算扔到三维空间,它还是一条直线。PCA的反向映射同理:如果已经将一个三维数据降维成为一维数据,其代价就是丢失了信息。反向映射回原来的三维空间,丢失的数据也回不来:)

0
3
RunawayInCircles
回复
liuyubobobo
我明白了,原来是正交矩阵,老师的回答唤醒了我久远的线代知识(╥﹏╥),谢谢!
2022-09-13
共3条回复

liuyubobobo

2018-03-22

回答问题的时候又翻到了这个问题,补充一句。非常有意思。最近我老婆在做一个数据分析的任务的时候,恰恰就用到了要把PCA降维后的低维数据映射回高维空间的需求。因为她需要检验:降维以后的低维数据,在高维空间中,各个特征对结果的影响大小。这里的关键还是:低维空间虽然维度降低了,但丢失了特征的语意。如果想考察特征的语意相关的信息,就需要回到原始的高维空间。其实,PCA是很多特征提取方法的第一步呢:)

0
0

Python3入门机器学习 经典算法与应用  

Python3+sklearn,兼顾原理、算法底层实现和框架使用。

5856 学习 · 2437 问题

查看课程