- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
PCA算法的数学知识---特征值分解和奇异值分解
PCA算法的数学知识---特征值分解和奇异值分解:
1)特征值:
??? 如果说一个向量v是方阵X的特征向量,将一定可以表示成下面的形式:
??? 这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式:
其中Q是这个矩阵X的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。
首先,要明确的是,乘以一个矩阵其实就是一个线性变换,而且将一个矩阵乘以一个向量后得到的向量,其实就相当于对这个向量进行了线性变换。如果我们想要描述好一个变换,那我们就描述好这个变换主要的变化方向就好了。分解得到的Σ矩阵是一个对角阵,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。通过特征值分解得到的前N个特征向量,就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。也就是:提取这个矩阵最重要的特征。
总结一下,特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么,可以
少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前r大的奇异值来近似描述矩阵,这里定义一下部分奇异值分解:
??? r是一个远小于n、p的数,右边的三个矩阵相乘的结果将会是一个接近于X的矩阵,在这儿,r越接近于p,则相乘的结果越接近于X。而这三个矩阵的面积之和(在存储观点来说,矩阵面积越小,存储量就越小)要远远小于原始的矩阵X,我们如果想要压缩空间来表示原矩阵X,我们存下这里的三个矩阵:U、Σ、V就好了。
奇异值与主成分分析(PCA):
PCA的全部工作简单点说,就是对原始的空间中顺序地找一组相互正交的坐标轴,第一个轴是使得方差最大的,第二个轴是在与第一个轴正交的平面中使得方差最大的,第三个轴是在与第1、2个轴正交的平面中方差最大的,这样假设在N维空间中,我们可以找到N个这样的坐标轴,我们取前r个去近似这个空间,这样就从一个N维的空间压缩到r维的空间了,但是我们选择的r个坐标轴能够使得空间的压缩使得数据的损失最小。
假设矩阵每一行表示一个样本,每一列表示一个特征,用矩阵的语言来表示,对一个n* p的矩阵X进行坐标轴的变化,P就是一个变换的矩阵,从一个p维的空间变换到另一个p维的空间,在空间中就会进行一些类似于旋转、拉伸的变化。
??? 而将一个n * p的矩阵X变换成一个n* r的矩阵,这样就会使得本来有p个特征的样本,变成了有r个特征了(r p),这r个其实就是对p个特征的一种提炼。用数学语言表示就是:
???
但是这个跟奇异值分解(SVD)什么关系呢?之前谈到,SVD得出的奇异向量也是从奇异值由大到小排列的,按PCA的观点来看,就是方差最大的坐标轴就是第一个奇异向量,方差次大的坐标轴就是第二个奇异向量…我们回忆一下之前得到的SVD式子:
????
在矩阵的两边同时乘上一个矩阵V,由于V是一个正交的矩阵,所以V转置乘以V得到单位阵I,所以可以化成后面的式子
????
将后面的式子与X * P那个n * p的矩阵变换为n * r的矩阵的式子对照看看,在这里,其实V就是P,也就是一个变化的向量,即一组新的坐标基,也叫主成分矩阵,而相当于原数据在新坐标基下的坐标,叫做得分矩阵。这里是将一个n * p 的矩阵压缩到一个n * r的矩阵,也就是对列进行压缩。
如果我们想对行进行压缩(在PCA的观点下,对行进行压缩可以理解为,将一些相似的样本合并在一起,或者将一些没有太大价值的样本去掉)怎么办呢?同样我们写出一个通用的行压缩例子:
???
这样就从一个n行的矩阵压缩到一个r行的矩阵了,对SVD来说也是一样的,我们对SVD分解的式子两边乘以U的转置U
这样我们就得到了对行进行压缩的式子。可以看出,其实PCA几乎可以说是对SVD的一个包装,如果我们实现了SVD,那也就实现了PCA了,而且更好的地方是,有了SVD,我们就可以得到两个方向的PCA,如果我们对进行特征值的分解,只能得到一个方向的PCA。
您可能关注的文档
最近下载
- 2025凉山州专业技术人员继续教育公需科目全套十一讲满分答案(纯).docx
- 有关2020年前三季度优化提升营商环境工作进展情况总结.doc VIP
- 《水电工程工程量清单计价规范》2022年版.docx VIP
- 2025-大唐光伏发电工程标杆造价指标.docx VIP
- 2021年一级建造师《通信与广电工程》真题及答案解析.pdf VIP
- 人才测评方法与应用课件.pptx VIP
- 两江集团建设项目投资估算控制指标(2017年9月最新调整).doc VIP
- 2024中国黑色金属冶炼及压延加工业行业分析报告.docx
- 第3讲 走进新时代(第一课时)新时代新生活(课件)-《学生读本(小学低年级)》.pptx VIP
- 浙江省绍兴市建功中学教育集团2023-2024八年级第一学期月考科学卷.docx VIP
文档评论(0)