网站大量收购独家精品文档,联系QQ:2885784924

主成分分析发明人.docxVIP

  1. 1、本文档共15页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
主成分分析发明人

在多元统计分析中,主成分分析(/wiki/%E8%8B%B1%E8%AF%AD \o 英语英语:Principal components analysis,PCA)是一种分析、简化数据集的技术。主成分分析经常用减少数据集的/wiki/%E7%BB%B4%E6%95%B0 \o 维数维数,同时保持数据集的对方差贡献最大的特征。这是通过保留低阶主成分,忽略高阶主成分做到的。这样低阶成分往往能够保留住数据的最重要方面。但是,这也不是一定的,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大。主成分分析由/wiki/%E5%8D%A1%E5%B0%94%C2%B7%E7%9A%AE%E5%B0%94%E9%80%8A \o 卡尔·皮尔逊卡尔·皮尔逊于1901年发明/wiki/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90 \l cite_note-1[1],用于分析数据及建立数理模型。其方法主要是通过对/wiki/%E5%85%B1%E8%AE%8A%E7%95%B0%E6%95%B8%E7%9F%A9%E9%99%A3 \o 协方差矩阵协方差矩阵进行特征分解/wiki/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90 \l cite_note-2[2],以得出数据的主成分(即/wiki/%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F \o 特征向量特征向量)与它们的权值(即/wiki/%E7%89%B9%E5%BE%81%E5%80%BC \o 特征值特征值/wiki/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90 \l cite_note-3[3])。PCA是最简单的以特征量分析多元统计分布的方法。其结果可以理解为对原数据中的/wiki/%E6%96%B9%E5%B7%AE \o 方差方差做出解释:哪一个方向上的数据值对方差的影响最大?换而言之,PCA提供了一种降低数据/wiki/%E7%B6%AD%E5%BA%A6 \o 维度维度的有效办法;如果分析者在原数据中除掉最小的/wiki/%E7%89%B9%E5%BE%81%E5%80%BC \o 特征值特征值所对应的成分,那么所得的低维度数据必定是最优化的(也即,这样降低维度必定是失去讯息最少的方法)。主成分分析在分析复杂数据时尤为有用,比如/wiki/%E4%BA%BA%E8%84%B8%E8%AF%86%E5%88%AB \o 人脸识别人脸识别。PCA是最简单的以特征量分析多元统计分布的方法。通常情况下,这种运算可以被看作是揭露数据的内部结构,从而更好的解释数据的变量的方法。如果一个多元数据集能够在一个高维数据空间坐标系中被显现出来,那么PCA就能够提供一幅比较低维度的图像,这副图像即为在讯息最多的点上原对象的一个‘投影’。这样就可以利用少量的主成分使得数据的维度降低了。PCA跟因子分析密切相关,并且已经有很多混合这两种分析的统计包。而真实要素分析则是假定底层结构,求得微小差异矩阵的特征向量。数学定义PCA的数学定义是:一个正交化线性变换,把数据变换到一个新的坐标系统中,使得这一数据的任何投影的第一大方差在第一个坐标(称为第一主成分)上,第二大方差在第二个坐标(第二主成分)上,依次类推[4]。定义一个n?×?m的矩阵,?XT为去平均值(以平均值为中心移动至原点)的数据,其行为数据样本,列为数据类别(注意,这里定义的是XT?而不是X)。则X的奇异值分解为X?=?WΣVT,其中m?×?m矩阵W是XXT的本征矢量矩阵,?Σ是m?×?n的非负矩形对角矩阵,V是n?×?n的XTX的本征矢量矩阵。据此,当?m??n?? 1时,V?在通常情况下不是唯一定义的,而Y?则是唯一定义的。W?是一个正交矩阵,YT是XT的转置,且YT的第一列由第一主成分组成,第二列由第二主成分组成,依此类推。为了得到一种降低数据维度的有效办法,我们可以把?X?映射到一个只应用前面L个向量的低维空间中去,WL:?where??with??the??rectangular identity matrix.X?的单向量矩阵W相当于协方差矩阵的本征矢量?C?=?X XT,在欧几里得空间给定一组点数,第一主成分对应于通过多维空间平均点的一条线,同时保证各个点到这条直线距离的平方和最小。去除掉第一主成分后,用同样的方法得到第二主成分。依此类推。在Σ中的奇异值均为矩阵?XXT的本征值的平方根。每一个本征值都与跟它们相关的方差是成正比的,而且所有本征值的总和等于所有点到它们的多维空间平均点距离的平方和。PCA提供了一种降低维度的有效办法,本质上,它利

文档评论(0)

weixin98 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档