- 14
- 0
- 约4.65千字
- 约 29页
- 2018-05-09 发布于河南
- 举报
pca主分量分析
盲信号处理 在现实世界中得到的信号都是不纯的,一般由若干个信号源以某种方式混合而成。各信号如何混合不得而知。如:语音信号、脑电与心电信号、无线通讯信号、机械设备振动信号、雷达信号与地震波信号。 因此为了恢复它们,就需要根据各源信号的一些统计特性从混合的数据信号中将其分离出来。这样一个信号分离或恢复的过程就称为盲信号分离简称盲分离 盲处理的原理框图 盲处理的目的 盲辨识: 盲源分离: 盲信号处理的应用 1.生物医学信号处理:心电图( ECG)、脑电图(EEG)、功能磁共振图像分析 2.阵列信号处理领域:海洋生物探测、军事领域(雷达探测) 3.语音识别:通信、声控计算机 4.图像处理:恢复图像 等等。 试验模型: 下面的模型取自一个物理学中的实验。它看上去比较简单,但足以说明问题。如图表1所示。这是一个理想弹簧运动规律的测定实验。假设球是连接在一个无质量无摩擦的弹簧之上,从平衡位置沿轴拉开一定的距离然后释放。 主分量分析 概 述 主分量分析的基本原理 主分量分析的计算步骤 主分量分析主要的作用 主分量分析方法的假设 在实际问题研究中,为了全面、系统地分析问题,我们必须考虑众多影响因素。这些涉及的因素一般称为指标,在多元统计分析中也称为变量。因为每个变量都在不同程度上反映了所研究问题的某些信息,并且指标之间彼此有一定的相关性,因而所得的统计数据反映的信息在一定程度上有重叠。在用统计方法研究多变量问题时,变量太多会增加计算量和增加分析问题的复杂性,人们希望在进行定量分析的过程中,涉及的变量较少,得到的信息量较多。主成分分析正是适应这一要求产生的,是解决这类题的理想工具。 主成分概念首先由 Karl Parson在1901年首先提出,当时只是对非随机变量来讨论的。1933年Hotelling将这个概念推广到随机变量,作了进一步发展。把从混合信号中求出主分量(能量最大的成份)的方法称为主分量分析(PCA),而次分量(Minor Components, MCs)与主分量(Principal Components, PCs)相对,它是混合信号中能量最小的成分,被认为是不重要的或是噪声有关的信号,把确定次分量的方法称为次分量分析(MCA)。 PCA是Principal component analysis的缩写,中文翻译为主元分析,它是一种对数据进行分析的技术,最重要的应用是对原有数据进行简化 ,也有称经验正交函数分解或特征向量分析。 分析对象:以网格点为空间点(多个变量)随时间变化的样本 。 主分量分析与回归分析(研究一个随机变量Y对另一个(X)或一组(X1,X2,…,Xk)变量的相依关系的统计分析方法。 )、差别分析不同,它是一种分析方法而不是一种预报方法 。 我们希望可以通过某种线性组合的方法使某个变量或者某些变量的解释方差变得比较大,这些具有较大解释方差的变量就称为主分量。 主成分分析是一种经典的统计方法,它对多元统计观测数据的协方差结构进行分析,以期求出能简约地表达这些数据依赖关系的主成分。主成分分析是一种特征提取的方法,也可以认为是一种数据降维的方法。一般来说,主成分分析的实施效果与评价指标间的相关程度高低成正比。评价指标间相关程度越高,主成分分析的效果就越好。PCA可以用于减少特征空间维数、确定变量的线性组合、选择最有用的变量、变量辨识、识别目标或是异常值分组等。主分量子空间提供了从高维数据到低维数据在均方误差意义下的数据压缩,它能最大程度地减少方差。 在统计学中,主成分分析(principal components analysis,PCA)是一种简化数据集的技术。它是一个线性变换。这个变换把数据变换到一个新的坐标系统中,使得任何数据投影的第一大方差在第一个坐标(称为第一主成分)上,第二大方差在第二个坐标(第二主成分)上,依次类推。主成分分析经常用减少数据集的维数,同时保持数据集的对方差贡献最大的特征。这是通过保留低阶主成分,忽略高阶主成分做到的。这样低阶成分往往能够保留住数据的最重要方面。但是,这也不是一定的,要视具体应用而定。 PCA主要用于数据降维,对于一组样本的特征组成的多维向量,多维向量里的某些元素本身没有区分性,比如某个元素在所有的样本中都为1,或者与1差距不大,那么这个元素本身就没有区分性,用它做特征来区分,贡献会非常小。所以我们的目的是找那些变化大的元素,即方差大的那些维,而去除掉那些变化不大的维,从而使特征留下的都是最能代表此元素的“精品”,而且计算量也变小了。 ?对于一个k维的特征来说,相当于它的每一维特征与其他维都是正交的(相当于在多维坐标系中,坐标轴都是垂直的),那么我们可以变化这些维的坐标系,从而使这个特征在某些维上
原创力文档

文档评论(0)