- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
数值实验03:奇异值分解与主成分分析
选作问题(研究性的)
假设数据源是一系列的图像,每幅图像都是一个矩阵。分别用经典的主成分分析方法和奇异值分解方法计算特征脸。注意数据的中心化与归一化处理的影响。
(1)奇异值分解:是一个能够适用于任意矩阵的一种分解方法:
Am*n ? Um*m?m*nVn*nT
U为M*M 方阵( U里面的正交向量称为左奇异向量),? 是一个M*N的矩阵(除了对角线的元素都是 0,对角线上的元素称为奇异值), VT是一个N*N 的方(V 里面正交的向量称为右奇异向量)。
我们将一个矩阵 A的转置乘以 A,并对 ATA 求特征值
(ATA)vi=λivi
则v就为右奇异向量,且奇异值?i ? λi,左奇异值ui=A
?就为奇异值,u就为奇异向量。奇异值? 跟特征值类似,在矩阵Σ中也是从大到小排列,而且?的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前r大的奇异值来近似描述矩阵,部分奇异值分解:
Am?n ? Um ?r ? r?rVTr?n (r是一个远小于 m、n的数)
给定一幅 M*N大小的图像,将它表示成 M*N*1 维向量,向量中元素为像素点的 灰度,按行存储,则如下公式分别表示第 i 张图片和 n 张图片的平均值:
令 M*N*n 矩阵 X 为:
即中心化,将坐标原点移动到平均值位置。设Q ? XXT ,则Q是一个MN * MN 矩阵:
Q 被称为协方差矩阵。 那么X中每一个元素xj可以表达成:
其中ei 是非零特征值对应的特征向量,对于 M*N 图像, e1,e2,...,en 是M*N*1 维相互正交的向量。尺度gji 是xj在空间中的坐标。为了降维,可以对特征值设定阈值或按照其他准则,寻找协方差矩阵Q中前 k个特征向量。Q为 M*N*M*N,通常很庞大。考虑矩阵
P ? XTX
Q 的大小为 M*N*M*N,而P的大小为 n*n,N 为训练样本图像数量,通常 nM*N 设e是矩阵 P 的特征值?对应的特征向量,则有:
Pe ? ?e
XTXe ? ?e
XXTXe ? ?Xe
Q(Xe) ? ?( Xe)
所以 X*e 是矩阵Q 的特征值?对应的特征向量。这就是用求特征值分解的方法。
对Q进行奇异值分解
QMN * MN ? UMN * MN?MN * MNVMN * MN
U就是QQT的特征向量, V就是QTQ 的特征向量, ?中奇异值的平方就是QQT 和QTQ的特征值。
(2)主成分分析(PCA)的原理就是将一个高维向量x,通过一个特殊的特征向量矩阵U,投影到一个低维的向量空间中,表征为一个低维向量y,并且仅仅损失了一些次要信息。也就是说,通过低维表征的向量和特征向量矩阵,可以基本重构出所对应的原始高维向量。
在人脸识别中,特征向量矩阵U称为特征脸空间,因此其中的特征向量ui进行量化后可以看出人脸轮廓,在下面的实验中可以看出。
设有n个人脸训练样本,每个样本由其像素灰度值组成一个向量xi,则样本图像的像素点数即为xi 的维数,由向量构成的训练样本集为[??1,??2,…,????]。 该样本集的平均向量为:
平均向量又叫平均脸。
样本集的协方差矩阵为:
求出协方差矩阵的特征向量ui和对应的特征值λi ,这些特征向量组成的矩阵U就是人脸空间的正交基底,用它们的线性组合可以重构出样本中任意的人脸图像。并且图像信息集中在特征值大的特征向量中,即使丢弃特征值小的向量也不会影响图像质量。 QUOTE ,这些特征向量组成的矩阵U就是人脸空间的正交基底,用它们的线性组合可以重构出样本中任意的人脸图像。并且图像信息集中在特征值大的特征向量中,即使丢弃特征值小的向量也不会影响图像质量。
将协方差矩阵的特征值按从大到小顺序:。
由大于λd的λi对应的特征向量构成主成分,主成分构成的变换矩阵为:
这样每一幅人脸图像都可以投影到构成的特征脸子空间中。
MATLAB实践:
选取16 张人脸图像作为数据源,大小为80×80(这里的人脸图像要求大小相同,人眼部位尽可能对齐),把图像存储为[80×80,16]的矩阵A,每列表示一张图像,每行代表同一个位置的像素,因此一共有80×80个维度。中心化时各自减去每个维度的均值,由于图像数据的量纲一样,所以不需要归一化。16 张人脸为:
对X用经典的主成分分析法计算特征脸,取前15个对应主成分特征脸:
通常情况下MNP的,而矩阵非零特征值的个数为min{MN-1,P-1},所以在实现中使用维数少的
原创力文档


文档评论(0)