基于K-L变换人脸识别系统.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
数字图像处理课程设计报告设计题目: 基于PCA算法的人脸识别系统学院: 信息工程学院 专业: 信息与通信工程 姓名: 曹希 班级: 信研-12班 学号: 2012312100117 指导教师: 王一丁 2012年 11月 2号基于PCA算法的人脸识别系统摘要:计算机人脸识别技术是近20年才逐渐发展起来的,是模式识别中的一个前沿课题,近年来更是成为科研热点。它利用计算机分析人脸图像,今儿从中提取出有效信息,用来辨认身份。PCA方法由于其在将为和特征提取方面的有效性,在人脸识别领域得到了广泛应用。PCA方法的基本原理是,利用K-L变换抽取人脸的主要成分,构成特征连空间,识别时将测试图像投影到此空间,得到一组投影系数,通过与各个人脸图像比较进行识别。本次设计基于MATLAB环境进行编程,使用ORL数据库的人脸样本集,利用特征脸方法进行识别,最后对结果进行分析,给出识别的准确率。关键词:K-L变换,PCA,人脸识别目录摘要:21PCA方法和理论基础31.1离散K-L变换的基本原理31.2PCA的理论基础51.2.1投影51.2.2PCA的作用及其统计特性61.2.3特征脸72算法流程及具体步骤72.1 读入人脸库72.2 计算平均脸和相应的特征向量82.3 计算特征脸82.4 投影92.5 对人脸进行识别93 设计结果103.1 识别精度103.2 特征脸113.3 脸部识别124 设计代码135设计结果及分析17 PCA方法和理论基础基于主成分分析(principal component analysis,简称PCA)的人脸识别方法也称为特征脸方法。该方法将人脸图像按行(或列)展开所形成的一个高维向量看作是一种随机向量,因此可以采用K-L变换获得其正交K-L基底。对应于其中较大特征值的基底具有与人脸相似的形状,故称其为特征脸。离散K-L变换的基本原理PCA方法是由Turk和Pentlad提出的,它的基础就是karhunen-Loeve变换,也就是K-L变换,是一种常用的正交变换。离散K-L变换的思想就是,寻求正交矩阵A,使变换后信号对应的协方差矩阵为正交矩阵。对于一幅大小的图像,在某个通信信道中传输M次,因受到各种因素的随机干扰,存在随机图像样本集合:对其中的第幅图像,可以将其按列排列得到一个维向量: (式1-1)令:,则:。鉴于图像序列是随机变量,度量随机变量可用协方差矩阵表示: (式1-2)其中表示求期望,表示转置,且,因此,协方差矩阵可以表示为: (式1-3)其中,是维的向量,而是阶的矩阵。令和分别是的特征向量和对应的特征值,将特征值按降序排列,那么,离散K-L变换核矩阵的行是的特征向量,则变换核矩阵为: (式1-4)其中对应第个特征向量的第个分量。故离散K-L变换可定义为: (式1-5)其中,是原图像向量减去平均值向量,是的变换核矩阵。PCA的理论基础投影设d 维样本x1, x 2,…, xn,以及一个d 维基w ,那么标量:yi =wT xi是相当于xi在基上的坐标值。如果w = 1,y就是把x方向为w 的直线进行投影的结果。可以从图 1 看到。推广之,如果有一组基(m个)组成的空间,那么可以得到xi 在空间W上的坐标为: (式1-6) (图 1)PCA的作用及其统计特性采用PCA 对原始数据的处理,通常有三个方面的作用—降维、相关性去除、概率估计。下面分别进行介绍:一.去除原始数据相关性从统计学上讲, E{[X ? E(X )][Y ? E(Y)]} 称为随机变量X 与Y 协方差,记为:Cov(X,Y)。令,称为随机变量X 与Y 的相关系数。ρXY = 1则X与Y 是相关的,ρXY = 0,则X 与Y 是不相关的。对于矩阵A 来说,如果AAT是一个对角阵,那么A中的向量是非相关的。由 PCA 处理的人脸库数据的非相关性可以从两点进行说明。(1) 基底的非相关性特征空间基是非相关的,即UUT = I 。(2) 投影系数的非相关性由 SVD 可知, 其中 , mx 是平均人脸。根据公式(2)可以把A 映射到特征空间上,得到: B =UT * A,其中B 是非相关的,可由下面得到证明:Y的协方差矩阵为: (式1-7)二.统计参数(均值及方差)均值即 mx (平均人脸)。随机变量方差越大,包含的信息越多,当一个变量方差为0 时,该变量为常数,不含任何信息。所有原始数据在主分量ui上的投影值方差为λi 。三.降维如果在原始空间表示一幅N*M 大小的图片X,那么需要一个N=N*M 维矢量,但是当把它映射到特征空间后,只需要一个1维的向量就可。另外,可以根据方差的大小来判断特征向量的重要性。由ORL数据库计算得到的特征值呈图2分布,可知特征向量重要性呈指数下降,据此可以只选用前面几个重要的特征向量来构建特征空间。 (图2)

文档评论(0)

wq640326 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档