- 1、本文档共13页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
PCA人脸识别理论基础(附源码).
1PCA 与人脸识别及其理论基础1.1问题描述[1]对于一幅图像可以看作一个由像素值组成的矩阵,也可以扩展开,看成一个矢量,如一幅N*N象素的图像可以视为长度为N2 的矢量,这样就认为这幅图像是位于N2维空间中的一个点,这种图像的矢量表示就是原始的图像空间,但是这个空间仅是可以表示或者检测图像的许多个空间中的一个。不管子空间的具体形式如何,这种方法用于图像识别的基本思想都是一样的,首先选择一个合适的子空间,图像将被投影到这个子空间上,然后利用对图像的这种投影间的某种度量来确定图像间的相似度,最常见的就是各种距离度量。1.1.1K-L变换[1]PCA方法是由Turk和Pentlad提出来的,它的基础就是Karhunen-Loeve变换(简称KL变换),是一种常用的正交变换。下面我们首先对K-L 变换作一个简单介绍:假设X 为n 维的随机变量,X 可以用n个基向量的加权和来表示:nX=∑αiφii=1式中:αi是加权系数,φi是基向量,此式还可以用矩阵的形式表示:1 2n12nX=(φ,φ,,φ)(α,α,,α)T=Φα取基向量为正交向量,即T?1i=jT则系数向量为:ΦΦj = ?0?i≠ j?Φ Φj =Iα=ΦTX综上所述,K-L 展开式的系数可用下列步骤求出:步骤一求随即向量X的自相关矩阵R=E??XTX??,由于没有类别信息的样本集的μ 均值向量,常常没有意义,所以也可以把数据的协方差矩阵∑K_L 坐标系的产生矩阵,这里μ是总体均值向量。=E??(x?μ)(x?μ)T??作为步骤二求出自相关矩阵或协方差矩阵R 的本征值λi 和本征向量φi,Φ=(φ1,φi,,φn)步骤三展开式系数即为α=ΦTXK_L 变换的实质是建立了一个新的坐标系,将一个物体主轴沿特征矢量对齐的旋转变换,这个变换解除了原有数据向量的各个分量之间相关性,从而有可能去掉那些带有较少信息的坐标系以达到降低特征空间维数的目的。1.1.2利用PCA进行人脸识别完整的PCA人脸识别的应用包括几个步骤:人脸图像预处理;读入人脸库,训练形成特征子空间;把训练图像和测试图像投影到上一步骤中得到的子空间上;选择一定的距离函数进行识别。下面详细描述整个过程(源码见’faceRec.m’)。1.读入人脸库归一化人脸库后,将库中的每人选择一定数量的图像构成训练集,其余构成测试集。设归一化后的图像是n*m,按列相连就构成N=n*m维矢量,可视为N维空间中的一个点,可以通过K-L 变换用一个低维子空间描述这个图像。2.计算K- L 变换的生成矩阵所有训练样本的协方差矩阵为(以下三个等价):??1.TT?CA =(M∑k=1xkixk )/M?mximx?A?2. C=(AiAT)/M(1)??M??3. C??A=?∑?i=1(x?m)(x?m)T? ixix?A={φ1,φ2,...,φM},φi=xi?mx,mx是平均人脸, M 训练人脸数,协方差矩阵CA 是一个N*N的矩阵, N 是xi的维数。A为了方便计算特征值和特征向量,一般选用第2个公式。根据K - L变换原理,我们所求的新坐标系即由矩阵AiAT 的非零特征值所对应的特征向量组成。直接求N*N大小矩阵C 的特征值和正交归一特征向量是很困难的, 根据奇异值分解原理(见段落1.2.5和1.2.6),可以通过求解ATiA的特征值和特征向量来获得ATiA的特征值和特征向量,。N*r在计算得到CA的所有非零特征值[λ0,λ1,,λr?1](从大到小排序,1≤rM)及其对应的单位正交特征向量[u0,u1,,ur?1]后,可以得到特征空间U=[u0,u1,,ur?1]∈? ,从而可以计算一张图片X在特征空间上的投影系数(也可以理解为X在空间U中的坐标):3.识别Y=UT *X∈?r*1(2)利用公式(2),首先把所有训练图片进行投影,然后对于测试图片也进行同样的投影,采用判别函数对投影系数进行识别。1.2PCA的理论基础1.2.1投影[2]设d维样本x1,x2,,xn,以及一个d维基w,那么标量:iiy =wTx是相当于xi在基上的坐标值。如果w=1,yi就是把xi向方向为w 的直线进行投影的结果,可以从图1 看到。推广之,如果有一组基(m个)组成的空间W=[w1,w2,,wm],那么可Tm*1以得到xi在空间W上的坐标为:Y=W x∈?。ix证明:wTx =w又∵θyw? x?cosθx?cosθ=y,w =1i?wTx =y图1 投影图进一步,表达式w=m+ae表示w是一条通过点m,方向为e的直线。1.2.2PCA 的作用及其统计特性[3]采用PCA对原始数据的处理,通常有三个方面的作用—降维、相关性去除、概率估计。下面分别进行介绍:?去除原始数据相关性从统计学上讲,E{[X?E(X)][Y?E(Y
文档评论(0)