基于SVM的人脸识别.pdfVIP

  • 4
  • 0
  • 约5.1千字
  • 约 5页
  • 2023-08-14 发布于湖北
  • 举报
基于 SVM 的人脸识别 摘要:主成分分析 (PCA )是人脸识别中特征提取的主要方法,支持向量机 (SVM)具有适合处理小样本、非线性和高维数问题,利用核函数且泛化能力强 等多方面的优点。文章将两者结合,先用快速PCA 算法进行人脸图像特征提取 和选择,用所选择的人脸特征向量训练多个支持向量机 (SVM),最后用训练好 的支持向量机(SVM)进行人脸识别的分类。在ORL 人脸数据库上进行了实验, 取得了满意的识别效果。 关键词:人脸识别;主成分分析(PCA );奇异值分解(SVD);支持向量机(SVM) 引言 [1] 人脸识别 是计算机视觉和图像模式识别领域的一个重要研究课题,它在生物领域、安 全领域、商贸领域及经济领域都有着广泛的应用前景,诸如身份验证、指纹识别、监控系统 等。但由于人脸表情丰富,人脸随年龄增长而不断变化,人脸受光照、成像角度及成像距离 等影响,这诸多因素使得人脸识别成为一项极富挑战性的课题。人脸识别技术主要包括人脸 检测阶段、特征提取阶段和人脸识别阶段,特征提取和人脸识别是研究的重中之重,当前主 要的特征提取方法有主成分分析、小波分析、奇异值特征向量等,这些提取方法都是在光照 变化不大的前提下才能取得良好的效果,但是光照变化比较大时,计算就会比较复杂,容易 获得带噪声的人脸特征向量,导致人脸识别的精度低。人脸分类器主要有:判别分析、贝叶 斯分类器、最近邻分类器和K 近邻分类器等,这些方法是基于线性的分类器,对于人脸这种 高维的特征向量的分类识别率不高,由于面部表情之间差别比较大,因此识别率比较低。神 经网络分类识别能力强,但由于其是一种大样本方法,且存在过拟合和局部最优的缺陷等也 不是一种非常理想的分类器。支持向量机是一种专门针对小样本、非线性高维的模式识别问 [2]- [5] 题,解决了神经网络的存在的缺陷,因此备受研究人士的亲睐 。 1.人脸特征提取 图像识别中,常常用矩阵来表示人脸图像。然而,高维图像数据对整个识别 系统的识别速度有限的,也不利于实时识别系统的实现。降维技术是解决这一问 题的常用方法,使数据从原始图像高维空间转化为维数大大减小的特征空间,同 时,又保留原始图像数据的绝大部分信息。 主成分分析利用K-L 变换得到高维图像空间的一组正交基,保留其中较大的 特征值对应的正交基,组成特征脸空间。将PCA 用于人脸图像的最优表示,应 用主分量重构人脸,提出特征脸 (Eigenface )的概念,用PCA 实现人脸图像的 紧致表示,认为任何一幅图像都可以用一组特征脸的线性加权和来近似重构,其 权重系数可以通过将人脸图像在本征脸空间投影得到,然后用投影到低维空间中 基函数上的系数来表示人脸并进行识别,并采用奇异值分解(SVD)算法简化了 特征脸的计算。 对于一幅 M×N 的人脸图像,将其每列相连构成一个D=M×N 维的列向量。 D 就是人脸图像即图像空间的维数,设n 是训练样本的数目,xi 为第i 幅人脸图 像形成的人脸向量,则样本协方差矩阵为: Σ = (x-u)(x-u)=XX,其中u 是训练样本的平均图像向量: u=x,且X= (x-u,x-u,„,x-u),维数为D ×D。 奇异值分解定理(SVD ):设矩阵A ∈R,rank (A )=r 则存在两个正交矩阵U 和V ,以及对角阵Λ ,使得A=UΛ VT ,其中Λ = ; D=diag (,,„,),λ (i=1,2,„,r)为矩阵XX 和矩阵XX 的特征值,Ui 和Vi 分别是XX 和XX 对应于λ 的特征向量。上述分解被称为矩阵A 的奇异值分 解,为A 的奇异值。 依据 SVD 定理,令λ (i=1,2,„,r)为矩阵XX 的r 个非零特征值,ν i 为XX 对应于λ 的特征向量,则XX 的正交归一特征向量ui 为:u=Xν (i=1,2,„, r)。 通过求解维数较低的矩阵XX 的特征值和特征向量实现了对样本集的K-L 变 换。当然这样得到的特征向量的维数比较高,为了减少维数,把特征值从大到小 排列,选取前k 个,构成新的特征空间。由于这些特征向量对应的图像很象人脸, 所以被称为“特征脸”。任何一幅图像都可以向特征脸子空间投影并获得一组坐 标系数,这组

文档评论(0)

1亿VIP精品文档

相关文档