- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
一种多姿态人脸定位的鲁棒方法
0 多姿态人脸定位算法
人脸识别作为人工智能的先进主题,在人类事务、信息安全和技术等方面具有广泛的应用价值。眼睛作为人脸识别中人脸尺寸归一化的基准点,其精确的定位必不可少。早期的眼睛定位算法主要针对正面人脸进行,但随着人脸应用范围的不断扩大和开发实际系统需求的不断提高,近年来多姿态人脸识别被人们重视起来并开展了较广泛的研究。
目前,眼睛定位算法可分为两类:a)基于知识的方法,利用待检测图像中的灰度、纹理、眼睛形状或轮廓特征定位眼睛,如积分投影或改进的积分投影法、模板匹配法、边缘提取法、ASM/AAM等;b)基于统计学习的方法,如神经网络、支持向量机、AdaBoost等。文献采用投影峰的方法实现多姿态人脸上眼睛的快速准确定位,对多姿态人脸上的睁眼有很高的定位率,由于使用积分投影,并不适用于闭眼情况。文献采用RBF核函数、SMO训练支持向量,在正面人脸上取得87.6%的检测率。文献使用改进AdaBoost算法进行人眼初检,利用人脸几何特征,用SVM筛选人眼,取得了很好的定位效果,但该方法仅限于小姿态人脸上的眼睛。文献使用双眼对训练AdaBoost分类器,对检测到的双眼用FRS实施眼睛的精确定位,在±45°姿态之间取得了很好的效果,但只适用于双眼可见的情况。
本文提出一种基于统计学习的新的眼睛定位方法。该算法采用二级大规模SVM算法,以多姿态人脸眼睛样本的统计训练为依据,不需要眼睛成对出现。眼睛定位算法本身适应于人脸倾斜角在的多姿态人脸(包括侧面),将之与RIMV人脸检测器结合,能够完成全旋转多姿态人眼定位任务。在JAFFE、FERET和Labeled Faces in The Wild(LFW)人脸库上的实验表明,该算法对定位各种复杂环境下的多姿态人脸上的眼睛具有很强的鲁棒性和有效性。
1 改进的大型人才培养数据支持机制
1.1 svm求解算法
针对两分类问题,SVM将低维向量映射到高维空间中,以使低维空间中线性不可分的样本在高维空间中尽可能线性可分。SVM通过在高维空间构造一个最优分类面,在保证两类间隔最大和保证最小的分类错误率之间取得折中,从而实现结构风险最小化。给定数据集:D={(xi,yi)}li=1,xi∈Rd,yi∈{1,-1},SVM求解问题最终可以转换为以下二次规划问题:
min(12αΤQα+eΤα)s.t.yΤα=00≤αi≤C,i=1,2,?,l(1)
其中:α=(α1,α2,…,αl)T,αi是拉格朗日乘子;y=(y1,y2,…,yl)T;e是每个分量都是1的l维列向量;Q是l×l矩阵,其分量Qij=yiyjK(xi,xj)为对称正定核矩阵。
求解式(1),得到分类器Ψ:
f(x)=l∑i=1αiyiΚ(xi,x)-b(2)
ψ(x)={1f(x)≥θ-1otherwise(3)
其中:f(x)称为分类器ψ(x)的判别函数;θ为调整阈值;αi不为0的样本xi称为支持向量,只有支持向量在分类器式(2)中才有意义。
由式(1)可知,当训练数据集样本数l很大时,矩阵Q非常大,需要占用相当大的内存,训练时间非常长甚至于不可行,造成SVM只对小规模数据非常有效。
1.2 svm的算法流程
文献采用Chunking分解算法,先在大样本集中随机选取一个较小集合进行SVM训练,然后根据KKT条件在整个训练集上对初始集循环迭代调整直至收敛,从而解决大规模训练数据下的SVM问题。文献指出SVM的增量训练中,错分样本往往位于边界上,在大规模样本集下受噪声数据的影响,而在训练集规模不大的情况下反映了训练样本集细节知识,通过将错分样本加入到历史训练集中再次训练,得到的支持向量集更接近所求解,并证明分类器的精度随着增量样本集的增加而提高,并逐步逼近样本空间的期望风险。
由于最优分类面只由支持向量确定,而支持向量只可能位于两类之间的边界上。本文使用文献的方法在高维空间中按式(4)取距离最小的若干个样本作为边界样本。
d2kj=Κ(xkj,xkj)-2lˉklˉk∑i=1Κ(xkj,xi)(4)
其中:K为内积核函数;xkj为第k类第j个样本;d2kj为xkj到另一类中心的距离;ˉk取1(当k=2)或2(当k=1)。
根据以上讨论,本文中SVM训练算法流程如下(其中i为迭代序列):
a)选择适当的核函数K,根据式(3)从正例训练集A+和反例训练集A-中各选择m个边界样本组成工作集A(0)w+和A(0)w-。
b)求解工作集的方程组式(1)得到支持向量集A(i)sv+、A(i)sv-及分类器ψ(i)。
c)用ψ(i)对训练集A+和A-进行分类,设其拒真样本集为B(i)+,纳假样本集为B(i)-:
(a)如果B(i)+≠?和B(i)-≠?,根据式(3)从B(i)+和B(i)-两类中各选n+和n-个距离B(i)-
原创力文档


文档评论(0)