人脸识别 从固定尺寸照片静态匹配到视频图像序列实时匹配,人脸.pptVIP

人脸识别 从固定尺寸照片静态匹配到视频图像序列实时匹配,人脸.ppt

  1. 1、本文档共15页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
人脸识别 从固定尺寸照片静态匹配到视频图像序列实时匹配,人脸

人脸识别 从固定尺寸照片的静态匹配到视频图像序列的实时匹配,人脸识别这一技术有着广泛的应用背景。人脸识别技术从最初对标准正面灰度图像的识别,发展到现在能够动态实现人脸识别,以及初露端倪的三维人脸识别 图像融合 将不同传感器获得的同一图像或同一传感器的不同时刻获得的图像,经过去噪、重采样后再运用某种融合技术得到更适合视觉感知或计算机处理的合成图像的过程 人脸识别 的通常步骤为:(1) 人脸检测 (2) 特征提取 (3) 分类识别。人脸检测是将类似人脸的目标从背景中分离,特征提取则将检测出的人脸图像映射变换到低维特征空间,分类识别则进行比较判定 图像融合 分为:(1)像素级融合 (2) 特征级融合 (2) 决策级融合。像素级融合是指直接对传感器采集的数据进行处理而获得融合图像的过程;特征级图像融合是对源图像进行特征提取后获得的特征信息进行融合,目的是最大限度给出决策分析所需要的特征信息;决策级图像融合是根据一定的准则以及每个决策的可信度做出最优决策,具有实时性好、强容错的优势。 不同角度光照 不同表情 工作规划: 由于采用的方法和传统人脸识别大相径庭,因此需要从0开始设计软件来进行实验。预计总工作时间为60天。其中调研时间为10%(6天),构思算法与流程为25%(15天),程序实现为60%(36天),论文成文为15%(9天) 调研(10天) 构思算法流程(6天) 程序实现(36天) 论文成文(9天) 1. 从摄像头读入图像,调整光照和角度两个条件,得到不同情况人脸 2. 采用opencv分类器对人脸、眼睛、眼镜、鼻子四个部位进行检测 3. 对每种情况下的人脸采用LBP与高斯滤波进行特征提取 4. 对Step3中得到的特征向量进行决策级融合 图像1 图像2 图像N 部位检测 部位检测 部位检测 特征提取 特征提取 特征提取 特征分类 特征分类 特征分类 软硬件环境 Intel集成显卡、130M Pixels USB摄像头、Ubuntu 10.10操作系统、Qt4.7库、openCV2.0库 实现 人脸输入设计为独立模块,同时编成 .so供张老师实验室其他毕设同学使用,添加光照与分辨率两个调解参数 工具 利用opencv社区提供的四种分类器,实现基于启发式模型的部位检测。首先使用人工神经网络分别检测出眼睛、鼻子、眼镜以及人脸的整体特征,根据其中的领域知识判断被检测的区域是否为人脸 修改分类器一部分,使得侧脸得到较好匹配 人脸图像可能会由于光照、姿态、表情、遮挡或成像条件的变化,而使得现有的识别算法的性能及鲁棒性下降 局部特征反映了图像对象的结构特征,是图像对象固有的属性特征,对条件变化不敏感,因此提取图像本身固有的属性特征作为人脸表征方式非常有效 目前局部模式的特征描述方法主要有Gabor小波、基于图像分块策略的局部视觉基元等方法。缺点是维度高、不均匀 局部二值模式(LBP)的局部特征提取方法是一种有效的非参数化的图像局部纹理描述方法,它利用结构法思想分析固定窗口特征,再利用统计法作整体的特征提取。计算简单、能捕捉图像中的微量的细节特征,从而提取更利 图像的局部纹理T的分布可假设认为是局部区域内像素灰度的联合分布密度T=t(gc, g0, …, gp-1). 其中gc对应图像局部邻域中心像素点的灰度值,gi (i=O,...,P一1)对应于P个等距离分布于以心像素&为圆心、半径为R的圆周上的像素点的灰度值,则近邻区域的定义通常可以由一个值对(P,R)来描述,于分类的局部邻域关系模式 决策中常用的最小距离分类器只能提供测试样本到各类的距离信息,我们需要将此转化为识别匹配度 这里编程实现的分类方法为SVM:以结构风险最小化原则为理论依据,通过某种特定非线性映射,将输入向量映射到高维特征空间 标准SVM根据其输出f (x) =ωTφ (x) + b的值给出分类结果:若f (x) ≥ 0时,将输入x赋给正类,否则赋给负类。后验概率P(class input ) = P(y=1|x) = F(f(x)) 决策融合方法有基于统计的方法:概率推理,贝叶斯推理,D-S证据,基于信息理论的方法:参数模板匹配,聚类分析,自适应神经网络,熵法等和基于认知模型的方法:逻辑模板匹配,模糊集理论,专家系统 这里采用贝叶斯推理进行决策级融合。设测试人脸与训练库某个样本属于同一人时为类内模ω1,属于不同人时为类间模式ω2,从而将人脸识别问题转化为两类模式ω1和ω2的分类问题 完整完成:人脸输入(Step1),部位检测(Step2), 特征提取(Step3),特征分类(Step4); 部分完成:决策级融合(Step5) 额外计划:与高晨阳同学进行合作。高晨阳同学同在张国义老师指导下做特征级融合。设想如果将光照、角度两个条件分为两步做,将

文档评论(0)

bokegood + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档