- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
改进稀疏表示模型目标跟踪
改进稀疏表示模型的目标跟踪 摘 要:针对受到光照、遮挡及姿态变化等引起的目标外观发生变化时,目标跟踪的鲁棒性和准确性较差的问题,将稀疏表示引入到粒子滤波框架进行目标跟踪,提出一种稀疏协同模型。首先,在目标运动定位模型中,使用灰度强度值表示目标对象;其次,判别模型通过训练正负模板集获得最优分类特征,并在生成模型中对目标直方图加权以提高目标生成效率;然后,将分类判别模型和生成模型集成在协同模型中,利用重构误差确定目标;最后,通过各模块独立更新,减少目标外观变化对目标跟踪的影响。实验结果表明,所提方法的平均中心误差仅为7.5像素,且具备良好的抗噪性和实时性
关键词:稀疏表示;目标跟踪;协同模型;似然函数;重构误差
中图分类号:TP391.4
文献标志码:A
文章编号:1001-9081(2016)11-3152-09
0 引言
目标跟踪的实质是估计目标对象在图像序列中的状态[1-3],是识别、分析、决策等后续高级处理的基础,其在安全监控、交通监测、人机交互、军事领域、医学应用等领域[4],有着广泛应用
目标跟踪模型可分为判别模型(Discriminant Model, DM)和生成模型(Generative Model, GM)两种。判别模型将跟踪问题看成是分类问题,即跟踪的目的是将图片中的前景(目标)和背景分开,该类模型跟踪效率比较理想。Adam等[5]通过局部信息对图像分块进行目标跟踪(Frag Tracker, Frag);Babenko等[6]提出了基于在线多示例学习的目标跟踪方法(Multiple Instance Learning, MIL)
生成模型主要是寻找与跟踪目标最相似的区域,即最优化估计目标的状态,能够较好地描述目标外观变化。Kalal等[7]改进的在线学习机制能不断更新跟踪模块(Tracking Learning Detection, TLD)
为在复杂情况下,特别是目标发生剧烈表观变化时,设计出一个在动态场景下有效的目标跟踪算法或模型。受图像稀疏表示的影响,在判别模型中:Wright等[8]把识别转化为分类与匹配问题,提出基于稀疏表示的人脸识别;Mei等[9]首次将稀疏表示理论引入粒子滤波框架中通过最小投影误差跟踪目标;Zhang等[10]将所有候选目标的线性组合通过目标模板线性表示并由稀疏系数确定目标位置;Zhang等[11]又在此基础上优化微小模板,降低计算复杂度; 潘晴等[12]构造背景字典从而筛选区分目标及其相邻背景的特征,提高在复杂场景中目标识别的鲁棒性。基于生成模型: Liu等[13]在稀疏表示的基础上利用在线特征选择来减小目标的重建误差;Bao等[14]改进稀疏模型,主要对琐碎模板对应的系数进行条件约束; Wang等[15-16]提出使用最小二乘法来对目标跟字典之间的距离进行优化,随后提出一种基于稀疏原型的目标跟踪算法提高跟踪效率
目前方法中,判别模型严重依赖于训练样本的选择,对目标外观的描述度不高,跟踪精度欠缺[17];生成模型计算复杂、时效性低[18]。实际应用中,兼顾准确性、鲁棒性和实时性仍一个挑战性课题[13,19]。鉴于以上分析,本文在粒子滤波的框架下提出一种稀疏协同模型,集合两种模型的优势,对目标进行跟踪
3 实验结果与分析
实验平台:操作系统为Windows 7;CPU为Intel i7-3770;32GB RAM;软件环境为Matlab2014a。选取公开视频序列[18,20-22]中,包含姿态变化、局部遮挡、光照变化、背景复杂、平面内外旋转、尺度变化等挑战性视频序列进行实验。重点选择了MIL、TLD、Frag、本文中融合前单个目标判别模型(Discriminant Model, DM)和目标生成模型(Generative Model, GM)5种相关方法法与本文方法进行对比实验
3.1 定性结果与分析
在测试视频序列中,绿色短划线框表示Frag的跟踪结果,黄色划线-点-划线框表示TLD的跟踪结果,蓝色划线-点点-划线框表示MIL的跟踪结果,浅蓝色长划线框表示DM的跟踪结果,紫色长虚线框表示GM的跟踪结果,红色实线框表示本文的跟踪结果
姿态变化、局部遮挡实验 选取Bird视频序列,共100帧,目标跟踪对象为飞翔小鸟。相关算法的目标跟踪结果,如图6所示
从图6可以看出:从#22帧开始Frag跟踪发生了漂移,从而无法准确跟踪,原因在于其跟踪依据的是局部信息而不是全局信息导致最终跟踪失败。MIL和TLD追踪器在小鸟转身前只是有少量的漂移;但在#58帧小鸟外观发生了较大变化并伴随着旁边还有干扰产生局部遮挡时,MIL和TLD漂移量逐渐增大,无法对目标准确定位,导致在#89时TLD丢失了目标。DM在跟踪过程中
文档评论(0)