翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation.docVIP

翻译:Boosting Bottom-up and Top-down Visual Features for Saliency Estimation.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Boosting Bottom-up and Top-down Visual Features for Saliency Estimation 提高自下而上和自上而下的视觉特征的显著性估计 摘要 自由观赏自然场景时,最好的视觉显著模型尽管有显著的最新进展,在预测眼睛注视与人类的表现仍然落后。多数模型是基于低层次的视觉特点,自顶向下的特点的重要性尚未得到充分探讨或建模。在这里,我们结合了低级别的功能,如方向,颜色,强度,以前最好的自下而上的模式,采用自顶向下的视觉认知功能(例如,脸,人类,汽车等)的显著图,使用回归、SVM和AdaBoost分类,从这些特点里学习直接映射这些功能的的眼睛注视。通过广泛的试验三个基准眼球跟踪数据集,使用三种流行的评价分数,我们展示了:我们的Boosting模型优于27个最先进的模型,是迄今为止在注视预测最准确接近人体模型。此外,我们的模型成功地检测到的最显著的一个场景中的对象,没有如区域分割这样复杂的图像处理。 1、简介 视觉注意是一个认知过程,帮助人类和灵长类动物从一个场景迅速选择高度相关的信息。然后将这些信息处理更精细的高层次的视觉过程,如现场了解和识别物体。相关的概念是由两个因素决定。第一个,通常被称为自底向上的视觉显著,是一种独立任务的组成部分,只有低级别和基于图像的离群和醒目的基础上。第二部分基于意志控制机制的基础上,确定地区生活的任务,如驾驶场景的重要性的。 视觉注意力的过程中一直是许多心理学,神经科学,计算机视觉等研究的对象。相应地,一些计算模型已经在机器学习,计算机视觉和机器人领域引起关注。几个应用程序也已经被提出,并进一步提出了在这一领域的兴趣,包括:图像拇指钉[7],自动创建拼贴[5],视网膜中央凹的图像/视频压缩[6] [9],非真实渲染[8],广告设计[10]。 自下而上的显著性的模型经常被评估,在自由观看任务中,预测人的注视。今天,许多显著性模型基于各种各样令人信服的技术,仍然每年都会有人引进新模型。然而,在预测眼睛注视时,模型和人类间观察员(IO)有很大的差距。IO模型“对于一个给定的刺激的输出,通过整合眼睛注视建成地图,而不是观看那个刺激。该模型预计将提供预测模型的准确度的程度,不同的人可能是对方的最好的预测者。上面提到的模型和人类之间的差距主要是由于自顶向下的因素的作用(参照图1)。 它被认为是自由观看的早期阶段(第一几百毫秒),主要是基于图像醒目性的注意,后来,高层次的因素(例如,行动和事件)指导眼球运动[53][39]。这些高层次的因素可能不一定转化为自下而上的显著性(例如,根据颜色,强度或方向),应考虑分开。举例来说,一个人的头部可能在其余的场景中不会特别突出,但可能会引起人们的注意。因此,结合高层次概念和低层次的功能扩展现有模型,并达到人类的表现似乎是不可避免的。 自由观看一些自上而下的因素都已经知道,虽然积极调查仍可以继续发现更多的语义因素。比如,Einhauser等[11]提出的对象更好地预测注视比自下而上的显著性。瑟夫等[14]表明面孔和文字吸引人类的目光。 Elazary和 Itti12]表明,有趣的对象(注释从LabelMe数据集[46])更加突出。 Subramanian等。 [13],在一个大的情感图像数据集的记录眼睛注视,观察,注视指向不再对这种刺激的情绪和行动的刺激和持续的注视。同样,Judd等[1],通过绘制图像区域的顶部突出的位置的人的显著图(录制品制成的),在一个场景中,观察人,脸,汽车,文本,和动物吸引人的注视可能因为他们传达更多的信息。一些个人的经验,年龄,文化等特点,也改变了人类看图像的关注面[54]。 由[1]的启发,我们提出了三个贡献显著性的学习。首先,我们结合最好的两个方面:自下而上和自上而下的因素。通过比较29个显著性模型,我们整合功能,最好的自下而上的模式已经发现预测与自上而下的因素,如人脸,人,车,等人的注视,培养几个线性和非线性分类从这些功能中的录制品。第二,我们更强调内部零件更准确的显著性检测瞩目的对象(例如,人类上部)。通过大量的实验,我们证明了我们的相结合的方法,超过以前显著的学习方法([1] [48]),以及其他最新的方法, 在3个数据集上,使用3个评价得分。第三,我们证明了我们的模型能够在一个场景中检测到最突出的对象,接近主流的显著区域检测的表现。 相关工作。显著性模型一般可以分为认知(生物)或计算(数学),而有些发生在之间。几款根据Itti等人的自底向上的显著性模型[4]。这种模型是先执行Koch和Ullman的计算架构基于特征整合理论[15][16]。在这个理论中,图像被分解为低一级的属性,如跨越几个空间尺度,然后归一化和线性或非线性相结合,形成一个主显著图的颜色,强度和方向。这一理论的一个重要组成

文档评论(0)

kaiss + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档