基于图模型与背景先验无监督视觉显著性检测方法.pdfVIP

基于图模型与背景先验无监督视觉显著性检测方法.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

GraB:通过新颖图模型与背景先验的视觉显著性

1,2,和RobinsonPiramuthu2

12

特拉华大学eBay

我们提出了一种利用新颖图结构与背景先验的无

监督自底向上显著性检测方法。输入图像被表示为一

个以超像素为节点的无向图。从每个节点中提取特征

向量,以涵盖区域的颜色、对比度和纹理信息。我们

提出了一个新颖的图模型,以有效捕捉局部和全局的

显著性线索。为了获得更精确的显著性估计,我们通

过使用一种鲁棒的背景度量对显著进行优化。在

基准数据集上的全面评估表明,我们的算法普遍优于

图1:以超像素为节点的新型图结构。紫色和蓝色线条

当前最先进的无监督方法,并且可与有监督方法相媲

分别表示与一阶和二阶邻居的连接。绿色线条表示每

美。

个节点与图像四边的边界节点相连。红色线条表示所

有边界节点彼此相连。详见第3.1节。

1.引言

人类能够快速识别场景中视觉上显著的物体。这

在视觉外观方面通常存在巨大差异,尤其是当目标可

种基本能力长期以来一直被学和认知心理学研究

以是任何物体时。此外,生成像素级标注的过程

所关注。在计算机视觉领域,研究人员专注于类似的任

本身成本高昂且密集,有时甚至考虑到大规

务,以确定能够吸引人类感知系统注意力的区域。选定

模长尾视觉的规模,可能根本无法实现。在大

的区域包含更精细的细节信息,可用于提取中层和

型电子商务场景中通常就是这种情况。一种快速的显

信息。因此,一种快速且鲁棒的显著性检法可以为

著性检测技术可以成为背景去除或目标/商品检测与识

各种其他视觉任务带来益处。

别在大型电子商务应用中的关键预处理步骤。

关于显著图估计的研究文献非常丰富。然而,大

多数现有方法可以分为无监督(通常是自底向上)

本文中,我们提出了一种无监督的自底向上的显

[10,28,32,36,19]和有监督(通常是自底向上,但

著性估计方法。我们的方法基于谱图理论的显著成功,

较新的方法结合了自顶向下和自底向上)

重点关注谱聚类算法的要素。具体而言,我们引入

[17,24,15,20]方法。

尽管监督方法能够自动融合多种特征,并且通常比无了一种新的图模型,该模型能够捕捉局部/全局对比

监督方法具有更好的性能,但执行训练过程仍然代价高昂,度,并有效利用边界先验。受ISOMAP流形学习[31],

特别是数据收集方面。此外,与传统的特定用途目标检测器的启发,我们引入了测地距离来计算权重矩阵。该约束

(例如行人检测)相比,在传统方法中同一类别的目标具有最大程度地加强了背景连通性先验。此外,我们还利用

一些一致性,而显著目标在不同图像中

GraB:VisualSaliencyviaNovelGraphModelandB

文档评论(0)

zhishifuwu + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档