基于生成式外观模型端到端目标分割方法研究.pdfVIP

基于生成式外观模型端到端目标分割方法研究.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

生成式外观模型用于端到端目标分割

JoakimJohnander1,3MartinDanelljan1,2EmilBrissman1,4FahadShahbazKhan1,5

MichaelFelsberg1

12345

计算机视觉,大学,瑞典计算机视觉,理工学院,Zenuity,瑞典萨博,瑞典阿联酋,阿联酋

目标分割中的一个基本是找到目标和背

景外观的有效表示。目前性能方法为此目的采

用了对卷积神经网络进行大量微调的策略。除了成本

过高之外,这种策略无法真正实现端到端的训练,因

为微调过程并未集成到网络的离线训练中。

为了解决这些问题,我们提出了一种网络架构,能

够在单次前向传递中学习目标和背景外观的强大表示。

所引入的外观模块学习目标和背景特征分布的概率生成

模型。给定一幅新图像,它会预测后验类别概率,

一个高度判别的线索,并由后续网络模块进行处理。我图像RGMP[31]A‑GAME(本文方法)

图1.我们方法与RGMP[31]之间的比较。

们外观模块的学习和预测阶段都是完全可微的,在RGMP中,输入特征与初始掩码和特征图进行拼接。相比

从而实现了整个分割流程的真正端到端训练。全面的实之下,我们通过生成建模显式地捕捉目标和背景外观,包括

验表明,该方法在三个目标分割基准测试中均表现干扰目标。虽然RGMP存在严重,但本文方法成

出色。我们在DAVIS17数据集上缩小了与基于微功识别并准确分所有标注的目标。与RGMP一样,我们

调方法之间的性能差距,同时在单个GPU上可达到15不在第一帧调用计算成本高昂的微调,而是旨在通过单次前

帧每秒的运行速度。此外,我们的方法在大规模向传递学习外观模型。本图彩现效果最佳。

‑VOS数据集上了所有此前的方法。

与目标在视觉或语义上相似的

为应对上述,策略是在给定初始图像‑掩码

1.引言对的第一帧中调用大量迭代优化[1,2,21,30],。然而,这

目标分割(VOS)是指在序列中并种策略带来了巨大的计算成本,使得实时操作变得

分割一个或多个目标对象的任务。在本研究中,我们不可行。此外,由于微调步骤未包含在离线学习

考虑半监督设置,其中仅在第一帧中分割。阶段中,这些方法无法对分割流程进行端到端的训练。

该任务具有通用性,即目标是任意的,且不针对对象针对这些问题,我们探索了一种适用于VOS的前馈网络

类别做进一步假设。VOS问题在多个方面都具有架构,该架构完全避免了优化。

性。目标可能会经历显著的外观变化,并可能受到快

速或遮挡的影响。此外,场景中可能包含干扰目的研究将目标分割表述为一个前馈掩膜

标优化过程[23,31,34],,其中使用卷积神经网络将前一

帧的掩膜预测结果适配以匹配当前帧中的目标。然

AGenerativeAppearanceModelforEnd-to-endObjectSegmentation

JoakimJohnander1,3

您可能关注的文档

文档评论(0)

wx5620 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档