单目视频无监督深度学习的结构化方法.PDF

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
单目视频无监督深度学习的结构化方法 原创:Google谷歌开发者2018-12-12 文 / Google 机器人团队研究员 Anelia Angelova 对自主机器人而言,感知场景深度是一项重要任务,因为准确估算机器人与 目标之间距离的能力对避开障碍、安全规划和导航至关重要。我们可以通过 光学雷达等设备的传感器数据获取 (和了解)深度,同时也可以通过机器人 运动和因此产生的不同场景视角,以无监督方式,仅从单目摄像机了解深度。 如此一来,我们还可以学习 “自我运动” (机器人/摄像机在两个帧之间的运 动),并据此了解机器人自身的定位。虽然此方法由来已久 (得益于运动恢 复结构和多视图几何学范式),但基于学习的新技术已提升目前的技术水平。 更具体地说是通过深度神经网络进行无监督深度学习和自主运动,其中包 括Zhou 等人的研究和我们自己之前的研究 (在训练期间对齐场景 3D 点 云)。 尽管我们已做出这些努力,但学习预测场景深度和自主运动仍是一项持续性 挑战,而在处理高动态场景和准确估算移动目标的深度时尤其如此。由于之 前的无监督单目学习研究工作并未对移动目标进行建模,因此可能一直错估 目标深度,而这往往会导致我们将其深度映射为无穷大的值。 在 《不使用传感器的深度预测:利用单目视频无监督学习的架构》(Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised Learning from Monocular Videos) (本文将于AAAI 2019 大会上发布)一文中,我们提出 一种新方法,能够对移动目标进行建模,并产生高质量的深度估算结果。相 较于之前的单目视频无监督学习方法,我们的方法可以获取移动目标的正确 深度。在此论文中,我们还提出一项无缝在线优化技术,该技术可以进一步 提升学习质量,并可应用于跨数据集转移。此外,为了鼓励大家开发出更先 进的机载机器人学习方法,我们在 TensorFlow 中开放了源代码 (/tensorflow/models/tree/master/research/struct2depth)。 之前的研究 (中间列)无法正确估算移动目标的深度,并将其映射为无穷大的值 (热图中的深蓝色区 域)。我们的方法 (右列)提供更准确的深度估算 架构 我们方法的关键理念是将架构引入到学习框架中。也就是说,我们将单目场 景当作由移动目标 (包括机器人自身在内)组成的 3D 场景,而不是依靠神 经网络来直接学习深度。我们将各个运动建模为场景中的独立变换 (旋转和 平移),然后将其用于为 3D 几何物体建模以及估算所有物体的运动。此外, 了解哪些目标可能会移动 (例如,汽车、人、自行车等)有助于我们了解这 些目标的单独运动矢量 (即使它们可能为静态也可以)。通过将场景分解成 单个 3D 目标,我们可以更准确地了解场景中的深度和自我运动,在极其动 态的场景中尤其如此。 我们在KITTI 和Cityscapes 城市驾驶数据集中测试了这种方法,发现其表现优 于目前最先进的方法,而且在质量方面接近将立体视频对用作训练监督的方 法。重要的是,我们能够正确获取采用与自我运动车辆相同的速度移动的汽 车深度。在此之前,这一直是非常具有挑战性的工作。在以下案例中,移动 中的车辆以静态形式出现 (在单目输入中),并将相同的行为展现为静态视 野,进而推断出无限大的深度。虽然立体输入可以解决这种模糊性,但我们 的方法首次能够从单目输入中正确推断深度。 之前有关单目输入的研究无法获取移动目标,并会将它们错误地映射至无穷大的值 此外,由于我们的方法会分别处理各个目标,因此算法能够提供每个单独目 标的运动矢量,即对目标前进方向的估算: 动态场景的深度结果示例以及对单个目标的运动矢量估算 (我们也估算了旋转角度,但为简单起见, 并未展示出来) 除了这些成果以外,此项研究还为进一步探究无监督学习方法能够取得哪些 成果提供了动力,因为相比于立体或光学雷达传感器,单目输入的成本更低, 也更易于部署。如下图所示,在 KITTI 和 Cityscapes 数据集中,监督传感器 (无论是立体传感器还是光学雷达传感器)会丢失值,而且有时候可能与摄 像机输入存在偏差,这是由延时造成的情况。 中间行是 KITTI 数据集中的单目视频输入深度预测,与光学雷达传感器测得的实际深度相比,后者未 能涵盖完整场景,并且会丢失值且存在噪

您可能关注的文档

文档评论(0)

fengruiling + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档