基于点云与视觉的感知融合方法研究.pdfVIP

基于点云与视觉的感知融合方法研究.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

摘要

随着智能驾驶技术的不断发展,智能驾驶车辆对周围环境的精确感知要求也

越来越高。目前,越来越多的车辆搭载了不同种类的传感器,其中激光雷达和视

觉相机最为重要。但是激光雷达的点云数据和视觉相机的图像数据之间存在维度、

特征提取等差异,使得两种传感器的数据在融合互补方面存在困难。主要体现在第

一,两种传感器所在坐标系转换间的误差,即标定矩阵带来的误差,这会直接影响

整体信息融合的效果。第二,两种数据的优势互补信息无法更深层次的融合,即由

于两者之间的数据结构差异,进行融合时往往只能采取一些拼接、残差连接等操作,

这样无法有效融合深层次信息甚至可能会造成原有模态特征的丢失。本文主要针

对这两点问题探索多模态信息融合方法,研究内容如下:

1.提出了一种基于复合边界特征的激光雷达相机联合在线标定方法。该方法

首先通过分析传感器数据采集原理发现在点云数据中存在两种不同的边界信息,

随后利用基于区域复生长提取的深度不连续边界和基于平面拟合提取的深度连续

边界两类边界特征的并集作为完整的点云特征,采用成熟的Canny边界提取方法

获取图像边界特征。然后,利用K近邻和K-D树对两种模态对应的边界进行特征

匹配,并根据特征匹配关系建立标定目标函数,通过迭代求解的方式获取最优的标

定矩阵。实验表明,采用点云图像复合边界特征进行标定的方法在精度上具有领先

优势,实现了旋转角度误差控制在0.3°内,平移矩阵误差控制在4cm内的高精度。

同时得益于本方法依靠自然环境特征进行在线标定,整个标定流程的时间控制在

了60s内。

2.提出了一种基于交叉注意力机制的点云图像融合方法。该方法通过设计的

双流特征提取网络分别对点云特征和图像特征进行提取和特征对齐。在已有两种

模态特征的基础上,设计了基于交叉注意力机制的信息融合模块,得到模态间信息

的关联矩阵并获取感兴趣特征,对模态间信息进行深度融合。然后通过基于KL散

度设计的感知逼近损失函数使点云分支的特征分布学习逼近融合信息的特征分布,

使得单点云分支能够利用图像特征丰富的颜色和纹理信息,同时也减小了模型复

杂度和计算量。实验表明,本方法在SemanticKITTI数据集上的平均分割精度达到

了70.5%,目前在多种细分类别中获得第一。同时,该方法在推理速度仅为62ms,

兼顾了分割精度和分割效率。

关键词:激光雷达,视觉相机,联合标定,信息融合,智能驾驶

ABSTRACT

Withthecontinuousdevelopmentofintelligentdrivingtechnology,thereisan

increasingdemandforpreciseperceptionofthesurroundingenvironmentbyintelligent

drivingvehicles.Currently,moreandmorevehiclesareequippedwithdifferenttypesof

sensors,amongwhichLiDARandvisioncamerasarethemostimportant.However,there

aredifferencesindimensionsandfeatureextractionbetweenLiDARpointclouddataand

visualcameraimagedata,makingitdifficultforthedatafromthesetwosensorsto

complementeachotherinfusion.Thisdifficultyismainlyreflectedintwoaspects.Firstly,

thereisanerrorinthetransformationbetweenthecoordinatesystemsofthetwosensors,

namelytheerrorintroducedbythecalibrationmatrix.Thisdirectlyaffectsthe

effec

文档评论(0)

营销资料库 + 关注
实名认证
文档贡献者

本账号发布文档部分来源于互联网,仅用于技术分享交流用,版权为原作者所有。 2,文档内容部分来自网络意见,与本账号立场无关。

1亿VIP精品文档

相关文档