面向自动驾驶的目标检测及深度估计融合算法实现.pdf

面向自动驾驶的目标检测及深度估计融合算法实现.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

哈尔滨理工大学电子信息硕士学位论文

面向自动驾驶的目标检测及深度估计

融合算法实现

摘要

在复杂场景下,精准的目标检测是保证自动驾驶汽车安全行驶的基础。

传统意义上的目标检测任务只能获取物体二维信息,而三维信息可为自动驾

驶提供更丰富的决策信息。因此,本文在目标检测的基础上引入深度估计任

务,提出一种面向自动驾驶的目标检测和深度估计融合算法,满足准确性和

实时性的同时,获取物体的二维位置信息和深度信息。

在目标检测任务中,首先对YOLOx骨干网络进行改进,采用Swin

Transformer网络替代CSPDarknet,增强了特征提取能力;其次提出一种卷

积注意力机制(CBAM)和自适应特征融合(ASFF)相结合方法,通过注

意力机制和特征层的进一步融合,提高了目标特征关注度;最后利用KITTI

数据集对所提方法和YOLOv7等5种算法进行实验对比,结果表明本文改

进目标检测算法mAP为92.8%,FPS为54f/s,满足实时性要求。

在单目深度估计任务中,首先提出一种基于Transformer的注意力特征

融合模块(TFF),通过多头自注意力机制使小尺度特征图中的细粒度特征

可以从大尺度特征图中获得;其次将TFF模块添加到NewCRFs中,实现了

多尺度特征之间的高效交互;最后利用KITTI数据集对所提出的方法和

Adabins等5种方法进行了对比实验,结果表明本文所提深度估计方法的均

方根误差减小到0.048,δ1.25时的精度提高到0.979。

在网络融合中,提出了一种多任务网络融合方法。首先采用Swin

Tranformer作为共享卷积网络,实现了特征共享;其次在YOLOx、

NewCRFs基础上设计了任务分支和多任务损失函数,减少了任务偏移;实

验结果表明本文所提的多任务融合算法的目标检测mAP达到93.3%,深度

估计准确率达到0.978,且模型大小比单任务融合方法减小70MB。

关键词目标检测;深度估计;多任务学习;自动驾驶

-I-

哈尔滨理工大学电子信息硕士学位论文

ImplementationofObjectDetectionandDepth

EstimationFusionAlgorithmforAutonomous

Driving

Abstract

Incomplexscenarios,accuratetargetdetectionisthebasisforensuring

thesafedrivingofself-drivingcars.Thetargetdetectiontaskinthe

traditionalsensecanonlyobtaintwo-dimensionalinformationaboutthe

object,whilethree-dimensionalinformationcanprovidericherdecision-

makinginformationforautonomousdriving.Therefore,thispaperintroduces

thedepthestimationtaskonthebasisoftargetdetection,andproposesa

fusionalgorithmoftargetdetectionand

您可能关注的文档

文档评论(0)

拥有快乐的你 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档