自动驾驶渐行渐近,卫惯导航大有可为.pptxVIP

自动驾驶渐行渐近,卫惯导航大有可为.pptx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
一、位置信息是自动驾驶的关键要素二、卫惯组合导航优势互补,市场前景广阔三、竞争格局:新老阵营均有机会 四、投资建议目录一、位置信息是自动驾驶的关键要素位置信息是自动驾驶实现的关键要素位置信息是自动驾驶车辆路径规划和车辆控制的基础,是自动驾驶实现的关键要素 :对比有人驾驶系统,人通过眼睛和耳朵感知周边环境, 对比记忆做出决策,比如方向盘控制、加减速、变道、刹车等等;自动驾驶则通过车载雷达、 摄像头、GNSS/IMU等传感器搜集车辆位置信 息,并以位置信息数据为基础,根据高算力的计算中心获取经过优化的驾驶决策,最后自动驾驶系统基于决策层给出的驾驶决策,对制动系 统、发机转向等控下达指令,负责驾驶执行。图 1:自动驾驶和有人驾驶执行过程对比自动驾驶有人驾驶LiDAR摄像头感知Radar 云服务GNSS/IMU深度学习观察、听地图比对高精度地图对比记忆决策路径规划思考判断执行车辆控制资料来源:高德,国信证券经济研究所整理位置信息的分类与获取方式位置信息具体有两层含义:(1)得到车与周围环境之间的相对位置,即相对定位;(2)得到车的精确经纬度,即绝对定位。位置信息获取的主要技术方案包括:(1)基于卫星信号的定位:以GNSS系统为主,结合RTK实现厘米级定位;(2)惯性定位:依靠惯性传感器获得加速度和角速度信息,通过推算获得当前的位置和方位的定位技术;(3)环境特征匹配:利用车载摄像头、激光雷达等传感器,感知周边环境(相对定位),用观测到的特征和数据库里的语义地图或特征地图进行匹配,得到车辆的位置和姿态(绝对定位)。图 2:自动驾驶主要传感器分类GNSS基于卫星信号的定位绝对定位IMU惯性定位相对定位主要传感器车载摄像头环境特征匹配相对/绝对定位激光雷达资料来源:Apollo,国信证券经济研究所整理自动驾驶位置信息技术路径分类自2009年谷歌开始研发Waymo无人驾驶汽车开始,全球自动驾驶产业化便逐渐开启。发展至今,不同厂商之间出现了发展路径上的差异。根据获取位置信息的技术方法和传感器方案,我们将其主要分类为三大技术路径:一、以特斯拉为代表的纯视觉方案,采用车载摄像头为主要感知设备,结合算法确定车辆位置信息;二、多传感器融合方案,包括摄像头、车载雷达、卫惯组合导航系统等多种感知设备,实现多源融合定位,这是除特斯拉以外的绝大多数车厂(自L2+发展,如奥迪、蔚来等)或科技公司(往往定位L4+,如谷歌Waymo/百度Apollo等)的选择;三、车路协同路线,将车载的部分感知能力转移至路侧,通过V2X实现车辆位置信息的获取和交互。图 3:自动驾驶位置信息技术路线网 联 化车路协同纯视觉方案多传感器融合L2 L3单车智能化L5技术路线代表厂商特征5G纯视觉方案特斯拉以摄像头为主要感知设备 依赖算法演进多传感器融合方案L2+:奥迪、蔚来等 L4:Waymo、Apollo等车载雷达+摄像头+卫惯组合等 多感知设备融合4GL4车路协同上汽、东风、奥迪、福 特等主机厂车端渗透路侧智能替代部分车侧智能, 协同感知与决策资料来源:德勤,国信证券经济研究所整理从Autopilot看纯视觉方案:算法迭代成演进关键具体来看,分别以特斯拉Autopilot和谷歌Waymo两套自动驾驶系统来看前两种方案的演进:特斯拉纯视觉方案,依赖算法演进:业内纯视觉的自动驾驶方案以特斯拉为典型代表,目前特斯拉仍采用车载摄像头为主+毫米波雷达为 辅的传感器配置,进一步在下一代自动驾驶套件V9上,特斯拉将移除雷达,完全采用全视觉方案。为了实现这一方案,特斯拉在深度学 习算法上投入了相当大的力度,除开先前的影子模式训练(截至2020年已完成超30亿英里),进一步在特斯拉AI Day上,特斯拉公布了 在神经网络、数据数据标注、仿真等层面的持续创新,在Autopilot上进一步优化延迟问题的神经网络编辑器等改进,并发布Dojo用于 在数据中心训练神经网络。表 1:特斯拉Autopiolt演进历史图 4:Dojo D1芯片,用于训练神经网络资料来源:特斯拉AI Day,国信证券经济研究所整理HW1.0HW2.0HW2.5HW3.0推出时间2014.92016.12017.72019.3芯片1个英伟达Tegra3+ 1个EyeQ31个英伟达TegraParker+ 1个Pasca GPU+1个英飞凌TriCore2个英伟达TegraParker+ 1个Pasca GPU+1个英飞凌 TriCore2个自研FSD算力(TOPS) 072每秒处理帧数361101102300前置摄像头1个3个(广角-60m+中焦-150m+长焦-350m)侧前摄像头-2个(80m)侧后摄像头-2个(100m)后置摄像头1个1个(50m)超声波雷达12个(5m)12个(8m)毫米波雷达1个(1

文档评论(0)

535600147 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档