人工智能与嵌入式.pptx

  1. 1、本文档共40页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
2019 嵌入式 人工智能 CREATIVE by:刘德健,郑宏,王涛,田竟民,谭茜成 目 录 CONTENTES 3 Part 01 软件可行性 4 无人驾驶关键技术 第一个问题是定位,自动驾驶需要的是厘米级定位。 第二个问题是路径规划,自动驾驶的路径规划第一层是点到点的非时间相关性拓扑路径规划,第二层是实时的毫秒级避障规划。第三层是将规划分解为纵向(加速度)和横向(角速度)规划。 第三个问题是车辆执行机构执行纵向和横向规划,也就是线控系统。 第一个和第三个问题主要由硬件解决,下面将介绍无人驾驶路径规划算法。 5 5 已知无人驾驶车辆的几何形状和动力学模型,以及通 过车载传感器采集到的周围环境信息,包括障碍物的分布 及状态等。路径规划的任务就是根据接收到的信息,计算 一条免碰撞且满足车辆动力学和几何约束的可行轨迹。并将规划结果输出至运动控制层,车辆根据规划轨迹实时 给出合适的控制量,以实现车辆对轨迹的跟随。 在一个空间中,车辆的所有状态集合称为其构形空 间,用符号 C 表示,障碍物构形空间用 表示,构形空 间自由 连续映射称为构形空间中的一条可行路径。车辆的状态空间是由状 态方程和输出方程总和起来构成的一个完整的动态描述, 是在构形空间上加上车辆所受的非完整约束条件速度、曲 率维度等得到的。类似于构形空间,状态空间的起始构 型、终止构型、障碍区域和自由区域可分别表示 可行轨迹在构形空间中的投影就是 可行路径。 路径规划问题可用三元组 来描述, 路径规划算法就是根据一系列的状态输入量,找出由初始 状态到达目标状态的可行轨迹。 问题描述 6 6 传统的路径规划算法是研究人员多年来研究的最基本,最成熟的算法,这些算法原理简单易实现,并以得到广 泛应用。本文着重介绍在无人驾驶车辆上得到较好应用 的两类传统路径规划算法,分别是以 A* 算法为代表的基 于图搜索的路径规划算法和以快速扩展树( r apidl y explo - r ing random tree,RRT)为代表的基于采样的路径规划 算法。  1基于图搜索的路径规划算法 基于图搜索的路径规划算法的基本思想是将状态空 间通过确定的方式离散成搜索图,并用各种启发式搜索算 法计算其可行解。 Dijstra算法是一种经典的最短路径搜索算法,但 其广度优先的性质会导致搜索太多无关节点。因此,在 20世纪60年代 Hart等提出了启发式的 A* 搜索算法,其基本公式如下: f(n=g(n)+ h (n) ( 1) 式中: f(n)为初始状态到目标状态的估计代价;g(n)为初始状态到状态n的实际代价; h(n)为状态n到目标状态的估计代价。虽然 A*算法能有效解决最短路径问题,但其存在易 陷入“死循环”、规划路径折点多、在动态环境中规划效果不佳等问题。 2基于采样的路径规划算法 与基于搜索的路径规划算法不同,基于采样的路径规 划算法通过均匀随机采样的方法来探索高维状态空间的 连通性。此类算法的最大特点有两个: 1)无需对状态空间 的自由区域进行建模; 2)由于其随机采样的特点,搜索速 度快,规划效率高,缺陷在于不能处理非完整约束动力学 问题。典型的基于随机采样的算法是RRT算法,该算法不要求状态之间精确连接,适合解决无人驾驶车辆在复 杂环境下的路径规划问题。 传统算法 7 7 传统算法 8 8 随着对各个交叉学科的研究,各类智能优化算法也被 引入到路径规划领域,通过模拟自然界生物的行为规律实 现优化的目的,智能优化算法具有自学习、自决定功能。 近年来,典型的智能优化算法包括蚁群算法(ant   colony optimization,ACO) 、触须算法( t entacle   al gorithm) 和智能水滴算法( i ntelli gent water   drops,IWD) 。 智能优化算法 9 9 强化学习(Reinforcement Learning, RL)指无人驾驶 车辆利用自身传感器不断与环境相互作用来获取未知环境的知识。其学习构架如图3所示。 基于强化学习的算法 强化学习的优势在于通过和环境交互试错进行在线 学习,在行动和评价的环境中获得知识,对行动方案进 行改进适应环境,以获得最优动作。常用的强化学习算法 有瞬时差分法、 Sarsa算法和 Q-Learning算法。其中Q-Learning算法是最有效的与环境模型无关的算法,具有在 线学习的特点。 虽然强化学习在随机动态环境的路径规划中有较好 应用,但如何加快算法收敛速度,降低空间复杂度,提升在 环境中的学习能力,一直是研究的难点问题。文献提 出基于近似动作空间模型策略选择的Q-Learning学习算 法,文献提出双层强化

文档评论(0)

bakey125 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档