基于状态预测的多智能体自协调协作模型设计控制科学与工程专业论文.docxVIP

  • 7
  • 0
  • 约6.69万字
  • 约 75页
  • 2019-01-24 发布于上海
  • 举报

基于状态预测的多智能体自协调协作模型设计控制科学与工程专业论文.docx

基于状态预测的多智能体自协调协作模型设计控制科学与工程专业论文

优秀毕业论文 精品参考文献资料 摘 摘 要 救援机器人是当前机器人与多智能体系统研究中的一个新兴领 域,它涉及机器入学、人工智能、智能控制、计算机视觉等多个领域 并且有现实意义。协作模型系统作为整个救援机器人系统的核心,决 定了机器人间的协调协作与运动规划,是机器人的“大脑”。因此,协 作模型系统的研究在多机器人、多智能体领域具有十分重要的意义。 本文以救援机器人RoboCupRescue仿真系统为研究对象,针对 传统的协作模型很难满足多智能体系统在反应性、适应性、智能性和 学习能力等方面的要求,提出一种基于状态预测的多智能自协调两层 协作模型。该模型把决策系统分为上下两层:中央决策层和行为层。 上层中央决策层采用Q学习分别进行状态预测和阵型规划决策, 并针对状态预测和阵型规划的特点和要求分别对Q学习的结构进行 了合理的改进。针对普通Q学习在环境状态复杂的情况下收敛速度 较慢的缺点,通过分析RoboCupRescue仿真系统的特性,分别采用 世界状态属性精简的方法和模糊聚类的方法把数量众多的系统状态 转化为为数不多的精简状态和模糊状态,从而大大减少了Q学习的 状态空间,提高了算法的收敛速度;同时,针对普通Q学习算法易 收敛到局部最优,本文通过分析Q学习算法中三个关键参数(学习 率口、折扣因子y和温度值T)的作用,提出一种自适应Q学习算法, 动态地调整这三个参数,从而实现系统全局最优动作。 下层行为层,取代传统的机器人作为上层意图的简单执行方法或 单纯的对外部世界做出反应,充分利用移动机器人的行为特性,提出 一种行为效用评估算法对上层决策意图和自身的反应式策略进行行 为效用预估,从而选择出最有效的行为方式。继而基于 RoboCupRescue智能体的特殊结构,提出一种基于改进栅格法的蚁群 算法,进行最佳行动路径规划。该行为层的设计减轻了中央决策层的 决策任务,提高了系统的实时反应性。 本文采用Java编程语言在Linux下编写决策程序来实现整个协 作模型系统的设计。通过在RoboCupRescue救援机器人仿真平台上 进行仿真比赛,验证了所设计模型的有效性。 关键词: 救援机器人,多智能体,Q学习,模糊聚类,两层模型, 行为效用评估 AB AB STRACT Robot Rescue iS a new field of robot and muff.agent system research in recent years.It involves fields like robotics,artificial intelligence, intelligent control,computer vision and SO on.The cooperation model, just like the brain of the robots, iS the core of the whole Robot Rescue system and iS responsible for the cooperation of the robots.So the research of the cooperation model has a significant meaning to the multi.robot and multi.agent fields. This thesis IS based on the RoboCupRescue simulation system.In order to meet the cooperation model’S need on reactivity,adaptability, intelligence and learning ability,a dual self-coordination cooperation model based on status forecasting is proposed.The whole cooperation model includes the upper layer:central decision—making layer and the lower layer:behavior layer. The upper layer uses the Q—Learning algorithm to forecast the environment status and to plan the lineup.To meet the characteristic of the status forecasting and lineup planning,the structure of Q—Learning is improved.By anal

文档评论(0)

1亿VIP精品文档

相关文档