基于Metlab多机器人围捕问题研究.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于Metlab多机器人围捕问题研究

基于Metlab多机器人围捕问题研究   摘要: 本文将追捕-逃跑问题按空间、时间离散化后转为一个对策模型,并利用Matlab软件,采用栅格建模的方法来模拟仿真环境,对四个追捕机器人追捕一个目标机器人的实例进行了仿真。通过仿真发现了该支付函数的缺陷。基于此原因,重新定义了局中人的支付函数,通过衰减因子μ,在追捕的不同阶段,根据追捕的具体情况灵活地调整距离影响系数和有效包围系数的权重,从而提高了追捕的效率。   Abstract: According to the discretization of space and the time, thispaper transfers the pursuit-evasion problem into a game model, and uses Matlabsoftware and grid modeling method to simulatesimulationenvironment, carries on simulation for the instance of four-pursuit robots pursuea goal-robot. The simulation found the defects of paymentfunction. Based on this reason, the payment function of the players is redefined. The weight of distanceinfluence coefficient and effective surroundedcoefficient can be adjusted flexibly according to the specificcircumstances of the chase by the attenuation factor μ atdifferent stages of the chase, and the efficiency of the pursuit is improved.   关键词: 机器人;对策论;追捕-逃跑问题   Key words: robot;game theory;pursuit-evasion problem   中图分类号:TP242 文献标识码:A 文章编号:1006-4311(2014)20-0048-02   0 引言   多机器人围捕问题是多机器人系统研究中的一个典型问题。它的研究内容包括多机器人控制与协作、对抗策略、实时动态路径规划以及冲突消解等问题。   本文主要研究的是多个追捕机器人围捕单个目标机器人的情况。研究的重点是追捕团队捕获单个目标机器人时的最优合作追捕策略。首先给出捕获成功的条件,第一个条件就是目标机器人周围的追捕机器人数量达到了捕获成功所规定数值。第二个条件就是目标机器人已经无路可走了。因此,追捕团队完全可以看成是一种具有联合承诺的纯合作性质的团队[1]。   1 围捕问题对策模型的描述   如果将追捕-逃跑双方的动态连续博弈行为按时间t离散化,追捕-逃跑问题就转化成为了一个对策模型。该对策模型具有2个局中人,一个是追捕机器人,一个是目标机器人。而且该对策模型是离散的动态模型。这样,每个时刻机器人的行为动作决策就可转化为支付矩阵。通过求解支付矩阵,就可以得到最优的策略[2]。   智能体集合是指追捕-逃跑问题中的所有机器人的集合。它分为两大类,一类是追捕机器人,一类是目标机器人。因为追捕机器人团队是一个纯合作性质的团队,所以具有追求集体利益的最大化的集体理性。因此可以将整个追捕机器人团队看作是一个局中人。   环境状态是指全所有机器人的位置信息,而动作集合是指机器人在时刻t所能运动到的所有相邻栅格的集合。   该模型的支付函数实际上是所有参与者的局势评估函数[3]。该支付函数就是由距离影响系数和有效包围系数来共同定义的。如式(1)所示:hDt=?棕dks+?棕?兹k?兹(1)   其中,?棕d+?棕?兹=1,?棕d?叟0,?棕?兹?叟0。   下面分别对距离影响系数和有效包围系数这两个因素进行说明。   ①距离影响系数ks。距离影响系数是指追捕机器人与目标机器人之间的距离对任务目标的影响程度。   ks=■(2)   式(2)中,n为追捕机器人的个数,s0为追逃区域栅格的边长,sDjPt为t时刻第j个追捕机器人与目标机器人之间的距离。   ②有效包围系数k?兹。有效包围系数可以评估追捕机器人在方位上对最终追捕目标的完成程度。当追捕机器人团队对目标机器人形成有效包围圈后,有效包围系数k?兹近似等于以猎物P为中心的一段圆弧。   有效包围系数可以由下面的函数来定

文档评论(0)

317960162 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档