- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第 卷第 期
机器人 ΡΟΒΟΤ ∂
年 月
√
文章编号222
机器人足球赛中基于增强学习的任务分工Ξ
顾冬雷 陈卫东 席裕庚
上海交通大学自动化研究所 上海
摘 要 本文研究了机器人足球赛中利用增强学习进行角色分工的问题 通过仿真试验和理论
分析 指出文 中采取无限作用范围衰减奖励优化模型 的 学习
≈ ∏2 ±
算法对该任务不合适 并用平均奖励模型 对算法进行了改进 实验表明改进
√2
后学习的收敛速度以及系统的性能都提高了近一倍
关键词 算法 无限作用范围衰减奖励优化模型 平均奖励优化模型
±
中图分类号 ×° 文献标识码
1 引言
利用各种学习方法提高移动机器人的适应能力是机器人领域当前的研究热点 作为一种
≈
无监督的学习方法 增强式学习由于它的普遍适用性受到了广泛的关注 其中 算法 由于
±
其实现的简易性在研究中得到了最广泛的使用
≈
文 利用 算法 研究了机器人足球赛中的角色分工 文中假设每个机器人的行动能
≈ ±
力 感知能力完全一样 基本行为也完全一样 一方由预编程决定前锋后卫的角色分工 另一方
!
通过学习来确定机器人的角色分工最后学习一方的性能超过了预编程的一方
本文在我们自行开发的机器人足球赛仿真系统中仿真了文 中的实验 在实验过程中发
≈
现 利用 学习算法 学习结果和诸多因素有关 很难达到文 中所记录的性能 通过分析
± ≈
本文认为增强学习在该实验中的任务是学到优化的静态角色分工 方法采用的无限作用范
±
围衰减奖励策略优化模型∏2 ≈常用于学习优化的动态行为
序列 不符合本实验的实际情况 而平均奖励策略模型 ≈ 比较有效 仿
文档评论(0)