- 1、本文档共26页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
ThenameoftheDepartmentBeijingForestStudio
北京理工大学信息系统及安全对抗实验中心部门名称
DQN深度强化学习算法
硕士研究生秦枭喃
2020年05月31日
内容提要
•背景简介
•基本概念
•算法原理
–DeepQ-Network算法
–DeepQ-Network的调参细节
•优劣分析
•应用总结
•参考文献
2
背景简介
•预期收获
–1.复习强化学习的基本知识。
–2.深入理解DQN算法原理及其调参细节。
3
背景简介
•强化学习的概念
–强化学习是指与环境相互作用的智能体,通过反复训练,为
指定工程或项目的顺序决策问题学习最优策略。
•案例
–2016年,AlphaGoMaster击败围棋大师李世石;
–2019年1月25日,AlphaStar在《星际争霸2》中以10:1
击败了人类顶级职业玩家;
–2019年4月13日,OpenAI在《Dota2》的比赛中战胜了
世界冠军OG;
–2020年5月,王者荣耀觉悟AI实现吊打各平台主播;
4
基本概念
•基本架构
–强化学习的基本框架一般包含:智能体、环境、动作、状态、
奖励这5个部分。
•智能体:依据当前的状态来做出最优行为决策;
•动作:预先设置的行为决策;
•环境:根据输入的动作来更新下一个阶段的状态;
•状态:表征事物性质的特征;
•奖励:用于评价当前动作的好坏程度;
state
Agent
Trainaction
reward
state_nextEnvironment
+1
5
基本概念
•基本架构
–FlappyBird小游戏:障碍物以一定速度往左前行,小鸟拍打翅膀向上
或向下飞翔来避开障碍物,如果碰到障碍物,游戏就GAMEOVER!
•智能体:依据当前的状态来对小鸟进行操作;
•动作:向上或向下;
•环境:游戏的运行机制;
•状态:根据卷积神经网络提取出来的特征;
•奖励:游戏继续给正奖励,失败则给予大的负奖励;
state
Agent
Trainaction
reward
您可能关注的文档
- 《叶黄素原料 万寿菊油树脂》t cfaa 0005—2021-2021-01-27-09-59-03.pdf
- 【B17中弘空调网关】用户使用手册(7).pdf
- 2组-学术报告PPT-对抗环境强化学习-王逸洲-2019.12.08.pdf
- 2组-学术报告-基于深度学习的二进制软件漏洞挖掘-闫晗-2019.12.15.pdf
- 2组-学术报告-频繁子图-李蕊-09.15.pdf
- AFL-基于覆盖的模糊测试工具-刘力源.pdf
- arex400-datalogic-用户操作说明书手册.pdf
- c59-lika-electronic-用户操作说明书手册.pdf
- cmc-dn01-delta-electronics-用户操作说明书手册.pdf
- cmc-ec01-delta-electronics-用户操作说明书手册.pdf
文档评论(0)