- 1、本文档共26页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
ThenameoftheDepartmentBeijingForestStudio
北京理工大学信息系统及安全对抗实验中心部门名称
对抗环境强化学习算法
硕士研究生王逸洲
2019年12月08日
内容提要
•背景简介
•基本概念
–强化学习
–Q-Learning
–深度Q网络
•算法原理
•优劣分析
•应用总结
•参考文献
2
背景简介
•预期收获
–1.了解强化学习相关基础知识
–2.理解Q-Learning、了解深度Q网络算法原理
–3.了解对抗环境强化学习对不平衡数据学习的改进效果
3
基本概念
•强化学习
–主要包含四个元素,智能体(Agent),环境状态(State),
行动(Action),奖励(Reward)
–本质是解决decisionmaking问题,即自动进行决策,
并且可以做连续决策
•在每个时间步(timestep),智能
体在当前状态根据观察来确定下一
步的动作。
•策略:状态和动作之间的映射关系,
记作:A=π(S)
4
基本概念
•强化学习与监督学习、无监督学习
–监督学习与强化学习
•有监督学习从已有标记的训练集中学习
•样本特征-state、标签-action
•有监督学习不能学习交互的情景
–无监督学习与强化学习
•无监督学习从未标记样本中发现隐藏结构
•强化学习的目的是最大化奖励信号
–强化学习特点
•其中没有监督者,只有一个reward信号
•反馈是延迟的,不是立即生成的
•agent的行为会影响之后一系列的data
5
基本概念
•ValueBased
–关注点是找到最优奖励总和
–输出的是所有动作的价值,
根据最高价值来选动作,不
能选取连续的动作
•PolicyBased
–关注点是找到最优策略
–通过分析所处的环境,直接
输出下一步要采取的各种动
作的概率,然后根据概率采
取行动
6
基本概念
•回报(Return)
–为最大化长期累积奖赏,定义当前时刻后的累积奖赏为回报
(Return)
–考虑折扣因子(避免时间过长时,总回报无穷大):
•值函数
您可能关注的文档
- 《叶黄素原料 万寿菊油树脂》t cfaa 0005—2021-2021-01-27-09-59-03.pdf
- 【B17中弘空调网关】用户使用手册(7).pdf
- 2组-学术报告-基于深度学习的二进制软件漏洞挖掘-闫晗-2019.12.15.pdf
- 2组-学术报告-频繁子图-李蕊-09.15.pdf
- AFL-基于覆盖的模糊测试工具-刘力源.pdf
- arex400-datalogic-用户操作说明书手册.pdf
- c59-lika-electronic-用户操作说明书手册.pdf
- cmc-dn01-delta-electronics-用户操作说明书手册.pdf
- cmc-ec01-delta-electronics-用户操作说明书手册.pdf
- cmc-pn01-delta-electronics-用户操作说明书手册.pdf
文档评论(0)