- 1、本文档共23页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
深度学习与强化学习
WeihongChen
2017/06/30
目录
深度学习基础
强化学习基础
深度学习中的强化学习
一、深度学习基础DeepLearning
DNN深度神经网络
L0L1L2Ln
wwww
计算损失函数
(l)(l)
yf(z)
jj(l)(l)2
J0.5(yt)
(l)(l)(l)(l)
zwxb
jiijij
随机梯度下降(SGD)进行训练.
CNN卷积神经网络
卷积、池化、全连接、softmax
二、强化学习基础ReinforcementLearning
多阶段决策
1.ValueFunction价值函数
2.BellmanEquation贝尔曼方程
1ValueFunction价值函数
投资决策问题
假如我们有一笔X美元的资金,可以有三种选择来使用这
笔资金:
1.使用资金进行股票投资
2.使用资金进行买房投资
3.使用资金购买书籍、科研设备等提升资金
那么,我们就面临如何做选择的问题.只能选择其中一种.
基于Policy的方法基于Value的方法
?需要估算ValueFunction
2BellmanEquation
问题的基本形式可以描述为:
t
MaxF(X(t),Ut())
stXt..(1)Gx(),Ut(),t0,1,2,3
Xt(0)X0
定义值函数为:
t
V(X(t),t)=MaxF(Xt(),Ut()),(0,1)
任意阶段的贝尔曼方程就可以表示为
t:
U(X(t),t)=Max{F(X(t),Ut())V(Xt(1),t1)}
三、深度学习中的强化学习
DeepReinforcementLearning
1基础
基于求解Bellman方程
PolicyIteration
ValueIteration
SARSA
Q-Learning
您可能关注的文档
- 基于图神经网络和深度强化学...的二维矩形排样优化方法研究_张磊.pdf
- 深度学习调参指南中文版.pdf
- 深度学习概述.pdf
- 深度学习刚性点云配准前沿进展.pdf
- 深度学习平台.pdf
- 深度学习入门及实战.pdf
- 深度学习应用与框架.pdf
- 鸢尾花书3_数学要素.pdf
- zlibrary+注册教程+其他网址.pdf
- 大语言模型增强下的社媒平台热榜主题分析.pdf
- 2025年春新北师大版八年级物理下册全册课件.pptx
- 2025年春新北师大版八年级物理下册全册教学课件.pptx
- 2025年秋季新北师大版八年级上册物理全册教学课件.pptx
- 2025年秋季新人教版九年级上册化学全册课件.pptx
- 2025年新人教版八年级上册物理全册课件.pptx
- 2025年秋季新人教版九年级上册化学全册教学课件(新版教材).pptx
- 新人教版七年级上册英语全册课件(2025年新版教材).pptx
- 锂离子电池前驱体磷酸铁合成方法研究现状及展望.docx
- 2024年东盟石油和天然气更新报告(英文版)-东盟.docx
- DB3209_T 1207.2-2022 建设工程档案管理 第二部分:房屋建筑工程文件归档和档案移交范围.docx
文档评论(0)