《人工智能》第14章博弈决策进阶及其在金融领域的应用.pptx

《人工智能》第14章博弈决策进阶及其在金融领域的应用.pptx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

;;第一部分进阶

——基于机器学习的博弈决策

;前言;机器学习;深度学习;强化学习解决博弈问题;首先我们建立一个数值表格,每一个单元格代表了游戏中每一个可能达到的状态。表格中的数值就是从每一个状态出发可能获胜的概率的最新估计,我们将其称之为状态价值,整张表格则是通过学习获得的价值函数。在强化学习的开始阶段,表格中的价值是随机设置的。;深度强化学习(DeepReinforcementLearning,DRL)以一种通用的形式将深度学习的感知能力与强化学习的决策能力相结合,并能够通过端对端的学习方式实现从原始输入到输出的直接控制。自提出以来,在许多需要感知高维度原始输入数据和决策控制的任务中,深度强化学习方法已经取得了实质性的突破。;由于卷积神经网络对图像处理拥有天然的优势,将卷积神经网络与强化学习结合处理图像数据的感知决策任务成了很多学者的研究方向。2013年和2015年DeepMind的DeepQNetwork(DQN)可谓是将两者成功结合的开端,DQN只使用游戏的原始图像作为输入,不依赖于人工提取特征,是一种端到端的学习方式。DQN创新性地将深度卷积神经网络和Q学习结合到一起,在Atari视频游戏上达到了人类玩家的控制效果。通过经验回放技术和固定目标Q网络,DQN有效解决了使用神经网络非线性动作值函数逼近器带来的不稳定和发散性问题,极大提升了强化学习的适用性。经验回放增加了历史数据的利用率,同时随机采样打破了数据间的相关性,与目标Q网络的结合进一步稳定了动作值函数的训练过程。;;强化学习构建博弈系统案例;;第二部分博弈决策技术在金融领域的应用;金融博弈;金融博弈;金融博弈;金融博弈;金融博弈;金融博弈;金融博弈;金融博弈;谢谢!

文档评论(0)

autohhh + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档