- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
神经网络学习控制 Neural Network based Learning Control 7.1 Reinforcement Learning( 再励学习,自强式学习) ? 神经网络学习方法有三类: a) 监督学习 Supervised Learning — 例如 BP — 有明确的“教师”信号 b) 无监督学习 Unsupervised Learning — 没有任何“教师”信号 — 只是通过输入数据的内部信息 相当自组织?类方法。 — 例如 c) 再励学习 Reinforcement Learning 源于心理学 简单的说,一个人有笔钱,有几个投资选择 A.B.C. 他投 B ,赚钱了,再投 B 。 until B 不赚钱了,或有 突发事件使他觉得 A 更好,于是将钱投到 A 。 ? 由 Barto 等人提出的 Reinforcement Learning 可称 为 ASE/ACE 模型,即由 ASE : Associative Search Element :关联搜索单元 ACE : Adaptive Critic Element :自适应评判单元 构成。 ASE 的作用是确定控制信号 y ACE 则对再励信号 r 进行改善,得到 ASE 和 ACE 各有 n 路输入通道,由系统状态 S 解码而成 (这与 cmac 相同),且每一时刻只选一个,即 控制信号的确定和各通道权值的修正如下: n , , 2 , 1 i , ) ( ? ? t x i ? ? ? ? ? ? ? ? ? ? ) ( ) ( ) ( 1 t noise t t f y x w i n i i r ? 其中, 和 分别为 ASE 和 ACE 各通道的权值; 是经改善的再励信号, α 、 β 、 γ 和 δ 有关系数 , noise 为随机噪声。 ) ( ) ( ) ( 1 t t t p x v i n i i ? ? ? ) 1 ( ) ( ) ( ) ( ? ? ? ? ? t p t p t r t r ? ) ( ) ( ) ( ) 1 ( t t r t t e w w i i i ? ? ? ? ? ) ( ) ( ) 1 ( ) ( ) 1 ( t t y t t x e e i i i ? ? ? ? ? ? ) ( ) ( ) ( ) 1 ( t t r t t x v v i i i ? ? ? ? ? ) ( ) 1 ( ) ( ) 1 ( t t t x x x i i i ? ? ? ? ? ? w i v i r ? DECODER Cart — Pole system V1,.. v2 vn W1,w2 wn x x x n ? 2 1 ? Learning nt Reinforeme y ? ? ? ? ? ? ? ? ? left right x f y 1 1 ) ( ? ? ? ? ? failure success t r , 1 , 0 ) ( r ? x x ? e e ? ? Cart-Pole 的数学模型 ? Failure 的条件 ? 显然,各单元的输出几乎完全取决于被选通道的权值, ASE 略受噪声的影响。 各权值的学习几乎独立,只有那些曾经被选中的通道 才会得到修正,其他则不变。 这样,一旦碰到完全新的情况,则可能输出一个完全 错误的控制信号 , 导致 FAIL Two approaches to Neural Network based Learning Control ? 7.2 Direct Inverse Modelling ? 7.3 Learning Control with a Distal Teacher (Distal Learning ) ? The control problem Learner Environment intention action outcome Inverse Model Environment y* x[n-1] u[n-1] y[n-1] 1. The
文档评论(0)