神经网络逆元自适应控制的研究.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
神经网络逆元自适应控制的研究 1 神经网络逆控制规则 近年来,网络反演器的出现为控制非均质控制提供了新思路和有效的手段。其中,网络反演器是一项重要的控制结构,在机器人控制等方面得到了成功的应用。但对于非最小相位系统, 由于其相应逆系统的不稳定性, 逆控制方案往往无法使用。另外, 在神经网络的训练算法方面, 传统的BP学习算法收敛速度较慢, 影响了神经网络在控制领域中的深入应用。 本文针对以上两个问题, 利用构造伪系统的方法, 并采用学习速度较BP算法快一个数量级的Davidon最小二乘法来训练神经网络, 由此推导出一种对非最小相位系统仍然有效的神经网络逆元自适应控制器。 最后, 我们在非最小相位非线性系统上进行了仿真研究, 结果表明, 该方法对非最小相位非线性系统具有良好的控制效果。 2 逆元控制器与受控制系统的串接设备 本文所采用的神经网络逆元自适应控制器的结构如图1所示。 在以上控制方案中, 我们利用被控对象的输入输出数据来训练用于逼近系统逆映射的神经网络AN2, 控制器网络AN1与AN2具有完全一样的结构、参数、初始值, 但AN1这个网络不参加训练, 仅在神经网络AN2的每一步训练结束后, 复制出与AN2完全一样的权值, 其作为逆元控制器与受控系统串接, 将参考输入yd(t+1) 作用于AN1, 就可使系统的输出接近于期望值。因此可使用于逼近系统逆映射的网络AN2与控制器网络AN1的权值修正同时完成, 有利于提高控制方案的实时性, 并使控制系统具有了适应性。 3 网络生成及权值修正 设受控对象为一单输入-单输出的非线性系统, 可用如下模型来描述 y(t+1)=f[y(t),y(t-1),?,y(t-n+1),u(t),u(t-1),?,u(t-m+1)](1)y(t+1)=f[y(t),y(t?1),?,y(t?n+1),u(t),u(t?1),?,u(t?m+1)](1) 式中u、y——系统的输入和输出;n、m——{y(t) }和{u(t) }的阶次。f(·) ——非线性函数。假定其存在逆映射h(·) =f-1(·) , 则相应的逆系统可表述为 u(t)=h[y(t+1),y(t),y(t-1),?,y(t-n+1),u(t-1),?,u(t-m+1)](2)u(t)=h[y(t+1),y(t),y(t?1),?,y(t?n+1),u(t?1),?,u(t?m+1)](2) 我们采用一个三层前馈神经网络来逼近系统的逆映射h(·) , 如图2所示。 其可描述为 ?u(t)=hΝΝ[y(t+1),y(t),y(t-1),?,y(t-n+1),u(t-1),?,u(t-m+1)](3)u?(t)=hNN[y(t+1),y(t),y(t?1),?,y(t?n+1),u(t?1),?,u(t?m+1)](3) 网络的输入层为 Ο1i={y(t-i+1),0≤i≤nu(t-i+n),n+1≤i≤m1-1(4)O1i={y(t?i+1),0≤i≤nu(t?i+n),n+1≤i≤m1?1(4) 式中m1=n+m, 即输入层结点个数。 令m2为隐含层结点个数, 则隐含层可表述为 netj(t)=m1∑i=1W2ijΟ1i(t)?j=1,2,?,m2(5)Ο2j(t)=g[netj(t)]?j=1,2,?,m2(6)netj(t)=∑i=1m1W2ijO1i(t)?j=1,2,?,m2(5)O2j(t)=g[netj(t)]?j=1,2,?,m2(6) 输出层为 ?u(t+1)=m2∑j=1W3jΟ2j(t)(7)u?(t+1)=∑j=1m2W3jO2j(t)(7) 式中 {W2ij2ij}——输入层与隐含层间的连接权值;{W3j3j}——隐含层与输出层之间的连接权值。激励函数取 g(x)=21+e-x-1(8)g(x)=21+e?x?1(8) 我们利用Davidon最小二乘法对神经网络AN2的权值进行训练, 相应的权值修正公式为 W(t)=W(t-1)-Η(t-1)??(t)?(t)γ+??Τ(t)Η(t-1)??(t)(9)Η(t)=1γ[Η(t-1)-Η(t-1)??(t)??Τ(t)Η(t-1)γ+??Τ(t)Η(t-1)??(t)](10)W(t)=W(t?1)?H(t?1)??(t)?(t)γ+??T(t)H(t?1)??(t)(9)H(t)=1γ[H(t?1)?H(t?1)??(t)??T(t)H(t?1)γ+??T(t)H(t?1)??(t)](10) 式中W(t) ——所有权值构成的向量;?(t)=?u(t)-u(t),??(t)?(t)=u?(t)?u(t),??(t)——? (t) 关于W(t) 的梯度向量在W(t) =W(t-1) 时的值。对于输入层与隐含层之间的连接权值有 ??(t)?W2ij=W3jg′[ne

文档评论(0)

ss_account + 关注
实名认证
文档贡献者

专注于文档制作,提供高质量文档

1亿VIP精品文档

相关文档