神经网络在数值积分中的应用研究.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
三角基函数神经网络算法在数值积分中的应用研究 引言 在科学技术中,积分是经常遇到的一个重要计算环节,比如PID调节器就涉及积分计算。在一定条件下,虽有Newton-Leibniz公式: SKIPIF 1 0 可以计算定积分的值,但在很多情况下, SKIPIF 1 0 的原函数不易求得,或非常复杂。此外,在工程实际中,函数 SKIPIF 1 0 是用函数表形式给出而没有解析表达式,这就更无法使用Newton-Leibniz公式了,因此有必要研究定积分的数值计算方法,以解决定积分的近似计算。数值积分的计算方法很多,如Newton-Cotes方法、Romberg方法、Gauss方法等[1 ~ 4],其中Newton-Cotes方法是一种利用插值多项式来构造数值积分的常用方法,但是高阶的Newton-Cotes方法的收敛性没有保证,因此,在实际计算中很少使用高阶的Newton-Cotes公式;Romberg方法收敛速度快、计算精度较高,但是计算量较大;Gauss方法积分精度高、数值稳定、收敛速度较快,但是节点与系数的计算较麻烦、而且要求已知积分函数 SKIPIF 1 0 。本文提出的数值积分计算方法,其基本思想是训练三角基函数神经网络来逼近被积函数以实现定积分的数值计算。研究结果表明,本文提出的数值积分方法积分精度高、收敛速度快、数值稳定,甚至可以处理一些奇异积分的问题,而且不需要给定被积函数,因此能有效解决建模困难的系统或未知系统的求积分问题,在工程实际中有较大的应用价值。下面详细讨论三角基函数神经网络算法及其与数值积分的关系,并给出计算实例。 三角基函数神经网络模型 三角基函数神经网络模型如图1所示,其中 SKIPIF 1 0 为神经网络权值, SKIPIF 1 0 为三角基函数,即: SKIPIF 1 0 , SKIPIF 1 0 ) (1) 为隐层神经元激励函数(N为偶数),且 SKIPIF 1 0 。设权值矩阵为: SKIPIF 1 0 ,激励矩阵为: SKIPIF 1 0 ,则有: 神经网络输出: SKIPIF 1 0 (2) 误差函数: SKIPIF 1 0 (3) 其中 SKIPIF 1 0 为样本点数, SKIPIF 1 0 为被积函数。 则有:性能指标: SKIPIF 1 0 (4) 权值调整: SKIPIF 1 0 (5) 其中 SKIPIF 1 0 为学习率,且 SKIPIF 1 0 。 2.1 三角基函数神经网络收敛定理 定理1. 设 SKIPIF 1 0 为学习率,则当 SKIPIF 1 0 SKIPIF 1 0 时,神经网络算法收敛,其中N+1是隐层神经元个数。 证明:取Lyapunov函数为: SKIPIF 1 0 ,则有: SKIPIF 1 0 (6) 因为 SKIPIF 1 0 ,而 SKIPIF 1 0 ,于是有: SKIPIF 1 0 (7) 其中 SKIPIF 1 0 ,称为Euclid范数的平方。所以式(6)改写为: SKIPIF 1 0 由式(8)知,要使神经网络收敛,必须有下式成立,即: SKIPIF 1 0 ,因 SKIPIF 1 0 ,所以 SKIPIF 1 0 (9) 由式(7)、(8)可得: SKIPIF 1 0 ,所以 SKIPIF 1 0 ,由式(1)可以证明 SKIPIF 1 0 因此,由式(9)有: SKIPIF 1 0 ,即当学习率 SKIPIF 1 0 满足 SKIPIF 1 0 时,有 SKIPIF 1 0 ,从而本文讨论的三角基神经网络算法是收敛的,证毕。 2.2 三角基函数神经网络最佳学习率 在神经网络训练中,学习率是影响神经网络收敛快慢以及是否收敛的一个重要参数,太小会使收敛太慢,

文档评论(0)

bodkd + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档