网站大量收购独家精品文档,联系QQ:2885784924

神经网络在数值分中的应用研究.doc

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
三角基函数神经网络算法在数值积分中的应用研究* 引言 在科学技术中,积分是经常遇到的一个重要计算环节,比如PID调节器就涉及积分计算。在一定条件下,虽有Newton-Leibniz公式:可以计算定积分的值,但在很多情况下,的原函数不易求得,或非常复杂。此外,在工程实际中,函数是用函数表形式给出而没有解析表达式,这就更无法使用Newton-Leibniz公式了,因此有必要研究定积分的数值计算方法,以解决定积分的近似计算。数值积分的计算方法很多,如Newton-Cotes方法、Romberg方法、Gauss方法等[1 ~ 4],其中Newton-Cotes方法是一种利用插值多项式来构造数值积分的常用方法,但是高阶的Newton-Cotes方法的收敛性没有保证,因此,在实际计算中很少使用高阶的Newton-Cotes公式;Romberg方法收敛速度快、计算精度较高,但是计算量较大;Gauss方法积分精度高、数值稳定、收敛速度较快,但是节点与系数的计算较麻烦、而且要求已知积分函数。本文提出的数值积分计算方法,其基本思想是训练三角基函数神经网络来逼近被积函数以实现定积分的数值计算。研究结果表明,本文提出的数值积分方法积分精度高、收敛速度快、数值稳定,甚至可以处理一些奇异积分的问题,而且不需要给定被积函数,因此能有效解决建模困难的系统或未知系统的求积分问题,在工程实际中有较大的应用价值。下面详细讨论三角基函数神经网络算法及其与数值积分的关系,并给出计算实例。 三角基函数神经网络模型 三角基函数神经网络模型如图1所示,其中为神经网络权值, 为三角基函数,即:, ) (1) 为隐层神经元激励函数(N为偶数),且。设权值矩阵为:,激励矩阵为:,则有: 神经网络输出: (2) 误差函数: (3) 其中为样本点数,为被积函数。 则有:性能指标: (4) 权值调整: (5) 其中为学习率,且。 2.1 三角基函数神经网络收敛定理 定理1. 设为学习率,则当时,神经网络算法收敛,其中N+1是隐层神经元个数。 证明:取Lyapunov函数为:,则有: (6) 因为,而 ,于是有: (7) 其中,称为Euclid范数的平方。所以式(6)改写为: 由式(8)知,要使神经网络收敛,必须有下式成立,即:,因,所以 (9) 由式(7)、(8)可得:,所以 ,由式(1)可以证明因此,由式(9)有:,即当学习率满足时,有,从而本文讨论的三角基神经网络算法是收敛的,证毕。 2.2 三角基函数神经网络最佳学习率 在神经网络训练中,学习率是影响神经网络收敛快慢以及是否收敛的一个重要参数,太小会使收敛太慢,太大会使神经网络振荡而无法收敛。为确定该神经网络的最佳学习率,本文以随机函数作为训练对象。在构造神经元网络模型时,取网络结构为:,学习率为: ,其中为学习率调整因子,即。训练结果如表1所示。由表1可知,最佳学习率:,其中,为最佳学习率调整因子。故一般情况下,最佳学习率应取为:。图2为取时的某次训练结果对训练对象的误差,其中y为训练结果,yd为训练对象。 图1 余弦基函数神经网络模型 图2 随机函数训练误差 表1:学习率与收敛速度的关系 学习率 α 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 学习次数 55 25 15 9 7 11 18 31 67 不收敛 3.积分定理 定理2. 设a、b为积分上下限,且,为神经网络权值,则有: 证明: 证毕。 由定理2可以得出以下三条推论: 推论1. 当时 推论2. 当时 推论3. 当时 4.数值积分实例 为了验证本文提出的数值积分算法的优越性,本文选取了参考文献[5][6][7]中给出的一些实例进行计算,与传统的梯形法、辛甫生方法、组合辛甫生方法和龙贝格方法比较(见例1和例2),精度高,适应性强。 例1.文献[7]用梯形法和辛甫生方法在[0,2]积分区间分别计算被积函数: 等六个函数的积分,结果如文献[7]中的表4.7所示。在本文算法中,取神经网

文档评论(0)

huang37168huan + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档