流域年均含沙量BP模型问题分析行政.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
流域年均含沙量BP模型问题分析行政.doc

流域年均含沙量BP模型问题分析行政论文范文大全 流域年均含沙量BP模型问题分析 摘要:本文在用人工神经网络bp模型对流域年均含沙量进行多因素建模过程中,对bp算法进行了改进。在学习速率η的选取上引进了一维搜索法,解决了人工输入η时,若η值过小,收敛速度太慢,η值过大,又会使误差函数值振荡,导致算法不收敛的问题。建模实践表明,改进后的bp算法可能使网络误差函数达到局部极小点,提高了算法的拟合精度。 关键词:bp算法 学习速率 年均含沙量 一维搜索法   我国河流众多,自然资源十分丰富,但江河流域水土流失非常严重,给国家的可持续发展以及生态环境带来较大的危害。对于流域产沙的定量研究,一般采用单因子线性回归方法。这类方法虽然也能反映出某种统计特性,但不能刻画自然界复杂的非线性特性。人工神经网络bp网络模型是复杂非线性映射的新方法。在引入这一新的定量研究方法对流域年均含沙量进行建模预测时发现:算法中学习速率η值的选取对算法成败起着关键作用,若η值过小,收敛速度太慢,而η值过大,又会使误差函数值不下降,导致算法不收敛。本文正是针对这一问题进行了探讨。 1 bp网络模型及学习率η固定的弊端   人工神经网络理论是80年代中后期迅速发展起来的一门前沿科学,其应用已渗透到各个领域 。bp(back propagation)神经网络模型是人工神经网络理论的重要模型之一,应用尤为广泛。尽管bp网络模型发展逐步成熟,但仍然存在许多问题,在理论上需要完善 。bp算法主要包括两个过程,一是由学习样本、网络权值ω从输入层→隐含层→输出层逐次算出各层节点的输出;二是反过来由计算输出与实际输出偏差构出的误差函数e(ω),用梯度下降法调节网络权值,即ωk+1=ωk+η()使误差e(ωk+1)减小。   上式中的η为学习速率,即沿负梯度方向的步长。对于bp算法学习速率η的选取标准,一些研究者凭经验认为取0~1之间较合适,但这并无理论依据。实质上,η大小的选取对算法的成败起关键作用,步长过大,误差函数值可能发生振荡,甚至出现不收敛,而步长过小,收敛速度又太慢,并且在每一次迭代中,可选步长也不一样。总之,对于bp算法固定的学习速率η不可能使网络达到局部极值点。为此,本文引进一维搜索法,在每一次迭代过程中让计算机自动去寻找一个最优的步长,这样可使网络收敛到局部极值点。 2 bp算法及其改进 2.1 bp算法步骤   1°随机抽取初始权值ω0;   2°输入学习样本对(xp,yp),学习速率η,误差水平ε;   3°依次计算各层结点输出opi,opj,opk;   4°修正权值ωk+1=ωk+ηpk,其中pk=,ωk为第k次迭代权变量;   5°若误差eε停止,否则转3°。 2.2 最优步长ηk的确定   在上面的算法中,学习速率η实质上是一个沿负梯度方向的步长因子,在每一次迭代中如何确定一个最优步长ηk,使其误差值下降最快,则是典型的一维搜索问题,即e(ωk+ηkpk)=(ωk+ηpk)。令φ(η)=e(ωk+ηpk),则φ′(η)=de(ωk+ηpk)/dη=e(ωk+ηpk)tpk。若ηk为(η)的极小值点,则φ′(ηk)=0,即e(ωk+ηpk)tpk=-ptk+1pk=0。确定ηk的算法步骤如下   1°给定η0=0,h=0.01,ε0=0.00001;   2°计算φ′(η0),若φ′(η0)=0,则令ηk=η0,停止计算;   3°令h=2h, η1=η0+h;   4°计算φ′(η1),若φ′(η1)=0,则令ηk=η1,停止计算;   若φ′(η1)0,则令a=η0,b=η1;若φ′(η1)0,则令η0=η1,转3°;   5°计算φ′(a),若φ′(a)=0,则ηk=a,停止计算;   6°计算φ′(b),若φ′(b)=0,则ηk=b,停止计算;   7°计算φ′(a+b/2),若φ′(a+b/2)=0,则ηk=a+b/2,停止计算;   若φ′(a+b/2)0,则令b=a+b/2   8°若|a-b|ε0,则令,ηk=a+b/2,停止计算,否则转7°。 2.3 改进bp算法的特点分析   在上述改进的bp算法中,对学习速率η的选取不再由用户自己确定,而是在每次迭代过程中让计算机自动寻找最优步长ηk。而确定ηk的算法中,首先给定η0=0,由定义φ(η)=e(ωk+ηpk)知,φ′(η)=de(ωk+ηpk)/dη=e(ωk+ηpk)tpk,即φ′(η0)=-ptkpk≤0。若φ′(η0)=0,则表明此时下降方向pk为零向量,也即已达到局部极值点,否则必有φ′(η0)0,而对于一维函数φ(η)的性质可知,φ′(η0)0则在η0=0的局部范围内函数为减函数。故在每一次迭代过程中给η0赋初值0是合理的。   改进后的bp算法与原

文档评论(0)

ganpeid + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档