基于神经网络的崩岸预测模型.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于神经网络的崩岸预测模型 坍塌是河岸坍塌过程的一个非常复杂的过程,与许多因素有关,如河岸结构、土壤材料性质、河岸形状、降水、河岸坍塌、水流磨损、水位变化、涂料层设计等。在不同的情况下,坍塌的风险因素是不同的。目前的研究大多基于简单因素,推测河岸的发生。如何充分考虑不同因素的影响是一个迫切需要解决的问题。人工神经网络可以考虑不同的因素,并具有高度的非线性映射能力。 人工神经网络(artificial neural network,ANN)是在生物神经系统的启发下发展起来的一种信息处理方法.人工神经网络与人脑相似,是由大量简单的神经元彼此相互连接而成的大规模非线性系统,具有高度非线性和并行处理能力.人工神经网络能够向不精确并带有噪音的数据学习,具有良好的容错能力和联想记忆能力,广泛应用于信息处理、智能控制、模式识别等许多工程技术和社会经济领域.BP人工神经网络在土木、水利领域用得较多,如用于水力发电过程的辨识和控制、河川径流预测、河流水质分类、混凝土性能评估、拱坝优化设计、砂土液化预测、岩爆预测等.本文即采用BP人工神经网络进行崩岸的预测. 1 人工神经网络bp和改进模型 1.1 bp人工神经网络的学习规则 BP人工神经网络是一种前向人工神经网络,其全称是误差逆向传播神经网络(error back propagation neural network).BP人工神经网络的基本结构包括3层,即输入层、隐含层和输出层,各层之间实现全连接.按隐含层的个数可分为3层(包含1个隐含层)和多层(包含2个或2个以上隐含层)BP人工神经网络.尽管数学家已经证明3层前向网络可以精确地逼近任何复杂的函数,但其隐含的节点数不能任选,且对样本数据携带的噪音的鲁棒性极差,所以有时采用深层前向网络可能会更好.BP人工神经网络的工作原理是通过BP人工神经网络的非线性逼近能力,尽可能地使网络的输出与期望输出一致.这主要是通过不断调整各神经元的连接权和阈值来实现的.调整各神经元的连接权和阈值的方法也叫学习规则.通常采用的学习规则是最小二乘学习规则(LMS,Least Mean Square),也称线性修正规则,其算法过程如下. 定义一个能量函数E E=1n∑1nEpEp=12∑j=1m(Oj(xp)?Dj(xp))2(1)E=1n∑1nEpEp=12∑j=1m(Οj(xp)-Dj(xp))2(1) 式中:Oj(xp)——学习样本p在网络输出节点j上的计算输出;Dj(xp)——学习样本p在网络输出节点j上的期望输出;m——网络输出节点的个数;n——学习样本的个数. 网络学习的过程就是使能量函数E最小的过程.其计算过程可以表述如下:(a)初始化网络权值W及阈值B.(b)激活输入层的所有节点,计算各层的节点输出.(c)计算各层节点的一般化误差和参考误差.(d)调整连接权值和阈值.(e)计算能量Ep和E,若其小于某一精度值ε,则保留权值和阈值,学习过程结束;否则,转到第(b)步继续学习,直到达到计算精度要求为止. 1.2 对bp人工神经网络模型的改进 BP人工神经网络是一个不完善的人工神经网络模型,它在实际应用中存在如下问题:(a)学习收敛速度很慢,一个比较简单的问题也需要几千次甚至上万次的训练才能收敛,不能满足人们对时间和速度的要求;(b)有陷入局部最小的可能,不能保证收敛到全局最小点;(c)如果网络的学习误差设得过小,则网络可能出现学习过头的现象,即用已经训练好的网络对未参与学习的样本进行预测时会出现很大误差. 因此有必要从以下两方面对BP人工神经网络模型进行改进:(a)采用启发式学习算法;(b)采用更有效的优化算法.由于BP算法的实质是一种无约束的优化计算方法,因此许多优化算法都可以用于BP人工神经网络的学习过程.如全局优化算法(Gauss-Newton)是利用样本的全部信息,求出连接权的修正值,再对连接权进行修正;遗传算法(genetic algorithm)是根据模拟达尔文的遗传选择和进化来确定网络的连接权;还有模拟退火算法、交替迭代算法等.本文应用Levenberg-Marquardt算法来调整连接权和阈值.Levenberg-Marquardt算法比梯度下降法的收敛速度快得多,缺点是占用的内存比较大.其算法如下: JJ=JW×JW(2)JE=JW×E(3)ΔW=?(JJ+μI)?1JE(4)JJ=JW×JW(2)JE=JW×E(3)ΔW=-(JJ+μΙ)-1JE(4) 式中:JW——由误差对各神经元的连接权和阈值微分组成的雅可比矩阵;E——网络误差向量;I——单位矩阵;ΔW——网络权值W的修正量;μ——一标量,称为自适应调整量. 1.3 学习过程中的动态调整 变量μ的选取决定了学习算法是牛顿法还是梯度下降法.只要迭代过程中误差有增加,μ也会增加,并且μ增

文档评论(0)

xlwkyc + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档