- 1、本文档共9页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于自组织映射神经网络边坡样本分析方法
基于自组织映射神经网络边坡样本分析方法摘 要:推导了自组织映射神经网络过程的简化权值求解公式,并采用自组织竞争神经网络对收集到的边坡样本进行归类,降低了学习样本的噪声。BP神经网络采用归类后的样本进行学习,学习效率有了提高,网络的推广及泛化能力也得到加强。试验证明,优化后的BP神经网络在安全系数的拟合以及样本的误差分布方面均有明显的改善。同时,编制了可以通用的边坡稳定性评价程序,通过将该程序应用于边坡实例的稳定性评价分析,得到的边坡状态与实际相符,准确度较高,用于计算边坡的安全系数误差较小。
关键词:边坡;自组织映射神经网络;BP神经网络;权值
中图分类号:TU753.8
文献标识码:B
文章编号:1008-0422(2008)05-0157-03
1引言
自从上世纪80年代以来,神经网络技术已经得到了长足的发展。运用强大的神经网络功能,可以对许多难以解决的问题求解。BP网络现在已经广泛应用于工程的各方面[1],但是由于其自身的缺点,也存在很多问题。对于边坡工程,由于测量手段、仪器、人的主观性等原因,得出的数据不可避免的具有干扰性[2],即用于训练神经网络的学习数据存在很大的噪声,影响网络的推广及泛化能力[3]。
为了解决工程数据样本在进行网络计算时噪声较大的问题,本文阐述了一种新的方法,即:首先将边坡样本的数据归一化到[-1,1]区间,实现对样本的“奖优罚劣”;然后利用自组织映射(SOM)神经网络对各学习样本数据进行分类,优化BP网络的初始状态,从而有利于适度控制BP网络求解的误差范围。
2SOM网络过程的推导
自组织竞争的主要目的是将任意维数的输入信号模式转变为一维或二维的离散映射,并且以拓扑有序的方式自适应实现这个转变[4]。本文采用Kohonen模型推导适合用于工程样本分类的自组织竞争神经网络结构。
2.1 竞争过程
令m表示输入数据的维数。从输入空间中随机选择输入模式记为
(1)
网络中每个神经元的突触权值向量和输入空间的维数相同。神经元j的突触权值向量记为
(2)
其中是网络中神经元的总数。这里假定所有的神经元有相同的阈值;阈值是偏置取负。在通过选择具有最大内积WjTX的神经元,确定兴奋神经元的拓扑邻域中心的位置。
因为基于内积WjTX最大化的最优化匹配准则在数学上等价于向量X和Wj的Euclid距离的最小化。用标号i(x)表示最优匹配输入向量x的神经元,可以通过下列条件确定i(x):
(3)
2.2 合作过程
设hj,i表示以获胜神经元i为中心的拓扑邻域,设di,j表示在获胜神经元i和兴奋神经元j的侧向距离。它们必须满足的条件为:
1) 当di,j=0时,hj,i达到最大值;
2) hj,i随di,j绝对值的增加而单调递减;
3) di,j→∞,hj,i= 0。
本文选取高斯函数满足以上条件,即:
由于对工程样本的划分采用一维模式即可,这里假定di,j是整数,而且有:di,j = | j - i |。
som算法中hj,i的宽度σ是随时间的推移而收缩的,这里设定一个指数函数来描述这一衰减过程:
其中σ0是σ的初值,τ1是时间常数。将式(4)代入式(5)中可得:
2.3 自适应过程
由Kohonen模型可知网络中神经元j的权值向量表示为:
式中:η是算法的学习率;g(yj)是响应yj的正的标量函数;wj是神经元j的突触权值向量。
这里将g(yj)设定成一个线性函数以简化计算:
将式(7)和式(8)代入式(9)可得:
由此可得更新权值向量wj(n+1)为:
为了得到更好的网络性能,可以将学习率函数η(n)设定成时变形式,这也是它用于随机逼近的要求。η(n)和hj,i一样,从初始值开始,然后随时间n增加而逐渐递减。因此将它设定为一个指数函数:
其中τ2是另外一个时间参数。
3自适应过程的排序和收敛
根据式(11),可以把网络权值的自适应分解为排序和收敛两个阶段。要求对上述公式中的参数进行合适的设定。
3.1排序阶段
3.1.1学习率函数η(n)初始值η0=0.1;然后递减,但应该大于0.01;并设定时间常数τ2=1000。
3.1.2邻域函数hj,i (n)的初始化应包括以获胜神经元i为中心的所有神经元,然后随时间慢慢收缩。这里通过设定时间常数τ1=1000/logσ0来实现。
3.2收敛阶段
3.2.1当学习率η0.01。
3.2.2邻域函数hj,i (x)应该仅包括获胜神经元的最近邻域,并最终减小到一个或零个邻域神经元。
4无量纲化方法的选用
边坡稳定性
文档评论(0)