- 1、本文档共6页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Hopfield网络学习及其在最优化问题中的应用【DOC精选】
Hopfield网络学习及其在最优化问题中的应用
金海和(
(清华大学经济管理学院,北京 100084)
摘要 本文针对Hopfield神经网络(HNN)所存在的极小值问题及缺乏学习能力的问题,提出了一种学习算法。它是将决定约束条件权值大小的系数作为学习参数,在参数空间里使参数向着HNN能量上升最快的方向学习,使网络状态能够有效地从一旦陷入的极小值状态中逃脱出来。该算法分别被应用于10、20城市的旅行商问题(TSP),结果能够以很高的比率收敛于最优解。
关键词 Hopfield 神经网络 最速上升法 参数学习 最优化问题
1 引言
Hopfield等通过用连续值HNN求解TSP,开辟了运用神经网络求解最优化问题的新途径[1]。但存在着(1)不能学习、(2)产生大量极小值等问题。作为解决极小值问题的方法之一,Hinton等提出了Boltzmann机模型及其学习算法[2],但因速度太慢,难以为现实所接受[3]。对于问题(2),笔者进行过深入的理论分析,并在数学上进行了证明[4]。针对问题(1)、(2),笔者提出了登山学习算法[5],但该算法中,为了避免因学习使最小值发生位移,以学习后的解为初始解,使网络回到未学习的HNN状态空间里进行状态更新至平衡状态,显然增加了计算量。
TSP常被用作研究最优化问题的范例[6],当运用HNN求解时,它的解依从于决定约束条件权值大小的系数,而这类系数在选择上具有一定的自由度。本文提出一种HNN学习算法,思想是,将决定约束条件权值大小的系数作为学习参数,在参数空间里使学习参数向着HNN能量上升最快的方向学习,使HNN能从一旦陷入的极小值状态中逃脱出来,直至找到最优解或满意解。本文将对N=10、20的TSP进行仿真实验,以证明其有效性。
2 Hopfield神经网络模型
HNN是由大量简单的神经处理单元相互结合而成,并有对称性,无直接自反馈,非同期动作等约束。由n个单元构成的HNN,其能量函数可表达为
(1)
e是能量,其自身是时间的函数;wij是单元i和j的权值;yi是第i个单元的输出;hi是第i 个单元的阀值;τ是正的常数。各个单元内部电压随时间的变化可以用微分方程式(2)记述,xi是第i个单元的输入总和。单元的输入输出可采用sigmoid形的逻辑非线性单调增加函数,如式(3)。
(2) (3)
T是一个对神经单元输入输出函数的形状有影响的参数。
HNN有收敛特性(证明见[7]),即在适当的初始条件下反复使其更新状态,则能量随时间单调地减小,状态向平衡状态的方向更新。能量减至全局最小或局部最小时,状态稳定在某个平衡状态。
3 基于Hopfield神经网络的TSP解法
设有N个城市的集合{C1,C2,…,CN},其中任意两个城市Ci和Ck之间的距离是dik(dik=dki),试找出一条最短的经过每个城市各一次(仅一次)并回到出发地的路径,这就是TSP。N个城市的TSP,用HNN求解时,需要用N2个神经单元。可以由一个行代表城市号码,列代表访问次序号码的矩阵来表示。其能量函数可以写成式(4)。
(4) (5)
yij是神经单元的状态变量,表示第i个城市第j回是否访问,且yij∈[0,1]。当yij≥0.5时,yij发火,意义是第i个城市在第j回被访问;当yij〈0.5时,yij不发火,意义是第i个城市在第j回不被访问。dik是城市i与城市k之间的距离。A,B是控制项系数,D是距离项系数,其取值,一般算法是凭经验给出的。式中的第一项是行控制项,各行中只有一个“1”(一个城市只访问一次),第二项是列控制项,各列中只有一个“1”(一次只访问一个城市),第三项是距离项,是路径的全长。
将式(4)和式(1)的各项对应,可导出其权值如式(5),阀值如式(6),同时定义符号式(7):
(6) (7)
TSP能量函数曲面复杂,存在许多极小值,只靠减小能量是不可能求得全局最优解或满意解。
4 Hopfeild神经网络学习算法
图1是学习算法的流程图。框I是用学习后的新参数(第一次用初始给出的参数值),使HNN在状态空间里进行状态更新至平衡状态,t是状态更新次数,被定义为时间。框II是网络到达平衡状态后,在参数空间里进行学习,s(离散值)是学习次数。
为了简明起
您可能关注的文档
- hibernate annotation 双向 one-to-one 注解【DOC精选】.doc
- HFUT_eadff【DOC精选】.doc
- hibernate映射文件的详解【DOC精选】.doc
- Hibernate实战之第四部分关系映射【DOC精选】.doc
- Hibernate的映射类型 hibernate mysql映射类型【DOC精选】.doc
- hibernate语句【DOC精选】.doc
- Hibernate笔记【DOC精选】.docx
- High Performance Digital Media Network (HPDMnet) An advanced international research initiative and g【DOC精选】.doc
- Highly Effective Birth Control You Can Count On【DOC精选】.doc
- hibernate映射类型【DOC精选】.doc
最近下载
- (完整word版)人教版四年级上册数学复习教案.doc VIP
- 煤矿安全操作规程(2023年).docx
- 工作相关肌肉骨骼疾患的工效学预防指南 第 4 部分 轨道交通设备制造作业.pdf VIP
- 园林景观工程施工计划.pdf
- OC IIS的定义(液晶玻璃的检验与不良判定).ppt VIP
- 2025届高考语文复习:文言文阅读+课件.pptx VIP
- 大班数学《坐船去探险》教案课件材料.doc VIP
- 工作相关肌肉骨骼疾患的工效学预防指南 第 6 部分 木质家具制造作业.pdf VIP
- 初中英语八年级上册首字母填空专项练习(共100题,附参考答案).doc
- 工作相关肌肉骨骼疾患的工效学预防指南 第 9 部分 公交车驾驶作业.pdf VIP
文档评论(0)