- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第四篇 章 反馈网络 智能系统课件.ppt
2)对于 为非线性的情况时,状态方程可写为: 在平衡点附近对系统进行线性化处理。设平衡点为Ue,如果 G(U,t)在Ue附近连续可微,且存在多阶导数,那么状态矢量 中的任意元素满足: 若忽略高次微分项 ,因 ,则上式可写为: 将非线性方程线性化后,则可用线性方法来分析其稳定性。 图4.16 线性反馈网络系统解的情况 【例4.4】图4.17为由两个运算放大器组成的人工神经网络的 分析网络在不同情况下的稳定性。 互联网电路,其中, 图4.17 两个神经元的互联电路 解: 由网络结构图,可得其状态方程为: 当 很小时,可近似为: 为放大器增益,因网络 。将 代入上式,并整理可得: 若取RC = 1, ,则上式的特征方程为: 完全相同,有 根据?的不同值,系统状态轨迹可有下列几种情况: 及 时,有 为鞍点。点( 0, 0 )为系统的一个平衡点。只有当初始值处于 的直线上,才能使系统最终收敛到平衡点上。 时 ,有 状态为何值,均能收敛到唯一的平衡点( 0, 0 )上。 ①当 ,系统的状态轨迹 ②当 ,此时不论系统的初始 (a) (b) 图4.18 网络解的情况 第四章 反馈网络 4.1 霍普菲尔德网络模型 4.2 状态轨迹 4.3 离散型霍普菲尔德网络 4.4 离散型反馈网络的稳定点与稳定域 4.5 连续型霍普菲尔德网络 4.1 霍普菲尔德网络模型 图4.1 反馈网络结构图 图4.2 DHNN中的激活函数 图4.3 CHNN中的激活函数 4.2 状态轨迹 图4.4 三维空间中的状态轨迹 4.2.1 状态轨迹为稳定点 在一个反馈网络中,存在很多稳定点,根据不同情况,这些 稳定点可以分为: 1)渐近稳定点:如果在稳定点Ne周围的 区域内,从 任一个初始状态N(t0)出发的每个运动,当 Ne,则称Ne为渐近稳定点。 时都收敛于 此时,不仅存在一个稳定点Ne,而且存在一个稳定域。 有时称此稳定点为吸引子,其对应的稳定域为吸引域; 霍普菲尔德网络是利用稳定吸引子来对信息进行储存的,利用从初始状态到稳定吸引子的运行过程来实现对信息的联想存取的。 通过对神经元之间的权和阀值的设计,要求单层的反馈网络达到下列目标: (1)网络系统能够达到稳定收敛 (2)网络的稳定点 (3)吸引域的设计 4.3 离散型霍普菲尔德网络 4.3.1 DHNN模型结构 (a)霍普菲尔德网络结构图 (b)等价的霍普菲尔德网络图 图4.5 霍普菲尔德网络图 对于以符号函数为激活函数的网络,网络的方程可写为: 4.3.2 联想记忆 联想记忆功能是DHNN的一个重要应用范围。要想实现联想记忆,反馈网络必须具有两个基本条件: ①网络能收敛到稳定的平衡状态,并以其作为样本的记忆信息; ②具有回忆能力,能够从某一残缺的信息回忆起所属的完整的记忆信息。 DHNN实现联想记忆的过程分为两个阶段:学习记忆阶段和联想回忆阶段。 反馈网络有两种基本的工作方式:串行异步和并行同步方式。 对于s个神经元的反馈网络DHNN有2s个状态的可能性。 4.3.3 DHNN的海布学习规则 在DHNN的网络训练过程中,运用的是海布(Hebb)调节规则:当神经元输入与输出节点的状态相同(即同时兴奋或抑制)时,从第j个到第i个神经元之间的连接强度则增强,否则则减弱。 用向量形式表示为: 霍普菲尔德网络权值设计公式应当为: 4.3.4 影响记忆容量的因素 设计DHNN网络的目的,是希望通过所设计的权值矩阵W储存多个期望模式。从海布学习公式的推导过程中可以看出:当网络只记忆一个稳定模式时,该模式肯定被网络准确无误地记忆住。但当需要记忆的模式增多时,情况则发生了变化,主要表现在下面两点上: (1)权值移动 (2)交叉干扰 (1)权值移动 , , ... , 的权值学习记忆实际上是逐个实现的。即对权值W, 由此过程可知:当k = 1时,有 有程序: 网络准确的记住了样本T1。 在网络的学习过程中,网络对记忆样本输入 当k = 2时,为了记忆样本T2,需要在记忆了样本T1的权值 基础上产生了移动。在此情况下,所求出的新的W为: ,对于样本T1来说,网络的输出为: 此输出有可能不再对所有的s个输出均满足加权输入和与输出符号一致的条件。网络有可能部分地遗忘了以前已记忆住的模式。
文档评论(0)