一类双向联想记忆神经网络的动力学行为的分析研究.pdfVIP

一类双向联想记忆神经网络的动力学行为的分析研究.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
内 容 摘 要 由于神经网络本身具有的非线性映射能力、自组织学习能力、联想记忆能力、并 行信息处理方式及其良好的容错性能,使得神经网络在模式识别、图像及语音信号处 理、人工智能控制等领域得到成功的应用.而在具体应用神经网络时,人们总是希望 神经网络有非常快的全局收敛特性、大范围的映射泛化能力和较少的实现代价. 本文将以一类具有变时滞和连续分布时滞的 Cohen-Grossberg 型双向联想记忆 (BAM )神经网络模型为研究基础,在激活函数满足李普希兹条件下,研究其平衡 点的存在性和全局指数稳定性,指数收敛率估计,周期解的存在性和全局指数吸引 性.同时,研究简化模型的Hopf 分岔现象.全文共分五章. 第一章概述了目前双向联想记忆神经网络模型和 Cohen-Grossberg 神经网络的 研究现状以及现有的研究方法. 第二章研究了具有变时滞和分布时滞的 Cohen-Grossberg 型双向联想记忆神经 网络模型平衡点的存在性和全局指数稳定性问题.依据压缩映象定理分析该模型平衡 点的存在性,并根据时滞的特性将全局指数稳定性的分析分为两种情况,分别构造适 当的 Lyapunov-Krasovskii 泛函得到了统一的全局指数稳定性判据.本文结论推广了 细胞神经网络和Hopfield 神经网络的全局指数稳定性的一些结论. 第三章研究了特殊形式的BAM 神经网络的指数收敛率估计.通过Lyapunov 稳 定性定理和范数不等式,得到了一些时滞无关和时滞相关的条件.由时滞相关条件可 看出,随着时滞的增大,指数收敛速率在降低. 第四章研究了该模型的周期解的存在性问题.利用重合度理论中的Mawhin 连续 性定理,结合柯西不等式,M −矩阵等分析技巧,给出了神经网络周期解的存在性的 充分条件,并给出了周期解全局指数稳定的充分条件. 第五章研究了具有分布时滞的四元BAM 神经网络模型的分岔问题.以平均时滞 作为分岔参数,借助线性化理论、规范形式理论和中心流形定理详细讨论了一个带分 布时滞的四元BAM 神经网络的局部稳定性、Hopf 分岔和周期解的渐近稳定性,并给 出了确定分岔方向的一个算法,最后给出了计算机数值仿真. 关键词:神经网络 变时滞 分布时滞 全局指数稳定性 周期解 Hopf 分岔 II Abstract Because the neural network itself has many advantages such as nonlinear mapping abilities, self-organization and self-learning abilities, associative memory capacity, parallel information processing manner and its good fault tolerant abilities, neural networks are widely and successfully applied in pattern recognition, image and voice signal processing, artificial intelligence control and other areas. In the specific application of neural networks, people always hope that neural networks have globally extremely fast convergence properties, large global mapping and generalization approximation abilities, less implementation cost. In this paper a class of Cohen-Grossberg type bi-directional

文档评论(0)

xjphm28 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档