基于神经网络的递推分块方法求任意高阶多项式的根.pdfVIP

基于神经网络的递推分块方法求任意高阶多项式的根.pdf

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于神经网络的递推分块方法求任意高阶多项式的根.pdf

E 辑 第33 卷 第 12 期 SCIENCE IN CHINA Series E 2003 年 12 月 基于神经网络的递推分块方法 求任意高阶多项式的根* 黄德双 中国科学院合肥智能机械研究所, 合肥 230031 池哲儒 香港理工大学电子资讯工程系, 香港 摘要 提出一种新的基于约束学习神经网络的递推分块方法, 来分批 块 求解任意 高阶多项式的任意数 小于多项式的阶 个根 包括复根 . 同时给出了基于多项式中根与 系数间的约束关系构造的用于求根的 BP 网络约束学习算法, 提出了对应的学习参数 的自适应选择方法. 实验结果表明, 这种分块神经求根方法, 相对传统方法, 能够快速 有效地获得任意高阶多项式对应的根. 关键词 递推分块方法 BP 网络 约束学习算法 Laguerre 法 Muller 法 Jenkins- Traub 法 自适应参数选择 高阶任意多项式 实或复根 多项式求根问题是信号处理中经常遇到的问题, 如滤波器和最小相位系统的设计 频谱 分析 语音信号处理 信道编码与解码等等. 迄今为止, 已经存在很多方法可以用来解决多 [1~5] 项式的求根问题 , 但是, 这些传统的方法一般都是基于Von Neumann 机串行处理原理设计 [4~6] 的 . 近年来, 一直受到普遍关注的人工神经网络 ANN 技术, 除了在模式识别 优化计算 [7~9] 无法用模型精确描述的非线性系统中获得传统方法无法比拟的成功应用外 , 也在由计算数 学而导致的神经计算学科上正得到迅猛的发展[10~12] , 如主分量分析 PCA 独立分量分析 ICA [13] 等 . 我们已经在文献[14~16] 中, 讨论了使用 ANN 来实现多项式的求根 包括复根 问题, 发 现这种具有并行处理结构的神经求根器, 对于低阶多项式能够在较短的时间内同时得到问题 的较精确的根. 从我们已经开展的“神经计算” 问题的研究结果来看, 相对传统方法来说, “神 经计算”方法具有以下优点: 1 使用具有并行结构的 ANN 能够使得问题的解“一次训练, 并行获取”. 目前我们是在 传统的 Von Neumann 计算机上进行模拟的, 在网络一次训练收敛到给定的满意精度后, 可以 同时获得问题的解, 即网络权矩阵, 而传统方法一般都是一次迭代只能获得一个解, 即两者的 计算原理不同. 显然, 将来基于并行处理原理开发的神经计算机, 将会更加显示“神经计算”方 法相对传统方法的优势. 2 传统求根方法主要是通过“ 收缩 deflation ” 的方法, 串行地一次求出一个多项式的根, [1] 然后再对剩余多项式求根 . 显然, 如果前一个根求得不太准确, 必将引起剩余多项式的系数 的误差, 这种误差累积, 必将导致所求根的精度的下降. 而 ANN 方法可以并行求根, 所以精 度必然比传统方法高. 200 1-08-20 收稿, 2003-08- 10 收修改稿 * 国家自然科学基金 批准号: 座机电话号码 和中国科学院“百人计划”专项经费资助项目 1116 中 国 科 学 E 辑 第33 卷 [1] 3 传统求根方法必须选择合适的根的初值, 否则算法不收敛 . 然而, ANN 方法, 特别 是我们提出的基于问题“先验信息” 的约束学习算法 CLA , 能够随机地选择根的初值. 因为这 种 CLA 的优点是通过问题的“先验信息” 的帮助, 来指导寻找问题的全局最小值解, 所以算法 不依赖于问题的初始值. 4 ANN 具有自适应 自学习的特点, 如果来自问题的数据稍微发生变化, 我们只要使 ANN 的权值根据新的数据, 继续进行权值的学习迭代即可, 无需从头开始. 而传统方法却需 要重新设计算法和从头选取初值. 所以“神经计算”方法具有随环境变化自适应调整权值的特 点. 综上所述, 可以推断, 与“神经计算”有关的应用基础研究, 是一项具有广泛应用前景, 并 有可能取得突破性进展的课题, 特别是基于问题“ 先验信息”来指导问题求解的“神经计算” 的 研究是一个崭新的研究方向, 应引起我们的足够重视和关注, 它的深入研究将对解决所有信 号处理中的大量的计算问题, 带来深远的影响, 因此, 具有非常重要的意义. 本文工作的出发点在于, 对于多项式阶数比较高的情况, 由于所设计的神经求根器的结 构非常复杂, 往往需要花费很长的训练时间才能得到问题的解, 因此, 本文提出一种新的递推 分块方法, 来构造相应的递推分块神经求根器, 以分块一次获得任意数个 小于多项式的阶 多 项式的根,

您可能关注的文档

文档评论(0)

ziyouzizai + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档