ICA的共轭下降法.pdfVIP

  1. 1、本文档共5页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
ICA的共轭下降法.pdf

ICA 的共轭下降法 邹琪 罗四维 (北方交通大学计算机与信息技术学院北京 100044 ) 摘 要:独立分量分析 (ICA )作为有效的盲源分离技术 (BSS )是信号处理领域的热点。本文在分析现有 的ICA 算法的基础上提出了以最小互信息为准则函数的ICA的共轭下降算法,并将该算法与传统的算法在 计算效率和收敛性方面进行了比较,该算法的迭代次数由传统算法的约 2000次减少至不超过 300次。适 当地选取对比函数可实现全局收敛,并简要分析了对比函数的选取准则。模拟实验证明该算法收敛速度快, 而且对初始点不敏感,在健壮性方面具有较好的性能。 关键词:信号处理;独立分量分析;共轭梯度算法;对比函数;全局收敛性 中图分类号:TN911 文献标识码:A Independent Component Analysis of Conjugate Descent Algorithm ZOU Qi , LUO Si-wei (School of Computer and Information Technology , Northern Jiaotong University, Beijing 100044,China) Abstract :The Independent Component Analysis as a method widely used in blind source separation is a hotspot in signal processing.Based on analysis of existing algorithms, we give conjugate gradient algorithm using minimal mutual information criteria. We also compares the algorithm with traditional algorithms in speed, which reduces times of iterations from about 2000 to not more than 300 , and analyses briefly criterion of selecting contrast function to realize global convergence. At last, simulation experiments prove its good convergence and robust. Key words: signal processing; Independent Component Analysis (ICA); Conjugate Gradient algorithm; contrast function; globle convergence 近年来,把独立分量分析用于盲源分离已成为语音,通信,生物医学和地震等各个领域的热点。盲源 分离 (Blind Source Separation, BSS )是指在源信号和传输通道参数未知的情况下,仅由观测到的信号恢复 出源信号的各个独立分量的过程。 自Comon[1]提出 ICA 的理论框架以来,已有多种 ICA 算法用于解决各类实际问题。其中最具代表性 的有:由Bell 提出的基于信息最大化 (Informax )的自组织神经网络 [2] ,由 Oja 和 Hyvarinen 提出的固定 点算法[3] [4] ,以及由Amari 提出的极大似然自然梯度算法 。其中,固定点算法以牛顿迭代法优化互信息极 小的目标函数,收敛速度较快 (具有二阶收敛性),但对初始值的选择较敏感。随机选择的初始值有可能 导致不收敛,因为牛顿迭代法收敛的条件是初始梯度方向为下降方向。Bell 和 Amari 分别将随机梯度和自 然梯度引入训练规则,虽然对初始值选择的要求相对较低,具有较好的稳健性,但收敛速度较慢 (具有一 阶线性收敛性)。针对这些问题,本文作者提出了 ICA 的共轭下降算法,该算法的收敛速度可以达到二阶, 而且对初始值的敏感性较低

文档评论(0)

jackzjh + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档