LMS适应滤波算法.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
LMS 自适应滤波算法 1960 年 Widrow 和 Hoff 提出最小均方误差算法( LMS), LMS 算法是随机梯度算法中的 一员。使用“随机梯度”一词是为了将 LMS 算法与最速下降法区别开来。该算法在随机输 入维纳滤波器递归计算中使用确定性梯度。 LMS 算法的一个显著特点是它的简单性。此外,它不需要计算有关的相关函数,也不需要矩阵求逆运算。 由于其具有的简单性、鲁棒性和易于实现的性能,在很多领域得到了广泛的应用。 LMS 算法简介 LMS 算法是线性自适应滤波算法,一般来说包含两个基本过程: 1) 滤波过程:计算线性滤波器输出对输入信号的响应,通过比较输出与期望响应产生估计误差。 2) 自适应过程:根据估计误差自动调整滤波器参数。 如图 1-1 所示,用 表示 n 时刻输入信号矢量, 表示 n 时刻 N 阶自适应滤波器的权重系数, 表示期望信号, 是主端输入干扰信号, u 是步长因子。则基本 的 LMS 算法可以表示为 ( 1) ( 2) 图 1-1 自适应滤波原理框图 由上式可以看出 LMS 算法实现起来确实很简单,一步估计误差( 1),和一步跟新权向 量( 2)。 1 / 7 迭代步长 u 的作用 2.1 理论分析 尽管 LMS 算法实现起来较为简单,但是精确分析 LMS 的收敛过程和性能却是非常困难 的。最早做 LMS 收敛性能分析的是 Widrow 等人,他们从精确的梯度下降法出发, 研究权矢量误差的均值收敛特性。最终得到代价函数的收敛公式: ( 3) 式( 3)揭示出 LMS 算法代价函数的收敛过程表现为一簇指数衰减曲线之和的形式,每 条指数曲线对应于旋转后的权误差矢量的每个分量, 而他们的衰减速度, 对应于输入自相关矩阵的每个特征值,第 i 条指数曲线的时间常数表示为 小特征值对应大时间常数, 即衰减速度慢的曲线。 而大特征值对应收敛速度快的曲线, 但是 如果特征值过大以至于 则导致算法发散。 从上式可以明显看出迭代步长 u 在 LMS 算法中会影响算法收敛的速度,增大 u 可以加快算 法的收敛速度,但是要保证算法收敛。 最大步长边界 : 稳态误差时衡量 LMS算法的另一个重要指标, 稳定的 LMS 算法在 n 时刻所产生的均方误差, 其最终值 是一个常数。用 来表示维纳解对应的均方误差,则稳态误差可以定义为: Widrow 给出的失调误差: 可见 LMS 算法的失调误差恒不为零。也可以看出 u 越大失调误差会越大。收敛速度和 稳态误差不可兼得,由步长 u 控制两者的折衷。 2.2 实验验证 白噪声经过 AR 模型的输作为 LMS 算法的输入, AR 模型参数: a1=1.558;a2=-0.81 算法迭代次数 2048 (1) 给出了固定步长 u=0.001 单次运算和 200 次运算的权值随 n 变换曲线。 2) u=0.001 和 u=0.003 学习曲线 2 / 7 2 单次运算 200次运算平均 1.5 1 值 权 0.5 头 抽 0 -0.5 -1 500 1000 1500 2000 2500 0 图 2-1 单次运算与 200 次运算 200 次独立仿真集平均后权重系数随 n 变化的曲线比较平滑。 最终权重系数收敛结果确实在 1.558 和 -0.81 附近。 迭代步长对收敛速度和稳态误差的影响: LMS学习曲线 10 u=0.001 9 u=0.003 8 7 6 差 误 5 方 平 4 3 2 1 0 0 500 1000 1500 2000 2500 图 2-2 不同迭代步长下 LMS 学习曲线 从图 2-2 很容易看出 u=0.003 时比 u=0.001 收敛速度要快,但是稳态误差也比较大。 3 / 7 一种变步长 LMS 算法 3.1 理论分析 由迭代步长 u 对 LMS 算法的影响可知,减小步长因子 u 可减少自适应滤波算法的 稳态噪声,提高算法的收敛精度。同时也会降低算法的收敛速度和跟踪速度。 为了同时获得较好地收敛速度和稳态误差,变步长算法被提出,在算法运行过程中 动态地调整步长因子 u,调整的原则是在初始收敛阶段或者系统参数发生变化时, 步 长应该比较大, 以便有较快的收敛速度和对时变系统的跟踪速度; 而在算法收敛后, 不管主输入端干扰信号 有多大,都应该保持很小的调整步长以达到很小的稳态 失调噪声。 根据这一调整原则,很多变步长算法被提出。其中一种是 Sigmoid 函数的简化版, 步长 u 和 e(n)关系如下: 其中参数 控制函数的形状,参数 控制函数的取值范围。 的函 数曲线如图 3-1 和图 3-2 图 3-1 参数 对曲线的影响 4 / 7 图 3-2 参数 对曲线的影响 参数 选择原则, 使初始误差 对应的步长 u 值较大(在

文档评论(0)

182****5045 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档