递推最小二乘辨识幻灯片.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
二、带遗忘因子的渐消记忆递推最小二乘法 在使用RLS法的实时辨识中,随着k的增大,矩阵P(k)将逐渐趋近于零阵而出现数据饱和,即新数据将逐渐失去对参数估计值的影响力. 此外,许多实际工程和社会系统的模型参数随系统环境和内外扰动而缓慢变化,为能跟踪好这些缓慢时变的参数,需逐步赐除老数据对估计值的影响. 因此上一节的RLS法并不适用于这类具有时变参数的系统的参数估计. 为降低老数据的影响力,增加新数据提供的信息量,下面引入带遗忘因子的渐消记忆RLS法. 在递推计算过程中。每当取得一组新数据,就把以前所有的数据都乘上一个加权因子ρ,0ρ1,此时有: 令 则 Φk=[ φ(k-1)]T Yk=[ y(k)]T 类似于本讲第一部分中的RLS法的推导,有如下带遗忘因子的渐消记忆RLS算法 其中的计算顺序和算法步骤与RLS法类似. 如果遗忘因子l=1,则算法退化成普通RLS法. 关于遗忘因子,有如下讨论 二、带遗忘因子的渐消记忆RLS法(4/5) ≤ 遗忘因子LS法和加权RLS算法主要的差别: 加权方式不同 加权RLS法各时刻权重是不相关的,也不随时间变化; 遗忘因子法各时刻权重是有关联的, 各时刻权重的大小随时间变化. 加权的效果不一样 加权RLS法获得的是系统的平均特性; 遗忘因子法能实时跟踪系统明显的变化,对系统的时变特性具有跟踪能力. 二、带遗忘因子的渐消记忆RLS法(5/5) 递推最小二乘法(RLS) 上一节中已经给出了LS法的一次成批型算法,即在获得所有系统输入输出检测数据之后,利用LS估计式一次性计算出估计值. 成批型LS法在具体使用时不仅计算量大,占用内存多,而且不能很好适用于在线辨识. 随着控制科学和系统科学的发展,迫切需要发展一种递推参数估计算法,以能实现实时在线地进行辨识系统模型参数以供进行实时控制和预报,如 在线估计 自适应控制和预报 时变参数辨识 故障监测与诊断 仿真等. 递推辨识算法的思想可以概括成 新的参数估计值=旧的参数估计值+修正项 即新的递推参数估计值是在旧的递推估计值 的基础上修正而成,这就是递推的概念. 递推算法不仅可减少计算量和存储量,而且能实现在线实时辨识. 递推算法的特性 本讲主要讲授递推最小二乘(Recursive Least-square, RLS)法的思想及推导过程,主要内容为: 递推算法 加权RLS法和渐消记忆RLS法 1 递推算法 递推算法就是依时间顺序,每获得一次新的观测数据就修正一次参数估计值,随着时间的推移,便能获得满意的辨识结果. RLS法即为上一节的成批型LS算法的递推化,即将成批型LS算法化成依时间顺序递推计算即可。 该工作是1950年由Plackett完成的。 下面讨论无加权因素时的一般LS法的递推算法的推导. 即将成批型算法化 等效变换成如下所示的随时间演变的递推算法. 新的参数估计值=旧的参数估计值+修正项 (1) 递推算法具有良好的在线学习、自适应能力,在 系统辨识 自适应控制 在线学习系统 数据挖掘 等方面有广泛的应用。 设在k-1时刻和k时刻,系统的参数估计结果为 其中 和 分别为根据前k次和前k-1次观测/采样数据得到的LS参数估计值. YL=[y(1), y(2), ..., y(L)]T ?L=[?(0), ?(1), ..., ?(L-1)]T, L×(na+nb) 受控XAR模型:A(z-1)y(k)=B(z-1)u(k)+w(k) YL=?L?+WL Yk-1=[y(1), y(2), ..., y(k-1)]T Φk=[?(0), ?(1), ..., ?(k-1)]T=[ φ(k-1)]T Yk=[y(1), y(2), ..., y(k)]T=[ y(k)]T 首先,假定在第k-1次递推中,我们已计算好参数估计值 在第k次递推时,我们已获得新的观测数据向量?(k-1)和y(k),则记 Φk-1=[?(0), ?(1), ..., ?(k-2)]T 仔细考察上述LS法,可以知道,该算法进行递推化的关键是算法中的矩阵求逆的递推计算问题. 因此,下面先讨论该逆矩阵的递推计算. 1 递推算法(4/12) 令 将Φk展开,故有 为便于逆矩阵递推算式的推导,下面引入如下矩阵反演公式(设A和C为可逆方阵) (A+BCD)-1=A-1-A-1B(C-1+DA-1B)-1DA-1 (4) 该公式可以证明如下:由于 (A+BCD)[A-1-A-1B(C-1+DA-1B

文档评论(0)

精品课件 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档