第三章_广义反演法.ppt

  1. 1、本文档共58页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第三章_广义反演法.ppt

设线性反演问题: 如果把G看成一个映射算子,那么正演问题 就是将模型空间 中的m模型通过算子G 映射到数据空间 中的观测数据d通过映 射 到模型空间中的模型m的一种运算。 由矩阵理论可知,若G是非奇异矩阵,那么 。这里 是G的逆矩阵,且有: 在G是奇异矩阵的情况下,G的逆 并不存 在,故我们称 为矩阵G的广义逆。所谓广 义逆是矩阵G在常规意义下的逆之推广。普 通逆矩阵只是广义逆矩阵的一种特殊形式。 显然,在奇异矩阵情况下,: -----实对称矩阵的正交分解; 任何一个实对称矩阵G均可分解为三个矩阵 之连乘积,第一和第三个矩阵分别为G的特 征向量矩阵U和它的转置,而第二个矩阵则 是G的特征值构成的对角线矩阵 。 ------非奇异且非对称矩阵的分解; ----- Lanczos的奇异值分解 ; (3.25) 任何一个MxN阶的矩阵G,均可分解为 (3.25)式,即可分解为三个矩阵之乘积。 取: (3.29) 为矩阵G的逆算子,它被Lanczos称为“自然 逆”(natural inverse)。Jackson又称它为 Lanczos逆。尔后,大多数学者(如Aki), 包括Penros在内都把它称为广义逆。而把基 于(3.29)式建立起来的解线性反演问题的 方法统称为广义反演法. 因而Gm=d的解为: 可以证明(3.29)式定义的自然逆满足 Penros给出的四个条件。 设线性反演问题为:Gm=d 根据自然逆的定义,有: 下面,我们分如下四种情况分别讨论。 (1)当M=N=r时, 和 均不存在,即 和 均不存在,即 和 都是标准的正交矩阵且: 因此, (2)当 时,Gm=d是超定方程。 不复存在,但 存在,此时 是正交矩阵,即: 而U,是半正交矩阵,即: 因此,在这种情况下,广义反演法的解为: (3)当 时,Gm=d是欠定方程。此时, 不复存在,而 存在。 是正交矩阵,且: 而 是半正交矩阵,即: 因此,广义反演法的解为: 这就是欠定问题的最小长度解,而且解是惟 一的。 (4)当 时, 和 都存在。因此,可以把广义反演解看成是同时在U空间极小 和在V空间极小 的结果。 为了帮助大家理解奇异值分解和广义逆的意 义,现在分析两个简单的例子。 例1: 例2: 假定已经求得模型,即: 这里,用 表示用广义反演法构制的模型 ,以示和真实模型m之区别。试问, 能拟 合观测数据吗?也就是说,把代入线性方程 D=Gm能获得与d相同的重建数据吗? 若用 表示重建数据,则有: 式中: 是 阶方阵,叫数据分辨矩阵(data resolution matrix)或信息密度矩阵( information density matrix)。它是拟合观 测数据好坏程度的标志, 如图所示,矩阵F的第i行中诸要素 越接近 于1,则 越接近于 ,即分辨力越高,因 为: 由于数据分辨矩阵F主对角线要素 表明 接近 的程度,因此又定义F的对角线矩阵 ,即: 为重要性(importance)矩阵。 当 时, 。当 时,即在纯 超定情况下, ,才有 。这时R的 分辨力最高。 当 存在时, 。所以 。 的 每一个要素 ,均可视为m各要素加权的结 果,这是因为: 如果 ,虽有峰值,但变化比较缓慢,或者其峰 值不在R的主对角线上,则R的分辨力不高。分辨力越低, 说明模型参数之间越存在相关。 和数据分辨矩阵相似,参数分辨矩阵也只是数据核G和反 演时所加先验信息的函数,而与观测数据d无关,因此,R 矩阵也是实验设计的重要依据。 同样,可以定义: 为分辨核。 越小,R矩阵的分辨能力越高。一般取其倒数 作为分辨能力的(欲称分辨力)的定量度量。 1. 特征

文档评论(0)

docinpfd + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:5212202040000002

1亿VIP精品文档

相关文档