盲讯号分离与独立成份分析(BlindSourceSeparationandIndependent.ppt

盲讯号分离与独立成份分析(BlindSourceSeparationandIndependent.ppt

  1. 1、本文档共33页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
盲讯号分离与独立成份分析(BlindSourceSeparationandIndependent.ppt

摺積混合情形下的 聯合近似對角化盲訊號分離方法;大綱;盲訊號分離與獨立成份分析;膨脹與排列問題;獨立成份分析 = 獨立性函數 + 最佳化演算法。 獨立性: 機率統計學的定義:p(y1,y2) = p1(y1)p2(y2) 即「聯合機率密度函數=邊際機率密度函數之乘積」 非相關性: 若隨機變數彼此獨立,則必非相關(但反之不一定正確) 非高斯性:非高斯分佈且彼此獨立的隨機變數線性組合而成的新隨機變數,會較原本更為接近高斯分佈。 ;整體獨立性函數:量測分離訊號彼此間的獨立性 熵(entropy):分離訊號彼此獨立等價於最大化分離訊號的熵值 相互資訊(mutual information)與KL距離: 訊息理論中,m個隨機變數的相互資訊I是量測隨機變數相依性的一個工具。I恆非負,且只有當隨機變數彼此獨立時I = 0。 若m個隨機變數彼此獨立,則其聯合機率密度f(y)和邊際機率密度乘積f1(y1)f2(y2)…fm(ym)的KL距離會為零。且此KL距離等於這m個隨機變數的相互資訊。 非線性互相關:若隨機變數彼此獨立,則它們的非線性互相關值就會等於零。 E{g1(yi)g2(yj)} = 0 其中g1和g2為非線性函數 ;單一獨立性函數:計算單一訊號相對整體訊號的獨立性 負熵(Negentropy):計算隨機變數和高斯變數熵值的差異決定該變數的非高斯性 高階動差 (Higher-order cumulants) :峰態(kurtosis) 最佳化演算法: 使獨立性最大的方法,可使用任何最佳化演算法。 若利用非相關性作判斷時,通常利用「聯合對角化」法使一個或多個共變異矩陣對角化。 當被對角化的矩陣只有一個的時候,可以使用簡單的特徵值分解(Eigen-Value Decomposition, EVD)分解之。;演算前置處理;演算前置處理;一次將所有訊號分離。 假設訊號源S彼此不相關。 應該為對角矩陣。 對經過前處理的混合訊號X,使 成為對角矩陣。 對 作特徵值分解,令特徵向量所成矩陣為W,即為解混合矩陣,分離出的訊號Y=WX。 ;FastICA演算法;聯合近似對角化演算法;JADIAG演算法;JADIAG演算法;JADIAG演算法;摺積混合盲訊號分離;DUET演算法;DUET演算法;解決排列問題;假設訊號源的分佈為廣義高斯分佈(Generalized Gaussian Density, GGD)。 估計各個離散頻率分離訊號之廣義 高斯分佈參數。 利用參數的分離情形作初步的對齊。 將連續可分離的離散頻率訊號結合為 頻帶,再利用相關性作其餘的對齊演 算,以增加對齊結 果之可靠度。;解決排列問題與膨脹問題;利用巴克刻度加速;利用演算法特性加速;利用演算法特性加速;整體架構;實驗結果;實驗結果;實驗結果;Demo;Demo;Demo;研究趨勢;未來展望

文档评论(0)

170****0532 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:8015033021000003

1亿VIP精品文档

相关文档