- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
学科前沿系列讲座(盲信源分离).ppt
1 学科前沿系列讲座 盲信源分离方法研究 楼 顺 天 盲信源分离方法研究 问题形成 信号源确定 信源数动态变化 模糊技术应用 问题形成 鸡尾酒会问题 雷达目标分辨问题 信号混合问题 问题形成 n个信号源,用m个传感器收集数据 (m=n)。混合模型可表示成 盲信源分离的任务是在没有混合矩阵先验知识的前提下,从混合信号x(t)中恢复出源信号s(t)。 信源数确定 能够利用的信息 信源之间相互独立 BSS中的两种假定 (1)信源个数已知; (2)信源个数 n 与输出通道数 l 相等。 但通常情况下,这两种假设并不总是成立的。 NN分离系统 采用前向线性神经网络作为线性分离系统 其中 为 的一种估计, 为n×m的分离(去混合)矩阵,自适应BSS的关键在于找出 , 使 是信源矢量 的估计。 BSS要点 互信息最小方法是:选择w(t)使输出分量y(t)之间的相依性最小。 为测量非高斯输出分量之间的相依性,必须引入输出分量的高阶累积量,也即要考虑输出的某种非线性变换 自然梯度学习规则 业已证明[29]:使联合熵 最大或使z(t)的互信息最小,利用自然梯度,可以得到学习规则: 的计算 其中“。”表示两个矢量的Hadamard乘积 累积量自适应估计 分别为3阶、4阶累积量 其中 为输出分量累积量更新时的学习速率 ICA分离定理的修正 只有当输出个数l等于信源个数n时,使输出y(t)各分量的互信息最小,可得到所有的输出分量是独立的; 而当ln时,使输出y(t)各分量的互信息最小,只能使其中的n个分量为独立,而剩余的l-n个分量将与某些源信号相干。 在线确定信源数方法 NN的分离系统在线学习,使输出分量的互信息最小; 检测出相干的输出信号分量; 改变NN结构,删除冗余的输出信号分量 重复 输出分量的相关系数 相关系数的在线递推 相关性测度定义 在NN收敛后,如果两个输出分量的相关系数接近于1,则表示它们是相干信号; 如果某个输出分量的相关性测度非常小,则表示它是一个分离的源信号,并且与其它的输出分量几乎独立。 可变学习速率的方案 学习速率具有对角形式 不同的输出分量采用不同的学习速率,每个输出分量对应于一个学习速率,即 是输出分量 的学习速率。 学习速率的确定 输出的学习速率与其分离状态有密切关系 如果 足够小,表明输出信号 与其它输出分量不相关; 越小,相关性越弱; 选择的方法是: 越小, 也越小;反之也然。 公式: 算法1:在线确定信源数 Step 1(初始阶段),取l=m。采用固定学习速率 ,而且 取较大的值。 Step 2:在若干个样本之后(比如300),采用可变的学习速率: Step 3:若所有的相关性测度 都足够小(例如小于0.05),则可以认为源信号已经全部分离,信源数为l 。 Step 4:检测出两个输出分量 ,其相关系数足够大(例如大于0.8),则删除 重复 NN结构的变化 当检测出要删除 时,我们使NN的输出节点数由l个变成l-1个,同时应保证其它的输出分量保持不变。为此,在W阵中删去第i行,在 矩阵中删去i行与i列 NN结构的变化 也类似处理 仿真研究 仿真1:未知信源数的确定 仿真1-未知信源数的确定 5个信号源: 源信号 混合信号 学习速率 固定学习速率(方法1) 可变的学习速率对角阵(方法2) 误差指标函数 利用固定学习速率时的未知信源数确定过程 利用可变学习速率时的未知信源数确定过程 信源数确定误差指标 仿真结论 采用自然梯度ICA算法的动态神经网络,都可以很好的分离出源信号; 通过DNN和在线检测输出分量的相依性测度,可以在线删除分离的信源拷贝,最终实现未知信源数的在线确定。 从误差指标统计结果可以看出,采用可变的学习速率,不仅可以大大加快算法的收敛速度,而且得到的分离结果的性能更佳(在分离稳定阶段,其误差指标的值更低,曲线波动更小) 信源数动态变化 信源数动态减少 在经过信源数的在线确定后,DNN趋于平衡,这时DNN的输出数 l=n 当某个信号源随机撤销时,DNN经过学习,会在输出分量中出现新的冗余拷贝信号,通过类似方法可以检测出相干信号,这时只需删除新出现的拷贝信号。 自相似度 定义 定义信号在两个
您可能关注的文档
最近下载
- 中华兵法大典 《百战奇略》.pdf
- JT-T-971-2015沥青加铺层用聚合物改性沥青抗裂贴.docx VIP
- Sharp夏普数码复合机用户使用手册 BP-C2021X C2021R C2521R(20).pdf
- 宝峰UV5R对讲机说明书(打印版).docx VIP
- 钢柱、钢梁、钢结构制作安装.pdf VIP
- xx售楼中心、样板间、会所物业服务方案.doc VIP
- 2025年贵州贵阳乌当富民村镇银行招聘客户经理笔试历年典型考题及考点剖析附带答案详解.docx
- 2025年初级钳工试题及答案钳工试题(含答案).docx VIP
- 一张奖状的动力(1).doc
- 框架钢结构施工组织设计.pdf VIP
文档评论(0)