语音增强技术研.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
语音增强技术研.pdf

摘要 摘要 现实生活中的语音不可避免的要受到周围环境的影响,语音增强是解决噪声污染的有效 方法,它的首要目标就是在接收端尽可能从带噪语音信号中提取纯净的语音信号。改善其质 量。 本文对加性噪声下的语音增强技术做了较为详细的讨论。本文首先给出增强语音算法所 涉及到的语音的基本特性和处理方法,它是增强算法研究和实现的基础。 其次本文针对经过基于短时幅度谱估计的算法增强后的语音,其残留的音乐噪声会给听 觉质量带来较大的影响这一缺点,结合短时谱估计算法和人耳掩蔽效应提出了一种单通道语 音增强算法.该算法在最小均方准则下采用了非固定参数的语音跟踪。并且引入入耳掩蔽效应 动态的确定增强滤波器的传递函数以适应语音信号的变化。实验结果表明:该算法使降噪后 的语音信号有较小的语音失真并且很好地抑制了音乐噪声。 传统的基于子空间语音增强方法在推导过程中假定噪声的方差矩阵是满秩的.在窄带噪 声或者音调噪声下这一条件就不能满足。本文采用直接对噪声信号进行子空间白化的方法, 提出了一种基于特征值分解的子空间语音增强算法,将传统的子空间语音增强方法推广到了 窄带噪声的情况。仿真结果表明了该算法的有效性。 维纳滤波和Kalman滤波方法被广泛应用于自动控制及语音信号处理之中。维纳滤波形 式较为简单,但是由于其滤波参数是固定的,只有在平稳噪声中才能得到最小均方意义下的 最优估计,因此限制了它的应用;Kalman滤波方法采用递推形式,不仅可以处理平稳过程 也可以用于多维和非平稳随机过程。然而传统的kalman滤波方法在推导过程中假定观测噪 声为白噪声.通常对于有色噪声需要用白噪声激励的方法予以模拟,并且需要以牺牲运算量 作为代价.本文提出了一种改进的基于kalman滤波的语音增强算法,提出了一种在有色噪 声下的滤波器增益函数的约束解,可以处理白噪声和有色噪声情况,不需要增加计算量,仿 真结果表明了该算法对有色噪声下的语音增强性能要优于传统kalman滤波方法。 传统的基于多麦克风的广义旁瓣抵消增强方法对于波达方向敏感,并且由于经过阻塞矩 阵后的信号含有语音成分而导致语音失真。本文提出了一种泄漏约束的DF-GSC方法,该方 法对噪声抑制和语音畸变做出了折中,通过调节参数以满足实际应用的要求。 关键词:语音增强,听觉掩蔽,音乐噪声子空间,秩亏缺, 卡尔曼滤波,有色噪声, 广义旁瓣抵消,语音泄漏 ABSTRACT In communication asmobile and speech applications。suchphones,hands-fieetelephones amorion acoustic noise.Wedetailthe he耐ngaids,speechsignals corruptedby background speechenhancementtechniqueinthe circumstanceofaddingnoise. basic of isfoundationofthe First,we theoryspeechsignal provide processing.which researchand enhancement. implementofspeech channel enhancementmethodfor is Second,a single speech noisyspeechsignalsproposed, whichisbasedon ofthehuman and

文档评论(0)

chengben002424 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档