7.1.5几种特殊离散信源的信息率失真函数.ppt

7.1.5几种特殊离散信源的信息率失真函数.ppt

  1. 1、本文档共65页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
7.1.5几种特殊离散信源的信息率失真函数

* * * * * * * * * * * * * * * * * * * * * * * * * * * * 波形编码是将时间域信号直接变换为数字代码,重建语音波形时尽量保持原语音信号的波形形状。波形编码的基本原理是在时间轴上对模拟语音按一定的速率抽样,然后将幅度样本分层量化,并用代码表示。脉冲编码调制(pulsecodemodulation,PCM)和增量调制(△M),以及它们的各种改进型自适应增量调制(ADM),自适应差分编码(ADPCM)、自适应传输编码(AdaptiveTransfer Coding,ATC)和子带编码(SBC)等,都属于波形编码技术。它们能分别在64kbit/s以及16kbit/s的速率上给出高的编码质量。但当速率进一步下降时,其性能会下降较快。 * 参量编码又称为声源编码,是将信源信号在频率域上或其它正交变换域上提取特征参量,并将其变换成数字代码进行传输。具体说,参量编码是通过对语音信号特征参数的提取和编码,重建语音信号时使其具有尽可能高的可靠性,保持原始语音的语意,但重建信号的波形同原始语音信号的波形可能会有相当大的差别。线性预测编码(LPC)及其它各种改进型都属于参量编码。该编码比特率可压缩到2~4.8kbit/s,甚至更低,但语音质量不是很好,自然度较低。 * 混合编码将波形编码和参量编码组合起来应用,尽量保持波形编码的高质量和参量编码的低速率,在4~16kbit/s速率上能够得到高质量的合成语音。多脉冲激励线性预测编码(MPLPC),规划脉冲激励线性预测编码(KPELPC),码本激励线性预测编码(CELP)及其改进型代数码激励线性预测编码(ACELP)和矢量和激励线性预测编码(VSELP)等都是属于混合编码技术。 * * * * * * * * 平均失真度 离散随机变量X: N维离散随机序列: 信息率失真函数 离散信息X:概率分布为P(X),失真度为d(xi,yj) Review of the last lecture * * 信息率失真函数R(D)一旦求出后,就只与信源概率分布p(xi)或概率密度函数p(x)有关,反映信源特性,与信道特性无关。 由于平均互信息与信道的特性有关,为了排除信道特性对信息率失真函数的影响,采用的做法是在所有的信道中以那个能使平均互信息达到最小的信道为参考,从而使信息率失真函数仅仅与信源特性有关,信源不同,R(D)亦不同。 4.5 信道容量与信息率失真函数的比较 * * 信息率失真函数的性质 定义域(Dmin,Dmax): Dmin是最小允许失真度, Dmax是最大允许失真度 下凸性 单调递减和连续性 Review of the last lecture * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 对于这种简单信源,可从D(S)解出S与D的显式表达式。 7.2.2 二元及等概率离散信源的信息率失真函数 7.2 离散信源的信息率失真函数 * * 7.2.2 二元及等概率离散信源的信息率失真函数 7.2 离散信源的信息率失真函数 * * 第六步:通过以上步骤计算出来的R(D)和S(D)如下图 。 7.2.2 二元及等概率离散信源的信息率失真函数 7.2 离散信源的信息率失真函数 * * (2) 信息率失真函数曲线图说明 若α=1,把d(xi , yj)当成了误码个数,即X和Y不一致时,认为误了一个码元,所以d(xi , yj)的数学期望就是平均误码率。能容忍的失真等效于能容忍的误码率。 7.2.2 二元及等概率离散信源的信息率失真函数 7.2 离散信源的信息率失真函数 * * R(D)不仅与D有关,还与p有关。概率分布不同, R(D)曲线就不一样。当p=0.25时,如果能容忍的误码率也是0.25,不用传送信息便可达到,即R=0,这就是R(Dmax) =0的含义。 7.2.2 二元及等概率离散信源的信息率失真函数 7.2 离散信源的信息率失真函数 * * 当D相同时,信源越趋于等概率分布, R(D)就越大。由最大离散熵定理,信源越趋于等概率分布,其熵越大,即不确定性越大,要去除这不确定性所需的信息传输率就越大,而R(D)正是去除信源不确定性所必须的信息传输率。 7.2.2 二元及等概率离散信源的信息率失真函数 7.2 离散信源的信息率失真函数 * * 关于S(D) 它与p无直接关系,S(D)曲线只有一条,p=0.5和p=0.25都可以用,但它们的定义域不同; p=0.25时定义域是D=0~0.25,即到A点为止,此时 Smax=-1.59。D0.25时,S(D)就恒为0了。所以在A点S(D)是不连续的; 当p=0.5时,曲线延伸至D=0.

文档评论(0)

daoqqzhuan2 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档