对于紧致码在三种编码方法下编码特性研究.docVIP

对于紧致码在三种编码方法下编码特性研究.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
对于紧致码在三种编码方法下编码特性研究

对于紧致码在三种编码方法下编码特性研究   摘 要:本文针对一种被称为紧致码的特殊的信源空间分布,基于Shannon,Fano和Huffman三种编码方法,并分别对其进行了证明,发现对于某种特殊的信源分布的紧致码,平均码长与其信源概率分布有关。同时通过引入Huffman tree构造方法证明了Huffman编码方法的情况,简化了对于这种特殊的信源分布的紧致码编码过程。   关键词:紧致码;Shannon;Fano;Huffman;Huffman tree   DOI:10.16640/j.cnki.37-1222/t.2015.24.247   1 引言   21世纪,国际社会已进入信息化时代。信息论作为信息科学和技术的基本理论,犹如信息科学大厦的地基,在信息社会中占据越来越重要的地位。信息论的创始人Shannon,他在 1949 年发表了《保密通信的信息理论》,是每一位研究信息学者必读的一篇文章[1]。随着信息技术的发展, 编码技术已经在媒体技术、网络技术、无线通信技术、数字电视技术等方面得到广泛应用[2]。信息论、错误控制编码和密码学是现在数字通信系统中的三大支柱。信息论基础是应用概率论、随机过程和近世代数等方法研究信息的存储、传输和处理中一般规律的学科,主要解决通信过程中信息传输的有效性、可靠性与安全性的问题,是信息科学和通信科学领域中的一门基础理论[3,4]。   信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。信息传输和信息压缩是信息论研究中的两大领域。紧致码在信息论的研究中有着至关重要的作用,并且具有重大实际意义。   本文的目的是用信息论观点对紧致码进行若干研究,以Shannon,Fano和Huffman三种编码方法为例,分别介绍它们的编码原理以及相关证明,进一步得出结论。   2 紧致码   这里我们介绍一种特殊的信源分布,如果其中各消息概率满足pi   其中hi为任意正整数,对信源进行二进制编码,该编码为最佳编码,或者说获得码是紧致码[5]。   编码效率   。   式中H(X)=-∑pilog2pi为信源熵,r为码符号数,这里考虑二进制编码,r=2,为编码后平均码长,定义表达式为。   从平均码长的角度出发,对于给定信源,使平均码长达到最小的编码方法,称为最佳编码,得到的码称为最佳码,即紧致码。   本文考虑信源的每个消息的概率满足,信源消息编码后的码长为ni=hi,则编码效率为   下面我们将对上述结论进行证明。   3 三种编码法及其证明   3.1 对于Shannon编码的证明   首先介绍Shannon编码方法。步骤如下:   (1)将信源发出的M个消息,按其概率递减顺序进行排列,得   P(x1)≥p(x2)≥…≥p(xM)   (2)计算出各消息的-logp(xm)值,m=1,2,…M;   (3)根据-logp(xm)≤nm-logp(xm)+1。(-logp(xm)为整数时取等号),计算出每个消息的二进制代码的长度nm(m=1,2,…,M),nm,nm取正整数;   (4)为得到唯一可译码,计算出第m个消息的累加概率,再将pm变换成二进制小数,取小数点后面nm位作为第m个消息的代码组(码字)。   然后我们考虑上面介绍的紧致码。记离散信源,其中满足,对其进行Shannon编码[6],由第三步可知,任一信源xi其对应的二进制代码长度nm=-logp(xm)=hi,这就是我们要证明的对紧致码进行Shannon编码后每个信源对应的码长为hi。   3.2 对于Fano编码的证明   对Fano编码的思路与Shannon编码类似。首先介绍Fano编码方法[7]。步骤如下:   (1)信源发出的M个消息,按其概率递减顺序排列,得   P(x1)≥p(x2)≥…≥p(xM)   把消息集{x1,x2,…xM}按其概率大小分解成两个子集,使两个子集的概率之和尽可能相等,把第一个子集编码为0,第二个子集编码为1,作为代码组的第一个码元;   (2)对子集做第二次分解,同样分解成两个子集,并使两个子集概率之和尽可能接近相等,再把第一个子集编码为0,第二个子集编码为1,作为第二个代码组的码元;   (3)如此一直进行下去,直到各子集仅含一个消息为止;   (4)将逐次分解过程中得到的码元排列起来就是各消息代码。   下面证明作上述操作后得到的每个消息对应的码长为hi。   由上述步骤可知,经过n次分解后得到的消息xi其对应的码长一定为n,于是问题转为证明对应概率为的消息需要hi次分解后得到的子集仅含该消息。为简便,以下将把某个消息经过分解后得到的子集仅含该消息简称为将该消息分出来。   由Fano编码步骤可知,进

文档评论(0)

3471161553 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档