清华大学多媒体课件33.pptVIP

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
4.3.2 哈夫曼编码 Huffman 编码就是利用变字长最佳编码,实现信源符号按概率大小顺序排列。 信源符号按概率大小顺序排列 (1). 出现概率最小的两个符号概率相加合成一个概率。 (2). 将合成概率看成一个新组合符号概率,重复上述做法,直到最后只剩下两个符号概率为止。 (3). 反过来逐步向前编码,每一步有两个分支各赋予一个二进制码,可以对概率大的编码为1。 求信息熵 信源有四个符号: X a1 a2 a3 a4 概率 1/2 1/4 1/8 1/8 信息熵: H(x) = -1/2log2(1/2)-1/4log2 (1/4)-(1/8log2 (1/8 ) )?2 = 1.75 bit/字符 采用三元(二进制编码) a1 a2 a3 a4 0 10 110 111 平均码长:L= (1/2) ? 1+(1/4) ? 2+(1/8) ? 6 = 1.75 bit/字符 编码效率:?=1.75/1.75=100% 4个符号 PCM编码: R= log24=2 bit a1 a2 a3 a4 00 01 10 11 L=2 ??Pi = 2 编码效率:?=H(x)/L=1.75/2=87.5% Huffman 编码字长参差不齐 Huffman编码在信源编码概率分布不均匀时效率高,所以效率比较均匀时,不用Huffman编码。 Huffman编码表省缺。 好处:解决对称性,降低了编码时间。 概率统计和Huffman编码一般不对称。 * * a1 0.20 01 a2 0.19 00 a3 0.18 111 a4 0.17 110 a5 0.15 101 a6 0.10 1001 a7 0.01 1000 1 0 1 1 1 0 0 0.39 0 0.35 1 0.26 0 0.11 0 0.61 1 对它进行Huffman编码 a1 a2 a3 a4 1/2 1/4 1/8 1/8 1/4 1/2 1 1 1 0 0 1 0 0 10 110 111 0 0 0 0 1 a1 a2 1 1 a3 a4 10 110 111 码 树 结 构

文档评论(0)

shaoyifen + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档