网站大量收购闲置独家精品文档,联系QQ:2885784924

第八章清华大学数字图像处理课件.ppt

  1. 1、本文档共144页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第八章清华大学数字图像处理课件

设一幅灰度级为K的图像,图像中第k级灰度出现的概率为pk,图像大小为M×N,每个像素用d比特表示,每两帧图像间隔△t 数字图像的熵H 图像的平均码字长度R为: 编码效率η定义为: 信息冗余度为: 每秒钟所需的传输比特数bps为: 压缩比r为: Huffman编码 Huffman编码 Huffman编码 Huffman编码 Huffman编码 Huffman编码 Huffman编码 Huffman编码 Huffman编码 Huffman编码 Huffman编码 Huffman编码 2. 香农—范诺编码 香农—范诺(Shannon-Fannon)编码也是一种典型的可变字长编码。与哈夫曼编码相似,当信源符号出现的概率正好为2的负幂次方时,香农—范诺编码的编码效率可以达到100%。 香农—范诺编码的理论基础是符号的码字长度N i完全由该符号出现的概率来决定,对于二进制编码即有: 编码步骤 (1) 将信源符号按其出现的概率由大到小顺序排列,若两个符号的概率相等,则相等概率的字符顺序可以任意排列; (2) 根据式(8-11)计算出各概率符号所对应的码字长度N i; (3) 将各符号的概率累加,计算累加概率P,即: (4) 把各个累加概率P由十进制转换为二进制; (5) 根据式(8-11)取二进制累加概率前N i位的数字,并省去小数点前的“0.”字符,即为对应信源符号的香农—范诺编码码字。 编码举例 例: 设一幅灰度级为8的图像中,各灰度级分别用S0、S1、S2、S3、S4、S5、S6、S7表示,对应的概率分别为0.40、0.18、0.10、0.10、0.07、0.06、0.05、0.04。现对其进行编码。 编码步骤如下 (1) 将信源符号按其出现概率由大到小顺序排列,为0.40,0.18,0.10,0.10,0.07,0.06,0.05,0.04; (2) 对于概率0.40对应的符号S0,根据(8-11)计算N0=2,将累加概率0.00转换位二进制小数为0.00,取前N0=2位,并去除小数点前的字符,即S0字符编码为00; (3) 对于概率0.18对应的符号S1,根据(8-11)计算N1=3,将累加概率0.40转换位二进制小数为0.0110,取前N1=3位,并去除小数点前的字符,即S1字符编码为011; (4) 对于概率0.10对应的符号S2,根据(8-11)计算N2=4,将累加概率0.58转换位二进制小数为0.10010,取前N2=4位,并去除小数点前的字符,即S2字符编码为1001; (5) 对于概率0.10对应的符号S3,根据(8-111)计算N3=4,将累加概率0.68转换位二进制小数为0.10100,取前N3=4位,并去除小数点前的字符,即S3字符编码为1010; (6) 对于概率0.07对应的符号S4,根据(8-11)计算N4=4,将累加概率0.78转换位二进制小数为0.11000,取前N4=4位,并去除小数点前的字符,即S4字符编码为1100; (7) 对于概率0.06对应的符号S5,根据(8-11)计算N5=5,将累加概率0.85转换位二进制小数为0.1101100,取前N5=5位,并去除小数点前的字符,即S5字符编码为11011; (8) 对于概率0.05对应的符号S6,根据(8-11)计算N6=5,将累加概率0.91转换位二进制小数为0.1110100,取前N6=5位,并去除小数点前的字符,即S6字符编码为11101; (9) 对于概率0.04对应的符号S7,根据(8-11)计算N7=5,将累加概率0.68转换位二进制小数为0取前N7=5位,并去除小数点前的字符,即S7字符编码为11110; 香农—范诺编码效能 (1) 图像信息熵为 (2) 平均码字长度为 4. 算术编码 从理论上分析,采用哈夫曼编码可以获得最佳信源字符编码效果; 实际应用中,由于信源字符出现的概率并非满足2的负幂次方,因此往往无法达到理论上的编码效率和信息压缩比; 以信源字符序列{x,y}为例 设字符序列{x,y}对应的概率为{1/3,2/3},Nx和Ny分别表示字符x和y的最佳码长,则根据信息论有: 字符x、y的最佳码长分别为1.58bit和0.588bi; 这表明,要获得最佳编码效果,需要采用小数码字长度,这是不可能实现的; 即采用哈夫曼方法对{x,y}的码字分别为0和1,也就是两个符号信息的编码长度都为1。对于出现概率大的字符y并未能赋予较短的码字; 实际编码效果往往不能达到理论效率; 为提高编码效率,Elias等人提出了算术编码算法。 算术编码的特点 算术编码是信息保持型编码,它不像哈夫曼编码,无需为一个符

文档评论(0)

报告论文库 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档