04无损数据压缩.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
04无损数据压缩.ppt

第四章 无损数据压缩 本章学习目标 主要介绍目前用得最多和技术最成熟的无损压缩编码技术,包括: 香农-范诺和霍夫曼编码 算术编码 RLE编码 词典编码 如:一幅用256级灰度表示的图像,如果每一个像素点灰度的概率均为pi=1/256,编码每一个像素就需要8位。 log2 1/ pi log2256 8 Shannon 1948年 、Fano(1949年) 采用从上到下的方法进行编码 1.按符号出现的频率或概率排序; 2.按递归方法分成两部分,每部分具有近似相同的次数; 霍夫曼 Huffman 1952年,从下到上的编码方法。 1.初始化,根据概率大小由大到小顺序对符号进行排序 2.概率最小的两个符号组成节点 3.重复步骤2 4.从根节点到页节点,分别进行编码 霍夫曼码的码长虽然是可变的,但却不需要另外附加同步代码。 几个问题值得注意: 1.霍夫曼码没有错误保护功能; 2.霍夫曼码是可变长度码,因此很难随意查找或调用压缩文件中间的内容,然后再译码; 3.接收端需保存一个与发送端相同的霍夫曼码表。 每个编码均非其它码的前缀,因此唯一可译 a1 10,a2 11, a3 000, a4 001, a5 010, a6 0110, a7 0111 11 010 10 001 10 11 10 0111 a2 a5 a1 a4 a1 a2 a1 a7 编码方案不唯一,码表必须存储(传输) 简单易实现 编码效率较高 必须预先知道信源的统计特性 算法思想 Huffman编码中每个符号都用整数个bits来表示,影响编码效率。 若能把一串符号作为编码单位,则效率还可提高。 符号串的区间表示法 设符号串为:S1, S2, … Sm 则它可以映射成为0..1中的唯一的一个子区间来表示 子区间的大小对应于符号串中各符号概率的乘积大小 子区间的位置对应着 符号串中符号的排列顺序 子区间的头尾均用二进制数表示 该符号串的编码是满足下列条件的、最短的数F: 头 F 尾 可见: 不同的串,对应着不同的子区间,选择子区间中任意的一个数作为该符号串的代码,则必有不同的编码 选择 子区间中最短的数作为 该符号串的代码 一般而言,子区间越宽,码长越短;子区间越窄,码长越长 信源符号及其概率如下: 求输入串ABBA的算术二进制编码 赋予大概率为右区间 ,并求最短编码。 * 掌握数据压缩的基本概念 掌握几种常见的数据压缩方法 香农-范诺编码 算术编码 RLE编码 词典编码 霍夫曼编码 1.1 数据压缩基本概念 数据压缩基础 无损压缩 压缩后的数据进行重构 或者叫做还原,解压缩 ,重构后的数据与原来的数据完全相同; 无损压缩用于要求重构的信号与原始信号完全一致的场合。如,磁盘文件的压缩。 有损压缩 压缩后的数据进行重构,重构后的数据与原来的数据有所不同,但不影响人对原始资料表达的信息造成误解。 有损压缩适用于重构信号不一定非要和原始信号完全相同的场合。如,图像、声音的压缩。 1.1 数据压缩基本概念 无损数据压缩 无损压缩 1.2 数据压缩方法 基本概念:熵 编码器 信源(消息集) X x1,…,xn 编码输出集 Z z1,…,zn 符号集Am a1,…,am 熵 Entropy 的概念 熵是信息量的度量方法,它表示某一事件出现的消息越多,事件发生的可能性就越小,数学上就是概率越小。 某个事件的信息量用 表示 , 其中Pi为第i个事件的概率,0 Pi?1。 1.2 数据压缩方法 香农-范诺 按照香农 Shannon 的理论,信源S的熵定义为 即信源X发出的xi共n个随机事件的自信息统计平均(数学期望) 其含义:信源X发出任意一个随机变量的平均信息量。其中pi是符号Si在S中出现的概率;log2 1/ pi 表示包含在si中的信息量,也就是编码si所需要的位数。 1.2 数据压缩方法 香农-范诺 A 15 B 7 C 7 D 6 E 5 按符号出现的频率或概率排序A、B、C、D、E; 按递归方法分成两部分,每部分具有近似相同的次数; 总位数:2×15+2×7+2×7+3×6+3×5 91 压缩比:120/91 1.3:1 1 A B C D E 0 0 0 0 1 1 1 1.2 数据压缩方法 香农-范诺举例 例:有一幅40个像素组成的灰度图象,灰度共有5级,分别用符号A,B,C,D,E表示,如果用3个位表示5个等级的灰度值,则编码这幅图像总共需120位。 1.2 数据压缩方法 霍夫曼编码 A(0.3846) B(0.1795) C(0.1538) D(0.1538) E(0.1282) 0 1 0 1 0 1 0 1 1.2 数据压缩方法 霍夫曼编码举例1 1.初

文档评论(0)

xinshengwencai + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5311233133000002

1亿VIP精品文档

相关文档