词典编码LZ算法.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
2.1.1 数据压缩的必要性 文本: 若1024×768显示分辨率、16×16点阵文字、4 Byte/字,则一屏 汉字的总数据量为: (1024/16)×(768/16)×4 = 12288 Byte (12KB) 图片: 若采用1024×768显示分辨率,则满屏图像的总数据量为: 1024×768×24÷8 = 2359296Byte (2304 KB) 音频: 若采样频率为44100Hz,16bit (2Byte),立体声 (2声道),则1分钟的总数据量为: 44100×2 Byte×2 (STEREO) ×60s = 10336 KB (10MB) 视频: 若图像分辨率为352×240,24位色彩,帧率为25帧/秒,则1分钟的总数据量为: 352×240 ×3 Byte×25×60s = 371250 KB (362.55MB) 2.1.1 数据压缩的必要性 1分钟数字音频信号需要的存储空间 2.1.1 数据压缩的必要性 1分钟数字视频信号需要的存储空间 2.1.2 数据压缩的可能性 数据存在冗余 (重复数据、可忽略数据) 不敏感因素 (颜色、亮度、频率、细节) 2.1.2 数据压缩的可能性 数据冗余 基本概念: 冗余 —— 信息所具有的各种性质中多余的无用内容 冗余度 —— 多余的无用内容的程度 信息量与冗余的关系 2.1.2 数据压缩的可能性 常见的数据冗余类型 空间冗余 时间冗余 结构冗余 视觉冗余 知识冗余 信息熵冗余 2.1.2 数据压缩的可能性 空间冗余—— 规则物体的物理相关性 2.1.2 数据压缩的可能性 时间冗余—— 视频与动画画面间的相关性 2.1.2 数据压缩的可能性 结构冗余—— 规则纹理、相互重叠的结构表面 2.1.2 数据压缩的可能性 视觉冗余—— 视觉敏感度非均匀、非线性 2.1.2 数据压缩的可能性 知识冗余—— 凭借经验识别 2.1.2 数据压缩的可能性 信息熵冗余,也称编码冗余: 如果表示多媒体内容使用的平均比特数大于该消息的信息熵,则信源中存在冗余,即信息熵冗余。 例如:图像中平均每个像素使用的比特数大于该图像的信息熵,则图像中存在冗余,这种冗余即为信息熵冗余。 2.1.3 数据压缩技术的重要指标 压缩比: 压缩过程中输入数据量与输出数据量之比 图像质量(失真度): 解压后的恢复效果要好 算法的复杂性和运算速度 2.1.3 数据压缩编码方法分类 分类方法一:根据解码后是否能够完全无失真地恢复进行分类 1)无损压缩(可逆压缩)——冗余压缩 其原理是在压缩时去除或减少冗余值,而在解压缩时重新将这些值插入到数据中,恢复原始数据。 压缩比较低,一般在2:1——5:1,多用于文本数据的压缩。 典型的编码方法有:香农-范诺码、Huffman编码、算术编码、行程编码、 LZW 编码 2.1.3 数据压缩编码方法分类 分类方法一:根据解码后是否能够完全无失真地恢复进行分类 2)有损压缩 指使用压缩后的数据进行重构,重构后的数据与原来的数据有所不同,但不影响人对原始资料表达的信息造成误解。 图像和声音的压缩就可以采用有损压缩,因为其中包含的数据往往多于我们的视觉系统和听觉系统所能接收的信息,丢掉一些数据而不至于对声音或者图像所表达的意思产生误解,但可大大提高压缩比。 典型的编码方法有:PCM 编码、预测编码、变换编码、子带编码等。 2.1.3 数据压缩编码方法分类 分类方法二:压缩编码方法的原理进行分类 统计编码: huffman,shannon,REL,词典编码 预测编码: PCM,DPCM,DM,LPC 变换编码: DCT 子带(sub-band)编码 模型编码 2.2 统计编码 基本思想:主要针对无记忆信源,根据信息出现概率的分布特征进行压缩编码,寻找概率与码字长度之间的最佳匹配: 根据信息熵的原理用短码表示出现概率大的数据,用长码表示出现概率小的数据。 主要方法:包括霍夫曼编码、算术编码、行程编码等 2.2.1 霍夫曼编码 哈夫曼1952年提出 主要思想:在变字长编码中,对于出现概率大的信息符号编以短字长的码,对于概率小的符号编以长字长的码。 最佳性:如果码字长度严格按所对应符号出现概率大小逆序排列,则平均码字长度一定小于其他以任何符号顺序排列方式得到的平均码字长度。 2.2.1 霍夫曼编码 霍夫曼编码步骤 将符号按出现概率由大到小排列,给最后两个符号赋予一个二进制码,概率大的赋1,小的赋0(反之亦可) 把最后两个符号的概率合成一个概率,重复上一步 重复步骤2,直到最后只剩下两个概率为止 将每个符号所对应的分支的0,1反序排出即可 2.2.1 霍夫曼编码 霍夫曼编码特点

文档评论(0)

136****3783 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档