- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第八章 数字媒体压缩技术
华中师范大学
清华大学出版社
第八章 数字媒体压缩技术
8.1 数据压缩及分类
8.1.1 压缩的可能性与信息冗余
8.1.2 数据压缩分类
8.2 通用的数据压缩技术
8.2.1 编码的理论基础
8.2.2 霍夫曼编码
8.2.3 行程编码
8.2.4 词典编码
8.2.5 脉冲编码调制
8.2.6 增量调制( DM )
8.2.7 差分脉冲编码调制
第八章 数字媒体压缩技术
8.3 数字媒体压缩标准
8.3.1 声音压缩标准
8.3.2 图像压缩标准
8.3.3 运动图象压缩标准
8.3.3.1 MPEG 标准
8.3.3.2 H.26X 系列视频标准
8.3.3.3 AVS 标准
8.1.1 压缩的可能性与信息冗余
数据能够被压缩的主要原因在于媒体数据中存在数据的信息冗余。信息量包含在数据之中,
一般的数据冗余主要体现在:
空间冗余
结构冗余
时间冗余
视觉冗余
知识冗余
信息熵冗余
数据压缩分类
按信息压缩前后比较是否有损失进行划分
按信息压缩前后比较是否有损失,可以划分有损压缩和无损压缩 。
无损压缩指使用压缩后的数据进行重构, 重构后的数据与原来的数据完全相同。 常用的无损
压缩算法有霍夫曼 (Huffman) 算法和 LZW 算法 。
有损压缩是指使用压缩后的数据进行重构, 重构后的数据与原来的数据有所不同, 但不影响
人对原始资料表达的信息造成误解。
按数据压缩编码的原理和方法进行划分
按数据压缩编码的原理和方法可划分为
统计编码, 主要针对无记忆信源, 根据信息码字出现概率的分布特征而进行压缩编码, 寻找
概率与码字长度间的最优匹配。
预测编码是利用空间中相邻数据的相关性来进行压缩数据的。
变换编码是将图像时域信号转换为频域信号进行处理。
分析—合成编码是指通过对源数据的分析, 将其分解成一系列更适合于表示的 “基元”或从
中提取若干更为本质意义的参数,编码仅对这些基本单元或特征参数进行。
按照媒体的类型进行压缩划分
图像压缩标准
声音压缩标准
运动图象压缩标准
8.2 通用的数据压缩技术
通用的数据压缩技术:
行程编码
字典编码
熵编码等
PCM
DM
DPCM
通用的压缩方法具有压缩比低、通用性强等特点
8.2.1 编码的理论基础
数据压缩技术的理论基础是信息论。
根据信息论的原理,可以找到最佳数据压缩编码方法,数据压缩的理论极限是信息熵。
熵是信息量的度量方法, 它表示某一事件出现的消息越多, 事件发生的可能性就越小, 数学
上就是概率越小。
信息与信息量
信息量是指信源中某种事件的信息度量或含量。 一个事件出现的可能性愈小, 其信息量愈多,
反之亦然。
若 pi 为第 i 个事件的概率为 0 ≤ pi ≤ 1,则该事件的信息量为
一个信源包括的所有数据叫数据量,而数据量中包含有冗余信息。
信息量 = 数据量 -冗余量
信息熵
信息熵就是将信源所有可能事件的信息量的平均。
设从 N 个数中选定任一个数 xj 的概率为 p(xj) ,假定选定任意一个数的概率都相等, 即 p(xj)
=1/N ,则
I(xj) =log2N =-log2 1/N =-log2p(xj)=I[p(xj)]
上式中, p(xj) 是信源 X 发出 xj 的概率。 I(xj) 的含义是信源 X 发出 xj 这个消息 (随机事件)
后,接收端收到信息量的量度。
信息熵 (续 )
信源 X 发出的 xj(j=1,2, …,n)共 n 个随机事件的信息量的统计平均,即
H(X)=E{I(xj)}=
H(X) 称为信源 X 的“熵”,即信源 X 发出任意一个随机变量的平均信息量。
其中,等概率事件的熵最大,假设有 N 个事件,此时熵为:
H(X) = =
信息熵 (续 )
当
您可能关注的文档
最近下载
- 第二单元6~9的认识和加减法复习 课件 24秋苏教版数学一年级上册.ppt
- 《大球盖菇液体菌种生产技术规程》DB41T 2935-2025.docx VIP
- 辅助生殖技术(人工授精 ).ppt VIP
- 脑功能障碍治疗仪YS7004说明书.pdf VIP
- 用户驻地网通信设施设计规范.pptx VIP
- 制冷设备电气与控制系统检修 (25).pdf VIP
- 中国电信用户驻地网通信设施设计规范.pdf VIP
- 9 天上有颗“南仁东星”课件(共30张PPT)2025-2026学年统编版语文八年级上册.pptx VIP
- 外科护理学破伤风.pptx VIP
- 中小学校铸牢中华民族共同体意识培训讲座PPT课件.pptx VIP
文档评论(0)