第八章数字媒体压缩技术.ppt.convertor.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第八章 数字媒体压缩技术 华中师范大学 清华大学出版社 第八章 数字媒体压缩技术 8.1 数据压缩及分类 8.1.1 压缩的可能性与信息冗余 8.1.2 数据压缩分类 8.2 通用的数据压缩技术 8.2.1 编码的理论基础 8.2.2 霍夫曼编码 8.2.3 行程编码 8.2.4 词典编码 8.2.5 脉冲编码调制 8.2.6 增量调制( DM ) 8.2.7 差分脉冲编码调制 第八章 数字媒体压缩技术 8.3 数字媒体压缩标准 8.3.1 声音压缩标准 8.3.2 图像压缩标准 8.3.3 运动图象压缩标准 8.3.3.1 MPEG 标准 8.3.3.2 H.26X 系列视频标准 8.3.3.3 AVS 标准 8.1.1 压缩的可能性与信息冗余 数据能够被压缩的主要原因在于媒体数据中存在数据的信息冗余。信息量包含在数据之中, 一般的数据冗余主要体现在: 空间冗余 结构冗余 时间冗余 视觉冗余 知识冗余 信息熵冗余 数据压缩分类 按信息压缩前后比较是否有损失进行划分 按信息压缩前后比较是否有损失,可以划分有损压缩和无损压缩 。 无损压缩指使用压缩后的数据进行重构, 重构后的数据与原来的数据完全相同。 常用的无损 压缩算法有霍夫曼 (Huffman) 算法和 LZW 算法 。 有损压缩是指使用压缩后的数据进行重构, 重构后的数据与原来的数据有所不同, 但不影响 人对原始资料表达的信息造成误解。 按数据压缩编码的原理和方法进行划分 按数据压缩编码的原理和方法可划分为 统计编码, 主要针对无记忆信源, 根据信息码字出现概率的分布特征而进行压缩编码, 寻找 概率与码字长度间的最优匹配。 预测编码是利用空间中相邻数据的相关性来进行压缩数据的。 变换编码是将图像时域信号转换为频域信号进行处理。 分析—合成编码是指通过对源数据的分析, 将其分解成一系列更适合于表示的 “基元”或从 中提取若干更为本质意义的参数,编码仅对这些基本单元或特征参数进行。 按照媒体的类型进行压缩划分 图像压缩标准 声音压缩标准 运动图象压缩标准 8.2 通用的数据压缩技术 通用的数据压缩技术: 行程编码 字典编码 熵编码等 PCM DM DPCM 通用的压缩方法具有压缩比低、通用性强等特点 8.2.1 编码的理论基础 数据压缩技术的理论基础是信息论。 根据信息论的原理,可以找到最佳数据压缩编码方法,数据压缩的理论极限是信息熵。 熵是信息量的度量方法, 它表示某一事件出现的消息越多, 事件发生的可能性就越小, 数学 上就是概率越小。 信息与信息量 信息量是指信源中某种事件的信息度量或含量。 一个事件出现的可能性愈小, 其信息量愈多, 反之亦然。 若 pi 为第 i 个事件的概率为 0 ≤ pi ≤ 1,则该事件的信息量为 一个信源包括的所有数据叫数据量,而数据量中包含有冗余信息。 信息量 = 数据量 -冗余量 信息熵 信息熵就是将信源所有可能事件的信息量的平均。 设从 N 个数中选定任一个数 xj 的概率为 p(xj) ,假定选定任意一个数的概率都相等, 即 p(xj) =1/N ,则 I(xj) =log2N =-log2 1/N =-log2p(xj)=I[p(xj)] 上式中, p(xj) 是信源 X 发出 xj 的概率。 I(xj) 的含义是信源 X 发出 xj 这个消息 (随机事件) 后,接收端收到信息量的量度。 信息熵 (续 ) 信源 X 发出的 xj(j=1,2, …,n)共 n 个随机事件的信息量的统计平均,即 H(X)=E{I(xj)}= H(X) 称为信源 X 的“熵”,即信源 X 发出任意一个随机变量的平均信息量。 其中,等概率事件的熵最大,假设有 N 个事件,此时熵为: H(X) = = 信息熵 (续 ) 当

文档评论(0)

yanmei520 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档