网站大量收购独家精品文档,联系QQ:2885784924

多媒体技术ppt好资源-第03讲多媒体数据压缩基础.pptx

多媒体技术ppt好资源-第03讲多媒体数据压缩基础.pptx

  1. 1、本文档共60页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第3章 多媒体数据压缩基础;;;数据压缩的可能性 P16;(1)空间冗余 静态图像中存在的最主要的一种数据冗余 在同一幅图像中,规则物体和规则背景的表面物理特性具有相关性 即对同一景物表面上采样点的颜色之间存在着空间连贯性 例如:图像中一片连续的区域,其像素为相同的颜色—空间冗余 ;(2)时间冗余 序列图像(电视图像、动画)和语音数据中所经常包含的冗余 一组连续的画面之间往往存在着时间和空间的相关性 例如:唱歌的歌手、两人谈话时背景一致等;(3)统计冗余 是空间冗余和时间冗余的总称。在数据处理时,往往采用统计事件出现概率的办法来鉴别空间冗余和时间冗余,因此空间冗余和时间冗余具有统计特性。;(4)结构冗余 在某些场景中,存在着明显的分布模式——结构 结构可以通过特定的过程来生成 例如:方格状的地板,蜂窝,砖墙等;(5)信息熵冗余 信息熵:一组数据所携带的信息量。 冗余的产生是因为:在信源符号的表示过程中未遵循信息论下最优编码而造成。 通过熵编码进行压缩 ;(6)视觉冗余 可以根据这些视觉特性来对图象信息进行取舍 人类的视觉系统对图像场的敏感性:非均匀和非线性的;(7)知识冗余 有许多图像的理解与某些基础知识有相当大的相关性;●多媒体数据压缩的性能指标;● 压缩质量;(3) 数据压缩编码分类;;压缩技术的应用;压缩编码分类(按长度);等长与不等长编码;等长与不等长编码;不等长码唯一性问题;3.3 统计编码 ;(1)信息熵与信息量 来源于40年代由Claude Shannon创立的信息论中的一条定理,这一定理借用了热力学中的名词“熵”( Entropy )来表示一条信息中真正需要编码的信息量。 信源S发出的xj(j=1,2,…,n)共n个随机事件的自信息统计平均,即 H(X)称为信源X的“熵”,即信源X发出任意一个随机变量的平均信息量。 其中:等概率事件的熵最大,为: 当P(x1)=1时,P(x2)=P(x3)=…=P(xj)=0,由(4-6)式得此时熵为 由上可得熵的范围为:;平均码长与熵关系 在编码中用熵值来衡量是否为最佳编码。若以Lc表示编码器输出码字的平均码长,则当 Lc≥H(S) 有冗余,不是最佳。 Lc<H(S) 不可能。 Lc=H(S) 最佳编码(Lc稍大于H(S))。 熵值为平均码长Lc的下限。 平均码长Lc的计算公式为 其中:P(xj) 是信源X发出xj的概率,L(xj)为xj的编码长。;熵的计算范例;统计编码(熵);技术准备:编码;Shannon-Fano编码;Shannon-Fano编码例1;Shannon-Fano编码例1;Shannon-Fano编码例2;3.3 统计编码-霍夫曼编码;3.3 统计编码-霍夫曼编码;例4-1:设输入图像的灰度级{a1,a2,a3,a4,a5,a6}出现的概率分别是0.4、0.2、0.12、0.15、0.1、0.03。试进行哈夫曼编码,并计算编码效率、压缩比、冗余度。 ;由公式可求得图像信源熵是: H(X)= =-(0.4×log20.4+0.2×log20.2+0.12×log20.12+ 0.15×log20.15+0.1×log20.1+0.03×log20.03) =2.25 bit ;Huffman编码;整数位编码与信息熵;3.3 统计编码 -算术编码;算术编码(arithmetic coding AC)是利用0和1之间的间隔来表示信源编码的一种方法,其编码值是间隔的上、下限包含的相同二进制。编码过程中的间隔决定了符号压缩后的输出。 算术编码用到两个基本的参数:符号的概率和它的编码间隔。 信源符号的概率决定压缩编码的效率,也决定编码过程中信源符号的间隔,而这些间隔包含在0到1之间。 ;算术编码计算方法 Low=low+range*range_low(symbol) high=low+range*range_high(symbol) 其中: Low是前一个符号的最低值;range是之前所有符号的概率积;range_low和range_high分别是当前符号的上下值;一般编码取最小值,采用乘2取整得到二进制编码。;例 假设信源符号为{A, B, C, D},这些符号的概率分别为{ 0.1, 0.4, 0.2, 0.3 },根据这些概率可把间隔[0, 1]分成4个子间隔:[0, 0.1], [0.1, 0.5], [0.5, 0.7], [0.7, 1] ,如表;消息的编码输出可以是最后一个间隔中的任意数,整个编码过程如图。最后在[0.5143876,0.514402]中选择一个数作为编码输出值:0.5143876;3.3 统计编码 -行程编码;;假

文档评论(0)

ayangjiayu13 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档