第四章 数字编码与数据压缩的基本技术 多媒体CAI技术 教学课件.ppt

第四章 数字编码与数据压缩的基本技术 多媒体CAI技术 教学课件.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第四章 数字编码与数据压缩的基本技术 多媒体CAI技术 教学课件

多媒体技术 教程;; 数字编码与数据压缩技术在多媒体存储、演示、传送,压缩和解压缩过程中占有极其重要的位置。本章主要讲解编码的意义,基本编码方法、图像及视频压缩编码(JPEG、MPEG-1、MPEG-2、MPEG-4、MPEG-7、MPEG-21)、音频信息压缩编码(PCM、ADPCM等)及会议电视等相关编码标准。;4.1 编码技术概论 ? 随着计算机技术、数字通信技术和多媒体技术的迅速发展,多媒体信息在全球范围内大量交流,尤其是图像视频信息的传输和存储的普及,活动图像的视、音频标准也在不断推出。 多媒体通信的基本问题是如何将信源输出的信息在接收端的信宿精确的复制出来。而高速度、高质量的传送信息却又是信息传输的基本问题。要解决这两个问题,第一,在信号不失真或允许一定失真的情况下,如何用尽可能少的符号来传送信源信息,以便提高信息传输率;第二,在信道受干扰的情况下,如何增加信号的抗干扰能力,同时又使得信息传输率最大。 在讨论具体压缩编码技术以前,本章将介绍一些有关信息、冗余和信息量的基本概念,以便于从不同角度理解各种压缩编码方法是如何处理冗余、如何提高压缩比和保证图像质量的。;在没有获取对方发出的信号以前,对该信号所包含的信息是不确定的,但不确定的程度大小不一定相同,也就是说,它们包含的有效信息量不同。对于完全肯定的事,就是没有包含任何有效信息,收到的信息完全是“冗余”的,即信息量为“零”。处理“冗余”是压缩编码的依据。信息量和信息的不肯定程度是紧密相关的,如何定量地处理呢? 1948年香农提出了对信息作定量处理的理论和方法,将事件出现的概率与信息量联系起来。设有一个信息源x,可以发出n种消息符号的集合且 中的任一个符号,用以表示某种信息。假设从信息源X发出符号的概率是,则满足 其中,求和符号是对集合 中的每个符号的概率进行的。 ; 在实际应用中,对数的底取为2,此时信息量的单位是“比特(bit)”。这个名称和二进制码元的名称是一样的,但它们是由两个完全不同的概念引出的,因此不要把它们混淆。若对数的底取e,则信息量的单位是“奈特(nit)”,若取对数的底为10,则,信息量的单位是“哈特莱(hartley)”。上述方式定义的信息量也称为自信息量。 如果信息源X相继发出的两个符号 和 是相互独立无关的,则两个符号相继发出的概率 是和的乘积 * 。由前定义,信息源X相继发出符号和的信息量为 ;上式表明:两个相继发出、相互独立的符号 和 的信息量等于两个符号 和 的自信息量之和。此结果可推广到任意长度的符号序列构成的信息。若从信息源 的符号集 中相继发出的各个符号是独立无关的,则信息论中把这一类信息源称为“无记忆的”信息源。无记忆的信息源X发出符号 的信息量I( )本身也是一个随机变量。如果求信息源X发出的符号集An中各符号的自信息量的统计平均(即求数学期望),便得出符号集An中每个符号的平均信息量为: ?;H(X)在信息论中称为信息源X的“熵(entropy)”,它表示信息源的不确定度,可以理解为信息源X发出任意一个符号所携带的平均信息量。 如果把式(4—4)中对数的底取为2,则这时信息源X的熵值的单位为“比特/符号,通常把上式定义的熵值称为“零阶熵”。 但是,由实际的信息源相继发出的各个符号之间并不是相互独立的,而是具有统计的关联特性,这种类型的信息源称为“有记忆”的信息源。例如,汉语成语中的“掩耳盗铃”4个字,收到前3个字,第四个字就完全可以肯定,它的不肯定度为零,即没带来信息。同理,收到前两个字时,第三个字的不肯定度小于前两个字,即它所带来的信息少一些。英语词汇中,某个字母出现的概率往往和前面几个字母有关,这种相关性构成了信息的冗余,是压缩编码的依据。 ;如果一个“有记忆”的信息源发出一个符号的概率只和前面相继的(N-1) 个符号存在关联特性,而和前面第N个、第(N+1)个、第(N+2)个...等符号相互独立,这时可把有关联特性的N个符号组成一个新符号 。同时根据N个符号的关联性,把符号 中的第(N-1)个符号去掉,并在其后加进信息源新产生的符号,构成下一个新符号 ,用同样的方法可相继构成其他新的符号 等,每一个新符号 中包含的符号总数(包含信源发出的)仍然是N个。假设新符号 ,出现的概率为 ,根据式(4—4)计算出的信息源熵值称为(n-1)“阶熵”。当N=1 时,

文档评论(0)

djdjix + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档