- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
多媒体数据压缩算法研究与实现 摘要:多媒体数据压缩技术是实现实时有效地处理、传输和存储庞大的多媒体数据的 关键技术。 许多应用领域对多媒体信息的实时压缩提出了更高的要求, 快速、 高效的压缩算 法是解决这一问题的关键。针对多媒体数据在空间、时间、结构、视觉、知识等方面所产生 的冗余 ,利用有损压缩和无损压缩等方法 ,对图像、音频、视频等多媒体数据进行压缩 ,以保留 尽可能少的有用信息。 本文主要是 把所学的数据结构和算法设计的知识应用于实践, 对目前 普遍采用的多媒体数据及其压缩算法加以研究, 同时介绍了数据压缩所采用的分类、 方法及 其标准, 并分析每种算法的优缺点, 并据此选择设计一种多媒体数据的无损压缩算法。 并以 实例加以说明。
关键词:多媒体;压缩; 哈夫曼编码 .
1. 多媒体数据类型
1.1 文字
在现实世界中, 文字是人与计算机之间进行信息交换的主要媒体。 文字主要包括西文与 中文。在计算机中,文字用二进制编码表示,即使用不同的二进制编码来代表不同的文字。
1.2 音频
音频(Audio )指的是20HZ〜20kHz的频率范围,但实际上“音频”常常被作为“音频 信号”或“声音”的同义语,是属于听觉类媒体,主要分为波形声音、语音和音乐。
1.3 视频媒体
能够利用视觉传递信息的媒体都是视 频媒体。位图图像、矢量图像等都是视 频媒体。
1.4 动画
动画是指运动的画面,动画在多媒体中是一种非常有用的信息交换工具。动画之所以 成为可能,是因为人类的“视觉暂留”的生理现象。用计算机实现的动画有两种,一种是帧 动画,另一种是造型动画。
2. 数据压缩基本原理
2.1 信息、数据和编码
数据是用来记录和传送信息, 或者说数据是信息的载体。 真正有用的不是数据本身, 而 是数据所携带的信息。 数据压缩的理论基础是信息论。 数据压缩技术是建立在信息论的基础 之上的。 数据压缩的理论极限是信息熵。 而信息熵有两个基本概念作铺垫, 这两个基本概念 就是信息、信息量。首先第一个概念“信息” 。
1.信息
信息是用不确定的量度定义的, 也就是说信息被假设为由一系列的随机变量所代表, 它 们往往用随机出现的符号来表示。我们称输出这些符号的源为“信源” 。也就是要进行研究
与压缩的对象。
应该理解这个概念中的“不确定性” 、“随机”性、“度量”性,也就是说当你收到一条 消息之前, 某一事件处于不确定的状态中, 当你收到消息后, 去除不确定性, 从而获得信息, 因此去除不确定性的多少就成为信息的度量。 比如:你在考试过后,没收到考试成绩(考试 成绩通知为消息) 之前,你不知道你的考试成绩是否及格, 那么你就处于一个不确定的状态; 当你收到成绩通知 (消息) 是 “及格”,此时, 你就去除了 “不及格”(不确定状态, 占 50%), 你得到了消息——“及格” 。一个消息的可能性愈小,其信息含量愈大;反之,消息的可能 性愈大,其信息含量愈小。
2.信息量
指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。 个事件中特定事件所需提问“是”或“否”的最小次数。
例如:从64个数(1~64的整数)中选定某一个数(采用折半查找算法) ,提问:“是否
大于32?”,则不论回答是与否, 都消去半数的可能事件, 如此下去,只要问6次这类问题, 就可以从64个数中选定一个数,则所需的信息量是 6 (bit)
我们现在可以换一种方式定义信息量,也就是信息论中信息量的定义。
设从N中选定任一个数 X的概率为P(x),假定任选一个数的概率都相等, 即P(x)=1/N,
、 1
则信息量 l(x)可定义为:l(x) =log2N - -log2 log 2P(x)
N
上式可随对数所用“底”的不同而取不同的值,因而其单位也就不同。
设底取大于1的整数a,考虑一般物理器件的二态性,通常 a取2,相应的信息量单 位为比特(bit );当a =e,相应的信息量单位为奈特(Nat);当a =10,相应的信息量单位 为哈特(Hart);
显然,当随机事件 x发生的先验概率 P(x)大时,算出的l(x) 小,那么这个事件发生的 可能性大,不确定性小,事件一旦发生后提供的信息量也少。 必然事件的P(x)等于1, I(x)
等于0,所以必然事件的消息报导, 不含任何信息量;但是一件人们都没有估计到的事件 (P(x)
极小),一旦发生后,l(x)大,包含的信息量很大。所以随机事件的先验概率,与事件发生 后所产生的信息量,有密切关系。 l(x)称x发生后的自信息量,它也是一个随机变量。
现在可以给“熵”下个定义了。信息量计算的是一个信源的某一个事件( X)的自信息
量,而一个信源若由n个随机事件组成,n个随机事件的平均信息量就定义为熵 (Entropy)。
3. 信息熵
信源X
原创力文档


文档评论(0)