第7章多媒体数据编码与压缩76 动态图像信号的处理.ppt

第7章多媒体数据编码与压缩76 动态图像信号的处理.ppt

  1. 1、本文档共238页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第7章多媒体数据编码与压缩76 动态图像信号的处理

第7章 多媒体数据编码与压缩 7.1 数据压缩编码的基本概念 7.2 常用音频信号压缩编码及解压方法 7.3 其他音频压缩编码方法 7.4 图像数据编码压缩方法 7.5 静态图像的JPEG技术标准 7.6 动态图像信号的处理 7.1 数据压缩编码的基本概念 7.1.1 数据压缩的可能性及意义 1. 数据压缩的可能性 音频信号和视频图像的数字化数据可以进行数据压缩编码是基于以下两种事实。 1) 信息的冗余度 无论是话音信息还是图像信息都有较大的冗余度。按采样定理要求fs≥2fm,为使离散信号能完全复现原连续信号,一般选择fs>2fm,即都是过采样,说明采样的离散数据具有冗余度。 对于连续过程而言,离散化时都以信号的上限频率为依据,但实际上信号并不是总是或经常处在上限频率上,也就是话音信号并不始终是那么活跃(fm),信号的能量主要集中在低频部分。以fm为依据选择采样频率,只是从“无损”信息的角度出发,若允许在一定范围内“有损”(失真),那么使fs≥2fm自然就有了冗余度。说得极端一点,若信号在一段时间内不变,那么在这一段时间内只需一个采样点就可以了。 2) 信号的相关性 相关就是联系,或两个信号之间的相似性。定义同一个信号前后时刻的相关性就是自相关函数ρxx ;定义两个信号间的相似程度就是两个信号的互相关函数ρxy(|ρxx|、|ρxy|≤1)。 ˙同一个信号在不同时刻之间有了相关性,就可能由前几个采样点的值预测(外推)后1个采样点的值。若在允许范围内,这个采样点的数据就可以舍弃,达到压缩的目的。 ˙同样,若两个函数之间有了相关性,就可能用一个函数(采样点)表示另一个函数,也能达到数据压缩的目的。 另外,人的视觉特性对边缘急剧变化不敏感(眼睛对图像的亮度信息比较敏感,而对颜色的分辨率相对比较弱),以及考虑到人的听觉的生理特性,客观上也可以滤去一些视觉和听觉不易分辨的数据。即使对于损失的信息,人们也会运用自己的“智能”去补充损失的部分信息。 2. 数据压缩的意义 在信息无损或损失在一定允许范围内进行数据压缩,显然由于数据的减少,自然减小了数据的存储容量,同时,有利于数据的传输,降低了对数据传输通道的要求。由于数据量减少,因此,若数据速率(信道带宽)一定,则可以减少传输时间;若传输时间一定,则可以降低数据速率。数据速率降低,就可以增加数据(码元)的宽度,传输信号的频带降低,自然就降低了对信道带宽的要求。 7.1.2 信息的量度 1.信息的含义 在通信理论中,经常用到消息和信息的概念。 1) 消息 消息是由符号、文字、数字或语音组成的表达一定含义的一个序列,如一份电报和报纸上的一段文字。消息是信息的载体,是表达信息的工具。 2) 信息 信息是消息的内涵,是消息中的不确定性内容。 2. 信息的量度 1) 信息量及熵 (1) 信息量定义。设信源x由属于集合Am={a1,a2,…,am}的m个可能的符号产生,若信源事件aj的概率为P(aj),则定义事件aj的信息量I(aj) I(aj)=-log P(aj) 作为事件aj所包含的信息量的量度,称为自信息。 单位:取2为底的对数,则单位为比特(bit); 取e为底的对数,则单位为奈特。 从信息量的定义可以看出,信息是事件aj的不确定因素的度量。事件发生的概率越大,事件的信息量越小;反之,一个发生可能性很小的事件,携带的信息量就很大,甚至使人们“震惊”。 例如:在32个数码中任选1个数码时,设每个数码选中的概率是相等的,则 ? 那么,任一数码的信息量为 ? (2) 信源的熵。一个通信系统并非只传送1个符号,而是多个符号,这就需要定义整个信源符号的平均信息量的大小。 我们把自信息的统计平均值——数学期望 (7.1) 即信源x中每个符号的平均信息量,称为信源x的熵。 当信源x中的每个符号是等概率的且是独立的时候,平均信息量最大,此时 ,j=1,2,…,m 代入式(7.1)得 例如:若信号x{a1,a2}的概率分别为P(a1)=0.9,P(a2)=0.1,则符号的平均信息量,即信源x的熵为 H(x)=-(0.9×lb0.9+0.1×lb0.1)=0.467 bit 若a1, a2等概率,P(a1)=P(a

您可能关注的文档

文档评论(0)

wujianz + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档