- 1、本文档共111页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
线路编码跟多媒体运用
§7.1 线路编码 §7.2 多媒体数据压缩编码技术 2.1 多媒体数据压缩基本原理 2.2 数据压缩与解压缩常用算法 2.3 多媒体数据常用压缩标准 2.1 多媒体数据压缩基本原理 2.1.1 多媒体数据压缩的必要性与可能性 2.1.2 数据冗余的基本概念与种类 数据冗余的基本概念 多媒体数据的数据量远远大于其所携带的信息量 例:180个汉字,文本数据量为360B。广播员朗读使用1分钟,采样数据量为8000X60=480KB可见,传递同样信息,语音数据有1300倍冗余 数学描述:I=D-du I:信息量 D:数据量 du:冗余量 数据冗余的类别 空间冗余 图像数据中,大量的相邻像素完全一样或十分接近 时间冗余 时间类媒体中经常存在地冗余 相邻两帧的大部分数据无变化,只有少量数据变化 结构冗余:图像由有规律的图案组成 信息熵冗余:数据携带的信息量少于数据本身 视觉冗余:人的视觉特性 知识冗余:图像的记录方式与人对该图像的知识之间的差异而产生 其他冗余 2.1.3 图像压缩预处理技术 量化 从模拟信号到数字信号的量化,脉冲编码调制PCM 压缩编码中的量化 以PCM码为输入,在量化器经过某种变换后输出 存在量化误差 一般在数据采集卡中完成这两种量化过程 2.1.5 数据压缩算法综合评价指标 压缩倍数 压缩率,压缩前后总的数据量之比 例如:1024X768黑白图像,每像素8bit,将其分辨率降为512X384,再压缩使每像素用0.5bit,则其压缩倍数为64倍,压缩比为1:64 图像质量 无损压缩 压缩后的数据经解压缩还原后与原始数据完全相同 压缩倍数不大 有损压缩 压缩后的数据经解压缩还原后与原始数据不完全相同 压缩倍数较大 重建图像的质量评定 信噪比 人为观测评定,专业组、非专业组 压缩和解压缩的速度 压缩和解压缩速度是压缩系统的两项重要指标 对称压缩 压缩和解压缩需要实时进行,如电视会议的图像传输 压缩和解压缩速度相同 非对称压缩 解压缩实时,压缩非实时,如CD-ROM的制作与播放 压缩比解压缩速度慢 数据的计算量 压缩和解压缩都需要大量的计算 通常解压缩比压缩的计算量小 压缩方法简洁说明 特点 描述 无损的 无失真地准确地恢复原始数据 有损的 有失真 帧内 独立地完成帧的编码 帧间 参照前、后帧对帧进行编码,并考虑 帧之间的时间冗余 对称 编码及译码的访问几乎相等 不对称 编码时间比译码时间长很多 实时 编-译码延迟不应该超过50ms 2.2 数据压缩与解压缩常用算法 2.2.1 数据压缩方法的分类 数据压缩方法也称编码方法 按是否产生失真分 无失真编码:可逆编码,无损压缩 有失真编码:不可逆编码,有损压缩 按原理分 预测编码 针对空间冗余和时间冗余 利用已被编码的点的值预测邻近的点的值 变换编码 针对空间冗余和时间冗余 将图像或时域信号变换到频域上,再进行压缩 子带编码:分频带编码 将数据变换到频域后,按频率分带,分别量化 语言和图像 信息熵编码 概率大的符号用短码字表示,反之用长码字表示 哈夫曼编码 行程编码:游程编码、运行长度编码 相同值的连续串用该值和串长代替 如MDDDDDDDDDDG用M!10DG表示 000011111000用0453表示,第1位0表示该串首码是0,第2位4表示有4个0,第3位5表示5个1,第4位3表示3个0。因为二进制非0即1。 压缩方法分类 2.2.2 哈夫曼编码 最佳编码定理 哈夫曼1952年提出 内容:在变字长编码中,对于出现概率大的信息符号编以短字长的码,对于概率小的符号编以长字长的码。如果码字长度严格按所对应符号出现概率大小逆序排列,则平均码字长度一定小于其他以任何符号顺序排列方式得到的平均码字长度。 哈夫曼编码方法 根据以上定理而得到的一种编码方法 步骤 1.将符号按出现概率由大到小排列,给最后两个符号赋予一个二进制码,概率大的赋1,小的赋0(反之亦可) 2.把最后两个符号的概率合成一个概率,重复上一步 3.重复步骤2,直到最后只剩下两个概率为止 4.将每个符号所对应的分支的0,1反序排出即可 哈夫曼编码方法过程演示 哈夫曼编码结果分析 码字的平均长度 _ 7 N=∑niP(ai)=2.72bit i=1 信息符号的熵值 7 H(a)=∑P(ai)log2P(ai) =2.61bit i=1 可见,哈夫曼编码结果,其平均长度接近于信息符号的熵值,但是仍有冗余 例如: 信源有四个符号: X a1 a2 a3 a4 1/2 1/4 1/8
文档评论(0)