网站大量收购闲置独家精品文档,联系QQ:2885784924

现代通信理论第二章zjs要点.ppt

  1. 1、本文档共30页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
现代通信理论第二章zjs要点.ppt

现代通信理论 郑 建 生wdzjs@163.com 第2章 通信业务 一 模拟与数字视音频业务 1.视音频信息基本概念 1)音频信息 (1)定义 自然界中各种音源发出的可闻声和由计算机通过专门设备合成的语音或音乐-语言、音乐声和效果声三大类 (2)特性 频 率:语言(0.1~5kHz)电话(0.3~3.4kHz)电声设备(20Hz~20kHz) 动态范围:语言(20~40dB) 电声设备(60~80dB) (3)处理 音频信号获取、编解码、语音识别与理解、语音合成等,音频信号视随时间连续变化的,因此要求实时性 2)视频信息 (1)定义 活动或者运动的图像信息,由一系列周期呈现的画面组成,每幅画面称为一帧,帧是构成视频信息的最基本单元 (2)特性 带 宽: PAL制式(6MHz) NTSC制式(4.2MHz) 动态范围:图像的最亮和最暗部分之间的相对比值 (60dB) (3)处理 摄像系统视通过行、场扫描来完成图像的分解与合成,尽管图像内容是随机的,但行、场或帧具有准周期性。实时性要求不高,每秒25帧和每秒30帧两种帧频制式 2. 视音频信息的数字化 1)采样 音频信息在时间上的离散化和图像信息在空间位置的离散化 (1)采样定理 均匀采样定理:fc≥2fH 窄带采样定理: fc≥2B 一般采样定理: fc≥2B(1+k/n) fH=nB+kB, 0K1, n是小于fH/B的最大整数 (2)音频信号的采样 根据自然采样定理采样频率等于或大于音频信号最高频率的2倍:8kHz、11.025kHz、16kHz、22.05kHz、32kHz、44.1kHz(CD)和48kHz(DAT数字音带) (3)视频信号的采样 根据自然采样定理采样频率等于或大于已知图像的最大空间频率的2倍:设图像的最大空间频率为每毫米40线,则采样频率应大于或等于每毫米80线,对应的采样尺寸为1/80mm=12.5μm。此外,图像的亮度在时间上有变化,还应在时间上对图像的采样频率给予保证大于或等于2倍的图像最高截止频率:带宽6.5MHz的视频信号采样频率为13MHz 为了防止混叠失真的出现,通常在采样前要对图像信号进行抗混叠滤波 2)量化 采样视对视音频信号进行时间或空间的离散化,其每个样值的取值仍是连续的,必须将它们转化成有限个离散值,这就是量化 均匀量化 非均匀量化 3)编码 被量化之后的信号其每个量化电平最终被赋予一个二进制的码字,这称为编码。就是在保证一定质量前提下,以最小比特数来表示信号 3. 视音频压缩编码 视音频信号数字化后数据量大: CD(700Kbit/s) 数字视频(216Mbit/s), 1)数据压缩的理论依据 (1)离散无记忆信源 只要概率分布不均匀就存在信息的冗余,因而就有数据压缩的可能。在一定信源概率分布条件下,尽可能使编码的平均码长接近于信源的熵,以减少冗余信息 (2)离散有记忆信源 其前后出现的信源符号常常具有一定的相关性,相关性越大冗余也越大,压缩可能性就越大 2)信源编码的方法 (1)限失真压缩编码 在允许解码后信号有一定失真的情况下,去除信源的自相关以达到压缩数据目的 预测编码-时域上去除相关性 变换编码-空域上去除相关性 (2)无失真压缩编码 改变信源概率分布的不均匀,使编码后的数据接近其信息熵而不产生失真-也叫熵编码,由于基于信源的统计特性因而也叫统计编码 哈夫曼编码 矢量量化编码 3)哈夫曼Huffman编码 是一种统计压缩可变字长编码,它依据可变长度最佳编码定理而得到的一种最优码 (1)可变字长编码的最佳编码定理 在变字长编码中,对于出现概率大的信息符号编以短字长的码,对于概率小的符号编以长字长的码。如果字长严格按所对应符号出现概率大小逆顺序排列,则平均码字长度一定小于其它任何符号顺序排列方式 (2)Huffman编码算法 ①将符号按出现概率排序,概率大的在前面,小的在后面;给最后的两个符号各赋予一个二进制码(概率大的为0,小的为1,可反之); ②把最后两个符号的概率加起来合成一个概率,其值是对应的两个概率之和,再按大小重新排序,重复步骤①; ③重复步骤②,直到只剩下两个概率为止; ④为剩下的两个输出符号安排0和1码; ⑤将每个符号所对应的各输出符号赋予0、1反向逆序排列,即得到各个符号的编码。 信源a 概率p Huffman编码

文档评论(0)

挑战不可能 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档