网站大量收购独家精品文档,联系QQ:2885784924

数字图象处理-第5章图像编码.pptxVIP

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

第5章图像编码

图像编码属于信源编码范畴。其特点是利用图像信号的统计特性及人眼睛的生理和心理特性对图像进行高效编码。02015.1信源编码

信源信源编码信道编码调制传输信道噪声解调信道解码信源解码信宿图5—1数字通信系统模型

No.1去除冗余为基础的编码方法称为第一代编码,如:PCM、DPCM、△M、亚取样编码法,变换域的DFT、DCT、Walsh-Hadamard变换编码等方法以及以此为基础的混合编码法均属于经典的第一代编码法。No.2第二代编码方法多是八十年代以后提出的新的编码方法,如金字塔编码法、Fractal编码、基于神经元网络的编码方法、小波变换编码法、模型基编码法等。

从信源角度看,图像编码大致可分三类:识别编码:匹配编码;变换编码使代码长度与图像信源的概率分布相匹配。这种编码的长短不一,使得传输、译码、存储均不方便另一个缺点是编码的先决条件是要知道图像信源的概率分布。匹配编码1变换编码首先把图像信源从一个空间变换到另外一个空间,然后对变换系数进行编码。预测变换函数变换2

识别编码基本原理是用另外一套符号代替原来的信源中的消息,如:电报、速记等均可认为是识别编码的例子。

表5—1图象高效编码法PCM预测法正交变换法统计编码其他方法常规编码法亚奈氏取样编码法标准法自适应法标准法自适应法标准法自适应法行程编码轮廓编码

01客观保真度准则02主观保真度准则5.2图像编码中的保真度准则

脉冲编码调制(PulsecodingModulation—PCM)是将模拟图像信号变为数字信号的基本手段5.3.1PCM编码的基本原理3PCM编码

图像低通滤波取样保持编码传输信道解码低通滤波解码图像量化图5—3PCM编、译码原理方框图限制频带,防止折叠误差时间离散化幅度离散化多值变多比特多比特变多值内插及平滑

图5—4量化噪声与过载噪声的形成5.3.2PCM编码的量化噪声量化是对时间离散的模拟信号进行幅度离散化的过程,这个过程是去零取整的过程。12

由量化带来的噪声量化噪声过载噪声编码器的任务是把一个多值的数字量用多比特的二进制来表示译码器是把每一位的码字转换为实际灰度值5.4.3编码器、译码器12

(b)

(d)

(f)图5—4编码位数对画面质量的影响

01在线性PCM编码中,量化阶是均匀的02非线性PCM编码的量化阶不均匀5.3.4非线性PCM编码

17/85/84/83/82/82/8(1)(2)(3)(4)(5)(6)(7)(8)图5—1013折线压扩特性(信号为正时的八段)6/8

高效编码的主要方法是尽可能去除信源中的冗余成份,从而以最少的数码率传递最大的信息量。冗余度存在于像素间的相关性及像素值出现概率的不均等性之中。对于有记忆性信源来说首先要去除像素间的相关性,从而达到压缩数码率的目的。根据像素灰度值出现概率的分布特性而进行的压缩编码叫统计编码。125.4统计编码

编码效率冗余度衡量编码方法优劣的准则:编码效率与冗余度

设某个无记忆信源共有M个消息,记作。其中消息ui(i=1,2,3…M)各自出现的概率分别为。可把这个信源用下式表示(5—22)根据该信源的消息集合,在字母集中选取符号进行编码。一般情况下取二元字母集A{1,0}。通常,这一离散信源中的各个消息出现的概率并不相等。根据信息论中熵的定义,可计算出该信源的熵如下式:

(5—23)式中H(X)代表熵,Pi代表第i个消息出现的概率。

比特/消息3例如,设一离散信源如下1由式(5—23)可算出该信源的熵2

设对应于每个消息的码字由Ni个符号组成。也就是说每个消息所对应的码字长度各为Ni。那么,每个消息的平均码长可用下式表示(5—24)式中代表平均码长,M为信源中包含的消息的个数,Pi为第i个消息出现的概率,Ni为第i个消息对应的码长。就平均而言,每个符号所含有的熵为:(5—25)

式中代表编码效率,H(X)为信源的熵,为平均码长,n为字母集合中的字母数。(5—26)显然,如果,就说明还有冗余度。因此,冗余度如下式表示:(5—27例:一个信源X和一个字母集合A如下bit/消息平均码长可求得信源X的熵

所以显然

文档评论(0)

SYWL2019 + 关注
官方认证
文档贡献者

权威、专业、丰富

认证主体四川尚阅网络信息科技有限公司
IP属地四川
统一社会信用代码/组织机构代码
91510100MA6716HC2Y

1亿VIP精品文档

相关文档