网站大量收购独家精品文档,联系QQ:2885784924

第5章 图像编码(第2讲)PPT.ppt

  1. 1、本文档共51页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第5章 图像编码(第2讲)PPT

第三步,重复上述步骤,直到信源最后为 形式为止。 第四步,将被合并的消息分别赋以1和0或0和1。对最后 X0 也对 和 对应地赋以1和0或0和1。 通过上述步骤就可以构成最优变长码(哈夫曼码)。下面举例说明具体构成方法。 信源X的哈夫曼编码图 0.45 0.30 0.55 码字 消息 概率 0 1 1 0 1 1 0 0 0 0 0 1 0 0 0 1 1 0.25 0.25 0.20 0.15 0.10 0.05 0 1 0 1 0.25 0.25 0.20 0 1 0.30 0.25 0 1 0 1 0.15 0.45 例:求下述信源的哈夫曼码 码 字 消 息 概 率 码 字 消 息 概 率 0 1 u1 0.25 1 0 u1 0.25 1 0 u2 0.25 0 1 u2 0.25 1 1 u3 0.20 0 0 u3 0.20 0 0 0 u4 0.15 1 1 1 u4 0.15 0 0 1 0 u5 0.10 1 1 0 1 u5 0.10 0 0 1 1 u6 0.05 1 1 0 0 u6 0.05 0.45 0.30 0.55 码字 消息 概率 0 1 1 0 1 1 0 0 0 0 0 1 0 0 0 1 1 0.25 0.25 0.20 0.15 0.10 0.05 0 1 0 1 0.25 0.25 0.20 0 1 0.30 0.25 0 1 0 1 0.15 0.45 计算信源的熵,平均码长,效率及冗余度: 码 字 消 息 概 率 码 字 消 息 概 率 0 1 u1 0.25 1 0 u1 0.25 1 0 u2 0.25 0 1 u2 0.25 1 1 u3 0.20 0 0 u3 0.20 0 0 0 u4 0.15 1 1 1 u4 0.15 0 0 1 0 u5 0.10 1 1 0 1 u5 0.10 0 0 1 1 u6 0.05 1 1 0 0 u6 0.05 所以,对于信源 X 的哈夫曼码的编码效率为98%,尚 2%的冗余度。 第二章 数字图像处理基础 * 数字图像处理基础 第5章 图像编码 (第二讲) 补充概念 信源:信息的来源,实际通信中常见的信源有:语音、文字、图像、数据…。在信息论中,信源是产生消息(符号)、消息序列以及连续消息的来源。在数学上,信源是产生随机变量、随机序列和随机过程的源。 离散信源的分类: (1)无记忆信源:所发出的消息(符号)之间是相互独立的,没有统计相关性; (2)记忆信源:发出的各个符号之间不是相互独立的,各个符号出现的概率是有关联的。 5.4 统计编码 高效编码的主要方法是什么? 可能去除信源中的冗余成份,从而以最少的数码率传递最大的信息量。冗余度存在于像素间的相关性及像素值出现概率的不均等性之中。对于有记忆性信源来说首先要去除像素间的相关性,从而达到压缩数码率的目的。 什么是统计编码? 对于无记忆性信源来说,像素间没有相关性,可以利用像素灰度值出现概率的不均等性,采用某种编码方法,达到压缩数码率的目的。 这种根据像素灰度值出现概率的分布特性而进行的压缩编码叫统计编码。 5.4.2 几种常用的统计编码法 5.4.1 编码效率与冗余度 设某个无记忆信源共有M个消息,记作 。其中消息 各自出现的概率分别为 。可把这个信源用下式表示 (5—22) 根据该信源的消息集合,在字母集中选取符号进行编码 。一般情况下取二元字母集A{1, 0}。通常,这一离散信源中的各个消息出现的概率并不相等。根据信息论中熵的定义,可计算出该信源的熵: 式中H(X)代表熵,Pi 代表第i个消息出现的概率。 例如,设一离散信源如下 由式(5—23)可算出该信源的熵 比特/消息 设对应于每个消息的码字由 Ni 个符号组成。也就是说每个消息所对应的码字长度各为 Ni 。那么,每个消息的平均码长可用下式表示 式中 代表平均码长,M为信源中包含的消息的个数,Pi 为第i个消息出现的概率,Ni 为第i个消息对应的码长。就平均而言,每个符号所含有的熵为 编码符号是在字母集 A 中选取的。如果编码后形成一个新的等概率的无记忆信源,字母数为n,那么,它的最大熵应为 logan比特/符号,因此,这是极限值。 如果

文档评论(0)

erfg4eg + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档