信息与编码理论 第2版 课件 2.6 离散多符号信源的信息熵.pptx

信息与编码理论 第2版 课件 2.6 离散多符号信源的信息熵.pptx

  1. 1、本文档共16页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

2.6离散多符号信源的信源熵

1.离散平稳无记忆信源为了研究离散平稳无记忆信源的极限熵,把信源输出的符号序列看成是一组一组发出的。例1:电报系统中,可以认为每2个二进制数字组成一组。这样信源输出的是由2个二进制数字组成的一组组符号。这时可以将它们等效看成一个新的信源,它由四个符号00,01,10,11组成,把该信源称为二进制无记忆信源的二次扩展。例2:如果把每三个二进制数字组成一组,这样长度为3的二进制序列就有8种不同的符号,可等效成一个具有8个符号的信源,把它称为二进制无记忆信源的三次扩展信源。

1.离散平稳无记忆信源(续1)假定信源输出的是N长符号序列,把它看成是一个新信源,称为离散平稳无记忆信源的N次扩展信源,用N维离散随机矢量来表示:N次扩展信源的概率空间为:是一个长为N的序列,

1.离散平稳无记忆信源(续2)N次扩展信源的熵:离散平稳无记忆信源的N次扩展信源的熵等于离散单符号信源熵的N倍:

1.离散平稳无记忆信源(续3)离散平稳无记忆信源的熵率:

2.离散平稳有记忆信源实际信源常常是有记忆信源。设信源输出N长的符号序列,则可以用N维随机矢量来表示信源,其中每个随机变量之间存在统计依赖关系。N维随机矢量的联合熵为:

2.离散平稳有记忆信源(续1)定理3.1-(1):对于离散平稳信源,条件熵随N的增加是递减的。证明:所以条件熵随着N的增加是递减的。这表明记忆长度越长,条件熵越小,也就是序列的统计约束关系增加时,不确定性减小。

2.离散平稳有记忆信源(续2)定理3.1-(2):对于离散平稳信源,N给定时平均符号熵大于等于条件熵,证明:所以,即N给定时平均符号熵大于等于条件熵。

2.离散平稳有记忆信源(续2)定理3.1-(3):对于离散平稳信源,平均符号熵随N的增加是递减的。证明:所以,,即序列的统计约束关系增加时,由于符号间的相关性,平均每个符号所携带的信息量减少。?

2.离散平稳有记忆信源(续1)定理:对于离散平稳信源,如果,则有

2.离散平稳有记忆信源(续2)证明:(1)首先证明极限条件熵存在:只要X的样本空间有限,则必然有。根据条件熵的性质,以及信源的平稳性有是单调有界数列,极限必然存在,且极限为0和之间的某一个值。

2.离散平稳有记忆信源(续3)(2)对于收敛的实数列,有以下结论成立:如果是一个收敛的实数列,那么利用上述结论可以推出:

2.离散平稳有记忆信源(续6)结论:如何从理论上解释这个结果?

3.马尔可夫信源(1)定义(2)熵率(3)马尔可夫信源马尔可夫链(4)马尔可夫链

3.马尔可夫信源(续1)实际的有记忆信源,符号间的相关性可以追溯到很远,使得熵率的计算比较复杂。马尔可夫信源是一类相对简单的有记忆信源。信源在某一时刻发出某一符号的概率,除与该符号有关外,只与此前发出的有限个符号有关。(1)定义

3.马尔可夫信源(续2)对于m阶马尔可夫信源,(2)熵率如何计算条件熵?条件概率通常是已知的,我们需要求解的是联合概率。

文档评论(0)

xiaobao + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档