武汉理工大学信息理论与编码第二章 信息的度量(四).pdfVIP

武汉理工大学信息理论与编码第二章 信息的度量(四).pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
2.8 离散有记忆信源的熵 一、N 阶平稳信源的熵为联合熵 H (X N ) H (X X X ) bit / N长符号串 1 1 N 或 H N (X ) 1 H (X N ) N 1 H (X X X N ) bit / 符号 N 1 1 二、对于离散有记忆信源,一般考虑其 极限熵 H (X ) lim H N (X ) N  1 lim H (X X X N )bit / 符号 1 2 N  N 三、熵的性质 1、HN (X)是非增的,有界的 0 HN (X ) H (X )  H (X ) N 1 1 H (X )  0 (证明见姜丹,信息论于编码第二版,中国科技 大学出版社) 其中, H (X)=H(X),是X 为DMS时的熵; 1 H (X)=H (X),是X 为等概分布时 0 max 的熵,即最大熵 推论1:信源内部有关联(也称有记忆),会使熵 降低,当然实在信息也会降低。 推论2 :H∞(X)存在; 若X 是无记忆的,有 1 N 1 H  (X ) lim H (X ) lim NH (X ) H (X ) N  N N  N 因为信源的实在信息在数值上等于其平均不确定 性,因此, 一般有I (X ) H (X ); 2.9 马尔可夫信源的信息熵 2.9.1 马尔可夫链 一、概念 设随机序列{X n ,n T } 为一马尔可夫过程, T 0,1,2, 为离散的时间参数集合, X 状态空间集S =S ,S , ,S , n  1 2 J  若对所有正整数n T , 如果条件概率均满足 P {X n Si | X n1 Si ,X n2 Si , ,X 1 Si } n n1 n2 1 P {X n Si | X n1 Si } n n1 则称随机过程{X n ,n T }为一个马尔可夫链。 直观含义:如果系统在n-1时刻处于状态Sn- ,则在将来时刻n 的状态S 与过去时刻n- 1 n 2,…,1的状态S ,S ,…,S 无关,仅与现在

您可能关注的文档

文档评论(0)

ormition + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档