网站大量收购独家精品文档,联系QQ:2885784924

2 信息的度量的.ppt

  1. 1、本文档共68页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
2 信息的度量的

上面两种证明方法是信息论中 经常用到的证明方法 证明方法二:利用log x的∩型凸函数性质 = log 1 = 0 证毕 H(X)-log M Evaluation only. Created with Aspose.Slides for .NET 3.5 Client Profile 5.2.0.0. Copyright 2004-2011 Aspose Pty Ltd. 3.熵函数的性质 (1)对称性 集合X = {x1,x2,…,xN }中的各元素x1,x2,…,xN任意改变其顺序时,熵只和分布(概率)有关,不关心某个具体事件对应哪个概率。 例如 和 的熵是相等的。 Evaluation only. Created with Aspose.Slides for .NET 3.5 Client Profile 5.2.0.0. Copyright 2004-2011 Aspose Pty Ltd. (4)扩展性:离散事件集 ,增加一个 不可能事件xN+1后,得到集合,δ→0,则两个集合的熵相等 (2)非负性:H(X)? 0 (3)确定性:在集合X = (x1,x2,…,xN)中,若有一个事件是必然事件,则其余事件必为不可能事件,即该集合的概率分布为 Evaluation only. Created with Aspose.Slides for .NET 3.5 Client Profile 5.2.0.0. Copyright 2004-2011 Aspose Pty Ltd. (5)可加性: 集合X = {x1,x2,…,xi,xi+1,…,xN}的概率分布为: 则下式成立: H(X)= H(x1,x2,…,xi,xi+1,…,xN) (2-25) (6)条件熵小于等于无条件熵 即:H (X︱Y) ? H (X) X,Y 统计独立时等号成立。 Evaluation only. Created with Aspose.Slides for .NET 3.5 Client Profile 5.2.0.0. Copyright 2004-2011 Aspose Pty Ltd. (7) 联合熵大于等于独立事件的熵,小于等于两独立事件熵之和,即: (2-26) H (XY) ? H (X) + H (Y) (2-27) Evaluation only. Created with Aspose.Slides for .NET 3.5 Client Profile 5.2.0.0. Copyright 2004-2011 Aspose Pty Ltd. 2.3离散集的平均互信息量 如果将发送符号与接收符号看成两个不同的“信源”,则通过信道的转移概率来讨论信息的流通问题,一次通信从发送到接收究竟能得到多少信息量呢,这就是本节要讨论的平均互信息量。 1.平均互信息量 定义xi ∈ X和yj ∈ Y之间的互信息量为I(xi ;yj ),在集合X上对I(xi ;yj )进行概率加权统计平均,可得I(X;yj)为: (2-28) 2.3.1 平均互信息量 Evaluation only. Created with Aspose.Slides for .NET 3.5 Client Profile 5.2.0.0. Copyright 2004-2011 Aspose Pty Ltd. 再将式(2-28)对集合Y进行统计平均,就可以得到平均互信息量

文档评论(0)

ayangjiayu3 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档