zyw 2信息熵和互信息.pptVIP

  1. 1、本文档共104页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
zyw 2信息熵和互信息

第二章 信源及其信息测度 第一节 信源的数学模型和分类 本章重点 离散/连续信源熵 第一节 信源的数学模型和分类 第一节 信源的数学模型和分类 第一节 信源的数学模型和分类 第一节 信源的数学模型和分类 第一节 信源的数学模型和分类 第一节 信源的数学模型和分类 第二节 离散信源熵 问题: 什么叫不确定度? 什么叫自信息量? 什么叫平均不确定度? 什么叫信源熵? 什么叫平均自信息量? 什么叫条件熵? 什么叫联合熵? 联合熵、条件熵和熵的关系是什么? 第二节 离散信源熵 什么叫后验概率? 什么叫互信息量? 什么叫平均互信息量? 什么叫疑义度? 什么叫噪声熵(或散布度)? 数据处理定理是如何描述的? 熵的性质有哪些? 2.2 自信息量 定义:一个随机事件的自信息量定义为其出现概率对数的负值。即: 2.2 自信息量 自信息量的单位的确定 在信息论中常用的对数底是2,信息量的单位为比特(bit); 若取自然对数,则信息量的单位为奈特(nat); 若以10为对数底,则信息量的单位为笛特(det)。 这三个信息量单位之间的转换关系如下: 1 nat=log2e l.433 bit, l det=log210 3.322 bit 几个例子 一个以等概率出现的二进制码元(0,1)所包含的自信息量为: I(0)= I(1)= - log2 (1/2)=log22=1 bit 2.2 自信息量 定义:随机事件的不确定度在数量上等于它的自信息量. 说明: 两者的单位相同,但含义却不相同。 具有某种概率分布的随机事件不管发生与否,都存在不确定度,不确定度表征了该事件的特性,而自信息量是在该事件发生后给予观察者的信息量。 2.2 自信息量 两个消息ai,bj同时出现的联合自信息量 注意: 当ai,bj相互独立时,有P(aibj)=P(ai)P(bj),那么就有 I(aibj)=I(ai)+I(bj)。 aibj所包含的不确定度在数值上也等于它们的自信息量。 2.2 自信息量 定义:在事件bj出现的条件下,随机事件ai发生的条件概率为 ,则它的条件自信息量定义为条件概率对数的负值: 例2-2-1 英文字母中“e” 出现的概率为0.105,“c”出现的概率为0.023,“o”出现的概率为0.001。分别计算它们的自信息量。 解:“e”的自信息量 I(e)= - log2 0.105=3.25 bit “c”的自信息量 I(c)= -log2 0.023=5.44 bit “o”的自信息量 I(o)= -log2 0.001=9.97 bit 例 设在一正方形棋盘上共有64个方格,如果甲将一粒棋子随意地放在棋盘中的某方格内,让乙猜测棋子所在的位置: (1)将方格按顺序编号,令乙猜测棋子所在方格的顺序号 (2)将方格按行和列编号,甲将棋子所在的方格的行(或列)编号告诉乙,再令乙猜测棋子所在列(或行)所在的位置。 解:由于甲将一粒棋子随意地放在棋盘中的某方格内,因此棋子在棋盘中所处位置为二维等概率分布 (1)联合(自)信息量为 (2)条件(自)信息量为 2.2离散信源熵 一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量。 解: 依据题意 这一随机事件的概率空间为 其中:a1表示摸出的球为红球事件,a2表示摸出的 球是白球事件 . 如果摸出的是红球,则获得的信息量是 I(a1)= -log2p(a1)= - log20.8 bit 如果摸出的是白球,则获得的信息量是 I(a2)= -log2p(a2)= -log20.2 bit 说明: 则平均随机摸取一次所获得的信息量为 H(X)= 1/n[nP(a1)I(a1)+nP(a2)I(a2)] = -[P(a1)log2P(a1)+P(a2)log2P(a2)] 因为X中各符号xi的不确定度I(ai)为非负值,P(ai)也是非负值,且0 P(ai)1,故信源的平均不确定度H(X)也是非负量。 平均不确定度H(X)的定义公式与热力学中熵的表示形式相同,所以又把H(X)称为信源X的熵。熵是在平均意义上来表征信源的总体特性的,可以表征信源的平均不确定度。 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,必有信源的熵值;这熵值

文档评论(0)

hello118 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档