第2章 节 信源熵-多符号离散信源熵 信息论 .pptVIP

第2章 节 信源熵-多符号离散信源熵 信息论 .ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第2章 节 信源熵-多符号离散信源熵 信息论 .ppt

4、熵率 信源各消息符号自信息量的数学期望为该信源的熵率,也叫平均符号熵,用HN(X1X2…XN)表示。 定义 表示 熵率的单位为比特/符号(bit/symbol) 。 例2 xi2 xi1 x1 x2 x3 x1 7/9 2/9 0 x2 1/8 3/4 1/8 x3 0 2/11 9/11 信源的平均符号熵 三、离散平稳无记忆信源及其熵 定义 多符号离散信源对任意两个不同时间起点k和l,其概率分布及直到N维的各维联合概率分布都相同,该信源为N维离散平稳信源。 1、离散平稳信源 取l=1,N维离散平稳信源 信源熵 2011年2月 信息论导论 通信与信息工程学院 杨海芬 yanghf@uestc.edu.cn 单符号离散信源、自信息量、熵; 熵的严格上凸性 最大熵定理 习题 多符号离散信源、联合自信息量、联合熵; 条件自信息量、条件熵 离散平稳信源、联合熵 离散平稳无记忆信源、联合熵 信源熵第二讲 二、多符号离散信源及其熵 如果任何时刻信源发出的消息都是有限或可数的符号序列,而这些符号都取值于同一个有限或可数的集合,则该信源为多符号离散信源。* 1、多符号离散信源 定义 多符号离散信源发出的符号序列记为 序列中任一符号都取值于同一集合 表示 例1 例1 x1 x2 x3 x1 7/9 2/9 0 x2 1/8 3/4 1/8 x3 0 2/11 9/11 xi2 xi1 求信源各消息的联合自信息量 ?Q1 x1 x2 x3 x1 7/9 2/9 0 x2 1/8 3/4 1/8 x3 0 2/11 9/11 xi2 xi1 求信源各消息的联合自信息量 例1 Q2: P(A|B) 等于 P(B|A)吗? Q3:概率为0事件的信源熵。 不是概率越小信息量越大吗? 条件概率谬论 数学家John Allen Paulos 《数学盲》 例子 若想分辨某些个体是否有重大疾病,以便早期治疗,我们可能会对一大群人进行检验。虽然其益处明显可见,但同时,检验行为有一个地方引起争议,就是有检出假阳性的结果的可能。这个问题的重要性,最适合用条件概率的观点来解释。 假设人群中有1%的人罹患此疾病, P(disease) = 1% = 0.01 P(well) = 99% = 0.99. 假设检验动作实施在未患病的人身上时,有1%的机率其结果为假阳性(阳性以positive表示) P(positive/well) = 1% P(negative/well) = 99%. 假设检验动作实施在患病的人身上时,有1%的机率其结果为假阴性(阴性以negative表示) P(negative/disease) = 1% P(positive/disease) = 99%。 求某人被测出为阳性时,实际上真的得了病的机率P(disease/positive) P(well negative)=p(well)* P(negative/well) =0.9801 P(diseasepositive)= 0.0099 P(wellpositive)=0.0099 P(diseasenegative)=0.0001 P(positive)=0.0099+ 0.0099=0.0198 P(disease/positive) = P(diseasepositive)/ p(positive)=0.5 比较P(positive|disease)=99% 被测定为阳性者,其中的半数实际上是假阳性。 某人被测出为阳性时,实际上真的得了病的机率 Q3:概率为0事件的信源熵。 不是概率越小信息量越大吗? A3:熵的确定性,即 这个性质意味着从总体来看,信源虽然有不同的输出符号,但它只有一个符号几乎必然出现,而其它符号都是几乎不可能出现,那么,这个信源是一个确知信源,其熵等于零。 Q4:多符号离散信源的表达 信源各消息的联合自信息量 3、联合熵 信源各消息联合自信息量的数学期望为该信源的熵,也叫联合熵,用H(X1X2…XN)表示。 定义 表示 称为条件熵 熵的链接准则 条件熵*p16 条件熵为什么要用联合概率? 条件熵小于无条件熵 (1) 条件熵小于信源熵,即 仅当X1,X2相互独立时,等号成立 (2)两个条件下的条件熵小于一个条件下的熵 (3)联合熵小于信源熵之和,即 仅当X1,X2相互独立时,等号成立,联合熵达到最大值。 熵的界 证明 证明 … 例1 xi2 xi1 x1 x2 x3 x1 7/9 2/9 0 x2 1/8 3/4 1/8 x3 0 2/11 9/11 求(X1,X2)信源的联合熵 信源的联合熵 * * 信源熵

文档评论(0)

yuzongxu123 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档