信息论 - 第2章.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论 - 第2章

联合熵 二维平稳信源X的信息熵的近似值 条件熵 已知前面一个符号 时,输出下一个符号的平均不确定性 输出第二个符号总的平均不确定性(条件熵) 联合熵与条件熵的关系(熵的强可加性) 条件熵与无条件熵的关系 对于一般的离散平稳有记忆信源 信源符号之间的依赖长度为N, 则其联合熵为 极限熵 例题 某一离散二维平稳信源 且 发出的符号只与前一个符号有关,联合概率为 求信源符号之间无依赖关系时信源X的信息熵,有依赖关系时二维信源的条件熵与联合熵。 0 1 2 0 1/4 1/18 0 1 1/18 1/3 1/18 2 0 1/18 7/36 条件概率 为 0 1 2 0 9/11 1/8 0 1 1/11 3/4 2/9 2 0 1/8 7/9 信源符号之间无依赖性时,信源X的信息熵为 (比特/符号) 考虑符号之间有依赖性时,条件熵为 (比特/符号) 联合熵为 (比特/二个符号) (比特/符号) 熵的近似值 一个平面上刻有6行8列的棋型方格,若有二个质点A和B, 分别以等概率落入任一方格内,且它们的坐标分别为(XA, ,YA),(XB ,YB),但A, B不能落入同一方格内。 (1)若仅有质点A, 求A落入任一格的平均自信息量是多少?(5.58) (2)若已知A落入,求B落入的平均自信息量。(5.55) (3)若A,B是可辨的,求A,B同时落入的平均自信息量。(11.14) 例题 (1)A落入任一格的平均自信息量 (比特) (2)已知A落入,B再落入的平均自信息量 ( 比特) (3)A,B同时落入的平均自信息量 (比特) 马尔科夫信源 例子:有一个信源,输出符号的符号集为{0,1}。此信源输出的符号序列遵守下面的规则: 当前面两位符号是00时,输出符号0的概率为0.8,输出符号1的概率为0.2; 当前面两位符号是01时,输出符号0的概率为0.5,输出符号1的概率为0.5; 当前面两位符号是10时,输出符号0的概率为0.5,输出符号1的概率为0.5; 当前面两位符号是11时,输出符号0的概率为0.2,输出符号1的概率为0.8. 马尔科夫信源 E2 E3 E4 E5 E1 信源符号集 信源状态 (1)某一时刻信源符号的输出只与此刻信源所处的状态有关,而与以前的状态及以前的输出符号无关 (2)信源某时刻所处的状态由当前的输出符号和前一时刻信源的状态唯一决定 时齐的马尔科夫信源 状态转移概率和已知状态下发出符号的概率均与时间无关的马尔科夫信源 m阶马尔科夫信源 m阶有记忆离散信源的数学模型可由一组信源符号集和一组条件概率确定: 并满足 状态 则信源的状态集 马尔科夫信源的信息熵 时齐、遍历的马尔科夫信源的信息熵 其中 为状态 出现的概率 例题 二元二阶马尔科夫信源的符号集为[0,1],条件概率为 求各状态之间的转移概率与马尔科夫信源的信息熵。 信源有qm=22=4种可能状态,E1=00,E2=01,E3=10,E4=11 状态转移图为 00 01 11 10 0:0.8 0:0.5 1:0.2 0:0.5 1:0.5 1:0.5 0:0.2 1:0.8 其他状态转移概率为0 解方程组,可得 信源的熵 (比特/符号) 信源的剩余度 一个离散信源的符号集为A, B, C, D组成的集合,在信道中传输每个符号所需的时间为5ms。 (1)不同字母等概率出现时,计算传输的平均信息速率? (2)若每个字母出现的概率分别为pA=1/2, pB=1/4, pC=1/8,pD=1/8,试计算传输的平均信息速率? 例题 1)不同字母等概率出现时,平均每个字母含有的信息量为 比特/符号 一秒钟可以传输的字母个数为 字母/秒 传输的平均信息速率为 比特/秒 2)概率不同时,平均每个字母含有的信息量为 比特/符号 传输的平均信息速率为 比特/秒 信源的剩余度 熵的相对率:信源实际的信息熵与具有同样符号集的最大熵的比值 信源剩余度:1减去熵的相对率 自然语言的熵 英文字母组成的信源的最大熵

文档评论(0)

wyjy + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档