信息论课程总结.ppt

  1. 1、本文档共22页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论课程总结信息论的基本概念与术语信号,消息,数据,知识,情报。信息的定义。(香农信息)信息的主要特征。信息的重要性质。信息的分类。信息技术的基本内容。思考题: 信息是什么?信息的基本特征是什么?信息与信号、消息、数据、知识、情报有那些差别?怎样进行信息分类?信息技术的“四基元”是什么?为什么说数学是信息科学的基础?信息量、熵和不确定度:自信息量、条件自信息量、联合自信息量、互信息量。不确定度。熵、条件熵、联合熵、平均互信息。应用:如何利用它们的性质和相互关系计算各种信源、随机变量和事件的相应信息度量。两个基本定理:最大熵定理。信息不增原理。几种研究对象:离散单符号信源。离散无记忆序列信源。离散有记忆序列信源。(主要是马尔可夫信源)连续信源。需掌握的重点:各种定义、概念的实际含义。各种信息量和熵的计算方法。难点:条件熵、联合熵和平均互信息量的计算。序列熵的计算。马尔可夫信源熵的计算。马尔可夫信源熵的计算方法:根据题意画出状态图,判断是否是齐次遍历的马尔可夫信源。写出状态转移概率矩阵,计算状态稳定后的极限概率分布。根据状态转移概率矩阵和极限概率分布,计算信源的极限熵。信道的信息传输率: 由于在平均意义上,一个符号流经信道的平均信息量为I(X;Y), 所以,信道的信息传输率为: R=I(X;Y)=H(X)-H(X|Y) bit/ 符号若平均传输一个符号的时间为t秒,则信道每秒众平均传输的信息量为: Rt=I(X;Y) /t bit/s 离散无噪信道(一一对应的无噪信道)离散信道容量的一般计算办法;连续信道的信道容量。复习思考题:随机事件的不确定度和它的自信息量之间的关系及区别?单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义?互信息量的性质?含义?分别从输入端、输出端和系统总体来理解互信息量的含义。各种熵(信源熵,条件熵,联合熵(共熵),等)的含义及其关系。熵的基本性质与定理及其理解?平均互信息量的定义及物理意义?疑义度及噪声熵?平均互信息量的性质及理解?最大离散熵定理。数据处理定理及其含义。信源的种类(详细分类)。离散平稳信源的定义,平均符号熵,极限熵的定义,含义与理解。马尔可夫信源的定义,含义及其极限熵?连续信源的熵的定义?几种特殊连续信源的熵?信道容量的定义与计算办法。例:若你在不知道今天是星期几的情况下,问你的朋友“明天是星期几?”,从答案中能获得多少信息量?如果你在已经知道今天是星期四的情况下,提出同样的问题,能从答案中获得多少信息量?解:设事件A为:不知道今天是星期几的情况下,问“明天是星期几?”的答案。设事件B为:知道今天是星期四的情况下,问“明天是星期几?”的答案。则:P(A)=1/7, P(B)=1 I(A)=log27≈2.807 比特I(B)=log21 =0 比特习题1:从统计资料知道,男性中红绿色盲的发病率为7%,女性为0.5 %,如果你问一个男同志,“你是否是红绿色盲?”他的回答可能是“是”,可能是“否”,问:两个回答各含有多少信息量?平均每个回答含有多少信息量?,如果是女同志,结果又如何?习题2:设有一个信源,它产生0,1序列的消息,它在任何时间而且不论以前发出过什么符号,均按P(0)=0.4,P(1)=0.6 的概率发出符号。(1)试问该信源是否是平稳的?(2)计算* * 管理资源吧( ),提供海量管理资料免费下载!定义:信道容量C C =max I(X ;Y)=max [ H(X)-H(X/Y)] =max [ H(Y)-H(Y/X)] P(Xi) P(Xi) P(Xi) P(Xi) 信道最大信息传输速率此时,H(X/Y)=0 此时,C = max H(X) = log n 例:二元对称信道BSC (Binary Symmetric Channel )BSC 的信道容量为:*

文档评论(0)

忐忑 + 关注
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档