信息论培训课程总结.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论课程总结 信息论的基本概念与术语 信号,消息,数据,知识,情报。 信息的定义。(香农信息) 信息的主要特征。 信息的重要性质。 信息的分类。 信息技术的基本内容。 思考题: 信息是什么? 信息的基本特征是什么? 信息与信号、消息、数据、知识、情报有那些差别? 怎样进行信息分类? 信息技术的 “四基元”是什么? 为什么说数学是信息科学的基础? 信息量、熵和不确定度: 自信息量、条件自信息量、联合自信息量、互信息量。 不确定度。 熵、条件熵、联合熵、平均互信息。 应用: 如何利用它们的性质和相互关系计算各种信源、随机变量和事件的相应信息度量 。 两个基本定理: 最大熵定理。 信息不增原理。 几种研究对象: 离散单符号信源。 离散无记忆序列信源。 离散有记忆序列信源。 (主要是马尔可夫信源) 连续信源。 需掌握的重点: 各种定义、概念的实际含义。 各种信息量和熵的计算方法。 难点: 条件熵、联合熵和平均互信息量的计算。 序列熵的计算。 马尔可夫信源熵的计算。 马尔可夫信源熵的计算方法: 根据题意画出状态图,判断是否是齐次遍历的马尔可夫信源。 写出状态转移概率矩阵,计算状态稳定后的极限概率分布。 根据状态转移概率矩阵和极限概率分布,计算信源的极限熵。 信道的信息传输率: 由于在平均意义上,一个符号流经信道的平均信息量为I(X;Y),所以,信道的信息传输率为: R=I(X;Y)=H(X)-H(X|Y) bit/符号 若平均传输一个符号的时间为t秒,则信道每秒众平均传输的信息量为: Rt=I(X;Y) /t bit/s 离散无噪信道 (一一对应的无噪信道) 离散信道容量的一般计算办法; 连续信道的信道容量。 复习思考题: 随机事件的不确定度和它的自信息量之间的关系及区别? 单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义? 互信息量的性质?含义?分别从输入端、输出端和系统总体来理解互信息量的含义。 各种熵(信源熵,条件熵,联合熵(共熵),等)的含义及其关系。 熵的基本性质与定理及其理解? 平均互信息量的定义及物理意义?疑义度及噪声熵? 平均互信息量的性质及理解? 最大离散熵定理。 数据处理定理及其含义。 信源的种类(详细分类)。 离散平稳信源的定义,平均符号熵,极限熵的定义,含义与理解。 马尔可夫信源的定义,含义及其极限熵? 连续信源的熵的定义? 几种特殊连续信源的熵? 信道容量的定义与计算办法。 例: 若你在不知道今天是星期几的情况下,问你的朋友“明天是星期几?”,从答案中能获得多少信息量?如果你在已经知道今天是星期四的情况下,提出同样的问题,能从答案中获得多少信息量? 解: 设事件A为:不知道今天是星期几的情况下,问 “明天是星期几?”的答案。 设事件B为:知道今天是星期四的情况下,问 “明天是星期几?”的答案。 则:P(A)=1/7, P(B)=1 I(A)=log27≈2.807 比特 I(B)=log21=0 比特 习题1: 从统计资料知道,男性中红绿色盲的发病率为7%,女性为0.5%,如果你问一个男同志,“你是否是红绿色盲?”他的回答可能是“是”,可能是“否”,问:两个回答各含有多少信息量?平均每个回答含有多少信息量?,如果是女同志,结果又如何? 习题2: 设有一个信源,它产生0,1序列的消息,它在任何时间而且不论以前发出过什么符号,均按P(0)=0.4,P(1)=0.6的概率发出符号。 (1)试问该信源是否是平稳的? (2)计算 定义:信道容量C C=max I(X;Y)=max [ H(X)-H(X/Y)] =max [ H(Y)-H(Y/X)] P(Xi) P(Xi) P(Xi) P(Xi) 信道最大信息传输速率 此时,H(X/Y)=0 此时,C = max H(X) = log n 例:二元对称信道BSC(Binary Symmetric Channel) BSC的信道容量为: * *

文档评论(0)

huhuaqiao001 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档