信息论重点(新).docVIP

  1. 1、本文档共11页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论重点(新).doc

1.消息定义 信息的通俗概念:消息就是信息,用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来,就成为消息,消息中包含信息,消息是信息的载体。 信号是表示消息的物理量,包括电信号、光信号等。信号中携带着消息,信号是消息的载体。 信息的狭义概念(香农信息):信息是对事物运动状态或存在方式的不确定性的描述。 信息的广义概念 信息是认识主体(人、生物、机器)所感受的和表达的事物运动的状态和运动状态变化的方式。 语法信息(语法信息是指信息存在和运动的状态与方式。) 语义信息(语义信息是指信宿接收和理解的信息的内容。) 语用信息(语用信息是指信息内容对信宿的有用性。) 2.狭义信息论、广义信息论。 狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。 广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。 3.自信息 互信息 定义 性质及物理意义 自信息量: 是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特;对数底为e时,其单位为奈特;对数底为10时,其单位为哈特自信息量性质:I(xi)是随机量;I(xi)是非负值;I(xi)是P(xi)的单调递减函数。 互信息量互信息量的性质:1) 2) 互信息可为零 3) 互信息可为正值或负值 4) 任何两个事件之间的互信息不可能大于其中任一事件的自信息 互信息物理意义: 1.表示事件 yj 出现前后关于事件xi 的不确定性减少的量 2.事件 yj 出现以后信宿获得的关于事件 xi的信息量 4.平均自信息性质 平均互信息性质 平均自信息(信息熵/信源熵/香农熵/无条件熵/熵函数/熵): 熵函数的数学特性包括: (1)对称性 p=(p1p2…pn)各分量次序可调换 (2)确定性p中只要有为1的分量,H(p)为0 (3)非负性离散信源的熵满足非负性,而连续信源的熵可能为负。H(p)大于等于0 (4)扩展性扩展性说明,增加一个概率接近于零的事件,信源熵保持不变。 虽然小概率事件出现后,给予收信者较多的信息,但从总体来考虑时,因为这种概率很小的事件几乎不会出现,所以它对于离散集的熵的贡献可以忽略不计。这也是熵的总体平均性的一种体现。 (5)连续性 (6)递增性 (7)极值性(最大离散熵定理) (8)上凸性 H(p1,p2…,pn)是概率分布(p1,p2…,pn)的严格上凸函数,即 詹森不等式:如果f为一个上凸函数,X为一个随机变量,则: 平均互信息 I(X;Y)=H(X)-H(X|Y) =H(Y)(H(Y|X)=H(X)+H(Y)(H(XY) 性质 1.对称性:I(X;Y)=I(Y;X) 2.非负性I(X;Y)0 3.极值性I(X;Y) ( min{H(X),H(Y)} 5.条件熵 联合熵 随机变量X和Y的条件熵定义为: 条件熵表示已知一个随机变量时,对另一个随机变量的平均不确定性。 条件熵: 疑义度: 噪声熵: 联合熵:联合熵表示对于二维随机变量的平均不确定性。 各种熵之间的关系 H(XY)=H(X)+H(Y|X)=H(Y)+H(X|Y) H(X|Y)(H(X),H(Y|X)(H(Y) H(XY)(H(X)+H(Y) 若X与Y统计独立,则H(XY)=H(X)+H(Y) 6.信源概率空间 通常把一个随机变量的样本空间和样本空间中的元素对应的概率称为概率空间。 离散单符号信源X的概率空间: 离散多符号信源可以用随机矢量/随机变量序列来描述,即 X=X1X2LXnL 其中每个符号取值于同一个单符号信源空间: 7.信源熵 信源熵: 信息熵表示离散单符号信源的平均不确定性 信源熵具有以下三种物理含意: – 信息熵H(X)表示信源输出后,每个离散消息所提供的平均信息量。 – 信息熵H(X)表示信源输出前,信源的平均不确定性。 – 信息熵H(X)反映了变量X 的随机性 8.多符号与条件熵的关系 1.条件熵随着N的增加是递减的 2.N给定时 平均符号熵=条件熵 3.平均符号熵随N的增加而减小 4.若H(X1)∞ 则 N次扩展信源的熵: 离散平稳无记忆信源的N次扩展信源的熵等于离散单符号信源熵的N倍: 离散平稳无记忆信源的熵率: 9.连续信源熵 单变量连续信源的数学模型 定义连续信源的相对熵:。相对熵不能反映连续信源的平均不确

文档评论(0)

docinppt + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档