信息论与代码2第2章ppt.ppt

  1. 1、本文档共33页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
信息论与代码2第2章ppt

2.2 离散信源熵和互信息 2.2.1 自信息量 2.2.2 离散信源熵 信源发出某一符号 后,它提供多少信息量?这就是要解决信息的度量问题。 在通信的一般情况下,收信者所获取的信息量,在数量上等于通信前后不确定性的消除(减少)的量。 1. 定义:任意随机事件的自信息量定义为该事件发生概率的对数的负值。 如:定义为具有概率为p(xi)的符号xi的自信息量为 I (xi)= - log p(xi) 说明:自信息量的单位与所用的对数的底数有关。 对数底数为2,信息量单位为比特(bit); 对数底数为e,信息量单位为奈特(nat); 对数底数为10,信息量单位为笛特(det); 3个信息量单位之间的转化关系为: 1 nat = log2 e = 1.433 bit 1 det = log210 = 3.322 bit 2. 随机事件的不确定性 出现概率大的随机事件,包含的不确定性小,即自信息量小; 出现概率小的随机事件,包含的不确定性大,即自信息量大; 出现概率为1的随机事件,包含的不确定性为0,即自信息量为0; 3. 不确定度与自信息量: 信源符号自信息量:指某一符号出现后,提供给收信者的信息量; 信源符号不确定度:它是信源符号固有的,不管符号是否发出,都存在不确定度。 信源符号自信息量与信源符号不确定度在数量上相等,两者单位也相同。 4. 自信息量的特性: 1     , 2     , 3 非负性; 4 单调递减性; 5 可加性: 5. 联合自信息量与条件自信息量 例2-3:英文字母中“e”的出现概率为0.105,“o”的出现概率为0.001。分别计算它们的自信息量。 解: “e”的自信息量 I (e)= - log2 0.105 =3.25bit; “o”的自信息量 I (o)= - log2 0.001=9.97 bit; 例: 居住某地区的女孩中有25%是大学生,在女大学生中有75%身高为1.6m以上,而女孩中身高1.6m以上的占总数一半。假如得知“身高1.6m以上的某女孩是大学生”的消息,问获得多少信息量? 解:设x1为女孩是大学生; x2为身高1.6m以上的女孩; 则p( x1)=1/4 ; p (x2)=1/2; “女大学生中有75%身高为1.6m以上”即 p(x2 | x1)=3/4; 事件“身高1.6m以上的某女孩是大学生”出现的概率为 则信息量 2.2.2 离散信源熵 1. 平均自信息量 对于一个给定信源,各个符号的自信息量是与各自的概率分布有关的一个随机变量,不能作为信源总体的信息量度,我们采用求平均的方法。定义自信息量的数学期望为信源的平均自信息量,即 单位 2. 信源熵(信源的平均不确定度) 信源熵H(X),表示平均意义上信源的总体特性,是在总体平均意义上的信源不确定性。 信源熵在数量上等于平均自信息量, 但两者的含义不同: 平均自信息量:消除信源不确定度时所需要的信息的量度,即收到一个信源符号,全部解除了这个符号的不确定度。或者说,获得这样大的信息量后,信源不确定度就被消除了。 信源平均不确定度(信源熵) :在总体平均意义上的信源不确定度。不管是否输出符号,只要这些符号具有某种概率分布,就决定了信源的平均不确定度(信源熵)。 例2-5 设信源符号集X={x1,x2,x3},每个符号发生的概率分别为p(x1)=1/2, p(x2)=1/4, p(x3)=1/4,求信源熵H(X)。 解: 即该信源中平均每个符号所包含的信息量为1.5bit。 例: 已知某信源的概率空间为 求由该信源发出60个符号构成的消息所含的信息量。 解:先求平均每个符号的信息量,即信息熵 则消息所含的信息量为 60×H(X)=114.3bit 3. 联合熵和条件熵 (1)联合熵(共熵) 联合熵是联合符号集合(X,Y)的每个元素对 的自信息量的概率加权统计平均值,它表示X和Y同时发生的不确定度。定义为 (2)条件熵 条件熵是在联合符号集合(X,Y)上的条件自信息量的联合概率加权统计平均值。 H(X|Y)表示已知Y后,X的不确定度。 它表示信源Y发符号 yj 的前提下,信源X每发

文档评论(0)

jgx3536 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:6111134150000003

1亿VIP精品文档

相关文档