信息论 第2章(信息量、熵及互信息量).ppt

  1. 1、本文档共26页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
信息论 第2章(信息量、熵及互信息量)

离散集自信息量的性质 自信息量的计算公式 计算自信息量的例子 自信息量的涵义 自信息量计算的应用 信源熵 平均自信息量——熵的定义 熵的几条性质 计算熵的例子 条件自信息量 计算条件自信息量的例子 互信息量 互信息量的性质 计算互信息量的例子 条件熵的定义 平均互信息量的定义 计算条件熵的例子 * * 信息论基础 The Basis of Information Theory 主题No2:信息量、熵和互信息量 在上一次课中我们提到香农对信息定性的定义——事物运动状态或存在方式的不确定性的描述。事实上,香农对信息不仅作了定性描述,而且还进行了定量分析。 信源发出的消息常常是随机的,具有不确定性。如果信源中某一消息的不确定性越大,一旦发生,并为收信者收到,消除的不确定性就越大,获得的信息也就越大。同时事件发生的不确定性与事件发生的概率有关,概率越小,不确定性就越大。 研究通信系统的目的就是要找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统最优化。 因此,某事件x发生所提供的信息量I(x)应该是该事件发生的先验概率p(x)的函数: I(x)=f(p(x)) (4)当p(x)=0时,I(x)=∞:表示不可能事件一旦发生,信息量将无穷大。 且应满足以下四点: (1)I(x)应该是事件概率p(x)的单调递减函数; (2)信息量应具有可加性:对于两个独立事件,其信息量应等于各自信息量之和; (3)当p(x)=1时,I(x)=0:表示确定事件发生得不到任何信息; 综合上述条件,在概率上已经严格证明了 自信息量的单位:若这里的对数底取2,则单位为比特bit,由于在计算机上是二进制,我们一般都采用比特。其他单位以及相互之间转换关系查阅教材。 其中p(x)为消息的先验概率。 例1:信源消息X={0,1,2} 的概率模型如下: 1/2 1/6 1/3 P(xi) 2 1 0 xi 1/2 1/6 1/3 P(xi) log2 log6 log3 I(xi) 2 1 0 xi 则该信源各消息的自信息量分别为: 单位:比特 自信息量代表两种含义: 二、当事件x发生以后,I(x)表示事件x所提供的信息量(在无噪情况下)。 在通信系统模型中,不仅可以用自信息量来研究信源中的每个消息,对信宿也可同样可以。 一、事件x发生以前,I(x)表示事件x发生的不确定性; 例2:假设一条电线上串联了8个灯泡x1,x2,…,x8,这8个灯泡损坏的可能性是等概率的,假设有也只有一个灯泡损坏,用万用表去测量,获得足够的信息量,才能获知和确定哪个灯泡xi损坏。下面就来看我们最少需要获得多少信息量才能判断出。 第三次测量获得的信息量: 故共需要3bit信息量. 第二次测量获得的信息量: [解]第一次测量获得的信息量: 前面我们根据信源或信宿的概率模型,通过自信息量的计算,能得到信源以及信宿中每个消息的不确定性。然而,事实上,人们往往关注的并不紧紧是每个消息的不确定性,而是整个系统的不确定性的统计特性即整个信源自信息量的统计平均值——熵。 0.5 0.5 P(xi) 1 0 xi 0.01 0.99 P(yi) 1 0 yi 我们先来看一个例子: 例3 有两个信源X和Y: 在现实中,能找到很多类似的模型,我们想知道这两个信源本质的区别在哪里? 设X是一个集合(即信息系统如信源或信道),其概率模型为{xi,p(xi)},则定义系统X的平均自信息量——熵为: 熵的单位是比特/符号. 我们知道,I(xi)是唯一确定xi所需要的信息量,那么H(X)就是唯一确定X中任一事件所需的平均信息量。它反映了X中事件xi出现的平均不确定性。 (4)极值性——最大离散熵定理:设|X|为信源消息的个数,则有H(X)小于等于log|X|,等号当且仅当信源X中各消息等概率时成立,即各消息等概率分布时( p=1/|X|),信源熵最大. (3)确定性:若离散事件是确定事件,则H(X)=0 (2)非负性:H(X)≥0; (1)对称性:熵只和分布有关,不关心某一具体事件对应哪个概率; 例4 计算下面一个信源的熵: 1/16 1/16 1/16 1/16 1/8 1/8 1/4 1/4 q(xi) 111 110 101 100 011 010 001 000 xi [解]由定义有: (比特/符号) 我们再回过头来看一下例3中两个信源熵分别是多少, 结果反映了一个怎样的事实? [例3解答]由定义有: 显然,H(X)H(Y),这表示信源X的平均不稳定性远远大于信源Y的平均不稳定性。 前面我们引入自信息量以及熵的概念,用以描述信源

文档评论(0)

xy88118 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档