- 1、本文档共11页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
1.3 信息及其度量
前已指出,信号是消息的载体,而信息是其内涵。任何信源产生的输出都是随机的,也就是说,信源输出是用统计方法来定性的。对接收者来说,只有消息中不确定的内容才构成信息;否则,信源输出已确切知晓,就没有必要再传输它了。因此,信息含量就是对消息中这种不确定性的度量。
首先,让我们从常识的角度来感觉三条消息: ① 太阳从东方升起;② 太阳比往日大两倍; ③ 太阳将从西方升起 。 第一条几乎没有带来任何信息, 第二条带来了大量信息,第三条带来的信息多于第二条。 ; 究其原因,第一事件是一个必然事件,人们不足为奇; 第三事件几乎不可能发生,它使人感到惊奇和意外,也就是说,它带来更多的信息。因此,信息含量是与惊奇这一因素相关联的,这是不确定性或不可预测性的结果。 越是不可预测的事件, 越会使人感到惊奇,带来的信息越多。
根据概率论知识,事件的不确定性可用事件出现的概率来描述。可能性越小,概率越小;反之,概率越大。因此, 消息中包含的信息量与消息发生的概率密切相关。消息出现的概率越小,消息中包含的信息量就越大。假设P(x)是一个消息发生的概率,I是从该消息获悉的信息,根据上面的认知, 显然I与P(x)之间的关系反映为如下规律: ; (1) 信息量是概率的函数, 即
I=f[P(x)]
(2) P(x)越小, I越大; 反之, I越小, 且
P(x)→1时, I→0
P(x)→0时, I→∞
(3) 若干个互相独立事件构成的消息, 所含信息量等于各独立事件信息量之和,也就是说,信息具有相加性, 即
I[P(x1)P(x2)…]=I[P(x1)]+I[P(x2)]+…
; 综上所述, 信息量I与消息出现的概率P(x)之间的关系应为
(1.3 - 1)
信息量的单位与对数底数a有关。a=2时, 信息量的单位为比特(bit);a=e时,信息量的单位为奈特(nit);a=10时, 信息量的单位为十进制单位,叫哈特莱。目前广泛使用的单位为比特。 ; [例1–1] 设二进制离散信源,以相等的概率发送数字0或1,则信源每个输出的信息含量为
可见,传送等概率的二进制波形之一(P=1/2)的信息量为1比特。同理,传送等概率的四进制波形之一(P=1/4)的信息量为2比特,这时每一个四进制波形需要用2个二进制脉冲表示;传送等概率的八进制波形之一(P=1/8)的信息量为3比特,这时至少需要3个二进制脉冲。 ; 综上所述,对于离散信源,M个波形等概率(P=1/M)发送,且每一个波形的出现是独立的,即信源是无记忆的,则传送M进制波形之一的信息量为
(1.3 - 3)
式中, P为每一个波形出现的概率, M为传送的波形数。 若M是2的整幂次,比如M=2K(K=1,2,3, …),则式(1.3 - 3)可改写为
I=log2 2K=K (bit) (1.3 - 4)
式中, K是二进制脉冲数目,也就是说,传送每一个M(M=2K)进制波形的信息量就等于用二进制脉冲表示该波形所需的脉冲数目K。 ; 如果是非等概情况,设离散信源是一个由n个符号组成的符号集, 其中每个符号xi(i=1, 2, 3, …, n)出现的概率为P(xi), 且有 P(xi)=1, 则x1, x2, …, xn 所包含的信息量分别为-log2P(x1), -log2P(x2), …,-log2P(xn)。于是,每个符号所含信息量的统计平均值,即平均信息量为
H(x)=—P(x1)[log2P(x1)]—P(x2)[log2P(x2)] +…—P(xn)[log2 P(xn)]
=; 例 1 - 2一离散信源由0,1,2,3??个符号组成,它们出现的概率分别为3/8, 1/4, 1/4, 1/8,且每个符号的出现都是独立的。试求某消息201020130213001203210100321010023102002010312032100120210的信息量。
解 此消息中,0出现23次,1出现14次,2出现13次,3出现7次,共有57个符号,故该消息的信息量为;每个符号的算术平均信息量为; 可见,两种算法的结果有一定误差,但当消息很长时, 用熵的概念来计算比较方便。 而且随着消息
文档评论(0)