1.3信息及其度量.pptVIP

  • 28
  • 0
  • 约2.44千字
  • 约 11页
  • 2017-05-30 发布于湖北
  • 举报
1.3信息及其度量概要

连续信号的信息量 关于连续消息的信息量可以用概率密度函数来描述。可以证明,连续消息的平均信息量为 式中,f (x) - 连续消息出现的概率密度。 * 第 1 章 绪论 * 第 1 章 绪论 前已指出,信号是消息的载体,而信息是其内涵。任何信源产生的输出都是随机的,也就是说,信源输出是用统计方法来定性的。对接收者来说,只有消息中不确定的内容才构成信息;否则,信源输出已确切知晓,就没有必要再传输它了。因此,信息含量就是对消息中这种不确定性的度量。 首先,让我们从常识的角度来感觉三条消息: ① 太阳从东方升起;② 太阳比往日大两倍; ③ 太阳将从西方升起 。 第一条几乎没有带来任何信息, 第二条带来了大量信息,第三条带来的信息多于第二条。 1.3信息及其度量 究其原因,第一事件是一个必然事件,人们不足为奇; 第三事件几乎不可能发生,它使人感到惊奇和意外,也就是说,它带来更多的信息。因此,信息含量是与惊奇这一因素相关联的,这是不确定性或不可预测性的结果。 越是不可预测的事件, 越会使人感到惊奇,带来的信息越多。 根据概率论知识,事件的不确定性可用事件出现的概率来描述。可能性越小,概率越小;反之,概率越大。因此, 消息中包含的信息量与消息发生的概率密切相关。消息出现的概率越小,消息中包含的信息量就越大。假设P(x)是一个消息发生的概率,I是从该消息获悉的信息,根据上面的认知, 显然I与P(x)之间的关系反映为如下规律: (1) 信息量是概率的函数, 即 I=f[P(x)] (2) P(x)越小, I越大; 反之, I越小, 且 P(x)→1时, I→0 P(x)→0时, I→∞ (3) 若干个互相独立事件构成的消息, 所含信息量等于各独立事件信息量之和,也就是说,信息具有相加性, 即 I[P(x1)P(x2)…]=I[P(x1)]+I[P(x2)]+… 综上所述, 信息量I与消息出现的概率P(x)之间的关系应为 (1.3 - 1) 信息量的单位与对数底数a有关。a=2时, 信息量的单位为比特(bit);a=e时,信息量的单位为奈特(nit);a=10时, 信息量的单位为十进制单位,叫哈特莱。目前广泛使用的单位为比特。   [例1–1] 设二进制离散信源,以相等的概率发送数字0或1,则信源每个输出的信息含量为 可见,传送等概率的二进制波形之一(P=1/2)的信息量为1比特。同理,传送等概率的四进制波形之一(P=1/4)的信息量为2比特,这时每一个四进制波形需要用2个二进制脉冲表示;传送等概率的八进制波形之一(P=1/8)的信息量为3比特,这时至少需要3个二进制脉冲。 (1.3 - 2)   综上所述,对于离散信源,M个波形等概率(P=1/M)发送,且每一个波形的出现是独立的,即信源是无记忆的,则传送M进制波形之一的信息量为 (1.3 - 3) 式中, P为每一个波形出现的概率, M为传送的波形数。 若M是2的整幂次,比如M=2K(K=1,2,3, …),则式(1.3 - 3)可改写为 I=log2 2K=K (bit)   (1.3 - 4) 式中, K是二进制脉冲数目,也就是说,传送每一个M(M=2K)进制波形的信息量就等于用二进制脉冲表示该波形所需的脉冲数目K。 如果是非等概情况,设离散信源是一个由n个符号组成的符号集, 其中每个符号xi(i=1, 2, 3, …, n)出现的概率为P(xi), 且有 P(xi)=1, 则x1, x2, …, xn 所包含的信息量分别为-log2P(x1), -log2P(x2), …,-log2P(xn)。于是,每个符号所含信息量的统计平均值,即平均信息量为 H(x)=—P(x1)[log2P(x1)]—P(x2)[log2P(x2)] +…—P(xn)[log2 P(xn)] = 由于H同热力学中的熵形式一样,故通常又称它为信息源的熵,其单位为bit/符号。信息源的最大熵,发生在每一个符号等概率出现时。   例 1 - 2一离散信源由0,1,2,3四个符号组成,它们出现的概率分别为3/8, 1/4, 1/4, 1/8,且每个符号的出现都是独立的。试求某消

文档评论(0)

1亿VIP精品文档

相关文档