现代通信原理技术和仿真第1章 绪论.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
现代通信原理技术和仿真第1章 绪论

   1.1 通信技术的发展与展望   1. 通信的发展简史   2. 中国通信的发展历程   1.2 信息、 信息量与信道容量公式 1.2.1 消息、 信号与信息   简单地讲, 信息就是消息或信号随机变化中的“不确定性”, 是消息中所含的待知的本质内容。 获取信息就是消除对消息的不确定性。 信息是一个含义广泛、 抽象的概念。 各种随机变化的消息都含有一定量的信息, 如社会科学中的经济信息、 生活信息和科研中的地震信息、 气象信息等。 1.2.2 信息量   信息论中定义消息包含的信息量为消息出现概率的倒数的对数, 即               (1.1) 式中: I为消息包含的信息量; P为消息出现的概率; a为对数的底。 a取值不同, 信息量的单位不同。 当a为2时, 信息量的单位为比特(bit); 当a为10时, 单位为哈特莱(Hartley); 当a为e时, 单位为奈特(nat)。 一般情况下, 都以比特为信息量的单位, 即取a=2。   例如, 当消息出现的概率P=1/2时, 此消息包含的信息量为1 bit。 若有M个独立等概出现的消息, 每个消息出现的概率为1/M, 则消息的信息量为                        (1.2)   信息量在工程上的定义是指传输该消息所需的最少的二进制脉冲数。 当传输两个互相独立且等概出现的消息时, 要区别这两种消息, 最少需要1位二进制脉冲, 因此该消息出现带来的信息量为1 bit。 若要传输四个独立等概的消息之一, 则至少需2位二进制脉冲, 因此, 消息具有2 bit的信息量。 若有M个独立等概的消息之一要传送, 且满足M=2k(k=1, 2, 3, …), 则此消息可用k个二进制脉冲传递, 即此消息包含的信息量为k bit。 实际上, 该消息的信息量为 I=lbM=lb2k=k (bit)   可以看出, 工程上定义的信息量与直观理解的信息量是一致的。   一般消息是由符号来表达的, 消息所含的信息量即符号所含的信息量, 所以式(1.1)中的P是消息出现的概率, 也就是符号出现的概率。   信息量满足相加性的条件: 如果收到的不是一个而是若干个互相独立的消息, 则总的信息量应该是每个消息的信息量之和, 即                   (1.3) 式中: ni为第i种符号出现的次数; P(xi)为第i种符号出现的概率; m为消息中符号的种类数。 1.2.3 平均信息量   一般来说, 信源可以产生多个独立的消息(或符号), 每个消息发生的概率可能并不相等, 所以每个消息的信息量也不相同。 这种情况下, 通常考虑每个消息(或符号)所含信息量的统计平均值, 称为信源的平均信息量。   信源的平均信息量的计算是由每个消息的信息量按概率加权求和得到的。 例如, 一个信源由A、 B、 C三种符号组成, 出现A的概率为P(A), 出现B的概率为P(B), 出现C的概率为P(C), 则信源的平均信息量为                         (1.4)   更一般地说, 在由n个独立的符号x1, x2, …, xn所构成的信源中, 每个符号出现的概率分别为P(x1),P(x2), …, P(xn), 且      , 则此信源的平均信息量为                     (1.5) 式中, H(x)为信源的平均信息量。 由于H(x)的定义与统计热力学中熵的定义相似, 所以称H(x)为信源的熵(Entropy), 其单位为比特/符号。   【例1.1】 一消息由0、 1、 2、 3四种符号组成, 各符号出现的概率分别为3/8、 1/4、 1/4和1/8。 消息总长57 个符号, 其中0出现23次, 1出现14次, 2出现13次, 3出现7次。 求该消息的总信息量。   解: 解法一: 利用信息量的相加性计算, 即   解法二: 利用平均信息量计算, 即   由此可见, 两种方法计算的信息量相差很小, 消息的符号越多, 其误差也越小。   【例1.2】 某信源的符号集由A、 B、 C、 D和E组成, 设每一个符号独立出现, 出现的概率分别为1/4、 1/8、 1/8、 3/16和5/16。 试求该信源的平均信息量。   解: 信源的平均信息量即为信源的熵, 由式(1.5)得:   如

文档评论(0)

189****7685 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档