数字通信原理第1章-自学要点.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
* 1.2.2通信方式 1. 按消息传递的方向与时间关系分 单工通信: 指消息只能单方向传输的工作方式 只占用一个信道 发端 信 道 收端 ( a ) 单工 A B 实例:广播、遥测、遥控、无线寻呼等。 * 半双工通信: 指通信双方都能收发消息,但不能同时进行收和发的工作方式 发端 信 道 收端 发端 收端 ( b )半双工 A B 实例:同一载频的对讲机,收发报机以及问询、检索等。 * 发端 信 道 收端 发端 收端 信 道 ( c )全双工 全双工通信: 指通信双方可同时进行收发消息的工作方式 一般是双向信道 实例:普通电话、手机、计算机之间的高速数据通信等。 A B * 2. 按数字信号排列顺序分 串行传输: 并行传输: 代表信息的数字序列以串行方式一个接一个地在一条信道上传输。 远距离数字通信多采用。 * 2. 按数字信号排列顺序分 串行传输: 并行传输: 数字序列分组后,以分组的方式在多条并行信道上同时传输。 代表信息的数字序列以串行方式一个接一个地在一条信道上传输。 优点:节省传输时间 缺点:需要传输信道多, 设备复杂, 成本高 应用:一般适用于计算机和其他高速数字系统,特别适用于设备之间的近距离通信。  远距离数字通信多采用。 * 1.3 信息及其度量 信号是消息的载体,信息是消息的内涵 信息:消息中包含的不确定性的(有意义的)内容 信息含量就是对消息中这种不确定性的度量 一、信息的概念 信息量:衡量各不同消息中包含信息的多少。 消息中 信息的多少。 * 1.3 信息及其度量 让我们来感觉三条消息: 二、信息的度量  根据概率论知识,事件的不确定性可用事件出现的概率来描述。可能性越小,概率越小;反之,概率越大。因此, 消息中包含的信息量与消息发生的概率密切相关。 消息出现的概率越小,消息中包含的信息量就越大。 ① 明天正常上课;(必然事件) ② 明天上实验课; ③ 明天不上课,统一在楼顶看日食(不可能事件) * 设:P(x)是一个消息x发生的概率,I是从该消息获悉的信息,根据上面的认知, I与P(x) 关系:  (1) 信息量是概率的函数, 即 I=f[P(x)] (3)信息具有相加性, 若干个互相独立事件构成的消息, 所含信息量等于各独立事件信息量之和,即 I[P(x1)P(x2)…]=I[P(x1)]+I[P(x2)]+… (2) P(x)越小, I越大; P(x)越大, I越小, 且 P(x)→1时, I→0 P(x)→0时, I→∞ 1.3 信息及其度量 二、信息的度量 * 推论:信息量I与消息出现的概率P(x)之间的关系(哈特莱计算公式)  I=loga = - loga P(x) (1.3 - 1) 信息量的单位与对数底数a有关: a=e时,信息量的单位为奈特(nit); a=10时,信息量的单位为哈特莱(H) 。 1.3 信息及其度量 二、信息的度量 P(x) a=2时,信息量的单位为比特(bit); 用于数字通信 用于模拟通信 是十进制单位 * [例1–1] 设二进制离散信源,以相等的概率发送数字0或1,则信源每个输出的信息含量为多少? 解:I(0)=I(1)=log2 =log22=1 (bit) (1.3 - 2) 可见:传等概的二进制波形之一(P=1/2)的信息量为1比特。 类推:传等概的四进制波形之一(P=1/4)的信息量为2比特, 传等概的八进制波形之一(P=1/8)的信息量为3比特, 每一个四进制波形要用2个二进制脉冲表示; 每一个八进制波形至少要用3个二进制脉冲表示。  * 总结:M进制离散信源,等概(P=1/M)传送M个独立出现的波形符号,则传送M进制波形之一的信息量为 I= log2 = log2 = log2 M(bit) (1.3 - 3) P为每一个波形出现的概率, M为传送的波形数 特殊的:若M是2的整数次幂,M=2K(K=1,2,3, …) I=log2 2K=K (bit) (1.3 - 4) M为进制数,K是每多进制符号等价的二进制脉冲数目 等概情况 * 设:离散信源是一个由n个符号组成的符号集, 每个符号xi(i=1, 2, 3, …, n)出现的概率为P(xi),且有 P(xi)=1 非等概情况 传m个符号总信息量为:I=I1+I2+I3+……+Im I1、I2、……Im表示第1、2……m个所传符号的信息量 每

文档评论(0)

糖糖 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档