通信原理chapter1绪论资料.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
* * 通信的发展——方向 移动化与个人化 19C:船舶短波通信 20C,40s,美国汽车电话网——蜂窝移动电话 70s,美?无绳电话——数字无绳电话 90s,西欧?时分多址技术,TDMA;美?CDMA 21C,3G第三代移动通信系统 目标:5W通信 Whoever Whenever Wherever Whomever Whatever * * 通信的发展 消息、信息和信号 数字通信 信道 信道中的噪声 第一章 绪论 * * 消息、信息和信号——概念 消息:信源产生的信息的物理表现形式; 信息:消息的内涵,消息中有意义的内容; 各种不同形式的消息具有相同的内涵。 ——广义来说,信息是受者从不知到确知过程的内涵实体。 信号:消息的物理载体,是消息对应的物理量; 如:连续波的振幅、频率、相位; 脉冲的幅度、宽度、时间位置; ——是通信系统的物质载体:电信号、光信号; 北京时间3点整 * * 消息、信息和信号——概念 信号的分类——根据信号参量的取值方式分类 模拟信号——取值连续,且有无穷多个 对应:连续信息,如语音、图像等; 特点:形象直观,一般波形时间连续; 特例:PAM信号,时间不连续,但取值连续,且值的个数无穷。 信息体现:包含在波形中; * * 消息、信息和信号——概念 数字信号:取值离散,且数目有限 波形表示:用时间间隔相同的信号表示取值有限的数字信号; 时间间隔T:符号长度/码元周期/码元长度; T间隔内的信号成为一个码元; 信息体现:包含在不同的码元组合中; 与模拟信号的区别: 取值大小是否连续; 取值个数是否有限; ——与时间无关。 * * 消息、信息和信号——信息的度量 信息度量:由事件发生的不确定程度,即概率确定 消息 x ,出现概率P(x),含有信息量 I(x) : I (x) = I [P(x)] I ? 1/ P(x): P(x) =1, I = 0; P(x) = 0, I =? 信息量 I 的定义 单位:决定于底数a a =2: 比特(bit) a =e: 奈特(nit) a =10: 哈特莱(hartley) 1bit的含义: 理论:出现概率为1/2的 消息所含的信息量; 工程:一个二进制数字; * * 消息、信息和信号——信息的度量 若干互相独立事件构成的消息,所含信息量等于各独立事件信息量之和: I (x1 , x2 , …) = I [P(x1)] + I [P(x2)] +… 举例:独立、等概、离散消息的信息量: 某离散信源,可发送M(=2k)个符号,且各符号发送概率相同, 求:发送其中任一符号所含的信息量。 解:任一符号出现的概率为:P(x)=1/M, 由 得:任一符号所含信息量: 取 a=2 时,I(x)=log22k=k (bit) M(M=2k)进制 M个独立等概可取值; 每个可取值的信息量kbit; 可用k个二进制码元表示; * * 消息、信息和信号——信息的度量 平均信息量——信源熵H(x) 信源发送所有符号所含信息量的统计平均值。 N个符号: 各符号信息量: 平均信息量: x1, x2,… xN P(x1), P(x2), … P(xN) I(x1), I(x2), … I(xN) 等概条件时,信源平均信息量最大,为k(bit/符号) 其中:k=log2N * * 消息、信息和信号——信息的度量 举例:某离散信源由0、1、2、3四种符号组成,其概率分别为3/8, 1/4, 1/4, 1/8,且独立出现,该信源发出一段消息:201 020 130 213 001 203 210 100 321 010 023 102 002 010 312 032 100 120 210; 求:(1) 各个符号的信息量; (2) 信源平均信息量; (3) 该段消息的信息量。 分析: 各符号信息量:I(x)=-log2P(x) (bit); 信源平均信息量:H(x)=∑I(x)P(x); 整段消息信息量:I= ∑I(x); I=nH(x) * * 消息、信息和信号——信息的度量 解: (1)各符号信息量: 由I(x)=-log2P(x)得: I(0)=-log23/8=1.415 (bit) I(1)=-log21/4=2 (bit) I(2)=-log21/4=2 (bit) I(3)=-log21/8=3 (bit) (2)信源熵,平均信息量:

文档评论(0)

LOVE爱 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:5341224344000002

1亿VIP精品文档

相关文档