- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
3、加密与解密 目的:保证所传信息的安全。 4、数字调制与解调 数字调制是把数字基带信号的频谱搬移到高频 处,形成适合在信道中传输的带通信号。解调是调制的逆过程。 5、同步:使收发两端的信号在时间上保持步调一致 。 信息量的表达 消息中的信息量与消息发生的概率紧密相关。消息出现的概率愈小,则消息中包含的信息量就愈大,且概率为0时(不可能发生事件)信息量为无穷大;概率为1时(必然事件)信息量为0。 N个符号组成的符号集 x1·x2…出现的概率为非等概率,其对应出现的概率为P(x1)·P(x2)…,则每一个符号的平均信息量(熵)H(x)为: H(x)= P(x1)[-log2 P(x1)]+ P(x2)[-log2 P(x2)]+ … P(xN)[-log2 P(xN)] bit/符号 H与热力学中的熵形式一样,故称为信源的熵。 模拟通信系统 (1)有效性指标:传输带宽B。传送同样的消息(可用不同的调制方式)所需的带宽越小,通信的有效性就越好。 (2)可靠性指标:输出信噪比SO/NO。不同的通信业务,对信噪比的要求也不同。 关系式Rb = RBlog2M的物理意义 (1) RB ≤ Rb ,二进制(M=2)时 , RB=Rb (数值相同,单位不同)。 (2) Rb 一定时,增加进制数M,可以降低RB从而减小信号带宽,节约频带资源,提高系统频带利用率。 (3)RB一定时(即带宽一定)增加进制数M可以增大Rb,从而在相同的带宽中传输更多的信息量。 结论:从传输的有效性考虑,多进制比二进制好。但从传输的可靠性考虑,二进制比多进制好。 在并行信道上同时传输 n 个比特信息。 按数字码元传输时序分: 并行传输: 串行传输: 0 1 1 0 0 1 0 0 1 101010 串行传输: 数字码元序列按时间顺序一个接一个地在一条信道中传输。 信息及其度量 §1.4 信息是消息的内涵; 通信的目的在于传输消息中所包含的信息; 消息中不确定的内容才构成信息; 信息量就是对这种不确定性的定量描述。 引言 信息具有以下特性: 在当今信息社会中,信息是最宝贵的资源之一。 时效 压缩 存储 传输 相对 共享 存在 度量 扩充 原则: 度量方法与消息的种类无关。 与消息的重要程度无关。 举例: “美国世贸大楼被炸(9.11事件)”(时效性) “明天下雨” 可见: 消息中所含信息量和不可预测性或不确定性有关。 消息所表达的事件越不可能发生,信息量就越大。 如何度量消息中所含的信息量 ? 根据概率论知识:事件的不确定性 可用事件出现的概率来描述。 ? 原则: 度量方法与消息的种类无关。 与消息的重要程度无关。 举例: “美国世贸大楼被炸(9.11事件)”(时效性) “明天下雨” 可见: 消息中所含信息量和不可预测性或不确定性有关。 消息所表达的事件越不可能发生,信息量就越大。 如何度量消息中所含的信息量 ? ? 根据概率论知识:事件的不确定性 可用事件出现的概率来描述。 信息量 I 可用概率 P 来度量: I = f [P(x)] 1. 离散消息 x 的信息量(等概率) P ?1,I?0 P ?0,I?? P(x) P(y), I(x) I(y) 为什么 取对数 ? 若干个互相独立事件构成的消息,所含信息量等于各独立事件信息量的和,即 I [P1(x)·P2(x)…] =I [P1(x)]+I[P2(x)]+… 相加性 a= 2,比特(bit) ,简记为b a= e,奈特(nat) a=10,哈特莱(Hartley) 1 nat=1.44 b 概率相同,每个符号蕴含的信息量也相同; 二进制的每个码元含 1 (b) 四进制的每个码元含 2 (b) 推广:M进制的每个码元含 log2M (b) 【1-1】 二进制信源(0,1) 【1-2】 四进制信源(0,1,2, 3) 每个四进制符号可用 2 个二进制符号表示。 解: 试求:等概独立发送符号时,每个符号的信息量 。 评注 例 例 —— 信源中每个符号所含信息量的统计平均值。 设 则 统计独立的M个符号的离散信源的平均信息量为 2. 离散消息的平均信息量(非等概率) 比较例【1-3】与【1-2】可知: 等概时,熵最大
您可能关注的文档
最近下载
- 华东师大版八年级数学上册《作一个角等于已知角》教案及教学反思.docx VIP
- 【真题】河南省2025年对口升学(语文、英语)考试真题卷 完整版2025.pdf VIP
- 中心吸氧装置出现故障的应急预案.pptx VIP
- 13.4.2作一个角等于已知角展示课件数学八年级上册.pptx VIP
- 梦幻西游手游科举乡试会试答案大全 乡试答题器.pdf VIP
- QB∕T 5617-2021 单层床通用技术条件 .pdf
- 设备采购与管理作业指导书(设备采购类).doc VIP
- 2022 ASHRAE Handbook Refrigeration. SI edition标准原版完整.docx
- 教职工请假单(部门存根)(模板).pdf VIP
- 学校篮球比赛报名表的表格打印模板文档.xlsx VIP
文档评论(0)