[工学]北邮通信原理续总复习.pdf

  1. 1、本文档共51页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
[工学]北邮通信原理续总复习

通原II总复习 信息与通信工程学院 无线信号处理与网络实验室 彭岳星 yxpeng@bupt.edu.cn 6119 8066 ext.2 教学大纲规定的教学重点与难点  重点: (1) 信源编码的相关概念 (2) 线性分组码、循环码及卷积码的基本原理 (3) 信道模型、信道容量 (4) 扩频和多址通信的基本原理  难点:  多径信道模型  信道译码  扩频接收性能分析 第七章 信源及信源编码  教学大纲要求  掌握信源的描述、信息熵、互信息、信源剩余度等概念;  掌握无失真信源编码定理、无失真离散信源编码;  掌握率失真函数及限失真信源编码中的预测编码及变换编 码的基本原理;  了解矢量量化的基本原理。  核心内容  信息熵、互信息  信源编码定理、信道编码定理  Huffman编码 信息度量与信源编码 ’ 信源 S 编码:f X 信道 Y -1 S 译码:f 信宿 (效率) (效率) (效率)  单事件信息量 H (X ) I (X;Y )→max 互信息是是信源分布的上凸函数, I p =−log p 是信道转移概率的下凸函数, [ ] i 2 i H (S ) 信道容量  集合平均信息量 ηX L H (X |Y ) H (S ) E I p →1 { ( )} i H (Y ) −I ( X;Y ) H (S )  Huffman编码 ηS 1 H 0 (S )  无失真编码定理(最佳无失真编码存在定理)  平均码长稍稍大于信源熵 — 熵编码  前提:仅对典型序列进行编码,抛弃非典型序列产生的失真趋于0  失真度与率失真函数:允许一定量的失真,降低传输速率  真实与接收之间的差异:失真度  失真度与信息速率之间的关系:率失真函数  限失真信源编码:与率失真函数匹配的编码 信息度量  单事件信息量 I [P (x )]=−lo gp (x )  自信息量 i 2 i I P x y =− p x y  条件自信息量  ( i / j ) lo 2 g ( i / j )  联合自信息量 I P (x y )=−lo pg(x y ) I P (x ) =+I P (y | x )  i j  2 i j [ i ]  j i   集合平均信息量

文档评论(0)

qiwqpu54 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档