信息论试卷三.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论试卷三

一 、填空题(每空2分,共2×10分) 1.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是____。 。 1.设C = {000000, 001011, 010110, 011101, 100111, 101100, 110001, 111010}是一个二元线性分组码,则该码最多能检测出随机,则此信道在其输入端的信源分布为P(X)={1/2,1/2}时传输的信息量达到最大值。 ( ) 离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。 ( ) 4.非奇异的定长码一定是唯一可译码。 ( ) 5.信息率失真函数R(D)是在平均失真不超过给定失真限度D的条件下,信息率容许压缩的最小值。 ( ) 三 、简答题(每道5分,共20分) 1.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。.解释无失真变长信源编码定理。.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 1.设随机变量和的联合概率空间为 定义一个新的随机变量(普通乘积) 计算熵H(X),H(Y),H(Z),H(XZ),H(YZ),以及H(XYZ); 计算条件熵 H(X|Y),H(Y|X),H(X|Z),H(Z|X),H(Y|Z),H(Z|Y),H(X|YZ),H(Y|XZ)以及H(Z|XY); 计算平均互信息量I(X;Y),I(X:Z),I(Y:Z),I(X;Y|Z),I(Y;Z|X)以及I(X:,Z|Y)。 2. 设一个离散无记忆信源的概率空间为,它们通过干扰信道,信道矩阵为。信道输出符号集,试计算: (1)信源X的信息熵;(2分) (2)收到信息y2后,获得关于x1的信息量;(2分) (3) 共熵H(XY);(2分) (4)信道疑义度H(X|Y);(2分) (5) 收到消息Y后获得的关于信源X的平均信息量。(2分) 3.信源空间为试分别构造二元霍夫曼码,计算其平均码长和编码效率。

文档评论(0)

kabudou + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档