信息论自测试卷1.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论自测试卷1.doc

信息论自测试卷1 选择题 下列那位创立了信息论。( c ) 牛顿 高斯 香农 哈夫曼 下列不属于消息的是。( b ) 文字 信号 图像 语言 同时扔两个正常的骰子,即各面呈现的概率都是 1/6,若点数之和为2,则得到的自信息量为( ) -log36 bit log36 bit -log18 bit log18 bit 下列说法不正确的是( ) 异字头码肯定是唯一可译的 逗点码是唯一可译的 唯一可译码不必满足Kraft 不等式 无逗点码可以唯一可译 下述编码中那个可能是任何概率分布对应的Huffman编码( ) {0,10,11} {00,01,10,110} {01,10} {001,011,100,101} 下列物理量不满足非负性的是( ) H(X) I(X;Y) H(Y|X) I(xj;yj) 信源的输出与信道的输入匹配的目的不包括( ) 符号匹配 信息匹配 降低信道剩余度 功率匹配 在串联系统中,有效信息量的值( ) 趋于变大 趋于变小 不变 不确定 判断题 1、信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。 ( ) 2、信息是先验概率和后验概率的函数,信息量是事件数目的指数函数。( ) 3、两个事件之间的互信息量可正,可负,也可能为0。( ) 4、在通讯系统中,无论对接收到的信息怎样处理,信息只会减少,绝不可能增加。( ) 5、Huffman 编码是唯一的。( ) 6、概率大的事件自信息量大。( ) 7、在事件个数相同条件下,事件等概率出现情况下的熵值最大。( ) 8、平稳的离散无记忆信道不可用一维概率描述。( ) 填空题 必然事件的自信息是 。 根据码字所含的码元的个数,编码可分为 编码和 编码。 不等长D元码,码字最长限定为N,则至多有 个码字。 实现准对称DMC信道容量的输入分布为 。 各随机变量彼此统计独立,相应的信源就称做 信源。 U={a1,a2,a3}, =0.25,P2=0.5,P3=0.25,则H(U) = 。 设信源X包含4个不同的离散消息,当且仅当X中各个消息出现的概率为 时,信源熵达到最大值,为 。 平均互信息量I(X;Y)与信源熵和条件熵之间的关系 。 计算题 设离散无记忆信源 码符号集X={0,1,2,3},现对该信源S进行四元哈夫曼编码,试求信源熵H(S)、平均码长和编码速率η。 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量是多少? 证明题 试证明:任何两个事件之间的互信息量不可能大于其中任何一个事件的自信息量。 试证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY)

文档评论(0)

docinpfd + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5212202040000002

1亿VIP精品文档

相关文档