信息论与编码期中试卷及答案.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论与编码期中试题答案 一、(10’)填空题 1948 年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 必然事件的自信息是 0 。 离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 对于离散无记忆信源,当信源熵有最大值时,满足条件为 信源符号等概分布_。 若一离散无记忆信源的信源熵 H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 二、(10?)判断题 信息就是一种消息。 ( ? ) 信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。 ( ? ) (3) 概率大的事件自信息量大。 ( ? ) (4) 互信息量可正、可负亦可为零。 ( ? ) (5) 信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。 ( ? ) 对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。 非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。 信源变长编码的核心问题是寻找紧致码(或最佳码)。 ( ? ( ? ) ) (9)信息率失真函数R(D)是关于平均失真度D 的上凸函数. ( ? ( ? ) ) 三、(10?)居住在某地区的女孩中有 25%是大学生,在女大学生中有 75%是身高 1.6 米以上的, 而女孩中身高 1.6 米以上的占总数的一半。 假如我们得知“身高 1.6 米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (5分) 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (4分) I(A|B)=-log0.375=1.42bit (1分) 四、(10?)证明:平均互信息量同信息熵之间满足I(X;Y)=H(X)+H(Y)-H(XY) 证明: ?? ? ? I ?X ;Y ?? ?? p?x y log p x y j ?i ? i j p x ?X Y i ? ? ? ?? ??? p?x y ?log p?x ? ?? ?? p?x y log p x y ? ? i??ji?? ? i ? ? j i ?  (4分) ? ? ? ? ? H X ? H i j X Y X Y i j ? 同理 I ?X ;Y ?? H ?Y ?? H ?Y X ?  (2分) 则 H ?Y X ?? H ?Y ?? I ?X ;Y ? 因为 H ?XY ?? H ?X ?? H ?Y X ?  (2分) 故 H ?XY ?? H ?X ?? H ?Y ?? I ?X ;Y ? 即 I ?X ;Y ?? H ?X ?? H ?Y ?? H ?XY ? (2分) 五、(30’).黑白气象传真图的消息只有黑色和白色两种,求: 2 ) 假设黑白消息出现前后有关联, 其依赖关系为,,,,求其熵 2 ) 假设黑白消息出现前后有关联, 其依赖关系为 , , , ,求其熵 H ?X ?。 ? 解:1)信源模型为(4分) 解:1)信源模型为 (4分) (6分)2)由题意可知该信源为一阶马尔科夫信源。 (2分) 由 (6分) (4分) (2分)得极限状态概率 (2分) (2分)3) (2分) ? ? 1 ? H ( X ) ? 0.119 1 log 2 2 (4分) ? ? 1 ? H ( X ) ?? 0.447 ? 2 log 2 2 (4分) ? ? ? 2 1 。说明:当信源的符号之间有依赖时,信源输出消息的不确定性减弱。而信源冗余度正是反 映信源符号依赖关系的强弱,冗余度越大,依赖关系就越大。(2分) 六、(10?)一个信源含有三个消息,概率分布为 p =0.2,p =0.3,p  =0.5,失真函数矩阵为 1 2 3 求:Dmax,Dmin, R(Dmax),R(Dmin) ?4 2 1? ?d ?? ?0 3 2? p1=0.2,p2=0.3,p3=0.5 ? ? ??2 0 1?? 在D给定?的m失in真函?n 数p 矩d 阵?中(0,.对2 ?每4一?个0.3x? 0找?一0个.5最? 2小;2的? 0d.2 ?然3?后0求.3;1? 0.2 ? 0.3? 3 ? 0.5?1) max j ?1,2...m i?1 i ij i ij D ? ? p(x ) min d R(Dmax)=0, R(Dmin)=R(0)=Hmax(x)=[0.2log0.2+0.3log0.3+0.5log0.5 min i i y j ij 七、(10?)有一信源它有四种可

文档评论(0)

hao187 + 关注
官方认证
文档贡献者

该用户很懒,什么也没介绍

认证主体武汉豪锦宏商务信息咨询服务有限公司
IP属地上海
统一社会信用代码/组织机构代码
91420100MA4F3KHG8Q

1亿VIP精品文档

相关文档