信息论与编码课后作业答案.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
(23211223210),求(1) (23211223210),求 (1) ⑵ 解: (1) 此消息的信息量是: I - -log p =87.811 bit Xf = 0 X2 = 1 X3 = 2 X4 = 3 J i 3/8 1/4 1/4 1/8: ,其发出的信息为 2.4设离散无记忆信源 X 此消息的自信息量是多少? 此消息中平均每符号携带的信息量是多少? 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是: 25 -I 丿 若把这些频度看作概率测度,求:(1)⑵⑶ 若把这些频度看作概率测度,求: (1) ⑵ ⑶ 解: (1) 根据忙闲的频率,得到忙闲的概率分布如下: X 尸(X) 1=」63 _ 40 103 103 ⑵ 此消息中平均每符号携带的信息量是: I /n =87.811/45 = 1.951 bit 2.10对某城市进行交通忙闲的调查,并把天气分成晴雨两种状态,气温分成冷 暖两个状态,调查结果得联合出现的相对频度如下: 冷12 暖15 冷27 暖12暖 暖12 忙闲的无条件熵; 天气状态和气温状态已知时忙闲的条件熵; 从天气状态和气温状态获得的关于忙闲的信息。 H(X)二- p)log p(xj 63 log-63 ^log^40 0.964 bit/symbol i 1103 y103 103 y103j (2) 设忙闲为随机变量 X,天气状态为随机变量 Y,气温状态为随机变量 Z H(XYZ) = - p(XiyjZk)log p(x,yjZk) i j k TOC \o 1-5 \h \z 12 12 8 8 27 27 16 16 log log log log —— 103 103 103 103 103 103 103 103 8 8 15 15 5 5 12 12 log log log log — 103 103 103 103 103 103 103 103 = 2.836 bit / symbol H(YZ) = - p(yjZjog p(yjZk) j k 20 20 23 23 32 32 28 28 log log log log 103 103 103 103 103 103 103 103 = 1.977 bit / symbol H(X/YZ) =H(XYZ) -H (YZ) =2.836 -1.977 =0.859 bit/symbol ⑶ I (X;YZ) =H (X) -H (X/YZ) =0.964 - 0.859 =0.159 bit / symbol 2.11有两个二元随机变量X和丫,它们的联合概率为 X1=0 X2=1 y1=0 1/8 3/8 y2=1 3/8 1/8 并定义另一随机变量Z = XY (一般乘积),试计算: H(X), H(Y), H(Z), H(XZ), H(YZ) 和 H(XYZ); H(X/Y), H(Y/X), H(X/Z), H(Z/X), H(Y/Z), H(Z/Y), H(X/YZ), H(Y/XZ) 和 H(Z/XY); 和 I(X;Z/Y) 0⑶ 和 I(X;Z/Y) 0 解: (1) TOC \o 1-5 \h \z 1 3 1 p(xj = p(X1yJ p(x』2)= 8 8 2 丄 3丄1 1 p(X2)= p(X2yJ p(X2y2): 8 8 2 H (X) - p(xi )log p(xi) = 1 bit / symbol i 丄 1丄3 1 p(yj = p(x1) p(x2yd = 8 8 2 3 1 1 p(y2)= p(x』2) P(x2y2)= 8 8 2 H (Y)二一 p( yj )log p(yj) =1 bit / symbol j Z = XY的概率分布如下:

文档评论(0)

shidaihuayuan + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档