信息论与编码(曹雪虹_张宗橙)第二、三章答案.docVIP

信息论与编码(曹雪虹_张宗橙)第二、三章答案.doc

  1. 1、本文档共12页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
2-1.解:该一阶马尔可夫信源,由转移概率构成的转移矩阵为: 对应的状态图如右图所示。设各符号稳定概率为:,, 则可得方程组: =++ =+ = ++=1 解得各符号稳态概率为: =,=, = 2-2.解:该马尔可夫信源的符号条件概率矩阵为: 状态转移概率矩阵为: 对应的状态图如右图所示。 设各状态的稳态分布概率为,,,,则可得方程组为: =0.8+0.5 =0.2+0.5 =0.5+0.2 =0.5+0.8 +++=1 解得稳定分布的概率为: =,=,=,= 2-3.解:(1)“3和5同时出现”事件的概率为: p(3,5)= 故其自信息量为: I(3,5)=-㏒=4.17bit (2)“两个1同时出现”事件的概率为: p(1,1)= 故其自信息量为: I(1,1)=- ㏒=5.17bit (3)两个点数的各种组合构成的信源,其概率空间为: 则该信源熵为: H(x)=6×lb36+15×lb18=4.337bit/事件 (4)两个点数之和构成的信源,其概率空间为: 则该信源的熵为: H(x)=2×lb36+2×lb18+2×lb12+2×lb9+2×lb+lb6 =3.274bit/事件 (5)两个点数中至少有一个是1的概率为: p(1)= 故其自信息量为: I(1)= -㏒=1.7105bit 2-7.解:(1)离散无记忆信源的每个符号的自信息量为 I(x)= -㏒=1.415bit I(x)= -㏒=2bit I(x)= -㏒=2bit I(x)= -㏒=3bit (2)由于信源发出消息符号序列有12个2,14个0,13个1,6个3,故该消息符号序列的自信息量为: I(x)= -㏒() () ()=87.81bit 平均每个符号携带的信息量为: (x)= =1.95bit/符号 2-10 解:用表示第一次摸出的球为黑色,用表示第一次摸出的球为白色,用表示第二次摸出的球为黑色,用表示第二次摸出的球为白色,则 (1)一次实验包含的不确定度为: H(X)=-p()lbp()-p()lbp()=-lb-lb=0.92 bit (2)第一次实验X摸出的球是黑色,第二次实验Y给出的不确定度: H(Y|)=-p(|)lb p(|)-p(|)lb p(|) = -lb-lb = 0.86 bit (3)第一次实验X摸出的球是白色,第二次实验Y给出的不确定度: H(Y|)=-p(|)lb p(|)-p(|)lb p(|) = -lb-lb = 0.94 bit (4)第二次Y包含的不确定度: H(Y|X)= - = p() H(Y|)+p()H(Y|) =0.91 bit 2-11 解:(1)仅对颜色感兴趣的不确定度: H(colour)=H(,,)= -lb- 2lb =1.24 bit (2) 对颜色和数字都感兴趣的平均不确定度: H(clour,number)=H(number)= -18lb= 5.25 bit (3)颜色已知的条件熵: H(number|colour)=H(colour,number)- H(colour)=(5.25-1.24) bit=4.01 bit 2-12 解:(1)实验X和Y的平均信息量:    H(X,Y)= - lb = -lb =H(,,0,,,0,,) =2.3 bit/符号 (2)由联合概率,可得 p()=++ =++ =++0 = 同理可得 P()=p()=,则实验Y的平均信息量: H(Y)=H(,,)=1.58 bit/符号 (3)在已知实验Y结果的条件下,实验X的平均信息量: H(X|Y)=H(X,Y)-H(Y)=(2.3-1.58) bit

文档评论(0)

1243595614 + 关注
实名认证
文档贡献者

文档有任何问题,请私信留言,会第一时间解决。

版权声明书
用户编号:7043023136000000

1亿VIP精品文档

相关文档