信息论与编码理论基础王育民(第二章)总结报告.pptVIP

信息论与编码理论基础王育民(第二章)总结报告.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
* * 互信息的凸性 p(j|k)给定,I(X;Y)是q(x)的上凸函数 q=(q1, q2, …, qK)给定,I(X;Y)是p(j|k)的下凸函数 * * 互信息的凸性 设条件概率{p(j|k),k=1~K,j=1~J}被确定。此时I(X, Y)是概率向量q=(q1, q2, …, qK)的函数。我们希望找到这样的概率向量,使得对应的I(X, Y)达到最大。这就是说,记 我们希望找到这样的K维概率向量a=(a1, a2, …, aK),使得 * * 互信息的凸性 (本节的核心内容是定理2.6.2,但它有太长的推导。) 简述定理2.6.2的含义 K维概率向量a=(a1, a2, …, aK)使得 当且仅当:以a为X的概率向量的时候,I(X=k; Y)对所有ak0的k都取一个相同的值C; I(X=k; Y)对所有满足ak=0的k都取值不超过上述的相同值C 。其中 * * §2.6 凸函数与(离散型随机变量的)平均互信息量的凸性 I(X=k; Y)表示什么?表示事件X=k与随机变量Y之间的“半平均互信息量”。 * * §2.6 凸函数与(离散型随机变量的)平均互信息量的凸性 例 设X的事件有0、1; Y的事件有0、1; 已知 p(0|0)=1-u;p(1|0)=u;p(0|1)=u;p(1|1)=1-u。 当X服从等概分布(a0=P(X=0)=1/2;a1=P(X=1)=1/2)时,I(X;Y)达到最大。因为此时 * * §2.6 凸函数与(离散型随机变量的)平均互信息量的凸性 * * * * * * * §2.4 离散型随机变量的平均互信息量 * * §2.4 离散型随机变量的平均互信息量 * * §2.4 离散型随机变量的平均互信息量 定义2.4.1(平均互信息量) 给定一个二维离散型随机变量{(X, Y), (xk, yj), rkj, k=1~K; j=1~J}(因此就给定了两个离散型随机变量{X, xk, qk, k=1~K}和{Y, yj, wj, j=1~J})。X与Y的平均互信息量定义为如下的I(X; Y): * * 注意: ①事件对(xk, yj)的“非平均互信息量”值为I(xk; yj)。 ②此外,可以定义“半平均互信息量”I(xk; Y)和I(X; yj)。 I(xk; Y)表示事件“X=xk”与随机变量Y之间的半平均互信息量; I(X; yj)表示事件“Y=yj”与随机变量X之间的半平均互信息量。 * * §2.4 离散型随机变量的平均互信息量 平均互信息量的性质 1、I(X; Y)≥0。(虽然每个“非平均互信息量” I(xk; yj)未必非负,但平均互信息量I(X; Y)非负) 证明 * * §2.4 离散型随机变量的平均互信息量 {rkj, k=1~K; j=1~J}是一个概率向量: {qkwj, k=1~K; j=1~J}是另一个概率向量: 故由引理2知, * * §2.4 离散型随机变量的平均互信息量 2、对称性:I(X; Y)=I(Y; X)。 3、平均互信息量的熵表示: I(X; Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)=H(X)+H(Y)-H(XY)。 证明 * * §2.4 离散型随机变量的平均互信息量 * * §2.4 离散型随机变量的平均互信息量 3’、若X与Y相互独立,则 I(X; Y)=0, H(X|Y)=H(X), H(Y|X)=H(Y), H(XY)=H(X)+H(Y)。 证明 若X与Y相互独立,则rkj=qkwj, k=1~K; j=1~J。 因此此时loga(rkj/(qkwj))=0, k=1~K; j=1~J。 因此I(X; Y)=0。再由性质3,性质3’得证。 * * §2.4 离散型随机变量的平均互信息量 4、I(X; Y)≤H(X),I(X; Y)≤H(Y)。 (性质4有多种简单的证明方法。 第一种证明方法:由I(X; Y)的定义, loga(rkj/(qkwj))≤loga(1/qk)。 第二种证明方法: 由性质3,I(X; Y)=H(X)-H(X|Y)≤H(X)。) 4’、 若X是Y的确定的函数X=g(Y),则 I(X; Y)=H(X)≤H(Y)。 若Y是X的确定的函数Y=g(X),则 I(X; Y)=H(Y)≤H(X)。 (证略) * * §2.4 离散型随机变量的平均互信息量 一般印象 (平均互信息量I(X; Y)的各种性质与我们对“平均互信息量”这个名词的直观理解非常吻合)。 一般情形:总有0≤I(X; Y)≤min{H(X), H(Y)}。 一种极端情形:若X与Y相互独立,则I(X; Y)=0。 另一种极端情形:若X、Y中有一个完全是另一个的确定的函数,则I(X; Y)=min

文档评论(0)

花仙子 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档