信息论与编码3----信源及信源熵2.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论与编码-信源及信源熵 上一讲复习 互信息量(续) 连续信源熵 信源序列熵 信息论与编码-信源及信源熵 上一讲复习 1. 信源的分类 连续信源 信源 单符号无记忆离散信源 离散信源 符号序列无记忆离散信源 单符号有记忆离散信源 符号序列有记忆离散信源 信息论与编码-信源及信源熵 2.信源的数学模型 无记忆离散信源:用概率空间 有记忆离散信源:联合概率空间 信息论与编码-信源及信源熵 自信息量 信源熵 互信息量 信息论与编码-信源及信源熵 一些关系式 信息论与编码-信源及信源熵 2.2.3 互信息量(续) 平均互信息量的物理意义: I(X;Y)是H(X)和H(X|Y)之差。因为H(X)是符号集合X的熵或不确定度,而H(X|Y)是当Y已知时X的不确定度,可见“Y已知”这件事使X的不确定度减少了I(X;Y) ,这意味着“Y已知”后所获得的关于X的信息量是I(X;Y) 。这可以看成是信源符号集合X ,信宿符号集合Y,平均互信息量I(X;Y)表示在有扰离散信道上传输的平均信息量。信宿收到的平均信息量等于信宿对信源符号不确定度的平均减少量。 信息论与编码-信源及信源熵 换句话说,在有扰离散信道上,各个接受符号y所提供的有关信源发出的各个符号x的平均信息量I(X;Y),等于唯一地确定信源符号x所需要的平均信息量H(X),减去收到符号y后,要确定x所需要的平均信息量H(X|Y)。条件熵H(X|Y)可以看作是由于信道上存在干扰和噪声而损失掉的平均信息量,又可以看作是信道上的干扰和噪声所造成的对信源符号x的平均不确定度,故又称为疑义度。 信息论与编码-信源及信源熵 而由互信息量的第二个关系式,互信息量可以看作在有扰离散信道上传递消息时,唯一地确定接受符号y所需要的平均信息量H(Y),减去当信源消息已知时确定接受符号y仍然需要的平均信息量H(Y|X),因此, H(Y|X)也可以认为是唯一地确定信道噪声所需要的平均信息量,故又称为噪声熵或散布度,其关系可由图2-2-3来形象地表示。 信息论与编码-信源及信源熵 信息论与编码-信源及信源熵 两种特殊情况: 1.p(xi|yj)=1 此时I(xi;yj)=I(xi) ,这表明,当后验概率p(xi|yj)=1 (即收到输出符号yj,推测输入符号xi的概率为1)时,收到yj即可确切无误地收到输入符号xi,消除对xi得全部不定度,从yj中获取xi本身含有的全部信息量,即xi的自信息量I(xi)。 此时Y已知就完全解除了关于X的不确定度,所获得的信息就是X的不确定度或熵。也可以看成是无扰信道,由于没有噪声,疑义度H(X|Y)为零,噪声熵也为零。于是有I(X;Y)=H(X)=H(Y)。 信息论与编码-信源及信源熵 2.p(xi|yj)=p(xi) 这时,由于后验概率p(xi|yj)等于先验概率p(xi),所以后验概率与先验概率的比值等于1,即有I(xi;yj)=0 这表明,当后验概率p(xi|yj) 等于先验概率p(xi) 时,收到yj后对信源发xi的不定度等于收到yj前对信源发xi的不定度,收到yj后并没有减少对信源发xi的不定度,从yj中获取不到关于xi的信息量。 信息论与编码-信源及信源熵 这就是说,输出符号yj与输入符号xi之间没有任何联系,完全是互不相关的两码事。显然,在这种情况下,xi与yj之间的交互信息量应该等于0。 这可以理解为X与Y相互独立,无法从Y中提取关于X的信息。也可以看成信道熵噪声相当大,以至有H(X|Y)=H(X)。在这种情况下,能够传输的平均信息量为0,成为全损信道。 信息论与编码-信源及信源熵 一般情况下,X和Y既非互相独立,也不是一一对应,那么从Y获得的X信息必在零与H(X)之间,即常小于X的熵。 信息论与编码-信源及信源熵 三维联合集的平均互信息: 信息论与编码-信源及信源熵 数据处理中平均交互信息量的不增性: 在一些实际的通信系统中,我们常常需要在信道输出端对接收到的信号或数据进行适当的处理,这种处理称为数据处理。数据处理系统一般可看成是一种信道,它与前面传输数据的信道是串联的关系。 信息论与编码-信源及信源熵 如图2.2所示的串

文档评论(0)

feiyang66 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档