- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信道容量讲义
计算机工程系通信教研室 信息论基础-信源熵 例题:已知离散有记忆信源中各符号的概率空间为 现信源发出二重符号序列消息 ,这两个符号的关联性用条件概率 表示,并由下表给出。求信源的序列熵和平均符号熵。 信息论基础-信源熵 9/11 2/11 0 1/8 3/4 1/8 0 2/9 7/9 解:条件熵为 单符号信源熵为 信息论基础-信源熵 发二重符号序列的熵为 平均符号熵为 比较上述结果可知: ,即二重序列的符号熵值较单符号熵变小了,也就是不确定度减小了,这是由于符号之间存在相关性造成的。 信息论基础-信源熵 对离散平稳信源,其联合概率具有时间推移不变性,此时有如下结论: (1) 是L的单调非增函数。 (2) (3) 是L的单调非增函数。 (4)当 时, 称为极限熵,又称为极限信息量。 信息论基础-信源熵 于是有: 式中, 为等概率无记忆信源单个符号的熵, 为一般无记忆信源单个符号的熵, 为两个符号组成的序列平均符号熵,依此类推。 结论(4)从理论上定义了平稳离散有记忆信源的极限熵,对于一般的离散平稳信源,实际上求此极限值是相当困难的。但对于一般的离散平稳信源,由于取L不很大时就能得出非常接近 的 因此,可用条件熵或者平均符号熵作为平稳信源极限熵的近似值。 信息论基础-信源熵 数据处理中平均交互信息量的不增性: 在一些实际的通信系统中,我们常常需要在信道输出端对接收到的信号或数据进行适当的处理,这种处理称为数据处理。数据处理系统一般可看成是一种信道,它与前面传输数据的信道是串联的关系。 信息论基础-信源熵 图2.2 串联信道 如图2.2所示的串联信道,X是输入消息集合,Y是第一级信道输出,Z是第二级数据处理后的输出消息集合,可以证明: 第 一 级处理器 X 输入 第 二 级处理器 Y Z ? 信息论基础-信源熵 这就说明,从串接信道输出端Z中获取的关于输入端X的平均交互信息量I(X;Z),总不会超过从第一级信道的输出端Y中获取关于输入端X的平均交互信息量 I(X;Y)。如果第二级信道是数据处理系统,则对接收到的数据Y进行处理后,无论Z是Y的确定对应关系还是概率关系,决不会减少关于X的不确定性。数据处理不会增加从Z中获取关于X的平均交互信息量。这就是数据处理中平均交互信息量的不增性。 信息论基础-信源熵 例题: 二进制通信系统用符号“0”和“1”,由于存在失真,传输时会产生误码,用符号表示下列事件: :一个“0”发出; :一个“1”发出; :一个“0”收到; :一个“1”收到。给定下列概率: 信息论基础-信源熵 解:(1)题目的要求是在已知输入为 的条件下,收到符号能得到的信息量,也就是说,要知道在已知输入为 的条件下,输出符号所具有的不确定度,即条件熵 可求出 故: 信息论基础-信源熵 因此 信息论基础-信源熵 例题:二进制通信系统用符号“0”和“1”,由于存在失真,传输时会产生误码, 求: (1)已知发出一个“0”,收到符号后得到的信息量; (2)已知发出的符号,收到符号后能得到的信息量; (3)知道发出和收到的符号能得到的信息量; (4)已知收到的符号,被告知发出的符号得到的信息量。 信息论基础-信源熵 2.3 连续信源的熵和互信息 2.3.1 连续信源熵和互信息 基本连续信源的输出是取值连续的单个随机变量,可用变量的概率密度 来描述。此时,连续信源的数学模型为: 其中,R是全实数集,是变量X的取值范围。 对这个连续变量,可以用离散变量来逼近,即连续变量可以认为是离散变量的极限情况。量化单位越小,则所得的离散变量和连续变量越接近。因此,连续变量的信息度量可以用离散变量的信息度量来逼近。 信息论基础-信源熵 把连续信源概率密度的取值区间[a,b]分割成n个小区间,各小区间设有等宽 ,那么,X处于第 区间的概率 是: 其中, 是 到 之间的某一值。当 是x的连续函数时,由积分中值定理可知,必存在一个 值使上式成立。 信息论基础-信源熵 此时,连续变量X就可以用取值为 的离散变量
原创力文档


文档评论(0)