南京工程学院信息论参考试卷信息论与编码的学习要点.docVIP

南京工程学院信息论参考试卷信息论与编码的学习要点.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
南京工程学院信息论参考试卷信息论与编码的学习要点.doc

信息论与编码的学习要点 自信息 自信息表示随机事件xi发生前的不确定性或发生后所包含的信息量,其定义为: 互信息 互信息表示已知事件yj后所消除的关于事件xi的不确定性,等于事件xi本身的不确定性I(xi)—已知事件yj后对xi仍然存在的不确定性I(xi/yj),其定义为: 平均自信息 平均自信息表示整个信源(用随机变量X表示)的平均不确定性,它等于随机变量X的每一个可能取值的自信息I(xi)的统计平均值,其定义为: 离散信源的最大熵 离散信源中各消息等概率出现时熵最大,也称最大离散熵定理: 联合熵 联合熵表示二维随机变量XY的平均不确定性,它等于联合自信息的统计平均值,其定义为: 条件熵 条件熵表示已知随机变量X后,对随机变量Y仍然存在的平均不确定性,其定义为: 各类熵之间的关系为: H(XY)=H(X)+H(Y/X)=H(Y)+H(X/Y)≤H(X)+H(Y) X,Y统计独立时,H(XY)=H(X)+H(Y) 平均互信息 平均互信息表示收到一个符号集(用随机变量Y表示)后消除的关于另一个符号集(X)的不确定性,也就是从Y所获得的关于X的平均信息量,其定义为: 平均互信息和各类熵之间的关系: I(X;Y)=H(X)-H(X/Y)=H(Y)-H(Y/X)=H(X)+H(Y)-H(XY) 当X和Y统计独立时,I(X;Y)=0 数据处理定理 如果随机变量X,Y,Z构成一个马尔可夫链,则有: I(X;Z)≤I(X;Y) I(X;Z)≤I(Y;Z) 等号成立的条件是对于任意的x,y,z,有p(x/yz)=p(x/z)和p(z/xy)=p(z/x) 数据处理定理中不等式I(X;Z)≤I(X;Y)表明从Z所获得的关于X的信息量小于等于从Y所获得的关于X的信息量。如果将Y→Z看成数据处理系统,则通过数据处理后,虽然可以满足我们的某种具体要求,但是从信息量来看,处理后会损失一部分信息,最多保持原来获得的信息,即对收到的数据Y进行处理后,决不会减少关于X的不确定性。 (极限熵)熵率 极限熵表示离散多符号信源的平均不确定性,它是信源输出的符号序列中平均每个符号所携带的信息量。 N→∞时极限存在,则称之为熵率,或极限熵,其定义为: 称为平均符号熵,表示随机变量序列中,对前N个随机变量的联合熵的平均: 离散平稳无记忆信源的极限熵 多符号信源中最简单的是离散平稳无记忆信源,其极限熵H∞=H(X) M阶马尔可夫信源的极限熵 如果信源在某时刻发出的符号仅与此前发出的m个符号有关,即m阶马尔可夫信源,其极限熵为: 离散平稳马尔可夫信源,可将上述符号的不确定性问题转化为齐次、遍历的马尔可夫链的状态转移问题: 信源的冗余度 冗余度的定义为: 连续信源的微分熵 连续信源的最大熵 对于输出信号幅度受限的连续信源,当满足均匀分布时达到最大熵;对于平均功率受限的连续随机变量,当服从高斯分布时具有最大熵。 码的分类 非分组码 分组码:奇异码和非奇异码(非唯一可译码、唯一可译码(即时码、非即时码)) 无失真定长信源编码定理 离散无记忆信源的熵H(X),若对长为N的信源序列进行定长编码,码符号集中有r个码符号,码长为L,则对于任意小的正数ε,只要满足,则当N足够大时,可实现几乎无失真编码,即译码错误概率为任意小。反之,如果,则不可能实现几乎无失真编码,当N足够大时,译码错误概率为1。 克劳夫特不等式 无失真变长信源编码定理(香农第一定理) 失真函数 ,单个符号的失真函数或失真度,表示信源发出一个符号xi,而在接收端再现为yj所引起的误差或失真的大小。 平均失真 信源的平均失真度表示某个信源通过某个信道传输后失真的大小,其定义为: 保真度准则 如果要求信源的平均失真度所允许的失真D,成为保真度准则。 D失真许可的试验信道 信息率失真函数 对于给定的信源,总存在一种信道使I(X;Y)达到最小。 R(D)是关于D的下凸函数,且在定义域内是严格递减函数。 限失真信源编码定理(香农第三定理) 设为一离散平稳无记忆信源的信息率失真函数,并且有有限的失真测度。对于任意的以及任意足够长的码长n,则一定存在一种信源编码C,其码字个数为:,而编码后的平均失真度。 如果用二元编码,取比特为单位,则上式M可写成 该定理说明:对于任何失真度,只要码长足够长,总可以找到一种编码C,使编码后每个信源符号的信息传输率,,即,而码的平均失真度。 信道容量 对于给定的信道,I(X;Y)是p(xi)的上凸函数,即总存在一种信源具有某种概率分布,使信道平均传输一个符号接收端获得的信息量最大,也就是说对于每个固定信道都有一个最大的信息传输率,这个最大的信息传输率即信道容量,而相应的输入概率分布称为最佳输入分布。C的定义为: 对称信道的C 准对称信道的C 离散平稳无记忆信道的N次扩展信道的C 独立并联信道的

文档评论(0)

aiwendang + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档