《信息论与编码技术》课程中平均互信息教学探讨.docVIP

《信息论与编码技术》课程中平均互信息教学探讨.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
《信息论与编码技术》课程中平均互信息教学探讨

《信息论与编码技术》课程中平均互信息教学探讨   摘要:平均互信息是信息论与编码技术中用来计算信道容量、信息率失真函数和信道剩余度的重要物理量。通过一道典型例题来讲解求平均互信息的不同方法:根据平均互信息的定义求、根据损失熵求、根据噪声熵求、根据信息熵的强可加性求,最后用MATLAB语言进行编程验证,实验表明四种方法求出的结果是一致的。在课堂教学时,教师应鼓励学生灵活运用各种方法,做到举一反三。   关键词:平均互信息;定义法;损失熵法;噪声熵法;强可加性法   中图分类号:G642.41 文献标志码:A 文章编号:1674-9324(2014)28-0091-03   《信息论与编码技术》是电子类相关专业的一门重要的专业必修课,其中自信息量、信息熵、互信息都是为学习平均互信息做铺垫的,而平均互信息又是求解信道容量、信道剩余度和信息率失真函数的重要工具。在教学过程中,学生反映平均互信息概念抽象,计算复杂,公式颇多,难以区分。由于学生的基础相对薄弱,不能灵活运用公式推导和基本性质相结合进行求解。因此,在课堂教学中,采取淡化数学推导,重点讲清平均互信息的实际意义、作用等,关键是如何应用平均互信息的定义、信息熵的性质等计算出平均互信息。平均互信息的计算方法有多种,如根据平均互信息的定义求、根据损失熵求、根据噪声熵求、根据信息熵的强可加性求等。   下面通过教材[1]一个典型例题来探讨平均互信息的四种求解方法,并通过MATLAB编程来验证结果的正确性。   一、例题讲解   题目:已知信源X的概率p(x)和信道传递概率p(y|x)分别如下所示:   XP(x)= x■ x■■ ■,P(y|x)=■ ■■ ■   求平均互信息I(X;Y),并用MATLAB验证结果。   首先分析题目:题目中只给出了两种概率分布,而对于输出符号Y的概率P(y)、联合概率P(xy)和条件概率P(x|y)均未给出,因此,必须先求出它们,以方便下面进行求解。   求解方法:为了简单直观,这里教学生采用矩阵的方法来求解。   注意:这里跟实际矩阵的求法又有区别,这里在上课时要重点强调。   注意:这里也要注意求条件概率P(x|y)时,尤其要弄清楚对应关系。   下面逐一介绍求平均互信息的各种方法,以及每种方法的重点、难点和注意事项。   1.根据平均互信息的定义求。平均互信息的定义[2]为:互信息I(x,y)在两个概率空间X和Y中的统计平均值称为平均互信息,代表接收到输出符号Y后平均每个符号所获得的关于输入X的信息量。   分析求解:平均互信息既然是互信息的平均值,那就利用概率论与统计课程中学到的求平均值的方法来求解。即:   I(X;Y)=■[I(x;y)]=■P(xy)I(x;y)=■P(xy)log■   =■log■+■log■+■log■+■log■=0.0075比特/符号   注意:在此种方法中,学生对于求统计平均已经忘记了,所以容易将P(xy)写成P(x),导致错误的结果。   2.根据损失熵求。损失熵的定义为:H(X|Y)称为损失熵,表示在接收端收到输出变量Y的符号后,对于输入端的变量X尚存在的平均不确定性。   分析求解:由于H(X)是在接收到输出Y以前,关于输入变量X的先验不确定性的度量。可见,通过信道传输后排除了一些不肯定度,从而获得了部分信息,就是平均互信息。故I(X;Y)=H(X)-H(X|Y)   H(X)=-■P(x)logP(x)=-■log■-■log■=0.971比特/符号   H(X|Y)=-■P(xy)logP(x|y)=-■log■-■log■-   ■log■-■log■=0.9635比特/符号,所以,I(X;Y)=H(X)-H(X|Y)=0.971-0.9635=0.0075比特/符号   注意:在此种方法中,学生容易把H(X|Y)写成H(Y|X),导致错误的结果。   3.根据噪声熵求。噪声熵的定义为:H(Y|X)表示在输入已知的前提下,对输出变量存在的不肯定度。接收端收到的关于输入X的平均信息量I(X;Y)加上H(Y|X)等于信源Y的熵H(Y)。H(Y|X)反映了信道中噪声源的不确定性,故叫噪声熵。   分析求解:既然H(Y)=I(X;Y)+H(Y|X),则I(X;Y)=   H(Y)-H(Y|X)。   H(Y)=-■P(y)logP(y)=-■log■-■log■=0.722比特/符号   H(Y|X)=-■P(xy)logP(y|x)=-■log■-■log■-   ■log■-■log■=0.7145比特/符号   I(X;Y)=H(Y)-H(Y|X)=0.722-0.7145=0.0075比特/符号   注意:在此方法中,学生容易把H(Y|X)写成H(X|Y),导致错误的结果。   4.根据信息熵的强

文档评论(0)

erterye + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档