- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
平均信息熵及其应用丁勇南京医科大学数学教研室
信息能否度量?01物质、能量和信息是构成客观世界的三大要素。信息(information)是什么?至今信息还没有一个公认的定义一般定义:常常把消息中有意义的内容称为信息。02
例:会堂有20排、每排20个座位。找一个人。甲告诉消息:此人在第10排;乙告诉消息:此人在第10排、第10座。认识问题的过程:当我们对一问题毫无了解时,对它的认识是不确定的,在对问题的了解过程中,通过各种途径获得信息,逐渐消除了不确定性,获得的信息越多,消除的不确定性也越多。我们可以用消除不确定性的多少来度量信息量的大小。
是否存在信息量的度量公式?1948年,美国数学家、信息论的创始人Shannon在题为“通讯的数学理论”的论文中指出:“信息是用来消除随机不定性的东西”。并应用概率论知识和逻辑方法推导出了信息量的计算公式ClaudeElwoodShannon(April30,1916-February24,2001)hasbeencalledthefatherofinformationtheory.
1公理1:信息量是事件发生概率的连续函数;2公理2:信息量是有限值;3公理3:如果事件A和事件B的发生是相互独立的,则获知事件A和事件B将同时发生的信息量是单独获知两事件发生的信息量之和。4设事件发生的概率为P,5则满足上述公理的信息量函数为6为应用方便,可取c=1,a=e,单位为奈特(nat)
信息量函数I=-lnp如何体现不确定性的消除?
例:会堂有20排、每排20个座位。找一个人。甲告诉消息(A):此人在第10排;乙告诉消息(B):此人在第10排、第10座。由信息量公式I=-lnp可知I是p的单调下降函数
0102设离散型随机变量X的概率分布为X的信息熵定义为“加权平均信息量”信息熵(entropy)的概念
信息熵的直观意义变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。??
一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。所以,信息熵也可以说是系统有序化程度的一个度量。X甲赢乙赢P0.90.1H0.325X甲赢乙赢P0.50.5H0.693
连续非负性01对称性02扩展性03可加性04极值性:05熵的性质
1948年,Shannon提出了熵的概念,并以此作为信息的度量,宣告了信息论作为一门科学学科的诞生。01近年来,随着计算机应用的发展和信息时代的来临,信息论理论和应用的研究更显示出其重要意义。02
应用1:识别假币有12枚外形相同的硬币,其中一枚是假币(重量略有不同),如何用没有砝码的天平用最少次数找出假币?每个硬币可能是真,也可能是假,且假币可能重一些,也可能轻一些,故共有24种可能,不确定性为ln24。
当3种可能性概率相同时,熵最大,因此每次实验提供的最大信息熵为ln3。设至少秤k次,k次实验提供的信息熵最多为kln3,有ln24=kln3可得k至少为3。将硬币分成3份,其中2部分在天平的两边。实验结果有3种可能性:假币在天平左边、右边、不在天平上。
应用2:熵与参数估计的似然函数
AaAaQ1Q2Q3Q4应用3:群体遗传学
由此可见,无论第一代基因型概率分布为何值,第二代基因型熵即达到最大多对等位基因也有相同的结论AaBbAaBb
01Hardy–Weinberg平衡
(H–W平衡)定律一个随机交配的群体中,等位基因频率保持不变,基因型频率至多经过一个世代也将保持不变。02
问题的提出在信息论中,如何评价信源提供信息量的多少,是一个值得探讨的问题。现在用的是相对率的概念,是以信息熵与最大信息熵之比作为依据的。问题:该值多大才算提供较多的信息量?
提出平均信息熵作为评价依据。01在信息论中也是如此,当信源提供的信息量达到或超过平均信息熵时,可认为已提供了较多的信息。02以学习成绩比较为例,众所周知,成绩好坏,除了与最高分比较,更多的是与平均成绩比较,当某个学生的成绩超过平均成绩时,说明该生的成绩较好,否则说明应该发奋努力了。03问题的设想
推导了计算公式、性质给出了应用:作为信源提供信息量多少的评价依据。提出了平均信息熵的概念问题的解决
平均值概念的推广
平均信息熵的定义
平均信息熵公式公式:与调和级数有关n23456789100.50.831.081.281.451.591.721.831.93
平均信息熵的性质平均信息量至少占最大值72%
平均信息熵的性质C为
您可能关注的文档
最近下载
- 会计报表开发成本审计底稿模板(房产企业).xls VIP
- 语文课前五分钟活动.pptx
- 2025年高考历史试卷(山东卷)附答案解析.docx VIP
- 中国文化古城—西安.-PPT.pptx VIP
- 《西方社会学理论》全套教学课件.ppt
- 第7课 实践出真知 课件 中职高教版哲学与人生.pptx
- 一针疗法之肩周炎.ppt
- 2025中国银行中银国际证券股份有限公司招聘8人笔试模拟试题及答案解析.docx VIP
- 神经介入治疗概述及护理常规.ppt VIP
- 舒伯特第二即兴曲,降E大调 D.899之2 Impromptu No. 2 in E flat major, D. 899, No. 2 Op90 Schubert钢琴谱.pdf VIP
文档评论(0)