信息论论文【荐】.docVIP

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息论与编码 题 目 最大熵原理的合理性及其应用 姓 名 学 号 院 系 成 绩 二O一一 年 十二 月 二十八 日 最大熵原理的合理性及其应用 摘要:熵是源于物理学的基本概念,后来香农在信息论中引入了信息熵的概念,它在统计物理中的成功使人们对熵的理论和应用有了广泛和高度的重视。最大熵原理是一种在实际问题中已得到广泛应用的信息论方法。本文从信息熵的概念出发,对最大熵原理做了简要介绍,并论述了最大熵原理的合理性,最后提及它在一些领域的应用,通过在具体例子当中应用最大熵原理,展示该原理的适用场合,以期对最大熵原理及其应用有更深刻的理解。 关键词:熵;信息熵应用;最大熵原理;不适定性问题; 1.概述 科学技术的发展使人类跨入了高度发展的信息化时代。在政治、军事、经济等各个领域,信息的重要性不言而喻,有关信息理论的研究正越来越受到重视,信息论方法也逐渐被广泛应用于各个领域。 信息论一般指的是香农信息论,主要研究在信息可以度量的前提下如何有效地、可靠地、安全地传递信息,涉及消息的信息量、消息的传输以及编码问题。1948年C.E.Shannon为解决通信工程中不确定信息的编码和传输问题创立信息论,提出信息的统计定义和信息熵、互信息概念,解决了信息的不确定性度量问题,并在此基础上对信息论的一系列理论和方法进行了严格的推导和证明,使以信息论为基础的通信工程获得了巨大的发展。信息论从它诞生的那时起就吸引了众多领域学者的注意,他们竞相应用信息论的概念和方法去理解和解决本领域中的问题。近年来,以不确定性信息为研究对象的信息论理论和方法在众多领域得到了广泛应用,并取得了许多重要的研究成果。迄今为止,较为成熟的研究成果有:E.T.Jaynes在1957年提出的最大熵原理的理论;S.K.Kullback在1959年首次提出后又为J.S.Shore等人在1980年后发展了的鉴别信息及最小鉴别信息原理的理论;A.N.Kolmogorov在1956年提出的关于信息量度定义的三种方法——概率法,组合法,计算法;A.N.Kolmogorov在1968年阐明并为J.Chaitin在1987年系统发展了的关于算法信息的理论。这些成果大大丰富了信息理论的概念、方法和应用范围。 在信息论中,最大熵的含义是最大的不确定性,它解决的一大类问题是在先验知识不充分的条件下进行决策或推断等。熵方法在谱估计、图象滤波、图象重建、天文信号处理、专家系统等中都有广泛的应用。最大熵原理在实际问题中的应用近年来一直在不断地发展。 2.信息熵的概念 信息熵是将熵概念成功地扩展到信息科学领域。熵是描述客观事物无序性的参数,它最早是由R.Clausius于1865年引入热力学中的一个物理概念,通常称之为热力学熵。后来L.Boltzmann赋予熵统计意义上的解释,称之为统计热力学熵。1929年,匈牙利科学家Lszilard首先提出了熵与信息不确定性的关系,使信息科学引用熵的概念成为可能。1948年,贝尔实验室的C.Shannon创立了信息论,熵的概念有了新的解释,香农认为信息是人们对事物了解的不确定性的消除或减少 ,他把通讯过程中信源讯号的平均信息量称为信息熵,现在一般称之为香农熵,实现了信息熵的实际应用,从此对信息熵的研究,随着信息科学的发展而得到不断的发展。 香农将随机变量X的信息熵定义为: - 式中,为的概率分布,n=1,2,…,N;当对数底数取2时,信息熵的单位为bit/sign;取自然对数时,单位为nat/sign;取常用对数时,单位为hart/sign。它代表了信源输出后每个消息所提供的平均信息量,或信源输出前的平均不确定度。信息熵的定义使随机变量的不确定性得到了量度,使信息论得到了空前的发展。 而且,信息熵具有的凸函数性质使得它特别适合作为优化问题中的目标函数,这同时也为信息论概念和方法在除通信领域以外的其他领域内的应用提供了理论基础,拓宽了信息论的应用范围。 3.最大熵原理 香农提出的信息熵的概念很好地解决了随机事件的不确定性程度的度量问题,但没有解决随机事件的概率是如何进行分配的问题。设想有一个可观测的概率过程,其中的随机变量取离散值,,…,,如果从观测的结果知道了这个随机变量的均值、方差等特征值,怎样才能确定它取各离散值的概率,,…,呢?一般地,满足可观测值的概率分配,可以有无限多组。那么究竟应当选哪一组呢?即在什么意义下,所选出的一组概率才是最可能接近实际的呢?在项目决策实际中,有些随机事件不能

文档评论(0)

aidj + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档