信息熵在对未来信息的预应用综述.doc

信息熵在对未来信息的预应用综述.doc

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
信息熵在对未来信息的预应用综述

信息熵在信息的预测应用综述 、: 未来准确性当今社会人类最为关注的焦点之一,是在以市场经济为主体的经济时代市场的预测在证券市场未来股市走势的预测以及在供应链市场对其上下游销售和库存预计信息是否准确关系到对应行业的成败,因此采用何种方式收集和把握的信息是一个企业能够发展一个社会能够进步的关键。 的信息是不确定的,我们可以通过经验预测其走势预测的准确是否有保证是否到了一定的置信度信息熵的引入为这类问题的解决提供了一条途径将预测信息的化,预期结果的定量化,为预测信息的可靠性提供了保障。 熵的相关概念 [ 1]。 熵概念内涵丰富,源远流长,在不同领域都得到深化和泛化,仅定义就有几十种,但一般说来,基本上就分为物理熵和信息熵[10]。 (二)信息和信息熵的引入 信息作为科学的概念,有它自身的特殊性,有着确切的含义,并可定量度量。熵最初作为热力学中的一个十分重要的态函数有着确切的物理意义。现如今,它的应用已远远超出这一范畴,广泛运用到信息论、控制论等其它领域中。由此而出现了信息熵。熬红(2001)认为,信息熵并没有脱离物理熵而单独存在,它和物理熵可用一统一表达式来表示,它们具有一定联系[ 2]。 1929年,匈牙利科学家L.Szilard提出了熵与信息不确定性的关系,进一步拓宽了熵的内涵。1948年,贝尔实验室的C.Shannon创立了信息论,他把通讯过程中信源讯号的平均信息量称为熵,从而使得熵概念的应用领域又获得了新的扩展,这就是这里所说的信息熵。信息熵是一个数学上颇为抽象的概念,在这里信息熵理解成某种特定信息的出现概率(离散随机事件的出现概率)。一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。信息熵也可以说是系统有序化程度的一个度量。3~4]。 信息熵H(X)是随机变量X的概率分布函数, 所以又称熵函数。如果概率分布p(xi), i =1,…,, p2,.., pq 。 因为概率空间的完备性, 即 所以H(p)是(q- 1)元函数, 当q= 2时, 因为p1+p2=1, 若令其中一个概率为p, 则另一个概率为(1- p)[5]。 (三)信息熵的计算 根据Charles H. Bennett对Maxwells Demon的解释,对信息的销毁是一个不可逆过程,所以销毁信息是符合热力学第二定律的。而产生信息,则是为系统引入负(热力学)熵的过程。所以信息熵的符号与热力学熵应该是相反的。一般而言,当一种信息出现概率更高的时候,表明它被传播得更广泛,或者说,被引用的程度更高。我们可以认为,从信息传播的角度来看,信息熵可以表示信息的价值。这样我们就有一个衡量信息价值高低的标准,可以做出关于知识流通问题的更多推论。 信源的平均不定度。在信息论中信源输出是随机量,因而其不定度可以用概率分布来度量。记 H(X)=H(P1,P2,…,Pn)=P(xi)logP(xi),这里P(xi),i=1,2,…,n为信源取第i个符号的概率。P(xi)=1,H(X)称为信源的信息熵。 熵的概念来源于热力学。在热力学中熵的定义是系统可能状态数的对数值,称为热熵。它是用来表达分子状态杂乱程度的一个物理量。热力学指出,对任何已知孤立的物理系统的演化,热熵只能增加,不能减少。然而这里的信息熵则相反,它只能减少,不能增加。所以热熵和信息熵互为负量。且已证明,任何系统要获得信息必须要增加热熵来补偿,即两者在数量上是有联系的。 可以从数学上加以证明,只要H(X)满足下列三个条件: 连续性:H(P,1-P)是P的连续函数(0≤P≤1); 对称性:H(P1,…,Pn)与P1,…,Pn的排列次序无关; 可加性:若Pn=Q1+Q2>0,且Q1,Q2≥0,则有H(P1,…,Pn-1,Q1,Q2)=H(P1,…,Pn-1)+PnH;则一定有下列唯一表达形式:H(P1,…,Pn)=-CP(xi)logP(xi) 其中C为正整数,一般取C=1,它是信息熵的最基本表达式。 信息熵的单位与公式中对数的底有关。最常用的是以2为底,单位为比特(bit);在理论推导中常采用以e为底,单位为奈特(Nat);还可以采用其他的底和单位,并可进行互换。 信息熵除了上述三条基本性质外,还具有一系列重要性质,其中最主要的有: 非负性:H(P1,…,Pn)≥0; 确定性:H(1,0)=H(0,1)=H(0,1,0,…)=0; 扩张性:Hn-1(P1,…,Pn-ε,ε)=Hn(P1,…,Pn); 极值性:P(xi)logP(xi)≤P(xi)logQ(xi);这里Q(xi)=1; 上凸性:H[λP +(1-λ)Q]>λH(P)+(1-λ)H(Q),式中0<λ<1。、的相关应用 财务风险评估 信息技术和经济全球化的发展,单个的竞争已经转化为之间的竞争刘永胜()供应链

文档评论(0)

linjuanrong + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档