网站大量收购独家精品文档,联系QQ:2885784924

最大熵产生原理系列论文的读书笔记 转.doc

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
最大熵产生原理系列论文的读书笔记 转 越来越感到最大熵产生原理的重要性了,尤其是他的统计物理基础。利用暑假时间,我快速地把几篇重要文章使劲儿读了读,深深感觉到自己数学功底并不算强。不过饿补过微积分和基本的物理知识以后,还可以理解这些文章。强烈希望数学、物理背景出身的人能读到这篇文章,并能对这个问题真的感兴趣!谁要是突破了这里面的道道,那真的是一个不小的突破!而且肯定能用到很多实际领域中。下面就来贴我的读书笔记。 读文笔记 引言: 最近读了不少有关统计物理、熵、最大熵产生原理等文章,在此,就我所理解的部分做一个总结,以便帮助我屡清思路,也方便对这一领域感兴趣的人能够更有效率地继续研究下去。下面,主要沿着这几篇文章的思路讲解,它们是:E.T.Jaynes的《Information theory and statistical physics》、E.T.Jaynes的《Brandeis Lectures(1963)》、L.M.Martyushev和V.D.Seleznev的《Maximum entropy production principle in physics,chemistry and biology》、R.C.Dewar的《Maximum entropy production and the fluctuation theorem》和《Information theory explanation of the fluctuation theorem,maximum entropy production and self-organized criticality in non-equilibrium stationary states》。第一篇:E.T.Jaynes的《Information theory and statistical physics》+《Brandeis Lectures(1963)》 1、两句废话 很多人看到统计物理四个字就头疼,原因是,里面有太多难以理解的概念,以及艰深的数学。其实,这并不完全是读者的错误,发明这些概念的科学家也有很大的责任。尽管很多伟大的科学家都曾在这个领域做出过贡献,比如麦克斯韦、普朗克、爱因斯坦,但是统计物理中的最基本的概念,比如熵却一直没有搞清楚。这个学科一直处于非常尴尬的境地,一方面,该学科确实解决了很多应用的问题;另一方面,统计物理的核心概念:熵,却一直没有真正地被人们理解。直到20世纪50年代,Jaynes提出了一整套全新的解释熵的思路,才使得人们可以重新认识熵,包括整个统计物理。而且最关键的是,Jaynes的这套方法是目前所有统计物理各个学派中最简洁的一个!《Information theory and statistical physics》发表于1950s年,到如今却仍然有着重要的意义。总体来看,该文提供了一整套数学结构,虽然该数学结构最早起源于平衡态统计物理,即它有着明确的物理研究对象。但是,经过Jaynes的加工和处理,这套数学结构一下子可以腾空而起了,即它不仅仅可以描述气体、分子、自旋玻璃,它可以研究一类完全不同的,跟热现象可以类比的系统。比如,我们常说股市最近持续升温、经济发展过热,这里面的温度和热究竟是什么意思?Jaynes的框架就能给你一定的回答,在满足一些数学条件下,热、温度、熵等等是一种必然的概念。2、简单算例 例子1让我们先来看一个小例子:有一枚筛子,每个面都有一个数字:1~6。很显然,你会倾向于认为这6个面出现的概率是相等的,也就是,你倾向认为:P(x1)=P(x2)=…=P(x6)=1/6其中,P(xi)表示出现数字xi的概率。假如,我告诉你,这枚筛子与其它筛子不同,似乎,他很容易滚到4或者5这个面上,所以这个筛子滚了好多次以后,它出现的平均值是4.5。这个时候,你会怎样分配P(x1)~P(x6)的概率呢?显然,为了实现4.5这个平均值,你给筛子每个面分配的概率应该满足:如果把p(xi)看作是未知数的话,那么它存在着无穷的解。你甚至可以让p(x4)=p(x5)=0.5,其它都是0。但是这样的分配并不保险,因为你得到的平均值是4.5这条信息,并不能让你肯定拒绝筛子也有可能出现1或者6。你还是倾向于,筛子每个面出现的概率尽量是平均的。如何刻画这种概率分布的平均度呢?这就引出了熵的定义。我们可以定义熵为:我们粗浅的可以把S理解为刻画分布p(x1),p(x2)…均匀程度的量。当分布越均匀,S的值也就越大。这样,在第一种情况下,p(x1)=p(x2)=…=p(x6)=1/6可以得到最大的S:ln(6)。在第二种情况下,我们也应该让S最大才是我们心目中认为的最可能的分布,但是显然S不能任意大,它必须满足测量平均值是4.5这个前提,所以我们实际上得到了一

文档评论(0)

189****6649 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档