- 1、本文档共19页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
秋风清,秋月明,落叶聚还散,寒鸦栖复惊。
1、医学信息学的产生
产生时间:产生于70年代初、中期:
产生条件:。信息处理工具(计算机)的产生;
。医学科学的发展对信息科学的需求和信息科学对医学科学的渗透;
。理论基础(老三论)的问世
2、医学信息学的一般含义
从学科构成形式上定义和理解:医学信息学是在医学科学和信息科学尤其是计算机科学等多学科的基础上,经过不断的交叉和融合,逐步形成的一门多边缘交叉学科。
3、医学信息学的内在理解
(1)它是一门交叉学科:即由医学科学和信息科学相互渗透、相互合作、共同研究而形成的一门新学科。
(2)它是一门独立学科
(3)它是一门复杂学科:生命信息系统的复杂性决定了医学信息学的复杂性。。
4.系统论与还原论相结合
(一般地,科学方法论分三个层次:
第一个层次:各门学科中的具体方法;
第二个层次:适用于各门学科的一般方法;
第三个层次:适用于包括社会科学在内的哲学方法。
显然,医学信息学的方法论只属于上述的第一和第二个层次。
第二章
在科学界,信息论、控制论和系统论被称为“老三论”;
信息论的创始人:美国科学家申农
信息论的代表作:《通信中的数学理论》(《在噪声中的通信》
控制论的创始人:美国科学家维纳
控制论的代表作:《控制论,或关于在动物和机器中的控制和通信的科学》,《平稳时间序列的外推、内插和平滑化》【控制论是生命科学和信息科学的结晶。】
系统论的创始人:美籍奥地利生物学家贝塔朗菲。系统论的代表作:1928年发表阐述系统论思想的文章;1937年在芝加哥大学一个哲学研讨会上正式提出了一般系统论的原理;
1945年在《德国哲学周刊》上公开发表《关于一般系统论》
新三论”系指:
《耗散结构论》(普里高津,Ilya.p Synergetics rigogine, 1969,比利时);
《协同论》(哈肯:Haken,1977,德国);
《突变论》(汤姆)以及《混沌学》(Chaos)和《分形学》(Fractal)等。
什么是信息
从事物运动的方式定义
维纳:
在《人有人的用处》一书中说:“信息是人们适应外界并且使这种适应反作用于外部世界的过程中,同外部世界进行互相交换的内容的名称。”
北邮大钟义信《信息科学原理》:
信息“是事物运动状态和存在方式的直接或间接的表达” 。
广义信息:这是一种泛指的信息;
技术信息:指一切符号、记号或信号等表达信息的形式或载体;
统计信息: 具有统计意义的信息
语法信息:指信息的本来状态和方式,不涉及它的含义和应用。
语义信息:指信息的基本含义,但不涉及信息的应用。
语用信息:指信息的效用。
信息与消息
信息与消息密切相关,但并不等同。
信息包含在消息中,或者说消息是信息的一种载体。
同一个消息可以包含不同的信息,或者同一个信息可以载荷在不同的消息中。
信息与信号
所谓信号是人们在通信中,将消息转换成能够适合某种传输介质进行时空传输的物理量。
与消息类似,信息包含在信号之中,信号只是信息的一种运载工具。
同一个信息可以用不同的信号运载,同一个信号也可以运载或表现不同的信息。
(3)信息与情报
情报“是人们对于某个特定对象所见、所闻、所理解而产生的知识”,它具有很强的时间性和保密性 。
情报只能是一类特定的信息,而不是信息的全部,即信息包含情报,或者说情报仅仅是信息的一个子集。
信息与知识
什么是知识?
知识是人们根据某种目的,从客观世界收集得来的数据或资料中,经过大脑思维而整理、概括和提取而得到的有价值的信息。
信息与知识的关系是:信息包含知识,或者说知识包含在信息之中。
第三章
信息熵产生的基础
两个重要基础:
1877年,奥地利物理学家玻尔兹曼(L.Boltzmann)从分子运动的角度,定义了宏观状态熵S与热力学系统中某一宏观状态包含的微观数目W的相互关系: S=KlnW(其中K为常数),从而定量的说明了1864年克劳修斯提出的热力学第二定律的“熵增原理”;
1928Hartley,L.V.R)在《信息传输》中定义了发信者从S个符号中选取N个符号发出的信息量H为: H=logSN=NlogS
(通常,在描述随机性时,一个普遍的方法就是采用概率。所以,概率值的大小是描述信息量大小的重要指标。)
某个事件 xi发生所包含的信息量实际上就是该由事件xi发生的先验概率P(xi)转变成后验概率P(xi+1)的一个不确定函数的改变量,即f(P(xi))-f (P(xi+1))。如果用符号H(xi)表示,那么就称这个改变率为事件x发生后的自信息,或称自信息量函数: H(xi)= f(P(xi))-f (P(xi+1)) = -log P(xi)
自信息是针对某一个
文档评论(0)