信息熵在图像分割中的应用论文.docVIP

  1. 1、本文档共38页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息熵在图像分割中的应用毕业论文 目 录 摘 要 ...........1 Abstract 2 目 录 3 1 引言 5 1.1 信息熵的概念 5 1.2 信息熵的基本性质及证明 6 1.2.1 单峰性 6 1.2.2 对称性 7 1.2.3 渐化性 7 1.2.4 展开性 7 1.2.5 确定性 8 2 基于熵的互信息理论 9 2.1 互信息的概述 9 2.2 互信息的定义 9 2.3 熵与互信息的关系 9 3 信息熵在图像分割中的应用 11 3.1 图像分割的基本概念 11 3.1.1 图像分割的研究现状 11 3.1.2 图像分割的方法 11 3.2 基于改进粒子群优化的模糊熵煤尘图像分割 12 3.2.1 基本粒子群算法 12 3.2.2 改进粒子群优化算法 13 3.2.3 Morlet变异 13 3.2.4改建粒子群优化的图像分割方法 14 3.2.5 实验结果及分析 16 3.3 一种新信息熵的定义及其在图像分割中的应用 19 3.3.1香农熵的概念及性质 19 3.3.2一种信息熵的定义及证明 19 3.3.3信息熵计算复杂性分析 21 3.3.4二维信息熵阈值法 22 3.3.5二维信息熵阈值法的复杂性分析 24 3.3.6 结论及分析 25 4 信息熵在图像配准中的应用 27 4.1 图像配准 27 4.2 基于互信息的图像配准 27 4.3 Powell算法 28 4.4 变换 28 4.4.1 平移变换 29 4.4.2 旋转变换 30 4.5 基于互信息的图像配准的设计与实现 31 4.5.1总体设计思路和图像配准实现 31 4.5.2直方图 33 4.5.3 联合直方图 33 4.5.4灰度级差值技术 34 4.4.5 优化搜索办法级结论 35 5 结 语 37 致 谢 38 参考文献 39 1 引言 信息熵的概念 1948年,美国科学家发表了一篇著名的论文《通信的数学理论》。他从研究通信系统传输的实质出发,对信息做了科学的定义,并进行了定性和定量的描述。 他指出,信息是事物运动状态或存在方式的不确定性的描述。其通信系统的模型如下所示: 图1.1 信息的传播 信息的基本作用就是消除人们对事物的不确定性。信息熵是信息论中用于度量信息量的一个概念。是随机变量的集合,表示其概率密度,计算此随机变量的信息熵的公式是: 表示一对随机变量的联合密度函数,他们的联合熵可以表示为: 信息熵描述的是信源的不确定性,是信源中所有目标的平均信息量。信息量是信息论的中心概念,将熵作为一个随机事件的不确定性或信息量的量度,它奠定了现代信息论的科学理论基础,如果一条信息是由个字符连成的字符串组成,并且每个字符有种可能,那么这条信息就有种不同的排列情况,那么可以用度量信息量,但这时的信息量随着消息的长度按指数增加,为了使信息量的度量值按线性增加,Hartley给出了取对数的信息量的定义: (1.1) 由上式可以看出,信息量随着消息的可能性组合增多而增多,如果消息只有一种可能性时即事件为必然事件时,那么消息中包含的信息量为零。因此可以看出,可能收到的不同消息越多,对收到哪条消息的不确定性就越大;相反,收到只有一种可能性的消息,不确定性为零,Hartley对消息的度量实际是对不确定性的度量。 Hartley度量方法的不足之处是他所定义信息量是假定所有符号发生的概率相同,但实际情况各符号并不一定都等概发生,为此,Shannon用概率加权来衡量消息出现的可能性,对Hartley的度量方法做出改进。 设某一随机过程中有k种可能的情况,每种情况发生的概率分别是,,…,,Shannon给出了熵的如下定义: (1.2) 当所有可能的事件均以相等的概率发生时,上式就成了Hartley定 义的熵,并且这时熵取得最大值,即 (1.3) 所以,Hartley熵是,Shannon熵的特殊情形,而Shannon更具有一般性。 Shannon熵包含三种含义:第一种含义是度量信息量,事件发生概率与获得的信息量成反比,即概率越大,信息量越少,又由式(1.3)知,概率越大,信息量越少,熵越小,所以可用熵的大小来度量信息量,熵越大,信息量越大;第二是度量事件概率分布的分散度,概率集中分布时熵值小,分散性越强,熵越大;三含义是度量事件发生的不确定性,概率越大,事件的不确定性越小,熵越小。利用上面第三个含义,可以用Shannon熵,来度量图像包含的信息量,图像灰度值的概率分布是每灰度值出现的次数除以图像中所有灰度值出现的总次数,此时图像的信息量可依据这个概

文档评论(0)

你好世界 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档