9-2-图像分割-K-Means教程详解.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
每类是一个高斯分布 不得不承认这并不是很好的结果。不过其实大多数情况下 k-means 给出的结果都还是很令人满意的,算是一种简单高效应用广泛的 clustering 方法。 选定 K 个中心的这个过程通常是针对具体的问题有一些启发式的选取方法,或者大多数情况下采用随机选取的办法。因为前面说过 k-means 并不能保证全局最优,而是否能收敛到全局最优解其实和初值的选取有很大的关系,所以有时候我们会多次选取初值跑 k-means ,并取其中最好的一次结果。 在空间中就是类球型。 本图形可以采用基于密度的方法。 如何分类? 这是一种可能的聚类方法,但是不符合我们一般的直觉。 对于需要进行聚类的数据的一个基本假设:对于每一个 cluster ,我们可以选出一个中心点 (center) ,使得该 cluster 中的所有的点到该中心点的距离小于到其他 cluster 的中心的距离。虽然实际情况中得到的数据并不能保证总是满足这样的约束,但这通常已经是我们所能达到的最好的结果,而那些误差通常是固有存在的或者问题本身的不可分性造成的。例如下图所示的两个高斯分布,从两个分布中随机地抽取一些数据点出来,混杂到一起,现在要让你将这些混杂在一起的数据点按照它们被生成的那个分布分开来。 由于这两个分布本身有很大一部分重叠在一起了,例如,对于数据点 2.5 来说,它由两个分布产生的概率都是相等的,你所做的只能是一个猜测;稍微好一点的情况是 2 ,通常我们会将它归类为左边的那个分布,因为概率大一些,然而此时它由右边的分布生成的概率仍然是比较大的,我们仍然有不小的几率会猜错。而整个阴影部分是我们所能达到的最小的猜错的概率,这来自于问题本身的不可分性,无法避免。 很自然的想到使用概率的方式。 * * I gave each pixel the mean intensity or mean color of its cluster --- this is basically just vector quantizing the image intensities/colors. Notice that there is no requirement that clusters be spatially localized and they’re not. * I gave each pixel the mean intensity or mean color of its cluster --- this is basically just vector quantizing the image intensities/colors. Notice that there is no requirement that clusters be spatially localized and they’re not. * 1973年,Dunn首先把J1 扩展到J2 ,后来Bezdek又把J2 推广到了一个m 的无限族{ Jm ,1 = m =F ∞} Ruspini-1,Dunn-2,Bezdek-m K-Means Fuzzy C-Means Terminology 100 150 200 250 300 500 1000 1500 2000 2500 3000 3500 Top speed (km/h) Weight (kg) Sports cars Medium market cars Lorries Object or data point feature feature space cluster feature label K-Means聚类法(C-Means) 将N个数据依照其数据特征聚类为K类的聚类算法,K为一正整数 目标在于求各个数据与其对应聚类中心点距离平方和的最小值 Ji 为第 i 类聚类的目标函数 K为聚类个数 Xj为第 j 个输入向量 Ci为第 i 个聚类中心(向量) wji 为权重 (1) (Xj 是否属于聚类Ci) K-means的归属矩阵 数据点 Xj 聚类Ci (2) (3) 随机选取k个数据点Ci,i=1,…,k,并将之分别视为各聚类的初始中心 决定各数据点所属之聚类,若数据点Xj判定属于第 i 聚类,则权重值wji = 1,否则为 0 (3) K-means实现步骤 且满足: (2) 由(1)式计算目标函数 J,如果 J 保持不变,代表聚类结果已经稳定不变,则可结束此迭代方法,否则进入步骤4 以(4)式更新聚类的中心点。回到步骤2 (4) K-means实现步骤 (1) (4)式如何得来? Min Min F’ = 0 (4) N 次迭代以后 设定聚类数目K,最大执行步骤tmax,一个

文档评论(0)

奇缘之旅 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档