计算机视觉——图像分割.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
计算机视觉——图像分割 【本学期选修国科⼤⾼伟⽼师的计算机视觉课程,本⼈⽅向也是cv,因此想通过博客⽅式记录课程中⽐较重要的点,巩固并且进⾏⼀些扩展 学习】 【本章节内容针对图像分割进⾏讲解】 接下来我们将主要针对以下内容进⾏介绍: 早期的图像分割⽅法 基于特定理论的⽅法 :Mean Shift 、Normalized Cut、Graph Cut 基于深度神经⽹络的图像分割 :FCN、SegNet、R-CNN ⼀.早期图像分割⽅法: 1. 阈值法* 2. 区域⽣长法 3. 分裂合并法 4. 基于边缘的分割⽅法* 5. 等等 这边重点介绍加粗变红部分。 1.1阈值法 基本原理: 通过设定不同的特征阈值 ,把图像像素点分为若⼲类。常⽤的特征包括:灰度、彩⾊特征、由原始灰度或彩⾊值变换得到的特 征。 上图T值便是我们设置的阈值。 但是如果遇到灰度级集中的情况,简单的设置阈值往往达不到很好的效果。如下图左边灰度级过于集中;或者右边应为光圈问题,在后期 提取情况造成了很⼤的偏差。 针对此,我们引⼊了 1.2 局部阈值法: 基本原理:将图像分块,分别⽤全局阈值⽅法分割,最后再综合。 1.3 基于边缘的分割⽅法: 基本步骤: 1 )检测边缘 2 )根据边缘将图像分割成不同的区域 ⽐如我们需要完成以下任务:在只有0-1灰度级的图中,我们想要捕捉-45度的线。 解决⽅案:引⼊⼀个 算⼦,表⽰-45度的斜线,在通过 阈值来保存我们所需要的线。 Hough⽅法 图像中检测直线的⼀种⽅法,该⽅法也可以检测其他参数化的物体,⽐如圆或者椭圆等。 该技术在 1959 年最早由 Paul Hough 提出。 在图像x-y坐标空间,经过点( ,   ) 的直线可以表⽰为yi=a*xi+b,在不同的a、b的条件下,直线存在⽆数条。 同样,若将a、b看成是变量,则可以表⽰为b=-xi*a+yi,对应a-b空间的⼀条线。 若此时想要利⽤a-b空间找到左图同时过两个点的线,可以通过右图相加的点找到对应的a0和b0来确定该条直线。 但是存在⼀个问题:若直线垂直于x轴,这意味着a值趋向于⽆穷⼤。 因此针对该现象,我们引⼊了极坐标: 其中相交的点便是我们寻找的条件。 ⼆ .基于特定理论的⽅法 :(Clustering聚类⽅法为主) 2.1 K-Means 步骤如下: 1.确定聚类( cluster ,也称簇)中⼼的个数 K ,并为它们随机初始化⼀个各⾃的聚类质⼼点。 2.根据每个数据点到质⼼的距离来进⾏分类,加⼊新的可加⼊的最近的数据点。 3.针对加⼊的新数据点,重新计算每⼀聚类中所有向量的平均值,并确定出新的质⼼。 4.重复2-3步骤,进⾏⼀定次数的迭代,直到质⼼的位置不再发⽣太⼤变化。 优缺点: 优点:速度快, 时间复杂度O(n) 。 缺点:如何 ⼀开始就确定聚类个数K ;⼀开始质⼼点的选取是随机的,质⼼点的位置不可重复且缺乏⼀致性 。 K-Means效果图 2.2⾼斯混合模型(GMM) 其是指多个⾼斯分布函数的线性组合,⽤两个参数来描述聚类的形状 :均值和标准差。 以⼆维分布为例,标准差的存在允许聚类的形 状,相⽐如K-Means算法,更加灵活地对点进⾏分类。在图像上可表⽰为多类型的椭圆,⽽不再限制于圆形(K-Means)。 如果数据点 符合某个⾼斯分布 ,那它就会被归类为那个聚类。 为了找到每个聚类的参数,EM算法【Wu X, Kumar V, Quinlan J R, et al. Top 10 algorithms in data mining[J]. Knowledge and information systems, 2008, 14(1): 1-37.】在这⾥极为重要 ! EM 算法是⼀种迭代优化策略,由于它的计算⽅法中每⼀次迭代都分两步,其中⼀个为期望步 (E 步),另⼀个为极⼤步( M 步),所以算法被称为EM 算法( Expectation-Maximization Algorithm)。 基本思想:⾸先根据⼰经给出的观测数据, 估计出模型参数的值;然后再依据上⼀步估计出的参数值估计缺失数据的值,再根据估计出的 缺失数据加上之前 ⼰经观测到的数据重新再对参数值 进⾏估计,然后反复 迭代,直⾄最后 收敛,迭代结束。 缺点:与K-Means相⽐,GMM每⼀步迭代的计算量⽐较⼤。 基于EM算法,有可能陷⼊局部极值,需要经过多次迭代。 2.3 Mean-Shift 1975年,Fukunaga和Host

文档评论(0)

文库垃圾佬 + 关注
实名认证
文档贡献者

这个人很懒

1亿VIP精品文档

相关文档