- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
计算机视觉——图像分割
【本学期选修国科⼤⾼伟⽼师的计算机视觉课程,本⼈⽅向也是cv,因此想通过博客⽅式记录课程中⽐较重要的点,巩固并且进⾏⼀些扩展
学习】
【本章节内容针对图像分割进⾏讲解】
接下来我们将主要针对以下内容进⾏介绍:
早期的图像分割⽅法
基于特定理论的⽅法 :Mean Shift 、Normalized Cut、Graph Cut
基于深度神经⽹络的图像分割 :FCN、SegNet、R-CNN
⼀.早期图像分割⽅法:
1. 阈值法*
2. 区域⽣长法
3. 分裂合并法
4. 基于边缘的分割⽅法*
5. 等等
这边重点介绍加粗变红部分。
1.1阈值法
基本原理: 通过设定不同的特征阈值 ,把图像像素点分为若⼲类。常⽤的特征包括:灰度、彩⾊特征、由原始灰度或彩⾊值变换得到的特
征。
上图T值便是我们设置的阈值。
但是如果遇到灰度级集中的情况,简单的设置阈值往往达不到很好的效果。如下图左边灰度级过于集中;或者右边应为光圈问题,在后期
提取情况造成了很⼤的偏差。
针对此,我们引⼊了
1.2 局部阈值法:
基本原理:将图像分块,分别⽤全局阈值⽅法分割,最后再综合。
1.3 基于边缘的分割⽅法:
基本步骤:
1 )检测边缘
2 )根据边缘将图像分割成不同的区域
⽐如我们需要完成以下任务:在只有0-1灰度级的图中,我们想要捕捉-45度的线。
解决⽅案:引⼊⼀个 算⼦,表⽰-45度的斜线,在通过 阈值来保存我们所需要的线。
Hough⽅法
图像中检测直线的⼀种⽅法,该⽅法也可以检测其他参数化的物体,⽐如圆或者椭圆等。
该技术在 1959 年最早由 Paul Hough 提出。
在图像x-y坐标空间,经过点( , ) 的直线可以表⽰为yi=a*xi+b,在不同的a、b的条件下,直线存在⽆数条。
同样,若将a、b看成是变量,则可以表⽰为b=-xi*a+yi,对应a-b空间的⼀条线。
若此时想要利⽤a-b空间找到左图同时过两个点的线,可以通过右图相加的点找到对应的a0和b0来确定该条直线。
但是存在⼀个问题:若直线垂直于x轴,这意味着a值趋向于⽆穷⼤。
因此针对该现象,我们引⼊了极坐标:
其中相交的点便是我们寻找的条件。
⼆ .基于特定理论的⽅法 :(Clustering聚类⽅法为主)
2.1 K-Means
步骤如下:
1.确定聚类( cluster ,也称簇)中⼼的个数 K ,并为它们随机初始化⼀个各⾃的聚类质⼼点。
2.根据每个数据点到质⼼的距离来进⾏分类,加⼊新的可加⼊的最近的数据点。
3.针对加⼊的新数据点,重新计算每⼀聚类中所有向量的平均值,并确定出新的质⼼。
4.重复2-3步骤,进⾏⼀定次数的迭代,直到质⼼的位置不再发⽣太⼤变化。
优缺点:
优点:速度快, 时间复杂度O(n) 。
缺点:如何 ⼀开始就确定聚类个数K ;⼀开始质⼼点的选取是随机的,质⼼点的位置不可重复且缺乏⼀致性 。
K-Means效果图
2.2⾼斯混合模型(GMM)
其是指多个⾼斯分布函数的线性组合,⽤两个参数来描述聚类的形状 :均值和标准差。 以⼆维分布为例,标准差的存在允许聚类的形
状,相⽐如K-Means算法,更加灵活地对点进⾏分类。在图像上可表⽰为多类型的椭圆,⽽不再限制于圆形(K-Means)。
如果数据点 符合某个⾼斯分布 ,那它就会被归类为那个聚类。
为了找到每个聚类的参数,EM算法【Wu X, Kumar V, Quinlan J R, et al. Top 10 algorithms in data mining[J]. Knowledge and
information systems, 2008, 14(1): 1-37.】在这⾥极为重要 !
EM 算法是⼀种迭代优化策略,由于它的计算⽅法中每⼀次迭代都分两步,其中⼀个为期望步
(E 步),另⼀个为极⼤步( M 步),所以算法被称为EM 算法( Expectation-Maximization
Algorithm)。
基本思想:⾸先根据⼰经给出的观测数据, 估计出模型参数的值;然后再依据上⼀步估计出的参数值估计缺失数据的值,再根据估计出的
缺失数据加上之前 ⼰经观测到的数据重新再对参数值 进⾏估计,然后反复 迭代,直⾄最后 收敛,迭代结束。
缺点:与K-Means相⽐,GMM每⼀步迭代的计算量⽐较⼤。 基于EM算法,有可能陷⼊局部极值,需要经过多次迭代。
2.3 Mean-Shift
1975年,Fukunaga和Host
原创力文档


文档评论(0)