模式識别实习报告.docVIP

  1. 1、本文档共5页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
模式識别实习报告

模 式 识 别 实 习 报 告 实习目的 1.习使用ERDAS软件对遥感影像进行监督分类和非监督分类。 2.编程实现K-均值算法 基本原理 (一)非监督分类 非监督分类思想:非监督分类是指人们事先对分类过程不施加任何的先验知识,而仅凭数据遥感影像地物的光谱特征的分布规律,即自然聚类的特性进行“盲目”的分类。其分类的结果只是对不同类别达到了区分,但并不能确定类别的属性。其类别的属性是通过分类结束后目视判读或实地调查确定的。非监督法是边学习边分类,通过学习找到相同的类别,然后将该类与其他类区分开 (二)监督分类 监督分类思想:根据已知的样本类别和类别的先验知识,确定判别函数和相应的判别准则,其中利用一定数量的已知类别函数中求解待定参数的过程称之为学习或训练,然后将未知类别的样本的观测值代入判别函数,再依据判别准则对该样本的所属类别作出判定。 监督分类过程: 选择样区:根据已知的样本类别和先验知识; 学习或训练:利用一定数量的已知类别函数中求解待定参数; 确定每一类的判别函数和相应的判别准则; 计算未知类别的样本观测值的在每一类函数值; 5.判别:按一定准则对该样本作出判定。 (三)K均值算法 K均值算法思想:基于使聚类性能指标最小化,所用的聚类准则函数是聚类集中每一个样本点到该类中心的距离平方之和,并使其最小化。 K均值算法步骤: 1任选K个初始聚类中心 。一般以开头K个样本作为初始中心。 2将模式样本集的每一样本按最小距离原则分配给K个聚类中心,即在第m次迭代时,若: 则 , 表示第m次迭代时,以第j个聚类中心为代表的聚类域。 3由步骤(2),计算新的聚类中心,即: 式中Ni为第i个聚类域 中的样本个数。其均值向量作为新的聚类中心,因为这样可以使误 差平方和准则函数: 达到最小值。 4若 ,算法收敛,计算完毕。否则返回到步骤(2),进行下一次迭代。 K均值算法流程图: 实习步骤 1在ERDAS中进行监督分类 1 )Viewer,并载入待分类的img图像 2 )击Classifier并选择Signature Editor并点出Raster工具栏。 3 )用多边形工具选择样区并点击Create New Signature(s) from AOI来建立新类,为类别取上地物名称,并选择希望在分类后图像上显示的颜色。依此方法一次选择出长江,新城区,老城区,植被,农田,清洁水,污染水,汉江,桥这几类。 4 )择Classify下的Supervised Classification,选择9 Best Classes Per Pixel,取消Output Distance File,其他宝石默认,点击OK便生成了分类后的图像。 2在ERDAS中进行非监督分类 1 )开Viewer,并载入待分类的img图像 2 )击Classifier,选择Unsupervised Classification 3 )Input Raster File中载入原影像,在Output Cluster Layer Filename中选择输出图像位置。Number of Class选择6,其余保持默认,点OK便生成了分类后的图像。 3 编成实现K均值算法 核心代码: #include iostream.h #define K 3 #define N 10 void main() { int i=0,j=0; float samples[N][3]={{0,0,0},{3,8,0},{2,2,0},{1,1,0},{5,3,0},{4,8,0},{6,3,0},{5,4,0},{6,4,0},{7,5,0}}; float Z[K][2]; //聚类中心初始化 for(i=0;iK;i++) { for(j=0;j2;j++) { Z[i][j]=samples[i][j]; } } bool go_on=true; while(go_on) { //根据当前聚类中心分类 for(i=0;iN;i++) { float distance[K]; //计算到各个聚类中心的距离 for(j=0;jK;j++) { distance[j]=(samples[i][0]-Z[j][0])*(samples[i][0]-Z[j][0]) +(sampl

文档评论(0)

df9v4fzI + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档