专题四:分类后处理.ppt

  1. 1、本文档共52页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
图像分类及分类后处理 面向对象的分类方法介绍 主要流程 评价指标 运行误差(Commission) :又称错分误差,是图像上某一类地物被错分到其它地物的百分比。     (E+F)/G 用户精度( User Accuracy ):用户精度是指假定分类器将像元归到A类,则相应的地表真实类别是 A 的可能性。 A/G 结果误差:又称漏分误差,是指实际的某一类被错误分到其他类的百分比。    (B+C)/D 生产者精度(制图精度): 表示实际任意一个随机样本与分类图上同一点的分类结果相一致的条件概率。 A/D=100%-结果误差 总体精度: 正确分类样本数/总检验样本数 对角线的各元素总和是正确分类样本数 Kappa系数: Kappa系数是一个测定两副图之间精度(吻合度)的指标。 分类总体精度与Kappa 的区别在于总体精度只用到了位于对角线上的像素数量, Kappa则考虑了对角线上被正确分类的像素,又考虑了不在对角线上的各种漏分和错分错误。 k 分类质量 0 很差 0-0.20 差 0.20-0.40 一般 0.40-0.60 好 0.60-0.80 很好 0.80-1.00 极好 在统计学中, Kappa系数列为非参数统计方法,用来衡量两个人对同一物体进行评价时,其评定结论的一致性,1表示有很好的一致性,0表示一致性不比偶然性更好。 单纯依靠单一分类方法很难达到实用精度。 图像的制约 :信息传递的局限性和复杂相关性 方法的制约:多依靠光谱信息,其它信息未得到充分应用。 初始条件的随机性 难以找到最优分类特征 难以融合专家知识,不可重复性 图像分类中难以消除错分和漏分,分类精度一般只有60%-70%,难以达到精度要求。这已经成为阻碍遥感技术大规模实用化的瓶颈之一。 多信息综合(复合分类) 几何信息:湖泊/水塘/河流;农田和林地 纹理信息:通过图像变换等进行抽取,像素的空间变化特征及其组合情况。 地形信息: (1)总体精度是多少?(3分) (2)森林的生产者精度(制图精度)是多少?(3分), 草地的错分误差是多少?(3分) (3)经过计算,该图的Kappa 系数= 0.2648,评价该图的分类质量(2分)? 提纲: 技术路线说明 数据基本信息 统计参数 重点步骤 (一)监督分类 1.利用最大似然法进行北京市区的土地利用分类 分为水域、绿地、建设用地、其它用地等四种 (1)样区选择不低于总像素的10% (2)各类别的样本分离度大于0.8 2.同理,利用最小距离法进行北京市区的土地利用分类 (二)分类后处理 利用分类后处理进行进一步的图像处理 1)去除“椒盐”现象 2)分类精度评价 不低于 80% 3)分类统计 4)转换成矢量图 要求提交: 分类结果专题影像图/分类结果矢量图 分类结果统计表 分类精度评价表 review 叙述监督分类的流程。 Decision Tree Classification(决策树分类) ENVI Tutorials P121 决策树的运用前提 分类者熟悉决策的后果(地学原理) 多个图象/多级分类 基于像元 决策树分类的原理 ENVI中决策树分类的基本操作 决策树的定义 A decision tree is a type of multistage classifier that can be applied to a single image or a stack of images. It is made up of a series of binary decisions that are used to determine the correct category for each pixel. have a binary result of 0 or 1. The 0 result is sent to the No branch and the 1 result is sent to the Yes branch of the decision tree. 决策树的基本模式 each decision divides the data into one of two possible classes. 树 逐级分类 ENVI Decision Tree Text File begin node name = ndvi0.3 type = Decision location = 1,1 expression = {ndvi} gt 0.3 end node 变量(Variables )及常用表达 The variables in ENVIs dec

文档评论(0)

junjun37473 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档