基于多路径特征融合的遥感图像语义分割 (1).pdfVIP

基于多路径特征融合的遥感图像语义分割 (1).pdf

  1. 1、本文档共72页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

基于多路径特征融合的遥感图像语义分割

摘要

遥感影像对城市规划、土地利用及地理信息系统建设等具有重要作用,随着深度学习

和卷积神经网络的不断发展,对精确和有效的遥感图像分割要求变得越来越强烈,而传统

的遥感图像分割主要依赖遥感图像的底层特征和纹理特征,在进行图像分割时精度不高、

鲁棒性低,无法满足遥感图像分割的准确性需求,因此本文开展对遥感图像语义分割算法

的课题研究。

为了更好地提升遥感图像分割的准确率,本文基于ResNet18基础网络搭建三种路径,

提出了一种基于多路径特征融合的遥感图像语义分割模型;基于该模型应用Vaihingen、

Potsdam、WHU等公开数据集进行遥感图像语义分割算法研究与试验;并采用全局准确率

GA、加权交并比WIoU和平均交并比MIoU等指标对试验模型的整体分割效果进行评价。

具体研究内容如下:(1)四种经典的深度分割模型试验与分析——基于FCN、SegNet、

DeepLabV3+(ResNet18)、DeepLabV3+(MobileNetV2)等四种模型在Vaihingen、Potsdam、

WHU建筑物等公开数据集进行试验,为验证本文所提出的多路径特征融合模型的有效性;

(2)多路径特征融合模型的构建与试验——基于ResNet18网络并结合空间信息路径、语

义信息路径和注意力路径进行模型搭建;其中空间信息路径使用高分辨率与低分辨率特征

相结合,语义信息路径使用空间金字塔,注意力路径使用通道注意力、空间注意力和金字

塔注意力;融合模块将不同路径所提取的特征进行融合;(3)多路径特征融合模型消融试

验与分析——为了验证模型的优越性,本文对所提出的多路径特征融合试验进行语义信息

路径与注意力路径的消融试验;(4)多路径特征融合模型空洞比率对比试验与分析——为

了进一步验证新模型的有效性,本文对金字塔模块的空洞比率进行试验,进一步探讨空洞

比率对新模型的影响。

试验结果包括:(1)本文所提出模型在三套数据集上,全局准确率比FCN网络、SegNet

网络、DeepLabV3+(ResNet18)网络、DeepLabV3+(MobileNetV2)网络平均分别高出

5.537%、1.428%、1.348%和2.670%;加权交并比相比于四种经典模型平均分别高出8.988%、

2.112%、2.539%和4.294%;平均交并比相比于四种经典模型平均分别高出10.361%、2.457%、

1.770%、5.274%。(2)在消融试验方面,本文所提出模型的全局准确率比试验1~试验6(消

融试验)分别高出0.453%、0.287%、0.393%、1.379%、0.329%和0.867%;加权交并比比

试验1~试验6分别高出1.369%、1.225%、0.936%、3.321%、0.825%、1.438%;平均交并

比比试验1~试验6分别高出1.205%、0.674%、2.162%、2.901%、2.574%、2.193%。(3)

在空洞比率对比试验方面,本文所提出模型比试验7(空洞比率对比试验)分割准确性好,

全局准确率、加权交并比、平均交并比比试验7分别高出0.183%、0.364%、1.182%。

试验结果表明:(1)本文所提出的新模型——多路径特征融合模型,分割效果好于FCN、

SegNet、DeepLabV3+(ResNet18)、DeepLabV3+(MobileNetV2)四种经典分割模型;(2)消

融试验方面,新模型中语义信息路径和注意力路径缺少任何一种都将会影响分割效果;(3)

空洞比率对比试验方面,新模型在仅改变空洞比率情况下,空洞比率较小的模型整体分割

效果不好,新模型空洞比率较大,进行语义分割时效果较好。本文所提出的基于多路径特

征融合模型分割效果优于经典网络,为遥感图像语义分割提供了一种新选择。

关键词:

语义分割,遥感图像,空间信息路径,语义信息路径,注意力路径,特征融合

SemanticSegmentationforRemotelySensedImageBasedonMulti-PathFeature

Fusion

Abstract

您可能关注的文档

文档评论(0)

论文资源 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档