国土资源遥感, 2020, 32(2): 120-129 doi: 10.6046/gtzyyg.2020.02.16

技术方法

基于DeepLabv3+语义分割模型的GF-2影像城市绿地提取

刘文雅1,2,3, 岳安志2,3, 季珏4, 师卫华,4, 邓孺孺1,5,6, 梁业恒1, 熊龙海1

1.中山大学地理科学与规划学院,广州 510275

2.空天地海一体化大数据应用技术国家工程实验室,北京 100101

3.中国科学院空天信息创新研究院,北京 100101

4.中国住房和城乡建设部城乡规划管理中心,北京 100101

5.广东省城市化与地理环境空间模拟重点实验室,广州 510275

6.广东省水环境遥感监测工程技术研究中心,广州 510275

Urban green space extraction from GF-2 remote sensing image based on DeepLabv3+ semantic segmentation model

LIU Wenya1,2,3, YUE Anzhi2,3, JI Jue4, SHI Weihua,4, DENG Ruru1,5,6, LIANG Yeheng1, XIONG Longhai1

1. School of Geography and Planning, Sun Yat-sen University, Guangzhou 510275, China

2. National Engineering Laboratory for Integrated Air-Space-Ground-Ocean Big Data Application Technology, Beijing 100101, China

3. Aerospace Information Research Institute, Chinese Academy of Sciences, Beijing 100101, China

4. Ministry of Housing and Urban-Rural Development of the People’s Republic of China, Beijing 100101, China

5. Guangdong Engineering Research Center of Water Environment Remote Sensing Monitoring, Guangzhou 510275, China

6. Guangdong Provincial Key Laboratory of Urbanization and Geo-Simulation, Guangzhou 510275, China

通讯作者: 师卫华(1982-),男,博士,副研究员,研究方向为园林绿化技术管理、园林绿化信息化。Email:20143262@qq.com

责任编辑: 张仙

收稿日期: 2019-07-19   修回日期: 2020-02-9   网络出版日期: 2020-06-15

基金资助: 国家科技重大专项项目“GF-6卫星宽视场影像林地/非林地类型快速识别”.  21-Y20A06-9001-17/18-3
国家重点研发计划项目“城镇生态资源高分遥感与地面协同监测关键技术研究”.  2017YFB0503903
国家科技重大专项项目“高分辨率对地观测重大专项”.  03-Y20A04-9001-17/18
广东省省级科技计划项目“珠江三角洲大气污染高分遥感监测及预警”.  2017B020216001
中央高校基本科研业务费专项资金“裸土区浅层地下水埋深遥感反演研究”.  19lgpy45

Received: 2019-07-19   Revised: 2020-02-9   Online: 2020-06-15

作者简介 About authors

刘文雅(1995-),女,硕士研究生,主要从事深度学习图像处理研究。Email:liuwy28@mail2.sysu.edu.cn。 。

摘要

高效准确地提取城市绿地对国土规划建设意义重大,将深度学习语义分割算法应用于遥感图像分类是近年研究的新探索。提出一种基于DeepLabv3+深度学习语义分割网络的GF-2遥感影像城市绿地自动化提取架构,通过网络的多孔空间金字塔池化(atrous spatial pyramid pooling,ASPP)等模块,提取高层特征,并依托架构完成数据集创建,模型训练,城市绿地提取以及精度评估。研究表明,本文架构分类的总体精度达到91.02%, F值为0.86,优于最大似然法(maximum likelihood, ML)、支持向量机(support vector machine, SVM)和随机森林法(random forest, RF)3种传统方法及另外4种语义分割网络(PspNet,SegNet,U-Net和DeepLabv2),可以准确提取城市绿地,排除农田像元干扰; 此外,对另一地区的提取试验也证实了本架构具有一定的迁移能力。所提出的GF-2遥感影像城市绿地自动化提取架构,可实现更精确、效率更高的城市绿地提取,为城市规划管理提供参考。

关键词: 城市绿地 ; DeepLab ; 深度学习 ; 语义分割 ; GF-2

Abstract

The efficient and accurate extraction of urban green space (UGS) is of great significance to land planning and construction. The application of deep learning semantic segmentation algorithm to remote sensing image classification is a new exploration in recent years. This paper describes a multilevel architecture which targets UGS extraction from GF-2 imagery based on DeepLabv3plus semantic segmentation network. Through Atrous Spatial Pyramid Pooling (ASPP) and other modules of the network, high-level features are extracted, and data set creation, model training, urban green space extraction and accuracy evaluation are completed relying on the architecture. The accuracy evaluation shows that DeepLabv3plus outperforms the traditional machine learning methods, such as maximum likelihood (ML), support vector machine (SVM), random forest (RF) and other four semantic segmentation networks (PspNet, SegNet, U-Net and DeepLabv2), allowing us to better extract UGS, especially exclude interference of farmland. Through accuracy evaluation, the proposed architecture reaches an acceptable accuracy, with overall accuracy being 91.02% and F Score being 0.86. Furthermore, the authors also explored the portability of the method by applying the model to another city. Overall, the automatic architecture in this paper is capable of excluding farmland pixels'interference and extracting UGS accurately from RGB high spatial RS images, which provides reference for urban planning and managements.

Keywords: urban green space ; DeepLab ; semantic segmentation ; deep learning ; GF-2

PDF (9409KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

刘文雅, 岳安志, 季珏, 师卫华, 邓孺孺, 梁业恒, 熊龙海. 基于DeepLabv3+语义分割模型的GF-2影像城市绿地提取. 国土资源遥感[J], 2020, 32(2): 120-129 doi:10.6046/gtzyyg.2020.02.16

LIU Wenya, YUE Anzhi, JI Jue, SHI Weihua, DENG Ruru, LIANG Yeheng, XIONG Longhai. Urban green space extraction from GF-2 remote sensing image based on DeepLabv3+ semantic segmentation model. REMOTE SENSING FOR LAND & RESOURCES[J], 2020, 32(2): 120-129 doi:10.6046/gtzyyg.2020.02.16

0 引言

近年来,快速的城市化进程引发了温室效应、空气污染等各类环境问题。研究表明,城市绿地对改善生态环境、缓解城市病、约束城市无序增长、满足市民休闲需求等方面意义重大,快速准确地监测城市绿地空间分布是城市可持续发展的基础保障[1,2]

城市绿地是指以自然植被和人工植被为主要存在形态的地表层,其尺度不一,分布范围广,且某些绿地与城市中的农田交错,在分类时极易被混淆,这使得中低空间分辨率的遥感影像难以满足高精度分类的要求。国内外已有较多高空间分辨率遥感影像提取城市绿地的相关研究。传统的人工目视解译方法精度较高,但耗时耗力,且要求解译人员具有丰富的先验知识。Liu等[3]结合支持向量机(support vector machine,SVM)和决策树方法,采用WorldView-2数据对东海区域漂浮的红树林进行监测; Zylshal等[4]结合了SVM和面向对象相似性度量的方法搭建了城市绿地提取的框架,抑制了主观性因素,提升了分类效率。此类方法大多基于像元光谱特征差异的分析,在分类时容易混淆光谱相似的地物。研究表明,上下文特征具备丰富的空间信息,Xu等[5]利用灰度共生矩阵提出了农田自动分层提取的架构; Zujovic等[6]在图像分类过程中加入纹理指标,消除了结果中的椒盐现象。然而,以上方法均依赖于人机交互,且参数设置十分复杂。

近年来广为关注的深度学习语义分割网络兼具计算机视觉的速度与精度。语义分割是指通过语义单元将图像分割为若干具有不同语义标识的区域,进而产生按类分割的影像[7]。最初结合深度学习的语义分割方法以卷积神经网络(convolutional neural networks,CNN)为主,其将每个像元周围固定尺寸的邻域划分成一个像元块,再对每个像元块进行训练和分类,得到的结果为该像元块中心像素的类别[8]。但CNN对每个像元都要进行区域划分和全程卷积运算,计算量庞大[9]。2014年Long等[10]提出的全卷积网络(fully convolutional networks,FCN)使用反卷积层取代CNN的全连接层,将分辨率减小的特征图进行上采样,还原输入图像的尺寸,降低运算量且解除了输入图像的尺寸限制。此后,以FCN为基础改进的大量语义分割网络方法纷纷涌现[11,12,13,14,15]。其中DeepLab网络模型延续了FCN所采取的全卷积操作,并进行了空洞卷积、金字塔池化等改进,近年来已被广泛应用于图像处理任务[16,17,18,19,20]。DeepLab系列网络结构在近2 a不断更新[21,22,23],其中DeepLabv3+是该网络模型的最新改进,它结合了编码-解码架构(encoder-decoder)和多孔空间金字塔池化(atrous spatial pyramid pooling,ASPP)的优点,通过逐渐恢复空间信息来捕捉清晰的目标边界[23]。在PASCAL VOC 2012数据集上的测试中,DeepLabv3+网络的精度指标突破新高,是目前最为成熟的语义分割网络之一,但仍鲜有学者将此类方法应用于高分辨率遥感影像的城市绿地提取。

基于以上讨论,本文提出一种基于DeepLabv3+网络的高分辨率遥感影像提取城市绿地架构,旨在实现更精确、自动化程度更高的城市绿地提取。通过多种方法的精度对比和本文架构的多地区应用,分别探究本方法的精度优势和迁移能力。

1 样本区域及数据来源

1.1 样本区域

图1所示,样本区域位于全国6个省份(包括内蒙古自治区、湖北省、广东省、江苏省、河北省及河南省)的6个城市的建成区,下文中分别以A—F区表示。其中A—D区的数据作为训练样本来源参与模型的训练,E区数据作为测试样本来源用于评估本文架构和其他方法的分类精度,F区数据用于探究本文架构的迁移能力。

图1

图1   样本数据来源分布

Fig.1   Samples data source distribution


1.2 数据来源

高分二号(GF-2)卫星是中国自主发射的民用光学遥感卫星,提供空间分辨率为1 m的全色波段和4个空间分辨率为4 m的多光谱波段数据,因其高清晰度和高几何精准度被广泛应用于测绘、国土监测和规划、灾后救援等任务[24]。本文所用数据为6个样本城市不同季节GF-2 PMS2的B3(R),B2(G),B1(B)波段合成影像及地面真值,影像成像时间分别为2016年的3月8日、7月 9 日、11月28日、9月16日、10月8日、6月2日; 地面真值包括城市绿地、农田和其他地物共3类。各景影像的云层覆盖率均低于5%。遥感影像获取于资源卫星应用中心官网,地面真值数据由中国住房和城乡建设部提供。考虑到某些城市在短期内可能受到政策影响,土地类型发生变更,因此,作者先对6景遥感影像及地面真值进行比对,修改错误地类; 对于部分无法明确判别的像元,进一步参考Google Earth影像进行判定和修正。

2 研究方法

2.1 城市绿地提取架构概述

本文提出一种基于DeepLabv3+网络的GF-2城市绿地提取架构。架构包含3层,分别是数据预处理与数据集构建、语义分割模型训练和城市绿地提取,如图2所示。

图2

图2   GF-2遥感影像城市绿地自动化提取流程

Fig.2   Urban green space automatic extraction process of GF-2 imagery


2.2 数据集创建

2.2.1 遥感影像预处理

首先使用影像自带的有理多项式系数(rational polynomial coefficient,RPC)参数分别对全色波段和多光谱波段进行RPC正射校正; 使用Pan-sharp融合方法进行图像融合,融合影像具有两者的优势,既具有全色图像的空间信息,又具有多光谱图像的光谱信息; 本文使用指数增强法进行图像增强。经预处理得到6个样本城市的GF-2 B3(R),B2(G),B1(B)波段合成影像,空间分辨率为1 m。

2.2.2 样本创建策略

为了进一步区分城市绿地与农田,本文将农田单独列为一类参与训练,即样本真值包含3类: 城市绿地(像元值为1)、农田(像元值为2)、其他地物(像元值为0)。由于整幅影像尺寸较大,计算机内存无法支持全图输入,需要对样本进行切割[25]。在高空间分辨率影像中,城市绿地与农田像元的最大区别体现在,前者呈不规则形状排布,后者多为边缘整齐的多边形,且农田的纹理相比城市绿地而言更为细腻。当单样本尺寸过小,会破坏地物形状及纹理特征,降低农田与绿地的区分度; 样本尺寸太大会消耗大量内存,且易出现过拟合的现象[26]。因此,本文基于多尺度样本的分类实验,探究最适宜城市绿地提取的样本尺寸。如图3所示,当城市绿地样本的切割大小为256×256像素,切割步长为128时,总体分类精度最高。

图3

图3   总体分类精度随训练样本尺度的变化

Fig.3   Overall accuracy varies with different sample sizes


以往研究表明,正负样本的平衡可以提高分类器的性能[18,19,20]。因此,绘制直方图去除0值像元占单样本像元总数80%以上的样本,以平衡正负样本量。此外,保证足量的训练样本数可以避免出现模型过拟合现象,因此再进行样本扩充操作: 逐样本进行垂直、水平2次镜像,90°和270°旋转以及2次随机噪声添加,得到有效样本27 467个,随机抽取10%作为训练过程中的验证样本。

2.3 模型训练

2.3.1 DeepLabv3+网络

DeepLabv3+语义分割网络模型的最大特点是在DeepLabv3的基础上采用了编码-解码架构,其整体的网络结构如图4所示。DeepLabv3+结构设计了多个不同空洞率的空洞卷积模块,可在多尺度上探测卷积特征,编码全局上下文特征。空洞卷积的原理如图5所示,该方式在增大卷积感受野的同时,卷积层不会降低空间维度,也不会增加参数数量,实现精度与速度的均衡。此外,也可以明确地控制神经网络特征响应的空间分辨率。网络的解码部分采用一个简单有效的模块。编码器输出的特征先经过双线性上采样4倍得到特征层A,再取解码器中对应着相同分辨率的特征层,经过1×1卷积降通道得到特征层B,然后对特征A和B进行concat函数连接操作,再经过3×3卷积细化特征,最终通过双线性上采样4倍得到预测结果。

图4

图4   DeepLabv3+网络结构

Fig.4   Architecture of DeepLabv3+


图5

图5   空洞卷积示意图

Fig.5   Figure of atrous convolution


DeepLabv3+还将空洞卷积与深度分离卷积结合,形成扩张分离卷积,应用于ASPP模块和解码结构中。2种卷积的结合可以在减少运算量的同时保证分类效果。深度可分离卷积把标准卷积分解为深度卷积和逐点卷积,原理如图6所示,其中深度卷积独立地对每个输入通道做空间卷积,逐点卷积用于结合深度卷积的输出。

图6

图6   深度可分离卷积示意图

Fig.6   Figure of depth wise separable convolution


2.3.2 硬件配置及参数设置

实验以TensorFlow作为开发框架,计算机硬件配置为GTX 1070GPU,11 G显存,128 G内存,能快速实现语义分割模型的训练和测试。网络训练前要对模型参数进行设置: 通道个数及类别数均设置为3; batch size设为4; 设置100个epoch; 基础学习率设为1E-3; 学习策略为ploy方式,power=0.9; 梯度下降方式选择SGD(随机梯度下降)。

为了证明本架构在高空间分辨率遥感影像提取城市绿地方面的优越性,采用最大似然法(maximum likelihood, ML)、支持向量机(support vector machine, SVM)和随机森林法(random forest, RF)3种传统的机器学习方法以及PspNet,SegNet,U-Net和DeepLabv2 4种典型的语义分割网络与DeepLabv3+网络进行实验对比。3种传统方法实验采用R,G,B 3波段影像,基于ENVI软件完成,ML法参数设置包括: 概率阈值为0.2,数据比例因子为255,核类型为径向基函数,核函数Gamma值为1/3; SVM参数设置包括: 惩罚参数为100,金字塔级别为0,分类概率阈值为0,分支数为100,特征数为Square Root; RF法参数设置为: 异质函数为Gini Coefficient,最小节点采样数为1,最小异质为0。5种语义分割网络的训练样本及参数设置保持一致。

2.4 城市绿地提取

2.4.1 精度评价指标

混淆矩阵是最常用且科学的遥感影像分类评价指标,基于混淆矩阵计算出的常用指标有: 精确度(Precision)、召回率(Recall)、F值和总体精度(Overall Accuracy,OA)。其中OA代表所有正确分类的像元占总像元的比例; Precision代表各类分类结果中正确像元所占的比例; Recall代表各类正确分类的像元占真值的比例; F值又称为总体精度和精确度的调和平均,在二分类模型中具有较强的客观性。

2.4.2 精度评估策略

整景测试影像尺寸较大,难以进行逐像素评估,因此本文从处理后的E区影像及地面真值中随机选取6组尺寸为2 048×2 048像元的测试切片用于精度评估,如图7所示。

图7

图7   6组测试影像切片及对应真值

Fig.7   Six validation slices with of test images and their GT labels.


3 结果与讨论

3.1 传统方法结果对比

ML,SVM和RF3种传统方法的分类结果和精度指标分别如表1表2所示 ,表1中绿色为城市绿地、黄色为农田、白色为其他地物; 表2中粗体为纵向比较最高值。如表1表2所示,传统方法的分类结果中出现了严重的椒盐现象,大面积农田中尤为明显,这表明传统方法不能很好地排除农田像元的干扰。SVM方法的平均精度高于其他2种传统方法(Precision = 61.92%; Recall= 71.96%; F=0.66; OA= 77.68%)。语义分割网络DeepLabv3+提取精度的各项指标均高于SVM,以上结果进一步体现出语义分割网络在提取城市绿地,尤其是排除农田像元干扰方面的优势。

表1   传统方法提取城市绿地结果对比

  Extraction results comparison of traditional methods

新窗口打开| 下载CSV


表2   传统方法结果精度对比

Tab.2  The precision results comparison of traditional methods

指标方法切片1切片2切片3切片4切片5切片6平均值
Precision/%ML52.2841.1844.7775.8750.4063.7054.70
SVM68.4254.8769.7476.3743.7158.3961.92
RF56.6459.3059.9769.1441.6960.5557.88
DeepLabv3+88.6386.5488.286.4981.2386.9986.35
Recall/%ML60.1361.6159.2678.1267.6763.0864.98
SVM79.6770.5767.8880.9967.9464.7271.96
RF59.3768.9565.1775.6869.2764.0967.09
DeepLabv3+83.4287.1186.9678.7388.0886.2685.09
FML0.560.500.510.770.560.630.59
SVM0.740.620.690.790.530.610.66
RF0.580.640.620.720.520.620.62
DeepLabv3+0.860.870.880.820.850.870.86
OA/%ML73.9965.2964.1281.1174.9472.4271.98
SVM84.3275.9880.6082.1871.4169.1977.68
RF76.3778.4875.3276.5169.4870.6174.46
DeepLabv3+92.5192.7492.2387.2492.2890.6891.02

新窗口打开| 下载CSV


传统方法的提取效果次于语义分割网络,是由于传统方法仅考虑了像元间的浅层特征,忽略了目标的深层语义信息。有研究表明,结合面向对象的思想或参考纹理等空间信息可以提升传统方法的分类性能,但此类方法都需要专家的先验知识和复杂的参数设置。

3.2 语义分割网络结果对比

5种语义分割网络(PspNet,SegNet,U-Net,DeepLabv2及DeepLabv3+)的城市绿地提取结果如表3所示,其中绿色为城市绿地、黄色为农田、白色为其他地物; 精度指标对比如表4所示,表4中粗体为纵向比较最高值。

表3   语义分割网络提取城市绿地结果对比

Tab.3  Extraction results of semantic segmentation networks

新窗口打开| 下载CSV


表4   语义分割网络结果精度对比

Tab.4  The precision results comparison of semantic segmentation networks

指标方法切片1切片2切片3切片4切片5切片6平均值
Precision/%PspNet74.1372.8182.6283.7873.8572.3676.59
SegNet76.3470.0981.9485.7978.6678.6978.59
U-Net85.8377.5878.4281.4275.6278.6779.59
DeepLabv274.0981.4181.0386.1972.9174.3078.32
DeepLabv3+88.6386.5488.2086.4981.2386.9986.35
Recall/%PspNet81.6271.1883.6375.2172.1475.5276.55
SegNet80.8385.1978.7073.6874.2085.6779.71
U-Net80.3186.9978.1073.3072.5585.4179.45
DeepLabv278.3181.5288.8281.4974.8079.8180.79
DeepLabv3+83.4287.1186.9678.7388.0886.2685.09
FPspNet0.770.720.830.790.730.740.77
SegNet0.790.770.800.790.760.820.79
U-Net0.830.820.780.770.750.800.79
DeepLabv20.760.810.850.840.750.760.79
DeepLabv3+0.860.870.880.820.850.870.86
OA/%PspNet87.1384.7989.3084.0979.7987.2585.39
SegNet87.8685.9587.8284.4285.8089.0286.81
U-Net90.9689.5386.3282.4484.0588.7387.01
DeepLabv286.5389.8189.9287.2481.1387.7987.07
DeepLabv3+92.5192.7492.2386.4389.9292.2891.02

新窗口打开| 下载CSV


表3所示,从整体而言,本文采用的DeepLabv3+网络具有明显的精度优势,能准确还原绿地分布,也具备区分农田像元的能力。几种网络对比而言,U-Net和DeepLab系列网络善于提取出细节处的城市绿地(切片1和2),例如建筑物周围的草地及道路两旁的行道树。切片3,4,6的结果显示,某些农田像素仍被误判为城市绿地,这是由于它们与周边草地具有相似的地形信息,而DeepLab系列网络在这种情况下表现更好。另一方面,当出现某些和农田形状十分相似的城市绿地时,除了DeepLabv2和DeepLabv3+外,其他几种网络的提取结果均不理想(切片5)。不可否认的是,在某些情况下,模型的精度不理想是由于缺少相关样本,模型未能学习到足够的语义信息。综合6组结果,DeepLabv2和DeepLabv3+不仅可以更好地保留绿地的细节信息,获得规整精细的绿地边缘,还能准确提取出与农田交错的绿地像元,特别是区分形状与农田相似的城市绿地。

表4中的精度对比显示,几个指标的平均最高值(Precision=86.35%; Recall=85.09%; F=0.86; OA=91.02%)均来自DeepLabv3+的分类结果。其他4种网络的精度对比中,DeepLabv2稍具优势。

3.3 模型迁移性验证

实践证明,本架构适用于GF-2影像提取城市绿地,且具备精度优势。然而,深度学习的另一个优势是其优秀的迁移能力,因此,将本文架构应用于E区和F区的绿地提取,并验证分类精度,以证明本架构的迁移能力。由于整景影像较大,在模型预测时,采用分块读取策略,每次测试256×256像素大小的区域,测试步长为32像素。城市全图的精度评估采用随机撒点的方法,即在影像中随机采集10 000个验证点,对各验证点进行混淆矩阵及精度指标计算。E区和F区的城市绿地提取结果如图8所示,定量精度评估如表5表6所示。

图8

图8   基于本文架构的E区、F区城市绿地提取结果

Fig.8   The results of entire area E and area F based on the proposed architecture


表5   E区提取精度

Tab.5  Precision results of entire area E

真值提取结果
城市绿地非绿地合计
城市绿地6 5983256 923
非绿地2532 8243 077
合计6 8513 14910 000
Recall/%95.30
Precision/%96.30
F0.95
OA/%94.22

新窗口打开| 下载CSV


表6   F区提取精度

Tab.6  Precision results of area F

真值提取结果
城市绿地非绿地合计
城市绿地6 8115237 334
非绿地1692 4972 666
合计6 9803 02010 000
Recall/%92.87
Precision/%97.58
F0.95
OA/%93.08

新窗口打开| 下载CSV


图8表5可见,本文架构可以实现从GF-2融合影像中提取城市绿地,获得较优的结果,尤其是在准确地区分城市绿地和农田,还原细节处的绿地和规整的目标轮廓方面表现较好。对E,F区2景影像的测试分别耗时22 min和26 min,分类结果的OA分别达到94.22%和93.08%,证明本文架构具有一定的泛化能力,可为大批量数据的遥感影像分类任务提供参考。

4 结论

高空间分辨率遥感影像为城市地表监测提供了更丰富的空间信息,快速准确地监测城市绿地分布,创建智能化提取流程,对城市可持续发展意义重大。本文提出了一种基于DeepLabv3+语义分割网络的3层架构,旨在实现更高效、更准确地从GF-2影像中提取城市绿地,在实验中得到了如下结论:

1)ML,SVM,RF 3种传统的机器学习算法可以实现影像自动分类,但城市绿地提取结果中无法避免椒盐效应,且无法区分光谱相似的农田像元,分类精度较低,而结合面向对象的思想或引入空间特征均依赖于人机交互,效率较低。

2)深度学习语义分割算法兼具计算机视觉的精度和速度,本架构采用的DeepLabv3+在几种网络中表现最优,精确度、召回率、F值和总体精度分别达到86.35%,85.09%,0.86和91.02%,证明DeepLabv3+可通过其成熟的结构捕获样本中丰富的空间信息和上下文特征,实现了城市绿地的高精度提取,且过程高度自动化。此外,通过不同城市的应用,证明本架构还具备一定的通用性,可为大规模数据的城市监测任务提供参考。

3)总体而言,深度学习语义分割技术具有广阔的应用前景,必将推动遥感图像处理任务的范式转换。由于深度学习网络训练的过程十分复杂且高度封装,本文仍存在不足之处,如未能深入探究深度学习模型在区分农田能力方面的机理依据等。下一步将重点探究网络内部结构对不同地物提取的影响机制。

参考文献

刘小平, 邓孺孺, 彭晓鹃.

城市绿地遥感信息自动提取研究——以广州市为例

[J]. 地域研究与开发, 2005,24(5):110-113.

[本文引用: 1]

Liu X P, Deng R R, Peng X J.

An automatic extraction model of urban greenbelt remote sensing image:A study on Guangzhou City

[J]. Areal Research and Development, 2005,24(5):110-113.

[本文引用: 1]

程灿然.

基于GF-1卫星影像的城市绿地信息提取与景观格局研究

[D]. 兰州:兰州交通大学, 2017.

[本文引用: 1]

Cheng C R.

Information extraction and landscape pattern of urban greenbelt based on GF-1 satellite image:A case study of Lanzhou

[D]. Lanzhou:Lanzhou Jiaotong University, 2017.

[本文引用: 1]

Liu C, Guo Z, Fu N.

Applying a new integrated classification method to monitor shifting mangrove wetlands

[C]// International Conference on Multimedia Technology. 2010.

[本文引用: 1]

Zylshal, Sulma S, Yulianto F,et al.

A support vector machine object-based image analysis approach on urban green space extraction using Pleiades-1A imagery

[J]. Modeling Earth Systems and Environment, 2016,2(2):54.

[本文引用: 1]

Xu L, Ming D, Zhou W, et al.

Farmland extraction from high spatial resolution remote sensing images based on stratified scale pre-estimation

[J]. Remote Sensing, 2019,11, 108.

[本文引用: 1]

Zujovic J, Pappas T N, Neuhoff D L.

Structural texture similarity metrics for image analysis and retrieval

[J]. IEEE Transactions on Image Processing, 2013,22(7):2545-2558.

[本文引用: 1]

Durduran S S.

Automatic classification of high resolution land cover using a new data weighting procedure:The combination of K-means clustering algorithm and central tendency measures(KMC-CTM)

[J]. Applied Soft Computing, 2015,35(1):136-150.

[本文引用: 1]

Gidaris S, Komodakis N.

Object detection via a multi-region and semantic segmentation-aware CNN model

[C]// IEEE International Conference on Computer Vision.IEEE, 2015.

[本文引用: 1]

Marmanis D, Wegner J D, Galliani S, et al.

Semantic segmentation of aerial images with an ensemble of CNSS

[C]// ISPRS Congress. 2016.

[本文引用: 1]

Long J, Shelhamer E, Darrell T.

Fully convolutional networks for semantic segmentation

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014,39(4):640-651.

[本文引用: 1]

Zheng S, Jayasumana S, Romera-Paredes B, et al.

Conditional random fields as recurrent neural networks

[C]// IEEE International Conference on Computer Vision(ICCV).IEEE, 2015.

[本文引用: 1]

Badrinarayanan V, Kendall A, Cipolla R.

SegNet:A deep convolutional encoder-decoder architecture for image segmentation

[C]// IEEE Transactions on Pattern Analysis and Machine Intelligence.IEEE, 2017,39(12):2481-2495.

[本文引用: 1]

Zhao H S, Shi J P, Qi X J, et al.

Pyramid scene parsing network

[EB/OL].(2017-04-27)[2019-07-19]. https://arxiv.org/abs/1612.01105.

URL     [本文引用: 1]

Ronneberger O, Fischer P, Brox T.

U-Net:Convolutional networks for biomedical image segmentation

[C]// International Conference on Medical Image Computing and Computer-Assisted Intervention. 2015: 234-241.

[本文引用: 1]

Chen L C, Papandreou G, Kokkinos I, et al.

Semantic image segmentation with deep convolutional nets and fully connected CRFs

[J].Computer Science, 2014(4):357-361.

[本文引用: 1]

陈天华, 郑司群, 于峻川.

采用改进DeepLab网络的遥感图像分割

[J]. 测控技术, 2018,37(11):34-39.

[本文引用: 1]

Chen T H, Zheng S Q, Yu J C.

Remote sensing image segmentation based on improved DeepLab network

[J]. Measurement and Control Technology, 2018,37(11):34-39.

[本文引用: 1]

Wang Y, Sun S, Yu J, et al.

Skin lesion segmentation using atrous convolution via DeepLabv3

[EB/OL].(2018-06-24)[2019-07-19]. https://arxiv.org/abs/1807.08891.

URL     [本文引用: 1]

King A, Bhandarkar S M, Hopkinson B M.

A comparison of deep learning methods for semantic segmentation of coral reef survey images

[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops(CVPRW).IEEE, 2018.

[本文引用: 2]

Herranz-Perdiguero C, Redondo-Cabrera C, López-Sastre R J.

In pixels we trust:From pixel labeling to object localization and scene categorization

[EB/OL] .(2018-06-19)[2019-07-19]. https://arxiv.org/abs/1807.07284.

URL     [本文引用: 2]

Chen Y K, Meng G F, Zhang Q, et al.

Reinforced evolutionary neural architecture search

[EB/OL].(2019-04-10)[2019-07-19]. https://arxiv.org/abs/1808.00193.

URL     [本文引用: 2]

Chen L C, Papandreou G, Kokkinos I, et al.

DeepLab:Semantic image segmentation with deep convolutional nets, atrous convolution,and fully connected CRFs

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018,40(4):834-848.

[本文引用: 1]

Chen L C, Papandreou G, Schroff F, et al.

Rethinking atrous convolution for semantic image segmentation

[EB/OL].(2017-05-12)[2019-07-19]. https://arxiv.org/abs/1706.05587.

URL     [本文引用: 1]

Chen L C, Zhu Y, Papandreou G, et al.

Encoder-decoder with atrous separable convolution for semantic image segmentation

[EB/OL].(2018-08-22)[2019-07-19]. https://arxiv.org/abs/1802.02611v1.

URL     [本文引用: 2]

潘腾, 关晖, 贺玮.

“高分二号”卫星遥感技术

[J]. 航天返回与遥感, 2015,36(4):16-24.

[本文引用: 1]

Pan T, Guan H, He W.

GF-2 satellite remote sensing technology

[J]. Spacecraft Recovery and Remote Sensing, 2015,36(4):16-24.

[本文引用: 1]

杨建宇, 周振旭, 杜贞容, .

基于SegNet语义模型的高分辨率遥感影像农村建设用地提取

[J]. 农业工程学报, 2019,35(5):251-258.

URL     [本文引用: 1]

针对传统分类算法、浅层学习算法不适用于高空间分辨率遥感影像中农村建筑物信息提取的问题,该文以河北省霸州市高空间分辨率遥感影像World View-2为数据源,利用182 064幅128×128像素大小的影像切片为训练样本,选取基于深度卷积神经网络的SegNet图像语义分割算法对遥感影像中的农村建筑物进行提取,并与传统分类算法中的最大似然法(maximum likelihood,ML)和ISO聚类、浅层学习算法中的支持向量机(support vector machine,SVM)和随机森林(random forest,RF)以及深层语义分割算法中的金字塔场景解析网络(pyramid scene parsing network,PSPNet)的试验结果作对比分析。研究结果表明:SegNet不仅能够高效利用高空间分辨率遥感影像中农村建筑物的光谱信息而且还能够充分利用其丰富的空间特征信息,最终形成较好的分类模型,该算法在验证样本中的分类总体精度为96.61%,Kappa系数为0.90,建筑物的F1值为0.91,其余5种分类算法的总体精度、Kappa系数、建筑物的F1值都分别在94.68%、0.83、0.87以下。该研究可以为高空间分辨率遥感影像农村建设用地提取研究提供参考。

Yang J Y, Zhou Z X, Du Z R, et al.

Rural construction land extraction from high spatial resolution remote sensing image based on SegNet semantic segmentation model

[J]. Transactions of the Chinese Society of Agricultural Engineering, 2019,35(5):251-258.

[本文引用: 1]

陈杰, 陈铁桥, 梅小明, .

基于最优尺度选择的高分辨率遥感影像丘陵农田提取

[J]. 农业工程学报, 2014,30(5):99-107.

URL     [本文引用: 1]

农田测绘与粮食安全密切相关,高效经济的农田测绘是中国政府部门重点关注的工作之一。农田田块是农田测绘的基本要素,从遥感影像中提取农田田块信息是当前研究的热点。然而,丘陵地区农田形状不规则、光谱特征不明显导致农田信息提取困难,该文通过研究最优的农田分割尺度来提高农田田块信息提取的精度。首先,利用各向异性扩散算子在由Sobel得到的梯度图上生成多尺度梯度影像。然后,通过信息熵差异分析得到有效尺度范围。其次,利用标记分水岭算法对农田梯度影像进行分割获得多尺度农田信息。最后,利用非监督的全局评价方法在已得的有效尺度范围内确定农田提取的最优尺度,同时确定最优的农田提取结果。对比试验结果表明,该文方法能够有效地提取丘陵地区的农田田块,精度可以达到73.06%,比Mean-shift方法提取的精度高22.48%。该研究可为中国农田测绘提供技术参考。

Chen J, Chen T Q, Mei X M, et al.

Hilly farmland extraction from high resolution remote sensing imagery based on optimal scale selection

[J]. Transactions of the Chinese Society of Agricultural Engineering, 2014,30(5):99-107.

URL     [本文引用: 1]

The growing population and accelerating urbanization have caused much illegal occupation of farmland, which seriously threat to national food security, social stability and economic development of our country. Farmland information extraction has become a hot issue in agricultural research field in the world. In addition, farmland mapping is closely related to the food security and is one of the most concerned issues of government departments. However, traditional technology of surveying and mapping is time consuming and labor costing, which is unable to adapt to the precise and effective information acquisition of farmland. The high resolution remote sensing imagery can provide more details of ground truth than low resolution imagery. However, the information mining in high resolution remote sensing imagery faces a big challenge caused by the complex ground environment. Farmland blocks in high resolution remote sensing imagery have various shapes, complicated texture and heterogeneous spectrum. The shape information is one of the most important content of farmland mapping. In this study, high resolution remote sensing imagery from QuickBird was used to precisely extract farmland in hilly area. And the method of farmland extraction combining multi-scale segmentation and optimal scale selection was put forward. Firstly, gradient image is generated by using Sobel gradient operator. In order to enhance the edge information and reduce the irrelevant information for farmland extraction, the multi-scale gradient images are filtered with anisotropic diffusion operator. Secondly, effective scale range of multi-scale gradient images is determined through the entropy difference analysis, which can reduce the amount of calculation of the multi-scale analysis in next stage. Thirdly, a marker driven watershed transform based on minima extension and minima imposition is applied to segment the multi-scale gradient images to produce multi-scale shape information of farmland with precious boundaries. Finally, the optimal scale identification for multi-scale segmentation is obtained by unsupervised segmentation evaluation method based on the global Moran'I and variance to automatically get the farmland block without manual intervention. The experimental results show that the multi-scale segmentation and optimal scale identification approach can be used to accurately discriminate farmland in hilly area. Farmland extraction accuracy of the proposed method is 73.06% which is 22.40% higher than the Mean-shift segmentation method with a better performance in farmland extraction in hilly area. The results can basically meet the requirements of drawing and revision for the large scale thematic mapping of farmland, showing that the proposed method can provide a technical assistance for the surveying and mapping of farmland.

/

京ICP备05055290号-2
版权所有 © 2015 《自然资源遥感》编辑部
地址:北京学院路31号中国国土资源航空物探遥感中心 邮编:100083
电话:010-62060291/62060292 E-mail:zrzyyg@163.com
本系统由北京玛格泰克科技发展有限公司设计开发