自然资源遥感, 2023, 35(3): 80-87 doi: 10.6046/zrzyyg.2022164

技术方法

顾及地学特征的遥感影像语义分割模型性能评价方法

刘立,1,2, 董先敏,1,2, 刘娟1

1.自然资源部第三地理信息制图院,成都 610100

2.自然资源部数字制图与国土信息应用重点实验室,成都 610100

A performance evaluation method for semantic segmentation models of remote sensing images considering surface features

LIU Li,1,2, DONG Xianmin,1,2, LIU Juan1

1. The Third Geographical Information Mapping Institute of Natural Resources Ministry, Chengdu 610100, China

2. Key Laboratory on Digital Mapping and Land Information Application, Natural Resources Ministry, Chengdu 610100, China

通讯作者: 董先敏(1994-),女,研究生,工程师,主要从事行业地理信息服务应用研究。Email:1390470924@qq.com

责任编辑: 张仙

收稿日期: 2022-04-27   修回日期: 2022-07-13  

基金资助: 四川省重点研发计划项目“面向国土空间规划的自然资源三维智能化管控关键技术研究与应用”(2022YFS0450)
自然资源科技创新发展项目“自然资源技术融合研究与应用示范”(121204007000204101)

Received: 2022-04-27   Revised: 2022-07-13  

作者简介 About authors

刘 立(1989-),男,本科,工程师,主要从事自然资源调查监测与地理信息工程应用研究。Email: 274114486@qq.com

摘要

深度语义分割目前已经被广泛应用于国土遥感监测和遥感解译生产领域,针对现有语义分割结果质量评价方法无法反映语义分割结果在空间几何特征上保持情况的客观问题,文章从遥感解译与测绘生产的实际需求出发,提出了一种顾及地学特征的遥感影像语义分割模型性能评价方法——连通相似性指数(connectivity similarity, CSIM),从遥感地物图斑连通相似性层面,将地学特征嵌入语义分割模型性能评价体系。该方法可以定量评估遥感影像语义分割结果与实际样本标签的图斑连通相似性程度,准确描述预测分类结果中图斑完整性的保持情况,从而更加客观地判断预训练模型是否适用于测绘生产的遥感解译工作。经过大量实践证实,该评价方法可以更好地实时监测和控制模型训练,有效地指导从预训练模型集合中选取最优性能的模型,准确地评估顾及地物几何特征的遥感影像预测结果的真实质量,对深度学习赋能遥感解译与测绘生产具有重要作用。

关键词: 性能评价; 语义分割; 地学特征; 遥感解译; 深度学习

Abstract

Deep semantic segmentation has been widely applied in land monitoring and interpretation based on remote sensing images. However, existing quality evaluation methods cannot reflect the preserved spatial geometric features of semantic segmentation results. Based on the practical demand for remote sensing image interpretation, surveying, and mapping, this study proposed a method for the performance evaluation of semantic segmentation models for remote sensing images considering geoscience features: the connectivity similarity index (CSIM). From the perspective of the connectivity similarity of surface feature spots in remote sensing images, the CSIM method embedded the surface features into the performance evaluation system of semantic segmentation models. The CSIM method allows for quantitatively evaluating the connectivity similarity of spots between the semantic segmentation results of remote sensing images and the actual sample labels, thus accurately describing the preserved spot integrity in the predicted classification results. Therefore, the CSIM method can objectively determine the applicability of a pre-training model to remote sensing image interpretation in surveying and mapping production. As substantiated by a lot of practice, the CSIM method can monitor and control the model training in real time, effectively guide the selection of the optimal pre-training model, and accurately evaluate the quality of remote sensing image interpretation results considering geoscience features. Therefore, the CSIM method is critical for deep-learning-enabled remote sensing image interpretation, surveying, and mapping.

Keywords: model performance evaluation; semantic segmentation; geoscience feature; remote sensing interpretation; deep learning

PDF (4774KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

刘立, 董先敏, 刘娟. 顾及地学特征的遥感影像语义分割模型性能评价方法[J]. 自然资源遥感, 2023, 35(3): 80-87 doi:10.6046/zrzyyg.2022164

LIU Li, DONG Xianmin, LIU Juan. A performance evaluation method for semantic segmentation models of remote sensing images considering surface features[J]. Remote Sensing for Land & Resources, 2023, 35(3): 80-87 doi:10.6046/zrzyyg.2022164

0 引言

近年来,深度学习因特征提取能力强和识别精度高等优点已在计算机视觉和图像处理的语义分割领域取得重大进展并得到广泛的应用[1]。在国土遥感监测和遥感解译生产领域,将深度学习规模应用于地表覆盖分类、要素提取更新和地物变化分析等生产实践,已经显著提高了遥感影像图载信息的提取效率[2]。深度学习在遥感图像中的应用不同于自然图像,遥感图像通常具有更复杂多样的模式和更丰富的时空光谱信息,因此对语义分割结果的评价方法提出了更高的要求[3]

目前,混淆矩阵作为语义分割模型性能评价的重要工具,作为高级统计指标的标准输入[4],计算准确率、精确率、召回率和F1 Score等各种评价指标,从而绘制ROC曲线和CAP曲线等,更全面地评价和比较语义分割模型的性能。国内外学者将形态轮廓(morphological profiles,MPs)、微分形态剖面(differential morphological profiles,DMPs)、马尔可夫随机场(Markov random field,MRF)、局部二进制模式(local biary pattern,LBP)、像素形状指数(pixel shape index,PSI)、对象相关指数(object correlative index,OCI)和形状大小指数(shape size index,SSI)等方法用于影像分类精度的评价[5]。Zhang等[6]提出了一种基于光谱相似性的图像对象的属性OCI,来描述分类结果的空间特征; 段嘉鑫[7]提出了图像分割结果的逐像素误差谱的概念,通过解码器预测细粒度的分割结果误差谱,实现了分割结果的局部质量信息获取,以及像素级的分割质量评价; 党宇[8]以图幅为评价基本单元,对单一地类图斑评价有效性及混合图斑的评价策略进行研究及实验验证; 郑明国等[9]将包括目标语义信息和地学先验知识的地学知识嵌入遥感影像深度语义分割引导网络训练,以提高分割结果的可解释性和可靠性。从国内外的研究现状来看,顾及地学特征的深度学习语义分割模型性能评价的方法研究较少,性能评价维度缺少空间关系特征,尚难以有效支撑时空异质的遥感影像语义分割结果的评价,主要问题表现在2个方面: ①评价对象是像素粒度,像素只关注最低层次的局部特征信息,无法满足高层次面向目标对象的遥感地物解译需求; ②评价准则是像素分类是否正确,没有考虑到空间位置因素的影响,无法直接反映预测结果在空间几何特征上的保持情况。

遥感影像智能解译是遥感应用落地的核心和关键技术,而语义分割性能的准确评价是实现遥感影像智能解译的基础[10-13]。性能评价体系应满足像素和对象等不同层级的需求,遵循位置精度与逻辑完整性准则[14-16]。本文从时空异质遥感解译和测绘生产的角度出发,在分析现有模型评价体系的基础上,提出一种顾及地学特征的遥感影像语义分割模型性能评价方法——连通相似性指数(connectivity similarity, CSIM),在充分考虑像素归类是否正确的基础上,以连通图斑(即像素群)为粒度,聚焦空间位置和空间关系,以真实标签和预测标签的连通序列相似程度来进行语义分割性能评价,以期为模型训练的实时监测、预训练模型的最优选择和遥感影像预测结果的质量评价提供可靠的技术支持。

1 模型性能评价问题分析

语义分割是深度学习领域一种典型的面向像素级别的计算机视觉技术,其性能评价指标是建立在表征图像预测分类结果的情形分析表即混淆矩阵的基础上[17-18]。混淆矩阵元素是预测分类结果的统计值。在评价语义分割性能时,标记图像至关重要,为性能提供了逼近的标准。表1为目前常用的语义分割性能评价指标的内容与意义。评价指标将混淆矩阵中数量的结果表征为0~1之间的比率,便于进行标准化的衡量。然而在遥感影像应用于测绘生产的实践过程中,预期解译结果需要由聚集的像素群转换为保持地物空间特征的矢量化面状图斑,如聚集成块的建筑群和保持带状连通的道路。

表1   常用评价指标

Tab.1  Common evaluation indicator

指标意义
准确率正确预测的样本占总样本的比例
精确率“正确被预测为正”占所有“实际被预测为正”的比例
召回率“正确被预测为正”占所有“应该被预测为正”的比例

新窗口打开| 下载CSV


以遥感图像中建筑物的语义分割为例,在图1(a)中,共有8×8个格网,每个格网代表一个像素,共64个像素,其中灰色像素格网表示目标遥感地物边界,共32个像素。经过卷积神经网络训练后得到具备识别该遥感地物能力的模型,对遥感影像进行预测,呈现3类预测结果: 图1(b)预测的遥感地物轮廓保持较好的完整性,图1(c)遥感地物轮廓不完整,但是地物的空间位置保持比较准确,图1(d)遥感地物部分像素虽然预测正确,但完整性极差。3种预测标签的准确率、精确率和召回率指标的计算结果如表2所示。可以发现,虽然3种预测标签形状不同,但同一评价指标的数值相同,无法定量地评估预测标签的质量。

图1

图1   真实标签和预测标签对比示意图

Fig.1   Comparison chart between real label and predicted labels


表2   预测标签评价指标结果

Tab.2  Evaluation results of predicted labels

指标图1(b)图1(c)图1(d)
准确率0.780.780.78
精确率111
召回率0.560.560.56

新窗口打开| 下载CSV


从遥感解译后处理的角度来看,图1(b)经过孔洞填充可以达到较为理想的结果,图1(c)经过小图斑过滤可以较好地保留空间位置,而图1(d)结果几乎没有实用价值,所以期望结果的顺序应该为: 图1(b)>图1(c)>图1(d)。综上,在遥感应用场景的特殊需求下,常规性能评价方法很难满足实际要求,已经无法有效地指导遥感影像预测结果的质量评价。

2 CSIM设计

本文的目的是针对语义分割模型预测遥感影像,探索出一种评价预测标签真实质量的方法,并非是要替代现有的评价指标体系,所以本文在现有的评价体系中增加图斑连通相似性评价,以期在现有的评价指标无法区分的区间进一步提高对遥感解译质量的辨识度,实现性能评价指标值与主观质量分数保持一致。CSIM计算数据输入为模型的预测标签和真实标签,数据输出为连通相似性指数。其方法流程包括连通图斑特征提取、连通序列空间校准、连通序列相似度评价和连通相似性指数计算。图2显示了现有评价方法和CSIM指标值对比,随着训练时期的推移现有评价指标难以体现出性能差异,在训练末期,CSIM指标差异性明显,可以有效地评价语义分割性能。

图2

图2   性能指标评价方法对比

Fig.2   Comparison of model performance evaluation methods


2.1 连通图斑特征提取

本文定义真实标签与预测标签中水平或垂直方向上像素值相同的相邻像素集合为连通图斑。连通图斑识别采用四邻域两遍扫描法,由左向右、由上向下对真实标签和预测标签进行逐行扫描搜索,将同一连通区域的所有像素点标记同一连通索引值,扫描完成输出一个标记所有连通图斑像素集合的连通序列。图3为连通图斑示意图,图中①,②,③均为连通图斑。

图3

图3   连通图斑示意图

Fig.3   Connected map spots


连通图斑的特征有2类表示方法: 一类是区域特征,一类是轮廓特征。其中区域特征采用区域内像素总数量来定量描述; 轮廓特征主要针对图斑的内外边界。经过逐一对连通图斑的特征提取,最后输出记录所有连通对象特征信息的真实标签连通序列A和预测结果连通序列集合B。其中真实标签连通序列A={a1,a2,,ai,,am},ai表示第i个连通图斑的轮廓信息和像素点总数量的二元组,预测结果连通序列集合 B={B1,B2,,Bk,,By},Bk={b1,b2,,bh,,bl}表示第k个预测标签连通序列。

2.2 连通序列空间校准

连通图斑的识别方式为逐行扫描,因此连通序列的存储顺序是基于连通图斑的识别先后顺序,这就导致真实标签的连通序列A和预测标签的连通序列Bk中的顺序难以保持近似的对应关系。为了保证连通序列ABk匹配最优,本文基于连通图斑的轮廓特征进行空间相交运算确定连通序列A中的每个连通图斑与预测序列Bk中连通图斑的空间对应关系,将Bk中具备空间关系的连通图斑按照A的索引顺序重新排列,将Bk中没有对应空间关系的连通图斑作为冗余删除,图4显示ai图斑与bhbh+1具备空间相交的关系。

图4

图4   空间相交关系

Fig.4   Spatial intersection relation


按照此方式,就可以依次建立连通序列ABk的空间关联,并按照A序列顺序重组得到连通序列Ck={c1,c2,,cj,cn},输出连通序列集合C={C1,C2,,Ck,,Cy}图5为空间校准示意图。

图5

图5   空间校准示意图

Fig.5   Spatial calibration diagram


2.3 连通序列相似度评价

在连通序列中,需要比较相似性的2个连通图斑的区域特征指标一般都不相等,不同连通序列可能存在连通图斑序列轴上的位移,亦即在还原位移的情况下,2个连通序列是一致的。考虑到这些复杂情况,本文通过把连通图斑序列进行延伸和缩短,在连通图斑序列轴上进行局部的缩放和对齐,使其形态姿势保持相对一致性,从而计算2个连通序列的相似性。

图6的2条实线代表2个语义分割模型对同一景遥感影像预测标签的连通序列,连通序列之间的虚线代表2个连通区序列之间的相似的点。2个连通序列在形态上非常相似,但是这些形态特征点(波峰、波谷)在时间上不能一一对齐。如果使用类似欧氏距离的常规方法来计算2个序列的相似性,无法符合实际认知。通过对连通图斑序列进行匹配性的伸缩变形,匹配效果会大幅度增强。本文采用动态连通区规整算法,算法在匹配2个序列时,序列中的点不再是一一对应关系,而是一对一、一对多和多对一等不同映射关系。算法的核心在于基于动态规划匹配连通序列,使得序列相似点之间的距离和最小。该距离即归整路径距离,用于衡量2个连通序列之间的相似性。

图6

图6   动态连通区规整

Fig.6   Dynamic connected area regularity


真实标签连通序列A={a1,a2,,ai,,am},预处理后预测结果连通序列Ck={c1,c2,,cj,,cn},序列长度分别为A=m,Ck=n,ACk相似度计算方法如下:

1)构建一个m×n的相似性矩阵网格P,矩阵P(i,j)位置的元素表示aicj这2点间的欧式距离distance(ai,cj)

2)定义搜索起点为(1,1),开始搜索目标点(i,j)的上方(i-1,j)、左方(i,j-1)和左上方(i-1,j-1),确定两者之间具有最小矩阵元素之和的路径,此时路径的元素总数就是连通区归整路径距离,也就是点aicj的欧式距离与可以到达该点的最小的邻近元素的累积距离之和,即

d(i,j)=distance(ai,cj)+min [d(i-1,j),d(i,j-1),d(i-1,j-1)]

3)重复以上步骤,直至完成从矩阵要素起点(1,1)到终点(m,n)最短路径的搜索,此时路径的元素总数就是连通区归整路径距离d(m,n),即ACk的连通序列相似度。

2.4 CSIM计算

CSIM计算是将所有预测标签对应的连通序列相似度归一化整合,映射到同一尺度下。本文采用最值归一化方法将连通相似度集合中的数据映射到0~1之间。该方法虽然受边界影响较大,但归一化的值具备较高的辨识度,符合本文预期目的,其计算方法为:

dk_csim=dk-dmindmax-dmin

式中: dk为第k个预测标签的连通序列相似度值; dmindmax分别为所有预测标签的连通序列相似度的最小值和最大值; dk_csim表示连通相似性指数值,值越大表示第k个预测标签的连通性保持越好,其对应的模型语义分割性能更优,更加符合测绘生产的实际需求。

3 实验分析

3.1 实验数据

为了验证顾及地学特征的遥感地物图斑连通相似性评价体系应用于语义分割性能评价的可行性,实验选取具备几何结构多样性和尺度差异性的水体作为研究对象,实验数据来源于全球测图工程项目的芬兰西北片区,影像源为资源三号(ZY-3)影像,空间分辨率为2 m。时相为2019年6月24日,光谱可见光波段为红光、绿光和蓝光。由于实验涉及模型训练和模型评估2部分,因此实验数据样本包括训练样本、验证样本和测试样本。从目标影像上分别裁剪10幅 5 000像素×5 000 像素大小的影像切片,其中7幅作为训练样本,2幅作为验证样本,1幅作为测试样本。影像对应标签均来源于手工标定,其中测试图像与其真实标签如图7所示。

图7

图7   测试影像与真实标签

Fig.7   Test image and real label


3.2 实验流程

通过将实验区域的小样本数据集进行数据增强预处理,输入至卷积神经网络框架经过超参数调整循环训练输出一系列模型集合,应用本文提出的CSIM,对比现有精度评价指标,进行语义分割性能评价,选择适配于测绘实际生产的最优模型。

针对模型训练,实验搭建在TensorFlow深度学习框架平台上,基于残差学习机制的Res-UNet卷积神经网络,训练数据集、验证数据集和训练参数作为输入数据,输出数据为预训练网络模型和模型性能参数,经过循环迭代,通过判断输出模型的预测值f(x)与真实值Y的不一致程度,发送结束训练的信号。其训练参数设置如表3所示。由于卷积神经网络的拟合能力非常强,在训练数据集上的错误率降到最低时,容易造成模型过拟合,从而在验证数据集上的错误率会相对较高,本文希望获取一个最优泛化性能的网络模型。为了避免训练模型的过拟合状态出现,本文应用数据增强模式、Adam梯度下降优化算法和提早终止训练等方法来限制模型的复杂度。

表3   模型训练实验参数

Tab.3  Experimental parameters of model training

参数数值
样本数量/个20 000
样本大小/像素256×256
通道RGB 3通道
网络模型Res-UNet
批尺寸/个16
预设训练时期/次200

①预设训练时期代表训练数据集中所有数据送入网络中,完成了一次前向计算+反向传播的过程。

新窗口打开| 下载CSV


针对模型评估,实验基于模型训练的输出成果集合,通过损失率和传统性能指标优先筛选出目标模型集合。遍历目标模型集合逐一预测测试影像,输出预测标签集合,应用本文提出的CSIM设计方法,识别每幅预测标签的连通图斑,对由于影像质量等其他因素带来的独立像素图斑进行过滤预处理操作,然后逐一与真实标签进行对比反演,归一化整合计算CSIM。为更好地验证语义分割性能评估的有效性,计算预测标签的现有精度指标,并进一步进行各类评价指标的数值分析。

3.3 实验结果及分析

模型训练过程中损失函数值演变过程如图8所示,在模型训练的不断迭代过程中,损失函数在训练数据集上初期表现出稳步下降的趋势,后期则呈现波浪状起伏之势,而在测试数据集上表现则一直处于跌宕起伏状态。损失函数越小,常规意义上代表模型的鲁棒性越好。为了能获得最好的泛化性能,很好地拟合训练数据与验证数据,早停法停止训练的标准取决于泛化错误的变化,即定义当泛化错误在连续10个周期内增长的时候停止模型的继续训练。由图8可以看出模型在第100时期时在验证数据集上得到的损失率最低,此后连续10个时期内损失率相对第100时期的指标都处于增长状态,因此决定在第109时期停止训练。

图8

图8   模型训练评估指标演变

Fig.8   Evolution of model training evaluation indicator


为了验证CSIM指标的有效性,模型评估实验选取第100时期前后连续10个时期的模型构成目标模型集合进行验证。图9展示以测试影像真实标签为参考基于空间地理位置匹配的准则,在训练数据集上相同精确率与相同召回率的不同模型的预测标签与真实标签的连通图斑集合对比情况。

图9

图9   不同时期模型预测标签连通图斑对比情况

Fig.9   Comparison of connected map spots in predicted label by models in different periods


传统指标评价以像素为粒度,CSIM以像素群为粒度,两者在时间复杂度上保持一致。图9可以看出,不同时期模型预测标签连通图斑序列的表现与真实标签相比整体变化趋势比较相近,这也是精确率和召回率无法更好地判别语义分割性能差异性的验证。相似图斑出现的序列存在一定的差异性,差异性越小,越接近于期望模型。应用CSIM评估连通图斑的差异性,差异性表征CSIM指标归一化分布在[0,1],并与传统评价指标对比(图10)。图10(a)描述目标模型集合在准确率、精确率和召回率上的表现力,由于测试影像水体面积占比8.7%,背景值占比较大,而准确率计算同时考虑到背景值的预测情况,因此准确率平均高于精确率和召回率,集中分布在[0.993 2,0.997 7],精确率分布集中在[0.985 4,0.996 1],召回率集中分布在[0.953 9,0.979 0],召回率在第100时期和第104时期分别最大和最小,精确率在第90时期和第97时期分别最大和最小。图10(b)展示目标模型集合在CSIM表现力,归一化后指数区间分布均匀,第97时期指标值最大,表示该时期模型在测试影像上连通性表现最完整,而第106时期指标值最小,表示该时期模型在测试影像预测结果连通性表现相对来说差强人意。对比不同时期模型序列的现有指标和CSIM,两者结果呈现弱相关性。

图10

图10   目标模型集合CSIM评价值

Fig.10   CSIM evaluation value of target model set


为更好地验证CSIM的合理性,图11依次显示真实标签、CSIM较高的4个模型与CSIM较低的3个模型预测的二值图像结果。第97时期CSIM指标为1,理论上表示该模型在水体连通性上保持能力最佳,实际预测结果显示①号湖泊没有零星图斑,完整性保持最好,局部边界有一点偏差。第106时期CSIM指标值为0,表征其连通相似性在目标模型集合中表现能力是最不好的,实际预测结果显示①号湖泊零碎图斑较多,没有保持湖泊连通性的几何特征,而且几乎丢失湖中心岛的空间位置信息。以上说明了CSIM指标的可靠性,具有很高的置信度,与预测标签连通性保持着高度的一致性。

图11

图11   不同时期测试影像局部区域的预测二值图像

Fig.11   Predicted label of local area of test image in different periods


4 结论

本文针对遥感解译和测绘生产智能解译需求,分析了现有语义分割性能评价体系没有涉及到空间关系特征保持,难以有效支撑时空异质的遥感影像语义分割结果的评价,因此提出了一种顾及地学特征的遥感影像语义分割模型性能评价方法——连通相似性指数CSIM,基于现有的模型评价指标,构建复合指标体系,可以更好地实时监测和控制模型训练; 面向不同地理地域特征的不同时相的不同影像源,可以有效地指导预训练模型的最优选取; 同时实现在像素粒度的基础上顾及地物几何特征的遥感影像预测结果真实质量的准确评估。

本方法还有待改进的地方在于性能评价因子涉及到的地学特征更多地是关注自身,包括像素是否归类正确、像素群是否区域连通,没有涉及到邻近特征的考量。针对这一问题,考虑在下一步工作中将地学先验知识纳入评价因子中,进一步丰富完善遥感影像语义分析模型性能评价方法。

参考文献

龚健雅, 许越, 胡翔云, .

遥感影像智能解译样本库现状与研究

[J]. 测绘学报, 2021, 50(8):1013-1022.

DOI:10.11947/j.AGCS.2021.20210085      [本文引用: 2]

我国遥感对地观测等项目顺利实施,获取了大量时效性强、覆盖范围广、信息量丰富的遥感数据。但遥感影像智能化自动处理技术发展仍相对滞后,无法满足区域/全球大范围地物信息快速提取的需求。近年来,人们利用深度学习技术显著提高了影像特征提取成效,但由于所使用的深度学习样本数量和类型有限,对于多源遥感影像的自动解译能力仍然不足。本文面向大范围多源遥感影像地物信息智能解译需求,在分析现有样本集现状及问题的基础上,研究提出遥感影像智能解译样本库设计方案,并在此基础上设计了基于互联网的样本协同采集与共享服务框架。本文将为多源遥感影像样本库建设提供参考,为大范围遥感影像智能解译提供支持。

Gong J Y, Xu Y, Hu X Y, et al.

Status analysis and research of sample database for intelligent interpretation of remote sensing image

[J]. Acta Geodaetica et Cartographica Sinica, 2021, 50(8):1013-1022.

DOI:10.11947/j.AGCS.2021.20210085      [本文引用: 2]

The rapid development of earth observation projects in China has obtained a large volume of multi-source (multi-type sensors, multi-temporal, multi-scale) remote sensing data. But the capability of intelligent remote sensing image processing lags behind data acquisition. In recent years, people have significantly improved the effectiveness of image feature extraction with deep learning networks. But limited number and variety of sample data is not enough for processing the multi-source remote sensing images. This paper analyzed existing sample datasets and proposed a method for constructing a sample database for intelligent remote sensing image interpretation, including the data model, classification system, data organization, as well as the Internet-based platform for collaborative sample collection and sharing.

Rawat W, Wang Z H.

Deep convolutional neural networks for image classifycation:A comprehensive review

[J]. Neural Computation, 2017, 29(9):2352-2449.

DOI:10.1162/neco_a_00990      URL     [本文引用: 1]

Convolutional neural networks (CNNs) have been applied to visual tasks since the late 1980s. However, despite a few scattered applications, they were dormant until the mid-2000s when developments in computing power and the advent of large amounts of labeled data, supplemented by improved algorithms, contributed to their advancement and brought them to the forefront of a neural network renaissance that has seen rapid progression since 2012. In this review, which focuses on the application of CNNs to image classification tasks, we cover their development, from their predecessors up to recent state-of-the-art deep learning systems. Along the way, we analyze (1) their early successes, (2) their role in the deep learning renaissance, (3) selected symbolic works that have contributed to their recent popularity, and (4) several improvement attempts by reviewing contributions and challenges of over 300 publications. We also introduce some of their current trends and remaining challenges.

Yuan Q Q, Shen H F, Li T W, et al.

Deep learning in environmental remote sensing:Achievements and challenges

[J]. Remote Sensing of Environment, 2020, 241:111716.

DOI:10.1016/j.rse.2020.111716      URL     [本文引用: 1]

Zhang L P, Zhang L F, Du B.

Deep learning for remote sensing data:A technical tutorial on the state of the art

[J]. IEEE Geoscience and Remote Sensing Magazine, 2016, 4(2):22-40.

DOI:10.1109/MGRS.2016.2540798      URL     [本文引用: 1]

洪亮, 冯亚飞, 彭双云, .

面向对象的多尺度加权联合稀疏表示的高空间分辨率遥感影像分类

[J]. 测绘学报, 2022, 51(2):224-237.

DOI:10.11947/j.AGCS.2022.20190290      [本文引用: 1]

针对高空间分辨率遥感影像中的地物具有多尺度特性,以及各个尺度的对象特征对地物分类精度的影响具有较强的尺度效性,并结合面向对象影像分析方法和多尺度联合稀疏表示方法在高空间分辨率遥感影像分类中的各自优点,提出了一种面向对象的多尺度加权稀疏表示的高空间分辨率遥感影像分类算法。首先,采用多尺度分割算法获得多尺度分割结果并提取对象的多尺度特征;然后,根据影像对象的多尺度分割质量测度计算各尺度的对象权重,构建面向对象的多尺度加权联合稀疏表示模型;最后,采用2个国产GF-2高空间分辨率遥感数据集和1个高光谱-高空间分辨率航空遥感数据集(WashingtonD.C.数据)验证该算法的有效性。试验结果表明,与SVM、像素级稀疏表示、单尺度和多尺度对象级稀疏表示和深度学习等算法相比较,本文算法获得了较高的OA和Kappa分类精度,提高了各个尺度地物的分类精度,有效抑止了地物分类结果中的椒盐噪声现象,同时保持大尺度地物的区域性和小尺度地物的细节信息。

Hong L, Feng Y F, Peng S Y, et al.

Classification of high spatial resolution remote sensing imagery based on object-oriented multiscale weighted sparse representation

[J]. Acta Geodaetica et Cartographica Sinica, 2022, 51(2):224-237.

[本文引用: 1]

Zhang P L, Lyu Z Y, Shi W Z.

Object-based spatial feature for classification of very high resolution remote sensing images

[J]. IEEE Geoscience and Remote Sensing Letters, 2013, 10(6):1572-1576.

DOI:10.1109/LGRS.2013.2262132      URL     [本文引用: 1]

段嘉鑫. 基于上下文信息的图像分割结果质量评价方法研究[D]. 成都: 电子科技大学, 2021.

[本文引用: 1]

Duan J X. Research on evaluation method of image segmentation results quality based on context information[D]. Chengdu: University of Electronic Science and Technology, 2021.

[本文引用: 1]

党宇. 基于卷积神经网络的地表覆盖分类自动质量评价方法研究[D]. 徐州: 中国矿业大学, 2018.

[本文引用: 1]

Dang Y. Study on automatic evaluation method of land cover classification based on convolutional neural network[D]. Xuzhou: University of Mining and Technology of China, 2018.

[本文引用: 1]

郑明国, 蔡强国, 秦明周, .

一种遥感影像分类精度检验的新方法

[J]. 遥感学报, 2006, 10(1):39-48.

[本文引用: 1]

Zheng M G, Cai Q G, Qin M Z, et al.

A new approach to accuracy assessment of classifications of remotely sensed data

[J]. Journal of Remote Sensing, 2006, 10(1):39-48.

[本文引用: 1]

欧阳松. 地学知识嵌入的遥感影像深度语义分割方法研究[D]. 武汉: 武汉大学, 2021.

[本文引用: 1]

Ouyang S. The methodology research on geographic knowledge-guided deep semantic segmentation of remote sensing imagery[D]. Wuhan: Wuhan University, 2021.

[本文引用: 1]

陶超, 阴紫薇, 朱庆, .

遥感影像智能解译:从监督学习到自监督学习

[J]. 测绘学报, 2021, 50(8):1122-1134.

DOI:10.11947/j.AGCS.2021.20210089      [本文引用: 1]

遥感影像精准解译是遥感应用落地的核心和关键技术。近年来,以深度学习为代表的监督学习方法凭借其强大的特征学习能力,在遥感影像智能解译领域较传统方法取得了突破性进展。这一方法的成功严重依赖于大规模、高质量的标注数据,而遥感影像解译对象独特的时空异质性特点使得构建一个完备的人工标注数据库成本极高,这一矛盾严重制约了以监督学习为基础的遥感影像解译方法在大区域、复杂场景下的应用。如何破解遥感影像精准解译“最后一千米”已成为业界亟待解决的问题。针对该问题,本文系统地总结和评述了监督学习方法在遥感影像智能解译领域的主要研究进展,并分析其存在的不足和背后原因。在此基础上,重点介绍了自监督学习作为一种新兴的机器学习范式在遥感影像智能解译中的应用潜力和主要研究问题,阐明了遥感影像解译思路从监督学习转化到自监督学习的意义和价值,以期为数据源极大丰富条件下开展遥感影像智能解译研究提供新的视角。

Tao C, Yin Z W, Zhu Q, et al.

Remote sensing image intelligent interpretation:From supervised learning to self-supervised learning

[J]. Acta Geodaetica et Cartographica Sinica, 2021, 50(8):1122-1134.

[本文引用: 1]

龚健雅.

人工智能时代测绘遥感技术的发展机遇与挑战

[J]. 武汉大学学报(信息科学版), 2018, 43(12):1788-1796.

[本文引用: 1]

Gong J Y.

Chances and challenges for development of surveying and remote sensing in the age of artificial intelligence

[J]. Geomatics and Information Science of Wuhan University, 2018, 43(12):1788-1796.

[本文引用: 1]

叶利华, 王磊, 张文文, .

高分辨率光学遥感场景分类的深度度量学习方法

[J]. 测绘学报, 2019, 48(6):698-707.

DOI:10.11947/j.AGCS.2019.20180434      [本文引用: 1]

针对高分辨率光学遥感影像场景具有同类型内部差异大、不同类型间相似度高导致部分场景识别困难的问题,本文提出了一种深度度量学习方法。首先在深度学习模型的特征输出层上为每类预设聚类中心,其次基于欧氏距离方法设计均值中心度量损失项,最后联合交叉熵损失项以及权重与偏置正则项构成模型的损失函数。该方法的目标是在特征空间上使同类型特征聚集并扩大类型间的距离以提高分类准确率。试验结果表明,本文方法有效地提升了分类准确率。在RSSCN7、UC Merced和NWPU-RESISC45数据集上,与现有方法相比,分类准确率分别提高了1.46%、1.09%和2.51%。

Ye L H, Wang L, Zhang W W, et al.

Deep metric learning method for high resolution remote sensing image scene classification

[J]. Acta Geodaetica et Cartographica Sinica, 2019, 48(6):698-707.

DOI:10.11947/j.AGCS.2019.20180434      [本文引用: 1]

Due to the similarity of intra-class and dissimilarity of inter-class of high-resolution remote sensing image scene, it is difficult to identify some image scene class. In this paper, a new classification approach for high-resolution remote sensing image scene is proposed based on deep learning and metric learning. Firstly, a clustering center of each class is preset on the output features of deep learning model. Secondly, the Euclidean distance method is used to calculate the average central metric loss. Finally, the final loss function consists of a central metric loss term, a cross entropy loss term, and a weight and bias term. The goal of this method is to improve the classification accuracy by forcing intra-class compactness and inter-class separability. The experimental results show that the proposed method significantly improves the classification accuracy. Compared with state-of-the-art results, the classification accuracy ratios on RSSCN7, UC Merced and NWPU-RESISC45 datasets are increased by 1.46%, 1.09% and 2.51%, respectively.

常亮, 邓小明, 周明全, .

图像理解中的卷积神经网络

[J]. 自动化学报, 2016, 42(9):1300-1312.

[本文引用: 1]

Chang L, Deng X M, Zhou M Q, et al.

Convolutional neural networks in image understanding

[J]. Acta Automatica Sinica, 2016, 42(9): 1300-1312.

[本文引用: 1]

曹玉东, 刘海燕, 曹旭, .

基于深度学习的图像质量评价方法综述

[J]. 计算机工程与应用, 2021, 57(23):27-36.

DOI:10.3778/j.issn.1002-8331.2106-0228      [本文引用: 1]

图像质量评价是对图像或视频的视觉质量的一种度量,主要分析了最近10年图像质量评价算法的研究情况。介绍了图像质量评价算法的衡量指标以及常用的图像质量评价数据集,对图像质量评价方法的分类做了阐述,重点分析了基于深度学习技术的图像质量评价算法。目前,该类算法的基础模型主要包括深度卷积神经网络、深度生成对抗网络和变换器,其性能通常高于传统的图像质量评价算法。描述了基于深度学习技术的图像质量评价算法的原理,重点介绍了基于深度生成对抗网络的无参考图像质量评价算法,通过增强对抗学习强度提高模拟参考图的可靠性。深度学习技术需要海量训练数据的支持,探讨和总结数据集增强的方法,对数字图像质量评价方法的未来研究进行展望。

Cao Y D, Liu H Y. Cao X, et al.

Overview of image quality assessment method based on deep learning

[J]. Computer Engineering and Applications, 2021, 57(23):27-36.

DOI:10.3778/j.issn.1002-8331.2106-0228      [本文引用: 1]

Image quality evaluation is a measurement of the visual quality of an image or video. The researches on image quality evaluation algorithms in the past 10 years are reviewed. First, the measurement indicators of image quality evaluation algorithm and image quality evaluation datasets are introduced. Then, the different classification of image quality evaluation methods are analyzed, and image quality evaluation algorithms with deep learning technology are focused on, basic model of which is deep convolutional network, deep generative adversarial network and transformer. The performance of algorithms with deep learning is often higher than that of traditional image quality assessment algorithms. Subsequently, the principle of image quality assessment with deep learning is described in detail. A specific no-reference image quality evaluation algorithm based on deep generative adversarial network is introduced, which improves the reliability of simulated reference images through enhanced confrontation learning. Deep learning technology requires massive data support. Data enhancement methods are elaborated to improve the performance of the model. Finally, the future research trend of digital image quality evaluation is summarized.

钱晓亮, 李佳, 程塨, .

特征提取策略对高分辨率遥感图像场景分类性能影响的评估

[J]. 遥感学报, 2018, 22(5):758-776.

[本文引用: 1]

Qian X L, Li J, Cheng G, et al.

Evaluation of the effect of feature extraction strategy on the performance of high-resolution remote sensing image scene classification

[J]. Journal of Remote Sensing, 2018, 22(5):758-776.

[本文引用: 1]

李琳, 余胜生.

基于深度学习模型的图像质量评价方法

[J]. 华中科技大学学报(自然科学版), 2016, 44(12):70-75.

[本文引用: 1]

Li L, Yu S S.

Image quality evaluation method based on deep learning model

[J]. Journal of Huazhong University of Science and Technology(Natural Science Edition), 2016, 44(12):70-75.

[本文引用: 1]

薛廉, 周春兰.

基于监督分类分区域的特征因子提取

[J]. 地理空间信息, 2009, 7(2):100-102.

[本文引用: 1]

Xue L, Zhou C L.

Feature factor extraction based on supervised classification subregions

[J]. Geospatial Information, 2009, 7(2):100-102.

[本文引用: 1]

/

京ICP备05055290号-2
版权所有 © 2015 《自然资源遥感》编辑部
地址:北京学院路31号中国国土资源航空物探遥感中心 邮编:100083
电话:010-62060291/62060292 E-mail:zrzyyg@163.com
本系统由北京玛格泰克科技发展有限公司设计开发