自然资源遥感, 2022, 34(2): 88-96 doi: 10.6046/zrzyyg.2021128

技术方法

基于DenseNet与注意力机制的遥感影像云检测算法

刘广进,1,2, 王光辉,1,2, 毕卫华3, 刘慧杰2, 杨化超1

1.中国矿业大学环境与测绘学院,徐州 221116

2.自然资源部国土卫星遥感应用中心, 北京 100048

3.皖北煤电集团有限责任公司,宿州 234002

Cloud detection algorithm of remote sensing image based on DenseNet and attention mechanism

LIU Guangjin,1,2, WANG Guanghui,1,2, BI Weihua3, LIU Huijie2, YANG Huachao1

1. School of Environment and Spatial Informatics, China University of Mining and Technology, Xuzhou 221116, China

2. Land Satellite Remote Sensing Application Center, MNR, Beijing 100048, China

3. Wanbei Coal and Electricity Co.Ltd., Suzhou 234002, China

通讯作者: 王光辉(1982-),男,高级工程师,研究方向为遥感影像信息提取与变化检测。Email:wanggh@lasac.cn

责任编辑: 陈理

收稿日期: 2021-04-23   修回日期: 2021-07-14  

基金资助: 国家重点研发计划项目“集成北斗/Galileo/LiDAR/倾斜摄影的智慧城市三维场景重建关键技术研究”(2017YFE0119600)

Received: 2021-04-23   Revised: 2021-07-14  

作者简介 About authors

刘广进(1998-),男,硕士研究生,研究方向为遥感影像云检测。Email: 1538868186@qq.com

摘要

遥感影像云检测是遥感影像处理过程中的第一步,针对传统的云检测算法小块薄云检测效果差的问题,该文提出了一种融合注意力机制的密集连接网络遥感影像云检测方法。首先,将自然资源部国土卫星遥感应用中心提供的影像人工勾取云矢量并制作云标签,再将其进行顺序裁剪、色彩抖动、旋转等预处理,以增广样本量; 然后,将预处理过后的遥感影像及其标签一并输入到以DenseNet作为编码器与解码器的神经网络中,编码器与解码器之间加入级联的空洞卷积模块以增大感受野,双注意力机制与全局上下文建模模块以抑制一些无关的细节信息; 最后,经过实验验证表明其精确率可以达到95%以上,交并比可以达到91%以上,较传统云检测算法有较大提高,可以很好地提取小块薄云。

关键词: 云检测; DenseNet; 双注意力机制; 全局上下文建模模块; 空洞卷积

Abstract

The cloud detection of remote sensing images is the first step in the process of remote sensing image processing. To address the problem that the traditional cloud detection algorithm has a poor effect on the detection of small and thin clouds, this paper proposes a cloud detection method for densely connected network remote sensing images based on the attention mechanism. First, cloud vectors are manually checked from the images provided by the Land Satellite Remote Sensing Application Center of the Ministry of Natural Resources and cloud labels are made, and the images are preprocessed by sequential clipping, color jitter, rotation, etc. to enlarge the sample size. Then, the pre-processed remote sensing images and their labels are fed into a neural network with DenseNet as the encoder and decoder, and a cascaded atrous convolution module is added between the encoder and decoder to increase the receptive field, and a dual attention mechanism and a global context modeling module are added to suppress some irrelevant detailed information. Finally, the experimental results showed that the accuracy rate could reach 95% and the intersection over union could reach 91%, which are big improvements over the traditional cloud detection algorithm, and this method performs well in extracting small and thin clouds.

Keywords: cloud detection; DenseNet; dual attention mechanism; global context modeling module; atrous convolution

PDF (6594KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

刘广进, 王光辉, 毕卫华, 刘慧杰, 杨化超. 基于DenseNet与注意力机制的遥感影像云检测算法[J]. 自然资源遥感, 2022, 34(2): 88-96 doi:10.6046/zrzyyg.2021128

LIU Guangjin, WANG Guanghui, BI Weihua, LIU Huijie, YANG Huachao. Cloud detection algorithm of remote sensing image based on DenseNet and attention mechanism[J]. Remote Sensing for Land & Resources, 2022, 34(2): 88-96 doi:10.6046/zrzyyg.2021128

0 引言

遥感卫星的出现使得我们获取地表影像数据的能力大大提高,凭借其全天时、大范围、时效性,使得遥感技术广泛应用于农业生产、地质防灾、气象预报、军事预警、地理国情等领域。但是遥感影像的获取过程中云的存在是常见现象,由于云的遮挡,使得地面信息无法被卫星获取到,给后续的影像分析解译带来了困难[1-2]。所以,遥感影像云检测是首要而且必要的一环,云检测的精度与速度对分析解译有直接影响。

云检测的方法大致可以分为3种: 手工勾绘方法、基于波段阈值及纹理信息的检测方法与基于深度学习的检测方法[3]。其中第一种方法为最传统的方法,效率较低,本文不再赘述。第二种方法中基于波段阈值的方法需要人为监督,调整参数才可以达到较优的检测结果,基于纹理的检测算法需要后续对错误分类进行剔除。基于深度学习的云检测过程中不需要人工干预,实现了端到端的检测。基于波段阈值的云检测方法最早是Zhu等[4]提出FMask算法,通过设定波段阈值来实现Landsat卫星影像的云检测。在基于纹理的云检测方法中,Otsu算法[5]和K-means聚类法[6]等都是基于邻域的相似性进行检测,对噪声比较敏感,鲁棒性较差。康一飞等[7]利用高斯混合模型自适应获取影像的灰度阈值,从而分离ZY-3影像的前景与背景,实现云的检测,但对地表上较亮的地物的误判比较严重; 仇一帆等[8]使用CFMask算法检测Landsat8影像的云及云阴影,然后用其结果代替人工勾绘的云标签参与深度学习训练,再用训练出来的模型检测新图像的云及云阴影,结果发现其检测结果比原始标签精度更高; 栗旭升等[9]利用灰度共生矩阵提取图像的纹理特征,使用纹理特征与光谱特征结合,再使用支持向量机的方法对高分一号卫星影像进行云检测; 徐启恒等[10]使用超像素分割方法与卷积神经网络相结合,采用半监督的方式与传统的Otsu算法相比,云检测精度有较大的提高; 刘云峰等[11]将双重注意机制模型与全卷积神经网络模型相对比,发现双注意力机制模型用于云检测更为准确; 张家强等[12]对Unet网络结构进行改进,编码器与残差结构相结合,提高了模型的泛化能力,比传统的Unet模型检测精度更优; 张永宏等[13]提出解码器不仅在Unet模型的编码器中引入残差模块,而且将密集连接模块融入解码器中,可以很好地检测出薄云大量的碎云; 康超萌[14]采用自适应超像素分割算法与支持向量机相结合的方法进行云检测,可以很好地检测出薄云,但在数据量大的情况下,效率较低; 张晨等[15]针对云与云阴影的误检现象,使用ResNet作为编码器与解码器,跳跃连接部分引入双重注意力机制,编码器与解码器之间使用改进的空洞金字塔池化模块以提取图像的多尺度特征,有效提高了云检测的精度。

随着深度学习算法的不断进步,越来越多的遥感问题都可以通过深度学习的方法得到有效解决。基于上述研究,本文提出一种融入注意力机制的密集连接网络,以解决深度学习算法检测小块云朵效果差的问题。首先,借鉴D-LinkNet网络[16]的编码器解码器思想,使用DenseNet[17]作为编码器与解码器以训练到更深层的网络结构,能够提取更多特征; 然后,中间层引入自注意力机制GCNet-Block[18]可以更好地提取上下文信息,引入双注意力模块[19]增加有用信息的特征级别,降低无用信息的特征级别,使网络能够注意到有用的特征; 最后,经过级联的空洞卷积结构,使网络在不改变特征图分辨率的前提下,增大感受野,更加有利于捕获影像的全局信息,将编码器阶段得到的特征图与解码器阶段上采样得到的特征图进行跳跃拼接,实现了对编码器阶段得到的特征的复用。

1 融入注意力机制的密集连接网络

1.1 DenseNet结构

DenseNet网络是2017年由Huang等[20]提出,DenseNet借鉴了He等[21]提出ResNet的跳跃连接以减轻梯度消散现象,从而训练到更深层网络的思想,直接将任意2层进行跳跃连接,以求最大化减轻梯度消散问题,从而训练到更深的网络。ResNet网络模型的公式为:

xl=H(xl-1)+xl-1

式中:xl-1为第l-1层输出的特征图; H为对特征图进行卷积、批归一化、激励等操作; xl为第l层输出的特征图。

ResNet模型结构如图1所示。

图1

图1   ResNet-Block结构

Fig.1   ResNet-Block structure


而DenseNet不同的是其互相连接所有的层,具体来说就是每个层都会接受其前面所有层作为其额外的输入,密集连接模块(densely connected block)结构如图2所示,其公式为:

xl=H(x0,x1,...,xl-1)

式中[x0,x1…,xl-1]表示前l-1层的输出的特征图的拼接。

图2

图2   密集连接模块

Fig.2   Densely connected block


虽然通过跳跃拼接的方式保留了原始的特征,减轻了梯度传播过程中消散现象,但随着网络层数越来越深,通道数也越来越大,参数量也越来越多,从而也难以训练到更深的网络。为此DenseNet还包含了一个重要的转换模块(transition block),如图3所示,用在密集连接模块之后,将得到的特征图的通道数减小为原来的一半。但仅仅这样还是会大大增加通道数,所以在密集连接模块中每次拼接之前都加入一个瓶颈(bottleneck)结构,将其特征图的通道数减小为增长率,这样就可以大幅度减小通道数。则经过一个密集连接模块之后的特征数就可以表示为:

C'=C+gn

式中: C'为经过密集连接模块之后的通道数; C为经过密集连接模块之前的通道数; g为通道数的增长率; n为层数量。

图3

图3   转换模块

Fig.3   Transition block


通过密集连接模块后经过转换模块(transition block)可将其通道数降为原始的一半,并进行下采样减半尺寸大小,从而更加简化了计算量,提升计算效率。

1.2 注意力机制

1.2.1 双注意力机制

随着计算机视觉的发展,各种注意力机制相继被提出,从而使计算机关注有用信息,忽略不感兴趣的信息。注意力机制分为通道注意力机制与位置注意力机制。

通道注意力机制最早提出的是SENet[22],通过压缩激励(squeeze-exciting)的方式对每个通道进行加权,实现对信息量大的通道重点关注,信息量少的通道关注力度更小。然而,双注意力机制中的通道注意力模块不像CBAM(convolutional block attention module)[23]中的通道注意力机制还需手工设计感知机,更加方便了应用。双注意力机制的通道注意力模块如图4所示。

图4

图4   通道注意力模块

Fig.4   Channel attention model


通道注意力模块的具体流程如下: 首先将特征图A变形成C×N(其中N = H×W)大小,再转置成N×C大小,与另一个只变形的特征图矩阵相乘得到C×C大小的特征图,再经过softmax层,得到不同通道的权值特征图X,再与变形过后的A进行矩阵相乘得到C×N大小的特征图,再变形成C×H×W大小的特征图,最后与原始的A进行矩阵相加,得到通道加权后的特征图Z。

位置注意力模块的最早应用是CBAM中的空间注意力(spatial attention model,SAM)模块,其首先将原始的特征图分别对同一位置不同通道进行全局最大池化与全局平均池化,分别生成通道数为1的特征图,然后将两者拼接起来,继而通过一个卷积核尺寸为7,填充尺寸为3的卷积将拼接起来的特征图的通道数降为1,从而达到获取其位置权重的目的。

而双注意力机制中的位置注意力模块则是使用通过自相关矩阵的变换得到位置权重,可以更注意全局特征。其模型结构如图5所示。

图5

图5   位置注意力模块

Fig.5   Position attention model


其结构与通道注意力模块类似,区别是其进行矩阵相乘时得到的特征图大小为(H×W,H×W),将所有通道信息进行了压缩,然后进行softmax,得到各个位置的权值S。

1.2.2 全局上下文建模模块

双注意力机制可以融合通道注意力机制与位置注意力机制,虽然其加入了自相关矩阵大大改善了注意力陷入局部的问题,但充分利用全局的上下文信息是有必要的。所以在进行融合双重注意力机制之前,先将全局的上下文信息提取出来。

为了解决此问题,最早提出的是NLNet(non-local net)[24],它利用自我注意机制建立远程依赖,使网络能够更全面地理解图像,从而不会使计算机局部感知图像。对于每个查询点,首先计算该点与所有点的点对关系,得到注意力图,然后对所有点的特征进行加权求和,得到与查询端相关的全局特征,最后将全局特征加入到每个查询点的特征中,完成远程依赖关系的建模(图6)。

图6

图6   非局部神经网络

Fig.6   Non-local neural networks


但是由于NLNet内部有较多的矩阵变换运算,导致计算量大大增加,所以极大地限制了NLNet的使用,为此GCNet提出了简化NLNet版本,即Simple-NLNet,并结合了SENet计算量少的优点,从而不仅有效地建立远程依赖,又节省了网络结构的计算量。GCNet的GC-Block模块如图7所示。

图7

图7   全局上下文建模模块

Fig.7   Global context block


对于GCNet其可以分为3个步骤: 首先是需要使用全局平均池化进行上下文建模(context modeling),原始大小为C×H×W一方面先将其变形成C×HW大小的特征图,另一方面使用1×1卷积降低通道数为1,生成1×H×W大小的特征图,再变形成HW×1×1大小的特征图,经过softmax层后与C×HW大小的特征图进行矩阵相乘,得到C×1×1大小的特征图,至此每个通道的特征图的大小都变为1×1,完成了上下文建模。第二步捕获通道间的依赖,先将C×1×1大小的特征图经过一个瓶颈结构,降低通道数,图中r为通道数减少的倍数,从而减小了计算量,然后加入归一化层提高泛化能力,使用ReLU函数进行激励,得到非线性关系,最后还原通道数。第三步是将原始的特征图与变换后的特征图使用相加操作进行融合。

1.3 空洞卷积模块

感受野表示单个像素点在上层卷积网络特征图中的区域范围大小,感受野越大,则表示通过卷积得到一个像素点所使用的上层特征图的像素个数越多,即所使用到的特征越多。感受野的大小决定了网络能否获取特征图的全局信息。扩大感受野最简单的方法就是增大卷积核的大小,但是卷积核大小的增大一定会使计算量增加,所以随着Deeplab V1[25]提出的空洞卷积,即扩大卷积核并在卷积核中使用部分用0来填充,从而可以简单方便地解决计算量增加的问题。如图8所示,特征图分为同等的6份,第一层为分别使用1,2,4,8,16大小空洞率进行空洞卷积,后面5层类似,最后将空洞卷积后的特征图与最后一层的原始特征图相加,从而可以增大感受野。

图8

图8   空洞卷积模块

Fig.8   Dilated-convolution block


1.4 融合注意力机制的密集连接网络

在上述研究的基础上,本文提出融合注意力机制的密集连接网络,具体模型结构如图9所示。

图9

图9   融入注意力机制的密集连接网络

Fig.9   Attention DBlock densely connected networks


1)编码器阶段: 将裁剪好的3通道影像经过一个初始模块,初始模块由4个部分组成,第一部分为卷积核大小为7,填充大小为3的卷积层以不改变特征图的大小,输出通道数为64以减弱网络对影像失真影响; 第二部分为批归一化层,其作用加速模型收敛以及一定程度上缓解深层网络的梯度弥散问题; 第三部分为激励层,ReLU可以增加网络的非线性,并使一部分神经元的输出变为0,减少了参数之间的相互依赖,防止过拟合; 第四部分为最大池化层,最大池化层将原始特征图的宽高尺寸减半,减少了参数量,并一定程度上增加了网络的非线性关系。然后分别经过4个密集连接模块与转换模块提取特征,密集连接模块有效地减弱了梯度消散问题,转换模块有效地减少了参数量,使网络不至于“参数爆炸”。其中4个密集连接模块的层数量分别为6,8,12,16。

2)中间层: 首先通过GC-Block提取特征图的上下文信息,双注意力机制融合了位置注意力与通道注意力信息,使计算机更好地注意需要的特征,再将结果送入空洞卷积模块中使其在不改变特征图分辨率的前提下,增大感受野,进一步提取特征图的全局特征。

3)解码器阶段: 解码器部分首先上采样使特征图的通道数减小为刚通过编码器阶段DenseBlock3的特征图的通道数,图中m为当前层特征图的通道数; 然后与其进行跳跃拼接,从而特征图通道数变为原来的2倍,跳跃拼接可以实现特征复用,保留了更多的原始特征; 经过DenseBlock之后,通道数增加,再通过上采样降低通道数,直到最后将特征图变为通道数为1的二值图。

2 实验与分析

2.1 实验数据准备与参数设置

本文的实验均在ubantu16.04,CUDA 10.1,NVIDIA UNIX 64核的pytorch1.2.0深度学习框架下进行的。

本次实验的数据来自自然资源部国土卫星遥感应用中心提供的国产卫星遥感影像,其中包括高分一号、高分二号、高分六号、资源卫星影像,由于我国中东部地区云量相对较小,所以大部分选取新疆、西藏及内蒙古等边疆地区的遥感影像,小部分选取中东部地区的遥感影像,共596景,比例关系约为6∶4。标签制作为手工勾绘云矢量,后使用自制python脚本将其转化为二值图标签。原始标签及其真值标签部分数据如表1所示。

表1   原始影像及其真值标签

Tab.1  Original image and its truth tag

编号原始影像真值标签影像类型
1草地
2荒地
3水域
4城镇
5山地

新窗口打开| 下载CSV


训练之前首先经过预处理,进行影像数据的扩充,方法有: 色彩抖动、水平翻转、垂直翻转、顺序裁剪、旋转等。首先进行顺序裁剪,将原始的影像与标签裁剪成512像素×512像素大小的影像共2 468张,再使用色彩抖动、平移、旋转、尺度缩放、水平翻转、垂直翻转进行扩充数据集,共得到12 340张,按照8∶2的比例分为训练集9 872张与测试集2 468张。预处理的目的是扩充数据量,对数据进行增广,防止过拟合,提高模型的泛化能力。增强后的影像及其真值标签见表2

表2   增强之后的影像及真值标签

Tab.2  Enhanced image and its truth tag

编号增强后影像增强后影像的真值标签
1
2
3
编号增强后影像增强后影像的真值标签
4
5

新窗口打开| 下载CSV


参数设置: batchsize为4,步长为20,使用的优化器为Adam,初始学习率为0.001,自动调整学习率,每次调整变为原来的1/2,直到损失值7次不再下降为止。

2.2 损失函数

由于这是针对二分类问题,所以使用BCELoss作为损失函数。BCELoss是二分类问题中优秀的损失函数,其公式为:

BCELoss=i=1BBCELoss(Pi,GTi)
BCELoss(P,GT)=-i=1W'j=1H'[gtijlnpij+(1-gtij)ln(1-pij)]

式中: GT为标签影像(ground true); P为预测影像(predicet mask); B为批大小; W'为影像的宽度; H'为高度; gtij为标签影像在i,j位置的像素值; pij为预测影像在i,j位置的像素值。

2.3 评价指标

这里选取的指标为交并比IoU、召回率recall以及精确率precision。其计算方式分别为:

IoU=TPTP+FP+FN
recall=TPTP+FN
precision=TPTP+FP

式中: TP为真阳性,表示原本为云预测为云的数量; TN为真阴性,表示原本为非云预测为非云的数量; FP为假阳性,表示原本为非云错误预测为云的数量; FN为假阴性,表示原本为云错误预测为非云的数量。其中3个指标越高表示精度越高。

2.4 云检测结果分析

由于影像不是多光谱影像,不能利用以热红外波段实施云检测的FMask算法进行检测,所以传统方法分别使用Otsu阈值算法、Otsu多阈值算法及K-means聚类算法进行云检测。深度学习算法分别使用SegNet,Unet,D-LinkNet50,未加注意力机制的本文方法(D-DenseNet)及本文方法(AD-DenseNet)对增强后的影像进行训练。首先进行定量分析,其中在训练集上的不同算法模型评价指标表现如表3所示,验证集上的不同算法模型的评价指标表现如表4所示,从表3—4中可以看出,传统算法的精度较深度学习算法的精度低,而在深度学习算法中,无论在训练集上还是在验证集上的召回率、交并比以及精确率都为本文方法精度最高。加上注意力机制后交并比增长约一个百分点,召回率与精确率也都有小幅度增长。

表3   训练集上的不同算法模型评价结果

Tab.3  Evaluation results of different algorithm models on training sets

算法模型RecallPrecisionIoU
Otsu阈值法0.865 7060.341 5970.324 407
Otsu多阈值法0.684 4310.833 8320.602 283
K-means聚类法0.838 2120.385 0390.358 404
SegNet0.908 1520.936 9530.855 852
Unet0.945 2950.954 2850.904 343
D-LinkNet500.942 0090.948 9580.896 580
D-DenseNet0.947 0850.955 0370.906 659
AD-DenseNet0.948 9310.957 6360.910 701

新窗口打开| 下载CSV


表4   验证集上的不同算法模型评价结果

Tab.4  Evaluation results of different algorithm models on the validation sets

算法模型RecallPrecisionIoU
Otsu阈值法0.859 2950.389 7040.366 328
Otsu多阈值法0.702 9320.868 5630.635 349
K-means聚类法0.841 5810.423 7130.392 414
SegNet0.923 4050.926 1820.860 104
Unet0.946 4300.958 2250.908 927
D-LinkNet500.948 2620.949 0050.902 285
D-DenseNet0.951 4850.958 9110.904 211
AD-DenseNet0.953 8660.961 3210.918 611

新窗口打开| 下载CSV


图10为AD-DenseNet算法的损失值与交并比随着训练轮数epoch的变化,其中一个epoch表示全部数据训练一次。一共训练了120个epoch,训练集与测试集上的交并比均高于0.91,并且最后都达到收敛。图11为AD-DenseNet算法的精确率与召回率随着epoch的变化曲线,可以发现最后均收敛,并且精确率都在0.95以上。不同算法云检测结果如图12所示。

图10

图10   AD-DenseNet算法损失值与交并比随epoch的变化曲线

Fig.10   Change curve of AD-DenseNet algorithm loss and IoU with epoch


图11

图11   AD-DenseNet算法精确率与召回率随epoch的变化曲线

Fig.11   Change curve of AD-DenseNet algorithm precision and recall with epoch


图12

图12   不同算法的云检测结果对比

Fig.12   Comparison of cloud detection results of different algorithms


首先使用传统方法Ostu阈值法、Ostu多阈值法及K-means聚类法对原始影像进行云检测,结果如图12(c)—(e)所示,从中可以看到Otsu阈值法与K-means聚类法检测效果明显不佳,由于其对噪声鲁棒性较差,Otsu多阈值法可以较好地检测出云的范围,但是从图12(d)中橙色椭圆虚线框中可以看到有明显的错检现象。对于深度学习方法,分别使用SegNet,Unet,D-LinkNet50,D-DenseNet及AD-DenseNet进行预测测试集中的影像,首先,将原始影像进行顺序切分为512像素×512像素大小的小影像,再使用训练好的网络模型进行预测,最后按照规则进行还原成原始影像大小。纵观图12的(f)—(j),其大体上没什么差别,预测精度都较高,但对于小块云朵的检测却不是如此。从图12(a)中可以看到,原始影像在红色框中有2片较小的云,由于其后方有明显的云的阴影,所以判定其为云,真值标签只勾绘出了一片云,SegNet,UNet,D-LinkNet及D-DenseNet均未预测出2片小块云,但AD-DenseNet算法却准确预测出其位置及形状。图12(a)中黄色框中,有一块较小的薄云,放大之后可清晰看到其云阴影,其中SegNet,UNet和D-LinkNet均未预测出此小块云,D-DenseNet与AD-DenseNet正确预测出其位置及形状。

3 结论

本文针对传统的深度学习算法不能很好地检测出小块云的问题,提出了一种融合注意力机制的密集连接网络(attention DBlock densely connected networks,AD-DenseNet)。

1)首先从编码器与解码器结构出发,不再使用通用的ResNet-Block结构作为骨干网络,使用DenseNet-Block作为编码器与解码器,从而可以训练到更深层的网络,提取到更多的影像特征。

2)中间层使用GC-Block提取全局特征,防止网络陷入局部,引入双注意力机制,使网络更加注意有用信息,抑制无关信息。

3)中间层加入DBlock结构,使网络在不改变分辨率的情况下增大感受野,以提取全局特征。

从实验结果来看,交并比可以达到0.91以上,精确率可以达到0.95以上,本文方法可以很好地检测出小块云朵,较传统方法有所提高。

但是对于雪的误判还存在问题,这将是下一步需要研究的方向。

参考文献

Zhang Y, Rossow W B, Lacis A, et al.

Calculation of radiative fluxes from the surface to top of atmosphere based on ISCCP and other global data sets:Refinements of the radiative transfer model and the input data

[J]. Journal of Geophysical Research:Atmospheres, 2004, 109(d19):105-115.

[本文引用: 1]

Ju J C, Roy D P.

The availability of cloud-free Landsat ETM+ data over the conterminous United States and globally

[J]. Remote Sensing of Environment, 2007, 112(3):1196-1211.

DOI:10.1016/j.rse.2007.08.011      URL     [本文引用: 1]

Xie F, Shi M Y, Shi Z, et al.

Multilevel cloud detection in remote sensing images based on deep learning

[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2017, 10:3631-3640.

DOI:10.1109/JSTARS.2017.2686488      URL     [本文引用: 1]

Zhu Z, Woodcock C E.

Object-based cloud and cloud shadow detection in Landsat imagery

[J]. Remote Sensing of Environment, 2012, 118:83-94.

DOI:10.1016/j.rse.2011.10.028      URL     [本文引用: 1]

Otsu N.

A Threshold selection method from gray-level histograms

[J]. IEEE Transactions on Systems Man and Cybernetics, 2007, 9(1):62-66.

DOI:10.1109/TSMC.1979.4310076      URL     [本文引用: 1]

李玉功. K-means聚类算法的改进及其在彩色图像分割中的应用[D]. 合肥: 安徽大学, 2018.

[本文引用: 1]

Li Y G. Improvement of K-means clustering algorithm and its application in color image segmentation[D]. Hefei: Anhui University, 2018.

[本文引用: 1]

康一飞, 潘励, 孙明伟, .

基于高斯混合模型法的国产高分辨率卫星影像云检测

[J]. 武汉大学学报(信息科学版), 2017, 42(6):782-788.

[本文引用: 1]

Kang Y F, Pan L, Sun M W, et al.

Gaussian mixture model based cloud detection for Chinese high resolution satellite imagery

[J]. Geomatics and Information Science of Wuhan University, 2017, 42(6):782-788.

[本文引用: 1]

仇一帆, 柴登峰.

无人工标注数据的Landsat影像云检测深度学习方法

[J]. 国土资源遥感, 2021, 33(1):102-107.doi: 10.6046/gtzyyg.2020090.

[本文引用: 1]

Qiu Y F, Chai D F.

A deep learning method for Landsat image cloud detection without manually labeled data

[J]. Remote Sensing for Land and Resources, 2021, 33(1):102-107.doi: 10.6046/gtzyyg.2020090.

[本文引用: 1]

栗旭升, 刘玉峰, 陈冬花, .

结合图像特征的支持向量机高分一号云检测

[J]. 国土资源遥感, 2020, 32(3):55-62.doi: 10.6046/gtzyyg.2020.03.08.

[本文引用: 1]

Li X S, Liu Y F, Chen D H, et al.

Cloud detection based on support vector machine with image features for GF-1 data

[J]. Remote Sensing for Land and Resources, 2020, 32(3):55-62.doi: 10.6046/gtzyyg.2020.03.08.

[本文引用: 1]

徐启恒, 黄滢冰, 陈洋.

结合超像素和卷积神经网络的国产高分辨率遥感影像云检测方法

[J]. 测绘通报, 2019(1):50-55.

[本文引用: 1]

Xu Q H, Huang Y B, Chen Y.

Cloud detection for Chinese high resolution remote sensing imagery using combining superpixel with convolution neural network

[J]. Bulletin of Surveying and Mapping, 2019(1):50-55.

[本文引用: 1]

刘云峰, 杨珍, 韩骁, .

国产高分辨率遥感卫星影像云检测方法分析

[J]. 测绘通报, 2020(11):66-70.

[本文引用: 1]

Liu Y F, Yang Z, Han X, et al.

Research on cloud detection method of domestic high-resolution satellite images

[J]. Bulletin of Surveying and Mapping, 2020(11):66-70.

[本文引用: 1]

张家强, 李潇雁, 李丽圆, .

基于深度残差全卷积网络的Landsat8遥感影像云检测方法

[J]. 激光与光电子学进展, 2020, 57(10):364-371.

[本文引用: 1]

Zhang J Q, Li X Y, Li L Y, et al.

Landsat8 remote sensing image based on deep residual fully convolutional network

[J]. Laser and Optoelectronics Progress, 2020, 57(10):364-371.

[本文引用: 1]

张永宏, 蔡朋雁, 陶润喆, .

基于改进U-Net网络的遥感图像云检测

[J]. 测绘通报, 2020(3):17-20.

[本文引用: 1]

Zhang Y H, Cai P Y, Tao R Z, et al.

Cloud detection for remote sensing images using improved U-Net

[J]. Bulletin of Surveying and Mapping, 2020(3):17-20.

[本文引用: 1]

康超萌. 基于神经网络的国产高分光学遥感图像云检测[D]. 西安: 中国科学院大学(中国科学院西安光学精密机械研究所), 2018:20-27.

[本文引用: 1]

Kang C M. Cloud detection in domestic high-resolution remote sensing image based deep neural networks[D]. Xi’an: University of Chinese Academy of Sciences, 2018:20-27.

[本文引用: 1]

张晨, 张秀再, 杨昌军.

双注意力RDA-Net遥感影像云与云阴影检测方法

[J/OL]. 激光与光电子学进展, 2021:1-19. https://kns.cnki.net/kcms/detail/31.1690.TN.20210222.1114.023.html.

URL     [本文引用: 1]

Zhang C, Zhang X Z, Yang C J.

Dual attention RDA-Net for cloud and cloud shadow detection of remote sensing image

[J/OL]. Laser and Optoelectronics Progress, 2021:1-19. https://kns.cnki.net/kcms/detail/31.1690.TN.20210222.1114.023.html.

URL     [本文引用: 1]

Zhou L C, Zhang C, Wu M.

D-LinkNet:LinkNet with pretrained encoder and dilated convolution for high resolution satellite imagery road extraction

[C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, 2018:182-186.

[本文引用: 1]

彭博. 基于深度学习的遥感图像道路信息提取算法研究[D]. 成都: 电子科技大学, 2019:45-46.

[本文引用: 1]

Peng B. Research on road information extraction of remote sensing image based on deep learning[D]. Chengdu: University of Electronic Science and Technology of China, 2019:45-46.

[本文引用: 1]

Cao Y, Xu J R, Stephen L, et al.

GCNet:Non-local networks meet squeeze-excitation networks and beyond

[C]// IEEE CVF International Conference on Computer Vision (ICCV), 2019:1971-1980.

[本文引用: 1]

Fu J, Liu J, Tian H, et al.

Dual attention network for scene segmentation

[C]// IEEE Conference on Computer Vision and Pattern Recognition, 2019:3146-3154.

[本文引用: 1]

Huang G, Liu Z, Van Der Maaten L, et al.

Densely connected convo-lutional networks

[C]// Proceedings of the 30th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Honolulu, 2017.

[本文引用: 1]

He K M, Zhan X Y, Ren S Q.

Deep residual learning for image reco-gnition

[C]// IEEE Conference on Computer Vision and Pattern Recognition, 2016:770-778.

[本文引用: 1]

Hu J, Shen L, Sun G.

Squeeze-and-excitation networks

[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2018:7132-7141.

[本文引用: 1]

Woo S, Park J, Lee J Y, et al.

CBAM:Convolutional block attention module

[C]// 15th European Conference on Computer Vision (ECCV), 2018, 11211:3-19.

[本文引用: 1]

Wang X L, Girshick R, Gupta A, et al.

Non-local neural networks

[C]// IEEE Conference on Computer Vision and Pattern Recognition, 2018:7794-7803.

[本文引用: 1]

Chen L C, Papandreou G, Kokkinos I, et al.

DeepLab:Semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs

[J]. IEEE Transactions on Pattern Analysis and Machine Interlligence, 2018, 40(4):834-848.

[本文引用: 1]

/

京ICP备05055290号-2
版权所有 © 2015 《自然资源遥感》编辑部
地址:北京学院路31号中国国土资源航空物探遥感中心 邮编:100083
电话:010-62060291/62060292 E-mail:zrzyyg@163.com
本系统由北京玛格泰克科技发展有限公司设计开发