国土资源遥感, 2020, 32(3): 90-97 doi: 10.6046/gtzyyg.2020.03.12

技术方法

基于SU-RetinaNet的高分辨率遥感影像非正规垃圾堆检测

吴同,1,2,3, 彭玲,1,2, 胡媛1,2,3

1.中国科学院空天信息创新研究院,北京 100094

2.中国科学院遥感与数字地球研究所,北京 100101

3.中国科学院大学电子电气与通信工程学院,北京 100049

Informal garbage dumps detection in high resolution remote sensing images based on SU-RetinaNet

WU Tong,1,2,3, PENG Ling,1,2, HU Yuan1,2,3

1. Aerospace Information Research Institute, Chinese Academy of Sciences, Beijing 100094, China

2. Institute of Remote Sensing and Digital Earth, Chinese Academy of Sciences, Beijing 100101, China

3. School of Electronic, Electrical and Communication Engineering, University of Chinese Academy of Sciences, Beijing 100049, China

通讯作者: 彭玲(1965-),女,博士,研究员,主要研究方向为遥感影像智能学习、智慧城市时空大数据脉动分析。Email:pengling@aircas.ac.cn

责任编辑: 李瑜

收稿日期: 2019-10-9   修回日期: 2020-01-4   网络出版日期: 2020-09-15

基金资助: 北京市科技计划课题“面向现场应急处置的非常规突发事件快速协同感知技术研发与应用”.  Z191100001419002

Received: 2019-10-9   Revised: 2020-01-4   Online: 2020-09-15

作者简介 About authors

吴同(1995-),女,硕士研究生,主要研究方向为基于深度学习的遥感信息智能提取。Email: tongw_indus@126.com

.

摘要

我国城镇化水平的提升和垃圾处理基础设施的不完善,致使我国非正规垃圾堆放问题日益突出。高分辨率遥感影像的发展为非正规垃圾堆的宏观、高效管理提供了可能。目前常用的目视解译和传统监督分类的方法不仅非常耗时,且数据中的深层特征难以被挖掘,检测精度有限。利用卷积神经网络技术,提出了基于样本更新和RetinaNet的高分辨率遥感影像非正规垃圾堆检测框架(sample updated-RetinaNet,SU-RetinaNet),分析了不同参数和网络结构对模型检测效果的影响,同时比较了利用可变形部件模型(deformable parts model,DPM)、区域卷积神经网络(region-based convolutional neural network,R-CNN)、快速区域卷积神经网络(faster R-CNN,Faster R-CNN)、RetinaNet和SU-RetinaNet 5种算法进行非正规垃圾堆检测的性能。实验结果表明,利用SU-RetinaNet进行非正规垃圾堆检测的平均精度可以达到85.92%,每张图的检测速度约为0.097 s。相比传统方法,SU-RetinaNet在很大程度上提高了非正规垃圾堆的检测效率,为城市垃圾的有效监测管理提供了一个可行的技术方案。

关键词: 高分辨率遥感影像 ; 卷积神经网络 ; SU-RetinaNet ; 非正规垃圾堆检测

Abstract

The improvement of urbanization level and the imperfection of waste treatment infrastructure in China have caused the problem that informal garbage stacking becomes more and more prominent. With the development of high resolution remote sensing images, macro and efficient management of informal garbage dumps becomes possible. Most of the existing researches use visual interpretation and traditional supervised classification methods to identify informal garbage dumps from high resolution remote sensing images. Such methods are very time-consuming, and it is difficult for them to mine deep features from data, therefore the detection accuracy is limited. Therefore, the authors used convolutional neural network, proposed an informal garbage dumps detection framework SU-RetinaNet from high resolution remote sensing image based on sample updated and RetinaNet, analyzed the impact of different parameters and network structure on the model detection performance, and compared the results of using DPM, R-CNN , Faster R-CNN, RetinaNet and SU-RetinaNet 5 algorithms for the performance of informal garbage dumps detection. Experimental results show that the use of SU-RetinaNet for informal garbage dumps detection can achieve average precision of 85.92% and a detection speed of 0.097 s per image. Compared with traditional method, SU-RetinaNet greatly improves the detection efficiency of informal garbage dumps, and provides a feasible technical solution for effective monitoring and management of municipal waste.

Keywords: high resolution remote sensing images ; convolutional neural network ; SU-RetinaNet ; informal garbage dumps detection

PDF (2868KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

吴同, 彭玲, 胡媛. 基于SU-RetinaNet的高分辨率遥感影像非正规垃圾堆检测. 国土资源遥感[J], 2020, 32(3): 90-97 doi:10.6046/gtzyyg.2020.03.12

WU Tong, PENG Ling, HU Yuan. Informal garbage dumps detection in high resolution remote sensing images based on SU-RetinaNet. REMOTE SENSING FOR LAND & RESOURCES[J], 2020, 32(3): 90-97 doi:10.6046/gtzyyg.2020.03.12

0 引言

随着我国经济的增长和城镇化水平的提升,我国垃圾年产量呈上升趋势。根据我国统计年鉴记载,2005—2015年期间我国垃圾产生量由13.44亿t增长到32.71亿t,平均每年增长14.33%。部分中小城市没有固定场地来堆放垃圾,形成大量的非正规垃圾堆。非正规垃圾堆露天堆放,不仅侵占了大量的土地,还严重污染了大气、水体和城市的生活环境,影响了人们的正常生活和身体健康[1,2]。因此,有效检测非正规垃圾堆,有利于城市垃圾的全面治理、维护城市环境安全。

目前人工实地调查是常用的非正规垃圾堆检测方法,但这类方法耗时费力、效率低下,且并不适合于分布广泛、堆放点易变的非正规垃圾堆。而高分辨率遥感技术的发展,为非正规垃圾堆的宏观检测和高效管理提供了一个发展方向。如今已有研究学者尝试利用高分辨率遥感影像进行非正规垃圾堆的识别研究。Bagheri等[2]利用航空遥感影像目视解译出美国新泽西洲伯灵顿市部分危险垃圾堆放点; Silverstri等[3]利用IKONOS影像上垃圾堆放点的颜色、形状等特征,采用监督分类方法获取了意大利非法填埋区分布情况; Cadau等[4]综合光学影像及合成孔径雷达获取的数据,提出了垃圾堆监测指数(dump detection index,DDI); Yan等[5]利用Landsat影像反演垃圾堆表面温度,得出垃圾堆表面温度高于周边植被温度的结论; 刘亚岚等[6]利用颜色、形状、纹理和地理位置等特征建立了判读标志以识别非正规垃圾场; 张方利等[7]基于高分辨率遥感影像的光谱、纹理和尺度特征,采用决策树分类的方法提取了北京城市固体废弃物堆放点; 秦海春[8]利用垃圾堆的光谱影像特征,采用决策树分类并计算土壤调节植被指数的方法从高分二号影像上提取了垃圾堆放点; 王晨等[9]利用目视解译方法从2015年高分辨率卫星遥感影像中提取了京津冀地区非正规垃圾堆放场地的分布情况。

梳理已有研究发现,现有基于遥感数据的非正规垃圾堆识别研究中,所依赖的特征表达均是通过人工设计的,不仅非常耗时,而且很难获得高效的分类器以充分挖掘深层特征,检测精度有限。因此需要寻求一种能够自动学习并获取有效特征的方法,通过相对复杂的网络结构,充分挖掘数据间的关联关系,并建立强大的分类器。近年来发展的卷积神经网络为目标特征的自动提取提供了一个有效的框架。基于卷积神经网络的目标检测方法目前可分为基于候选区域的目标检测方法(如区域卷积神经网络(region-based convolutional neural network,R-CNN)[10]和快速区域卷积神经网络(faster R-CNN,Faster R-CNN)[11]等)与基于回归的目标检测方法(如YOLO (you only look once)[12]和SSD (single shot multibox detector)[13])。前者将生成稀疏候选目标框和目标框的分类回归分成了2个阶段; 后者则通过对位置、尺度和长宽比进行规则和密集采样来检测目标。与前者相比,后者计算效率高,但由于其提取过程容易产生大量负样本,导致在训练时正负样本类别失衡,模型检测精度落后于前者。2018年Lin等[14]提出的RetinaNet利用Focal Loss函数成功控制正负样本及难分易分样本产生的损失值,有效提升了基于回归的目标检测方法的检测精度。

基于此,本文选择RetinaNet模型作为基本结构,结合文献[15]提出的样本更新方法,提出一种基于RetinaNet和样本更新的高分辨率遥感影像非正规垃圾堆检测框架(sample updated-RetinaNet,SU-RetinaNet),以完成对非正规垃圾堆的有效检测。此外本文比较了可变形部件模型(deformable parts model,DPM)、R-CNN、Faster R-CNN、RetinaNet和SU-RetinaNet 5种目标检测算法的检测精度和效率,以验证本文提出的SU-RetinaNet在固体废弃物垃圾检测中的可行性。

1 SU-RetinaNet框架

1.1 样本更新方法及训练

本文以RetinaNet模型为基本结构,采用样本更新方法对非正规垃圾堆进行检测。具体检测流程如图1所示。首先,利用初始训练集训练RetinaNet模型,根据模型在验证集中的检测效果,人工调整超参数,以使精度达到最佳; 其次,将训练好的模型用于测试集中得到初始非正规垃圾堆检测结果; 然后,在初始检测结果中以错检目标为中心,裁剪500像素×500像素大小的图像作为背景图像,选择漏检目标作为正样本并随机放置在背景图像中生成合成样本; 最后,用合成后的样本更新初始训练集,进行新一轮的模型训练,并输出最终的非正规垃圾堆检测结果。

图1

图1   基于SU-RetinaNet的非正规垃圾堆检测流程

Fig.1   Informal garbage dumps detection process based on SU-RetinaNet


1.2 RetinaNet网络结构

RetinaNet模型由4个模块构成,其网络结构如图2所示。图2中①表示特征提取网络,本文使用深度残差网络ResNet[16]来完成对输入图像的卷积特征提取; ②为特征金字塔网络(feature pyramid networks,FPN)[17],考虑到卷积神经网络提取图像特征时,低层特征的语义信息少,目标位置准确,高层特征的语义信息多,目标位置粗略的特点,本文将ResNet网络第3—5组卷积阶段输出的特征图(C3—C5),通过上采样和横向连接操作产生特征融合后的特征图(P3—P5),并在C5的基础上通过卷积操作得到P6和P7这2组特征图,从而对①中产生的特征图进行重新组合,从单一分辨率的输入图像中有效提取出丰富的、多尺度的特征金字塔; ③为基准小窗口机制,用于得到候选框; 在通过FPN网络和基准小窗口机制获得特征图集合和候选框后,连接了本质为全卷积网络(fully convolutional networks,FCN)[18]、参数独立的分类子网和位置回归子网,如图2中④所示,用于对候选框进行分类和定位。与传统区域候选网络(region proposal network,RPN)所用的1×1×18分类子网不同,本文使用了更深的分类子网络。在本文的分类子网中,先使用了4个3×3×256的卷积层,然后利用一个通道数为A(A为候选框数)的3×3的卷积层预测W×H范围内每个候选框属于非正规垃圾堆的概率(WH为特征图的宽和高)。位置回归子网和分类子网的设计基本相同,唯一不同的是最后一层通道数为4A,即对每一个候选框,回归一个(dx,dy,dw,dh)4维向量,表示候选框到关联的地面真值之间的偏移。

图2

图2   RetinaNet网络结构

Fig.2   RetinaNet network structure


1.3 基准小窗口机制

本文借鉴了RPN中的基准小窗口机制,为了实现密集覆盖,设置了倍频范围{20,21/3,22/3},从而让FPN网络P3—P7的每一层特征图分别产生3种不同尺寸的基准小窗口。针对每种尺寸的基准小窗口再设置不同长宽比{1:2,1:1,2:1},这样每一层有9种基准小窗口,不同层可以覆盖的基准小窗口的面积范围为32~813。根据1.2节中RetinaNet模型的网络结构可知,基准小窗口机制产生的每一个候选框,最终都对应一个one-hot向量和4维的位置回归向量。具体来说,如果一个候选框与某个地面真值的交并比(intersection over union,IOU)大于0.5,就认定为正样本,如果IOU在[0,0.4)之间,认定为背景。每个候选框至多检测一个地面真值,如果一个候选框与地面真值的IOU在[0.4,0.5)之间,那么在训练时将忽略这个候选框。

1.4 损失函数

本文使用模型的训练损失为边框回归损失和分类损失之和。对于边框回归损失,采用相对缓和的绝对损失函数(smooth L1损失)。对于分类损失,采用改进后的交叉熵损失进行计算。二分类的交叉熵(cross-entropy,CE)损失公式为:

CE(p,y)=CE(pt)=-ln(pt),
pt=p  y=11-p y1,

式中: y∈{±1},用于指定真值类别; p∈[0,1],表示模型预测标签y=1的概率。交叉熵损失常被扩展用于多分类任务中,但当面对基于回归的深度学习目标检测方法产生的类别极端不平衡问题时,交叉熵损失暴露出其不适用性。即当大量的简单样本叠加到一起时,即使每个样本产生的损失是很小的量级,也会淹没难分样本。因此本文采用改进后的交叉熵损失α——Balance Focal Loss(FL),即

FL(pt)=-αt(1-pt)γln(pt),
αt=α  y=11-α y1,

式中 :αt[0,1],为平衡正负样本的权重因子; α为标签y=1时给定的权重值; (1-pt)γ为调节因子,γ[0,+)为可调聚焦参数。当一个样本预测错误时,调节因子趋近于1,对于错误分类样本的惩罚不变; 当一个样本预测正确时,调节因子趋近于0,对于正确分类样本的惩罚缩小。因此该损失函数可有效降低简单样本的权重,将训练过程集中于难分类的样本。

2 实验方法

2.1 实验环境及实验数据

本文实验在Ubuntu16.0.4操作系统中进行,采用图形处理器( graphics processing unit,GPU) 版Tensorflow作为深度学习框架编程实现,GPU 型号为GTX TITAN Xp(12 GB显存)。

Google Earth影像按照空间分辨率进行分级,级别越高对应空间分辨率越高,目前国内Google Earth影像可达20级。本实验采用19级的Google Earth影像制作样本,对应空间分辨率为0.23 m,包含红光、绿光、蓝光3个波段。根据文献[6]和人工目视解译本文建立了非正规垃圾堆在Google Earth影像上的判读标志: 首先,非正规垃圾堆形状一般呈不规则堆积状分布; 其次,非正规垃圾堆表面粗糙、凹凸不平,具有明显纹理结构; 同时由于非正规垃圾堆内垃圾种类繁多、堆放时间过长,从Google Earth影像上看其表面呈现高亮白和灰色相间的颜色; 除形状、纹理和颜色特征外,生活垃圾堆放点一般出现在河边、近郊的公路边和居民区旁的空地上,而工业固体废弃物堆放点则常出现在工厂和施工工地周围。根据以上判读标志,从全国各地区、不同时段采集了平均尺寸约500像素×500像素的503张非正规垃圾堆影像作为初始样本集,并将样本进行了划分,得到初始训练集、验证集和测试集。其中初始训练集数据240张、验证集数据109张、测试集数据154张。部分非正规垃圾堆训练数据如图3(a)—(c)所示。根据初始检测结果,进行了样本合成,并将合成样本(图3(d)—(f))补充进初始训练集中,最终得到更新后的训练集数据338张,验证集和测试集数据保持不变。

图3

图3   非正规垃圾堆训练数据及合成样本

Fig.3   Training data and composite samples of informal garbage dumps


2.2 实验流程与评价指标

非正规垃圾堆检测实验流程如图4所示。首先采集含非正规垃圾堆的Google Earth影像,进行数据预处理。将平均尺寸约为500像素×500像素的240张初始训练集数据输入到RetinaNet模型中进行训练,利用ResNet作为模型的特征提取网络,微调权重因子和调节因子等参数,利用验证集选择效果最佳的模型,并对测试集进行检测。为提高检测速度,本文设置检测器置信度为0.05并用阈值为0.5的非极大抑制(non maximum suppression,NMS)消除冗余框生成检测结果。通过人工识别判断初始检测结果中存在的错检和漏检目标,将部分错检和漏检目标人工合成为新样本,更新初始训练集。利用更新后的338张训练集数据进行新一轮的模型训练,利用训练好的模型再次检测测试集中的非正规垃圾堆,并计算评价指标。

图4

图4   本文方法流程

Fig.4   Flow chart of the proposed method


为了定量评价模型的检测效果,本文使用平均精度(average precision,AP)和平均检测时间定量评价不同模型在样本测试数据集上的性能。AP为准确率-召回率曲线与x轴构成的面积,AP越高代表模型性能越好,反之亦然。故而AP的计算涉及对准确率P和召回率R的计算。准确率P指正确检测的正样本数占所有被检测目标数的比例; 召回率R指正确检测的正样本数占所有正样本目标数的比例,具体公式分别为:

P=TP/(TP+FP),
R=TP/(TP+FN),

式中: TP为被正确检测的正样本数; FP为被错误检测为正样本的负样本数; FN为被错误检测为负样本的正样本数。

3 结果与分析

3.1 参数设置实验

首先,使用2.1节中的初始样本集测验了不同参数设置对平均精度的影响。根据文献[15]可知,RetinaNet模型特征提取网络的深度、权重因子中权重值 α和可调聚焦参数γ的大小对检测精度有较大的影响。因此本文设置初始学习率为0.000 10,权值衰减为0.000 1,学习动量为0.9,输入影像尺寸为500。通过改变特征提取网络深度、权重值和可调聚焦参数大小,使用随机梯度下降方法进行了多组对比实验确定最优参数配置。表1中阶段1展示了在未进行样本更新情况下不同参数配置对RetinaNet模型精度的影响。

表1中可知,当 αγ取值固定时,增加特征提取网络的深度,RetinaNet模型在验证集上的平均精度并没有明显增加,反而可能降低。这是由于本文使用的训练集较小,过于复杂的模型容易过度拟合,符合少量训练数据的特征,对验证集预测结果差。当使用ResNet50网络提取特征,α=0.5,γ=5时,训练出的模型在验证集上AP值最高。利用该模型在测试集上进行测试,测试集中共含267个非正规垃圾堆目标,模型检测出353个检测结果,准确率为70.22%,召回率为91.67%。部分测试效果如图5所示。通过分析初始检测结果发现,虽然一部分非正规垃圾堆被成功检测出来,但仍然存在大量的错检和漏检,主要的错检对象包括建筑物屋顶、裸土和聚集车辆,这是由于这3类地物在影像上的光谱特征与非正规垃圾堆较为接近。根据初始检测结果,将部分错检和漏检目标人工合成为新样本,得到样本更新后的训练集,并再次测验了不同参数设置对平均精度的影响,结果如表1中阶段2所示。由表1阶段2数据可知,特征提取网络深度的增加依旧没有使模型精度提升。当使用ResNet50网络提取特征, α=0.75,γ=2时,训练出的模型在验证集上AP值最高。对比2个阶段使模型精度达到最高时的参数配置,可以看出 αγ的取值均发生了变化。α从0.5变为0.75,γ从5变为了2,即在增加了错分漏分的训练数据的情况下,增加正样本损失权重,同时减小正确与错误分类样本惩罚的差距可以提升模型的检测精度。

图5

图5   测试集上非正规垃圾堆初始检测结果

Fig.5   Initial detection results of informal garbage dumps on test set


表1   不同参数配置下RetinaNet在验证集AP对比

Tab.1  Comparison of AP on the validation set under different parameter configurations using RetinaNet (%)

阶段特征提取网络深度α=0.25,
γ=1
α=0.25,
γ=2
α=0.25,
γ=5
α=0.5,
γ=1
α=0.5,
γ=2
α=0.5,
γ=5
α=0.75,
γ=1
α=0.75,
γ=2
α=0.75,
γ=5
阶段1ResNet5068.2674.4776.8875.7175.0379.3872.6275.9875.63
ResNet10172.5272.0974.2570.8472.4978.7870.9377.0975.46
ResNet15275.2877.4868.8573.3373.8474.8071.6576.2274.98
阶段2ResNet5081.3982.3484.5482.9385.1885.3884.2887.2585.98
ResNet10181.4983.7683.1778.9983.7783.5979.9782.0383.26
ResNet15279.8982.679.3280.3584.3383.1877.782.4184.08

新窗口打开| 下载CSV


除了考虑特征提取网络深度、权重因子和调节因子,本文还考虑了学习率对模型精度的影响。学习率是训练过程中梯度下降方向移动的距离,在固定上述参数基础上,以学习率0.000 50为基准,以更新后的训练集为输入,逐次减少学习率得到新模型并在验证集中检测非正规垃圾堆,得到对应的AP值,如表2所示。

表2   不同学习率对AP的影响

Tab.2  Influence of different learning rate on AP

学习率AP/%
0.000 5078.66
0.000 1087.25
0.000 0586.62
0.000 0186.48

新窗口打开| 下载CSV


表2中可知,随着学习率的减小,AP值先逐渐增大,在学习率为0.000 10时AP值达到最大值87.25%,随后又逐渐减小。这是由于当学习率过大,损失函数将在最小值附近来回震荡而不能收敛; 当学习率过小,网络的参数更新变化慢,导致网络迭代成本增加而难以达到收敛。根据不同参数设置在验证集上得到的AP值大小,最终选择ResNet50为特征提取网络, α为0.75,γ为2,学习率为0.000 10作为最优参数配置,并再次对测试集进行了测试。模型最终检测出288个非正规垃圾堆,准确率为86%,召回率为92.8%,部分测试检测结果如图6所示,可以看到利用SU-RetinaNet方法可以将易混淆的建筑物屋顶、裸地等样本有效分开。

图6

图6   测试集上非正规垃圾堆最终检测结果

Fig.6   Final detection results of informal garbage dumps on test set


3.2 对比实验

本文对比分析了DPM,R-CNN,Faster R-CNN,RetinaNet和SU-RetinaNet这5种方法在相同测试集上的检测效果,5种方法对应的AP值和平均检测时间如表3所示。

表3   5种不同目标检测方法的检测性能比较

Tab.3  Detection performance comparison of 5 different object detection methods

方法AP/%平均检测时间/s
DPM42.0030.348
R-CNN66.008.636
Faster R-CNN80.700.108
RetinaNet77.120.097
SU-RetinaNet85.920.097

新窗口打开| 下载CSV


表3中可以看出,在检测精度上,SU-RetinaNet模型的AP值明显高于其他4种方法; 在检测效率上,由于DPM采用滑动窗口方法生成大量重复的候选区域,因此在测试集上的平均检测时间较长,为30.348 s; R-CNN虽然采用选择性搜索方法减少了候选框的数目,但此方法在CPU上运行,检测效率低,平均检测时间为8.636 s; Faster R-CNN网络虽采用端到端的形式,但由于其存在先得到区域建议,然后再对区域建议进行精分类和边框回归2阶段过程,所以检测效率仍有待提升,在GPU上运行时平均检测时间需要0.108 s; 而SU-RetinaNet采用了基于回归的目标检测方法思想,检测效率要高于2阶段目标检测方法,在GPU上运行时平均检测时间仅需0.097 s。

4 结论

1)采用特征提取网络能够有效提取非正规垃圾堆特征,克服了人工提取特征的不确定性,并且可以通过部分特征完成对目标物体的检测。

2)经过训练的SU-RetinaNet模型能够成功检测非正规垃圾堆目标,在当前实验条件下,使用ResNet50网络的SU-RetinaNet模型取得了最好的检测效果,在测试集上平均精度达85.92%,同时采用基于回归的目标检测思想,提高了检测效率,为实时目标检测提供了保证,平均每张样本检测时间为0.097 s,解决了传统方法中精度和效率无法权衡的难题。

但是,对于非正规垃圾堆样本未进行更为精细的类别划分,因此模型无法对垃圾堆类别进行细分类。在今后的研究中,应考虑构建更精细的非正规垃圾堆样本数据库以满足城市环境治理更高的需求。

参考文献

贾丽娟.

洱海北部流域有机固体废物氮磷污染及其控制对策研究

[D]. 昆明:昆明理工大学, 2013.

[本文引用: 1]

Jia L J.

Pollution of nitrogen and phosphorus of rural organic solid waste and its control in northern Erhai-Lake Basin

[D]. Kunming:Kunming University of Science and Technology, 2013.

[本文引用: 1]

Bagheri S, Hordon R M.

Hazardous waste site identification using aerial photography:a pilot study in Burlington County,New Jersey,USA

[J]. Environ Manage, 1988,12(3):411-412.

DOI:10.1007/BF01867531      URL     [本文引用: 2]

Silvestri S, Omri M.

A method for the remote sensing identification of uncontrolled landfills:formulation and validation

[J]. International Journal of Remote Sensing, 2008,29(4):975-989.

DOI:10.1080/01431160701311317      URL     [本文引用: 1]

Cadau E G, Putignano C, Laneve G, et al.

Optical and SAR data synergistic use for landfill detection and monitoring.The SIMDEO project:Methods,products and results

[C]//Geoscience and Remote Sensing Symposium.Quebec:IEEE, 2014: 4687-4690.

[本文引用: 1]

Yan W Y, Mahendrarajah P, Shaker A, et al.

Analysis of multi-temporal landsat satellite images for monitoring land surface temperature of municipal solid waste disposal sites

[J]. Environmental Monitoring & Assessment, 2014,186(12):8161-73.

URL     PMID:25150051      [本文引用: 1]

刘亚岚, 任玉环, 魏成阶, .

北京1号小卫星监测非正规垃圾场的应用研究

[J]. 遥感学报, 2009,13(2):320-326.

DOI:10.11834/jrs.20090255      URL     [本文引用: 2]

以北京市平原区为研究区域,利用北京1号卫星(Beijing-1)融合数据,研究了非正规垃圾场的影像特征,建立了非正规垃圾场在小卫星影像上的判读标志,通过人机交互和计算机自动检测方法对北京地区的非正规垃圾场进行了判读分析和变化检测试验研究.验证发现:利用Beijing-1小卫星的全色和多波段融合影像对非正规垃圾场的识别精度可达90.3%;由于非正规垃圾场影像特征的不确定性,计算机自动变化检测方法不能替代人机交互判读,但可提高人机交互识别变化的效率.

Liu Y L, Ren Y H, Wei C J, et al.

Study on monitoring of informal open-air solid waste dumps based on Beijing-1 images

[J]. Journal of Remote Sensing, 2009,13(2):320-326.

DOI:10.11834/jrs.20090255      URL     [本文引用: 2]

Due to urbanization increasing, the quantity of solidwastes inBeijing is increasing rapidly and leads to large numbers of informal solid wastes dumps. Solid wastes in these sites are usually dumped in the open air without certain environmental conservationmeasures, which influence the urban environment and human healthy badly.It is absolutely necessary tomonitor these dumps in order to take some effectivemeasurements to dispose them. Remote sensing technology can provide a rapid and effective way to identify and monitor the dumps, owning to its characteristics of objectivity, real-time and macro-scope view.With high spatial resolution, high frequency of revisiting and broad coverage range, Beijing-1M icrosatellite image is an importantdata source forurban environmentmonitoring. Taking the flatplain area ofBeijing as study site, this paper establishes the interpretation keys of informalopen-air solidwaste dumps through studying theircharacteristics based onBeijing-1fusion images. Via visual interpretation and automatic change detectionmethods, the authors studies the location and change of the open-air solidwaste dumps. Compared with the field investigation data, it shows high accuracy (about90.3% ) of the indoor visual interpretation result using Beijing-1 images. However, on accountof the uncertainty of the solidwaste dumps characteristics, automatic change detectionmethod can just be utilized to decrease thework ofvisual interpretation to find the location instead of replacing itcompletely.

张方利, 杜世宏, 郭舟.

应用高分辨率影像的城市固体废弃物提取

[J]. 光谱学与光谱分析, 2013,33(8):2024-2030.

PMID:24159838      [本文引用: 1]

Zhang F L, Du S H, Guo Z.

Extracting municipal solid waste dumps based on high resolution images

[J]. Spectroscopy and Spectral Analysis, 2013,33(8):2024-2030.

URL     PMID:24159838      [本文引用: 1]

The dramatically increasing informal MSW dumps are endangering the urban environment. Remote sensing (RS) technologies are more efficient to monitor and manage municipal solid wastes (MSW) than traditional survey-based methods. In high spatial resolution remotely sensed images, these irregularly distributed dumps have complex compositions and strong heterogeneities, thus it is still hard to extract them automatically no matter the pixel-or object-based image analysis method is used. Therefore, based on the analysis of MSW characteristics, the present study develops a multiresolution strategy to extract MSW dumps by combining image features at both high resolution and resampled low heterogeneity images, while the high resolution images can provide detailed information and the low resolution images can suppress the strong heterogeneities of informal MSW dumps. Taking the QuickBird image covering part of Beijing as an example, this multi-resolution strategy produced a high accuracy (75%), indicating that this multi-resolution strategy is quite effective for extracting the open-air informal MSW dumps.

秦海春.

基于国产高分遥感影像的城镇生活垃圾监管方法研究

[J].中国建设信息化, 2016(4):75-77.

[本文引用: 1]

Qin H C.

Research on urban domestic waste supervision method based on domestic high score remote sensing image

[J].Informatization of China Construction 2016(4):75-77.

[本文引用: 1]

王晨, 殷守敬, 孟斌, .

京津冀地区非正规垃圾场地遥感监测分析

[J]. 高技术通讯, 2016,26(8):799-807.

[本文引用: 1]

Wang C, Yin S J, Meng B, et al.

Analysis of the non-regular garbage sites in the region of Beijing,Tianjin and Hebei using remote sensing monitoring images

[J]. Chinese High Technology Letters 2016,26(8):799-807.

[本文引用: 1]

Girshick R, Donahue J, Darrelland T, et al.

Rich feature hierarchies for accurate object detection and semantic segmentation

[C]//Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition.Columbus:IEEE, 2014: 580-587.

[本文引用: 1]

Ren S, He K M, ROSS G, et al.

Faster R-CNN:towards real-time object detection with region proposal networks

[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015,39(6):1137-1149.

DOI:10.1109/TPAMI.2016.2577031      URL     PMID:27295650      [本文引用: 1]

State-of-the-art object detection networks depend on region proposal algorithms to hypothesize object locations. Advances like SPPnet [1] and Fast R-CNN [2] have reduced the running time of these detection networks, exposing region proposal computation as a bottleneck. In this work, we introduce a Region Proposal Network (RPN) that shares full-image convolutional features with the detection network, thus enabling nearly cost-free region proposals. An RPN is a fully convolutional network that simultaneously predicts object bounds and objectness scores at each position. The RPN is trained end-to-end to generate high-quality region proposals, which are used by Fast R-CNN for detection. We further merge RPN and Fast R-CNN into a single network by sharing their convolutional features-using the recently popular terminology of neural networks with 'attention' mechanisms, the RPN component tells the unified network where to look. For the very deep VGG-16 model [3] , our detection system has a frame rate of 5 fps (including all steps) on a GPU, while achieving state-of-the-art object detection accuracy on PASCAL VOC 2007, 2012, and MS COCO datasets with only 300 proposals per image. In ILSVRC and COCO 2015 competitions, Faster R-CNN and RPN are the foundations of the 1st-place winning entries in several tracks. Code has been made publicly available.

Redmon J, Divvala S, Girshick R, et al.

You only look once:unified,real-time object detection

[C]//Lucidyne Technologies.2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE, 2016: 1506-02640.

[本文引用: 1]

Liu W, Anguelov D, Erhan D, et al.

SSD:single shot MultiBox detector

[C]//Robby Tan.2016 European Conference on Computer Vision.Amsterdam:ECCV, 2016: 21-37.

[本文引用: 1]

Lin T Y, Goyal P, Girshick R, et al.

Focal loss for dense object detection

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018: 318-327.

DOI:10.1109/TPAMI.2005.58      URL     PMID:15747788      [本文引用: 1]

We present a novel method of nonlinear discriminant analysis involving a set of locally linear transformations called

Hu Y, Li X, Zhou N, et al.

A sample update-based convolutional neural network framework for object detection in large-area remote sensing images

[J]. IEEE Geoscience and Remote Sensing Letters, 2019,16(6):947-951.

[本文引用: 2]

He K M, Zhang X Y, Ren S Q, et al.

Deep residual learning for image recognition

[C]//Lucidyne Technologies.Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE, 2016: 770-778.

[本文引用: 1]

Lin T Y, Dollár P, Girshick R, et al.

Feature pyramid networks for object detection

[C]//Lucidyne Technologies.Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition.Honolulu:IEEE, 2017: 2117-2125.

[本文引用: 1]

Long J, Shelhamer E, Darrell T.

Fully convolutional networks for semantic segmentation

[C]//Lucidyne Technologies.Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition.Boston:IEEE, 2015: 3431-3440.

[本文引用: 1]

/

京ICP备05055290号-2
版权所有 © 2015 《自然资源遥感》编辑部
地址:北京学院路31号中国国土资源航空物探遥感中心 邮编:100083
电话:010-62060291/62060292 E-mail:zrzyyg@163.com
本系统由北京玛格泰克科技发展有限公司设计开发