国土资源遥感, 2020, 32(2): 111-119 doi: 10.6046/gtzyyg.2020.02.15

技术方法

3种时空融合算法在洪水监测中的适用性研究

石晨烈1, 王旭红,1,2, 张萌1, 刘状1, 祝新明3

1.西北大学城市与环境学院,西安 710127

2.陕西省地表系统与环境承载力重点实验室,西安 710127

3.中国科学院大学资源与环境学院,北京 100049

Analysis of the applicability of three remote sensing spatiotemporal fusion algorithms in flood monitoring

SHI Chenlie1, WANG Xuhong,1,2, ZHANG Meng1, LIU Zhuang1, ZHU Xinming3

1. College of Urban and Environmental Sciences, Northwest University, Xi’an 710127,China

2. Shaanxi Key Laboratory of Earth Surface System and Environmental Carrying Capacity, Northwest University, Xi’an 710127, China

3. College of Resources and Environment, University of Chinese Academy of Sciences, Beijing,100049,China

通讯作者: 王旭红(1968-),女,博士,教授,主要从事环境遥感方面的研究。Email:jqy_wxh@nwu.edu.cn

责任编辑: 张仙

收稿日期: 2019-04-4   修回日期: 2019-08-14   网络出版日期: 2020-06-15

基金资助: 中国科学院战略性先导科技专项资助项目“泛第三极环境变化与绿色丝绸之路建设子课题”.  XDA 2004030201
国家自然科学基金面上项目“不同地貌类型区的遥感图像信息容量的差异性研究”.  41071271
陕西省自然基金面上项目“基于遥感图像信息容量的城市热岛效应研究”.  2015JM4132

Received: 2019-04-4   Revised: 2019-08-14   Online: 2020-06-15

作者简介 About authors

石晨烈(1995-),男,硕士研究生,主要从事环境遥感方面的研究。Email:max1995@stumail.nwu.edu.cn。 。

摘要

洪水灾害的遥感监测依赖于高时空分辨率影像,但目前中高空间分辨率的遥感影像受卫星回访周期及天气的影响,限制了在洪水监测中的应用。为此,提出融合MODIS和Landsat影像生成高时空分辨率影像来监测洪水灾害。以Gwydir和New Orleans 2地区为研究区,利用时空自适应反射率融合模型(spatial and temporal adaptive reflectance fusion model, STARFM)、时空反射率解混模型(spatial and temporal reflectance unmixing model, STRUM)和灵活的时空融合模型(flexible spatiotemporal data fusion, FSDAF)3种流行算法融合MODIS和Landsat影像,获得Landsat融合影像,采用支持向量机(support vector machine, SVM)对融合影像分类来提取洪水信息,并对其结果进行精度评估。实验结果表明,3种时空融合算法能够有效应用到洪水监测中,且FSDAF算法融合结果在2个研究区都优于STARFM和STRUM。在Gwydir研究区,STARFM,STRUM和FSDAF 3种算法洪水分类总体精度分别为0.89,0.90和0.91,Kappa系数分别为0.63,0.64和0.67; 在New Orleans研究区,3种融合算法洪水分类精度为0.90,0.89和0.91,Kappa系数分别为0.77,0.76和0.81。此研究表明时空融合算法能够有效应用到洪水监测中。

关键词: 时空融合 ; 洪水监测 ; 高时空分辨率 ; STARFM模型 ; STRUM模型 ; FSDAF模型

Abstract

Remote sensing images with high spatiotemporal resolution offer a reliable way to the monitoring of flood disasters. However, the application of high spatial resolution images is restricted by satellite revisit period and extreme weather. Therefore, this paper proposes a method that can blend Landsat and MODIS images to generate high spatiotemporal images for monitoring flood disaster. Selecting Gwydir and the New Orleans as study areas, the authors performed fusion of MODIS and Landsat TM based on three major spatiotemporal fusion algorithms, i.e., the spatial and temporal adaptive reflectance fusion model (STARFM), the spatial and temporal reflectance unmixing model (STRUM) and the flexible spatiotemporal data fusion (FSDAF), which led to the formation of a new TM image. Meanwhile, classified flood information was extracted by applying support vector machine (SVM) to the new TM image. The results show that three spatiotemporal fusion algorithms can monitor flood disasters effectively, with FSDAF playing a more superior role in fusion accuracy and flood information extraction. Evaluation of flood classification shows that, in Gwydir, the overall accuracy of STARFM, STRUM and FSDAF is 0.89, 0.90, 0.91, and the Kappa coefficients are 0.63, 0.64, 0.67, respectively. In the New Orleans, the overall accuracy of three fusion algorithms is 0.90, 0.89, 0.91, and the Kappa coefficients are 0.77, 0.76, 0.81, respectively. This study shows that spatiotemporal fusion algorithms can be effectively applied to flood monitoring.

Keywords: spatiotemporal fusion ; flood monitoring ; high spatiotemporal resolution ; STARFM ; STRUM ; FSDAF

PDF (9309KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

石晨烈, 王旭红, 张萌, 刘状, 祝新明. 3种时空融合算法在洪水监测中的适用性研究. 国土资源遥感[J], 2020, 32(2): 111-119 doi:10.6046/gtzyyg.2020.02.15

SHI Chenlie, WANG Xuhong, ZHANG Meng, LIU Zhuang, ZHU Xinming. Analysis of the applicability of three remote sensing spatiotemporal fusion algorithms in flood monitoring. REMOTE SENSING FOR LAND & RESOURCES[J], 2020, 32(2): 111-119 doi:10.6046/gtzyyg.2020.02.15

0 引言

洪水是地球上频发且极具破坏性的自然灾害之一。近几十a来,遥感技术因具有快速、大空间范围和低成本对地探测的能力,在洪水监测中发挥着巨大作用[1]。通常来说,遥感监测洪水灾害分为主动和被动2种模式[2]。主动模式指利用雷达(如Sentinel-1, GF-3)主动对目标地物发射电磁波并接受地物的后向散射能量的过程,因其可以穿透云层且24 h不间断工作的特点,主动遥感在洪水监测中发挥着越来越重要的作用[3,4,5]。相比之下,被动模式(即光学遥感)受云以及天气的影响,在洪水发生时不易获取数据。但光学遥感数据因其具有丰富的地物光谱特征、数据多样性以及便于获取和处理分析等特点,在洪水研究中得到了广泛应用[6,7]。本文侧重于利用光学遥感数据进行洪水灾害监测。

目前,大范围洪水遥感监测主要采用MODIS等低空间分辨率遥感影像,如李斌等[8]利用MODIS影像对长江中游洪涝灾害进行了长时间序列的监测; 饶品增等[9]利用MODIS影像对洞庭湖洪涝灾害进行了分析研究,估计了洪水灾害所造成的损失; Goldberg等[10]将极轨卫星数据NPP-VIIRS和地球静止卫星数据GOES-16 ABI相结合,对休斯顿洪水灾害进行了监测与评估。尽管低空间分辨率影像在大范围洪水监测中发挥了重要作用,但其空间分辨率低以及存在大量混合像元,使得基于低空间分辨率影像数据的洪水提取精度难以满足小区域尺度上的需求,特别是城市洪水监测的需求。而中高空间分辨率卫星(如Landsat)因其重访周期以及天气的影响,在洪水发生后难以获取数据,在洪水监测中的应用受到了限制[11]。因此,如何同时获取高时间和高空间分辨率遥感影像是解决这一问题的关键所在。近年来,不同时空分辨率遥感数据融合技术迅速发展,为获取高时空分辨率影像提供了新途径,更为其监测洪水灾害提供了可能[12]

近10 a来,国内外学者在遥感影像时空融合领域取得一系列成果[13,14]。Gao等[15]提出的时空自适应反射率融合模型(spatial and temporal adaptive reflectance fusion model, STARFM)是应用最为广泛的融合算法,该算法将MODIS和Landsat影像的时间差、光谱差和距离差进行加权运算,生成反射率融合影像; Zhu等[16]在STARFM的基础上,提出了增强型时空自适应反射率融合模型(enhanced spatial and temporal adaptive reflectance fusion model,ESTARFM),有效解决了STARFM在异质性区域不能准确预测的问题; Gevaert等[17]提出了基于混合像元分解的时空反射率解混模型(spatial and temporal reflectance unmixing model, STRUM)算法并应用于归一化植被指数(normalized difference vegetation index,NDVI)的遥感图像融合,发现STRUM的融合结果优于STARFM; 邬明权等[18]提出一种基于像元反射率的时间变化特征和中分辨率影像纹理特征的时空融合算法(spatial and temporal data fusion model, STDFA),对南京市江宁区NDVI数据进行了空间重构。以上时空融合算法已广泛应用到地表温度监测[19,20]、植被变化监测[21]、农作物生长监测[22,23]等方面,但国内很少有人将其应用到洪水监测中,也几乎没有学者探究不同类型时空融合算法在洪水监测中的适用性。一个主要原因是大多时空融合算法假设基准日期和预测日期地物类型未发生变化,这对于突变事件(如火灾,洪水,滑坡)不能准确监测。Zhu等[24]针对现有融合算法的缺陷,提出了灵活的时空融合模型(flexible spatiotemporal data fusion,FSDAF),该算法结合混合像元分解,薄板样条函数插值以及距离加权等方法,对土地覆盖类型发生突变区域有更准确的预测,这也为高时空分辨率遥感影像监测洪水提供更准确的方法。

本文旨在解决洪水发生后难以获取高时空分辨率影像的问题,选用STARFM,SRTUM和FSDAF这3种流行且典型的时空融合算法,融合MODIS和Landsat影像生成洪水发生后缺失的高时空分辨率影像,采用支持向量机(support vector machine,SVM)方法对融合结果进行洪水范围提取,进而分析3种时空融合算法在洪水监测中的精度及适用性。

1 研究区概况与数据源

1.1 研究区概况

为评估时空融合算法在不同场景洪水中的适用性,本文选取Gwydir和New Orleans 2地区为研究区(图1)。Gwydir为澳大利亚新南威尔士州的一个农场(E149.28°,S29.08°),主要地物有农田、房屋、河流、裸地和植被。2004年12月12日发生的一次洪水淹没了大量农田,给当地人带来巨大损失; New Orleans为美国路易斯安那州的一个海滨城市(W90.01°, N29.97°),主要地物有水体、植被、湿地和建筑用地。2005年8月30日发生的卡特里娜飓风造成全市大部分区域被淹没,成为美国历史上最致命的洪水事件之一[2]

图1

图1   研究区Landsat B4(R),B3(G),B2(B)合成影像

Fig.1   Image of the study area combined with Landsat B4(R),B3(G),B2(B)


1.2 数据源与预处理

本文研究数据为MODIS和Landsat影像。其中,Gwydir研究区Landsat影像获取于2004年11月26日和12月12日,12月12日为洪水监测日,Landsat影像数据大小为800×800像素; MODIS影像为同期每日500 m空间分辨率地表反射率产品(MOD09GA)。New Orleans研究区Landsat影像获取于2005年9月7日和10月9日,9月7日为洪水监测日,Landsat影像数据大小为960×960像素; 由于MODIS每日产品数据在New Orleans存在持久性的云覆盖,因此选用同期8 d合成500 m空间分辨率地表反射率产品(MOD09A1)。

此外,Gwydir研究区数据已经经过了预处理[25]; New Orleans研究区Landsat影像为Level 1T产品,是经过系统辐射校正和几何纠正的一级产品,只需做大气校正预处理。 MODIS 8 d合成产品(MOD09GA)是经过大气校正和几何纠正的二级产品,首先需要用MRT工具对MODIS影像进行重投影并将其转换为和Landsat同样的UTM投影; 其次将MODIS影像重采样至Landsat影像空间分辨率(30 m); 再将MODIS和Landsat进行几何精纠正,使两者影像完全匹配,误差控制在0.5像素; 最后进行波段调整,保证MODIS波段和Landsat波段一一对应。图2为研究区影像,其中,图2(a)—(d)为Landsat B4(R),B3(G),B2(B)合成影像,图2(e)—(h)为MODIS B2(R),B1(G),B4(B)合成影像。

图2

图2   研究区影像

Fig.2   Data of the study area


2 研究方法

利用STARFM,STRUM和FSDAF这3种时空融合算法对MODIS和Landsat影像进行时空融合,采用SVM对融合影像进行洪水提取,并对融合结果和洪水提取结果进行精度评估。具体技术流程如图3所示。其中,t1t2分别为时空融合算法中输入Landsat日期和融合影像日期; L(t1)和L(t2)分别为t1t2日期的Landsat影像; C(t1)和C(t2)分别为t1t2日期的MODIS影像; FP(t2)为t2日期融合影像。

图3

图3   研究方法流程

Fig.3   Flow chart of research method


2.1 时空融合算法

2.1.1 STARFM模型

STARFM[15]假设同一天Landsat影像和MODIS影像地表反射率具有一致相关性,利用Landsat影像和MODIS影像的光谱信息及其加权函数来预测地表反射率FP(t2 )。其主要步骤为: (1)MODIS影像采样到Landsat影像分辨率; (2)移动窗口w应用到Landsat影像来识别相似像素; (3)根据影像光谱差、时间差、距离差为每个相似像素分配权重Wijk; (4)计算移动窗口中心像素的反射率。计算公式为

L(x(w/2),y(w/2),t2)= i=1wj=1wk=1nWijk×[C(xi,yi,t2)+L(xi,yi,t1)-C(xi,yi,t1)] ,

式中: ij为移动窗口中Landsat像素的索引位置; n为移动窗口内确定的相似像素数; L(x(w/2),y(w/2),t2)为FP(t2 )中移动窗口中心像素值; Wijk为相似像素的权重; C(xi,yi,t2),L(xi,yi,t1)以及C(xi,yi,t1)分别为t2时期MODIS像素值、t1时期Landsat像素值和t1时期MODIS像素值。

2.1.2 STRUM模型

STRUM[17]是基于混合像元分解思想来预测影像地表反射率,并在混合像元分解过程中使用贝叶斯定理约束光谱分解可能出现的不准确的端元光谱。其主要步骤为:

1)对L(t1)进行K均值非监督分类。

2)将移动窗口w应用到步骤1)中来识别窗口内的端元个数以及丰度,丰度小于0.1的端元合并到光谱相似的类别中。

3)计算移动窗口内C(t1)和C(t2)的反射率变化值△C,并应用贝叶斯理论进行混合像元分解,以尽可能减少光谱解混中因不确定的光谱端元所造成的残差ε。

4)计算出每一端元在t1时期到t2时期的变化值△F(k),并将其整合到L(t1)中,来预测FP(t2)。主要计算公式为:

C=Ak×△Fk+ε ,
FP(t2)=L(t1)+△Fk ,

式中Ak为第k个端元的丰度值。

2.1.3 FSDAF模型

FSDAF[24]综合了混合像元分解和加权函数的方法,其主要步骤为:

1)对L(t1)进行ISODATA非监督分类并计算各类丰度值Ak

2)利用 MODIS影像的反射率变化估算t1t2时期对应地物类型的时间变化△Fk

3)利用上一步得到的类别时间变化计算位于t2时期高分辨率影像 Ft2TP和残差R,即

C(xi,yi)= k=1lAk(xi,yi)×△Fk ,
Ft2TP(xij,yij)= Ft1(xij,yij)+△Fk ,
R(xi,yi)=△C(xi,yi) 1m[ j=1mFt2TP(xij,yij)- j=1mFt1(xij,yij)] ,

式中: (xi,yi)为第i个MODIS像素坐标; xij,yij为第i个MODIS像素中的第j个Landsat像素的坐标; m为一个MODIS像素中Landsat像素个数; △C(xi,yi)为t1t2时期第i个MODIS像素变化值; Ft1(xij,yij)为t1时期Landsat像素值; R(xi,yi)为真实值和预测值的残差。

4)使用薄板样条函数对C(t2)降尺度来获取t2时刻高空间分辨率影像 Ft2SP,即

Ft2SP(xij,yij)=a0+a1xij+a2yij+ 12i=1Nbiri2log( ri2) ,

式中: i=1Nbi= i=1Nbixi= i=1Nbiyi=0, ri2=(x-xi)2+(y-yi)2,当 i=1N| Ct2(xi,yi)- Ft2SP(xij,yij)2|为最小值时,确定其最佳参数; N为MODIS的像素个数; a0,a1,a2,bi 分别为最终确定的最佳参数; xy分别为Landsat影像插值结果的索引位置。

5)根据 Ft2TPFt2SP值进行残差分布计算,即

CW(xij,yij)=( Ft2SP(xij,yij)- Ft2TP(xij,yij))HI(xij,yij)+R(xij,yij)[1-HI(xij,yij)] ,
r(xij,yij)=m×R(xij,yijW(xij,yij) ,

式中: HI(xij,yij)为同质系数; CW(xij,yij)为权重系数; W(xij,yij)为归一化权重系数; r(xij,yij)为加权后残差值。

6)使用邻近相似像元预测最终结果FP(t2 ),即

FP(t2)= Ft1(xij,yij)+ c=1nWc×(r(xij,yij)+△Fk) ,

式中: Wc为相似像素的权重; c为相似像素的个数。

2.2 洪水提取

洪水提取采用SVM分类方法。SVM是一种基于统计理论和结构风险最小化原则而建立的非参数机器学习方法,已广泛应用在遥感影像分类中。本文以L(t2)为基准影像,结合Google Earth影像,目视解译来识别水体和非水体像元,并将其作为SVM监督分类的训练样本对3种算法融合结果进行洪水提取。

2.3 精度评估

2.3.1 时空融合算法的精度评估

本文将L(t2)作为验证影像、选用4个常用评估指标进行融合影像精度评估,分别为绝对误差(absolute deviation, AD)、均方根误差(root mean square error, RMSE)、相关系数(correlation coefficient, CC)和结构相似性(structural similarity, SSIM)。其中,AD用于衡量偏差,AD越接近于0表示预测值和标准值偏差越小; RMSE是预测值和标准值之间总不确定度的度量,RMSE越接近于0越好; CC用于衡量预测值和标准值的相关性,CC的理想值是1,越接近于1表明相关性越好; SSIM用于评估预测值和真实值的结构相似性,越接近于1,预测结果越好。

2.3.2 洪水提取的精度评估

利用目视判别和误差矩阵从定性和定量2个方面的评估3种时空融合算法洪水提取的精度。目视判别是将3种时空融合算法融合生成的洪水分类图和标准洪水分类图进行目视对比,直观判别水体分类正确性; 误差矩阵用来定量评估分类精度,采用通用指标如用户精度、制图精度、总体精度及Kappa系数评估洪水分类精度。本研究基于标准洪水分类图,逐像元对融合生成的洪水分类图进行定量评估,相比于随机布点的验证方式更接近实际情况。

3 融合结果与洪水提取

3.1 基于3种算法的MODIS和Landsat影像融合

3.1.1 MODIS和Landsat影像融合结果

图4图5分别为Gwydir和New Orleans研究区3种时空融合算法的融合影像以及验证影像,为了清楚地观察洪水淹没区的空间细节,将图4图5中黑框内洪水淹没区影像放大显示。

图4

图4   Gwydir研究区2004年12月12日验证影像和3种时空算法融合影像图

Fig.4   December 12, 2004 standard map and prediction map of three spatiotemporal fusion algorithms in Gwydir


图5

图5   New Orleans研究区2005年9月7日验证影像和3种时空算法融合影像图

Fig.5   September 7, 2005 standard map and prediction map of three spatiotemporal fusion algorithms in New Orleans


图4所示,对比3种算法融合影像与真实Landsat影像发现,STARFM和STRUM算法不能准确还原地物信息,FSDAF融合算法相比STARFM和STRUM算法预测的地物信息更为丰富,且不同地物类型边界区分明显; 对于洪水淹没区,STARFM和STRUM算法低估水的面积,FSDAF算法融合结果与真实Landsat影像最为接近,对于洪水边缘位置,FSDAF算法相比真实Landsat影像表现出较低反射率值。图5中,3种算法融合结果都比较接近真实值,但STARFM算法模糊了不同地物的边界,STRUM和FSDAF算法都能较完整地还原地物信息; 放大市中心影像来看,STARFM融合结果最差,不能区分城区建筑与洪水的边界,STRUM与真实结果接近,但高估了洪水区域的反射率值,FSDAF的预测效果最佳,直观上与真实影像最接近。

3.1.2 时空融合结果精度评估

表1表2分别为Gwydir和New Orleans研究区3种时空融合算法融合结果精度评估值。从表 1中可以看出,STARFM和STRUM 算法4个指标数值相近,2种算法融合精度相近,而FSDAF算法精度整体上高于STARFM和STRUM算法。STARFM,STRUM和FSDAF 3种算法的CC均值分别为0.690,0.684,0.729,SSIM均值分别为0.652,0.667,0.710。这表明FSDAF算法融合结果相较STARFM和STRUM算法更接近真实影像。表2中,分析3 种算法的4个指标可以看出,STARFM算法精度最差,STRUM算法优于STARFM,FSDAF算法优于STRUM。3 种算法RMSE均值分别为 0.032,0.030和0.028,CC均值分别为0.731,0.819和0.839。此外,洪水在近红外有低的反射率,表1表2中近红外的评价指标参数(CC为0.799,0.789,0.828和CC为0.862,0.903,0.912)也表明3种算法总体精度FSDAF算法最优,STARFM和STRUM算法相近。

表1   Gwydir研究区3种时空融合算法融合结果精度评估

Tab.1  Accuracy assessment of synthesized Landsat-like images by STARFM,STRUM and FSDAF in Gwydir

波段STARFMSTRUMFSDAF
ADRMSECCSSIMADRMSECCSSIMADRMSECCSSIM
0.0110.0160.5970.5660.0110.0150.6150.6110.0100.0140.6670.653
绿0.0140.0220.6220.5650.0150.0220.6280.6180.0130.0190.6890.661
0.0170.0260.6060.5460.0170.0260.6190.6110.0160.0230.6810.653
近红外0.0250.0350.7990.7770.0260.0360.7890.7820.0240.0330.8280.814
短波红外10.0470.0620.7660.7540.0530.0690.7360.7200.0450.0580.7660.754
短波红外20.0530.0540.7510.7080.0490.0610.7180.6620.0420.0530.7440.723
平均值0.0280.0360.6900.6520.0290.0380.6840.6670.0250.0330.7290.710

新窗口打开| 下载CSV


表2   New Orleans 研究区3种时空融合算法融合结果精度评估

Tab.2  Accuracy assessment of synthesized Landsat-like images by STARFM,STRUM and FSDAF in New Orleans

波段STARFMSTRUMFSDAF
ADRMSECCSSIMADRMSECCSSIMADRMSECCSSIM
0.0210.0370.6110.6010.0180.0270.8130.8000.0170.0260.8200.798
绿0.0240.0400.6590.6410.0220.0310.8050.7930.0210.0300.8180.795
0.0260.0420.6550.6350.0240.0340.7840.7770.0220.0320.8050.786
近红外0.0380.0560.8620.8480.0330.0490.9030.9030.0320.0460.9120.912
短波红外10.0340.0500.8480.8440.0350.0540.8440.8430.0310.0460.8780.879
短波红外20.0470.0570.7540.7650.0490.0870.7700.7810.0480.0850.8000.812
平均值0.0320.0470.7310.7220.0300.0470.8190.8160.0280.0440.8390.830

新窗口打开| 下载CSV


3.2 基于MODIS和Landsat融合影像的洪水信息提取

3.2.1 3种算法融合影像的洪水信息提取

图 6图 7分别为Gwydir和New Orleans研究区3种时空融合算法融合影像洪水分类图。总的来看,图 6中(b)—(d)结果和(a)比较接近,但局部差异较为明显。如图6红色椭圆框所示,STARFM算法不能准确区分水体和非水体,且高估水体的范围,STRUM和FSDAF算法较为准确地捕获水体的边界; 从黑色方框可以看出,3种算法都不能准确还原地物的边界且低估水体的边界。图7中,3种算法洪水分类图都比较接近真实值,局部差异较小,直观来看3种算法提取结果高估了水体的范围。图7中红色椭圆框显示STARFM算法低估水体的范围,STRUM和FSDAF算法提取结果与真实影像一致; 黑色方框显示STRUM和FSDAF算法高估水的范围,STARFM算法接近真实影像。总体而言,FSDAF算法在2个研究区的洪水分类准确度最高,STARFM和STRUM算法的洪水分类准确度接近。

图6

图6   Gwydir研究区2004年12月12日标准洪水分类图和3种算法融合影像的洪水分类

Fig.6   December 12, 2004 standard flood mapping and prediction flood mapping of three spatiotemporal fusion algorithms in Gwydir


图7

图7   New Orleans 研究区2005年9月7日标准洪水分类图和3种算法融合影像的洪水分类

Fig.7   September 7, 2005 standard flood mapping and prediction flood mapping of three spatiotemporal fusion algorithms in New Orleans


3.2.2 洪水提取精度评估

表3为洪水分类精度评估结果。从中可以看出,在Gwydir和New Orleans研究区3种融合算法水体总体精度均达0.9左右,整体上较准确提取了水体的范围,但存在着不一致的漏分和错分; 3种算法的错分率和漏分率在Gwydir样区高于New Orleans研究区,且FSDAF算法的漏分率和错分率是最低的,其洪水范围提取最接近真实分类图。此外,表中3种算法的Kappa系数也表明FSDAF算法在洪水监测方面的精度优于STARFM和STRUM算法。

表3   基于3种时空融合算法融合影像洪水分类图的精度评估

Tab.3  Accuracy assessment of flood mapping by STARFM, STRUM and FSDAF in Gwydir and New Orleans

指标GwydirNew Orleans
STARFMSTRUMFSDAFSTARFMSTRUMFSDAF
用户精度0.670.720.730.910.920.93
制图精度0.730.680.740.810.780.83
总体精度0.890.900.910.900.890.91
Kappa系数0.630.640.670.770.760.81

新窗口打开| 下载CSV


4 分析与讨论

目前,遥感时空融合算法总体上分为4类[27],分别为基于权重函数、基于混合像元分解、基于机器学习以及多种方法混合的融合算法。本文选用STARFM,STRUM和FSDAF算法的原因是: ①3种融合算法STARFM,STRUM,FSDAF分别为基于权重函数、基于混合像元分解及混合方法中的典型算法; ②3种融合算法都只需要一组MODIS和Landsat影像,数据方便获取,便于对比分析。此外,选用2个不同类型洪水事件,目的是探究时空融合算法在不同洪水场景中的监测能力。

对比分析3种算法的洪水预测结果,STARFM,STRUM和FSDAF算法在2个样区的总体精度均达到90%左右,都能较好地监测洪水,但3种算法存在着不一致的漏分和错分,且在2个研究区表现出同样的规律。具体为: FSDAF算法相比STARFM和STRUM算法有更低的错分和漏分,STARFM和STRUM算法的错分和漏分相近。针对以上结果结合算法原理进行分析: ①STARFM算法假设输入影像日期和预测日期土地类型未发生变化且MODIS像素为纯像素,其在异质性区域和突变区域预测不准确,也就是说对于不同地物的边界以及地物类型发生变化的区域不能准确预测; ②STRUM算法假设土地类型未发生变化且混合像元分解未考虑同一地物类内可变性,其预测精度与STARFM算法接近; ③FSDAF算法结合STARFM和STRUM算法的优势,且引入薄样板条函数插值进行残差分配,薄样板条函数插值优势在于能够获取预测日期低分辨率影像的空间信息,本研究中就是洪水变化信息,其在土地覆盖类型发生变化的区域预测精度更高。FSDAF算法相比STARFM和STRUM算法更适合洪水监测。但3种算法都不能准确预测土地覆盖类型的微小变化,特别是异质性区域。

另外,时空融合算法输入数据和洪水提取方法影响着最终预测结果。首先,输入数据地物种类对最终结果有较大影响,具体而言,输入数据地物类型越多,其不同地物边界的微小变化就不能准确预测,这也是3种算法融合精度在Gwydir整体上低于New Orleans的重要原因。其次,输入数据的日期与预测日期间隔越短,其地物变化越小,则最终预测精度越高[24,25]。另外,因SVM分类的训练样本受人为主观因素影响,最终洪水提取结果与实际情况将出现一定偏差,其他方法如改进的归一化水体指数可替代SVM用于洪水范围的提取[11]

5 结论

针对洪水发生后难以获取高时空分辨率的遥感影像,提出融合MODIS和Landsat影像以生成高时空分辨率影像。以Gwydir和New Orleans 2地区为研究区,利用STARFM,STRUM和FSDAF 3种时空融合算法融合MODIS和Landsat影像来生成高时空分辨率影像,利用SVM提取洪水范围,并结合同期真实Landsat影像进行精度评估。得出以下结论:

1)3种算法融合结果与实际影像接近,但STARFM和STRUM算法在异质性区域预测结果差,FSDAF算法相比STARFM和STRUM算法还原地物细节更准确。

2)3种算法洪水提取总体精度均在0.9左右,对比实际Landsat影像发现,FSDAF算法相比STARFM和STRUM算法有更低的错分和漏分。

3)3种时空融合算法可应用到不同洪水场景中,具有较强鲁棒性。FSDAF算法可代替STARFM和STRUM算法用于高时空分辨率的洪水准确监测。

4)本研究将3种时空融合算法应用到洪水监测中,且 FSDAF算法相比STARFM和STRUM算法融合精度更高。但3种融合算法都无法准确预测土地覆盖类型的微小变化。下一步研究可以结合基于机器学习的融合算法来提高土地类型发生变化区域的预测精度。

参考文献

Sebastiano S, Silvana D, Giorgio B, et al.

Information extraction from remote sensing images for flood monitoring and damage evaluation

[J]. Proceedings of the IEEE, 2012,100(10):2946-2970.

[本文引用: 1]

Zhang F, Zhu X L, Liu D S, et al.

Blending MODIS and Landsat images for urban flood mapping

[J]. International Journal of Remote Sensing, 2014,35(9):3237-3253.

DOI:10.1080/01431161.2014.903351      URL     [本文引用: 2]

Yu L, Sandro M, Simon P, et al.

An automatic change detection approach for rapid flood mapping in Sentinel-1 SAR data

[J]. International Journal of Applied Earth Observation and Geoinformation, 2018,73:123-135.

[本文引用: 1]

Marco C, Ramona P, Luca P, et al.

Sentinel-1 InSAR coherence to detect floodwater in urban areas:Houston and hurricane harvey as a test case

[J]. Remote Sensing, 2019,11(2):107.

[本文引用: 1]

李胜阳, 许志辉, 陈子琪, .

高分3号卫星影像在黄河洪水监测中的应用

[J].水利信息化, 2017(5):22-26.

[本文引用: 1]

Li S Y, Xu Z H, Chen Z Q, et al.

Application of GF-3 satellite remote sensing image on Yellow River flood monitoring

[J].Water Resources Informatization, 2017(5):22-26.

[本文引用: 1]

Biswa B, Maurizio M, Reyne U.

Flood inundation mapping of the sparsely gauged large-scale Brahmaputra basin using remote sensing products

[J]. Remote Sensing, 2019. 11(5):501.

[本文引用: 1]

刘明月, 贾明明, 王宗明, .

2013年松花江与嫩江交汇段洪水遥感监测

[J]. 湿地科学, 2015,13(4):456-465.

[本文引用: 1]

Liu M Y, Jia M M, Wang Z M, et al.

Flood monitoring on the confluence of Nenjiang River and Songhua River in 2013 by multi-source,multi-temporal remote sensing imagery

[J]. Wetland Science, 2015,13(4):456-465.

[本文引用: 1]

李斌, 燕琴, 张丽, .

长江中游洪涝灾害特征的MODIS时序监测与分析

[J]. 武汉大学学报(信息科学版), 2013,38(7):789-793.

[本文引用: 1]

Li B, Yan Q, Zhang L, et al.

Flood monitoring and analysis over the middle reaches of Yangtze River Basin with MODIS time-series imagery

[J]. Geomatics and Information Science of Wuhan University, 2013,38(7):789-793.

[本文引用: 1]

饶品增, 蒋卫国, 王晓雅, .

基于MODIS数据的洪涝灾害分析研究——以2017年洞庭湖区洪水为例

[J]. 灾害学, 2019,34(1):203-207.

[本文引用: 1]

Rao P Z, Jiang W G, Wang X Y, et al.

Flood disaster analysis based on MODIS data——Taking the flood in Dongting Lake area in 2017 as an example

[J]. Journal of Catastrophology, 2019,34(1):203-207.

[本文引用: 1]

Goldberg M, Li S M, Goodman S, et al.

Contributions of operational satellites in monitoring the catastrophic floodwaters due to hurricane harvey

[J]. Remote Sensing, 2018,10(8):1256.

[本文引用: 1]

Huang C, Chen Y, Zhang S Q, et al.

Surface water mapping from suomi NPP-VIIRS imagery at 30 m resolution via blending with Landsat data

[J]. Remote Sensing, 2016,8(8):631.

[本文引用: 2]

章欣欣, 栾海军, 潘火平.

一种基于多波段距离加权的遥感影像时空融合方法及其在洪水监测中的应用

[J]. 自然灾害学报, 2015,24(6):105-111.

[本文引用: 1]

Zhang X X, Luan H J, Pan H P.

A spatiotemporal remote sensing imagery fusion method based on multi-band distance weighted and its application to flood monitoring

[J]. Journal of Natural Disasters, 2015,24(6):105-111.

[本文引用: 1]

董文全, 蒙继华.

遥感数据时空融合研究进展及展望

[J]. 国土资源遥感, 2018,30(2):1-11.doi: 10.6046/gtzyyg.2018.02.01.

[本文引用: 1]

Dong W Q, Meng J H.

Review of spatiotemporal fusion model of remote sensing data

[J]. Remote Sensing for Land and Resources, 2018,30(2):1-11.doi: 10.6046/gtzyyg.2018.02.01.

[本文引用: 1]

黄波, 赵涌泉.

多源卫星遥感影像时空融合研究的现状及展望

[J]. 测绘学报, 2017,46(10):1492-1499.

[本文引用: 1]

Huang B, Zhao Y Q.

Research status and prospect of spatiotemporal fusion of multi-source satellite remote sensing imagery

[J]. Acta Geodaetica et Cartographica Sinica, 2017,46(10):1492-1499.

[本文引用: 1]

Gao F, Masek J, Schwaller M, et al.

On the blending of the Landsat and MODIS surface reflectance:Predicting daily Landsat surface reflectance

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2006,44(8):2207-2218.

[本文引用: 2]

Zhu X L, Chen J, Gao F, et al.

An enhanced spatial and temporal adaptive reflectance fusion model for complex heterogeneous regions

[J]. Remote Sensing of Environment, 2010,114(11):2610-2623.

[本文引用: 1]

Gevaert C M, García-Haro F, Javier.

A comparison of STARFM and an unmixing-based algorithm for Landsat and MODIS data fusion

[J]. Remote Sensing of Environment, 2015,156:34-44.

DOI:10.1016/j.rse.2014.09.012      URL     [本文引用: 2]

邬明权, 王洁, 牛铮, .

融合MODIS与Landsat数据生成高时间分辨率Landsat数据

[J]. 红外与毫米波学报, 2012,31(1):80-84.

[本文引用: 1]

Wu M Q, Wang J, Niu Z, et al.

A model for spatial and temporal data fusion

[J]. Journal of Infrared and Millimeter Waves, 2012,31(1):80-84.

[本文引用: 1]

Wu P H, Shen H F, Zhang L P, et al.

Integrated fusion of multi-scale polar-orbiting and geostationary satellite observations for the mapping of high spatial and temporal resolution land surface temperature

[J]. Remote Sensing of Environment, 2015,156:169-181.

[本文引用: 1]

杨敏, 杨贵军, 陈晓宁, .

基于FSDAF方法融合生成高时空分辨率地表温度

[J]. 国土资源遥感, 2018,30(1):54-62.doi: 10.6046/gtzyyg.2018.01.08.

[本文引用: 1]

Yang M, Yang G J, Chen X N, et al.

Generation of land surface temperature with high spatial and temporal resolution based on FSDAF method

[J]. Remote Sensing for Land and Resources, 2018,30(1):54-62.doi: 10.6046/gtzyyg.2018.01.08

[本文引用: 1]

Gao F, Hilker T, Zhu X L, et al.

Fusing Landsat and MODIS data for vegetation monitoring

[J]. IEEE Geoscience and Remote Sensing Magazine, 2015. 3(3):47-60.

[本文引用: 1]

蔡德文, 牛铮, 王力.

遥感数据时空融合技术在农作物监测中的适应性研究

[J]. 遥感技术与应用, 2012,27(6):927-932.

URL     [本文引用: 1]

 ]]>

Cai D W, Niu Z, Wang L.

Adaptability research of spatial and temporal remote sensing data fusion technology in crop monitoring

[J]. Remote Sensing Technology and Application, 2012,27(6):927-932.

[本文引用: 1]

孙佩军, 张锦水, 潘耀忠, .

构建时空融合模型进行水稻遥感识别

[J]. 遥感学报, 2016,20(2):328-343.

[本文引用: 1]

Sun P J, Zhang J S, Pan Y Z, et al.

Temporal-spatial-fusion model for area extraction of paddy rice using multi-temporal remote sensing images

[J]. Journal of Remote Sensing, 2016,20(2):328-343.

[本文引用: 1]

Zhu X L, Helmer E H, Gao F, et al.

A flexible spatiotemporal method for fusing satellite images with different resolutions

[J]. Remote Sensing of Environment, 2016,172:165-177.

[本文引用: 3]

Emelyanova I V, McVicar T R, Van Niel T G,et al.

Assessing the accuracy of blending Landsat-MODIS surface reflectances in two landscapes with contrasting spatial and temporal dynamics:A framework for algorithm selection

[J]. Remote Sensing of Environment, 2013,133:193-209.

[本文引用: 2]

Zhong D T, Zhou F Q.

A prediction smooth method for blending Landsat and moderate resolution imagine spectroradiometer images

[J]. Remote Sensing, 2018,10(9):1371.

DOI:10.3390/rs10091371      URL    

Zhu X L, Cai F Y.

Spatiotemporal fusion of multisource remote sensing data:Literature survey,taxonomy,principles,applications,and future directions

[J]. Remote Sensing, 2018,10(4):527.

[本文引用: 1]

/

京ICP备05055290号-2
版权所有 © 2015 《自然资源遥感》编辑部
地址:北京学院路31号中国国土资源航空物探遥感中心 邮编:100083
电话:010-62060291/62060292 E-mail:zrzyyg@163.com
本系统由北京玛格泰克科技发展有限公司设计开发