自然资源遥感, 2023, 35(2): 89-96 doi: 10.6046/zrzyyg.2022095

技术方法

基于奇异谱分析的改进遥感时空融合模型

安娜,1, 赵莹莹2, 孙娅琴1, 张爱竹3, 付航3, 姚延娟,4, 孙根云3,5

1.中国自然资源航空物探遥感中心,北京 100083

2.长沙市规划勘测设计研究院,长沙 410007

3.中国石油大学(华东)海洋与空间信息学院,青岛 266580

4.环境保护部卫星环境应用中心,北京 100094

5.青岛海洋国家实验室海洋矿产资源评价与探测技术功能实验室,青岛 266237

An improved spatio-temporal fusion model for remote sensing images based on singular spectrum analysis

AN Na,1, ZHAO Yingying2, SUN Yaqin1, ZHANG Aizhu3, FU Hang3, YAO Yanjuan,4, SUN Genyun3,5

1. China Aero Geophysical Survey and Remote Sensing Center for Natural Resources, Beijing 100083, China

2. Changsha Planning and Design Survey Research Institute, Changsha 410007, China

3. College of Oceanography and Space Informatics, China University of Petroleum (East China), Qingdao 266580, China

4. Satellite Environment Center, Ministry of Environmental protection of China, Beijing 100094, China

5. Laboratory for Marine Resources Qingdao National Laboratory for Marine Science and Technology, Qingdao 266237, China

通讯作者: 姚延娟(1974-),女,博士,正高级工程师,主要从事多源遥感数据智能解译的研究。Email:yaoyj@secmep.cn

责任编辑: 张仙

收稿日期: 2022-03-21   修回日期: 2022-09-9  

基金资助: 国家自然科学基金项目“饮用水源地保护区环境风险源变化多尺度遥感探测机制与不确定性研究”(41871270)
“复杂城市地表不透水面多源高分遥感成像机理与分层优化提取方法”(41971292)

Received: 2022-03-21   Revised: 2022-09-9  

作者简介 About authors

安 娜(1980-),女,硕士,高级工程师,主要从事遥感数据处理技术方法研究与矿产资源应用。Email: an_na826@163.com

摘要

时空融合能够生成具有足够时间和空间分辨率的图像序列。然而,当前的研究趋向于使用尽可能多的时相数据、复杂的非线性模型来提高预测的准确性,极少的研究将重点放在图像本身的分析,即充分利用影像包含的如趋势和纹理等内在特征。为此,文章基于二维奇异谱分析(2D singular spectrum analysis,2DSSA)技术,提出了一种2DSSA时空融合模型(2DSSA spatial-temporal fusion model,2DSSA-STFM),通过将已有影像分解为趋势分量和细节分量,分别对目标时刻影像的主要空间趋势和空间细节进行预测。首先,建立高空间分辨率数据趋势项与低空间分辨率数据的线性关系,计算得到目标时刻影像的趋势成分; 然后,建立2个时相下低分辨率细节分量和高分辨率细节分量的线性关系,得到目标时刻影像的细节成分; 最后,将计算得到的趋势和细节成分进行合成,即为目标预测影像。在2组中分辨率Landsat7 ETM+和MODIS影像上对提出的2DSSA-STFM进行了实验,结果表明,提出的模型在实验误差方面要优于传统的时空融合模型。

关键词: 时空融合; 奇异谱分析; 趋势分量; 细节分量; 分解

Abstract

Spatio-temporal fusion can generate image sequences with sufficiently high temporal and spatial resolution. However, current studies tend to improve prediction accuracy using as much spatio-temporal data as possible and complex non-linear models, while few of them focus on analyzing images themselves by making full use of their intrinsic features, such as trends and textures. This study proposed a 2DSSA spatio-temporal fusion model (2DSSA-STFM) based on 2D singular spectrum analysis (2DSSA). In this model, the major spatial trends and details of the existing images at the target moment can be predicted by decomposing the images into trend and detail components. Firstly, the linear relationship between the trend of high-spatial-resolution data and low-spatial-resolution data was built to calculate the trend components of the images at the target moment. Then, the linear relationship between the low-resolution and the high-resolution detail components in two time phases was established to determine the detail components of the images at the target moment. Finally, the calculated trend and detail components were combined to form the target prediction images. The 2DSSA-STFM was applied to two sets of medium-resolution Landsat7 ETM+ and MODIS images, yielding smaller experimental errors than conventional spatio-temporal fusion models.

Keywords: spatio-temporal fusion; singular spectrum analysis; trend component; detail component; decomposition

PDF (5166KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

安娜, 赵莹莹, 孙娅琴, 张爱竹, 付航, 姚延娟, 孙根云. 基于奇异谱分析的改进遥感时空融合模型[J]. 自然资源遥感, 2023, 35(2): 89-96 doi:10.6046/zrzyyg.2022095

AN Na, ZHAO Yingying, SUN Yaqin, ZHANG Aizhu, FU Hang, YAO Yanjuan, SUN Genyun. An improved spatio-temporal fusion model for remote sensing images based on singular spectrum analysis[J]. Remote Sensing for Land & Resources, 2023, 35(2): 89-96 doi:10.6046/zrzyyg.2022095

0 引言

密集时间的高空间分辨率图像对全球或区域范围内的许多应用具有重要意义,如土地利用制图和变化检测[1]、作物生长定量监测[2]、植被物候变化监测[3]、地表温度监测[4]等。迄今为止,多平台卫星获得的高空间、高时间分辨率的遥感数据已经取得了巨大的突破,但是由于硬件技术的限制和预算的制约,目前的卫星传感器仍然不得不在空间和时间分辨率之间做出妥协[5-6]。时空融合技术是一种可行的、具有成本效益的方法,可以同时获得具有高空间和时间分辨率的遥感图像[7]

近年来,针对遥感数据时空融合技术,国内外学者进行了大量研究[7-12]。在众多已有的时空融合技术中,基于像元重构的融合模型算法得到广泛的应用,其基本思想是通过一定的规则选择目标像元周边的像元参与目标像元的重构。这类算法原理简单、计算简便,但易出现异常值[13]。为了避免异常值,Gao等[14]提出了一种时空自适应性反射率融合模型(spatial and temporal adaptive reflectance fusion model, STARFM),该模型通过融合Landsat和MODIS影像来获得兼具Landsat的空间分辨率特征和MODIS的时间分辨率特征的反射率数据。尽管STARFM模型能够获取预测数据,但是不适用于异质性较高的区域。为此,Zhu等[15]提出了一种改进型时空自适应融合模型(enhanced spatial and temporal adaptive reflectance fusion model, ESTARFM),考虑了反射率的时间变化趋势,可以更好地预测反射率的变化,对不同地表具有更好的适应性。然而,这2种模型都是基于不同反射率和时间变化的线性关系,忽略了地表的非线性变化和突变。另外,它们直接在原始影像上构建线性关系,未对影像的内在特征进行分析,无法有效反映高低空间分辨率的光谱差异和不同时相地物的形状差异。

针对地表非线性变化的问题,研究人员提出了一系列的基于深度学习的时空融合技术,并且逐渐成为研究的主流。Shao等[16]提出了一个扩展的超分辨率卷积神经网络(extended super-resolution convolutional neural network, ESRCNN)的数据融合框架,基于超分辨率的思想,将高分辨率的Sentinel-2图像作为辅助数据来降尺度低分辨率的Landsat8图像,从而生成高分辨率的密集时间影像序列; Li等[17]提出了一种新的传感器偏差驱动的时空融合模型(bias-driven spatio-temporal fusion, Bia⁃STF),通过地表变化学习卷积神经网络(convolutional neural network,CNN)和偏差学习CNN的串联,共同学习不同传感器下的数据的差异信息; Jia等[18]提出了一种双流的CNN——基于深度学习的时空数据融合(deep learning-based spatiotemporal data fusion, DL-SDFM),将正向预测和反向预测相结合,生成目标精细图像的同时形成基于时间变化和空间信息的映射,具有较好的泛化能力和鲁棒性。这些方法通过多层的网络模型有效提取和利用了图像的内在特征,如空间上下文和纹理等信息,取得了优异的预测效果。然而,这些方法也存在一些问题,如模型复杂度高、参数量巨大、预测过程容易出错,最重要的是,这些方法通常需要大量的已知影像进行训练,成本巨大[19]

近些年来,一种新型空间处理技术二维奇异谱分析(2D singular spectrum analysis, 2DSSA)被成功应用于图像的空间特征提取[19-20]。基于奇异值分解(singular value decomposition, SVD),它可以将一幅图像分解成多个子图像,每个子图像都包含不同的空间信息,充分挖掘图像的全局空间相关性,同时消除图像噪声。为了充分利用不同传感器影像的内在特征,并且在较少的已知影像上进行预测,本文提出了一种结合2DSSA的时空融合模型(2DSSA spatial-temporal fusion model, 2DSSA-STFM)。通过提取不同传感器影像的空间趋势和细节特征,分别建立对应光谱差异和不同时相地物的形状差异的线性模型,从而实现对目标时刻高分辨率影像的预测。结合深度时空融合技术中不同空间信息的优势,以及线性模型的简便快速的优势,提高时空融合的预测精度。

1 2DSSA-STFM模型

2DSSA-STFM模型主要包括4个步骤: 基于2DSSA的影像分解、高分辨率趋势项计算、高分辨率细节项计算和目标影像合成,具体流程如图1所示。为了方便,本文将空间分辨率低、时间分辨率高的遥感影像简称为“低分辨率影像”,将空间分辨率高、时间分辨率低的遥感影像简称为“高分辨率影像”。2DSSA-STFM主要基于一对已知高、低分辨率影像进行预测,将已知时刻t0的高、低分辨率影像分别表示为L0M0,目标时刻tk的低分辨率影像表示为Mk

图1

图1   算法流程

Fig.1   Algorithm flowchart


1.1 基于2DSSA的影像分解

为了充分利用给定影像包含的趋势和纹理等内在特征,2DSSA-STFM使用2DSSA方法对给定的影像进行空间特征提取[19-20],即趋势成分与细节成分提取,如图1中①所示。2DSSA的具体处理步骤为: 给定一幅尺寸为W×H的灰度图像I,2DSSA首先确定一个大小为u×v的嵌入窗口,该窗口通常远小于图像的大小。然后,将该窗口在图像上进行步长为1的滑动,滑动方向为从左到右、从上到下。在不同位置处,嵌入窗口内的像素都被拉伸为列向量Vi,jRuv,并将这些列向量排列为一个矩阵,称为轨迹矩阵M,即

M={V1,1,V1,2,,Vi,j,,VW-u+1,H-v+1}Ruv×(W-u+1,H-v+1)

式中轨迹矩阵M有一个名为HbH的结构,即Hankel-block-Hankel矩阵[21]。然后,对得到的轨迹矩阵进行SVD分解,可以得到轨迹矩阵多个子矩阵相加和的形式,将其写为:

M=M1+M2,Mi=λiuivi

式中: M1为对应最大奇异值的子矩阵; M2为对应剩余较小奇异值的子矩阵; λi,uivi分别为SVD分解后的奇异值、左奇异向量和右奇异向量,i=1,2。根据2DSSA在图像中的应用[19,21]可知,M1对应的成分为图像的上下文信息,而M2对应的成分为图像的纹理等细节信息。通过两步对角平均过程,可以将子矩阵M1M2再次投影为图像尺寸大小,从而分别得到对应原始灰度图像的趋势项Itrend和细节项Idetail,即

I=Itrend+Idetail

由此,通过2DSSA可以得到任意一幅灰度图像的趋势项成分和细节项成分。

根据上述过程,对给定的3幅影像L0,M0Mk分别进行逐波段的2DSSA处理,得到相应的趋势成分和细节成分,即

L0=Ltrend0+Ldetail0M0=Mtrend0+Mdetail0Mk=Mktrend+Mkdetail

由此得到的对应不同影像的趋势成分和细节成分将用于后续的计算。

1.2 高分辨率趋势项

与高分辨率图像相比,低分辨率图像在视觉上呈现为地物目标模糊、区分度下降的特点,而这与高分辨率图像分解得到的趋势项有相似之处。因此,使用高分辨率图像的趋势项与低分辨率图像建立二者在分辨率上的差异。通过建立高分辨率图像趋势项与低分辨率图像的线性关系,结合邻近相似像元信息构建权重函数,计算得到目标时刻影像的趋势成分,如图1中②所示。

在与STARFM算法[14]相同的假设条件下,建立高空间分辨率数据趋势项与低空间分辨率数据的关系为:

Ltrend0=M0+ε0Lktrend=Mk+εk

式中: Lktrend为待求的tk时刻高分辨率影像的趋势项; ε0εk分别为2个时刻高、低分辨率图像地表反射率之间的差异(由不同的带宽和太阳几何形状引起)。假设地表覆盖类型和系统误差在t0tk时刻之间没发生变化,则ε0=εk,从而有:

Lktrend=Mk+Ltrend0-M0

引入邻近像元信息构建权重函数,得到:

Lktrend(xc,yc)=i=1wj=1wWtrend[Mk(xi,yj)+Ltrend0(xi,yj)-M0(xi,yi)]

式中: w为邻域窗口的尺寸; (xc,yc)为邻域窗口的中心像元; (xi,yj)为邻域窗口内与中心像元相似的像元; Wtrend为各个相似像元的权重,由空间位置距离差异D和高低分辨率光谱差异S构建得到,计算方式与STARFM相同,即

Wtrend=(1/SijDij)/1/SijDij
Sij=|Ltrend0(xi,yi)-M0(xi,yi)|Dij=1+(xc-xi)2+(yc-yi)2/A

式中A为常数,它定义了空间距离对光谱和时间距离的相对重要性。由此可以计算得到目标时刻高分辨率影像的趋势项Lktrend

1.3 高分辨率细节项

t0tk时刻,影像中的地物会发生一定的变化。之前的研究直接计算2个时刻的低分辨率图像的差异,这一定程度上忽略了地物细节的变化[14-15]。细节项中包含的纹理信息能够更加有效地反映地表随时间的形状变化。因此,本文选择建立2个时相下低分辨率细节分量的线性关系,基于已知时刻高分辨率细节分量,结合邻域像素的时间和空间差异进行加权,得到目标时刻影像的细节成分,如图1中③所示。

假设从t0tk时刻的反射率变化为线性变化,这个假设在短时间内是合理的[11],建立2个时相下低分辨率细节项和高分辨率细节项的关系,即

Mkdetail=aM0detail+bLdetailk=aLdetail0+b

式中: Ldetailk为待求的tk时刻高分辨率影像的细节项; ab为线性回归模型的系数,用于描述影像在t0tk时刻的反射率变化。假设低分辨率影像和高分辨率影像的时相变化相同,并且t0tk时刻的反射率完全相关,即系数a=1,可得:

Ldetailk=Ldetail0+Mdetailk-M0detail

结合邻域信息可得:

Lkdetail(xc,yc)=i=1wj=1wWdetail[Ldetail0(xi,yi)+Mkdetail(xi,yi)-Ldetail0(xi,yi)]

式中Wdetail为相似像元的权重,由时间差异T和空间位置差异d构建,即

Wtrend=(1/Tijdij)/1/Tijdij
Tij=|Mdetailk(xi,yj)-Mdetail0(xi,yj)|dij=1+(xc-xi)2+(yc-yi)2/2

根据该过程,可以计算得到目标时刻高分辨率影像的细节项Lkdetail

1.4 目标影像合成

获得了目标时刻高分辨率图像的趋势项和细节项,对其进行合成得到最终的预测图像。根据式(3),对趋势项和细节项进行相加,即

Lk=Ltrendk+Lkdetail

其中,趋势项Ltrendk包含目标时刻主要的空间上下文特征,而细节项Lkdetail包含目标时刻主要的地物变化特征,二者的合成得到了精细的目标时刻高分辨率图像,如图1中④所示。

2 实验设置

2.1 实验数据

采用2个Landsat7 ETM+和MODIS数据集对提出的算法进行性能测试,每个数据集包括2对及以上的Landsat7 ETM+影像和MODIS影像。所有影像均进行了辐射校正、大气校正、重采样等预处理操作,Landsat7 ETM+与MODIS影像区域和时间匹配。Landsat7 ETM+影像的空间分辨率为30 m,MODIS影像的空间分辨率为500 m,主要选用绿光、红光、近红外3个波段进行实验,分别对应Landsat7 ETM+的4,3,2波段和MODIS的3,1,2波段。

数据集1位于澳大利亚新南威尔士州南部的灌溉区(34.0034°E,145.0675°S)[22],包含2景Landsat7 ETM+影像和2景MODIS影像。这2对Landsat-MODIS卫星分别于2002年3月9日和2002年4月26日拍摄,覆盖范围为15 km×15 km,对应30 m空间分辨率Landsat影像的尺寸为500像元×500像元。该研究区是各种夏季作物的灌溉田,如水稻、玉米、高粱、大豆等,显示出高度异质性的景观。除了自然物候变化外,该区域的其他土地覆盖的多样性、复杂性、异质性和由人类活动引起的巨大时间变化产生了很高的空间和时间差异,这使得该地区的时空融合比正常测试地区更难解决,相应的近红外-红光-绿光假彩色图像如图2所示。

图2

图2   数据集1的MODIS和Landsat7 ETM+影像

Fig.2   Images of MODIS and Landsat7 ETM+ of data set 1


数据集2位于加拿大北部区域(104°W,54°N)[8],包含3景Landsat7 ETM+影像和3景MODIS影像,相应的近红外-红光-绿光假彩色影像,如图3所示。这3对Landsat和MODIS卫星分别于2001年5月24日、2001年7月11日和2001年8月12日拍摄,覆盖范围为12 km×12 km,对应30 m空间分辨率Landsat图像的图像尺寸为400像元×400像元。研究区内土地覆盖类型以森林为主,包括云杉、松树、白杨等树种,此外还有沼泽、稀疏植被、土壤、岩石等地物,土地覆盖斑块很大,植被生长季节短,物候变化迅速,土地覆盖变化较小,但受到物候和天顶角变化的较大影响。

图3

图3   数据集2的MODIS和Landsat7 ETM+影像

Fig.3   Images of MODIS and Landsat7 ETM+ of data set 2


2.2 评价指标及参数设置

所有的融合结果都是通过定性和定量指标来进行评估,定性的评价主要是融合结果与真实图像的视觉效果对比,定量的评价指标是对图像的质量进行评定,本文主要采用平均绝对差(average absolute deviation,AAD)、均方根误差(root-mean-square error,RMSE)、结构相似性指数(structural similarity, SSIM)和相对无量纲全局误差(erreur relative globale adimensionnelle de synthese, ERGAS)[8]共4个指标从光谱相似度和结构相似度两方面综合进行定量评价。

另外,在2DSSA-STFM模型中,2DSSA的嵌入窗口大小设置为10×10,以满足最佳的图像分解要求。在1.2节趋势项预测中,采用9×9大小的搜索窗口,在窗口中选择与中心像元最相似的前20个像元进行加权,以方便搜索更加相似的像素。在1.3节的细节项预测中,搜索窗口大小设置为31×31,选取前50个最相似的像元,以获取更加丰富的细节信息[23]

3 实验结果与分析

3.1 趋势项与细节项的预测

以数据集1为例,首先给出了由2DSSA分解得到的目标时刻影像的趋势项和细节项,然后给出了预测得到的影像的趋势项和细节项,如图4所示。根据图4(a)(b)所示,预测得到的趋势项(b)与实际趋势项(a)十分接近,在不规则的植被区、颜色差别较大的地物区域均有较好的相似度,如蓝色框所示。另外,根据图4(c)(d)的蓝色框可知,细节项的预测也具有较高的准确度,不规则地物的形状、边缘等都与实际细节项相符。然而,预测的趋势项和细节项中也存在一些差别较大的地方,如黄色框所示,在(b)中某些区域地物反射率存在错误,(d)中某些地物的边缘存在色彩差异,主要原因在于趋势项和细节项的预测是基于线性模型,这一定程度上忽略了地物的非线性变化,因而在部分变化剧烈的区域存在预测错误。

图4

图4   数据集1预测的趋势项和细节项

Fig.4   Trend and detail terms predicted by data set 1


总体而言,预测得到的趋势项、细节项与原始图像的实际趋势项、细节项有较高的吻合度,体现了2DSSA-STFM模型的有效性。

3.2 实验结果和讨论

针对2个数据集分别将2DSSA-STFM模型与经典的STARFM和ESTARFM模型进行性能对比。首先,在数据集1上,评价了2DSSA-STFM模型与STARFM模型的性能,主要考虑到2个模型均使用一对已知时刻的影像预测目标时刻的高分辨率影像; 然后,在数据集2上,评价了2DSSA-STFM模型与STARFM和ESTARFM的性能,原因在于ESTARFM需要2对已知影像进行预测。

图5给出了在数据集1上,2DSSA-STFM模型与STARFM模型的预测结果。整体来看,STARFM模型预测的图像上存在较多细碎的斑块,存在一些地物预测错误。相比之下,2DSSA-STFM有效降低了这种斑块效应,不同地物的边界和细节信息得到了很好的保留,与真实影像有较好的一致性。根据细节图(蓝色框)所示,尽管在部分地物上出现了预测偏差,2DSSA-STFM模型的预测结果拥有更加清晰可分的地物区域、良好的地物边界以及与真实影像相吻合的地物颜色,这证明了2DSSA-STFM模型的有效性。

图5

图5   数据集1预测图像

Fig.5   Data set 1 prediction image


表1给出了2DSSA-STFM模型与STARFM模型的定量结果,加粗字体为最佳值。根据结果可知,2DSSA-STFM模型在绿光、红光、近红外3个波段上均取得了更好的效果。以近红外波段为例,2DSSA-STFM模型的AAD指标下降约13.12,RMSE指标下降了约29.74,ERGAS指标下降0.02,SSIM指标提升了0.08。定量结果显示,2DSSA-STFM模型的预测结果拥有更高的精度。图6给出了在数据集2上,2DSSA-STFM模型与STARFM和ESTARFM模型的预测结果。与真实图像相比,STARFM模型的预测结果有较大偏差,图像颜色偏深,ESTARFM和2DSSA-STFM模型偏差较小,但是ESTARFM模型的预测图像与真实图像更为接近,主要原因在于ESTARFM模型使用2对已知图像进行预测,而2DSSA-STFM模型仅使用一对已知影像进行预测。根据细节图(红色框)所示,ESTARFM模型的结果仍然是最好的,但是在某些区域,如左下角白色地物处,2DSSA-STFM模型的预测结果与真实图像更为接近,其余模型均存在一些颜色偏差。

表1   数据集1的定量评估结果

Tab.1  Quantitative evaluation results of data set 1

方法波段AADRMSEERGASSSIM
STARFM绿光117.99160.360.8480.536
红光174.08239.120.432
近红外304.41448.400.438
2DSSA-
STFM
绿光115.12157.790.8280.552
红光170.55234.550.442
近红外291.29418.660.518

新窗口打开| 下载CSV


图6

图6   数据集2预测图像

Fig.6   Data set 2 prediction image


表2给出了2DSSA-STFM模型与STARFM和ESTARFM模型的定量结果,加粗字体为最佳值。总体而言,ESTARFM模型在大部分波段都取得了更好的分类效果,主要原因还是因为它利用了更多的已知图像信息,而2DSSA-STFM模型在近红外波段取得了最好的效果,STARFM模型效果最差。以近红外波段为例,相比于STARFM和ESTARFM模型,2DSSA-STFM模型的AAD指标分别下降约42.90和0.47,RMSE指标分别下降了约61.34和0.52,SSIM指标分别提升了0.258和0.007。由此可知,2DSSA-STFM模型虽然仅使用一对已知影像进行预测,但是在近红外波段仍取得最好的效果。

表2   数据集2的定量评估结果

Tab.2  Quantitative evaluation results of data set 2

方法波段AADRMSEERGASSSIM
STARFM绿光315.86415.921.2870.120
红光89.01131.830.522
近红外67.6993.680.624
ESTARFM绿光16.0121.151.1540.947
红光18.8925.130.909
近红外25.2632.860.875
2DSSA-
STFM
绿光28.2935.451.2330.894
红光28.0237.300.834
近红外24.7932.340.882

新窗口打开| 下载CSV


4 结论

基于2DSSA的图像分解特性,提出了2DSSA-STFM模型。该方法充分利用了影像的内在信息,包括空间趋势和纹理等细节,能够有效地反映不同时间影像的反射率变化和地形变化。在2个实验区的实验结果表明,2DSSA-STFM模型能够获得较高的预测精度,有利于预测土地覆盖变化。主要研究结论如下:

1) 2DSSA-STFM在AAD,RMSE和ERGAS指标下的预测误差更小,并且SSIM更高,因而提出的利用趋势项和细节项分别预测的方法要优于传统的STARFM方法。

2) 使用高分辨率影像的趋势项来代替原始影像,建立与低分辨率影像的关系,可以提高寻找相似像元的准确性,减少STARFM模型中存在的斑块问题。

3) 通过使用不同时相的MODIS影像的细节项,有效地捕捉到地表形状和细节变化,很好地保留了预测影像中地物的形状和边缘信息。

4) 2DSSA-STFM模型在近红外波段预测上具有优异的效果,趋势项和细节项的处理方法更适合于长波波段的处理。

然而,本文算法还存在一定的局限性,如建立的模型均为线性模型,未考虑地物的非线性变化。后期研究将开发简单快速的非线性模型,进一步提高图像预测的精度。

参考文献

Roy D P, Wulder M A, Loveland T R, et al.

Landsat8:Science and product vision for terrestrial global change research

[J]. Remote Sensing of Environment, 2014, 145:154-172.

DOI:10.1016/j.rse.2014.02.001      URL     [本文引用: 1]

Singh D.

Generation and evaluation of gross primary productivity using Landsat data through blending with MODIS data

[J]. International Journal of Applied Earth Observation and Geoinformation, 2011, 13(1):59-69.

DOI:10.1016/j.jag.2010.06.007      URL     [本文引用: 1]

Bhandari S, Phinn S, Gill T.

Preparing Landsat image time series (LITS) for monitoring changes in vegetation phenology in Queensland,Australia

[J]. Remote Sensing, 2012, 4(6):1856-1886.

DOI:10.3390/rs4061856      URL     [本文引用: 1]

Weng Q H, Fu P, Gao F.

Generating daily land surface temperature at Landsat resolution by fusing Landsat and MODIS data

[J]. Remote Sensing of Environment, 2014, 145:55-67.

DOI:10.1016/j.rse.2014.02.003      URL     [本文引用: 1]

Gevaert C M, García-Haro F J.

A comparison of STARFM and an unmixing-based algorithm for Landsat and MODIS data fusion

[J]. Remote Sensing of Environment, 2015, 156:34-44.

DOI:10.1016/j.rse.2014.09.012      URL     [本文引用: 1]

邬明权, 牛铮, 王长耀.

多源遥感数据时空融合模型应用分析

[J]. 地球信息科学学报, 2014, 16(5):776-783.

DOI:10.3724/SP.J.1047.2014.00776      [本文引用: 1]

多源遥感数据时空融合模型是解决目前遥感数据获取能力不足问题的重要方法之一,当前主要融合方法的研究,集中于平原区域,缺乏复杂条件下的多源遥感数据融合技术的应用研究。针对我国南方复杂条件,本文对比研究了多源遥感数据时空融合模型在我国南方复杂条件下的应用能力。针对LORENZO模型、LIU模型、统计回归模型、STARFM和ESTARFM 5种主流多源遥感数据时空融合模型,采用Landsat-ETM+和MODIS数据,以江苏省南京市的小块区域为实验区,利用5种模型生产融合影像,以真实Landsat-ETM+数据为模板,定性和定量评价融合效果的好坏。结果表明:除LORENZO模型外,其余4种模型获得的融合影像与真实影像之间都具有较高的相关性,相关系数均高于0.6,其中,ESTARFM模型的融合影像与真实影像间的相关性最高,融合效果最好,其次为STARFM模型,再次为LIU模型和统计模型法。在融合过程中采用距离、时间和光谱等信息越多,融合效果越好,在复杂地区的适用能力越强,融合影像更能反映地物的细节特征。

Wu M Q, Niu Z, Wang C Y.

Assessing the accuracy of spatial and temporal image fusion model of complex area in south China

[J]. Journal of Geo-Information Science, 2014, 16(5):776-783.

[本文引用: 1]

Zhao Y, Huang B, Song H.

A robust adaptive spatial and temporal image fusion model for complex land surface changes

[J]. Remote Sensing of Environment, 2018, 208:42-62.

DOI:10.1016/j.rse.2018.02.009      URL     [本文引用: 2]

张爱竹, 王伟, 郑雄伟, .

一种基于分层策略的时空融合模型

[J]. 自然资源遥感, 2021, 33(3):18-26.doi:10.6046/zrzyyg.2020346.

[本文引用: 3]

Zhang A Z, Wang W, Zheng X W, et al.

A hierarchical spatial-temporal fusion model

[J]. Remote Sensing for Natural Resources, 2021, 33(3):18-26.doi:10.6046/zrzyyg.2020346.

[本文引用: 3]

Wu M, Wu C, Huang W, et al.

An improved high spatial and temporal data fusion approach for combining Landsat and MODIS data to generate daily synthetic Landsat imagery

[J]. Information Fusion, 2016, 31:14-25.

DOI:10.1016/j.inffus.2015.12.005      URL     [本文引用: 1]

Huang B, Song H.

Spatiotemporal reflectance fusion via sparse representation

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2012, 50(10):3707-3716.

DOI:10.1109/TGRS.2012.2186638      URL     [本文引用: 1]

Cheng Q, Liu H, Shen H, et al.

A spatial and temporal nonlocal filter-based data fusion method

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(8):4476-4488.

DOI:10.1109/TGRS.2017.2692802      URL     [本文引用: 2]

Li J, Li Y, He L, et al.

Spatio-temporal fusion for remote sensing data:An overview and new benchmark

[J]. Science China Information Sciences, 2020, 63(4):7-23.

[本文引用: 1]

董文全, 蒙继华.

遥感数据时空融合研究进展及展望

[J]. 国土资源遥感, 2018, 30(2):1-11.doi:10.6046/gtzyyg.2018.02.01.

[本文引用: 1]

Dong W Q, Meng J H.

Review of spatiotemporal fusion model of remote sensing data

[J]. Remote Sensing for Land and Resources, 2018, 30(2):1-11.doi:10.6046/gtzyyg.2018.02.01.

[本文引用: 1]

Gao F, Masek J, Schwaller M, et al.

On the blending of the Landsat and MODIS surface reflectance:Predicting daily Landsat surface reflectance

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2006, 44(8):2207-2218.

DOI:10.1109/TGRS.2006.872081      URL     [本文引用: 3]

Zhu X, Chen J, Gao F, et al.

An enhanced spatial and temporal adaptive reflectance fusion model for complex heterogeneous regions

[J]. Remote Sensing of Environment, 2010, 114(11):2610-2623.

DOI:10.1016/j.rse.2010.05.032      URL     [本文引用: 2]

Shao Z, Cai J, Fu P, et al.

Deep learning-based fusion of Landsat8 and Sentinel-2 images for a harmonized surface reflectance product

[J]. Remote Sensing of Environment, 2019, 235(12):111425.

DOI:10.1016/j.rse.2019.111425      URL     [本文引用: 1]

Li Y, Li J, He L, et al.

A new sensor bias-driven spatio-temporal fusion model based on convolutional neural networks

[J]. Science China Information Sciences, 2020, 63(4):20-35.

[本文引用: 1]

Jia D, Song C, Cheng C, et al.

A novel deep learning-based spatio-temporal fusion method for combining satellite images with different resolutions using a two-stream convolutional neural network

[J]. Remote Sensing, 2020, 12(4):698.

DOI:10.3390/rs12040698      URL     [本文引用: 1]

Spatiotemporal fusion is considered a feasible and cost-effective way to solve the trade-off between the spatial and temporal resolution of satellite sensors. Recently proposed learning-based spatiotemporal fusion methods can address the prediction of both phenological and land-cover change. In this paper, we propose a novel deep learning-based spatiotemporal data fusion method that uses a two-stream convolutional neural network. The method combines both forward and backward prediction to generate a target fine image, where temporal change-based and a spatial information-based mapping are simultaneously formed, addressing the prediction of both phenological and land-cover changes with better generalization ability and robustness. Comparative experimental results for the test datasets with phenological and land-cover changes verified the effectiveness of our method. Compared to existing learning-based spatiotemporal fusion methods, our method is more effective in predicting phenological change and directly reconstructing the prediction with complete spatial details without the need for auxiliary modulation.

Fu H, Sun G, Ren J, et al.

Fusion of PCA and segmented-PCA domain multiscale 2-D-SSA for effective spectral-spatial feature extraction and data classification in hyperspectral imagery

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60:1-14.

[本文引用: 4]

Sun G, Fu H, Ren J, et al.

SpaSSA:Superpixelwise adaptive SSA for unsupervised spatial-spectral feature extraction in hyperspectral image

[J]. IEEE Transactions on Cybernetics, 2022, 52(7):6158-6169.

DOI:10.1109/TCYB.2021.3104100      URL     [本文引用: 2]

Zabalza J, Ren J, Zheng J, et al.

Novel two-dimensional singular spectrum analysis for effective feature extraction and data classification in hyperspectral imaging

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(8):4418-4433.

DOI:10.1109/TGRS.36      URL     [本文引用: 2]

Emelyanova I V, McVicar T R, Van Niel T G, et al.

Assessing the accuracy of blending Landsat-MODIS surface reflectances in two landscapes with contrasting spatial and temporal dynamics:A framework for algorithm selection

[J]. Remote Sensing of Environment, 2013, 133:193-209.

DOI:10.1016/j.rse.2013.02.007      URL     [本文引用: 1]

刘慧琴, 吴鹏海, 沈焕锋, .

一种基于非局部滤波的遥感时空信息融合方法

[J]. 地理与地理信息科学. 2015, 31(4):27-32.

[本文引用: 1]

Liu H W, Wu P H, Sheng H F.

A spatio-temporal information fusion method based on non-local means filter

[J]. Geography and Geo-Information Science, 2015, 31(4):27-32.

[本文引用: 1]

/

京ICP备05055290号-2
版权所有 © 2015 《自然资源遥感》编辑部
地址:北京学院路31号中国国土资源航空物探遥感中心 邮编:100083
电话:010-62060291/62060292 E-mail:zrzyyg@163.com
本系统由北京玛格泰克科技发展有限公司设计开发