一种基于分层策略的时空融合模型
A hierarchical spatial-temporal fusion model
通讯作者: 孙根云(1979-),男,博士,教授,主要从事多源遥感数据智能解译、城市遥感方面的研究。Email:genyunsun@163.com。
责任编辑: 张仙
收稿日期: 2020-11-5 修回日期: 2021-05-9
基金资助: |
|
Received: 2020-11-5 Revised: 2021-05-9
作者简介 About authors
张爱竹(1988-),女,博士,讲师,主要从事多源遥感数据智能解译、城市遥感方面的研究。Email:
时空数据融合能够有效提高高空间分辨率遥感数据的时间分辨率,但是目前广泛使用的时空自适应反射率融合模型在突变区域的预测效果不佳。针对这一问题,提出一种基于分层策略的时空融合模型(hierarchical spatial-temporal fusion model,H-STFM)。该模型首先根据相邻时刻低空间分辨率数据的反射率差值,将待预测的目标像元分为物候变化像元和突变像元; 然后对物候变化像元进行线性回归预测,对突变像元进行加权滤波预测; 最后将物候变化和突变区域的预测结果利用优化的时间加权函数融合生成最后预测图像。以两组中分辨率遥感数据MODIS和Landsat图像为基础数据进行实验对H-STFM模型进行了定性与定量评价。结果表明,提出模型的实验结果在方差误差与相对无量纲全局误差方面表现明显优于时空自适应融合模型。
关键词:
The temporal resolution of high spatial resolution remote sensing data can be effectively improved by spatio-temporal fusion of remote sensing data. However, the most widely used spatial and temporal adaptive reflectance fusion model (STARFM) fails to achieve highly accurate prediction effects for areas with abrupt changes at present. Given this, this paper proposed a hierarchical spatial-temporal fusion model (H-STFM). In this model, the target pixels to be predicted are divided into pixels with phenological change and pixels with abrupt changes, which are predicted using linear regression and weighted filtering methods, respectively. Then the prediction results of the two types of pixels are fused using an optimized time weighted function to form the final prediction map. The H-STFM proposed in this paper was qualitatively and quantitatively assessed using two sets of medium-resolution remote sensing images from moderate resolution imaging spectrometer (MODIS) and Landsat satellite. As indicated by the experiment results, H-STFM is significantly superior to STARFM in terms of structural similarity and relative dimensionless global error.
Keywords:
本文引用格式
张爱竹, 王伟, 郑雄伟, 姚延娟, 孙根云, 辛蕾, 王宁, 胡光.
ZHANG Aizhu, WANG Wei, ZHENG Xiongwei, YAO Yanjuan, SUN Genyun, XIN Lei, WANG Ning, HU Guang.
0 引言
在众多已有的遥感时空融合算法中,简单高效的线性模型得到了最为广泛的应用[8,9,10,11,12,13]。其本质思想是通过构建高低空间分辨率图像中对应像元反射率之间的线性关系,将低空间分辨率图像的时间变化信息融入到已有的高空间分辨率图像中[14]。Gao等[15]最早提出了一种时空自适应反射率融合模型(spatial and temporal adaptive reflectance fusion model, STARFM),该模型通过融合MODIS图像和Landsat图像生成了具有MODIS时间分辨率和Landsat空间分辨率的地表反射率数据。虽然STARFM模型能够获取预测数据,但是不适用于反射率变化较大的区域和异质性较高的区域[16]。针对前者,Hilker等[17]提出了一种反射率变化映射的时空自适应算法,该算法首先确定不同时相Landsat的空间变化和MODIS的时间变化,然后选择地表覆盖变化与MODIS最接近的Landsat图像作为数据预测的基准数据,从而提高了Landsat图像的预测精度。针对高异质性问题,Zhu等[18]提出了增强型时空自适应反射率融合模型(enhanced spatial and temporal adaptive reflectance fusion model, ESTARFM),假设地物端元在短时间内只发生线性变换,通过引入转换系数计算出不同端元的反射率变化,提高遥感图像异质性区域的预测精度。虽然这些改进模型取得了一定的应用效果,但是它们的普遍问题是不能适用于土地覆盖类型发生突变区域的预测[19]。
针对时空融合模型在突变区域预测精度不高的问题,本文提出了一种基于分层策略的时空融合模型(hierarchical spatial-temporal fusion model, H-STFM)。通过分别捕捉渐变和突变的土地覆盖类型变化区域,并设计不同的融合方法,有效提高预测图像异质性区域的预测精度。该模型由线性回归模块和加权滤波模块组成,分别用于预测物候变化和突变区域。首先判别目标像素(待预测像素)的变化性质,然后对物候变化像素进行线性回归预测; 对突变像素进行加权滤波处理,在超像素邻域中选择变化同质性像素作为相似像素进行加权滤波预测; 最后将物候变化和突变区域的预测结果利用优化的时间加权函数融合生成最后预测图像。旨在充分考虑地表覆盖的突出变化,解决时空融合模型在地表突出变化上预测效果不好的问题,使得预测图像更加接近真实地表数据。
1 H-STFM模型
H-STFM模型主要包括4个步骤: 变化像素的判断、加权滤波预测、线性回归预测、时间加权融合,具体流程如图1所示。为了便于讨论,本文将低空间分辨率且重访周期短的遥感图像称为“低分辨率图像”,将高空间分辨率但重访周期长的遥感图像称为“高分辨率图像”。
图1
1.1 判断变化像素
式中: M为已知的低分辨率图像; (x,y)为目标像素的坐标; B为图像的波段; σ(M2-M1)为两期低分辨率图像反射率差值的标准差; N为土地覆盖类型的数量。即阈值由反射率差值的标准差与土地覆盖类型数量决定。基于以上方法,可以分别得到t1与t2时刻以及t3与t2时刻低分辨率图像的突变数据和物候变化数据。
1.2 基于线性回归的预测
本文采取两层处理的策略分别对物候变化数据和突变数据进行预测,即对整体物候变化和局部突变分别进行预测。对于物候变化数据,本文采用全局线性回归模型,即对两幅低分辨率图像使用全局窗口来对每个波段中像素进行线性回归拟合,如式(2)所示:
式中: a和b为线性回归的两个系数,可用最小二乘估计法得到[10]; R为系统残差。
线性回归模型的理论基础是在同一时刻的遥感图像中,低分辨率图像和高分辨率图像在相同时间范围内的变化是一致的。因此,可以直接将基于t1时刻低分辨率图像构建的回归模型,应用于t2时刻高分辨率图像的预测中。进而得到物候变化区域t2时刻的高分辨率图像,如式(3)所示:
式中: LR(x,y,t2-1,B)为基于回归模型基于t1时刻预测的t2时刻高分辨率图像; L(x,y,t1,B)为t1时刻的高分辨率图像。同理,可以基于t3时刻图像预测得到t2时刻的高分辨率图像LR(x,y,t2-3,B)。
1.3 基于加权滤波的预测
对于突变数据采用加权滤波的方法进行预测。经典时空融合算法仅基于光谱信息在矩形窗口中选择相似性像素,不能充分利用高分辨率图像中丰富的空间特征[23],不适用于突变数据选择相似性像素。为充分利用图像的空-谱信息,本文先对t1时刻的高分辨率图像利用分形网络分割算法进行超像素分割[24],然后将超像素作为邻域窗口进一步约束相似像素的选择范围。此外,由于目标像素是突变数据,即在该时间段内地表覆盖发生了较大的变化。为了更准确地选择相似像素,本文提出基于混合像元分解的相似像素选择方法: 先计算t1与t2时刻低分辨率图像目标像素的光谱反射率差值D,根据高分辨率图像的标准差和土地覆盖类别设置阈值Tp,得到阈值范围为[D-Tp,D+Tp],如式(4)所示:
式中: Tp为判别异常像元的阈值; σ(L1)为t1时刻高分辨率图像反射率的标准差。
图2以两个时刻Landsat与MODIS图像中某一超像素为例,展示了本文变化同质性像素的选择方法。如图2(a)所示,t1到t2时刻的MODIS图像目标像素的反射率变化为5(反射率从5变化到10)。阈值Tp根据式(4)计算得到,数值为0.5,因此本文选择变化同质性像素的阈值范围为[4.5,5.5]。即在t1时刻Landsat的超像素邻域中,选择与该目标像素反射率之差在阈值范围的像素作为变化同质性像素的备选像素,如图2(a)中标记为红色的反射率为9.6,9.7,10.4和10.5的像素。图2(b)为t1时刻的Landsat图像混合像元分解之后得到的3幅端元丰度图。由于本小节处理的数据为突变数据,假设目标像素已发生较大地物变化,所以应该选择在t1时刻与目标像素分度值差异较大的像素。本文根据实验经验设置端元变化阈值为0.5,选择与目标像素差值大于端元变化阈值的备选像素,最后将3幅丰度图的备选像素取交集作为最终的变化同质性像素,如图2(b)所示。
图2
图2
基于超像素的变化同质性像素筛选
(a) 基于阈值的变化同质像素初步选择 (b) 基于混合像元解混的变化同质像素约束
Fig.2
Superpixel-based change pixel filtering
获取变化同质性像素后,需要据其构建加权滤波的权重函数。为充分利用图像的空间与光谱信息,本文综合利用目标像素与变化同质性像素的光谱差异和距离差异构建权重函数。对于坐标为(x,y)的目标像素,其变化同质性像素的坐标可以定义为(xi,yi),其中i∈[1,2,…,Nx,y],j∈[1,2,…,Nx,y]。目标像素(x,y)与变化同质性像素(xi,yi)之间的光谱差异Sij表示为:
对应的距离权重Dij由变化同质性像素距离目标像素的空间距离定义,公式为:
式中A为比例系数,调整距离权重与综合权重的限制常数。
变化同质性像素与目标像素光谱差异越小、空间距离越接近,表示与目标像素的相似程度越高,因此应当被赋予更高的权值。基于此,本文将光谱差异和距离差异进行归一化,得到每个变化同质性像素对目标像素的贡献权重Wij,公式为:
求得归一化权重后,对于突变数据,利用基准时刻t1的低分辨率图像计算预测时刻t2的高分辨率图像,公式为:
式中LF(x,y,t2-1,B)为基于滤波模型利用t1时刻预测的t2时刻高分辨率图像。同样,可以利用上述方法得到基于t3时刻的基准图像预测得到t2时刻的高分辨率图像LF(x,y,t2-3,B)。
基于1.2和1.3小节的方法,可以分别针对物候变化区域和突变区域得到基于t1时刻图像预测的t2时刻图像,如式(3)与式(8)所示。两者综合得到整体的t2时刻预测图像,公式为:
同理,可以基于t3时刻的高低分辨率图像,预测得到t2时刻的高分辨图像L(x,y,t2-3,B)。
1.4 时间加权
获得两幅t2时刻的预测图像后,对其进行时间加权融合得到最终的预测结果。本文选用余弦相似度作为权重的赋值标准: 将2期低分辨率图像看作向量,计算2个向量的夹角余弦值来评估它们的相似度,即余弦值越大相似性越高,设置的权重越大。余弦相似度不仅可以体现光谱值差异,还可以体现光谱曲线形状上的差异,计算的相似度量更为可靠。具体的时间权重函数Thk表达式为:
其中,余弦相似度表达式为:
式中: k为不同时刻的基准图像,值为1或3; cos为夹角余弦值; θ1为t1和t2时刻低分辨率像素向量夹角; θ3为t3和t2时刻低分辨率像素向量夹角。基于以上权重,可综合求得t2时刻的高分辨率图像L(x,y,t2,B),公式为:
2 实验
2.1 实验数据
本文采用两个Landsat7 ETM+和MODIS数据集对算法性能进行测试,每个数据集包含3幅Landsat图像和3幅MODIS图像。经过投影校正、大气校正、重采样和裁剪等预处理,Landsat图像分辨率为30 m,MODIS图像分辨率为500 m。本文采用绿、红、近红外3个波段进行预测实验,即Landsat的4,3,2波段和MODIS的3,1,2波段。
数据集1实验区位于加拿大北部区域(
图3
图3
数据集1的MODIS地表反射率和Landsat地表反射率图像
Fig.3
Images of MODIS surface reflectance and Landsat surface reflectance of data set 1
数据集2位于中国内蒙古区域(
图4
图4
数据集2的MODIS地表反射率和Landsat地表反射率图像
Fig.4
Images of MODIS surface reflectance and Landsat surface reflectance of data set 2
2.2 融合评价指标
本文采用的时空融合评价指标包括结构相似性指数(structural similarity, SSIM)、平均绝对差(average absolute deviation, AAD)、方差误差(variance of error, VOE)和相对无量纲全局误差(erreur relative globale adimensionnelle de synthèse, ERGAS)。SSIM表示预测图像与真实图像之间的相似度; AAD代表预测图像与真实图像之间的偏差; VOE表示预测图像的误差波动; ERGAS评估光谱范围内所有波段的光谱质量。SSIM值越大表示算法性能越好,最佳数值为1; 而AAD,VOE,ERGAS值越低表示图像融合质量越好。对比算法包括STARFM和ESTARFM两种。
2.3 实验结果和讨论
图5
图6
图6
数据集1观测值和预测值的散点图
Fig.6
Scatter plot of the observed and predicted values of data set 1
表1 数据集1的定量评估结果
Tab.1
方法 | AAD | VOE | SSIM | ERGAS | ||||||
---|---|---|---|---|---|---|---|---|---|---|
绿 | 红 | 近红 | 绿 | 红 | 近红 | 绿 | 红 | 近红 | ||
STARFM | 67.687 9 | 89.006 3 | 315.858 1 | 91.652 2 | 130.023 3 | 414.607 0 | 0.623 5 | 0.522 3 | 0.120 0 | 1.287 4 |
ESTARFM | 37.551 1 | 34.454 0 | 93.441 0 | 47.359 1 | 45.866 2 | 117.750 0 | 0.845 5 | 0.845 8 | 0.901 5 | 0.493 9 |
H-STFM | 36.583 0 | 32.028 4 | 102.912 3 | 45.576 2 | 41.942 2 | 114.760 6 | 0.856 4 | 0.856 5 | 0.909 3 | 0.455 5 |
从表1中可以看出,在绿波段和红波段,H-STFM模型得到的预测图像的偏差AAD和误差波动VOE更小,预测效果更好。虽然在近红外波段上H-STFM模型获得的AAD略高于ESTARFM模型,但是H-STFM模型在各个波段上的SSIM和VOE都是最优的,表明H-STFM模型得到的预测图像与真实图像之间整体的相似度最高并且误差波动最小。H-STFM模型得到的ERGAS指标为0.455 5,明显优于两种对比算法,表明H-STFM模型在相关光谱范围内所有波段的光谱质量最高。
图7是数据集2的预测结果图。其中,图7(a)为真实Landsat图像,图7(b)—(d)为3种时空融合算法生成的预测图像。由图7可以看出,ESTARFM和H-STFM模型可以得到较STARFM模型质量更高的预测效果; 而在黄色圆圈区域,H-STFM模型的预测效果最好,与真实图像最为接近。在红框标示的局部区域可以看出,H-STFM模型的预测图像更好地保留了真实图像的整体色调,且更好地预测了图像空间信息,而STARFM的预测图像出现了较为明显的斑块效应,ESTARFM模型在色彩饱和度方面的预测效果较差。结果表明,H-STFM模型在异质性区域同样能够获取较好的预测结果,散点图和定量评价结果也从定量的角度验证了这一点。
图7
图8
图8
数据集2观测值和预测值的散点图
Fig.8
Scatter plot of the observed and predicted values of data set 2
表2 数据集2的定量评估结果
Tab.2
方法 | AAD | VOE | SSIM | ERGAS | ||||||
---|---|---|---|---|---|---|---|---|---|---|
绿 | 红 | 近红 | 绿 | 红 | 近红 | 绿 | 红 | 近红 | ||
STARFM | 7.316 1 | 6.309 0 | 5.725 9 | 3.293 7 | 2.118 0 | 3.319 7 | 0.916 5 | 0.956 8 | 0.980 1 | 1.504 3 |
ESTARFM | 1.256 7 | 4.596 6 | 12.557 9 | 1.747 0 | 2.267 9 | 2.919 5 | 0.997 5 | 0.983 9 | 0.948 4 | 1.178 0 |
H-STFM | 1.862 4 | 1.049 6 | 4.151 1 | 1.132 3 | 1.140 8 | 1.680 9 | 0.995 3 | 0.998 6 | 0.992 0 | 0.496 6 |
如表2所示,在红波段,H-STFM模型得到的预测图像的AAD和SSIM更小,表示预测效果最好。H-STFM模型在绿波段和近红外波段上AAD与SSIM表现不稳定,但是在各个波段上的VOE表现稳定且都为最优值,表明通过H-STFM模型获取的预测图像与真实图像之间的相似度最高。与数据集1实验结果类似,H-STFM的ERGAS指标也优于两种对比算法,预测图像的光谱质量最高。
3 结论
针对地表覆盖的正常物候变化和异常突出变化,设计了一种分层预测的策略,提出H-STFM模型。根据在时间段内地表类型的变化情况,将待预测像素分为物候变化像素和突变像素,对两种类型的像素分别进行线性回归和加权滤波预测。同时,对相似像素的选择方法进行改进,本文利用超像素邻域窗口和混合像元分解丰度图进行约束,筛选出更准确的相似像素。最后将时间加权函数进行优化改进,以提高图像融合精度。在两个实验区的实验结果表明,H-STFM模型可以得到更高的预测精度,更有利于预测土地覆盖异常变化。主要研究结论如下:
1) 利用分层思想,根据像素变化有针对性构建了不同变化数据的预测方法,预测精度明显提高。
2) 引入超像素作为备选邻域筛选变化同质性像素,并利用丰度图约束像素选择,选择相似像素的准确度明显提高。
3) 选用余弦相似度作为时间加权函数的度量准则,有效提高了预测精度。
本文算法还存在一定的局限性,如将低分辨率图像建立的回归模型直接应用到了低分辨率图像的求解,存在一定的系统误差。后期研究将进一步考虑不同空间分辨率数据成像系统差异,提高图像预测的精度。
参考文献
多源遥感数据时空融合模型应用分析
[J].
DOI:10.3724/SP.J.1047.2014.00776
[本文引用: 1]
多源遥感数据时空融合模型是解决目前遥感数据获取能力不足问题的重要方法之一,当前主要融合方法的研究,集中于平原区域,缺乏复杂条件下的多源遥感数据融合技术的应用研究。针对我国南方复杂条件,本文对比研究了多源遥感数据时空融合模型在我国南方复杂条件下的应用能力。针对LORENZO模型、LIU模型、统计回归模型、STARFM和ESTARFM 5种主流多源遥感数据时空融合模型,采用Landsat-ETM+和MODIS数据,以江苏省南京市的小块区域为实验区,利用5种模型生产融合影像,以真实Landsat-ETM+数据为模板,定性和定量评价融合效果的好坏。结果表明:除LORENZO模型外,其余4种模型获得的融合影像与真实影像之间都具有较高的相关性,相关系数均高于0.6,其中,ESTARFM模型的融合影像与真实影像间的相关性最高,融合效果最好,其次为STARFM模型,再次为LIU模型和统计模型法。在融合过程中采用距离、时间和光谱等信息越多,融合效果越好,在复杂地区的适用能力越强,融合影像更能反映地物的细节特征。
Assessing the accuracy of spatial and temporal image fusion model of complex area in south China
[J].
Generation of dense time series synthetic Landsat data through data blending with MODIS using a spatial and temporal adaptive reflectance fusion model
[J].DOI:10.1016/j.rse.2009.05.011 URL [本文引用: 1]
Estimating winter wheat biomass by assimilating leaf area index derived from fusion of Landsat-8 and MODIS data
[J].DOI:10.1016/j.jag.2016.02.001 URL [本文引用: 1]
Long-term and fine-scale satellite monitoring of the urban heat island effect by the fusion of multi-temporal and multi-sensor remote sensed data:A 26-year case study of the city of Wuhan in China
[J].DOI:10.1016/j.rse.2015.11.005 URL [本文引用: 1]
Generating daily land surface temperature at Landsat resolution by fusing Landsat and MODIS data
[J].DOI:10.1016/j.rse.2014.02.003 URL [本文引用: 1]
Land cover classification based on fused data from GF-1 and MODIS NDVI time series
[J].DOI:10.3390/rs8090741 URL [本文引用: 1]
Enhancing temporal resolution of satellite imagery for public health studies:A case study of West Nile Virus outbreak in Los Angeles in 2007
[J].DOI:10.1016/j.rse.2011.06.023 URL [本文引用: 1]
An improved high spatial and temporal data fusion approach for combining Landsat and MODIS data to generate daily synthetic Landsat imagery
[J].DOI:10.1016/j.inffus.2015.12.005 URL [本文引用: 1]
An improved image fusion approach based on enhanced spatial and temporal the adaptive reflectance fusion model
[J].DOI:10.3390/rs5126346 URL [本文引用: 1]
Spatiotemporal reflectance fusion via sparse representation
[J].DOI:10.1109/TGRS.2012.2186638 URL [本文引用: 2]
多源卫星遥感影像时空融合研究的现状及展望
[J].
Research status and prospect of spatiotemporal fusion of multi-source satellite remote sensing imagery
[J].
Dynamic monitoring of the Poyang Lake wetland by integrating Landsat and MODIS observations
[J].DOI:10.1016/j.isprsjprs.2018.02.021 URL [本文引用: 1]
遥感数据时空融合技术在农作物监测中的适应性研究
[J].
Adaptability research of spatial and temporal remote sensing data fusion technology in crop monitoring
[J].
An enhanced linear spatio-temporal fusion method for blending landsat and MODIS data to synthesize landsat-like imagery
[J].DOI:10.3390/rs10060881 URL [本文引用: 1]
On the blending of the Landsat and MODIS surface reflectance:Predicting daily Landsat surface reflectance
[J].DOI:10.1109/TGRS.2006.872081 URL [本文引用: 1]
A comparison of STARFM and an unmixing-based algorithm for Landsat and MODIS data fusion
[J].
A new data fusion model for high spatial-and temporal-resolution mapping of forest disturbance based on Landsat and MODIS
[J].DOI:10.1016/j.rse.2009.03.007 URL [本文引用: 1]
An enhanced spatial and temporal adaptive reflectance fusion model for complex heterogeneous regions
[J].DOI:10.1016/j.rse.2010.05.032 URL [本文引用: 1]
Spatiotemporal image fusion in remote sensing
[J].DOI:10.3390/rs11070818 URL [本文引用: 1]
线性模型的遥感图像时空融合
[J].
Spatio-temporal method of satellite image fusion based on linear model
[J].
A spatial and temporal nonlocal filter-based data fusion method
[J].DOI:10.1109/TGRS.2017.2692802 URL [本文引用: 1]
Spatio-temporal fusion for daily Sentinel-2 images
[J].
一种基于非局部滤波的遥感时空信息融合方法
[J].
A spatio-temporal information fusion method based on non-local means filter
[J].
Scale optimization in topographic and hydrographic feature mapping using fractal analysis
[J].DOI:10.3390/ijgi9110631 URL [本文引用: 1]
高光谱遥感影像端元提取算法研究进展及分类
[J].
Research progress on endmember extraction algorithm and its classification of hyperspectral remote sensing imagery
[J].
/
〈 |
|
〉 |
