基于变换域多尺度加权神经网络的全色锐化
Pansharpening based on the multiscale weighted neural network in the transform domain
通讯作者: 孙陆鹏(2000-),男,硕士研究生,主要从事遥感图像融合方面的研究。Email:sun916966324@gmail.com。
收稿日期: 2023-12-7 修回日期: 2024-03-30
基金资助: |
|
Received: 2023-12-7 Revised: 2024-03-30
作者简介 About authors
马飞(1978-),男,副教授,主要从事高光谱图像处理、雷达信号处理和凸优化方面的研究。Email:
为了解决全色锐化过程中存在的空间与光谱信息融合问题,该文提出了一种在非下采样剪切波变换(non-subsampled shearlet transform, NSST)域下,基于多尺度加权的脉冲耦合神经网络(pulse-coupled neural network, PCNN)和低秩稀疏分解的全色图像和多光谱图像的锐化模型。该模型分为低频和高频处理模块,对于高频子带,提出了一种适用于不同尺度不同方向高频子带的加权方式,并针对其不同方向上的特性,采用一种自适应PCNN模型;对于低频子带,首先将其分解为低秩与稀疏2部分,并根据低秩部分与稀疏部分特点设计相应的融合规则,再采取逆NSST变换得到融合图像。实验在GeoEye,QuickBird与Pléiades数据集上进行,并针对高频信息多尺度加权模块设计了消融实验,相比于次优模型,峰值信噪比(peak signal-to-noise ratio,PSNR)值分别提高了约1 dB,1.6 dB和2.2 dB。实验结果表明,该模型在指标评估中优于其他算法,并有效解决高频信息提取困难问题。
关键词:
To address the issue of spatial and spectral information fusion during pansharpening, this study proposed a sharpening model for panchromatic and multispectral images based on the multiscale weighted pulse-coupled neural network (PCNN) and low-rank and sparse decomposition in the non-subsampled shearlet transform (NSST) domain. The sharpening model consists of low- and high-frequency processing modules. For high-frequency subbands, a method for weighting high-frequency subbands in various scales and directions was proposed, accompanied by an adaptive PCNN model tailored to their characteristics in different directions. In contrast, low-frequency subbands were decomposed into low-rank and sparse parts, with corresponding fusion rules created according to their characteristics. The fused image was then obtained through inverse NSST. The experiments on the sharpening model were conducted using GeoEye,QuickBird, and Pléiades datasets. Moreover, an ablation experiment was designed for the multiscale weighting module for high-frequency information. Compared to suboptimal models, the sharpening model in this study increased the peak signal-to-noise ratio (PSNR) value by approximately 1 dB, 1.6 dB, and 2.2 dB, respectively. The experimental results demonstrate that the sharpening model outperformed other algorithms in index assessment, effectively resolving the challenge of extracting high-frequency information.
Keywords:
本文引用格式
马飞, 孙陆鹏, 杨飞霞, 徐光宪.
MA Fei, SUN Lupeng, YANG Feixia, XU Guangxian.
0 引言
近年来,深度学习在图像融合领域有着十分广泛的应用。基于深度学习的方法基本分为3个子类:源图像连接、特征连接和特征融合[6]。源图像连接类研究中Masi等[7]提出了第一个基于卷积神经网络的全色锐化方法概率神经网络(probabilistic neural network,PNN),拉开了深度学习应用于全色锐化领域的序幕;Scarpa等[8]探索了不同的架构和训练变化,并扩展了PNN作为一种目标自适应方法,以确保期望的性能。特征连接类中Jin等[9]建立了一个拉普拉斯金字塔来模拟不同频率下的空间信息。特征融合子类主要提取空间特征和光谱特征,然后通过图形注意模块进行集成,以强调信息特征图[10-11]。深度学习方法难点在于缺少训练集,同时训练后的网络易出现过拟合现象,进行不同场景下的全色锐化过程存在部分缺陷[12]。
针对现存问题,本文提出一种多尺度多方向加权方式下利用NSST结合脉冲耦合神经网络(pulse-coupled neural network,PCNN)的多光谱和全色图像融合的算法。该算法采取多尺度多方向加权的方式更全面地提取了高频分量所包含的细节信息,并设计了一种内部活动水平测量方法应用于PCNN中,使其更好捕捉遥感图像区域特性,实现全色图像与多光谱图像全色锐化融合。实验证明文章提出的方法在视觉质量和客观评估方面得到了令人满意的结果。
1 相关理论
1.1 NSST方法
NSST是一种多尺度、多方向的信号分析和处理方法[15]。将信号分解成不同尺度、不同方向和不同细节的小波系数,同时引入剪切波处理边缘信息,更加精细地保留信号的细节信息和局部特征,使融合算法具有更强的分析和处理能力。图1显示了二级 NSST分解的示意图。首先对图像经过非下采样金字塔(non-subsampled pyramid,NSP)滤波器多尺度分解生成低通和带通子带图像,再用移不变剪切波滤波(shearletfiltering,SF)器组对每一低通子带图像进行迭代以获取图像的分解层。NSST变换在图像的分解和重构过程中没有经过下采样操作,因此NSST变换具有平移不变性,在图像进行重构时可以克服伪吉布斯效应,提高图像融合算法的鲁棒性。然后利用剪切波滤波器将带通子带图像分解为多个方向的带通子带图像,实现图像的多方向分解。
图1
1.2 自适应PCNN模型
式中:n为迭代次数;Sij为刺激信号;(k,l)为连接范围大小;
2 本文算法
本文算法在NSST域下,结合自适应PCNN和低秩稀疏分解实现全色图像和多光谱图像泛锐化。详细的融合方案如图2所示,其中包括4个步骤:遥感图像NSST分解、高频段融合、低频段融合和融合图像NSST重建。
图2
2.1 遥感图像NSST分解
对多光谱图像与全色图像分别进行
2.2 高频分量融合
经过NSST变换后,得到了不同尺度不同方向上的高频细节,但受到源图像自身输入能量的限制,高频细节中所包含的能量随着尺度数与方向数的增加而减少,从而导致高频信息中的细节不能很好地融入图像。为了解决这个问题,文章提出了一种针对不同尺度不同方向的加权方式,其计算方法为:
式中:
利用高频分量融合方法将加权后的高频分量取绝对值后作为输入,多光谱图像与全色图像加权后的高频信息分别为
根据高频信息自适应参数,将全色和多光谱图像不同尺度高频信息输入到PCNN模型中,并定义点火次数
式中:
2.3 低频分量融合
2.3.1 鲁棒主成分分解
在低频分量的融合过程中,需要保留原始多光谱图像背景信息的光谱特性,还要保证全色图像的纹理信息被尽可能地保留,同时减小在处理区域小纹理信息的过程中受到的较大噪声或严重离群点的影响。
对于多光谱图像与全色图像的低频信息,文章提出的模型采用鲁棒主分成分析(robust principal component analysis,RPCA)法[19]对低频信息
对低秩和稀疏分量分别采用不同的融合方法,以防止合成数据过程中减弱多光谱图像自身包含的各种纹理细节,使融合后得到的图像与真图像之间的相关性尽可能大。
2.3.2 低秩分量融合
本文结合低秩分量自身特点,利用低秩分量的冗余性,结合低秩分量的局部突变水平与局部能量信息,提出了一种根据图像自身活动水平加权的融合方式,从而更好地完成对融合图像的构建。
图像的局部突变水平可以反映图像对比度信息,从而克服由低秩信息自身对比度信息不敏感而导致的细节提取困难。局部突变水平SCM公式为:
式中:
式中:(a,b)为(i,j)处的扩展距离。
局部能量信息LE可以反映图像亮度变化的强度,其表达式为:
为了更好地提取通过低秩稀疏分解得到的低秩分量中所包含的细节信息,定义一个名为LDW的加权活动级别度量,其表达式为:
式中
式中
最终低秩分量LF的融合规则为:
式中ALMA和ALMB分别为多光谱图像与全色图像的低秩分量的活动水平度量。
2.3.3 稀疏分量融合
针对稀疏分量,PCNN可以更好地捕捉稀疏部分的区域特性,使得融合后的结果的真实性更高。因此在稀疏分量融合部分采用与高频融合分量相同参数自适应PCNN。得到多光谱图像与全色图像的低频分量融合结果
2.4 融合图像NSST重建
融合图像F最终通过对低频分量
3 实验结果与性能分析
3.1 参数设置
为了验证所提出方法的有效性,本文分别在GeoEye,QuickBird和Pléiade数据集上进行测试,在实验中使用了4个波段(红色波段、绿色波段、蓝色波段和近红外波段)。测试的这些图像中描述的场景包含农田、城市和山区。经过预处理后,实验真实图像大小为64像素×64像素,多光谱图像大小为64像素×64像素,原始全色图像大小为256像素×256像素。本文列举了4种流行的全色锐化方法与1种深度学习方法,并与所提出的方法进行了比较,分别是:基于像素光谱调制法[20](hyperspectral pansharpening based on modulation of pixel spectra,HPF)、双尺度细节提取法[21](pansharpening using a guided image filter based on dual-scale detail extraction,DGIF)、引导滤波法[22](pansharpening multispectral remote-sensing images with guided filter, GF)、多尺度熵值匹配法[23](pan-sharpening framework based on multiscale entropy level matching and its application,STEM)和基于目标自适应卷积神经网络的全色锐化法[8](target-adaptive CNN-based pansharpening,PNNet)。
3.2 质量评价
本文采用7个指标评估所提出方法的客观性,分别为:峰值信噪比(peak signal-to-hoiseratio,PSNR),该参数用于衡量重构图像的质量,值越大表示重构图像质量越高;相关系数(correlation coefficient,CC),该参数用于计算参考图像与融合图像之间的相关性,值越大表示二者越接近,理想值为1;通用图像质量指数(universal image quality index,UIQI),反映了全色锐化结果的相关性损失、亮度失真和对比度失真,值越大表示融合效果越好,理想值为 1;相对无量纲全局综合误差(relative dimensionless global error synthesis,ERGAS),该参数反映融合图像的全局质量,理想值是0;光谱角度映射器(spectral angle mapper,SAM),用于计算向量之间光谱角度的绝对值,较小的值意味着较小的光谱角度失真,理想值为0;相对平均光谱误差(relative average spectral error,RASE),用于测量融合图像中每个波段的性能,理想值是0;均方根误差(root mean square error,RMSE),用计算像素值之间的差异,理想值是0。
3.3 性能比较
3.3.1 GeoEye数据集
实验首先在GeoEye卫星拍摄的农田图像上进行。全色锐化的结果如图3所示,其中图3(a)和(h)为理想的多光谱图像与其残差图。图3(b)—(g)和(i)—(n)为不同方法得到的结果图与其对应的残差图像。采用GF法得到的合成图像田野颜色明显偏紫,采用DGIF法得到的合成图像颜色偏绿,说明这2种方法在分解图像和融合图像的过程中产生了明显的光谱信息遗失。从图3(b)和(e)中可发现HPF法与STEM法生成的合成图像空间锐化程度过高,与理想参考图像产生明显残差。基于深度学习的全色锐化方法PNNet与本文所提出的方法在视觉效果以及残差图像上性能接近。表1给出了全色锐化的量化指标,最优值为加粗表示,次优值用下划线表示,后文同。通过量化指标的计算,本文提出的全色锐化算法在SAM和RMSE指标中相较于次优算法性能减少了约10%。此外,其他指标产生的结果也得到了显著的改善。结合视觉效果、残差图像和性能指标,证明本文提出的方法具有良好的性能,既能增强空间信息又能保持光谱信息。
图3
表1 GeoEye数据集上的融合结果质量评价指标
Tab.1
算法 | 性能指标 | ||||||
---|---|---|---|---|---|---|---|
PSNR↑①/dB | CC ↑ | UIQI ↑ | ERGAS ↓ | SAM ↓ | RASE ↓ | RMSE ↓ | |
HPF | 38.634 7 | 0.954 1 | 0.953 4 | 1.214 9 | 0.018 8 | 4.890 9 | 3.434 8 |
DGIF | 40.735 7 | 0.960 3 | 0.959 3 | 1.049 2 | 0.030 6 | 4.980 0 | 3.497 3 |
GF | 42.096 4 | 0.976 7 | 0.976 3 | 0.785 6 | 0.018 3 | 3.543 6 | 2.488 6 |
STEM | 40.906 9 | 0.968 4 | 0.965 7 | 1.047 0 | 0.025 9 | 4.883 8 | 3.429 7 |
PNNet | 42.907 1 | 0.981 8 | 0.981 3 | 0.757 7 | 0.018 0 | 3.120 5 | 2.191 4 |
本文算法 | 43.848 2 | 0.984 9 | 0.984 3 | 0.684 2 | 0.017 0 | 2.868 1 | 2.014 2 |
①↑表示值越高越好,↓表示值越低越好。下同。
3.3.2 QuickBird数据集
图4
表2 QuickBird数据集上的融合结果质量评价指标
Tab.2
算法 | 性能指标 | ||||||
---|---|---|---|---|---|---|---|
PSNR↑/dB | CC ↑ | UIQI ↑ | ERGAS ↓ | SAM ↓ | RASE ↓ | RMSE ↓ | |
HPF | 25.586 4 | 0.795 9 | 0.793 9 | 6.994 3 | 0.111 7 | 26.044 9 | 14.517 1 |
DGIF | 26.588 3 | 0.832 0 | 0.825 4 | 6.145 2 | 0.111 3 | 23.081 5 | 12.865 3 |
GF | 26.603 2 | 0.826 9 | 0.823 6 | 6.441 5 | 0.109 9 | 23.941 7 | 13.344 8 |
STEM | 26.208 5 | 0.839 1 | 0.837 2 | 6.355 9 | 0.117 5 | 24.812 8 | 13.830 3 |
PNNet | 26.181 1 | 0.860 0 | 0.850 2 | 5.728 1 | 0.113 3 | 25.632 7 | 14.287 3 |
本文算法 | 28.130 9 | 0.878 6 | 0.862 3 | 5.0800 | 0.097 2 | 20.538 3 | 11.447 8 |
3.3.3 Pléiades数据集
图5
表3 Pléiades数据集上的融合结果质量评价指标
Tab.3
算法 | 性能指标 | ||||||
---|---|---|---|---|---|---|---|
PSNR↑/dB | CC ↑ | UIQI ↑ | ERGAS ↓ | SAM ↓ | RASE ↓ | RMSE ↓ | |
HPF | 24.065 9 | 0.964 0 | 0.963 3 | 2.419 9 | 0.033 9 | 11.231 8 | 22.214 3 |
DGIF | 24.727 8 | 0.964 8 | 0.964 1 | 2.240 0 | 0.054 4 | 10.991 5 | 21.739 1 |
GF | 25.186 6 | 0.962 8 | 0.961 3 | 1.845 7 | 0.023 2 | 7.795 7 | 15.418 4 |
STEM | 23.551 1 | 0.959 1 | 0.958 1 | 2.436 5 | 0.037 3 | 11.244 2 | 22.238 8 |
PNNet | 27.351 8 | 0.980 2 | 0.978 9 | 2.015 4 | 0.045 8 | 9.964 9 | 19.708 7 |
本文算法 | 29.570 4 | 0.986 0 | 0.985 9 | 1.136 5 | 0.023 5 | 4.940 7 | 9.771 8 |
3.3.4 时间复杂度
在时间复杂度上,如表4所示,HPF法耗时最短,DGIF法与GF法耗时较短,PNNet法耗时略长,STEM法与本文所提出的锐化方法耗时接近。相较于其余几种对比算法,本文算法在3种不同数据集下耗时较长,这表明本文提出的算法在计算复杂度方向需要进一步改进。
表4 不同数据集下不同算法耗时结果
Tab.4
算法 | 耗时/s | ||||
---|---|---|---|---|---|
GeoEye | QuickBird | Pléiades | |||
HPF | 0.624 1 | 0.748 4 | 0.587 3 | ||
DGIF | 2.364 2 | 4.596 3 | 2.113 6 | ||
GF | 2.012 3 | 4.218 2 | 2.423 7 | ||
STEM | 16.425 2 | 18.743 9 | 15.256 2 | ||
PNNet | 6.236 4 | 7.240 6 | 5.254 5 | ||
本文算法 | 15.215 1 | 20.484 6 | 13.728 1 |
3.4 消融实验
为了探究提出的高频信息多尺度多方向加权模块的有效性,进行了消融实验,如表5所示。采用以上3组数据集进行消融实验,实验结果均表明多尺度多方向加权模块有利于性能的提高。消融实验结果表明,在去掉多尺度多方向加权模块的情况下,所有参考指标性能均出现了很明显下降,证明本文提出的多尺度多方向加权模块的有效性,解决了当频率较高时,高频信息提取困难的问题。
表5 在3组数据集上的消融实验结果
Tab.5
数据集 | 权重模块 | PSNR↑/dB | CC↑ | RASE↓ |
---|---|---|---|---|
GeoEye | √ | 43.848 2 | 0.984 9 | 2.868 1 |
× | 43.732 8 | 0.984 5 | 2.902 9 | |
Quick Bird | √ | 28.130 9 | 0.868 6 | 20.538 3 |
× | 28.091 1 | 0.877 9 | 20.630 5 | |
Pléiades | √ | 29.570 4 | 0.986 0 | 4.940 7 |
× | 29.467 4 | 0.985 9 | 5.012 3 |
4 结论
本文提出了一种基于NSST以及多尺度多方向加权的多光谱遥感图像泛锐化方法。该方法针对NSST多尺度多方向分解的特点,提出一种适配的加权方式,提高了融合的细节信息。同时考虑到PCNN脉冲特性,采取一种根据内部活动项的融合方式。该算法解决了高频信息提取困难问题,同时更好地捕捉融合图像的区域特征。通过与现有主流全色锐化方法对比,本文提出的算法在主观和客观指标上都具有良好性能。但是存在运行时间较长、时间复杂度高的问题,所以未来研究中应着重于构建一种更加轻量化融合网络。
参考文献
多尺度特征增强的遥感图像舰船目标检测
[J].
Ship detection based on multiscale feature enhancement of remote sensing images
[J].
Combining component substitution and multiresolution analysis:A novel generalized BDSD pansharpening algorithm
[J].
A review of remote sensing image fusion methods
[J].
Review of the pansharpening methods for remote sensing images based on the idea of meta-analysis:Practical discussion and challenges
[J].
Panchromatic and multispectral image fusion for remote sensing and earth observation:Concepts,taxonomy,literaturereview,evaluation methodologies and challenges ahead
[J].
A multiscale and multidepth convolutional neural network for remote sensing imagery pan-sharpening
[J].
Pansharpening by convolutional neural networks
[J].
Target-adaptive CNN-based pansharpening
[J].
Laplacian pyramid networks:A new approach for multispectral pansharpening
[J].
MCANet:A multidimensional channel attention residual neural network for pansharpening
[J].
Attention-based and staged iterative networks for pansharpening of remote sensing images
[J].
基于特征增强和Three-stream Transformer的高光谱遥感图像全色锐化
[J/OL].
Pansharpening of hyperspectral remote sensing images based on feature enhancement and three-stream transformer
[J/OL].
A novel image fusion algorithm based on nonsubsampledshearlet transform
[J].
NSCT和PCNN 相结合的遥感图像全色锐化算法
[J].
Pansharpening algorithm of remote sensing images based on NSCT and PCNN
[J].
Pulse-coupled neural nets:Translation,rotation,scale,distortion,and intensity signal invariance for images
[J].
DOI:10.1364/AO.33.006239
PMID:20936043
[本文引用: 1]
The linking-field neural network model of Eckhorn et al. [Neural Comput. 2, 293-307 (1990)] was introduced to explain the experimentally observed synchronous activity among neural assemblies in the cat cortex induced by feature-dependent visual activity. The model produces synchronous bursts of pulses from neurons with similar activity, effectively grouping them by phase and pulse frequency. It gives a basic new function: grouping by similarity. The synchronous bursts are obtained in the limit of strong linking strengths. The linking-field model in the limit of moderate-to-weak linking characterized by few if any multiple bursts is investigated. In this limit dynamic, locally periodic traveling waves exist whose time signal encodes the geometrical structure of a two-dimensional input image. The signal can be made insensitive to translation, scale, rotation, distortion, and intensity. The waves transmit information beyond the physical interconnect distance. The model is implemented in an optical hybrid demonstration system. Results of the simulations and the optical system are presented.
The PAN and MS image pansharpening algorithm based on adaptive neural network and sparse representation in the NSST domain
[J].
基于剪切波变换和拟合优度检验的遥感图像去噪
[J].
Remote sensing image denoising based on shearlet transform and goodness of fit test
[J].
A new automatic parameter setting method of a simplified PCNN for image segmentation
[J].
DOI:10.1109/TNN.2011.2128880
PMID:21550882
[本文引用: 1]
An automatic parameter setting method of a simplified pulse coupled neural network (SPCNN) is proposed here. Our method successfully determines all the adjustable parameters in SPCNN and does not need any training and trials as required by previous methods. In order to achieve this goal, we try to derive the general formulae of dynamic threshold and internal activity of the SPCNN according to the dynamic properties of neurons, and then deduce the sub-intensity range expression of each segment based on the general formulae. Besides, we extract information from an input image, such as the standard deviation and the optimal histogram threshold of the image, and attempt to build a direct relation between the dynamic properties of neurons and the static properties of each input image. Finally, the experimental segmentation results of the gray natural images from the Berkeley Segmentation Dataset, rather than synthetic images, prove the validity and efficiency of our proposed automatic parameter setting method of SPCNN.
Enhanced tensor RPCA and its application
[J].
Hyperspectralpansharpening based on modulation of pixel spectra
[C]//
Pansharpening using a guided image filter based on dual-scale detail extraction
[J].
Pansharpening multispectral remote-sensing images with guided filter for monitoring impact of human behavior on environment
[J].
Pan-sharpening framework based on multiscale entropy level matching and its application
[J].
/
〈 |
|
〉 |
