基于特征点与边界信息的全自动多模态遥感图像配准方法
宋智礼
上海应用技术学院,上海 201418

作者简介: 宋智礼(1974-),男,博士,讲师,主要研究遥感图像配准方法等。Email:zlsong@fudan.edu.cn

摘要

多模态遥感图像在光谱成分上的巨大差异,导致点特征检测与匹配算法在该类图像配准中的正确匹配率非常低。为了提高尺度不变特征变换和加速鲁棒性特征算法在图像配准时的可靠性和鲁棒性,提出了一种多模态遥感图像配准的新方法。该方法既能利用复杂轮廓中蕴含的几何变换信息弥补点特征在多模态图像配准中的缺点,又能利用点特征所蕴含正确匹配区域的启发性信息克服边界匹配算法的不足。结果表明: 该方法能够在完全无人参与的情况下,全自动地实现多模态遥感图像的配准,并且具有较高的稳健性和可信度。

关键词: 多模态遥感图像; 图像配准; 特征点检测与匹配算法; 曲线匹配算法
中图分类号:TP751.1 文献标志码:A 文章编号:1001-070X(2014)03-0048-07 doi: 10.6046/gtzyyg.2014.03.08
Automatic approach based on point and curve features for multimodal remote sensing image registration
SONG Zhili
Shanghai Institute of Technology, Shanghai 201418, China
Abstract

Due to the significant spectral difference in multimodal image registration, the rate of correctly matched feature-points calculated with point-feature detecting and matching algorithms, such as speed up Robust features,SURF, is quite low in some difficult cases. In order to solve this issue, this paper proposes a novel image registration approach with the help of point and curve features. It adopts the location information indexed by the correct matching pair of feature-points and transformation information determined by the pair of correct matching curves simultaneously. Also, the feasibility and advantages of this algorithm were all confirmed by the experiments in this paper. The results show that this method can achieve automatically the registration of the multi-modal remote sensing images in the completely unattended case and align some kinds of remote sensing images automatically. In addition, it is more robust and reliable.

Keyword: multimodal remote sensing images; image registration; point-feature detecting and matching algorithm; curve-feature matching algorithm
0 引言

图像配准在很多领域具有重要的应用价值[1, 2], 特别是在多源图像处理中[3, 4]。它是将不同时间、不同传感器(成像设备)或不同条件下(天候、照度、摄像位置和角度等)获取的2幅或多幅图像进行匹配和叠加的过程, 其主要任务是找到待配准图像间最优的几何变换, 从而使得变换后的图像相对于一种相似度量函数具有最大相似性。

根据不同的分类标准, 图像配准算法可以分为很多种类, 如根据图像配准所利用的信息类型, 可将图像配准算法分为基于灰度信息[5, 6]和基于特征[7, 8, 9]的图像配准算法。这2类图像配准方法的主要区别为: 前者主要是利用一种相似度量函数来寻找2幅图像之间匹配的灰度模式信息; 而后者主要利用待配准图像当中共有的特征信息(包括点、线、区域等等)进行匹配, 相对于前者它还具有很多优点。各种各样基于特征的图像配准方法, 虽然在使用特征和实现方法上有很大差别, 但每种方法都包含4个步骤[10]: ①特征检测, 选定一种特征检测算法, 分别从基准图像与浮动图像中检测出2组特征; ②特征匹配, 选定用于衡量特征匹配程度的相似度量函数, 计算出2组特征之间的特征匹配队列; ③参数估计, 选定参数估计算法, 根据特征匹配队列, 计算几何变换模型的参变量; ④图像配准, 选定重采样算法, 依据估算出的几何变换参数, 将浮动图像映射到基准图像的坐标系, 完成图像的配准操作。

完全无人参与的全自动图像配准技术是图像配准研究的目标[11, 12], 在自动配准图像存在较大几何变形的情况下, 特征匹配是常用算法, 包括点特征匹配算法、边界特征匹配算法及区域特征匹配算法等。其中, 点特征匹配算法比较成熟且被广泛使用, 包括尺度不变特征变换(scale-invariant transform, SIFT)[13]和加速鲁棒性特征(speed up robust features, SURF)[14]算法。SIFT和SURF常受制于多模态图像之间灰度上的巨大差异[15, 16], 从而使点特征的正确匹配率非常低, 影响了算法的稳定性。针对上述情况, 本文综合利用图像中轮廓蕴含的几何变换信息, 提出一种即使在点特征正确匹配率非常低的情况下也可稳定运行的全自动图像配准算法。该算法将点特征与轮廓特征有机结合起来, 有效克服了它们各自的缺点, 从而实现了适用于多模态遥感图像的、完全无人参与的全自动图像配准算法。经实验证明, 本文提出的算法适用于多模态遥感图像配准, 且具有更高的稳健性和可信度。

1 原理方法
1.1 数学模型

图1所示, (pr, ps)是一对相互匹配的特征点对; Lr是特征点pr附近的一条轮廓线; Ls是特征点ps附近的一条轮廓线。

前提: 任何一对匹配的特征点对(pr, ps)及其附近的一对匹配曲线(Lr, Ls)。

结论: 可以估算出特征点对(pr, ps)周围的局部几何变换参数; 依据本文提出的判断准则, 可以判断特征点对(pr, ps)匹配的正确性。

图1 匹配特征点与轮廓线Fig.1 A pair of matching feature-points and the corresponding contours

1.2 曲线的三角形面积表示

对于一个顶点分别为pb(xb, yb), pm(xm, ym)与pe(xe, ye)的三角形, 其广义面积(triangle area, TAR)定义为

TAR(pb, pm, pe)= 12xb yb 1xm ym 1xe ye 1, (1)

它是仿射变换的一个相对不变量[17]

1.3 几何变换参数的估算

计算曲线TAR签名的示意图(图2)中, p r1i, p r2i分别为线段 pmrpti¯的定比分点, 其定比分别为λ 1λ 2; p t1i, p t2i分别为直线prp r1iprp r2i与曲线Lr的交点; p s1i, p s2i为线段 pmskpti¯的定比分点, 其定比分别为λ 1λ 2; p t1i, p t2i分别为直线psp s1ipsp s2i与曲线Ls的交点。

图2 计算曲线相对于特征点的TAR签名的示意图Fig.2 Schematic for calculating TAR representation of curve with respect to a feature-point

算法的具体步骤如下:

1)点pmr为边Lr上的各点p到点pr的欧氏距离最近的点(图2(a)), 即

pmr= argminpLr{dL2(pr, p)} , (2)

式中dL2为欧氏距离。同样计算边Ls上的各点p到点ps的欧氏距离最近的点(图2(b)), 即

pms= argminpLs{dL2(ps, p)} 。 (3)

2)按照

SL= SLi=TAR(pmr, pt1i, pt2i)TAR(pt1i, pt2i, pti)0ilct(4)

计算曲线Lr相对于点prTAR签名SL(图2(a))。式中: lct为曲线Lr上点的个数; pti为曲线Lr上第i个点。

3)给定阈值l0, 计算点集pmsG, 即

pmsG={p|pLs, pmsptl0} 。 (5)

4)计算曲线Ls相对ps和点集pmsGTAR签名集 StarG, 即

StarG={ Stark|k=1, 2, …, n} , (6)

式中: n为点集pmsG中点的个数; 对于每一点pmskpmsG, 相对点pspmsk, 按照

Stark= Ssi=TAR(pmsk, pt1i, pt2i)TAR(pt1i, pt2i, pti)0irct(7)

计算曲线Ls相对点pspmskTAR签名 Stark(图2(b))。式中: rct为曲线Ls上点的个数; Ssi是曲线Ls上第i个点pti对应的TAR(pmsk, p t1i, p t2i)与TAR(p t1i, p t2i, pti)的比值。

5)计算曲线LrTAR签名曲线的极值点。

6)计算曲线LsTAR签名集的所有极值点。

7)根据这些极值点集之间的对应关系, 计算出曲线LrLs几何变换模型的参变量的候选值集。

1.4 特征点对匹配正确性的判断标准

给定相互匹配的特征点对(fr, fs)及其对应的2条相互匹配的轮廓曲线(Er, Es), 如图3所示。

图3 正确匹配的特征点及其对应的曲线轮廓Fig.3 A pair of matched feature points and a pair of matched contours

图3中, Er={ pEri|i=1, 2, …, n}标记位于轮廓曲线Er上的点集, Es={ pEsj|j=1, 2, …, m}标记位于轮廓曲线Es上的点集。根据

ImR[i][j]=TAR(pEri, fr, pErj)ImS[i][j]=TAR(pEsi, fs, pEsj)(8)

分别计算曲线Lr相对点fr与曲线Ls相对点fsTAR签名, 式中: pEri, pErj分别为轮廓曲线Er上的第i与第j个点; pEsi, pEsj分别为轮廓曲线Es上的第i与第j个点。

图4(a)是曲线Er相对点frTAR签名三维示意图, 图4(b)是曲线Es相对点fsTAR签名三维示意图, 它们分别看作为广义的图像ImRImS

图4 曲线相对一点的TAR签名图像的三维示意图Fig.4 3D schematic of curves’ TAR representation with respect to a feature-point

图4中, i, j在图像ImR(或ImS)中分别是行与列的坐标, 也是位于轮廓Er(或Es)上点的下标。对于图像ImR上的点(i, j), 同时对应基准图像中由pr, pEripErj构成的三角形; 对于图像ImS也同样如此。由图4可以看出, 依据它们的TAR签名, 能构造一个用于判断匹配正确性的标准。

本文提出的用于评价一对匹配曲线吻合程度的标准能准确地判断对应特征点对匹配的正确性。具体为: 给定几何变换ψ Ψ , 其反变换可记为ψ -1, 其中Ψ 是根据匹配曲线计算得到的几何变换模型参变量的候选值集。对任一点prEr, 便有满足条件

ps* (pr)= argminPsEs{dL2[ψ (pr), ps]}(9)

的一点与其对应。式中: ps* 标识prEs上的对应点, 与dL2为2点的欧氏距离; τ 为从图像ImR到图像ImS的映射。同样, 对于反变换ψ -1, 也有从图像ImS到图像ImR的映射τ -1与之对应。如果

R={ImR[i][j]|0≤ i, jn} , (10)

S={ImS[i][j]|0≤ i, jm} , (11)

式中: p(vr)与p( vrτ)分别为Rτ (R)的概率分布密度, p(vr, vrτ)为它们的联合分布的概率密度; p(vs)与p( vsτ-1)分别为Sτ -1(S)的概率分布密度, p(vs, vsτ-1)为它们的联合分布的概率密度。那么用于衡量这对曲线相对frfs的匹配程度的量C定义为

C(fr, fs, Er, Es, ψ )= 2I(R, S)H(R)+H(S), (12)

C(fs, fr, Es, Er, ψ -1)= 2I(S, R)H(S)+H(R)。 (13)

式中: H(R)与H(S)可以根据

H(Z)=- zZp(z)lb p(z)(14)

计算, 其中Z=R, S; I(R, S)和I(S, R)的定义分别为

I(R, S)= vrRvrτSp(vr, vrτ)lb p(vr, vrτ)p(vr)p(vrτ), (15)

I(S, R)= vsSvsτ-1Rp(vs, vsτ-1)lb p(vs, vsτ-1)p(vs)p(vsτ-1)。(16)

对于匹配特征点对(fr, fs)及其对应的轮廓曲线(Er, Es), 给定阈值ξ , 如果有几何变换ψ 满足条件

C(fr, fs, Er, Es, ψ)> ξC(fs, fr, Es, Er, ψ-1)> ξ, (17)

则可以断定该特征点对为正确匹配, 该几何变换能够很好地近似它们附近区域内的几何变换。

2 算法的实现

本文提出的图像配准方法具体实现过程如下:

1)输入基准图像(图5(a))和浮动图像(待配准图像, 图5(b))。

图5 待配准图像Fig.5 Images to be registered

2)利用图像分割和边界提取算法, 分别从基准图像和浮动图像中提取边界集合(图6)。分别将基准图像边界上的点集和浮动图像边界上的点集记为 PERPES

图6 提取的边界和轮廓Fig.6 Extracted boundary and contours

3)利用特征点检测和匹配算法, 从图5(a)(b)中检测特征点集, 分别记为f PrGf PsG; 给定欧氏距离阈值drds, 分别求出满足式(18)(19)条件的特征点集C PrGC PsG(图7), 即

C PrG={fr| minpPER[dL2(fr, p)]≤ dr; frf PrG} , (18)

C PsG={fs| minpPES[dL2(fs, p)]≤ ds; fsf PsG} , (19)

式中: frf PrG中满足条件 minpPER[dL2(fr, p)]≤ dr的特征点; fsf PsG中满足条件 minpPES[dL2(fs, p)]≤ ds的特征点。

图7 提取的轮廓和特征点Fig.7 Extracted contours and the feature points

4)分别计算检测到的特征点集C PrGC PsG中特征点的描述子, 利用得到的特征点描述子计算它们之间的匹配关系, 并根据它们的相似程度由大到小进行排序。

5)对排在队列前面的每一对匹配特征点, 计算匹配特征点对及其对应轮廓决定的几何变换模型参变量的候选值集。

6)利用判断标准, 判断这对特征点对匹配的正确性, 直至找到一对正确匹配的特征点及正确的几何变换。

7)根据步骤6计算得到的粗糙几何变换参数值作为启发信息, 重新检测并计算相应的特征点对, 并用迭代方法计算出密集的、正确匹配的特征点对, 结果如图8所示。

图8 密集的正确匹配特征点对Fig.8 Clusters of dense correct matching feature points

8)利用选定的相似度量函数进行基准图像和浮动图像间的精配准。

9)根据精配准得到的几何变换参数, 对2景图像中的1景图像进行重采样, 并映射到另一图像的坐标空间, 完成图像配准, 其配准结果如图9所示。

图9 配准后的镶嵌图像Fig.9 Mosaic image after registration

3 实验与分析
3.1 实验数据

本实验所用遥感图像数据分别如图5图10所示, 选自USGS Project和NASA/JPL的遥感图像, 其图像大小、经纬度、空间分辨率以及成像设备的详细信息见表1

图10 实验所用测试图片集Fig.10 Test images used in this experiment

表1 测试图片集详细信息 Tab.1 Details of the test images
3.2 实验目的

验证本文提出的方法在多模态遥感图像配准中, 综合利用特征点与轮廓信息后, 对特征点检测和匹配算法性能上有所改进。

在利用特征点匹配方法计算几何变换参变量值的过程中, 要将匹配特征点对按照它们的相似程度, 从大到小进行排列。由于排在队列前面特征点对的正确匹配率决定着估计几何变换参数值的成败, 因此本文实验只统计排在队列前面500对匹配特征点对的正确匹配率C(N), 其计算公式为

C(N)=Nr/N , (20)

式中Nr为排在队列前面N对匹配特征点对中匹配正确的特征点对数。

3.3 实验结果与分析

实验统计结果如图11所示, 其中实曲线为SURF算法的正确匹配率, 虚曲线为将特征点和轮廓信息结合起来后的特征点正确匹配率。图11(a)— (e)是每一组图像的特征点正确匹配率统计结果, 图11(f)是上述5次独立统计结果的平均值。

图11 SURF与本文提出算法的正确匹配率曲线Fig.11 Curves of correct matching rate from SURF and method proposed in this paper, respectively

由以上实验可以看出, SURF算法的正确匹配率低于30%, 其主要原因是受图像多模态性的影响。而本文方法的特征点正确匹配率之所以高于80%的主要原因是综合利用了特征点和轮廓信息, 因而极大地提高了在多模态遥感图像配准中的稳定性和可靠性。

4 结论

1)本文主要研究了基于特征的图像配准方法, 在综合分析特征点检测匹配算法在多模态遥感图像配准应用中存在不足的基础上, 提出了一种能够综合利用特征点信息和图像中轮廓信息的图像配准新方法, 有效提高了图像特征点的正确匹配率。

2)本文的主要贡献在于: 利用曲线相对于一点的TAR签名实现了多模态遥感图像配准方法; 提出了一种利用轮廓信息有效地判断正确匹配特征点对的目标函数。

The authors have declared that no competing interests exist.

参考文献
[1] Chen S Y, Guo Q, Leung H, et al. A maximum likelihood approach to joint image registration and fusion[J]. IEEE Transactions on Image Processing, 2011, 20(5): 1363-1372. [本文引用:1] [JCR: 3.199]
[2] Li Y, Verma R. Multichannel image registration by feature-based information fusion[J]. IEEE Transactions on Medical Imaging, 2011, 30(3): 707-720 [本文引用:1] [JCR: 4.027]
[3] 董张玉, 赵萍, 刘殿伟, . 一种改进的小波变换融合方法及其效果评价[J]. 国土资源遥感, 2012, 24(3): 44-49.
Dong Z Y, Zhao P, Liu D W, et al. An improved wavelet transformation image fusion method and evaluation of its fusion result[J]. Remote Sensing for Land and Resources, 2012, 24(3): 44-49. [本文引用:1]
[4] 任金华, 吴绍华, 周生路, . 城市不透水面遥感研究进展[J]. 国土资源遥感, 2012, 24(4): 8-15.
Ren J H, Wu S H, Zhou S L, et al. Advances in remote sensing research on urban impervious surface[J]. Remote Sensing for Land and Resources, 2012, 24(4): 8-15. [本文引用:1]
[5] 周海芳, 赵进. 基于GPU的遥感图像配准并行程序设计与存储优化[J]. 计算机研究与发展, 2012, 49(Z1): 281-286.
Zhou H F, Zhao J. Parallel programming design and storage optimization of remote sensing image registration based on GPU[J]. Journal of Computer Research and Development, 2012, 49(Zl): 281-286. [本文引用:1]
[6] 韩雨, 王卫卫, 冯象初. 基于迭代重加权的非刚性图像配准[J]. 自动化学报, 2011, 37(9): 1059-1066.
Han Y, Wang W W, Feng X C. Iteratively reweighted method based nonrigid image registration[J]. Acta Automatica Sinica, 2011, 37(9): 1059-1066. [本文引用:1] [CJCR: 0.572]
[7] 支力佳, 张少敏, 赵大哲, . 融合多种特征点信息的最小生成树医学图像配准[J]. 计算机研究与发展, 2011, 48(3): 501-507.
Zhi L J, Zhang S M, Zhao D Z, et al. Minimum spanning tree fusing multi-feature point information for medical image registration[J]. Journal of Computer Research and Development, 2011, 48(3): 501-507. [本文引用:1]
[8] 肖明, 胡天江, 潘亮, . 一种基于点特征的异源SAR图像适配性分析方法[J]. 自动化学报, 2012, 38(12): 1958-1967.
Xiao M, Hu T J, Pan L, et al. A point-feature method for multi-source SAR image matching suitability analysis[J]. Acta Automatica Sinica, 2012, 38(12): 1958-1967. [本文引用:1] [CJCR: 0.572]
[9] 李映, 崔杨杨, 韩晓宇. 基于线特征和控制点的可见光和SAR图像配准[J]. 自动化学报, 2012, 38(12): 1968-1974.
Li Y, Cui Y Y, Han X Y. Optical image and SAR image registration based on linear features and control points[J]. Acta Automatica Sinica, 2012, 38(12): 1968-1974. [本文引用:1] [CJCR: 0.572]
[10] Wong A, Clausi D A. Automatic registration of remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(5): 1483-1493. [本文引用:1] [JCR: 3.467]
[11] 杨德贺, 陈宜金, 杨溪, . 面向震害信息提取的多源遥感图像自动配准[J]. 国土资源遥感, 2013, 25(3): 56-60.
Yang D H, Chen Y J, Yang X, et al. Automatic registration of multi-source images for extraction of earthquake damage information[J]. Remote Sensing for Land and Resources, 2013, 25(3): 56-60. [本文引用:1]
[12] 李慧, 蔺启忠, 刘庆杰. 基于FAST和SURF的遥感图像自动配准方法[J]. 国土资源遥感, 2012(2): 28-33.
Li H, Lin Q Z, Liu Q J. An automatic registration method of remote sensing imagery based on FAST corner and SURF descriptor[J]. Remote Sensing for Land and Resources, 2012(2): 28-33. [本文引用:1]
[13] Lowe D G. Object recognition from local scale-invariant features[C]//The Proceedings of the Seventh IEEE International Conference on Computer Vision. Kerkyra: IEEE, 1999, 2: 1150-1157. [本文引用:1]
[14] Bay H, Ess A, Tuytelaars T, et al. Speeded-up robust features(SURF)[J]. Computer Vision and Image Understand ing, 2008, 110(3): 346-359. [本文引用:1] [JCR: 1.232]
[15] Keller Y, Averbuch A. Multisensor image registration via implicit similarity[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(5): 794-801. [本文引用:1] [JCR: 4.795]
[16] Chen J, Tian J, Lee N, et al. A partial intensity invariant feature descriptor for multimodal retinal image registration[J]. IEEE Transactions on Biomedical Engineering, 2010, 57(7): 1707-1718. [本文引用:1] [JCR: 2.348]
[17] Alajlan N, Rube I E, Kamel M S, et al. Shape retrieval using triangle-area representation and dynamic space warping[J]. Pattern Recognition, 2007, 40(7): 1911-1920. [本文引用:1] [JCR: 2.632]