一种参数化影像多目标检索的相似度评估模型
曾志1, 周永福2, 杜震洪3, 刘仁义3
1.惠州学院计算机科学系,惠州 516007
2.河源职业技术学院电子与信息工程学院,河源 517000
3.浙江大学地理信息科学研究所,杭州 310028

第一作者简介:曾志(1971-),男,博士,高级工程师,主要从事网格计算、云计算与新一代GIS应用等研究。Email: zengzhi@zju.edu.cn

摘要

在基于影像内容的图像检索中,检索目标的特征选取与相似度计算是当前研究的热点问题。面向对象的图像处理方法有利于描述对象及对象间的空间关系,因此,在影像多维特征描述的基础上,提出了一种参数化影像多目标检索的相似度评估模型。该模型既考虑了影像目标间的空间关系,又顾及了影像目标局部特征间的相似度。首先,借鉴动态图像专家组-7(moving picture experts group,MPEG7)基于内容的图像层次化描述模式的层次分析法(analytic hierarchy process,AHP)描述影像内容的多维特征,并采用已有的方法分别计算各特征值;然后,根据用户偏好设置各特征的权重系数,计算检索目标的整体相似度。该模型可定性地评价多目标检索的效果,为对影像数据库进行多目标检索提供参考与借鉴。通过实验发现,影像的目标检索不仅与相似度计算方法有关,而且与影像本身的内容复杂度有关。

关键词: 遥感影像; 多目标检索; 相似度评估模型
中图分类号:TP 751.1; TP 391 文献标志码:A 文章编号:1001-070X(2015)04-0008-06 doi: 10.6046/gtzyyg.2015.04.02
A parameterized evaluation model of similarity on multi-target retrieval for remote sensing image
ZENG Zhi1, ZHOU Yongfu2, DU Zhenhong3, LIU Renyi3
1. Department of Computer Science, Huizhou University, Huizhou 516007, China
2. Electronic and Information Engineering Institute, Heyuan Polytechnic, Heyuan 517000, China
3. Institute of GIS, Zhejiang University, Hangzhou 310028, China
Abstract

In content-based image retrieval (CBIR), the feature selection of target retrieval and similarity computing is a hot issue of current research. As the object-oriented image processing methods are conducive to describing the spatial relationships between objects, the authors proposed an parameterized evaluation model of similarity for multi-target retrieval on the basis of an analysis of multi-feature descriptor. This model not only takes into account the global spatial relationship between image objects but also considers the local features of image targets. The model organizes the multi-dimensional features for an image using the analytic hierarchy process (AHP)method under moving picture expert group (MPEG7)standard, then the eigenvalues are calculated using existing methods, and finally the weighting coefficients are set for calculating the overall similarity on the basis of user preferences so as to evaluate the effect of multi-target retrieval. Thus it can provide a powerful reference and experience for multi-target retrieval in an image database. The experimental results show that target retrieval is not only related to the method of similarity calculation but also related to the complexity of the image itself.

Keyword: remote sensing image; multi-target retrieval; accuracy evaluation model
0 引言

近年来, 我国遥感技术在空-天-地一体化应用领域取得了长足的进步, 然而在信息提取与目标识别领域, 通过有限的专家进行目视解译远不能满足对海量数据的及时识别和处理, 同时也难以对信息提取与目标识别的精度做出准确的定量分析, 致使遥感技术的应用受到一定的限制。为更好地实现影像查询的高效率与匹配的高精度, 目前已经提出了一系列相似度评估模型, 有通过语义处理的场景匹配模型[1], 也有关注各匹配目标固有特征的相似度匹配模型[2, 3]。有关分析表明, 传统的图像目标识别与信息提取精度的计算方法相对单一[4], 缺乏对目标识别与信息提取过程的考虑。而面向对象的遥感图像处理方法则是一种融合了图像的光谱特征、几何信息和结构信息等的综合处理方法; 这种方法使用对象作为处理的最小单元, 通过提取对象的多维特征, 建立对象与对象和对象与图像之间的空间拓扑与逻辑关系, 并从局部和全局2个层面对图像目标进行分析乃至信息提取, 是目前研究人员较普遍应用的影像处理方法[5, 6, 7]

考虑到像元级的影像处理方法缺乏对图像的空间特征和对象的拓扑关系的考量, 尤其是忽视了高分辨率遥感影像中丰富的地物与空间信息(如地物的光谱值、形状、纹理、层次和专题属性乃至地物间的空间拓扑关系等), 给图像处理的定量分析带来了一定的困难。鉴于此, 本文假定在图像预处理均已完成、且每景影像按一定的描述方式已组织入库的情况下, 采用当前较为普遍的面向对象的图像处理方法, 依据用户偏好(即关注点的不同), 针对影像固有的特征, 探讨一种参数化影像多目标信息检索的, 既考虑影像目标全局的空间关系、又顾及影像目标局部特征的相似度评估模型, 为定量解决影像提取精度而进行多目标提取提供依据。

1 参数化影像多目标检索的相似度评估模型

当前, 面向海量影像库的多目标提取方法普遍采用基于对象的方法, 其最终提取精度评估方法大多以查全率与查准率指标来衡量。由于对象方法在目标提取时相似度计算的侧重点不同, 尤其是多目标提取不但与目标固有的多维特征有关, 而且还与目标间的空间拓扑关系相关, 因此在相似度评估时, 既要考虑影像目标全局的空间关系, 又要顾及影像目标的局部特征。

1.1 影像多目标检索的过程设计

多目标检索是图像基于内容检索的扩充, 它是建立在多个目标对象与空间关系表达基础之上的应用。一般地, 用户对图像内容的检索有样例检索和草图检索2种形式, 这种以图找图、按相似度排列的关键是以计算影像多维特征的相似度值作为衡量影像目标匹配的标准。面对影像目标的颜色、形状、纹理及目标间的拓扑关系等多维特征, 依据特征模型组织导入影像库, 生成影像元数据及矢量特征库等信息; 再与检索样本的查询矢量特征进行相似度计算与匹配, 得到相关影像结果集。检索步骤如下:

1)对影像进行分类, 利用Roberts算子进行边缘检测, 获得面向对象矢量图;

2)利用矢量图对原影像进行切割;

3)求出相对左下角各对象的质心坐标;

4)依次自底向上从左向右扫描矢量图, 对多边形进行标注;

5)采用质心半径法对目标形状进行描述;

6)分别计算目标对象的颜色、形状、纹理和空间拓扑等特征值;

7)根据用户偏好, 设定各特征权重系数;

8)计算相似度距离, 获得影像结果集。

1.2 影像矢量特征描述符

为更好地快速实现多目标提取, 通常采用的方法是在影像入库时就创建影像特征矢量库, 因此特征描述符就显得非常关键。对于基于内容的影像提取, 多目标检索大多与目标对象固有的特征(包括地物的颜色、形状、纹理以及空间关系等)相关。

特征表达模型是用于提供信息表达和操作手段的形式结构, 是数据模型的一部分[8]; 因为数据模型还包括诸如经纬度坐标、分辨率、卫星类型等元数据信息。文献[9]采用动态图像专家组-7(MPEG7)基于内容的图像层次化描述模式的层次分析法(analytic hierarchy process, AHP)描述影像的多维特征, 可以用4元组描述, 由影像标识(IMageID、元数据MetaData、对象集Objs以及对象间的空间关系Rspace组成。用形式化方法表示为

FeatureIMage=(IMageID, MetaData, Objs, Rspace), (1)

式中:MeatData=(Location, Scal, IMageID); Objs={obj1, obj2, …, objn), 其中obji=(objID, objName, …, Fobj), 2≤ in, Fobj=(objID, V, EA, MA), EA为对象提取算法描述, MA为对象匹配算法描述, V={Fshape, Fcolor, Ftexture, }, Fshape=(objID, Fshape), Fcolor=[objID, Fcolor( μ̅color, σ color)], Ftexture={objID, Ftexture( μ̅k, ltexture, σk, ltexture)}, Rspace= Fshape

对1景图像中的多目标检索, 首先要从整体上考虑目标间空间结构。对多目标空间关系的描述在二维图像中本质上为面对象, 而连接各目标对象的质心可以形成空间多边形。实际上, 基于对象级的内容检索, 形状是区别对象最基本的特征。为简便起见, 空间关系仍采用单个目标对象形状特征的描述方法。当前, 形状特征的描述有参数法和几何法2类, 本文采用几何法[10]描述形状特征(如图1中的质心半径表达模型所示)。则有

Fshape=[l0, lθ, l2θ, , l, , l(k-1)θ], (2)

式中:k=⌊360° /θ 」; 0≤ ik-1; l为递时针旋转θ 角边界与轴的长度。

图1 多边形重采样质心半径表达模型Fig.1 Model of radii-center for polygon re-sampling

为了保证该方法形状的尺度不变性, 在计算从质心到每个顶点的欧氏距离时, 需要把这些值归一化。这里考虑在2个特征向量间所有可能的变换, 也就是2个形状相互间所有可能的旋转角度θ , 使距离与旋转角度θ 和起始点位置均无关。即

Fcolor=(μˉcolor, σcolor), (3)

Ftexture=(μˉ0, 0texture, σ0, 0texture, μˉ0, 1texture, σ0, 1texture, , μˉk, ltexture, σk, ltexture, , μˉK-1, L-1texture, σK-1, L-1texture}, (4)

式中: μˉσ 分别为二维Gablor第(k, l)个滤波器在(x, y)处的能量均值和均方差, 作为目标对象的纹理特征向量。

1.3 影像多目标提取评估模型

相似度距离的计算是目标匹配的必要手段。由于各特征值在目标匹配中的重要性不同, 为更好地体现用户关注点的不同, 在模型中可以设置各维特征权重系数, 用以计算每景图像的整体相似度。查询草图与影像库中各影像目标特征距离D的评估模型为

D=iLpiFi-Fi|Fi+Fi|, (5)

式中:i为特征维数; pi为特征Fi的权重系数(在此表示用户偏好的程度); FiV(V同上一节定义); Fi为对应查询目标的特征值; D为草图与影像库中各影像间2个特征向量间的距离。

需要指出的是, 由于在创建矢量特征库的过程中, 其对应的元数据信息已经标注了影像的分辨率和经纬度等信息, 因此在基于对象的图像处理过程中针对多维特征值的计算, 均尽量采用归一化处理, 以便使本文提出的评估模型不受分辨率的影响, 最终保证相似度匹配的通用性。

现选取影像的HSV颜色空间计算变换, 对影像中的每一个对象进行像元扫描(假定像元总数为n), 将各像元的颜色分量R, G, B值转换为H, S, V值, 并计算各分量的颜色均值 μˉ和颜色均方差σ , 即

μ=i=1n0.299R+0.587G+0.114B), μ̅=μ/pwph, σ=1ni=1n[Ii(x, y)-μ̅]2。 (6)

式中:Ii(x, y)为对象内像元点(x, y)的第i个颜色分量; pwph分别为影像图幅的宽度和高度值。

需要指出的是, 针对分割后目标产生的多边形, 对象间的空间形状相似度可通过对象质心半径特征、几何形状和多边形的方向性来确定。几何形状参数通常采用多边形的周长/面积比计算[11], 即

F=C2/4πS, (7)

式中:C为多边形的周长; S为多边形的面积。

首先, 形状参数在一定程度上反映了区域的紧凑性, 无量纲, 对尺度和旋转变化不敏感, 它没有一个固定的取值范围, 数值越大, 形状一般越不紧凑规整; 其次, 多边形的方向性也很重要, 依据质心半径描述符选取半径最长的边作为坐标的X轴, 保证匹配半径数目方向一致; 以所有质心半径距离的直方图作为相似度计算的参数, 检索目标与影像中目标的相似度特征(计算方法可参考文献[12])。

影像纹理特征值的计算通常采用坐标(x, y)位置的灰度值p(x, y)计算滤波的能量值, 该坐标点的能量值Ek, l(x, y)的计算公式为

Ek, l(x, y)=x, yp2(x, y)。 (8)

为使能量信息中每个目标的能量值不受图像实际尺寸的影响, 必须对Ek, l(x, y)进行归一化处理。目标对象(假定为n像元× n像元)的能量均值 μˉ和均方差σ 分别为

μˉtexturek, l=xyEk, l(x, y)/nn, (9)

σtexturek, l=xy[Ek, l(x, y)-μˉtexturek, l]2nn。 (10)

其中, 纹理特征计算的参数选择可参照文献[13]所述方法。对于多个目标在图像中的空间特征值的计算, 仍可以采用空间相似度计算

针对上述各类特征, 可以按照用户的偏好设置不同的权重参数, 对多维特征向量求和, 以构成多目标信息提取与识别的总体相似度指标。这种方式灵活性较大, 但因参数设置不同, 得到的匹配结果差异较大。为避免该问题, 应对检索的影像进行多次确认与反馈。从整体角度来看, 多目标提取首先以目标间的空间关系相似为主线提取影像; 然后针对1景图像中各个目标的具体形状、颜色、纹理等特征进行匹配。这样就避免了算法在参数设定上的随意性, 提高了匹配的稳定性。

2 多目标检索精度的评估方法

基于多目标检索算法的精度评价方法与序列的相似性评价方法有所不同。由于检索的特殊性与复杂性, 评估的依据是相似度评估模型的各维量化的特征值, 并依据用户的偏好设置权重系数。因此, 从检索效率的角度出发, 针对各特征值给定不同容差, 定量化计算出检索的归一化查全率Pnorm和归一化查准率Rnorm, 并用查全率与查准率来衡量目标检索的精度[14]。具体计算方法为

Pnorm=1-i=1R(lgranki-lgi)lg[N!(N-R)!R!], (11)

Rnorm=1-i=1R(ranki-i)(N-R)R, (12)

式中:N为影像库中影像总数; R为提取的影像数; i为提取影像的位置; ranki为提取影像的实际排行。

3 实验与分析

为了验证本文相似度评估模型的适用性, 以某市辖区100景已经做过几何纠正和辐射校正且加工为6级产品的高分遥感图像和包含2个类别1~4个目标对象的模拟场景作为测试数据集。为保证模拟场景具有代表性, 假定在基于内容的目标检索过程中, 描述影像内容的多维特征矢量库通过导入影像库生成影像元数据及特征库等信息构建已经完成, 且已保存。在此基础上, 实验从单个目标检索开始, 逐步增加对象个数, 并针对用户偏好进行特征权重系数的调整; 最终通过各特征的相似度计算实现影像的匹配, 进而对检索的影像按相似度完成排序。

多目标查询时, 本文采用了以图找图的方法。实验采用C++语言和Matlab实现草图检索和界面生成。用户可以从影像库中选取入库时已提取的目标对象构建查询目标的空间关系, 通过对检索目标在给定分辨率下的选择与定位, 形成具有目标形状、纹理与空间关系的检索草图(图2)。

图2 试验系统检索草图生成界面Fig.2 User interface of testing system for retrieval draft

针对画板生成的检索草图, 4个目标对象的空间关系基本确定, 且每一检索目标的形状、颜色和纹理特征为已知。现依据整体到局部原则, 分别计算出各目标对象的多维特征值; 然后依据用户偏好, 设定各特征的权重系数(表1)。

表1 参数化权重系数示例 Tab.1 Sample of parameterized weighting coefficients

图3所示, 依据不同容差匹配条件, 将系统检索结果按相似度距离进行排序, 以每页20景影像的布局显示其缩略图。

图3 部分检索结果示例Fig.3 Partial sample results of image retrieval

从实验结果可以看出, 本实验所涉及的多目标检索是针对影像库中不同场景进行的, 各目标的分类、分割等预处理操作均已完成。关于查询精度的评价, 一般通过查全率和查准率进行衡量。需要说明的是, 由于本实验的目标影像数量、类别与目标个数均较小, 即使N很大, 但经过N!/(N-R)!的约简运算, 实际上采用式(11)和(12)进行归一化查全率和归一化查准率的计算, 其效率仍能得到保证。查全率和查准率之间存在着相反的相互依赖关系, 即如果提高输出的查全率, 就会降低其查准率, 反之亦然。然而, 随着查找目标的增多, 目标本身及目标间空间关系的复杂度也相应增加, 导致查全率与查准率呈下降趋势。此外, 增加相似度容差值, 会使可提取的影像数量也相应增加, 同时特征向量距离D也会相应减少, 查全率与查准率则会略微增加。图4表明, 随着查找目标数的增加, 系统的平均查全/查准率总体呈现一定的下降趋势, 查全率在50%左右, 查准率在30%左右。

图4 同一影像查找不同目标数的平均查全(准)率Fig.4 Average recall(precision) for searching different number of targets in an image

图5表明, 在查找目标数一定的前提下, 相似度容差在增加1%~10%时, 查全率与查准率略显增加。经比较可知, 图5中的查全(准)率总体符合图4中查全(准)率的均值情况。

图5 同一影像不同容差查找不同目标数的归一化查全(准)率Fig.5 Normal recall(precision) with different allowance for different number of targets in an image

4 结论

1)本文从高分辨率遥感影像对象级内容检索的角度, 在影像多目标检索过程的指引下, 从影像本身固有的形状、纹理、颜色和空间特征着手, 探讨了基于对象的影像内容多维特征描述方法。

2)从多目标检索的角度提出了一种相似度评估模型, 并通过试验从查全(准)率2个定量指标验证了该模型的可行性与有效性。

3)考虑到影像之间在分辨率与地物类别复杂度、数据量等的不同, 在查找目标所耗费的时间上有较大的差异, 性能评价会有一定缺陷, 有待进一步地探讨。

此外, 为不断提高影像目标检索的效率与准确度, 多维特征的提取与相似度测度计算仍将是进一步研究的重点。

The authors have declared that no competing interests exist.

参考文献
[1] 宋腾义, 汪闽. 多要素空间场景相似性匹配模型及应用[J]. 中国图象图形学报, 2012, 17(10): 1274-1282.
Song T Y, Wang M. Multi-feature based spatial scene matching model and its application[J]. Journal of Image and Graphics, 2012, 17(10): 1274-1282. [本文引用:1]
[2] 吕金建, 文贡坚, 李德仁, . 一种新的基于空间关系的特征匹配方法[J]. 测绘学报, 2008, 37(3): 367-373, 379.
Lv J J, Wen G J, Li D R, et al. A new method based on spatial relations for feature matching[J]. Acta Geodaetica et Cartographica Sinica, 2008, 37(3): 367-373, 379. [本文引用:1]
[3] 孙显, 王宏琦, 杨志峰. 基于形状统计模型的多类目标自动识别方法[J]. 电子与信息学报, 2009, 31(11): 2626-2631.
Sun X, Wang H Q, Yang Z F. Automatic multi-categorical objects recognition using shape statistical models[J]. Journal of Electronics & Information Technology, 2009, 31(11): 2626-2631. [本文引用:1]
[4] 李苏梅, 韩国强. 感兴趣区域的确定及相似度计算方法[J]. 湖南工业大学学报, 2008, 22(4): 48-52.
Li S M, Han G Q. Methods on ROI confirmed and similarity computation[J]. Journal of Hunan University of Technology, 2008, 22(4): 48-52. [本文引用:1]
[5] Walter V. Object-based classification of remote sensing data for change detection[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2004, 58(3/4): 225-238. [本文引用:1]
[6] Drǎgut L, Blaschke T. Automated classification of land form elements using object-based image analysis[J]. Geomorphology, 2006, 81(3/4): 330-344. [本文引用:1]
[7] 薄树奎, 韩新超, 丁琳. 面向对象影像分类中分割参数的选择[J]. 武汉大学学报: 信息科学版, 2009, 34(5): 514-517.
Bo S K, Han X C, Ding L. Automatic selection of segmentation parameters for object oriented image classification[J]. Geomatics and Information Science of Wuhan University, 2009, 34(5): 514-517. [本文引用:1]
[8] Zhi Z, Du Z H, Liu R Y. An object-level feature representation model for the multi-target retrieval of remote sensing images[J]. Journal of Computing Science and Engineering, 2014, 8(2): 65-77. [本文引用:1]
[9] Manjunath B S, Philippe S, Thomas S. Introduction to MPEG-7: Multimedia Content Description Interface[M]. Wiley & Sons, 2002. [本文引用:1]
[10] Tan K L, Ooi B C, Thiang L F. Indexing shapes in image databases using the centroid-radii model[J]. Data & Knowledge Engineering, 2000, 32(3): 271-289. [本文引用:1]
[11] Foley H. A Multiple Criteria Based Approach to Performing Conflation in Geographical Information Systems[D]. New Orleans: Tulane University, 1997. [本文引用:1]
[12] Kindratenko V V. On using functions to describe the shape[J]. Journal of Mathematical Imaging and Vision, 2003, 18(3): 225-245. [本文引用:1]
[13] Grigeorescu S E, Petkov N, Kruizinga P. Comparison of texture features based on Gabor filters[J]. IEEE Transactions on Image Processing, 2002, 11(10): 1160-1167. [本文引用:1]
[14] Salton G, McGill M J. Introduction to Modern Information Retrieval[M]. New York: McGraw-Hill, 1983. [本文引用:1]