扩展的多模态遥感图像累积结构特征匹配方法
1 引言
图像匹配的目标是建立多幅图像重叠区域之间的对应关系,是图像配准[1]、图像融合[2]、变化检测[3]、光束法平差[4]等各种摄影测量和遥感应用的前提。而不同传感器类型、不同成像时间或视点的遥感图像之间存在尺度、旋转、仿射和辐射等差异[5-6],给图像匹配的适应性带来了很大挑战。目前,遥感图像匹配中几何辐射差异和线性辐射差问题已基本得到有效解决。而非线性辐射差异仍然是一个棘手的问题,并引起了诸多学者的关注。
目前被广泛认可的图像匹配方法主要包括基于区域的匹配方法和基于特征的匹配方法。基于区域的匹配方法一般利用参考图像的局部强度作为模板窗口,在待匹配图像上滑动模板窗口,并计算窗口内像素的相似度,将相似度最大的位置作为最佳匹配位置[7]。对于多模态图像而言,大部分基于区域的匹配方法在强度差异显著的情况下难以获得满意的结果,因此它们通常不是多模态图像匹配的首选方法。基于特征的匹配方法性能主要依赖于两个部分:特征检测器和特征描述子[8],前者提取特征,后者在其局部邻域内用某种局部模式对该特征进行描述。最为典型的基于特征的匹配方法有scale-invariant feature transform(SIFT)[9]和speeded-up robust features(SURF)[10]等。SIFT建立高斯尺度空间,提取相邻3幅尺度图像之间的极值点,并用梯度方向直方图对极值点进行描述。SURF的最大特点是引用了Haar小波和积分图技术,以提高运行效率。学者们也提出了许多基于SIFT的改进算法:如均匀鲁棒SIFT使用一种基于熵的特征点选择方法产生均匀分布的特征[11];synthetic aperture radar(SAR)-SIFT[12]引入一种新的梯度计算方法并计算特征的方向和幅度,增强对SAR图像中斑点噪声的抵抗性,并将其用于描述子构造。上述方法的共性是在特征提取或描述中使用了梯度信息,而多模态图像之间的非线性强度变化会产生非线性梯度差异,必然导致基于梯度信息构造的描述子间存在显著差异,减弱描述子的辨识能力。
解决上述问题的方案之一是寻求一种对非线性辐射差异不敏感的特征。研究者们发现,图像的相位一致性信息可以提取多模态图像高度相似的结构特征,且几乎不受光照和对比度的影响,并将其引入遥感图像匹配领域[13-14]。由于相位一致性信息是一种与图像强度或梯度量纲无关的特征,因而近年来基于相位一致性模型的描述子也越来越受欢迎,如local histogram of phase congruency(LHOPC)[15]、radiation invariant feature transform(RIFT)[16]、histogram of absolute phase consistency gradients(HAPCG)[17]等。LHOPC通过MMPC-Lap特征检测器和自动尺度定位技术提取特征点,并基于相位一致性的幅值和DAISY-style空间排列构造特征描述符。RIFT利用相位一致性幅值的最大索引图构造循环描述子,以获得旋转不变性,其缺点是描述子可能会丢失部分空间信息且会增加特征匹配阶段的复杂度。HAPCG通过各向异性加权力矩图和绝对相位一致性方向梯度构造对数极坐标描述子。相位一致性特征图也存在一定的缺陷,如大部分特征值为零且易受孤立噪声点干扰,导致不利于特征描述或描述不够精确。为克服这个问题,谢勋伟[18]提出一种累积结构特征描述的匹配方法(CSF),通过增强图像的结构特征来提高描述子的辨识能力。
此外,多尺度神经网络[19]、VGG网络[20]、图神经网络[21]、孪生网络[22]等深度学习方法也被用于异源图像匹配领域。它们对图像匹配的特征提取、主方向计算或描述子构造等各个环节进行改进,不断提升匹配算法性能。但由于缺少应用于多模态遥感图像匹配的大规模数据集,基于深度学习的匹配方法存在泛化能力欠佳的问题。
由此,本文尝试挖掘CSF人工描述子在多模态图像匹配的潜力。由于多尺度累积的CSF图细节较为模糊,不利于特征点定位,同时未考虑特征点主方向分配误差以及特征描述匹配过程中较大差异特征分量的影响。因此,有必要在这3个方面对其进行深度挖掘,进一步提高算法的鲁棒性。实验结果表明,所提扩展策略对于提高多模态遥感图像匹配方法的综合性能具有显著效果。
2 累积结构特征匹配方法原理
2.1 奇对称Log-Gabor小波预处理
Log-Gabor滤波器属于图像纹理自动分析的滤波簇,能够产生适合于多模态图像特征统一表示的结构纹理信息[23]。2D Log-Gabor滤波器在频域对数极坐标下的定义为
式中:
通过傅里叶逆变换,可以将二维Log-Gabor变换到空间域。空间域2D Log-Gabor滤波器可表示为
式中:
奇对称Log-Gabor小波易于提取边缘结构信息,可对多模态图像进行预处理。设
式中:
2.2 累积结构特征图和方向图
应用Log-Gabor对图像进行滤波,可得到一幅复图像,利用该复图像的实部和虚部可计算幅值和相位分量,考虑噪声补偿及所有尺度和方向的滤波结果后即可计算二维相位一致性图[13]。但相位一致性图主要包含边缘和对噪声敏感的强响应角点,且相位一致性图大部分像素值接近零[16],使得相位一致性量测对特征描述不够精确,鲁棒性有待提高。针对这个问题,作者前期提出了一种累积结构特征(
式中,
同理,将多个尺度和方向上的滤波结果投影到水平和垂直方向上,累积计算可得
式中:
2.3 特征提取与描述
累积结构特征图和方向图是累积结构特征匹配方法的核心。基于此,文献[18]中的
3 累积结构特征匹配扩展策略
在累积结构特征匹配方法的基础上,从特征点提取、主方向分配和描述子构造等3个方面进行扩展,以进一步提高算法的鲁棒性。扩展后的多模态遥感图像累积结构特征匹配方法的流程图如
3.1 混合特征点提取
在多尺度多方向累积结构特征图的基础上,分析单个尺度的累积结构特征图的细节结构特征信息。单个尺度上的
式中,
不同尺度
图 2. 不同尺度 细节结构对比。(a)原始图像;(b)小尺度1 ;(c)小尺度2 ;(d)中等尺度 ;(e)大尺度 ;(f)多尺度累积
Fig. 2. Comparison of the detailed structure of with different scales. (a) Original image; (b) with small scale 1; (c) with small scale 2; (d) with middle scale; (e) with large scale; (f) with multiple scales
因此,可在小尺度1和小尺度2上提取定位精度更高的Shi-Tomasi角点[25]。原始的Shi-Tomasi角点提取算法利用原始图像梯度图构建自相关矩阵,通过自相关矩阵的最小特征图作为角点特征。以此为基本理论框架,所提改进的特征点提取包含以下步骤:
首先,利用不同尺度的
式中:
然后,计算类方向梯度图的自相关矩阵
式中:
最后,计算新的角点特征响应值
式中:
此外,在中高尺度的
由于混合特征提取方法在不同尺度上分别提取了改进后的Shi-Tomasi角点和FAST角点,可能导致特征点重叠。若出现这种情况,则优先保留低尺度
3.2 特征点主方向计算
传统方法[9,12]采用梯度方向直方图峰值方向作为特征点的主方向,而已有研究表明这种主方向分配方法极易引入主方向分配误差,当主方向估计误差大于20°时,可能会引入大量的误匹配[26]。
受利用局部梯度场进行纹理分析的启发[27],利用多尺度累积的
首先,以多尺度累积
式中:
然后,在特征点周围局部邻域
式中:
再对局部结构特征场
式中:
式中:
3.3 描述子构造与特征匹配
文献[18]借助梯度直方图的概念,构造了N×N×P维的
假设
由
式中:
4 实验及讨论
4.1 实验数据与评价指标
选择文献[29]所述的可见光-可见光(a组)、红外-可见光(b组)、map-可见光(c组)、深度图-可见光(d组)、SAR-可见光(e组)和昼-夜(f组)等6类真实多模态遥感图像进行匹配性能验证,每类包含10幅图像对,总共60对图像,部分实验数据如
图 3. 部分实验数据。(a)可见光-可见光;(b)红外-可见光;(c)map-可见光;(d)深度图-可见光;(e)SAR-可见光;(f)昼-夜
Fig. 3. Partial experimental data. (a) Optical-optical; (b) infrared-optical; (c) map-optical; (d) depth-optical; (e) SAR-optical; (f) day-night
在每对多模态图像上均通过人工刺点的方式均匀地选择一定数量的控制点,大部分的图像上控制点数目均超过20个,从而保证可利用这些控制点计算出一个仿射模型作为模型真值。在评价过程中,以仿射模型真值和匹配点坐标计算残差,若残差小于3 pixel则视为正确匹配,否则认为是粗差;若图像对的正确匹配点不足3个,则视为匹配失败,反之视为成功。将匹配正确点数(即所有匹配点中匹配正确点数目)、匹配正确率(即匹配正确点数与总匹配点数的比值)作为主要评价指标,兼顾匹配成功率(即成功匹配图像对数目与总图像对数目的比值)和运行时间,并作为次要评价指标。
所提方法延续了
4.2 对比实验细节设置
由于LHOPC、RIFT、CSF和ECSF等4种方法采用类似的描述子构造方式,为了公平比较描述子的辨识能力,采用了如下的实验设计:1)特征提取阶段,LHOPC、RIFT、ECSF均采用所提多尺度混合特征点提取方法,在前两层小尺度累积结构特征图上各提取不超过1500个Shi-Tomasi角点,在后两层中高尺度累积结构特征图上各提取不超过1000个FAST角点,而CSF则直接在多尺度多方向累积结构特征图提取不超过5000个FAST角点;2)LHOPC描述子采用与CSF相同的空间格网结构,且与后者的格网划分方式完全相同;3)采用相同的主方向和描述子邻域,其中,主方向邻域半径均设置为4.5 pixel;对于a组、d组、f组等3种类型的图像对,描述子邻域窗口设置为48 pixel×48 pixel,而对于b组、c组、e组等3种类型的图像对,描述子邻域窗口设置为96 pixel×96 pixel。原因是后3类图像间的结构信息不如前3类显著,增大特征点的描述半径有助于提高描述子间的相似性,从而提高多模态图像对间的匹配点数目。HAPCG方法采用文献[17]中的默认参数。所有算法的编译环境和运行环境相同,为Matlab 2017b和Inter(R)Core(TM)i7-6700HQ CPU@2.6GHz 8GB,以保证时间指标对比的相对公平。
4.3 实验结果与分析
为了定性说明几种方法匹配多模态遥感图像时的性能,对
图 4. 不同方法在图3所示图像对上的匹配效果可视化展示。(a)可见光-可见光;(b)红外-可见光;(c)map-可见光;(d)深度图-可见光;(e)SAR-可见光;(f)昼-夜
Fig. 4. Visualization of matching effects of different methods on image pairs shown in Fig. 3. (a) Optical-optical; (b) infrared-optical; (c) map-optical; (d) depth-optical; (e) SAR-optical; (f) day-night
利用上述几种方法在整个数据集上进行匹配实验,统计各方法在不同类别多模态遥感图像上的各类评价指标,以便进行定量对比分析。
各方法在整个数据集上的平均匹配正确点数目和平均匹配正确率如
表 1. 平均正确匹配点数和平均匹配正确率对比
Table 1. Comparison of average number of correct matching and ratio of correct matching
|
各方法在整个数据集上的成功匹配图像对数目和平均匹配成功率结果如
表 2. 成功匹配图像对数目和平均匹配成功率对比
Table 2. Comparison of number of success matching cases and average success ratio of matching
|
由
为了定量说明ECSF在匹配质量方面的改善效果,计算各方法在每对图像上正确匹配点的均方根误差,并计算整个数据集上均方根误差的平均值,如
表 3. 正确匹配点均方根误差平均值对比
Table 3. Comparison of mean of root mean square residuals of correct matching
|
各算法在整个数据集上的平均运行时间如
表 4. 平均运行时间对比
Table 4. Comparison of average running time
|
4.4 扩展策略效能分析
为了分析所提针对累积结构特征匹配方法3个扩展策略(策略1:混合特征点提取;策略2:局部结构特征场提取特征点主方向;策略3:描述子L1归一化及开方)的效能,按照扩展策略依次叠加的方式进行对比实验,在整个数据集上考查其平均匹配点总数目、匹配正确点数目和匹配正确率,结果如
表 5. 扩展策略效能对比实验结果
Table 5. Comparative experimental results on the effectiveness of extended strategies
|
5 结论
从特征提取、主方向分配和描述子构造等各个环节对多模态图像累积结构特征匹配方法进行扩展,提高匹配鲁棒性。考虑累积结构特征图的细节层次,在不同尺度上分别提取改进后的Shi-Tomasi和FAST角点;以特征点局部累积结构特征场的方向信息作为特征点主方向,减少梯度方向直方图等方法在主方向计算上产生的分配误差;对原始CSF描述子进行L1归一化并开方,避免在特征匹配阶段采用欧氏距离度量时过度强调少数差异较大的特征维度,从而增强描述子的辨识能力。实验结果表明,扩展的累积结构特征匹配算法显著提升了平均匹配正确点数目和匹配正确率等综合性能指标,同时提高了匹配精度,且运行效率并未明显损失,说明了扩展策略的有效性。
所提方法可用于后续卫星影像底图控制点匹配、多源遥感影像拼接等常规遥感图像处理任务。在后续研究中可考虑如何利用CSF特征图提取精度更高且重复性更好的特征点,以及研究不同场景、不同结构内容下采用多模态图像累积特征描述邻域大小的普适性。
[1] Sedaghat A, Mohammadi N. High-resolution image registration based on improved SURF detector and localized GTM[J]. International Journal of Remote Sensing, 2019, 40(7): 2576-2601.
[2] Kakooei M, Baleghi Y. Fusion of satellite, aircraft, and UAV data for automatic disaster damage assessment[J]. International Journal of Remote Sensing, 2017, 38(8/9/10): 2511-2534.
[3] Xing J, Sieber R, Caelli T. A scale-invariant change detection method for land use/cover change research[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 141: 252-264.
[4] Noh M J, Howat I M. Automatic relative RPC image model bias compensation through hierarchical image matching for improving DEM quality[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 136: 120-133.
[5] Zitová B, Flusser J. Image registration methods: a survey[J]. Image and Vision Computing, 2003, 21(11): 977-1000.
[6] 于子雯, 张宁, 潘越, 等. 基于改进的SIFT算法的异源图像匹配[J]. 激光与光电子学进展, 2022, 59(12): 121002.
Yu Z W, Zhang N, Pan Y, et al. Heterogeneous image matching based on improved SIFT algorithm[J]. Laser & Optoelectronics Progress, 2022, 59(12): 121002.
[7] Ye Y X, Shan J, Bruzzone L, et al. Robust registration of multimodal remote sensing images based on structural similarity[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(5): 2941-2958.
[8] Sedaghat A, Mohammadi N. Illumination-Robust remote sensing image matching based on oriented self-similarity[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2019, 153: 21-35.
[9] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
[10] Bay H, Ess A, Tuytelaars T, et al. Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.
[11] Sedaghat A, Mokhtarzade M, Ebadi H. Uniform robust scale-invariant feature matching for optical remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(11): 4516-4527.
[12] Dellinger F, Delon J, Gousseau Y, et al. SAR-SIFT: a SIFT-like algorithm for SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(1): 453-466.
[13] Kovesi P. Image features from phase congruency[J]. Journal of Computer Vision Research, 1999, 1(3): 1-26.
[14] Wong A, Clausi D A. ARRSI: automatic registration of remote-sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(5): 1483-1493.
[15] Ye Y X, Shan J, Hao S Y, et al. A local phase based invariant feature for remote sensing image matching[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 142: 205-221.
[16] Li J Y, Hu Q W, Ai M Y. RIFT: multi-modal image matching based on radiation-variation insensitive feature transform[J]. IEEE Transactions on Image Processing, 2020, 29: 3296-3310.
[17] 姚永祥, 张永军, 万一, 等. 顾及各向异性加权力矩与绝对相位方向的异源影像匹配[J]. 武汉大学学报(信息科学版), 2021, 46(11): 1727-1736.
Yao Y X, Zhang Y J, Wan Y, et al. Heterologous images matching considering anisotropic weighted moment and absolute phase orientation[J]. Geomatics and Information Science of Wuhan University, 2021, 46(11): 1727-1736.
[18] 谢勋伟. 累积结构特征描述的多模态遥感影像匹配[J]. 电讯技术, 2022, 62(12): 1780-1785.
Xie X W. Multi-modal remote sensing image matching based on cumulative structural feature description[J]. Telecommunication Engineering, 2022, 62(12): 1780-1785.
[19] Haskins G, Kruger U, Yan P K. Deep learning in medical image registration: a survey[J]. Machine Vision and Applications, 2020, 31(1): 8.
[20] EfeU, InceK G, Aydin AlatanA. DFM: a performance baseline for deep feature matching[C]∥2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), June 19-25, 2021, Nashville, TN, USA. New York: IEEE Press, 2021: 4279-4288.
[21] 刘磊, 李元祥, 倪润生, 等. 基于卷积与图神经网络的合成孔径雷达与可见光图像配准[J]. 光学学报, 2022, 42(24): 2410002.
[22] 邹融平, 朱斌, 王晨阳, 等. 基于残差伪孪生卷积互相关网络的异源遥感图像匹配算法[J]. 激光与光电子学进展, 2022, 59(12): 1228002.
[23] Fischer S, Šroubek F, Perrinet L, et al. Self-invertible 2D log-Gabor wavelets[J]. International Journal of Computer Vision, 2007, 75(2): 231-246.
[24] Rosten E, Porter R, Drummond T. Faster and better: a machine learning approach to corner detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(1): 105-119.
[25] ShiJ B, Tomasi. Good features to track[C]∥1994 Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, June 21-23, 1994, Seattle, WA, USA. New York: IEEE Press, 2002: 593-600.
[26] Fan B, Wu F C, Hu Z Y. Rotationally invariant descriptors using intensity order pooling[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(10): 2031-2045.
[27] Qian J J, Yang J, Gao G W. Discriminative histograms of local dominant orientation (D-HLDO) for biometric image feature extraction[J]. Pattern Recognition, 2013, 46(10): 2724-2739.
[28] Bellavia F, Colombo C. RootsGLOH2: embedding RootSIFT‘square rooting’in sGLOH2[J]. IET Computer Vision, 2020, 14(4): 138-143.
[29] Yao Y X, Zhang Y J, Wan Y, et al. Multi-modal remote sensing image matching considering co-occurrence filter[J]. IEEE Transactions on Image Processing, 2022, 31: 2584-2597.
Article Outline
谢勋伟. 扩展的多模态遥感图像累积结构特征匹配方法[J]. 激光与光电子学进展, 2024, 61(4): 0428002. Xunwei Xie. Extended Cumulative Structural Feature Matching Method for Multimodal Remote Sensing Images[J]. Laser & Optoelectronics Progress, 2024, 61(4): 0428002.