基于几何模型的目标快速分类方法 下载: 829次
1 引言
合成孔径雷达(SAR)可以在光学遥感设备无法工作的环境下(如阴雨、大雾)得到高分辨率雷达图像。随着SAR技术的日益成熟,该技术在军、民领域得到了广泛应用,通过对SAR图像中目标的识别,可以及时获取更为丰富的陆地及海洋目标信息[1-2]。现有的SAR图像目标识别方法可分为两类:基于模板的方法和基于模型的方法。基于模板的方法是通过实测回波数据与模板库数据的匹配度进行分类,需要的模板库数据大,难以实现实时匹配。基于模型的方法以小成本生成和存储用于识别各种目标的模型库,其目标散射特性是由一组简单的散射中心模型重构而成[3-4],适用于实际中的SAR自动目标识别(ATR)。但基于模型的SAR-ATR系统在目标和环境的快速识别方面仍然面临两大难题:假设空间大导致的匹配效率受限和目标模型库构建耗时。为了缩小假设空间,Ryan等[5]和Wissinger等[6]分别提出了一种层次化识别方法,该方法在进行精确分类前先进行索引(粗分类)。在层次化识别方法中,索引过程并不需要用到所有的散射信息。而传统的散射中心逆向建模过程(利用所有的散射信息)在索引阶段会产生不必要的计算成本;其次,逆向建模过程中频繁的电磁计算使目标散射中心模型库的构建耗时较长,尽管目标模型库可以预先离线构建,但工作量仍然较大。因此,将目标散射中心模型构建过程与索引过程相结合,有利于提高整个SAR-ATR系统的效率,He等[7]提出了一种散射中心正向建模方法,可以很好地结合SAR-ATR系统中由粗到精的层次化索引阶段。
为了实现快速有效的索引和识别,本文将正向建模方法与由粗到精的层次化识别方法相结合,从复杂目标的几何模型出发,提出了一种用于索引的快速粗分类方法。首先,利用几何模型的表面光学可见信息,在线实时预测目标的轮廓区域特征(目标区域和阴影区域),同时从待识别SAR图像中准确提取出待识别目标的轮廓区域特征。然后,对目标区域和阴影区域进行线性加权,组合形成融合区域特征,在此基础之上,将预测和提取出的目标区域、阴影区域的位置进行对齐。并设计了融合相似度准则,以更好地实现目标粗分类。最后,在MSTAR数据集上验证了该方法的有效性,结果表明,相比其他分类方法[5,8],本方法只需存储目标的几何模型,所需存储空间非常小。同时,避免了离线构建目标完整特征数据库的巨大工作量,且不需要进行电磁计算,可以在线实时完成目标粗分类。
2 基于几何模型的目标分类方法
2.1 特征预测方法
根据像素的强度大小,可将一幅实测的SAR图像分割成高强度区域、中等强度区域和低强度区域。从电磁散射的角度来说,3个区域对应不同的形成机理。高强度区域(目标区域)是由目标散射形成的,低强度区域(阴影区域)是由目标对地面的遮挡产生的,中等强度区域(杂波区域)是由地面散射形成的。考虑到SAR图像中的目标区域和阴影区域是由被微波辐射到(照亮)目标表面直接或间接产生的,因此可以用被照亮的目标表面预测目标区域和阴影区域。利用SAR成像平面与目标被照亮表面的几何关系,提出了一种正向特征预测方法,以在线实时预测目标区域和阴影区域。目标区域和阴影区域的投影预测示意图如
图 1. 目标区域和阴影区域的投影预测示意图
Fig. 1. Schematic diagram of projection prediction of target region and shadow region
特征预测过程中使用的目标几何模型是由足够小的三角面元构成的网格(mesh)模型。雷达照射角度由天顶角θA和方位角φE表征,其中,θA在采集SAR图像阶段决定,φE由姿态角估计方法估算。在给定雷达照射角度下,目标几何模型中被照亮的(光学可见的)小三角面元Ei(i=1,2,…,NE)由计算机图形学技术快速识别获取,其中,NE为被照亮的小三角面元总数。被照亮的目标表面V可表示为所有小三角面元的集合
假设三角面元足够小,则每个被照亮的三角面元Ei可由其中心点的三维位置r(Ei)表征,整个被照亮的目标表面可表示为所有三角面元中心位置的集合
用三角面元的位置预测目标区域和阴影区域的步骤如下。
1) 目标区域预测:将所有三角面元的三维位置r(Ei)投影到二维SAR成像面上,得到SAR成像面上的二维位置r(Ti)
式中,T(θA,φE)为由成像原理得到的投影矩阵,T(θA,φE)的第一行为SAR图像的距离向(与雷达运动方向垂直,由雷达指向目标方向)的单位矢量,第二行为SAR图像的方位向(与雷达运动方向平行,雷达运动方向)的单位矢量,SAR成像面上的目标区域位置r(PT)可由所有小三角面元的二维投影位置构成
将所有小三角面元的投影位置r(PT)叠加到一幅与待识别SAR图像具有相同分辨率的空白图像上,将含有投影位置的图像像素点设置为1(目标区域),其余像素点设置为0(非目标区域),从而将r(PT)转化为二值目标区域图像RPTF。
2) 阴影区域预测:将所有三角面元的三维位置r(Ei)沿雷达照射方向投影到地面上,得到地面阴影区域(被遮挡的地面)的二维位置r(Gi)
式中,v(θA,φE)为SAR图像距离向的单位矢量,k为投影系数。假设地面位于目标下的X-Y平面,使r(Gi)的Z分量为0,可求得k。
式中,eZ为Z轴的单位矢量。地面阴影区域的位置r(G)可由所有小三角面元的投影位置构成
得到r(G)后,可通过与目标区域预测相同的流程获得SAR图像中的阴影区域R'PSF(二值阴影区域图像)。考虑到目标散射区域可能会覆盖掉部分阴影区域,需要将阴影区域R'PSF与目标区域RPTF中重叠的部分从阴影区域R'PSF中去掉,得到最终的阴影区域RPSF,该过程可表示为
式中,┐为逐位的逻辑非运算,∧为逐位的逻辑与运算。
对估计方位角±3°以内的姿态进行特征预测,融合相应的特征生成合成区域特征,以提高后续索引识别的鲁棒性。
2.2 相似度定义
根据散射机理可知,SAR图像中的目标区域主要由被照亮目标表面的散射产生,而阴影区域由被遮挡的地面产生,实质上也是由被照亮目标表面产生。由目标几何模型被照亮的表面预测的目标区域和阴影区域与实测SAR图像相应区域存在很好的对应性,且无需进行任何费时的电磁计算,就可以在线实时进行预测。因此,SAR图像中的目标区域和阴影区域可以作为目标分类的粗特征,可通过相似度反映两者之间的匹配程度,以判断待识别SAR图像中的目标是否为假定目标。由于预测得到的目标区域和阴影区域在图像中的位置取决于目标几何模型在设定坐标系中的位置,而从待识别SAR图像中提取的目标区域和阴影区域在图像中的位置是未知的,一般来说,两种方法得到的目标区域和阴影区域位置是不一致的,因此进行匹配前需要将两者得到的区域对齐。通过线性加权组合目标区域和阴影区域形成融合区域特征RTS
式中,RT和RS分别为二值目标区域图像和阴影区域图像(从待识别SAR图像中提取的二值目标区域图像RETF和阴影区域图像RESF或RPTF和RPSF),ωT和ωS为其对应的权重。为了更好的对齐,权重需有效反映出目标区域和阴影区域对特征对齐的贡献。由于目标区域和阴影区域是物理相关的特征,其权重可以根据先验知识确定。一般而言,相比目标区域,实测SAR图像中的阴影区域更容易受噪声、杂波等因素的影响,且目标区域的散射特性是后续识别阶段关注的重点,因此目标区域比阴影区域更为重要,应该在特征对齐中占主导作用。所以目标区域权重ωT应比阴影区域权重ωS更大,实验中设置ωT=0.7、ωS=0.3。
得到融合区域特征后,对齐预测和提取的融合区域所需要的偏移量由最大相关系数法计算得到”,对齐预测和提取的融合区域所需要的偏移量由最大相关系数法计算得到,预测和提取的融合区域特征最大相关系数XCor可表示为
式中,RE和RP分别为提取和预测的融合区域特征,mE和mP分别为RE和RP的平均值,Δx和Δy分别为方位向和距离向的偏移量。
对齐预测和提取的区域特征之后,可以直接进行匹配并对匹配结果进行相似度评价。由于预测和提取特征的对象和方法不同,即使是同一类目标,得到的特征之间也会存在一定的差异性。为了解决该问题,设计了四种相似度从不同方面评价匹配程度,并将四种相似度进行线性加权,用得到的融合相似度表征特征相似度。
1) 提取的目标区域相似度SETM。首先,将预测的目标区域与提取的目标区域对齐、重叠,并记录提取的目标区域轮廓内的不匹配像素,用于相似性评估。然后,用形态学开运算[9-10]评价未匹配像素点的分布对匹配相似度的影响。将不断扩大结构元素的形态学开运算循环施加到提取目标区域内的未匹配像素点,直到所有未匹配像素点被移除,循环结束。每次循环过程中,累加没有被移除的未匹配像素点个数,循环结束后可得到未匹配像素点的总个数NETU。不断扩大的结构元素为n×n的矩形模式,从n=2开始,此时矩形模式的结构元素可表示为
提取的目标区域相似度SETM为
式中,NET为提取的目标区域像素点总个数。
2) 提取的阴影区域相似度SESM可通过与SETM相同的计算过程得到。
3) 预测的目标区域相似度SPTM。首先,为了降低图像中的噪声水平,对实测SAR图像进行平滑处理[11],并将对齐后的预测目标区域覆盖在平滑后的SAR图像上,仅保留图像中被预测目标区域覆盖的部分。然后,采用一个虚警率(FAR)为PT3的恒虚警率(CFAR)检测器重新检测提取目标区域,并统计非目标像素点(未匹配像素点)。最后,采用与SETM相同的形态学开运算循环处理得到SPTM。
4) 预测的阴影区域相似度SPSM可通过与SPTM相同的计算过程得到。
对四种相似度进行线性加权组合,形成融合相似度SF
式中,ωETM,ωESM,ωPTM和ωPTM为对应区域相似度的权重。一般采用训练数据的方式优化这些权重[12],但获取有效可信的权重需要大量的训练数据。因此需要利用一些先验信息确定这些权重,由于实验使用的SAR图像是在低俯仰角下获取的,导致较小的模型或姿态误差也会引起较大的阴影区域匹配差异。此外,实测SAR图像中的阴影区域易受噪声、杂波等因素的影响,匹配相似度可信度较低。所以目标区域的两个相似度SETM和SPTM应比阴影区域的两个相似度SESM和SPSM更加重要、可信,即ωETM和ωPTM应比ωESM和ωPSM更大。实验中设置ωETM=ωPTM=0.35,ωESM=ωPSM=0.15。
2.3 分类方法
对一幅SAR图像进行分类,实际上是从目标模型库中找出可能与之匹配的目标。为了准确地提取目标区域和阴影区域特征,首先,采用文献[ 13]提出的结合形态学[14]操作的CFAR检测方法,从实测SAR图像中提取二值目标区域和阴影区域。然后,基于目标主导边界的姿态角估计方法[15],估计该二值目标区域可能的两个方位角。再根据特征预测方法,在不同目标几何模型的基础上,分别预测不同目标在两个方位角下的目标区域和阴影区域,计算预测出的特征与从SAR图像中提取特征的融合相似度,选取与从SAR图像中提取特征融合相似度较大的特征作为每个目标的最终融合相似度。最后,设定筛选门限,融合相似度大于筛选门限的目标类型为SAR图像的分类结果。基于融合相似度实现目标分类的过程可表示为
式中,
3 算例及结果分析
用MSTAR数据库中的实测SAR图像验证所提方法的有效性,待分类的SAR图像目标为T72坦克、BMP2坦克和BTR70装甲车三类典型地面目标,其几何模型如
图 3. 三类目标几何模型。(a) T72;(b) BMP2;(c) BTR70
Fig. 3. Geometric models of the three targets. (a) T72; (b) BMP2; (c) BTR70
表 4. 三组测试数据集的索引结果
Table 4. Index results of three groups of test data sets
|
图 4. T72坦克的SAR图像。(a)实测SAR图像;(b)平滑后的SAR图像
Fig. 4. SAR image of T72 tank. (a) Measured SAR image; (b) smoothed SAR image
表 1. T72坦克SAR图像与三类目标模型的相似度
Table 1. Similarities between the SAR image of T72 tank and three types of target modelsunit: %
|
表 3. MSTAR数据库中的三组测试数据集
Table 3. Three groups of test data sets in MSTAR database
|
表 2. BTR70装甲车SAR图像与三类目标模型的相似度
Table 2. Similarities between the SAR image of BTR70 armored vehicle and three types of target modelsunit: %
|
T72坦克在俯仰角为17°,方位角为337.8614°下的实测SAR图像如
图 5. T72坦克SAR图像在不同相似度下匹配结果。(a) SETM; (b) SESM;(c) SPTM;(d) SPSM
Fig. 5. Matching results of T72 tank SAR image under different similarities. (a) SETM; (b) SESM; (c) SPTM; (d) SPSM
该实测SAR图像与三类目标几何模型的相似度如
BTR70装甲车在俯仰角为17°,方位角为107.0068°下的实测SAR图像如
图 6. BTR70装甲车的SAR图像。(a)实测SAR图像;(b)平滑后的SAR图像
Fig. 6. SAR image of BTR70 armored vehicle. (a) Measured SAR image; (b) smoothed SAR image
图 7. BTR70装甲车SAR图像在不同相似度下匹配结果。(a) SETM; (b) SESM;(c) SPTM;(d) SPSM
Fig. 7. Matching results of BTR70 armored vehicle SAR image under different similarities. (a) SETM; (b) SESM; (c) SPTM; (d) SPSM
综上所述,利用本方法可以正确分类实测SAR图像中的目标。在层次化识别系统中,为了实现目标索引,Yi等[8]在几何模型的基础上,对FRED、T72、T80坦克和SCUD导弹发射器的SAR图像进行仿真(俯仰角为15°,方位角从0°到359°),离线建立了包含1440幅SAR图像的模型库,然后从仿真SAR图像中提取散射中心等特征用于索引过程中的粗分类。但该方法离线建立模型库的过程需要进行大量的电磁计算,非常耗时。相比该方法,本方法只需保存目标的几何模型,占据的存储空间非常小,还避免了巨大的工作量。且整个过程(特征提取、姿态角估计、特征预测以及目标索引操作)都可以在线实时完成。在个人计算机(CPU主频为3.6 GHz、内存为32 G)无任何软硬件加速的条件下,一幅实测SAR图像的整个索引过程可在几分钟内完成,对加速目标分类和识别有重要意义。
为进一步验证本方法的有效性,对MSTAR数据库中三组数据集(约800幅实测SAR图像)进行分类,数据集的目标类型、名称及SAR图像的数量如
每幅实测SAR图像均与三类假定目标模型进行匹配,并计算最终的融合相似度,实验中设置的筛选门限ST为所有融合相似度中最大值的97%。每组测试数据集索引的目标模型总数及其所占测试图像的百分比如
4 结论
提出了一种仅利用目标几何模型的光学可见信息进行特征预测的方法,并在MSTAR数据集上进行验证。实验结果表明,该方法的有效性和实时性较高。基于几何模型的复杂目标快速分类方法是一种粗分类方法,可用于由粗到精的层次化目标识别系统中。当一幅实测SAR图像与待索引的三类假定目标模型的融合相似度十分相近时,还可以索引出多个目标模型,以便后续研究中对这些存疑的目标模型进行进一步区分。
[1] 宿强, 杨景玉, 王阳萍. 基于直觉模糊C核均值聚类算法的合成孔径雷达图像变化检测[J]. 激光与光电子学进展, 2019, 56(19): 192805.
[2] 汪洪桥, 蔡艳宁, 付光远, 等. 基于图像序列的地面慢动多目标识别与跟踪[J]. 激光与光电子学进展, 2016, 53(5): 051501.
[3] Gerry M J, Potter L C, Gupta I J, et al. A parametric model for synthetic aperture radar measurements[J]. IEEE Transactions on Antennas and Propagation, 1999, 47(7): 1179-1188.
[4] 谢若晗, 何思远, 朱国强, 等. 基于目标属性散射中心模型的正向参数化建模[J]. 激光与光电子学进展, 2019, 56(12): 122901.
[5] Ryan T W, Egaas W B. SAR target indexing with hierarchical distance transform[J]. Proceedings of SPIE, 1996, 2757: 243-252.
[6] Wissinger J, Ristroph R, Diemunsch J R, et al. MSTAR's extensible search engine and model-based inferencing toolkit[J]. Proceedings of SPIE, 1999, 3721: 554-570.
[8] Yi J H, Bhanu B, Li M. Target indexing in SAR images using scattering centers and the Hausdorff distance[J]. Pattern Recognition Letters, 1996, 17(11): 1191-1198.
[9] Gonzalez RC, Woods RE. Digital Image Processing[M]. 3rd ed. Upper Saddle River: Prentice-Hall, Inc., 2007: 15- 28.
[10] Jackson J A, Brady P. Radar target classification using morphological image processing[J]. Proceedings of SPIE, 2011, 8051: 805114.
[11] Sun Y J, Liu Z P, Todorovic S, et al. Adaptive boosting for SAR automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2007, 43(1): 112-125.
[12] Ding B Y, Wen G J. A region matching approach based on 3-D scattering center model with application to SAR target recognition[J]. IEEE Sensors Journal, 2018, 18(11): 4623-4632.
[13] Ding B Y, Wen G J, Ma C H, et al. Target recognition in synthetic aperture radar images using binary morphological operations[J]. Journal of Applied Remote Sensing, 2016, 10(4): 046006.
[14] 苗启广, 郭雪, 宋建锋, 等. 基于区域预测的LiDAR点云数据形态学滤波算法[J]. 激光与光电子学进展, 2015, 52(1): 011003.
[15] 黄嘉辛, 陆军, 赵凌君. 基于主导边界Radon变换的SAR目标方位角估计方法[J]. 计算机应用, 2011, 31(9): 2473-2476.
Huang J X, Lu J, Zhao L J. Aspect estimation method for SAR target based on Radon transform of leading edge[J]. Journal of Computer Applications, 2011, 31(9): 2473-2476.
Article Outline
李冶, 张磊, 何思远, 张云华, 朱国强. 基于几何模型的目标快速分类方法[J]. 激光与光电子学进展, 2020, 57(18): 182801. Ye Li, Lei Zhang, Siyuan He, Yunhua Zhang, Guoqiang Zhu. Fast Classification Method for Targets Based on Geometric Model[J]. Laser & Optoelectronics Progress, 2020, 57(18): 182801.