激光与光电子学进展, 2020, 57 (18): 182801, 网络出版: 2020-09-02  

基于几何模型的目标快速分类方法 下载: 829次

Fast Classification Method for Targets Based on Geometric Model
作者单位
武汉大学电子信息学院, 湖北 武汉 430072
摘要
随着合成孔径雷达(SAR)技术的发展,SAR获取的数据量迅速增加,利用SAR图像对目标进行识别时,计算量大、耗时长。为了快速、有效地识别目标,提出了一种基于几何模型的目标快速分类方法。该方法选择二值目标区域和阴影区域为特征,首先利用目标几何模型的光学可见信息进行正向特征预测。然后将实测SAR图像中提取的二值区域与预测得到的二值区域对齐,建立相关性。最后通过融合相似度准则进行判断,实现目标分类,并在MSTAR数据集上验证了该方法的高效性和有效性。由于该方法不涉及耗时的电磁计算,在减小计算量的同时,加快了目标识别速度。
Abstract
With the development of synthetic aperture radar (SAR) technology, the amount of data acquired by SAR increases rapidly. When SAR images are used to identify targets, the amount of calculation is large and time-consuming. In order to realize fast and effective recognition of targets, we propose a fast classification method of targets based on geometric model. In this method, binary target region and shadow region are selected as features. First, the forward features are predicted by using the optical visible information of the target geometry model. Then, the binary region extracted from the measured SAR images is aligned with the predicted binary region to establish the correlation. Finally, by judging the similarity criterion, the target classification is realized, and the efficiency and validity of the method are verified on MSTAR data set. Since this method does not involve time-consuming electromagnetic calculation, it can reduce the amount of calculation and accelerate the speed of target recognition.

1 引言

合成孔径雷达(SAR)可以在光学遥感设备无法工作的环境下(如阴雨、大雾)得到高分辨率雷达图像。随着SAR技术的日益成熟,该技术在军、民领域得到了广泛应用,通过对SAR图像中目标的识别,可以及时获取更为丰富的陆地及海洋目标信息[1-2]。现有的SAR图像目标识别方法可分为两类:基于模板的方法和基于模型的方法。基于模板的方法是通过实测回波数据与模板库数据的匹配度进行分类,需要的模板库数据大,难以实现实时匹配。基于模型的方法以小成本生成和存储用于识别各种目标的模型库,其目标散射特性是由一组简单的散射中心模型重构而成[3-4],适用于实际中的SAR自动目标识别(ATR)。但基于模型的SAR-ATR系统在目标和环境的快速识别方面仍然面临两大难题:假设空间大导致的匹配效率受限和目标模型库构建耗时。为了缩小假设空间,Ryan等[5]和Wissinger等[6]分别提出了一种层次化识别方法,该方法在进行精确分类前先进行索引(粗分类)。在层次化识别方法中,索引过程并不需要用到所有的散射信息。而传统的散射中心逆向建模过程(利用所有的散射信息)在索引阶段会产生不必要的计算成本;其次,逆向建模过程中频繁的电磁计算使目标散射中心模型库的构建耗时较长,尽管目标模型库可以预先离线构建,但工作量仍然较大。因此,将目标散射中心模型构建过程与索引过程相结合,有利于提高整个SAR-ATR系统的效率,He等[7]提出了一种散射中心正向建模方法,可以很好地结合SAR-ATR系统中由粗到精的层次化索引阶段。

为了实现快速有效的索引和识别,本文将正向建模方法与由粗到精的层次化识别方法相结合,从复杂目标的几何模型出发,提出了一种用于索引的快速粗分类方法。首先,利用几何模型的表面光学可见信息,在线实时预测目标的轮廓区域特征(目标区域和阴影区域),同时从待识别SAR图像中准确提取出待识别目标的轮廓区域特征。然后,对目标区域和阴影区域进行线性加权,组合形成融合区域特征,在此基础之上,将预测和提取出的目标区域、阴影区域的位置进行对齐。并设计了融合相似度准则,以更好地实现目标粗分类。最后,在MSTAR数据集上验证了该方法的有效性,结果表明,相比其他分类方法[5,8],本方法只需存储目标的几何模型,所需存储空间非常小。同时,避免了离线构建目标完整特征数据库的巨大工作量,且不需要进行电磁计算,可以在线实时完成目标粗分类。

2 基于几何模型的目标分类方法

2.1 特征预测方法

根据像素的强度大小,可将一幅实测的SAR图像分割成高强度区域、中等强度区域和低强度区域。从电磁散射的角度来说,3个区域对应不同的形成机理。高强度区域(目标区域)是由目标散射形成的,低强度区域(阴影区域)是由目标对地面的遮挡产生的,中等强度区域(杂波区域)是由地面散射形成的。考虑到SAR图像中的目标区域和阴影区域是由被微波辐射到(照亮)目标表面直接或间接产生的,因此可以用被照亮的目标表面预测目标区域和阴影区域。利用SAR成像平面与目标被照亮表面的几何关系,提出了一种正向特征预测方法,以在线实时预测目标区域和阴影区域。目标区域和阴影区域的投影预测示意图如图1所示,正向特征预测方法流程如图2所示。在给定的雷达照射角度下,目标区域可通过将被照亮的目标表面投影到SAR成像面上进行预测,阴影区域可通过将被遮挡的地面投影到SAR成像面上进行预测。

图 1. 目标区域和阴影区域的投影预测示意图

Fig. 1. Schematic diagram of projection prediction of target region and shadow region

下载图片 查看所有图片

图 2. 特征预测方法流程图

Fig. 2. Flow chart of feature prediction method

下载图片 查看所有图片

特征预测过程中使用的目标几何模型是由足够小的三角面元构成的网格(mesh)模型。雷达照射角度由天顶角θA和方位角φE表征,其中,θA在采集SAR图像阶段决定,φE由姿态角估计方法估算。在给定雷达照射角度下,目标几何模型中被照亮的(光学可见的)小三角面元Ei(i=1,2,…,NE)由计算机图形学技术快速识别获取,其中,NE为被照亮的小三角面元总数。被照亮的目标表面V可表示为所有小三角面元的集合

V={Ei,i=1,2,,NE}(1)

假设三角面元足够小,则每个被照亮的三角面元Ei可由其中心点的三维位置r(Ei)表征,整个被照亮的目标表面可表示为所有三角面元中心位置的集合

r(V)={r(Ei),i=1,2,,NE}(2)

用三角面元的位置预测目标区域和阴影区域的步骤如下。

1) 目标区域预测:将所有三角面元的三维位置r(Ei)投影到二维SAR成像面上,得到SAR成像面上的二维位置r(Ti)

r(Ti)=T(θA,φE)·r(Ei),(3)T(θA,φE)=-sinθAcosφE-sinθAsinφE-cosθA-sinφEcosφE0,(4)

式中,T(θA,φE)为由成像原理得到的投影矩阵,T(θA,φE)的第一行为SAR图像的距离向(与雷达运动方向垂直,由雷达指向目标方向)的单位矢量,第二行为SAR图像的方位向(与雷达运动方向平行,雷达运动方向)的单位矢量,SAR成像面上的目标区域位置r(PT)可由所有小三角面元的二维投影位置构成

r(PT)={r(Ti),i=1,2,,NE}(5)

将所有小三角面元的投影位置r(PT)叠加到一幅与待识别SAR图像具有相同分辨率的空白图像上,将含有投影位置的图像像素点设置为1(目标区域),其余像素点设置为0(非目标区域),从而将r(PT)转化为二值目标区域图像RPTF

2) 阴影区域预测:将所有三角面元的三维位置r(Ei)沿雷达照射方向投影到地面上,得到地面阴影区域(被遮挡的地面)的二维位置r(Gi)

r(Gi)=r(Ei)+k·v(θA,φE),(6)v(θA,φE)=[-sinθAcosφE-sinθAsinφE-cosθA],(7)

式中,v(θA,φE)为SAR图像距离向的单位矢量,k为投影系数。假设地面位于目标下的X-Y平面,使r(Gi)的Z分量为0,可求得k

eZ·r(Gi)=0,(8)

式中,eZZ轴的单位矢量。地面阴影区域的位置r(G)可由所有小三角面元的投影位置构成

r(G)={r(Gi),i=1,2,,NE}(9)

得到r(G)后,可通过与目标区域预测相同的流程获得SAR图像中的阴影区域R'PSF(二值阴影区域图像)。考虑到目标散射区域可能会覆盖掉部分阴影区域,需要将阴影区域R'PSF与目标区域RPTF中重叠的部分从阴影区域R'PSF中去掉,得到最终的阴影区域RPSF,该过程可表示为

RPSF=R'PSF(RPTF),(10)

式中,┐为逐位的逻辑非运算,∧为逐位的逻辑与运算。

对估计方位角±3°以内的姿态进行特征预测,融合相应的特征生成合成区域特征,以提高后续索引识别的鲁棒性。

2.2 相似度定义

根据散射机理可知,SAR图像中的目标区域主要由被照亮目标表面的散射产生,而阴影区域由被遮挡的地面产生,实质上也是由被照亮目标表面产生。由目标几何模型被照亮的表面预测的目标区域和阴影区域与实测SAR图像相应区域存在很好的对应性,且无需进行任何费时的电磁计算,就可以在线实时进行预测。因此,SAR图像中的目标区域和阴影区域可以作为目标分类的粗特征,可通过相似度反映两者之间的匹配程度,以判断待识别SAR图像中的目标是否为假定目标。由于预测得到的目标区域和阴影区域在图像中的位置取决于目标几何模型在设定坐标系中的位置,而从待识别SAR图像中提取的目标区域和阴影区域在图像中的位置是未知的,一般来说,两种方法得到的目标区域和阴影区域位置是不一致的,因此进行匹配前需要将两者得到的区域对齐。通过线性加权组合目标区域和阴影区域形成融合区域特征RTS

RTS=ωTRT+ωSRS,ωT+ωS=1,(11)

式中,RTRS分别为二值目标区域图像和阴影区域图像(从待识别SAR图像中提取的二值目标区域图像RETF和阴影区域图像RESFRPTFRPSF),ωTωS为其对应的权重。为了更好的对齐,权重需有效反映出目标区域和阴影区域对特征对齐的贡献。由于目标区域和阴影区域是物理相关的特征,其权重可以根据先验知识确定。一般而言,相比目标区域,实测SAR图像中的阴影区域更容易受噪声、杂波等因素的影响,且目标区域的散射特性是后续识别阶段关注的重点,因此目标区域比阴影区域更为重要,应该在特征对齐中占主导作用。所以目标区域权重ωT应比阴影区域权重ωS更大,实验中设置ωT=0.7、ωS=0.3。

得到融合区域特征后,对齐预测和提取的融合区域所需要的偏移量由最大相关系数法计算得到”,对齐预测和提取的融合区域所需要的偏移量由最大相关系数法计算得到,预测和提取的融合区域特征最大相关系数XCor可表示为

max[XCor(RE,RP)]=maxxy[RE(x,y)-mE][RP(x-Δx,y-Δy)-mP]xy[RE(x,y)-mE]2xy[RP(x-Δx,y-Δy)-mP]21/2,(12)

式中,RERP分别为提取和预测的融合区域特征,mEmP分别为RERP的平均值,Δx和Δy分别为方位向和距离向的偏移量。

对齐预测和提取的区域特征之后,可以直接进行匹配并对匹配结果进行相似度评价。由于预测和提取特征的对象和方法不同,即使是同一类目标,得到的特征之间也会存在一定的差异性。为了解决该问题,设计了四种相似度从不同方面评价匹配程度,并将四种相似度进行线性加权,用得到的融合相似度表征特征相似度。

1) 提取的目标区域相似度SETM。首先,将预测的目标区域与提取的目标区域对齐、重叠,并记录提取的目标区域轮廓内的不匹配像素,用于相似性评估。然后,用形态学开运算[9-10]评价未匹配像素点的分布对匹配相似度的影响。将不断扩大结构元素的形态学开运算循环施加到提取目标区域内的未匹配像素点,直到所有未匹配像素点被移除,循环结束。每次循环过程中,累加没有被移除的未匹配像素点个数,循环结束后可得到未匹配像素点的总个数NETU。不断扩大的结构元素为n×n的矩形模式,从n=2开始,此时矩形模式的结构元素可表示为

S=1111(13)

提取的目标区域相似度SETM

SETM=1-NETUNET,(14)

式中,NET为提取的目标区域像素点总个数。

2) 提取的阴影区域相似度SESM可通过与SETM相同的计算过程得到。

3) 预测的目标区域相似度SPTM。首先,为了降低图像中的噪声水平,对实测SAR图像进行平滑处理[11],并将对齐后的预测目标区域覆盖在平滑后的SAR图像上,仅保留图像中被预测目标区域覆盖的部分。然后,采用一个虚警率(FAR)为PT3的恒虚警率(CFAR)检测器重新检测提取目标区域,并统计非目标像素点(未匹配像素点)。最后,采用与SETM相同的形态学开运算循环处理得到SPTM

4) 预测的阴影区域相似度SPSM可通过与SPTM相同的计算过程得到。

对四种相似度进行线性加权组合,形成融合相似度SF

SF=ωETMSETM+ωESMSESM+ωPTMSPTM+ωPSMSPSM,ωETM+ωESM+ωPTM+ωPSM=1,(15)

式中,ωETM,ωESM,ωPTMωPTM为对应区域相似度的权重。一般采用训练数据的方式优化这些权重[12],但获取有效可信的权重需要大量的训练数据。因此需要利用一些先验信息确定这些权重,由于实验使用的SAR图像是在低俯仰角下获取的,导致较小的模型或姿态误差也会引起较大的阴影区域匹配差异。此外,实测SAR图像中的阴影区域易受噪声、杂波等因素的影响,匹配相似度可信度较低。所以目标区域的两个相似度SETMSPTM应比阴影区域的两个相似度SESMSPSM更加重要、可信,即ωETMωPTM应比ωESMωPSM更大。实验中设置ωETM=ωPTM=0.35,ωESM=ωPSM=0.15。

2.3 分类方法

对一幅SAR图像进行分类,实际上是从目标模型库中找出可能与之匹配的目标。为了准确地提取目标区域和阴影区域特征,首先,采用文献[ 13]提出的结合形态学[14]操作的CFAR检测方法,从实测SAR图像中提取二值目标区域和阴影区域。然后,基于目标主导边界的姿态角估计方法[15],估计该二值目标区域可能的两个方位角。再根据特征预测方法,在不同目标几何模型的基础上,分别预测不同目标在两个方位角下的目标区域和阴影区域,计算预测出的特征与从SAR图像中提取特征的融合相似度,选取与从SAR图像中提取特征融合相似度较大的特征作为每个目标的最终融合相似度。最后,设定筛选门限,融合相似度大于筛选门限的目标类型为SAR图像的分类结果。基于融合相似度实现目标分类的过程可表示为

Xindexing=Xtarget, SFl>ST, l=1,2,,CXrejection, otherwise,(16)

式中, SFl为SAR图像与第l个目标几何模型的最终融合相似度,ST为筛选门限,Xindexing为该SAR图像的分类结果,Xtarget为SAR图像中目标可能的类型,Xrejection为SAR图像中目标不可能的类型,C为目标几何模型的总数。在最终的目标识别任务中,ST可设置为所有 SFl中第二大的数值,即具有最高融合相似度的模型目标才能被判断为该SAR图像中的目标。由于粗分类(识别的初级阶段)使用的区域特征不足以有效区分相似的目标,所以这种方法不适用于层次化识别系统的索引阶段。为了确保有效的索引,筛选门限应设置的足够低。

3 算例及结果分析

用MSTAR数据库中的实测SAR图像验证所提方法的有效性,待分类的SAR图像目标为T72坦克、BMP2坦克和BTR70装甲车三类典型地面目标,其几何模型如图3所示。

图 3. 三类目标几何模型。(a) T72;(b) BMP2;(c) BTR70

Fig. 3. Geometric models of the three targets. (a) T72; (b) BMP2; (c) BTR70

下载图片 查看所有图片

表 4. 三组测试数据集的索引结果

Table 4. Index results of three groups of test data sets

Test setT72 modelBMP2 modelBTR70 model
QuantityPercentage /%QuantityPercentage /%QuantityPercentage /%
T72 (A62)29498.3278103.3445124.0134
BMP2 (SN_9563)4619.742521993.99147933.9056
BTR70 (SN_C71)4117.59669139.055822496.1373

查看所有表

图 4. T72坦克的SAR图像。(a)实测SAR图像;(b)平滑后的SAR图像

Fig. 4. SAR image of T72 tank. (a) Measured SAR image; (b) smoothed SAR image

下载图片 查看所有图片

表 1. T72坦克SAR图像与三类目标模型的相似度

Table 1. Similarities between the SAR image of T72 tank and three types of target modelsunit: %

Target modelSETMSESMSPTMSPSMSF
T7295.19100.0098.1394.3596.81
BMP262.2197.9297.0078.4482.18
BTR7071.12100.0094.6876.9884.58

查看所有表

表 3. MSTAR数据库中的三组测试数据集

Table 3. Three groups of test data sets in MSTAR database

Target typeTarget nameImage number
T72A62299
BMP2SN_9563233
BTR70SN_C71233

查看所有表

表 2. BTR70装甲车SAR图像与三类目标模型的相似度

Table 2. Similarities between the SAR image of BTR70 armored vehicle and three types of target modelsunit: %

Target modelSETMSESMSPTMSPSMSF
T72100.0086.0775.5994.8388.59
BMP296.4476.81100.00100.0095.28
BTR7095.9398.8597.4298.2997.42

查看所有表

T72坦克在俯仰角为17°,方位角为337.8614°下的实测SAR图像如图4所示,该实测SAR图像与图3中三类目标几何模型在四种相似度下的匹配结果如图5所示,其中,白色区域为未匹配的像素点,深灰色区域为匹配的像素点,黑色区域为处于提取的目标区域和阴影区域之外的未匹配像素点。可以看出,T72坦克几何模型与T72坦克实测SAR图像在四种相似度下的匹配结果都比较好,如图5(a1)~图5(d1)中白色像素点较少,而BMP2坦克和BTR70装甲车几何模型与T72坦克实测SAR图像在SETMSPSM下的匹配结果很差。这表明,当几何模型与SAR图像中的目标类别相同时,提取的区域特征与预测的区域特征具有很好的匹配度。相反,当几何模型与SAR图像中的目标类别不同时,提取的区域特征与预测的区域特征具有一定的差异性,这表明实验采用的特征提取方法和预测方法是准确有效的。

图 5. T72坦克SAR图像在不同相似度下匹配结果。(a) SETM; (b) SESM;(c) SPTM;(d) SPSM

Fig. 5. Matching results of T72 tank SAR image under different similarities. (a) SETM; (b) SESM; (c) SPTM; (d) SPSM

下载图片 查看所有图片

该实测SAR图像与三类目标几何模型的相似度如表1所示。可以看出,T72坦克模型与其实测SAR图像的SETMSPSM远高于其他两类目标模型的相似度。尽管图5(d)中三类目标在SPSM中未匹配像素点的总个数很接近,但T72坦克的SPSM(94.35%)远高于BMP2坦克的SPSM(78.44%)和BTR70装甲车的SPSM(76.98%)。这表明形态学开运算循环能够有效评价未匹配像素点的分布对匹配相似度的影响,在一定程度上提高分类的有效性和稳定性。

BTR70装甲车在俯仰角为17°,方位角为107.0068°下的实测SAR图像如图6所示。该实测SAR图像与图3中三类目标几何模型在四种相似度下的匹配结果如图7所示,与三类目标模型的相似度结果如表2所示。可以发现,BMP2坦克和BTR70装甲车模型与BTR70装甲车实测SAR图像的SETMSPTM以及SPSM都较高且相近,如果仅考虑这三种相似度,实测SAR图像中的目标会被错分为BMP2坦克,无法进行有效区分。考虑到相似度SESM后该实测SAR图像中的目标能够被正确分类。如图7(b2)、图7(b3)所示,BTR70装甲车模型的SESM匹配结果要远好于BMP2坦克模型的匹配结果。这表明实验使用的四种相似度之间是互补的,可以从多个方面衡量特征之间的匹配程度,从而全面地评价特征相似度,保证分类的有效性。

图 6. BTR70装甲车的SAR图像。(a)实测SAR图像;(b)平滑后的SAR图像

Fig. 6. SAR image of BTR70 armored vehicle. (a) Measured SAR image; (b) smoothed SAR image

下载图片 查看所有图片

图 7. BTR70装甲车SAR图像在不同相似度下匹配结果。(a) SETM; (b) SESM;(c) SPTM;(d) SPSM

Fig. 7. Matching results of BTR70 armored vehicle SAR image under different similarities. (a) SETM; (b) SESM; (c) SPTM; (d) SPSM

下载图片 查看所有图片

综上所述,利用本方法可以正确分类实测SAR图像中的目标。在层次化识别系统中,为了实现目标索引,Yi等[8]在几何模型的基础上,对FRED、T72、T80坦克和SCUD导弹发射器的SAR图像进行仿真(俯仰角为15°,方位角从0°到359°),离线建立了包含1440幅SAR图像的模型库,然后从仿真SAR图像中提取散射中心等特征用于索引过程中的粗分类。但该方法离线建立模型库的过程需要进行大量的电磁计算,非常耗时。相比该方法,本方法只需保存目标的几何模型,占据的存储空间非常小,还避免了巨大的工作量。且整个过程(特征提取、姿态角估计、特征预测以及目标索引操作)都可以在线实时完成。在个人计算机(CPU主频为3.6 GHz、内存为32 G)无任何软硬件加速的条件下,一幅实测SAR图像的整个索引过程可在几分钟内完成,对加速目标分类和识别有重要意义。

为进一步验证本方法的有效性,对MSTAR数据库中三组数据集(约800幅实测SAR图像)进行分类,数据集的目标类型、名称及SAR图像的数量如表3所示,其中所有测试图像的俯仰角均为17°。

每幅实测SAR图像均与三类假定目标模型进行匹配,并计算最终的融合相似度,实验中设置的筛选门限ST为所有融合相似度中最大值的97%。每组测试数据集索引的目标模型总数及其所占测试图像的百分比如表4所示,可以看出,三组测试数据集中,超过94%的测试图像均可以索引到正确的目标模型,且能有效排除大部分不匹配的目标模型。其次,T72坦克的实测SAR图像只有10幅索引到BMP2的几何模型,12幅索引到BTR70装甲车的几何模型。这表明,本方法在299个测试样本中至少能够对272个样本进行正确的分类。而在层次化目标识别系统中,后续更为精细的目标识别阶段最多只需要对22个几何模型样本进行分类,有效的提高了识别效率。

4 结论

提出了一种仅利用目标几何模型的光学可见信息进行特征预测的方法,并在MSTAR数据集上进行验证。实验结果表明,该方法的有效性和实时性较高。基于几何模型的复杂目标快速分类方法是一种粗分类方法,可用于由粗到精的层次化目标识别系统中。当一幅实测SAR图像与待索引的三类假定目标模型的融合相似度十分相近时,还可以索引出多个目标模型,以便后续研究中对这些存疑的目标模型进行进一步区分。

参考文献

[1] 宿强, 杨景玉, 王阳萍. 基于直觉模糊C核均值聚类算法的合成孔径雷达图像变化检测[J]. 激光与光电子学进展, 2019, 56(19): 192805.

    Su Q, Yang J Y, Wang Y P. Synthetic aperture radar image change detection based on intuitionistic fuzzy C-core mean clustering algorithm[J]. Laser & Optoelectronics Progress, 2015, 52(5): 051004.

[2] 汪洪桥, 蔡艳宁, 付光远, 等. 基于图像序列的地面慢动多目标识别与跟踪[J]. 激光与光电子学进展, 2016, 53(5): 051501.

    Wang H Q, Cai Y N, Fu G Y, et al. Recognition and tracking of multiple slowly-moving ground targets based on image series[J]. Laser & Optoelectronics Progress, 2016, 53(5): 051501.

[3] Gerry M J, Potter L C, Gupta I J, et al. A parametric model for synthetic aperture radar measurements[J]. IEEE Transactions on Antennas and Propagation, 1999, 47(7): 1179-1188.

[4] 谢若晗, 何思远, 朱国强, 等. 基于目标属性散射中心模型的正向参数化建模[J]. 激光与光电子学进展, 2019, 56(12): 122901.

    Xie R H, He S Y, Zhu G Q, et al. Forward parametric modeling based on target attribute scattering center model[J]. Laser & Optoelectronics Progress, 2019, 56(12): 122901.

[5] Ryan T W, Egaas W B. SAR target indexing with hierarchical distance transform[J]. Proceedings of SPIE, 1996, 2757: 243-252.

[6] Wissinger J, Ristroph R, Diemunsch J R, et al. MSTAR's extensible search engine and model-based inferencing toolkit[J]. Proceedings of SPIE, 1999, 3721: 554-570.

[7] He Y, He S Y, Zhang Y H, et al. A forward approach to establish parametric scattering center models for known complex radar targets applied to SAR ATR[J]. IEEE Transactions on Antennas and Propagation, 2014, 62(12): 6192-6205.

[8] Yi J H, Bhanu B, Li M. Target indexing in SAR images using scattering centers and the Hausdorff distance[J]. Pattern Recognition Letters, 1996, 17(11): 1191-1198.

[9] Gonzalez RC, Woods RE. Digital Image Processing[M]. 3rd ed. Upper Saddle River: Prentice-Hall, Inc., 2007: 15- 28.

[10] Jackson J A, Brady P. Radar target classification using morphological image processing[J]. Proceedings of SPIE, 2011, 8051: 805114.

[11] Sun Y J, Liu Z P, Todorovic S, et al. Adaptive boosting for SAR automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2007, 43(1): 112-125.

[12] Ding B Y, Wen G J. A region matching approach based on 3-D scattering center model with application to SAR target recognition[J]. IEEE Sensors Journal, 2018, 18(11): 4623-4632.

[13] Ding B Y, Wen G J, Ma C H, et al. Target recognition in synthetic aperture radar images using binary morphological operations[J]. Journal of Applied Remote Sensing, 2016, 10(4): 046006.

[14] 苗启广, 郭雪, 宋建锋, 等. 基于区域预测的LiDAR点云数据形态学滤波算法[J]. 激光与光电子学进展, 2015, 52(1): 011003.

    Miao Q G, Guo X, Song J F, et al. LiDAR point cloud data with morphological filter algorithm based on region prediction[J]. Laser & Optoelectronics Progress, 2015, 52(1): 011003.

[15] 黄嘉辛, 陆军, 赵凌君. 基于主导边界Radon变换的SAR目标方位角估计方法[J]. 计算机应用, 2011, 31(9): 2473-2476.

    Huang J X, Lu J, Zhao L J. Aspect estimation method for SAR target based on Radon transform of leading edge[J]. Journal of Computer Applications, 2011, 31(9): 2473-2476.

李冶, 张磊, 何思远, 张云华, 朱国强. 基于几何模型的目标快速分类方法[J]. 激光与光电子学进展, 2020, 57(18): 182801. Ye Li, Lei Zhang, Siyuan He, Yunhua Zhang, Guoqiang Zhu. Fast Classification Method for Targets Based on Geometric Model[J]. Laser & Optoelectronics Progress, 2020, 57(18): 182801.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!