激光与光电子学进展, 2020, 57 (4): 041004, 网络出版: 2020-02-20   

基于二维经验模态分解的合成孔径雷达目标识别方法 下载: 1064次

Synthetic Aperture Radar Target-Recognition Method Based on Bidimensional Empirical Mode Decomposition
作者单位
1 邵阳学院信息工程学院, 湖南 邵阳 422000
2 湖南第一师范学院信息科学与工程学院, 湖南 长沙 410205
摘要
提出一种基于二维经验模态分解(BEMD)的合成孔径雷达(SAR)目标识别方法。BEMD可以从原始SAR图像提取多层次的二维固态模函数(BIMF),它们可以更好地描述目标的细节信息,因此联合原始SAR图像及其多层次BIMF,可以为后续的分类决策提供更多有益信息。采用支持向量机(SVM)对原始SAR图像以及各个层次的BIMF进行决策,然后基于Bayesian理论对各个SVM输出的结果进行有效融合,从而获得更为稳健的识别结果。基于MSTAR数据集设置几种典型的实验条件,对本文方法进行性能测试,结果验证本文方法相比几类现有SAR目标识别方法更具有性能优势。
Abstract
This work proposes a synthetic aperture radar (SAR) target-recognition algorithm based on bidimensional empirical mode decomposition (BEMD). BEMD can extract multilevel bidimensional intrinsic mode functions (BIMFs) from the original image, which facilitates a more accurate description of target details. Therefore, a combination of the original SAR images and BIMFs can provide more useful information for further classification. Support vector machines (SVMs) are employed to classify the original SAR images and BIMFs. Afterwards, the outputs from all SVMs are fused using Bayesian theory to obtain more robust recognition results. Some typical experimental setups are designed based on the MSTAR dataset to test the performance of the proposed method. The results validate the superiority of the proposed method over several current SAR target-recognition algorithms.

1 引言

随着合成孔径雷达(SAR)传感器以及成像技术的日渐成熟,获得的海量SAR图像可以为对地观测提供有效的信息支撑。目前,我国已有多颗SAR成像卫星及大量机载SAR装备,这些装备可以对感兴趣区域实施全天时的观测。在这种条件下,对SAR图像解译成为发挥SAR装备实际作用的关键环节之一,具有重要的研究价值。自动目标识别(ATR)技术作为SAR图像解译领域的热点之一,在**侦查领域发挥着重要作用。近30年来,国内外多家知名研究机构均对此展开研究,生产出以SAIP(semi-automated image intelligence processing)和MSTAR(moving and stationary target acquisition and recognition)为代表的端到端的识别系统[1-2]。随着MSTAR计划中部分数据集的公开,SAR目标识别技术在国际上受到更广泛的关注。

特征提取是SAR目标识别方法的重要步骤之一。从SAR图像中提取的特征描述了目标的物理形状信息[3-4]、灰度分布[5-6]、电磁散射[7-8]等特性。文献[ 3]采用Zernike矩描述SAR图像目标区域特性。文献[ 5]采用主成分分析(PCA)方法提取SAR图像灰度分布特征。文献[ 7]采用属性散射中心描述目标的电磁散射特性。根据提取的特征,分类器对目标类别进行决策。模式识别领域的技术成果为SAR目标识别的分类器应用提供了丰富的选择,如基于结构风险最小化的支持向量机(SVM)[3-4,9]、基于压缩感知理论的稀疏表示分类(SRC)[9-10]。近年来,深度学习理论和技术的快速发展为模式识别和机器学习的发展注入了新的活力。SAR目标识别领域也涌现出大量基于卷积神经网络(CNN)的新方法[11-13],这些方法都具有良好的性能。CNN通过多层次的卷积操作获取SAR图像的丰富特征。然而,深度特征的学习依赖于训练样本的规模和覆盖面,当测试样本与训练样本的获取条件差距较大时,分类性能往往不够理想。在SAR目标识别中,由于目标自身、背景环境以及传感器的变化,待识别图像往往与训练集的图像存在较大差异,因此单纯依赖深度网络并不能全面解决SAR目标识别问题。合适的特征提取和分类器设计,有利于针对性地解决SAR目标识别中的难点问题,进而提高整体识别性能。

经验模态分解(EMD)是由Huang等[14]提出的一种自适应、多尺度的信号处理方法,可以对非线性、非稳态的数据进行有效分析。相比于传统的小波分析,EMD具有更好的空间和频率特性。为了更为有效地处理图像数据,研究人员提出二维经验模态分解(BEMD),并成功应用于图像去噪、图像融合、光谱分析领域[15-19]。BEMD可以获得原始图像多尺度的二维固态模函数(BIMF),它们对于图像中的细节信息(如轮廓、强点等)具有更强的描述能力。本文将BEMD应用于SAR图像特征提取及目标识别。采用BEMD对SAR目标图像进行特征提取,获得其多层次的BIMF。获得的BIMF可以对原始SAR图像进行有效的信息互补,从而为正确判别目标类别提供更为有力的支撑。在具体的分类阶段,采用SVM分别对原始SAR图像及其多层次的BIMF进行决策,然后基于Bayesian理论对各组决策变量(即SVM输出的后验概率)进行决策融合。Bayesian决策融合在概率框架下考察不同输入的独立性和关联性,有利于通过多种证据获得更为可靠的判决,因此通过结合多层次BIMF以及Bayesian决策融合的优势,可以有效提高SAR目标识别的整体性能。实验中,基于MSTAR数据集的实验结果验证了本文方法的有效性。

2 BEMD

2.1 EMD

EMD是由Huang等[14]提出的一种针对一维信号的自适应、多尺度的分析方法。它可以将非线性、非稳态的信号按照频率从高到低分解为若干个固态模函数(IMF),这一过程称为筛选(sifting)。目前,EMD已经在医学图像处理、地震、雷达信号处理等领域得以成功运用[14-16]。对于一个给定的一维信号S,EMD采用如下形式对其进行分解,即

S=j=1nIj+r,(1)

式中:n为模态的个数;Ij为信号的第j层IMF;r为分解残差。各个IMF之间近似正交,因此通过(1)式可以明显减少信号表示过程中的冗余步骤。

2.2 BEMD

BEMD是EMD在信号维度上的推广,可以用于分析图像的二维信号[15-19]。与EMD中一维信号分解类似,BEMD可以将图像分解为有限个BIMF,实现对原始图像多层次、自适应的分析。对于图像I(x,y)的BIMF筛选过程可归纳为以下步骤:

1) 初始化趋势图像(即分解残差)R=I(x,y);

2) 若R单调或当前已达到最大分解层数,算法停止,否则令H=R,进入筛选流程;

3) 求解H的极值点,获得局部极大值以及极小值点集;

4) 分别对极大、极小值点集进行平面插值,获得图像的上、下包络面,进而求取平均图像M;

5) 更新H(x,y)=H(x,y)-M(x,y),判断筛选过程是否满足迭代停止条件,若不满足则转至步骤3);

6) 获得当前BIMF为c(x,y)=H(x,y);

7) 更新R(x,y)=R(x,y)-c(x,y),转至步骤2)。

BEMD基本步骤的执行细节可参见文献[ 15-16]。通过步骤1)~7)的迭代分析,可以将原始图像I(x,y)分解为

I(x,y)=j=1Lcj(x,y)+rL(x,y),(2)

式中:cj(x,y)为第j层BIMF;rL(x,y)为最终的趋势图像。

上述内容介绍了当前进行BEMD分解的基本过程,已在实际图像处理中成功验证。分解得到的多模态成分对于描述原始图像的全局和细节特性具有良好的互补性。与光学图像相比,SAR图像的可视性更差,单一层次的特征往往难以进行可靠的目标识别。因此,本文将BEMD应用于SAR图像特征提取中,通过BEMD分解得到的多层次BIMF可以更为有效地描述原始SAR图像中的细节信息,从而为后续的分类决策提供更多的支撑。图1为一幅MSTAR图像的BEMD分解示意图,可以看出,各层次的BIMF可以对原始图像中的细节信息(如强散射中心位置)进行有效补充,这一结果也直观验证了BEMD分解对于SAR图像的适应性,因此联合原始SAR图像及其多层次BIMF,有利于提升目标识别性能。本文采用图1所示的三层BIMF进行后续的目标识别。

图 1. BEMD对SAR图像的分解示意图。(a)原始图像;(b)第一层BIMF;(c)第二层BIMF;(d) 第三层BIMF

Fig. 1. Illustration of decomposition of SAR images via BEMD. (a) Original image; (b) BIMF at first level; (c) BIMF at second level; (d) BIMF at third level

下载图片 查看所有图片

3 联合原始图像和多层次固态模函数的识别方法

3.1 SVM

SVM是一种基于结构风险最小化的分类器,自提出以来在模式识别领域得到了非常广泛的应用。研究人员将SVM引入到SAR目标识别中并验证了其有效性[3-4,9]。假设待识别样本为x,基于SVM的决策函数为

f(x)=wT·ϕ(x)+b,(3)

式中:ϕ(·)为核函数;w为权重系数矢量;b为偏置项。

图2为SVM分类的基本原理示意图。通过大量带标签样本的训练,可获得两个类别之间的决策超平面,计算待识别样本与两个超平面的距离,对其类别进行判断。此外,通过设计合适的核函数,SVM可以解决线性不可分的问题,因此分类能力大大提高。

图 2. SVM的分类原理示意图

Fig. 2. Illustration of classification principle of SVM

下载图片 查看所有图片

3.2 基于Bayesian理论的决策融合

Bayesian理论可以为多源信息的融合提供有力的工具[20]。本研究采用Bayesian理论对原始SAR图像和多层次BIMF的SVM分类输出进行融合,从而得到更为可靠的识别结果。记{T1,T2,…,TC}为待识别的C类目标。对于K个参与融合的决策Y=[y1,y2,…,yK],yk为某一类别的后验概率,记为

P(Ti|yk)=pik,(4)

式中: pik(i=1,2,…,C)为SVM输出的后验概率。假定参与融合的各个决策相互独立,基于Bayesian理论得到的联合概率分布为

P(Ti|Y)=P(Ti|y1)P(Ti|y2)P(Ti|yK)(5)

最后,根据最大后验概率判定待识别样本的目标类别为

identity(Y)=argmaxiPTi|Y)](6)

多层次的BIMF可以为原始SAR图像中目标特性的描述提供互补信息,这对于区分多种不同类别的目标具有积极意义。Bayesian决策融合在概率框架下考察原始图像及其BIMF的决策结果,可以有效综合它们的识别性能,从而获得更为稳定的判决结果,因此本文设计的识别方法有利于提高SAR目标识别整体性能。根据以上分析,设计基于BEMD特征提取的SAR目标识别方法的基本流程如图3所示。在使用SVM进行决策时,为了提高分类效率,采用PCA方法对原始图像及其多层次的BIMF进行特征提取,从而获得维度较低的特征矢量。本文设计的SAR目标识别方法在现有研究成果的基础上,通过引入更为可靠的特征提取方法来提升识别性能;SVM作为模式识别领域的经典分类器,在SAR目标识别领域得到了广泛运用,具有很强的有效性和稳健性;Bayesian决策融合是概率框架下的数据融合方法,能够获得理论意义上的最优决策;BEMD在图像处理领域广泛运用,本文正是鉴于其优良特性将其引入SAR图像特征提取。因此,通过综合不同方法的优势,本文方法可显著提高SAR目标的识别性能。

图 3. 基于BEMD的SAR目标识别方法的基本流程

Fig. 3. Basic procedure of SAR target recognition method based on BEMD

下载图片 查看所有图片

4 实验与分析

4.1 实验设置

为了对本文方法进行测试,采用MSTAR数据集在各种实验设置下进行SAR目标识别实验。MSTAR数据集包含10类地面车辆目标X波段机载SAR图像,方位角覆盖范围为0°~360°,且包括多个俯仰角如15°、17°、30°及45°。图4所示为这10类目标的光学图像和SAR图像示例。

本文在实验过程中设置了多种测试条件,包括标准操作条件、型号变化、俯仰角变化。标准操作条件下的测试与训练集如表1所示,其中训练样本来自17°俯仰角,测试样本采集自15°俯仰角。表2为型号差异条件下的训练和测试样本,包含BMP2、BTR70和T72三类目标,其中BMP2和T72的测试样本与训练样本来自不同的型号。表3为俯仰角差异条件下的测试与训练集,包含2S1、BDRM2、ZSU23/4和T72(Sn_A64) 4类目标,其中训练集来自15°俯仰角,测试样本分别来自30°和45°俯仰角。此外,噪声干扰作为真实场景中一种十分常见的因素,其对于SAR目标识别的影响也不可忽视。为此,本文对表1中标准操作条件下的测试样本按照文献[ 10]中的方法添加噪声,得到不同信噪比(SNR)下的噪声测试样本。

作为对比,实验中选取现有文献中的几个SAR目标识别方法,并在相同条件下进行测试。文献[ 9]中基于PCA特征和SVM的方法记为SVM-PCA,其中PCA特征矢量维度设置为80,SVM采用LIBSVM工具包[21],选用径向基函数(RBF)作为核函数,通过网格搜索法获得最佳参数。文献[ 10]中基于SRC的方法记为SRC,其中采用正交匹配追踪(OMP)算法求解稀疏表示系数,此处同样采用80维的PCA特征描述原始SAR图像。文献[ 11]中基于卷积神经网络的方法记为CNN,该网络采用全卷积结构,是当前基于深度神经网络的SAR目标识别方法的典型代表。

表 1. 标准操作条件下的训练与测试样本

Table 1. Training and test samples under standard operating condition

TypeBMP2BTR70T72T62BDRM2BTR60ZSU23/4D7ZIL1312S1
Training232(Sn_9566)233231(Sn_812)299298256299299299299
Test195(Sn_9563)196196(Sn_132)273274195274274274274

查看所有表

图 4. MSTAR数据库中10类目标的光学和SAR图像。(a) BMP2;(b) BTR70;(c) T72;(d) T62;(e) BRDM2; (f) BTR60;(g) ZSU23/4;(h) D7;(i) ZIL131;(j) 2S1

Fig. 4. Optical and SAR images of ten targets in MSTAR data set. (a) BMP2; (b) BTR70; (c) T72; (d) T62; (e) BRDM2; (f) BTR60; (g) ZSU23/4; (h) D7; (i) ZIL131; (j) 2S1

下载图片 查看所有图片

表 2. 带有型号差异的训练和测试样本

Table 2. Training and test samples with configuration variances

TypeTrainingTest
BMP2233(Sn_9563)196(Sn_9566)196(Sn_c21)
BTR70233(Sn_c71)196(Sn_c71)
T72232(Sn_132)195(Sn_812)191(Sn_s7)

查看所有表

表 3. 带有俯仰角差异的训练与测试样本

Table 3. Training and test samples with pitch angle difference

TypePitchangle /(°)2S1BDRM2ZSU23/4T72
Training15299298299299
Test30288287288288
45303303303303

查看所有表

4.2 实验结果与分析

4.2.1 10类目标标准操作条件

基于表1的实验设置在标准操作条件下对本文方法进行性能测试,具体的实验结果如图5所示,其中,对角线上的元素对应各个目标的正确识别率。10类目标的识别率均超过了98%,平均识别率为99.12%。这一结果充分证明本文方法在标准操作条件下的优异性能。表4是本文方法与其他方法在识别性能上的对比。本文方法的识别率高于其他方法,显示了其优越性。与SVM-PCA方法相比,本文方法平均识别率提升了1.86个百分点,说明多层次BIMF对于原始SAR图像具有互补作用。从图1可以看出,从原始SAR图像分解得到的多层次固态模函数为目标特性的描述提供了更多的信息。通过对每一个成分进行分类进而在决策层进行融合,从而有利于得到正确的决策结果,因此对原始SAR图像和多层次BIMF决策融合,可以有效提升最终的识别性能。CNN作为一种典型的深度学习技术,在训练样本数量充足的条件下具有十分优异的分类性能,因此其识别率仅仅略低于本文方法,而显著优于其他对比方法。

图 5. 本文方法在标准操作条件下的识别结果

Fig. 5. Recognition results of proposed method under standard operating condition

下载图片 查看所有图片

表 4. 本文方法与对比方法在标准操作条件下的识别性能

Table 4. Recognition performance of proposed and compared methods under standard opearting condition

MethodAverage recognition rate /%
Proposed99.12
SVM-PCA97.26
SRC96.36
CNN98.68

查看所有表

4.2.2 型号变化

基于表2中的实验设置,在型号差异条件下对本文方法和对比方法进行性能测试,各类方法的平均识别率如表5所示。本文方法取得了最高的平均识别率,表明其对于型号差异具有很强的稳健性。同一类目标的不同型号样本在整体上保持较高的相关性,但也存在局部结构的差异。此时,为了得到正确的判决结果,识别方法既要充分利用型号差异下的稳定特性,又要考察存在的局部差异。多层次BIMF可以有效反映SAR图像中目标的全局和局部信息,在层次化的考察型号变化条件下,有利于测试样本与训练样本之间整体和局部关联,因此通过结合原始图像以及多层次BIMF的决策结果,可以有效提升此条件下的识别稳健性。由于训练集对于测试样本的覆盖面有限,CNN方法相比于本文方法在型号变化条件下的识别性能出现了更为明显的下降。

表 5. 本文方法与对比方法在型号变化条件下的识别性能

Table 5. Recognition performance of proposed and compared methods under configuration variances

MethodAverage recognition rate /%
Proposed98.06
SVM95.43
SRC94.88
CNN97.03

查看所有表

4.2.3 俯仰角变化

基于表3的实验设置,在俯仰角变化条件下对各类方法进行性能测试。本文方法与其他方法的对比结果如图6所示。在30°俯仰角时,各类方法均保持较好的识别性能(平均识别率均高于95%),说明当前俯仰角的变化并没有引起测试样本与训练样本的巨大差异。然而,对于俯仰角为45°的测试样本,各类方法的识别性能均出现了显著的下降,此时,更大的俯仰角变化将导致测试样本与训练样本中目标特性出现较大的差异,因此正确识别的难度大大增加。从各方法的对比结果来看,本文方法在两个俯仰角下均保持了最高的平均识别率,验证其对于俯仰角变化的稳健性。与型号变化情形具有一定的相似性,俯仰角的变化会导致目标局部细节信息的改变,本文方法采用的多层次BIMF可以更好地反映这种变化,因此有利于得到正确的识别结果。

图 6. 本文方法与对比方法在不同俯仰角下的识别性能

Fig. 6. Recognition performances of proposed and compared methods at different pitch angles

下载图片 查看所有图片

4.2.4 噪声干扰

采用不同信噪比下的噪声样本对本文方法的噪声稳健性进行验证。实验中,训练样本与标准操作条件保持一致,即未进行噪声添加。图7所示为各类方法在不同噪声水平下的识别率变化曲线。随着噪声干扰的加剧,各类方法的识别率出现了不同程度的下降,与其他方法相比,本文方法在各个信噪比下均保持了最高的识别率,证明其对于噪声干扰具有更强的稳健性。一方面,多层次的BIMF通过多个模态体现SAR图像在噪声干扰条件下的目标特性,因此相比于单一利用原始图像具有更强的稳健性和容错性;另一方面,BEMD的过程实际上也是一个针对噪声干扰的优化过程,分解得到的BIMF对于噪声干扰具有一定的稳健性。因此,

图 7. 本文方法与对比方法在噪声干扰条件下的识别性能

Fig. 7. Recognition performances of proposed and compared methods under noise interference

下载图片 查看所有图片

综合利用原始SAR图像及其多层次BIMF有利于提高识别方法在噪声干扰条件下的性能。

5 结论

提出一种基于BEMD的SAR图像特征提取及目标识别方法。通过BEMD提取的多层次BIMF可以更好地描述原始SAR图像的目标特性,从而为分类阶段提供更多的有益信息。本文方法首先采用SVM分别对原始SAR图像以及其多层BIMF进行分类,然后对它们的分类结果进行Bayesian决策融合,得到稳健的识别结果。实验阶段,基于MSTAR数据集设置多种测试条件对本文方法进行测试,并将本文方法与几种现有的SAR目标识别方法进行对比。实验结果证明本文方法在标准操作条件下的高性能以及扩展操作条件下的稳健性。

参考文献

[1] El-Darymli K, Gill E W. McGuire P, et al. Automatic target recognition in synthetic aperture radar imagery: a state-of-the-art review[J]. IEEE Access, 2016, 4: 6014-6058.

[2] 文贡坚, 朱国强, 殷红成, 等. 基于三维电磁散射参数化模型的SAR目标识别方法[J]. 雷达学报, 2017, 6(2): 115-135.

    Wen G J, Zhu G Q, Yin H C, et al. SAR ATR based on 3D parametric electromagnetic scattering model[J]. Journal of Radars, 2017, 6(2): 115-135.

[3] Amoon M. Rezai-Rad G A. Automatic target recognition of synthetic aperture radar (SAR) images based on optimal selection of Zernike moments features[J]. IET Computer Vision, 2014, 8(2): 77-85.

[4] Anagnostopoulos G C. SVM-based target recognition from synthetic aperture radar images using target region outline descriptors[J]. Nonlinear Analysis: Theory, Methods & Applications, 2009, 71(12): e2934-e2939.

[5] Mishra AK. Validation of PCA and LDA for SAR ATR[C]∥IEEE Region 10 Conference, January 1, 2008, Hyderabad,India. China: NSTL, 2008.

[6] Cui Z Y, Cao Z J, Yang J Y, et al. Target recognition in synthetic aperture radar images via non-negative matrix factorisation[J]. IET Radar, Sonar & Navigation, 2015, 9(9): 1376-1385.

[7] 丁柏圆, 文贡坚, 余连生, 等. 属性散射中心匹配及其在SAR目标识别中的应用[J]. 雷达学报, 2017, 6(2): 157-166.

    Ding B Y, Wen G J, Yu L S, et al. Matching of attributed scattering center and its application to synthetic aperture radar automatic target recognition[J]. Journal of Radars, 2017, 6(2): 157-166.

[8] Ding B Y, Wen G J, Zhong J R, et al. A robust similarity measure for attributed scattering center sets with application to SAR ATR[J]. Neurocomputing, 2017, 219: 130-143.

[9] Liu H C, Li S T. Decision fusion of sparse representation and support vector machine for SAR image target recognition[J]. Neurocomputing, 2013, 113: 97-104.

[10] Thiagarajan JJ, Ramamurthy KN, KneeP, et al. Sparse representations for automatic target classification in SAR images[C]∥2010 4th International Symposium on Communications, Control and Signal Processing (ISCCSP), March 3-5, 2010, Limassol, Cyprus.New York: IEEE, 2010: 11305921.

[11] Chen S Z, Wang H P, Xu F, et al. Target classification using the deep convolutional networks for SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4806-4817.

[12] Ding J, Chen B, Liu H W, et al. Convolutional neural network with data augmentation for SAR target recognition[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(3): 364-368.

[13] Yan Y. Convolutional neural networks based on augmented training samples for synthetic aperture radar target recognition[J]. Journal of Electronic Imaging, 2018, 27(2): 023024.

[14] Huang N E, Shen Z, Long S R, et al. The empirical mode decomposition and the Hilbert spectrum for nonlinear and non-stationary time series analysis[J]. Proceedings of the Royal Society of London Series A: Mathematical, Physical and Engineering Sciences, 1998, 454(1971): 903-995.

[15] 郑有志, 覃征. 基于二维经验模态分解的医学图像融合算法[J]. 软件学报, 2009, 20(5): 1096-1105.

    Zheng Y Z, Qin Z. Medical image fusion algorithm based on bidimensional empirical mode decomposition[J]. Journal of Software, 2009, 20(5): 1096-1105.

[16] Qin Y, Qiao L H, Wang Q F, et al. Bidimensional empirical mode decomposition method for image processing in sensing system[J]. Computers & Electrical Engineering, 2018, 68: 215-224.

[17] 景娟娟, 相里斌, 李然, 等. 基于经验模态分解的干涉图滤波方法[J]. 光学学报, 2013, 33(10): 1007001.

    Jing J J, Xiangli B, Li R, et al. Interferogram filtering method based on empirical mode decomposition[J]. Acta Optica Sinica, 2013, 33(10): 1007001.

[18] 沈毅, 张敏, 张淼. 基于互信息波段选择和经验模态分解的高精度高光谱数据分类[J]. 激光与光电子学进展, 2011, 48(9): 091001.

    Shen Y, Zhang M, Zhang M. Mutual information bands selection and empirical mode decomposition based support vector machines for hyperspectral data high-accuracy classification[J]. Laser & Optoelectronics Progress, 2011, 48(9): 091001.

[19] 郭心骞, 邱选兵, 季文海, 等. 基于经验模态分解的可调谐半导体激光吸收光谱中干涉条纹的抑制[J]. 激光与光电子学进展, 2018, 55(11): 113001.

    Guo X Q, Qiu X B, Ji W H, et al. Minimization of interference fringes in tunable diode laser absorption spectrum based on empirical mode decomposition[J]. Laser & Optoelectronics Progress, 2018, 55(11): 113001.

[20] Dong G G, Kuang G Y. Classification on themonogenic scale space: application to target recognition in SAR image[J]. IEEE Transactions on Image Processing, 2015, 24(8): 2527-2539.

[21] Chang C C, Lin C J. LIBSVM: a library for support vector machines[J]. ACM Transactions on Intelligent Systems and Technology, 2011, 2(3): 27.

柳小文, 雷军程, 伍雁鹏. 基于二维经验模态分解的合成孔径雷达目标识别方法[J]. 激光与光电子学进展, 2020, 57(4): 041004. Xiaowen Liu, Juncheng Lei, Yanpeng Wu. Synthetic Aperture Radar Target-Recognition Method Based on Bidimensional Empirical Mode Decomposition[J]. Laser & Optoelectronics Progress, 2020, 57(4): 041004.

本文已被 6 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!