光学学报, 2019, 39 (6): 0628005, 网络出版: 2019-06-17   

改进的SSD算法及其对遥感影像小目标检测性能的分析 下载: 1874次

Improved SSD Algorithm and Its Performance Analysis of Small Target Detection in Remote Sensing Images
作者单位
1 信息工程大学地理空间信息学院, 河南 郑州 450000
2 78123部队, 四川 成都 610000
摘要
针对以Faster R-CNN为代表的基于候选框方式的遥感影像目标检测方法检测速度慢,而现有SSD算法在小目标检测中性能低的问题,提出一种改进的SSD算法,综合利用现有基于候选框方式和一体化检测方式的优势,提升检测性能。该算法利用密集连接网络替换原有的VGGNet作为骨干网络,并且在密集连接模块之间构建特征金字塔,代替原有多尺度特征图。为验证所提算法的精度及性能,设计样本数据在线采集系统,并采集飞机及运动场目标样本集作为实验样本,通过对改进SSD算法的训练,验证了其网络结构的稳定性,在无迁移学习支持下依然能够达到良好效果,且训练过程不易发散。通过对比以101层的残差网络(ResNet101)作为基础网络的Faster R-CNN算法和R-FCN算法可知,改进SSD算法较Faster R-CNN算法和R-FCN算法的MAP在测试集上分别提升了9.13%和8.48%,小目标检测的MAP分别提升了14.46%和13.92%,检测单张影像耗时71.8 ms,较Faster R-CNN和R-FCN算法分别减少45.7 ms和7.5 ms。
Abstract
An improved single shot multibox detector (SSD) algorithm is proposed aiming at the problems of slow detection speed of the target proposal based remote sensing image target detection method represented by faster regions with convolutional neural network (R-CNN) and the low performance in small target detection by the SSD algorithm. The algorithm can combine the advantages of the existing detection methods based on target proposal and one-stage target detection to improve the target detection performance. Furthermore, the algorithm replaces the original visual geometry group net with a densely connected network as the backbone network and constructs a feature pyramid between the densely connected modules instead of the original multi-scale feature map. A sample data online acquisition system is designed to verify the accuracy and performance of the proposed algorithm. A sample set of aircraft and playground target is collected as the experimental sample. The network structure stability is verified by training the improved SSD algorithm. Consequently, good results can be achieved without the support of transfer learning. Moreover, the training process is not easy to diverge. By comparing the Faster R-CNN algorithm using ResNet101 as the backbone network and the R-FCN (region-based fully convolutional networks) algorithm, we find that the mean average precision (MAP) of the improved SSD algorithm is 9.13% and 8.48% higher than that of the faster R-CNN and R-FCN algorithms in the test set, respectively. The proposed SSD algorithm improves the MAP in the small target detection by 14.46% and 13.92% compared to the faster R-CNN and R-FCN algorithms, respectively. Detecting a single image takes 71.8 ms, which is 45.7 ms and 7.5 ms less than that of the faster R-CNN and R-FCN algorithms, respectively.

1 引言

遥感影像目标检测是遥感影像解译的重要分支之一,对于挖掘感兴趣信息至关重要。传统的方法有基于统计的目标检测[1]、基于知识的目标检测[2]以及基于模型的目标检测[3]等,这些方法需要人工设定先验条件,稳健性差,智能程度低,难以应用于大范围自动化作业的需求。

近年来,随着卷积神经网络在2012年的ImageNet[4]图像分类比赛中取得巨大成功后,基于深度学习的目标检测方法开始应用于图像目标检测领域。2013年起,基于深度学习的目标检测算法沿着两条主线发展:一条是以Fast R-CNN[5]、Faster R-CNN[6]、R-FCN[7]算法为典型的基于候选框方式的检测主线;另外一条是以YOLO(You Only Look Once)[8]、SSD[9]、Retina-Net[10]为代表的一体化卷积网络检测算法。一体化检测方式的速度要明显快于基于候选框的检测算法,但检测精度要略逊于后者。文献[ 11]对当前主流的Faster R-CNN、R-FCN及SSD三种检测算法在Microsoft COCO(common objects in context)[12]公开数据集上的性能进行详细对比,结果表明Faster R-CNN的精度最高,而SSD的速度最快。随着深度学习技术的发展,不少学者开始研究利用深度学习方法进行遥感影像目标检测,文献[ 13]全面比较了Fast R-CNN、Faster R-CNN和R-FCN三种算法对飞机目标检测的识别性能,其结果表明R-FCN算法的准确率和检测速度较优。文献[ 14]将深度学习引入飞机检测中,构建了基于深度信念网络及基于卷积神经网络的两种飞机检测结构模型,实现了飞机目标高精度检测。文献[ 15]基于Faster R-CNN方法对遥感影像中飞机、油罐等目标进行验证实验,取得较好效果。文献[ 16]提出了适应空中目标检测任务的特点和需求的Faster R-CNN改进策略,弥补了Faster R-CNN算法对弱小目标和被遮挡目标不敏感的缺陷并提升了检测精度。以上研究表明,基于候选框的算法是当前应用于遥感影像目标检测的主流方法,尤其是Faster R-CNN算法的应用最广泛,但以上研究均未对遥感影像小目标检测性能进行全面分析,而遥感影像相对于常规自然场景图片具有幅面大、分辨率低等特点,但需要在较小分辨率下进行检测才能实现在大范围内自动化高效作业,在此情况下,目标大小在影像中常表现为中小型特征,因此,需要更多地关注中小型目标的检测。Faster R-CNN算法对于小目标的检测性能比SSD算法好,但检测时间更长,无法满足大范围自动化检测的需求。Feature Pyramid Networks(FPN)方法[17]通过将网络中最顶层的特征图像逐层地反馈并与前层的特征图进行融合,提升低层次特征的语义强度,并且在不同尺度上进行目标检测,可提升小目标的检测优势,因此,为平衡速度和精度,可将FPN特征提取方法应用至SSD算法中,但存在问题是仅在SSD算法特征提取网络部分引入FPN特征提取方法后,检测速度将会进一步降低。

为解决以上问题,本文针对现有SSD算法进行改进,参考密集连接的DenseNet(densely connected convolutional networks)网络[18]设计特征提取网络,并将其替代原有的16层VGGNet(VGG-16)[19]网络,并引入FPN特征提取方法,进行多尺度特征融合,以替代原有的多尺度预测方法。

2 改进的SSD算法

2.1 SSD算法

SSD是Liu等[9]提出的一种目标检测算法,是目前较流行的检测框架之一,相比于Faster R-CNN算法,SSD算法在速度上具有明显优势,而相比于YOLO算法,SSD算法在精度上又有明显的优势。SSD算法框架如图1所示,该算法以VGG-16为基础网络,在此基础上添加辅助卷积、池化层等结构,得到的多尺度特征图均用来进行目标检测,较大特征图用于检测相对较小目标,而尺寸较小特征图负责大目标检测。

SSD算法参照YOLO算法的一体化检测方式,但与YOLO算法最后采用全连接层预测不同的是,SSD算法采用卷积对不同尺度特征图进行检测,同时借鉴了Faster R-CNN中anchor的思想,在特征图中的每个单元设置长宽比不同的先验框,预测时目标框以这些先验框为基准计算偏差,可在一定程度上降低训练的难度。

图 1. SSD算法框架

Fig. 1. Framework of SSD algorithm

下载图片 查看所有图片

2.2 改进的SSD算法

SSD算法虽采用多尺度预测,但不同尺度特征相互独立,其低层次特征位置信息较好,但分类精度差。为降低低层次特征带来的误差,SSD算法从VGG-16网络中偏后的conv4_3卷积层开始构建多尺度特征图,其检测小目标性能较差。此外,SSD算法的输入图像尺寸较小,文献[ 9]选取的输入图像尺寸为300 pixel×300 pixel,小尺寸下能够提升目标检测速度,但对于遥感图像自动化检测任务,将图像固定至小尺寸进行检测,易造成目标特征信息的丢失。为实现良好检测性能,本研究固定输入图像为800 pixel×800 pixel,导致计算量大幅增加,故采用原来网络来降低检测速度。为解决这些问题,对现有SSD算法做以下改进:1)参考密集连接的DenseNet网络结构,重新设计SSD算法中的基础网络;2)利用FPN方法对密集连接网络的dense模块构建特征金字塔,再进行多尺度目标检测。改进后的算法框架如图2所示。

图 2. 改进SSD算法框架

Fig. 2. Framework of improved SSD algorithm

下载图片 查看所有图片

改进SSD算法基础网络设计由4个dense模块构成,每个dense模块之间利用过渡层连接,过渡层通过降维来减少计算量。dense模块内部由一系列的卷积层组成(如dense模块1由6个卷积层构成),每个卷积层的输出设定为32通道特征图,其输入为前面所有输出在通道维度上进行连接后的特征图,输出表示为[18]

xk=Hk([x0,x1,,xk1]),(1)

式中:Hk(·)为非线性转化函数,包括批归一化(batch normalization)[20]、非线性激活、池化、卷积等操作。本研究在Hk(·)中引入批归一化操作以加快收敛速度,在 Hk(·)中的卷积操作设计由1×1卷积和3×3卷积构成,xk表示第k层输出,相比ResNet网络[21],这是一种密集连接,直接来自不同层的特征图,可以实现特征重用,降低模型参数量。改进后的SSD算法将在5个尺度上通过卷积操作进行预测,如图2所示,网络中的dense模块4连接2个带有池化效果的卷积层构成其中2个尺度特征图,另3个尺度特征图通过对dense模块2、dense模块3以及dense模块4构建特征金字塔获得,首先,利用dense模块4经过256个1×1卷积核降维操作后作为特征金字塔中的一个尺度特征图。其次,该尺度特征图采用最近邻采样法[22]上采样2倍,并与dense模块3经256个1×1卷积核降维后的特征图进行 element-wise addition[19]连接操作,获得金字塔特征的第2个尺度特征图。element-wise addition操作可表示为

xk=Hk(xk-1)+xk-1(2)

最后,利用第2个尺度特征图上采样后与dense模块2经256个1×1卷积核降维后的特征图连接,构建特征金字塔的第3个特征图。相比于SSD算法,改进后的SSD算法融入了多个高层次特征的语义信息,可弥补SSD算法低层次特征语义信息差的问题,而大部分小目标的检测是利用低层次特征图实现,因此可提升小目标检测精度。另一方面,由于采用了密集连接的网络结构,大幅度减少网络中的参数量,可在一定程度上弥补输入图像尺寸增大带来的计算效率的降低,而相比于以Faster R-CNN为代表的基于候选框的检测方式,该方法无须进行区域建议网络的训练过程,因此更易于训练。图3为改进后的SSD算法在dense模块融合前后特征图输出的对比,选取了三个通道绘制,图3(e)是图3(f)融合图3(d)后的特征图,图3(d)是图3(b)融合图3(e)后的特征图,显然图3(d)和图3(e)相比于图3(b)和图3(c)飞机目标高亮显示,具备更强的语义信息,理论上在图3(d)和图3(e)上预测结果会明显优于图3(b)和图3(c),尤其是绝大部分小目标在低层次特征图上预测,因此可提升小目标检测精度。

图 3. 融合前后的特征图对比。(a) 输入图像;(b) dense模块2输出;(c) dense模块3输出;(d) dense模块2融合特征后的输出;(e) dense模块3融合特征后的输出;(f) dense模块4输出

Fig. 3. Comparison of feature maps before and after integration. (a) Input image; (b) output of dense block2; (c) output of dense block3; (d) output of dense block2 with feature integration; (e) output of dense block3 with feature integration; (f) output of dense block4

下载图片 查看所有图片

2.3 损失函数及训练方法

将SSD算法的损失函数表示为位置损失与分类损失的加权和[9]:

L(x,c,l,g)=1N[Lclass(x,c)+αLloc(x,l,g)],(3)

式中:x表示真实框;c表示预测框;l为预测的位置信息;g为真实框的位置信息;N为与真实框相匹配的先验框个数(正样本数量);Lclass(x,c)为分类损失;Lloc(x,l,g)为位置损失;α为权值系数,本文设定为1。Lloc(x,l,g)借鉴Faster R-CNN的位置回归函数smoothL1,表示为

Lloc(x,l,g)=iNposNm{CX,CY,w,h}xij(k)×smoothL1(li(m)-g^j(m)),(4)

式中: xij(k)∈{0,1},当 xij(k)=1时表示第i个先验框与第j个真实框相匹配,并且类别为k,否则为0;Npos表示正样例集合;(CX,CY,w,h)分别表示边界框中心像素坐标以及宽高; g^j(m)为编码后的真实框位置参数; li(m)表示先验框的预测值。smoothL1函数可表示为

smoothL1(x)=0.5x2,x<1x-0.5,else(5)

Lclass(x,c)函数采用交叉熵损失函数[23]来表示:

Lclass(x,c)=-iNposNxij(p)log(c^i(p))-iNneglog(c^i(0)),(6)

式中: c^i(0)表示正确且类别为背景预测框的概率;Nneg表示负样例集合; c^i(p)为利用softmax函数计算的概率值,可表示为

c^i(p)=exp(ci(p))pexp(ci(p))(7)

采用数据增强方式对图像进行增强,丰富样本数量,迁移学习带来的特征也优于直接从随机初始化学习的特征[24],因此,基于ImageNet数据集上预训练的模型进行迁移学习,利用随机梯度下降算法(SGD)对损失函数(3)式进行优化,寻求最优解,在训练过程中学习率逐渐递减,学习动量为0.9。

3 精度评估模型

以平均准确率均值(MAP)[25]作为衡量模型训练结果精度的指标。每一个类别都可以根据召回率和准确率绘制一条曲线,那么准确率均值(AP)就是该曲线下的面积,而MAP是多个类别AP的平均值, AP计算可表示为

RAP=01p(r)dr(8)

利用预测框与真实框的交并比(RIoU)作为判定预测真假的前提,Pascal VOC2010数据集[25]以0.5为交并比阈值,再根据预测框内类别置信度进行判定,从而确定预测为真或假样例。本研究根据更加全面客观的COCO数据集衡量标准[12]进行衡量。COCO数据集依然采用MAP作为衡量标准,但衡量更加多样化,其主要衡量指标如表1所示。

表 1. 主要衡量指标

Table 1. Main metrics

MetricRemarks
MAPMAP at RIoU in {0.5+0.05×m,m=0,1,…,9} (primary challenge metric)
MAPRIoU=0.50MAP at RIoU=0.50 (pascal VOC metric)
MAPRIoU=0.75MAP at RIoU=0.75 (strict metric)
MAPsmallMAP for small targets: Sarea<(32 pixel)2
MAPmediumMAP for medium targets: (32 pixel)2Sarea≤(96 pixel)2
MAPlargeMAP for large targets: Sarea>(96 pixel)2

查看所有表

4 实验分析

4.1 实验平台与数据

实验硬件采用联想P920工作站,配置32 G内存及NVIDIA TITAN Xp显卡,操作系统为Ubuntu 16.04。在Python中基于Tensorflow深度学习框架构建算法模型。

为验证小目标的检测性能,参考COCO数据集的大、中、小目标所占比例,采集制作飞机和运动场2类典型目标数据集,样本采集工作利用基于ArcGIS API for JavaScript组件在B/S架构下设计开发的遥感影像目标检测训练样本数据在线采集系统开展,系统界面如图4所示,通过叠加DigitalGlobe公司的公开多源影像数据、公开民用机场点位数据(网址:http:∥ourairports.com),快速定位机场位置及主要城市,采集4个影像瓦片层级影像数据(第15~18层)并自动生成对应的XML标签数据,相对于主流的LabelImg目标检测样本标记软件,该方法更加高效、便捷。

图 4. 训练样本在线采集系统界面。(a) 叠加主要机场点位数据;(b) 飞机样本采集

Fig. 4. Interface of training sample online acquisition system. (a) Superimposed main airport point data; (b) aircraft sample collection

下载图片 查看所有图片

采集不同场景下的样本集图片共计2574张,其中验证集412张,测试集326张,统计样本集目标分布情况如表2所示,依据COCO数据集定义的大、中、小目标划分,各类数据集均以中、小目标为主,尤其是测试集的中、小目标占比最大,可用于对小目标的检测验证,图5所示为目标实际大小及其对应的目标等级。

图 5. 样本集各类大小目标示意图

Fig. 5. Size of each target in sample set

下载图片 查看所有图片

表 2. 样本集统计

Table 2. Sample set statistics

Data setClassTarget amountPercentage /%
SmallMediumLargeTotalSmallMediumLarge
Training setairplane12041542431440127.3635.049.79
playground1785165304.0411.7212.04
Validation setairplane39042774116933.3636.536.33
playground271201312.3110.2714.21
Test setairplane940366111189249.6819.345.87
playground133294487.0315.542.54

查看所有表

4.2 改进SSD算法训练分析

数据增强采用随机裁切、随机旋转及缩放操作,初始学习率设定为0.01,采用余弦函数衰减法[26]对学习率进行衰减,学习率衰减曲线如图6所示。

图 6. 学习率衰减曲线

Fig. 6. Decay curve of learning rate

下载图片 查看所有图片

采用随机梯度下降法对总损失函数进行优化训练,设定批处理尺寸为4,训练曲线及 MAPRIoU=0.50图7所示,同时也利用ImageNet数据集上预训练的DenseNet对改进SSD算法基础网络的部分权值参数进行迁移学习的训练曲线进行绘制,作为对比实验。由图7(a)可知,两种训练方式的总损失最终均能收敛至同一水准(0.1以内),并且收敛效果均较好,由图7(b)可知,部分权值迁移训练方式在前期训练过程中精度增幅较快,但后期基本保持一致,最终 MAPRIoU=0.50为90.55%,较随机初始化仅增加0.53%,增幅较小。综上所述,改进后的SSD模型易于训练,在反向传播过程中梯度不易发散,并且在无迁移训练支撑下能够获得较理想的结果,验证了改进SSD算法网络结构的有效性。

图 7. 迁移训练和随机初始化两种方式总损失和精度对比。(a) 总损失随迭代次数变化;(b) MAPRIoU=0.50随迭代次数变化

Fig. 7. Comparison of total loss and precision between transfer training and random initialization. (a) Total loss varies with number of iterations; (b) MAPRIoU=0.50 varies with number of iterations

下载图片 查看所有图片

4.3 改进SSD算法精度分析

为验证改进SSD算法的性能,同时利用训练集训练了基于候选框方式的Faster R-CNN和R-FCN两种算法作为对比,并在验证集上进行精度验证,Faster R-CNN分别以ResNet50和ResNet101两种网络作为基础网络,R-FCN以ResNet101作为基础网络,利用精度更高的Inceptionv2[27]网络替换SSD算法的VGG-16,也参与对比实验。以上算法图像的输入尺寸均为800 pixel×800 pixel,除改进SSD算法外,其余算法均利用COCO数据集上的预训练模型进行迁移学习,改进SSD算法利用4.2节所提的迁移方式进行部分参数迁移,以上算法均训练迭代1.5×105次,并分别在验证集和测试集上进行精度分析统计。单张影像预测耗时及验证集精度指标的对比结果如表3所示,验证集精度随迭代次数变化情况如图8所示,测试集上的精度对比如表4所示。

表 3. 计算耗时及验证集上精度对比

Table 3. Comparison of calculation time and precision on validation set

MethodParameter /MBTime overhead /msMetric /%
MAPMAPlargeMAPmediumMAPsmallMAPRIoU=0.50MAPRIoU=0.75
SSD+Inceptionv253.424.847.1569.4850.1611.5685.0848.95
Faster R-CNN+ResNet50173.3108.647.1272.8148.9110.1682.7250.59
Faster R-CNN+ResNet101249.5117.550.5073.0653.5113.7685.8455.03
R-FCN+ResNet101258.279.351.1774.6951.4316.0187.2055.86
Improved SSD algorithm59.871.854.1473.3154.3221.1690.5557.38

查看所有表

图 8. 改进SSD算法与其他算法随迭代次数精度变化对比。(a) MAP; (b) MAPlarge; (c) MAPmedium; (d) MAPsmall; (e) MAPRIoU=0.50; (f) MAPRIoU=0.75

Fig. 8. Comparison of precisions of improved SSD algorithm and other algorithms varying with number of iterations. (a) MAP; (b) MAPlarge; (c) MAPmedium; (d) MAPsmall; (e) MAPRIoU=0.50; (f) MAPRIoU=0.75

下载图片 查看所有图片

表 4. 测试集上精度对比

Table 4. Comparison of precision on test set

MethodsMetric /%
MAPMAPlargeMAPmediumMAPsmallMAPRIoU=0.50MAPRIoU=0.75
SSD+Inceptionv235.8562.7343.5519.5277.7224.07
Faster R-CNN+ResNet5028.7261.5334.6713.4368.8717.60
Faster R-CNN+ResNet10136.0561.5542.8321.7476.8327.69
R-FCN+ResNet10136.7059.1843.9622.9177.3028.23
Improved SSD algorithm45.1865.3150.6831.6583.9542.15

查看所有表

表3可知,改进SSD算法的模型参数量较SSD+Inceptionv2仅增加了6.4 MB,但相对于Faster R-CNN和R-FCN算法降低较多,尤其是仅为R-FCN+ResNet101的23%。从预测单张影像时间开销来看,改进SSD算法较SSD+Inceptionv2增加47 ms,但相对于Faster R-CNN和R-FCN算法有所降低,尤其是相对于Faster R-CNN+ResNet101降低45.7 ms。从精度指标来看,改进SSD算法除验证集上的大目标检测精度MAPlarge相对于R-FCN+ResNet101降低了1.38%外,其余指标均优于其他方法,尤其是在检测小目标上优势更明显,在测试集上,MAPsmall相比于次高的R-FCN+ResNet101增加了13.92%,说明改进SSD算法在检测中、小型目标上优势明显,如表4所示。由图8可知,Faster R-CNN和R-FCN算法相对于改进SSD算法收敛较快,说明改进后的SSD算法收敛时间相对较长,这与其中部分参数随机初始化具有一定关系,对比改进SSD算法与SSD+Inceptionv2算法可知,SSD+Inceptionv2精度随着迭代步数的变化起伏较大,尤其是图8(d)中小目标的精度突变最为明显,说明SSD算法对小目标数据集训练效果差,进一步验证了SSD低层次特征对于小目标识别较差,但改进后的SSD算法能够较好适应小目标数据,改进SSD算法的各精度指标变化总体较为平稳。

综上可知,改进SSD算法精度较SSD、Faster R-CNN和R-FCN算法有较大提升,尤其是在检测小目标上优势更明显;改进SSD算法对单张图像预测耗时较Faster R-CNN算法和R-FCN算法有所降低,尤其是相对Faster R-CNN算法降低较大,但由于特征金字塔的构建,相对于SSD算法有所增加;改进的SSD算法能够解决SSD算法对小目标数据集的适应效果差的问题。

4.4 检测效果对比

通过4.3节的分析可知,以ResNet101为基础网络的Faster R-CNN算法和R-FCN算法的检测精度较高,本节以这两种算法作为对比,分析改进后的SSD算法检测小目标的效果,如图9所示,预测图像为2张分别带有飞机目标和运动场目标的大尺寸影像,缩小至800 pixel×800 pixel的输入尺寸后,目标将表现小目标特征,图9中列出了检测效果图的局部区域放大图。由图9(a)和图9(b)可知,Faster R-CNN算法和R-FCN算法检测边框的置信度较高,但存在一些误检,误检框主要出现在对小目标的识别。由图9(c)可知,所有小目标均被检测出,且没有误检框,尽管边界框置信度相对Faster R-CNN算法和R-FCN算法较低,但不影响最终结果的判断,主要原因是改进SSD算法属于一体化检测方式,没有进行候选框预训练这个过程,相对于基于候选框的检测方式较低。对比图9的所有放大图的检测边框位置信息可知,改进后的SSD算法预测边框位置回归准确度明显高于Faster R-CNN算法和R-FCN算法。

图 9. 改进SSD与其他方法检测效果对比。(a) Faster R-CNN+ResNet101方法;(b) R-FCN+ResNet101方法;(c) 改进 SSD算法

Fig. 9. Comparison of improved SSD algorithm and other algorithms in detection effect. (a) Faster R-CNN+ResNet101; (b) R-FCN+ResNet101; (c) improved SSD algorithm

下载图片 查看所有图片

5 结论

对现有SSD算法进行改进,大幅度提升了算法的计算精度,解决了原有SSD算法小目标检测精度低而现有基于候选框的方法检测速度慢的问题。通过对以飞机和运动场中小型样本为主的检测实验进行分析,可得到以下结论。1)改进后的SSD算法的网络结构设计更合理,且训练过程更容易收敛,在无迁移学习支撑下也能够获得较理想的结果。2)改进后的SSD算法相对于原SSD算法、Faster R-CNN算法以及R-FCN算法总体精度有大幅度提升,尤其是在检测小目标上,效果更加明显,测试集上相比于精度次高的R-FCN算法可提升13.92%,说明这种高层次特征与低层次特征融合具有较好的语义和位置信息。3)从目标检测时间开销来看,改进后的SSD算法预测单张影像相比于Faster R-CNN算法降低45.7 ms,相比于速度较快的R-FCN算法降低7.5 ms,但相比于原SSD算法有所增加,主要原因是特征金字塔构建耗时过多。4)从预测效果来看,改进后的SSD算法预测位置边框要优于原SSD算法、Faster R-CNN算法以及R-FCN算法,其置信度相比Faster R-CNN算法以及R-FCN算法更低,但不影响最终的预测结果。

改进的SSD算法对于将深度学习方法高效地用于大区域遥感影像目标检索具有一定参考价值,尤其是在遥感影像小目标的检测上具有较大优势。尽管改进的SSD算法较基于候选框的目标检测方法时间开销少,但相比于原SSD算法耗时依然过多,下一步将对网络结构进一步优化,提升其计算速度。

参考文献

[1] 王广学, 黄晓涛, 周智敏. 基于邻域统计分布变化分析的UWB SAR隐蔽目标变化检测[J]. 电子与信息学报, 2011, 33(1): 49-54.

    王广学, 黄晓涛, 周智敏. 基于邻域统计分布变化分析的UWB SAR隐蔽目标变化检测[J]. 电子与信息学报, 2011, 33(1): 49-54.

    Wang G X, Huang X T, Zhou Z M. UWB SAR change detection of target in foliage based on local statistic distribution change analysis[J]. Journal of Electronics & Information Technology, 2011, 33(1): 49-54.

    Wang G X, Huang X T, Zhou Z M. UWB SAR change detection of target in foliage based on local statistic distribution change analysis[J]. Journal of Electronics & Information Technology, 2011, 33(1): 49-54.

[2] 吴畏. 基于知识的目标识别与跟踪技术研究[D]. 哈尔滨: 哈尔滨工业大学, 2007: 10- 28.

    吴畏. 基于知识的目标识别与跟踪技术研究[D]. 哈尔滨: 哈尔滨工业大学, 2007: 10- 28.

    WuW. Research on knowledge-based target recognition and tracking techniques[D]. Harbin: Harbin Institute of Technology, 2007: 10- 28.

    WuW. Research on knowledge-based target recognition and tracking techniques[D]. Harbin: Harbin Institute of Technology, 2007: 10- 28.

[3] 曹家梓, 宋爱国. 基于马尔科夫随机场的纹理图像分割方法研究[J]. 仪器仪表学报, 2015, 36(4): 776-786.

    曹家梓, 宋爱国. 基于马尔科夫随机场的纹理图像分割方法研究[J]. 仪器仪表学报, 2015, 36(4): 776-786.

    Cao J Z, Song A G. Research on the texture image segmentation method based on Markov random field[J]. Chinese Journal of Scientific Instrument, 2015, 36(4): 776-786.

    Cao J Z, Song A G. Research on the texture image segmentation method based on Markov random field[J]. Chinese Journal of Scientific Instrument, 2015, 36(4): 776-786.

[4] Russakovsky O, Deng J, Su H, et al. ImageNet large scale visual recognition challenge[J]. International Journal of Computer Vision, 2015, 115(3): 211-252.

    Russakovsky O, Deng J, Su H, et al. ImageNet large scale visual recognition challenge[J]. International Journal of Computer Vision, 2015, 115(3): 211-252.

[5] GirshickR. Fast R-CNN[C]∥2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile. New York: IEEE, 2015: 1440- 1448.

    GirshickR. Fast R-CNN[C]∥2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile. New York: IEEE, 2015: 1440- 1448.

[6] Ren S Q, He K M, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

    Ren S Q, He K M, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[7] DaiJ, LiY, HeK, et al. R-FCN: object detection via region-based fully convolutional networks[C]∥NIPS'16 Proceedings of the 30th International Conference on Neural Information Processing Systems, December 5-10, 2016, Barcelona, Spain. USA: Curran Associates Inc., 2016: 379- 387.

    DaiJ, LiY, HeK, et al. R-FCN: object detection via region-based fully convolutional networks[C]∥NIPS'16 Proceedings of the 30th International Conference on Neural Information Processing Systems, December 5-10, 2016, Barcelona, Spain. USA: Curran Associates Inc., 2016: 379- 387.

[8] RedmonJ, DivvalaS, GirshickR, et al. You only look once: unified, real-time object detection[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 779- 788.

    RedmonJ, DivvalaS, GirshickR, et al. You only look once: unified, real-time object detection[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 779- 788.

[9] LiuW, AnguelovD, ErhanD, et al. SSD: single shot multibox detector[M] ∥Leibe B, Matas J, Sebe N, et al. Computer Vision-ECCV 2016. Cham: Springer, 2016, 9905: 21- 37.

    LiuW, AnguelovD, ErhanD, et al. SSD: single shot multibox detector[M] ∥Leibe B, Matas J, Sebe N, et al. Computer Vision-ECCV 2016. Cham: Springer, 2016, 9905: 21- 37.

[10] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 2858826.

    Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 2858826.

[11] HuangJ, RathodV, SunC, et al. Speed/accuracy trade-offs for modern convolutional object detectors[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 3296- 3297.

    HuangJ, RathodV, SunC, et al. Speed/accuracy trade-offs for modern convolutional object detectors[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 3296- 3297.

[12] Lin TY, MaireM, BelongieS, et al. Microsoft COCO: common objects in context[M] ∥Fleet D, Pajdla T, Schiele B, et al. Computer Vision-ECCV 2014. Cham: Springer, 2014, 8693: 740- 755.

    Lin TY, MaireM, BelongieS, et al. Microsoft COCO: common objects in context[M] ∥Fleet D, Pajdla T, Schiele B, et al. Computer Vision-ECCV 2014. Cham: Springer, 2014, 8693: 740- 755.

[13] 徐逸之, 姚晓婧, 李祥, 等. 基于全卷积网络的高分辨遥感影像目标检测[J]. 测绘通报, 2018( 1): 77- 82.

    徐逸之, 姚晓婧, 李祥, 等. 基于全卷积网络的高分辨遥感影像目标检测[J]. 测绘通报, 2018( 1): 77- 82.

    Xu YZ, Yao XJ, LiX, et al. Object detection in high resolution remote sensing images based on fully convolution networks[J]. Bulletin of Surveying and Mapping, 2018( 1): 77- 82.

    Xu YZ, Yao XJ, LiX, et al. Object detection in high resolution remote sensing images based on fully convolution networks[J]. Bulletin of Surveying and Mapping, 2018( 1): 77- 82.

[14] 张志远. 基于深度学习的光学遥感图像飞机检测[D]. 厦门: 厦门大学, 2016: 20- 30.

    张志远. 基于深度学习的光学遥感图像飞机检测[D]. 厦门: 厦门大学, 2016: 20- 30.

    Zhang ZY. Plane detection in optical remote sensing images based on deep learning[D]. Xiamen: Xiamen University, 2016: 20- 30.

    Zhang ZY. Plane detection in optical remote sensing images based on deep learning[D]. Xiamen: Xiamen University, 2016: 20- 30.

[15] 王金传, 谭喜成, 王召海, 等. 基于Faster R-CNN深度网络的遥感影像目标识别方法研究[J]. 地球信息科学学报, 2018, 20(10): 1500-1508.

    王金传, 谭喜成, 王召海, 等. 基于Faster R-CNN深度网络的遥感影像目标识别方法研究[J]. 地球信息科学学报, 2018, 20(10): 1500-1508.

    Wang J C, Tan X C, Wang Z H, et al. Faster R-CNN deep learning network based object recognition of remote sensing image[J]. Journal of Geo-Information Science, 2018, 20(10): 1500-1508.

    Wang J C, Tan X C, Wang Z H, et al. Faster R-CNN deep learning network based object recognition of remote sensing image[J]. Journal of Geo-Information Science, 2018, 20(10): 1500-1508.

[16] 冯小雨, 梅卫, 胡大帅. 基于改进Faster R-CNN的空中目标检测[J]. 光学学报, 2018, 38(6): 0615004.

    冯小雨, 梅卫, 胡大帅. 基于改进Faster R-CNN的空中目标检测[J]. 光学学报, 2018, 38(6): 0615004.

    Feng X Y, Mei W, Hu D S. Aerial target detection based on improved faster R-CNN[J]. Acta Optica Sinica, 2018, 38(6): 0615004.

    Feng X Y, Mei W, Hu D S. Aerial target detection based on improved faster R-CNN[J]. Acta Optica Sinica, 2018, 38(6): 0615004.

[17] Lin TY, DollárP, GirshickR, et al. Feature pyramid networks for object detection[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 936- 944.

    Lin TY, DollárP, GirshickR, et al. Feature pyramid networks for object detection[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 936- 944.

[18] HuangG, LiuZ, Maaten L V D, et al. Densely connected convolutional networks[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 2261- 2269.

    HuangG, LiuZ, Maaten L V D, et al. Densely connected convolutional networks[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 2261- 2269.

[19] SimonyanK, Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. ( 2015-04-10)[2018-12-22]. https: ∥arxiv.org/abs/1409. 1556.

    SimonyanK, Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. ( 2015-04-10)[2018-12-22]. https: ∥arxiv.org/abs/1409. 1556.

[20] IoffeS, SzegedyC. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]∥ICML'15 Proceedings of the 32nd International Conference on International Conference on Machine Learning, July 6-11, 2015, Lille, France. Massachusetts: JMLR. org, 2015: 448- 456.

    IoffeS, SzegedyC. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]∥ICML'15 Proceedings of the 32nd International Conference on International Conference on Machine Learning, July 6-11, 2015, Lille, France. Massachusetts: JMLR. org, 2015: 448- 456.

[21] He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 770- 778.

    He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 770- 778.

[22] Parker J A, Kenyon R V, Troxel D E. Comparison of interpolating methods for image resampling[J]. IEEE Transactions on Medical Imaging, 1983, 2(1): 31-39.

    Parker J A, Kenyon R V, Troxel D E. Comparison of interpolating methods for image resampling[J]. IEEE Transactions on Medical Imaging, 1983, 2(1): 31-39.

[23] de Boer P T, Kroese D P, Mannor S, et al. . A tutorial on the cross-entropy method[J]. Annals of Operations Research, 2005, 134(1): 19-67.

    de Boer P T, Kroese D P, Mannor S, et al. . A tutorial on the cross-entropy method[J]. Annals of Operations Research, 2005, 134(1): 19-67.

[24] YosinskiJ, CluneJ, BengioY, et al. How transferable are features in deep neural networks?[EB/OL]. ( 2014-11-06)[2018-12-22]. https:∥arxiv.org/abs/1411. 1792.

    YosinskiJ, CluneJ, BengioY, et al. How transferable are features in deep neural networks?[EB/OL]. ( 2014-11-06)[2018-12-22]. https:∥arxiv.org/abs/1411. 1792.

[25] Everingham M, van Gool L, Williams C K I, et al. . The pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338.

    Everingham M, van Gool L, Williams C K I, et al. . The pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338.

[26] LoshchilovI, Hutter F. SGDR: stochastic gradient descent with warm restarts[EB/OL]. ( 2017-03-03)[2018-12-25]. https:∥arxiv.org/abs/1608. 03983.

    LoshchilovI, Hutter F. SGDR: stochastic gradient descent with warm restarts[EB/OL]. ( 2017-03-03)[2018-12-25]. https:∥arxiv.org/abs/1608. 03983.

[27] SzegedyC, VanhouckeV, IoffeS, et al. Rethinking the inception architecture for computer vision[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 2818- 2826.

    SzegedyC, VanhouckeV, IoffeS, et al. Rethinking the inception architecture for computer vision[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 2818- 2826.

王俊强, 李建胜, 周学文, 张旭. 改进的SSD算法及其对遥感影像小目标检测性能的分析[J]. 光学学报, 2019, 39(6): 0628005. Junqiang Wang, Jiansheng Li, Xuewen Zhou, Xu Zhang. Improved SSD Algorithm and Its Performance Analysis of Small Target Detection in Remote Sensing Images[J]. Acta Optica Sinica, 2019, 39(6): 0628005.

本文已被 14 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!