激光与光电子学进展, 2019, 56 (19): 191003, 网络出版: 2019-10-12   

基于YOLO v3的机场场面飞机检测方法 下载: 1829次

Airport Scene Aircraft Detection Method Based on YOLO v3
作者单位
1 宁夏大学信息工程学院, 宁夏 银川 750021
2 中国民用航空西北地区空中交通管理局宁夏分局, 宁夏 银川 750009
摘要
小目标、飞机相互遮挡等难以检测的问题,对飞机检测的准确性及实时性提出很大的挑战。将实时性较高的YOLO v3算法应用到机场场面飞机检测领域,并提出两点改进:将骨干网络中的卷积层替换为空洞卷积,保持较高分辨率及较大感受野,提高模型对小目标检测的准确率;通过线性衰减置信得分的方式,对非极大值抑制(NMS)算法进行优化,以提升模型对被遮挡飞机的检测能力。结果表明,改进后的YOLO v3能够较好地检测小目标和遮挡飞机,且在保证实时性的前提下,将检测准确率从72.3%提高到83.7%。
Abstract
The difficulty to detect small targets or occlusion aircrafts poses a great challenge to the accuracy and real-time of aircraft detection. In this paper, YOLO v3 algorithm with high real-time performance is applied to the field of aircraft detection in airport scene, and two improvements are proposed: replacing the convolution layer in backbone network with void convolution, maintaining high resolution and large field of receptivity and improving the accuracy of small target detection; optimizing the NMS algorithm by linear attenuation confidence score to improve the detection accuracy of occlusion aircrafts. The results show that the improved YOLO v3 can well detect small targets and occlusion aircraft, and the detection accuracy is improved from 72.3% to 83.7% as the real-time performance is ensured.

1 引言

场面飞机检测是智慧机场、远程塔台的重要组成部分,它能自动识别机场图像中的飞机,辅助塔台管制员保障飞行安全,在场面飞机冲突预警、防跑道侵入、远程指挥等方面具有重要的应用价值[1]

场面飞机图像通常是由航站楼、塔台的摄像机采集。相比于轮廓完整、姿态单一的遥感飞机图像,场面飞机图像存在飞机相互遮挡,及拍摄距离远造成飞机较小等难以检测的问题,这使得基于滑动窗口的传统方法受到限制[2-4]。近些年,随着深度学习技术的快速发展,基于深度学习的方法广泛应用于目标检测领域。目前基于深度学习的方法主要分为两类:一是基于候选区域的方法,例如Fast-RCNN[5]、Faster-RCNN[6];二是基于回归的方法,例如You Only Look Once(YOLO)[7]、YOLO9000[8]、SSD[9]、YOLO v3[10-11]。其中,基于候选区域的方法具有很高的检测准确率,但是检测速度较慢,不适用于场面飞机检测,而基于回归的检测方法检测速度高,满足场面飞机检测实时性要求,且YOLO v3融合锚(Anchor)[12]、特征金字塔(FPN)[13]等策略,大大提高了检测准确率。

YOLO v3是目前最优秀的检测算法之一,国内外诸多研究者将其应用于飞机检测领域,并提出了不同的改进方案。李耀龙等[14]将Ting-YOLO[15]应用到机场飞机目标识别中,并提出一种简化的Ting-YOLO算法,提高了检测速度。Kharchenko等[16]将YOLO v3应用于无人机拍摄的地面小物体检测,该方法具有较高的检测能力、定位精度和实时处理速度。戴伟聪等[17]将YOLO v3应用于遥感图像中的飞机检测,并将密集相连模块用于骨干网络,实现了多尺度遥感图像中的飞机检测。上述文献将YOLO v3应用于飞机检测,并通过减少骨干网络层数、改变卷积层等方式对算法进行改进,但是在小目标及飞机相互遮挡的检测方面,效果并不理想。

针对上述问题,本文将YOLO v3算法应用于场面飞机检测,并提出两点改进:1)在骨干网络中,使用空洞卷积层[18]替换卷积层,保持较高分辨率和感受野,提高小目标检测的能力;2)在检测网络中,根据多个网格预测的候选框交并比(IOU)[19]的大小,线性衰减置信得分,保留被遮挡的飞机,解决飞机相互遮挡检测问题。本文使用自行组建并标注的场面飞机数据集Aeroplane,在此数据集上,对多种算法进行对比测试,实验结果表明,本文方法在小目标及相互遮挡的飞机检测方面取得良好的效果。

2 YOLOv3算法

2016年,Redmon等[7]在YOLO v2[8]算法的基础上,融合ResNet[20-21]、FPN、二元交叉熵损失等方法,提出了YOLO v3算法。YOLO v3的网络结构分为骨干网络(Darknet-53)和检测网络。Darknet-53由52个卷积层和1个全连接层组成,构成了一个53层的卷积神经网络(CNN),并输出13×13、26×26及52×52三种尺度的特征,送入检测网络[16]。检测网络对三种尺度的特征回归,预测出多个预测框,并使用非极大抑制(NMS)算法,去除IOU较大与置信得分较低的预测框,保留置信得分较高的预测框为目标检测框[19]

YOLO v3的检测流程,如图1所示。首先,输入的图像整体缩放为416×416,并将图像划分成大小为S×S的网格,如果某一目标的中心落入某一网格,则该网格负责预测该目标[22]。每个网格负责预测出b个预测框,每个预测框对应(C+5)个值,C为检测物体类别数,5表示预测框的坐标(x,y)、尺寸(宽w、高h)以及存在物体的置信得分P(Oobject)=1这5个参数,预测框置信得分Sconfi

Sconfi=P(CiOobject)×P(Oobject)×I(truth,pred),(1)

式中:如果预测框中存在检测物体,则P(Oobject)=1,否则P(Oobject)=0;P(CiOobject)为网格预测i类的置信得分;Ci为第i类物体,i为类别编号;Oobject为存在物体;I(truth,pred)为预测目标框与真实目标框的交并比。

图 1. YOLO v3的检测流程

Fig. 1. Detection flow of YOLO v3

下载图片 查看所有图片

最后,使用NMS算法筛选出置信得分Sconfi较高的预测框为检测框。NMS可用公式表示为

Sconfi=Sconfi,I(M,bi)<Nt0,I(M,bi)Nt,(2)

式中,M为置信得分较大的候选框,bi为被比较的物体预测框,I(M,bi)为Mbi的交并比,Nt为抑制阈值。

YOLO v3中,Darknet-53使用步长为2,大小为3×3的卷积核进行降采样,感受野区域广,牺牲了空间分辨率,致使深层网络的小目标信息损失,缺乏细节信息。虽然YOLO v3采用FPN,将高层特征与浅层特征信息融合,提高了小目标的检测效果,但是步长较大的高层导致小目标的语义特征丢失严重,该特征融合方法对精确定位飞机和检测较小的场面飞机有不利的影响。NMS算法通过判断IOU值是否大于阈值的方式,删除多余的预测框,保留物体的检测框。该方式较好地筛选了预测框,但势必会删除遮挡飞机的预测框,影响相互遮挡飞机的检测[19]

3 改进的YOLO v3模型

针对场面飞机存在的小目标与相互遮挡难以检测的问题,对YOLO v3的骨干网络Darknet-53和NMS算法提出两点改进:一是采用高分辨率、大感受野的骨干网络;二是采用线性衰减的NMS算法。

3.1 高分辨率、大感受野的骨干网络

对于小目标的检测,一方面需要高分辨率的特征图,才能检测较小区域的目标信息;另一方面需要较开阔的感受野或者更全局的信息,才能准确判断目标的位置和语义特征。为了改善场面图像中小目标的检测,结合空洞卷积和FPN结构,提出一种高分辨率、大感受野的骨干网络用于特征提取。

空洞卷积是通过改变卷积核的内部间隔来扩大卷积核的感受野。图2为3种不同间隔的空洞卷积核,其中rrate表示卷积核内部空洞的间隔。图2(a)为3×3、rrate=1的空洞卷积,卷积核的感受野范围是3×3。图2(b)为3×3、rrate=2的空洞卷积,卷积核的感受野增大到7×7。图2(c)为3×3、rrate=3的空洞卷积,卷积核的感受野增大到15×15,保证卷积网络能够提取到较大视野内的特征信息[23]

图 2. 空洞卷积。(a) rrate=1;(b) rrate=2;(c) rrate=3

Fig. 2. Dilated convolutions. (a) rrate=1; (b) rrate=2; (c) rrate=3

下载图片 查看所有图片

改进后的YOLO v3的骨干网络及FPN结构,如图3所示。相比于YOLO v3骨干网络,改进后的YOLO v3没有对输入图像做过多的下采样,最后三个阶段的分辨率保持为26×26,增加最终输出特征图的分辨率,减少深层网络的小尺寸目标语义特征丢失,有利于识别较小的目标。该结构减少下采样的数量后进行特征提取,势必将带来深层网络的感受野减小的问题[23]。故改进后的YOLO v3沿用FPN结构,引入空洞卷积瓶颈层,如图4(a)所示,带1×1卷积结构的空洞卷积瓶颈层,如图4(b)所示。这两种复杂度较低的空洞卷积残差结构中,Conv为卷积层,Add为相加运算,ReLU为激活函数。因使用大小为3×3,rrate=2的空洞卷积,从而整体上增大了骨干网络的感受野和特征表达能力[24]。同时,空洞卷积残差结构仍具有残差单元的网络参数较少、计算复杂度较低的优点,图4(b)结构使用1×1的卷积实现跨通道的特征融合,较好地整合了信息。

图 3. 改进后YOLO v3的骨干网络及FPN结构

Fig. 3. Backbone network and FPN architecture of the improved YOLO v3

下载图片 查看所有图片

图 4. 空洞卷积残差结构。(a)空洞卷积瓶颈层;(b)带1×1卷积结构的空洞卷积瓶颈层

Fig. 4. Structure of dilated convolution residuals. (a) Dilated convolution bottleneck; (b) dilated convolution bottleneck with 1×1 Conv projection

下载图片 查看所有图片

特征的分辨率将直接影响小目标的检测和整体性能指标,13×13的小目标语义特征丢失严重,52×52的高分辨率特征会造成较大的计算量和内存储存量,所以考虑到不降低骨干网络的整体性能,在网络改进的过程中选择计算量较为适中的分辨率26×26。最终,改进的YOLO v3能够在深层网络中保持较高分辨率和较大的特征图的感受野,增强了YOLO v3算法对小目标的感受野和检测能力。

3.2 线性衰减的NMS算法

图5所示,停靠在机场内的A、B两架飞机,A飞机预测框的置信得分为0.8,B飞机预测框的置信得分为0.6,A飞机严重遮挡B飞机,且A、B两架飞机预测框的IOU大于0.5。使用NMS算法处理多余预测框,当A、B飞机预测框的IOU高于0.5(YOLO v3设定阈值为0.5)时,保留置信得分较高的A飞机,将B飞机的预测框的置信得分置为0,从而造成无法检测出B飞机的结果[25]。本文使用线性衰减的NMS算法,解决了YOLO v3中NMS造成遮挡飞机无法准确检测的问题。当交并比I(M,bi)高于抑制阈值Nt时,对(2)式中置信得分Sconfi进行线性平滑处理,优化后的NMS算法表示为

Sconfi*=Sconfi,I(M,bi)<NtSconfi[1-I(M,bi)],I(M,bi)Nt,(3)

式中, Sconfi*为线性平滑处理后的置信得分。

图 5. 两架相互遮挡的飞机

Fig. 5. Two planes of occlusion

下载图片 查看所有图片

优化后NMS算法处理流程图,如图6所示。具体步骤为:1)根据置信得分的大小,将回归产生的N个预测框依次排序;2)选择置信分数最大的预测框,并计算与其他预测框的IOU值;3)比较计算所得的IOU值与阈值大小,如果IOU值大于阈值,将使用(3)式重新计算置信分数,否则保持原值不变;4)将置信得分最大的预测框存入L中,执行N-1,剩余的预测框重复步骤1)~4),直到N=1,即处理完所有预测框;5)删除L中置信分数小于阈值的预测框,显示置信分数大于阈值的预测框,即该预测框为飞机的最终检测结果。

改进后的骨干网络具有较高的分辨率,能够检测小目标所在区域的特征信息,且该网络具有更开阔的感受野,有助于从全局信息中定位场面图像中的小目标。改进后的NMS算法不再是简单的阈值比较法,而是一种通过采用IOU值线性衰减置信得分的方法,能避免误删遮挡目标的预测框,提升对遮挡目标的检测能力。

图 6. 优化后的NMS处理流程图

Fig. 6. Flow chart of the optimized NMS processing

下载图片 查看所有图片

4 实验与结果分析

实验使用Darknet、TensorFlow[26]深度学习框架,在2块NVIDIA 1070 Ti显卡上完成训练及测试。

4.1 场面飞机数据集

目前,在机场及场面飞机检测的应用研究方面,缺乏公开的适合深度学习训练的数据集。本文构建场面飞机数据集Aeroplane,数据主要来源于宁夏银川市河东国际机场监控视频系统、PASCAL VOC2007与VOC2012[27]的飞机图像。

Aeroplane数据集包含了各种型号的单架客机、相互遮挡客机、小目标、其他目标(机场内的鸟、引导车、摆渡车、行人)等图像,共计10000张,如图7a所示。其中8000张为训练集,2000张为测试集。此外,使用图像工具对所有图像裁剪及统一命名,且横、纵尺寸均保持在375~500 pixel范围内,横、纵偏差不超过100 pixel。最后,采用PASCAL VOC格式的标注工具,人工对图像进行标注,并分为飞机和其他物体两种类别。

场面飞机数据集

Airport scene aircraft data sets

Table 1

4.2 网络训练

基于数据集Aeroplane进行训练,类别为2,输出特征图的数量为21,Anchor为10×13、16×30、33×23、30×61、62×45、59×119、116×90、156×198、373×326[26]。训练的批次为64,动量为0.9,衰减为0.0005,最大迭代次数为60000。开始训练时采用10-3的学习率,以达到稳定整个网路的效果,迭代20000次后调整为10-2,迭代30000次后调整为10-3,迭代30000次后调整为10-4

在训练过程中,通过绘制损失(Loss)曲线能够直观地观察到训练的动态过程。图7为在训练过程中对应的Loss曲线,横坐标表示训练迭代次数,纵坐标表示训练过程中的Loss值。可知在开始训练时,Loss值下降较为迅速;当迭代训练20000次后,Loss曲线平稳下降;当迭代至60000次时,Loss收敛至0.2,结束训练。

图 7. Loss曲线

Fig. 7. Loss curve

下载图片 查看所有图片

4.3 结果及分析

为验证本方法能够较好地检测小目标和相互遮挡的飞机,进而整体地提升场面飞机的检测效果,相关人员将在Aeroplane的测试集上进行3个对比实验。

1)小目标检测

从测试集中随机抽取尺寸为10 pixel×20 pixel、20 pixel×40 pixel、30 pixel×60 pixel、40 pixel×80 pixel、50 pixel×100 pixel、60 pixel×120 pixel的场面飞机图像,使用梯度直方图和支持向量机(HOG+SVM) [4]、Faster-RCNN[6]、SSD[9]、YOLO v3[10-11]和本文方法进行对比实验。

图 8. 不同方法检测多尺度小目标的结果

Fig. 8. Detecting results of multi-scale small targets by different methods

下载图片 查看所有图片

图8所示,使用不同检测方法对不同尺寸的小目标飞机进行检测。横坐标为飞机尺寸(Size),纵坐标为平均准确率(AP),随着飞机尺寸的增加,AP数值逐渐升高。当飞机尺寸为60 pixel×120 pixel时,HOG+SVM、Faster-RCNN、YOLO v3、SSD和本文方法的AP分别达到了47.3%、77.2%、77.2%、64.1%、81.6%。在飞机尺寸为40 pixel×80 pixel以下,本文方法的AP明显高于其他方法,由此可见,本方法在较小目标的检测方面具有优势。

2)飞机相互遮挡检测

从测试集中随机抽取200张飞机遮挡图像,按照横向、纵向遮挡比例进行分组实验。不同遮挡比例的检测性能对比,如表2所示。由表2结果可知,在横向遮挡中,遮挡比例在20%以下,两种检测方法的检测准确率相同;当遮挡比例为20%~40%时,本文方法比YOLO v3检测准确率高30%;遮挡比例更高时,本文方法更能体现出在遮挡飞机检测方面的优势。在纵向遮挡中,两种方法的检测均较低,主要原因为纵向飞机尺寸较小,很难依据IOU值区别出两架飞机。本文方法采取高分辨率的高层特征信息,根据线性衰减NMS的方式,保留被遮挡飞机预测区域。在纵向遮挡中,两种检测方法具有相同的检测准确率。本文方法在一定程度上弥补了YOLO v3对场面飞机间遮挡造成漏检的不足。

表 1. 场面飞机数据集

Table 1. Airport scene aircraft data sets

查看所有表

图9为本文方法与YOLO v3对比例遮挡飞机的检测效果对比图。图9(a)(b)中飞机遮挡比例较小,两种算法均能检测到三架飞机。图9(c)(d)中遮挡比例接近于60%,YOLO v3只能检测到靠前的飞机,无法检测被遮挡的飞机。图9(e)(f)中两架飞机具有明显的颜色特征的遮挡飞机图像,YOLO v3检测效果与图9(c)相同,而本文方法却能够检测到被遮挡的飞机。图9(g)(h)存在较为严重的遮挡,遮挡比例接近于80%,YOLO v3无法检测被遮挡的飞机,本文方法对被遮挡的飞机有良好的特征提取效果,且改进后的NMS算法对预测框的置信得分衰减为非零,可保证对相互遮挡飞机的检测。

图 9. 不同遮挡程度的飞机检测对比实验。(a)(b)遮挡比例接近于20%;(c)(d)遮挡比例接近于60%;(e)(f)有明显颜色特征、遮挡比例接近于60%;(g)(h)遮挡比例接近于80%

Fig. 9. Contrast experiments of aircraft detection with different occlusion proportions. (a)(b) Occlusion is close to 20%; (c)(d) occlusion is close to 60%; (e)(f) obvious color characteristics, occlusion is close to 60%; (g)(h) occlusion is close to 80%

下载图片 查看所有图片

3)不同检测方法的性能对比

表3为本文方法及各类检测方法在场面飞机数据集上测试性能对比,P表示飞机检测的准确率,vFPS表示检测的速度,本文方法的PvFPS分别为83.7%、26 frame·s-1,比传统的HOG+SVM检测方法提升了34.1%和12 frame·s-1,得益于深度学习的检测方法具有提取深层特征的能力,同时YOLO、SSD系列算法将目标检测看成回归问题,提升了检测速度;本文方法与Faster-RCNN相比,检测精度也提高了4.1%,主要原因是本文方法沿用了Anchor机制、FPN结构,提升网络对目标的检测准确率;本文方法的检测准确率较SSD、YOLO v3分别提高了13.2%和11.4%,表明本文方法的骨干网络能保持较高的分辨率、开阔的感受野,有利于提高场面飞机检测的准确率。本文方法的检测速度较YOLO v3降低了8 frame·s-1,主要是由于本文方法采用了空洞卷积(比普通卷积耗时),且较高的特征图分辨率造成检测网络的计算量增加,从而降低了检测速度。虽然检测速度有所降低,但检测准确率得到提升,且满足不低于25 frame·s-1的实时性要求。

表 2. 不同遮挡比例的检测性能对比

Table 2. Detection performance comparison of different overlapped proportions

MethodOverlappeddirectionOverlappedproportion /%AP /%
YOLOv3Horizontal0-2090
20-4060
40-6040
70-9010
Vertical0-9040
Article methodHorizontal0-2090
20-4090
40-6060
70-9020
Vertical20-8040

查看所有表

5 结论

将YOLO v3应用到机场场面飞机检测领域,可以实现场面飞机的实时有效检测。针对小目标及遮挡飞机难以检测的问题,在YOLO v3模型的基础上,对骨干网络和NMS算法进行改进,在Aeroplane数据集上训练及进行对比测试。实验表明本文方法较大地改善了小目标、飞机遮挡的检测效果,将场面飞机检测准确率从72.3%提高到83.7%,速度达到26 frame·s-1,满足实时性检测要求。但本文算法在检测严重遮挡的飞机图像方面仍有不足,这也是后续的研究方向。

参考文献

[1] 杨红雨, 杨波, 武喜萍, 等. 智能化空管技术研究与展望[J]. 工程科学与技术, 2018, 50(4): 12-21.

    Yang H Y, Yang B, Wu X P, et al. Research and prospect of intellectualized air traffic management technology[J]. Advanced Engineering Sciences, 2018, 50(4): 12-21.

[2] Li[\s]{1}XB,[\s]{1}Wang[\s]{1}SJ,[\s]{1}Jiang[\s]{1}BT,[\s]{1}et[\s]{1}al.[\s]{1}Airplane[\s]{1}detection[\s]{1}using[\s]{1}convolutional[\s]{1}neural[\s]{1}networks[\s]{1}in[\s]{1}a[\s]{1}coarse-to-fine[\s]{1}manner[C]∥2017[\s]{1}IEEE[\s]{1}2nd[\s]{1}Information[\s]{1}Technology,[\s]{1}Networking,[\s]{1}Electronic[\s]{1}and[\s]{1}Automation[\s]{1}Control[\s]{1}Conference[\s]{1}(ITNEC),[\s]{1}December[\s]{1}15-17,[\s]{1}2017,[\s]{1}Chengdu,[\s]{1}China.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2017:[\s]{1}235-[\s]{1}239.[\s]{1}

[3] 黄洁, 姜志国, 张浩鹏, 等. 基于卷积神经网络的遥感图像舰船目标检测[J]. 北京航空航天大学学报, 2017, 43(9): 1841-1848.

    Huang J, Jiang Z G, Zhang H P, et al. Ship object detection in remote sensing images using convolutional neural networks[J]. Journal of Beijing University of Aeronautics and Astronautics, 2017, 43(9): 1841-1848.

[4] 姚远, 姜志国, 张浩鹏. 基于层次化分类器的遥感图像飞机目标检测[J]. 航天返回与遥感, 2014, 35(5): 88-94.

    Yao Y, Jiang Z G, Zhang H P. Aircraft detection in remote sensing image based on hierarchical classifiers[J]. Spacecraft Recovery & Remote Sensing, 2014, 35(5): 88-94.

[5] GirshickR.[\s]{1}Fast[\s]{1}R-CNN[C]∥2015[\s]{1}IEEE[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}(ICCV),[\s]{1}December[\s]{1}7-13,[\s]{1}2015,[\s]{1}Santiago,[\s]{1}Chile.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2015:[\s]{1}1440-[\s]{1}1448.[\s]{1}

[6] Ren S Q, He K M, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[7] RedmonJ,[\s]{1}DivvalaS,[\s]{1}GirshickR,[\s]{1}et[\s]{1}al.[\s]{1}You[\s]{1}only[\s]{1}look[\s]{1}once:[\s]{1}unified,[\s]{1}real-time[\s]{1}object[\s]{1}detection[C]∥2016[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}June[\s]{1}27-30,[\s]{1}2016,[\s]{1}Las[\s]{1}Vegas,[\s]{1}NV,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2016:[\s]{1}779-[\s]{1}788.[\s]{1}

[8] RedmonJ,[\s]{1}FarhadiA.[\s]{1}YOLO9000:[\s]{1}better,[\s]{1}faster,[\s]{1}stronger[C]∥2017[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}July[\s]{1}21-26,[\s]{1}2017,[\s]{1}Honolulu,[\s]{1}HI.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2017:[\s]{1}7263-[\s]{1}7271.[\s]{1}

[9] LiuW,[\s]{1}AnguelovD,[\s]{1}ErhanD,[\s]{1}et[\s]{1}al.[\s]{1}SSD:[\s]{1}single[\s]{1}shot[\s]{1}multibox[\s]{1}detector[M][\s]{1}∥Leibe[\s]{1}B,[\s]{1}Matas[\s]{1}J,[\s]{1}Sebe[\s]{1}N,[\s]{1}et[\s]{1}al.[\s]{1}Computer[\s]{1}vision-ECCV[\s]{1}2016.[\s]{1}Lecture[\s]{1}notes[\s]{1}in[\s]{1}computer[\s]{1}science.[\s]{1}Cham:[\s]{1}Springer,[\s]{1}2016,[\s]{1}9905:[\s]{1}21-[\s]{1}37.[\s]{1}

[10] TumasP,[\s]{1}SerackisA.[\s]{1}Automated[\s]{1}image[\s]{1}annotation[\s]{1}based[\s]{1}on[\s]{1}YOLOv3[C]∥2018[\s]{1}IEEE[\s]{1}6th[\s]{1}Workshop[\s]{1}on[\s]{1}Advances[\s]{1}in[\s]{1}Information,[\s]{1}Electronic[\s]{1}and[\s]{1}Electrical[\s]{1}Engineering[\s]{1}(AIEEE),[\s]{1}November[\s]{1}8-10,[\s]{1}2018,[\s]{1}Vilnius,[\s]{1}Lithuania.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2018:[\s]{1}18356488.[\s]{1}

[11] Qu[\s]{1}HQ,[\s]{1}Yuan[\s]{1}TY,[\s]{1}Sheng[\s]{1}ZY,[\s]{1}et[\s]{1}al.[\s]{1}A[\s]{1}pedestrian[\s]{1}detection[\s]{1}method[\s]{1}based[\s]{1}on[\s]{1}YOLOv3[\s]{1}model[\s]{1}and[\s]{1}image[\s]{1}enhanced[\s]{1}by[\s]{1}retinex[C]∥2018[\s]{1}11th[\s]{1}International[\s]{1}Congress[\s]{1}on[\s]{1}Image[\s]{1}and[\s]{1}Signal[\s]{1}Processing,[\s]{1}BioMedical[\s]{1}Engineering[\s]{1}and[\s]{1}Informatics[\s]{1}(CISP-BMEI),[\s]{1}October[\s]{1}13-15,[\s]{1}2018,[\s]{1}Beijing,[\s]{1}China.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2018:[\s]{1}18439663.[\s]{1}

[12] 戴陈卡, 李毅. 基于Faster RCNN以及多部件结合的机场场面静态飞机检测[J]. 计算机应用, 2017, 37(s2): 85-88.

    Dai C K, Li Y. Aeroplane detection in static aerodrome based on faster RCNN and multi-part model[J]. Journal of Computer Applications, 2017, 37(s2): 85-88.

[13] Lin[\s]{1}TY,[\s]{1}DollarP,[\s]{1}GirshickR,[\s]{1}et[\s]{1}al.[\s]{1}Feature[\s]{1}pyramid[\s]{1}networks[\s]{1}for[\s]{1}object[\s]{1}detection[C]∥2017[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}July[\s]{1}21-26,[\s]{1}2017,[\s]{1}Honolulu,[\s]{1}HI.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2017:[\s]{1}936-[\s]{1}944.[\s]{1}

[14] 李耀龙, 张永科, 罗镇宝. 应用深度卷积神经网络的机场及机场内飞机目标识别技术[J]. 重庆理工大学学报(自然科学), 2018, 32(3): 210-216.

    Li Y L, Zhang Y K, Luo Z B. Target recognition technology of airport and airport aircraft based on deep convolution neural network[J]. Journal of Chongqing Institute of Technology(Natural Science), 2018, 32(3): 210-216.

[15] MaJ,[\s]{1}ChenL,[\s]{1}Gao[\s]{1}ZY.[\s]{1}Hardware[\s]{1}implementation[\s]{1}and[\s]{1}optimization[\s]{1}of[\s]{1}tiny-YOLO[\s]{1}network[M][\s]{1}∥Zhai[\s]{1}G,[\s]{1}Zhou[\s]{1}J,[\s]{1}Yang[\s]{1}X.[\s]{1}Digital[\s]{1}TV[\s]{1}and[\s]{1}wireless[\s]{1}multimedia[\s]{1}communication.[\s]{1}IFTC[\s]{1}2017.[\s]{1}Communications[\s]{1}in[\s]{1}computer[\s]{1}and[\s]{1}information[\s]{1}science.[\s]{1}Singapore:[\s]{1}Springer,[\s]{1}2018,[\s]{1}815:[\s]{1}224-[\s]{1}234.[\s]{1}

[16] KharchenkoV,[\s]{1}ChyrkaI.[\s]{1}Detection[\s]{1}of[\s]{1}airplanes[\s]{1}on[\s]{1}the[\s]{1}ground[\s]{1}using[\s]{1}YOLO[\s]{1}neural[\s]{1}network[C]∥2018[\s]{1}IEEE[\s]{1}17th[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Mathematical[\s]{1}Methods[\s]{1}in[\s]{1}Electromagnetic[\s]{1}Theory[\s]{1}(MMET),[\s]{1}July[\s]{1}2-5,[\s]{1}2018,[\s]{1}Kiev,[\s]{1}Ukraine.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2018:[\s]{1}294-[\s]{1}297.[\s]{1}

[17] 戴伟聪, 金龙旭, 李国宁, 等. 遥感图像中飞机的改进YOLOv3实时检测算法[J]. 光电工程, 2018, 45(12): 81-89.

    Dai W C, Jin L X, Li G N, et al. Real-time airplane detection algorithm in remote-sensing images based on improved YOLOv3[J]. Opto-Electronic Engineering, 2018, 45(12): 81-89.

[18] YuF,[\s]{1}KoltunV,[\s]{1}FunkhouserT.[\s]{1}Dilated[\s]{1}residual[\s]{1}networks[C]∥2017[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}July[\s]{1}21-26,[\s]{1}2017,[\s]{1}Honolulu,[\s]{1}HI.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2017:[\s]{1}472-[\s]{1}480.[\s]{1}

[19] BodlaN,[\s]{1}SinghB,[\s]{1}ChellappaR,[\s]{1}et[\s]{1}al.[\s]{1}Soft-NMS:[\s]{1}improving[\s]{1}object[\s]{1}detection[\s]{1}with[\s]{1}one[\s]{1}line[\s]{1}of[\s]{1}code[C]∥2017[\s]{1}IEEE[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}(ICCV),[\s]{1}October[\s]{1}22-29,[\s]{1}2017,[\s]{1}Venice,[\s]{1}Italy.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2017:[\s]{1}5561-[\s]{1}5569.[\s]{1}

[20] Chen[\s]{1}ZX,[\s]{1}Xie[\s]{1}ZF,[\s]{1}Zhang[\s]{1}WB,[\s]{1}et[\s]{1}al.[\s]{1}ResNet[\s]{1}and[\s]{1}model[\s]{1}fusion[\s]{1}for[\s]{1}automatic[\s]{1}spoofing[\s]{1}detection[C]∥Interspeech[\s]{1}2017,[\s]{1}August[\s]{1}20-24,[\s]{1}2017,[\s]{1}Stockholm,[\s]{1}Sweden.[\s]{1}[S.l.:[\s]{1}s.n.],[\s]{1}2017:[\s]{1}102-[\s]{1}106.[\s]{1}

[21] He[\s]{1}KM,[\s]{1}Zhang[\s]{1}XY,[\s]{1}Ren[\s]{1}SQ,[\s]{1}et[\s]{1}al.[\s]{1}Deep[\s]{1}residual[\s]{1}learning[\s]{1}for[\s]{1}image[\s]{1}recognition[C]∥2016[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}June[\s]{1}27-30,[\s]{1}2016,[\s]{1}Las[\s]{1}Vegas,[\s]{1}NV,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2016:[\s]{1}770-[\s]{1}778.[\s]{1}

[22] 魏湧明, 全吉成, 侯宇青阳. 基于YOLOv2的无人机航拍图像定位研究[J]. 激光与光电子学进展, 2017, 54(11): 111002.

    Wei Y M, Quan J C, Houyu Q Y. Aerial image location of unmanned aerial vehicle based on YOLOv2[J]. Laser & Optoelectronics Progress, 2017, 54(11): 111002.

[23] Li[\s]{1}ZM,[\s]{1}PengC,[\s]{1}YuG,[\s]{1}et[\s]{1}al.[\s]{1}DetNet:[\s]{1}a[\s]{1}backbone[\s]{1}network[\s]{1}for[\s]{1}object[\s]{1}detection[J/OL].[\s]{1}([\s]{1}2018-04-19)[2019-02-19].[\s]{1}https:∥arxiv.org/abs/1804.[\s]{1}06215.[\s]{1}

[24] 吴晨玥, 易本顺, 章云港, 等. 基于改进卷积神经网络的视网膜血管图像分割[J]. 光学学报, 2018, 38(11): 1111004.

    Wu C Y, Yi B S, Zhang Y G, et al. Retinal vessel image segmentation based on improved convolutional neural network[J]. Acta Optica Sinica, 2018, 38(11): 1111004.

[25] 华夏, 王新晴, 王东, 等. 基于改进SSD的交通大场景多目标检测[J]. 光学学报, 2018, 38(12): 1215003.

    Hua X, Wang X Q, Wang D, et al. Multi-objective detection of traffic scenes based on improved SSD[J]. Acta Optica Sinica, 2018, 38(12): 1215003.

[26] 冯小雨, 梅卫, 胡大帅. 基于改进Faster R-CNN的空中目标检测[J]. 光学学报, 2018, 38(6): 0615004.

    Feng X Y, Mei W, Hu D S. Aerial target detection based on improved faster R-CNN[J]. Acta Optica Sinica, 2018, 38(6): 0615004.

[27] 马永杰, 李雪燕, 宋晓凤. 基于改进深度卷积神经网络的交通标志识别[J]. 激光与光电子学进展, 2018, 55(12): 121009.

    Ma Y J, Li X Y, Song X F. Traffic sign recognition based on improved deep convolution neural network[J]. Laser & Optoelectronics Progress, 2018, 55(12): 121009.

郭进祥, 刘立波, 徐峰, 郑斌. 基于YOLO v3的机场场面飞机检测方法[J]. 激光与光电子学进展, 2019, 56(19): 191003. Jinxiang Guo, Libo Liu, Feng Xu, Bin Zheng. Airport Scene Aircraft Detection Method Based on YOLO v3[J]. Laser & Optoelectronics Progress, 2019, 56(19): 191003.

本文已被 9 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!