基于多重连接特征金字塔的SAR图像舰船目标检测 下载: 736次
1 引言
在传统的合成孔径雷达(SAR)图像舰船检测算法中,恒虚警率检测算法(CFAR)[1]是最为经典的算法之一,它对背景杂波进行统计分布建模,分析其与舰船目标特征之间的差异性,并进行舰船目标的检测。但是恒虚警率算法及其衍生算法,如OS-CFAR(Order-statistic CFAR)[2]、CA-CFAR(Cell-average CFAR)[3]和GO-CFAR(Greatest of CFAR)[4]等,都是针对特定的场景,采用人工设计特征来进行检测,算法的鲁棒性较差,对于近海的冰山、小岛等复杂场景容易产生虚警,并且检测耗时长,这些问题的存在,导致了传统算法的舰船检测效果并不理想。
近些年深度学习技术迅速发展,卷积神经网络(CNN)[5]凭借强大的特征学习能力,在图像分类、物体检测和语义分割等多个任务上都取得了突破性的进展。其中,基于卷积神经网络的目标检测算法主要分为两大类:高精度但耗时且效率低的双阶段检测算法,如R-CNN[6-9]系列算法;速度快但精度稍低的单阶段检测算法,以YOLO(You Only Look Once)[10-12]和SSD(Single Shot Detection)[13-16]两个系列为代表。相比于CFAR系列算法,基于深度学习的检测方法无需复杂的建模过程,因此也受到了许多研究人员的关注。Wang等[17]提出了一种在复杂背景下用于深度学习的SAR图像舰船检测方法,在SSD的基础上,减少了网络的深度,使得改进后的SSD在性能几乎保持不变的同时减少了训练的时间;赵云飞等[18]提出一种基于深度特征金字塔和级联检测器的舰船检测算法,该方法利用数据增强来扩充小目标样本,再使用深度特征金字塔来改进网络;王健林等[19]在区域全卷积网络(R-FCN)基础上,对ResNet-50进行混合尺度卷积核处理,提升了舰船的检测效果;Deng等[20]提出了一种从零开始训练的检测方法,该方法重新设计网络结构,采用了一个密集的主干网络DenseNet;杨龙等[21]提出了一种基于深层次多尺度特征融合的检测模型,通过两次特征融合和优化分类损失来提高精度。然而,上述方法对于中小型的舰船仍然存在较多的误检和漏检。
因此,本文在SSD检测算法的基础上,提出了一种基于多重连接特征金字塔的SAR图像舰船目标检测方法。首先,针对SAR图像中存在大量中小型舰船的特点重新设计了特征提取网络;其次,使用了特征金字塔网络[22]用于特征融合,并针对其不足进行改进,提出了一种多重连接特征金字塔网络;最后,引入焦点损失和广义交并比(GIoU)损失[23]来改进SSD中原本的损失,提高网络的检测性能。
2 方法设计
2.1 方法模型结构
本文方法模型是以SSD算法模型为基础框架建立的,利用设计的卷积神经网络提取SAR图像中舰船的特征图,通过回归的方式预测目标的坐标信息和类别,主要模型结构如
2.2 特征提取网络
SSD算法通常采用VGG16作为特征提取网络,在传统的光学目标检测领域取得了良好的效果,由于SAR图像中舰船目标普遍较小,受到的背景干扰严重,原来的VGG16特征提取网络很难提取出小目标舰船的特征。因此,本文针对SAR图像舰船特点,对原有的SSD网络进行重新设计,提出了一个新的特征提取网络模型I-VGGNet,用于SAR图像舰船特征的提取,如
I-VGGNet网络结构主要由Conv3_3、Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2六层特征提取层组成,每层特征图的参数如
2.3 多重连接特征金字塔
在卷积神经网络中,底层特征图的空间分辨率较高,主要学习目标的纹理、轮廓特征,定位信息丰富;高层特征学习的是更为抽象的语义特征,适用于分类。在常见的单阶段算法中,YOLO算法只利用最高层特征图进行预测,如
图 3. 不同检测网络结构。(a)YOLO;(b)SSD;(c)FPN;(d)MCFPN
Fig. 3. Structure of different detection networks. (a) YOLO; (b) SSD; (c) FPN; (d) MCFPN
针对上述的不足,本文提出一种多重连接特征金字塔(MCFPN)模型,如
以特征层Conv8_2为例,MCFPN的细节结构如
图 4. 多重连接特征金字塔的细节结构
Fig. 4. Detailed structure of multiple connected feature pyramid network
2.4 损失函数
本文损失函数由分类损失和定位损失加权之和组成,表示为
式中:x为真实框;c为预测框的类别置信度;l为预测的位置信息;g为真实框的位置信息;Lconf(x,c)表示分类损失;Lloc(x,l,g)表示定位损失;N为先验框中正样本的数量;α为分类损失与定位损失之间的平衡系数,通常设为1。
2.4.1 分类损失
SAR舰船检测是一个二分类的任务,分为舰船与非舰船两类。为了提高复杂场景下舰船检测的准确率,本文使用焦点损失代替原SSD算法中的交叉熵损失作为本文的分类损失函数,表示为
式中:pt为预测结果对应标签的概率;参数αt为正负样本的平衡因子;参数γ为难易样本的平衡因子。相比于交叉熵损失,焦点损失可以通过调节参数αt、γ来改变正负样本的比例和难易样本在损失中的权重,加强对于困难样本的学习,减少复杂背景对于SAR舰船检测的干扰。本文通过实验对多组参数进行调试,当αt=0.25,γ=2时,实验效果最好。
总分类损失为
式中:
2.4.2 定位损失
当前很多检测算法采用smoothL1损失作为定位损失,使用欧氏距离作为评估的度量。然而最终使用NMS算法筛选生成的候选框时,评估度量是预测边框与真实边框的交并比(IoU),这两者并不等价。smoothL1范数对于物体的尺度更加敏感,影响定位的准确性,所以采用IoU作为衡量定位损失的度量更为合适。但是对于不重叠的预测边框与真实边框来说,交并比为零,不能正确表示出两者之间的距离。因此本文使用GIoU作为定位损失的度量。IoU、GIoU的计算公式为
式中:A为预测框;B为真实框;C为一个同时包含A和B的最小包围框。GIoU既保留了IoU的特点,对物体的大小、形状不敏感,又弥补了IoU的不足,增加了对于不重叠边框的度量标准。以GIoU作为距离指标,GIoU损失函数表示为
总定位损失为
式中:A坐标为(
3 分析与讨论
3.1 实验平台与数据集介绍
本文实验所使用的平台为:Windows10操作系统,Inter(R)Core(TM)i7-7800X CPU@3.50 GHz 处理器,16 GB内存,NVIDIA GeForce GTX1080Ti 11 GB显卡。全部实验在TensorFlow深度学习框架下实现,编程语言为Python。
本文所使用的数据集为中国科学院空天信息研究院王超团队公开的SAR图像船舶检测数据集(网址:https:∥github.com/CAESAR-Radi/SAR-Ship-Dataset )。该数据集以102景高分三号图像和108景Sentinel-1 SAR图像作为数据源,包含5种成像模式、7种分辨率大小、多种入射角以及两种极化方式。共有43819张船舶图片,包含港口、近海、岛屿等多种背景,种类丰富,部分图像如
3.2 超参数选取
本文所有实验的超参数配置如下:网络的初始学习率为0.0001,最大迭代次数为35000,学习率在迭代到17500次和26250次时发生衰减,衰减系数为0.1,模型的Batch Size 设置为16,采用随机梯度下降(SGD)算法来优化参数,优化动量参数为0.9,非极大值抑制的阈值设为0.5。最终损失函数变化曲线如
3.3 评价指标
本文使用的评价指标为目标检测领域中的通用评价指标,主要包括平均精度(AP)和每秒帧率(FPS)。平均精度的计算公式为
式中:P表示精准率;R表示召回率;RAP即P-R曲线下的面积,综合了精准率和召回率这两个参数。每秒帧率是指每秒能够检测的图像数量。
3.4 实验结果与分析
3.4.1 与原始SSD算法对比实验
图 7. 本文方法与SSD算法的P-R曲线对比
Fig. 7. Comparison of the P-R curve of proposed method and SSD algorithm
图 8. 本文方法与SSD算法的实验效果对比。(a)模糊背景;(b)近岸、港口区域;(c)近岸的小型舰船;(d)海面上的小型舰船
Fig. 8. Comparison of experimental results between the proposed method and SSD algorithm. (a) Blurred background; (b) near shore and port area; (c) small ships near shore; (d) small ships on the sea
3.4.2 焦点损失参数设置实验
为了提高SAR图像舰船检测的精度,本文引入焦点损失作为本文方法的分类损失,并对不同的αt和γ参数进行调试,结果如
表 1. 不同焦点损失参数实验结果
Table 1. Experimental results of different parameters for focal loss
|
3.4.3 消融实验
为了验证本文所提各模块的有效性,采用消融实验进行对比。实验环境和超参数选择与上文所述一致,以原始的SSD网络为基线网络。结果如
表 2. 消融实验结果
Table 2. Results of ablation experiments
|
3.4.4 与其他方法对比实验
为了进一步验证本文方法的有效性,将本文方法与当前流行的一些目标检测算法进行对比。所有算法均在中国科学院数据集上进行实验,除SSD-512外,图像的输入尺寸均为300 pixel×300 pixel,超参数选择如3.2节所示。SSD、Faster R-CNN算法以VGG16作为特征提取网络,RetinaNet、DSSD算法以ResNet50作为特征提取网络,AP计算的阈值设为0.5,实验结果如
表 3. 与其他算法在SAR图像船舶检测数据集上的性能对比
Table 3. Performance comparison with other methods on SAR ship dataset
|
4 结论
本文提出了一种基于多重连接特征金字塔的SAR图像舰船目标检测方法。该方法以SSD算法为框架基础,通过对特征提取网络VGG16网络进行改进,提高了网络获取舰船小目标特征信息的能力;设计了多重连接特征金字塔网络MCFPN,充分融合舰船高层语义特征与底层定位特征,提高网络对于中小尺寸舰船的检测性能;引入焦点损失和GIoU损失,对损失函数进行优化,降低复杂背景对于检测性能的影响,提高模型的定位能力。通过在公开数据集上和现存主流方法进行对比测试实验,结果表明,该方法可以有效地提高SAR图像舰船目标复杂场景下的检测精度,检测速度也能满足实时性需求。在未来的研究中,将进一步精简网络结构,优化模型参数,提高检测速度。
[1] Wackerman C C, Friedman K S, Pichel W G, et al. Automatic detection of ships in RADARSAT-1 SAR imagery[J]. Canadian Journal of Remote Sensing, 2001, 27(5): 568-577.
[2] Novak LM, Hesse SR. On the performance of order-statistics CFAR detectors[C] // Conference Record of the Twenty-Fifth Asilomar Conference on Signals, Systems & Computers, November 4-6, 1991, Pacific Grove, CA, USA.New York: IEEE Press, 1991: 835- 840.
[3] Steenson B O. Detection performance of a mean-level threshold[J]. IEEE Transactions on Aerospace and Electronic Systems, 1968, AES-4(4): 529-534.
[6] GirshickR, DonahueJ, DarrellT, et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C] //2014 IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2014, Columbus, OH, USA.New York: IEEE Press, 2014: 580- 587.
[7] GirshickR. Fast R-CNN[C] //2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile.New York: IEEE Press, 2015: 1440- 1448.
[8] Ren SQ, He KM, GirshickR, et al. Faster R-CNN: towards real-time object detection with region proposal networks[C] //IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39( 6) : 1137- 1149.
[9] He KM, GkioxariG, DollárP, et al.Mask R-CNN[C] //2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy.New York: IEEE Press, 2017: 2980- 2988.
[10] RedmonJ, DivvalaS, GirshickR, et al.You only look once: unified, real-time object detection[C] //2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 779- 788.
[11] RedmonJ, FarhadiA. YOLO9000: better, faster, stronger[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 6517- 6525.
[13] LiuW, AnguelovD, ErhanD, et al.SSD: single shot MultiBox detector[M]. Cham: Springer International Publishing, 2016: 21- 37.
[15] Li Z X, Zhou F Q. FSSD: feature fusion single shot multibox detector[J]. Computer Vision and Pattern Recognition, 2018, 36(7): 356-366.
[16] Lin TY, GoyalP, GirshickR, et al.Focal loss for dense object detection[C] //2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy.New York: IEEE Press, 2017: 2999- 3007.
[17] Wang Y Y, Wang C, Zhang H, et al. A SAR dataset of ship detection for deep learning under complex backgrounds[J]. Remote Sensing, 2019, 11(7): 765.
[18] 赵云飞, 张宝华, 张艳月, 等. 基于深度特征金字塔和级联检测器的SAR图像舰船检测[J]. 激光与光电子学进展, 2020, 57(12): 121019.
[19] 王健林, 吕晓琪, 张明, 等. 基于改进R-FCN的遥感图像舰船检测[J]. 激光与光电子学进展, 2019, 56(16): 162803.
[21] 杨龙, 苏娟, 黄华, 等. 一种基于深层次多尺度特征融合CNN的SAR图像舰船目标检测算法[J]. 光学学报, 2020, 40(2): 0215002.
[22] Lin TY, DollárP, GirshickR, et al.Feature pyramid networks for object detection[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 936- 944.
[23] RezatofighiH, TsoiN, GwakJ, et al.Generalized intersection over union: a metric and a loss for bounding box regression[C] //2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 15-20, 2019, Long Beach, CA, USA. New York: IEEE Press, 2019: 658- 666.
Article Outline
徐志京, 黄海. 基于多重连接特征金字塔的SAR图像舰船目标检测[J]. 激光与光电子学进展, 2021, 58(8): 0811002. Zhijing Xu, Hai Huang. Ship Detection in SAR Image Based on Multiple Connected Features Pyramid Network[J]. Laser & Optoelectronics Progress, 2021, 58(8): 0811002.