激光与光电子学进展, 2021, 58 (8): 0811002, 网络出版: 2021-04-16  

基于多重连接特征金字塔的SAR图像舰船目标检测 下载: 736次

Ship Detection in SAR Image Based on Multiple Connected Features Pyramid Network
作者单位
上海海事大学信息工程学院, 上海 201306
摘要
针对SSD等算法在合成孔径雷达(SAR)图像舰船小目标以及复杂场景下目标的检测效果不佳问题,提出了一种基于多重连接特征金字塔的舰船目标检测方法。首先,针对图像中小目标舰船的特点,构建了全新的特征提取网络I-VGGNet,以解决小尺寸舰船特征信息的丢失问题;其次,增加了多重连接特征金字塔网络模块,加强舰船高层语义特征与低层定位特征的融合,从而提高网络对于中小尺寸舰船的检测性能;最后,为了解决复杂场景对于舰船目标检测的干扰,在广义交并比损失和焦点损失基础上,构造了一个新的损失函数,从而降低网络对于舰船尺度的敏感性,加速模型的收敛。本文方法在中国科学院SAR图像舰船目标数据集上进行了相关实验,实验结果表明,平均精度达到了94.79%,优于现存的主流检测算法,帧率达到了22 frame/s,满足实时检测的需求,所提方法对复杂场景下不同尺寸的舰船目标的检测展现出了良好的适应性。
Abstract
Aiming at the poor detection effect of SSD and other algorithms on small ship targets in synthetic aperture radar (SAR) images and complex scenes, this paper proposes a method of ship detection based on a multiply connected feature pyramid network. First, according to the characteristics of small target ships in the image, a new feature extraction network I-VGGNet is constructed to solve the problem of the loss of feature information of small ships. Second, the multi-connection feature pyramid network module is added to strengthen the fusion of high-level semantic features of ships and low-level positioning features so as to improve the detection performance of the network for small and medium-sized ships. Finally, in order to solve the interference of complex scenes on ship target detection, this paper constructs a new loss function based on generalized intersection over union loss and focus loss to reduce the sensitivity of the network to the ship scale and accelerates the convergence of the model. The proposed method is tested in related experiments on the Chinese Academy of Sciences SAR image ship target data set. Experimental results show that the average accuracy reaches 94.79%, which is better than the existing mainstream detection algorithms. The frame rate reaches 22 frame/s, which meets the real-time detection requirements, the proposed method shows good adaptability to the detection of ship targets of different sizes in complex scenarios.

1 引言

在传统的合成孔径雷达(SAR)图像舰船检测算法中,恒虚警率检测算法(CFAR)[1]是最为经典的算法之一,它对背景杂波进行统计分布建模,分析其与舰船目标特征之间的差异性,并进行舰船目标的检测。但是恒虚警率算法及其衍生算法,如OS-CFAR(Order-statistic CFAR)[2]、CA-CFAR(Cell-average CFAR)[3]和GO-CFAR(Greatest of CFAR)[4]等,都是针对特定的场景,采用人工设计特征来进行检测,算法的鲁棒性较差,对于近海的冰山、小岛等复杂场景容易产生虚警,并且检测耗时长,这些问题的存在,导致了传统算法的舰船检测效果并不理想。

近些年深度学习技术迅速发展,卷积神经网络(CNN)[5]凭借强大的特征学习能力,在图像分类、物体检测和语义分割等多个任务上都取得了突破性的进展。其中,基于卷积神经网络的目标检测算法主要分为两大类:高精度但耗时且效率低的双阶段检测算法,如R-CNN[6-9]系列算法;速度快但精度稍低的单阶段检测算法,以YOLO(You Only Look Once)[10-12]和SSD(Single Shot Detection)[13-16]两个系列为代表。相比于CFAR系列算法,基于深度学习的检测方法无需复杂的建模过程,因此也受到了许多研究人员的关注。Wang等[17]提出了一种在复杂背景下用于深度学习的SAR图像舰船检测方法,在SSD的基础上,减少了网络的深度,使得改进后的SSD在性能几乎保持不变的同时减少了训练的时间;赵云飞等[18]提出一种基于深度特征金字塔和级联检测器的舰船检测算法,该方法利用数据增强来扩充小目标样本,再使用深度特征金字塔来改进网络;王健林等[19]在区域全卷积网络(R-FCN)基础上,对ResNet-50进行混合尺度卷积核处理,提升了舰船的检测效果;Deng等[20]提出了一种从零开始训练的检测方法,该方法重新设计网络结构,采用了一个密集的主干网络DenseNet;杨龙等[21]提出了一种基于深层次多尺度特征融合的检测模型,通过两次特征融合和优化分类损失来提高精度。然而,上述方法对于中小型的舰船仍然存在较多的误检和漏检。

因此,本文在SSD检测算法的基础上,提出了一种基于多重连接特征金字塔的SAR图像舰船目标检测方法。首先,针对SAR图像中存在大量中小型舰船的特点重新设计了特征提取网络;其次,使用了特征金字塔网络[22]用于特征融合,并针对其不足进行改进,提出了一种多重连接特征金字塔网络;最后,引入焦点损失和广义交并比(GIoU)损失[23]来改进SSD中原本的损失,提高网络的检测性能。

2 方法设计

2.1 方法模型结构

本文方法模型是以SSD算法模型为基础框架建立的,利用设计的卷积神经网络提取SAR图像中舰船的特征图,通过回归的方式预测目标的坐标信息和类别,主要模型结构如图1所示。1)将原始图像进行预处理;2)将图片输入到本文提出的特征提取网络I-VGGNet (Improved VGGNet)中,获取图片在各个尺度上的特征图,它能够提高底层特征图的分辨率和固定高层的分辨率;3)利用多重连接特征金字塔网络模块,加强了不同尺度特征层之间特征信息的融合;4)在融合后的特征图上进行预测,得到目标的预测位置与置信度得分,实现类别的预测与位置的回归;5)通过非极大值抑制(NMS )算法进行筛选,去掉不合格的边框,只保留最终的检测结果。

图 1. 模型结构框图

Fig. 1. Model structure diagram

下载图片 查看所有图片

2.2 特征提取网络

SSD算法通常采用VGG16作为特征提取网络,在传统的光学目标检测领域取得了良好的效果,由于SAR图像中舰船目标普遍较小,受到的背景干扰严重,原来的VGG16特征提取网络很难提取出小目标舰船的特征。因此,本文针对SAR图像舰船特点,对原有的SSD网络进行重新设计,提出了一个新的特征提取网络模型I-VGGNet,用于SAR图像舰船特征的提取,如图2所示。

图 2. 特征提取网络I-VGGNet结构

Fig. 2. Structure of feature extraction network I-VGGNet

下载图片 查看所有图片

I-VGGNet网络结构主要由Conv3_3、Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2六层特征提取层组成,每层特征图的参数如图2所示。其中Conv3_3层为SSD网络中更底层的特征提取层,Conv4_3、Conv7、Conv8_2为不同尺度大小的特征层,Conv9_2、Conv10_2这两层由Conv8_2层利用两个1×1的卷积核卷积得到。在SSD中Conv4_3层为最底层特征提取层,它的感受野大小为8×8,即在原始图像中一个8×8大小的舰船在Conv4_3层的特征图上表现为一个像素点,这就造成了很多小型舰船信息的丢失,而Conv3_3层的感受野大小为4×4,这种尺度的特征层更适合小尺度舰船的检测。在深层特征层中,SSD算法通过连续的下采样来增大感受野,获得更多的语义信息,用于提升分类效果。但多次的下采样操作会导致深层网络中的舰船丢失,不利于SAR图像舰船检测。I-VGGNet网络通过两个1×1的卷积核来构建出Conv9_2、Conv10_2这两层,使得它们的特征图分辨率保持在10×10。这样既保证了网络的深度,也避免连续下采样导致舰船位置信息的丢失。

2.3 多重连接特征金字塔

在卷积神经网络中,底层特征图的空间分辨率较高,主要学习目标的纹理、轮廓特征,定位信息丰富;高层特征学习的是更为抽象的语义特征,适用于分类。在常见的单阶段算法中,YOLO算法只利用最高层特征图进行预测,如图3(a)所示。这样的检测方法检速度快,但精度低。而SSD算法在每一层的特征图上进行预测,如图3(b)所示。其综合了不同尺度的特征层,能够对不同尺度的目标进行检测,但是对于小目标的检测效果不佳。图3(c)是一种侧边连接、自顶而下的特征金字塔结构模型(FPN),该模型不仅在各层特征图上进行预测,而且融合了同一层以及上一层的特征信息。但是这样的特征融合方式,仍然存在两个不足之处。其一,侧边特征层的产生只与本层以及更高层有关而忽略了更低的特征层,而低层的特征图对于小型舰船的检测更为重要;其二,对于SSD网络来说,高层与低层之间的路径相对较长,在传播过程中容易造成高层特征信息的丢失。

图 3. 不同检测网络结构。(a)YOLO;(b)SSD;(c)FPN;(d)MCFPN

Fig. 3. Structure of different detection networks. (a) YOLO; (b) SSD; (c) FPN; (d) MCFPN

下载图片 查看所有图片

针对上述的不足,本文提出一种多重连接特征金字塔(MCFPN)模型,如图3(d)所示。相比于原始的特征金字塔结构,本文增加了两条连接路径。一是对低层的特征图进行特征复用,在特征融合时将低一层的特征信息也融入到特征层中,提高定位的准确率;二是参考残差网络中残差块的思想,用一种残差连接的方式,将更高层的特征图与低层的特征图相融合,加强了不同高度层之间信息的流动,以减少高层特征信息在传播过程中的丢失,提高分类的准确率。

以特征层Conv8_2为例,MCFPN的细节结构如图4所示。图中,LCBL模块表示网络模型中激活函数、卷积、批量归一化和激活函数这四步操作,DBL模块表示反卷积、批量归一化和激活函数,LCL模块表示激活函数、卷积和激活函数。首先对融合所需的Conv7、Conv8_2、Conv9_2和Conv10_2层进行卷积操作,采用大小为3×3的卷积核将特征图的通道数量统一为256,压缩维度,减少参数量。同时,加入批量归一化(BN)层提高网络的泛化能力,防止过拟合。然后采用反卷积操作,将Conv9_2和Conv10_2的特征图上采样,将低层的Conv7进行下采样,使得4层特征层在采样后具有相同的大小。并利用逐像素求和的方式进行特征融合,融合后使用3×3的卷积核对其进行处理,减少上采样造成的混叠效应。最后将生成的特征图输出用于检测和分类任务。

图 4. 多重连接特征金字塔的细节结构

Fig. 4. Detailed structure of multiple connected feature pyramid network

下载图片 查看所有图片

2.4 损失函数

本文损失函数由分类损失和定位损失加权之和组成,表示为

L(x,c,l,g)=1NLconf(x,c)+αLloc(x,l,g),(1)

式中:x为真实框;c为预测框的类别置信度;l为预测的位置信息;g为真实框的位置信息;Lconf(x,c)表示分类损失;Lloc(x,l,g)表示定位损失;N为先验框中正样本的数量;α为分类损失与定位损失之间的平衡系数,通常设为1。

2.4.1 分类损失

SAR舰船检测是一个二分类的任务,分为舰船与非舰船两类。为了提高复杂场景下舰船检测的准确率,本文使用焦点损失代替原SSD算法中的交叉熵损失作为本文的分类损失函数,表示为

Lfl(pt)=-αt(1-pt)γln(pt),(2)

式中:pt为预测结果对应标签的概率;参数αt为正负样本的平衡因子;参数γ为难易样本的平衡因子。相比于交叉熵损失,焦点损失可以通过调节参数αtγ来改变正负样本的比例和难易样本在损失中的权重,加强对于困难样本的学习,减少复杂背景对于SAR舰船检测的干扰。本文通过实验对多组参数进行调试,当αt=0.25,γ=2时,实验效果最好。

总分类损失为

Lconf(x,c)=iPposNxijpLfl(Ĉip)+iNnegLfl(Ĉi0)=-iPposNxijpαt1-Ĉipγln(Ĉip)-iNnegαt1-Ĉi0γln(Ĉi0),(3)Ĉip=exp(cip)pexp(cip),(4)

式中: xijp={1,0},表示第i个先验框与类别p的第j个真实框是否匹配。

2.4.2 定位损失

当前很多检测算法采用smoothL1损失作为定位损失,使用欧氏距离作为评估的度量。然而最终使用NMS算法筛选生成的候选框时,评估度量是预测边框与真实边框的交并比(IoU),这两者并不等价。smoothL1范数对于物体的尺度更加敏感,影响定位的准确性,所以采用IoU作为衡量定位损失的度量更为合适。但是对于不重叠的预测边框与真实边框来说,交并比为零,不能正确表示出两者之间的距离。因此本文使用GIoU作为定位损失的度量。IoU、GIoU的计算公式为

XIoU=ABAB,(5)XGIoU=XIoU-|C\(AB|C,(6)

式中:A为预测框;B为真实框;C为一个同时包含AB的最小包围框。GIoU既保留了IoU的特点,对物体的大小、形状不敏感,又弥补了IoU的不足,增加了对于不重叠边框的度量标准。以GIoU作为距离指标,GIoU损失函数表示为

LGIoU=1-XGIoU(7)

总定位损失为

Lloc(x,l,g)=iPposNxijpLGIoU(l,g)=iPposNxijp1-ABAB+|C\(AB|C,(8)

式中:A坐标为( x1l, y1l, x2l, y2l);B坐标为( x1g, y1g, x2g, y2g)。

3 分析与讨论

3.1 实验平台与数据集介绍

本文实验所使用的平台为:Windows10操作系统,Inter(R)Core(TM)i7-7800X CPU@3.50 GHz 处理器,16 GB内存,NVIDIA GeForce GTX1080Ti 11 GB显卡。全部实验在TensorFlow深度学习框架下实现,编程语言为Python。

本文所使用的数据集为中国科学院空天信息研究院王超团队公开的SAR图像船舶检测数据集(网址:https:∥github.com/CAESAR-Radi/SAR-Ship-Dataset )。该数据集以102景高分三号图像和108景Sentinel-1 SAR图像作为数据源,包含5种成像模式、7种分辨率大小、多种入射角以及两种极化方式。共有43819张船舶图片,包含港口、近海、岛屿等多种背景,种类丰富,部分图像如图5所示。该数据集采用标准的PASCAL VOC标注格式,图片大小为256 pixel×256 pixel。在训练前进行预处理,将图像大小调整为300 pixel×300 pixel,并对其进行数据清洗,删除或修改其中标签错误的数据,将符合条件的43800张图像按照7∶2∶1的比例随机划分训练集、验证集和测试集。

图 5. 数据集中部分场景图片

Fig. 5. Pictures of some scenes in the dataset

下载图片 查看所有图片

3.2 超参数选取

本文所有实验的超参数配置如下:网络的初始学习率为0.0001,最大迭代次数为35000,学习率在迭代到17500次和26250次时发生衰减,衰减系数为0.1,模型的Batch Size 设置为16,采用随机梯度下降(SGD)算法来优化参数,优化动量参数为0.9,非极大值抑制的阈值设为0.5。最终损失函数变化曲线如图6所示。

图 6. 损失函数变化曲线

Fig. 6. Variation curve of loss function

下载图片 查看所有图片

3.3 评价指标

本文使用的评价指标为目标检测领域中的通用评价指标,主要包括平均精度(AP)和每秒帧率(FPS)。平均精度的计算公式为

RAP=01P(R)dR,(9)

式中:P表示精准率;R表示召回率;RAPP-R曲线下的面积,综合了精准率和召回率这两个参数。每秒帧率是指每秒能够检测的图像数量。

3.4 实验结果与分析

3.4.1 与原始SSD算法对比实验

图7为本文方法与原始的SSD算法在SAR图像船舶检测数据集上的P-R曲线对比图。从图中可以看出,本文方法所对应的P-R曲线面积更大。原始的SSD算法可以达到88.34%的预测平均精度,而本文方法能够达到94.79%。相比于SSD算法在80%召回率时取得82.44%的预测精准率,本文方法可以达到93.24%,高出原始方法10.80%。因此,本文方法精度要优于原始的SSD算法。

图 7. 本文方法与SSD算法的P-R曲线对比

Fig. 7. Comparison of the P-R curve of proposed method and SSD algorithm

下载图片 查看所有图片

图8为真实标注框、原始的SSD算法和本文方法在4种场景下的部分检测结果对比。图8(a)为模糊背景下的舰船检测结果,舰船目标受到海洋杂波的干扰严重,容易产生误检。可以看出,SSD算法将一艘船检测成为了两艘,而本文方法融合了多重的特征信息,抗干扰能力强,没有产生误检。图8(b)为近岸、港口区域的舰船检测结果,受到岸边建筑、地形的影响,背景复杂,难以区分。SSD算法也产生了多个误检,而本文方法有较好的检测效果。图8(c)为近岸的小型舰船检测结果,舰船目标很小且存在岸边建筑干扰,极容易产生漏检和误检。SSD算法对于这种类型的船舶漏检率很高,而本文方法采用了更底层的特征图,对于小目标检测的准确率有明显提高。图8(d)为海面上的小型舰船检测结果,可以看出,本文方法的效果更好。

图 8. 本文方法与SSD算法的实验效果对比。(a)模糊背景;(b)近岸、港口区域;(c)近岸的小型舰船;(d)海面上的小型舰船

Fig. 8. Comparison of experimental results between the proposed method and SSD algorithm. (a) Blurred background; (b) near shore and port area; (c) small ships near shore; (d) small ships on the sea

下载图片 查看所有图片

3.4.2 焦点损失参数设置实验

为了提高SAR图像舰船检测的精度,本文引入焦点损失作为本文方法的分类损失,并对不同的αtγ参数进行调试,结果如表1所示。当αt=0.25,γ=2时,精度最高。

表 1. 不同焦点损失参数实验结果

Table 1. Experimental results of different parameters for focal loss

αtγAP /%
0.25191.58
0.25291.98
0.50291.71
0.25391.68
0.50391.26
0.25590.93

查看所有表

3.4.3 消融实验

为了验证本文所提各模块的有效性,采用消融实验进行对比。实验环境和超参数选择与上文所述一致,以原始的SSD网络为基线网络。结果如表2所示。可以看出,在使用新的损失函数进行训练之后,SSD算法的平均精度由88.34%提高到了91.98%,提高了3.64%;在使用本文提出的I-VGGNet特征提取网络取代VGG16网络后,AP值提高了0.72%;将FPN加入到SSD网络中,AP值提高了0.76%,而采用本文提出的MCFPN进行特征融合后, AP值提升了1.71%,检测精度更高。

表 2. 消融实验结果

Table 2. Results of ablation experiments

VGG16I-VGGNetFPNMCFPNSSD lossOurs lossAP /%
88.34
91.98
92.70
92.74
93.60
94.79

查看所有表

3.4.4 与其他方法对比实验

为了进一步验证本文方法的有效性,将本文方法与当前流行的一些目标检测算法进行对比。所有算法均在中国科学院数据集上进行实验,除SSD-512外,图像的输入尺寸均为300 pixel×300 pixel,超参数选择如3.2节所示。SSD、Faster R-CNN算法以VGG16作为特征提取网络,RetinaNet、DSSD算法以ResNet50作为特征提取网络,AP计算的阈值设为0.5,实验结果如表3所示。可以看出,本文方法的精度高于其他算法。在检测速度上,由于本文方法对于SSD算法的网络结构进行了一些改进,导致检测速度有所下降,但是仍然优于两阶段的检测算法,能够满足实时的需求。

表 3. 与其他算法在SAR图像船舶检测数据集上的性能对比

Table 3. Performance comparison with other methods on SAR ship dataset

ModelBackboneAP /%Speed /(frame·s-1)
SSD-300[11]VGG1688.3443
SSD-512[11]VGG1689.4317
Faster R-CNN[8]VGG1688.267
RetinaNet[16]ResNet5091.3641
DSSD[14]ResNet5092.3017
Proposed methodI-VGGNet94.7922

查看所有表

4 结论

本文提出了一种基于多重连接特征金字塔的SAR图像舰船目标检测方法。该方法以SSD算法为框架基础,通过对特征提取网络VGG16网络进行改进,提高了网络获取舰船小目标特征信息的能力;设计了多重连接特征金字塔网络MCFPN,充分融合舰船高层语义特征与底层定位特征,提高网络对于中小尺寸舰船的检测性能;引入焦点损失和GIoU损失,对损失函数进行优化,降低复杂背景对于检测性能的影响,提高模型的定位能力。通过在公开数据集上和现存主流方法进行对比测试实验,结果表明,该方法可以有效地提高SAR图像舰船目标复杂场景下的检测精度,检测速度也能满足实时性需求。在未来的研究中,将进一步精简网络结构,优化模型参数,提高检测速度。

参考文献

[1] Wackerman C C, Friedman K S, Pichel W G, et al. Automatic detection of ships in RADARSAT-1 SAR imagery[J]. Canadian Journal of Remote Sensing, 2001, 27(5): 568-577.

[2] Novak LM, Hesse SR. On the performance of order-statistics CFAR detectors[C] // Conference Record of the Twenty-Fifth Asilomar Conference on Signals, Systems & Computers, November 4-6, 1991, Pacific Grove, CA, USA.New York: IEEE Press, 1991: 835- 840.

[3] Steenson B O. Detection performance of a mean-level threshold[J]. IEEE Transactions on Aerospace and Electronic Systems, 1968, AES-4(4): 529-534.

[4] Gandhi P P, Kassam S A. Analysis of CFAR processors in nonhomogeneous background[J]. IEEE Transactions on Aerospace and Electronic Systems, 1988, 24(4): 427-445.

[5] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

[6] GirshickR, DonahueJ, DarrellT, et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C] //2014 IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2014, Columbus, OH, USA.New York: IEEE Press, 2014: 580- 587.

[7] GirshickR. Fast R-CNN[C] //2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile.New York: IEEE Press, 2015: 1440- 1448.

[8] Ren SQ, He KM, GirshickR, et al. Faster R-CNN: towards real-time object detection with region proposal networks[C] //IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39( 6) : 1137- 1149.

[9] He KM, GkioxariG, DollárP, et al.Mask R-CNN[C] //2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy.New York: IEEE Press, 2017: 2980- 2988.

[10] RedmonJ, DivvalaS, GirshickR, et al.You only look once: unified, real-time object detection[C] //2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 779- 788.

[11] RedmonJ, FarhadiA. YOLO9000: better, faster, stronger[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 6517- 6525.

[12] RedmonJ, FarhadiA. YOLOv3: an incremental improvement[EB/OL]. (2018-04-08)][2020-07-30]. https://arxiv.org/abs/1804.02767.

[13] LiuW, AnguelovD, ErhanD, et al.SSD: single shot MultiBox detector[M]. Cham: Springer International Publishing, 2016: 21- 37.

[14] Fu CY, LiuW, RangaA, et al. DSSD: deconvolutional single shot detector[EB/OL]. (2017-01-23)][2020-07-30]. https://arxiv.org/abs/1701.06659.

[15] Li Z X, Zhou F Q. FSSD: feature fusion single shot multibox detector[J]. Computer Vision and Pattern Recognition, 2018, 36(7): 356-366.

[16] Lin TY, GoyalP, GirshickR, et al.Focal loss for dense object detection[C] //2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy.New York: IEEE Press, 2017: 2999- 3007.

[17] Wang Y Y, Wang C, Zhang H, et al. A SAR dataset of ship detection for deep learning under complex backgrounds[J]. Remote Sensing, 2019, 11(7): 765.

[18] 赵云飞, 张宝华, 张艳月, 等. 基于深度特征金字塔和级联检测器的SAR图像舰船检测[J]. 激光与光电子学进展, 2020, 57(12): 121019.

    Zhao Y F, Zhang B H, Zhang Y Y, et al. Ship detection based on SAR images using deep feature pyramid and cascade detector[J]. Laser & Optoelectronics Progress, 2020, 57(12): 121019.

[19] 王健林, 吕晓琪, 张明, 等. 基于改进R-FCN的遥感图像舰船检测[J]. 激光与光电子学进展, 2019, 56(16): 162803.

    Wang J L, Lü X Q, Zhang M, et al. Remote sensing image ship detection based on improved R-FCN[J]. Laser & Optoelectronics Progress, 2019, 56(16): 162803.

[20] Deng Z P, Sun H, Zhou S L, et al. Learning deep ship detector in SAR images from scratch[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(6): 4021-4039.

[21] 杨龙, 苏娟, 黄华, 等. 一种基于深层次多尺度特征融合CNN的SAR图像舰船目标检测算法[J]. 光学学报, 2020, 40(2): 0215002.

    Yang L, Su J, Huang H, et al. SAR ship detection based on convolutional neural network with deep multiscale feature fusion[J]. Acta Optica Sinica, 2020, 40(2): 0215002.

[22] Lin TY, DollárP, GirshickR, et al.Feature pyramid networks for object detection[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 936- 944.

[23] RezatofighiH, TsoiN, GwakJ, et al.Generalized intersection over union: a metric and a loss for bounding box regression[C] //2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 15-20, 2019, Long Beach, CA, USA. New York: IEEE Press, 2019: 658- 666.

徐志京, 黄海. 基于多重连接特征金字塔的SAR图像舰船目标检测[J]. 激光与光电子学进展, 2021, 58(8): 0811002. Zhijing Xu, Hai Huang. Ship Detection in SAR Image Based on Multiple Connected Features Pyramid Network[J]. Laser & Optoelectronics Progress, 2021, 58(8): 0811002.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!