基于深度学习的高分辨率遥感影像飞机掩体检测方法
1 引言
飞机掩体是机场中保护和隐蔽飞机的关键设施,其快速检测和定位能为制导装置实现精准打击提供关键支撑。飞机掩体形态多样,在方向、尺寸及表面覆盖物等方面具有较大差异,且部分机场附近环境复杂,有些背景地物与目标形态特征较为相似,多样性和复杂性给目标检测任务带来挑战。遥感影像覆盖范围广、更新时间快、受地面条件限制少,可以为飞机掩体检测提供数据支持。因此,研究如何利用遥感影像快速准确检测飞机掩体值得关注,在战场态势评估和敌方战备分析等方面具有十分重要的战略意义。
遥感影像目标检测就是确认影像中是否存在感兴趣的目标并找到目标位置[1],能够快速有效地获取影像信息。针对飞机掩体这一目标,孙军领等[2]基于光学遥感影像提取掩体的位置特征和形状特征进行融合检测,徐万朋等[3]利用基于几何活动轮廓模型分割方法对合成孔径雷达图像中的掩体目标进行检测。这些都是通过传统检测方法进行飞机掩体检测,依赖于目标的纹理、几何和边缘等人工设计的底层特征,检测效率和精度低。而随着高分辨率遥感卫星的快速发展,影像包含更多复杂的局部信息,仅依靠传统的遥感影像检测方法和人工目视解译不能满足当前数据处理精度和效率的要求。
如今以深度学习为主的人工智能方法在计算机视觉领域成就显著[4],深层卷积神经网络的非线性变换特性使其具有自学习能力强、泛化性高、鲁棒性好和检测精度高等优点[5-6],为遥感影像信息的快速获取创造了有利条件[7],在车辆[8]、飞机[9]、舰船[10-11]、建筑[12]、云[13]和油罐[14]等遥感影像目标检测中得到了广泛应用。深度学习目标检测模型根据实现过程可分为双阶段模型和单阶段模型两大类。双阶段检测模型是指基于候选区域的目标检测方法,Faster R-CNN[15]是经典的双阶段检测模型,在精度上表现更为突出,在遥感影像目标检测中被广泛应用。Yan等[16]利用添加注意力机制的Faster R-CNN模型对高分辨率遥感影像中的尾矿池进行检测,提高了检测精度。单阶段检测模型是基于回归的目标检测方法,包括SSD[17]、RetinaNet[18]和YOLO系列[19]。单阶段检测模型在速度方面更具优势,不同学者对模型网络结构等继续进行优化,使其在遥感影像目标检测中保持速度的同时具有更高的检测精度。史文旭等[20]指出对SSD模型中的金字塔结构特征进行特征融合后,可以有效增强网络对不同尺度遥感影像的适应能力。Yin等[21]利用改进的RetinaNet模型来检测具有复杂分布特性的火力发电厂。牛浩青等[22]通过添加门控通道注意力机制和自适应上采样模块改进YOLOv3模型,以提高模型对小目标的检测能力。以上都是基于锚框的检测,近些年,又陆续出现无锚框的检测方法,如CenterNet[23]、ExtremeNet[24]和CornerNet[25]等,消除了复杂的锚框设计过程,通过预测关键点来取代锚框,为目标检测开辟了新方向,YOLOX模型[26]也借鉴了无锚框的检测方法。
一般来说,深度学习目标检测领域常采用水平框来标注目标,但遥感影像是俯视成像,具有目标方向多样性的特点。水平框包围区域会出现大量的空白和重叠交叉区域,影响检测效率且无法提供准确的角度信息,针对这一特殊性,探索采用旋转框对目标进行检测。Yang等[27-29]利用公开的遥感影像数据集,连续提出R3Det、SCRDet、SCRDet++等旋转目标检测方法。Liu等[30]提出旋转感兴趣区域池化层(RROI pooling)来提取旋转区域的特征,利用基于旋转区域的卷积神经网络(RRCNN)实现遥感影像中船舶的检测。Tang等[31]在RetinaNet基础上,结合多特征融合模块和旋转锚框生成机制,对具有任意方向的飞机进行了有效检测。
尽管深度学习技术的发展为目标检测领域带来了新的突破,但相比自然场景下的目标检测,遥感影像尺寸大、覆盖区域广、背景复杂且具有特殊的视角。遥感影像飞机掩体检测会面临目标尺度变化大、多角度、小目标以及类不平衡等问题。高分辨率影像对地表信息刻画得更为精细,也使地物视觉特征和影像的空间模式更加复杂。飞机掩体在高分辨率影像中呈现了多种色调、形态且具有不同的朝向,为检测任务带来诸多挑战。为此,本文分别从水平框和旋转框两个方面进行飞机掩体检测算法研究。首先,对飞机掩体的特征进行详细分析,构建高分辨率遥感影像飞机掩体样本数据集。然后,对多个卷积神经网络目标检测模型进行综合性能对比分析,探究适用于遥感影像多尺度、小目标检测的算法,用于飞机掩体检测。针对遥感影像中飞机掩体具有任意朝向的分布特点,提出一种旋转目标检测方法R-YOLOX,通过添加对角度参量的回归,扩展模型输出维度并采用KL 散度(KLD)损失作为检测框的回归损失函数,提高旋转目标检测精度,解决了水平框和旋转目标轮廓不能贴合的问题,实现了对高分辨率遥感影像中飞机掩体的快速高效检测。
2 飞机掩体特征分析及数据集构建
2.1 飞机掩体特征分析
当前研究多利用公开发布的数据集进行检测,获取到的目标信息大多是船舶、机场、飞机和油罐等,而目前公开发布的数据集中尚没有飞机掩体这一类别的信息。基于此需求,对飞机掩体的特征进行相应分析,构建包含飞机掩体单一类别的数据集。早期的飞机掩体多为露天工事,由一块修整过的平地和周围用土或砖坯构筑的防护墙组成,俗称“机窝”,但没有顶盖,抗打击能力非常弱,随着技术的提升,逐渐被取缔。现在常使用的多为由钢筋水泥以及波纹钢板等材料构建的带有顶盖的飞机掩体,用来增强飞机在地面的防弹能力、提高机场的战时生存能力。根据其构筑情况不同又可细分为飞机洞库和飞机掩蔽库,不同类型飞机掩体图像如
图 1. 不同类型飞机掩体Google Earth图像。(a)坑道式机库;(b)开掘式机库;(c)机棚;(d)机堡
Fig. 1. Google Earth images of different types of aircraft bunkers. (a) Tunnel hangar; (b) excavation hangar; (c) hangar; (d) revetment
飞机洞库包括坑道式和开掘式两种。进行过伪装的飞机洞库在遥感影像中较难分辨,洞库表面有植被和裸土等覆盖时表现出植被和裸土的光谱特征,与背景地表特征相似,但会有滑行道与机场跑道相连,可根据上下文语义信息进行识别,在检测时容易造成误检和漏检。飞机掩蔽库通常位于停机坪或滑行道的一侧,呈拱形结构、带顶盖或是利用地形构筑的一种抗力较强的单机掩蔽工事,被广泛采用,包括机棚和机堡两种。机棚是一种直壁式机库,有拱形洞式和平顶式,部分会对顶棚进行伪装,在集体停机坪上联排修筑。钢结构材料顶棚反射性强,在光学遥感影像中呈高亮度,与机场不透水地面对比较为明显,几何形状为一对边是直线、另一对边为弧形的类长方形,主要在靠近机场一侧的大块不透水面上集中分布。机堡主要为半圆形的落地拱券式,结构坚固、抗打击能力强,一般位于机场滑行道两侧,通过滑行道与跑道相连,多为树杈形分散分布。在光学遥感影像中呈现白色、灰色及绿色等多种色调,部分与机场周围的建筑屋顶色调较为相似,增加了检测难度。在遥感影像中可以看到较为明显的拱形结构,飞机掩体具有一定高度,在一定方向上可以看到明显的阴影特征,可作为判别依据。存放不同类型飞机的掩体大小不一致,具有尺寸多样化的特点。
基于上述分析,主要利用飞机掩体的位置、形状、色调及阴影等典型特征作为解译标志,选择全球分布的多个机场的多种飞机洞库和飞机掩蔽库构建飞机掩体数据集,保证数据集的准确性与多样性。
2.2 飞机掩体数据集
选取60个建有飞机掩体的机场作为目标区域,选择影像分辨率高、时间跨度大及数据量大的Google Earth影像作为数据源,下载300张17~19级的高分辨率影像数据,空间分辨率最高达0.42 m,数据尺寸大小为640 pixel×640 pixel。选取不同背景、不同季节及不同方向的飞机掩体,并尽可能包含主要类型,保证目标的空间分辨率、时间分辨率、方向和尺度的多样性,构建包含复杂背景、多目标、小目标及不同尺度下飞机掩体的遥感影像数据集。数据集按照VOC 2007格式制作,旋转框利用rolLabelImg程序进行标注,标注结果通过专家审核,保证了标注的准确性。取其最小外接水平矩形,微调后作为水平框标注,并通过水平翻转、垂直翻转、旋转以及增加高斯噪声等方法进行4次数据增强,经过筛选后最终得到包含1056张图片的数据集。按照8∶1∶1的比例将数据集划分为训练集、验证集和测试集,数据集部分样本如
图 2. 数据集示例图像。(a)不同遮盖物的目标;(b)不同背景下多目标;(c)复杂背景下目标
Fig. 2. Dataset sample images. (a) Objectives of different coverings; (b) multiple objectives under different backgrounds; (c) objectives under complex background
3 研究方法
3.1 深度学习目标检测模型
凭借卷积神经网络在特征提取中的显著优势,深度学习为目标检测领域提供了许多出色的模型。为探究深度学习目标检测模型在遥感影像飞机掩体检测中的适用性,选择Faster R-CNN、SSD、RetinaNet、YOLOv3以及YOLOX模型进行实验,涵盖双阶段、单阶段、有锚框和无锚框的不同检测模型,它们的性能可以代表最先进的深度学习目标检测模型检测飞机掩体的能力。
Faster R-CNN[15]是经典的双阶段检测模型,网络结构如
SSD[18]是经典的单阶段检测模型,无需进行候选区域提取,能对图像的全局信息进行预测,并将分类和识别进行统一的回归处理,有效提升检测速度的同时保证了较高的检测精度,网络结构如
YOLO系列是最早提出的单阶段检测模型。YOLOv3[32]用更深结构的DarkNet53基础特征提取网络替换之前的DarkNet19[33],并引入特征金字塔网络进行多尺度预测,结构清晰且实时性好,在实际工程中应用较多。2021年,旷视提出的YOLOX[26]在YOLO系列模型基础上进行多处改进,采用无锚框的方法,模型更加灵活有效[34]。YOLOX主干特征提取网络采用基于YOLOv3的DarkNet53,并在其基础上添加SPP组件,如
3.2 飞机掩体旋转检测改进方法
针对具有多方向性的飞机掩体目标,为实现更高效的检测,在YOLOX模型基础上进行改进,提出一种旋转目标检测方法R-YOLOX。通过添加对角度参数的预测,采用KLD损失作为Reg分支的损失函数,以减少角度的微小误差对精度的影响,提高边界框的回归精度,进一步实现具有任意朝向的飞机掩体检测。
3.2.1 旋转框表示方法
常规目标检测方法是水平检测,通常用x、y、w、h这4个参数表示水平边界框,分别代表边界框的中心点坐标、宽度和高度,但水平框不能很好地覆盖到不同方向的目标[36],并存在信息冗余,具有一定局限性。旋转目标检测在获取目标的位置信息基础上还可得到旋转角度的预测信息,能够感知飞机掩体更完整全面的信息。具体而言,就是要引入目标的角度信息维度和相应的损失回归函数。
3.2.2 损失函数
YOLOX模型的损失函数分为3部分:类别损失(
类别损失和置信度损失采用的是二元交叉熵损失函数:
式中:
对增添的角度参数进行回归时,旋转边界框的回归会引起旋转敏感度误差问题,导致模型训练不稳定从而影响检测精度。借鉴Yang等[29]的研究结果,采用KLD损失函数进行边界框回归损失计算。其原理是将旋转边界框转换为二维高斯分布,然后计算高斯分布之间的相对熵即KLD:
式中:
KLD损失函数可以根据目标的尺度动态调整权重,减少微小的角度误差对精度的影响、实现高精度的旋转检测[38]。
3.2.3 性能指标
目标检测领域常用的精度评价指标包括准确率(P)、召回率(R)、平均精度(AP)和F1得分(sF1)。准确率表示在所有检测出的目标中检测正确的概率,即“找的对”的比例;召回率是指所有正样本中正确识别的概率,即“找的全”的比例;平均精度是对不同召回率点上的准确率进行平均,在PR曲线图(即P为纵坐标、R为横坐标的曲线图)上表现为PR曲线下面的面积。F1得分是准确率和召回率的调和平均数。具体公式如下:
式中:NTP表示正确识别的飞机掩体数量;NFP表示错误提取的飞机掩体数量;NFN表示遗漏提取的飞机掩体数量。
训练时间Ttrain表示在模型训练过程中,平均迭代一次所花费的时间,公式为
式中:n为模型训练至收敛的迭代次数;
用每秒帧数(SFPS)评估模型的检测速度,即检测一张图像所需时间(T
4 实验及结果分析
4.1 实验平台及参数设置
实验处理器为7核Intel(R)Xeon(R)CPU E5-2680v4 @2.40GHz,GPU为NVIDIA GeForce RTX 3060(12G显存),使用PyTorch开发框架。
选用Faster R-CNN这一双阶段模型和SSD、RetinaNet、YOLOv3和YOLOX这4个单阶段检测模型进行实验,模型训练参数设置如
表 1. 模型训练参数设置
Table 1. Parameter settings in model training
|
4.2 结果分析
为更好地测试模型性能,在原先划分的测试集基础上,新加入包含115张图像与原数据集制备方法相同的独立数据集,整体作为新测试集进行模型性能的评估,结果如
表 2. 不同模型性能对比
Table 2. Comparison of detection accuracy of different model
|
在交并比(IoU)阈值为0.5时,AP值均在95%以上,所选模型的检测精度都能满足检测要求。其中,YOLOX模型检测精度较高,准确率、AP值和F1得分这3项指标都为最佳值,AP值达97.7%。Faster R-CNN和YOLOv3模型取得了最高的召回率,为96%;Faster R-CNN模型准确率稍低,AP值为95.58%,YOLOv3的AP值为96.95%,F1得分为0.95,仅次于YOLOX模型。RetinaNet模型AP值较高,为97.31%,略低于YOLOX模型。SSD模型准确率和召回率相对较好,AP值为95.46%。此外,SSD模型因输入数据尺寸较小而具有最快的训练时间和检测速度;YOLOX在输入尺寸较大的情况下同样具备较快的训练时间和检测速度,还拥有最小的模型权重。基于深度学习的目标检测模型在飞机掩体数据集上获得优异表现,都能满足对飞机掩体的自动识别任务,YOLOX模型性能更佳。
选取具有代表性的测试集数据的检测结果进行可视化,效果如
图 9. 真实框。(a)多目标分布;(b)包含易混淆目标;(c)多方向小目标;(d)雪覆盖下目标;(e)双联飞机掩体
Fig. 9. Ground truth. (a) Multi-objective distribution; (b) with confusing objectives; (c) multi-directional small objectives; (d) objectives under snow cover; (e) duplex aircraft bunkers
图 10. Faster R-CNN检测结果。(a)多目标分布;(b)包含易混淆目标;(c)多方向小目标;(d)雪覆盖下目标;(e)双联飞机掩体
Fig. 10. Results of Faster R-CNN. (a) Multi-objective distribution; (b) with confusing objectives; (c) multi-directional small objectives; (d) objectives under snow cover; (e) duplex aircraft bunkers
图 11. SSD检测结果。(a)多目标分布;(b)包含易混淆目标;(c)多方向小目标;(d)雪覆盖下目标;(e)双联飞机掩体
Fig. 11. Results of SSD. (a) Multi-objective distribution; (b) with confusing objectives; (c) multi-directional small objectives; (d) objectives under snow cover; (e) duplex aircraft bunkers
图 12. RetinaNet检测结果。(a)多目标分布;(b)包含易混淆目标;(c)多方向小目标;(d)雪覆盖下目标;(e)双联飞机掩体
Fig. 12. Results of RetinaNet. (a) Multi-objective distribution; (b) with confusing objectives; (c) multi-directional small objectives; (d) objectives under snow cover; (e) duplex aircraft bunkers
图 13. YOLOv3检测结果。(a)多目标分布;(b)包含易混淆目标;(c)多方向小目标;(d)雪覆盖下目标;(e)双联飞机掩体
Fig. 13. Results of YOLOv3. (a) Multi-objective distribution; (b) with confusing objectives; (c) multi-directional small objectives; (d) objectives under snow cover; (e) duplex aircraft bunkers
图 14. YOLOX检测结果。(a)多目标分布;(b)包含易混淆目标;(c)多方向小目标;(d)雪覆盖下目标;(e)双联飞机掩体
Fig. 14. Results of YOLOX. (a) Multi-objective distribution; (b) with confusing objectives; (c) multi-directional small objectives; (d) objectives under snow cover; (e) duplex aircraft bunkers
用所提R-YOLOX模型进行对比实验,精度评价结果如
表 3. 旋转检测精度对比
Table 3. The comparison of rotation detection accuracy
|
图 15. YOLOX检测结果。(a)并排分布目标;(b)集中分布多目标;(c)多方向目标
Fig. 15. Results of YOLOX. (a) Side-by-side distribution of objectives; (b) centrally distributed multiple objectives; (c) multi-directional objectives
图 16. R-YOLOX+KLD损失检测结果。(a)并排分布目标;(b)集中分布多目标;(c)多方向目标
Fig. 16. Results of R-YOLOX with KLD loss. (a) Side-by-side distribution of objectives; (b) centrally distributed multiple objectives; (c) multi-directional objectives
改进前采用Smooth L1损失的网络收敛较慢,模型整体精度不高,预测结果如
图 17. YOLOX + Smooth L1损失检测结果。(a)并排分布目标;(b)集中分布多目标;(c)多方向目标
Fig. 17. Results of YOLOX with Smooth L1 loss. (a) Side-by-side distribution of objectives; (b) centrally distributed multiple objectives; (c) multi-directional objectives
总体而言,飞机掩体的旋转检测显著减少了检测框的重叠,能够更加贴合目标边界轮廓。采用KLD损失改进后的模型R-YOLOX实现了检测精度的显著提升,旋转框的检测结果更能准确显示飞机掩体所在位置。
选择某机场大幅Google Earth影像进行飞机掩体自动检测性能验证,进行切片预测后再拼接,最终识别结果如
5 结论
飞机掩体是重要的飞机防护工事,对其进行快速高效检测具有十分重要的战略意义。现有的飞机掩体类型多样、形态各异,在遥感影像中存在多尺度、小目标分布等问题,传统方法检测精度差、效率低,难以满足当下需求。利用先进的深度学习目标检测模型,从水平框和旋转框两个角度出发,针对飞机掩体特征对模型进行优化改进,使其更适用于遥感影像中飞机掩体的检测,通过模型训练和检测验证,得出以下结论:1)经过多个深度学习目标检测模型对比分析,在飞机掩体数据集上,YOLOX的检测精度更高,AP值达97.7%,且模型尺寸较小、所需训练时间短、检测速度快,可实现飞机掩体高效检测。2)所提旋转目标检测方法R-YOLOX,在采用KLD损失作为损失函数的改进后,模型检测精度显著提升,AP提升了5.19个百分点,有效实现了飞机掩体旋转检测。本研究从水平框和预测框两个角度实现了飞机掩体的识别,获取了目标更完整的信息。与水平框检测效果对比,旋转框检测能够获得更加准确的规模和位置信息,预测框更贴近目标轮廓。
在光学遥感影像飞机掩体检测中,所用模型整体上具备了快速准确检测的能力,但在部分复杂背景下的检测中仍存在误检和漏检的情况。为实现更加精准的飞机掩体识别,未来还要进一步思考如何利用多源遥感影像进行检测。
[1] 张欣. 基于YOLO算法的遥感图像飞机目标检测技术研究[D]. 长春: 中国科学院长春光学精密机械与物理研究所, 2021. 10.37188/co.2022-0099
ZhangX. Research on aircraft target detection technology in remote sensing image based on YOLO algorithm[D]. Changchun: Changchun Institute of Optics, Fine Mechanics and Physics, Chinese Academy of Sciences, 2021.
[2] 孙军领, 陈天泽, 粟毅. 基于特征融合的遥感图像机场掩体目标检测方法研究[J]. 遥感技术与应用, 2009, 24(3): 379-384.
Sun J L, Chen T Z, Su Y. A method of airport shelter detection based on feature fusion in remote sensing images[J]. Remote Sensing Technology and Application, 2009, 24(3): 379-384.
[3] 徐万朋, 陈向宁, 徐春宇, 等. SAR图像机场区域的掩体目标检测方法[J]. 测绘科学技术学报, 2013, 30(5): 494-499.
Xu W P, Chen X N, Xu C Y, et al. SAR image of airport areas cover target detection method[J]. Journal of Geomatics Science and Technology, 2013, 30(5): 494-499.
[4] LeCun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436-444.
[5] Cheng G, Yang C Y, Yao X W, et al. When deep learning meets metric learning: remote sensing image scene classification via learning discriminative CNNs[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(5): 2811-2821.
[6] 周飞燕, 金林鹏, 董军. 卷积神经网络研究综述[J]. 计算机学报, 2017, 40(6): 1229-1251.
Zhou F Y, Jin L P, Dong J. Review of convolutional neural network[J]. Chinese Journal of Computers, 2017, 40(6): 1229-1251.
[7] Zhu X X, Tuia D, Mou L C, et al. Deep learning in remote sensing: a comprehensive review and list of resources[J]. IEEE Geoscience and Remote Sensing Magazine, 2017, 5(4): 8-36.
[8] Tan Q L, Ling J, Hu J, et al. Vehicle detection in high resolution satellite remote sensing images based on deep learning[J]. IEEE Access, 2020, 8: 153394-153402.
[9] Ge J, Wang C, Zhang B, et al. Azimuth-sensitive object detection of high-resolution SAR images in complex scenes by using a spatial orientation attention enhancement network[J]. Remote Sensing, 2022, 14(9): 2198.
[10] Wang Z Q, Zhou Y, Wang F T, et al. SDGH-net: ship detection in optical remote sensing images based on Gaussian heatmap regression[J]. Remote Sensing, 2021, 13(3): 499.
[11] Wu J X, Pan Z X, Lei B, et al. LR-TSDet: towards tiny ship detection in low-resolution remote sensing images[J]. Remote Sensing, 2021, 13(19): 3890.
[12] ZhengL J, AiP, WuY. Building recognition of UAV remote sensing images by deep learning[C]∥IGARSS 2020-2020 IEEE International Geoscience and Remote Sensing Symposium, September 26-October 2, 2020, Waikoloa, HI, USA. New York: IEEE Press, 2020: 1185-1188.
[13] Lu J Y, Wang Y Z, Zhu Y Q, et al. P_Segnet and NP_Segnet: new neural network architectures for cloud recognition of remote sensing images[J]. IEEE Access, 2019, 7: 87323-87333.
[14] 郭海涛, 李宸尧, 崔君, 等. 多尺度并联卷积神经网络遥感影像油罐目标检测算法[J]. 测绘科学技术学报, 2021, 38(2): 148-154.
Guo H T, Li C Y, Cui J, et al. Oil tank detection algorithm on remote sensing image using multi-scale parallel convolutional neural networks[J]. Journal of Geomatics Science and Technology, 2021, 38(2): 148-154.
[15] GirshickR. Fast R-CNN[C]∥2015 IEEE International Conference on Computer Vision, December 7-13, 2015, Santiago, Chile. New York: IEEE Press, 2015: 1440-1448.
[16] Yan D C, Li G Q, Li X Q, et al. An improved faster R-CNN method to detect tailings ponds from high-resolution remote sensing images[J]. Remote Sensing, 2021, 13(11): 2052.
[17] LiuW, AnguelovD, ErhanD, et al. SSD: single shot MultiBox detector[M]∥LeibeB, MatasJ, SebeN, et al. Computer vision-ECCV 2016. Lecture notes in computer science. Cham: Springer, 2016, 9905: 21-37.
[18] LinT Y, GoyalP, GirshickR, et al. Focal loss for dense object detection[C]∥2017 IEEE International Conference on Computer Vision, October 22-29, 2017, Venice, Italy. New York: IEEE Press, 2017: 2999-3007.
[19] RedmonJ, DivvalaS, GirshickR, et al. You only look once: unified, real-time object detection[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition, June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 779-788.
[20] 史文旭, 鲍佳慧, 姚宇. 基于深度学习的遥感图像目标检测与识别[J]. 计算机应用, 2020, 40(12): 3558-3562.
Shi W X, Bao J H, Yao Y. Remote sensing image target detection and identification based on deep learning[J]. Journal of Computer Applications, 2020, 40(12): 3558-3562.
[21] Yin W X, Diao W H, Wang P J, et al. PCAN: part-based context attention network for thermal power plant detection in remote sensing imagery[J]. Remote Sensing, 2021, 13(7): 1243.
[22] 牛浩青, 欧鸥, 饶姗姗, 等. 改进YOLOv3的遥感影像小目标检测方法[J]. 计算机工程与应用, 2022, 58(13): 241-248.
Niu H Q, Ou O, Rao S S, et al. Small object detection method based on improved YOLOv3 in remote sensing image[J]. Computer Engineering and Applications, 2022, 58(13): 241-248.
[23] DuanK W, BaiS, XieL X, et al. CenterNet: keypoint triplets for object detection[C]∥2019 IEEE/CVF International Conference on Computer Vision (ICCV), October 27-November 2, 2019, Seoul, Republic of Korea. New York: IEEE Press, 2019: 6568-6577.
[24] ZhouX Y, ZhuoJ C, KrähenbühlP. Bottom-up object detection by grouping extreme and center points[C]∥2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 15-20, 2019, Long Beach, CA, USA. New York: IEEE Press, 2019: 850-859.
[25] Law H, Deng J. CornerNet: detecting objects as paired keypoints[J]. International Journal of Computer Vision, 2020, 128(3): 642-656.
[26] Li S, Fu X J, Dong J. Improved ship detection algorithm based on YOLOX for SAR outline enhancement image[J]. Remote Sensing, 2022, 14(16): 4070.
[27] YangX, YangJ R, YanJ C, et al. SCRDet: towards more robust detection for small, cluttered and rotated objects[C]∥2019 IEEE/CVF International Conference on Computer Vision (ICCV), October 27-November 2, 2019, Seoul, Republic of Korea. New York: IEEE Press, 2019: 8231-8240.
[28] YangX, YanJ C, MingQ, et al. Rethinking rotated object detection with gaussian wasserstein distance loss[C]∥Proceedings of International Conference on Machine Learning (ICML), July 18-24, 2021, Virtual Event. Copenhagen: MLR Press, 2021: 11830-11841.
[29] YangX, YangX J, YangJ R, et al. Learning high-precision bounding box for rotated object detection via Kullback-Leibler Divergence[C]∥Proceedings of Neural Information Processing Systems (NeurIPS), December 6-14, 2021, Virtual. Copenhagen: MLR Press, 2021: 18381-18394.
[30] LiuZ K, HuJ G, WengL B, et al. Rotated region based CNN for ship detection[C]∥2017 IEEE International Conference on Image Processing, September 17-20, 2017, Beijing, China. New York: IEEE Press, 2017: 900-904.
[31] Tang F F, Wang W, Li J, et al. Aircraft rotation detection in remote sensing image based on multi-feature fusion and rotation-aware anchor[J]. Applied Sciences, 2022, 12(3): 1291.
[33] RedmonJ, FarhadiA. YOLO9000: better, faster, stronger[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition, July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 6517-6525.
[36] Yu Y, Yang X, Li J, et al. A cascade rotated anchor-aided detector for ship detection in remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 1-14.
[37] Chan S X, Zheng J C, Wang L N, et al. Rotating object detection in remote-sensing environment[J]. Soft Computing, 2022, 26(16): 8037-8045.
[38] Zakaria Y, Mokhtar S A, Baraka H, et al. Improving small and cluttered object detection by incorporating instance level denoising into single-shot alignment network for remote sensing imagery[J]. IEEE Access, 2022, 10: 51176-51190.
Article Outline
史姝姝, 陈永强, 王樱洁, 王春乐. 基于深度学习的高分辨率遥感影像飞机掩体检测方法[J]. 激光与光电子学进展, 2024, 61(4): 0428009. Shushu Shi, Yongqiang Chen, Yingjie Wang, Chunle Wang. Aircraft-Bunker Detection Method Based on Deep Learning in High-Resolution Remote-Sensing Images[J]. Laser & Optoelectronics Progress, 2024, 61(4): 0428009.