激光与光电子学进展, 2020, 57 (20): 201018, 网络出版: 2020-10-13   

基于多尺度生成对抗网络的SAR图像样本增广 下载: 1166次

Data Augmentation in SAR Images Based on Multi-Scale Generative Adversarial Networks
作者单位
1 火箭军工程大学作战保障学院, 陕西 西安 710025
2 北京遥感设备研究所, 北京 100854
摘要
针对军用无人飞行器对海上重要舰船合成孔径雷达图像获取困难的问题,提出了一种从单一图像学习图像内部分布的无条件图像生成网络。该网络采用金字塔式多尺度生成对抗网络(GAN)思想,在每一层金字塔中都有一个GAN负责该尺度下图像块的生成和判别,且每个GAN具有相似的结构。生成器前端采用不同大小卷积核连接的Inception模块获取不同尺度下的图像特征,为了充分利用这些特征,加入了残差密集模块;判别器采用马尔科夫判别器的思想,捕捉不同尺度下的图像分布。将所有生成的图像制成数据集用于训练不同的目标检测算法,结果表明,训练后模型的平均精度得到了一定的提升,验证了该网络模型的有效性。
Abstract
To solve the problem that it is difficult for military unmanned aerial vehicles to acquire synthetic aperture radar images of important ships at sea, this paper introduces an unconditional image generation network which can learn the internal distribution of images from a single image. The network adopts the idea of a pyramid of multi-scale generative adversarial networks (GAN). In each layer of pyramid, there is a GAN responsible for the generation and discrimination of image blocks at this scale, and each GAN has a similar structure. The head of generator contains Inception modules connected with different sizes of convolution kernels to obtain image features at different scales. In order to make full use of these features, a residual dense block is added. The discriminator uses the idea of Markov discriminator to capture images distribution at different scales. All the generated images are made into data sets for training different target detection algorithms, the results show that the average accuracy of the model is improved to a certain extent, which verifies the effectiveness of the network model.

1 引言

深度学习是近年来备受关注的话题,但其需要大量的样本数据才能发挥优势[1],而合成孔径雷达(SAR)图像由于设备限制导致数据来源不够丰富。随着我国海洋事业发展的需求和海上威胁的不断增加,增强海洋监测技术在军用和民用方面都具有重大意义。考虑到军用无人飞行器拍摄的海上舰船SAR图像较少的问题,从已有SAR图像进行样本增广,以获得大量有效的SAR图像,对提高海上舰船检测、识别能力十分必要[2]

基于计算机绘图的SAR仿真系统,如Balz等[3]采用一种在图形处理器(GPU)上栅格化的方法进行快速仿真;Hammer等[4]提出了一种基于射线跟踪方法的模拟器,可模拟高分辨率的小场景,但这两种模拟器的精度都容易受到几何精度和电磁计算简化的影响。在目标分类领域,常见的数据增广方法,如剪裁、旋转、平移,都无法取得期望的效果,一方面是因为目标分类对图像平移、旋转不敏感[5],另一方面是目标分类方法通常将图像整体进行变换,忽略了图像内的场景和目标变动。

生成对抗网络(GAN)是近年来深度学习的热门话题之一,其在自然语言处理、计算机视觉等方面均有应用,且不断往其他领域扩展。受博弈论中的零和博弈启发,GAN将生成问题当作生成器(generator)和判别器(discriminator)两个网络之间的对抗问题[6],即给定生成器噪声,将生成器生成的数据作为输出,并用判别器判别生成数据的真假。在博弈过程中,不断改进生成器,以生成更逼真的数据;判别器不断提高自身分辨数据真假的能力。但GAN存在训练困难、梯度消失、模型崩溃等问题[7]。可通过改变GAN的结构提升网络的性能,如条件生成对抗网络(CGAN)[8]可生成指定标签的数据;InfoGAN[9]在CGAN的基础上将生成器输入的噪声进行分解,使数据的生成过程可控,并对生成结果有一定的解释性;Pix2Pix[10]也是CGAN的一种变体结构,将图像映射到另一张图像上,成功将GAN应用到图像翻译领域;而循环一致性生成对抗网络(CycleGAN)[11]、StarGAN[12]解决了图像翻译的配对问题,将图像到图像的一对一映射转换为多领域之间的转换。此外,GAN在超分辨率、音频生成等领域也取得了巨大的进展。其次,可通过改变目标函数提升网络的性能。如Wasserstein生成对抗网络(WGAN)[13]利用Wasserstein-1距离代替原始GAN中的JS(Jensen-Shannon)散度,从而改进生成器和判别器的目标函数;带梯度惩罚的WGAN(WGAN-GP)[14]使用正则化形式对判别器进行约束,解决了模型崩溃、梯度消失的问题,使GAN能更稳定的进行学习。

已有研究中,GAN的多种结构变体通常对应特定的任务,且需要一定数量的同类型数据集进行学习。如文献[ 15]中用WGAN-GP生成特定方位角SAR图像的新样本,需要多张样本图像作为训练集。本文参考文献[ 16]中的方法,针对SAR图像信息少且纹理简单的特点,提出了一种通过学习单张图像信息,生成有效SAR图像的方法。

2 网络结构

2.1 金字塔式多尺度GAN

采用一种金字塔式多尺度结构GAN作为整体框架捕捉图像内部的统计信息,每一层金字塔都有一个简单的GAN负责该尺度下图像样本的生成和判别,具体网络结构如图1所示。与GAN及其变体网络以大量样本数据作为训练集不同,该方法仅需捕捉单一图像在不同尺度下的结构数据作为训练集,在捕获到全局信息的同时注重图像的细节纹理。

图1中的N为金字塔的尺度,由输入图像的大小决定,{xN,xN-1,…x0}为原始图像在不同尺度下的下采样结果,采样因子为rn,n∈{0,1,2,…,N},且r>1。金字塔模型从最粗的尺度开始训练,第一个生成器GN只需根据输入的高斯空间白噪声zN就能生成图像样本 x~N,可表示为

x~N=GN(zN)(1)

图 1. 金字塔式多尺度GAN的结构

Fig. 1. Structure of the pyramidal multi-scale GAN

下载图片 查看所有图片

通过噪声zN生成样本 x~N后,将图像 x~N上采样的结果与高斯空间白噪声同时输入下一个尺度的生成器GN-1中,再由生成器GN-1生成新的样本图像 x~N-1,以此类推,每一个尺度生成器生成的图像可表示为

x~n-1=Gn-1[zn-1,(x~n)r],n<N+1,(2)

式中, x~n-1为第n-1个尺度下的生成图像,Gn-1为该尺度下的生成器,zn-1为该尺度下输入的噪声, (x~n)r为第n个尺度下生成图像 x~n的上采样。

将第n个尺度下输入的噪声zn和图像 x~n+1的上采样结果同时输入生成器,生成器的主要作用是生成 x~n+1缺少的细节并加入到 x~n+1中,以生成新的样本图像 x~n,可表示为

x~n=(x~n+1)r+fn[zn+(x~n+1)r],(3)

式中,fn为从生成图像 x~n+1的上采样 (x~n+1)r和噪声zn到生成细节的映射,具体结构如图2所示,其中,BN为批量归一化,Leaky ReLU为带泄露修正线性单元,每一尺度的生成器具有相似的结构。在每个尺度上,生成器Gn生成的样本图像 x~n除了输入到下一层的生成器外,还会传递给判别器Dn,将样本图像 x~n与当前尺度下采样得到的图像块进行对比,直到判别器不能判别真假为止。整个训练过程是从下往上进行的,图像块由大到小,从粗糙到精细。

图 2. 生成器的结构

Fig. 2. Structure of generator

下载图片 查看所有图片

2.1.1 Inception模块

生成器将输入的图像用尺寸为3×3的卷积核卷积后,其输出通道数变为192,将图2中的输出m1作为Inception模块[17]的输入,如图3所示。Inception模块将输入作为四个分支,用不同尺寸的卷积核进行卷积后,在特征维度上拼接到一起。传统卷积层的输入只和一种尺寸的卷积核卷积,输出的维度是固定的,所有输出特征均匀分布在固定范围内。而本方法采用的Inception模块通过尺寸分别为1×1、3×3(两个)、5×5的卷积核提取特征,因此输出的特征分布更紧密,从而减少冗余信息、加快收敛速度,更快提取出目标舰船的独立特征。此外,因为感受野不同,该模块能得到不同尺度下的特征,获取的特征更丰富。

图 3. Inception模块

Fig. 3. Inception block

下载图片 查看所有图片

Inception模块中有三条分支对输入进行卷积运算(卷积核尺寸为1×1),对于单像素点,1×1的卷积运算(Conv)相当于该像素点在所有特征上进行了一次全连接运算,即全连接形式,如图4所示。在卷积运算之后,进行BN,然后通过激活函数,以更好地模拟非线性特征,每个像素点可在相同的感受野中叠加更多的卷积,从而提取更多的特征。

为缩短本模型学习单张图像的时间、降低计算成本,使用1×1卷积,减少提取的特征数后,Inception模块还将5×5卷积分解为两个3×3卷积,以提升模型的运算速度。

图 4. 线性卷积层与1×1卷积层。(a)线性卷积层;(b) 1×1卷积层

Fig. 4. Linear convolutional layer and 1×1 convolutional layer. (a) Linear convolution layer; (b) 1×1 convolution layer

下载图片 查看所有图片

2.1.2 残差密集模块

Inception模块提取不同尺度的特征得到的输出经下采样后,进入残差密集模块。实验采用的残差密集模块[18]可以充分利用Inception模块获取的不同尺度舰船特征,提高生成器生成图像的质量。残差密集模块由五个卷积层密集连接,每个卷积层可以向所有后续层传递信息。文献[ 19]已经证明去除BN层可以减少计算复杂度并提高网络性能,因此,生成器在残差密集模块中去除所有BN层,如图5所示,其中,m2图2中卷积模块的输出。在计算该结构的输出时进行残差缩放,将残差乘以0到1之间的常数后,加入到主路径的输出中,可以有效避免网络结构的不稳定[20-21]

图 5. 残差密集模块

Fig. 5. Residual dense block

下载图片 查看所有图片

2.2 生成器的结构

为提取SAR图像中更多的特征,在原有生成器中的5个全卷积网络中加入密集残差模块和Inception模块,如图2所示。将Inception模块置于生成器前侧,有利于提取到不同尺度的特征,将提取到的特征进行下采样后输入残差密集模块,最后将得到的结果进行上采样后输出。

生成器的具体配置如表1所示,其中,Conv_block由卷积、BN和Leaky ReLU激活函数组成,在最粗的尺度上,输入和输出的通道数C为32,每减少四个尺度,将C增加2倍。

表 1. 生成器的参数

Table 1. Parameters of the generator

BlockOperationConvolution kernelInput channelOutput channel
HeadConv_block3×33192
InceptionblockBlock 1Conv_block1×119264
Block 2
Conv_block1×119296
Conv_block3×392128
Block 3
Conv_block1×119216
Conv_block3×31632
Conv_block3×33232
Block 4
Max Pooling
Conv_block1×119232
Connection partConv_block3×3256C
Residual dense blockConv3×3CC
Leaky ReLU
Conv3×3256C
Leaky ReLU
Conv3×3384C
Leaky ReLU
Conv3×3512C
Leaky ReLU
Conv3×3640C
Leaky ReLU
tailConv_block3×3CC
Conv_block3×3CC
Conv3×3C3
tanh

查看所有表

2.3 判别器的结构

判别器采用文献[ 16]中的结构,采用马尔科夫判别器(patch-GAN)思想,由5个全卷积层构成,用下采样方法捕捉当前尺度下的图像分布,如图6所示。将当前尺度生成的样本图像和下采样得到的图像进行对比,并计算损失函数。判别器在最粗尺度上进行卷积操作输出的通道数为32,每减少四个尺度增加2倍,卷积核的尺寸为3×3。

图 6. 判别器的结构

Fig. 6. Structure of the discriminator

下载图片 查看所有图片

3 损失函数

模型训练从最粗的尺度开始,按图1所示的多尺度结构训练,每训练一个尺度,该尺度的GAN就会被固定。第n个GAN的训练损失包括对抗损失Sloss_adv和重建损失Sloss_rec,可表示为

Slosstrain=minGn maxDnSloss_adv(Gn,Dn)+αSloss_rec(Gn),(4)

式中,α为重建损失在训练损失中所占的权重,实验中取10。

对抗损失:在每个尺度下生成器都有一个马尔科夫判别器,以判别该尺度下生成图像的真假[10]。实验采用WGAN-GP损失[14],用Wasserstein-1距离代替原始GAN的JS散度,并将判别器的Lipschitz-1约束正则化作为目标函数的惩罚项,解决了损失函数梯度消失问题,提高了模型的稳定性。马尔科夫判别器判别图谱的平均值可表示为

Sloss_adv=adv{Exn~pdata[D(xn)]+Ex~n~pg[D(x~n)]}+λEx^~px^D(x^)-12,(5)

式中,adv为取平均值函数,xn为原始图像的下采样结果, x~n为由噪声生成的样本,pdata为真实图像的分布,pg为生成图像的分布,xn~pdata表示xn服从pdata分布, x~n~pg表示 x~n服从pg分布,xdata为真实样本的集中区域,xg为生成样本的集中区域, x^xdataxg中随机插值, x^=εxdata+(1-ε)xg,ε∈[0,1], x^~px^表示 x^服从 px^分布。D(xn)为判别器判别真实图像时输出的结果,D( x~n)为判别器判别生成图像时输出的结果。E为期望,Ñ为梯度算符,‖‖为L1范数,λ为梯度损失函数的权重,实验中取0.1。

重建损失:为了生成原始图像x的特定噪声图谱,令{ zNrec, zN-1rec,…, z0rec}={z*,0,…,0},其中, znrec为第n个尺度重建的噪声,n∈{0,1,2,…,N},z*为训练中固定的噪声图谱, x~nrec为用噪声图谱在第n个尺度生成的图像。当n<N时,重建损失可表示为

Sloss_rec=Gn(0,[x~nrec)r]-xn2(6)

n=N时,重建损失可表示为

Sloss_rec=GN(z*)-xN2(7)

可用 x~nrec确定每个尺度下噪声的标准差σn,即 x~nrecx~n+1rec的均方根误差与σn成正比。

4 实验分析

4.1 实验数据和平台

实验数据:使用SSDD公开数据集,数据来源主要有TerraSAR-X、RadarSat-2和Sentinel-1传感器,有HH、HV、VV和VH四种极化方式,分辨率为1~15 m,使用LabelImg进行标注,共1160张图像,包含2456艘舰船[22]

实验平台:系统为Ubuntu18.04,CPU为Intel Core i7-9750H,主频为2.60 GHz,GPU为GeForce RTX2060,内存为16 GB。开发框架为PyTorch,语言为Python。

4.2 模型训练

模型训练采用Adam自适应算法,设置学习率为0.0005,一阶动量为0.5,二阶动量为0.999,每个尺度的训练次数为2000次,当学习次数达到1600次时将学习率调整到0.00005。

4.3 实验结果

图7为本方法生成的样本图像,从图7(a1)~图7(a4)、图7(b1)~图7(b4)可以发现,对于小尺寸舰船,本方法不仅可以学习到舰船的轮廓信息,还可以在生成样本图像时生成不同数量和分布的舰船以及不同的岛屿、海岸线的纹理信息,从而改变海岸地形;从图7(c1)~图7(c4)可以发现,对于带噪声的图像,本方法学习噪声分布时不会丢失舰船的特征信息,但生成的噪声缺少颗粒感;从图7(d1)~图7(d4)可以发现,本方法在学习大尺寸舰船时可得到舰船的整体轮廓,生成图像中的舰船在图中的数量、位置、大小均不同。

图 7. 由单一图像生成的图像。(a)小尺寸舰船的图像1;(b)小尺寸舰船的图像2;(c)背景带噪声的图像;(d)大尺寸舰船的图像

Fig. 7. Image generated from single image. (a) Image1 of small ship; (b) image2 of small ship; (c) image with noise in background; (d) image of large ship

下载图片 查看所有图片

本方法改进的重点在于得到更多尺度特征的同时更好地利用图像特征,改进前后生成的图像如图8所示。原方法训练生成的样本图像如图8(b1)、图8(b2)所示,可以发现,原方法虽然能学习小尺度的舰船特征,但在学习大尺度舰船特征时,不能将舰船作为一个整体,因此生成的图像出现舰船各部分分离以及与非舰船物体叠加的情况;原方法对舰船轮廓、纹理的学习也有所欠缺,如图8(b1)和图8(b2)中,舰船均存在虚假阴影。而本方法在网络首部采用不同尺寸大小的卷积核提取特征,得到图像在不同尺度下的舰船特征,生成图像在保证舰船分布多样性的同时,还可以学习整艘舰船的轮廓。特别是在生成大尺寸舰船时,本方法生成的图像不会出现不完整的舰船以及目标叠加的情况,也没有虚假的阴影。其次,本方法应用了残差密集模块,能更好地利用获取的舰船特征,使生成图像中的舰船纹理更细致。

图 8. 不同网络生成的图像。(a)用于训练的图像;(b)原网络生成的图像;(c)改进后网络生成的图像

Fig. 8. Images generated by different networks. (a) Images used for training; (b) images generated by the original network; (c) images generated by the improved network

下载图片 查看所有图片

4.4 结果验证

采用本方法(记为method1)和传统方法(记为method2)对样本进行增广,传统增广方法主要对图像进行裁剪、平移、改变亮度、加噪声、旋转、镜像、在图像上添加黑色区域,本方法采用LabelImg图像标注软件对生成的样本图像进行人工标注。由于SSDD数据集中的数据类别只有舰船一种,因此标注时也只标注舰船,实验共制备了五个数据集。

1) SSDD_method1_20:从SSDD数据集的1160张图像中选取58张进行训练,主要涉及简单背景下的大、小尺寸舰船和复杂背景下的大、小尺寸舰船。每张图像通过method1训练生成20张图像,共得到1160张图像。

2) SSDD_method1_40:从SSDD数据集的1160张图像中选取29张图像,每张图像通过method1训练生成40张图像,共1160张图像。

3) SSDD_method2_20:用相同的58张图像,每张图像用method2中的任意一种方式进行20次增广,共得到1160张图像。

4) SSDD_method2_40:用相同的29张图像,每张图像用method2中的任意一种方式进行40次增广,共得到1160张图像。

5) SSDD_method2_1160:用SSDD数据集中的1160张图像,每张图像采用method2中的任意一种方式进行1次增广,共得到1160张图像。

本方法生成的样本主要用于SAR图像的目标检测,因此用目标检测算法判定生成的SAR图像是否有效。SSD和Tiny-YOLO训练均采用Adam自适应算法,batch size为16,初始学习率为0.00004,epoch为10000,训练集和测试集中的图像数量比为7∶3。由于SSDD数据集和标注的生成样本数据集只有一个类别,因此采用平均精度(AP)衡量目标检测算法的训练效果,将Bounding box和Ground truth的重叠阈值设为0.5,得到的结果如表2所示。

表 2. 不同方法生成图像的AP

Table 2. AP of different methods to generate images

DatasetAP
SSDTiny-YOLO
SSDD0.80970.707
SSDD_method1_200.72750.641
SSDD+ SSDD_method1_200.81780.726
SSDD+ SSDD_method1_400.81010.716
SSDD+ SSDD_method2_200.81060.696
SSDD+ SSDD_method2_400.79070.672
SSDD+ SSDD_method2_11600.82130.702

查看所有表

当样本增广的原始图像只有58张时,分别用method1和method2将数据集增广至1160张图像,然后与SSDD数据集结合得到新的数据集SSDD+ SSDD_method1_20和SSDD+ SSDD_method2_20,用这两个新数据集训练目标检测算法SSD和Tiny-YOLO。从表2可以看出,用method1和method2进行样本增广时,训练的SSD算法AP均有上升,但method1上升较多,method2几乎不变;用method2增广的数据集训练Tiny-YOLO时,AP有所下降;当原始样本为29张图像时,分别用method1和method2将数据集增广至1160张图像,用method2增广的数据集训练目标检测算法,两种算法的AP相比仅使用SSDD数据集有所下降。原因是普通增广方法只能从裁剪、平移、改变亮度、加噪声、旋转、镜像、在图像上添加黑色区域7种方法中选择,使用单一图像进行20次增广时,存在大量重复样本。而本方法通过单一图像的学习,由噪声产生样本图像,不存在大量重复样本的问题。

相比原始SSDD数据,用本方法增广的数据集,训练得到的模型在目标检测时对虚警、漏检、错检现象都有所改进,如图9~图11所示。但因每次只训练一张图像,生成的样本在舰船的多样性上存在不足。对靠近海岸线的大尺度舰船和单张图像中多艘小尺寸舰船的检测效果提升不明显,如图12所示。

图 9. 不同数据集训练的错检情况。(a)正确检测结果;(b) SSDD数据集;(c) SSDD数据集+生成的样本数据集

Fig. 9. Error detection of training on different data sets. (a) Correct test results; (b) SSDD data set; (c) SSDD data set + generated sample data set

下载图片 查看所有图片

图 10. 不同数据集训练的虚警情况。(a)正确检测结果;(b) SSDD数据集;(c) SSDD数据集+生成的样本数据集

Fig. 10. False alarms of training on different data sets. (a) Correct test results; (b) SSDD data set; (c) SSDD data set + generated sample data set

下载图片 查看所有图片

图 11. 不同数据集训练的漏检情况。(a)正确检测结果;(b) SSDD数据集;(c) SSDD数据集+生成的样本数据集

Fig. 11. Missed detection of training on different data sets. (a) Correct test results; (b) SSDD data set; (c) SSDD data set + generated sample data set

下载图片 查看所有图片

图 12. 加入生成数据集后未检测出的结果。(a)正确检测结果;(b) SSDD数据集;(c) SSDD数据集+生成的样本数据集

Fig. 12. Undetected result after adding the generated data set. (a) Correct test results; (b) SSDD data set; (c) SSDD data set + generated sample data set

下载图片 查看所有图片

5 结论

针对深度学习需要大量样本数据支撑,而SAR图像获取较为困难的问题,基于GAN提出了一种学习单张图像内部分布的样本增广方法。相比常见的样本增广方法,本方法进行样本数据增广时可以改变图像中目标的数量、相对位置以及背景环境,使生成的样本具有多样性。使用金字塔式的多尺度GAN对单张图像进行学习,在生成器前端采用Inception模块获取更多尺度的特征,结合残差密集模块充分利用图像特征。将生成的图像标注后作为数据集训练目标检测算法,用训练的模型测试同一测试集,得到的结果较好,证明了本方法生成SAR图像的有效性。但本方法每次只能训练一张图像,再次处理另一张图像需要重新训练,增加了训练时间和训练成本。因此,之后的研究中还需考虑能否通过导入具有普适性的预训练模型对具体的图像进行微调,从而达到快速训练的目的。

参考文献

[1] Wang ZW, SheQ, Ward TE. Generative adversarial networks: a survey and taxonomy[EB/OL]. [2020-01-31].https:∥arxiv.org/abs/1701. 04862.

[2] 易维, 曾湧, 原征. 基于NSCT变换的高分三号SAR与光学图像融合[J]. 光学学报, 2018, 38(11): 1110002.

    Yi W, Zeng Y, Yuan Z. Fusion of GF-3 SAR and optical images based on the nonsubsampled contourlet transform[J]. Acta Optica Sinica, 2018, 38(11): 1110002.

[3] Balz T, Stilla U. Hybrid GPU-based single-and double-bounce SAR simulation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2009, 47(10): 3519-3529.

[4] Hammer H, Schulz K. Coherent simulation of SAR images[J]. Proceedings of SPIE, 2009, 7477: 74771G.

[5] Cubuk ED, ZophB, ManéD, et al. AutoAugment: learning augmentation strategies from data[C]∥2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 15-20, 2019, Long Beach, CA, USA. New York: IEEE, 2019: 113- 123.

[6] Goodfellow IJ, Pouget-AbadieJ, MirzaM, et al. Generative adversarial nets[EB/OL]. [2020-01-27].https:∥arxiv.org/abs/1406. 2661.

[7] ArjovskyM, BottouL. Towards principled methods for training generative adversarial networks[EB/OL]. [2020-02-05].https:∥arxiv.org/abs/1701. 04862.

[8] MirzaM, OsinderoS. Conditional generative adversarial nets[EB/OL]. [2020-01-30].https:∥arxiv.org/abs/1411. 1784.

[9] ChenX, DuanY, HouthooftR, et al. InfoGAN: interpretable representation learning by information maximizing generative adversarial nets[EB/OL]. [2020-02-03].https:∥arxiv.org/abs/1606. 03657.

[10] IsolaP, Zhu JY, Zhou TH, et al. Image-to-image translation with conditional adversarial networks[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 5967- 5976.

[11] Zhu JY, ParkT, IsolaP, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy. New York: IEEE, 2017: 2242- 2251.

[12] ChoiY, ChoiM, KimM, et al. StarGAN: unified generative adversarial networks for multi-domain image-to-image translation[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 18-23, 2018, Salt Lake City, UT, USA. New York: IEEE, 2018: 8789- 8797.

[13] AjocskyM, ChintalaS, BottouL. Wasserstein GAN[EB/OL]. [2020-02-04].https:∥arxiv.org/abs/1701. 07875.

[14] GulrajaniI I, Ahmed F, Arjovsky M, et al. Improved training of Wasserstein GAN[EB/OL].[2020-01-27]. https:∥arxiv.org/abs/1704. 00028.

[15] Cui Z Y, Zhang M R, Cao Z J, et al. Image data augmentation for SAR sensor via generative adversarial nets[J]. IEEE Access, 2019, 7: 42255-42268.

[16] Shaham TR, DekelT, MichaeliT. SinGAN: learning a generative model from a single natural image[C]∥2019 IEEE/CVF International Conference on Computer Vision (ICCV), October 27-November 2, 2019, Seoul, Korea (South). New York: IEEE, 2019: 4569- 4579.

[17] SzegedyC, VanhouckeV, IoffeS, et al. Rethinking the inception architecture for computer vision[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 2818- 2826.

[18] Wang XT, YuK, Wu SX, et al. ESRGAN: enhanced super-resolution generative adversarial networks[M] ∥ Leal-Taixé L, Roth S, et al. Computer Vision -ECCV 2018. Lecture Notes in Computer Science. Cham: Springer, 2018, 11133: 63- 79.

[19] HuangG, Liu Z, van der Maaten L, et al. Densely connected convolutional networks[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 2261- 2269.

[20] LimB, SonS, KimH, et al. Enhanced deep residual networks for single image super-resolution[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 1132- 1140.

[21] SzegedyC, IoffeS, VanhouckeV, et al. Inception-v4, inception-ResNet and the impact of residual connections on learning[EB/OL]. [2020-01-30].https:∥arxiv.org/abs/1602. 07261.

[22] 李健伟, 曲长文, 彭书娟, 等. 基于生成对抗网络和线上难例挖掘的SAR图像舰船目标检测[J]. 电子与信息学报, 2019, 41(1): 143-149.

    Li J W, Qu C W, Peng S J, et al. Ship detection in SAR images based on generative adversarial network and online hard examples mining[J]. Journal of Electronics & Information Technology, 2019, 41(1): 143-149.

李诗怡, 付光远, 崔忠马, 杨小婷, 汪洪桥, 陈雨魁. 基于多尺度生成对抗网络的SAR图像样本增广[J]. 激光与光电子学进展, 2020, 57(20): 201018. Shiyi Li, Guangyuan Fu, Zhongma Cui, Xiaoting Yang, Hongqiao Wang, Yukui Chen. Data Augmentation in SAR Images Based on Multi-Scale Generative Adversarial Networks[J]. Laser & Optoelectronics Progress, 2020, 57(20): 201018.

本文已被 3 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!