激光与光电子学进展, 2019, 56 (16): 161004, 网络出版: 2019-08-05   

基于生成对抗网络的多模态图像融合 下载: 2227次

Multimodal Image Fusion Based on Generative Adversarial Networks
作者单位
1 中北大学大数据学院, 山西 太原 030051
2 酒泉卫星发射中心, 甘肃 酒泉 735000
摘要
针对多模态图像融合中多尺度几何工具和融合规则设计困难的问题,提出一种基于生成对抗网络(GANs)的图像融合方法,实现了多模态图像端到端的自适应融合。将多模态源图像同步输入基于残差的卷积神经网络(生成网络),通过网络的自适应学习生成融合图像;将融合图像和标签图像分别送入判别网络,通过判别器的特征表示和分类识别逐渐优化生成器,在生成器和判别器的动态平衡中得到最终融合图像。与具有代表性的融合方法相比,实验结果表明,本文方法的融合结果更干净,没有伪影,提供了更好的视觉质量。
Abstract
This study proposes a new network based on generative adversarial networks to achieve an end-to-end image adaptive fusion, thus solving the difficulties in designing multiscale geometric tools and fusion rules in multimodal image fusion. First, the multimodal source image is synchronously input into the generative network, whose structure is created based on a residual-based convolutional neural network proposed herein. The network can generate the fused image through adaptive learning. Second, the fused and label images are sent to the discriminant network. The generator is gradually optimized through the feature representation and classification identification of the discriminator. The final fused image is obtained in the dynamic balance of the generator and discriminator. In comparison with the existing representative fusion methods, the proposed algorithm obtains more cleaner fusion results and has no artifacts, thereby providing a better visual quality.

1 引言

多波段/多模态成像系统在**、医疗、工业检测等领域已有广泛应用,图像融合是这些系统实现高精度智能探测的关键技术之一,其目的是将同一场景的多幅图像或序列图像合成一幅信息更完整、更全面的图像[1]

目前的图像融合方法大致可分为两大类:基于模型驱动的传统融合法[2-9],如基于非下采样剪切波变换(NSST)融合法[7]、基于稀疏表示融合法[8]、导向滤波融合法[9]等;基于数据驱动的神经网络融合法[10-14],如基于卷积神经网络的图像融合法[11]、基于编码和解码网络的图像融合法[12]等。基于模型驱动的传统融合法首先对源图像进行分解,再选用合适的融合规则对分解后的子图像进行融合,最后将子图像重构获得最终融合图像。此类方法依赖先验知识选取具有针对性的分解方法和融合规则,并需人工设定模型参数,具有很大的局限性。神经网络具有强大的特征提取和数据表示能力[10],因此,新近有研究探索了基于数据驱动的神经网络融合法,相比传统融合法,其更具优越性。文献[ 11]中将卷积神经网络(CNNs)用于图像融合,使用包含源图像不同模糊程度的图像块来训练网络并获得决策图,最后通过决策图和源图像组合获得融合图像。此方法首次将CNNs用于图像融合,实现了活动水平测量和融合规则的统一,但仅适用于多聚焦图像融合,且因仅使用CNNs最后层计算的结果,丢失了中间层获得的许多有用信息,当网络加深时,信息丢失更加严重。文献[ 13]中提出一种更深的网络结构和多层深度特征图像融合方法,首先利用导向滤波对源图像进行高低频分解,通过加权平均融合规则获取低频融合子图像,然后利用VGG-19网络提取高频细节的多层特征,通过取大规则获得高频融合子图像,最后重构融合图像。该方法仍需使用传统方法进行图像分解,虽然利用了VGG-19网络的中间层特征,但多个中间层特征组合策略过于简单,仍然丢失了许多有用的信息。同时,以上基于深度学习的融合法均只针对双波段/模态图像融合,不能满足多波段/模态探测的需要。

针对以上问题,本文提出了一种新的神经网络架构,并用于多波段/模态图像融合,该网络由生成网络和判别网络组成。生成网络由残差块和卷积层构成,用于提取多波段源图像特征。由于残差块的结构特性,深层特征已包含多层信息,因此本文只使用最后一层生成融合图像。判别网络通过与生成网络的对抗学习提升融合图像质量。主要创新点有:1)图像特征提取和融合一并通过网络学习实现,活动水平的测量和融合规则的统一均未经人为设定,减少了对先验知识的依赖,减小了融合策略选择的不确定性;2)使用生成对抗网络框架(GANs)同步融合三波段图像,获得更清晰、更真实的数据,真正实现了端到端融合。

2 相关工作

2.1 深度残差网络 (ResNet)

在2016年的计算机视觉和模式识别国际会议(CVPR)中,He等[15]提出了一种新颖的网络架构来解决网络退化问题。以捷径方式连接和残差表示,网络比以前更容易优化;通过增加深度,网络精度亦得到提高。残差块体系结构如图1所示,图中X表示网络的输入,ϕ(X)表示包含两个权重层的网络操作,ReLU表示修正线性单元[16],残差块的输出由ϕ(X)+X计算得到。通过这种结构,可以利用多层信息。此外,在图像重建任务[17-18]中,使用残差块可以取得更好的性能。考虑到残差网络良好的特征提取能力能够提升图像的融合效果,本文将其引入多模态图像融合。

图 1. 残差块结构图

Fig. 1. Structure of residual block

下载图片 查看所有图片

2.2 生成对抗网络(GANs)

2014年,Goodfellow等[19]首次提出GANs概念,其基于对抗思想,提供了一种有效方式来估计目标分布,并生成新的样本。GANs包括生成器和判别器两个模型:生成器用G(z)表示输入变量到数据空间的映射,z为随机噪声;判别器用D(x)表示来自标签而非输入数据的概率,x为真实数据。生成器和判别器在动态博弈中达到平衡,遵循

minGmaxDV(D,G)=Ex~pData(x){lg[D(x)]}+Ez~pz(z){lg{1-D[G(z)]}}(1)

实现生成功能,式中:V(D,G)为值函数;Ex~pData(x)Ez~pz(z)分别为真实数据和生成数据的期望;pz(z)为输入噪声变量先验概率;pData(x)为真实数据分布概率。就原始的GANs来说,输入的噪声变量一般为服从高斯分布的随机数,虽然高斯分布能够在复杂的情况下拟合任何一种数据分布,但在实际训练过程中,往往会由于图像数据流形成的维度太高而无法准确拟合,从而导致模式崩塌,且由于生成器和判别器不能很好地同步训练,易造成GANs训练不稳定。各种GANs变体被相继提出,如深度卷积GANs(DCGANs)[20]、最小二乘GANs(least squares GANs)[21]等。DCGANs将CNN引入GANs,弥补了用于监督学习的CNN与用于无监督学习的GANs之间的差距,使传统GANs网络的训练更稳定。文献[ 22]中首次使用对抗学习的方式训练深度卷积网络,实现了超分辨率复原,将原先网络输入的随机噪声扩展到单幅图像。受此启发,如果能同时将多幅图像输入,并且约束其生成,则可设计网络来实现融合,而多波段/多模态图像融合可以看作将一幅图像以多通道形式输入网络,输出一幅理想图像的过程;所以,从逻辑上讲GAN可以用于图像融合。

3 基于GANs的图像融合方法

3.1 方法框架

本文方法框架如图2所示。训练网络时,将多波段/多模态图像以一幅图像多通道的形式输入生成网络,将生成的单幅融合图像和标签图像输入判别模型,经过网络训练,完成二分类任务,最终输出高质量的融合图像。由于图像融合没有标准输出,故从模型驱动法中选取性能优良的多种算法融合多模态图像,再经多指标评价优选高质量的融合图像作为最终标签,以解决有监督训练中缺乏标签数据的问题。

图 2. 方法框架图

Fig. 2. Framework of method

下载图片 查看所有图片

3.2 GANs生成模型的构建

本文使用的基于残差块的卷积神经网络如图3所示。将多波段图像在通道维度上通过concatenate函数连接输入神经网络,充分利用各层的特征map,保持图像信息的传递。这里以3通道为例,输入128 pixel×128 pixel×3的图像,进行一次卷积后,输入7个残差单元块,再进行两层卷积操作,提取高维度特征。具体网络参数如表1所示。为保持图像大小不变,设步长为1,尽可能减少源图像信息的丢失。每个卷积层之后使用ReLU[16],以提升网络的非线性程度。

图 3. 生成模型的网络结构

Fig. 3. Network structure of generative model

下载图片 查看所有图片

表 1. 生成器参数

Table 1. Parameters of generator

LayerFilter size /stepOutput size
Conv13×3 /1128×128×64
Res(7 units)3×3 /1128×128×64
3×3 /1128×128×64
Conv93×3 /1128×128×256
Conv103×3 /1128×128×1

查看所有表

3.3 GANs判别模型的构建

本文使用的判别网络结构如图4所示。判别器使用跨步长卷积分别提取生成图像和真实图像的深度特征。在残差单元块中,由于数据维度的改变,先使用1×1卷积核进行数据降维,再通过3×3卷积核提取特征。介于网络结构较深,除Conv1外,每层卷积之后都使用BatchNorm(BN)[23]对数据归一化,BN后,使用LeakyReLU(LReLU)[24]激活函数提升网络的非线性程度,最后以全连接层(Fc)输出。具体网络参数如表2所示。

图 4. 判别模型的网络结构

Fig. 4. Network structure of discriminative model

下载图片 查看所有图片

表 2. 判别器参数

Table 2. Parameters of discriminator

LayerFilter size/stepOutput size
Conv13×3 /1128×128×64
Conv23×3 /264×64×128
Conv33×3 /232×32×256
Conv43×3 /216×16×512
Conv53×3 /116×16×256
Conv61×1 /116×16×128
Res1×1 /116×16×64
3×3 /116×16×64
3×3 /116×16×128
Fc-1

查看所有表

3.4 GANs损失函数的构建

使用损失函数来衡量网络输出和数据标签之间的差距。其中,最简单的是使用均方误差损失,虽然有一定的效果,但其不能智能地学习目标细节,故生成的图片稍放大后即变模糊。为此,引入梯度损失优化图像边缘,再加入GAN对抗损失。为明确梯度损失对图像的影响,这里设置权重来提高融合图像质量。

1)均方误差(MSE)损失

MSE损失[25]通过网络训练过程中输出的预测值与真实数据之间的差值促进多尺度图像内容的一致性,计算公式为

Lmse=1W×Hm=1Wn=1HIm,npred-Im,ntrue,(2)

式中:Lmse为MSE损失;WH分别为图像的宽和高; Im,npred为生成图像中某点(m,n)的像素值; Im,ntrue为真实图像中某点(m,n)的像素值。

2)梯度损失

梯度是描述图像边缘信息的主要指标之一。由于训练集中图像尺度较小且边缘不清晰,故引入梯度损失来优化边缘,具体实现方法如下。

Gh=-10+1-20+2-10+1*A,(3)Gv=+1+2+1000-1-2-1*A,(4)G=Gh+Gv,(5)Lgrad=1W×HWm=1n=1HGm,npred-Gm,ntrue,(6)

式中:Lgrad为梯度损失;A为原图像;矩阵表示的是sobel算子;GmGn分别为横、纵边缘检测的灰度值; Gm,npred为生成图像点(m,n)的梯度; Gm,ntrue为真实图像点(m,n)的梯度;G为图像梯度。

3)对抗损失

将对抗损失[19]加入到感知损失中,鼓励生成器适应真实数据的分布,计算公式为

Lgen=1N-lg{D[G(Ipred)]},(7)

式中:Lgen为对抗损失;D[G(Ipred)]为重构图像G(Ipred)是真实图像的估计概率;N为图像像素个数。

4)联合损失函数

生成器最终的损失函数是以上3项损失之和,即

Lgan=Lpixel+Lgen+λLgrad(8)

对结果施加L2正则化[26],即在原来损失函数的基础上加上权重参数的平方和,用以约束要优化的参数,防止模型过拟合。

4 分析与讨论

4.1 数据集制作

本文GANs网络的数据集有14000张图像,多波段图像来自公开TNO图像融合数据集[27],包含可见光(390~700 nm)、近红外(700~1000 nm)和红外长波(8~12 μm)。医学图像来自哈佛医学院的Neuroimaging Primer。标签图像制作方法如下:将配准好的多模态图像用128×128的滑动窗口以步长14划分成子块,使用基于拉普拉斯金字塔(LP)、离散小波变换(DWT)、非下采样轮廓波变换(NSCT)、NSST传统融合法进行融合,融合规则统一使用“高频梯度取大,低频加权平均”[28]。这时每组多模态子图像均会有多个融合图像,使用包含基于统计特性的评价指标——标准差(SD)、平均梯度(AG)、对比度(Con)、相关系数(CC),基于信息量的评价指标——信息熵(IE)、互信息(MI),以及表示人类视觉感知的视觉信息保真度(VIFF)等多种质量评价指标对融合图像进行评价[29],选取融合效果最好的图像作为最终标签。

从14000张标签图像中随机选取第50张进行可视化展示,如图5所示。通过上述4种传统融合方法对三波段源图像进行融合,然后使用上述7个质量评价指标对这4幅图像进行评价,结果如表3所示。可以看出,LP方法融合的图像有5项指标值优于其他3种方法,因此选取最优的LP融合图像作为该子图像的训练标签。这样,用于网络训练的训练集为14000×3张多模态切块图像,它们用concatenate连接,以一幅图像的三通道形式输入网络,标签为14000张融合图像。网络模型训练好后,只需将待融合的多模态图像输入网络便可获得理想的融合图像。

图 5. 标签图像预选图。(a)红外长波;(b)红外短波;(c)可见光;(d) LP;(e) DWT;(f) NSCT;(g) NSST

Fig. 5. Pre-selection maps of label images. (a) Longwave infrared; (b) shortwave infrared; (c) visible light; (d) LP; (e) DWT; (f) NSCT; (g) NSST

下载图片 查看所有图片

表 3. 标签图像选取依据表

Table 3. Label image selection table

Fusion methodSDAGConCCIEMIVIFF
LP49.0194.21140.8120.4247.2235.6080.466
DWT44.7723.82636.6500.3427.1755.4150.442
NSCT41.1234.06134.8160.4376.9535.2220.469
NSST40.9044.14934.9020.4416.9325.2010.467

查看所有表

4.2 训练参数设置

1) 学习率选取

学习率是衡量网络梯度下降快慢的因子,合适的学习率能使网络快速收敛,减少训练时间。但学习率过大时会出现振荡现象,使网络无法收敛;过小时,网络迭代更新速度慢,训练速度降低。不同学习率对损失函数的影响如图6图7所示。训练选取100次迭代,图6中隔点取值,由图可知,当学习率为0.0002时,损失值下降很缓慢,达到相同效果耗费时间较长;学习率为0.02时,损失值下降很快,但出现振荡现象,影响网络收敛;当学习率为0.002时效果最好,损失值既能快速收敛又比较稳定。在同一训练过程中选取全部点得到图7所示结果。当学习率为0.02时,损失值无法收敛;而学习率为0.002时比0.0002更快收敛。由此可知,若学习率再增大,损失曲线只会比学习率为0.02时更振荡,故将其作为学习率上限;若学习率低于0.0002,则收敛会更缓慢,故将其作为学习率下限。

图 6. 学习率对生成器损失的影响

Fig. 6. Effect of learning rate on generator loss

下载图片 查看所有图片

图 7. 学习率对判别器损失的影响

Fig. 7. Effect of learning rate on discriminator loss

下载图片 查看所有图片

2) λ权重选取

借鉴文献[ 22]及文献[ 25]实验成果,分别设置梯度损失的权重λ为0、0.01、0.1、1进行测试。从大量实验数据中选取具有代表性的3组图像进行说明,实验结果如图8~10所示。

图8λ选择不同值时的融合结果,为了便于观察,将要对比的地方放大,可以看出,当λ为0和0.01时,第2组融合结果出现了失真,随着λ增加,3组融合结果的主观对比度整体变高,边缘变清晰,但当λ=1时,效果又开始下降。图9展示了λ取不同值时生成器的损失变化,相比之下,λ为0.1时损失值最小最稳定。图10λ取值对3组图像融合结果客观指标的影响,雷达图面积越大,表示效果越好,由图可知,λ=0.1时雷达图面积最大。综合主观和客观评价,选择λ=0.1。

图 8. λ取值对图像质量的影响。(a) λ=0 ;(b) λ=0.01;(c) λ=0.1;(d) λ=1

Fig. 8. Effect of different λ on image quality. (a) λ=0; (b) λ=0.01; (c) λ=0.1; (d) λ=1

下载图片 查看所有图片

图 9. λ取值对生成器损失的影响

Fig. 9. Effect of different λ on generator loss

下载图片 查看所有图片

图 10. λ取值对融合图像客观评价指标的影响。(a)第1组融合图像;(b)第2组融合图像;(c)第3组融合图像

Fig. 10. Effect of λ on objective evaluation index of fused image. (a) The first set of fused images; (b) the second set of fused images; (c) the third set of fused images

下载图片 查看所有图片

4.3 融合结果分析

本实验的硬件平台为NVIDIA英伟达TeslaM40服务器,Matlab版本为R2016a,Python版本为3.6.3。图11给出8组测试图像系网络训练时随机留存的融合结果。

图 11. 图像融合结果。(a)红外长波;(b)红外短波;(c) 可见光;(d) DTCWT_SR;(e) NSST_NSCT;(f) CNN;(g) CSR;(h)本文方法

Fig. 11. Image fusion results. (a) Longwave infrared; (b) shortwave infrared; (c) visible light; (d) DTCWT_SR; (e) NSST_NSCT; (f) CNN; (g) CSR; (h) proposed method

下载图片 查看所有图片

由于多尺度变换融合方法有很多,各有优劣,这里选择文献中认为效果超过单一多尺度变换方法的混合式融合方法及其他深度学习方法进行比较[4,11,14],包括基于双树复小波变换和稀疏结合的DTCWT_SR方法、基于NSST与NSCT结合的NSST_NSCT,以及基于CNNs的CNN方法、基于卷积稀疏表示的卷积稀疏表示(CSR)神经网络方法。

观察实验结果可知,DTCWT_SR和CNN方法得到的图像目标更突出,但有明显失真现象,且边缘较模糊;CSR方法得到的图像整体偏暗,对比度较低,不利于人眼观察;NSST_NSCT方法得到的图像虽然细节较丰富,但图像中热目标出现伪影;本文方法得到的图像整体更为干净,边缘清晰且没有伪影。为使对比结果更便于观察,将有代表性的部分进行了放大,如图中红框所示。相比之下,本文方法得到的图像中船身轮廓、房屋和树桩边缘,以及草丛纹理等细节信息都较为丰富,且图像清晰。同时,本文方法得到的医学图像中包含的细节纹理特征也更丰富。

由于人的视觉感知存在差异,故采用客观评价指标对融合结果进行评价(表4)。这些指标的值越大,表示图像融合效果越好。

表 4. 融合结果评价指标比较

Table 4. Comparison of evaluation index of fusion results

ImageFusion methodSDAGConCCIEMIVIFF
No. 1DTCWT_SR35.4713.15023.9160.4096.9684.8690.505
NSCT_NSST19.6213.16311.9110.4066.1472.8530.522
CNN34.9282.88523.2540.4086.9614.6100.363
CSR12.0811.9537.5700.4185.5342.6630.359
Proposed method38.0118.12927.7930.4316.9772.5520.301
No. 2DTCWT_SR26.2747.24525.9270.1435.9841.4920.367
NSCT_NSST23.2687.27014.8150.3066.0261.5420.376
CNN29.6964.98522.7540.0162.3731.3120.211
CSR25.2715.54315.9890.3226.0322.5400.322
Proposed method25.5274.37413.7310.3816.0572.5670.461
No. 3DTCWT_SR21.8545.18715.0380.4276.4751.2560.415
NSCT_NSST22.6925.37015.71660.4716.8061.5420.419
CNN38.5904.96125.6090.4416.9102.7990.392
CSR23.0543.86815.7260.4996.4502.3910.382
Proposed method41.0894.31030.9290.5936.9383.0930.420
No. 4DTCWT_SR47.4923.54523.1760.4226.3152.7730.298
NSCT_NSST35.3733.60515.1360.4456.8312.5310.317
CNN54.5973.16329.7780.4366.2832.8620.351
CSR38.5872.21717.6560.4526.7963.3310.375
Proposed method32.4008.45222.7670.4576.9382.0550.384
No. 5DTCWT_SR40.0065.05832.5540.0257.3082.9760.407
NSCT_NSST24.8865.14718.0590.4896.6151.8120.428
CNN40.5593.95134.3310.2717.3162.1330.346
CSR26.2392.52620.7070.5156.6423.0070.277
Proposed method40.6775.97433.8900.5697.3212.1060.473
No. 6DTCWT_SR54.4583.03844.0200.0427.7442.9860.524
NSCT_NSST25.9903.04718.7280.4556.6862.2540.552
CNN45.5492.53835.2690.1937.3331.8390.208
CSR28.8031.52321.1250.4296.6912.8580.160
Proposed method46.4255.64336.4620.4767.4532.9930.648
No. 7DTCWT_SR54.8483.55536.9840.0447.4203.4850.484
NSCT_NSST27.5273.55021.4900.4606.8131.8070.504
CNN45.8802.94537.1290.3347.1042.6270.440
CSR27.8531.83421.1680.4726.7012.9680.326
Proposed method47.0244.25937.5230.5007.4872.4610.606
No. 8DTCWT_SR55.8902.94047.0620.7714.3573.6120.169
NSCT_NSST52.6104.87247.6470.8684.8323.9060.380
CNN87.2366.20873.9070.7215.6883.9330.294
CSR54.2084.75347.2140.7944.2453.3830.285
Proposed method92.15215.27976.8700.9434.3334.9470.505

查看所有表

可以看出,在7项评价指标中,本文方法在第3组和第8组图像上有6项指标优于其他方法;在其余图像上也有4~5项指标优于其他方法。总体来说,本文方法在梯度、相关系数、信息熵、互信息、人眼视觉特性这些客观指标上较其他方法均有较大改观,体现出更好的综合性能。

5 结论

提出了一种基于生成对抗网络的多波段/多模态图像融合方法,实现了端到端的自适应图像融合。研究结果表明:利用深度残差块替代传统GANs模型的卷积操作,可以提升图像信息的传递能力;利用传统的模型驱动法可以缓解深度学习中缺乏标签数据的问题。在GANs网络训练过程中,除了传统的对抗损失外,还引入了基于像素的MSE损失和图像梯度损失,使网络训练更稳定。与目前效果突出的几种方法相比,本文方法获得的图像整体更干净,边缘强度更大,且包含更多的细节信息。需要指出的是,由于标签是选用融合效果较好的图像进行分块得到的,因此标签图像的质量限制了融合结果的质量,下一步将重点改进此问题。

参考文献

[1] Ma J Y, Ma Y, Li C. Infrared and visible image fusion methods and applications:a survey[J]. Information Fusion, 2019, 45: 153-178.

[2] Ranchin T, Wald L. The wavelet transform for the analysis of remotely sensed images[J]. International Journal of Remote Sensing, 1993, 14(3): 615-619.

[3] KingsburyN. A dual-tree complex wavelet transform with improved orthogonality and symmetry properties[C]∥Proceedings 2000 International Conference on Image Processing (Cat. No.00CH37101), September 10-13, 2000, Vancouver, BC, Canada. New York: IEEE, 2000: 375- 378.

[4] Liu Y, Liu S P, Wang Z F. A general framework for image fusion based on multi-scale transform and sparse representation[J]. Information Fusion, 2015, 24: 147-164.

[5] 易维, 曾湧, 原征. 基于NSCT变换的高分三号SAR与光学图像融合[J]. 光学学报, 2018, 38(11): 1110002.

    Yi W, Zeng Y, Yuan Z. Fusion of GF-3 SAR and optical images based on the nonsubsampled contourlet transform[J]. Acta Optica Sinica, 2018, 38(11): 1110002.

[6] Hu J W, Li S T. The multiscale directional bilateral filter and its application to multisensor image fusion[J]. Information Fusion, 2012, 13(3): 196-206.

[7] 丁文杉, 毕笃彦, 何林远, 等. 基于剪切波变换和邻域结构特征的红外与可见光图像融合[J]. 光学学报, 2017, 37(10): 1010002.

    Ding W S, Bi D Y, He L Y, et al. Fusion of infrared and visible images based on shearlet transform and neighborhood structure features[J]. Acta Optica Sinica, 2017, 37(10): 1010002.

[8] Zhang Q, Liu Y, Blum R S, et al. Sparse representation based multi-sensor image fusion for multi-focus and multi-modality images: a review[J]. Information Fusion, 2018, 40: 57-75.

[9] 朱达荣, 许露, 汪方斌, 等. 基于快速有限剪切波变换与引导滤波的多聚焦图像融合算法[J]. 激光与光电子学进展, 2018, 55(1): 011001.

    Zhu D R, Xu L, Wang F B, et al. Multi-focus image fusion algorithm based on fast finite shearlet transform and guided filter[J]. Laser & Optoelectronics Progress, 2018, 55(1): 011001.

[10] Liu Y, Chen X, Wang Z F, et al. Deep learning for pixel-level image fusion: recent advances and future prospects[J]. Information Fusion, 2018, 42: 158-173.

[11] Liu Y, Chen X, Peng H, et al. Multi-focus image fusion with a deep convolutional neural network[J]. Information Fusion, 2017, 36: 191-207.

[12] 蔺素珍, 韩泽. 基于深度堆叠卷积神经网络的图像融合[J]. 计算机学报, 2017, 40(11): 2506-2518.

    Lin S Z, Han Z. Images fusion based on deep stack convolutional neural network[J]. Chinese Journal of Computers, 2017, 40(11): 2506-2518.

[13] LiH, Wu XJ, KittlerJ. Infrared and visible image fusion using a deep learning framework[C]∥2018 24th International Conference on Pattern Recognition (ICPR), August 20-24, 2018, Beijing, China. New York: IEEE, 2018: 2705- 2710.

[14] Liu Y, Chen X, Ward R K, et al. Image fusion with convolutional sparse representation[J]. IEEE Signal Processing Letters, 2016, 23(12): 1882-1886.

[15] He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 770- 778.

[16] Jiang X H, Pang Y W, Li X L, et al. Deep neural networks with elastic rectified linear units for object recognition[J]. Neurocomputing, 2018, 275: 1132-1139.

[17] Cai J R, Gu S H, Zhang L. Learning a deep single image contrast enhancer from multi-exposure images[J]. IEEE Transactions on Image Processing, 2018, 27(4): 2049-2062.

[18] ZhangH, DanaK. Multi-style generative network for real-time transfer[M] ∥Leal-Taixé L, Roth S.Computer Vision-ECCV 2018 Workshops. Lecture notes in computer science. Cham: Springer, 2019, 11132: 349- 365.

[19] Goodfellow IJ, Pouget-AbadieJ, MirzaM, et al.Generative adversarial nets[C]∥Proceeding NIPS'14 Proceedings of the 27th International Conference on Neural Information Processing Systems, December 08-13, 2014, Montreal, Canada.Cambridge: MIT Press, 2014, 2: 2672- 2680.

[20] RadfordA, MetzL, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networls[J/OL]. ( 2016-01-07)[2018-12-25]. https:∥arxiv.org/abs/1511. 06434.

[21] Mao XD, LiQ, Xie HR, et al. Least squares generative adversarial networks[C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy. New York: IEEE, 2017: 2813- 2821.

[22] LedigC, TheisL, HuszárF, et al. Photo-realistic single image super-resolution using a generative adversarial network[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu,HI, USA. New York: IEEE, 2017: 105- 114.

[23] Li Y, Wang N, Shi J, et al. Adaptive Batch Normalization for practical domain adaptation[J]. Pattern Recognition, 2016, 80: 109-117.

[24] Wang S H, Phillips P, Sui Y X, et al. Classification of alzheimer's disease based on eight-layer convolutional neural network with leaky rectified linear unit and max pooling[J]. Journal of Medical Systems, 2018, 42(5): 85.

[25] HuangR, ZhangS, Li TY, et al. Beyond face rotation: global and local perception GAN for photorealistic and identity preserving frontal view synthesis[C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy. New York: IEEE, 2017: 2458- 2467.

[26] Shi J G, Liu X, Zong Y, et al. Hallucinating face image by regularization models in high-resolution feature space[J]. IEEE Transactions on Image Processing, 2018, 27(6): 2980-2995.

[27] Toet A. The TNO multiband image data collection[J]. Data in Brief, 2017, 15: 249-251.

[28] 黄福升. 多波段图像多尺度变换融合方法比较[D]. 太原: 中北大学, 2018.

    Huang FS. Comparision of multiscale transform fusion methods for multiband image[D]. Taiyuan: The North University of China, 2018.

[29] Jagalingam P, Hegde A V. A review of quality metrics for fused image[J]. Aquatic Procedia, 2015, 4: 133-142.

杨晓莉, 蔺素珍, 禄晓飞, 王丽芳, 李大威, 王斌. 基于生成对抗网络的多模态图像融合[J]. 激光与光电子学进展, 2019, 56(16): 161004. Xiaoli Yang, Suzhen Lin, Xiaofei Lu, Lifang Wang, Dawei Li, Bin Wang. Multimodal Image Fusion Based on Generative Adversarial Networks[J]. Laser & Optoelectronics Progress, 2019, 56(16): 161004.

本文已被 5 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!