光学学报, 2020, 40 (2): 0210001, 网络出版: 2020-01-02   

基于Tikhonov正则化和细节重建的红外与可见光图像融合方法 下载: 1632次

Infrared and Visible Image Fusion Method Based on Tikhonov Regularization and Detail Reconstruction
作者单位
河海大学物联网工程学院, 江苏 常州 213022
摘要
传统的红外与可见光图像融方法将图像分解为多个频域分量后分别融合再相加,存在边缘模糊、对比度低等问题,为此提出了一种基于Tikhonov正则化和细节重建的融合方法。首先,利用Tikhonov正则化将图像分解为基本层和细节层,针对基本层训练一种用于细节重建的生成对抗网络;然后提取待融合图像的基本层特征,采用主成分分析方法进行融合;最后将基本层融合结果输入到生成对抗网络中,重建出一幅高频信息丰富的融合图像。实验结果表明:所提方法很好地保留了源图像中的细节信息和高亮区域,对不同清晰度的图像具有较好的鲁棒性。
Abstract
Traditional infrared and visible image fusion method decomposes images into several frequency components, fuses them separately, and then adds them together, resulting in problems of edge fuzziness, low contrast, and so on. The paper proposes a fusion method based on Tikhonov regularization and detail reconstruction. Firstly, images are decomposed into base layers and detail layers by Tikhonov regularization. A generative adversarial network is trained aiming at detail information reconstruction for base layers. Secondly, features of base layers to be fused are extracted, and the principal component analysis method is used for feature fusion. Finally, the fused results of base layers are input into generative network to reconstruct a fusion image with abundant high frequency information. Experimental results show that the method proposed in this paper preserves detail information and highlight areas of the source images well, with a good robustness to the images with different resolutions.

1 引言

图像融合就是将包含同一场景的多张传感器图像结合起来,获得一幅鲁棒性更好、信息更加丰富的图像[1],实现对图像场景和目标更加准确的描述,以便于开展进一步的处理与研究。其中,红外与可见光图像融合是该领域的一项重要课题,通过红外成像传感器捕捉物体的热辐射信息,结合可见光图像的细节和纹理,就可以得到一幅场景更加完整,且更符合人类视觉感受的图像,在遥感[2]、医学[3]、**[4]等领域都有广泛应用。

传统的红外与可见光图像融合方法包括多尺度分解法[5]、稀疏表示法[6],以及基于显著性[7]的方法等,这些方法虽然可以有效地改进图像的融合效果,但复杂度较高,执行效率低。随着深度学习的兴起,通过深度网络提取图像深层次的信息,并利用GPU(Graphics Processing Unit)进行加速,可以重构出一幅信息丰富的图像,且算法的执行效率大大提高。Amin-Naji等[8]在全卷积神经网络(FCN)的基础上,提出了一种基于深度学习的图像融合方法,该方法用卷积层代替了网络中的全连接层,并删除了池化层,这样可以避免图像中的细节被消除,从而得到了一幅更准确且更清晰的决策图。Li等[9]针对深度网络只提取特征而不处理的问题,提出了一种基于深度特征和零相位成分分析(ZCA)的融合框架,将残差网络(ResNet)提取到的深度特征利用ZCA进行归一化后得到初始权值图,然后采取加权平均的策略得到了融合图像。此外,Li等[10]还将密集连接卷积网络(DenseNet)与融合策略相结合,针对图像融合的问题设计了一套编码、解码的机制,在编码过程中利用DenseNet从源图像中获取更多的有用特征,然后利用解码器对融合后的图像进行重构。Goodfellow等[11]利用生成的对抗网络(GAN)实现红外图像与可见光图像的融合,生成的网络保留了红外目标的亮度和可见光图像的梯度,判别网络迫使融合后的图像保留更多的细节,最终得到了一幅纹理清晰、信息丰富的图像[12]。上述融合方法结合深度网络提取图像深层次的特征,弥补了传统算法的一些不足,具有一定的创新性,但还存在以下问题:缺少训练的过程,直接利用已有的网络模型和预训练权重进行特征提取,特征的有效性不能保证;损失函数的设定与模型预期得到的融合效果不符,缺乏说服力。

本文提出了一种结合Tikhonov正则化与细节重建的图像融合方法,针对图像通过Tikhonov正则化分解后得到的基本层,训练了一个用于将基本层还原成清晰图像的GAN,然后通过引入图像梯度损失来增强网络重建高频信息的能力。本文的主要创新点如下:将Tikhonov正则化运用到图像分解中,滤除了边缘、轮廓等梯度较大的区域,并且很好地保留了图像的主要能量和灰度分布信息,为之后的细节重建做好了准备;自定义基本层特征,基于主成分分析(PCA)的融合规则对基本层进行融合。相比于固定权重的融合方法,本文中的融合规则充分结合了红外和可见光基本层图像的灰度特性,对不同场景的适应性更好。此外,不同于传统方法将各频带分别融合后再相加的思路,本文融合结果的细节层由基本层融合图像重建得到,重建网络实现了Tikhonov正则化分解的逆过程,增强了融合图像中低频与高频信息之间的相关性。实验结果表明,本文算法融合后的图像在主观和客观评价上均具有一定优势,视觉效果也更好。

2 基本原理

2.1 Tikhonov正则化

Tikhonov正则化依据最小二乘准则和平滑准则,将不适定问题转换为一个近似适定问题,该方法可以应用于图像去噪、梯度计算和图像复原[13]等问题上,具有良好的稳定性[14]。Tsibanov等[15]通过引入一阶导数,将该正则化方法应用于图像滤波,根据正则化函数最小化的结果,得到了分解后图像的基本层。正则化函数的表达式为

E(ub)=ub-uL22+α·ddxubL22,(1)

式中:u表示分解前的图像;ub表示图像的基本层,即滤波后的结果;ud=u-ub表示图像的细节层,包括图像的边缘、轮廓等信息; ub-uL22为残差项,用于限制分解后的基本层与原图像的灰度分布差异; ddxubL22为惩罚项,用于滤除图像中灰度跳变大的区域;正则化参数α用于平衡分解后图像灰度的变化以及高频分量的损失,α越大,图像的平滑效果越明显。与传统的小波变换和低秩分解的方法相比,Tikhonov正则化对不同分辨率的图像均具有良好的分解效果,不仅具有更强的抗噪性能[16],而且在运行效率上也有所提升。本文充分利用了Tikhonov正则化方法对大梯度的惩罚[17],选取适当的正则化参数,在滤除高频分量时保留了图像中灰度变化相对平缓的区域,减少了微弱细节的损失,为之后的融合和重建做好了准备。

2.2 生成对抗网络

生成对抗网络(GAN)由生成器G和判别器D两个模块组成。其中,生成器将输入图像或随机噪声映射成服从真实分布的图像,判别器将生成的图像与真实图样区分开来。GAN的本质是一个“二元极小极大博弈”的问题,通过在生成器和判别器之间进行持续性的对抗学习来提高两个模型的性能,从而生成更高质量的图像。生成对抗网络的目标函数定义为

minGmaxD[V(D,G)]=Ex~Pdatax[log2D(x)]+Ez~Pnoisez{log2{1-D[G(z)]}},(2)

式中:E表示函数的期望;Pdata(x)和Pnoise(z)分别为真实数据的分布与噪声分布。固定判别器的参数并引入JS散度,可以将生成器的损失函数定义为

JG=-log2(4)+2×DJS(Pdata|Pnoise)(3)

当生成数据与真实数据的分布没有重叠时,JS散度的计算结果为0,在网络训练过程中会产生梯度消失的现象,无法达到纳什均衡。此外,GAN存在训练不稳定、模式易崩溃等缺陷[18],针对这类问题,一些改进模型也随之被提出来。本文参考最小二乘GAN(LSGAN)[19],将生成对抗网络的目标函数由交叉熵损失替换为最小二乘损失,通过拉近生成图像与决策边界的距离,引导图像逼近真实数据,以解决GAN训练不稳定以及生成质量不高等问题。

3 本文算法

针对红外图像与可见光图像的融合问题,本文参考现有的深度学习方法,设计了一个结合Tikhonov正则化与细节重建的图像融合方法。算法流程如图1所示。

图 1. 算法流程示意图

Fig. 1. Algorithm flow diagram

下载图片 查看所有图片

图1所示,通过Tikhonov正则化方法将红外图像u(i)和可见光图像u(v)分解得到细节层 udvudi与基本层 ubvubi,其中基本层包含了图像的大部分能量以及灰度分布信息。基于图像特征与PCA计算得到基本层融合权重,将两幅基本层图像加权相加后得到融合后的基本层 ubf,以 ubf为输入,经过细节重建网络即可生成最终的融合结果。其中,细节重建网络即为GAN中的生成器,由训练集图像及其分解后的基本层训练得到,网络反映了由基本层到分解前清晰图像的映射关系,实现了Tikhonov正则化的逆过程。

3.1 基本层融合规则

基本层反映了图像在大尺度上的变化,传统的PCA融合方法是基于基本层的强度的,而由于红外基本层的强度远大于可见光图像的基本层,因此计算出的融合权重会偏向于红外图像,这样就损失了可见光基本层的灰度信息,造成细节上的丢失。本文权衡了红外与可见光基本层的灰度分布特性,基于图像子块的能量和空间频率计算PCA融合权重,能量高的区域显著性较强,空间频率高的区域信息更加丰富。将基本层分割成m×n个子块,设子块的大小为w×h,则每一块的能量E与空间频率FS

E=1w×hi=1wj=1hf2(i,j),(4)FS=FR2+FC2,(5)

其中,

FR=1w×hi=1wj=2h[f(i,j)-f(i,j-1)]2,(6)FC=1w×hi=2wj=1h[f(i,j)-f(i-1,j)]2,(7)

式中:f(i,j)为子块中位于(i,j)处的像素值;FR表示图像在行方向上的空间频率;FC表示列方向上的空间频率。将各图像子块的特征表示为( E,k×FS),则每幅图像可以用一个长度为2×m×n的向量l表示,l=[ E1, E2,…, Em×n,k×FS,1,k×FS,2,…,k×FS,m×n]T,其中k为空间频率相对于能量的权重,经过实验得出k设为1.5时融合效果最好。

记红外图像基本层的特征为li,可见光图像基本层的特征为lv,利用PCA降维的方法构建特征之间的关系。PCA通过分析变量之间的相关性找出变量中的主要成分,实现对原始信息的降维,将红外与可见光特征通过降维合并成单个向量,得到的合并权重即可作为基本层的融合权重,具体步骤如下。

1) 将lilv作为矩阵A的列向量,计算A的协方差矩阵C:

C=Cov(li,li)Cov(li,lv)Cov(lv,li)Cov(lv,lv);(8)

2) 计算C的特征值λ1λ2与特征向量φ1φ2,找出其中最大的特征值对应的特征向量φ,记φ= [ϕ1,ϕ2]T,ϕ1ϕ2分别为向量中的数值;

3) 归一化φ的值,得到新的图像融合的权重ω1ω2:

ω1=ϕ1ϕ1+ϕ2,ω2=ϕ2ϕ1+ϕ2;(9)

4) 根据计算得到的权重对红外基本层与可见光基本层进行融合,得到基本层融合结果 ubf:

ubf=ω1ubi+ω2ubv(10)

3.2 细节重建

针对Tikhonov正则化方法分解后的基本层图像,本文设计了一种用于细节重建的生成对抗网络,网络的输入输出图像均映射至[-1,1]之内,模型的框架如图2所示。其中,生成网络用于细节重建,将图像分解得到的基本层输入网络,网络提取基本层的深层特征并重建边缘等高频信息,输出细节重建后的图像。将生成图像减去基本层图像得到伪细节层图像,然后将其与真实的细节层一起输入判别网络,在判别网络中实现这两幅细节图像的分类,在与生成网络的对抗过程中增强生成网络重建细节层的能力。

图 2. 图像重建模型的框架

Fig. 2. Framework of image reconstruction model

下载图片 查看所有图片

3.2.1 生成网络的结构

生成网络主要由密集卷积模块(Dense Block)[20]和全卷积模块(Fully Convolutional Block)组成,输入Tikhonov正则化方法分解后的基本层,得到的输出结果为重建后的图像,它恢复了分解损失的边缘和细节信息。生成网络的结构如图3所示。

图 3. 生成网络的结构

Fig. 3. Generative network structure

下载图片 查看所有图片

图3中,k3n16s1表示单个卷积层的属性,即该卷积层的感受野边长为3,深度为16,卷积过程中的步长为1。密集卷积模块的每一层都将前面所有层的输出作为输入,建立层与层之间的密集连接,得到每一层的输出为

Xn=Hn[X0,X1,,Xn-1]),(11)

式中:Xn表示第n层的输出;Hn表示第n层网络的非线性变换,包括卷积、批归一化(BN,Batch Normalization)和带泄露整流函数(LeakyReLU)运算;[ ]表示拼接操作,通过对输出进行通道合并来实现特征复用,可在减轻梯度消失的同时减少网络参数,提升了运算效率,并且可以提取高质量的语义信息。本文并非直接利用全卷积模块对输入图像进行采样操作,而是通过密集卷积模块对输入进行了初步的编码,得到一张高维特征图,为之后的采样和进一步提取深层次的信息做准备。

全卷积模块通过卷积与池化形成高维特征,再经过反卷积还原得到高分辨率的低维特征图,将上采样和下采样过程中对应的特征进行合并,从而提取图像的高级语义特征和细节信息。特征合并采用跳跃连接(Skip Connections)[21]的方式,将上、下采样中对应尺寸和维度的特征图通过相加的方式实现特征的复用,便于恢复图像的细节信息,减轻梯度消失的问题。此外,针对计算量增加与存储资源占用的问题,在高维的层之间使用1*1的卷积核进行降维,产生一个瓶颈层(Bottleneck),不仅有效地减少了参数的数目,还在保持模型效果的同时加速了网络的收敛。全卷积模块的参数信息如表1所示,其中:Kernel size为卷积核的大小;Stride表示卷积步幅,本文利用步长为2的卷积代替池化层(pooling)实现下采样;Padding为卷积时图像边界填充的像素数;Output padding用来控制上采样输出的尺寸,使上采样与下采样对应维度的特征图大小保持一致;BN用于加速学习和收敛,减小层与层之间的相关度,增强模型的鲁棒性。模型中最后一层使用双曲正切(Tanh)激活函数,用于生成重建后的结果,其余层使用LeakyReLU函数,DCGAN(Deep Convolutional Generative Adversarial Networks)表明LeakyReLU对生成高分辨率的图片具有更好的效果。

表 1. 全卷积模块的参数信息

Table 1. Parameter information of fully convolutional block

NameKernel sizeStridePaddingOutput paddingOutput sizeBN
Input----320×320×64-
Conv1128×5×522-160×160×128
Conv2256×3×321-80×80×256
Conv3512×3×321-40×40×512
Conv4512×3×321-20×20×512
Conv51024×1×12--10×10×1024
DeConv1512×1×12-120×20×512
Add(Conv4+DeConv1)----20×20×512-
DeConv2512×1×121140×40×512
Add(Conv3+DeConv2)----40×40×512-
DeConv3256×3×321180×80×256
Add(Conv2+DeConv3)----80×80×256-
DeConv4128×3×3211160×160×128
Add(Conv1+DeConv4)----160×160×128-
DeConv564×5×5221320×320×64
Add(Input+DeConv5)----320×320×64-
Output1×5×512-320×320×1-

查看所有表

3.2.2 判别网络的结构

判别网络为6层卷积神经网络,其前5层为卷积层,使用带步幅的卷积(strided convolution)代替池化层实现下采样;最后1层为全连接层,使用Sigmoid激活函数进行二分类。当输入为Tikhonov正则化分解得到的细节层时,网络的输出为1;当输入为生成图像与基本层差分得到的伪细节图像时,输出为0。判别网络的结构如图4所示,其中HW分别为图像的高和宽。

3.2.3 网络训练

本文通过自定义的损失函数引导网络参数的学习,生成网络的损失LG共有两个部分,包括生成器和判别器的对抗损失V(G)和内容损失Lcontent。其中,对抗损失用于引导网络生成符合真实数据分布的结果,内容损失用于衡量重建后的图像与原图像的距离。损失函数的定义为

LG=V(G)+λLcontent,(12)

图 4. 判别网络的结构

Fig. 4. Discriminant network structure

下载图片 查看所有图片

V(G)=1Nn=1N[DθD(un(gen,d))-c]2,(13)Lcontent=1Nn=1N1W×H(un(gen)-un(lab)2+un(gen)-un(lab)),(14)u=-101-202-101×u+121000-1-2-1×u,(15)

式中:c为正样本的标签值1; un(gen)un(lab)分别表示第n幅图像基本层重建后的结果以及其对应的原图像; un(gen,d)表示重建图像减去基本层后得到的伪细节图像;N为每个batch的样本数量。本文利用Sobel算子计算图像的近似梯度,并在损失函数中引入图像梯度损失,使重建后的图像尽可能地还原边缘和轮廓信息。λ设置为1×103,用于衡量内容损失相对于对抗损失所占的权重。

本文使用LSGAN的最小二乘损失[19]衡量分类结果和标签的距离,引导与真实图像差异较大的生成图像向决策边界靠近,优化训练的结果,并且使训练过程更加稳定。判别网络的损失函数定义为

LD=1Nn=1N[DθD(un(lab,d))-a]2+  1Nn=1N[DθD(un(gen,d))-b]2,(16)

式中:ab分别为正、负样本的标签值1和0; DθD( un(lab,d))和 DθD( un(gen,d))分别为判别网络对第n组真实细节层和伪细节层的分类结果。

本文先训练判别网络,再固定判别网络的权重训练生成网络,根据自定义的函数计算损失,并利用Adam算法优化梯度。网络训练流程如图5所示。

图 5.

网络训练流程

Fig. 5.

Network training process

下载图片 查看所有图片

4 分析与讨论

本文中网络的训练采用的是Laquerre等提供的RGB-NIR数据集[22],包括477张可见光图像和477张近红外图像,裁剪后得到13720张320×320的训练样本,测试集为TNO图像融合数据库,用于验证网络细节重建的能力并得到最终的融合结果。本文的实验环境为Intel(R)Core(TM)i7-8700 CPU @3.20 GHz主频/16.0 GB内存,使用GPU为NVIDIA GeForce GTX 1060,6 GB显存。Adam优化器的学习率设置为2×10-4,动量设置为0.9,网络迭代终止次数为20,计算基本层特征时子块的大小设置为16×16。

本文选取了图像金字塔、引导滤波等几种图像融合时常用的分解方法,并将其与Tikhonov正则化进行比较,用于说明Tikhonov正则化的分解效果在本文算法中的优势。另外选取了4种结合深度网络的图像融合方法——密集连接卷积网络(DenseNet)[10]、残差网络(ResNet)[9]、Visual Geometry Group(VGG)[16]和生成对抗网络(GAN)[12],以及3种现有的图像融合方法——四叉树分解(QD)[23]、视觉显著图(VSM)[7]和隐式低秩表示(LatLRR)[24],进行对比实验。

4.1 主观评价

图6图7比较了不同分解方法对场景Smoke和Heather的分解效果,分析后可知:采用图像金字塔等多尺度分解方法分解得到的低频分量损失的信息较多;而双边滤波[25]和引导滤波[1]的特点在于保持大梯度的边缘,对梯度平缓区域的滤波效果类似于普通的线性滤波算子,这几种分解方法有各自的应用前景,但在本文中不利于之后细节层的重建;Tikhonov正则化的优势在于其对大梯度的惩罚,而对重建难度较大的微弱细节保留的效果较好,当选取的参数α不同时,分解的效果也不同。从图6图7中可以看出:当α=2时,图像平滑的程度较弱,图像中的高频分量得不到充分的过滤;当α=8时,图像中灰度跳变不大的区域变得模糊,图像细节信息损失严重,增大了细节层重建的难度。经过实验可以得出,当α取值为4时,图像分解和细节层重建的效果最好。

图 5.

网络训练流程

Fig. 5.

Network training process

下载图片 查看所有图片

图8~10分别显示了不同算法对场景Quad、Smoke和Nato_camp的融合效果。由场景“Quad”的融合效果可以看出:本文算法和ResNet方法、VSM方法、QD方法均能很好地保留红外图像中的高亮区域,且QD方法融合后的图像中广告牌上的字符最清晰。在场景Smoke下,与其他算法的融合结果相比,本文算法保留了更多的细节信息,减轻了雾对丛林和战士的遮挡,但在图像重建过程中引入了噪声。在Nato_camp场景中,LatLRR和GAN融合后的图像的对比度较低,QD法融合得到的图像遗漏了很多可见光图像中的信息,细节保留效果最差。

使用7×7的高斯滤波算子对待融合图像进行模糊处理,采用不同的算法对平滑后的图像进行融合,得到了模糊图像的融合效果。由图11可以看出:在场景Kaptein_1123下,采用VGG方法和LatLRR方法融合得到的图像边缘信息损失严重, 尤其是在路面纹理的损失上;而采用VSM方法和QD方法融合得到的图像虽然有效地突出了红外图像中的高亮区域,但VSM方法丢失了很多边缘信息,QD方法存在大量的光晕;相比而言,本文算法对路面的纹理保留得最好,且有效地突出了高亮区域。如图12所示,在Heather场景中,本文算法能够很好地恢复树叶的纹理信息,且产生的光晕较少,融合后的图像较为清晰,更符合人的视觉感受。

图 6. 不同分解方法对Smoke场景的分解效果。(a)原图像;(b)双边滤波;(c)引导滤波;(d)高斯金字塔;(e)小波变换;(f) Tikhonov正则化,α=2;(g) Tikhonov正则化,α=4;(h) Tikhonov正则化,α=8

Fig. 6. Comparison of decomposition effects of different decomposition algorithms for “Smoke” scene. (a) Original image; (b) bilateral filtering; (c) guided filtering; (d) Gaussian pyramid; (e) wavelet transform; (f) Tikhonov regularization, α=2; (g) Tikhonov regularization, α=4 ; (h) Tikhonov regularization, α=8

下载图片 查看所有图片

图 7. 不同分解方法对Heather场景的分解效果。(a)原图像;(b)双边滤波;(c)引导滤波;(d)高斯金字塔;(e)小波变换;(f) Tikhonov正则化,α=2;(g) Tikhonov正则化,α=4;(h) Tikhonov正则化,α=8

Fig. 7. Comparison of decomposition effects of different decomposition algorithms for “Heather” scene. (a) Original image; (b) bilateral filtering; (c) guided filtering; (d) Gaussian pyramid; (e) wavelet transform; (f) Tikhonov regularization, α=2; (g) Tikhonov regularization, α=4 ; (h) Tikhonov regularization, α=8

下载图片 查看所有图片

图 8. 不同算法对Quad场景的融合效果。(a)可见光图像;(b)红外图像; (c) DenseNet; (d) LatLRR; (e) VGG; (f) ResNet; (g) VSM; (h) QD; (i) GAN; (j)本文算法

Fig. 8. Fusion effects of different algorithms in “Quad” scene. (a) Visible image; (b) infrared image; (c) DenseNet; (d) LatLRR; (e) VGG; (f) ResNet; (g) VSM; (h) QD; (i) GAN; (j) proposed algorithm

下载图片 查看所有图片

图 9. 不同算法对Smoke场景的融合效果。(a)可见光图像;(b)红外图像;(c) DenseNet;(d) LatLRR;(e) VGG;(f) ResNet;(g) VSM;(h) QD;(i) GAN;(j)本文算法

Fig. 9. Fusion effects of different algorithms in “Smoke” scene. (a)Visible image; (b) infrared image; (c) DenseNet; (d) LatLRR; (e) VGG;(f) ResNet; (g) VSM; (h) QD; (i) GAN; (j) proposed algorithm

下载图片 查看所有图片

图 10. 不同算法对Nato_camp场景的融合效果。(a)可见光图像;(b)红外图像;(c) DenseNet;(d) LatLRR;(e) VGG;(f)ResNet;(g)VSM;(h)QD;(i)GAN;(j)本文算法

Fig. 10. Fusion effects of different algorithms in “Nato_camp” scene. (a) Visible image; (b) infrared image; (c) DenseNet; (d) LatLRR; (e) VGG; (f) ResNet; (g) VSM; (h) QD; (i) GAN; (j) proposed algorithm

下载图片 查看所有图片

图 11. 不同算法对模糊场景Kaptein_1123的融合效果。(a)可见光图像;(b)红外图像;(c) DenseNet; (d) LatLRR; (e) VGG; (f) ResNet; (g) VSM; (h) QD; (i) GAN; (j)本文算法

Fig. 11. Fusion effects of different algorithms in blurred “Kaptein_1123” scene. (a) Visible image; (b) infrared image; (c) DenseNet; (d) LatLRR; (e) VGG; (f) ResNet; (g) VSM; (h) QD; (i) GAN; (j) proposed algorithm

下载图片 查看所有图片

图13展示了本文算法对其他场景的融合效果,经过分析可以得出,本文算法充分重建了图像的细节层信息,并且很好地保留了图像的显著区域,对一些微弱的边缘也起到了增强的效果,融合的结果对不同清晰度的图像均具有较高的鲁棒性,但在图像重建过程中也引入了轻微的噪声,需要进一步改进。

图 12. 不同算法对模糊场景Heather的融合效果。(a)可见光图像;(b)红外图像; (c) DenseNet; (d) LatLRR; (e) VGG; (f) ResNet; (g) VSM; (h) QD; (i) GAN; (j)本文算法

Fig. 12. Fusion effects of different algorithms in blurred “Heather” scene. (a) Visible image; (b) infrared image; (c) DenseNet; (d) LatLRR; (e) VGG; (f) ResNet; (g) VSM; (h) QD; (i) GAN; (j) proposed algorithm

下载图片 查看所有图片

4.2 客观评价

选取了多个评价指标对最终的融合结果进行客观评价,主要包括图像熵(EN)、标准差(SD)、结构相似性(SSIM)、相关系数(CC)和空间频率(SF)。其中:图像熵用于衡量图像包含的信息量;标准差反映了图像像素值与均值的离散程度,较高的标准差表明融合图像的质量更好;结构相似性用于衡量融合图像相较于红外图像、可见光图像的失真和信息损失,主要包括协方差损失、亮度失真和对比度失真三个方面;相关系数表明融合结果与源图像的线性相关度;空间频率与3.1节中的定义一致。选取场景Bunker、Heather、Sandpath、Jeep的融合图像进行数据统计,得到不同算法的评价结果,如表2所示。

表 2. 不同融合方法的客观评价结果

Table 2. Objective evaluation results of different fusion methods

ImageMetricDenseNetLatLRRVGGResNetVSMQDGANProposed method
BunkerEN6.98076.81436.72776.80487.10737.07206.70437.1513
SD31.40328.37926.13728.18636.00639.47125.94737.497
SSIM1.27901.18061.15041.18501.21371.02721.14791.1767
CC0.62700.63160.63450.63970.62230.53940.63260.6274
SF0.01800.01980.02020.02030.02130.02090.02120.0213
HeatherEN6.94136.60366.86436.73727.12346.79956.74117.0281
SD32.67426.33730.48928.53738.26731.18530.19137.529
SSIM1.01850.95731.01361.00441.04340.82660.90950.9770
CC0.55750.55740.56490.56800.53800.46240.51060.5545
SF0.01740.01860.01970.01940.02100.01910.02040.0212
SandpathEN6.76426.25256.58666.54196.54196.73486.11596.7899
SD29.81222.35726.15927.95227.95232.38518.07228.921
SSIM0.90220.81950.88850.88110.88110.80180.77230.8921
CC0.47800.47330.48580.46810.46810.42860.48160.4725
SF0.02680.02620.02690.02730.02730.02700.02690.0273
JeepEN7.14966.54707.13316.99497.02407.23586.79807.2032
SD35.98823.43035.08033.68335.42739.73828.66938.340
SSIM0.65120.50180.64600.62880.63220.58750.49700.6019
CC0.36410.36170.36500.36710.35530.31740.28180.3428
SF0.01320.01290.01510.01510.01610.01580.01520.0170

查看所有表

表2中的数据进行分析后可知:采用DenseNet方法融合得到的图像与源图像的相似度最高,这源于其在训练网络时引入了生成图像与源图像的结构相似度作为损失函数的一部分,从融合的结果也可以看出该方法很好地保留了源图像中的信息;QD方法的各项指标虽然很高,但从主观的角度考虑,其丰富的图像信息一部分来源于融合后产生的光晕和伪影,但并不能说明其真正具有很好的融合效果;本文的算法和VSM方法融合得到的图像,在图像熵、标准差和空间频率指标上要优于其他方法,这也证明了本文算法在重建细节层和保留显著区域方面的优势。但由于本文中的图像是由融合后的基本层重建而来,损失了源图像本身的一部分高频信息,且在重建过程中引入了噪声,因此与源图像的相关性和相似度要略低于其他算法。此外,相比于传统的融合方法,本文算法以及DenseNet、GAN等算法均利用GPU加速运算,缩短了图像融合所需的时间,这也是深度学习相关方法所具备的一大优势。程序运行时间对比如图14所示,可以看出本文算法的运行速度较快。此外,由于DenseNet方法在图像融合时提供的是一个端到端的网络,因此该方法的效率最高。

图 13. 本文算法对其他场景的融合效果。(a) Steamer; (b) Bunker; (c) Street; (d) Jeep; (e) Soldier

Fig. 13. Fusion results of proposed algorithm in other scenes. (a) Steamer; (b) Bunker; (c) Street; (d) Jeep; (e) Soldier

下载图片 查看所有图片

5 结论

本文提出了一种基于Tikhonov正则化和细节重建的图像融合方法,首先采用Tikhonov正则化将红外图像与可见光图像进行分解,分解出基本层,计算基本层的特征后采用PCA融合得到低频融合图像;再针对基本层训练得到一个用于图像细节信息重建的网络,将融合后的低频图像输入网络后得到最终的融合结果。实验结果表明,本文提出的算法保留了源图像中的显著区域,而且重建后的图像中包含了丰富的高频信息,对不同清晰度的图像具有很好的鲁棒性,在视觉质量和运行效率上都具有一定的优势,但在细节重建过程中引入了一些噪声,如何解决这一问题并进一步提高融合质量是下一步研究的方向。

参考文献

[1] 江泽涛, 吴辉, 周哓玲. 基于改进引导滤波和双通道脉冲发放皮层模型的红外与可见光图像融合算法[J]. 光学学报, 2018, 38(2): 0210002.

    Jiang Z T, Wu H, Zhou X L. Infrared and visible image fusion algorithm based on improved guided filtering and dual-channel spiking cortical model[J]. Acta Optica Sinica, 2018, 38(2): 0210002.

[2] Yu XC, Gao GY, Xu JD, et al. Remote sensing image fusion based on sparse representation[C]∥2014 IEEE Geoscience and Remote Sensing Symposium, July 13-18, 2014, Quebec City, QC, Canada. New York: IEEE, 2014: 2858- 2861.

[3] Zhao W D, Lu H C. Medical image fusion and denoising with alternating sequential filter and adaptive fractional order total variation[J]. IEEE Transactions on Instrumentation and Measurement, 2017, 66(9): 2283-2294.

[4] Li Y S, Tao C, Tan Y H, et al. Unsupervised multilayer feature learning for satellite image scene classification[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(2): 157-161.

[5] Rang CZ, Jia YX, YangY, et al. Fusion of infrared and visible images based on multi-scale edge-preserving decomposition and sparse representation[C]∥2018 11th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI), October 13-15, 2018, Beijing, China. New York: IEEE, 2018: 18432125.

[6] Yang B, Li S T. Multifocus image fusion and restoration with sparse representation[J]. IEEE Transactions on Instrumentation and Measurement, 2010, 59(4): 884-892.

[7] Ma J L, Zhou Z Q, Wang B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]. Infrared Physics & Technology, 2017, 82: 8-17.

[8] Amin-NajiM, AghagolzadehA, EzojiM. Fully convolutional networks for multi-focus image fusion[C]∥2018 9th International Symposium on Telecommunications (IST), December 17-19, 2018, Tehran, Iran. New York: IEEE, 2018: 553- 558.

[9] LiH, Wu XJ, Durrani T S.Infrared and visible image fusion with ResNet and zero-phase componentanalysis[J/OL]. ( 2018-12-18)[2019-06-15]. https:∥arxiv.gg363.site/abs/1806. 07119.

[10] Li H, Wu X J. DenseFuse: a fusion approach to infrared and visible images[J]. IEEE Transactions on Image Processing, 2019, 28(5): 2614-2623.

[11] Goodfellow IJ, Pouget-AbadieJ, MirzaM, et al. ( 2014-06-10)[2019-06-15]. https:∥arxiv.org/abs/1406. 2661.

[12] Ma J Y, Yu W, Liang P W, et al. FusionGAN: a generative adversarial network for infrared and visible image fusion[J]. Information Fusion, 2019, 48: 11-26.

[13] Bouhamidi A, Jbilou K. Sylvester Tikhonov-regularization methods in image restoration[J]. Journal of Computational and Applied Mathematics, 2007, 206(1): 86-98.

[14] 郑成林, 何顶顶, 费庆国. 基于灰度梯度正则化去噪的改进数字图像相关法[J]. 光学学报, 2018, 38(8): 0812002.

    Zheng C L, He D D, Fei Q G. Improved digital image correlation method based on gray gradient denoised by regularization method[J]. Acta Optica Sinica, 2018, 38(8): 0812002.

[15] TsibanovV, DenisovA, KrylovA. Edge detection method by Tikhonov regularization[C]∥Proceedings of 14 International Conference Graphicon’2004, September 6-10, 2004, Moscow, Russia. [S.l.: s.n.], 2004: 163- 165.

[16] LiH, Wu XJ, KittlerJ. Infrared and visible image fusion using a deep learning framework[C]∥2018 24th International Conference on Pattern Recognition (ICPR), August 20-24, 2018, Beijing, China. New York: IEEE, 2018: 2705- 2710.

[17] Zhong G, Xiang S, Zhou P, et al. Spatially adaptive tensor total variation-Tikhonov model for depth image super resolution[J]. IEEE Access, 2017, 5: 13857-13867.

[18] SalimansT, GoodfellowI, ZarembaW, et al. ( 2016-06-10)[2019-06-15]. https:∥arxiv.org/abs/1606. 03498.

[19] Mao XD, LiQ, Xie HR, et al. Least squares generative adversarial networks[C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy. New York: IEEE, 2017: 2813- 2821.

[20] HuangG, Liu Z, van der Maaten L, et al. Densely connected convolutional networks[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 2261- 2269.

[21] Mao XJ, Shen CH, Yang Y B. Image restoration using convolutional auto-encoders with symmetric skip connections[J/OL]. ( 2016-08-30)[2019-06-15]. https:∥arxiv.gg363.site/abs/1606. 08921.

[22] BrownM, SüsstrunkS. Multi-spectral SIFT for scene category recognition[C]∥CVPR 2011, June 20-25, 2011, Colorado Springs, CO, USA. New York: IEEE, 2011: 177- 184.

[23] Zhang Y, Zhang L J, Bai X Z, et al. Infrared and visual image fusion through infrared feature extraction and visual information preservation[J]. Infrared Physics & Technology, 2017, 83: 227-237.

[24] LiH, Wu X J.Infrared and visible image fusion using Latent Low-Rank Representation[J/OL]. ( 2018-04-24)[2019-06-15]. https:∥arxiv.gg363.site/abs/1804. 08992.

[25] Shreyamsha Kumar B K. Image fusion based on pixel significance using cross bilateral filter[J]. Signal, Image and Video Processing, 2015, 9(5): 1193-1204.

卢鑫, 杨林, 李敏, 张学武. 基于Tikhonov正则化和细节重建的红外与可见光图像融合方法[J]. 光学学报, 2020, 40(2): 0210001. Xin Lu, Lin Yang, Min Li, Xuewu Zhang. Infrared and Visible Image Fusion Method Based on Tikhonov Regularization and Detail Reconstruction[J]. Acta Optica Sinica, 2020, 40(2): 0210001.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!