激光与光电子学进展, 2019, 56 (14): 141007, 网络出版: 2019-07-12   

基于滚动导向滤波和混合多尺度分解的红外与可见光图像融合方法 下载: 936次

Infrared and Visible Image Fusion via Rolling Guidance Filtering and Hybrid Multi-Scale Decomposition
赵程 1黄永东 1,2,*
作者单位
1 北方民族大学图像处理与理解研究所, 宁夏 银川 750021
2 大连民族大学数学与信息科学研究中心, 辽宁 大连 116600
摘要
系统分析了滚动导向滤波的参数,根据参数变化的规律提出一种基于滚动导向滤波的混合多尺度分解方法,并基于此方法将红外与可见光图像分解到基本层、小尺度层和大尺度层。在基本层上使用像素能量与梯度能量相结合的融合规则,在大、小尺度层上采用双通道自适应脉冲耦合神经网络(DAPCNN)的融合规则。通过逆混合多尺度分解方法得到融合图像。与已有的图像分解方法相比,所提图像分解方法不仅可以很好地提取图像的纹理细节,保留图像的边缘特征,还可以避免在边缘位置上出现光晕现象。实验结果表明,所提方法可以很好地提取图像的红外目标信息,并将其融合到可见光图像中,与已有的融合方法相比,所提方法不仅在人眼视觉感知的主观评价方面具有明显优势,而且在互信息、信息熵、标准差、非线性相关信息熵和Chen-Varshney指标等客观评价标准上也具有很大的优势。
Abstract
We systematically analyze the parameters of rolling guidance filtering and propose a hybrid multi-scale decomposition method based on rolling guidance filtering, utilizing the law of parameter variation. First, the infrared and visible images are decomposed into base, small-scale, and large-scale layers using this method. Second, a fusion rule that combines the pixel and gradient energies is applied to the base layer, and another fusion rule based on an adaptive dual-channel pulse-coupled neural network (DAPCNN) is used to combine the large- and small-scale layers. Finally, the fused image is obtained via inverse hybrid multi-scale decomposition. Compared with other common image decomposition methods, the proposed method can not only extract the image's texture details and preserve its edge features but also prevent the halo phenomenon at the edges. The experimental results show that the proposed method can extract the target information from the infrared image and fuse it into the visible image. Compared with existing fusion methods, the proposed method shows clear advantages not only in a subjective human visual evaluation, but also in several objective evaluation metrics, namely the mutual information, information entropy, standard deviation, non-linear correlation information entropy, and Chen-Varshney indexes.

1 引言

通过不同的传感器可以获取不同类型的图像,但是在所获取的单幅图像中并不能提取到所需要的全部有用信息。如红外图像在低光或恶劣的天气条件下可以捕捉到场景目标的热源信息,而这在可见光图像中是不可能得到的;可见光图像则可以提供场景的更多细节信息,得到与人类视觉相一致的图像亮度和对比度信息。由此可见,将同一场景的红外图像与可见光图像整合,可以得到一幅场景细节信息更多、更加完整的图像,故红外与可见光图像融合方法应运而生。红外与可见光图像融合方法已广泛应用于**、目标检测和情报收集等领域。

近年来,学者们先后提出了多种红外与可见光图像融合算法[1-12]。其中,基于像素层红外与可见光图像的融合方法大体上可以分为基于空间域融合方法和基于变换域融合方法。基于空间域融合方法是在空间域对配准的高、低空间分辨率图像进行处理,包含直接融合法、加权融合法等。该类方法在融合处理过程中不对图像进行分解,可能会导致融合图像出现模糊,其相应的对比度较低。目前,使用最多的图像融合方法是基于多尺度变换的融合方法,其是针对变换域而言的,主要包含基于塔形分解的变换方法[1]、基于小波变换的方法[2-3]、基于Curvelet变换的方法[4]、基于Contourlet变换的方法[5]、基于双树复小波变换的方法(DTCWT)[6-7]等。基于塔形分解的变换方法包括基于拉普拉斯金字塔变换[8]、基于梯度金字塔变换[9],以及基于低通比率金字塔(ROLP)变换[10]等。然而上述方法均不具有平移不变性,在融合结果中表现出较明显的伪Gibbs现象。为了解决此类问题,学者们提出了NSCT(non-subsampled contourlet transform)法与NSST(non-subsampled contourlet transform)法[11-12],这些方法具有较好的方向选择性和平移不变性。但是,其在融合的过程中没有充分考虑空间一致性,导致图像可能会出现亮度和颜色失真的现象。

为了克服上述缺陷,将基于边缘保留滤波的方法引入到图像融合中。这主要是因为边缘保留滤波具有平移不变性和好的边缘保留性能,且计算效率相对较高。基于边缘保留滤波的方法在应用中直接将原始图像分解到细节层和基本层,从而达到平滑纹理、保留边缘信息的目的。大部分边缘保留滤波是根据对比度平滑细节信息,而双边滤波[13]和导向滤波[14]等少数滤波方法则根据空间尺度对图像进行分解。因此,为了更好地根据图像的尺度信息保留边缘,平滑图像的结构,Zhang等[15]提出了基于滚动导向滤波(RGF)的方法,其不仅可以更好地平滑图像纹理信息,还可以在实现过程中通过迭代来保留图像的边缘信息。因此可以很好地应用到图像处理中。常规的多尺度分解方法仅从单一通道对图像的信息进行分解,不能对图像信息进行精确分类,而混合多尺度分解方法可以弥补此缺陷,得到不同类型的图像信息。如Zhou等[13]提出将高斯滤波与双边滤波相结合的混合多尺度分解方法,其主要优点有:1)在融合过程中尽可能多地把红外光谱信息融入到可见光图像中;2)保留了可见光图像的场景和细节信息。因此,结合滚动导向滤波和混合多尺度分解方法,可以充分地提取图像的纹理、细节信息,同时保留图像的边缘信息。

此外,在图像融合过程中,选择合适的融合规则同样至关重要。脉冲耦合神经网络(PCNN)因其具有全局耦合性和脉冲同步性,目前已广泛应用于图像处理中。然而,常规的PCNN模型不能同时处理两幅图像,且经常选用单一像素值作为外部刺激,选用常量作为链接强度,降低了对图像细节信息处理的准确性。为了解决上述问题,Cheng等 [16]提出了一种改进的双通道自适应脉冲耦合神经网络模型(DAPCNN),并将其用于处理高频子带图像信息,利用局部图像信息充分提取图像的细节信息,使DAPCNN更加适用于图像融合,且产生较好的融合效果。

基于上述分析,本文综合滚动导向滤波和混合多尺度分解方法的优势,提出了一种新的红外与可见光图像融合方法。混合多尺度分解可以保留原始图像的细节信息,滚动导向滤波具有空间一致性,可以更好地平滑图像纹理信息,保留图像边缘信息。因此,通过结合两者的优势,所提分解方法可以充分提取图像同一层包含的不同类型信息,进而根据不同的信息类型选择不同的融合规则,避免处理过程中信息的丢失。本文还选用改进的DAPCNN模型对图像的大尺度层信息进行处理,进一步提高对图像细节信息的处理能力。同时,为了充分保留输入图像的能量信息,采用区域能量加权方法处理基本层信息。实验结果表明,相比于其他方法,本文所提方法无论是在主观评价还是客观评价都表现出很明显的优势。

2 RGF和DAPCNN理论

2.1 滚动导向滤波

滚动导向滤波是Zhang等 [15]提出的一种新的边缘保留滤波。与其他边缘保留滤波的不同之处在于,滚动导向滤波将迭代运用到实现过程中,可以很好地实现快速收敛。此滤波的实现过程简单、快速,在空间重叠特征中实现了尺度的分离,所得结果没有出现人工效应。

2.1.1 滚动导向滤波实现过程

滚动导向滤波包括小结构消除和边缘恢复两个过程,如图1所示。

1) 小结构消除过程。通过使用高斯滤波实现这个过程。小结构信息通常为细节信息,具体包括纹理、噪声以及小目标等信息。将I表示输入图像,G表示输出图像,pq表示图像的像素坐标矢量,σs为标准差,则滤波的表达式可以写为

G(p)=1KpqN(p)exp-p-q22σs2I(q),(1)

图 1. RGF的基本框架

Fig. 1. Basic framework of RGF

下载图片 查看所有图片

式中:Kp= qN(p)exp(- p-q22σs2),其中N(p)为以像素p为中心的邻域像素集。值得注意的是,在尺度空间中,当尺度远远小于σs时,此滤波可以完全消除小结构。

2) 边缘恢复过程。此过程的实现方式包括两步:迭代以及联合滤波。选取导向滤波作为联合滤波,这是因为导向滤波不仅有高的计算效率,还有好的边缘保留性能。将J1记为经高斯滤波处理后的输出图像,即J1=GJt+1为第t次迭代的结果,可通过输入图像I和引导图像Jt经过导向滤波得到。具体实现方式可表示为

Jt+1=fGF(Jt,I,σs,σr2),t=1,2,,T,(2)

式中:fGF为导向滤波函数;σr控制范围权重,设σr=0.1。将(2)式视为一个滤波过程,即通过Jt对输入图像I进行平滑处理后得到滤波图像Jt+1

2.1.2 参数分析

为了更好地设计基于RGF的图像分解方法,需要对RGF的参数进行分析,并探讨RGF参数的选取对融合效果造成的影响。经查阅,对RGF参数系统分析的文献甚少,故需在此对其进行较为详细的分析。由RGF的构造可知,在小结构消除过程中,参数σs主要用于平滑图像的纹理细节信息,参数σr在这一步为无效参数;在边缘恢复过程中,使用引导滤波且通过Jt平滑输入图像I得到Jt+1,此时参数σr起着至关重要的作用,其可以用于判断边缘恢复的程度。通过对参数进行分析,可以确定合理的参数,以获得最优的平滑图像纹理,并保留更多的图像边缘信息。

选择可见光图像(图2)进行分析,针对不同的参数σr观察边缘恢复的程度。图2中给出了σr从0.1依次变化到10-6所对应的滤波后的可见光图像,可以发现,当σr从0.1变化到0.01时,房子的边缘以及栅栏、烟囱等信息会逐渐变得清晰,当σr从0.01变化到10-6时,除了房子、栅栏、烟囱的变化之外,处于中间位置的山体部分也逐渐变得清晰,且σr在0.0001到10-6之间所对应图像的主观视觉一样。根据对图2的主观分析可知,随着σr的不断减小,滚动导向滤波的边缘恢复能力逐步增强,但是当σr减小到某一固定值后,滚动导向滤波的边缘恢复能力固定不变。

客观分析过程如下:

1)固定σs=2,并将 σr0的初值依次取为0.1、0.2、0.3、0.4、0.5、0.6、0.7、0.8、0.9;

2)根据 σrc+1= σcr×10-1,其中c=0,1,…,25,获得在某一确定初始值的情况下所对应的所有σr值;

3)选用确定的参数σrσs作为滚动导向滤波的参数,对某一幅图像进行滤波得到滤波后的图像;

图 2. 不同σr值所对应的RGF平滑后的结果

Fig. 2. Smooth results of RGF corresponding to different σr values

下载图片 查看所有图片

4)选用标准差(STD)、空间频率(SF)和边缘强度(EI),对所得的每一幅滤波图像进行客观评价,计算同一幅图像在不同的σr情况下所对应的3种客观指标的值。

经过实验分析发现,当 σr0=0.1,0.2,0.3时,上述3种指标均在σr= σr0×10-4时可以同时达到最优值,且在此之后所得指标值不再发生变化。当 σr0=0.4,0.5,…,0.9时,上述3种指标均在σr= σr0×10-5时可以同时达到最优值并在此之后不再发生变化。此外,当 σr0越小时,所得的测试指标值越大。当σr的值小于 σr0×10-5时, σr0取0.1~0.9之间的任意值,由此对应的σr产生的滤波图像所对应的3种客观指标的测试值均不再发生变化,且数值相等。因此,设定的最优值范围为σr< σr0×10-5

为了更直观地证明上述结果,计算图2中对应图像在σr为0.1、0.01、0.001、0.0001和0.00001以及0.2、0.02、0.002、0.0002和0.00002时所对应的滤波图像的STD、SF和EI,并在表1给出相应的数据。由表1可知,对于同一幅可见光图像,当σr选择不同的参数值时,随着参数值的不断减小,图像对应的指标值不断增大,且当σr≤10-4时,σr取不同的值对应的滤波图像的测试值不再发生改变。而这与上述分析结果一致,由此也验证了上述分析的有效性。

参数σs用于控制空间权重,具体用于小结构消除过程。选用与分析σr相同的方法进一步分析σs对图像的影响。选用同一幅可见光图进行测试,σs的增长步长为5,实验发现随着σs的不断增大,滚动导向滤波对图像纹理信息的平滑效果更好,且当σs≥30时,图像的平滑效果不再发生变化。

表 1. 不同σr值对应的可见光图像的客观评价指标

Table 1. Objective evaluation indicators of visible image corresponding to different σr values

σrSTDSFEI
0.10.14700.03050.0936
0.010.15140.04230.1290
0.0010.15200.04430.1477
0.00010.15210.04430.1481
0.000010.15210.04430.1481
0.20.14570.02640.0909
0.020.15050.03990.1147
0.0020.15200.04420.1466
0.00020.15210.04430.1481
0.000020.15210.04430.1481

查看所有表

2.2 双通道自适应脉冲耦合神经网络

DAPCNN是以PCNN为基础的一种新的脉冲耦合神经网络。PCNN是一种反馈型网络,模拟了哺乳动物大脑视觉皮层中神经元的同步行为现象,是一种二维人工神经网络模型,具有全局耦合性和脉冲同步性。但是,PCNN有两个缺陷:1) 用单一像素值作为外部输入;2) 采用固定值作为链接强度。因此,PCNN不具有自适应性。而DAPCNN改变了外部输入与链接强度的设置,同时考虑了两幅图像之间的联系,用于避免信息的遗失,弥补了PCNN不具有自适应性的不足,可以更有效地处理图像信息。DAPCNN的实现过程包括接收域、调制域和产生域3个部分。

1) 接收域的实现过程可表示为

Fij1(n)=Sij1(n),(3)Fij2(n)=Sij2(n),(4)Lij(n)=exp(-αL)·Lij(n-1)+VLabWij,abYij(n-1),(5)

式中:n为当前迭代次数; Fijk为在(i,j)位置神经元的双通道反馈输入;Lij为链接输入; Sijk为外部激励输入;Wij,ab为联合权重强度,组成矩阵W;Yij为在(i,j)位置的神经元输出;αL为衰减时间常数;VL为标准化常数;k为DAPCNN的通道,其中k=1,2。

2) 调制域的实现过程可表示为

Uij(n)=max{Fij1(n)[1+β1Lij(n)],Fij2(n)[1+β2Lij(n)]},(6)

式中:Uij为总体内部活性度;βk∈[0,1]为权重系数,用于判断两个通道所占的权重。

3) 产生域的实现过程可表示为

θij(n)=exp(-αθ)θij(n-1)+VθYij(n-1),(7)Yij(n)=1,Uij(n)>θijn0,others,(8)

式中:θij为神经元的动态阈值;Yij为输出脉冲;αθ为衰减时间常数;Vθ为正则化常量。若Uijθij,则神经元产生一个脉冲。

由于梯度可以反映图像细节信息,需要引入Sobel算子来自适应选取链接强度。对图像的任意一点使用Sobel算子,都会得到该点的梯度矢量或法矢量。图像A在点(i,j)的边缘梯度为

G(i,j)=Gx2(i,j)+Gy2(i,j),(9)

式中:Gx(i,j)=E1·A;Gy(i,j)=E2·A;E1E2分别为横向和纵向滤波算子,其表达式可分别表示为

E1= -101-202-101,E2= -1-2-1000121。从而链接强度βk的计算公式可表示为

βk(i,j)=11+exp[-G(i,j)],k=1,2(10)

3 图像融合的基本过程

3.1 基于滚动导向滤波的混合多尺度分解框架的构造

滚动导向滤波可以通过调控所含参数达到保留图像边缘、平滑纹理的目的。因此,通过设置不同的参数值对图像的边缘、纹理信息进行处理,以期得到含有不同信息的滤波图像。此外,常规的多尺度分解方法是通过直接处理相邻层的滤波图像得到图像的细节层信息,但不能更深入地提取图像的不同类型信息。而混合多尺度分解方法,相当于对不同通道的滤波图像进行处理,根据不同滤波图像包含信息量的多少设计具体的分解框架,以此更充分地提取图像所包含的不同类型的细节信息,从而可以更精确地为不同类型的信息选择不同的融合方法,加强了后期图像的融合效果。结合上述两种方法的优势,提出了一种基于滚动导向滤波的混合多尺度分解方法,该方法不仅可以利用滚动导向滤波的优势提取出图像的细节信息,还可以利用混合多尺度分解方法对细节信息进行分类,得到细节信息对应的纹理信息和边缘信息,具体框架如图3所示。其中用IIr表示红外图像,可见光图像的分解过程与红外图像分解过程一致。具体过程如下:

1) 使用一系列的滚动导向滤波去平滑输入图像I,即 I^w+1= fRGF,σ^sw,σ^rw( I^w),在这里w=1,2,…,nI^1=I

需要说明的是,这一步主要考虑的是平滑处理图像的纹理信息,因此设置 σ^r为相对大的值以确保实现滚动导向滤波的平滑性能。此外,为了使每一层的滤波图像包含相对多的信息,此处设置 σ^s为相对小的值。因此,取 σ^s= σ^sw=5和 σ^r= σ^rw=102

2) 使用一系列与1)不同参数的滚动导向滤波来平滑纹理细节信息,保留图像的边缘信息,即Iw+1=fRGF,σsw,σrw(Iw)。

此时,σs主要用于平滑纹理并保留必要的边缘信息,σr主要用于边缘恢复与保留。需要指出的是,由于混合多尺度分解方法需要处理不同参数的滤波图像来得到精细的细节信息,因此本研究没有直接使用上文分析的最优值处理图像,而是根据参数的变化趋势设置具体的参数值。经过实验,本研究的参数设置如下: σr1=0.5,σs1=2,σrw+1=σrw/2,σsw+1=2σsw,fRGF,s0,r0(I^0)=I

3)将文献[ 13]中所提到的混合多尺度分解方法与滚动导向滤波相结合,用于获得图像的纹理信息和边缘细节信息。经上述分析可知,所取 σ^swσ^rw为固定值,而随着σs不断增大,图像的纹理信息的平滑效果越好;随着σr不断减小,所保留的图像的边缘细节信息越多。因此,当处于同一分解层时,选取σsσr为参数值的滚动导向滤波可以保留更多的边缘细节信息,将其与同一分解层上选取 σ^swσ^rw为参数值所得到的滤波图作差值,即可得到对应分解层的边缘细节信息。将前一分解层(参数为 σ^swσ^rw)所对应的滤波图与当前分解层(参数为σsσr)的滤波图作差值即可得到纹理信息。因此,当进行第一层分解时,相当于用原始图与参数为σsσr所得的滤波图(当前层)作差值,此时执行2)步时当前层是已被平滑的图像,其所含的纹理信息要少于原始图像,两者的差值即为初次分解的纹理信息。在此基础上对原始图像进行参数为 σ^swσ^rw的滤波处理,同时对2)步滤波图再次进行参数为σsσr的滤波处理,因为后者要比前者多执行一次滤波处理,且随着σs的不断更新,其平滑纹理信息的能力会逐渐增强,而前者的参数值保持不变,两者相减即可得到后续分解层的纹理信息。综上所述,所提分解方法的具体分解框架的数学表达式为

D(w,0)=fRGF,sw-1,rw-1I^w-1-fRGF,σsw,σrwIw,(11)D(w,1)=fRGF,σsw,σrwIw-fRGF,sw,rwI^w,(12)

式中:w=1,2,…,n为分解的层数;D(w,0)为第w层的纹理细节信息;D(w,1)为第w层的边缘细节信息。需要注意的是,在整个构造过程中多尺度分解的基本层为B= fRGF,sn,rnI^n

图 3. 基于混合多尺度分解框架的构造

Fig. 3. Construction based on hybrid multi-scale decomposition

下载图片 查看所有图片

3.2 融合规则的选择

通过混合多尺度分解,将红外与可见光图像分解到小尺度层、大尺度层和基本层3个不同的尺度层上,并在不同尺度层上选择不同的融合规则来融合各层信息。

3.2.1 小尺度层的融合规则

小尺度层是图像分解的第一层,即w=1时对应的纹理信息和细节信息。由于该层主要包含图像的边缘细节信息和纹理信息,经常会使用PCNN对该尺度层进行处理。尽管PCNN模型具有视觉恢复机制,可以对高频子图进行仿生处理并在融合的过程中恢复图像的细节信息,然而其在实验过程中将单幅图像信息作为输入,并没有考虑到另一幅图像的信息,且其参数的选择依赖于实验调制,这就降低了对细节信息处理的准确性。为了避免上述问题,并在此基础上更好地处理图像较暗区域信息,提高整体算法的计算效率,本研究选择DAPCNN进行融合。由于边缘能量(EOE)[17]与Sobel算子均是以图像的细节信息为基础,因此选用边缘能量作为外部输入,选用Sobel算子作为链接强度,具体步骤如下:

1) 对实验中所需要的参数进行初始化,选用Sobel算子作为像素点的链接强度,即利用(10)式计算链接强度βk(i,j);

2) 计算小尺度所对应系数的边缘能量,并将其作为DAPCNN的外部输入。

F1,ij(1,i1)=Eend,R(1,i1)(i,j)F2,ij(1,i1)=Eend,V(1,i1)(i,j),(13)

式中: E(1,i1)end,m(i,j)表示红外与可见光图像在尺度i1位置(i,j)处所对应的边缘能量;i1=0,1;m为R,V。边缘能量的定义为

E(1,i1)(i,j)=i,jΩω(i,j)EL(1,i1)(i,j),(14)

式中:Ω为以像素位置(i,j)为中心的邻域窗口;ω(i,j)为权重矩阵元,组成矩阵ω,ω= 116121242121; EL(1,i1)(i,j)= (L1·I(1,i1))2+ (L2·I(1,i1))2+ (L3·I(1,i1))2。其中L1= -1-1-1222-1-1-1,L2= -12-1-12-1-12-1,L3= -10-1040-10-1

3) 计算LijUijθijYij,从而激活所有的神经元。选择相对应的融合系数为

DF(1,i1)(i,j)=DR(1,i1)(i,j)U(1,i1)(i,j)=UR(1,i1)(i,j)DV(1,i1)(i,j)U(1,i1)(i,j)=UV(1,i1)(i,j),UR(1,i1)(i,j)= F1(1,i1)(i,j)1+β1(1,i1)(i,j)L(1,i1)(i,j)UV(1,i1)(i,j)= F2(1,i1)(i,j)1+β2(1,i1)(i,j)L(1,i1)(i,j),(15)

式中: D(1,i1)R(i,j), D(1,i1)V(i,j), D(1,i1)F(i,j)分别为 D(1,i1)RD(1,i1)VD(1,i1)F的矩阵元,代表小尺度层的红外系数、可见光系数和融合后的小尺度层系数。其他参数含义与2.2节中所代表的含义相同,在此不加赘述。

3.2.2 大尺度层的融合规则

大尺度层包括从w=2到w=n时对应的图像的纹理信息和细节信息。大尺度层中包含了原始图像的很多细节信息,如纹理、背景等。为了更好地检测和提取这些显著信息,使用DAPCNN模型对其进行处理。在融合过程中,红外图像的光谱特征经常会作为大尺度层的显著边缘,实际上并非所有与可见光图像融合的红外信息都是有用的。因此,为了避免在图像融合过程中合并过多不相关的红外细节和噪声,在上述基础上对所得到的融合结果使用加权最小二乘优化的方法(WLS)[18]来加强融合效果。

1)根据小尺度层的方法计算第w层的融合尺度层,记为H(w,i1),w=2,…,n,i1=0,1。

2)通过使用最小化成本函数得到第w层的融合系数尺度层D(w,i1),这里最小化成本函数为

gcf=pDp(w,i1)-Hp(w,i1)2+λapwDp(w,i1)-DV(w,i1)p2,apw=pΩpDR(w,i1)(i,j)+ε-1,(16)

式中:p为像素的空间位置矢量;ε为0.0001;Ωp为以p为中心的窗口; DV(w,i1)为可见光图像的大尺度层; DR(w,i1)为红外图像的大尺度层; apw为空间变换权重;λ为全局控制参数,用于平衡(16)式等号右边的两项,取λ=0.01。将(16)式用矩阵的形式可表示为

g=D(w,i1)-H(w,i1)TD(w,i1)-H(w,i1)+λD(w,i1)-DV(w,i1)TA(w,i1)D(w,i1)-DV(w,i1),(17)

式中:A(w,i1)为包含所有像素权重值的对角矩阵。利用优化理论与方法,D(w,i1)的最优值可表示为

2I+λA(w,i1)+A(w,i1)TD(w,i1)=2H(w,i1)+λA(w,i1)+A(w,i1)TDV(w,i1)(18)

因为A(w,i1)是对角矩阵,所以有A(w,i1)= A(w,i1)T。因此,(18)式可以写为

I+λA(w,i1)D(w,i1)=H(w,i1)+λA(w,i1)DV(w,i1),(19)

式中:D(w,i1)为大尺度层的最终融合系数矩阵。

3.2.3 基本层的融合规则

基本层B= fRGF,sn,rnI^n是平滑纹理的最后一层,包含了主要的能量信息和一些显著的细节信息,如边缘、轮廓等。为了在融合图像中显示更多信息,基本层的融合规则选用了像素能量和梯度能量的加权和,并对最后的结果进行一致性检验,从而避免信息的丢失与错位。具体过程如下:

1) 计算像素能量EP与梯度能量EG,计算公式表示为

EP(i,j)=a=-PP b=-QQω'(i,j)·[B(i+a,j+b)]2,(20)EG(i,j)=a=-PP b=-QQω'(i,j)·Bxi+a,j+b2+Byi+a,j+b2,(21)

式中: ω'= 1232124642369632464212321,其中ω'(i,j)为矩阵元;PQ为窗口大小;ÑBxÑBy分别为图像在x方向和y方向的梯度值。

2) 计算总体能量Etol的公式可表示为

Etol(i,j)=t×EG(i,j)+(1-t)×EP(i,j),(22)

式中:t= EG(i,j)EG(i,j)+EP(i,j)

通过总体能量去选择最终的融合系数,可表示为

BF(i,j)=BIr(i,j),Etol,Ir(i,j)Etol,Vis(i,j)BVis(i,j),others,(23)

式中:Etol,Ir(i,j)和Etol,Vis(i,j)分别为红外与可见光的总体能量;BIr(i,j)和BVis(i,j)分别为红外与可见光的基本层系数。

3) 为避免某些像素点的最终融合系数与其邻域内大部分相邻像素的融合系数来源于不同的图像,利用一致性检验对所得的融合系数进行处理,并利用基本图与另外两个尺度图相加得到最后的融合图像,即

F=BF+w=1n(D(w,0)+D(w,1))(24)

3.3 融合算法

经过上述分析,所提的融合算法步骤如下:

1) 利用3.1节分别对红外与可见光图像进行混合多尺度分解,得到小尺度层 D(1,i1)C、大尺度层 D(w,i1)C和基本层BC,其中C为R,V,w=2,…,n,i1=0,1。

2) 利用3.2.1节的融合规则融合小尺度层 D(1,i1)VD(1,i1)R,从而得到 D(1,i1)F

3) 利用3.2.2节的融合规则融合大尺度层 D(w,i1)VD(w,i1)R,从而得到D(w,i1)

4) 利用3.2.3节的融合规则融合基本层BVisBIr,从而得到BF

5) 利用(24)式对D(w,i1)BF(i,j)进行逆混合多尺度分解,得到最终的融合图像F

4 实验结果与比较

为了说明所提方法的有效性,本文使用主观评价与客观评价相结合的方法,对不同融合方法所产生的融合结果进行比较分析。与所设计算法作比较的融合方法分别为DWT[19]、CVT[20]、DTCWT[21]、NSCT-DAPCNN[22]、NSDTST[23]、LATLRR[24]、GTF[25]和MSVD[26]。其中NSCT-DAPCNN方法将传统的NSCT模型与DAPCNN相结合。混合多尺度分解的分解层为4,即N=4。DAPCNN的参数设置为αL=0.2、αθ=0.2、VL=1.5、Vθ=25、W=[0.707,1,0.707;1,0,1;0.707,1,0.707]。

4.1 融合结果的视觉评价

为了评估所提融合方法的有效性,在实验中选取了5对红外与可见光图像,见图4。在图4中第一行为5组红外图像,第二行为红外图像所对应的可见光图像,每一列为一对已配准的图像,依次命名为“Un camp”“Octec”“Steamboat”“Kayak”“Infrared4-Visible4”。在图5~9中分别展示了5组图像在不同方法下所对应的融合结果。

图 4. 测试中所用到的5 组红外与可见光图像。(a) Un camp;(b) Octec;(c) Steamboat;(d) Kayak;(e) Infrared4-Visible4

Fig. 4. Five sets of infrared and visible images used in test. (a) Un camp; (b) Octec; (c) Steamboat; (d) Kayak; (e) Infrared4-Visible4

下载图片 查看所有图片

图 5. “Un camp”图像在不同融合方法下获得的融合结果

Fig. 5. Fusion results obtained by different fusion methods applied in “Un camp” image

下载图片 查看所有图片

图5是以“Un camp”图像作为输入图像,采用9种不同融合方法得到的融合图像。从图5可以看到,图5(a)~(e)中树的辨识度相对较低。图5(a)~(c)的房顶区域出现原始图像中不存在的斑点,以及人像区域出现了明显的光晕现象。图5(a)中有很明显的伪Gibbs效应。尽管图5(d)中整体效果相对于其他图像效果较好,但此图像的对比度相对较低。图5(e)中出现了很多明显的噪声。图5(f)中没有显示左侧树枝的纹理信息。图5(g)中整幅图像纹理信息模糊,尤其是在山体和树枝部分。图5(h)中整幅图像亮度较低。相比之下,图5(i)在“Un camp”图像的目标位置处(人像)没有出现光晕现象,且整幅图像没有出现人工效应,可以很好地将红外图像的光谱特征注入到融合图像中,同时也保留了可见光图像的场景和细节信息。

图6是以“Octec”作为输入图像,采用9种不同融合方法得到的融合图像。在图6(a)~(e)中,地面的道路痕迹(即每幅图第3个方框)均没有所提方法表现明显,且在图6(a)中出现了伪Gibbs效应。在中间方框处(人物与后边墙体部分),虽然人物表示出来了,但在原始图像中位于中间两座相邻的房子在图6中基本看不出来。在图6(b)~(e)中树枝与天空的接壤部分,红外光谱信息的不适当注入导致此部分视觉效果非常不自然;同时还可以看出这4幅图像的对比度均不高;可见光图像中天空与云彩之间的对比度较低,致使图像不符合人类视觉感知。图6(e)中出现了很多噪声。图6(f)中可见光图像没有合理融入,导致天空部分的亮度较暗,与原图不符。图6(g)中红外背景信息的过多融入,以及红外目标信息的不合理提取,导致天空部分较暗,且人物目标不突出,融合效果极差。图6(h)所示的融合图像的整体亮度偏暗且模糊,人物目标不突出。相比之下,图6(i)所示的融合图像很清晰地显示了人物、房子、路痕以及树枝与天空接壤的区域,且此图像与人眼视觉相符,呈现的效果更自然。

图 6. “Octec”图像在不同融合方法下获得的融合结果

Fig. 6. Fusion results obtained by different fusion methods applied in “Octec” image

下载图片 查看所有图片

图 7. “Steamboat”图像在不同融合方法下获得的融合结果

Fig. 7. Fusion results obtained by different fusion methods applied in “Steamboat” image

下载图片 查看所有图片

图7是以“Steamboat”作为输入图像,采用9种不同融合方法得到的融合图像。图7(a)~(e)所示的融合图像均不能很清晰地显示方框处栏杆所对应的窗口(中间方框)以及船身所对应的窗口(两边方框),且由于图像的亮度失真,图片中不能很好地表示出原始红外图像在海面上所反射的灯光,尤其是图7(d)和图7(e)。图7(a)中出现了伪Gibbs效应,在图7(e)中出现了噪声。图7(f)中船身的亮度较暗。图7(g)中可见光图像信息的丢失,导致天空部分的融合极不自然,且船体的目标信息较为模糊。图7(h)中同样出现了亮度信息较低,整体图像信息模糊的现象。相比之下,图7(i)不仅可以清晰地看到方框中的目标,且保留了原始红外图像中的亮度信息,整体效果更为自然。因此所提方法可以将更多的红外图像信息融入到可见光图像中,得到符合人眼视觉感知的图像。

图8是以“Kayak”作为输入图像,采用9种不同融合方法得到的融合图像。图8(a)~(e)中船体四周出现了明显的人工效应;所注入的红外图像信息过多,导致在图8(a)~(e)中海面的亮度以及天空的亮度过低,使得海面与沙滩的亮度过于接近,致使图像显示不符合人类的视觉感知。除此之外,图8(e)中出现了明显的噪声。图8(f)中整体亮度较暗。图8(g)中可见光信息丢失严重,整幅图像的识别度不高。图8(h)中目标人物出现伪Gibbs效应。相比于其他几幅图像,图8(i)的视觉效果较好,不仅把可见光图像中天空与海面的亮度展现出来,而且在船体周围也没有出现人工效应,使得最终的融合图像感观自然,与人类的视觉感知相吻合。

图 8. “Kayak”图像对在不同融合方法下获得的融合结果

Fig. 8. Fusion results obtained by different fusion methods applied in “Kayak” image

下载图片 查看所有图片

图9是以“Infrared4-Visible4”作为输入图像,采用9种不同融合方法得到的融合图像。在图9(a)~(e)中,路灯(左上方的方框)和院子(右下方的方框)处的整体亮度不高。这是因为原始可见光图像信息没有被充分地融入到融合图像中。除此之外,在图9(a)中也出现了伪Gibbs效应,图9(e)中出现了噪声。图9(f)中整体信息较为模糊。图9(g)中整体图像的红外信息丢失严重且整体模糊度高,而在路灯及人物部分,由于可见光信息的过多注入,目标轮廓不清晰。图9(h)中整体亮度偏低,图像严重失真。而本文方法得到的图9(i)更能充分地反映上述信息,且将原始图像中所包含的信息都表现出来,视觉效果更好。

图 9. “Infrared4-Visible4”图像对在不同融合方法下获得的融合结果

Fig. 9. Fusion results obtained by different fusion methods applied in “Infrared4-Visible4” image

下载图片 查看所有图片

4.2 融合图像的客观评价

本文选用互信息(MI)[27]、信息熵(IE)[28]、标准差 [29]、非线性相关信息熵(QNCIE)[30]和Chen-Varshney指标(QCV)[31]为客观评价指标。互信息是用于测量从原始图像转移到融合图像的信息数量。信息熵是用于测量融合图像中所包含的信息数量。标准差用于反映图像灰度相对于灰度平均值的离散情况。非线性相关信息熵则用于测量输入图像与融合图像的非线性关联度。Chen-Varshney指标是基于人类视觉系统,用输入图与融合图之间的不同视觉来评估融合结果的好坏。前4种评价指标的所测值越大,说明融合结果越好;最后一个指标所测值越小,说明融合结果越好。

表 2. 不同融合方法的客观评价指标

Table 2. Objective evaluation indicators of different fusion methods

ImageIndexDWTCVTDTCWTNSCT-DAPCNNNSDTSTLATLRRGTFMSVDours
MI0.19160.18930.20110.20720.18020.24100.27930.21650.2841
STD0.10290.09880.09740.07180.13320.10700.10510.08920.1152 (2)
Un campQNCIE0.80290.80290.80300.80300.80290.80340.80410.80310.8039 (2)
QCV425.1803461.3446426.053423.8996540.9333332.3001661.3364424.1480293.6759
IE0.47090.46850.45600.45800.61320.62680.60260.45000.8334
MI0.38760.37580.41270.42830.38380.44720.51760.46280.5200
STD0.11670.11750.11360.11170.21320.11750.09590.10800.1573 (2)
OctecQNCIE0.80660.80640.80700.80710.80730.80730.80890.80750.8094
QCV648.2625408.1675629.2341626.6379391.1703274.64852264.01902.5192.0751
IE0.96130.96450.96720.96600.96350.99340.83370.82981.0000
MI0.25760.24180.26950.27380.29110.29080.62840.29650.4514 (2)
STD0.05240.04820.04790.04490.1240.04980.13310.04150.0769 (3)
SteamboatQNCIE0.80450.80430.80460.80460.80520.80470.81170.80470.8068 (2)
QCV163.4563169.6701167.6022173.5677298.9255208.9697331.4260178.0732138.259
IE0.39500.37420.37100.35670.61370.45270.57500.35160.7979
MI0.44710.37860.44920.51840.49230.46960.54690.61980.5195(3)
STD0.07310.07280.06960.06690.17070.06730.08640.06470.1444 (2)
KayakQNCIE0.80590.80490.80580.80700.80700.80610.80720.80870.8087
QCV876.5883622.103864.7246791.0015798.335855.55833060.6697.9614135.6981
IE0.02790.02240.02070.01320.76510.02620.01910.00710.9980
MI0.24850.24610.28660.27540.25520.29430.23900.28520.3233
STD0.14650.13660.13640.12890.16970.14320.13300.12430.1707
Infrared4-Visible4QNCIE0.80350.80340.80440.80380.80360.80400.80340.80390.8046
QCV1133.91056.21502.31076.91845.6924.23831972.31045.83718.6361
IE0.76430.75880.75110.74740.89730.87450.84500.73640.9504

查看所有表

表2是不同融合方法所得到的客观评价指标,最优值已用粗体表示,括号中数字表示所提方法排名情况。由表2可知,对于图像“Un camp”,本文方法在MI、IE和QCV3个评价指标上是最优的,在STD和QNCIE评价指标上排名第2。对于图像“Octec”,其在STD评价指标上是次优,其他评价指标均为最优。对于图像“Steamboat”,其在IE和QCV评价指标上是最优,在MI和QNCIE评价指标上则排名第2。对于图像“Kayak”,其在IE、QNCIEQCV评价指标上是最优,在STD评价指标上排名第2,在MI评价指标上排名第3。对于图像“Infrared4-Visible4”,其在所有评价指标上都是最优。与DWT、CVT、DTCWT、NSCT-DAPCNN和LATLRR 5种方法相比,本文方法在所有客观评价指标上均为最优的。在此,与NSDTST、GTF和MSVD 3种方法相比,本文方法在EI和QCV评价指标上是最优,偶尔在某一幅测试图中出现MI或STD或QNCIE评价指标没有达到最优值的情况;然而,这3种方法在主观评价中均有不同程度的噪声和模糊现象出现,所产生的视觉效果不符合人类视觉感知。整体上讲,与这8种方法相比,本文方法具有更好的融合效果。

为了更直观地分析本文方法在客观评价指标上的优越性,使用统计折线图(图10)进一步分析单个客观评价指标。图10(a)中本文方法在“Un camp” “Octec” “Infrared4-Visible4”3幅图中对应的MI最大,说明本文方法可以从这3幅图像的原始图中提取更多信息到融合图中。图10(b)中本文方法在“Octec” “Kayak” “Infrared4-Visible4”3幅图中对应的QNCIE最大,这说明相对于这3幅图像,本文方法的融合图与原始图之间的非线性关联度最大。图10(c)中本文方法的IE均高于其他8种方法,这说明本文方法产生的融合图像包含了尽可能多的输入图像的原始信息。图10(d)中本文方法的STD在“Infrared4-Visible4”图像中达到最大值,在“Un camp” “Octec” “Kayak”3幅图中,本文算法的STD值略低于NSDTST算法,在“Steamboat”图像中,本文算法的STD值略低于NSDTST和GTF算法,然而NSDTST和GTF算法的融合图均出现了噪声和模糊现象,因此,本文方法可以尽可能多地展示图像的灰度分散情况,且融合效果更好。从图10(e)可以看出,对于每一幅图,本文所提方法的QCV值最小,说明本文方法产生的融合图与原始图的差异最小,融合效果最好。

图 10. 不同客观评价指标的统计折线图

Fig. 10. Statistical polygonal images of different objective evaluation indicators

下载图片 查看所有图片

上述分析基于客观评价指标分析所提融合方法的优势。除此之外,本文选择2幅测试图像,并将其原始红外与可见光图像以及融合图像的三维数据图作比较,以此来进一步说明所提方法对图像信息融合的效果,如图11图12所示。在这2幅图中,分别按红外图、可见光图和融合图的顺序进行排列。其中XY轴表示像素位置,Z轴表示像素灰度值。在每幅图中可以观察到融合图像的数据图包含了红外与可见光图像的相关信息,例如在图11的框图处,以及图12的框图处,均可很明显地观察到红外图像目标信息与可见光图像背景信息融合到一起。因此,综合图10~12的研究结果,发现本文所提方法无论是在客观指标还是在整体性能上均具有较好的融合效果。

图 11. “Octec”的三维数据图

Fig. 11. Three-dimensional data images of “Octec”

下载图片 查看所有图片

图 12. “Infrared4-Visible4”的三维数据图

Fig. 12. Three-dimensional data images of “Infrared4-Visible4”

下载图片 查看所有图片

4.3 运行时间比较

表3中给出了本文方法与其他8种方法的运行时间,由表3可知,本文方法的运行时间优于NSCT-DAPCNN、 NSDTST和 LATLRR这3种方法,排名第6。由于混合多尺度分解和DAPCNN融合规则的实现相对耗时,本文方法的运行时间要多于其他5种方法。为了得到好的融合效果,并使其具有更高的质量和更广泛的应用价值,增加运行时间的代价是值得的。

表 3. 所提方法与其他8中方法的运行时间

Table 3. Running-time of eight other methods and proposed method

ImagesDWTCVTDTCWTNSCT-DAPCNNNSDTSTLATLRRGTFMSVDours
Un camp0.67072.16430.540841.7589101.5510227.67681.52590.164519.0259 (6)
Octec0.29241.83120.4142139.7033326.4207218.30827.80890.508758.0978 (6)
Steamboat0.28561.85110.4191118.7886267.4719251.77167.13310.435549.8169 (6)
Kayak0.27771.85180.3950117.9741257.4367245.73366.29760.610449.4241 (6)
Infrare4-Visible40.30541.88400.411527.812067.3537220.71371.12740.265311.6429 (6)

查看所有表

5 结论

提出了一种基于滚动导向滤波的混合多尺度图像融合算法,使用文中所提出的基于滚动导向滤波的混合多尺度分解方法将红外图像与可见光图像分解到不同的尺度层, 再选用不同的融合规则对不同尺度层进行融合, 最后使用逆混合多尺度分解方法得到最终的融合图像。实验结果表明,无论是在主观分析还是在客观分析,所提方法相比于其他方法均能够得到更好的融合效果, 且融合结果更符合人类的视觉感知。

参考文献

[1] Xu H, Wang Y, Wu Y J, et al. Infrared and multi-type images fusion algorithm based on contrast pyramid transform[J]. Infrared Physics & Technology, 2016, 78: 133-146.

[2] Daubechies I. The wavelet transform, time-frequency localization and signal analysis[J]. IEEE Transactions on Information Theory, 1990, 36(5): 961-1005.

[3] Li H, Manjunath B S, Mitra S K. Multisensor image fusion using the wavelet transform[J]. Graphical Models and Image Processing, 1995, 57(3): 235-245.

[4] 武治国, 王延杰. 一种基于边缘的曲波变换图像融合方法[J]. 光学技术, 2009, 35(5): 682-685, 690.

    Wu Z G, Wang Y J. Image fusion algorithm using curvelet transform based on the edge detection[J]. Optical Technique, 2009, 35(5): 682-685, 690.

[5] CaiW, LiM, Li XY. Infrared and visible image fusion scheme based on contourlet transform[C]∥2009 Fifth International Conference on Image and Graphics, September 20-23, 2009, Xi'an, Shaanxi, China. New York: IEEE, 2009: 516- 520.

[6] Aishwarya N, Bennila Thangammal C. Visible and infrared image fusion using DTCWT and adaptive combined clustered dictionary[J]. Infrared Physics & Technology, 2018, 93: 300-309.

[7] Lewis J J. O'Callaghan R J, Nikolov S G, et al. Pixel- and region-based image fusion with complex wavelets[J]. Information Fusion, 2007, 8(2): 119-130.

[8] Burt P J, Adelson E H. The Laplacian pyramid as a compact image code[J]. IEEE Transactions on Communications, 1983, 31(4): 532-540.

[9] Petrovic V S, Xydeas C S. Gradient-based multiresolution image fusion[J]. IEEE Transactions on Image Processing, 2004, 13(2): 228-237.

[10] Toet A. Image fusion by a ratio of low-pass pyramid[J]. Pattern Recognition Letters, 1989, 9(4): 245-253.

[11] Adu J H, Gan J H, Wang Y, et al. Image fusion based on nonsubsampled contourlet transform for infrared and visible light image[J]. Infrared Physics & Technology, 2013, 61: 94-100.

[12] 吴一全, 陶飞翔. 改进投影梯度NMF的NSST域多光谱与全色图像融合[J]. 光学学报, 2015, 35(4): 0410005.

    Wu Y Q, Tao F X. Multispectral and panchromatic image fusion based on improved projected gradient NMF in NSST domain[J]. Acta Optica Sinica, 2015, 35(4): 0410005.

[13] Zhou Z Q, Wang B, Li S, et al. Perceptual fusion of infrared and visible images through a hybrid multi-scale decomposition with Gaussian and bilateral filters[J]. Information Fusion, 2016, 30: 15-26.

[14] 江泽涛, 吴辉, 周哓玲. 基于改进引导滤波和双通道脉冲发放皮层模型的红外与可见光图像融合算法[J]. 光学学报, 2018, 38(2): 0210002.

    Jiang Z T, Wu H, Zhou X L. Infrared and visible image fusion algorithm based on improved guided filtering and dual-channel spiking cortical model[J]. Acta Optica Sinica, 2018, 38(2): 0210002.

[15] ZhangQ, Shen XY, XuL, et al. Rolling guidance filter[M] ∥Zhang Q, Shen X Y, Xu L, et al. Computer vision-ECCV 2014. Lecture notes in computer science. Cham: Springer, 2014, 8691: 815- 830.

[16] Cheng B Y, Jin L X, Li G N. Adaptive fusion framework of infrared and visual image using saliency detection and improved dual-channel PCNN in the LNSST domain[J]. Infrared Physics & Technology, 2018, 92: 30-43.

[17] Wang J J, Li Q, Jia Z H, et al. A novel multi-focus image fusion method using PCNN in nonsubsampled contourlet transform domain[J]. Optik, 2015, 126(20): 2508-2511.

[18] Ma J L, Zhou Z Q, Wang B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]. Infrared Physics & Technology, 2017, 82: 8-17.

[19] Li S T, Yang B, Hu J W. Performance comparison of different multi-resolution transforms for image fusion[J]. Information Fusion, 2011, 12(2): 74-84.

[20] Nencini F, Garzelli A, Baronti S, et al. Remote sensing image fusion using the curvelet transform[J]. Information Fusion, 2007, 8(2): 143-156.

[21] SruthyS, ParameswaranL, Sasi AP. Image fusion technique using DT-CWT[C]∥2013 International Mutli-Conference on Automation, Computing, Communication, Control and Compressed Sensing (IMac4s), March 22-23, 2013, Kottayam, India. New York: IEEE, 2013: 160- 164.

[22] Zhang B H, Lu X Q, Jia W T. A multi-focus image fusion algorithm based on an improved dual-channel PCNN in NSCT domain[J]. Optik, 2013, 124(20): 4104-4109.

[23] Yin M, Duan P H, Liu W, et al. A novel infrared and visible image fusion algorithm based on shift-invariant dual-tree complex shearlet transform and sparse representation[J]. Neurocomputing, 2017, 226: 182-191.

[24] ( 2018-12-18)[2018-12-24].https:∥arxiv.org/abs/1804.08992?context=cs.

    LiH, Wu XJ. Infrared and visible image fusion using latent low-rank representation[EB/OL].

[25] Ma J Y, Chen C, Li C, et al. Infrared and visible image fusion via gradient transfer and total variation minimization[J]. Information Fusion, 2016, 31: 100-109.

[26] Naidu V P S. Image fusion technique using multi-resolution singular value decomposition[J]. Defence Science Journal, 2011, 61(5): 479-484.

[27] Qu G H, Zhang D L, Yan P F. Information measure for performance of image fusion[J]. Electronics Letters, 2002, 38(7): 313-315.

[28] 冯欣, 曾周末, 封皓, 等. 基于小波信息熵的分布式振动传感系统的扰动评价方法[J]. 光学学报, 2013, 33(11): 1106005.

    Feng X, Zeng Z M, Feng H, et al. A method for evaluating the disturbance in distributed vibration sensor based on wavelet information entropy[J]. Acta Optica Sinica, 2013, 33(11): 1106005.

[29] Balasubramaniam P, Ananthi V P. Image fusion using intuitionistic fuzzy sets[J]. Information Fusion, 2014, 20: 21-30.

[30] Wang H D, Yao X. Objective reduction based on nonlinear correlation information entropy[J]. Soft Computing, 2016, 20(6): 2393-2407.

[31] Chen H, Varshney P K. A human perception inspired quality metric for image fusion based on regional information[J]. Information Fusion, 2007, 8(2): 193-207.

赵程, 黄永东. 基于滚动导向滤波和混合多尺度分解的红外与可见光图像融合方法[J]. 激光与光电子学进展, 2019, 56(14): 141007. Cheng Zhao, Yongdong Huang. Infrared and Visible Image Fusion via Rolling Guidance Filtering and Hybrid Multi-Scale Decomposition[J]. Laser & Optoelectronics Progress, 2019, 56(14): 141007.

本文已被 7 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!