液晶与显示, 2023, 38 (4): 524, 网络出版: 2023-04-25  

结合SML与差分图像的多聚焦图像融合算法

Multi-focus image fusion algorithm based on SML and difference image
作者单位
广东工业大学 信息工程学院,广东 广州 510006
摘要
针对传统多聚焦图像融合算法中融合边缘出现模糊、伪影等问题,提出了一种结合改进拉普拉斯能量和(SML)与差分图像的多聚焦图像融合算法。首先,为了提取源图像的聚焦特征信息,分别通过SML和滤波差分进行聚焦度量,再采用引导滤波获得更多的细节特征;接着,利用像素最大值规则生成初始融合决策图,再对初始融合决策图进行小区域去除消除因聚焦和散焦区域相似造成的噪点,并对融合决策图进行不一致处理,获得更精确的聚焦区域;最后,由逐像素加权平均规则,得到融合图像。实验结果表明,所提出的算法在主观视觉效果和客观评价指标上均优于对比算法,互信息、特征互信息、图像梯度特征在彩色图像上分别提高了0.17%、0.38%和0.11%,在灰度图像上分别提高了0.7%、0.69%和0.33%,并且平均运行时间少于0.5 s,具有较高的计算效率。此外,该算法能够较好地保留源图像信息的完整性,融合图像边缘清晰、无伪影。
Abstract
Aiming at the problems of edge blurring and artifacts in traditional multi-focus image fusion algorithm, a multi-focus image fusion algorithm based on sum-modified-Laplacian (SML) and difference image is proposed. Firstly, in order to extract the focus feature information of source images, the focus measurement is performed by SML and difference operation between filtered images and source images respectively, and the guided filtering is adopted to obtain more detailed features. Then, the initial fusion decision map is generated by using pixel-wise maximum rule, the small area removal strategy is performed to eliminate the noise caused by the similarity of focus and defocus areas, and inconsistency processing is used to generated final decision map to obtain a more accurate focus region. Finally, the fused image is obtained by the pixel-by-pixel weighted average rule. Experimental results indicate that the proposed algorithm is superior to the comparison algorithm in both subjective visual effect and objective evaluation metrics. The mutual information, feature mutual information and image gradient features are improved by 0.17%, 0.38% and 0.11% respectively on color images. On grayscale images, the improvements are 0.7%, 0.86% and 0.47%, respectively. Furthermore, the average consuming time is less than 0.5 s with high computational efficiency. In addition, the algorithm can better retain the integrity of source image information, and the fusion image has clear edges without artifacts.

1 引言

由于光学系统景深的限制,很难将处于不同景深的目标都清晰地显示在所拍摄的图像上。多聚焦图像融合是解决这一问题的有效途径。多聚焦图像融合将来自同一场景不同聚焦区域的两幅或多幅图像进行融合,从而产生一幅全清晰的图像,融合后的图像与任何一幅输入图像相比都具有更大的信息量。多聚焦图像融合多应用于图像处理、视觉感知和计算机视觉等领域1

多聚焦图像融合算法可以大致分为基于空间域的算法以及基于变换域的算法。其中,基于变换域的方法包括3个阶段:图像变换、系数融合以及逆变换2。在此类算法中,常用的有基于多尺度分解下的融合方法例如金字塔变换3、小波变换4、非下采样Shearlet变换5等,以及不同于传统变换域方法的基于稀疏表示(SR)6和基于梯度域(GD)7的方法。基于变换域的方法需要进行融合图像逆变换,计算复杂度高,而基于空间域的方法直接对源图像进行融合,易于实现图像融合的实时性。这类方法可以大致分为3种:基于块的方法、基于区域的方法以及基于像素的方法8。在基于块的方法中,首先将源图像划分成大小相等的块,然后对每一块进行聚焦度量。然而块的大小的划分影响融合结果,容易产生块效应。在基于区域的算法中,利用分割技术对源图像进行区域划分,再计算每一个区域的清晰度。但这一类算法的性能受到分割技术的限制,融合图像易产生伪影。为此,Zhang等人9提出了一种基于边界的多聚焦图像融合算法,将聚焦区域的检测任务视为从源图像中找到聚焦区域和散焦区域之间的边界,根据找到的边界,生成具有良好视觉效果的融合图像,但其中的分水岭算法对于尖锐的梯度敏感限制了该算法的性能。Li等人10提出一种基于引导滤波的多聚焦图像融合算法,能够保存多个输入图像的原始信息和互补信息,但由于不能够正确识别出图像的聚焦区域,造成融合图像边缘模糊。

针对上述算法出现的问题,本文提出一种结合改进拉普拉斯能量和(SML)和差分图像的多聚焦图像融合算法。SML在处理图像边缘和纹理细节上有较大的优势,但不能充分利用图像的局部信息。针对这个不足,本文在进行SML聚焦检测后再利用引导滤波,得到更精确的聚焦度量结果。由于单一的SML聚焦检测并不能够识别图像的全部显著特征,因此结合差分图像算法对源图像进行聚焦度量。通过两种方法结合能够提取更多的图像特征,并通过对融合决策图进行不一致性处理,能够较好地区分图像边界周围的细节信息。实验证明,该算法能够保留图像的边缘、纹理等显著特征,并在边界融合上具有更好的视觉效果,融合时间较短,保证了算法的实时性。

2 所提出方法

本文算法流程如图1所示,融合过程主要分为3个步骤。首先,利用SML和滤波差分对源图像分别进行聚焦区域检测,得到聚焦特征图像;接着,对聚焦特征图像取绝对值最大得到初始融合决策图,通过小区域去除策略消除噪点,并对聚焦区域进行不一致处理,得到最终融合决策图;最后,根据决策图对源图像逐像素加权平均,得到融合图像。

图 1. 融合算法框架

Fig. 1. Framework of image fusion algorithm

下载图片 查看所有图片

2.1 聚焦区域检测

聚焦度量用于评估局部像素锐度。对于一幅多聚焦图像,聚焦区域比散焦区域更尖锐,聚焦度量的最大值意味着产生最佳的聚焦图像,因此,在多聚焦融合领域,源图像的聚焦区域必须产生最大的聚焦度量值,散焦区域必须产生最小的聚焦度量值11。在这种情况下,正确检测源图像的聚焦区域非常重要。本节提出的聚焦区域检测主要包括SML聚焦度量和差分图像两部分。

2.1.1 SML聚焦度量

在空间域中常用的聚焦度量方法有方差(Variance)、空间频率(Spatial frequency,SF)、梯度能量和(Energy of gradient,EOG)、改进的拉普拉斯能量和(SML)、双边梯度强度法(Tenengrad)等12。文献[13]对不同聚焦度量方法区分清晰图像块和模糊图像块的能力进行评估,实验结果表明,SML能够代替SF作为图像清晰度的测量,并且相比于其他方法提供了一种更好的相邻像素的显著相关性。故本研究最终选择SML用来实现对源图像的聚焦度量,其定义如下:

MLx,y=2Ix,y-Ix-step,y-Ix+step,y+2Ix,y-Ix,y-step-Ix,y+step

式(1)中:ML为改进的拉普拉斯算子;Ix,y为源图像的像素值;step是像素间的可变间距,受图像噪声和亮度变化影响,噪声越小,亮度变化越小,则step就越小,这里step=1

SMLx,y=p=-PPq=-QQMLx+p,y+q

其中:SML为点x,y处的聚焦度量,(2P+1)×(2Q+1)为聚焦度量的窗口大小。

首先利用式(3)式(4)对源图像I1图2(a1)虚线左侧为散焦区域,右侧为聚焦区域)和I2图2(a2))进行聚焦度量,得到聚焦图S1S2,如图2(b)所示。

S1x,y=SMLI1x,yS2x,y=SMLI2x,y .

图 2. SML聚焦检测结果图。(a)源图像;(b)SML聚焦图;(c)引导滤波优化结果。

Fig. 2. Results of SML.(a)Source images;(b)Focus maps of SML;(c)Refined maps of SML by guided filter.

下载图片 查看所有图片

为了解决SML不能充分利用图像局部信息的问题,采用复杂低并且具有局部特征保持特性的引导滤波器。当引导图像和输入图像不同时,高频信息在引导图像中直接输出,使得输入图像拥有引导图像的部分特征14

He等人15提出了具有保边平滑特性的引导滤波器,其关键在于构造引导图像I和滤波输出图像Q之间的局部线性模型,具体公式如式(5)所示:

Qi=akIi+bk , iωk

其中:ik为像素索引;ωk是以像素k为中心、r为半径的一个局部窗口;akbk为线性系数,在ωk中为常数。P为输出图像Q受到噪声等污染后退化的图像,通过最小化PQ之间的误差E,可求解出akbk的值。

Eak,bk=iωkakIi+bk-Pi2+εak2

式中:ε>0,为正则化参数,其作用是防止ak的值过大。

使用引导滤波后得到的聚焦图像为MS1MS2,如图2(c)所示,该过程如式(7)式(8)所示:

MS1x,y=Gr,εI1x,y,S1x,y,r,εMS2x,y=Gr,εI2x,y,S2x,y,r,ε

其中:Gr,ε表示引导滤波运算,ε为使用引导滤波后的模糊程度,值越大,平滑效果越明显。本文设置r=5,ε=0.3

2.1.2 差分图像

在多聚焦图像中,聚焦区域比散焦区域包含更多的显著特征信息,单纯利用SML聚焦度量无法有效识别图像的显著特征,所融合生成的图像质量不佳,因此在利用SML进行聚焦检测的同时,本文结合滤波差分16对源图像进行聚焦检测。

首先利用均值滤波对源图像I1I2进行滤波处理,过程如式(9)式(10)所示:

A1x,y=I1x,y*fmA2x,y=I2x,y*fm .

其中:fm为均值滤波器,*表示卷积操作。

再将滤波后的图像A1A2与源图像作差分取其绝对值,提取源图像在像素点x,y的高频信息D1D2,如图3(b)所示,该过程如式(11)式(12)所示:

图 3. 差分图像聚焦检测结果图。(a)源图像;(b)差分图像;(c)引导滤波优化结果。

Fig. 3. Results of difference image.(a)Source images;(b)Difference images;(c)Refined maps of difference image by guided filter.

下载图片 查看所有图片

D1x,y=I1x,y-A1x,yD2x,y=I2x,y-A2x,y .

引导滤波通过计算引导图像的内容进行滤波输出,能够较好地保持边缘、纹理等图片信息15。因此,在滤波差分的基础上,本文采用引导滤波得到聚焦图像MD1MD2,如图3(c)所示,获得了更多的高频信息。该过程如式(13)式(14)所示:

MD1x,y=Gr,εI1x,y,D1x,y,r,εMD2x,y=Gr,εI2x,y,D2x,y,r,ε

其中:Gr,ε表示对滤波差分后的图像D1D2进行引导滤波运算,引导滤波参数设置与SML聚焦度量的引导滤波参数设置相同。

2.2 融合决策图生成

2.2.1 初始融合决策图生成

通过上述聚焦区域检测,分别计算得到源图像I1I2在两种聚焦度量方法的聚焦度映射图MS1MS2MD1MD2。根据式(15)式(16)生成初始决策图ISID,如图4(a)~(b)所示。

图 4. 初始决策图生成过程。(a)SML的初始决策图;(b)差分图像的初始决策图;(c)图4(a)经小区域去除后的结果;(d)图4(b)小区域去除后的结果。

Fig. 4. Generation process of initial decision map.(a)Initial decision map of SML;(b)Initial decision map of difference image;(c)Result of Fig.4(a)with small region removal strategy;(d)Result of Fig.4(b)with small region removal strategy.

下载图片 查看所有图片

ISx,y=1,  if  MS1x,y>MS2x,y0,  otherwiseIDx,y=1,  if  MD1x,y>MD2x,y0,  otherwise .

初始决策图ISID中还有一些没有检测出的噪点(图4红色框内),使得黑色背景中包含白色像素,而在白色背景中也同样还有黑色像素,其原因在于,在没有高频信息的区域下聚焦和散焦的状态是相似的。因此,对初始决策图分别利用小区域去除策略来解决这些问题,其计算公式如式(17)式(18)所示:

FSx,y=bwareaopenISx,y,SAREAFDx,y=bwareaopenIDx,y,SAREA .

Bwareaopen函数用于删除二值图像中面积小于SAREA的对象,其中SAREA=R×H×WR是比率因子,H为源图像高度,W为源图像宽度。R的值决定了被删除的区域大小,这里R=0.01。FSFD分别为初始决策图ISID采用小区域去除策略校正错误检测像素后的图像,结果如图4(c)~(d)所示。

2.2.2 决策图优化

基于空间域的多聚焦图像融合算法在边界处理上常出现块效应或边界模糊等问题,文献[17]在聚焦区域检测时将两种聚焦度量方法相结合得到粗略的聚焦图像,但不能很好地区分图像边界周围的细节信息,造成融合边缘模糊。因此本文借助文献[18]的方法在生成融合决策图后,再通过不一致处理对融合决策图进行校正,使得对边缘信息处理更为准确,能够更好地区分聚焦区域和散焦区域。

首先,对融合决策图FSFD进行不一致检查,过程如式(19)所示:

FIx,y=1,   if  FSx,yFDx,y0,   otherwise .

接着,对于所有满足FI(x,y)=1的不一致区域,选择以(i,j)为中心的区域,记为RSRD,计算公式如式(20)所示:

FSi,j=1-FSi,j,   if  stdRS0FDi,j=1-FDi,j,   otherwise

其中std表示标准差运算。

最后,得到最终决策图FC图5(a)所示,过程如式(21)所示:

FCx,y=FSx,y=FDx,y .

图 5. 最终决策图生成和图像融合结果。(a)最终决策图;(b)融合图像。

Fig. 5. Generation process of final decision map and result of image fusion.(a)Final decision map;(b)Fused image.

下载图片 查看所有图片

2.3 图像融合

基于最终决策图FC利用像素加权平均规则进行融合,得到融合图像F,结果如图5(b)所示,其表达式为:

Fx,y=FCx,yI1x,y+1-FCx,yI2x,y .

3 实验结果与分析

3.1 实验设置

为了评估所提出算法的性能,选取公共数据集中的30对多聚焦图像作为测试图像,如图6所示,其中20对为彩色图像来自Lytro多聚焦数据集,其余10对为灰度图像,分别从主观视觉效果和客观定量评估对融合结果进行分析。实验计算机配置为:Intel(R)Core(TM)i7-5500U CPU,实验平台为Matlab2020a。将所提出算法与DSIFT19、CNN20、SIGPRO21、FGF22、CDL23等目前具有代表性的5种方法进行了对比实验,对比方法中的参数设置均与各对应文献保持一致。

图 6. 实验中使用的数据集图像

Fig. 6. Images of dataset used in experiment

下载图片 查看所有图片

3.2 聚焦度量评估

为了验证所提出的聚焦度量方法的有效性,选择7组经典且具有参考图像的多聚焦图像,将所提出的SML结合引导滤波的聚焦度量方法与EOG24、Tenengrad25、SF26、Variance、SML27等5种经典聚焦度量方法进行实验对比。利用融合图像与参考图像间的结构相似性(SSIM)值作为聚焦度量评估指标,衡量不同聚焦度量方法区分聚焦区域和散焦区域的能力。具体过程如下:

(1)计算多聚焦图像AB的聚焦程度,分别用MAMB表示。

(2)根据式(23)得到源图像的决策图:

Mx,y=1,   if  MAx,y>MBx,y0,   otherwise .

(3)根据决策图对源图像进行加权平均得到融合图像。

(4)计算融合图像与参考图像之间的SSIM值。

不同聚焦度量方法融合以图像“lab”为示例,结果如图7所示。从图7可以看出,所提出的方法得到的融合图像获得了较高的融合质量,能够较好地处理图像边缘信息,边缘轮廓也更加清晰。

图 7. 不同聚焦度量方法融合“lab”图像

Fig. 7. Fusion results of“lab”image by different focus measures

下载图片 查看所有图片

表1为不同聚焦度量方法下的SSIM值,其中最好的结果用粗体显示。由表1可以看出,所提出的聚焦度量方法在7组图像对中均取得更优的结果,这进一步证明了所提出聚焦度量方法的有效性。

表 1. 不同聚焦度量方法下7组图像的SSIM值

Table 1. SSIM values of 7 groups by different focus measures

EOGTenengradSFVarianceSMLProposed
book0.971 30.989 90.971 10.977 50.984 90.996 2
Jug0.955 60.978 80.955 50.982 10.945 00.988 0
rose0.905 80.946 90.905 40.895 90.945 50.989 4
clock0.957 00.977 80.957 20.965 10.969 50.982 0
disk0.938 80.963 30.9380.967 50.960 40.983 7
lab0.970 00.982 10.9700.989 40.978 70.993 5
pepsi0.943 70.964 70.944 10.974 30.945 30.980 4

查看所有表

3.3 聚焦区域检测评估

将一组彩色图像和一组灰度图像作为测试图像,用以比较不同算法区分聚焦区域和散焦区域的性能,结果如图8所示。由图8可以看出,SIGPRO方法和CDL方法检测到的聚焦区域不够准确,将聚焦区域的高频信息错误识别成散焦区域内的像素;DSIFT方法受到背景区域梯度信息的影响,分割出的聚焦区域边缘处理比较粗糙;虽然CNN和FGF方法能够获得较好的融合结果,但融合边缘模糊。相较之下,所提出的方法通过结合两种不同聚焦度量算法对边缘信息处理更为准确,能够准确区分聚焦区域和散焦区域,融合边界轮廓更为清晰完整。

图 8. 不同聚焦检测方法所得到的融合结果和决策图

Fig. 8. Fusion result and decision map of different methods

下载图片 查看所有图片

3.4 主观视觉评价

在多聚焦图像融合领域,良好的视觉效果意味着有效的融合。实验选取1对彩色多聚焦图像“Diver”和1对灰度图像“Book”作为示例进行视觉评估,实验结果分别如图9图10所示。

图 9. “Diver”融合图像与残差图像

Fig. 9. Fusion results and residual images for “Diver” image

下载图片 查看所有图片

图 10. “Book”融合图像与残差图像

Fig. 10. Fusion results and residual images for “Book” image

下载图片 查看所有图片

图9给出了不同融合方法下“Diver”彩色图像的融合结果。为了更直观地区分不同算法的融合性能,在融合结果下方列出了融合图像与左聚焦源图像进行差分得到的差值图像以及部分标记区域的放大图像。由图9融合图像可以看出,CNN方法和FGF方法在潜水器上方有一块模糊区域,在镜框边缘、潜水器边缘存在不同程度的模糊,影响整体图像的融合效果;DSIFT方法在潜水器边缘融合效果不佳,在潜水器上方较源图像有轻微凹陷,整体看起来比较突兀;SIGPRO和CDL等方法的整体融合效果较好,但在图像边缘存在轻微模糊现象。此外,由图9的差值图像以及部分标记区域的放大图像还可以看出,FGF、CDL等方法存在不同程度的信息残余(箭头指出),即源图像中散焦部分像素被转移到其融合图像中;DSIFT、CNN、SIGPRO、CDL以及本文提出的算法则没有产生信息残余。与其他方法相比,本文提出的方法融合效果较好,并未出现图像模糊、边缘伪影等问题,在图像背景部分和边界区域附近几乎没有信息残留,具有更良好的视觉效果。

不同融合方法在灰度图像“Book”的融合结果如图10所示。为了更好地对比不同算法的融合性能,在融合结果下方列出了融合图像与左聚焦源图像进行差分得到的差值图像以及部分标记区域的放大图像。通过观察图10的融合图像可知,SIGPRO、FGF、CDL等方法的融合图像在书页处因为没能够正确识别出清晰区域,导致在融合结果图中出现一小块模糊区域;DSIFT方法的融合图像没能很好地进行图像边缘配准,在图中大写字母O处出现边缘缺失,损失了部分边缘梯度信息;而CNN和本文提出的方法的整体融合效果较好。在图10的差值图像以及部分标记区域的放大图像中,SIGPRO、FGF、CNN等方法在书页边缘存在错误检测像素,造成融合图像边缘模糊和不自然;DSIFT和本文提出的算法能够有效检测聚焦区域,在残差图像左侧像素值为0。这表明本文所提出的方法能够较好地保留源图像中的有用信息,融合边界更完整清晰,同时有效避免了伪影问题。

3.5 客观定量评价

为了更好地对融合图像进行全面评估,除了通过主观视觉评估之外,还采用客观评价指标对融合结果进行定量分析。不同的多聚焦图像融合算法在不同的评估指标上可能有很大的差异,为了减少单个指标的不完备性,使用多个指标来评估融合图像质量。本文选取7个常用的融合质量评估指标来广泛地评估其融合效果28,将这7个指标分为4类,分别是基于信息论的QNCIEQMIQFMI;基于图像特征的QGQM;基于结构相似性的QY;以及基于人类感知的QCB。选取的所有指标均为数值越大,融合效果越好。

表2表3为不同融合算法在彩色数据集和灰度数据集上的客观性能。对于每种算法,分别取两个数据集上所有图像对的指标平均值,并将每个指标平均值中取得最优的算法进行字体加粗。

表 2. 不同方法下20组彩色图像的平均评价指标

Table 2. Average evaluation metrics of 20 groups of color images under difference methods

QNCIEQMIQFMIQGQMQYQCB

DSIFT

CNN

SIGPRO

FGF

CDL

Proposed

0.845 4

0.842 9

0.844 8

0.843 0

0.844 7

0.845 6

1.187 6

1.151 2

1.178 8

1.132 7

1.177 5

1.189 7

0.608 0

0.605 2

0.607 5

0.601 6

0.595 1

0.610 3

0.726 5

0.725 0

0.726 1

0.720 7

0.707 9

0.727 3

2.640 4

2.396 5

2.592 5

2.172 6

2.642 6

2.641 2

0.987 6

0.987 0

0.987 8

0.985 5

0.975 4

0.988 7

0.809 3

0.808 3

0.810 4

0.799 9

0.790 1

0.809 5

查看所有表

表 3. 不同方法下10组灰度图像的平均评价指标

Table 3. Average evaluation metrics of 10 groups of gray images under difference methods

QNCIEQMIQFMIQGQMQYQCB

DSIFT

CNN

SIGPRO

FGF

CDL

Proposed

0.848 3

0.847 1

0.848 1

0.846 0

0.848 0

0.849 0

1.251 3

1.231 0

1.244 5

1.211 2

1.247 7

1.260 1

0.656 3

0.660 5

0.657 5

0.659 4

0.647 4

0.665 1

0.719 8

0.723 5

0.719 7

0.722 5

0.710 1

0.725 9

2.524 7

2.428 4

2.515 6

2.302 2

2.541 5

2.539 4

0.972 1

0.981 8

0.979 5

0.980 5

0.962 5

0.980 4

0.797 3

0.801 9

0.795 0

0.797 6

0.774 8

0.798 0

查看所有表

表2表3可以看出,在彩色图像中,本文所提出方法的QNCIEQMIQFMIQGQY均优于其他5种算法,仅在QMQCB略低于其他算法。在灰度图像中,本文所提出方法的QNCIEQMIQFMIQG均优于其他5种算法,仅在QMQYQCB略低于其他算法。即本文所提出的方法在基于信息论、基于图像特征、基于结构相似性的指标上都基本优于其他算法,在基于人类特征感知中的指标平均值也仅以微小差距低于其他方法。综合上述分析,在客观评价指标上所提出方法的性能优于其他方法。

实验结果表明,本文所提出方法在主观和客观评价获得了一致的结果,较好地保留了源图像的信息量,融合图像清晰程度较高,能够有效地提取边缘信息,总体取得了较好的融合效果。

3.6 时间成本

本节主要是计算出在灰度和彩色图像上不同算法的平均时间,比较不同融合算法在时间成本上的差异,具体数值如表4所示,将运行时间最短的算法进行字体加粗。

表 4. 不同融合算法计算的平均时间

Table 4. Average consuming time calculated by different algorithms

DSIFTCNNSIGPROFGFCDLProposed
Color images6.745 4165.177 826.832 213.913 82.649 70.395 9
Grayscale images11.911 1163.302 810.212 54.553 02.293 50.462 1

查看所有表

表4可以看出,不同算法在彩色和灰度图像上耗时不同,本文所提出的方法与其他算法相比,不论是在彩色图像还是在灰度图像上,运行时间都是最短,并且运行时间小于0.5 s,能够保证算法的融合实时性。

4 结论

根据聚焦区域检测方法在多聚焦图像融合算法上的优势,提出了一种基于SML和差分图像的多聚焦图像算法。通过结合两种聚焦检测方法,能够更准确识别多聚焦图像的聚焦区域,生成高质量的融合图像。不同图像得到的仿真实验结果表明,所提出的方法在主观与客观评估指标都表现出较好的融合结果,互信息QMI、特征互信息QFMI和图像梯度特征QG在彩色图像上分别提高了0.17%、0.38%和0.11%,在灰度图像上分别提高了0.7%、0.69%和0.33%,并且融合所需的时间最短。此外,该方法能够减少细节信息和边缘信息的丢失,在聚焦区域衔接处无伪影产生,并且运行时间较短,证明了所提出算法的有效性和实时性。

参考文献

[1] LI S T, KANG X D, FANG L Y, et al. Pixel-level image fusion: a survey of the state of the art[J]. Information Fusion, 2017, 33: 100-112.

[2] WANG Z, LI X, DUAN H, et al. Multifocus image fusion using convolutional neural networks in the discrete wavelet transform domain[J]. Multimedia Tools and Applications, 2019, 78(24): 34483-34512.

[3] 赵迪迪, 季轶群. 区域方差和点锐度相结合的多聚焦图像融合[J]. 液晶与显示, 2019, 34(3): 278-282.

    ZHAO D D, JI Y Q. Multi-focus image fusion combining regional variance and EAV[J]. Chinese Journal of Liquid Crystals and Displays, 2019, 34(3): 278-282.

[4] TIAN J, CHEN L. Adaptive multi-focus image fusion using a wavelet-based statistical sharpness measure[J]. Signal Processing, 2012, 92(9): 2137-2146.

[5] 陈贞, 邢笑雪. 基于非下采样Shearlet变换与压缩感知的图像融合[J]. 液晶与显示, 2015, 30(6): 1024-1031.

    CHEN Z, XING X X. Image fusion algorithm based on non-subsampled Shearlet transform and compressed sensing[J]. Chinese Journal of Liquid Crystals and Displays, 2015, 30(6): 1024-1031.

[6] YIN H P, Li Y X, CHAI Y, et al. A novel sparse-representation-based multi-focus image fusion approach[J]. Neurocomputing, 2016, 216: 216-229.

[7] ZHOU Z Q, LI S, WANG B. Multi-scale weighted gradient-based fusion for multi-focus images[J]. Information Fusion, 2014, 20: 60-72.

[8] BHAT S, KOUNDAL D. Multi-focus image fusion techniques: a survey[J]. Artificial Intelligence Review, 2021, 54(8): 5735-5787.

[9] ZHANG Y, BAI X Z, WANG T. Boundary finding based multi-focus image fusion through multi-scale morphological focus-measure[J]. Information Fusion, 2017, 35: 81-101.

[10] LI S T, KANG X D, HU J W. Image fusion with guided filtering[J]. IEEE Transactions on Image Processing, 2013, 22(7): 2864-2875.

[11] LI S T, KANG X D, HU J W, et al. Image matting for fusion of multi-focus images in dynamic scenes[J]. Information Fusion, 2013, 14(2): 147-162.

[12] LIU Y, WANG L, CHENG J, et al. Multi-focus image fusion: a survey of the state of the art[J]. Information Fusion, 2020, 64: 71-91.

[13] HUANG W, JING Z L. Evaluation of focus measures in multi-focus image fusion[J]. Pattern Recognition Letters, 2007, 28(4): 493-500.

[14] 成亚玲, 柏智, 谭爱平. 基于引导滤波和差分图像的多聚焦图像融合方法[J]. 计算机应用, 2021, 41(1): 220-224.

    CHENG Y L, BAI Z, TAN A P. Multi-focus image fusion method based on guided filtering and difference image[J]. Journal of Computer Applications, 2021, 41(1): 220-224.

[15] HE K M, SUN J, TANG X O. Guided image filtering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1397-1409.

[16] QIU X H, LI M, ZHANG L Q, et al. Guided filter-based multi-focus image fusion through focus region detection[J]. Signal Processing: Image Communication, 2019, 72: 35-46.

[17] TAN W, ZHOU H X, RONG S H, et al. Fusion of multi-focus images via a Gaussian curvature filter and synthetic focusing degree criterion[J]. Applied Optics, 2018, 57(35): 10092.

[18] WANG H M. Multi-focus image fusion algorithm based on focus detection in spatial and NSCT domain[J]. PLoS One, 2018, 13(9): e0204225.

[19] LIU Y, LIU S P, WANG Z F. Multi-focus image fusion with dense SIFT[J]. Information Fusion, 2015, 23: 139-155.

[20] LIU Y, CHEN X, PENG H, et al. Multi-focus image fusion with a deep convolutional neural network[J]. Information Fusion, 2017, 36: 191-207.

[21] LI X S, ZHOU F Q, TAN H S, et al. Multi-focus image fusion based on nonsubsampled contourlet transform and residual removal[J]. Signal Processing, 2021, 184: 108062.

[22] ZHOU F Q, LI X S, LI J, et al. Multifocus image fusion based on fast guided filter and focus pixels detection[J]. IEEE Access, 2019, 7: 50780-50796.

[23] VESHKIF G, OUZIRN, VOROBYOVS A. Image fusion using joint sparse representations and coupled dictionary learning [C]//2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Barcelona, Spain: IEEE, 2020: 8344-8348. 10.1109/icassp40776.2020.9054097

[24] MIAOQ G, WANGB S. A novel adaptive multi-focus image fusion algorithm based on PCNN and sharpness [C]//Proceedings of SPIE 5778, Sensors, and Command, Control, Communications, and Intelligence (C3I) Technologies for Homeland Security and Homeland Defense IV. Orlando, USA: SPIE, 2005: 704-712. 10.1117/12.603092

[25] TENENBAUMJ M. Accommodation in Computer Vision [M]. Ann Arbor: UMI, 1971.

[26] LI S T, KWOK J T, WANG Y N. Multifocus image fusion using artificial neural networks[J]. Pattern Recognition Letters, 2002, 23(8): 985-997.

[27] 屈小波, 闫敬文. 基于拉普拉斯能量和的循环平移尖锐频率化Contourlet域多聚焦图像融合方法[J]. 光学 精密工程, 2009, 17(5): 1203-1212.

    QU X B, YAN J W. Sum-modified-Laplacian-based multifocus image fusion method in cycle spinning sharp frequency localized contourlet transform domain[J]. Optics and Precision Engineering, 2009, 17(5): 1203-1212.

[28] LIU Z, BLASCH E, XUE Z Y, et al. Objective assessment of multiresolution image fusion algorithms for context enhancement in night vision: a comparative study[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(1): 94-109.

廖丽娜, 李伟彤, 项颖. 结合SML与差分图像的多聚焦图像融合算法[J]. 液晶与显示, 2023, 38(4): 524. Li-na LIAO, Wei-tong LI, Ying XIANG. Multi-focus image fusion algorithm based on SML and difference image[J]. Chinese Journal of Liquid Crystals and Displays, 2023, 38(4): 524.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!