结合滤波算子与双尺度分解的多聚焦图像融合 下载: 645次
1 引言
在数字摄影中,由于成像传感器所具有的局限性,光学镜头只能捕获到聚焦在局部场景中的图像,这也就意味着特定场景中的有效信息获取受限。为了解决常规图像采集传感器中光学镜头景深限制的问题,研究工作者们已经基于多焦点图像融合技术提出了众多可用于多焦点图像融合的算法,并且在计算机视觉和无人驾驶等[1-2]新兴科研领域发挥着重要的作用。围绕图像融合,现有的融合方法按处理方式的不同可分为两类:基于变换域和空间域的方法[3]。其中,基于变换域的方法,一般是按照分解、融合和重建这三个步骤,通过改变图像相关系数来实现图像的融合。在这种框架下,多位学者提出了一系列融合方法,主要包括小波变换、金字塔变换、 剪切波(NSCT)和轮廓波(NSST)的方法[4-7],以及有别于传统方法的基于稀疏表示(SR)[8]、主成分分析(PCA)[9]和脉冲耦合神经网络(PCNN)的方法[10-11]。虽然上述方法均可以产生较好的融合图像,但是在融合过程中并未充分考虑待融合图像在处理过程中可能出现的空间一致性问题,这使得融合图像会丢失一部分空间信息,并产生不同程度的失真。相较于变换域的方法,基于空间域的方法一般采用基于像素、块或区域处理的方法,直接输出对应像素的强度值,实现起来相对简单,并且可以保留大量的空间信息。传统方法主要包括基于方差、拉普拉斯能量(SML)[12]和空间频率(SF)的方法[13],但是在使用上述方法对源图像进行预处理时,由于对源图像中的噪声比较敏感,所以融合性能受到影响。而在过去的几年中,虽然也提出了基于多尺度形态学(MSM)[14]、梯度信息的加权[15]、边界提取[16]以及卷积神经网络(CNN)的方法[17-18],而且均取得了较好的融合效果,但是这些方法还是在对噪声的鲁棒性方面表现不佳;并且在提出的方法中,如基于卷积神经网络(CNN)的方法,良好的融合效果是以消耗大量的计算资源和时间成本来实现的,对计算机设备的硬件要求过高。
因此,针对上述问题,本文主要开展了以下相关研究工作: 1) 提出了一种基于滤波算子与双尺度混合的多聚焦图像融合算法; 2) 提出了一种新颖的基于高斯拉普拉斯算子(Log)滤波和双尺度分解的聚焦区域检测的方法; 3)提出的聚焦区域检测方法具有很强的抗噪声能力; 4)经过大量实验证明,本文算法在彩色和灰度图像上均有较好的表现,并且可以快速且高效地实现。
2 提出的方法
本研究将基于Log滤波器和双尺度分解的聚焦区域检测方法用于多焦点图像融合(LDMF),其原理如
2.1 聚焦区域检测
多焦点图像的检测,主要是基于聚焦区域的高频信息比散焦区域多这一特点来实现[19]。本节提出一种基于Log滤波和双尺度分解的新型聚焦区域检测方法,该方法主要包括对源图像的预处理和对差分图像的二次双尺度分解两部分。
2.1.1 图像的预处理
对比分析常见的经典滤波器的性能和时间成本后,本研究最终选择既可实现去噪又可达到较好边缘检测效果的Log滤波器,用来实现对源图像的预处理。该阶段主要包括去噪、边缘检测和边缘增强[20-21]三个步骤。首先是对源图像进行去噪处理,处理公式为
式中:f(i,j)为输入图像对应的二维函数;(i,j)为图像中的像素;x为x方向;y为y方向。当输入图像为彩色图像时,需要将其转换成灰度图像。
由于拉普拉斯算子对噪声敏感,为了尽可能减少噪声带来的影响,先对源图像进行平滑滤波处理,再由拉普拉斯算子实现图像的边缘检测和增强,对应的方程式为
式中:Gσ(i,j)为二维的高斯分布函数;σ为比例参数,σ值越小,平滑功能越集中,作用范围就越小,本研究默认σ=0.5。Log滤波器
为了得到最佳的平滑效果,使用在空域和频域都有良好性能的二维高斯滤波器,其在空间域中的表达式为
与源图像相比, Log滤波图像虽然已经将聚焦与散焦区域的边界信息粗略地分离出来,但是为了能得到更多有效的高频信息,本研究采用源图像与滤波图像进行绝对值差分计算,实现了高频信息的提取,表达式为
式中:
图 2. 预处理后的图像。(a)滤波后的图像;(b)滤波图像的二值图像;(c)差分图像
Fig. 2. Images after pretreatment. (a) Filtered images; (b) binary images of filtered image; (c) differential images
2.1.2 双尺度分解
对于双尺度分解,差分图像的显著聚焦区域可表示为
式中:s为待处理的差分图像;τ=0.0001为设定的阈值,表示平滑区域的焦点值;n=2,3,…;Q为像素值。通常聚焦度量的尺度会对聚焦结果产生一定的影响,并且仅采用单个尺度进行度量是无法正确识别出所有聚焦区域的[22]。因此,本研究通过利用一种可靠性更强的度量方法,仅使用两个尺度就可以获得一个很好的聚焦图。借助文献[ 21]基于结构的焦点度量方法生成初始焦点图,再根据图像结构的显著性特点,利用梯度协方差矩阵来实现图像的聚焦测量[23]。对于图像S(i,j),其对应T=(i,j)处的梯度协方差矩阵可定义为
式中:w为一个以T为中心的局部正方形窗口;T'为T的一阶偏导数。对 (8) 式使用高斯滤波器进行扩展得到多尺度表示,即
式中:*为卷积运算符;Gλ为高斯滤波矩阵,λ为标准差。为了得到局部的图像结构特征,对Gλ进行特征值分解变换,表达式为
式中:D1和D2为矩阵Gλ的特征值,V为正交矩阵。最后,基于结构的焦点度量可定义为
但是在实验过程中可以发现,双尺度分解后的图像在边缘和黑白像素区域上有着明显的区别,如
式中:ρ为权重值,0.5<ρ<1,目的是更好地保留小尺度聚焦图的边缘信息。
图 3. 双尺度分解与混合。 (a)(b)源图像;(c)小尺度聚焦图;(d)大尺度聚焦图;(e)初始决策图
Fig. 3. Double scale decomposition and mixing. (a)(b) Source image; (c) small-scale focusing diagram; (d) large-scale focusing diagram; (e) initial decision diagram
2.2 空间一致性验证
从
在实验中可以发现,若直接将经过小区域去除策略处理后的二值分割图作为最终决策图,并将其与源图像进行融合,聚焦区域和散焦区域的边界附近会存在一些影响融合图像质量的伪像。因此,借助引导滤波器[24,26]进一步将二值分割图细化处理。作为一种边缘保留滤波器,引导滤波器可以将引导图像的结构信息转换为输入图像的滤波结果,其中,将源图像用作引导图像,引导细化决策图滤波,表达式为
式中:FFD为最终融合决策图;
在引导滤波器的设计过程中需要设置两个自由参数: 局部窗口半径r和正则化因子ε,其对融合结果的影响在实验分析部分给出了量化的比较结果。
图 5. 引导滤波与融合的结果。(a)细化决策图;(b)细化后融合图;(c)最终决策图;(d) 融合结果
Fig. 5. Results of guided filtering and fusion. (a) Refined decision graph; (b) refined fusion graph; (c) final decision graph; (d) fusion result
2.3 像素级融合
将融合决策图与源图像按照逐像素加权平均规则进行融合,结果可表示为
3 实验结果与分析
3.1 实验对象设定
为了评估本文算法的性能,将公共数据集[17,25]中的40对多焦点图像用作测试图像。其中,有27组为彩色图像,其余13组为灰度图像,
3.2 主观定性评估
3.2.1 基于聚焦区域检测的方法
将两组灰度图像和两组彩色图像作为测试图像,用以比较下列6种融合算法的性能,结果如
图 7. 不同检测方法所得的决策图和融合结果。(a) I1;(b) MWGF;(c) Ref. [24];(d) CNN;(e) Ref. [27];(f) GFDF;(g)本文算法
Fig. 7. Decision graphs and fusion results obtained by different detection methods. (a) I1; (b) MWGF; (c) Ref. [24]; (d) CNN; (e) Ref. [27]; (f) GFDF; (g) proposed algorithm
3.2.2 其他方法
为了进一步验证除上述基于聚焦区域检测的其他两种算法,本节提供了
图 8. 不同算法得出的融合图像与I1之间的残影图。(a1)(a2) I1;(b1)(b2) NSCT_SR;(c1)(c2) MGFF;(d1)(d2)本文算法
Fig. 8. Residual images between I1 and fused image obtained by different algorithms. (a1)(a2) I1; (b1)(b2) NSCT_SR; (c1)(c2) MGFF; (d1)(d2) proposed algorithm
图 9. 本文算法得出的融合图像与某一聚焦图像之间的残影图
Fig. 9. Residual images between focused image and fused image obtained by proposed algorithm
3.3 客观定量评估
在实验中,通过利用多个评估指标来客观地评价融合图像的性能,分别是基于信息论的评估指标(标准化互信息
3.3.1 定量评估质量指标
为了能够客观地评价提出的算法与其他算法之间的性能,分别对灰度(13对)和彩色(27对)图像进行验证。并使用上述5个评估指标的平均值作为评估标准,在这些指标中,数值越大表示对应算法的性能在实验中表现得越好,最大值已加粗,分析结果如
表 1. 27组彩色图像的综合评估结果
Table 1. Comprehensive evaluation results of 27 groups of color images
|
表 2. 13组灰度图像的综合评估结果
Table 2. Comprehensive evaluation results of 13 gray scale images
|
从
3.3.2 实验参数分析
为了验证提出算法中使用的三个重要参数对融合图像质量的影响,通过设置一组测试图像,在5个客观指标上进行量化对比,三个参数分别为Log滤波器的模板尺寸w、引导滤波器设置的本地窗口半径r和正则化因子ε。首先,设置r为5,ε为0.1,w为自变量,w对融合指标的影响如
3.3.3 时间成本
本节主要是在各种算法之间给出相应的计算效率,比较不同方法在时间成本上的差异。所有用于比对的算法都已在同一台配置了AMD处理器(AMD Ryzen 5 2600 Six-Core Processer 3.40 GHz)和8 GB内存的计算机上运行,并依靠MATLAB(2014a)实现。通过在灰度与彩色图像上计算出不同方法的平均时间,具体数据如
表 3. 不同方法计算后的平均时间
Table 3. Average time calculated by different algorithms unit: s
|
从
4 结论
根据聚焦区域检测方法在多焦点图像融合上的优势,提出一种新的基于Log滤波与双尺度分解的焦点区域检测方法。该方法利用不同尺度分析方法的互补特性,在对图像进行双尺度分解的基础上,借助基于结构的焦点度量方法实现对聚焦区与散焦区内高频信息的分离。对于分离的高频信息中包含的误识别高频像素,则采用简单的加权混合和小区域去除策略,进一步实现聚焦区域与散焦区域的分离与优化。实验结果表明,从检测聚焦区域的效果来看,提出的算法在图像边缘处理与高频像素的分离上表现更加出色,并且基于该方法生成的融合决策图在用于与源图像融合时,主观与客观指标上也都表现出较好的融合结果,同时,算法的运行效率也有所提高。
[1] Li H F, Li X S, Yu Z T, et al. Multifocus image fusion by combining with mixed-order structure tensors and multiscale neighborhood[J]. Information Sciences, 2016, 349/350: 25-49.
[2] Yuan J, Chen H, Sun F C, et al. Multisensor information fusion for people tracking with a mobile robot: a particle filtering approach[J]. IEEE Transactions on Instrumentation and Measurement, 2015, 64(9): 2427-2442.
[3] TaniaS. Image fusion: algorithms and applications [M]. Amsterdam: Academic Press, 2008.
[4] ZhangQ, Guo BL. Research on image fusion based on the nonsubsampled contourlet transform[C]∥2007 IEEE International Conference on Control and Automation, May 30-June 1, 2007, Guangzhou, China. New York: IEEE, 2007: 3239- 3243.
[10] 周哓玲, 江泽涛. 结合脉冲耦合神经网络与引导滤波的红外与可见光图像融合[J]. 光学学报, 2019, 39(11): 1110003.
[11] 王建, 吴锡生. 基于改进的引导滤波和双通道脉冲耦合神经网络的医学图像融合[J]. 激光与光电子学进展, 2019, 56(15): 151004.
[18] 李恒, 张黎明, 蒋美容, 等. 基于监督学习的全卷积神经网络多聚焦图像融合算法[J]. 激光与光电子学进展, 2020, 57(8): 081051.
Li H, Zhang L M, Jiang M R, et al. Multi-focus image fusion algorithm based on supervised learning for fully convolutional neural networks[J]. Laser & Optoelectronics Progress, 2020, 57(8): 081051.
[20] Xu JB, LiuB, Lin HJ, et al. A new method for realizing LOG filter in image edge detection[C] //Proceedings of 2011 6th International Forum on Strategic Technology, August 22-24, 2011, Harbin, Heilongjiang, Harbin. New York: IEEE, 2011: 733- 737.
[21] Zain MA, MoallemP, Karimi-AlavijehH, et al. Fiber optic specklegram sensor based on image processing using LoG filter[C] //2017 10th Iranian Conference on Machine Vision and Image Processing (MVIP), November 22-23, 2017, Isfahan, Iran. New York: IEEE, 2017: 114- 118.
[23] Zhu X, Milanfar P. Automatic parameter selection for denoising algorithms using a No-reference measure of image content[J]. IEEE Transactions on Image Processing, 2010, 19(12): 3116-3132.
[24] Ma JL, Zhou ZQ, WangB, et al. Multi-focus image fusion based on multi-scale focus measures and generalized random walk[C] //2017 36th Chinese Control Conference (CCC), July 26-28, 2017. Dalian, China. New York: IEEE, 2017: 8028223.
[30] Xydeas C S, Petrovic V. Objective image fusion performance measure[J]. Electronics Letters, 2000, 36(4): 308-309.
[31] Ho T K, Hull J J, Srihari S N. Decision combination in multiple classifier systems[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1994, 16(1): 66-75.
[32] Qu G H, Zhang D L, Yan P F. Information measure for performance of image fusion[J]. Electronics Letters, 2002, 38(7): 313-315.
田帅, 任亚飞, 邵馨叶, 邵建龙. 结合滤波算子与双尺度分解的多聚焦图像融合[J]. 激光与光电子学进展, 2021, 58(6): 0610010. Tian Shuai, Ren Yafei, Shao Xinye, Shao Jianlong. Multi-Focus Image Fusion with Filter Operator and Double Scale Decomposition[J]. Laser & Optoelectronics Progress, 2021, 58(6): 0610010.