激光与光电子学进展, 2024, 61 (6): 0618022, 网络出版: 2024-03-29  

多聚焦显微图像融合算法

Multifocus Microscopic Image Fusion Algorithm
作者单位
1 中国科学技术大学生物医学工程学院(苏州)生命科学与医学部,江苏 苏州 215163
2 中国科学院苏州生物医学工程技术研究所医用光学技术研究室,江苏 苏州 215163
摘要
在显微成像过程中,受系统景深限制,沿光轴方向不同层面之间聚焦位置存在显著差异,同时不同层面的显微图像存在部分聚焦区域重叠,现有多聚焦融合算法往往无法并行提取和融合多幅显微图像中最清晰的聚焦部分。提出一种多聚焦显微图像融合算法,首先构造了一种类高斯四邻域梯度算子并结合快速引导滤波,实现高频聚焦信息的提取;同时针对大视场显微图像序列中存在聚焦信息重叠、像素数量大的情况,引入了一种小区域聚焦度量方法,提高了对聚焦清晰区域高频信息提取的能力,实现了多图最佳聚焦点的融合。拍摄3组包括4 mm和2 mm对角线视场的多聚焦显微图像序列进行测试,相较5种常用多聚焦图像融合算法,所提算法的峰值信噪比平均提高了2.4772,结构相似性指数达0.9400以上,对聚焦清晰区域有更好的融合效果,融合图像细节丰富且清晰度高,能够满足大视场多聚焦显微图像融合的准确性要求。
Abstract
In the process of microscopic imaging, the system's depth-of-field limitation results in considerable differences in the focused positions across various planes along the axial direction. This leads to partial overlap of focused regions among microscopic images from different planes. Current multifocus fusion algorithms often struggle to simultaneously extract and merge the sharpest focused parts from multiple microscopic images. Hence, this article proposes a multifocus microscopic image fusion algorithm. First, a Gaussian-like four-neighborhood gradient operator was constructed and combined with fast guided filtering to extract high-frequency focus information. Additionally, a small region focus measurement method was introduced to enhance the extraction for high-frequency focus information from sharply focused regions considering the overlap of focus information and the substantial number of pixels in wide-field microscopic image sequences. This method effectively fuses the best focus points from multiple images. Through experiments, three sets of microscopic multifocus image sequences covering the diagonal fields-of-view of 4 mm and 2 mm were captured and testing was conducted. Through comparative analysis against five commonly used multifocus image fusion algorithms, our algorithm yields an average improvement in the peak signal-to-noise ratio of 2.4772 and surpasses a structural similarity index of 0.9400. These results exhibit superior fusion effects obtained by the proposed algorithm in the focused regions, rendering fused images enriched in details and high clarity. This algorithm meets the accuracy requirements for multifocus image fusion in applications involving large field-of-view microscopic images.

1 引言

大视场高分辨率的显微成像技术是现代生物医学领域的主要研究方向,然而由于光学镜头的景深有限,难以在单次成像时获取大尺寸样本的全聚焦清晰图像。多聚焦图像融合将同一个视场下,不同区域聚焦的一系列图像融合为一张全聚焦图像,是扩展光学镜头景深的有效途径1。融合后的图像有利于图像识别、目标检测等进一步处理。因此,沿显微镜光轴方向采集同一视场下的多聚焦显微图像序列,利用多聚焦图像融合方法实现图像序列的融合,可以获取大视场高分辨率的全聚焦显微图像2

多聚焦图像融合方法主要可以分为3类:变换域法、空间域法、深度学习法。变换域法将图像转换到变换域进行处理,根据图像变换方法可以分为多尺度变换法3-5、稀疏表示法6、梯度域法7、基于其他变换的方法,如DCT域法8-9等。变换域法在变换过程中可能会导致空间信息丢失、细节损失、清晰度降低。空间域法针对像素或者图像块在空间域进行融合,如多尺度加权梯度法10、广义随机游走法11、块划分的四叉树法12等,基于空间域的传统方法对像素值直接进行操作,但容易在融合图像边缘处产生伪影。深度学习法主要有分类模型法和回归模型法13-14等,深度学习法处理结果依赖于模型参数的调节,处理耗费时间长。所提算法是基于空间域法进行改进的,需要准确提取聚焦区域的边缘特征信息。引导滤波作为一种图像特征提取方法,相比传统图像滤波器,能够与图像内容很好地结合起来,通过引导图像向输出图像添加高频信息,既能进行边缘细节保持同时又可以实现平滑,且不会因为梯度反转产生伪影15,能较好地处理聚焦区域复杂的多聚焦显微图像。随着引导滤波的广泛应用,在引导滤波的基础上又进行了改进,得到了快速引导滤波,处理速度得到提高且处理效果并没有明显的退化16,更适用于对大视场显微图像进行处理的领域。

现有的多聚焦图像融合算法大多是基于两张前景与背景分别聚焦的图像进行融合的,与这类聚焦区域互补的两张图像不同,大视场显微图像序列中两两之间存在部分重合的聚焦区域,在多图融合过程中需对像素数量庞大的图像中的重叠聚焦信息进行判断。现有的算法对多张图像需要两两串行融合,容易积累误差17,对聚焦区域图像信息融合的准确性低。因此,本文根据实验实拍的显微图像序列,并结合沿显微镜光轴方向不同层面图像的失焦-聚焦区域特点,提出了一种类高斯四邻域梯度算子与快速引导滤波结合的多聚焦显微图像融合算法,实现了大视场高分辨显微镜的多聚焦图像融合,融合结果图像清晰,高频细节信息丰富,边缘锐利不失真。

2 方法内容

所提算法通过类高斯四邻域梯度算子与快速引导滤波的结合加强了对高频信息的提取,并实现了多图最佳聚焦点的融合。具体步骤为:1)聚焦信息检测,对图像进行均值滤波,得到粗略聚焦信息图,由类高斯四邻域梯度算子对粗略聚焦图添加高频信息,得到精确聚焦图,再引入快速引导滤波进一步对精确聚焦信息图进行优化;2)决策图生成,将优化后的聚焦信息图在三维空间堆叠后,逐个像素纵向对比,找出聚焦度量值最大的点,对于像素数量庞大的大视场图像中的聚焦度量值相同的点,使用Sobel算子进行小区域梯度计算,确定聚焦度量最清晰的点,然后进行二值化得到聚焦区域的决策图;3)图像融合,由单层源图像对相应的决策图再次进行快速引导滤波,优化决策边缘,再对源图像进行加权融合,得到最终融合图像。图1是本文实现多聚焦显微图像融合的算法框图。

图 1. 所提算法的流程

Fig. 1. Flowchart of the proposed algorithm

下载图片 查看所有图片

2.1 聚焦信息检测

聚焦信息检测是进行多聚焦图像融合的重要步骤,用以衡量图像灰度值的变化。图像聚焦清晰的区域就是图像灰度值急剧变化的区域,该区域灰度值的变化相较于失焦区域更大,即高频信息比失焦区域更多,边缘特征也更加尖锐。首先,利用均值滤波器fm对源图像进行处理,得到平滑后的图像Mi,计算平滑后的图像与源图像灰度值差的绝对值来初步提取源图像的图像特征,得到粗略聚焦信息图IRi,表达式分别为

Mix,y=Iix,y*fm,IRix,y=Iix,y-Mix,y,

式中:i=1,2,,n,为待融合的源图像序号。

其次,通过类高斯四邻域梯度(GFG)算子对图像梯度进行计算,用一个类高斯卷积模板T对源图像进行卷积处理,在突出中心像素最高权重的同时,分别赋予四邻域和对角邻域的像素不同权重,避免单个异常像素可能造成的干扰。然后计算出每一个像素点在四邻域的水平方向的梯度Gi和垂直方向上的梯度Gi并求和,以适应图像中不同方向的灰度变化,使得梯度值评价更加准确。根据四邻域方向计算出来的梯度值,提取源图像的边缘信息,设置阈值过滤掉低频信息,得到源图像的高频信息Gi,即对聚焦程度最好也就是灰度值变化最明显的区域进行边缘提取,使边缘部分的高频信息更加突出,具体表达式为

Pix,y=Iix,yT,T=116121242121,Gi=Iix+1,y-Pi+Iix-1,y-Pi2,Gi=Iix,y+1-Pi+Iix,y-1-Pi2,Gix,y=Gi+Gi,Gix,y=Gix,y,Gix,yT00,Gix,y<T0,

式中:T0是根据整幅图像中各点计算得到的梯度值分布情况过滤掉背景以及低频信息所选取的,T0=0.005Pi是以像素点x,y为中心像素与类高斯卷积模板卷积后的矢量。

为了进一步突出边缘高频信息,将通过类高斯四邻域梯度算子得到的源图像的高频信息Gi添加到粗略聚焦信息图IRi中,得到边缘高频信息更加突出的精确聚焦信息图IAi。之后再对精确聚焦图进行快速引导滤波(FGF)优化,引导滤波器根据引导图像的边缘特征信息来决定滤波器的权重,从而使滤波器在输入图像上更好地保留或增强引导图像的边缘特征。快速引导滤波对引导图像和输入图像进行下采样计算,计算结束后再对计算结果进行上采样使其恢复到原始大小,减少了计算量,且最终融合效果没有明显退化,相比引导滤波,更适用于对大视场这种大尺寸图像进行处理的领域。通过源图像Ii(引导图像)对精确聚焦信息图IAi(输入图像)进行快速引导滤波,使聚焦清晰区域的高频信息得到增强,失焦区域被进一步平滑,精确聚焦信息图IAi中的高频信息得到进一步优化变得更加精确,得到了最终聚焦信息图IFi,表达式为

IAix,y=IRix,y,       Gix,y<T0Gix,y,      Gix,yT0,IFix,y=FGFIix,y,IAix,y

2.2 决策图生成

聚焦信息图用来表示每个源图像的聚焦信息分布情况,因此聚焦信息图的灰度值的大小代表源图像的聚焦程度。源图像中聚焦程度最好的像素点对应的聚焦信息图中该像素的灰度值也应该最大。根据这一性质,当前大多数的多聚焦图像融合算法从背景和前景分别聚焦的两张图像中提取聚焦特征得到聚焦信息图后,挑选两张聚焦信息图相同位置处灰度值较大的像素,赋值为1,反之为0,生成一张能够反映不同源图像聚焦区域的二值化决策图。使用这些算法进行n张图像的融合时,需要通过两两串行融合的方式,对图像的特征进行2(n-1)次提取后得到最终融合图。而对于多聚焦显微图像序列,聚焦区域是渐次变化的,失焦区域是模糊扩散的,每次融合会产生一个新的中间结果。从这个中间结果可以看出,没有完全地提取并融合两张图中的准确聚焦信息,融合出的图像会带有一定的错误失焦信息,尽管这种影响在两张图之间是微小的,但是接下来会在这个中间结果的基础上继续融合,这种过程类似于级联效应,一个过程的输出作为下一个过程的输入,多次级联导致信息累积误差,因此两两串行融合算法无法适用于多聚焦显微图像序列的融合。

因此,在决策图生成步骤中,本文提出了一种对n张(n≥2)最终聚焦信息图IFi进行n次特征提取生成对应的n层初始决策图的策略。首先将单层的最终聚焦信息图IFi在三维方向堆叠,沿z轴方向对各层图像中同一位置的最佳聚焦像素点进行挑选,选取z方向上所有聚焦信息图中灰度值最大的一点为最佳像素点;其次,对于显微图像中可能出现邻近图像聚焦信息图灰度值相同的情况,考虑到大视场图像像素数量庞大,大区域的聚焦度量和遍历计算会明显增加算法处理的时间,因此本文采取小区域聚焦度量方法,通过清晰度评价算子来实现区域的聚焦度量。Sobel算子能提供较为精确的边缘信息,对梯度变化更灵敏,适用于灰度信息渐变的显微图像。用Sobel算子在灰度值相同的像素的3×3邻域内进行局部梯度对比,选取局部梯度G3×3最大值对应的像素,保证最佳聚焦点挑选的准确性,并将最佳聚焦点赋值为1,其余层面的对应点赋值为0,得到初始二值化决策图IIDi,具体过程分别表示为

Gx=-101-202-101*IFix,y,Gy=121000-1-2-1*IFix,y,G3×3=Gx+Gy

2.3 图像融合

经过上述处理得到初始决策图IIDi,其边缘处像素值变化锐利,如果直接用来对源图像进行融合,不能很好地处理源图像聚焦与散焦区域的边界,极易出现边缘突变和伪影18。因此,以源图像Ii作为引导图像对初始决策图IIDi进行快速引导滤波(FGF),得到最终决策图IFDi。根据引导滤波的特性,边缘锐利的最终决策图IFDi会被平滑,避免在后续图像融合过程中产生不自然的过渡伪影,保持图像的连续性。最终决策图IFDi的表达式为

IFDix,y=FGFIix,y,IIDix,y,

根据最终决策图IFDi,对每层源图像进行加权融合,得到最终融合图IF,表达式为

IFx,y=i=1nIFDix,yIix,yi=1nIFDix,y

3 结果与分析

3.1 实验装置

为验证所提算法的有效性,采用大视场高分辨显微镜19对3种样品进行了沿光轴方向的显微图像序列的采集,该显微镜实物照片如图2所示。该系统最大对角线视场为6 mm,横向分辨率为0.74 µm,轴向分辨率为4.16 µm。

图 2. 大视场高分辨显微镜系统实物图19

Fig. 2. Photograph of wide-field-of-view high-resolution microscope system[19]

下载图片 查看所有图片

3种样品分别为蚂蚁装片(ant,视场大小约2.8 mm×2.8 mm)、金发藓装片(pogonatum,视场大小约为2.8 mm×2.8 mm)、轮藻装片(charophyte,视场大小约为1.4 mm×1.4 mm),如图3~5所示。图3图4分别为沿z轴方向以30 µm步长采集的蚂蚁和金发藓装片显微图像序列,图5为沿z轴方向以10 µm步长采集的轮藻装片显微图像序列。由于显微镜景深的限制,沿光轴方向同一视野不同位置的源图像有不同的聚焦与失焦区域。

图 3. 蚂蚁多聚焦显微图像序列。(a)~(j)采集的第1~10张蚂蚁装片显微图像

Fig. 3. Multifocus microscopic image sequence of ant. (a)‒(j) The 1st to the 10th ant-mounted microscopic images

下载图片 查看所有图片

图 4. 金发藓多聚焦显微图像序列。(a)~(j)采集的第1~10张金发藓装片显微图像

Fig. 4. Multifocus microscopic image sequence of pogonatum. (a)‒(j) The 1st to the 10th pogonatum-mounted microscopic images

下载图片 查看所有图片

图 5. 轮藻多聚焦显微图像序列。(a)~(m)采集的第1~13张轮藻装片显微图像

Fig. 5. Multifocus microscopic image sequence of charophyte. (a)‒(m) The 1st to the 13th charophyte-mounted microscopic images

下载图片 查看所有图片

3.2 融合结果

选择基于低通金字塔(RP)3、小波变换(DWT)4、非下采样轮廓变换(NSCT)5、多尺度加权梯度(MWGF)10及DCT域奇异值分解(DCT-SVD)95种多聚焦图像融合方法与所提方法的融合结果进行了对比分析,结果如图6所示。所提算法在融合过程中对n张待融合图像进行了n次边缘特征提取,而其他几种算法采用两两融合方法,进行了2(n-1)次特征提取。由图6(a)和图6(b)可知,对于蚂蚁和金发藓装片的多聚焦图像序列,RP、DWT、NSCT和MWGF未能很好地融合聚焦清晰的区域,蚂蚁的足部和金发藓的根部都存在不同程度的模糊,虽然DCT-SVD融合图像的边缘清晰但是图像内部细节并不丰富。对于轮藻的多聚焦图像序列融合结果,如图6(c)所示,RP、DWT和NSCT的融合结果的边缘处都有失焦模糊的现象,MWGF和DCT-SVD的融合结果中虽然边缘处模糊程度较小,但整体清晰度相比所提方法差。图6方框区域放大图像如图7所示。RP、DWT和NSCT算法的融合结果中边缘处均有不同程度的伪影,这几种方法对纹理复杂的显微图像的边缘信息处理效果较差。MWGF和DCT-SVD算法的融合结果中虽然边缘处没有伪影,但是二者的融合结果中仍存在不同程度的模糊,DCT-SVD算法的融合图中还存在一些类似于椒盐噪声的斑点。

图 6. 不同方法的融合结果对比。(a)蚂蚁融合结果;(b)金发藓融合结果;(c)轮藻融合结果

Fig. 6. Comparison of fusion results among different methods. (a) Ant fusion results; (b) pogonatum fusion results; (c) charophyte fusion results

下载图片 查看所有图片

图 7. 不同方法融合结果的局部放大对比。(a)蚂蚁融合结果的局部放大;(b)金发藓融合结果的局部放大;(c)轮藻融合结果的局部放大

Fig. 7. Comparison of local magnification results among different methods. (a) Local magnification results of ant; (b) local magnification results of pogonatum; (c) local magnification results of charophyte

下载图片 查看所有图片

由以上结果可知:在其他几种算法相比所提算法多出的n‒2次边缘特征提取过程中,两张源图像在融合过程中错误地融合到了失焦模糊的区域并在后续过程中不断积累前一次的微小误差,导致最终融合效果变差;所提方法全面地考虑n张待融合图像的信息,每一次提取聚焦信息时都对比了全局不同层面的边缘特征,避免了级联效应,减少了信息的逐步损失,保留了更多源图像中的原始信息和细节,使得最终结果细节丰富。同时其他算法在聚焦信息提取过程中存在边缘处被模糊或者部分信息丢失导致融合后边缘处有不同程度伪影的问题,所提方法中的类高斯四邻域算子与引导滤波器结合提取了精确的聚焦高频信息,且引导滤波器较好地保留和增强了各幅源图像的聚焦清晰的边缘特征,使得最终融合结果细节丰富且并未产生边缘处的伪影。

3.3 评价指标

为定量分析和直观评价所提算法及对比算法的性能,选取了标准差(STD)13、峰值信噪比(PSNR)20、结构相似性指数(SSIM)21、互信息(MI)22及边缘信息保持度(QG235种评价指标对不同多聚焦融合方法进行定量分析。其中标准差和互信息用来度量从源图像获取的信息量,峰值信噪比和结构相似性指数用来反映融合图像与源图像之间的相似性,边缘信息保持度计算从源图像传递到融合图像的边缘信息量。表1~3给出了3组显微图像序列对应的融合结果评价指标,其中加粗数据为最优。

表 1. 不同方法对蚂蚁装片的评价指标对比

Table 1. Comparison of evaluation indexes of different methods for ant

MethodSTDPSNRSSIMMIQG
RP35.676077.39790.88833.76100.1849
DWT35.845277.21620.89013.60810.1858
NSCT35.787177.37610.92303.82440.2069
MWGF36.080676.85920.87203.78150.1528
DCT-SVD35.495177.56620.92303.93520.1470
Proposed method38.383679.76960.94404.35800.1878

查看所有表

表 2. 不同方法对金发藓装片的评价指标对比

Table 2. Comparison of evaluation indexes of different methods for pogonatum

MethodSTDPSNRSSIMMIQG
RP37.034675.28090.88302.60740.1812
DWT37.144975.14730.88392.43310.1837
NSCT37.104075.23810.88192.66390.2054
MWGF39.068376.61510.90512.77430.1577
DCT-SVD36.158175.50400.90642.73310.1491
Proposed method41.519377.99230.94032.87200.1774

查看所有表

表 3. 不同方法对轮藻装片的评价指标对比

Table 3. Comparison of evaluation indexes of different methods for charophyte

MethodSTDPSNRSSIMMIQG
RP24.023781.30830.89383.59640.2059
DWT24.188581.02450.89403.45690.2013
NSCT24.210481.12300.89123.61810.2305
MWGF24.762583.61190.94243.96240.1757
DCT-SVD24.851682.77930.93463.91380.1786
Proposed method25.217784.47940.94984.16920.2206

查看所有表

表1~3可知,与RP、DWT、NSCT、MWGF和DCT-SVD算法相比,所提算法的STD、PSNR、SSIM和MI均为最大值,表明融合图像相较其他几种算法的融合图像细节更丰富,与源图像相似性更高,图像清晰度更好。所提算法的边缘信息保持度QG与最大值接近,该评价指标反映的是源图像传递至融合图像的边缘信息,容易受到图像失焦扩散部分边缘的影响,如NSCT算法的结果融合了失焦扩散的边缘,对边缘信息检测产生误差,识别到错误的边缘信息,导致评价结果不能完全反映出准确的边缘信息。结合最终图像的视觉效果,所提方法对聚焦清晰的边缘区域融合效果更好,整体的融合质量更高。

4 总结

针对聚焦区域渐次变化的大视场显微图像序列,提出了一种基于类高斯四邻域梯度算子与快速引导滤波结合的多聚焦显微图像融合算法。该算法首先结合类高斯四邻域梯度算子与快速引导滤波对源图像中的高频聚焦信息进行提取并增强,然后提出一种空间域多图融合策略,对含有相同聚焦信息的小区域进行聚焦度量,选取最佳聚焦点进行融合。通过多组实拍图像进行算法对比测试,结果表明所提方法对聚焦区域融合准确,最终图像细节丰富,清晰度高,实现了对大视场高分辨率多聚焦显微图像的高质量融合。

参考文献

[1] Liu Y, Wang L, Cheng J, et al. Multi-focus image fusion: a survey of the state of the art[J]. Information Fusion, 2020, 64: 71-91.

[2] 贾仁庆, 殷高方, 赵南京, 等. 浮游藻类细胞显微多聚焦图像融合方法[J]. 光学学报, 2023, 43(12): 1210001.

    Jia R Q, Yin G F, Zhao N J, et al. Multi-focus image fusion method for microscopic algal images[J]. Acta Optica Sinica, 2023, 43(12): 1210001.

[3] Toet A. Image fusion by a ratio of low-pass pyramid[J]. Pattern Recognition Letters, 1989, 9(4): 245-253.

[4] De I, Chanda B. A simple and efficient algorithm for multifocus image fusion using morphological wavelets[J]. Signal Processing, 2006, 86(5): 924-936.

[5] Zhang Q, Guo B L. Multifocus image fusion using the nonsubsampled contourlet transform[J]. Signal Processing, 2009, 89(7): 1334-1346.

[6] Yang B, Li S T. Multifocus image fusion and restoration with sparse representation[J]. IEEE Transactions on Instrumentation and Measurement, 2010, 59(4): 884-892.

[7] Petrovic V S, Xydeas C S. Gradient-based multiresolution image fusion[J]. IEEE Transactions on Image Processing, 2004, 13(2): 228-237.

[8] Amin-Naji M, Aghagolzadeh A. Multifocus image fusion in DCT domain using variance and energy of Laplacian and correlation coefficient for visual sensor networks[J]. Journal of Artificial Intelligence and Data Mining, 2018, 6(2): 233-250.

[9] Amin-NajiM, Ranjbar-NoieyP, AghagolzadehA. Multi-focus image fusion using Singular Value Decomposition in DCT domain[C]∥2017 10th Iranian Conference on Machine Vision and Image Processing (MVIP), November 22-23, 2017, Isfahan, Iran. New York: IEEE Press, 2018: 45-51.

[10] Zhou Z Q, Li S, Wang B. Multi-scale weighted gradient-based fusion for multi-focus images[J]. Information Fusion, 2014, 20: 60-72.

[11] MaJ L, ZhouZ Q, WangB, et al. Multi-focus image fusion based on multi-scale focus measures and generalized random walk[C]∥2017 36th Chinese Control Conference (CCC), July 26-28, 2017, Dalian, China. New York: IEEE Press, 2017: 5464-5468.

[12] Bai X Z, Zhang Y, Zhou F G, et al. Quadtree-based multi-focus image fusion using a weighted focus-measure[J]. Information Fusion, 2015, 22: 105-118.

[13] Xu H, Fan F, Zhang H, et al. A deep model for multi-focus image fusion based on gradients and connected regions[J]. IEEE Access, 2020, 8: 26316-26327.

[14] Huang J, Le Z L, Ma Y, et al. A generative adversarial network with adaptive constraints for multi-focus image fusion[J]. Neural Computing and Applications, 2020, 32(18): 15119-15129.

[15] He K M, Sun J, Tang X O. Guided image filtering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1397-1409.

[16] HeK M, SunJ. Fast guided filter[EB/OL]. (2015-05-05)[2023-06-05]. https://arxiv.org/abs/1505.00996.

[17] 印象, 马博渊, 班晓娟, 等. 面向显微影像的多聚焦多图融合中失焦扩散效应消除方法[J]. 工程科学学报, 2021, 43(9): 1174-1181.

    Yin X, Ma B Y, Ban X J, et al. Defocus spread effect elimination method in multiple multi-focus image fusion for microscopic images[J]. Chinese Journal of Engineering, 2021, 43(9): 1174-1181.

[18] 田帅, 任亚飞, 邵馨叶, 等. 结合滤波算子与双尺度分解的多聚焦图像融合[J]. 激光与光电子学进展, 2021, 58(6): 0610010.

    Tian S, Ren Y F, Shao X Y, et al. Multi-focus image fusion with filter operator and double scale decomposition[J]. Laser & Optoelectronics Progress, 2021, 58(6): 0610010.

[19] 郎松, 张艳微, 郑汉青, 等. 大视场高分辨HiLo光切片显微成像系统[J]. 中国光学, 2022, 15(6): 1302-1312.

    Lang S, Zhang Y W, Zheng H Q, et al. Large field of view and high resolution HiLo optical slice microscopic imaging system[J]. Chinese Optics, 2022, 15(6): 1302-1312.

[20] Aslantas V, Kurban R. Fusion of multi-focus images using differential evolution algorithm[J]. Expert Systems With Applications, 2010, 37(12): 8861-8870.

[21] Wang Z, Bovik A C, Sheikh H R, et al. Image quality assessment: from error visibility to structural similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600-612.

[22] Hossny M, Nahavandi S, Creighton D. Comments on ‘Information measure for performance of image fusion’[J]. Electronics Letters, 2008, 44(18): 1066-1067.

[23] Xydeas C S, Petrović V. Objective image fusion performance measure[J]. Electronics Letters, 2000, 36(4): 308-309.

付宏语, 巩岩, 汪路涵, 张艳微, 郎松, 张志, 郑汉青. 多聚焦显微图像融合算法[J]. 激光与光电子学进展, 2024, 61(6): 0618022. Hongyu Fu, Yan Gong, Luhan Wang, Yanwei Zhang, Song Lang, Zhi Zhang, Hanqing Zheng. Multifocus Microscopic Image Fusion Algorithm[J]. Laser & Optoelectronics Progress, 2024, 61(6): 0618022.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!