付宏语 1,2巩岩 1,2,*汪路涵 2张艳微 2[ ... ]郑汉青 2
作者单位
摘要
1 中国科学技术大学生物医学工程学院(苏州)生命科学与医学部,江苏 苏州 215163
2 中国科学院苏州生物医学工程技术研究所医用光学技术研究室,江苏 苏州 215163
在显微成像过程中,受系统景深限制,沿光轴方向不同层面之间聚焦位置存在显著差异,同时不同层面的显微图像存在部分聚焦区域重叠,现有多聚焦融合算法往往无法并行提取和融合多幅显微图像中最清晰的聚焦部分。提出一种多聚焦显微图像融合算法,首先构造了一种类高斯四邻域梯度算子并结合快速引导滤波,实现高频聚焦信息的提取;同时针对大视场显微图像序列中存在聚焦信息重叠、像素数量大的情况,引入了一种小区域聚焦度量方法,提高了对聚焦清晰区域高频信息提取的能力,实现了多图最佳聚焦点的融合。拍摄3组包括4 mm和2 mm对角线视场的多聚焦显微图像序列进行测试,相较5种常用多聚焦图像融合算法,所提算法的峰值信噪比平均提高了2.4772,结构相似性指数达0.9400以上,对聚焦清晰区域有更好的融合效果,融合图像细节丰富且清晰度高,能够满足大视场多聚焦显微图像融合的准确性要求。
图像处理 多聚焦显微图像 引导滤波 聚焦信息检测 多图融合 
激光与光电子学进展
2024, 61(6): 0618022
作者单位
摘要
长安大学 工程机械学院,陕西西安710064
常规的尺度不变特征变换(SIFT)图像特征提取方法难以提取多聚焦图像离焦模糊区域的特征,使得图像间存在局部、少量的公共特征,导致多聚焦图像配准精度差,严重影响后续图像融合和三维重建质量。在分析图像离焦模糊区域特征提取不确定性的基础上,提出了一种多聚焦图像离焦模糊区域的SIFT特征提取方法。首先提取多聚焦图像聚焦清晰区域的SIFT特征,再利用光流跟踪提取对应离焦模糊区域的SIFT特征,避免了在离焦模糊区域直接提取SIFT特征的不确定性。实验结果表明:提出的方法在离焦模糊区域具有良好的SIFT特征提取能力和提取精度,能实现多聚焦图像SIFT特征匹配数量显著增长,SIFT特征提取的误差为0.03~0.39 pixels,优于现有方法的0.21~1.71 pixels。降低了离焦模糊区域SIFT特征提取的不确定性,为多聚焦图像精确配准奠定了基础。
多聚焦图像 尺度不变特征变换(SIFT)特征提取 离焦模糊区域 光流跟踪 multi-focus images Scale-Invariant Feature Transform(SIFT) feature extraction defocused blurred area optical flow tracking 
光学 精密工程
2023, 31(24): 3630
贾仁庆 1,2殷高方 2,*赵南京 1,2,**徐敏 2[ ... ]张小玲 5
作者单位
摘要
1 中国科学技术大学环境科学与光电技术学院,安徽 合肥 230026
2 中国科学院合肥物质科学研究院安徽光学精密机械研究所中国科学院环境光学与技术重点实验室,安徽 合肥 230031
3 合肥学院,安徽 合肥 230601
4 安徽省生态环境监测中心,安徽 合肥 230061
5 安徽大学,安徽 合肥 230601
以鱼腥藻、栅藻和盘星藻为分析对象,通过采集多个焦平面的显微图像,基于拉普拉斯能量与引导滤波以及图像HSV颜色空间饱和度分量分别检测显微图像聚焦区域和失焦区域,研究浮游藻类细胞显微多聚焦图像融合方法,并与小波变换、拉普拉斯金字塔以及脉冲耦合神经网络融合方法进行对比分析。结果表明:鱼腥藻、栅藻和盘星藻融合图像的边缘信息保持度、空间频率、平均梯度分别为0.3529、8.9654、0.0055,0.3778、7.0058、0.0023和0.2940、1.5445、0.0005,均优于对比融合方法,具有更好的边缘信息传递能力及更高的图像清晰度,有效实现了浮游藻类细胞显微多聚焦图像融合,为获取浮游藻类细胞的全景深显微图像提供了思路。
图像处理 浮游藻类细胞 显微 多聚焦图像融合 聚焦区域检测 失焦扩散效应 
光学学报
2023, 43(12): 1210001
作者单位
摘要
广东工业大学 信息工程学院,广东 广州 510006
针对传统多聚焦图像融合算法中融合边缘出现模糊、伪影等问题,提出了一种结合改进拉普拉斯能量和(SML)与差分图像的多聚焦图像融合算法。首先,为了提取源图像的聚焦特征信息,分别通过SML和滤波差分进行聚焦度量,再采用引导滤波获得更多的细节特征;接着,利用像素最大值规则生成初始融合决策图,再对初始融合决策图进行小区域去除消除因聚焦和散焦区域相似造成的噪点,并对融合决策图进行不一致处理,获得更精确的聚焦区域;最后,由逐像素加权平均规则,得到融合图像。实验结果表明,所提出的算法在主观视觉效果和客观评价指标上均优于对比算法,互信息、特征互信息、图像梯度特征在彩色图像上分别提高了0.17%、0.38%和0.11%,在灰度图像上分别提高了0.7%、0.69%和0.33%,并且平均运行时间少于0.5 s,具有较高的计算效率。此外,该算法能够较好地保留源图像信息的完整性,融合图像边缘清晰、无伪影。
多聚焦图像融合 改进拉普拉斯能量和 差分图像 聚焦区域检测 multi-focus image fusion sum-modified-Laplacian difference image focus region detection 
液晶与显示
2023, 38(4): 524
作者单位
摘要
南京邮电大学自动化学院、人工智能学院,江苏 南京 210023
针对现有基于深度学习的图像融合算法中存在图像特征提取尺度单一、卷积核感受野小、不能有效突出显著特征等问题,提出了一种基于含注意力机制的多尺度空洞卷积网络的多聚焦图像融合算法。首先,构造一种多尺度空洞卷积模块,通过不同的扩张率改变卷积的感受野,从而提取源图像中的多尺度特征。此外,在多尺度空洞卷积模块中引入注意力机制,能自适应地选择显著性特征,进一步提高融合性能。所提融合网络包含特征提取、特征融合和图像重建等3个部分,其中特征提取部分主要由多尺度空洞卷积模块构成。相关实验结果表明,所提算法与现有基于深度学习的算法相比具有一定的竞争力。消融实验也验证了所提多尺度空洞卷积模块能强化网络的特征提取能力,提高图像融合质量。
图像处理 多聚焦图像融合 多尺度 空洞卷积 残差学习 注意力机制 
激光与光电子学进展
2023, 60(2): 0210003
作者单位
摘要
1 武昌首义学院信息科学与工程学院,湖北 武汉 430064
2 武汉大学工业科学研究院,湖北 武汉 430072
3 湖北工业大学计算机学院,湖北 武汉 430068
4 浙江省测绘科学技术研究院,浙江 杭州 311100
针对传统方法不能充分挖掘图像聚焦关联信息导致融合细节失真的问题,提出了一种基于深度密集卷积神经网络协同检测的多聚焦图像融合方法。将多聚焦源图像进行集成实现协同聚焦特征检测,利用深度密集卷积神经网络的特征复用、低级特征与高级特征相结合等特点,来加强多聚焦图像特征表达能力,可以更好地挖掘图像语义信息。采用多尺度金字塔池化策略聚合不同聚焦区域的全局上下文信息,增强聚焦与离焦的区分能力,得到粗略融合概率决策图。进一步采用卷积条件随机场对其进行优化,获得精细化概率决策图,最终得到细节保持的融合图像。将一对多聚焦图像合并为6通道送入网络进行训练,保证了训练时聚焦图像相关性。利用公开数据集对提出的融合方法进行主观与客观评价,实验结果表明该方法具有较好的融合效果,能够充分挖掘聚焦关联信息、保留足够的图像细节。
图像处理 多聚焦图像 图像融合 密集卷积神经网络 金字塔池化 协同检测 
激光与光电子学进展
2022, 59(24): 2410004
作者单位
摘要
兰州交通大学电子与信息工程学院,甘肃 兰州 730070
为了较好地平滑边缘区域,避免边缘衔接处产生伪影,提出了一种基于双尺度分解与随机游走的多聚焦图像融合方法。首先,将源图像利用高斯滤波分解为大尺度与小尺度聚焦图,对分解得到的大尺度和小尺度聚焦图采用不同的引导滤波对其边缘进行平滑;然后,将大尺度与小尺度聚焦图作为随机游走算法的标记节点通过融合算法得到初始决策图,并再次使用引导滤波对决策图进行优化;最后,根据决策图对源图像进行重构,得到最终融合图像。实验结果表明,所提方法较好地获取了源图像中的聚焦信息,更好地保留了聚焦区域的边缘纹理及细节信息,在主观评价和客观评价指标方面均取得了更优的效果。
图像处理 多聚焦图像融合 高斯分解 随机游走 引导滤波 
激光与光电子学进展
2022, 59(22): 2210011
郝一帆 1,2,3蹇毅 1,2,*
作者单位
摘要
1 中国科学院红外探测与成像技术重点实验室,上海 200083
2 中国科学院上海技术物理研究所,上海 200083
3 中国科学院大学,北京 100049
针对在用短波红外显微镜观测目标时,目标的尺寸往往会受到镜头景深限制的问题,提出一种多聚焦融合的方法,可有效扩展显微镜成像的景深。通过改变物距获得大量不同聚焦平面的图像,利用多尺度和局域加权方差来量化区域清晰度,获得焦平面掩膜,之后采用形态学方法优化掩膜边界,最终加权融合焦平面区域得到细节完备的目标整体图。实验中利用景深为10 μm左右的显微镜镜头得到了纵向尺寸为几百微米目标的高质量图像。实验结果表明所提方法相较其他方法在对焦平面边界,细节的保留方面有一定优势。
多聚焦融合 多尺度 局域加权方差 量化区域清晰度 形态学方法 Multi-focus fusion Multi-scale Local weighted variance Quantified area clarity Morphological method 
光子学报
2021, 50(12): 1210001
胡亮 1,2胡学娟 1,2,3,*黄圳鸿 1,2徐露 1,2连丽津 2,3
作者单位
摘要
1 深圳技术大学中德智能制造学院, 广东 深圳 518118
2 广东省高校先进光学精密制造技术重点实验室, 广东 深圳 518118
3 广东省微纳光机电工程技术重点实验室, 广东 深圳 518118
多聚焦图像融合作为一种有效的信息融合方法,在图像处理和计算机视觉领域引起了越来越多的关注。提出了一种基于离散Walsh-Hadamard变换(DWHT)和引导滤波的多聚焦图像融合算法。首先,提出了一种新的聚焦区域检测方法,该方法运用DWHT并计算L1范数得到初始决策图;然后,运用数学形态学方法和引导滤波优化生成最终决策图;最后,由像素加权平均规则和最终决策图得到融合图像。为验证所提算法的有效性,选择3组研究中普遍使用的多聚焦图像进行实验,并将该算法运用于实际应用中采集到的2组多聚焦序列图像,与其余几种算法相比,所提算法在主观定性分析和客观定量评价指标上均表现出明显的优势。实验结果表明,与其他多聚焦图像融合算法相比,所提算法能更有效地从源图像中提取聚焦区域,增强融合图像的细节保留能力和空间连续性。
图像处理 多聚焦图像融合 离散Walsh-Hadamard变换 引导滤波 聚焦区域检测 
激光与光电子学进展
2021, 58(22): 2210003
作者单位
摘要
上海理工大学 光电信息与计算机工程学院,上海 200093
多聚焦图像融合技术是为了突破传统相机景深的限制,将焦点不同的多幅图像合成一幅全聚焦图像,以获得更加全面的信息。以往基于空间域和基于变换域的方法,需要手动进行活动水平的测量和融合规则的设计,较为复杂。所提出的方法与传统的神经网络相比增加了提取浅层特征信息的部分,提高了分类准确率。将源图像输入训练好的多尺度特征网络中获得初始焦点图,然后对焦点图进行后处理,最后使用逐像素加权平均规则获得全聚焦融合图像。实验结果表明,本文方法融合而成的全聚焦图像清晰度高,保有细节丰富且失真度小,主、客观评价结果均优于其他方法。
多聚焦图像融合 卷积神经网络 多尺度特征 multi-focus image fusion convolutional neural network multi-scale features 
光学仪器
2021, 43(5): 40

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!