基于剪切波变换和邻域结构特征的红外与可见光图像融合 下载: 907次
1 引言
随着半导体技术的发展,图像传感器感应成像的波段不断拓宽,传感器获得的图像能够描述场景中目标的不同光谱波段的特征信息。因此,利用图像融合技术综合不同波段图像传感器的互补信息,能最大限度地对拍摄目标以及目标场景进行完整的信息描述[1]。红外传感器对物体表面温度具有良好的观测性能,可见光传感器在光照条件差时成像质量差,将两者融合能够突出目标,实现全天候探测隐藏目标[2]。目前,红外与可见光图像融合技术主要应用于**、医学和遥感成像领域,对国家军民建设与安全意义重大。
图像融合一般可以分为像素级、特征级和决策级[3]。红外与可见光图像融合研究主要集中于像素级融合。根据融合方式不同,图像融合可分为空间域融合和变换域融合。空间域融合是指在空间域上对源图像的灰度信息直接操作,包括加权平均法、主成分分析(PCA)法[4]、独立成分分析(ICA)法、HSI色彩空间[5]和脉冲耦合神经网络(PCNN)法[6]等,此类算法计算简单、速度快,但在实际应用中,其融合后的图像有明显的“水洗”效果[4]。因此,研究人员提出能分析和理解图像特征信息的融合方法——变换域融合。变换域融合是指在变换域内将图像的低频和高频成分按一定的规则分别进行融合。多尺度几何分析理论已被广泛应用于图像融合中,主要有金字塔算法、小波变换算法和后小波变换算法[7]。金字塔算法的分解具有冗余性,各层系数之间具有较强的相关性;小波变换算法能克服金字塔算法的冗余性,各层系数相对独立,但受小波基的限制,小波变换算法不能实现对图像的边缘和轮廓特征的最优非线性逼近。为捕获图像中细节特征,后小波变换算法的支撑区间具有随尺度变化的不同长宽比和不同方向的近似长条形结构,能够用较少的系数有效地表示图像中具有方向性和各向异性的特征[8]。之后,轮廓波算法、非下采样轮廓波变换(NSCT) 算法、剪切波多尺度几何分析工具等相继被提出。轮廓波算法利用方向滤波器得到更多的高频方向子带,但轮廓波变换不具有平移不变性会导致伪吉布斯现象,为避免这种现象,研究人员提出了NSCT算法。NSCT算法具有平移不变性,但是非下采样操作增加了冗余度。另外,由于小波变换算法和轮廓波变换算法自身结构存在问题,所分解的系数不能充分获得方向性信息,融合效果不能很好地突出目标细节信息。剪切波算法虽然与轮廓波算法有类似的处理过程,但剪切波算法以梯形对的形式逼近图像的细节信息[9],使其支撑基具有各向异性,增加了剪切波算法的稀疏性[10]。基于此,选用剪切波算法作为融合框架。
图像融合质量不仅取决于图像融合框架,还受融合规则的影响。常用的融合规则包括基于像素点、基于图像区域和基于图像邻域等融合规则[7]。基于像素点的融合规则是直接将源图像像素点的灰度值作为融合权重的因子,包括加权平均法、绝对值取大法和绝对值取小法,这类融合规则没有考虑局部区域内相邻像素(系数)之间的相关性。基于图像区域的融合规则是源于图像分割的思想,根据图像的灰度信息和色彩信息划分图像区域,再依据显著信息指导融合权重的选择,但这种规则容易引入虚假轮廓,且自适应性不强。基于图像邻域的融合规则是根据源图像窗口内的统计特性来决定融合权重,常用的统计特性有能量、梯度和对比度等[11]。由于二维图像中邻域块之间具有较强的相关性,单个像素点或区域不能完全表征图像的区域特征,故基于像素点或区域的融合规则不能很好地表示源图像的目标轮廓信息,而邻域规则考虑了窗口内的结构特征。
因此,本文从融合框架和融合规则两部分针对目标轮廓模糊和细节不突出问题进行解决,在剪切波框架的基础上提出了一种基于邻域结构特征融合规则的红外和可见光图像融合算法。通过剪切波变换对源图像进行分解得到与源图像同尺寸的高频和低频子带系数;在低频子带系数上采用几何距离与能量距离加权的融合规则,对高频子带系数采用灰度差异与梯度距离加权的融合规则;经剪切波逆变换得到融合后图像。结果表明,该方法可在保留图像轮廓信息的基础上,凸显目标信息,有效地改善图像融合效果。
2 图像的剪切波变换
剪切波变换是在小波理论和仿射系统理论的基础上发展起来的,是几何与多分辨分析理论相结合的产物,具有很好的方向选择性,更加符合人眼视觉特性。处理二维图像时,其仿射系统为[12]
式中基函数
剪切波能实现尺度变换和几何变换,表明这种合成小波具有多分辨率分析的特点,可以在各个尺度、位置和方向上构造紧框架。分析其支撑条件和
如
3 本文融合算法
剪切波变换提取图像不同频率信息,分解后的子图像仍保持着图像的基本轮廓,图像的信息保留在不同的频带图像上。因此,在剪切波框架下,针对高低频系数涵盖图像不同的信息,采用相应的融合规则,有利于不同频率信息的提取和融合,使融合结果更符合人眼视觉。本文融合算法主要步骤为:
1) 利用剪切波变换分别对源图像进行分解得到红外和可见光图像的高频和低频子带系数。
2) 在低频子带系数上采用几何距离与能量距离加权的融合规则,对高频子带系数采用灰度差异与梯度距离加权的融合规则。
3) 经过剪切波逆变换得到融合后图像。
3.1 低频子带融合规则
低频子带图像包含着源图像的绝大部分能量,反映了图像的近似特性。因此,低频子带的融合规则对红外与可见光图像的互补信息提取有着重要的影响。传统的低频图像融合策略是采用平均值的融合规则,这种系数选择的方法会降低融合图像的对比度并损失部分能量信息。为解决该问题,可以采用局部区域能量的加权平均系数作为低频子带系数的融合规则。文献[ 13]将计算区域内像素点低频能量的算术平均值定义为区域的局部能量,文献[ 14]利用区域内像素点低频能量的高斯加权作为该区域的局部能量,两者均没有考虑源图像低频能量在区域内的结构信息,导致融合后的低频成分存在轮廓等结构信息丢失的问题。为保留融合后低频成分的结构信息,提出了一种基于新的局部能量的低频子带融合规则。该局部能量由区域内相邻像素点之间的几何距离和能量距离加权决定:
式中,
定义
图像融合在点(
为了凸显本文算法在边缘保留上的优势,将该算法的低频成分融合结果与文献[
13-14]算法进行比较。
图 3. 三种融合方法低频效果对比。(a)可见光图像;(b)红外图像;(c)文献[ 13]方法所得图像;(d)文献[ 14]方法所得图像;(e)本文算法所得图像
Fig. 3. Results contrast of low frequency image with three fusion algorithms. (a) Visible image; (b) infrared image; (c) image obtained by Ref.[13] algorithm; (d) image obtained by Ref.[14] algorithm; (e) fusion image obtained by proposed algorithm
3.2 高频子带融合规则
高频子带系数表征图像的边缘或细节等突变特性,包含了源图像中边缘、细节、轮廓等重要特征信息。传统的高频融合规则一般采用绝对值取大的融合规则。这种融合规则只是从单个像素点考虑,不能充分提取细节信息且会容易受到噪点等无用信息的干扰。为了更好地表达图像的边缘和纹理信息,文献[ 15-16]利用图像邻域梯度能量加权作为高频子带融合准则,但是该方法不能很好地凸显图像高频中结构信息的差异。因此,提出了一种新的基于梯度能量和灰度差异的高频成分融合规则。
图像中的噪点一般都是孤立的,与邻域内像素点的相似度很低;在边缘区域上,中心像素点与某一边的像素点具有较高的相似性;在平坦区域上,中心像素点与邻域内所有的像素点均有较强的相似性。中心像素点与周围像素点之间的灰度距离和梯度距离能表征图像邻域内的结构特征。因此,在
式中(
图 4. 图像结构差异图。(a)红外图像;(b)红外图像结构图;(c)可见光图像;(d)可见光图像结构图
Fig. 4. Differences of image structures. (a) Infrared image; (b) structure of infrared image; (c) visible image; (d) structure of visible image
图像的边缘和纹理信息是图像融合中重要的细节信息。因此,源图像中的边缘、纹理等结构特征的提取和保留决定着融合图像的质量。通过计算像素点的灰度距离可以判断该像素点是否属于图像的边缘或纹理信息。像素点的灰度距离越大,该点位于图像的边缘或者纹理的可能性就越大。梯度距离可以将图像的边缘纹理信息和平坦区域分开。由
因此,利用图像结构特征定义中心点(
式中
将两个高频子带对应的结构信息差异表示为
式中
则高频的融合规则定义为
式中
最后,将融合后的高低频系数经过剪切波逆变换返回到空间域。
4 实验结果与分析
为验证本文算法中融合框架和规则的有效性,选择离散小波变换(DWT)[17]、NSCT[13]和非下采样剪切波变换(NSST)算法作对比,其小波和轮廓波分解参数与文献报道一致。本文算法选择分解层次为4层,每层方向数为2
图 5. 第一组红外和可见光图像融合结果对比。(a)可见光图像;(b)红外图像;(c)基于DWT的融合图像; (d)基于NSCT的融合图像;(e)基于NSST的融合图像;(f)本文算法的融合图像
Fig. 5. Fusion results of the first group of infrared and visible images. (a) Visible image; (b) infrared image; (c) fusion image based on DWT; (d) fusion image based on NSCT; (e) fusion image based on NSST; (f) fusion image based on proposed algorithm
从
图 6. 第二组红外和可见光图像融合结果对比。(a)可见光图像;(b)红外图像;(c)基于DWT的融合图像; (d)基于NSCT的融合图像;(e)基于NSST的融合图像;(f)本文算法的融合图像
Fig. 6. Fusion results of the second group of infrared and visible images. (a) Visible image; (b) infrared image; (c) fusion image based on DWT; (d) fusion image based on NSCT; (e) fusion image based on NSST; (f) fusion image based on proposed algorithm
图 7. 第三组红外和可见光图像融合结果对比。(a)可见光图像;(b)红外图像;(c)基于DWT的融合图像; (d)基于NSCT的融合图像;(e)基于NSST的融合图像;(f)本文算法的融合图像
Fig. 7. Fusion results of the third group of infrared and visible images. (a) Visible image; (b) infrared image; (c) fusion image based on DWT; (d) fusion image based on NSCT; (e) fusion image based on NSST; (f) fusion image based on proposed algorithm
第二组对比实验选取红外信息多且目标分散的路面图像。由
第三组对比实验选取空旷的海天背景的红外与可见光图像。由
综上所述,比较不同融合算法所得融合图像效果可以看出,采用本文算法所得融合图像的视觉效果最好,图像的目标轮廓信息明显,且突出了图像中的细节。
为了进一步证明本文算法的有效性,采用信息熵
表 1. 不同算法所得融合图像结果的客观评价
Table 1. Objective evaluation of fusion images using different algorithms
|
对比不同融合图像结果可以看出,采用DWT算法所得融合图像的边缘不清晰,主要是由于小波变换只能表示图像的“点”奇异信息,不能很好地表示边缘等高维信息。采用NSCT算法所得融合图像的边缘出现了明显的伪影现象,主要是由于轮廓波缺少平移不变性。由
5 结论
提出了一种在剪切波框架下基于邻域结构特征的红外与可见光图像融合的算法,即在低频子带融合时采用几何距离与能量距离相结合的策略,在高频子带融合时采用梯度距离与灰度差异相结合的策略,解决了融合图像目标轮廓信息模糊和目标不突出的问题,并验证了该方法的有效性。对比实验结果表明,在视觉效果方面,本文算法能有效地提取红外目标信息、保持可见光图像信息。通过客观评价,与3种常规方法相比,本文算法在信息熵、图像清晰度、互信息、边缘信息保留值和结构相似度方面具有明显的优势。不足之处在于该算法对大背景下结构特征少的图像融合效果较差,需要采用对比实验阐明融合效果差的原因。
[1] 周渝人. 红外与可见光图像融合算法研究[D]. 长春: 中国科学院大学, 2014: 1- 3.
周渝人. 红外与可见光图像融合算法研究[D]. 长春: 中国科学院大学, 2014: 1- 3.
ZhouYuren. Research on fusion algorithms of infrared and visible images[D]. Changchun: University of Chinese Academy of Sciences, 2014: 1- 3.
ZhouYuren. Research on fusion algorithms of infrared and visible images[D]. Changchun: University of Chinese Academy of Sciences, 2014: 1- 3.
[2] 郭明, 符拯, 奚晓梁. 基于局部能量的NSCT域红外与可见光图像融合算法[J]. 红外与激光工程, 2012, 41(8): 2229-2235.
郭明, 符拯, 奚晓梁. 基于局部能量的NSCT域红外与可见光图像融合算法[J]. 红外与激光工程, 2012, 41(8): 2229-2235.
Guo Ming, Fu Zheng, Xi Xiaoliang. Novel fusion algorithms for infrared and visible images based on local energy in NSCT domain[J]. Infrared and Laser Engineering, 2012, 41(8): 2229-2235.
[4] Smith MI, Heather JP. A review of image fusion technology in 2005[C]. SPIE, 2005, 5782: 29- 45.
Smith MI, Heather JP. A review of image fusion technology in 2005[C]. SPIE, 2005, 5782: 29- 45.
[5] Tu T M, Su S C, Shyu H C, et al. A new look at HIS-like image fusion methods[J]. Information Fusion, 2001, 2(3): 177-186.
Tu T M, Su S C, Shyu H C, et al. A new look at HIS-like image fusion methods[J]. Information Fusion, 2001, 2(3): 177-186.
[7] 吴迪. 红外与可见光图像融合算法研究[D]. 成都: 中国科学院大学, 2015: 12- 17.
吴迪. 红外与可见光图像融合算法研究[D]. 成都: 中国科学院大学, 2015: 12- 17.
WuDi. Research on the fusion algorithm of infrared image and visible image[D]. Chengdu: University of Chinese Academy of Sciences, 2015: 12- 17.
WuDi. Research on the fusion algorithm of infrared image and visible image[D]. Chengdu: University of Chinese Academy of Sciences, 2015: 12- 17.
[8] 叶传奇. 基于多尺度分解的多传感器图像融合算法研究[D]. 西安: 西安电子科技大学, 2009: 35- 39.
叶传奇. 基于多尺度分解的多传感器图像融合算法研究[D]. 西安: 西安电子科技大学, 2009: 35- 39.
YeChuanqi. Research on multi-sensor image fusion algorithm based on multiscale decomposition[D]. Xi'an:Xidian University, 2009: 35- 39.
YeChuanqi. Research on multi-sensor image fusion algorithm based on multiscale decomposition[D]. Xi'an:Xidian University, 2009: 35- 39.
[9] 吴一全. 改进投影梯度NMF的NSST域多光谱与全色图像融合[J]. 光学学报, 2015, 35(4): 0410005.
吴一全. 改进投影梯度NMF的NSST域多光谱与全色图像融合[J]. 光学学报, 2015, 35(4): 0410005.
[10] 王雷. 多模态医学图像配准与融合关键算法研究[D]. 广州: 华南理工大学, 2013: 59- 63.
王雷. 多模态医学图像配准与融合关键算法研究[D]. 广州: 华南理工大学, 2013: 59- 63.
WangLei. Study for the key algorithms in multi-modal medical image registration and fusion[D]. Guangzhou: South China University of Technology, 2013: 59- 63.
WangLei. Study for the key algorithms in multi-modal medical image registration and fusion[D]. Guangzhou: South China University of Technology, 2013: 59- 63.
[11] Li H, Manjunath B, Mitra S. Multisensor image fusion using the wavelet transform[J]. Graphical and Models Image Processing, 1995, 57(3): 235-245.
Li H, Manjunath B, Mitra S. Multisensor image fusion using the wavelet transform[J]. Graphical and Models Image Processing, 1995, 57(3): 235-245.
[13] 张蕾. 采用非采样Contourlet变换与区域分类的红外和可见光图像融合[J]. 光学精密工程, 2015, 23(3): 810-818.
张蕾. 采用非采样Contourlet变换与区域分类的红外和可见光图像融合[J]. 光学精密工程, 2015, 23(3): 810-818.
[14] 戴文战. 基于人眼视觉特性的NSCT医学图像自适应融合[J]. 电子学报, 2016, 44(8): 1932-1939.
戴文战. 基于人眼视觉特性的NSCT医学图像自适应融合[J]. 电子学报, 2016, 44(8): 1932-1939.
Dai Wenzhan. Adaptive medical image fusion based on human visual features[J]. Acta Electronica Sinica, 2016, 44(8): 1932-1939.
[15] 邢雅琼. 基于非下采样剪切波变换域方向信息测度的多聚焦图像融合方法[J]. 系统工程与电子技术, 2015, 37(1): 191-198.
邢雅琼. 基于非下采样剪切波变换域方向信息测度的多聚焦图像融合方法[J]. 系统工程与电子技术, 2015, 37(1): 191-198.
Xing Yaqiong. Fusion technique for multi-focus images based on orientation information measurement in non-subsample shearlet transform domain[J]. Systems Engineering and Electronics, 2015, 37(1): 191-198.
[16] 刘健. 基于NSST域隐马尔科夫树模型的SAR和灰度可见光图像融合[J]. 控制与决策, 2016, 31(3): 453-457.
刘健. 基于NSST域隐马尔科夫树模型的SAR和灰度可见光图像融合[J]. 控制与决策, 2016, 31(3): 453-457.
Liu Jian. Fusion technique for SAR and gray visible image based on hidden Markov model in non-subsample shearlet transform domain[J]. Control and Decision, 2016, 31(3): 453-457.
Wang Z, Bovik A. A universal image quality index[J]. IEEE Signal Process Letters, 2002, 9(3): 81-84.
Article Outline
丁文杉, 毕笃彦, 何林远, 凡遵林, 吴冬鹏. 基于剪切波变换和邻域结构特征的红外与可见光图像融合[J]. 光学学报, 2017, 37(10): 1010002. Wenshan Ding, Duyan Bi, Linyuan He, Zunlin Fan, Dongpeng Wu. Fusion of Infrared and Visible Images Based on Shearlet Transform and Neighborhood Structure Features[J]. Acta Optica Sinica, 2017, 37(10): 1010002.