光子学报, 2022, 51 (2): 0210004, 网络出版: 2022-05-19  

基于阶梯网络与交叉融合的端到端图像去雾

End-to-end Image Dehazing Based on Ladder Network and Cross Fusion
作者单位
兰州交通大学 电子与信息工程学院,兰州 730070
摘要
针对卷积神经网络类图像去雾方法存在的细节丢失、颜色失真、去雾不彻底等问题,提出一种基于阶梯网络与注意力交叉融合的端到端图像去雾算法。整体网络模型包含特征提取、特征融合、图像重建三个模块,其中特征提取包括有雾图像细节和轮廓特征的提取,由阶梯网络的不同阶梯层提取实现;特征融合模块以注意力机制的交叉融合实现,并结合自适应残差处理获得最终的融合特征;最后在图像重建模块,通过非线性映射的方式获得去雾图像。实验结果表明,所提方法去雾彻底,去雾图像细节丰富,有效地解决了颜色失真和细节丢失问题,同时阶梯网络在很大程度上克服了深度网络的训练耗时问题。
Abstract
Haze scenes seriously affect the working performance and accuracy of computer vision systems. As an important research direction in the field of computer vision, image dehazing has always attracted the attention of researchers. Convolutional neural networks play a good role in image processing problems by virtue of their advantages. Therefore, convolutional neural networks are also used in image dehazing tasks. The mainstream dehazing algorithms are mainly divided into two categories, one is the image recovery algorithm based on atmospheric scattering model, and the other is the training learning dehazing algorithm based on convolutional neural network. Although the recovery class of dehazing algorithms considers the nature of haze image formation and obtains good results, the pathological nature of the atmospheric scattering model leads to the need for precise a prior conditions and harsh constraint rules, making the applicability of this class of algorithms limited. The idea of convolutional neural network-like dehazing algorithm is to train a convolutional network model with dehazing capability on synthetic dataset. In recent years, some researchers have designed a variety of image dehazing networks, although all of these networks achieve the effect of image dehazing, they still have many shortcomings. The main manifestation is that the dehaze image is too dark, the detail is lost seriously, the color is distorted and the dehazing is not complete. To address these problems, an image dehazing algorithm based on step-type network extraction and attention cross-fusion mechanism is proposed. The whole network model contains three modules, the stepped feature extraction network, the feature fusion module based on the attention mechanism and the clear image generation module. Among them, the step-type network performs detail and contour feature extraction of haze images, the fusion module adaptively fuses the detail and contour features in an attention mechanism, and the generation module outputs the dehaze images. In the feature fusion module, the residual structure is introduced to enhance the feature information and improve the accuracy of the network. The loss function used for network training is a combination of mean square error loss and perceptual loss, and the perceptual loss can effectively improve the semantic information of the features with haze images, which in turn leads to a more accurate dehaze image. The network model is considered to reach stability after the loss values reach convergence. After the network model is trained, rich experiments are used to demonstrate the validity and feasibility of the proposed model. The experiments in this article include two parts: the main experiment and the ablation experiment, and both the main experiment and the ablation experiment are analyzed in comparison from two perspectives: subjective evaluation and objective evaluation. The subjective evaluation uses experimental objects with haze images in real environments and synthetic images in datasets, and the objective evaluation uses some publicly available and widely used quantitative metrics. The experimental results show that the proposed model has good results for both haze images in real environment and synthetic images in the dataset. The dehaze image obtained by the proposed model has richer detail information, more natural color effect, more suitable brightness information and more complete dehazing effect. Experiments on different datasets demonstrate the wide applicability of the proposed model. In the objective evaluation, the proposed model also shows a clear advantage. It has a clear lead in the no-reference metric visible edge increase rate, average gradient, number of saturated pixel points and histogram similarity, and also outperforms the comparison algorithm in structural similarity and peak signal-to-noise ratio. The main experiments demonstrate the validity and feasibility of the proposed model, and in addition, local detail comparison experiments are used to demonstrate the performance of the proposed Moses on the detail information of the dehaze images. To demonstrate the necessity and importance of each component module in the proposed model, ablation experiment is used in this paper. The ablation experiments demonstrate the effectiveness of the step-type network for extracting detail features and contour features, and the effectiveness of the fusion approach under the attention mechanism. Although the proposed model obtains better dehazing effect, it is weaker for dense haze images. The dehazing method for dense haze images is something that needs to be focused on in the future.

0 引言

雾天场景下,光的传播极易被大气中悬浮颗粒影响,导致采集到的图像质量严重受损,表现为对比度下降、颜色偏移等。计算机视觉的高级任务对图像的清晰度具有严格的要求,例如车牌检测、人脸识别等,因此对于雾天场景下采集到的图像清晰化处理具有十分重要的研究意义。

目前主流的去雾算法主要分为两类,一类是基于大气散射模型的图像复原算法,另一类是基于卷积神经网络的训练学习去雾算法。基于复原类的去雾算法主要以HE K等1提出的暗通道先验算法为代表,但由于该算法对天空等高亮区域透射率的错误估计,导致复原结果天空区域出现较为严重的偏色、失真等问题。XU Y等2提出了一种较为准确的大气光估计方法,但由于其透射率估计不准确,去雾结果仍然存在一定的失真现象。YANG Y等3为了消除图像去雾中的光晕和伪影等问题,提出了一种边缘保持函数估计透射率的方法,该算法的去雾结果亮度清晰,很大程度克服了光晕问题,但对于一些含有超远景的有雾图像,该算法存在去雾不彻底现象。尽管基于大气散射模型4-921-22的图像复原取得了快速发展,但由于约束条件的使用导致该类算法复杂度高,且由于先验信息的引入,导致复原结果出现了偏色和失真等问题。

近年,随着深度学习的快速发展,研究人员将卷积神经网络应用于图像去雾领域。CAI B等10设计了一种去雾网络(Dehaze-Net),Dehaze-Net利用多尺度映射和最大池化等操作得到透射率,并根据大气散射模型获得去雾图像。REN W Q等11提出了一种多尺度网络结构(Multi-scale Convolutional Neural Network,MSCNN),MSCNN以粗尺度网络进行透射率提取,并以细尺度网络完成透射率优化,取得了较好的去雾结果,但对于含有天空等区域的图像,存在明显的偏色问题。LI B等12将透射率和大气光联合训练(All-in-One Dehazing Network,AOD-Net)的方式有效地解决了分别学习引入的误差叠加问题,但由于其网络太过简单,没有深入分析图像特征,导致去雾结果存在亮度偏暗和去雾不彻底现象。LIU R等13提出了一种残差网络结构,并结合先验信息得到透射率训练,但由于先验信息不具有普适性,导致其网络模型的稳定性较低,对于真实环境下的有雾图像有明显的失真现象。QIAN W等14设计了一种颜色提取和深度去雾网络(Color Inverse Atmospheric Scattering Modeling,CIASM-Net),尽管该网络考虑了图像颜色特征,但由于透射率的单独训练,导致其去雾结果仍具不稳定性。综上,基于卷积神经网络的去雾算法15-1723近年来层出不穷,但依然存在特征提取不准确、去雾结果细节丢失、偏色等问题。

针对以上问题,本文提出了一种用以特征提取的阶梯型网络结构。首先阶梯网络的设计,有效地克服了深度网络的训练耗时问题;其次以阶梯网络中不同层次的阶梯提取有雾图像的不同特征,并在底层阶梯中引入逐层补偿的方式进行细节特征提取,得到了有雾图像较为完整的细节特征,顶层阶梯完成有雾图像轮廓特征的提取;然后结合通道注意力机制对轮廓特征和细节特征进行交叉融合,得到有雾图像的融合特征;最后结合非线性映射的方式在图像重建模块获得清晰图像。

1 本文网络模型

目前被广泛用于去雾的大气散射模型是单散射方程,而实际中许多雾图的形成与多散射有关,因此单散射模型的参数机制本身具有一定的局限。另外,大多非端到端的去雾模型仍然以大气散射模型为依据,使用卷积神经网络实现对透射率和大气光的训练学习,进而结合大气散射模型获取清晰图像,但此类方法忽视了多变量训练学习引起的误差叠加和积累问题,严重影响了模型的精度。为了不受单散射模型参数影响且消除误差累积问题,本文设计了一种只考虑输入雾图的端到端去雾网络。

卷积神经网络凭借其独特的优势在计算机视觉问题中获得了充分的发挥。本文针对雾天图像退化问题,设计了一种基于阶梯型网络提取与注意力交叉融合的去雾网络,通过阶梯型网络提取有雾图像的轮廓特征(Contour Feature,CF)和细节特征(Detailed Feature,DF),并引入通道注意力机制分别对轮廓和细节特征进行交叉融合处理,最后将融合特征输入到重建网络模块,即可得到去雾图像。整个训练不依赖大气散射模型,消除了透射率与大气光估计导致的误差叠加问题,实现了真正意义上的图像端到端复原。本文整体网络结构如图1

图 1. 本文网络结构

Fig. 1. The network structure of this article

下载图片 查看所有图片

1.1 特征提取

雾天图像的复原问题不仅要考虑去雾程度问题,复原图像细节和轮廓保留也同等重要。在卷积神经网络中,卷积主要是对输入数据进行处理,通过卷积核参数得到所需要的特征。为了获得更加准确的有雾图像特征,对轮廓特征和细节特征分别在不同的子网络中提取,通常网络结构越深,提取到的特征就越丰富,但深度网络在丢失信息的同时往往具有较高的复杂度,训练耗时,且稳定性较低。本文利用阶梯网络交叉融合的方式进行特征提取。卷积参数共享的优势不仅减少了各层之间的连接,同时又降低了网络过拟合的问题。采用二维卷积进行有雾图像特征的提取,整个阶梯网络分为轮廓特征提取模块和细节特征提取模块,共有5层阶梯和15层卷积,每一层阶梯的第一层均为1×1卷积,其余层为3×3卷积,3×3卷积相比于大尺度卷积,有着更少的参数量和计算量,为了获取更加有效的特征,本文卷积均采用参数为1的移动步长。为了保证卷积输出尺寸与输入的一致性,对不同卷积核的卷积分别进行填充处理,填充参数与输出尺寸之间的关系为

O=(M-K+2P)/S+1

式中,O表示输出特征的尺寸,M表示输入特征的尺寸,K为卷积核尺寸,P表示填充参数,S为卷积步长,特征提取阶梯网络结构如图2

图 2. 特征提取网络

Fig. 2. Feature extraction network

下载图片 查看所有图片

整个特征提取网络包含细节特征提取网络(Detailed Feature Extraction Network,DFEN)和轮廓特征提取网络(Contour Feature Extraction Network,CFEN)。深度卷积计算通常可以提取出图像更加丰富的特征,因此利用所提阶梯网络的下两层阶梯进行有雾图像细节特征的提取,利用阶梯网络的上三层阶梯进行图像轮廓特征的提取,从图像特征出发,浅层卷积更加注重局部特征的获取,深度卷积能捕获图像深层的特征。

在DFEN模块中,为了进行细节特征的有效提取,对两层阶梯的分层特征进行逐步向前补偿。具体实现为将底层的各层输出特征与上层对应位置卷积的输入进行通道融合,这种处理有效地避免了深层网络出现的细节丢失和反向计算时的梯度消失问题。为了保证捕获更加丰富的细节特征,同时考虑到网络参数量问题,在DFEN两层阶梯的最后一层卷积输出3通道特征图,其余层均输出32通道的分层特征图像。

在CFEN模块中,利用三个浅层阶梯进行轮廓特征的提取,三层阶梯后两层的第一层卷积层均采用1×1的卷积,其余均使用3×3的卷积。轮廓特征主要是反映图像的边缘等局部特征信息,对于复原结果的视觉效果具有较大的影响,本文CFEN三层阶梯的最后一层卷积输出3通道的轮廓特征图,其余层输出16通道的分层轮廓特征。整个特征提取网络避免了深度网络引入的局限性,以阶梯的形式进行特征提取网络的设计,各层特征互相补偿,获得了更加有效地有雾图像特征。随机选取RESIDE数据集18中的几幅图像进行特征提取分析,有雾图像的细节特征和轮廓特征如图3,可以看出,DFEN的输出保留了有雾图像的一些内容信息,很大程度地涵盖了有雾图像的细节特征。CFEN的输出近似表现了有雾图像的轮廓等局部特征,而将有雾图像的具体细节进行了模糊化。为了重建出细节和轮廓更加丰富的去雾图像,在阶梯提取网络后设计了一种注意力交叉融合网络,通过将提取的特征资源进行合理地加权融合,进而得到融合特征。

图 3. 有雾图像及其特征图

Fig. 3. Hazy image and its feature map

下载图片 查看所有图片

1.2 注意力交叉融合

与传统图像融合方式不同,本文提出了一种基于注意力的交叉特征融合策略。对于不同的有雾图像,细节特征和轮廓特征的影响往往不同。边缘等局部特征丰富的图像,轮廓特征对复原图像的影响较大;对于一些全局特征较丰富的图像,细节等全局特征对复原图像具有较大的影响。因此引入通道注意力机制,对原图直接进行注意力处理,并得到一组与特征通道数相同的自适应权重值,进而根据轮廓特征和细节特征的比重进行权值分配,注意力交叉融合模块如图4

图 4. 注意力交叉融合模块

Fig. 4. Attention cross fusion module

下载图片 查看所有图片

在融合模块中,将经过注意力加权的轮廓和细节特征进行交叉融合。这种处理方式可以根据原图特征的分布将所提取的细节和轮廓特征进行自适应的有效融合,进而得到细节和轮廓特征丰富的清晰图像。如果将阶梯网络提取的细节和轮廓特征分别记为FDFC,将两种特征对应的通道注意力权重记为mn,则经过注意力加权后的细节和轮廓特征可以表示为

FD'=FD×mFC'=FC×n

融合过程如式(5)~(6),首先对于细节和轮廓特征分别和其对应的特征权重进行相乘,然后将带有注意力权重的细节和轮廓特征进行融合,并将该融合特征作为融合模块的上下层输入,进而得到融合特征。

F1=FD'+FC×mF2=FC'+FD×n

式中,F1F2分别表示融合网络模块的两层输入,为了克服权重融合后特征会出现局部过粗糙现象,导致复原结果视觉效果下降,对输入特征分别进行一层3×3卷积实现特征的平滑处理,并将该结果作为下一层的输入。从特征提取网络到注意力交叉融合网络,网络层次逐渐加深,本文引入残差处理的思想对图像特征进行补偿,具体实现是对原始图像经过一层1×1卷积处理,并将1×1卷积的输出与经过平滑处理的融合网络输入特征进行逐像素残差操作,这种处理在克服梯度消失问题的同时,对深层网络的特征减少和信息丢失起到了较大的补偿作用。最后对经过残差补偿处理的特征进行一层卷积和逐像素融合处理,进而得到细节和轮廓特征的融合特征。

1.3 损失函数与训练细节

为了提高去雾图像的语义特征,采用均方误差(MSE)损失和感知损失的组合作为整个训练过程的损失函数。均方误差损失可以逐像素的反映出去雾图像和数据集标签的差异性,其数学表达式如式(6),感知损失预训练网络采用VGG-1918,感知损失采用VGG-19输出的特征图进行计算,感知损失表达式如式(7)

L2=1NHWi=1NJi-Ji'2LP=i=131CjHjWjφj(J)-φj(J')2

式中,N表示训练集样本数目,HW表示图像尺寸。Ji表示网络输出结果,Ji'表示对应的清晰图像。J表示去雾图像,J'表示对应的清晰图像,ϕj(J)表示去雾图像对应的语义特征图,ϕj(J')表示清晰图像对应的语义特征图。则总的损失函数表示为

L=L2+λLP

式中,λ为感知损失权值,取值为0.1。整个网络模型基于Python实现,在Torch框架下实现,训练环境为NVIDIA GTX 1050 TI。训练集采用公开数据集RESIDE19中的ITS(Indoor Training Set)和OTS(Outdoor Training Set),数据集包含1 399张标签图像和对应的13 990张不同浓度的有雾图像。选择SOTS(Synthetic Objective Testing Set)作为网络模型的测试集,测试集包含500张室内图和500张室外图。当训练周期为60左右时,整个训练过程达到收敛状态,训练过程中学习率为0.000 1。

1.4 图像重建

图像重建模块主要由输入特征,一层卷积层和输出图像组成。图像重建模块的卷积核大小为3×3,卷积步长为1,输出通道为3通道,在卷积层后接Relu激活函数,以非线性映射的方式得到最终的清晰图像。图像重建模块如图5,户外真实环境下雾图的复原结果及各层特征图如图6。从图6的各层特征图和复原结果可以看出,各层特征都准确的反映了所提取的信息,复原结果具有彻底的去雾效果且颜色自然、细节丰富,具有较佳的视觉效果。

图 5. 图像重建

Fig. 5. Image reconstruction

下载图片 查看所有图片

图 6. 真实雾图特征及复原示意图

Fig. 6. Real hazy image feature and restoration schematic diagram

下载图片 查看所有图片

2 实验分析

为了验证本文算法的可行性和有效性,以主观视觉对比和客观指标分析两种评价方法进行实验分析。在主观视觉对比试验中,分别选取一些户外真实有雾图像、Reside数据集、NYU数据集、Middlebury数据集中的雾图作为实验对象,对比算法选择HE K等1提出的DCP算法、WANG W等4提出的线性传输算法、CAI B等10提出的Dehaze-Net算法、LI B等12提出的AOD-Net算法、REN W Q等15提出的GFN算法、QIN X等16提出的FFA-Net算法。

2.1 主观评价

主观评价可以直接以视觉效果体现各算法的差异性,主观实验对比图如图7~10、为真实环境有雾图像实验结果,图8为Reside数据集实验结果,图9为NYU数据集实验结果,图10为Middlebury数据集实验结果。

图 7. 真实有雾图像实验结果

Fig. 7. Experimental results of real hazy images

下载图片 查看所有图片

图 8. Reside数据集实验结果

Fig. 8. Experimental results of the Reside dataset

下载图片 查看所有图片

图 9. NYU数据集实验结果

Fig. 9. Experimental results of the NYU dataset

下载图片 查看所有图片

图 10. Middlebury数据集实验结果

Fig. 10. Experimental results of the Middlebury dataset

下载图片 查看所有图片

图7可以看出,对于真实环境下的有雾图像,He等算法在色彩上出现了严重的过饱和现象和明显的光晕、伪影。Wang等算法去雾彻底,但色彩失真问题比较明显。Cai等算法色彩保持较好,但存在去雾不彻底现象。Li等算法颜色保持较好,但去雾图像整体偏暗。Ren等算法去雾较为彻底,但对于天空区域发生了严重的偏色。Qin等算法去雾不彻底,且出现了天空区域的色彩渲染和失真问题。本文算法考虑了图像的细节和边缘特征的恢复,去雾彻底,亮度适宜、颜色自然、细节丰富。

从图8~10可以看出,对于测试集图像,He等算法在色彩上同样出现了严重的过饱和现象。Wang等算法局部色彩失真问题比较明显。Cai等算法和Li等算法颜色保持较好,但去雾图像整体偏暗且留有残雾。Ren等算法整体去雾较为彻底,但出现了局部过饱和现象。本文算法在测试集上的表现同样理想,去雾彻底,颜色保真度较高,细节和边缘更加丰富。

为了进一步体现所提网络模型的优越性,将复原图像局部放大进行对比分析。随机选取户外真实环境下的有雾图像进行局部放大对比,放大对比图如图11。可以看出He等和Wang等去雾较为彻底,但由于透射率估计不准确,复原结果出现了颜色偏移和局部失真问题。Cai等复原结果明显偏暗;Ren等、Li等和Qin等算法存在去雾不彻底现象,本文算法复原结果去雾彻底、亮度自然、细节清晰。

图 11. 局部放大示意

Fig. 11. Partial enlarged schematic

下载图片 查看所有图片

2.2 客观评价

考虑到主观评价的片面性,将以客观评价的方式定量地去分析对比本文去雾网络模型的有效性和可行性。对真实环境下的有雾图像采用无参考图像质量评价方法,选择新增可见边数e,平均梯度r,饱和像素点数δ和直方图相似度HCC作为客观指标,其中er和HCC越大越好,δ越小越好2024。对测试集图像采用全参考图像质量评价方法,选取峰值信噪比PSNR和结构相似性SSIM作为客观指标,PSNR和SSIM均是越大越好。上述指标的计算表达式分别为

e=nr-n0n0r=exp1nrpiΔlogriδ=nsW×HSSIM=(2μiμo+ω1)(2σ+ω2)(μi2+μo2+ω1)(σi2+σo2+ω2)PSNR=10log10255fi-fo2

式中,nrn0分别表示有雾图像和无雾图像的可见边数,Δ表示无雾图像可见边集合。ns是去雾图像比有雾图像多出像素值为0或255的个数。μiμo表示输入与输出的均值,σ表示输入输出的协方差,μi2μo2表示输入输出的方差,ω1ω2是避免分母为0的常数,fifo表示数据集清晰图像和本文算法去雾图像。对图7对应的各算法结果进行客观指标对比分析,各算法平均定量指标对比如表1,测试集各算法客观指标如表2~4

表 1. 各算法真实有雾图像指标对比

Table 1. Comparison of real hazy image indicators of various algorithms

He'sWang'sCai'sLi'sRen'sQin'sOurs
e0.328 80.265 70.216 60.272 10.318 60.243 10.376 8
r1.380 51.274 31.333 61.302 21.440 11.218 71.449 3
δ0.065 40.008 40.223 90.014 30.044 20.016 70.012 0
HCC0.193 00.143 50.134 70.078 60.106 40.151 50.194 2

查看所有表

表 2. 各算法RESIDE测试集指标

Table 2. RESIDE test set indicators of every algorithm

He'sWang'sCai'sLi'sRen'sQin'sOurs
PSNR15.8816.7820.1617.4716.8820.7621.47
SSIM0.966 80.927 80.964 90.945 40.937 50.968 40.967 7

查看所有表

表 3. 各算法NYU测试集指标

Table 3. NYU test set indicators of every algorithm

He'sWang'sCai'sLi'sRen'sQin'sOurs
PSNR16.7117.4220.4819.0618.2720.9621.24
SSIM0.927 00.893 50.912 90.904 90.901 60.923 80.928 9

查看所有表

表 4. 各算法Middlebury测试集指标

Table 4. Middlebury test set indicators of every algorithm

He'sWang'sCai'sLi'sRen'sQin'sOurs
PSNR15.2416.6919.8617.8917.2520.0820.46
SSIM0.948 90.903 80.927 00.912 60.910 90.951 50.950 6

查看所有表

表1可以看出,对于真实环境下的有雾图像复原,He's算法整体取得了较好的指标;Wang's算法在饱和像素点指标中优势较大;由于网络模型的局限性,Cai's算法、Li's算法和Qin's算法对真实环境下的有雾图像处理效果一般,其各指标没有明显的优势。除饱和像素点指标稍差,Ren's算法的其余指标同样较为理想。本文算法除饱和像素点指标略低于Wang's算法,其余各指标均优于对比算法。从表2~4可以看出,对于测试集图像,基于网络模型的算法整体优于传统复原算法,在对比算法中,Qin's算法的PSNR指标较高,He's算法在SSIM上表现较好;本文算法在3个测试集中整体表现优良,PSNR和SSIM指标均优于对比算法。结合主客观评价,本文算法具有较高的可行性和有效性。

2.3 消融实验

为了说明整个网络各模块的有效性和必要性,将进行消融实验。主要包括以下实验:1)以有雾图像的轮廓特征(Contour Feature,CF)进行复原实验;2)以有雾图像的细节特征(Detailed Feature,DF)进行复原实验;3)以有雾图像的细节和轮廓特征的非注意力交叉融合(Non-Attention Cross Fusion,N-ACF)进行复原实验。随机选取真实环境下的两幅有雾图像和RESIDE测试集的两幅图像进行消融实验主观分析,并在RESIDE数据集中的SOTS测试集上进行消融实验客观指标分析。消融实验对比图如图12,通过对比可以发现,仅利用细节特征DF的复原图像去雾彻底,但颜色过饱和问题较严重,且出现了明显的发暗现象;仅利用轮廓特征CF的复原结果颜色保持较好,但复原结果留有大量的残雾,且细节信息丢失严重;利用非注意力融合方式的复原结果同样出现了发暗和颜色过饱和现象;利用注意力机制交叉融合细节特征DF和轮廓特征CF的复原结果颜色自然、去雾干净、细节信息丰富。表5是消融实验的客观指标,同样可以看出ACF的有效性,因此本文网络的各模块均具有较高的有效性和必要性。

图 12. 消融实验对比图

Fig. 12. Comparison of ablation experiments

下载图片 查看所有图片

表 5. 消融实验客观指标

Table 5. Objective indicators of ablation experiment

DFCFN-ACFACF
PSNR18.5118.5519.2521.47
SSIM0.943 70.960 90.971 50.987 7

查看所有表

3 结论

本文设计了一种阶梯型网络和注意力交叉融合的图像去雾算法,分别用阶梯网络的上下阶梯提取有雾图像细节特征和轮廓特征。该方法不仅具有较高的精度,且克服了深度网络训练耗时的问题。利用注意力机制交叉融合获得了有雾图像的有效特征,在不考虑大气散射模型的条件下,通过非线性映射输出去雾图像,克服了大气散射模型参数难以估计对复原结果产生的误差。整体网络模型具有较低的复杂度,且在主客观实验中均取得了良好结果,有效地解决了雾天图像复原过程中的偏色、失真和细节信息不丰富等问题。

参考文献

[1] HE K, SUN J, TANG X O, et al. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2011, 33(12): 2341-2353.

[2] XUY, GUOX, WANGH, et al. Single image haze removal using light and dark channel prior[C]. IEEE International Conference on Communications in China,2016: 1-6. DOI: 10.1109/iccchina.2016.7636813

[3] YANG Y, WANG Z W. Haze removal: push DCP at the edge[J]. IEEE Signal Processing Letters, 2020, 27: 1405-1409.

[4] WANG W, YUAN X, WU X, et al. Fast image dehazing method based on linear transformation[J]. IEEE Transactions on Multimedia, 2017, 19(6): 1142-1155.

[5] MENGG, WANGY, DUANJ, et al. Efficient image dehazing with boundary constraint and contextual regularization[C]. IEEE International Conference on Computer Vision, 2014: 617-624.

[6] SUN W, WANG H, SUN C, et al. Fast single image haze removal via local atmospheric light veil estimation[J]. Computers & Electrical Engineering, 2015, 46(C): 371-383.

[7] MEIW, LIX. Single image dehazing using dark channel fusion and haze density weight[C]. IEEE International Conference on Electronics Information and Emergency Communication, 2019: 579-585. DOI: 10.1109/iceiec.2019.8784493

[8] BI G, REN J, FU T, et al. Image dehazing based on accurate estimation of transmission in the atmospheric scattering model[J]. IEEE Photonics Journal, 2017, 9(4): 1-18.

[9] JACKSON J, KUN S, AGYEKUM K O, et al. A fast single-image dehazing algorithm based on dark channel prior and Rayleigh scattering[J]. IEEE Access, 2020, 8: 73330-73339.

[10] CAI B, XU X, JIA K, et al. Dehaze-Net: an end-to-end system for single image haze removal[J]. IEEE Transactions on Image Processing, 2016, 25(11): 5187-5198.

[11] REN W Q, LIU S, ZHANG H, et al. Single image dehazing via multi-scale convolutional neural networks[J]. Computer Vision, 2016: 154-169.

[12] LIB, PENGX, WANGZ, et al. AOD-Net: All-in-one dehazing network[C]. IEEE International Conference on Computer Vision, 2017: 4780-4788. DOI: 10.1109/iccv.2017.511

[13] LIU R, FAN X, HOU M, et al. Learning aggregated transmission propagation networks for haze removal and beyond[J]. IEEE Transactions on Neural Networks and Learning Systems, 2019, 30(10): 2973-2986.

[14] QIANW, ZHOUC, ZHANGD. CIASM-Net: a novel convolutional neural network for dehazing image[C]. IEEE International Conference on Computer and Communication Systems, 2020: 329-333. DOI: 10.1109/icccs49078.2020.9118601

[15] RENW, MAL, ZHANGJ, et al. Gated fusion network for single image dehazing[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 3253-3261. DOI: 10.1109/cvpr.2018.00343

[16] QINX, WANGZ, BAIY, et al. FFA-Net: feature fusion attention network for single image dehazing[C]. Association for the Advance of Artificial Intelligence, 2020: 11908-11915. DOI: 10.1609/aaai.v34i07.6865

[17] LI C, GUO C, GUO J. PDR-Net: perception-inspired single image dehazing network with refinement[J]. IEEE Transactions on Multimedia, 2020, 22(3): 704-716.

[18] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J], 2014, arXiv preprint arXiv.

[19] LI. B, REN W Q, FU D, et al. Benchmarking single-image dehazing and beyond[J]. IEEE Transactions on Image Processing, 2019, 28(1): 492-505.

[20] MIN X, ZHAI G, GU K, et al. Quality evaluation of image dehazing methods using synthetic hazy images[J]. IEEE Transactions on Multimedia, 2019: 2319-2333.

[21] 张晨, 杨燕. 基于融合与高斯加权暗通道的单幅图像去雾算法[J]. 光子学报, 2019, 48(1): 0110001.

    ZHANG Chen, YANG Yan. Single image defogging algorithm based on fusion and Gaussian weighted dark channel[J]. Acta Photonica Sinica, 2019, 48(1): 0110001.

[22] 高隽, 褚擎天, 张旭东, 等. 结合光场深度估计和大气散射模型的图像去雾方法[J]. 光子学报, 2020, 49(7): 0710001.

    GAO Jun, CHU Qingtian, ZHANG Xudong, et al. Image defogging method combining light field depth estimation and atmospheric scattering model[J]. Acta Photonica Sinica, 2020, 49(7): 0710001.

[23] 杨爱萍, 刘瑾, 邢金娜, 等. 基于内容特征和风格特征融合的单幅图像去雾网络[J]. 自动化学报, 2020: 1-11.

    YANG Aiping, LIU Jin, XING Jinna, et al. Single image dehazing network based on the fusion of content feature and style feature[J]. Acta Automatica Sinica, 2020: 1-11.

[24] 郭璠, 蔡自兴. 图像去雾算法清晰化效果客观评价方法[J]. 自动化学报, 2012, 38(9): 1410-1419.

    GUO Fan, CAI Zixing. Objective evaluation method of image dehazing algorithm's clearing effect[J]. Acta Automatica Sinica, 2012, 38(9): 1410-1919.

杨燕, 张金龙, 梁小珍. 基于阶梯网络与交叉融合的端到端图像去雾[J]. 光子学报, 2022, 51(2): 0210004. Yan YANG, Jinlong ZHANG, Xiaozhen LIANG. End-to-end Image Dehazing Based on Ladder Network and Cross Fusion[J]. ACTA PHOTONICA SINICA, 2022, 51(2): 0210004.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!