光电工程, 2024, 50 (12): 230225, 网络出版: 2024-03-26  

基于双频域特征聚合的低照度图像增强

Low-light image enhancement based on dual-frequency domain feature aggregation
作者单位
1 西安建筑科技大学 信息与控制工程学院,陕西 西安 710055
2 西安市建筑制造智动化技术重点实验室,陕西 西安 710055
摘要
Abstract
Aiming at the problems of poor low-light image quality, noise, and blurred texture, a low-light enhancement network (DF-DFANet) based on dual-frequency domain feature aggregation is proposed. Firstly, a spectral illumination estimation module (FDIEM) is constructed to realize cross-domain feature extraction, which can adjust the frequency domain feature map to suppress noise signals through conjugate symmetric constraints and improve the multi-scale fusion efficiency by layer-by-layer fusion to expand the range of the feature map. Secondly, the multispectral dual attention module (MSAM) is designed to focus on the local frequency characteristics of the image, and pay attention to the detailed information of the image through the wavelet domain space and channel attention mechanism. Finally, the dual-domain feature aggregation module (DDFAM) is proposed to fuse the feature information of the Fourier domain and the wavelet domain, and use the activation function to calculate the adaptive adjustment weight to achieve pixel-level image enhancement and combine the Fourier domain global information to improve the fusion effect. The experimental results show that the PSNR of the proposed network on the LOL dataset reaches 24.3714 and the SSIM reaches 0.8937. Compared with the comparison network, the proposed network enhancement effect is more natural.

1 引言

道路监控是智慧交通领域的重要组成部分,然而在低照度条件下的夜间场景中,摄像头采集到的图像亮度、对比度较低,且存在较多噪声颗粒,这为交通监管领域重要目标检测、识别等视觉任务带来了难度。低照度图像增强可以有效改善图像视觉效果,然而原始图像画质较低,不合理的降噪策略容易造成纹理模糊等图像退化问题,使得低照度图像增强任务具有较大的挑战性[1]

已有低照度图像增强算法分为传统方法和基于深度学习的方法两类。传统低照度图像增强方法主要以直方图均衡化(histogram equalization,HE)和基于Retinex理论的方法为主。Li等[2]针对低画质图像难以保留细节信息的问题,提出了一种基于融合的QCFs低照度图像增强方法,将全局QCFs图像和局部对比度受限HE图像相融合来提高图像画面质量。Pan等[3]基于Retinex理论利用亮度增强函数(BEF)和自适应对比度增强(IACE)进行多尺度融合,使用高斯拉普拉斯金字塔对增强估计的光照图进行改善。李平等[4]设计了单尺度Retinex自适应增强方法,通过引导滤波对图像照度分量进行评估,再经过Gamma矫正光照图以实现自适应图像增强。

由于深度学习发展迅速,在低照度图像增强领域的应用也越来越广泛。Zhao等[5]受到Retinex理论的启发,提出了一种基于视网膜的光照注意力网络(retinex-based illumination attention network,RIANet),采用多分支结构来提取不同感受野下的光照特征,构建照明注意力块来缓解图像光照不均、对比度低等问题。Wu等[6]提出了一种基于视网膜的深度展开网络(retinex-based deep unfolding network,URetinexNet),通过隐式先验正则化模型设计迭代学习模块,循环分解图像实现噪声抑制和照度调整。Jiang等[7]针对分解得到反射图存在较多噪声的问题,提出了一种无监督分解与校正网络(unsupervised decomposition and correction network,UDCN),通过无监督噪声降噪网络(noise remove network, NRN)以HE增强图像为参照对象,在内部一致性约束、混合无参考质量感知损失函数的指导下去除阴影噪声。虽然基于Retinex理论和卷积网络通过调整分解光照分量的方式实现了低照度增强,但是基于Retinex理论和卷积神经网络的结构中,空间域的卷积堆叠操作容易损失图像结构信息,不合理的降噪策略难以区分高频信息与噪声信号,导致光照图对图像空间信息表征能力减弱,反射图在降噪过程中容易丢失纹理结构。

为解决上述问题,研究者们通过二维傅里叶变换(fast Fourier transform, FFT)将空间图像分解为不同频率、方向复平面波之和的形式,并用复数矩阵存储平面波的波动大小和平移量,利用卷积神经网络学习复平面信息分布以抑制异常峰值点,从而提高网络区分噪声信号和纹理信息的能力。Li等[8]提出了一种超高清傅里叶低照度增强网络(embedding Fourier for ultra-high- definition network,UHDFour),构建傅里叶卷积模块对振幅图和相位图进行分离处理,在傅里叶频域通过振幅图调整低照度图像亮度值,融合后的增强图像避免在增强亮度的同时放大噪声。Zhang等[9]为避免图像数据非线性映射到RGB色彩空间引入额外的噪声和伪影,提出了一种基于空间到光谱的跨尺度低照度增强网络,通过在三分支上嵌入快速傅里叶卷积块(FFC)和Transformer块,以扩大感受野范围和聚合多尺度特征。Hai等[10]提出了R2RNet网络实现低照度图像增强,利用空间信息提高图像亮度、对比度,同时通过FFT提取频域特征来保留图像细节信息。Lin等[11]为解决弱光环境下的增强过程中,容易造成过度曝光和局部模糊的问题,提出了一种基于退化特征向量引导的低照度网络,在提取到暗区和亮区上退化特征向量的基础上,设计快速傅里叶残差注意力块(FFR-DG),指导网络恢复图像细节特征。然而,频域卷积是通过引入快速傅里叶变换将RGB图像信号映射到频域向量空间并进行处理的方法,频域特征图上很小的扰动都会影响空间域全局图像的变化,容易导致低照度增强图像纹理细节模糊和空间结构信息损失。

小波变换(wavelet transform,WT)能够实现对图像全局空间信息的局部分析,通过伸缩平移运算对特征图逐步进行多尺度细化,区分高、低频率特征以避免相互之间的干扰影响,从而聚焦到任意频率特征细节处进行分析,提高网络恢复低照度图像细节方面的能力。Xu等[12]为充分利用光照信息改善图像质量,提出了一种基于光照引导的小波注意力网络(illumination guided attentive wavelet network,IGAWN),通过注意力小波变换层(attention wavelet transform layer,ADWT)对图像高、低频率进行分离,增强图像小波域的重要特征的表达并抑制冗余的噪声信号。Fan等[13]提出了一种M-Net的半小波注意力网络(half wavelet attention M-Net,HWMNet),在不同尺度的特征层上使用半小波注意力块以丰富小波域的特征,通过融合不同分辨率图像来丰富特征图的上下文信息,改善下采样造成的空间信息损失。胡聪等[14]为改善空间域卷积运算造成结构信息损失,提出了一种融合半波注意力模块的低光照图像增强算法,利用半波注意力模块获得采集小波域特征的能力,提高网络恢复图像细节特征的能力。Chen等[15]提出了一种基于注意力的广义引导网络(attention-based broad self-guided network,ABSGN),在小波域的低分辨率特征图上利用全局空间注意力块(GSA)关注上下文信息,采用多级引导密集块(MGDB)融合多尺度特征图,提高特征映射重用性,但是直接在小波域进行图像降噪任务需要网络具有较好的特征表征能力,以充分提取全局和局部的特征,导致网络运算成本的增加。

综上所述,虽然深度学习实现低照度图像增强已取得一定的效果,但在增强亮度、对比度的同时,容易放大阴影噪声,不合理的降噪策略常导致图像信息损失严重,出现不同程度的细节模糊,尤其对于画面质量较差的低照度图像,往往难以恢复丢失的纹理结构。为解决上述问题,提出一种基于双频域的特征聚合网络(dual frequency domain feature aggregation network,DF-DFANet)。首先,设计频谱光照估计模块(FDIEM),通过傅里叶域频谱特征图提取低照度图像全局特征,在频域拉升图像亮度的同时减少对噪声信号的响应。其次,提出多谱双注意力模块(MSAM),利用空间、通道注意力机制使得网络关注小波特征子图上重要特征,提高网络恢复图像细节信息的能力。最后,构建双域特征聚合模块(DDFAM)自适应学习不同像素级特征调整权重参数,并通过复数域卷积促进融合特征信息,增强图像色彩表现的自然性和纹理细节的丰富性。

2 基于双频域的特征聚合网络

为了解决低照度图像增强过程中容易出现噪声放大、纹理模糊等退化问题,提出了一种基于双频域的特征聚合网络,该网络主要由傅里叶域分支、小波域分支和双域特征聚合模块构成。其中傅里叶域分支,通过快速傅里叶变化使得浅层特征图具有全局感受野信息,由频谱光照估计模块(FDIEM)构建共轭约束条件提取丰富语义信息,逐层融合不同尺寸特征图并得到精细化的光照图;小波域分支主要由空洞卷积和多谱双注意力模块(MSAM)组成,结合通道和空间维度强化子空间特征纹理细节信息;双域特征聚合模块(DDFAM)自适应融合分支特征图,引导不同维度特征图之间相互信息互补,进一步提升融合图像颜色纹理特征的表达能力。所提DF-DFANet网络结构如图1所示。

图 1. DF-DFANet网络结构

Fig. 1. DF-DFANet network structure

下载图片 查看所有图片

2.1 频谱光照估计模块

针对空间域卷积神经网络在低照度图像增强过程中,提升图像亮度、对比度的同时容易放大阴影噪声的问题,提出一种频谱光照估计模块(frequency domain illumination estimation module,FDIEM),首先,在傅里叶分支上低照度输入图像通过快速傅里叶变换从空域转换到频域表示,频域特征矩阵中实部表示为振幅,虚部表示为相位,则分解得到振幅图和相位图分别包含图像的亮度和噪声信息[8],对其各自进行复数卷积运算[16]可有效避免图像亮度提升对噪声放大的影响。此外,傅里叶域特征图具有覆盖全局图像的感受野[17],使得浅层网络获得包含全局上下文信息的特征图,提升网络对低照度图像的提取和表征能力。二维图像连续傅里叶变换、离散傅里叶变换和离散傅里叶逆变换计算表达式如下:

F(u,v)=++f(x,y)ej2π(ux+vy)dxdy,

F(u,v)=x=0M1y=0N1f(x,y)ej2π(uxM+vyN),

f(x,y)=1MNu=0M1v=0N1F(u,v)ej2π(uxM+vyN),

式中:xy表示图像空间域像素点坐标,uv表示傅里叶频域特征图点坐标,MN表示分别图像长、宽,f(x,y)表示输入的低照度图像,F(u,v)表示傅里叶频域特征图。

其次,通过频谱光照估计模块分离频谱特征图复数矩阵的实部与虚部,获得包含颜色纹理信息的振幅图和包含语义信息的相位图。根据傅里叶变换的共轭对称性,任意一个信号序列都可由其共轭对称序列与共轭反对称序列和的形式表示,利用复数卷积层构建二维傅里叶共轭对称约束条件对,从而实现频谱光照估计模块。在经过卷积网络反向传播求导更新权重参数后,实现利用相位图的语义信息引导振幅图关注重要频率特征,并抑制无关噪声信号响应以达到图像降噪效果。频谱光照估计模块构建的共轭对称约束条件对计算表达式如下:

{F^P=ϕ(FP)+φ(FA)F^A=ϕ(FA)φ(FP),

式中:FP为原始相位特征,FA原始振幅特征,φ()ϕ()为互不相关的卷积运算,F^P为相位特征增强结果,F^A为振幅特征增强结果。

最后,高分辨率特征图和低分辨率特征图具有相似的振幅图,从而实现通过获取低分辨率的振幅图来调整高分辨率的亮度值,降低网络计算成本,所以将不同尺度的特征图采用逐步上采样组合的方式[18]获得亮度增强后的照度图,提高网络特征图的融合效率[19]。频谱光照估计模块如图2所示。

图 2. 频谱光照估计模块结构

Fig. 2. Structure of spectral illumination estimation module

下载图片 查看所有图片

在频谱光照估计模块中,令输入振幅矩阵和相位矩阵分别为FAFP,并送入各自分支的复数卷积层中,再经过层归一化和激活函数得到共轭约束关系输出结果F^AF^P,并且循环其输出结果作为下一层复数卷积输入,从而获得增强频域特征的振幅和相位图。频谱光照估计模块计算表达式如下:

{FAi+1=R(N(C(FAi)))R(N(C(FPi))),{i=0,1}FPi+1=R(N(C(FPi)))+R(N(C(FPi))),{i=0,1},

式中:R表示ReLU激活函数,N表示层归一化操作,C表示复数卷积层,FAi表示第i个层的振幅特征图,FPi表示第i个层的相位特征图。

2.2 多谱双注意力模块

针对复杂弱光环境下难以提取低照度图像深层特征的问题,常用网络通过空间域卷积层堆叠的方式从而获得更大的感受野范围,但容易导致图像结构信息的损失。为解决此问题,提出一种多谱双注意力模块(multiple spectral attention module,MSAM),在小波域分支上,通过连续空洞卷积扩大特征图感受野范围,并引入多谱双注意力模块。该分支利用小波变换将图像投影到由尺度函数和小波函数簇构成的子空间,实现对特定信息分量的分离与观测,提高网络对细节特征的表征能力。然而对所得特征图进行简单的相加或拼接操作未曾考虑小波低频和高频特征系数分布的不同,容易造成细节信息丢失,并且在提取高频细节特征操作中容易保留阴影噪声,因此引入注意力机制可以进一步促进有用特征的频率响应,通道和空间注意力机制并联的结构设计有效缓解了不同注意力先后排列顺序造成的特征差异[20]。二维小波变换、离散小波变换和离散小波反变换计算表达式如下:

{φ(x,y)=φ(x)φ(y)ψH(x,y)=ψ(x)φ(y)ψV(x,y)=φ(x)ψ(y)ψD(x,y)=ψ(x)ψ(y),

{φj,m,n=2j2φ(2jxm,2jyn)ψj,m,ni(x,y)=2j2ψi(2jxm,2jyn),i={H,V,D}Wφ(j0,m,n)=1MNx=0M1y=0N1f(x,y)φj0,m,n(x,y)Wψi(j,m,n)=1MNx=0M1y=0N1f(x,y)ψj,m,ni(x,y),i={H,V,D},

f(x,y)=1MNmnWφ(j0,m,n)φj0,m,n(x,y)+1MNi=H,V,Dj=j0mnWψi(j,m,n)ψj0,m,ni(x,y),

式中:φ(x,y)表示二维尺度函数,φ(x)φ(y)表示一维尺度函数,ψH(x,y)ψV(x,y)ψD(x,y)分别表示沿水平、垂直、对角线方向变化的二维小波函数,ψ(x)ψ(y)表示一维小波函数。i表示方向小波,MN表示图像长、宽,f(x,y)表示输入图像,j0表示任意的开始尺度,Wφ(j0,m,n)表示图像在尺度j0处的近似系数,Wψi(j,m,n)表示对图像附加水平、垂直和对角方向的细节系数,H、V、D分别表示水平、垂直、对角线方向。

首先,堆叠多个空洞卷积提取图像结构特征并设置不同大小空洞率的卷积,在扩大特征提取范围的同时避免出现网格伪影。其次,在级联卷积层之间嵌入多谱双注意力模块,对输入图像进行分解得到低频特征和高频特征,并沿其水平、垂直和对角线方向进行重构,所得子特征图是空间域特征在小波组合频段的表示,从而提升网络对图像边缘和纹理结构的特征响应。然后,通过并行注意力机制对特征图在空间和通道维度上进行加权,强化重要目标特征的显著性区域,自适应调整不同通道特征图的权重分布。最后,利用1×1卷积将高频特征系数重构到低频特征图,对其进行逆小波变换形成包含丰富上下文信息的图像轮廓特征图。浅层特征图经过级联空洞卷积和多谱双注意力模块提取小波域细节特征,输入特征先经过单个空洞卷积层获得输出特征图FDii{1,2,3,,n},令其空洞率为dd{1,3,,2×(n1)+1}。然后,多谱双注意力模块将空间域特征图转换到小波域进行处理,令模块输出特征图为FWAMii{1,2,3,,n}。最后,将级联空洞卷积和多谱双注意力模块各阶段输出特征图进行通道堆叠操作,令卷积融合后的输出特征图为FW。小波域分支计算表达式如下:

FW=Conv{Cat[DConv(FWAM1),,DConv(FWAMi)},

式中:Conv为卷积融合操作,Cat为通道堆叠,DConv为空洞卷积,i为第i个小波注意力块,FWAMi为第i个小波注意力块输出特征,FW为小波域分支部分输出特征图。

由于网络空间域和傅里叶域的卷积操作,容易造成图像空间信息损失,加入多谱双注意力模块实现恢复图像细节信息。首先,可逆的小波变换过程对图像特征具有分离特性,将包含低频信息、水平高频信息、垂直高频信息、对角高频信息的子空间特征图进行通道堆叠。其次,利用空间和通道注意力机制给予不同频率的特征图以相应的权重参数,增强特征图中细节信息的表达,同时抑制不同频率中的噪声信号。最后,将各个维度特征图进行通道堆叠操作,经过卷积融合操作后的特征图与输入特征图逐像素相加,增强特征重用和信息流动。多谱双注意力模块结构如图3所示。

图 3. 多谱双注意力模块结构

Fig. 3. Structure of multiple spectral attention module

下载图片 查看所有图片

首先,在多谱双注意力模块中,令模块输入特征为FD,经过小波变换操作后获得小波域的特征图为FfwFfwRC×H×W,将其沿水平和垂直方向对其低频、水平、垂直、对角信息子空间特征图做通道堆叠处理,得到堆叠后特征图为FfwvhFfwvhR4C×H2×W2。其次,令经过空间和通道注意力机制的输出堆叠特征图为FwscaFwscaR8C×H2×W2。最后,利用3×3卷积对特征图进行降维,并通过残差连接对输入和输出特征图进行逐像素相加操作。多谱双注意力模块计算表达式如下:

{Ffwvh=CatDHVA[DWT[Conv3(Conv3(FD))]]Fwsca=Cat[SA(Ffwvh)+CA(Ffwvh)]FWAM=Conv1(FD)+Conv1(Fwsca)+Ffwvh,

式中:FD为模块输入特征,Conv3(·)Conv1(·)分别为卷积核大小为3×3、1×1的卷积运算,DWT[·]为小波变换操作,CatDHVA[·]为按水平、垂直方向堆叠操作,Ffwvh为子空间特征图通道堆叠输出,SA(·)CA(·)分别为空间、通道注意力运算,Fwsca为空间通道注意力输出特征,FWAM为多谱双注意力模块特征输出。

2.3 双域特征聚合模块

虽然融合不同维度的特征图可以互补相关信息,有效增强网络对特征的表达能力,但是特征图逐像素相加或相乘的融合策略难以有效利用不同特征图相关信息的空间映射关系,常导致特征融合操作图像细节增强效果不佳。为解决此问题,提出一种双域特征聚合模块(dual domain feature aggregation module,DDFAM)。由于傅里叶域和小波域的处理过程相互独立,作为该模块输入的光照图和细节图具有不同的特征分布,通过自适应计算两个特征图的权重比例关系以实现在融合过程中的软注意力机制[21],提高网络在恢复低照度图像光照和细节方面的能力。因此,首先将傅里叶域分支输出光照图和小波域分支输出细节图进行通道堆叠,并利用softmax激活函数赋予每个像素权重系数,实现特征图之间相关信息的映射。然后通过得到的权重系数对两个特征图进行逐像素相乘与相加操作,对融合特征图进行像素级细节调整。最后结合傅里叶域特征图具有全局感受野的特性[22],利用复数卷积将实数域特征图映射到复数域空间,提升网络在复数特征空间的表征能力,融合不同分支上特征图可有效增强网络对图像恢复纹理结构的能力,提高增强图像的视觉感知质量。双域特征聚合模块结构如图4所示。

图 4. 频域特征聚合模块结构

Fig. 4. Structure of frequency domain feature aggregation module

下载图片 查看所有图片

在双域特征聚合模块中,令傅里叶域分支和小波域分支输出特征作为模块输入特征FFFW,按通道维度堆叠后的特征图为FFW。然后,经过softmax激活函数计算得到参数权重矩阵为wfws,其与输入特征图逐像素相乘得到像素级增强后的特征图FfsFws。最后,增强后特征图FfsFws进行相加融合并作为傅里叶域卷积块输入特征Ffcin,分别对其实部和虚部进行卷积运算,在全局范围感受野下增强融合效果,获得双域特征聚合模块输出特征图FM。其计算表达式如下:

{wfs,wws=Softmax(Conv(Cat(FF,FW)))Ffcin=(FFwf)(FWws)FM=Conv(fIFFT(fFFT(Ffcin))+Ffcin),

式中:Softmax()为softmax激活函数运算,wfswws为激活函数计算结果权重矩阵,为逐像素相乘运算,为逐像素相加运算,Ffcin为像素级增强后的特征图,fFFTfIFFT为傅里叶变换和傅里叶反变换,FM为模块输出特征。

2.4 损失函数

损失函数使用常用的结构损失函数、感知损失函数和傅里叶损失函数,则网络总损失函数定义为三部分损失函数加权和的形式,如式(12)所示。

Ltotal=Lssim+αLperc+βLfourier,

式中:根据经验值设置权重αβ分别为0.2、0.1,Lssim表示结构损失函数,Lperc表示感知损失函数,Lfourier表示傅里叶损失函数。

结构损失函数为避免逐像素计算差异的方法造成图像模糊,通过将图像属性中的亮度、对比度和结构信息进行分离,用均值作为亮度的估计,标准差作为对比度的估计,协方差作为结构相似程度的度量,排除亮度和对比度对结构相似性的影响,提高网络对纹理结构的重建恢复能力。令Lssim表示结构损失函数,如式(13)所示:

Lssim=1(2μSμS^+c1)(2σSS^+c2)(μS2+μS^2+c1)(σS2+σS^2+c2),

式中: μSμS^分别表示预测图像S^和真实图像S的均值,σSσS^分别表示预测图像S^和真实图像S的方差,σSS^表示预测图像S^和真实图像S的协方差,c1c2表示维持数值稳定的常数,沿用文献[23]的方法设定c1=(k1L)2c2=(k2L)2L表示图像像素值的动态范围,k1=0.01k2=0.03

感知损失函数[24]利用欧式距离计算特征图之间的差值,通过固定VGG19网络提高对浅层颜色纹理特征和深层高级语义特征的感知能力,使得增强图像具有更好的视觉性能。令Lperc表示感知损失函数,如式(14)所示:

Lperc=1CtHtWtPt(S^)Pt(S)22,

式中:t表示VGG19预训练权重第t层,CtHtWt分别表示VGG19预训练权重第t层特征图的通道数、宽、高,第t层的特征图的尺寸大小,Pt表示VGG19预训练权重第t层特征,S^表示预测图像,S表示真实图像,·2表示L2范数。

傅里叶损失函数通过计算真实图像和预测图像的振幅图和相位图之间平均差[25],引导网络从频域角度恢复纹理特征实现对空间域特征图的补充,最小化真实图像与预测图像之间的差距,提高网络对频域特征的敏感性。令Lfourier表示傅里叶损失函数,如式(15)所示:

Lfourier=1Ni=0nCat[SA,SP]Cat[S^A,S^P]2,

式中:N表示图像像素点,Cat[]表示特征图拼接操作,S^表示预测图像,S表示真实图像,A、P分别表示图像的振幅图和相位图。

3 实验和结果分析

3.1 实验数据集及平台参数设置

实验平台采用Intel(R) Xeon(R) Gold 6130 处理器,128 GB内存,NVIDIA RTX 2080Ti 11 GB显卡,Ubuntu 18LTS操作系统,环境配置为CUDA10.2+Python3.6.9+Pytorch1.6。低照度图像增强对比实验数据集包括:LOL、MIT-Adobe FiveK。

LOL数据集是来自于真实场景下的500对低照度图像,通过改变采集设备的感光度和曝光值,并进行拍摄以获得低照度图像和相应的正常曝光图像。由于LOL训练数据集数量较少,为避免出现过拟合现象,对正常曝光图像进行亮度调整,得到不同亮度等级的低照度图像10000张,并对其进行反转、旋转等数据增强处理以达到扩充数据集的目的。MIT-Adobe FiveK数据集是通过调整相机传感器参数模拟模拟相机曝光过程制作,对5000张原始RGB图像调整曝光值,模拟非线性渲染过程实现不同曝光水平的图像,最终得到24330张具有不同曝光设置的8位sRGB图像。实验所用数据集组成图像拍摄场景多样化且内容丰富,图像光照条件多变,使得这些数据集在低照度实验中具有较强的泛化能力和鲁棒性。

网络训练优化器使用Adam优化器,初始学习率设置为0.0001,在训练任务完成 20 轮之后学习率衰减10倍,网络迭代次数epoch设置为200,batch size为8,patch size为256。训练过程中,按照8:2划分为训练和测试数据集,对 400×600原始图像进行随机裁剪选取256×256图像块作为网络输入。

3.2 评价指标

客观评价评价指标采用峰值信噪比(PSNR)、结构相似性(SSIM)、学习感知图像块相似度(LPIPS)。各类评价指标定义如下:

峰值信噪比(Peak signal to noise ratio,PSNR)是衡量图像含噪声程度的指标,单位为dB,如式(16)所示:

PSNR=10×log10((2n1)2MSE).

结构相似性(structural similarity,SSIM)是一种基于人眼视觉感知的图像质量评估方法,从亮度、对比度和结构三个维度来评估图像之间的相似度,如式(17)所示:

SSIM=(2μxμy+c1)(2σxy+c2)(μx2+μy2+c1)(σx2+σy2+c2).

学习感知图像块相似度(Learned perceptual image patch similarity,LPIPS)是用于衡量增强图像和真实图像之间差异量,如式(18)所示:

d(x,x0)=l1HlWlh,wwl(y^ly^lhw)22,

式中:xy分别为真实图像和增强图像,MSE为均方误差计算结果,n为图像存储比特位数,μxμy分别为xy的均值,σxσyσxy分别为各自方差和协方差,c1c2分别为常数,WlHl为第l提取到特征图的宽高,wl为放缩激活通道数。

3.3 LOL数据集实验与分析

为验证所提网络对低照度图像的增强效果,与其他对比网络进行对比实验,实验结果如图5所示,图5(a)为低照度输入图像,从图5(b-j)分别为对比网络RetinexNet[26]、Zero-DCE[27]、DSLR[28]、KinD[29]、EnGAN[30]、RUAS[31]、URetinexNet[6]、R2RNet[10]和UHDFour[8]的增强结果,图5(k)为所提网络DF-DFANet的增强结果,图5 (l)为真实图像。

图 5. LOL数据集增强结果对比

Fig. 5. LOL dataset enhancement results comparison

下载图片 查看所有图片

3.3.1 定性分析

图5可知,RetinexNet增强图像的颜色饱和度过高,如图5(b)所示,第(3)行图像墙体颜色艳丽、明亮度较高,与真实图像视觉差距较大,因其光照分量和反射分量融合过程简单,导致颜色特征出现偏差。Zero-DCE的增强图像曝光值偏低,如图5(c)所示,第(1)行橱柜的亮度水平较低且存在大面积阴影区域,因为利用简单的亮度调节参数曲线使得网络泛化能力降低。DSLR利用拉普拉斯金字塔结构提升对局部细节的表征能力,但不同尺寸特征图的简单融合导致图像伪影现象,如图5(d)所示,第(1)行橱柜挡板区域出现图像叠影而显得模糊、清晰度不高。由于KinD的降噪子网络对反射图进行下采样操作导致纹理信息损失,易出现边缘模糊,如图5(e)所示,第(3)行数字时钟区域边缘失去纹理细节而变得光滑。基于生成对抗网络的EnGAN训练难度较大,增强图像的色彩表现和真实图像存在一定差距,如图5(f)所示,第(3)行数字时钟颜色饱和度过高,边缘出现明显图像阴影。RUAS是基于Retinex理论的无参考优化模型,通过搜索空间架构优化网络光照估计和降噪结构,但是其适应不同数据集场景的能力较弱,如图5(g)所示,整体图像亮度值较低。URetinexNet通过设计优化模块迭代细化反射图和光照图的方式,自适应恢复光照和反射率,提高增强图像恢复细节,但其存在一定程度的褪色现象,如图5(h)所示,第(2)行观众席彩色墙体相较于真实图像颜色饱和度较低。R2RNet通过傅里叶变换提高增强图像细节信息,但基于Retinex理论模型的子空间特征图融合过程,导致图像色彩表现上饱和度、对比度较低,如图5(i)所示,第(3)行数字时钟区域颜色明显鲜艳度较低。UHDFour通过空间域和频域分离的特征提取方式,降低特征空间的互相作用影响,但空域卷积仍对增强图像纹理结构造成影响,如图5(j)所示,第(3)行数字时钟区域纹理粗糙,且边缘细节结构扭曲。所提网络DF-DFANet利用频谱光照估计模块提升在复杂弱光环境中对深层特征的提取能力,并通过频域特征抑制噪声干扰,多谱双注意力模块有效增强网络图像细节表征能力,双域特征聚合模块自适应融合不同分支特征图,对增强图像进行像素级细节调整,更好保留了增强图像的颜色纹理特征。

3.3.2 定量分析

为进一步验证所提网络的有效性,在LOL测试数据集上进行对比实验,对比指标结果如表1所示。由表1可知,所提网络的增强图像相较于其他对比网络评价指标均有一定的提升。所提网络与基于Retinex理论的RUAS、RetinexNet、URetinexNet相比,PSNR指标分别提升了48.56%、45.29%、14.26%,SSIM指标分别提升了77.53%、110.28%、7.05%;所提网络与具有较好降噪结构的对比网络DSLR、KinD相比,PSNR指标分别提升了62.66%、34.70%,SSIM指标分别提升了49.84%、15.83%;所提网络与无监督对比网络Zero-DCE、RUAS相比,PSNR指标分别提升了63.99%、48.56%,SSIM指标分别提升了58.90%、77.53%;所提网络相较于频域特征增强的网络R2RNet、UHDFour相比,PSNR指标分别提升了20.60%、5.53%,SSIM指标分别提升了9.52%、2.48%。实验结果验证了所提网络DF-DFANet的有效性,其对低照度图像增强的效果最佳,PSNR为24.3714,SSIM为0.8937,LPIPS为0.1525,表明所提网络在恢复低照度图像上,增强图像画面质量更高,保留图像细节信息更丰富,与真实图像结构相似性更高。

表 1. LOL真实低照度数据集测试结果

Table 1. LOL real-world dataset results

MethodPSNRSSIMLPIPS
RetinexNet[26]16.77400.42500.4739
Zero-DCE[27]14.86070.56240.3352
DSLR[28]14.98220.59640.3757
KinD[29]17.64760.77150.1750
EnGAN[30]17.48290.65150.3223
GLAD[32]19.71820.68200.3994
RUAS[31]16.40470.50340.2078
R2RNet[10]20.20700.8160-
UHDFour[8]23.09260.8720-
URetinexNet[6]21.32820.8348-
Ours24.37140.89370.1525

查看所有表

3.4 MIT-Adobe FiveK数据集实验与分析

为验证所提网络对不同场景的泛化性能,在MIT-Adobe FiveK数据集上进行测试实验,对比网络分别为RetinexNet[26]、Zero-DCE[27]、DSLR[28]、KinD[29]、EnGAN[30]、RUAS[31]、URetinexNet[6]、R2RNet[10]和UHDFour[8]。实验结果如图6所示,从图中可发现,在低照度增强方面,Zero-DCE、RUAS的增强图像曝光值仍较低,如图6(c)6(g)所示,第(2)行树丛阴影面积较大,难以识别具体内容,由于无监督网络训练较难,且其特征提取部分网络结构设计过于简单,导致特征图难以精确映射图像不同区域亮度水平,而所提网络在极低照度区域仍能有效提取丰富底层特征,获得精细化的特征图以反应图像光照条件变化。在图像降噪方面,DSLR、KinD、URetinexNet的增强图像对比度较低,颜色饱和度较低,如图6(d)6(e)6(h)所示,第(1)行停车场区域降噪效果优于其他对比网络,但因地面区域纹理结构复杂,降噪后仍存在较多噪声颗粒,而所提网络通过频域自适应学习噪声类型,区分噪声信号和高频纹理细节,使得增强图像纹理细节清晰度更高。在图像颜色恢复方面,RetinexNet、EnGAN的增强结果存在较为明显的颜色失衡,如图6(b)6(f)所示,第(2)行花丛区域调整曝光水平效果较好,但颜色饱和度过高,与真实图像存在较大差距,而所提网络通过双域特征聚合模块进行像素级恢复低照度图像颜色、纹理信息,提高增强图像视觉感知质量。在图像细节恢复方面,R2RNet、UHDFour利用频域特征增强图像细节信息,如图6(i)6(j)所示,与其他对比网络相比,增强图像对比度略有提高,但所提网络通过多谱双注意力模块提取低照度图像细节特征图,获得融合增强图像清晰度更好,视觉效果更具自然性。综上所述,所提网络在MIT-Adobe FiveK数据集上的效果图主观评价对比,验证了网络具有较好的鲁棒性和泛化能力。

图 6. MIT-Adobe FiveK数据集增强结果对比

Fig. 6. Comparison of enhancement results of mit-adobe fivek dataset

下载图片 查看所有图片

为进一步定量评价所提网络的泛化性能,采用PSNR、SSIM、LPIPS作为衡量增强效果的评价指标,对比结果如表2所示。由表中可知,在MIT-Adobe FiveK数据集上,由于数据集取景场地室外风景、日常生活较多,采集图像内容丰富且光照变化剧烈,导致对比网络难以适应不同场景的低照度图像,所提网络相比于DSLR、KinD测试结果的PSNR指标分别提高了12.24%、40.22%,SSIM提升了5.27%、11.28%,LPIPS降低了24.44%、23.03%。数据集中部分低照度低质图像大部分来自室外建筑,其内容细节丰富、复杂弱光条件下的特征密集区域提升特征提取的难度较大,所提网络相比于Zero-DCE、RUAS,PSNR指标分别提高了42.62%、42.05%,SSIM提升了13.79%、10.97%,LPIPS降低了29.99%、17.46%,这是因为对比网络的降噪部分将建筑物边缘细节视为噪声,影响最终还原图像质量,而所提网络利用注意力机制实现在低照度增强过程中抑制了不同类型图像噪声,较好保留物体边缘细节。

表 2. MIT-Adobe FiveK数据集测试结果

Table 2. MIT-Adobe FiveK dataset results

MethodPSNRSSIMLPIPS
Exposure[33]18.74120.81590.1674
CycleGAN[34]19.38230.78520.1636
RetinexNet[26]12.51460.67080.2535
DSLR[28]20.24350.82890.1526
KinD[29]16.20320.78410.1498
EnGAN[30]17.90500.83610.1425
Zero-DCE[27]15.93120.76680.1647
Zero-DCE++[35]14.61110.40550.2309
RUAS[31]15.99530.78630.1397
Ours22.72140.87260.1153

查看所有表

3.5 消融实验与性能分析

3.5.1 多谱双注意力模块的消融实验

为进一步验证多谱双注意力模块中的通道和空间注意力之间连接方式的有效性,在LOL数据集上对所提网络的DDFAM模块进行消融实验。Baseline组设置普通卷积层替换通道和空间注意力块,Serial of CA & SA组设置注意力块组合方式为串行结构,Parallel of CA & SA组设置注意力块组合方式为并行结构,实验效果如图7所示,训练过程PSNR变化曲对比如图8所示,实验数据结果如表3所示。从中可看出,DDFAM模块中的通道和空间注意力采用并行的结构设计时,如图7 (b)7(d)7(e) 第(2)行所示,带注意力机制的模块在降噪方面效果更好,铁锈区域纹理颜色特征恢复更接近真实图像的表达效果,且如图7第一行的三维频谱特征图所示,所提网络采用并行结构的特征图在保留低频和高频部分更具优势;而当模块中注意力组合采用串行结构时,如图7 (c)7(d)7(e) 第(3)行所示,由于模块中不同的注意力机制排列方式,使用注意力实现降噪任务的过程中仍造成较多图像的浅层纹理和颜色信息的损失,灯光区域颜色饱和略低于真实图像,且区域纹理过于平滑。如图8所示,在网络拟合过程中的PSNR指标略高于模块注意力采用串行结构的设计方式,将两路注意力分支并联的结构设计,实现在通道堆叠后特征图仍能保留较多各自通道、空间维度信息,缓解特征图混合后出现信息丢失的现象,再通过卷积层进行融合的方式能够较多保留原有的图像特征,从而提高增强图像的恢复质量。从表3可知,和串行注意力结构对比,DDFAM模块采用并行注意力结构,PSNR提高了3.25%,SSIM提高了8.09%,LPIPS降低了16.98%。

图 7. 模块注意力结构实验效果对比

Fig. 7. Comparison of experimental effects of modular attention structure

下载图片 查看所有图片

图 8. 模块注意力结构的PSNR结果对比

Fig. 8. Comparison of PSNR results for module attention structure

下载图片 查看所有图片

表 3. 模块注意力结构测试对比结果

Table 3. Comparison results of module attention structure testing

MethodPSNRSSIMLPIPS
Baseline22.70520.81470.2078
With serial of CA & SA23.60420.82830.1837
With parallel of CA & SA24.37140.89370.1525

查看所有表

3.5.2 网络模块消融实验

为验证所提网络各模块对低照度图像增强的有效性,在LOL低照度数据集上对各模块进行消融实验。Baseline设置一路分支为U-Net网络,另一路为标准卷积层堆叠结构,特征融合部分为逐像素相加的操作。FDIEM表示基于频谱光照估计模块的傅里叶域分支,MSAM表示嵌入多谱双注意力模块和空洞卷积的小波域分支,DDFAM表示双域特征聚合模块。实验结果如表4所示。由表中可知,所提网络选用的Baseline网络能有效实现低照度图像增强,但是其PSNR和SSIM仅为20.8620、0.8515;对比Baseline、Model-1和Ours的实验数据,FDIEM模块有效提升网络对特征的提取能力,逐层融合所提取到的特征信息,扩大多尺度感受野范围的同时有利于丰富增强图像的语义信息;对比Baseline、Model-2和Ours的实验数据可知,MSAM模块对提升图像质量具有较好的效果;对比Baseline、Model-3和Ours实验组,表明在图像融合阶段引入激活函数对像素进行权重分配,有利于提升图像色彩的恢复效果,通过频域融合特征有利于提升图像质量;最终,所提网络DF-DFANet的PSNR和SSIM分别达到了24.3714、0.8937,各个模块相互作用使得增强图像各项评价指标表现更好,视觉效果更具自然性。

表 4. 网络模块消融实验结果

Table 4. Experimental results of network module ablation

ModelFDIEMMSAMDDFAMPSNRSSIM
Baseline×××20.86200.8515
Model-1×21.35820.8653
Model-2×22.04010.8878
Model-3×21.90680.8919
Ours24.37140.8937

查看所有表

对所提网络各个模块进行消融实验,其效果图对比如图9所示。对比图9(b)9(e)9(f)第(2)行可知,9(b)列图中木质细节纹理保持较好但亮度矫正效果差且存在较多噪声颗粒,验证FDIEM模块能够有效提取低照度图像轮廓信息,通过频域特征图具有丰富上下文语义信息引导网络提取不同频域信息分量,并且具有较好的图像降噪效果;对比图9 (c)9(e)9(f) 第(3)行可知,9(c) 列图中场地白线边缘出现局部模糊现象,验证MSAM模块具有较好的细节特征提取能力,提高网络恢复图像细节信息的能力;对比图9(d)9(e)9(f)第(1)行可知,9(d)列中图像细节信息和纹理结构都保持较好,但是三维频谱特征图频率分量与所提网络和真实图像相比仍存在不足,影响增强图像视觉感知效果,验证所提网络加入DDFAM模块后融合特征图能够缓解包含不同信息的特征之间相互作用影响,提高图像融合效果。对比图9(e)9(f)第(1)行三维频谱图可知,增强图像和真实图像在频域特征上相似性更高,保持低、高频特征更具优势。

图 9. 模块消融实验效果图对比

Fig. 9. Comparison of effect diagrams of modular ablation experiments

下载图片 查看所有图片

3.5.3 网络性能对比实验

为验证所提网络的性能,与对比网络在LOL低照度测试数据集上进行性能测试。低照度图像增强处理单张图像的平均时间、模型大小、浮点运算量与PSNR对比实验数据如表5所示。由表5可知,ZeroDCE虽然处理速度最快,用时仅2 ms,利用亮度估计曲线实现快速增强处理,且模型大小和浮点运算量最少,仅为0.97 M、5.2112 G,但是其PSNR、SSIM指标不高,仅为14.8671、0.5624。MBLLEN的模型参数量较小,大小为1. 95 M,但通过堆叠式去噪自编码器实现低照度图像增强,导致其单图处理速度最慢,用时为80 ms。GLAD、RetinexNet、RDGAN等网络处理速度保持在25 ms左右,且模型大小均在10 M左右,但是PSNR和SSIM指标均较低,同时FLOPs浮点运算量略有增加。KinD处理单张处理速度较快保持在10 ms左右,并且FLOPs运算量较少,仅为29.1303 G,但其PSNR指标不高且模型较大为35 M。URetinexNet增强效果较好,PSNR和SSIM分别为21.3282、0.8348,且代码参数量Para ms仅为0.3401,但是其较高的浮点运算量FLOPs占用过多的计算资源,达到1801.4110 G。最后,虽然所提网络浮点运算量较大,达到288.3776 G,影响网络训练和推理速度,但是增强图像具有较好的图像质量,PSNR为24.3714,SSIM为0.8937。

表 5. 不同网络的PSNR和平均处理时间、模型大小和浮点运算量对比

Table 5. Comparison of different network average processing time, model size and floating-point operations

ModelTime/msParams/MFLOPs/GPSNRSSIM
RetinexNet[26]209.2136.015116.77400.4250
Zero-DCE[27]20.975.211214.86710.5624
KinD[29]103529.130320.37920.7715
EnGAN[30]203361.010217.48280.6515
GLAD[32]2511252.141019.71820.6820
MBLLEN[36]801.9519.956017.85830.7247
LPNet[37]180.150.770021.46120.8020
URetinexNet[6]2.930.341801.411021.32820.8348
Ours481.61288.377624.37140.8937

查看所有表

3.6 真实场景增强实验

低照度图像增强在视频监控领域有着广泛的应用,对车辆管理、交通安全和车流控制都有着极大的应用价值,为了验证所提网络的实际应用效果,在现实车辆监控场景下进行实验与分析,实验结果如图10所示。从图中可知,RetinexNet的增强图像中车辆颜色存在色彩失衡问题,如图10(b)所示,整体图像的车辆颜色饱和度过高,图像色彩扭曲影响检测任务的有效性。ZeroDCE增强图像的车牌字符较为清晰,边缘纹理保持较好,但增强图像亮度是仍偏低,如图10(c)所示,整体图像与所提网络相比曝光值较低。DSLR增强图像如图10(d)所示,第(2)行出租车区域出现伪影和模糊现象,图像结构信息损失严重,且从三维频谱图看出,其高频分量与所提网络相比大大降低。kinD、EnGAN恢复低照度车辆监控图像效果较好,但车辆周围区域存在大面积阴影,影响视觉感官体验,如图10(e)图10(f)所示,第(2)行出租车周围存在阴影。RUAS、URetinexNet对车辆监控弱光图像进行增强处理,但图像亮度值难以保持在正常范围内,影响检测任务的准确率,如图10(g)所示,第(2)行增强图像亮度值偏低,但车牌区域出现过曝现象,第(1)行增强图像亮度值过高,车牌区域出现过曝,影响车牌识别精确度,且从三维频谱图可知,图像高频分量损失严重。所提网络调节低照度图像曝光值方面表现优异,图像画面清晰明亮,对车牌字符边缘细节保留较好,提升车牌定位和识别任务准确性,具有较强稳定性和泛化能力。

图 10. 夜间低照度车辆监控图像测试结果

Fig. 10. Test results of monitoring images of low-light vehicles at night

下载图片 查看所有图片

4 结论

针对低照度图像增强中出现的边缘模糊、图像噪声等退化问题,提出一种基于双频域特征聚合的低照度增强网络。在傅里叶域分支上通过逐层融合频谱光照估计模块提取的频域特征图,扩大特征图感受野范围,结合丰富的上下文语义信息获得精细化光照图;在小波域分支上嵌入多谱双注意力模块,对小波特征图利用空间和通道注意力,提升网络关注图像高频细节特征的能力;双域特征聚合模块利用激活函数获得图像像素分配权重,实现对增强图像更精细化的调整,提高网络恢复图像颜色、纹理的能力。LOL数据集对比实验表明,所提网络PSNR达到24.3714,SSIM达到0.8937。在MIT-Adobe FiveK数据集上,PSNR、SSIM分别达到了22.7214、0.8726。此外,本文在实际应用场景进行了实验测试,增强效果稳定性良好且具有较好鲁棒性和泛化能力,但所提网络浮点运算量FLOPs较大,故降低网络计算量是下一步改进方向。

Overview: Road monitoring is an important part of the field of intelligent transportation. However, in the night scene under the condition of low illumination, the brightness and contrast of the images collected by the camera are low, and there are more noise particles, which brings difficulty to the visual tasks such as detection and recognition of important targets in the field of traffic supervision. Although deep learning has achieved certain results in the enhancement of low-light images, it is easy to amplify shadow noise while enhancing brightness and contrast. Unreasonable noise reduction strategies often lead to different degrees of detail blur in the image, especially for low-light images with poor picture quality, it is often difficult to restore the lost texture structure. To solve these problems, a dual-frequency domain based feature aggregation network (DF-DFANet) is proposed. Firstly, the spectral illumination estimation module (FDIEM) is designed to extract the global features of the image through the Fourier domain spectral feature map and reduce the response to the noise signal while pulling up the brightness of the image in the frequency domain. Secondly, a multispectral dual attention module (MSAM) is proposed, which uses the spatial and channel attention mechanism to make the network focus on the important features of the Baud sign subgraph and improves the ability of the network to recover image details. Finally, a dual-domain feature aggregation module (DDFAM) was constructed to learn the adaptive weight parameters of different pixel level features, and the complex domain convolution was used to promote the fusion of feature information, which enhanced the naturalness of image color performance and the richness of texture details. In the Fourier domain branch, the frequency domain feature map extracted by the spectral illumination estimation module is fused layer by layer, the range of the sensitivity field of the feature map is expanded, and the refined illumination map is obtained by combining rich contextual semantic information. The multi-spectral dual attention module is embedded in the branch of the wavelet domain, and the space and the channel attention are used to improve the ability of the network to pay attention to the high-frequency detail features of the image. Dual-domain feature aggregation module uses an activation function to obtain image pixel allocation weight, realizes more refined adjustment of the enhanced image, and improves the ability of the network to restore image color and texture. Comparative experiments on the LOL dataset show that the PSNR and SSIM of the proposed network reach 24.3714 and 0.8937. On the MIT-Adobe FiveK dataset, PSNR and SSIM reach 22.7214 and 0.8726, respectively. In addition, the proposed method has been tested in practical application scenarios, and the enhancement effect has good stability, robustness, and generalization ability.

参考文献

[1] ZhuM F, PanP B, ChenW, et al. EEMEFN: low-light image enhancement via edge-enhanced multi-exposure fusion network[C]//Proceedings of the 34th AAAI Conference on Artificial Intelligence, 2020: 13106–13113. https://doi.org/10.1609/aaai.v34i07.7013

[2] Li C L, Tang S Q, Yan J W, et al. Low-light image enhancement based on quasi-symmetric correction functions by fusion[J]. Symmetry, 2020, 12(9): 1561.

[3] Pan X X, Li C L, Pan Z G, et al. Low-light image enhancement method based on retinex theory by improving illumination map[J]. Appl Sci, 2022, 12(10): 5257.

[4] 李平, 梁丹, 梁冬泰, 等. 自适应图像增强的管道机器人缺陷检测方法[J]. 光电工程, 2020, 47(1): 190304.

    Li P, Liang D, Liang D T, et al. Research on defect inspection method of pipeline robot based on adaptive image enhancement[J]. Opto-Electron Eng, 2020, 47(1): 190304.

[5] Zhao R N, Han Y, Zhao J. End-to-end retinex-based illumination attention low-light enhancement network for autonomous driving at night[J]. Comput Intell Neurosci, 2022, 2022: 4942420.

[6] WuW H, WengJ, ZhangP P, et al. Uretinex-Net: retinex-based deep unfolding network for low-light image enhancement[C]//Proceedings of 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022: 5891–5900. https://doi.org/10.1109/CVPR52688.2022.00581.

[7] Jiang Q P, Mao Y D, Cong R M, et al. Unsupervised decomposition and correction network for low-light image enhancement[J]. IEEE Trans Intell Transp Syst, 2022, 23(10): 19440-19455.

[8] LiC Y, GuoC L, ZhouM, et al. Embedding fourier for ultra-high-definition low-light image enhancement[C]//The Eleventh International Conference on Learning Representations, 2023.

[9] Zhang Y C, Liu H Y, Ding D D. A cross-scale framework for low-light image enhancement using spatial–spectral information[J]. Comput Electr Eng, 2023, 106: 108608.

[10] Hai J, Xuan Z, Yang R, et al. R2RNet: low-light image enhancement via real-low to real-normal network[J]. J Vis Commun Image Represent, 2023, 90: 103712.

[11] LinX, YueJ T, RenC, et al. Unlocking low-light-rainy image restoration by pairwise degradation feature vector guidance[Z]. arXiv:2305.03997, 2023. https://doi.org/10.48550/arXiv.2305.03997

[12] Xu J Z, Yuan M K, Yan D M, et al. Illumination guided attentive wavelet network for low-light image enhancement[J]. IEEE Trans Multimedia, 2023, 25: 6258-6271.

[13] FanC M, LiuT J, LiuK H. Half wavelet attention on M-Net+ for low-light image enhancement[C]//2022 IEEE International Conference on Image Processing (ICIP), 2022: 3878–3882. https://doi.org/10.1109/ICIP46576.2022.9897503

[14] 胡聪, 陈绪君, 吴雨锴. 融合半波注意力机制的低光照图像增强算法研究[J]. 激光杂志, 2023.

    Hu C, Chen X J, Wu Y K. Research on image enhancement algorithm of low illumination image based on half wave attention mechanism[J]. Laser J, 2023.

[15] ChenZ L, LiangY L, DuM H. Attention-based broad self-guided network for low-light image enhancement[C]//2022 26th International Conference on Pattern Recognition (ICPR), 2022: 31–38. https://doi.org/10.1109/ICPR56361.2022.9956143

[16] ChiL, JiangB R, MuY D. Fast Fourier convolution[C]//Proceedings of the 34th International Conference on Neural Information Processing Systems, 2020: 376.

[17] SuvorovR, LogachevaE, MashikhinA, et al. Resolution-robust large mask inpainting with Fourier convolutions[C]//Proceedings of 2022 IEEE/CVF Winter Conference on Applications of Computer Vision, 2022: 3172–3182. https://doi.org/10.1109/WACV51458.2022.00323

[18] Zamir S W, Arora A, Khan S, et al. Learning enriched features for fast image restoration and enhancement[J]. IEEE Trans Pattern Anal Mach Intell, 2022, 45(2): 1934-1948.

[19] ZhangG, LiZ Y, LiJ M, et al. CFNet: cascade fusion network for dense prediction[Z]. arXiv:2302.06052, 2023. https://doi.org/10.48550/arXiv.2302.06052

[20] 刘光辉, 杨琦, 孟月波, 等. 一种并行混合注意力的渐进融合图像增强方法[J]. 光电工程, 2023, 50(4): 220231.

    Liu G H, Yang Q, Meng Y B, et al. A progressive fusion image enhancement method with parallel hybrid attention[J]. Opto-Electron Eng, 2023, 50(4): 220231.

[21] LiX, WangW H, HuX L, et al. Selective kernel networks[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 510–519. https://doi.org/10.1109/CVPR.2019.00060

[22] JiangJ X, YeT, BaiJ B, et al. Five A+ network: you only need 9k parameters for underwater image enhancement[Z]. arXiv:2305.08824, 2023. https://doi.org/10.48550/arXiv.2305.08824

[23] Starovoitov V V, Eldarova E E, Iskakov K T. Comparative analysis of the SSIM index and the Pearson coefficient as a criterion for image similarity[J]. Eurasian J Math Comput Appl, 2020, 8(1): 76-90.

[24] 陶昕辰, 朱涛, 黄玉玲, 等. 基于DDR GAN的低质量图像增强算法[J]. 激光技术, 2023, 47(3): 322-328.

    Tao X C, Zhu T, Huang Y L, et al. Low-quality image enhancement algorithm based on DDR GAN[J]. Laser Technol, 2023, 47(3): 322-328.

[25] FuoliD, VanGool L, TimofteR. Fourier space losses for efficient perceptual image super-resolution[C]//Proceedings of 2021 IEEE/CVF International Conference on Computer Vision, 2021: 2340–2349. https://doi.org/10.1109/ICCV48922.2021.00236

[26] WeiC, WangW J, YangW H, et al. Deep retinex decomposition for low-light enhancement[C]//British Machine Vision Conference 2018, 2018.

[27] GuoC L, LiC Y, GuoJ C, et al. Zero-reference deep curve estimation for low-light image enhancement[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 1777–1786. https://doi.org/10.1109/CVPR42600.2020.00185

[28] Lim S, Kim W. DSLR: deep stacked Laplacian restorer for low-light image enhancement[J]. IEEE Trans Multimedia, 2021, 23: 4272-4284.

[29] ZhangY H, ZhangJ W, GuoX J. Kindling the darkness: a practical low-light image enhancer[C]//Proceedings of the 27th ACM International Conference on Multimedia, 2019: 1632–1640. https://doi.org/10.1145/3343031.3350926

[30] Jiang Y F, Gong X Y, Liu D, et al. EnlightenGAN: deep light enhancement without paired supervision[J]. IEEE Trans Image Process, 2021, 30: 2340-2349.

[31] LiuR S, MaL, ZhangJ A, et al. Retinex-inspired unrolling with cooperative prior architecture search for low-light image enhancement[C]//Proceedings of 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 10556–10565. https://doi.org/10.1109/CVPR46437.2021.01042

[32] JiaoY, ZhengX T, LuX Q. Attention-based multi-branch network for low-light image enhancement[C]//2021 IEEE 2nd International Conference on Big Data, Artificial Intelligence and Internet of Things Engineering (ICBAIE), 2021: 401–407. https://doi.org/10.1109/ICBAIE52039.2021.9389960

[33] Hu Y M, He H, Xu C X, et al. Exposure: a white-box photo post-processing framework[J]. ACM Trans Graph, 2018, 37(2): 26.

[34] ZhuJ Y, ParkT, IsolaP, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]//Proceedings of 2017 IEEE International Conference on Computer Vision, 2017: 2242–2251. https://doi.org/10.1109/ICCV.2017244

[35] Li C Y, Guo C L, Loy C C. Learning to enhance low-light image via zero-reference deep curve estimation[J]. IEEE Trans Pattern Anal Mach Intell, 2022, 44(8): 4225-4238.

[36] LvF F, LuF, WuJ H, et al. MBLLEN: low-light image/video enhancement using CNNs[C]//British Machine Vision Conference 2018, 2018.

[37] Li J, Li J, Fang F, et al. Luminance-aware pyramid network for low-light image enhancement[J]. IEEE Trans Multimedia, 2020, 23: 3153-3165.

徐胜军, 杨华, 李明海, 刘光辉, 孟月波, 韩九强. 基于双频域特征聚合的低照度图像增强[J]. 光电工程, 2024, 50(12): 230225. Shengjun Xu, Hua Yang, Minghai Li, Guanghui Liu, Yuebo Meng, Jiuqiang Han. Low-light image enhancement based on dual-frequency domain feature aggregation[J]. Opto-Electronic Engineering, 2024, 50(12): 230225.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!