激光与光电子学进展, 2023, 60 (14): 1410010, 网络出版: 2023-07-14   

基于注意力引导的轻量级图像超分辨率网络

Lightweight Attention-Guided Network for Image Super-Resolution
作者单位
上海工程技术大学电子电气工程学院,上海 201620
摘要
针对图像超分辨率重建网络因结构冗杂、参数量增加导致的计算量过大、训练时间过长等问题,提出一种注意力引导的轻量级图像超分辨率网络(LAGNet)。LAGNet将随机初始化的自适应权重引入深度残差网络结构,更大限度地利用浅层特征信息。其次,提出注意力引导(AG)模块,该模块使用高效通道注意力(ECA)模块和空间分组增强(SGE)模块双支路并联结构,结合通道间关系和空间位置信息特征,利用注意力引导层动态调整两个分支的权重占比,准确获取高频特征信息。最后,使用全局级联连接,减少网络参数量并加快信息流通速度。使用L1损失函数,在加快收敛速度的同时防止梯度爆炸。在三个基准数据集上的测试结果表明:相比其他网络,LAGNet的峰值信噪比平均提高0.39 dB,模型参数量平均减少24%,加法操作量和乘法操作量平均减少62%;在图像视觉效果上整体更为清晰,细节纹理更自然。
Abstract
A lightweight attention-guided super-resolution network (LAGNet) is proposed to address issues such as excessive computation and long training time caused by the redundant structure and increased parameters of image super-resolution reconstruction networks. First, the LAGNet introduces randomly initialized adaptive weights into the deep residual network structure to maximize the use of shallow feature information. Second, an attention guidance (AG) module uses the parallel structure of the efficient channel attention (ECA) model and the spatial group-wise enhance (SGE) model, combines the relationship between channels and the spatial location information characteristics, and employs the attention-guide layer to dynamically adjust the weight proportion of the two branches to obtain high-efficiency channel feature information. Finally, the global cascade connection is used to reduce network parameters and speed up information flow. The L1 loss function is used to accelerate convergence speed and prevent gradient explosion. The test results on the three benchmark datasets show that on average the peak signal-to-noise ratio of the LAGNet is increased by 0.39 dB, the model parameters are reduced by 24%, and the addition and multiplication operations are reduced by 62% compared with other networks; the overall visual effect of the image is clear and the detail texture is more natural.

1 引言

单幅图像超分辨率(SISR)算法是一种将观测到的低分辨率(LR)图像重建为相应的高分辨率(HR)图像,使图像具有边缘细节和高频纹理细节的方法。随着SISR技术在医学成像1、卫星成像、安全与监控等诸多领域显示出巨大潜力和实际应用价值,越来越多的研究者开始关注与研究这一问题。

传统SISR算法,例如基于插值的方法,包括最邻近插值法、双线性插值法、双三次插值法等,通过填补图像放大后像素的空缺位置恢复图像内容,达到提高图像分辨率的效果。但是使用这种方法后会得到边缘过于平滑的模糊图像,这一点在图像高频信息较多的区域尤为明显。为了解决基于插值的方法的缺点,研究者提出了基于学习的方法,包括基于字典学习的方法2、基于局部线性回归的方法3和基于随机森林的方法4。通过学习从LR图像到HR图像的映射关系,基于学习的超分辨率方法取得了比插值法更优的结果,获得了丰富的图像高频信息,但是这些方法需要对训练样本施加更多的限制,并且对图像中的噪声极为敏感。

深度学习是当今发展最快的机器学习方法之一5。基于深度学习的卷积神经网络的出现为解决超分辨率问题提供了新思路,许多研究者运用卷积神经网络,得到了优于传统SISR算法的结果。Dong等6提出了基于卷积神经网络的图像超分辨率网络(SRCNN),此网络是基于深度学习的单幅图像超分辨率网络的开山之作。SRCNN首先使用双三次插值法将图像放大至目标尺寸,从中提取特征,然后用三层卷积神经网络拟合LR图像和HR图像之间的非线性映射,最后输出重建后的HR图像。尽管SRCNN结果优于传统图像超分辨率算法,但过少的网络层数限制其性能的进一步提升。因此,Dong等7对SRCNN进行改进,提出了快速SRCNN(FSRCNN),得到了优于SRCNN的结果。FSRCNN优势包含3点:一是在最后使用反卷积层放大尺寸,因此可以直接将原始的LR图像输入到网络中;二是使用更小的卷积核和更多的映射层,获取更丰富的特征信息;三是共享网络中的映射层,提升训练不同放大倍数模型时的效率。Lai等8提出了拉普拉斯金字塔超分辨率网络(LapSRN),其结构类似于金字塔,对输入的LR图像每级进行一次2倍上采样操作,在进行高倍上采样的同时也能得到中间倍和低倍上采样的结果,提升了网络的整体效率,并且LapSRN在8倍放大倍数时有较优秀的表现。

为了进一步提升图像超分辨率的性能,Kim等9提出了深度递归神经网络(DRCN),DRCN利用跳跃连接加深了结构,通过增加网络感受野大小提升了整体性能。Kim等10发现低分辨率图像和高分辨率图像具有相关性,通过学习它们之间的残差信息能有效解决超分辨率问题,基于此原理,提出了深层卷积超分辨率网络(VDSR)。此网络利用深度神经网络和残差学习解决单图像超分辨率问题,并且使用自适应梯度裁剪来加速模型的训练。Tai等11在DRCN的基础上利用参数共享原理设计了深度递归残差网络(DRRN),增加了由多个残差单元组成的局部残差递归块,通过在残差单元中共享参数,减少经过深层网络后图像细节的丢失,得到了视觉效果更优的超分辨率图像。

上述网络通过不断堆叠网络层数、增加网络参数量的方法实现了更好的超分辨率性能,然而过深的网络结构也限制了网络在实际应用中的潜力,存在计算设备要求过高、网络训练时间过长等问题,然而减少网络参数量和提高网络整体性能很难同时实现。为了解决这些问题,本文提出了一种基于注意力引导的轻量级图像超分辨率算法(LAGNet),在精简网络结构的同时获得了极具竞争力的超分辨率结果,并且在重建图像质量和网络参数数量之间取得了良好的平衡。LAGNet的峰值信噪比(PSNR)相较于其他优秀算法有显著提升,在参数量(Parameters)和乘法操作量和加法操作量(Multi-Adds)上也有良好表现。

本文主要工作如下:提出了一种基于注意力引导的轻量级图像超分辨率网络(LAGNet);设计并提出了注意力引导(AG)模块,该模块使用高效通道注意力(ECA)模块和空间分组增强(SGE)模块双支路并联结构,并利用注意力引导层动态调整两个支路的权重比例,将学习到的通道间关系和空间位置信息特征相结合,快速获得原始图像中的高频特征信息;在AG模块间使用全局级联连接,精简网络结构的同时加快信息流通速度,进一步减少网络参数量。

2 相关工作

2.1 轻量级超分辨率网络

自VDSR10将深度残差网络结构引入超分辨率问题后,堆叠网络层数和增加残差模块数量便成为这一领域的研究趋势。基于此策略提出的网络,如增强的深度残差网络(EDSR)12将残差模块数量增加到32个,深度残差注意力网络(RCAN)13将网络层数堆叠到400层,均获得了较好的超分辨率结果。随着超分辨率网络结构的冗杂和参数量的激增,构建轻量级超分辨率网络模型、提升图像超分辨率算法的实际应用价值成为一个亟待解决的问题。

Ahn等14提出了一种轻量级且高效的级联残差网络(CARN),通过在卷积组之间加入多个残差连接,减小网络计算的复杂度,但是实验结果表明,直接将残差连接应用到超分辨率算法中的效果还有待提高。Li等15提出的极小型图像超分辨率网络(s-LWSR)通过删除部分激活层压缩模块参数量,实现了极少的参数量,代价是超分辨率图像细节部分失真。Tian等16提出了一种轻量级图像超分辨网络(LESRCNN),该网络采用由1×1和3×3卷积组成的异构结构减少低频信息冗余,通过重建模块将低频特征转换为高频特征,进一步降低网络的参数量。Chu等17提出了神经网络搜索架构,并基于此架构提出了一种基于神经网络搜索架构的轻量级超分辨率网络(FALSR),利用神经网络搜索架构代替人工调整参数,实现参数量和模型复杂度之间的平衡。Tian等18提出了基于CNN的非对称图像超分辨率网络(ACNet),通过由3×1、1×3和3×3卷积组成的非对称卷积结构突显局部关键特征,减少信息冗余的同时加快训练速度。

2.2 注意力机制

注意力机制最开始应用于机器翻译领域,随后扩展到语义分割、目标检测19、图像分类20等领域。由于注意力机制在减少参数量和提高网络效率方面表现优秀,在计算机视觉领域也有大量的应用。压缩与激励网络(SENet)21中首次提出了通道注意力选择机制,通过选择通道并赋予通道不同权重提取特征图的关键信息。Wang等22在SENet的基础上提出了高效通道注意力网络(ECANet),设计了不降低维度的局部交叉通道交互策略,该策略使用通道维数函数,自适应地确定一维卷积核大小,并确定局域交叉通道相互作用的覆盖范围。Li等23提出了空间分组增强(SGE)网络,该网络对通道进行分组,为每个通道组生成不同的特征因子来调整通道组的重要性,从而使每个组可以有针对性地增强学习能力,并抑制可能出现的噪声。以上研究均表明,注意力机制在减少网络参数量、加快网络运行效率和提升网络准确率方面具有良好的效果。

3 图像重建算法框架

3.1 LAGNet重建算法结构

LAGNet结构如图1所示,由浅层特征提取模块、非线性特征映射模块和重建模块组成。ILRISR分别代表网络的输入和输出。为减少网络的参数量,首先通过大小为3×3的卷积层从输入ILR中提取浅层特征FSF,表达式为

FSF=C3×3ILR

图 1. LAGNet的结构

Fig. 1. LAGNet structure

下载图片 查看所有图片

随后浅层特征FSF经过非线性特征映射模块,完成信息提取,得到图像深层特征FDF,表达式为

FDF=HAGnHAGn-1HAG1(FSF)+μx1FSF+μxn-1FSF+μxnFSF

式中:HAGn为第n个注意力引导模块,该模块由AG模块串联得到;μxn是随机初始化的自适应权重,可以更大限度地利用浅层特征信息,从而在特征融合阶段提供丰富的信息流。AG模块间使用全局级联连接,可以在层之间快速传递特征信息,提高网络整体效率。

最后分别将所得图像深层特征FDF和低分辨率图像ILR输入重建模块,通过3×3卷积层后利用亚像素卷积层fp进行上采样操作,加和得到重建后的高分辨率图像ISR,表达式为

ISR=fpC3×3(ILR)+fpC3×3(FDF)

3.2 注意力引导模块

AG模块主要目的是减少网络的参数量和计算时间,具体细节于图1左下方虚线框内展示,在经过第n个AG模块时,输入特征Fi首先经过由2个1×1卷积层、1个3×3卷积层、2个ReLU函数组成的预处理模块,得到预处理结果Fp,表达式为

Fp=C1×1δC3×3δC1×1(Fi)

式中:δ为ReLU函数。

并非所有注意力机制都可以提高网络性能,网络中无效且冗余的参数依然会阻碍网络性能的进一步提升,因此提出注意力引导(atg)层24。atg层能够自动舍弃部分不重要的注意力特征,动态调整两个模块的权重占比,从而提高网络的表征能力和泛化能力。

atg层的结构如图2所示。预处理结果Fp首先通过全局池化操作增加感受野,随后依次通过全连接层、ReLU函数和全连接层获取图像的特征信息,最后通过Softmax函数生成不同模块的动态权重ωi',公式为

图 2. 注意力引导层结构

Fig. 2. Attention-guided layer structure

下载图片 查看所有图片

ωi'=fatg(Fp),  i'=1, 2

式中:fatg为注意力引导层。

将通过atg层得到的不同模块权重ω1ω2分别乘以ECA模块和SGE模块得到的特征信息,并进行加和,得到更全面的有效特征,最后与输入特征Fi进行加和操作,得到基于注意力引导的特征图Fi+1,公式为

Fi+1=ω1ECA(Fp)+ω2SGE(Fp)+Fi

3.2.1 高效通道注意力模块

压缩与激励(SE)模块中的两个全连接层参数量冗余,并且全连接层中的降维操作对通道注意力有负面影响。因此本文在AG模块中使用ECA模块,ECA模块在SE模块的基础上使用无降维操作的局部跨通道交互策略。该策略通过自适应生成一维卷积核大小,确定局部跨通道相互作用的覆盖范围,在减少大量无效参数量和计算量的同时,得到了更为出色的注意力特征提取结果。ECA模块结构如图3(a)所示,具体操作如下。

图 3. AG模块的主要构成部分。(a)ECA模块结构;(b)SGE模块结构

Fig. 3. Main structure of AG module. (a) ECA module structure; (b) SGE module structure

下载图片 查看所有图片

首先对输入的Ei进行全局平均池化操作,计算自适应的卷积核大小,公式为

ZEC=1H×Wi=1Hj=1WEii,j

式中:CHW分别代表输入特征图的通道数、高度和宽度;ZE是通道特征的总体统计信息;ZEC是通过全局平均池化操作获得的第C个特征通道的统计信息。

随后将自适应卷积应用于一维卷积中,通过Sigmoid函数得到每个通道的注意力权重WE

WE=σC1D(ZEC)

式中:σ为Sigmoid函数。最后生成一个三维矩阵Eo(尺寸为C×H×W)作为注意力特征,输出Eo为输入Ei与通道注意力的乘积,公式为

Eo=EiWE

3.2.2 空间分组增强模块

SGE模块对通道进行分组,为每个通道组生成不同的特征因子来调整通道组的重要性,从而有针对性地学习空间位置信息特征,并抑制可能出现的噪声。特征因子仅由各组内部的全局和局部特征描述符之间的相似性引导,因此SGE模块几乎没有引入额外的参数量。SGE模块结构如图3(b)所示,具体操作如下。

首先,根据通道维度数量,将特征图划分成G组。由于噪声和相似特征的存在,特征的分布并无明显规律。因此,利用全局信息进一步加强对关键区域的语义特征学习,公式为

g=fgp=1mh=1mxh

其次,利用全局特征g,通过相关操作获得每个特征对应的注意力系数ch

ch=gxh

为避免不同样本间系数偏置造成的影响,对注意力系数ch通过归一化处理层进行归一化操作,之后通过Sigmoid函数得到注意力权重ah,公式为

ah=σfBNch

式中:fBN为归一化处理层。

最后,对函数注意力权重ah与输入特征图si进行相关操作,得到特征图so

so=ahsi

3.3 损失函数

L2损失函数通常是图像超分辨率领域损失函数的首选,但L1损失函数相较于L2损失函数具有更好的收敛性,能提升训练网络的准确度,因此实验使用L1损失函数训练网络。L1损失函数计算LR图像和HR图像每个像素间插值的平均绝对值,公式为

Lθ=1Ni=1NHLAGNetIiLR-IiHR1

4 实验结果与分析

4.1 实验环境

4.1.1 实验数据集

DIV2K数据集25由800张训练图像、100张验证图像和100张测试图像组成,实验使用其中的800张训练图像进行网络模型训练。为防止网络训练过程中出现过拟合情况,在图像预处理过程中对训练图像进行数据增强操作,对图像随机旋转90°、180°、270°后水平翻转,得到3200张图像的增强数据集。新数据集是基于DIV2K数据集产生的,可以缩小训练集和验证集之间的差距,提取更多有效信息。使用3个标准基准数据集Set526、Set1427、BSD10028对网络进行测试,3个测试数据集中共有119张图像,包含不同场景下的人物、动植物、自然景观和人造物图像,种类繁多且部分图像细节模糊,重建难度较大。

4.1.2 实验平台与参数配置

硬件部分:处理器型号为8核16线程AMD 3700X,显卡型号为RTX 2070Super,电脑内存为16 GB。软件部分:系统为Ubuntu18.04,采用Python 3.6版本编译程序,深度学习框架使用PyTorch 0.4.0版本。

实验在训练过程中的更新轮次设置为2000,训练批次量设置为16,输入和输出通道均设置为64,所有自适应权重的初始值均设置为1。在每个训练批次中,提取大小为48×48的LR图像作为输入,同时将相应的HR图像作为测试。训练时采用Adam优化器对网络的权重参数进行更新,更新过程中指数衰减速率设置为β1=0.9β2=0.999ε=10-8,初始学习速率设置为10-3,并且每经过2×105次反向传播迭代后减半学习速率。

4.2 消融实验

4.2.1 实验评价指标

使用峰值信噪比(PSNR)和结构相似度(SSIM)两个指标对重建图像的亮度通道进行评估。PSNR为信号的最大功率与噪声功率之比,PSNR值越高,说明重建的图像失真度越低,公式为

XPSNR=10×log10Mi2XMSEXMSE=1HWi=0H-1j=0W-1Ii,j-Ki,j

式中:XMSE为原始图像与处理后图像的均方误差;Mi为图像颜色的最大值,采样的8位图像像素值范围为0到255;Ii,jKi,j分别为不同图像对应坐标的像素值。SSIM是衡量两幅图像相似度的指标,SSIM值越接近1,说明重建图像和原始图像的相似度越高,公式为

XSSIM=L(X,Y)C(X,Y)S(X,Y)LX,Y=2uxuy+C1ux2+uy2+C1

式中:L(X,Y)为亮度的估计值;C(X,Y)为对比度的估计值;S(X,Y)为结构相似度的估计值;uxuy分别为图像在X维度和Y维度上的均值。

4.2.2 注意力引导模块对网络的影响

为研究AG模块在不同数据集和不同放大倍数条件下的普遍有效性,在其他变量保持不变的前提下,分别在Set5测试集2倍放大倍数、Set14测试集3倍放大倍数、BSD100测试集4倍放大倍数进行实验。对去除AG模块结构的模型和原始LAGNet网络的PSNR最大值进行了对比,如图4所示。

图 4. AG模块结构对模型的影响

Fig. 4. Effect of AG module structure on the model

下载图片 查看所有图片

图4三角形折线为使用AG模块模型的PSNR数值变化折线,正方形折线为未使用AG模块模型的PSNR数值变化折线。虽然去除AG模块的模型收敛速度很快,但随着训练的进行出现了过拟合现象,而使用AG模块的模型则没有出现这种情况。实验结果表明,相较于不使用AG模块的网络,使用AG模块的网络在不同测试集和不同放大倍数的情况下的PSNR最大值均有显著提升,网络整体性能也有明显改善。实验过程中也同时记录了三种情况下SSIM的最大值,对比结果表明使用AG模块的网络在SSIM值上平均提升了0.0529。

4.2.3 注意力引导模块数量对网络的影响

为研究AG模块数量对LAGNet的影响,分别设置AG模块数量(NAG)为8、12、16、20、24,进行实验,在Set5、Set14、BSD100数据集3倍放大倍数的情况下进行测试。表1显示了AG模块数量对LAGNet网络PSNR、SSIM和参数量的影响。可以看出当AG模块数量为16时,PSNR与SSIM参数均为最高,且模型参数量相对较小,因此实验设置AG模块数量为16。

表 1. AG模块数量对网络的影响

Table 1. Influence of the number of AG modules on the network

ParameterDatasetNAG =8NAG =12NAG =16NAG =20NAG =24
Set533.93533.96134.26134.25734.227
PSNR /dBSet1429.31230.11730.22429.94129.725
BSD10028.45228.62528.93328.56128.027
SSIMSet50.91050.91870.92530.92530.9236
Set140.82160.83690.84210.82970.8262
BSD1000.79140.79630.80240.79510.7855
Parameters /103376422456541.2577.3
Multi-Adds /10947.761.675.489.3103.4

查看所有表

4.2.4 注意力引导模块结构对网络的影响

为研究AG模块结构对LAGNet网络的影响,在控制变量的前提下,分别删去SGE和ECA模块,替换为常用SE模块,同时设置有无atg层的对照实验,证明atg层在减少参数量、提升网络整体性能方面的作用。在Set5、Set14、BSD100数据集放大倍数分别为2、3、4的情况下测试PSNR、SSIM和参数量,得到的结果如表2所示。

表 2. AG模块结构对网络的影响

Table 2. Influence of AG module structure on the network

AG module structureDatasetScalePSNR /dBSSIMParameters /103Multi-Adds /109
ECA+SESet5236.5720.953842968.5
SGE+SESet5236.9370.954650285.2
ECA+SGESet5237.5840.956655389.6
ECA+SGE+atgSet5237.7920.959444783.6
ECA+SESet14329.7860.831743377.9
SGE+SESet14329.5920.829550593.3
ECA+SGESet14330.1090.840352686.1
ECA+SGE+atgSet14330.2240.842145675.4
ECA+SEBSD100427.2670.725443991.6
SGE+SEBSD100427.2940.7263509107.6
ECA+SGEBSD100427.3140.726250684.2
ECA+SGE+atgBSD100427.5410.734747067.9

查看所有表

4.3 实验结果分析

4.3.1 客观指标分析

对所提LAGNet网络模型与目前效果优异的方法进行对比,其他方法包括Bicubic、SRCNN6、FSRCNN7、LapSRN8、DRCN9、VDSR10、DRRN11、CARN14、s-LWSR15、LESRCNN16、FALSR17、ACNet18。与上述的所有其他方法相比,LAGNet网络的PSNR和SSIM有明显优势,实验结果如表3所示。

表 3. 不同方法在Set5、Set14和BSD100数据集上的测试结果

Table 3. Test results of different methods on Set5, Set14, and BSD100 datasets

MethodScaleParameters /103

Multi-

Adds /109

PSNR /dBSSIM
Set5Set14BSD100Set5Set14BSD100
Bicubic233.6630.2429.560.92990.86880.8431
SRCNN5752.736.3432.4531.360.95210.90670.8879
FSRCNN126.036.9432.6331.530.95580.90880.8920
VDSR665612.637.5333.0331.900.95870.91240.8960
LapSRN81329.937.5233.0831.800.95910.91300.8950
DRCN17741797437.6333.0431.850.95880.91180.8942
DRRN2976796.937.7433.2332.050.95910.91360.8973
CARN-M41291.237.5333.2631.920.95830.91410.8960
LESRCNN51611037.6533.3231.950.95860.91480.8965
FALSR-B32674.737.6133.2931.970.95850.91430.8967
FALSR-C40893.737.6633.2631.960.95860.91400.8965
ACNet1356501.537.7233.4132.060.95880.91600.8978
LAGNet44783.637.7933.4032.100.95940.91620.8991
Bicubic330.3927.5527.210.86820.77420.7385
SRCNN5752.732.3929.3028.410.90330.82150.7863
FSRCNN125.033.1629.4328.530.91400.82420.7910
VDSR665612.633.6629.7728.820.92130.83140.7976
DRCN17741797433.8229.7628.800.92260.83110.7963
DRRN2976796.934.0329.9628.950.92440.83490.8004
CARN-M41246.133.9930.0828.910.92360.83670.8000
LESRCNN51649.133.9330.1228.910.92310.83800.8005
ACNet154136934.1430.1928.980.92470.83980.8023
LAGNet45675.434.2630.2228.930.92530.84210.8024
Bicubic428.4226.0025.960.81040.70270.6675
SRCNN5752.730.0927.5026.900.85300.75130.7101
FSRCNN124.630.7127.5926.980.86570.75350.7150
VDSR665612.631.3528.0127.290.88380.76740.7251
LapSRN813149.431.5428.1927.320.88500.77200.7270
DRCN17741797431.5328.0227.230.88540.76700.7233
DRRN2976796.931.6828.2127.380.88880.77200.7284
s-LWSR161448.331.6327.9227.350.88690.77010.7287
CARN-M41232.531.9228.4227.440.89030.77620.7304
LESRCNN51628.631.8828.4427.450.89030.77720.7313
ACNet1784347.931.8328.4627.480.89030.77880.7326
LAGNet47067.932.0628.4727.540.89120.77820.7347

查看所有表

对网络参数量和加法乘法操作量进行了整体评估,在Set5数据集4倍放大倍率的条件下,对所提LAGNet与SRCNN6、FSRCNN7、LapSRN8、DRCN9、VDSR10、DRRN11、CARN-M14、s-LWSR1615、LESRCNN16、ACNet18共10种网络进行对比,证明了LAGNet网络在参数量和加法乘法操作量之间取得了平衡,并得到良好的实验结果,如图5所示。

图 5. 现有轻量级图像超分辨率算法在Set5数据集4×上的性能和参数量比较

Fig. 5. Performance and parameters comparison of existing lightweight image super-resolution methods on Set5 dataset with the magnification of 4×

下载图片 查看所有图片

4.3.2 主观指标分析

使用BSD100测试集图像中赛车背后文字进行视觉效果对比,在放大倍数为2的情况下,得到的结果如图6所示。可以看出前4张图像文字模糊不清,第5和第6张图细节缺失,后3张图细节部分存在过度平滑的情况,所提LAGNet对图像整体的恢复更自然,细节方面表现更清晰。

图 6. 不同方法对BSD100数据集中放大系数为2的图像的重建效果对比

Fig. 6. Comparison of reconstruction effects of different methods on images with a magnification factor of 2 in the BSD100 dataset

下载图片 查看所有图片

使用Set5测试集图像中小孩的编织帽细节部分进行视觉效果对比,在放大倍数为4的情况下,得到的结果如图7所示。可以看出前6张图细节模糊不清,后3者存在细节过度平滑的情况,所提LAGNet能恢复更多的纹理细节,整体观感也更符合实际。

图 7. 不同方法对Set5数据集中放大系数为4的图像的重建效果对比

Fig. 7. Comparison of reconstruction effects of different methods on images with magnification factor of 4 in Set5 dataset

下载图片 查看所有图片

5 结论

针对图像超分辨率重建算法中网络结构冗余导致计算量过大、网络训练时间过长、计算设备要求过高等问题,提出了一种注意力引导的轻量级图像超分辨率算法。网络模型通过注意力引导机制减少了网络的参数量,通过使用随机初始化的自适应权重和全局级联连接高效利用浅层特征信息,精简网络结构的同时提高了网络整体性能。其中注意力引导模块的双支路并联结构将学习通道间的关系与空间位置信息特征相结合,快速获得原始图像的高频信息。实验结果表明,相较于其他轻量级网络算法,所提LAGNet重建算法在客观评价指标上能达到最优,在整体视觉效果上对纹理细节也有更好的表现能力。但在实际应用中往往追求更高的效率,能否在提高运行速度的同时提升模型性能仍需要研究,拟减小网络宽度进行实验,进一步精简网络结构,提升超分辨率重建算法的性能。

参考文献

[1] 胡芬, 林洋, 侯梦迪, 等. 基于深度学习的细胞骨架图像超分辨重建[J]. 光学学报, 2020, 40(24): 2410001.

    Hu F, Lin Y, Hou M D, et al. Super-resolution reconstruction of cytoskeleton image based on deep learning[J]. Acta Optica Sinica, 2020, 40(24): 2410001.

[2] Yang J C, Wright J, Huang T S, et al. Image super-resolution via sparse representation[J]. IEEE Transactions on Image Processing, 2010, 19(11): 2861-2873.

[3] TimofteR, de SmetV, van GoolL. A+: adjusted anchored neighborhood regression for fast super-resolution[M]∥Cremers D, Reid I, Saito H, et al. Computer vision-ACCV 2014. Lecture notes in computer science. Cham: Springer, 2015, 9006: 111-126.

[4] SchulterS, LeistnerC, BischofH. Fast and accurate image upscaling with super-resolution forests[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition, June 7-12, 2015, Boston, MA, USA. New York: IEEE Press, 2015: 3791-3799.

[5] 王一同, 周宏强, 闫景逍, 等. 基于深度学习算法的计算光学研究进展[J]. 中国激光, 2021, 48(19): 1918004.

    Wang Y T, Zhou H Q, Yan J X, et al. Advances in computational optics based on deep learning[J]. Chinese Journal of Lasers, 2021, 48(19): 1918004.

[6] DongC, LoyC C, HeK M, et al. Learning a deep convolutional network for image super-resolution[M]∥Fleet D, Pajdla T, Schiele B, et al. Computer vision-ECCV 2014. Lecture notes in computer science. Cham: Springer, 2014, 8692: 184-199.

[7] DongC, LoyC C, TangX O. Accelerating the super-resolution convolutional neural network[M]∥Leibe B, Matas J, Sebe N, et al. Computer vision-ECCV 2016. Lecture notes in computer science. Cham: Springer, 2016, 9906: 391-407.

[8] LaiW S, HuangJ B, AhujaN, et al. Deep Laplacian pyramid networks for fast and accurate super-resolution[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 624-632.

[9] KimJ, LeeJ K, LeeK M. Deeply-recursive convolutional network for image super-resolution[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition, June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 1637-1645.

[10] KimJ, LeeJ K, LeeK M. Accurate image super-resolution using very deep convolutional networks[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition, June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 1646-1654.

[11] TaiY, YangJ, LiuX M. Image super-resolution via deep recursive residual network[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition, July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 2790-2798.

[12] LimB, SonS, KimH, et al. Enhanced deep residual networks for single image super-resolution[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops, July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 1132-1140.

[13] ZhangY L, LiK P, LiK, et al. Image super-resolution using very deep residual channel attention networks[M]∥Ferrari V, Hebert M, Sminchisescu C, et al. Computer vision-ECCV 2018. Lecture notes in computer science. Cham: Springer, 2018, 11211: 294-310.

[14] AhnN, KangB, SohnK A. Fast, accurate, and lightweight super-resolution with cascading residual network[M]∥ Ferrari V, Hebert M, Sminchisescu C, et al. Computer vision-ECCV 2018. Lecture notes in computer science. Cham: Springer, 2018, 11214: 256-272.

[15] Li B, Wang B, Liu J B, et al. S-LWSR: super lightweight super-resolution network[J]. IEEE Transactions on Image Processing, 2020, 29: 8368-8380.

[16] Tian C W, Zhuge R, Wu Z H, et al. Lightweight image super-resolution with enhanced CNN[J]. Knowledge-Based Systems, 2020, 205: 106235.

[17] ChuX X, ZhangB, MaH L, et al. Fast, accurate and lightweight super-resolution with neural architecture search[C]∥2020 25th International Conference on Pattern Recognition (ICPR), January 10-15, 2021, Milan, Italy. New York: IEEE Press, 2019: 59-64.

[18] Tian C W, Xu Y, Zuo W M, et al. Asymmetric CNN for image superresolution[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2022, 52(6): 3718-3730.

[19] 王勃凡, 赵海涛. 基于径向基激活函数的高光谱小目标检测[J]. 光学学报, 2021, 41(23): 2311001.

    Wang B F, Zhao H T. Small object detection in hyperspectral images based on radial basis activation function[J]. Acta Optica Sinica, 2021, 41(23): 2311001.

[20] 张祥东, 王腾军, 朱劭俊, 等. 基于扩张卷积注意力神经网络的高光谱图像分类[J]. 光学学报, 2021, 41(3): 0310001.

    Zhang X D, Wang T J, Zhu S J, et al. Hyperspectral image classification based on dilated convolutional attention neural network[J]. Acta Optica Sinica, 2021, 41(3): 0310001.

[21] Hu J, Shen L, Albanie S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023.

[22] WangQ L, WuB G, ZhuP F, et al. ECA-net: efficient channel attention for deep convolutional neural networks[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 13-19, 2020, Seattle, WA, USA. New York: IEEE Press, 2020: 11531-11539.

[23] LiX, HuX L, YangJ. Spatial group-wise enhance improving semantic feature learning in convolutional networks[EB/OL]. (2019-05-23)[2022-08-09]. https://arxiv.org/abs/1905.09646.

[24] ChenH Y, GuJ J, ZhangZ. Attention in attention network for image super-resolution[EB/OL]. (2021-04-19)[2022-08-09]. https://arxiv.org/abs/2104.09497.

[25] TimofteR, AgustssonE, GoolL V, et al. NTIRE 2017 challenge on single image super-resolution: methods and results[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops, July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 1110-1121.

[26] BevilacquaM, RoumyA, GuillemotC, et al. Low-complexity single-image super-resolution based on nonnegative neighbor embedding[C]∥Proceedings of the British Machine Vision Conference 2012, September 3-7, 2012, Surrey, UK. London: British Machine Vision Association, 2012: 135.

[27] ZeydeR, EladM, ProtterM. On single image scale-up using sparse-representations[M]∥Boissonnat J D, Chenin P, Cohen A, et al. Curves and surfaces. Lecture notes in computer science. Heidelberg: Springer, 2012, 6920: 711-730.

[28] MartinD, FowlkesC, TalD, et al. A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics[C]∥Proceedings Eighth IEEE International Conference on Computer Vision, July 7-14, 2001, Vancouver, BC, Canada. New York: IEEE Press, 2001: 416-423.

丁子轩, 张娟, 李想, 王新宇. 基于注意力引导的轻量级图像超分辨率网络[J]. 激光与光电子学进展, 2023, 60(14): 1410010. Zixuan Ding, Juan Zhang, Xiang Li, Xinyu Wang. Lightweight Attention-Guided Network for Image Super-Resolution[J]. Laser & Optoelectronics Progress, 2023, 60(14): 1410010.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!