激光与光电子学进展, 2024, 61 (4): 0417002, 网络出版: 2024-02-26  

结合自注意力与卷积的胸部X光片疾病分类研究

Research on Combining Self-Attention and Convolution for Chest X-Ray Disease Classification
作者单位
天津大学微电子学院,天津 300072
摘要
胸部X光片可用于诊断多种胸部疾病。由于胸部疾病特征复杂多样,现有的胸部X光片疾病分类算法难以学习胸部疾病复杂的鉴别表征以及未关注不同疾病之间的相关性信息。针对以上问题,提出一种结合自注意力与卷积的疾病分类算法,该算法采用全维度动态卷积替换残差网络的标准卷积,从而提高网络对多尺度信息的特征提取能力。此外,在卷积神经网络中引入自注意力模块,可以提供捕获多种疾病之间相关性的全局感受野。最后,提出高效的双路注意力,使神经网络更加关注病灶区域、自动捕捉病变位置变化。在ChestX-ray14数据集上,对所提模型进行评估,实验结果表明:所提算法对14种胸部疾病的平均受试者工作特性曲线下的面积(AUC)达到0.839,检测结果与目前其他7种先进算法相比在准确率和效率上有所提升。
Abstract
Chest X-rays are used to diagnose a wide range of chest conditions. However, due to the complicated and diverse features of thoracic diseases, existing disease classification algorithms for chest radiographs have difficulty in learning the complex discriminating features of thoracic diseases and do not fully consider correlation information between different diseases. This study proposes a disease classification algorithm that combines self-attention and convolution to address these problems. This study employs omni-dimensional dynamic convolution to replace the standard convolution of the residual network to enhance the feature extraction capabilities of the network for multi-scale information. In addition, a self-attention module is introduced into the convolutional neural network to provide global receptive fields that capture correlations between multiple diseases. Finally, an efficient double path attention is proposed that allows the network to give greater attention to the focal area and automatic capturing of changes in lesion locations. The proposed model is evaluated on the ChestX-ray14 dataset. Experimental results show that the accuracy of the algorithm and the efficiency of diagnosis for the classification of 14 chest diseases is improved over those of the seven current state-of-the-art algorithms, with an average area under receiver operating characteristic curve (AUC) value of 0.839.

1 引言

胸部X光片(Chest X-ray,CXR)是筛查胸部疾病最常用的影像学检查方式之一,但针对CXR图像的临床分析是一个复杂的过程,主要依靠专业放射科医生的人工观察,需耗费大量时间和精力1。随着患者数量的增加,胸部疾病的胸片数量也随之增加,且大多数CXR图像都存在一些不可避免的问题,如背景复杂、病理表现存在多样性、疾病之间相互作用等2,这些问题可能会降低医生诊断胸部疾病的效率与准确性。因此,开发能够辅助诊断的自动算法具有重要意义。

近年来,深度卷积神经网络(Deep convolutional neural networks,DCNN)在计算机视觉方面取得许多突破,可以从原始图像中探索高级复杂的特征表示3。这促使许多研究人员将DCNN应用于胸部疾病的辅助诊断任务,如疾病分类4-5、病灶分割或检测6-9和图像配准10-12。在多标签胸部疾病分类领域,Wang等13提出ChestX-ray14数据集,使用多种DCNN模型实现胸部疾病分类和患病区域定位功能,其中ResNet取得的分类精度最高。Chen等2提出一种非对称特征学习网络,结合ResNet和DenseNet两种网络,从原始CXR图像的异常中自适应捕获更多的鉴别特征。Guan等14提出ConsultNet双分支架构来学习判别特征,该网络可以自动聚焦于疾病关键区域,并自适应捕捉不同疾病特征之间的内在联系。

此外,许多研究人员将注意力机制应用于胸部疾病检测领域。Ma等15提出一种以ResNet101为主干网络的多注意分类网络,该网络添加了挤压激励模块以有效构建通道之间的依赖关系,同时引入空间注意模块以实现全局和局部信息的融合。Guan等16提出一个分类式剩余注意力学习框架,采用分类剩余注意力机制为不同的特征空间区域分配不同的权重,以增强特定病理的相关特征并抑制不相关特征,探究标签之间的依赖关系。Wang等17提出三重注意学习A3Net模型,该模型使用经过预训练的DenseNet121作为骨干网络进行特征提取,并将3个注意模块集成在统一的框架中进行通道级、元素级和尺度级注意学习。

由以上研究可知,以DCNN为基础的深度学习方法可以高效地执行胸部疾病分类任务。但由于CXR图像中不同疾病的纹理、位置等特征复杂多样,普通网络难以学习复杂病理的鉴别特征,从而难以准确识别。不同的胸部疾病存在明显的尺寸差异,DCNN可能无法适应尺度变化。此外,CXR图像中通常包含一种或多种病理,不同病理之间会受到内在复杂关系的影响。针对以上问题,提出一种基于全维度动态卷积(Omni-dimensional dynamic convolution,ODConv)的自注意力分类网络(DA-Net),该网络能够提取病灶的多尺度信息,自动捕捉疾病位置变化以及挖掘疾病之间的潜在语义关系,从而提高疾病分类的准确性。

2 基本原理

所提的DA-Net整体框架如图1所示,该网络在ResNet50基础上进行改进,包含S0到S45个阶段,各阶段空间分辨率逐渐下降。首先,CXR图像经过预处理后进入该网络并被输入到S0阶段。S0通过卷积核大小为7×7、步长为2的卷积层对输入图像进行降维,输出112×112大小的特征图,然后经过3×3最大池化操作,输出56×56大小的特征图。随后,特征图依次经过S1至S4阶段,其中S1、S2、S3使用全维度动态卷积注意模块(Omni-dimensional dynamic convolutional attention block,DA-Block)充分提取病灶特征,该模块包含多个1×1卷积、(ODConv)和高效双路注意力(Efficient double path attention,EDPA)机制,其中BN为批归一化操作,ReLU为修正线性单元。最后,将自注意力卷积融合模块(Self-attention and convolution block,AC-Block)置于最后一个阶段S4,该模块将卷积与自注意力结合,使所提网络能够最大程度保留全局和局部特征。特征图在经过AC-Block输出7×7大小特征图后,进入全连接(Fully connected,FC)层输出14维特征向量,最后利用特征向量中各疾病标签实现胸部疾病的分类。各模块的基本原理和情况如图1所示。

图 1. DA-Net整体框架

Fig. 1. Overall framework of DA-Net

下载图片 查看所有图片

2.1 ODConv模块

卷积核相应的核空间有4个维度:核空间大小、每个卷积核的输入通道数和输出通道数,以及卷积核数。ODConv通过并行策略采用多维注意力机制对卷积核的4个维度进行互补注意力的学习,通过渐进方式将卷积操作沿空间、输入通道、输出通道以及卷积核数维度乘以不同的注意力,可以使卷积操作对于输入数据在各个维度上具有不同的敏感性,从而显著增强CNN基本卷积运算的特征提取能力18,使所提模型能够捕获丰富的上下文信息。每个卷积层中采用多个卷积核,使网络能提取到不同尺度的特征信息,充分学习具有复杂病理、尺寸多变的病灶图像的鉴别表征,从而区分不同疾病。

该模块的计算流程如图2所示,对输入特征图X而言,其输出特征Y

Y=(αw1αf1αc1αs1W1++αwnαfnαcnαsnWn)*X

式中:αsiRk×kαciRCinαfiRCoutαwiR分别为卷积核Wi(i=1,2,3,,n)的空间、输入通道、输出通道以及整个卷积核维度的注意权重;为沿卷积核不同维度进行的乘法操作。

图 2. ODConv的计算流程

Fig. 2. Workflow for ODConv

下载图片 查看所有图片

这4类权重由多头注意模块计算得到,首先通过全局平均池化(Global average pooling,GAP)操作将输入X压缩成长度为输入通道数Cin的特征向量。随后,将特征向量通过一个FC层和4个头部分支。其中,FC层将压缩后的特征向量以降维比r映射到低维空间(设置r=1/16)。4个头分支中的每个分支都有一个FC层,其输出大小分别为k×kCin×1Cout×1n×1,通过Sigmoid函数分别生成归一化注意权重,并共享给所有的卷积核,其中Cout为输出通道数。为尽可能地增强卷积层对特征信息的提取能力,使用n=4个卷积核,将ResNet50模型中S1到S3阶段的3×3卷积全部替换为ODConv,以提高网络对疾病复杂特征的学习鉴别能力。

2.2 EDPA机制

为使网络更加关注病灶区域以及捕捉病灶位置变化19,引入EDPA机制并将此模块嵌入网络中作为卷积的补充。该模块能够分别提取通道域和空间域的注意力信息,其中高效通道级注意(Efficient channel attention,ECA)模块能够强化特征图的信息通道,排除无关区域的干扰,空间级注意模块(Spatial attention module,SAM)使网络聚焦于病灶相关区域,更加高效地提取病灶位置像素特征。双路注意力模块可以增强模型的判别能力,进一步提高模型诊断性能,其结构如图3所示。

图 3. EDPA机制

Fig. 3. EDPA mechanism

下载图片 查看所有图片

定义输入特征图FRH×W×C,其中HW为通道高度、宽度,C为通道大小,在进行通道注意时,该模块同时考虑每个通道及其k个相邻通道,通道的权值可以使用一维卷积进行局部跨通道交互信息,在所有通道之间共享权重来得到。其中,卷积核大小k代表局部跨信道交互的覆盖率,聚合特征yRC,注意力通道权值Mc可表示为

Mc=σDky

式中:Dk()为卷积核大小为k的一维卷积;σ()为Sigmoid激活函数。将Mc与输入F相乘,得到经ECA模块提取后的输出F'

随后,将经过通道注意的输出F'作为SAM的输入,对同一通道内所有位置的元素分别进行最大池化和平均池化操作并完成通道拼接,有效突出显示信息区域,得到尺度为H×W×2的空间掩模,经7×7卷积降维成单通道,最后经Sigmoid激活函数完成归一化,得到各位置注意力权重MsMs可表示为

Ms=σf7×7F'avgH×W;F'maxH×W

式中:·;·为通道拼接;F'avgH×WF'maxH×W分别为F'经过平均池化和最大池化的结果。将Ms与输入F'相乘,得到经SAM提取后的输出。

2.3 AC-Block

为了捕获不同病理之间的内在复杂关系,将自注意力模块引入CNN。自注意力模块能够提供全局感受野,可获得更多的语义信息20,同时该模块可以动态地依赖输入的表征,能够获取不同空间位置的相互关系21,捕捉多标签胸部疾病之间的相关性信息。将自注意力与卷积结合,构成AC-Block,并将该模块垂直堆叠在卷积层之后,先通过卷积层降低特征图空间大小获得局部感受野,再采用自注意力模块提取特征图中的全局信息,从而最大程度保留全局和局部特征,挖掘多种疾病之间的潜在相关性信息,提升模型表达能力。

图 4. AC-Block的结构

Fig. 4. Structure of the AC-Block

下载图片 查看所有图片

AC-Block包括两个阶段,假设卷积核KRCout×Cin×k×k,其中k为卷积核大小。张量FRCin×H×WGRCout×H×W分别为输入、输出的特征映射,fijRCingijRCout分别为FG对应像素(i,j)的特征张量。

在第1阶段,输入特征通过3个1×1卷积后可以获得3×N个特征图。在第2阶段,分别执行自注意力和卷积操作。自注意力模块将产生的特征图分为N组,其中每组均包含来自之前1×1卷积的3个特征,对应的3个特征映射分别为查询、键和值(qkv),自注意模块计算过程可表示为

gij=||l=1N(a,b)Nk(i,j)Aqijl,kablvabl

式中:||N个注意头输出的拼接;Nk(i,j)为以(i,j)为中心、空间范围为k的局部像素区域;Aqijl,kablNk(i,j)内特征对应的注意权重。

对核大小为k的卷积模块而言,可以采用FC层生成k2个特征映射,所使用卷积核大小k=3,通过移动和聚合生成的特征,从局部接受域收集信息,计算过程可表示为

gij(p,q)=Kp,qfi+p-k/2,j+q-k/2=Shift(gij~(p,q),p-k/2,q-k/2)gij=p,qgij(p,q)

式中:Shift为移位操作;Kp,qRCout×Cinp,q0,1,,k-1为关于核位置p,q的核权值;为向下取整符号。

最后,将两个模块的输出相加,并由两个可学习标量αβ控制强度得到最后的输出FoutFout可表示为

Fout=αFatt+βFConv

式中,FConv为卷积模块输出;Fatt为自注意力模块输出。

2.4 多标签损失函数

使用ChestX-ray14数据集,该数据集中每幅CXR图像的标签可表示为一个14维向量Y0=[y1,y2,,yn],其中n=14表示14种疾病。该数据集中许多病理在外观上相似度较高且样本数目存在类不平衡等问题,因此采用锚损失函数22来计算每种疾病的损失,即

Li=-yilby^i-(1-yi)(1+y^i-y*)γlb(1-y^i)

式中:Li为第i类疾病的损失函数;yi为第i种疾病的真实标签;y^i为网络预测第i种疾病患病的概率(即预测值);(1+y^i-y*)γ为调制器,γ为超参数,设置γ=2y*为正确类别的预测值,若同时患有多种疾病,则取最大值。通过引入锚损失函数,可以提高对较难分类疾病的权重,降低对较易分类疾病的权重,这种调节可使网络根据疾病分类的难易程度更有效地进行优化,以得到对疾病分类能力更强的网络模型。

3 实验结果分析

3.1 数据集和训练参数设置

本实验采用大型多标签数据集ChestX-ray14,此数据集共包含患有14种不同疾病的112120幅胸片前视图。选取其中60631幅图像标记为未患病的CXR图像,其余图像均被标记为含有一种或多种胸部疾病。其中,疝气、肺炎、纤维化等疾病样本较少,而浸润、积液等疾病的样本较多,这种样本数量的不均衡加大了模型分类难度。图5为病变区域的标注图,其中矩形框根据数据集中医生标注数据描绘而成,可见不同疾病病灶位置、大小、识别难易度均有不同。

图 5. ChestX-ray14数据集中的胸部疾病X射线标注图像。(a)肺不张;(b)心脏肿大;(c)积液;(d)浸润;(e)肿块;(f)结节;(g)肺炎;(h)气胸

Fig. 5. X-ray annotated images of thoracic disease in the ChestX-ray14 dataset. (a) Atelectasis; (b) cardiomegaly; (c) effusion; (d) infiltration; (e) mass; (f) nodule; (g) pneumonia; (h) pneumothorax

下载图片 查看所有图片

将数据集按照7∶1∶2的比例划分为训练集、验证集和测试集,避免同一样本重复出现。在训练过程中,将每幅CXR原图尺寸为1024 pixel×1024 pixel的灰度图按双线性插值法调整为256 pixel×256 pixel,为降低计算复杂度,再随机选取中心点剪裁为224 pixel×224 pixel,并通过执行随机旋转和水平翻转操作来实现数据增强。

实验采用的系统是Ubuntu 16.04操作系统,中央处理器(CPU)配置为Intel® Core i9-9900X 3.5 GHz,且使用4张Nvidia RTX2080Ti(11 GB)图形处理器(GPU)进行并行模型训练,DA-Net模型在PyTorch深度学习框架上实现,使用Adam优化器优化网络参数。在参数设置上,最大训练epoch通过验证集来确定,在验证集达到损失稳定且实现最低损失时停止训练,通过实验可得,epoch设置为40轮。初始学习率设置为0.001,每经过10轮epoch训练,将学习率乘以0.9进行衰减。为提高实验效率、增大显存利用率,将批处理量大小设置为32。

3.2 评价指标

将胸部疾病分类定义为多标签分类问题的14维二元分类任务,即每幅CXR图像对每一种疾病都只有含该标签与不含该标签两种情况,采用受试者操作特征(Receiver operating characteristic,ROC)曲线以及ROC曲线下的面积(AUC)来评估所提算法对每种疾病的识别能力。ROC曲线的横坐标为假阳性率(False positive rate,FPR)、纵坐标为真阳性率(True positive rate,TPR),FPR为真实标签“0”和预测“1”的样本所占比例,TPR为真实标签“1”和预测“1”的样本所占比例,具体计算可表示为

RFP=fFPfFP+fTNRTP=fTPfTP+fFN

式中:RFPRTP分别为FPR、TPR的值;fTPfTN为正确预测的阳性和阴性样本数;fFPfFN为错误预测的阳性和阴性样本数。因此,ROC曲线越接近左上角,网络的分类性能越佳。在ROC曲线中,函数f(x)=x表示随机结果,代表分类器性能最低。AUC与模型对该疾病的分类准确度呈正相关,AUC越大,对应疾病的分类准确度越高,即模型的分类能力越强。

3.3 结果与分析

所提算法在ChestX-ray14数据集上的实验结果如图6所示,图6分别展示每种疾病的分类ROC曲线与14种疾病的平均ROC曲线,右下角给出每种疾病具体的AUC。由图6可知,所有曲线皆位于函数f(x)=x上方,且整体位于整个图的左上角位置,表明所提算法对胸部疾病的整体分类准确率较高,该网络模型具有良好的分类性能。且14条曲线在坐标轴上的分布较为密集和紧凑,这表明所提算法可实现对每种疾病分类准确度的平衡。

图 6. ChestX-ray14数据集上的ROC曲线和AUC

Fig. 6. ROC curve and AUC value of 14 diseases on ChestX-ray14 dataset

下载图片 查看所有图片

在通过ROC曲线整体分析算法性能的基础上,将所提算法与对比算法(Ma等15、Zhang等23、Guan等1416、Chen等2、Shao等24、Wang等17)进行比较,实验结果如表1所示,其中每种病理的最大AUC加粗显示。Wang等17的方法是目前最先进的方法,首先,从算法整体的分类性能来看,所提方法对14种胸部疾病准确率的平均值超过其他7种方法,平均AUC达到0.839,其与目前最先进的方法相比提升0.013。其次,从每种疾病的表现结果来看,与Wang等17的方法相比,所提方法在肺结节、肺气肿、纤维化以及疝气等4种胸部疾病上的分类准确率较低,这种情况可能是数据集样本数量过少,导致所提网络没有充分地学习相关的判别特征(数据集中只有227个疝气样本,1686个纤维化样本)。与前7种对比方法相比,所提方法对剩余的10种胸部疾病的分类准确度均有不同程度的提升。其中,对具有复杂病理的疾病,如肺炎,其病理面积较大,病灶片状模糊,边界不清晰,所提方法的平均AUC为0.769,检测结果得到提升;水肿是在病发初期难以检查出的疾病,所提方法的平均AUC为0.899,检测结果得到提升。同时,对通常与其他病理关联的疾病如肺不张、肺实变、水肿等,所提方法的检测结果得到改善,且所提方法对具有不同尺度大小的疾病分类均可适应。

表 1. 不同胸部疾病分类算法在ChestX-ray14数据集上的比较

Table 1. Comparison of different thoracic disease classification algorithms on the ChestX-ray14 dataset

DiseaseAverage AUC
Ma et al.15Zhang et al.23Guan et al.14Guan et al.16Chen et al.2Shao et al.24Wang et al.17Ours
Mean0.7940.8020.8160.8220.8230.8240.8260.839
Atelectasis0.7630.7850.7810.7850.7850.8160.7790.818
Cardiomegaly0.8840.8760.8800.8990.8870.8660.8950.909
Effusion0.8160.8630.8290.8350.8310.8700.8360.889
Infiltration0.6790.6730.7020.6990.7030.6950.7100.716
Mass0.8010.8040.8340.8380.8330.8350.8340.844
Nodule0.7290.7300.7730.7750.7980.7680.7770.772
Pneumonia0.7100.7420.7290.7380.7310.7550.7370.769
Pneumothorax0.8370.8430.8570.8710.8810.8690.8780.888
Consolidation0.7440.7850.7540.7630.7540.7950.7590.813
Edema0.8410.8730.8500.8500.8490.8650.8550.899
Emphysema0.8840.8580.9080.9240.9300.8940.9330.928
Fibrosis0.8010.7750.8300.8310.8330.8140.8380.825
Pleural thickening0.7540.7560.7780.7760.7820.7870.7910.793
Hernia0.8760.8650.9170.9220.9210.9030.9380.885

查看所有表

3.4 消融实验分析

为了评估网络中每个模块的有效性,在ChestX-ray14数据集上进行消融实验。在保持基本网络结构完整的前提下,分别移除ODConv/ECA/SAM/AC-Block中的一个模块,激活剩下的模块,设置4组实验,具体操作分别为:1)移除ODConv模块,采用标准3×3卷积;2)移除AC-Block,采用不包含自注意力的全卷积网络;3)移除ECA模块;4)移除SAM,测得每个模型对14种胸部疾病的分类ROC曲线及AUC,如图7所示。

图 7. 消融实验结果。(a)移除ODConv模块;(b)移除AC-Block;(c)移除ECA模块;(d)移除SAM

Fig. 7. Results of ablation experiments. (a) Remove ODConv module; (b) remove AC-Block; (c) remove ECA module; (d) remove SAM

下载图片 查看所有图片

图7(a)~图7(d)分别为移除每个模块之后的实验结果,4个模块对算法的性能均有提升,当替换ODConv采用普通卷积时,所提算法的AUC下降0.029,表明ODConv的应用可以获取疾病更详细的特征表达,通过提取图像中病灶的多尺度信息,能有效提升分类准确度;移除AC-Block后,AUC下降0.024,这表明该模块可以提供全局感受野,通过构造自注意力结合卷积的连接架构,并进行特征互补融合以捕获全局特征和局部特征,从而提高模型性能;移除ECA模块和SAM后,AUC分别下降0.011和0.009,表明使用双路注意力模块确实能起到提升特征通道的信息表达能力以及将信息聚焦于疾病区域的作用。实验结果表明,采用的4个模块均有助于提升网络对胸部疾病的分类准确度。

3.5 复杂度分析

在ResNet50的基础上,依次增加每个模块后再与基准网络进行比较,结果表明每个模块均对该网络产生正向作用,同时采用参数量和浮点运算数(Floating point operations,FLOPs)来评估模型复杂度,如表2所示。当4个模块组合时DA-Net网络的提升效果最为显著,与原始的基准网络相比,该网络平均AUC提升0.075。为了提高卷积运算的特征提取能力,引入ODConv,平均AUC提升0.034,网络性能得到极大提升,而参数量和计算量仅略微提升。同时,采用EDPA机制(包含ECA模块和SAM)将更多的处理资源动态地分配给重要信息,使网络更加关注病灶区域,并且加入该机制后对模型复杂度影响不大。最后将自注意力引入卷积网络,通过扩大感受野来深度挖掘出疾病的潜在语义关系,提高分类准确度。此外,当采用不同批处理大小(Batch size)训练数据时,所使用的训练时间是不同的。在实验中,当Batch size设置为16时,训练该网络大约需要22.00 h;当Batch Size设置为32时,训练时间减少为原来的1/3,大约需要7.10 h。

表 2. 模块组合的实验结果

Table 2. Experimental results for module combinations

NetworkAverage AUCParameter quantity /106FLOPs /109Training time /h
Batch size is 16Batch size is 32
ResNet500.76425.43.8216.104.00
ResNet50+ODConv0.79827.93.9918.005.20
ResNet50+ODConv+ECA0.81028.84.0118.605.50
ResNet50+ODConv+EDPA0.81529.44.1218.705.50
ResNet50+ODConv+EDPA+AC-Block0.83932.96.9422.007.10

查看所有表

3.6 CheXpert数据集实验结果

为评估模型的泛化能力,验证DA-Net网络在公开数据集CheXpert上的性能,实验结果如表3所示。在CheXpert数据集上,由于训练标签有不确定的设置,可以借助多标签分类中使用的两种常见处理不确定标签的方法25来合并不确定性标签:1)将所有不确定的标签替换为0;2)将所有不确定的标签替换为1。在实验中使用DenseNet121、ResNet50基本网络作为对比网络,在0和1策略中,ResNet50对5种病理的平均AUC分别为0.880和0.886,使用DA-Net时,平均AUC分别为0.901和0.908,两种策略下都至少提高0.02,且当不确定标签设置为1时,DA-Net的表现更好。

表 3. DA-Net在CheXpert数据集上的实验结果

Table 3. Experimental results of DA-Net on CheXpert dataset

StrategyMethodAtelectasisCardiomegalyConsolidationEdemaPleural effusionMean
0ResNet500.8060.8330.9290.9130.9210.880
DenseNet1210.7990.8320.9270.8970.9230.875
Ours0.8180.8890.9410.9270.9300.901
1ResNet500.8050.8550.9370.9100.9230.886
DenseNet1210.7720.8440.9420.9060.9010.873
Ours0.8270.8910.9480.9350.9390.908

查看所有表

从每种疾病上来看,当不确定标签设置为0时,心脏肿大的表现显著改善,提升0.056;当不确定标签设置为1时,心脏肿大和水肿的AUC提升相对明显,分别提升0.036和0.025。DA-Net相比DenseNet121和ResNet50均有不同程度的提升,这表明该网络对胸部疾病的分类任务具有较好的泛化能力和鲁棒性。

4 结论

提出了一种基于全维度动态卷积的自注意力分类算法用于提取疾病特征,主要有3个方面的创新:加入全维度动态卷积模块,增强了以ResNet50为骨干的网络对病理异常的多尺度判别能力以及对复杂病理特征的表达能力,从而能够识别出不同疾病,有效地提高了分类准确度;将自注意力模块引入CNN,以提供全局感受野,捕获长距离表达,学习多标签疾病之间具有的潜在相关特征;提出高效的通道空间注意力模块,将更多的处理资源分配给重要信息,使网络聚焦于病灶区域,捕捉胸部异常区域的位置变化。最后,通过锚损失函数来缓解数据集的不平衡问题。实验结果表明,所提算法对CXR疾病分类具有较高准确度,平均AUC达到0.839,同时由消融实验可知,各模块的加入均有助于提升模型的性能,所提方法可以有效执行CXR的疾病分类任务。

参考文献

[1] Ouyang X, Karanam S, Wu Z Y, et al. Learning hierarchical attention for weakly-supervised chest X-ray abnormality localization and diagnosis[J]. IEEE Transactions on Medical Imaging, 2021, 40(10): 2698-2710.

[2] Chen B Z, Zhang Z, Lin J Y, et al. Two-stream collaborative network for multi-label chest X-ray Image classification with lung segmentation[J]. Pattern Recognition Letters, 2020, 135: 221-227.

[3] 邱云飞, 张家欣, 兰海, 等. 融合张量合成注意力的改进ResNet图像分类模型[J]. 激光与光电子学进展, 2023, 60(6): 0610008.

    Qiu Y F, Zhang J X, Lan H, et al. Improved ResNet image classification model based on tensor synthesis attention[J]. Laser & Optoelectronics Progress, 2023, 60(6): 0610008.

[4] Anthimopoulos M, Christodoulidis S, Ebner L, et al. Lung pattern classification for interstitial lung diseases using a deep convolutional neural network[J]. IEEE Transactions on Medical Imaging, 2016, 35(5): 1207-1216.

[5] KumarP, GrewalM, SrivastavaM M. Boosted cascaded convnets for multilabel classification of thoracic diseases in chest radiographs[M]//Campilho A, Karray F, ter Haar R B. Image analysis and recognition. Lecture notes in computer science. Cham: Springer, 2018, 10882: 546-552.

[6] 赵清一, 孔平, 闵建中, 等. 肺结节检测与分类的深度学习方法综述[J]. 生物医学工程学杂志, 2019, 36(6): 1060-1068.

    Zhao Q Y, Kong P, Min J Z, et al. A review of deep learning methods for the detection and classification of pulmonary nodules[J]. Journal of Biomedical Engineering, 2019, 36(6): 1060-1068.

[7] Gilanie G, Attique M, Naweed S, et al. Object extraction from T2 weighted brain MR image using histogram based gradient calculation[J]. Pattern Recognition Letters, 2013, 34(12): 1356-1363.

[8] Liskowski P, Krawiec K. Segmenting retinal blood vessels with deep neural networks[J]. IEEE Transactions on Medical Imaging, 2016, 35(11): 2369-2380.

[9] Rajinikanth V, Satapathy S C, Fernandes S L, et al. Entropy based segmentation of tumor from brain MR images-a study with teaching learning based optimization[J]. Pattern Recognition Letters, 2017, 94: 87-95.

[10] Bülow H, Dooley L, Wermser D. Application of principal axes for registration of NMR image sequences[J]. Pattern Recognition Letters, 2000, 21(4): 329-336.

[11] 赵卫东, 刘俊德, 王慢慢, 等. 基于改进AKAZE算法的快速图像配准方法[J]. 激光与光电子学进展, 2023, 60(6): 0610007.

    Zhao W D, Liu J D, Wang M M, et al. Fast image registration method based on improved AKAZE algorithm[J]. Laser & Optoelectronics Progress, 2023, 60(6): 0610007.

[12] LiaoR, MiaoS, de TournemireP, et al. An artificial agent for robust image registration[C]∥Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, February 4-9, 2017, San Francisco, California, USA. New York: ACM Press, 2017: 4168-4175.

[13] WangX S, PengY F, LuL, et al. ChestX-Ray8: hospital-scale chest X-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 3462-3471.

[14] Guan Q J, Huang Y P, Luo Y W, et al. Discriminative feature learning for thorax disease classification in chest X-ray images[J]. IEEE Transactions on Image Processing, 2021, 30: 2476-2487.

[15] MaY B, ZhouQ H, ChenX S, et al. Multi-attention network for thoracic disease classification and localization[C]∥ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 12-17, 2019, Brighton, UK. New York: IEEE Press, 2019: 1378-1382.

[16] Guan Q J, Huang Y P. Multi-label chest X-ray image classification via category-wise residual attention learning[J]. Pattern Recognition Letters, 2020, 130: 259-266.

[17] Wang H Y, Wang S S, Qin Z B, et al. Triple attention learning for classification of 14 thoracic diseases using chest radiography[J]. Medical Image Analysis, 2021, 67: 101846.

[18] Tan H, Dong S J. Pixel-level concrete crack segmentation using pyramidal residual network with omni-dimensional dynamic convolution[J]. Processes, 2023, 11(2): 546.

[19] 李家昱, 陈明惠, 杨瑞君, 等. 糖尿病视网膜病变眼底图像筛查研究[J]. 中国激光, 2022, 49(11): 1107001.

    Li J Y, Chen M H, Yang R J, et al. Study on fundus image screening of diabetic retinopathy[J]. Chinese Journal of Lasers, 2022, 49(11): 1107001.

[20] PanX R, GeC J, LuR, et al. On the integration of self-attention and convolution[C]∥2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 18-24, 2022, New Orleans, LA, USA. New York: IEEE Press, 2022: 805-815.

[21] 周涛, 叶鑫宇, 刘凤珍, 等. 基于轻量化方向Transformer模型的肺炎X光片辅助诊断[J]. 光学学报, 2023, 43(13): 1310001.

    Zhou T, Ye X Y, Liu F J, et al. Aided diagnosis of pneumonia radiographs based on the lightweight direction Transformer model[J]. Acta Optica Sinica, 2023, 43(13): 1310001.

[22] RyouS, JeongS G, PeronaP. Anchor loss: modulating loss scale based on prediction difficulty[C]∥2019 IEEE/CVF International Conference on Computer Vision (ICCV), October 27-November 2, 2019, Seoul, Korea (South). New York: IEEE Press, 2020: 5991-6000.

[23] 张智睿, 李锵, 关欣. 密集挤压激励网络的多标签胸部X光片疾病分类[J]. 中国图象图形学报, 2020, 25(10): 2238-2248.

    Zhang Z R, Li Q, Guan X. Multilabel chest X-ray disease classification based on a dense squeeze-and-excitation network[J]. Journal of Image and Graphics, 2020, 25(10): 2238-2248.

[24] 邵凌云, 李锵, 关欣, 等. 基于高效通道注意力的胸部X光片疾病分类算法[J]. 激光与光电子学进展, 2023, 60(12): 1217001.

    Shao L Y, Li Q, Guan X, et al. Efficient channel attention-based disease classification algorithm for chest radiographs[J]. Laser & Optoelectronics Progress, 2023, 60(12): 1217001.

[25] Irvin J, Rajpurkar P, Ko M, et al. CheXpert: a large chest radiograph dataset with uncertainty labels and expert comparison[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33(1): 590-597.

关欣, 耿晶晶, 李锵. 结合自注意力与卷积的胸部X光片疾病分类研究[J]. 激光与光电子学进展, 2024, 61(4): 0417002. Xin Guan, Jingjing Geng, Qiang Li. Research on Combining Self-Attention and Convolution for Chest X-Ray Disease Classification[J]. Laser & Optoelectronics Progress, 2024, 61(4): 0417002.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!