激光与光电子学进展, 2018, 55 (5): 051006, 网络出版: 2018-09-11   

二维和三维卷积神经网络相结合的CT图像肺结节检测方法 下载: 2880次

Detection of Pulmonary Nodules CT Images Combined with Two-Dimensional and Three-Dimensional Convolution Neural Networks
作者单位
江南大学物联网工程学院, 江苏 无锡 214122
摘要
针对现有方法在大量肺部数据中存在的检测肺结节效率不高及大量假阳性的问题,提出了一种基于端到端的二维全卷积对象定位网络(2D FCN)与三维立体式目标分类卷积神经网络(3D CNN)相结合的肺结节检测方法。首先采用2D全卷积神经网络对所有CT图像进行初步检测,快速识别和定位CT图像中的疑似结节区域,输出一张与原图尺寸相同且被标记好的图像。然后计算疑似结节区域的坐标,根据坐标值提取疑似结节的三维立体图像块训练构建的3D卷积神经网络框架。最后利用训练的3D模型对候选结节做二分类处理以去除假阳性。在LIDC-IDRI数据集上,结节初步检测召回率在平均每位患者为36.2个假阳性时可达98.2%;在假阳性去除之后,假阳性为1和4时分别达到了87.3%和97.0%的准确率。LIDC-IDRI数据库上的实验结果表明,所提方法对三维CT图像的肺结节检测具有更高的适用性,取得了较高的召回率和准确率,优于目前相关文献报道的方法。该框架易于扩展到其他3D医疗图像的目标检测任务中,对辅助医师诊治具有重要的应用价值。
Abstract
Aim

ing at the problems that traditional lung nodules detection methods can only get low sensitivities and a lot of false positives, this paper presents a retrieval method for lung nodules CT image based on end-to-end two-dimensional full convolution object recognition network (2D FCN) and three-dimensional target classification convolution neural network (3D CNN). Firstly, the method builds the 2D CNN for candidate selection to detect and locate the suspected regions on axial slices, and outputs an image that is the same size as the original image and is marked. Secondly, the three-dimensional patches of each candidate are extracted to train the 3D CNN. Finally, the trained 3D model is used to classify the false positive nodules. Experimental results on the LIDC-IDRI dataset show that the proposed method can achieve the recall rate of nodules of 98.2% at 36.2 false positives per scan. In the false positive reduction, the method respectively achieves high detection sensitivities of 87.3% and 97.0% at 1 and 4 false positives per scan. Experimental results on the LIDC-IDRI dataset show that the proposed method is highly suited to be used for lung nodules detection, achieves high recall rate and accuracy and outperforms the current reported method. Meanwhile, the proposed framework is general and can be easily extended to many other 3D object detection tasks from volumetric medical images, and it has an important application value in clinical practice with the aid of radiologists and surgeons.

1 引言

肺癌是目前对人类健康和生命威胁最大的恶性肿瘤之一[1]。研究发现,如果能及早发现和治疗,肺癌患者的5年存活率将提高50%左右。肺癌早期有相当部分表现为结节,肺部结节为肺内呈圆形或不规则的病灶,其中约34%为肺癌,其余为良性病变。所以肺部结节的检测对发现早期肺癌具有极大的重要性。

低剂量胸部电子计算机断层扫描(CT)是目前公认的检测肺部结节最可靠的方法,但CT检测结果中依然存在大量的假阳性。仅依靠人工对肺结节进行查找和诊断,不仅工作量大,而且容易出错,因此对组织病理学图片进行自动检测和分析是目前非常热门的一个研究方向。目前,对病理学图片进行自动检测和分析的常用方法是传统的机器学习方法[2-5],如阈值分割法、支持向量机(SVM)方法等。阈值分割法可对肺部不同区域的灰度值进行层层分割,如可对血管、气泡、骨架等进行分离,该方法比较简单,但肺结节的灰度值与血管、肺边缘、气泡等的灰度值非常相似,会导致模型生成大量的假结节。SVM方法需要人工提取并计算结节特征,如纹理、大小、边缘等特征。这些算法的准确度依赖于基于人工设计的特征提取方法,如果特征选择不好,就会很容易遗漏结节信息,这将直接影响结节检测的准确率。

深度学习是机器学习的一个重要分支,近几年得到了迅猛发展。大量的可用数据和高效的图形处理器(GPU)计算能力使得卷积神经网络(CNN)在图像领域中取得了不错的成就[6-13],并且在医疗图像上有了一定应用[7-13],可对脑部、细胞、肺部组织等进行分割与识别。卷积神经网络以一种端到端的形式识别特征,与传统的机器学习方法相比,其优势在于特征提取不需要人工参与,各层的特征提取都是在通用的学习过程中进行,从数据中学习得到。

本文提出了一种基于深度卷积神经网络的肺结节检测方法,通过深度卷积神经网络对肺结节进行自动的特征学习和检测。每一副CT图像约有500张序列切片,每一张切片大小为512 pixel×512 pixel,最大的结节尺寸约为34 mm,最小的结节尺寸约为4 mm,此次检测为小目标检测,且数据量较大。3D全卷积模型对小目标的检测效果并不好,主要用于大目标的定位与分割,同时数据量过大会导致机器不能以批量样本的形式将多副完整的CT图像送入模型进行训练。本文采用2D全卷积神经网络对CT图像中每一张切片的候选结节进行初步检测,之后合并切片间的结节,最后在保证高检出率的同时生成少量的候选结节[4-5]。候选结节生成后在CT立体图像上构建3D卷积神经网络框架,在候选结节中抽取3D样本块进行假阳性去除,经过3D样本训练后模型能更加充分地提取结节中原有的空间信息,同时生成更具有代表性的特征。与传统方法相比,所提方法可大大提高肺部结节的检出率和准确率,对辅助医师诊治有着重要的应用价值。

2 二维和三维卷积神经网络相结合的肺结节检测

系统的功能模块由两部分组成:1) 改进的2D U-net候选结节检测;2) 3D卷积神经网络假阳性去除。具体方法是先采用改进的全卷积神经网络U-net[7]以一种端到端的形式快速完成候选结节对象的识别与定位,然后在CT立体图像上对所有的候选结节抽取3D样本,构建并训练3D卷积神经网络模型,最终使用模型对每一个候选结节做二分类,得到结节的一个数值描述(概率值)。系统的实现分为训练和测试两个阶段,图1所示为肺结节检测系统流程。

2.1 改进的2D U-net候选结节检测

候选结节检测算法在整个检测方案中扮演着重要角色,它决定了结节的召回率。理想的候选结节检测方法应该检测出所有的真结节,但是由于结节检测为小目标对象识别,并且结节形态各异,所以要想达到100%的召回率较困难。本研究采用改进的全卷积神经网络U-net作为候选结节的检测方法,全卷积网络是一种端到端、像素到像素的对象识别与定位网络。它可以接受任意尺寸的输入图像,采用反卷积层对最后一个卷积层的特征映射图进行上采样,使它恢复到与输入图像相同的尺寸,从而可以对每个像素都产生一个预测,最后输出一张已标记好的图片,效率高且结果比较直观。参照原始的U-net模型在训练集上会出现过拟合的趋势,所以对U-net进行了一些改进。

图 1. 肺结节检测系统流程图

Fig. 1. Flow chart of lung nodule detection system

下载图片 查看所有图片

2.1.1 改进U-net网络的结构

由于CT图像的大小为512 pixel×512 pixel,所以将原始网络的输入大小由572 pixel×572 pixel改为512 pixel×512 pixel。网络本身较深的层数会导致计算量过大,从而导致网络只能接受较小的批处理图片,原始的网络会出现不收敛的情况。所以在网络的收缩部分添加了Batch-Normalization[14],激活函数采用Leaky-ReL[15]代替原有的ReLU[16],最后加上空间dropout策略[17]

2.1.2 U-net结果输出

在U-net的输出中候选结节将被抽取,一共生成62809个候选结节。对预测图采用二值化、去噪声处理,最后使用形态学方法得到中心坐标。图2给出了改进的U-net对一个真结节2D切片序列的预测结果,该结果是结节从出现到渐渐消失的预测结果,在第4张预测图中出现了一个假阳性。

图 2. CT切片序列原图与U-net预测图。(a)原图;(b)预测图

Fig. 2. CT slice original images and U-net prediction images. (a) Original images; (b) prediction images

下载图片 查看所有图片

2.1.3 结节合并

U-net抽取候选结节后,多层切片之间的许多结节是需要合并的。首先采用距离合并,再采用结节合并。采用距离合并时,由于结节的抽取是基于2D的,因此合并切面之后有很多结节距离很近。为了减少这些候选结节,通过计算坐标之间的欧氏距离将其合并,然后将所有的合并结节坐标的均值作为新的坐标值。结节合并这一环节是基于真结节的距离进行合并的,在注释文件中有真结节的坐标以及半径注释。在真结节的半径内或距离结节中心坐标30 mm范围内将其合并,新的坐标采用均值坐标。

2.1.4 U-net模型评价指标--召回率

候选结节初步检测的标准由召回率来衡量,召回率先是候选结节的中心坐标与注释文件中真结节的真实坐标之间的距离,如果这个距离在真结节的半径之内,则认为检测到结节。之后统计候选结节的总数来计算召回率,召回率的计算公式为

r=TPTP+FN,(1)

式中:r为召回率;TP为所有被正确检出的结节的个数;FN为被错分的正确结节的个数;TP+FN为应该检索到的所有正确结节的个数。

2.2 3D卷积神经网络假阳性去除

在系统完成肺结节初步检测之后,检测范围得以缩小,但依然生成了较多的候选结节,之后需要对这些结节做假阳性去除处理。采用基于3D卷积神经网络的框架完成假阳性去除的任务。与传统的阈值分割法[18]、机器学习方法[19-20]和2D卷积神经网络模型[12-13]相比,3D卷积神经网络能够更加充分地提取结节原有的空间信息,同时可以学习到更具代表性的特征。这些特征对物体的大小、位置和方向等的敏感性更低,有助于识别性能的提高。系统首先在原有CT立体图像上抽取结节的立体块,然后通过构建的3D卷积神经网络网络结构更深入地学习结节潜在的特征。在3D图像的研究中,该框架能够更容易和更精确地探索检测类任务。

2.2.1 网络结构

3D卷积神经网络假阳性去除系统网络的结构如图3所示,系统的网络结构由3D卷积神经网络组成,包含一系列参数(层数、卷积核的尺寸、输入图像的像素),这些参数已在多次实验中被优化。3D网络结构由3个卷积层和一个池化层组成。网络的输入为40 pixel×40 pixel×26 pixel的3D立体图像块,第一个卷积层由64个5×5×3的卷积核组成,第二个池化层由64个2×2×2的最大池组成,第四和第五层是连续的两个卷积层,其大小和第一层一样。每一个核生成一个3D图像块。这些核保存着不同的矩阵值,起初将权值与偏置进行均匀分布初始化,控制在0~1之间,在之后的训练中不断地被优化。最后一层为输出层,本层采用全连接方法。

图 3. 3D卷积神经网络假阳性去除系统网络的结构

Fig. 3. Structure of 3D convolution neural network false positive removal system network

下载图片 查看所有图片

2.2.2 3D卷积神经网络的构造

一般的3D卷积神经网络由3D卷积层、3D池化层和全连接层抽取图像的特征,最后接一个softmax层得到一个分数[10-11]。每一层有许多通道,每个通道代表一种特征。对于3D卷积神经网络而言,卷积池化实际上是一个立体的3D特征块。与2D不同的是,3D的特征是以立体形式呈现的一组神经元。

3D卷积层:构造一个3D卷积层,首先要建立一系列的3D特征抽取块来扫描所有的输入,也就是3D卷积核。为了生成一个立体特征块,使用不同的3D卷积核来卷积不同的特征输入块,每一个特征块对应一个独立的卷积核;然后添加偏置项和一个非线性激活函数,最后对不同的3D卷积核的操作求和。3D卷积的公式为

hil(x,y,z)=σbil+ku,v,whkl-1(x-u,y-v,z-w)Wkil(u,v,w),(2)

式中: hilhkl-1分别为第l层的第i个和第l-1层的第k个3D特征块; Wkil∈R3为连接 hilhkl-1的3D卷积核; hil(x,y,z)、 hkl-1(x-u,y-v,z-w)、 Wkil(u,v,w)分别为 hil在坐标(x,y,z)上的元素值、 hkl-1在经过三维卷积核 Wkil(u,v,w)计算后在(x-u,y-v,z-w)上的元素值和3D卷积核 Wkil本身在坐标(u,v,w)上的元素值; bil为偏置项;σ(·)为非线性激活函数,例如Leaky-ReLU。

3D池化层:在连续的卷积操作之后插入一个3D池化层。采样3D特征块是为了在保留原有特征信息的情况下,不断地通过降低图像维度后缩小特征图尺度来减少数据量的运算。假设第l层是卷积层,则紧跟它的第l+1层是池化层。池化的概念可以被描述为一个4D的张量T=h1l,h2l,,hKl∈RX×Y×Z×K。对于池化的操作,本研究选择最大池,在一个扫描到的3D立方体块中取最大值,最后生成的输出为T'∈RX'×Y'×Z'×K。(X,Y,Z)和(X',Y',Z')是在经过卷积操作后生成的特征图与经过池化降维后的特征图;K为原有的特征块数量,保持不变。若池化核的大小和步长分别设置为MS,则池化操作后的大小为X'=(X-M)/S+1。对Y'Z'采用相同的操作。

全连接层:与卷积层相比,全连接层有更多的连接。每一个神经元将会和邻近层中所有的神经元连接,这些神经元会增强抽取特征的代表能力。要实现全连接层,首先需要将立体特征块拉成的一维向量与神经元做乘积运算,然后加上一个偏置项,最后应用一个非线性激活函数,即:

hf=σbf+Wfhf-1,(3)

式中:hf-1为第f-1层的3D特征块被拉成一维向量之后作为输入的一维特征向量;hf为第f层的一个特征输出;Wf为重矩阵;bf为偏置项。

2.2.3 3D图像块的抽取

图4所示为不同尺寸结节的数量分布,最大的结节尺寸约为34 mm,最小的约为4 mm。经过LIDC-IDRI注释文件中像素间距与层间距的计算,对每一个候选结节,选取40 pixel×40 pixel×26 pixel的3D图像块完全可以将结节包含在内,如图5(c)所示。人体组织的CT值位于(-1000 HU,400 HU),因此需要将3D图像块内部的CT值窗口化到(-1000 HU,400 HU),最后再进行归一化。

图 4. 不同尺寸结节的数量分布

Fig. 4. Number distribution of nodules with different sizes

下载图片 查看所有图片

3 实验设计与结果分析

3.1 实验数据集

实验数据集取自公开的LIDC-IDRI数据库[21],数据库中包含1018张CT图像。这些CT由7个不同的机构制作而成。切片的厚度为0.6~5.0 mm,中间值为2.0 mm。参照标准由4位专家手工注释。为了保证注释的准确性,专家对每一幅CT图像审查两遍。第一遍判断肺结节的尺寸是小于3 mm还是大于或等于3 mm,然后手动分割出尺寸大于等于3 mm的结节。第二遍由4名放射科医师共同评审结节的注释,每位放射科医师都可以否定其他专家对结节的标注,然后进行重新标注。挑出尺寸大于3 mm并由3名或4名专家共同注释的结节。图5所示为数据库中不同尺寸结节的图像。被忽略的结节将记录在一个文件中,在检测任务中对这些结节也不做假阳性处理[22]。最后抽取层间度大于2.5 mm的CT图像,一共获得了888张CT图片,共包含1186个肺结节。

图 5. 数据库中不同尺寸结节的图像。(a)小结节;(b)中等结节;(c)大结节

Fig. 5. Images of nodules with different sizes in the database. (a) Small nodules; (b) middle nodules; (c) big nodules

下载图片 查看所有图片

3.2 模型训练方法

为了验证模型的性能,将数据划分为5份,采用5折交叉验证实验,4份用于训练,1份用于测试,直到所有的数据都被测试。针对3D模型训练,由于其候选结节中的阳性样本较少,为了保持样本的均衡,使用增援技术。首先将数据在(x,y,z)三个方向进行了[-1,1]的平移,然后根据结节的中心坐标对其进行[90°,180°,270°]三个角度的旋转,最后保持正负样本的比例接近1∶1。关于模型的优化算法,采用随机梯度下降算法,权重初始化使用高斯分布,学习率设置为0.001,每迭代完一轮进行一次0.05的衰减,批处理大小设置为128,动量设置为0.9,激活函数采用较新的Leaky-ReLU函数。代价函数使用多分类对数损失函数,与softmax分类器相对应的损失函数,最后加入dropout策略[18]来增强模型的泛化能力,以防止模型过拟合。图6所示为 3D卷积神经网络模型在训练过程中的误差和测试准确率曲线,经过80000次迭代后误差趋于0,准确率趋于1,模型总体上不再波动,趋于稳定状态。所有网络在GPU Tesla K80上使用Python的TensorFlow[23]深度学习库来实现,模型训练总时间约为6 h,测试所有病人案例的总时间约为1915 s(888个案例)。

图 6. 3D卷积神经网络模型的训练误差和测试准确率曲线

Fig. 6. Training error and test accuracy curves of 3D convolution neural network model

下载图片 查看所有图片

3.3 实验结果与分析

采用改进的U-net全卷积网络模型作为候选结节的初步检测方法,最终生成62809个候选结节,合并后为35597个结节。在1186个真结节中检测到了1165个,召回率为98.2%,U-net表现出了出色的检测性能。之后提出3D卷积神经网络假阳性去除模型,通过对结节原有立体信息的特征学习来强化系统的检测性能。针对3D假阳性去除模型的验证,通过受试者特征(FROC)[24]曲线来定量分析检测系统对结节的检测性能,FROC曲线可以反映肺结节的检出率与平均每幅图像假阳性个数的关系。图7所示为平均每幅CT图像假阳性比例的准确率,在每一副CT图像假阳性为1和4时分别获得了87.3%和97%的准确率。

图 7. 平均每幅CT图像假阳性比例的准确率

Fig. 7. Accuracy of average number of false positives per CT image

下载图片 查看所有图片

3.3.1 模型尺度的选择对实验结果的影响

根据尺寸将结节分为大、中、小3类,如图5所示。在假阳性去除任务中,针对三种结节选取20、30、40三种尺度的输入图像块进行实验,不同尺度对实验结果的影响如图8所示。从图8的FROC曲线中可以看出,保存结节完整立体信息的尺度结果最好,最后选择尺度为40的图像块。

图 8. 输入图像块的尺度对实验结果的影响

Fig. 8. Effect of the dimensions of the input image block on the experimental results

下载图片 查看所有图片

3.3.2 网络模型对实验结果的影响

在假阳性去除任务中,测试了2D切面网络结构对实验结果的影响。2D模型对本研究中的3D模型进行了一些调整,主要将样本输入由3D图像块改为(x,y)方向的切面,将3D卷积核和池化核改成2D形式。图9所示为网络模型的选择对实验结果的影响。从图中可以看出3D卷积神经网络的检测性能一直优于2D卷积神经网络的检测性能,在假阳性为0.5以上时,3D模型表现出更大的优势,在假阳性达到1后检测率超过了90%,而2D网络在假阳性为4时检测率才接近90%,表明3D卷积神经网络比2D卷积神经网络具有更好的肺结节检测能力。

图 9. 网络模型的选择对实验结果的影响

Fig. 9. Effect of the selection of network model on experimental results

下载图片 查看所有图片

3.3.3 分析与对比

表1所示为LIDC-IDRI数据库中肺结节检测算法的比较,所提方法主要与文献[ 12]和文献[ 13]对比,文献[ 18-20]和文献[ 25]由于案例数不同,仅用于参考。文献[ 12]和文献[ 13]通过切出结节的多个面,比如提取结节的正交等切面来保留结节的三维特性,这样会丢失结节的大部分立体信息。早期的研究者使用传统的阈值分割法来分割结节,如文献[ 18]通过找到CT图像中各个组织的不同阈值来分割结节,这种方法会受到图像本身质量的影响,即使通过多种方法串联也不能得到较理想的检测结果。文献[ 19-20]和文献[ 25]通过人工提取肺结节图像块的纹理、边缘、形状等特征来训练分类器,比如SVM分类器,用训练好的模型来实现检测目标。但是,特征的选择对于这种方法来说是个难点,需要大量的实验来组合提取的特征,并且训练分类器的计算量比较大。基于单一的2D切片构造2D模型无法充分获取结节的立体信息,所以达不到理想的结果。而利用多个2D切面合成立体的特性可以提高系统的检测率,因为它利用了结节的部分立体信息,但依然无法达到较高的检测水平。

表 1. LIDC-IDRI数据库中肺结节的检测算法比较

Table 1. Comparison of detection algorithms of pulmonary nodules in LIDC-IDRI database

CAD systemsYearNumber of casesNodules size /mmNodule number(Sensitivity /%) /(FPs /a.u.)
Proposed method-888≥3118687.3/1.097.0/4.0
Literature [12]2016888≥3118684.4/1.090.5/4.0
Literature [13]2015888≥3118673.0/1.076.0/4.0
Literature [20]2015949≥3174980.0/8.0
Literature [18]2014108≥46875.0/2.0
Literature [19]2013583-3015195.3/2.3
Literature [25]201284≥314897.0/6.188/2.5

查看所有表

图 10. 假阴性结节

Fig. 10. False negative nodules

下载图片 查看所有图片

提出的基于2D对象识别与3D目标分类相结合的卷积神经网络肺结节检测方法的准确率均优于其他算法。该方法不需要人工干预,既不需要切取三维立体图像块多个方向的切面图像来保持原有的立体信息,也不需要进行特征选取,直接将原图像输入到全卷积网络中检测出候选结节,再将候选结节的3D样本块送入3D网络模型,充分提取结节的空间信息,利用深度学习发现图像块中的潜在特征,为图像块进行分类,检测出目标对象。所提方法的稳健性强,而且可以精确检测出CT图像中的结节。

在检测中有一些结节未被检出,图10所示为假阴性结节图片,显示出了遗漏的结节,这些遗漏的结节大部分都是贴在肺壁上的小结节、与血管组织混合的结节,以及玻璃状结节。根据图4数据库结节的统计可知,因小结节的数量较少,从而导致对小结节的信息学习不充分,所以在模型训练中对中等结节和大结节的识别能力较强,而对小结节的识别能力较弱。这些结节由于尺寸较小、形状不规则、噪声多而受到了干扰,所以较难识别。同时由于3D网络抽取的是40 pixel×40 pixel×26 pixel的图像块,以最大的尺寸为标准,对小结节本身的信息学习较少,而对其他背景干扰信息学习较多,也会导致效果不理想。未来可针对小结节进行研究,以进一步提升系统的检测性能。

4 结论

研究了卷积神经网络在肺结节检测中的应用。使用改进的U-net全卷积分割网络作为结节的初步检测,达到了98.2%的召回率。提出的基于3D卷积神经网络的肺结节假阳性去除模型在假阳性为4时达到了97.0%的精度。基于LIDC-IDRI数据库的实验结果表明,3D卷积神经网络在不同大小和变异的立体医疗数据中获得了最优的分类精度,同时也获得了优于目前国内外其他方法的分类结果。在3D医疗图像的研究中,该模型能够更容易和更精确地执行检测类任务。

参考文献

[1] Sluimer I, Schilham A, Prokop M, et al. Computer analysis of computed tomography scans of the lung: a survey[J]. IEEE Transactions on Medical Imaging, 2006, 25(4): 385-405.

[2] 高婷, 龚敬, 王远军, 等. 检测肺结节的3维自适应模板匹配[J]. 中国图象图形学报, 2014, 19(9): 1384-1391.

    Gao T, Gong J, Wang Y J, et al. Three dimensional adaptive template matching algorithm for lung nodule detection[J]. Journal of Image and Graphics, 2014, 19(9): 1384-1391.

[3] Murphy K, Ginneken B V. Schilham A M R, et al. A large-scale evaluation of automatic pulmonary nodule detection in chest CT using local image features and k-nearest-neighbour classification[J]. Medical Image Analysis, 2009, 13(5): 757-770.

[4] Jacobs C. Rikxoort E M V, Twellmann T, et al. Automatic detection of subsolid pulmonary nodules in thoracic computed tomography images[J]. Medical Image Analysis, 2014, 18(2): 374-384.

[5] 陈胜, 李莉. 一种全新的基于胸片计算机辅助检测肺结节方案[J]. 电子学报, 2010, 38(5): 1211-1216.

    Chen S, Li L. A new computer aided diagnostic scheme for lung nodule detection on chest radiograph[J]. Acta Electronica Sinica, 2010, 38(5): 1211-1216.

[6] 王民, 刘可心, 刘利, 等. 基于优化卷积神经网络的图像超分辨率重建[J]. 激光与光电子学进展, 2017, 54(11): 111005.

    Wang M, Liu K X, Liu L, et al. Super-resolution reconstruction of image based on optimized convolution neural network[J]. Laser & Optoelectronics Progress, 2017, 54(11): 111005.

[7] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

[8] RonnebergerO, FischerP, BroxT. U-Net: convolutional networks for biomedical image segmentation[C]. International Conference on Medical Image Computing and Computer-Assisted Intervention, [S.l.]: Springer, 2015: 234- 241.

[9] 黄鸿, 何凯, 郑新磊, 等. 基于深度学习的高光谱图像空-谱联合特征提取[J]. 激光与光电子学进展, 2017, 54(10): 101001.

    Huang H, He K, Zheng X L, et al. Spatial-spectral feature extraction of hyperspectral image based on deep learning[J]. Laser & Optoelectronics Progress, 2017, 54(10): 101001.

[10] ChenH, QiX, YuL,et al. DCAN: deep contour-aware networks for accurate gland segmentation[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016: 16541200.

[11] Kamnitsas K, Ledig C. Newcombe V F J, et al. Efficient multiscale 3D CNN with fully connected CRF for accurate brain lesion segmentation[J]. Medical Image Analysis, 2017, 36: 61-78.

[12] Setio A A A, Ciompi F, Litjens G, et al. . Pulmonary nodule detection in CT images: false positive reduction using multi-view convolutional networks[J]. IEEE Transactions on Medical Imaging, 2016, 35(5): 1160-1169.

[13] van Ginneken Bv, Setio A AA, JacobsC, et al. Off-the-shelf convolutional neural network features for pulmonary nodule detection in computed tomography scans[C]. IEEE 12th International Symposium on Biomedical Imaging, 2015: 15309667.

[14] IoffeS, SzegedyC. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]. International Conference on Machine Learning, 2015: 448- 456.

[15] HeK, ZhangX, RenS, et al. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification[C]. IEEE International Conference on Computer Vision, 2015: 1026- 1034.

[16] GlorotX, BordesA, BengioY. Deep sparse rectifier neural networks[C]. 14th International Conference on Artificial Intelligence and Statistics, 2011: 315- 323.

[17] Oliveira GL, ValadaA, BollenC, et al. Deep learning for human part discovery in images[C]. IEEE International Conference on Robotics and Automation, 2016: 16055460.

[18] Brown M S, Lo P, Goldin J G, et al. Toward clinically usable CAD for lung cancer screening with computed tomography[J]. European Radiology, 2014, 24(11): 2719-2728.

[19] Torres E L, Fiorina E, Pennazio F. et al. Large scale validation of the M5L lung CAD on heterogeneous CT datasets[J]. Medical Physics, 2015, 42(4): 1477-1489.

[20] Choi W J, Choi T S. Automated pulmonary nodule detection system in computed tomography images: a hierarchical block classification approach[J]. Entropy, 2013, 15(2): 507-523.

[21] Lii S G A, Mclennan G, Bidaut L, et al. . The lung image database consortium(LIDC) and image database resource initiative (IDRI): a completed reference database of lung nodules on CT scans[J]. Medical Physics, 2011, 38(2): 915-931.

[22] van Ginneken B, Lii S G A, de Hoop B, et al. Comparing and combining algorithms for computer-aided detection of pulmonary nodules in computed tomography scans: the ANODE09 study[J]. Medical Image Analysis, 2010, 14(6): 707-722.

[23] 刘帆, 刘鹏远, 李兵, 等. TensorFlow平台下的视频目标跟踪深度学习模型设计[J]. 激光与光电子学进展, 2017, 54(9): 091501.

    Liu F, Liu P Y, Li B, et al. Deep learning model design of video target tracking based on TensorFlow platform[J]. Laser & Optoelectronics Progress, 2017, 54(9): 091501.

[24] Egan J P, Greenberg G Z, Schulman A I. Operating characteristics, signal detectability, and the method of free response[J]. Journal of the Acoustical Society of America, 1961, 33(8): 993-1007.

[25] Cascio D, Magro R, Fauci F, et al. Automatic detection of lung nodules in CT datasets based on stable 3D mass-spring models[J]. Computers in Biology & Medicine, 2012, 42(11): 1098-1109.

苗光, 李朝锋. 二维和三维卷积神经网络相结合的CT图像肺结节检测方法[J]. 激光与光电子学进展, 2018, 55(5): 051006. Guang Miao, Chaofeng Li. Detection of Pulmonary Nodules CT Images Combined with Two-Dimensional and Three-Dimensional Convolution Neural Networks[J]. Laser & Optoelectronics Progress, 2018, 55(5): 051006.

本文已被 8 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!