光学学报, 2020, 40 (6): 0610001, 网络出版: 2020-03-06   

多模态磁共振脑肿瘤图像自动分割算法研究 下载: 1790次

Automatic Segmentation Algorithm for Multimodal Magnetic Resonance-Based Brain Tumor Images
作者单位
四川大学电气工程学院, 四川 成都 610065
摘要
脑肿瘤图像自动分割的难点在于肿瘤形态各异,且类别不平衡情况比较严重,常规的卷积神经网络难以预测出高精度分割图像。针对以上问题,在原始3D-Unet的基础上提出一种改进模型,以混合膨胀卷积模块代替常规卷积模块,指数级地增大神经元的感受野,同时减小网络深度,避免上采样时无法恢复小目标的情况。同时以混合损失函数代替原来的Dice损失函数,加强稀疏类分类错误时对模型的惩罚,迫使模型更好地学习分类错误的样本。实验结果表明,混合膨胀卷积模块与混合损失函数能分别提高整个肿瘤区域和肿瘤核心区域的预测精度,提出的3D-HDC-Unet模型改善了脑肿瘤自动分割的多项性能参数。
Abstract
Automatic segmentation of brain tumor images is difficult to achieve owing to the diversity in tumor shapes and severe imbalance in the segmentation categories. Conventional convolutional neural network can hardly predict high precision segmentation images. To solve the abovementioned problems, an improved model based on the original three-dimensional (3D)-Unet was proposed, which replaced the conventional convolution module with a hybrid dilated convolution module to exponentially increase the receptive field of neurons, reducing the network depth and avoiding scenarios wherein small targets could not be recovered during up-sampling. Furthermore, the hybrid loss function was used to replace the original Dice loss function to increase the penalty faced by the model when classification errors of sparse classes occurred, forcing the model to learn the features of these classes better. Experiment results showed that the hybrid dilated convolution module and the hybrid loss function could respectively improve the prediction accuracy of the whole tumor region and the core tumor region. Multiple performance parameters of brain tumor automatic segmentation were improved using this 3D-HDC-Unet model.

1 引言

从医学图像中准确分割脑肿瘤区域对于疾病诊断、制定放射治疗计划等意义重大。磁共振成像(MRI)因其具有亚毫米级的空间分辨率,常用于肿瘤检测[1]。MRI有4种成像模态:T1、T1c、T2和Flair,不同的模态用于突出显示不同的肿瘤区域[2]。手动分割肿瘤区域是一项耗时且高度依赖医生个人经验的工作。其难点在于肿瘤形态各异,且可能分布于大脑的任意区域,快速、准确、自动地描绘出患者的肿瘤区域难度较大。

医学图像分割的根本问题是提取像素或体素的特征,然后对其分类。技术发展路线可分为手动分割、基于强度的分割、基于地图集的分割以及深度学习的方法。

手动分割是最原始的方法,耗时、繁琐,且存在人工差异。基于强度的分割主要是将像素的灰度值与某一个或多个阈值相比较来区分不同的组织[3]。常用的方法有区域分割法和聚类分割法,区域分割法具有较低的计算负荷,但对噪声很敏感,聚类分割法对初始化参数敏感,且难以考虑空间信息或像素间的依赖关系[4]

“地图集”就是人工标记完备的数据库,基于地图集的分割就是将测试图像与当前数据库的数据进行非刚性配准,然后用标签传播的方法将地图集的标签映射到测试图像中。但非刚性配准的准确度不高,且计算复杂度高[5]

2012年以来,以深度神经网络为代表的深度学习方法性能大幅超过传统算法的性能。深度学习方法不依赖手工制作的特征,可以直接从数据中自动地学习特征的各个层次结构[6]。Shelhamer等[7]提出全卷积网络(FCN),将原始卷积神经网络中最后用于分类的全连接层换成卷积层,以处理任意输入尺寸的图像。Ronneberger等[8]在FCN的基础上设计了2D-Unet网络,该网络由对称的“收缩路径(Contracting Path)”和“扩展路径(Expanding Path)”组成,收缩路径用于捕捉上下文信息,扩展路径用于定位感兴趣的结构,且在同一深度的收缩层和扩展层之间添加跳跃连接。此模型达到了2015年2D医学图像分割的最先进水平。然而大部分医学图像是3D的,2D切片会丢失相邻切片之间的三维空间信息,降低分割精度,且单纯地将2D分割结果拼接成3D分割结果,可能会出现锯齿、断层等问题[9]。Çiçek等[10]利用3D卷积核将其拓展为3D-Unet网络。Milletari等[11]在3D-Unet的基础上加入残差模块,缓解了网络过深时梯度消失的问题。Kayalibay等[12]在最先进的3D-Unet架构下采用Jaccard损失函数,改善了类别不平衡问题,取得了BraTS 2015数据集的最好成绩。

本文以BraTS 2017脑肿瘤数据集作为实验数据,在3D-Unet架构基础上,构建4通道全卷积神经网络。在收缩路径中加入混合膨胀卷积模块(HDC)以扩大每一层的感受野。在扩展路径中,将上采样得到的特征映射(Feature Maps)与本层的特征映射进行拼接,生成不同分辨率下的预测图,然后通过逐元素相加得到最终预测图。损失函数方面,受文献[ 13]的启发,将多类别Dice损失函数和Focal损失函数[14]相结合,得到混合损失函数(HLF),加强稀疏类分类错误对模型的惩罚,有助于改善类别不平衡问题。

2 自动分割方法

2.1 数据集与预处理

实验数据选取BraTS 2017数据集[15],其中包含210位高级别胶质瘤(HGG)和75位低级别胶质瘤(LGG)患者的4种MRI模态图像,原始尺寸为240 mm×240 mm×155 mm,分别来自于19个机构的临床数据。每位患者的肿瘤图像都由4位放射科医生手动标注出4类标签,分别代表3种肿瘤亚型与背景:1)标签1代表坏死的(Necrotic, NCR)和非增强肿瘤(Non-Enhancing Tumor, NET)核心;2)标签2代表瘤周水肿(Peritumoral Edema, ED);3)标签4代表增强肿瘤(Enhancing Tumor, ET);4)标签0代表除肿瘤以外的背景。不同模态的图像可以突显不同的肿瘤亚型:Flair图像突显整个肿瘤(Whole Tumor, WT)区域;T2图像突显由NCR和NET组成的肿瘤核心(Tumor Core, TC)区域;T1c图像突显增强肿瘤(Enhancing Tumor, ET)区域。

BraTS 2017数据集图像已经剔除了头骨部分并配准到相同的解剖模板,分辨率为1 mm×1 mm×1 mm。经过观察,将图像裁剪为128 mm×128 mm×128 mm,进一步减少了无关信息但并未减少有用的肿瘤区域信息。为了避免数据不足可能导致的过拟合风险,在每次训练开始之前应用随机旋转、缩放、弹性变形、镜像等数据增强技术对数据集进行扩充。

2.2 3D-HDC-Unet模型架构

3D-HDC-Unet模型如图1所示。C-M代表卷积模块,HDC代表混合膨胀卷积模块,S-C代表跨步卷积模块,UP代表上采样模块,L-M代表定位模块,S-L代表分割层。􀱇代表矩阵相加,©代表矩阵拼接,下方数字表示数据经过当前层之后的尺寸,例如16×1283代表输入数据经过16个尺寸为128 mm×128 mm×128 mm的3D卷积核处理后,输入数据尺寸变为16层128 mm×128 mm×128 mm的图像。

模型的左半部分为收缩路径。第一个C-M模块是由16个尺寸为3×3×3的卷积层、实例标准化(Instance Normalization, IN)层和PReLU层组成的卷积模块。卷积层将输入的(4,128,128,128)体素块转换为16个的128 mm×128 mm×128 mm的体素块,相比起全连接网络,卷积操作的稀疏交互和参数共享两个特性,使得需要优化的参数数量大大缩减,每一层的神经元只响应前一层局部区域范围内的神经元,提高了模型的训练效率,提升了模型的可扩展性。普通3D卷积运算如图2(a)所示,普通的3D卷积核的膨胀率r可视为1,该卷积核的感受野,即能覆盖的区域为3 mm×3 mm×3 mm。

图 1. 3D-HDC-Unet模型结构示意图

Fig. 1. Schematic diagram of 3D-HDC-Unet model structure

下载图片 查看所有图片

图 2. 3D卷积与输入体素块的点乘运算示意图。(a)普通3D卷积运算;(b)膨胀率r=2的3D膨胀卷积运算

Fig. 2. Dot product operation diagram of 3D convolution with input voxel block. (a) Original 3D convolution operation; (b) 2-dilated 3D convolution operation

下载图片 查看所有图片

IN层是针对整幅输入图像的所有像素值的灰度值作归一化处理,使所有体素块的灰度值服从均值为0、方差为1的正态分布,避免网络中每一层的输入的数据分布差异过大。

PReLU层实质为带参数的线性整流单元(Parametric Rectified Linear Unit),定义了来自上一层神经网络的某通道输入变量Xm的非线性输出结果,即

f(x)=Xm,if Xm>0amXm,if Xm0,(1)

式中:am是可学习的参数,采用带动量的更新方式使其在反向传播中逐渐确定[16]。然后数据被送入混合膨胀残差模块,进行特征提取。前向传播时第l层的3D卷积核的权重Wl与第l-1层体素块Xl-1卷积之后,加上偏置项b后经过PReLU函数f处理,即可得到第l层的特征映射 Fl17,即

Fl=flWl*Xl-1+b,(2)

式中:b为偏置项b组成的矩阵。

混合膨胀残差模块如图3所示,由IN层、PReLU层和3组膨胀率分别为1、2、3的膨胀卷积层共同构成。

首先是在常规卷积的基础上引入变化的膨胀率(Dilation)。膨胀卷积(Dilated Convolution)可以增加单个神经元的感受野(Receptive Field),如图2(b)所示。膨胀卷积通过在普通卷积核的相邻元素之间插入零值来扩大卷积核的尺寸,相邻元素间隔的步长即膨胀率r。大小为k×k×k的3D卷积核,得到的膨胀卷积核大小为kd×kd×kd,其中kd=k+(k-1)·(r-1),对应第l层的感受野变为(2l+1-1)×(2l+1-1),卷积核的参数量不变,但感受野呈指数增大。若膨胀率不变,神经元只能以棋盘的方式查看信息,这种方式会产生棋盘效应,不利于图像分割[18]

本研究采用膨胀率变化的混合膨胀卷积核来减弱棋盘效应。例如对于原来r=2的层,将3个级联的膨胀卷积层作为一个组,分别将其膨胀率设置为1、2、3,这样顶层可以访问更大范围的体素信息。这一操作对于模型识别较大的对象非常重要。混合膨胀卷积能在模型参数个数保持不变、下采样次数较少的情况下,大大增加三维卷积层的感受野[19],如图4所示。图中的正方形区域为混合膨胀卷积的感受野。在混合膨胀卷积模块的首尾两端引入残差连接[20],使网络更容易优化,避免了网络过深后的梯度消失问题。

图 3. 混合膨胀残差模块

Fig. 3. Hybrid dilated convolutional residual module

下载图片 查看所有图片

图 4. 收缩路径中输入图片降采样与混合膨胀卷积模块的感受野示意图

Fig. 4. Sketch map of input images sub-sampling and HDC receptive fieldNote:In layer 3 4 5, the size of images is enlarged to scale for better demonstration.

下载图片 查看所有图片

最后再将数据送入下一层步长为2的3×3×3的跨步卷积层进行下采样,将体素块3个维度的尺寸减半,特征映射层数加倍,一方面可以提升卷积层的感受野,另一方面可以降低存储空间需求,最终实现效率和精度的平衡。随着网络的加深,输入图像块的分辨率越低,特征的抽象程度越高。抽象程度低的特征映射用于捕捉边缘、转角等特征,抽象程度高的特征映射用于捕捉相邻体素的非线性强度关系。

扩展路径中,首先利用双线性插值法对低分辨率的特征映射进行上采样,将3个维度的尺寸扩大一倍,然后利用3×3×3的卷积将其特征映射的数量减半。同时,将此特征映射与同一层级的收缩路径中的特征映射在通道维度上进行拼接,再通过定位模块将其重新组合,以低空间分辨率编码上下文信息,并将该信息传送到更高空间分辨率的特征中。定位模块由两组重复的C-M模块组成。

在扩展路径的第3、2、1层分别进行不同分辨率的预分割。分割层首先由卷积层将特征映射的通道维数降至4,然后再接IN层和PReLU层。经过上采样后分别与上一层的特征映射进行矩阵相加。通过整合网络不同层级上的分割层,生成最终的预测图,最后利用Softmax层进行体素级预测。Softmax函数也称为归一化指数函数,用于计算输入张量X属于某类标签Y的概率P(y=Y|X),定义为

P(y=Y|X)=exp(WTYXk=1Kexp(WTkX,(3)

式中:exp( WYTX)表示标签为Y的体素张量(Tensor)X经过神经网络各层加权之后的值,K=4代表类别个数,输出为一个4维张量(Y1,Y2,Y3,Y4),Yi∈(0,1),对应该体素属于各类别标签的概率,概率值最高的项对应的标签为该体素的预测标签。

2.3 混合损失函数

训练数据中的类别不平衡是阻碍模型精度提高的一大障碍,表1列出了BraTS 2017数据集中各类别体素占总体素的百分比[12]。可以看到标签0的体素是标签1和标签4体素的百倍之多,这导致稀疏类预测错误对于模型整体损失来说影响甚小,不利于稀疏类预测精度的提高。

表 1. BraTS 2017数据集中各类别体素占总体素的比值

Table 1. Ratio of different types of voxels to total voxel in the BraTS 2017 dataset

LabelLabel 0Label1Label 2Label 4
Percentage /%960.82.40.8

查看所有表

为此,本研究构造了一种结合Dice损失和Focal损失的混合损失函数来克服这个问题。Dice相似系数(DSC)是一种集合相似度的度量函数,用于计算预测区域与真实分割区域的重叠程度。Dice损失函数为负的DSC,定义为

LDice=-2PTP,x2PTP,x+PFN,x+PFP,x,(4)

式中:PTP,x(y)、PFN,x(y)和PFP,x(y)分别是将体素x预测为类别y的真阳、假阴和假阳的概率,定义为

PTP,x=x=1Xpxytx(y),(5)PFN,x=x=1X1px(y)]tx(y),(6)PFP,x=x=1Xpx(y)[1-tx(y)],(7)

其中px(y)是将体素x预测为类别y的预测概率,tx(y)是体素x对应的真实标签的one-hot编码值,X为输入MRI图像的体素总数,K为标签类别总数,本研究中取4。多类别分类时的Dice损失函数为

LDice=K-y=0K-12PTP,x2PTP,x+PFN,x+PFP,x(8)

Focal Loss是通过降低易分类样本的损失权重,提高难分类样本(比如稀疏样本)的权重,来迫使模型更好地学习分类较差的样本,定义为

LFocal=1Xy=0,1,2,4x=1X1px(y)]γtx(y)log[px(y)](9)

(9)式相当于在标准交叉熵损失前添加一个调节因子[1-px(y)]γ,γN为聚焦参数,其功能在于:1)当样本分类错误,px(y)值较小时,调节因子接近于1,该体素对损失函数贡献正常的惩罚值;当样本分类容易,px(y)较大时,调节因子接近于0,该体素对损失函数的贡献降低。2)聚焦参数γ可以调整易分类体素对损失函数权重降低的速率。当γ=0时,LFocal相当于标准交叉熵损失,γ越大,易分类体素对损失函数的贡献越小。例如γ=1,px(y)=0.8时易分类样本与标准交叉熵损失相比损失值降低为1/5,这也变相地增加了纠正错误分类样本的重要性[14]γ的取值对损失函数f的影响如图5所示,γ一定时,模型对某体素预测正确的概率越高,经过衰减后其对损失函数的贡献越低;γ越大,这种趋势越明显。

图 5. γ的取值对损失函数的影响

Fig. 5. Effect of γ on attenuated loss

下载图片 查看所有图片

本文的损失函数由LDiceLFocal混合而成,即

L=LDice+λLFocal=K-y=0,1,2,42PTP,x2PTP,x+PFN,x+PFP,x-λ1Xy=0,1,2,4x=1X1px(y)]tx(y)log[px(y)],(10)

混合比例由λ调节。由实验可得,当λ=0.5,γ=1时,模型的综合性能最佳。

3 仿真实验

3.1 评价指标

为了定量评估此模型的性能,选取医学图像分割中常用的4种评价指标:Dice系数(Dsc)、灵敏度(Sen)[21]、特异度(Spe)、Hausdorff距离(DHD)。Dsc表示预测肿瘤区域与真实肿瘤区域的重叠程度;灵敏度又称为真阳性率、召回率,表示真实肿瘤区域中被预测为肿瘤的比例;特异度又称为真阴性率,表示健康组织区域中被预测为健康的比例;Hausdorff距离用于度量两个点集的最大不匹配程度,对分割出的边界比较敏感。其定义为

Dsc=2PTP,x2PTP,x+PFN,x+PFP,x,(11)Sen=PTP,xPTP,x+PFN,x,(12)Spe=PTN,xPTN,x+PFP,x,(13)DHD=dH(P,T)=maxsuppPinftTd(p,t),suptTinfpPd(p,t),(14)

(14)式中的PT分别表示模型预测的肿瘤区域和真实肿瘤区域在二维图像上的像素集,pt分别表示各自像素集中的像素点。

3.2 实验结果

从BraTS 2017数据集的285名患者中随机选出5名作为测试集,将剩余280名患者均分成5组,每组56人,在BraTS 2017数据集上进行5次交叉验证(5-fold Cross-validation),如图6所示。每一次都将其中一组作为验证集,其余4组作为训练集,如此训练出5个模型,将这5个模型在验证集上算出的评价指标的平均数作为最终模型的性能参数。

图 6. 5次交叉验证

Fig. 6. 5-fold cross-validation

下载图片 查看所有图片

每次训练一位患者的MRI图像,总共训练300轮,每一轮训练224幅图像。优化器选用Adam,在反向传播时,首先利用

gl1XWiL(f(xi;Wl-1),yi),(15)

计算第l层的损失函数关于前一层l-1的梯度gl,然后根据

mlβ1ml-1+(1-β1)gl,(16)vlβ2vl-1+(1-β2)gl2,(17)

定义的一阶动量mt和二阶动量vt,分别初始化为m1=g1,v1= g12,β1β2分别采用建议值0.9和0.999,利用

m^l=ml(1-β1l),v^l=vl(1-β2l)18

对其进行偏差纠正后,再根据

Wl=Wl-1-αm^lv^l+ε19

对权重值进行更新,步长α=0.001。

利用Keras+TensorFlow深度学习框架搭建此模型,在Nvidia GTX 1070 GPU上进行约36 h的训练,训练好的模型大约需要5 s来完成一名患者的MRI图像的分割。

为了探究HDC模块和HLF各自对脑肿瘤分割性能的提升程度,在原始3D-Unet模型基础上分别添加HDC模块和HLF,训练出两个模型:3D-Unet+HDC和3D-Unet+HDC+HLF,连同使用普通Dice损失函数的双通道3D CNN网络,普通3D-Unet网络,K均值聚类(K-means Clustering),混合水平集(Hybrid Level),结合了FCM、自动阈值法和混合水平集的混合算法(Hybrid Algorithm)、随机森林(Random Forests),记录他们在测试集上的4种参数性能,分割的区域包括WT(标签1、2、4)、TC(标签1、4)和ET(标签4)。结果记录于表2。由于传统算法FCM、混合水平集、混合算法等近年来很少使用,在以BraTS数据集为测试集的分割结果中,只有WT的参数,并未区分不同肿瘤区域。由表2可知,随着HDC和HLF的加入,肿瘤分割的各项参数均有不同程度的提升,尤其以Hausdorff 距离提升最为明显,这是因为它对边缘的匹配程度最为敏感。3D-HDC-Unet的测试集DSC箱型图如图7所示。

表 2. 8种模型的评价指标数据对比

Table 2. Comparison of evaluation index data of eight models

ModelDSCSensitivitySpecificityHausdorff distance
WTTCETWTTCETWTTCETWTTCET
Two-path 3D CNN[21]0.850.780.730.800.760.750.970.970.9610.615.47.70
3D-Unet[22]0.880.760.720.900.780.750.980.980.9813.622.313.8
3D-Unet+HDC0.900.750.710.920.780.730.990.990.976.067.855.33
K-means[23]0.79--0.94--0.98-----
Hybrid level set[23]0.80--0.77--0.98-----
Hybrid algorithm[24]0.90--0.89--0.98-----
Random forests[24]0.860.780.660.830.720.570.990.990.997.618.703.76
Proposed method0.900.800.770.920.840.810.990.990.976.067.695.20

查看所有表

图 7. 3D-HDC-Unet测试集DSC箱型图

Fig. 7. 3D-HDC-Unet test set DSC box diagram

下载图片 查看所有图片

本文提出的模型算法流程图如图8所示。以某位患者4种模态的多切片数据作为原始数据,经过裁剪、随即旋转、缩放、扭曲等操作得到增强后的数据,然后送入收缩路径,经过4次下采样得到4种不同尺度下的特征映射,然后再经过扩展路径的4次上采样,并将第3、4次的上采样结果作预分割,最终合成出与原始输入图片同尺寸的肿瘤区域分割图。

以患者Brats17_TCIA_167_1为例,分割结果如图9所示,(a)~(c)为患者的MRI三种模态的图像,Flair和T2能明显看出WT的轮廓,T1c能明显看出TC和ET的轮廓。 (d)~(f)、(g)~(i)和(j)~(l)分别为42.531,69.094,90.344 mm处的轴向分割图,从左到右依次为真实分割图、3D-Unet分割图和3D-HDC-Unet分割图,可以看到本文提出的网络能够准确地分割出整个肿瘤的区域,能够比较准确地判断肿瘤核心和增强肿瘤的区域。相比原始的3D-Unet,3D-HDC-Unet在目标边缘处、ET和TC的部分与真实分割图更接近。

结合表2的统计数据可以看出,HDC模块有助于提升模型识别大区域目标的准确性,在BraTS 2017训练数据集上能达到0.90的DSC。而HLF有助于提升模型识别小区域目标的准确性,对较难分割的TC和ET部分的DSC提升较大。SEN的数值与DSC相似,模型对健康组织(背景)几乎没有误判,一方面是因为健康组织体素的灰度值差异较小,另一方面是因为背景所占的体素很多,可以使模型充分学习到其特征。

图 8. 算法流程图与各阶段图像处理结果

Fig. 8. Algorithm flowchart and image processing results of each stage

下载图片 查看所有图片

图 9. 分割结果图

Fig. 9. Segmentation result diagram

下载图片 查看所有图片

由于BraTS 2017的在线评估端口已经关闭,无法测试此模型在官方测试集上的具体性能结果,根据文献[ 22]中的数据,可知模型在官方未公开发布的测试集上的性能相比从训练数据中分割出的测试集的性能来说,会有5%以内的下降。但至少从训练数据中得到的性能参数可以看出,3D-HDC-Unet仍然取得了领先成绩。

4 结论

在原始3D-Unet的基础上,本研究加入HDC模块以增加神经元的感受野,可在较浅的网络中实现多尺度特征提取,并大大降低模型参数规模。用混合损失函数替换单一的Dice损失函数,提高了稀疏类对损失函数的贡献,迫使模型更好地学习不易分类的样本,从而提升了3D-HDC-Unet在BraTS 2017数据集上的分割性能。经过36 h的训练,模型在训练数据分割出的验证集上的WT、TC、ET的平均Dice系数为0.90、0.80、0.77,均优于原始3D-Unet模型。

参考文献

[1] Niessen W J. MR brain image analysis in dementia: from quantitative imaging biomarkers to ageing brain models and imaging genetics[J]. Medical Image Analysis, 2016, 33: 107-113.

[2] 任璐, 李锵, 关欣, 等. 改进的连续型最大流算法脑肿瘤磁核共振成像三维分割[J]. 激光与光电子学进展, 2018, 55(11): 111011.

    Ren L, Li Q, Guan X, et al. Three-dimensional segmentation of brain tumors in magnetic resonance imaging based on improved continuous max-flow[J]. Laser & Optoelectronics Progress, 2018, 55(11): 111011.

[3] Shanthi KJ, Kumar MS. Skull stripping and automatic segmentation of brain MRI using seed growth and threshold techniques[C]∥2007 International Conference on Intelligent and Advanced Systems, November 25-28, 2007, Kuala Lumpur, Malaysia. New York: IEEE, 2007: 422- 426.

[4] Saman S, Narayanan S J. Survey on brain tumor segmentation and feature extraction of MR images[J]. International Journal of Multimedia Information Retrieval, 2019, 8(2): 79-99.

[5] Bach Cuadra M, de Craene M, Duay V, et al. Dense deformation field estimation for atlas-based segmentation of pathological MR brain images[J]. Computer Methods and Programs in Biomedicine, 2006, 84(2/3): 66-75.

[6] Pereira S, Pinto A, Alves V, et al. Brain tumor segmentation using convolutional neural networks in MRI images[J]. IEEE Transactions on Medical Imaging, 2016, 35(5): 1240-1251.

[7] Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651.

[8] RonnebergerO, FischerP, BroxT. U-net: convolutional networks for biomedical image segmentation[M] ∥Navab N, Hornegger J, Wells W, et al. Medical image computing and computer-assisted intervention-MICCAI 2015. Lecture notes in computer science. Cham: Springer, 2015, 9351: 234- 241.

[9] 褚晶辉, 李晓川, 张佳祺, 等. 一种基于级联卷积网络的三维脑肿瘤精细分割[J]. 激光与光电子学进展, 2019, 56(10): 101001.

    Chu J H, Li X C, Zhang J Q, et al. Fine-granted segmentation method for three-dimensional brain tumors using cascaded convolutional network[J]. Laser & Optoelectronics Progress, 2019, 56(10): 101001.

[10] ÇiçekÖ, AbdulkadirA, Lienkamp SS, et al. 3D U-net: learning dense volumetric segmentation from sparse annotation[M] ∥Ourselin S, Joskowicz L, Sabuncu M, et al. Medical image computing and computer-assisted intervention-MICCAI 2016. Lecture notes in computer science. Cham: Springer, 2016, 9901: 424- 432.

[11] MilletariF, NavabN, Ahmadi SA. V-net: fully convolutional neural networks for volumetric medical image segmentation[C]∥2016 Fourth International Conference on 3D Vision (3DV), October 25-28, 2016, Stanford, CA, USA. New York: IEEE, 2016: 565- 571.

[12] KayalibayB, JensenG, van der Smagt P. CNN-based segmentation of medical imaging data[J/OL]. ( 2017-07-25)[2019-08-18]. top/abs/1701. 03056. https://arxiv.xilesou.

[13] Zhu W, Huang Y, Tang H, et al. Anatomynet: deep 3D squeeze-and-excitation U-Nets for fast and fully automated whole-volume anatomical segmentation[J]. bioRxiv, 2018, 392969.

[14] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 1.

[15] Menze B H, Jakab A, Bauer S, et al. The multimodal brain tumor image segmentation benchmark (BRATS)[J]. IEEE transactions on medical imaging, 2014, 34(10): 1993-2024.

[16] He KM, Zhang XY, Ren SQ, et al. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification[C]∥2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile. New York: IEEE, 2015: 1026- 1034.

[17] Liu Y, Stojadinovic S, Hrycushko B, et al. A deep convolutional neural network-based automatic delineation strategy for multiple brain metastases stereotactic radiosurgery[J]. PLoS One, 2017, 12(10): e0185844.

[18] YuF, KoltunV, FunkhouserT. Dilated residual networks[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 636- 644.

[19] Wang PQ, Chen PF, YuanY, et al. Understanding convolution for semantic segmentation[C]∥2018 IEEE Winter Conference on Applications of Computer Vision (WACV), March 12-15, 2018, Lake Tahoe, NV, USA. New York: IEEE, 2018: 1451- 1460.

[20] He KM, Zhang XY, Ren SQ, et al. Identity mappings in deep residual networks[M] ∥Leibe B, Matas J, Sebe N, et al. Computer vision-ECCV 2016. Lecture notes in computer science. Cham: Springer, 2016, 9908: 630- 645.

[21] Havaei M, Davy A, Warde-Farley D, et al. Brain tumor segmentation with deep neural networks[J]. Medical Image Analysis, 2017, 35: 18-31.

[22] Menze B H, Jakab A, Bauer S, et al. Proceedings of the MICCAI challenge on multimodal brain tumor image segmentation (BRATS) 2017[J]. MICCAI Challenge on Multimodal Brain Tumor Image Segmentation, 2017, 10: 1-347.

[23] 童云飞, 李锵, 关欣. 改进的多模式脑肿瘤图像混合分割算法[J]. 信号处理, 2018, 34(3): 340-346.

    Tong Y F, Li Q, Guan X. An improved multi-modal brain tumor segmentation hybrid algorithm[J]. Journal of Signal Processing, 2018, 34(3): 340-346.

[24] Zhang C, Shen X J, Cheng H, et al. Brain tumor segmentation based on hybrid clustering and morphological operations[J]. International Journal of Biomedical Imaging, 2019, 2019: 7305832.

何承恩, 徐慧君, 王忠, 马丽萍. 多模态磁共振脑肿瘤图像自动分割算法研究[J]. 光学学报, 2020, 40(6): 0610001. Cheng'en He, Huijun Xu, Zhong Wang, Liping Ma. Automatic Segmentation Algorithm for Multimodal Magnetic Resonance-Based Brain Tumor Images[J]. Acta Optica Sinica, 2020, 40(6): 0610001.

本文已被 13 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!