光学学报, 2020, 40 (17): 1710001, 网络出版: 2020-08-24   

基于残差块和注意力机制的细胞图像分割方法 下载: 1063次

Cell Image Segmentation Method Based on Residual Block and Attention Mechanism
张文秀 1,2,3,*朱振才 1,2,3张永合 1,2,3王新宇 1,2丁国鹏 1,2
作者单位
1 中国科学院微小卫星创新研究院, 上海 201203
2 中国科学院微小卫星重点实验室, 上海 201203
3 中国科学院大学, 北京 100049
摘要
针对相衬显微镜采集的细胞图像具有亮度不均衡且细胞与背景对比度较低的问题,提出一种以U-Net为基本框架,结合残差块和注意力机制的细胞分割模型。首先,利用具有编码器-解码器结构的U-Net对细胞图像进行细胞初始分割;然后,在U-Net中引入残差块,以强化特征的传播能力,提取更多细胞细节信息;最后,利用注意力机制加重细胞区域的权重,降低亮度不均衡、对比度较低对模型的干扰。实验结果表明,与其他模型相比,所提模型在视觉效果和客观评价指标上均有较好的分割效果。
Abstract
Herein, a cell segmentation model is proposed based on the U-Net and combination of residual block and attention mechanism. This model aims at addressing the problems of uneven brightness and low contrast between a cell and background of cell images collected using a phase contrast microscope. First, the U-Net with encoder-decoder structure is used to conduct the initial segmentation on cell images. Hereafter, the residual block is introduced into the U-Net to strengthen the propagation ability of the features and extract more cell-detail information. Finally, the attention mechanism is used to increase the weight of the cell area and reduce the interference of uneven brightness and low contrast on the model. The experimental results show that compared with other models, the proposed model exhibit better segmentation results in visual effects and objective evaluation indicators.

1 引言

细胞是生物体结构和功能的基本单位,对细胞进行深入研究是揭开生命奥秘、改造生命及征服疾病的关键。采用计算机辅助技术实现细胞图像的自动分析对解决各种生物学问题具有重要意义[1-2]。在细胞图像分析中,细胞分割是最基础和最重要的领域之一,是对细胞图像进行识别、计数、测量等的基本前提。

在一些客观原因的影响下,当前的光学成像系统采集的相衬显微细胞图像存在亮度不均衡、细胞与背景对比度较低等问题,极大地增加了分割难度。Yin等[3-4]通过对相衬显微镜的成像原理进行分析得到了近似线性成像模型,然后基于此模型和细胞图像的特性,制定二次优化函数对图像进行复原,以剔除低亮度不均衡和低对比度的干扰,后续仅通过阈值处理即可完成高质量细胞分割。Yin等[5]通过分析相机成像时间与图像强度估算出相机响应函数,利用该响应函数获得高对比度且亮度均衡的细胞图像,然后进行阈值分割。上述方法通常需要将复杂的预处理操作与分割算法相结合才能获取较好的分割结果。

近年来,深度学习在自然图像分割上取得了较大进展,也被逐步应用于生物医学图像分割领域[6-8]。Shelhamer等[9]采用全卷积网络(FCN)来解决像素级细胞图像分割任务,该网络能对每个像素点进行分类,实现了端到端的训练,但是由于池化操作的信息损失,该网络在进行细粒度分割时效果较差。Ronneberger等[10]提出U-Net,该网络通过反卷积层和特征层的拼接弥补了信息损失,其结构简单、参数少、可塑性强,是细胞图像分割基础模型之一。但是该网络仍存在微弱边缘分割断裂的问题,且由于梯度消失的原因,可构建的网络深度有限。Quan等[11]将分割网络与残差网络相结合,并引入基于求和的特征层,通过构建更深的网络架构来实现更精准的细胞分割。近期,递归神经网络、注意力机制等也被用于图像分割中,以提高分割效果。Yi等[12]将SSD[13]和U-Net相结合对神经细胞进行实例分割,并在检测模块和分割模块中采用了注意力机制,以将模型重点放在与任务相关的特征上。Alom等[14]提出了一种基于U-Net的递归残差神经网络(R2U-Net),残差单元在训练深度网络时可以防止梯度消失,递归残差特征的累积可确保对网络进行分割时能有更好的特征表示。

针对相衬显微镜采集的细胞图像存在亮度不均衡、细胞与背景对比度较低的问题,本文提出了一种基于深度学习的分割模型(attention Residual-UNet)。该模型以U-Net[10]为基本框架,结合了残差块[15]和注意力机制[16]。将残差块引入U-Net,缩短了深层抽象特征与浅层特征之间的路径,增强了特征的传播能力,从而能够提取出更多关于细胞的细节信息,同时解决了梯度消失的现象;通过注意力机制加强了细胞区域的权重,降低了图像亮度不一致、对比度低对模型的干扰,提升了模型的灵敏度和分割精度。

2 模型框架

2.1 整体模型框架简介

本模型以U-Net为基本框架,并对其进行了改进。其中编码器由残差块和池化层构成,残差块的使用增加了特征的重复利用率,使得模型能够提取到更多图像的细节信息,尤其是低对比度区域的信息。解码器由对称的残差块和上采样层构成。特征层连接中引入了注意力机制,使得模型专注于学习细胞特征,降低了图像亮度不一致、对比度低对模型的干扰,提高了模型的灵敏度和分割精度。最后通过1×1卷积层对细胞与背景进行分类。所提模型如图1所示。

图 1. 所提模型的整体框架

Fig. 1. Overall framework of proposed model

下载图片 查看所有图片

2.2 U-Net

U-Net[8]由1个编码器和1个解码器组成。其中编码器主要负责下采样的工作,用于获取丰富的上下文信息,主要对细胞和背景进行分类;解码器主要负责上采样的工作,用于实现细胞的精确定位。最后,通过特征层连接方法,结合细粒度层信息和粗粒度层信息,以获得更精确的上下文信息,从而得到更多的细胞细节信息。该设计使得U-Net可以利用较少的训练集进行训练,并得到较好的分割结果。但由于池化层和上采样层中产生了细节信息损失的现象,U-Net容易使微弱边缘处出现分割断裂,且在图像亮度发生变化时适应能力较差。

2.3 残差块

为了从图像中提取出更多的细节信息,缓解低对比度区域及微弱边缘处的欠分割问题,在U-Net中引入残差块[15]代替传统的卷积层,残差块的使用可以解决随着网络层数加深出现梯度消失的问题。残差块基础计算公式为

y=f(x,Wl)+x,(1)

式中:xy分别为网络的输入和输出; Wl为第l层参数; f(x,Wl)为残差映射。利用残差块学习拟合一个残差映射 yx比直接学习拟合一个近似恒等映射y更加容易。残差块解决了深层网络中的梯度消失问题。对(1)式求偏导,得到

yx=1+f(x,Wl)x(2)

由于(2)式梯度始终大于1,故随着网络层数的加深,梯度不会消失。通常情况下,f(x,Wl)与x的特征维度并不相同,故引入线性变换参数W完成维度匹配,计算公式为

y=f(x,Wl)+Wx(3)

残差块的网络结构如图2所示,通过两个标准的3×3卷积层对输入的特征进行卷积操作得到残差映射,然后通过1×1卷积层完成特征维度匹配,最后通过Add操作完成特征融合。该模块避免了梯度消失造成模型性能下降的问题,降低了深层网络的训练难度,且仅增加了1×1卷积层,不会加大模型计算复杂度。同时该模块缩短了前后层之间的距离,有效地提高了特征的学习能力,有助于提取出更多细节信息,这在一定程度上降低了细胞与背景对比度较低对模型的干扰。

图 2. 残差块结构

Fig. 2. Structure of residual block

下载图片 查看所有图片

2.4 注意力机制

虽然残差块强化了特征的传播能力,有效地提取出更多的细胞细节信息,但是低层特征中缺少语义信息,亮度不均衡、对比度较低仍会对细胞的分割造成干扰,故引入注意力机制捕获高级语义信息,加重细胞区域的权重,增强模型对前景的学习能力,从而提高模型的灵敏度和分割精度。

注意力机制通过注意力权重0≪α≪1来识别细胞特征的显著性区域,注意力权重由包含丰富语义信息的高级特征图和包含全局上下文信息的低级特征图得到,计算公式为

til=σ1(WTddil+WTuuil+b1),(4)αil=σ2(WTtil+b2),(5)

式中:i为像素空间大小; diluil分别为低级特征图和高级特征图;til为中间输出;WdWu均为线形变换参数;b1b2均为偏置项,通过1×1卷积操作完成线形变换,可以有效减少参数量,降低模型计算复杂度;σ1为ReLU激活函数;σ2为Sigmoid激活函数,该激活函数对注意力权重进行归一化处理。最后将低级特征图与注意力权重逐元素相乘即为输出的激活特征:

oi,cl=di,cl·αil,(6)

式中:c为通道尺寸。

注意力机制在训练过程中无需额外监督即可自动学习目标结构,同时在测试过程中会自动生成软区域,以加重细胞区域权重。如图3所示,注意力机制利用高级特征图中的语义信息加重了细胞区域的特征权重,过滤掉背景噪声的同时,降低了亮度不均衡、对比度低对模型的干扰。该模块仅采用1×1卷积层,引入极少参数即可明显提升模型的灵敏度和分割精度,不会加大模型计算复杂度,此外,由于重点突出了细胞区域,一定程度上可以加快模型的训练速度。

3 实验

实验仿真的计算机硬件配置为Inter Core i7-6850K与Nvidia GeForce GTX1080Ti,使用以TensorFlow作为后端的Keras开源库训练和测试网络模型。

图 3. 注意力机制结构

Fig. 3. Structure of attention mechanism

下载图片 查看所有图片

3.1 数据集

数据集来源于中国科学院生物化学与细胞生物学研究所,为肌肉干细胞分化过程中的细胞图像。数据采集所用显微镜为奥林巴斯ix73,为相差模式,放大倍数调整为10,分辨率为1600 pixel×1200 pixel,位深为16。该数据集包含17张原始图片,并对应有专家手动分割的真值图像,取其中7张为测试集。

由于原始图像过大,直接使用会导致模型参数爆炸,故采用尺寸为256×256的滑动窗口将原始图像及对应真值图像裁剪为局部重叠的图像块,并对其进行归一化操作。为了增强模型的泛化能力,减少过拟合现象,分别对训练图像进行90°旋转、270°旋转、水平翻转、垂直翻转,将训练集扩充至原来的5倍,最终获得1900张256×256的训练图像。部分数据集及其真值图像如图4所示,部分图像块及其真值图像如图5所示。

图 4. 数据集展示。(a)训练集图像;(b)对应真值图像

Fig. 4. Display of dataset. (a) Training set image; (b) corresponding ground truth

下载图片 查看所有图片

图 5. 部分图像块及其真值图像

Fig. 5. Local image blocks and corresponding ground truth

下载图片 查看所有图片

3.2 训练细节

在二分类图像分割任务中,常采用的损失函数为像素级的二进制交叉熵损失函数。为了解决图像中正负类别不平衡的问题,引入Dice loss[17]。最终的损失函数形式为

L=α[-iyilog(pi)]+β1-2ipiyiipi2+iyi2+ε,(7)

式中:α=β=0.5,ε=10-3;pi为分割结果;yi为真值图像。

采用Adam算法[18]优化损失函数,初始学习率为0.001。批量大小设置为16,训练迭代100次。训练时,加入dropout层[19],丢弃概率设置为0.2,并引入早停机制,若10次迭代后loss仍不下降,则停止训练,防止模型过拟合。

3.3 评价指标

为了评估所提模型的分割效果,从主观评价和客观评价两方面对实验结果进行比较和分析。主观评价主要是从视觉效果上比较图像的整体分割及微弱边缘的分割情况。客观评价中,采用Pixel Accuracy[20]、Intersection over Union(IoU)[21]、Dice Score[22]作为评价指标,计算公式分别为

A=NTP+NTNNTP+NTN+NFP+NFN,(8)RIoU=NTPNTP+NFP+NFN=XYXY,(9)SScore=2NTP2NTP+NFP+NFN=2XYX+Y,(10)

式中:NTPNTNNFPNFN分别为细胞像素正确分类数目、背景像素正确分类数目、背景像素错误分类数目、细胞像素错误分类数目;XY分别为真实值和预测值。Pixel Accuracy为最简单的度量,表示分割正确的像素占总像素的比例;IoU为语义分割的标准度量,是真实值和预测值的交集与并集之比,其值为1时,表示两者完全相同;Dice Score为医学图像分割的重要度量,表示真实值与预测值的相似度,值越大,两者相似度越高。

3.4 不同分割模型的结果分析

对阈值分割Otsu模型、FCN-8s模型[9]、SegNet模型[23]、U-Net模型[10]、R2U-Net模型[14]及所提模型进行对比,结果如图6~8所示,其中方框区域内的局部细节比较结果如图9所示。由于未进行预处理与后处理等操作,Otsu模型的分割结果较差;FCN-8s模型分割结果不够精细,由图9可以发现,其分割边缘出现锯齿状,且在图6左上角区域细胞与背景对比度极低时,有大量细胞未被识别出来;U-Net模型分割结果有所提升,边缘明显,但是在低对比度区域处仍存在欠分割现象,对比图6~8可以发现,该模型受图像间亮度不均衡影响较大;SegNet模型分割结果较好,受低对比度和亮度不均衡的干扰较小,但是观察图9发现,其分割的边缘略为粗糙,出现轻微锯齿状边缘;R2U-Net模型分割边缘清晰,在亮度不均衡的图像中仍能取得较佳的分割结果,但是会经常出现微弱边缘分割断裂现象;所提模型对低对比度和亮度不均衡适应良好,保留细胞更为完整,且在微弱边缘部分往往能分割出比真值图像更多的细节信息。

图 6. 第1组细胞分割结果。(a)原始图像;(b)真值图像;(c) Otsu模型;(d) FCN-8s模型;(e) U-Net模型;(f) SegNet模型;(g) R2U-Net模型;(h)所提模型

Fig. 6. Cell segmentation results of group 1. (a) Origin image; (b) ground truth; (c) Otsu model; (d) FCN-8s model; (e) U-Net model; (f) SegNet model; (g) R2U-Net model; (h) proposed model

下载图片 查看所有图片

图 7. 第2组细胞分割结果。(a)原始图像;(b)真值图像;(c) Otsu模型;(d) FCN-8s模型;(e) U-Net模型;(f) SegNet模型;(g) R2U-Net模型;(h)所提模型

Fig. 7. Cell segmentation results of group 2. (a) Origin image; (b) ground truth; (c) Otsu model; (d) FCN-8s model; (e) U-Net model; (f) SegNet model; (g) R2U-Net model; (h) proposed model

下载图片 查看所有图片

图 8. 第3组细胞分割结果。(a)原始图像;(b)真值图像;(c) Otsu模型;(d) FCN-8s模型;(e) U-Net模型;(f) SegNet模型;(g) R2U-Net模型;(h)所提模型

Fig. 8. Cell segmentation results of group 3. (a) Origin image; (b) ground truth; (c) Otsu model; (d) FCN-8s model; (e) U-Net model; (f) SegNet model; (g) R2U-Net model; (h) proposed model

下载图片 查看所有图片

图 9. 分割结果细节对比。(a)真值图像;(b) FCN-8s模型;(c) U-Net模型;(d) SegNet模型;(e) R2U-Net模型;(f)所提模型

Fig. 9. Detail comparison of segmentation results. (a) Ground truth; (b) FCN-8s model; (c) U-Net model; (d) SegNet model; (e) R2U-Net model; (f) proposed model

下载图片 查看所有图片

尽管通过视觉观察比较直接,但是其易受人主观因素的影响,故仍需对分割结果进行定量评价,结果如表1所示,可以看出,所提模型在Pixel Accuracy、IoU和Dice Score三个评价指标上的表现均优于其他模型,说明了所提模型的合理性和有效性,可以分割出更多低对比度区域处的细胞信息,且鲁棒性较强。由于细胞图像的复杂性,且未对图像进行预处理及后处理操作,Otsu模型的各项指标均较低;由于上采样过程中细节信息恢复不足,FCN-8s模型的分割效果略差;U-Net模型通过引入反卷积和特征层连接,一定程度上弥补了丢失的细节信息,效果得到了大幅改善;SegNet模型则是通过借助反池化操作中的位置索引信息弥补了细节信息,其效果与U-Net模型不相上下;R2U-Net模型借助递归神经网络,实现了更优的特征表示,各项指标均有明显提升;相较于R2U-Net模型,所提模型在各项指标上均有不同程度的提升,说明所提模型能分割出更多的在低对比度区域和微弱边缘处的细胞,对亮度、噪声等干扰因素适应性更好,分割效果较佳。

表 1. 不同分割模型的定量分析

Table 1. Quantitative analysis of different segmentation models

ModelPixel AccuracyIoUDice Score
Otsu0.79060.23470.3778
FCN-8s0.90080.66720.7964
U-Net0.93490.74050.8504
SegNet0.93360.73590.8516
R2U-Net0.94350.76360.8691
Proposed model0.94470.78220.8775

查看所有表

3.5 各模块对整体模型的影响

为了验证各模块对整体模型的影响,对U-Net模型、添加残差块的优化模型、添加注意力机制的优化模型、所提模型进行对比实验,结果如表2所示。U-Net作为基础网络,其Pixel Accuracy为0.9347,IoU为0.7482,Dice Score为0.8592;添加残差块后,三项指标均有不同幅度的提升,其中Pixel Accuracy相较U-Net提高了0.51%,说明残差块可以提供更多的细节信息,部分低对比度区域可以被有效分割出来,但是其IoU和Dice Score仍较低,说明该模型仍受亮度不均衡的干扰,导致模型鲁棒性不足,整体分割效果一般;添加注意力机制后,IoU和Dice Score相较U-Net分别提高了1.11%和0.70%,说明了注意力机制对解决亮度不均衡及低对比度问题的重要性;可以看出,虽然各模块对整体模型的影响有强有弱,但其效果可以叠加,当聚合各个模块后,Pixel Accuracy达到了0.9463,IoU为0.7757,Dice Score为0.8776,相较于U-Net,各项指标分别提升了1.24%、3.68%及2.14%,说明所提模型能分割出更多的在低对比度区域的细胞信息,对亮度不均衡、噪声等干扰因素适应性更好,充分证明了所提模型的有效性。

表 2. 各模块对整体模型的影响

Table 2. Influence of each module on whole model

U-NetResidual blockAttention mechanismPixel AccuracyIoUDice Score
+0.93470.74820.8592
++0.93950.75050.8603
++0.93880.75650.8652
+++0.94630.77570.8776

查看所有表

4 结论

为了能够更准确地从相衬显微细胞图像中分割出细胞,本文提出了一种基于深度学习的attention Residual-UNet模型。该模型以U-Net为基本框架,首先,在U-Net中引入残差块,加强特征的传播,可以分割出更多的细节信息;然后利用注意力机制加强细胞区域的权重,以减缓图像亮度不均衡、对比度低对模型造成的干扰,提高模型的鲁棒性。实验结果表明,所提模型对细胞图像具有较高的分割精度,同时模型灵敏度也较高,但对于细胞内部亮度不均匀的区域仍会出现分割错误的现象。下一步将着重研究如何更高效地结合图像中的高级语义特征,减少像素错误分类的问题。

参考文献

[1] HarderN, BodnarM, EilsR, et al. 3D segmentation and quantification of mouse embryonic stem cells in fluorescence microscopy images[C]∥2011 IEEE International Symposium on Biomedical Imaging: From Nano to Macro, March 30-April 2, 2011, Chicago, IL, USA. New York: IEEE, 2011: 216- 219.

[2] Faustino GM, GattassM, RehenS. Automatic embryonic stem cell detection and counting method in fluorescence microscopy images[C]∥2009 IEEE International Symposium on Biomedical Imaging: From Nano to Macro, June 28-July 1, 2009, Boston, MA, USA. New York: IEEE, 2012: 799- 802.

[3] Yin Z Z, Kanade T, Chen M. Understanding the phase contrast optics to restore artifact-free microscopy images for segmentation[J]. Medical Image Analysis, 2012, 16(5): 1047-1062.

[4] Yin ZZ, LiK, KanadeT, et al. Understanding the optics to aid microscopy image segmentation[M] ∥Jiang T Z, Navab N, Pluim J P W, et al. Medical image computing and computer-assisted intervention-MICCAI 2010. Heidelberg: Springer, 2010: 209- 217.

[5] Yin ZZ, SuH, KerE, et al. Cell-sensitive microscopy imaging for cell image segmentation[M] ∥Golland P, Hata N, Barillot C, et al. Medical image computing and computer-assisted intervention-MICCAI 2014. Cham: Springer, 2014, 8673: 41- 48.

[6] 吴晨玥, 易本顺, 章云港, 等. 基于改进卷积神经网络的视网膜血管图像分割[J]. 光学学报, 2018, 38(11): 1111004.

    Wu C Y, Yi B S, Zhang Y G, et al. Retinal vessel image segmentation based on improved convolutional neural network[J]. Acta Optica Sinica, 2018, 38(11): 1111004.

[7] 郑婷月, 唐晨, 雷振坤. 基于全卷积神经网络的多尺度视网膜血管分割[J]. 光学学报, 2019, 39(2): 0211002.

    Zheng T Y, Tang C, Lei Z K. Multi-scale retinal vessel segmentation based on fully convolutional neural network[J]. Acta Optica Sinica, 2019, 39(2): 0211002.

[8] 褚晶辉, 李晓川, 张佳祺, 等. 一种基于级联卷积网络的三维脑肿瘤精细分割[J]. 激光与光电子学进展, 2019, 56(10): 101001.

    Chu J H, Li X C, Zhang J Q, et al. Fine-granted segmentation method for three-dimensional brain tumors using cascaded convolutional network[J]. Laser & Optoelectronics Progress, 2019, 56(10): 101001.

[9] Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 3431-3440.

[10] RonnebergerO, FischerP, BroxT. U-Net: convolutional networks for biomedical image segmentation[M] ∥Navab N, Hornegger J, Wells W M, et al. Medical image computing and computer-assisted intervention - MICCAI 2015. Cham: Springer, 2015, 9351: 234- 241.

[11] Quan TM, Hildebrand D GC, Jeong W K. FusionNet: a deep fully residual convolutional neural network for image segmentation in connectomics[EB/OL]. ( 2016-12-26)[2020-03-05]. https:∥arxiv.org/abs/1612. 05360.

[12] Yi J R, Wu P X, Jiang M L, et al. Attentive neural cell instance segmentation[J]. Medical Image Analysis, 2019, 55: 228-240.

[13] LiuW, AnguelovD, ErhanD, et al. SSD: single shot MultiBox detector[M] ∥Leibe B, Matas J, Sebe N, et al. Computer vision-ECCV 2016. Cham: Springer, 2016, 9905: 21- 37.

[14] Alom MZ, YakopcicC, Taha TM, et al. Nuclei segmentation with recurrent residual convolutional neural networks based U-Net (R2U-Net)[C]∥NAECON 2018 - IEEE National Aerospace and Electronics Conference, July 23-26, 2018, Dayton, OH. New York: IEEE, 2018: 228- 233.

[15] He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 770- 778.

[16] Chen LC, YangY, WangJ, et al. Attention to scale: scale-aware semantic image segmentation[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 3640- 3649.

[17] MilletariF, NavabN, Ahmadi SA. V-Net: fully convolutional neural networks for volumetric medical image segmentation[C]∥2016 Fourth International Conference on 3D Vision (3DV), October 25-28, 2016, Stanford, CA, USA. New York: IEEE, 2016: 770- 778.

[18] Kingma DP, Ba J. Adam: a method for stochastic optimization[EB/OL]. ( 2017-01-30)[ 2020-03-05]. https:∥arxiv.org/abs/1412. 6980.

[19] Srivastava N, Hinton G, Krizhevsky A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. The Journal of Machine Learning Research, 2014, 15(1): 1929-1958.

[20] Garcia-Garcia A, Orts-Escolano S, Oprea S, et al. A survey on deep learning techniques for image and video semantic segmentation[J]. Applied Soft Computing, 2018, 70: 41-65.

[21] Levandowsky M, Winter D. Distance between sets[J]. Nature, 1971, 234(5323): 34-35.

[22] Dice L R. Measures of the amount of ecologic association between species[J]. Ecology, 1945, 26(3): 297-302.

[23] Badrinarayanan V, Kendall A, Cipolla R. SegNet: a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495.

张文秀, 朱振才, 张永合, 王新宇, 丁国鹏. 基于残差块和注意力机制的细胞图像分割方法[J]. 光学学报, 2020, 40(17): 1710001. Wenxiu Zhang, Zhencai Zhu, Yonghe Zhang, Xinyu Wang, Guopeng Ding. Cell Image Segmentation Method Based on Residual Block and Attention Mechanism[J]. Acta Optica Sinica, 2020, 40(17): 1710001.

本文已被 16 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!