液晶与显示, 2023, 38 (12): 1698, 网络出版: 2024-03-07  

基于改进YOLOv5s的手术器械检测与分割方法

Detection and segmentation method of surgical instruments based on improved YOLOv5s
作者单位
山东理工大学 计算机科学与技术学院,山东 淄博 255000
摘要
在内窥镜手术过程中,外科医师需实时掌握手术器械的位置信息。现有目标检测算法受反光和阴影等因素影响,其准确度和漏检率仍有优化的空间。本文提出一种基于改进YOLOv5s的手术器械检测与分割方法。首先,通过Gamma校正算法校正图像的亮度和对比度,以解决手术器械的反光和阴影遮挡等问题;其次,设计CBAM和动态卷积模块,增加重要特征信息的权重,以进一步提高目标检测的准确度并减少模型的漏检率;同时,优化空间金字塔池化模块以扩大感受野,从而更好地识别多尺度目标;最后,设计FPN语义分割头,以实现语义分割功能。在内窥镜手术数据集上的实验结果表明,本文目标检测的mAP@0.5为98.2%,语义分割的mIoU为94.0%。所提方法可辅助外科医师快速掌握手术器械的位置和类型,提高手术效率。
Abstract
In the process of endoscopic surgery, surgeons need to know the position information of surgical instruments in real time. The existing target detection algorithms are affected by factors such as reflection and shadow, and there is still optimization space for the accuracy and missed detection rate. This paper proposes a detection and segmentation method of surgical instruments based on improved YOLOv5s. Firstly, the brightness and contrast of images are corrected by Gamma correction algorithm to solve the problems of reflection and shadow occlusion of surgical instruments. Secondly, convolutional block attention module(CBAM) and dynamic convolution module are designed to increase the weight of important feature information, which further improves the accuracy of target detection and reduces the missed detection rate of the model. At the same time, the spatial pyramid pooling module is optimized to expand the receptive field, so as to better identify multi-scale targets. Finally, the feature pyramid networks (FPN) semantic segmentation head is designed to realize the semantic segmentation. Experimental results on endoscopic surgery dataset show that the mAP@0.5 of target detection in this paper is 98.2%, and the mIoU of semantic segmentation is 94.0%. The proposed method can assist surgeons to quickly grasp the position and type of surgical instruments, and improve the efficiency of surgery.

1 引言

基于视觉的内窥镜手术作为一种具有代表性的微创手术,在深度学习1-2时代受到越来越多的关注。与传统的手术不同,微创手术在内窥镜相机的辅助下通过一个小的切口进行,组织缝合需要使用专业的手术器械。然而,缺乏对手术技巧、手术质量等有针对性的、客观的反馈是内窥镜手术过程中存在的关键问题之一。手术过程中手术器械检测与分割的准确性对评估外科医师的手术技能具有非常重要的意义3

国外针对手术器械检测与分割的研究相对较早,且近年来已有很多研究者将深度学习成功应用于实际内窥镜手术中。Jin等人4对手术过程中的手术器械进行检测,采用Faster-RCNN算法框架,主干网络使用VGG-16卷积神经网络,在内窥镜手术中实现了对手术器械的实时检测,可以辅助评估外科医师的操作技能。Mahmood等人5提出一种基于双流残差密集网络(DSRD-Net)的手术器械分割方法,利用残差和密集的空间金字塔池化模块优化算法,精准分割手术器械,减少因视野模糊等导致的人为失误,并在公开可用的胃肠内窥镜数据集上进行测试,取得了较好的实验结果。不过此类算法的参数量和运算量较大,如果再添加额外的优化模块,会导致检测和分割速度下降。基于此,文献[6]提出一种Anchor-free的卷积神经网络,通过沙漏网络对内窥镜手术视频进行逐帧检测并将手术器械建模,以点作为边界框的中心点生成检测框,在保证精度的同时,检测速度超过同时期以双阶段目标检测为代表的Anchor-based类算法。但是该网络只能生成手术器械的定位框而未实现对手术器械种类的识别,功能性上略有不足。

国内对于深度学习在微创手术领域的研究起步较晚。2018年,郑腾辉等人7基于全卷积神经网络(FCN)实现了对手术器械和手术器械收纳盒的图像分割,识别目标的准确度可达到像素级,但是检测目标为手术器械收纳盒中的静态手术器械,因此实用性上有所欠缺。2019年,Ni等人8提出一种新的网络Residual Attention U-Net(RAUNet)用于白内障手术中的手术器械语义分割,该网络通过编码-解码结构获取高分辨率的掩膜,同时关注高阶和低阶特征图,从而在保证获取重要特征的基础上有效过滤干扰信息。2022年,Ni等人9为解决内窥镜手术中照明因素对手术器械的影响,提出了一种新的网络SurgiNet,通过添加金字塔注意力模块捕捉多尺度特征,通过自蒸馏消除其他的干扰信息。文献[10]提出一种改进的DoubleUNet11分割方法,通过对图像进行预处理,并使用密集连接空洞空间卷积池化金字塔(DenseASPP)模块12和Focal Tversky Loss损失函数进一步提取图像特征。该方法可以辅助外科医师切除结肠异常组织,从而降低息肉癌变的概率。

综上所述,基于深度学习的手术器械检测与分割得到很多研究者的关注。虽然RAUNet网络已经考虑手术器械反光的问题,但在实际的内窥镜手术中,除手术器械金属材质自身导致的反光问题外,组织器官之间的相互遮挡、光线影响以及阴影遮挡等问题13也需要被考虑。文献[14]已经证实通过对YOLO算法的Neck部分的下采样进行优化和添加注意力机制,可以在保证模型轻量化的同时进一步提高检测的精度。但目前YOLO算法应用于内窥镜手术的研究相对较少,且目标检测中存在的漏检问题仍然有改进的空间。

针对以上问题,本文提出一种改进的YOLOv5s手术器械检测与分割方法。对于内窥镜图像中存在的反光和阴影遮挡等问题,使用Gamma校正算法优化图像亮度和对比度。通过添加CBAM(Convolutional Block Attention Module)15、动态卷积以及空间金字塔池化模块以增强目标特征信息的权重,进一步提高手术器械检测的准确度并降低漏检率。最后,在模型的Neck部分添加基于特征金字塔网络(FPN)的语义分割分支,同时实现手术器械的检测和语义分割功能,辅助外科医师提高手术效率,减小手术难度。

2 方法

本文基于YOLOv5s算法框架,针对手术器械的检测与分割问题进行优化,以实现内窥镜图像中手术器械的检测与分割16,本文算法的整体网络结构如图1所示。在内窥镜图像进行训练之前,需要对图像进行图像增强、图像填充和锚框计算等预处理。在Backbone部分,以YOLOv5s为基础,添加5个Conv模块和C3模块,每一个Conv模块都包含一个1×1的卷积核。对输入的特征图像进行卷积操作,同时通过BatchNorm正则化函数和SiLU激活函数17进行处理。C3模块中包含3个标准的Conv卷积层,对残差特征进行学习。特征信息进入C3模块后分为两个分支:一个分支使用多个Bottleneck和3个标准卷积层;另一个分支经过一个卷积模块。然后将两个分支通过Concat进行连接。图像输入尺寸为640×640,每次经过一个Conv与C3的组合模块后,特征图会变为原来尺寸的1/2,再经过5次卷积后,输出20×20的特征图。在Neck部分,采用PANet框架,也称为FPN+PAN。FPN特征金字塔是一个自顶向下的过程,如输入FPN的特征图尺寸为20×20,经过2倍上采样后,特征图尺寸变为40×40。Conv模块输出的40×40特征图经过卷积核后,在Concat模块和经过上采样的特征图融合,后续的Conv、C3和Concat模块重复前述步骤。PAN和FPN相反,是一个自底向上的特征金字塔18。FPN是自顶向下传递特征内容,而PAN是自底向上传递特征位置,通过组合可以有效融合两者的优点,同时PAN采用80×80的特征图,经过两次Conv与C3的组合模块后,分别输出40×40和20×20的特征图。

图 1. 本文算法网络结构图

Fig. 1. Network structure diagram of our algorithm

下载图片 查看所有图片

2.1 Gamma校正

在基于深度学习的手术器械检测中,图像的亮度会直接影响模型训练的效果。内窥镜视频中出现的手术器械本身多为金属材质,在手术环境下极易出现反光或阴影遮挡等情况,从而影响目标检测的效果。因此,需要在模型训练前对图像进行预处理。本文采用Gamma校正算法,对内窥镜图像进行预处理。

Gamma校正算法的公式如式(1)所示:

F=Ir .

图2所示,红色和蓝色曲线分别代表灰度值过高和过低的情况,当r<1或r>1时,Gamma算法会对图像灰度值进行调整。对于图像中灰度值较高的区域,经过校正后灰度值会减小,使r的值接近于1;对于图像中灰度值较低的区域,经过校正后灰度值会增大,使r的值接近于1。

图 2. Gamma校正算法曲线图

Fig. 2. Graph of Gamma correction algorithm

下载图片 查看所有图片

2.2 CBAM与动态卷积模块

原有算法特征图信息中每个通道的权重相等,这会导致一些无用信息的比重偏大,而关键信息的比重偏小。因此,我们在Backbone底部添加注意力机制模块CBAM,通过学习的方式获取每个通道的比重并生成权重。CBAM可同时应用空间和通道两个不同的注意力维度。在语义分割部分,由于上采样会导致部分语义信息丢失,因此,在语义分割头的C3部分加入CBAM,通过通道注意力模块以减少重要信息的丢失,可防止由于单独添加CBAM模块导致的网络层数过多的问题。图3为CBAM的结构图。

图 3. CBAM结构

Fig. 3. Structure of CBAM

下载图片 查看所有图片

另外,将Neck部分的Conv模块更换为动态卷积ODConv模块19。注意力机制可赋予权重,通过注意力权重进行学习可以提高CNN网络的准确性并减少计算量。普通的动态卷积仅关注卷积核数量,而其他3个参数(输入通道数、输出通道数、空间大小)容易被忽略。本文使用的ODConv模块可通过对4个维度的并行策略实现对内核空间互补注意力的学习,从而进一步提高模型的准确度。

2.3 空间金字塔池化模块优化

YOLOv5s使用的空间金字塔池化模块是 SPPF(Spatial Pyramid Pooling Fast),在保持SPP效果的同时提高其速度。本文使用SPPCSPC模块20(SPP-CSP-Concat),该模块采用CSP结构21,通过保留SPP不同尺度的最大池化层使模型视野进一步扩大,可解决特征重复提取的问题。同时,可建立一条新的卷积分支,将原图通过卷积核后,与通过最大池化层得到的特征图进行二次合并,可有效减少池化后的特征损失,从而进一步提高检测的准确度。

2.4 FPN语义分割头

图1中,在FPN和PAN的连接位置增加语义分割头,使80×80的特征图继续按照FPN特征金字塔结构的上采样步骤进行,实现语义分割功能22。在生成80×80的特征图后形成两个分支,一个分支进入PAN模块,另外一个分支继续采用自顶向下的上采样结构实现语义分割。因此,本文模型可同时实现目标检测和语义分割。

3 实验与结果分析

3.1 数据集

本文数据集采用Cholec80,该数据集中包含大量的内窥镜手术视频,我们选取Cholec80中的20个内窥镜手术视频并按照一定的帧频转换成内窥镜图像序列,将其中不存在手术器械或者手术器械较为模糊的图像剔除。数据集包含4 000幅图像,其中3 000幅图像用于训练,1 000幅图像用于测试。本文将数据集中的手术器械分为7类,分别标注为Grasper、Hook、Clipper、Scissors、SpecimenBag、Bipolar和Irrigator。

由于模型需要同时实现目标检测和语义分割功能,本文分别通过LabelImg和Labelme制作两种不同格式的标签。目标检测标签设定为txt格式,语义分割标签设定为png格式记录掩膜,并对数据集通过Gamma校正算法进行调整优化。通过实验发现,如果数据集中不同类别手术器械的数量相对平均时,Grasper类型的手术器械识别的准确度明显低于其他6类手术器械。因此,我们在数据集中提高了Grasper类型的比例,将Grasper类型的图像数量提高至1 000幅,其余6类手术器械各为500幅图像。

图4为数据集样本的部分图像。由图4(a)可以看出,数据集中手术器械受环境的影响较大,导致图像中亮度分布不均,即使是同一幅图像,手术器械的金属部分反光强烈导致亮度过高,而周围环境和手术器械的其余部分相对较暗。因此,通过Gamma校正算法,可使数据集中的图像亮度分布相对均匀,减少外界因素对目标检测的影响,如图4(b)所示。图4(c)为分割掩膜结果。

图 4. 数据集样本。(a)原图;(b)Gamma校正后结果;(c)分割掩膜。

Fig. 4. Dataset sample.(a)Original image;(b)Results after Gamma correction;(c)Segmentation mask.

下载图片 查看所有图片

3.2 训练环境

本文的模型训练在Windows 10操作系统上进行,模型由Python编程语言实现,编程软件采用PyCharm。采用CPU进行模型训练相对缓慢,因此,我们通过GPU对网络框架进行模型训练,GPU的硬件配置如表1所示。

表 1. GPU硬件配置

Table 1. Hardware configuration of GPU

名称配置
处理器AMD EPYC 7642 Processor
GPU型号RTX 3090
显存容量24 GB
内核数量24核

查看所有表

3.3 实验结果分析

3.3.1 模型衡量指标

本文需要同时衡量目标检测和语义分割的效果。对于目标检测,本文选用mAP@0.5和 损失作为模型的衡量指标;语义分割通过mIoU进行衡量。最后,通过测试集验证实际检测和分割的效果。

3.3.2 目标检测效果分析

对于目标检测而言,召回率(Recall)和精确度(Precision)是衡量目标检测结果的两个非常重要的指标。AP为通过计算每一个召回率对应精确度的值并进行平均得到的一个衡量标准;mAP是将目标检测中所有种类的AP取平均值的结果。本文将所提方法与其他目标检测算法的AP和mAP进行比较,结果如表2所示。

表 2. 不同方法的AP和mAP比较

Table 2. Comparison of AP and mAP with different methods

本文方法YOLOv5sFaster-RCNNSSDRetinaNet
Grasper AP0.9630.9290.7850.9060.913
Hook AP0.9950.9950.9710.9990.999
Clipper AP0.9940.9750.8670.9990.972
Scissors AP0.9610.9470.8930.9480.948
SpecimenBag AP0.9720.9530.8960.9320.971
Bipolar AP0.9950.9550.8930.9570.952
Irrigator AP0.9950.9960.7710.9110.925
mAP@0.50.9820.9640.8680.9500.954

查看所有表

表2可以看出,无论是在不同手术器械的单项AP上还是整体的mAP上,本文方法都要优于其他方法。相较于YOLOv5s,优化后算法在本文手术器械数据集上的mAP@0.5提高了1.8%,达到了98.2%。在单阶段检测方法中,本文算法在mAP@0.5上仍然具有优势,相较于目前流行的SSD和RetinaNet算法,mAP分别高出3.2%和2.8%;相较于经典的双阶段检测方法Faster-RCNN,本文算法的mAP@0.5提高了11.4%,验证了本文方法在AP上的优势。

将本文所提方法和YOLOv5s方法的损失曲线进行对比分析,结果分别如图5图6所示。

图 5. 本文所提方法的损失曲线

Fig. 5. Loss curve of the proposed method

下载图片 查看所有图片

图 6. YOLOv5s方法的损失曲线

Fig. 6. Loss curve of the YOLOv5s method

下载图片 查看所有图片

图5图6可以看出,对于bounding box检测框损失,本文所提方法和YOLOv5s方法都接近0.02。对于obj目标检测损失,最终两者在数值上比较接近。但在验证集val的obj损失曲线上,YOLOv5s在降低到0.012后缓慢回升,并在0.014附近上下波动;而本文所提方法在降低到0.012后,一直较为平稳的维持在0.014以下。从曲线和数据上可以看出,YOLOv5s在测试集val上的损失曲线更加平滑,当epoch为100时,训练集损失曲线也趋于平稳。本文所提方法由于引入语义分割模块,训练集train的obj损失曲线和测试集val的损失曲线几乎趋近于90°,在训练集train最终损失值相差不大的情况下,本文所提方法的损失曲线下降速度最快,在进入平稳期后波动也最小,不会像YOLOv5s一样出现明显的上下波动。在验证集val上,本文所提方法的损失曲线无论是在训练的波动幅度还是最终损失值上都优于YOLOv5s方法,进一步验证了本文方法的有效性和优势。

3.3.3 语义分割效果分析

mIoU是评价语义分割效果的重要指标23。本文通过添加基于FPN网络的语义分割头实现了语义分割功能,目标检测算法的mIoU通过矩形框计算。为更好地比较分析语义分割的效果,本文在相同条件下训练其他语义分割网络并与本文方法进行比较。由于目标检测部分已经实现对于手术器械的分类功能,语义分割只需将手术器械和背景进行区分即可,因此语义分割的类别这里只定义Instruments和Background两类,将所提方法的mIoU值与其他语义分割方法进行比较,结果如表3所示。

表 3. 不同方法的mIoU值比较

Table 3. Comparison of mIoU with different methods

本文方法/%PSPNet/%FCN/%Deeplabv3/%UNet/%
mIoU94.093.174.191.892.7
Background99.398.594.598.498.3
Instruments88.787.753.685.287.0

查看所有表

表3可以看出,本文方法在语义分割方面有着良好的表现,mIoU值达到了94.0%,远高于经典分割网络FCN。相较于Deeplabv3和UNet图像分割网络,本文方法的mIoU分别高出2.2%和1.3%。相较于目前流行的语义分割网络PSPNet,mIoU提高了0.9%,进一步验证了本文方法的有效性和优势。

3.3.4 检测与分割结果

本文选取数据集中具有代表性的两帧图像进行检测与分割结果分析,结果如图7所示。

图 7. 手术器械检测与分割结果

Fig. 7. Detection and segmentation results of surgical instruments

下载图片 查看所有图片

图7(a)可以看出,本文方法能够较好地实现手术器械的检测和语义分割,在多个手术器械同时存在的情况下也能够进行准确识别。但也会存在漏检的情况,如图7(b)所示,相较于被检测出的Scissors类型的手术器械,漏检的手术器械在图像中所占比例相对较小,且受到手术环境的遮挡,导致模型提取的特征信息不足,被检测器误认为是背景信息,因此出现了漏检现象。但是语义分割模块却能够很好地识别该手术器械并进行准确地分割,在一定程度上弥补了目标检测的漏检问题。

4 结论

本文采用改进的YOLOv5s结合FPN的方法实现了手术器械的检测与语义分割功能。通过Gamma校正算法,减轻反光和阴影等因素的影响;通过CBAM、动态卷积模块、空间金字塔池化模块和FPN语义分割模块,提高检测与分割的准确度,并降低漏检率。实验结果表明,手术器械的检测与语义分割效果良好,手术器械检测的mAP@0.5为98.2%,语义分割的mIoU为94.0%。所提方法可辅助外科医师提高手术效率,减小手术难度,实现术中精准导航。

参考文献

[1] RIVENSON Y, WU Y C, OZCAN A. Deep learning in holography and coherent imaging[J]. Light: Science & Applications, 2019, 8: 85.

[2] ZUO C, QIAN J M, FENG S J, et al. Deep learning in optical metrology: a review[J]. Light: Science & Applications, 2022, 11(1): 39.

[3] FU Z M, JIN Z Y, ZHANG C G, et al. The future of endoscopic navigation: a review of advanced endoscopic vision technology[J]. IEEE Access, 2021, 9: 41144-41167.

[4] JINA, YEUNGS, JOPLINGJ, et al. Tool detection and operative skill assessment in surgical videos using region-based convolutional neural networks [C]//Proceedings of 2018 IEEE Winter Conference on Applications of Computer Vision. Lake Tahoe, USA: IEEE, 2018: 691-699. 10.1109/wacv.2018.00081

[5] MAHMOOD T, CHO S W, PARK K R. DSRD-Net: dual-stream residual dense network for semantic segmentation of instruments in robot-assisted surgery[J]. Expert Systems with Applications, 2022, 202: 117420.

[6] LIU Y Y, ZHAO Z J, CHANG F L, et al. An anchor-free convolutional neural network for real-time surgical tool detection in robot-assisted surgery[J]. IEEE Access, 2020, 8: 78193-78201.

[7] 郑腾辉, 陶青川. 基于全卷积神经网络的手术器械图像语义分割算法[J]. 现代计算机, 2019(9): 80-84.

    ZHENG T H, TAO Q C. Semantic segmentation algorithm for images of surgical instruments based on fully convolutional networks[J]. Modern Computer, 2019(9): 80-84.

[8] NIZ L, BIANG B, ZHOUX H, et al. RAUNet: residual attention U-Net for semantic segmentation of cataract surgical instruments [C]//Proceedings of the 26th International Conference on Neural Information Processing. Sydney, Australia: Springer, 2019: 139-149. 10.1007/978-3-030-36711-4_13

[9] NI Z L, ZHOU X H, WANG G A, et al. SurgiNet: pyramid attention aggregation and class-wise self-distillation for surgical instrument segmentation[J]. Medical Image Analysis, 2022, 76: 102310.

[10] 徐昌佳, 易见兵, 曹锋, 等. 采用DoubleUNet网络的结直肠息肉分割算法[J]. 光学 精密工程, 2022, 30(8): 970-983.

    XU C J, YI J B, CAO F, et al. Colorectal polyp segmentation algorithm using DoubleUNet network[J]. Optics and Precision Engineering, 2022, 30(8): 970-983.

[11] JHAD, RIEGLERM A, JOHANSEND, et al. DoubleU-Net: a deep convolutional neural network for medical image segmentation [C]//Proceedings of the 2020 IEEE 33rd International Symposium on Computer-Based Medical Systems. Rochester, USA: IEEE, 2020: 558-564. 10.1109/cbms49503.2020.00111

[12] YANGM K, YUK, ZHANGC, et al. DenseASPP for semantic segmentation in street scenes [C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018: 3684-3692. 10.1109/cvpr.2018.00388

[13] PAN J J, LIU W M, GE P, et al. Real-time segmentation and tracking of excised corneal contour by deep neural networks for DALK surgical navigation[J]. Computer Methods and Programs in Biomedicine, 2020, 197: 105679.

[14] 樊新川, 陈春梅. 基于YOLO框架的轻量化高精度目标检测算法[J]. 液晶与显示, 2023, 38(7): 945-954.

    FAN X C, CHEN C M. Lightweight and high-precision object detection algorithm based on YOLO framework[J]. Chinese Journal of Liquid Crystals and Displays, 2023, 38(7): 945-954.

[15] WOOS, PARKJ, LEEJ Y, et al. CBAM: convolutional block attention module [C]//Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer, 2018: 3-19. 10.1007/978-3-030-01234-2_1

[16] OZAWA T, HAYASHI Y, ODA H, et al. Synthetic laparoscopic video generation for machine learning-based surgical instrument segmentation from real laparoscopic video and virtual surgical instruments[J]. Computer Methods in Biomechanics and Biomedical Engineering: Imaging & Visualization, 2021, 9(3): 225-232.

[17] ELFWING S, UCHIBE E, DOYA K. Sigmoid-weighted linear units for neural network function approximation in reinforcement learning[J]. Neural Networks, 2018, 107: 3-11.

[18] ELHASSANM A, YANGC H, HUANGC X, et al. SPFNet: subspace pyramid fusion network for semantic segmentation [J/OL]. arXiv, 2022: 2204.01278. 10.1155/2021/5563875

[19] LIC, ZHOUA J, YAOA B. Omni-dimensional dynamic convolution [C]//Proceedings of the 10th International Conference on Learning Representations. Madrid, Spain: OpenReview.net, 2022, DOI: 10.‍48550.

[20] WANGC Y, BOCHKOVSKIYA, LIAOH Y M. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real-time object detectors [C]//Proceedings of 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver, Canada: IEEE, 2023: 7464-7475. 10.1109/cvpr52729.2023.00721

[21] WANGC Y, LIAOM H Y, WUY H, et al. CSPNet: a new backbone that can enhance learning capability of CNN [C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020: 1571-1580. 10.1109/cvprw50498.2020.00203

[22] YU L T, WANG P C, YU X Y, et al. A holistically-nested U-Net: surgical instrument segmentation based on convolutional neural network[J]. Journal of Digital Imaging, 2020, 33(2): 341-347.

[23] SUN Y W, PAN B, FU Y L. Lightweight deep neural network for real-time instrument semantic segmentation in robot assisted minimally invasive surgery[J]. IEEE Robotics and Automation Letters, 2021, 6(2): 3870-3877.

孟晓亮, 赵吉康, 王晓雨, 张立晔, 宋政. 基于改进YOLOv5s的手术器械检测与分割方法[J]. 液晶与显示, 2023, 38(12): 1698. Xiao-liang MENG, Ji-kang ZHAO, Xiao-yu WANG, Li-ye ZHANG, Zheng SONG. Detection and segmentation method of surgical instruments based on improved YOLOv5s[J]. Chinese Journal of Liquid Crystals and Displays, 2023, 38(12): 1698.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!