1 中国科学技术大学工程科学学院精密机械与精密仪器系,安徽 合肥 230027
2 中国科学技术大学苏州高等研究院,江苏 苏州 215123
3 中国科学技术大学微电子学院,安徽 合肥 230027
宫颈异常细胞与正常细胞在形态上存在较大相似性且细胞尺寸变化较大,这使得宫颈异常细胞的精准检测变得非常困难。鉴于此,开发了一种基于Transformer模型的宫颈异常细胞自动识别模型,以帮助病理学家作出更准确的诊断。提出了两种创新性方法,一是一种改进的Transformer编码器结构,通过引入深度(DW)卷积来高效获取图像的特征,捕捉图像中的全局依赖信息;二是自适应的动态交并比(IOU)阈值,在模型训练的不同阶段使用不同的IOU阈值,实现尽可能多的有效检测,提升模型的收敛速度和检测精度。在宫颈异常细胞数据集上,通过消融实验,证明了改进的Transformer编码器和动态IOU阈值的有效性。此外,与已有的宫颈异常细胞识别方法相比,所提出的方法在平均精度指标上有明显的提高。实验结果表明,所提出的方法能够高效且准确地识别宫颈异常细胞,且能辅助病理专家提高诊断准确率和效率,具有应用到临床的潜力。
医用光学 宫颈细胞病理图像 目标检测 医学图像处理
光学 精密工程
2023, 31(23): 3482
1 北京理工大学光电学院,北京 100081
2 北京市混合现实与新型显示工程技术研究中心,北京 100081
3 北京理工大学计算机学院,北京 100081
4 北京理工大学医学技术学院,北京 100081
5 中国人民解放军总医院激光医学科,北京 100853
手术导航综合运用器官分割建模与手术规划、位姿标定与跟踪定位、多模态图像配准与融合显示等技术,使医生精确定位病灶与手术工具的位置,透过组织表面对内部组织进行观测,可大幅提升手术的安全性,缩短手术时间并提高手术效率。常规手术通常使用超声、内窥镜或X光等单模态影像进行手术过程引导,信息单一且均为二维影像,空间立体信息缺失,手术过程严重依赖医生经验;而多模态图像引导的手术导航技术通过融合多模态图像的优势,在三维空间提供病灶的结构或功能信息,大幅提升医生对血管、神经以及重要组织结构的空间辨识力。由此,本文针对多模态图像分割建模、手术方案决策、手术空间位姿标定与跟踪、多模态图像配准、图像融合与显示等多模态图像引导手术导航的关键技术进行总结和分析,提出其进一步发展面临的挑战并展望其未来发展趋势。多模态图像引导手术导航技术已成为神经外科、颅颌面、骨科、经皮穿刺、血管介入等临床科室精准治疗的新兴手段,具有重要的应用前景。
手术导航 手术机器人 多模态医学影像 医学图像处理 定位跟踪 配准融合 光学学报
2023, 43(15): 1500002
1 天津大学微电子学院,天津 300072
2 天津职业技术师范大学天津市现场总线控制技术工程中心,天津 300222
深入研究不同肺部疾病的X射线光片,有助于更清晰、准确地区分和预测各种疾病。基于此,提出一种基于高效通道注意力机制的胸部X光片疾病分类算法。将高效通道注意力模块以密集连接的方式加入基础特征提取网络,以增强特征通道中有效信息的传递,同时抑制无效信息的传递;使用非对称卷积块提高网络特征提取能力;采用多标签损失函数解决多标签和数据不平衡的问题。将新型冠状病毒肺炎X光片添加到公开数据集Chest X-ray 14中构成数据集Chest X-ray 15,在该数据集上的实验结果表明,所提基于高效通道注意力机制的胸部X光片疾病分类算法的平均area under curve(AUC)值达到0.8245,对气胸的AUC值达到0.8829,性能优于对比算法。
医用光学 医学图像处理 胸部X光片 卷积神经网络 高效通道注意力 激光与光电子学进展
2023, 60(12): 1217001
1 上海理工大学 健康科学与工程学院, 上海 200093
2 上海微创卜算子医疗科技有限公司, 上海 200120
3 同济大学 浙江学院, 浙江 嘉兴 314051
探究基于改进U-net++网络以及增加多通道特征融合的方法, 实现准确高效的超声图像结直肠子宫内膜异位区域自动检测。所提神经网络在U-net++为原型的分割网络上进行改进, 采用端到端的结构, 输入超声图像和其边缘提取图像, 输出结直肠子宫内膜异位区域检测结果。实验数据来自深圳市人民医院的166例结直肠子宫内膜异位患者的超声内镜图像, 随机选择133例作为训练样本, 33例测试样本。在网络训练过程中, 采用十折交叉验证法进行验证。 结果说明: 在33例测试集样本上, 方法最终的平均检出率、精确率、召回率分别为90.9%、72.4%、89.8%。改进神经网络以及多通道特征融合输入的方式可自动检测结直肠子宫内膜异位区域, 且检测鲁棒性及精度较高, 可作为参考辅助医生进行临床决策和干预。
结直肠子宫内膜异位症 深度学习 医学图像处理 特征融合 intestinal endometriosis U-net++ U-net++ deep learning medical image processing feature fusion
Author Affiliations
Abstract
1 School of Information Sciences and Technology, Northwest University, Xi'an, Shaanxi 710127, P. R. China
2 University of Wisconsin-Madison, Madison, Wisconsin 53715, USA
3 Department of Nuclear Medicine, Xijing Hospital, Fourth Military Medical University, Xi'an, Shaanxi 710127, P. R. China
Brown adipose tissue (BAT) is a kind of adipose tissue engaging in thermoregulatory thermogenesis, metaboloregulatory thermogenesis, and secretory. Current studies have revealed that BAT activity is negatively correlated with adult body weight and is considered a target tissue for the treatment of obesity and other metabolic-related diseases. Additionally, the activity of BAT presents certain differences between different ages and genders. Clinically, BAT segmentation based on PET/CT data is a reliable method for brown fat research. However, most of the current BAT segmentation methods rely on the experience of doctors. In this paper, an improved U-net network, ICA-Unet, is proposed to achieve automatic and precise segmentation of BAT. First, the traditional 2D convolution layer in the encoder is replaced with a depth-wise overparameterized convolutional (Do-Conv) layer. Second, the channel attention block is introduced between the double-layer convolution. Finally, the image information entropy (IIE) block is added in the skip connections to strengthen the edge features. Furthermore, the performance of this method is evaluated on the dataset of PET/CT images from 368 patients. The results demonstrate a strong agreement between the automatic segmentation of BAT and manual annotation by experts. The average DICE coe±cient (DSC) is 0.9057, and the average Hausdorff distance is 7.2810. Experimental results suggest that the method proposed in this paper can achieve e±cient and accurate automatic BAT segmentation and satisfy the clinical requirements of BAT.
PET/CT segmentation of brown adipose tissue U-net medical image processing deep learning Journal of Innovative Optical Health Sciences
2022, 15(3): 2250018
上海工程技术大学电子电气工程学院,上海 201600
现有的良性阵发性位置性眩晕视频眼震图分类算法存在以下不足:人工提取的特征主观性和局限性强;眼球的轴向转动特征提取困难;仅能区分正常人群和患者,或对简单的眼震进行分类。针对上述问题,提出了一种基于注意力机制的视频眼震图分类算法。以轻量级模型三维 MobileNet V2为基础网络进行特征提取,在全局细节特征、时空信息丰富的网络低层引入全局时空注意力模块,融合眼球震颤空间信息和帧间时序信息;在网络高层引入时空通道注意力机制,筛选高级语义特征;采用带有类别调制系数的交叉熵损失函数对网络进行训练,有效缓解了类别数量不平衡的问题。在复旦大学附属眼耳鼻喉科医院提供的包括66种类别的视频眼震图数据集上进行了实验,所提算法的分类准确度达到90.08%,各类别的平均精准度、召回率、F1-score分别为90.50%,92.00%,90.40%,表明了所提算法的优越性。
医用光学 图像处理 医学图像处理 视频眼震图分类 时空注意力机制 良性阵发性位置性眩晕 三维卷积神经网络 激光与光电子学进展
2022, 59(16): 1617001
1 西北大学 信息科学与技术学院,陕西西安7027
2 西北大学 文化遗产数字化国家地方联合工程研究中心,陕西西安71017
通过表皮生长因子受体(Epidermal Growth Factor Receptor,EGFR)突变情况可以对患者是否患有非小细胞肺癌(Non-small Cell Lung Cancer, NSCLC)进行检测。提出了一种基于对比学习的自监督EGFR基因突变预测方法,在不需要大量专家手工标注患者数据集的情况下,对输入网络的患者病灶区图像进行阴性、阳性预测。对自监督BYOL网络进行修改,增加了网络投影层非线性多层感知器(Multilayer Perceptron,MLP)的层数,并将患者CT和PET两个模态的图像数据融合作为网络的输入,在不需要大量标注患者数据集的情况下,对阴性、阳性病例进行预测。在非小细胞肺癌EGFR基因突变数据集上,与传统的影像组学、有监督VGG-16网络、有监督ResNet-50、有监督Inception v3和无监督迁移学习CAE进行对比。实验结果表明,使用对比学习从患者的CT和PET图像学习到的患者病灶区图像的实例特征可以对阴性、阳性病例进行区分,并取得了77%的曲线下面积(Area Under the Curve,AUC);相对于传统的影像组学方法分类结果AUC提高了7%,相对于有监督VGG-16网络的分类结果AUC提高了5%;在不需要大量专家手工标注数据集及大量患者临床数据的情况下仅比有监督ResNet-50 AUC低9%。改进BYOL网络仅需要少量标注的患者数据集便可得到比部分传统有监督方法更准确的检测结果,展示了其辅助临床决策的潜力。
医学图像处理 深度学习 对比学习 PET/CT 肺非小细胞肺癌基因突变预测 medical image processing deep learning contrastive learning PET/CT prediction of gene mutations in lung non-small cell lung cancer