光学学报, 2019, 39 (7): 0715001, 网络出版: 2019-07-16   

基于角点检测的可降解支架轮廓分割算法 下载: 828次

Corner Detection-Based Segmentation Algorithm of Bioresorbable Vascular Scaffold Strut Contours
作者单位
1 中国科学院西安光学精密机械研究所瞬态光学与光子技术国家重点实验室, 陕西 西安 710119
2 中国科学院大学, 北京 100049
3 中国人民解放军总医院心血管内科, 北京 100853
摘要
针对血管内光学相干断层扫描(IVOCT)影像中,使用动态规划(DP)算法进行可降解支架轮廓分割时,分割结果容易受到血液伪影和支架内部断裂的影响,而导致支架轮廓分割准确度不高的问题,利用IVOCT影像中可降解支架具有四边形外观的先验信息,提出一种使用支架的4个角点得到支架轮廓的算法。实验结果显示:所提出的支架轮廓分割算法的平均Dice系数可达到0.88,相较于DP算法提高了0.08;所提出的支架自动分割算法能够实现IVOCT影像中可降解支架的准确分割,且具有较好的稳健性,能更好地在临床应用中辅助医生进行支架贴壁情况分析。
Abstract
According to the prior knowledge about obvious quadrilateral feature of bioresorbable vascular scaffold (BVS) struts in an intravascular optical coherence tomography (IVOCT) image, this study proposes a novel algorithm based on four corners of BVS struts to automatically obtain their contours in the IVOCT imaging system. It solves the problem that dynamic programming (DP) algorithm, which is a contour-based algorithm, is not sufficiently accurate because of the in uence of the fractures inside the struts and blood artifacts around the struts. Experimental results show that the proposed algorithm achieves an average Dice's coefficient of 0.88 for the strut segmentation areas, which is increased by approximately 0.08 compared to the result obtained by the DP algorithm. This algorithm can accurately and robustly segment BVS struts in the IVOCT image, and thus it can better assist doctors in the automatic strut malapposition analysis in clinical applications.

1 引言

冠心病,作为一种最常见的心血管疾病,近几年成为全球头号死亡病因[1]。经皮冠状动脉介入术是目前治疗冠心病的主要方法[2]。随着冠脉介入治疗的发展,从球囊扩张(POBA)到金属支架(BMS)再到药物洗脱支架(DES),早期冠状动脉闭塞和再狭窄率有所下降[3], 然而有些术后风险是在DES置入3~6个月后才会变得明显[4],长期来看仍有发生晚期血栓的可能[5]。因为可降解支架(BVS)在提供暂时的径向支撑后可自动降解,故可显著降低晚期支架血栓发生的风险[6],并被认为是很有发展前景的支架。但是如果医生在支架植入过程中操作不当,就会导致支架和血管壁分离,引起支架贴壁不良,这可能会导致晚期支架血栓的发生,给患者的生命带来威胁。因此,在临床BVS支架植入术中,需要实时分析和评估支架贴壁情况。

血管内光学相干断层扫描技术(IVOCT)是近年来发展较快的一种最具发展前途的新型层析成像技术,其轴向分辨率可达5~15 μm,纵向分辨率达25 μm,探测深度约为2 mm,可对血管和BVS支架清晰成像,这为利用图像对BVS支架的贴壁情况进行自动分析提供了可能[7-8]。目前,支架贴壁情况主要依靠专家进行人工定性分析,人工定性分析具有主观性且不精确。与此同时,一个回拉中IVOCT 图像数目众多,每张IVOCT图像中包含数十个BVS支架,整个回拉中支架数量巨大,依靠专家进行定量分析耗时耗力。因此,自动、准确、快速地进行支架贴壁情况分析在临床中有很大的价值和需求。为了实现支架贴壁情况自动分析,需要准确分割出IVOCT图像中的BVS支架轮廓。

根据调研情况,目前关于可降解支架自动分析方面的研究较少。Wang等[9]提出了一种基于灰度和梯度特征来检测BVS支架的算法,该算法设置了大量的固定阈值,对于不同病人的IVOCT图像亮度和对比度存在较大差异的情况很难全部适应,且对于支架周围存在血液伪影或支架内部断裂情况的检测性能不佳。Lu等[10-11]提出一种将支架检测和支架分割分开进行的算法,第一阶段进行支架位置的检测,基于机器学习的方法检测支架所在的感兴趣区域,第二阶段利用DP算法进行支架轮廓分割。这种方法的泛化性较好,且利用机器学习的方法进行支架检测的准确率也较高,但使用DP算法进行轮廓分割时,要求遍历整个支架感兴趣区域来得到全局能量最小的轮廓,而支架轮廓周围的血液伪影和支架内部断裂都会影响到支架轮廓的分割效果,支架分割效果有待提升。

针对前人方法的局限性,本文利用支架具有四边形外观这一先验信息,提出了一种基于支架角点得到支架轮廓的分割算法。该算法可以避免分割结果受到如支架断裂、血液伪影和管腔轮廓等干扰信息的影响。首先,基于扩展的哈尔特征,利用改进的AdaBoost算法训练角点分类器;然后,使用该角点分类器检测得到候选角点,从候选角点中选出4个最优点作为支架角点;最后,基于4个角点得到分割轮廓,实现支架轮廓的自动分割。基于分割结果,可进行支架贴壁情况的自动分析。为客观公正地评估该算法的性能,将专家手动标记的角点位置与本文方法的角点检测结果进行比较,将使用DP算法进行轮廓分割的结果与本文方法的分割结果进行对比。实验结果证明,本文算法适用于分割复杂背景下的BVS支架,且其分割性能优于DP算法,具有很好的稳健性和泛化性。

2 本文算法

本文算法主要包含以下三个步骤:

1) 构建角点分类器。主要目的是基于机器学习方法训练用于检测支架角点的分类器。

2) 支架4个角点检测。利用步骤1)中训练得到的角点分类器,在支架感兴趣区域内检测得到候选角点,再进行后处理得到用于轮廓分割的4个角点,进而得到支架轮廓。

3) 贴壁情况分析。基于支架轮廓分割结果,实现支架贴壁情况的自动分析。

直角坐标系下植入支架的IVOCT图像如图1所示,在图中分别对管腔轮廓、成像导管、导丝、血液伪影、支架内部断裂、支架贴壁良好和支架贴壁不良等进行标注。如图1(a)所示,IVOCT图像中支架有明显的四边形外观;如图1(b)所示,支架轮廓由专家标记的4个角点表示。根据专家标记的4个角点,可以得到如图1(c)所示的支架轮廓。图1(d)为直角坐标系下支架植入后的IVOCT图像。如图2(a)和图2(b)中两幅极坐标下IVOCT影像所示,可以直观看出相较于图2(a),图2(b)中极坐标下IVOCT影像中的管腔轮廓和BVS支架更加水平,且BVS支架形态更规则。因此,本文中用到的极坐标图像均为基于管腔轮廓中心转换的图像。利用极坐标IVOCT图像中BVS支架具有四边形外观的先验信息,实现支架的精准分割,进而实现支架贴壁情况的准确分析。

图 1. 直角坐标系下支架植入后的IVOCT图像和支架轮廓可由专家标记的4个支架角点表示过程。(a)单个放大的支架;(b)专家在单个支架标记4个角点;(c)基于4个标记角点得到支架轮廓图;(d)直角坐标系下支架植入后的IVOCT图像

Fig. 1. IVOCT images after BVS stenting in Cartesian coordinate system and process where strut contour can be represented from four labeled corners by expert. (a) Single enlarged strut; (b) four corners labeled on single strut by expert; (c) strut contour obtained from four labeled corners; (d) IVOCT image after BVS stenting in Cartesian coordinate system

下载图片 查看所有图片

图 2. 基于不同转换中心得到的两种IVOCT极坐标图像。(a)以直角坐标下图像的图像中心为转换中心的IVOCT极坐标图像;(b)以直角坐标下图像的管腔轮廓中心为转换中心的IVOCT极坐标图像

Fig. 2. IVOCT images shown in polar coordinates based on two different transformed centers. (a) IVOCT image in polar coordinate system using center of image in Cartesian coordinate system as transformed center; (b) IVOCT image in polar coordinate system using lumen-contour center of image in Cartesian coordinate system as transformed center

下载图片 查看所有图片

2.1 构建角点分类器

考虑到Moravec等[12-14]常用的角点检测算法在复杂背景下进行角点检测时,算法精度和稳健性不佳,本文采用机器学习的方法训练得到角点分类器。在机器学习方法中进行样本训练时,样本特征和学习算法的选择至关重要。

2.1.1 训练样本

图3所示,基于极坐标图像上专家标记的角点选择正负训练样本。如图3中右侧放大的单个支架图像所示,考虑到在手动标记支架角点的过程中,1~3 pixel的误差是允许存在的,将专家标记的角点拓展到其八邻域,如图3放大的单个支架区域中所示的八邻域角点,即支架的每个角点在误差允许范围内可以用9个标记点表示。根据支架的实际尺寸,尺寸大小设定为N×N的样本选取框在支架感兴趣区域中以步长K遍历,当样本选取框的中心与对应的9个标记点中任意一点重合时,该样本选取框内的样本被选择为正样本,否则为负样本。

图 3. 选取正负训练样本

Fig. 3. Selection of positive and negative training samples

下载图片 查看所有图片

2.1.2 特征提取

选取正负训练样本后,需要提取训练样本特征。大量检测算子和描述子在文献[ 15-21]中提出, 其中局部二值模式(LBP)、方向梯度直方图(HOG)和Haar特征是三种应用广泛的特征。其中Haar特征最初由Viola等[20]应用于目标检测之人脸检测领域,人脸识别中使用了边缘、线性、中心和对角特征组成的特征模板。结合支架特征和角点检测的需求,选用Haar特征进行支架角点检测。

基于支架角点处的结构特征,将文献[ 20]中提出的基本Haar特征模板扩展到图4中所示的10种特征模板中,包含2个边缘特征、2个线特征、1个对角特征、4个角点特征和1个T型特征,图4中(a)~(e)是基本的哈尔特征模板,(f)~(j)是基于支架角点特征的扩展模板,将这些特征模板组合起来,用于提取能够有效检测支架角点的特征。Haar特征值由黑色填充区域像素之和与白色填充区域像素之和的差值得到,原始尺寸和扩展尺寸的特征模板在子窗口上滑窗遍历,得到不同位置处的特征值,不同尺寸和不同位置的特征模板得到不同的特征值,因此,一幅图像上得到的Haar特征数量巨大,在原始图像上计算特征值,将是极其耗时的,在此,使用积分图进行特征值的计算,以减少计算量。

图 4. 基本哈尔特征模板及基于支架特征得到的扩展模板。(a)~(e)基本哈尔特征模板;(f)~(j)基于支架特征的扩展模板

Fig. 4. Basic prototypes with Haar-like features and extended prototypes combined with struts' features. (a)-(e) Basic prototypes with Haar-like features; (f)-(j) extended prototypes combined with struts' features

下载图片 查看所有图片

2.1.3 训练角点分类器

选定特征模板后,挑选出最具分辨力的Haar特征来进行支架角点和非角点的分类尤为重要。在此,应用Adaboost算法对训练样本进行学习,从而挑选出最具有分辨力的Haar特征构成角点分类器。本文方法中,角点分类器的训练主要包含2个阶段,即采用Adaboost算法分别训练强分类器和级联强分类器,以构成角点分类器。

采用Adaboost算法训练强分类器。Boosting是一族可将弱学习器提升为强学习器的算法,已成功应用于解决二分类问题。Adaboost算法作为Boosting族最著名的代表,最初由Freund等[22]提出,其基本思想是:通过组合不同的弱分类器来构建一个强分类器,从而极大提升分类器的分类性能。Adaboost 算法被Viola等[20]成功用于人脸检测领域,本文采用Adaboost算法对训练样本进行学习,从而挑选出最具有分辨能力的Haar特征构成分类器。Adaboost 算法步骤如下:

1) 输入训练数据集T={(x1,y1),(x2,y2),…,(xn,yn)},其中,每个样本点由实例xi和标记yi组成,序号i=1,2,…,n,n为样本数目。记X为实例(即样本)空间,Y为标记集合。实例xi∈Rd,标记yi∈{-1,1},对于正样本,yi=-1,对于负样本,yi=1。其中,正样本数p和负样本数q满足p+q=n

2) 输入弱学习算法,其具体步骤为:

(1) 初始化训练数据的权值分布Di={w11,w12,…,w1n},其中,权值w1i=1/n

(2) 设定强分类器训练时的迭代次数M

a) 使用具有权值分布Dm的训练数据,学习弱分类器Gm(x):X→{-1,+1}。

b) 计算Gm(x)在训练数据集上的加权分类错误率em,计算公式为

em=P[Gm(xi)yi]=i=1nwmiI[Gm(xi)yi],(1)

式中:m=1,2,…,M;P为求解em的函数;I为不等函数,当Gm(xi)≠yi时,函数取值为1,否则为0;wmi为第m轮训练中,第i个样本的权重。

c) 计算Gm(x)的系数αm,αm= 12ln 1-emem,αm表示Gm(x)在最终分类器中的重要性,满足αm>0和 m=1Mαm=1。

d) 更新训练数据集的权重分布Dm+1={wm+1,1,wm+1,2,…,wm+1,n},计算式为

wm+1,i=wm,iZmexp(-αm),ifGm(xi)=yiwm,iZmexp(αm),ifGm(xi)yi,(2)

式中:Zm= i=1nwm,iexp[-αmyiGm(xi)]为规范化因子。

(3) 构建基本分类器的线性组合f(x)= m=1MαmGm(x),对于两类分类问题,得到最终的强分类器为

G(x)=sign[f(x)]=signm=1MαmGm(x)(3)

级联强分类器为角点分类器。基于上述得到的由M个弱分类器构成的强分类器,样本可以分为正样本或负样本。一个性能好的强分类器往往包含上百个弱分类器,然而,强分类器中包含的弱分类器越多,强分类器在检测时耗费的时间越长。如果只用一个强分类器来检测角点的位置,将会花费极长的时间。为解决该问题,通过级联s级强分类器来构成角点分类器。对于每级强分类器,训练迭代的次数不同,前几级强分类器构造简单,用来去除负样本特征明显的子窗口,后几级结构复杂的强分类器用于去除少量负样本特征不是很明显、较难判断的子窗口,以加快支架角点检测的速度,从而满足临床实时性的要求。

训练过程中,为保证下一级强分类器比上一级强分类器对难以判断的子窗口具有更强的分类能力,对前三级强分类器的训练负样本进行人工设定,在之后的每一级强分类器训练过程中,采用不同的负样本进行训练。具体来说就是将当前得到的强分类器进行级联,级联分类器在用于生成训练负样本的IVOCT图像上进行检测,将检测结果与专家标记的真实结果进行比对,将误报窗口作为下一级强分类器训练的负样本,而正样本保持不变。

在检测过程中,将成功通过所有级强分类器的子窗口判定为支架候选角点,为了衡量支架候选角点被判定为支架角点的可能性,当子窗口通过所有级强分类器时,为每个支架候选角点计算总得分S,S值大的候选角点更有可能是真实角点,两者呈正相关,在后处理过程中利用S值来尽可能多地排除假阳性窗口。S值的计算公式为

S=k=1sSk,(4)

式中:Sk为第k级强分类器得分,其计算式为

Sk=m=1Mck,m(x)-tk,(5)

式中:ck,j(x)为第k级强分类器的第m个弱分类器;tk为阈值,是第k级分类器基于相应的强分类器在验证集上的性能自动学习得到的;M为每级强分类器中包含的弱分类器的个数。

至此,训练得到角点分类器,角点分类器在支架感兴趣区域内自动检测得到候选角点及每个候选角点对应的分数S,分数S用来衡量支架候选角点成为支架角点的可能性。

2.2 支架4个角点检测

图5所示,支架分割过程主要包含三个部分:1)支架候选角点检测;2)支架4个区域划分;3)支架4个角点选择。

2.2.1 支架候选角点检测

此部分是利用4个角点进行支架分割的基础,使用训练好的角点分类器在极坐标IVOCT图像中支架感兴趣区域进行检测,得到支架候选角点。首先,确定支架角点检测感兴趣区域,如图5(i)中IVOCT图像上矩形框所示,支架检测感兴趣区域是基于文献[ 10]中的方法获取得到的。其次,如图5(a)和5(e)所示,通过滑窗的方式,在支架感兴趣区域内以步长K遍历,进行支架候选角点检测,滑窗大小设定为N×N。使用角点分类器对子窗口进行分类,将成功通过由s级强分类器构成的角点分类器的所有级子窗口中心判定为支架候选角点,角点分类器检测结果如图5(b)和5(f)所示,分布在支架4个角落的点即代表角点候选点。每个角点候选点都被角点分类器赋予一个衡量该候选角点是否为支架角点的可能性分数,分数越高,就越有可能为支架角点。

2.2.2 支架4个区域划分

在得到支架角点候选点位置后,从支架的所有候选角点中选择4个最优点作为支架角点,理想情况下具有最高分数的4个角点即可作为支架角点,但因为支架角点检测过程中容易受到血液伪影和支架内部断裂的影响,导致非角点位置检测出具有较高分值的角点候选点。为解决这一问题,考虑到以管腔轮廓中心为图像转换中心得到的极坐标IVOCT图像中,BVS支架形态较为规则且大部分都平行于管腔轮廓,在此,利用这一先验信息进行支架角点的选择。在极坐标IVOCT图像中,可以直观地看出代表支架的4个角点分别落在以支架中心为坐标中心的4个独立象限区域,相较于从所有支架候选点中选择4个点作为支架角点的方法,从4个区域的候选点中分别选择一个点作为支架角点的方法更加准确有效,因此将支架感兴趣区域划分为4部分,以选出最优候选角点作为支架角点。

理想情况下,极坐标IVOCT图像中,直接以支架中心为直角坐标中心,水平横轴,竖直纵轴,十字划分,即可将支架划分为包含4个角点的4个象限区域;但在实际情况下,如图5(i)所示,并非所有支架都呈水平状。因为IVOCT图像中管腔轮廓并非都为规则圆形,在极坐标下管腔轮廓并非处处水平,与管腔轮廓平行的支架存在非水平,即倾斜支架,所以直接以支架中心为直角坐标中心进行十字划分不适用于所有的支架。如图5(g)所示,在此定义了支架角度θ,基于计算得到的支架角度进行支架4个角点区域的精准划分。当支架角度θ小于设定的角度阈值θt时,设定为水平支架,如图5(c)所示,使用十字划分得到支架角点的4个区域;否则,如图5(g)所示,对于倾斜支架,使用支架角度得到支架角点的4个区域。

图 5. 支架4个角点检测流程图。(a)~(d)使用十字划分方法得到支架的4个角点流程图;(e)~(h)使用支架角度划分方法得到4个角点流程图;(i)支架角度获取方法

Fig. 5. Flow charts of four corners detection of struts. (a)-(d) Flow chart of four corners detection by cross-division method; (e)-(h) flow chart of four corners detection by strut-angle-division method; (i) method of getting strut angle

下载图片 查看所有图片

图5(i)极坐标图像中所示,支架平行于支架对应的管腔轮廓段,本文方法利用管腔轮廓得到支架角度θ。首先需要得到管腔轮廓,在此使用文献[ 23]中所用的管腔轮廓分割方法进行管腔轮廓分割。检测得到的管腔轮廓的精准度决定了支架角度计算的精准度。如图5(i)中所示,利用支架角点检测感兴趣区域两侧与支架对应区间的管腔轮廓的交点连线与水平线之间的夹角,计算支架角度,得到支架角度后即可进行支架4个区域的划分,然后在这4个角点区域进行支架角点选择,从而得到支架分割结果。

2.2.3 支架角点选择

在得到如图5(c)和5(g)中所示精准划分的支架4个区域后,根据支架候选点与支架中心之间所成夹角大小,可以将支架候选点依次划分到这4个区域,支架候选点划分结果如图5(c)和5(g)所示,很明显,每部分角点候选区域中都包含着该区域用于分割支架轮廓的角点。

对于每部分支架区域,假设有Nc个支架候选点,从Nc个候选点中选择一个最优点作为该部分支架区域的角点。设定Si为第i个支架候选点的角点分类器得分,通过比较分数值Fi,取具有最高分数值的支架候选角点为支架角点。理想情况下,利用表达式

Fi=Si,1iNc,(6)

并根据角点分类器得到的分数,将该部分具有最高分数的候选角点作为支架角点。然而,因为支架候选角点检测过程中容易受到支架内部断裂和周围血液伪影的影响,导致单纯依靠分类器分数来决定角点位置的结果不准确,在此,采用表达式

Fi=αS'i+βD'i,1iNc,(7)

计算Fi,其中

S'i=Si-SminSmax-Smin,1iNc,(8)D'i=Di-DminDmax-Dmin,1iNc,(9)

式中:Di为该部分中,第i个支架候选点和支架中心之间的距离;αβ分别为分数和距离在计算Fi时的比重;SmaxSmin分别为Nc个支架候选点分数中的最大值和最小值;DmaxDmin分别代表Nc个支架候选点距支架中心的最大值和最小值。分别使用(8)式和(9)式对SiDi进行归一化,得到S'iD'i; 根据(7)式,得到此部分Nc个候选点各自的Fi后,取最大值对应的角点候选点为支架角点,依次分别得到支架的4个角点,结果如图5(d)和5(h)所示。

2.3 贴壁情况计算

在得到所有支架的角点后,将支架角点从极坐标系转化到直角坐标系下,得到直角坐标下的支架分割结果。基于直角坐标下支架和管腔轮廓的分割结果计算BVS支架的贴壁情况。计算贴壁情况的方法同样使用文献[ 10]中的方法,设血管壁轮廓中心为Pc,每个支架边界上均可找到一个点Ps使得其到Pc的距离最远。连接PcPs并延长,将直线PcPs与血管壁的交点设为Pl,则PsPl之间的距离可视为支架到血管壁的距离。如果该距离小于10 μm,则该支架贴壁不良,否则贴壁良好。

3 实验

3.1 实验材料

实验中,所有的IVOCT图像都是通过FD-OCT系统(C7-XR system, St. Jude, St. Paul, Minnesota)获取的,所有支架均采用ABSORB 1.1 BVS支架(Abbott Vascular, Santa Clara, CA, USA),直角坐标系下图像大小为704 pixel×704 pixel,极坐标系下图像大小为352 pixel×720 pixel,系统的轴向成像分辨率为10 μm/pixel。实验中共使用16个回拉,包含4336张IVOCT图像,其中有1767张包含BVS支架的有效图像,BVS支架数目共计10561个,所有BVS支架由专家进行角点标记,作为真实值。在16个回拉中,4个回拉用作训练集,4个回拉用作验证集,其他8个回拉作为测试集。

3.2 参数设置

实验中,支架检测感兴趣区域的大小根据文献[ 10]中得到的支架中心位置和半径确定。一般情况下,支架的厚度约为150 μm,长度为150~800 μm。根据支架的长度和宽度范围,将支架感兴趣区域的长度设定为支架半径的2.5倍,宽度设定为支架半径的1.5倍。根据支架宽度的大小,将训练样本的大小N×N设置为11 pixel×11 pixel,即110 μm×110 μm,以保证在每个子窗口中仅存在一个角点。在候选角点检测过程中,将角点分类器级数s设置为23,滑窗步长K设置为3,以保证可以检测到角点的精准位置。每级的弱分类器个数Nw逐级增加,最终训练得到23级强分类器构成的角点分类器,一共包括5624个弱分类器,训练一共耗时126 h。在支架角点选择部分,将θt设定为20,α设定为1.8,β设定为1。

3.3 评价标准

为了定量地评价角点检测性能,计算支架检测角点和专家标记真实角点之间的距离偏差(Ecp),计算公式如下:

Ecp=(xD-xG)2+(yD-yG)2,(10)

式中:(xD,yD)和(xG,yG)分别代表分类器检测得到的角点位置和对应的专家标记的真实角点的位置。

为了定量评估利用4个角点进行支架轮廓分割的性能,使用Dice系数(CDice)来衡量分割区域与真实支架区域两者间的重合度,其计算式为

CDice=2×|SDSG||SD|+|SG|,(11)

式中:SGSD分别代表真实支架区域和分割支架区域。

3.4 结果分析

为了公平公正地比较本文算法和DP算法的分割结果,在相同的数据集上测试这两种算法。需要特别说明的是,两种方法在相同的支架检测感兴趣区域内进行轮廓分割,基于分割结果进行定性和定量评估。

3.4.1 定性结果

图6展示了DP算法和本文算法的一些分割结果。白色轮廓为基于专家标记角点得到的支架真实轮廓。图6(a)~(d)为使用DP算法进行轮廓分割的分割结果,图6(e)~(h)中的角点为本文方法得到的角点检测结果,轮廓是基于检测角点得到的轮廓分割结果。图6(e)~(h)中放大的支架区域①和②分别代表存在血液伪影和支架内部断裂的支架。通过对比图6(a)~(d)中DP算法和图6(e)~(h)中角点检测算法的分割结果,可以明显看出,受血液伪影和支架内部断裂影响的支架,在使用DP算法得到分割效果不佳的情况下,使用本文算法可以得到较好的分割结果。支架分割定性结果说明本文算法在分割性能上优于DP算法。

为了能直观显示支架贴壁情况,使用VTK进行支架3D可视化,血管内BVS支架3D重建模型横截面如图7(a)所示,图中导丝用中心柱状表示,冠状动脉血管位于最外侧,血管内层为组织。BVS支架3D重建模型横截面如图7(b)所示,图中柱状物代表BVS支架,其中贴壁良好、内嵌和贴壁不良的支架可以被直观显示出来。图中D代表远端,P代表近端,很明显,冠状动脉血管近端一般比远端直径大,支架更难贴合血管壁,所以存在更多的贴壁不良支架。血管内BVS支架3D重建图有利于更加直观和有效地进行支架贴壁情况分析。

图 6. 支架分割结果对比图。(a)~(d)使用DP算法得到的支架分割结果;(e)~(h)使用本文中角点检测方法得到的支架分割结果

Fig. 6. Comparison of strut segmentation results. (a)-(d) Results of BVS strut segmentation using DP algorithm; (e)-(h) results of BVS strut segmentation using proposed algorithms

下载图片 查看所有图片

图 7. BVS支架3D重建模型图。(a)含有冠状动脉血管的BVS支架3D重建图;(b)去除冠状动脉血管的BVS支架3D重建图

Fig. 7. 3D reconstruction models of BVS struts. (a) 3D reconstruction model of BVS strut with coronary artery; (b) 3D reconstruction model of BVS strut without coronary artery

下载图片 查看所有图片

3.4.2 定量结果

本文算法和DP算法分别在8个回拉上进行测试,定量结果如表1中所示。表1中的第2列和第3列分别为每个回拉中包含支架的有效IVOCT图像的个数和支架的个数。第4列为8个回拉各自的角点检测误差和全部回拉的平均误差,8个回拉的平均角点检测误差为(28.99±19.39) μm,即约为(2.90±1.94) pixel。考虑到支架的尺度和支架角点范围,该角点检测误差是允许的。这说明本文中提出的角点检测算法是准确有效的。第6列和第7列分别为使用DP算法和本文算法得到的8个回拉的定量分割结果,分割结果用Dice系数进行评价。通过对比可以看出使用本文提出的算法,每个回拉的Dice系数均得到有效提升,且8个回拉的Dice系数均值由DP算法的0.80提升到了0.88,Dice均值提升了0.08, 这对于支架贴壁情况分析来说,具有很大的临床应用价值,也证明了本文算法的有效性。

表 1. 支架检测与分割结果

Table 1. Results of strut detection and segmentation

Data setNo. FNo. GTEcp /μmSegmentation(Dice)
Method in Ref.[10]Proposed
No.18169124.77±15.080.800.90
No.211992827.88±20.390.790.89
No.3118117231.45±20.480.800.87
No.47860425.27±18.450.820.89
No.5147118830.68±19.840.820.88
No.68663529.80±19.540.800.89
No.77660327.84±19.360.790.89
No.8150124030.23±19.960.800.87
Average--28.99±19.390.800.88
No. F: number of frames evaluated; No. GT: number of ground truth

查看所有表

4 结论

提出了一种基于角点检测进行IVOCT图像中BVS支架轮廓分割的算法。该算法利用了支架具有四边形外观的先验信息,由4个角点得到支架轮廓。首先,使用机器学习的方法,训练角点分类器;其次,检测支架候选角点,并后处理得到4个支架角点;最后得到支架轮廓,从而可以进行支架贴壁情况的自动分析。本文算法将BVS支架轮廓分割问题转化为支架角点检测问题,避免了DP算法在分割过程中受到血液伪影和支架断裂等问题的影响。实验结果显示,本文算法对BVS支架分割具有较高的准确性和较好的稳健性,且分割性能较DP算法有较大的提升。基于有效的支架分割结果,可以实现支架贴壁情况的自动分析。后续工作将围绕BVS支架三维重建展开,以在支架植入过程中给予医生临床上实时有效的指导。

参考文献

[1] Forouzanfar M H, Afshin A, Alexander L T. et al. Global, regional, and national comparative risk assessment of 79 behavioural, environmental and occupational, and metabolic risks or clusters of risks, 1990-2015: a systematic analysis for the Global Burden of Disease Study 2015[J]. The Lancet, 2016, 388(10053): 1659-1724.

[2] Gurajala I, Gopinath R. Perioperative management of patient with intracoronary stent presenting for noncardiac surgery[J]. Annals of Cardiac Anaesthesia, 2016, 19(1): 122-131.

[3] Kereiakes D J, Onuma Y, Serruys P W, et al. Bioresorbable vascular scaffolds for coronary revascularization[J]. Circulation, 2016, 134(2): 168-182.

[4] Kotani J I, Awata M, Nanto S, et al. Incomplete neointimal coverage of sirolimus-eluting stents[J]. Journal of the American College of Cardiology, 2006, 47(10): 2108-2111.

[5] Gogas B D, Farooq V, Onuma Y, et al. The ABSORB bioresorbable vascular scaffold: an evolution or revolution in interventional cardiology?[J]. Hellenike Kardiologike Epitheorese, 2012, 53(4): 301-309.

[6] Serruys P W, Ormiston J A, Onuma Y, et al. A bioabsorbable everolimus-eluting coronary stent system (ABSORB): 2-year outcomes and results from multiple imaging methods[J]. The Lancet, 2009, 373(9667): 897-910.

[7] Gonzalo N, Serruys P W, Piazza N. et al. Optical coherence tomography (OCT) in secondary revascularisation: stent and graft assessment[J]. EuroIntervention, 2009, 5(Suppl D): D93-D100.

[8] Tearney G J, Regar E, Akasaka T, et al. Consensus standards for acquisition, measurement, and reporting of intravascular optical coherence tomography studies: a report from the international working group for intravascular optical coherence tomography standardization and validation[J]. Journal of the American College of Cardiology, 2012, 59(12): 1058-1072.

[9] Wang A C, Nakatani S, Eggermont J, et al. Automatic detection of bioresorbable vascular scaffold struts in intravascular optical coherence tomography pullback runs[J]. Biomedical Optics Express, 2014, 5(10): 3589-3602.

[10] 鲁逸峰, 金琴花, 荆晶, 等. 基于机器学习的可降解支架检测与分割算法[J]. 光学学报, 2018, 38(2): 0215005.

    Lu Y F, Jin Q H, Jing J, et al. Detection and segmentation algorithm for bioresorbable vascular scaffolds struts based on machine learning[J]. Acta Optica Sinica, 2018, 38(2): 0215005.

[11] Lu YF, Cao YH, Jin QH, et al. Adaboost-based detection and segmentation of bioresorbable vascular scaffolds struts in IVOCT images[C]//2017 IEEE International Conference on Image Processing (ICIP), September 17-20, 2017, Beijing, China. New York: IEEE, 2017: 4432- 4436.

[12] Moravec HP. Obstacle avoidance and navigation in the real world by a seeing robot rover[R]. Stanford,USA: Stanford University, 1980.

[13] Harris CG, StephensM. A combined corner and edge detector[C]//Proceedings of 4th Alvey Vision Conference. [S.l.: s.n.], 1988, 15( 50): 10- 5244.

[14] Smith S M, Brady J M. SUSAN—a new approach to low level image processing[J]. International Journal of Computer Vision, 1997, 23(1): 45-78.

[15] Ojala T, Pietikäinen M, Harwood D. A comparative study of texture measures with classification based on featured distributions[J]. Pattern Recognition, 1996, 29(1): 51-59.

[16] LienhartR, Maydt J. An extended set of Haar-like features for rapid object detection[C]//Proceedings of International Conference on Image Processing, September 22-25, 2002, Rochester, NY, USA. New York: IEEE,2002, I: 900- 903.

[17] DalalN, TriggsB. Histograms of oriented gradients for human detection[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05), June 20-25, 2005, San Diego, CA, USA. New York: IEEE, 2005: 886- 893.

[18] Bay H, Ess A, Tuytelaars T, et al. Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.

[19] Mikolajczyk K, Schmid C. A performance evaluation of local descriptors[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(10): 1615-1630.

[20] Viola P, Jones M J. Robust real-time face detection[J]. International Journal of Computer Vision, 2004, 57(2): 137-154.

[21] Ojala T, Pietikainen M, Maenpaa T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987.

[22] Freund Y, Schapire R E. A decision-theoretic generalization of on-line learning and an application to boosting[J]. Journal of Computer and System Sciences, 1997, 55(1): 119-139.

[23] Cao Y H, Jin Q H, Chen Y D, et al. Automatic side branch ostium detection and main vascular segmentation in intravascular optical coherence tomography images[J]. IEEE Journal of Biomedical and Health Informatics, 2018, 22(5): 1531-1539.

姚林林, 金琴花, 荆晶, 陈韵岱, 曹一挥, 李嘉男, 朱锐. 基于角点检测的可降解支架轮廓分割算法[J]. 光学学报, 2019, 39(7): 0715001. Linlin Yao, Qinhua Jin, Jing Jing, Yundai Chen, Yihui Cao, Jianan Li, Rui Zhu. Corner Detection-Based Segmentation Algorithm of Bioresorbable Vascular Scaffold Strut Contours[J]. Acta Optica Sinica, 2019, 39(7): 0715001.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!