激光与光电子学进展, 2019, 56 (19): 191502, 网络出版: 2019-10-12  

基于高置信度更新的多滤波器协同跟踪算法 下载: 835次

Multi-Filter Collaborative Tracking Algorithm Based on High-Confidence Updating Strategy
作者单位
江南大学物联网工程学院轻工过程先进控制教育部重点实验室, 江苏 无锡 214122
摘要
提出一种基于高置信度模型更新策略的多相关滤波器协同跟踪算法。利用卷积网络结构VGG-Net-19提取目标周围区域的多层卷积特征,构造深度滤波器,以自适应的特征融合策略实现目标初定位;建立尺度滤波器以检测目标的尺寸变化;利用主次峰坡度比作为跟踪置信度指标,设计一种高置信度下的模型更新策略;当跟踪置信度不足时,通过EdgeBox方法提取目标候选区域,利用设计的重检测滤波器,确定目标的最终位置。在标准数据集OTB-100和TC-128上的实验结果表明,本文算法取得了较高的跟踪精度,在目标发生遮挡、光线变化、出视野等复杂情况时,算法依旧可以稳健地跟踪。
Abstract
A multi-filter collaborative tracking algorithm based on high-confidence updating strategy is proposed. First, the multi-layer convolutional features of the region around the target are extracted using VGG-Net-19, which is a convolutional network architecture, followed by an adaptive feature fusion strategy with the designed deep filter to get the initial position of the target. Meanwhile, a scale filter is constructed to detect the size change of the target. Then, a tracking confidence indicator named primary and secondary peak slope ratio is utilized, which helps to build a high-confidence model updating strategy. Finally, when the confidence is insufficient, the object region proposals are extracted by EdgeBox method, and the final position of the target is determined by the designed re-detection filter. The experimental results on OTB-100 and TC-128 datasets show that the proposed algorithm achieves high tracking precision and also tracks steadily under some complex circumstances, such as occlusion, illumination variation, and out-of-view.

1 引言

目标跟踪是计算机视觉领域的一个重要问题,在视频监控、人机交互、自动驾驶等领域都有广泛的应用[1]。视觉跟踪的典型场景是在第一帧中以包围框的形式给定任意一个目标的初始位置和尺寸,跟踪器需要在接下来的图像序列中预测出该物体的位置。尽管最近几十年跟踪领域取得了重大的突破,但受光照变化、遮挡、背景干扰等诸多影响,目标外观的变化性很大,因此视觉跟踪仍然是一个极具挑战性的问题。

近年来,基于相关滤波的跟踪器由于具有较好的准确度和实时性,吸引了相关学者的广泛关注。Bolme等[2]利用图像的灰度特征构建了一个最小输出平方误差和的跟踪器模型,开创了相关滤波在视觉目标跟踪领域的先河;Henriques等[3]对循环移位密集采样得到的图像块进行傅里叶变换,在频域内高效地训练滤波器,并使用方向梯度直方图(HOG)特征提升对目标的描述能力,极大地提高了跟踪器的准确性;Danelljan等[4]将颜色属性特征引入相关滤波框架,使得跟踪器能更好地适应彩色序列;Bertinetto等[5]在相关滤波框架下将HOG 特征和颜色统计特征进行融合互补,进一步提升了跟踪性能。为解决跟踪过程中目标的尺度变化,Li等[6]结合尺度金字塔与相关滤波,对不同尺度的图像块进行检测,以最大响应值对应的尺度作为当前最佳尺度;Danelljan等在文献[ 7]中提出一维尺度滤波器,并在文献[ 8]中通过减少尺度检测数以及对HOG特征进行降维,提高了跟踪速度。

上述跟踪算法都是采用传统的手工特征对目标进行描述,近些年,由卷积神经网络提取的深度特征在很多视觉任务上都取得了不错的表现,在视觉跟踪领域,基于深度特征的跟踪算法[9-13]也表现出了优秀的性能。Ma等[9]提出基于分层卷积特征的目标跟踪算法,利用3层卷积特征和由粗糙到细粒的搜索思想来确定目标位置;Qi等[12]在充分利用多层卷积特征的基础上,采用自适应对冲方法将多个弱跟踪器融合为一个强跟踪器,进一步提升了跟踪精度;Wang等[13]通过分析卷积网络不同层提取的特征,构建了特征筛选网络和两个互补的预测网络,有效抑制跟踪器的漂移。

模型更新也是跟踪器的一个重要组成部分。大多数现有的跟踪算法采用逐帧更新的方式,以适应目标的外观变化,但是当目标被干扰时,这种更新方式极易导致跟踪漂移。最近,一些学者从响应图的角度考虑模型更新问题,Ma等[14]利用响应图的最大峰值判别是否更新;Wang等[15]提出平均峰值相关能量,从响应图的波动程度确定更新策略。

尽管上述算法在跟踪领域已经做出了巨大的改进,但是它们大多针对某一个方面去完善,因此在整体的跟踪成功率和稳健性上仍然有待提高,尤其是在一些复杂场景下,如目标被严重遮挡甚至出视野时,这些算法都极易跟踪失败。为此,本文结合位置预测、尺度估计、模型更新,提出一种基于高置信度更新策略的多滤波器协同跟踪算法。在相关滤波框架下,设计一种多滤波器协同合作的方式以实现目标跟踪,提出一种跟踪置信度指标(主次峰坡度比)用以判断跟踪结果是否可靠,并依据该指标设计了高置信度下的更新策略,有效减缓了模型退化问题;利用本文算法在OTB-100[16]和TC-128[17]这2个大规模数据集上进行测试。通过详细的实验,来验证本文跟踪算法具有较高的跟踪精度与稳健性。

2 基于高置信度更新策略的多滤波器协同跟踪算法

设计3种相关滤波器协同完成跟踪任务,分别从位置计算、尺度估计、目标丢失后的重检测这3个角度考虑,构建不同的滤波器,相互合作。相比之前的跟踪算法,本文算法更加全面,能有效提升整体的跟踪成功率。同时,与传统的相关滤波类方法的模型更新策略相比,本文算法使用更可靠的高置信度更新策略,能减少误差积累,缓解模型退化问题。

2.1 基于深度滤波器的目标初定位

由于不同深度的卷积层对物体的表达能力不一致,为充分描述目标的外观,使用VGG-19深度卷积网络的Conv1-2, Conv2-2, Conv3-4, Conv4-4和Conv5-4这5层来提取目标特征,构建深度滤波器。给定跟踪目标的多通道卷积特征x,x的大小是M×N×D,其中,M,N,D分别表示宽度、高度和通道数。将目标图像块沿着水平和垂直方向分别进行循环移位,得到M×N个循环移位样本xm,n, 这些训练样本的标签满足高斯分布:

ym,n=exp-(m-M/2)2+(n-N/2)22σ2,(1)

式中,ym,n为第m行第n列样本的标签,m为行数,n为列数,σ为高斯核带宽。通过求解最小化问题来获得相关滤波器W,最优滤波器可表示为

W*=argminWm,nW·xm,n-ym,n2+λW22,(2)

式中,λ是正则项系数,用来抑制过拟合,λ≥0。在每一个独立的特征通道使用快速傅里叶变换得到(2)式的闭式解。第d个特征通道上的最优滤波器在频域内可表示为

Wd=YX¯di=1DXiX¯i+λ,(3)

式中,i为第i个特征通道,Y,X,W分别为y,x,w的离散傅里叶变换,y为空域下的样本标签,w为空域下的滤波器, X-X的共轭复数,☉为点乘运算。给定目标潜在区域的多通道特征z,z的大小也是M×N×D,其离散傅里叶变换为Z,特征响应可表示为

f=F-1(d=1DWdZ¯d),(4)

式中,F-1是傅里叶逆变换, Z-Z的共轭复数。利用(4)式求得所用5个卷积层的特征响应图fl,l为卷积层索引,l∈{1,2,3,4,5},通过自适应地融合这5层响应图,以最大响应位置作为目标中心点,即完成了目标的初定位。

采用的自适应融合策略由2部分组成。首先,因为深层特征可以从高级的语义层面描述目标,相比浅层特征更具备泛化性和稳健性,因此赋予深层特征图更大的固定权值,为

μA,l={2-4,2-3,2-2,2-1,1}(5)

由于最大响应值在一定程度上可以反映跟踪置信度,同时观察到浅层特征响应图的最大响应值比深层的大,因此采用自适应的方式进行处理:

μB,l=1max(fl)l=151max(fl)(6)

对(5)式和(6)式进行融合得到不同层相应的权重,可表示为

μl=μA,lμB,ll=15μA,lμB,l,(7)

通过寻找融合特征响应图的最大值所在的位置来确定目标此时的中心位置:

argmaxx,yl=15μlfl(x,y)(8)

2.2 基于高置信度的模型更新策略

相关滤波跟踪器通常采用逐帧更新模型的方式,以适应目标发生的一系列变化,实际上,这很容易产生模型退化问题。当某一帧已经跟踪不准确甚至漂移的时候,尤其是当目标已经被遮挡或发生出视野的情况时,如果仍然更新模型,跟踪器就会学习到遮挡物和杂乱背景这些不是目标本身的特征,误差逐渐累积,模型被逐渐污染,等到物体重新出现时,跟踪器最终无法识别出目标导致跟踪失败。

为解决模型退化问题,以跟踪结果响应图作为反馈,确定是否需要在当前帧更新模型。理想的响应图应当是只有一个尖锐的单峰且该峰值较大,其他部分都比较平滑,这意味着跟踪器完美地匹配上目标。而当响应图出现多峰,且波动程度较大时,跟踪器此时感受到的物体不一定是真实的目标,很大程度上已经发生了漂移,此时就应当停止模型的更新,防止跟踪器被污染。因此本文提出一种跟踪结果置信度指标,即主次峰坡度比RPSPS,可表示为

RPSPS=ymax_P-ymax_Sexp1/xmax_P_x-xmax_S_x2+ymax_P_y-ymax_S_y2s.t.ymax_S>ymax_P3,(9)

式中:ymax_P表示最大峰值,即主峰值;ymax_S表示第二峰值,即次峰值。(xmax_P_x,ymax_P_y)和(xmax_S_x,ymax_S_y)分别表示主峰、次峰所在的横纵坐标。RPSPS值结合响应图的最大值与波动程度的关系如图1所示,当响应图接近理想状态时,副峰值很小且距离主峰较远,此时RPSPS值较大;当响应图振荡较大时,主峰与副峰很接近,包括峰值上的接近和距离上的接近,此时RPSPS值就会很小。

图 1. Box序列的跟踪结果与响应图。(a)~(c)第199、462、505帧图像;(d)~(f)第199、462、505帧图像的响应图

Fig. 1. Tracking results and response maps in Box sequence. (a)-(c) 199th, 462nd, and 505th frame images; (d)-(f) 199th, 462nd, and 505th frame response maps

下载图片 查看所有图片

利用RPSPS作为跟踪结果置信度指标,决策是否需要进行模型更新,采用线性插值方式,同时对滤波器 Wtd的分子分母进行更新,具体为

Atd=(1-εη)At-1d+εηYX-dBtd=(1-εη)Bt-1d+εηi=1DXtiX-tiWtd=AtdBtd+λ,(10)ε=1,RpspsTup0,Rpsps<Tup,(11)

式中, Atd为第t帧滤波器第d个特征的分子部分, Btd为第t帧滤波器第d个特征的分母部分,ε为判断是否需要更新的标志位,η为更新速率,Tup为决策更新的阈值,上标(d)为第d个特征通道,下标t为第t帧。

图1可以看出,使用高RPSPS值时更新的策略可以有效缓解模型退化问题。以Box序列为例,目标在461~488帧期间被严重遮挡,RPSPS衰减至接近0,此时选择不更新模型,防止模型被遮挡物污染,当目标重新出现时,跟踪器成功找回目标。图2为2种更新策略在Box序列的中心位置误差。可以看出,如果采用传统的逐帧更新的方式,在发生严重遮挡后,跟踪器随即丢失并且再也无法匹配上目标。

图 2. Box序列在2种更新策略下的中心位置误差

Fig. 2. Center location errors of two updating strategies in Box sequence

下载图片 查看所有图片

另外,对于大多数相关滤波类的由响应图决策跟踪结果的跟踪算法,主次峰坡度比这一置信度指标可以便捷地帮助跟踪器判断当前跟踪结果是否可靠,及时减少误差的积累。

2.3 目标重检测机制

当目标发生遮挡、出视野等情况时,虽然利用高置信度模型更新策略可以有效缓解模型退化问题,但是依然存在跟踪失败的情况,为进一步提升跟踪器的成功率,本文建立低置信度下的目标重检测机制。该机制由2部分组成:1)使用EdgeBox[18]在一定搜索范围内生成潜在的目标框;2)构建基于Hog特征的重检测滤波器,使用其对潜在的目标框进行评分,当满足一定条件时采用重检测的结果。

2.3.1 EdgeBox检测器

EdgeBox方法利用物体的边缘信息可以快速地提取出高质量的目标候选区域,与传统的滑动窗口扫描整幅图像相比,该方法可以消除大量冗余的窗口,筛选出较精确地包含目标的候选框。一些研究人员也将该方法应用在跟踪领域[19-21]

2.3.2 重检测滤波器

在深度滤波器得到目标中心后,裁剪出与目标尺寸相同的区域并提取该区域的HOG特征,然后使用重检测滤波器计算该区域的响应,设定T0Tre这2个阈值来判断是否跟踪失败,如果响应的峰值小于T0且响应的RPSPS值小于Tre,那么就认为深度滤波器得到的目标中心不准确,需要通过重检测滤波器再次定位。利用EdgeBox方法生成高质量的候选框Bi,提取候选框内区域的HOG特征,再次利用重检测滤波器计算每一个候选框的响应值g,得到目标的最终位置为

argmaxjgRPSPS(Bj)s.t.gRPSPS(Bj)>1.5Tregmax(Bj)>1.5T0,(12)

式中,gRPSPS(Bj)和gmax(Bj)分别为第j个候选框的响应RPSPS值及其最大值。

2.4 尺度估计

在得到目标的中心位置后,对目标区域的图像块进行缩放,构建图像金字塔,完成多尺度采样。每个图像块的大小为

Sk,t=akwt-1×akht-1,(13)

式中,Sk,t表示第t帧第k个图像块的大小,k-n-12,,n-12,n表示采样数目,a表示尺度因子,wt-1ht-1分别表示第t-1帧目标的宽度和高度。提取不同尺度图像块的HOG特征,构建尺度滤波器:

Hs=GsF¯sFsF¯s+λs,(14)

式中,Gs是尺度滤波器的标签经傅里叶变换后的频域表示,Fs是图像块的HOG特征经傅里叶变换后的频域表示, F¯sFs的共轭复数,λs是尺度正则项系数。检测当前帧的尺度时,提取不同尺度因子下图像块的HOG特征Fs,则不同尺寸因子的响应值为

fs=F-1d=1DF¯sHs(15)

选择最大响应值对应的尺度因子,完成当前帧目标的尺度估计。同时,为提高算法速度,只有当初定位后得到的响应RPSPS值超过尺度更新阈值Ts时,才进行尺度估计。

2.5 算法流程

图3为关键环节的具体步骤,图4为整体的框架,记输入图像序列为I

图 3. 算法具体步骤

Fig. 3. Specific steps of the proposed algorithm

下载图片 查看所有图片

图 4. 本文算法的整体框架

Fig. 4. Overall framework of the proposed algorithm

下载图片 查看所有图片

3 实验结果与分析

3.1 实验平台与参数设置

实验算法采用Matlab与C++混合编程,均在Windows 10操作系统下进行。处理器为Intel i7-8700,主频是3.20 GHz,内存是16 G,显卡是NVIDIA Geforce GTX 1070,显存是8 G。算法主要参数:模型更新率η为0.01,深度滤波器模型更新的阈值Tupc和进行尺度估计的阈值Ts为0.075,进行重检测的阈值T0Tre分别为0.3和0.075,重检测滤波器的更新阈值Tupr为0.45。尺度检测参数:尺度因子a为1.02,尺度采样数目n为33。EdgeBox中提取的最大候选框数目在权衡算法速率后选择为200。

3.2 实验数据与评估方式

为充分验证跟踪算法的精确性与稳健性,首先采用OTB-100标准数据集中全部100个序列进行测试,这100个序列包含快速运动、尺度变化、遮挡、出视野等11个跟踪领域常见的难点,因此能够对跟踪算法进行全面且客观的评价。

实验采用一次通过评估(OPE)的方式,即根据第一帧中对目标的标注位置进行初始化,然后在该序列中运行算法直至结束。实验采用距离精度和成功率曲线下的面积这2个指标来衡量跟踪算法的准确性。

1) 距离精度:中心位置误差小于20 pixel的帧数占视频总帧数的百分比。中心位置误差为算法跟踪的目标中心与实际目标中心的欧氏距离,可表示为

VCLE=(xT-xG)2+(yT-yG)2,(16)

式中,(xT,yT)是跟踪算法预测的目标中心,(xG,yG)是真实的目标中心。

2) 成功率: 跟踪算法预测的目标包围框与真实标注的包围框的交并比(IOU)大于0.5的帧数占视频总帧数的百分比。IOU的计算公式为

S=RTRGRTRG,(17)

式中,RT是跟踪算法预测目标的包围框,RG是目标真实标注的包围框。本实验利用成功率图曲线下的面积(AUC)作为跟踪算法成功率性能的准则。

3.3 实验设计与分析

为充分验证所提算法的跟踪性能,将其与8种主流算法进行对比,具体包括核相关滤波跟踪器(KCF),多尺度跟踪器(DSST),多特征融合跟踪器(Staple),空间正则化相关滤波跟踪器[22](SRDCF),卷积神经网络-支持向量机跟踪器[23](CNN-SVM),分层卷积网络跟踪器(HCF),对冲多卷积特征跟踪器(HDT)和长短时记忆跟踪器[24](LCT2)。其中,KCF、 DSST、Staple、 SRDCF和LCT2是基于传统特征的相关滤波类方法,CNN-SVM、 HCF、 HDT是基于深度特征的相关滤波类方法。

3.3.1 定性分析

图5为9种算法在9组具有各种难点的视频序列上的跟踪结果,这9组序列的属性见表1。其中,IV为光照变化,SV为尺度变化,OCC为目标被遮挡,DEF为目标形变,MB为运动模糊,FM为快速运动,IPR为平面内旋转,OPR为平面外旋转,OV为目标出视野,BC为背景扰动,LR为图像低分辨率。

图 5. 9种跟踪算法在9组序列下的结果。(a) Lemming; (b) Human3;(c) Girl2;(d) DragonBaby;(e) MotorRolling;(f) Human7;(g) Skiing;(h) Shaking;(i) Tiger2

Fig. 5. Results of nine tracking algorithms for nine sequences. (a) Lemming; (b) Human3; (c) Girl2; (d) DragonBaby; (e) MotorRolling; (f) Human7; (g) Skiing; (h) Shaking; (i) Tiger2

下载图片 查看所有图片

表 1. 9组视频序列及其属性与帧数

Table 1. Attributes and frame numbers of 9 video sequences

SequenceAttributesFrame number
DragonBabySV, OCC, MB,FM, IPR, OPR, OV113
Human3SV, OCC, DEF, OPR, BC1698
MotorRollingIV, SV, MB, FM,IPR, BC, LR164
SkiingIV, SV, DEF, IPR, OPR81
ShakingIV,SV, IPR, OPR, BC365
Tiger2IV, OCC, DEF, MB,FM, IPR, OPR, OV365
Girl2SV, OCC, DEF, MB, OPR1500
Human7IV, SV, OCC, DEF, MB, FM250
LemmingIV, SV, OCC, FM, OPR, OV1336

查看所有表

从目标被遮挡、目标快速运动和光照变化这3个方面对本文算法与8种对比算法进行分析。

1) 目标被遮挡:以Lemming,Human3和Girl2这3个长时序列为例,图5(a)~(c)为9种跟踪算法在这3个序列部分帧上的表现。这3个序列都存在部分遮挡和完全遮挡的情况,其中Lemming, Human3和Girl2序列分别在第341~359帧,第50~59帧和第108~122帧发生完全遮挡,当目标重新出现时,大部分跟踪器都无法再跟上目标,而本文算法可以在发生严重遮挡后重新找回目标,表现了良好的稳健性和长时跟踪的准确性。抗遮挡性要归功于本文所采用的高置信度模型更新策略和重检测滤波器,其他算法由于采用逐帧更新的方式,在目标被遮挡时模型会学习到遮挡物的特征,导致误差随时间的推移逐步积累,模型会被遮挡物严重污染,而且除LCT2以外,其他算法都没有重检测模块,因此当目标重新出现后,跟踪器无法再匹配上目标,从而产生漂移,而LCT2虽然具备重检测模块,但是由于其特征无法区分目标与背景,因此早早地跟丢了目标。另外,在Girl2序列中,如果只是采用高置信度模型更新策略,在发生完全遮挡后依旧跟踪失败,当加上重检测滤波器后才得以找回目标。

2) 目标快速运动:以DragonBaby,MotorRolling和Human7这3个序列为例,图5(d)~(f)为9种跟踪算法在这3个序列部分帧上的表现。这3个序列中都包含了剧烈的快速运动,相邻帧的目标中心位置可能会相距比较大,同时又都具备运动模糊,进一步加大了跟踪难度。可以看出本文算法在这些困难环境下都取得了较好的结果,同时对于尺度的变化也能及时做出调整。其他算法中基于深度特征的跟踪器(HDT、 CNN-SVM、 HCF)虽然可以准确计算出目标中心位置,但在尺度方面都没有做出应对,而基于传统特征的跟踪器由于特征对外界变化比较敏感,因此极易产生漂移现象,导致跟踪失败。

3)光照变化:以Skiing,Shaking和Tiger2这3个序列为例,图5(g)~(i)为9种跟踪算法在这3个序列部分帧上的表现。Skiing序列中运动员从第5~30帧完成了360°的空翻,所有的传统特征类方法全部失败,只有基于深度特征的算法可以跟上目标。Shaking序列中吉他手周边的环境光线变化非常剧烈,在第61帧发生强光照时,Staple,KCF和DSST算法立刻产生漂移并再也没有找回目标,而本文算法自始至终都没有受外界光照影响,可以紧跟目标。Tiger2序列中目标在灯光照射下明暗不一并伴随部分遮挡现象,本文算法凭借强大的深度特征和灵活的模型更新策略依旧可以准确地跟踪目标。可以看出,深度特征具备很强的语义信息,对颜色变化、形变、光照变化都具备较强的稳健性,因此基于深度特征的跟踪器相对于传统特征的跟踪器而言,抗干扰能力更强。

3.3.2 定量分析

图6为本文算法对比其他8种算法的整体跟踪性能,包括距离精度图和成功率图。在这2个评价指标上,本文算法均排名第一。距离精度图中本文算法的得分为0.862,领先第二、第三和第四的HDT(0.848)、HCF(0.842)和CNN-SVM(0.814)各1.4%,2%,4.8%。值得一提的是,本文算法与这3种算法都是基于深度特征的算法,而基于深度特征的跟踪器在中心距离精度上明显优于基于传统特征的跟踪器。成功率图中本文算法得分为0.625,领先第二、第三和第四的SRDCF(0.598)、Staple(0.578)和HCF(0.565)各2.7%,4.7%,6%。尤其是与相似的HCF跟踪器相比,本文算法由于结合尺度滤波器、重检测滤波器及更稳健的模型更新方式,同时扩充使用5层卷积特征,因此跟踪成功率可得到较大的提升。

图 6. 9种算法在OTB-100序列上的总体跟踪性能。(a)距离精度曲线;(b)成功率曲线

Fig. 6. Overall performance of 9 tracking algorithms on OTB-100. (a) Distance precision curve; (b) success rate curve

下载图片 查看所有图片

表2表3分别为本文算法对比其他8种算法在11种不同属性的距离精度和AUC值。在距离精度上,本文算法在FM, BC,MB,IV, OCC,OPR,OV和SV这8个属性上均为最优,尤其是在背景干扰、遮挡和出视野这3项属性上分别超过第二名跟踪器3.8%,3.7%和7.4%。在成功率AUC指标上,本文算法除在LR这个属性上落后SRDCF处于次优,在其他10个属性上均为最优。尤其是在背景干扰、运动模糊和出视野这3项属性上分别超过第二名的跟踪器5.2%, 5.4%和8.4%。

3.3.3 算法结构分析

为说明本文算法的有效性,设计了组内对照实验。将本文算法拆分成3个部分:没有重检测滤波器同时采用逐帧更新的方式(Alg1),没有重检测滤波器但是采用高置信度更新的策略(Alg2),有重检测滤波器但采用逐帧更新的方式(Alg3)。用这3种跟踪方法与本文算法在100个序列上进行测试,图7为总体的跟踪性能。可以看出,本文算法由于结合了重检测滤波器与高置信度更新策略,总体上性能均达到最优。其中,只有在高置信度下更新模型的策略取得了与本文算法比较接近的效果,这充分验证主次峰坡度比作为置信度指标的可靠性。而本文算法又在此基础上增加了重检测模块,因此能够在目标被严重遮挡甚至出视野的情况下依旧能够成功找回目标,进一步提升了总体的成功率。

表 2. 9种算法在11种属性上的距离精度值

Table 2. Distance precision scores of nine algorithms in terms of 11 attributes

AlgorithmFMBCMBDEFIVIPRLROCCOPROVSV
Ours0.8220.8820.8330.8210.8660.8550.8700.8150.8500.7510.830
HDT0.8170.8440.7890.8170.8200.8440.8870.7740.8050.6630.808
HCF0.8150.8430.8040.7910.8310.8640.8470.7780.8160.6770.799
CNN-SVM0.7470.7760.7510.7930.7950.8130.9250.7300.7980.6500.787
SRDCF0.7690.7750.7670.7340.7920.7450.7650.7350.7420.5970.745
Staple0.7100.7490.6990.7510.7820.7680.6950.7280.7380.6680.727
LCT20.6810.7340.6690.6890.7460.7810.6990.6820.7460.5920.681
KCF0.6210.7130.6010.6170.7190.7010.6710.6300.6770.5010.633
DSST0.5710.7040.5680.5500.7220.6980.6840.6030.6550.4780.649

查看所有表

表 3. 9种算法在11种属性上的AUC值

Table 3. AUC scores of nine algorithms in terms of 11 attributes

AlgorithmFMBCMBDEFIVIPRLROCCOPROVSV
Ours0.6220.6370.6480.5830.6380.5970.4890.6050.6010.5720.583
HDT0.5680.5780.5740.5430.5350.5550.4010.5280.5330.4720.486
HCF0.5700.5850.5850.5300.5490.5660.3880.5320.5400.4740.485
CNN-SVM0.5460.5480.5780.5470.5370.5480.3790.5150.5480.4880.490
SRDCF0.5970.5830.5940.5440.6130.5440.5140.5590.5500.4600.561
Staple0.5410.5610.5400.5500.5930.5480.3990.5420.5330.4760.520
LCT20.5070.5280.5160.4820.5170.5290.3300.4770.5050.4460.430
KCF0.4590.4980.4590.4360.4790.4690.2900.4430.4530.3940.394
DSST0.4580.5230.4690.4270.5590.5050.3820.4600.4770.3860.475

查看所有表

图 7. OTB-100上的算法结构总体分析。(a)距离精度曲线;(b)成功率曲线

Fig. 7. Overall analysis of algorithm structure on OTB-100. (a) Distance precision curve; (b) success rate curve

下载图片 查看所有图片

3.3.4 置信度参数的设定

本文算法采用高置信度的模型更新策略,因此深度滤波器的更新阈值Tupc对跟踪成功率有着重要的意义。如果Tupc较大,就意味着更新条件较严格,模型会学习到更加可靠的目标特征,但也会在一定程度上忽略目标细微的变化;如果Tupc较小,那么模型的学习又相对容易受到干扰物的影响导致误差积累。因此,为找到最优的更新阈值,设定Tupc的取值集合S={0.050,0.075,0.100,0.125},在OTB-100数据集上进行逐一测试,结果如图8所示。记Tupc取值分别为0.050,0.075,0.100,0.125时算法名称为T1,ours,T2,T3。可以看出,当Tupc取值为0.075时,算法的跟踪效果最好。

图 8. 本文算法在OTB-100序列上不同的更新阈值参数下的结果。(a)距离精度曲线;(b)成功率曲线

Fig. 8. Overall performance of our algorithm under different updating parameters on OTB-100. (a) Distance precision curve; (b) success rate curve

下载图片 查看所有图片

3.3.5 算法时间分析

表4列出了本文算法与其他8种对比算法在OTB-100序列上的平均速度,其中,“-”表示没有给出算法的平均速率。可以看出,与使用传统的手工特征的跟踪器(表中后5种算法)相比,基于深度特征的跟踪器(表中前4种算法)虽然在跟踪成功率上表现得更好,但是相对较慢。本文跟踪算法相对HCF算法的跟踪成功率有较大提高,但是由于引入尺度估计和重检测机制,即使通过高置信度更新策略可以起到一定的提速作用,但是总体上速度还是稍慢。

表 4. 9种跟踪算法的平均速度对比

Table 4. Comparison of average tracking speeds of 9 tracking algorithmsframe/s

TrackerOursHDTHCFCNN-SVMSRDCFStapleLCT2KCFDSST
Average tracking speed7.99.113.9-4.356.328.131746.4

查看所有表

3.3.6 TC-128数据集结果评估

为进一步验证本文算法的稳健性,将本文算法与其他算法在TC-128数据集上进行测试,评价标准与OTB-100一致。图9为最终的结果。

图 9. 9种算法在TC-128序列上的总体跟踪性能。(a)距离精度曲线;(b)成功率曲线

Fig. 9. Overall performance of 9 tracking algorithms on TC-128. (a) Distance precision curve; (b) success rate curve

下载图片 查看所有图片

可以看出,本文算法在TC-128序列上仍然表现最优。另外,本文算法在OTB-100和TC-128这2个数据集上使用相同的参数,因此进一步验证本文算法具备较强的稳健性,在不同的环境下都能取得较好的结果。

4 结论

提出一种基于高置信度模型更新策略的多滤波器协同跟踪算法。算法构建3种相关滤波器协同完成跟踪任务。利用多层卷积特征构建深度滤波器,以自适应的特征融合策略进行目标初定位;为解决目标的尺度变化,设计尺度滤波器进行准确的尺度估计;提出一种跟踪置信度指标:主次峰坡度比,用以确定跟踪结果是否可靠,从而决策是否需要更新模型,缓解模型退化问题;设计重检测滤波器,当跟踪结果不可靠时,进行目标重定位。在标准数据集OTB-100和TC-128上进行详实的算法验证,实验结果表明本文算法具备较高的精度与稳健性,尤其是在目标被遮挡、出视野等长时跟踪场景中普遍存在的情况下,依旧可以稳定地跟踪。此外,虽然深度特征对于目标的描述能力与稳健性更强,但是基于深度特征的跟踪算法在速度方面比较慢,因此,未来的研究重点是在保持较高精度的同时提高跟踪器的实时性。

参考文献

[1] Smeulders A W M, Chu D M, Cucchiara R, et al. . Visual tracking: an experimental survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(7): 1442-1468.

[2] Bolme[\s]{1}DS,[\s]{1}Beveridge[\s]{1}JR,[\s]{1}Draper[\s]{1}BA,[\s]{1}et[\s]{1}al.[\s]{1}Visual[\s]{1}object[\s]{1}tracking[\s]{1}using[\s]{1}adaptive[\s]{1}correlation[\s]{1}filters[C]∥2010[\s]{1}IEEE[\s]{1}Computer[\s]{1}Society[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition,[\s]{1}June[\s]{1}13-18,[\s]{1}2010,[\s]{1}San[\s]{1}Francisco,[\s]{1}CA,USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2010:[\s]{1}2544-[\s]{1}2550.[\s]{1}

[3] Henriques J F, Caseiro R, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.

[4] DanelljanM,[\s]{1}Khan[\s]{1}FS,[\s]{1}FelsbergM,[\s]{1}et[\s]{1}al.[\s]{1}Adaptive[\s]{1}color[\s]{1}attributes[\s]{1}for[\s]{1}real-time[\s]{1}visual[\s]{1}tracking[C]∥2014[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition(CVPR),[\s]{1}June[\s]{1}23-28,[\s]{1}2014,[\s]{1}Columbus,OH,[\s]{1}USA.New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2014:[\s]{1}1090-[\s]{1}1097.[\s]{1}

[5] BertinettoL,[\s]{1}ValmadreJ,[\s]{1}GolodetzS,[\s]{1}et[\s]{1}al.[\s]{1}Staple:[\s]{1}complementary[\s]{1}learners[\s]{1}for[\s]{1}real-time[\s]{1}tracking[C]∥2016[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}June[\s]{1}27-30,[\s]{1}2016,[\s]{1}Las[\s]{1}Vegas,[\s]{1}NV,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2016:[\s]{1}1401-[\s]{1}1409.[\s]{1}

[6] LiY,[\s]{1}Zhu[\s]{1}JK.[\s]{1}A[\s]{1}scale[\s]{1}adaptive[\s]{1}kernel[\s]{1}correlation[\s]{1}filter[\s]{1}tracker[\s]{1}with[\s]{1}feature[\s]{1}integration[M][\s]{1}∥[\s]{1}Agapito[\s]{1}L,[\s]{1}Bronstein[\s]{1}M[\s]{1}M,[\s]{1}Rother[\s]{1}C.[\s]{1}Computer[\s]{1}vision-ECCV[\s]{1}2014.[\s]{1}Lecture[\s]{1}notes[\s]{1}in[\s]{1}computer[\s]{1}science.[\s]{1}Cham:[\s]{1}Springer,[\s]{1}2015,[\s]{1}8926:[\s]{1}254-[\s]{1}265.[\s]{1}

[7] DanelljanM,[\s]{1}HägerG,[\s]{1}Khan[\s]{1}FS,[\s]{1}et[\s]{1}al.Accurate[\s]{1}scale[\s]{1}estimation[\s]{1}for[\s]{1}robust[\s]{1}visual[\s]{1}tracking[C]∥British[\s]{1}Machine[\s]{1}Vision[\s]{1}Conference[\s]{1}2014,[\s]{1}September[\s]{1}1-5,[\s]{1}2014,[\s]{1}Nottingham,[\s]{1}British.[\s]{1}Durham,England:[\s]{1}BMVA[\s]{1}Press,[\s]{1}2014.[\s]{1}

[8] Danelljan M, Hager G, Khan F S, et al. Discriminative scale space tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1561-1575.

[9] MaC,[\s]{1}Huang[\s]{1}JB,[\s]{1}Yang[\s]{1}XK,[\s]{1}et[\s]{1}al.[\s]{1}Hierarchical[\s]{1}convolutional[\s]{1}features[\s]{1}for[\s]{1}visual[\s]{1}tracking[C]∥2015[\s]{1}IEEE[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}(ICCV),[\s]{1}December[\s]{1}7-13,[\s]{1}2015,Santiago,[\s]{1}Chile.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2015:[\s]{1}3074-[\s]{1}3082.[\s]{1}

[10] 王鑫, 侯志强, 余旺盛, 等. 基于多层卷积特征融合的目标尺度自适应稳健跟踪[J]. 光学学报, 2017, 37(11): 1115005.

    Wang X, Hou Z Q, Yu W S, et al. Target scale adaptive robust tracking based on fusion of multilayer convolutional features[J]. Acta Optica Sinica, 2017, 37(11): 1115005.

[11] 毛宁, 杨德东, 杨福才, 等. 基于分层卷积特征的自适应目标跟踪[J]. 激光与光电子学进展, 2016, 53(12): 121502.

    Mao N, Yang D D, Yang F C, et al. Adaptive object tracking based on hierarchical convolution features[J]. Laser & Optoelectronics Progress, 2016, 53(12): 121502.

[12] Qi[\s]{1}YK,[\s]{1}Zhang[\s]{1}SP,[\s]{1}QinL,[\s]{1}et[\s]{1}al.[\s]{1}Hedged[\s]{1}deep[\s]{1}tracking[C]∥2016[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}June[\s]{1}27-30,[\s]{1}Las[\s]{1}Vegas,[\s]{1}NV,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2016:[\s]{1}4303-[\s]{1}4311.[\s]{1}

[13] Wang[\s]{1}LJ,[\s]{1}Ouyang[\s]{1}WL,[\s]{1}Wang[\s]{1}XG,[\s]{1}et[\s]{1}al.[\s]{1}Visual[\s]{1}tracking[\s]{1}with[\s]{1}fully[\s]{1}convolutional[\s]{1}networks[C]∥2015[\s]{1}IEEE[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}(ICCV),[\s]{1}December[\s]{1}7-13,[\s]{1}2015,Santiago,[\s]{1}Chile.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2015:[\s]{1}3119-[\s]{1}3127.[\s]{1}

[14] MaC,[\s]{1}Yang[\s]{1}XK,[\s]{1}Zhang[\s]{1}CY,[\s]{1}et[\s]{1}al.[\s]{1}Long-term[\s]{1}correlation[\s]{1}tracking[C]∥2015[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}June[\s]{1}7-12,[\s]{1}2015,[\s]{1}Boston,[\s]{1}MA,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2015:[\s]{1}5388-[\s]{1}5396.[\s]{1}

[15] Wang[\s]{1}MM,[\s]{1}LiuY,[\s]{1}Huang[\s]{1}ZY.[\s]{1}Large[\s]{1}margin[\s]{1}object[\s]{1}tracking[\s]{1}with[\s]{1}circulant[\s]{1}feature[\s]{1}maps[C]∥2017[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}July[\s]{1}21-26,[\s]{1}2017,[\s]{1}Honolulu,[\s]{1}HI,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2017:[\s]{1}4021-[\s]{1}4029.[\s]{1}

[16] Wu Y, Lim J, Yang M H. Object tracking benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848.

[17] Liang P P, Blasch E, Ling H B. Encoding color information for visual tracking: algorithms and benchmark[J]. IEEE Transactions on Image Processing, 2015, 24(12): 5630-5644.

[18] Zitnick[\s]{1}CL,[\s]{1}DollárP.[\s]{1}Edge[\s]{1}boxes:[\s]{1}locating[\s]{1}object[\s]{1}proposals[\s]{1}from[\s]{1}edges[M][\s]{1}∥Fleet[\s]{1}D,[\s]{1}Pajdla[\s]{1}T,[\s]{1}Schiele[\s]{1}B,[\s]{1}et[\s]{1}al.[\s]{1}Computer[\s]{1}vision-ECCV[\s]{1}2014.[\s]{1}Lecture[\s]{1}notes[\s]{1}in[\s]{1}computer[\s]{1}science.[\s]{1}Cham:[\s]{1}Springer,[\s]{1}2014,[\s]{1}8693:[\s]{1}391-[\s]{1}405.[\s]{1}

[19] ZhuG,[\s]{1}PorikliF,[\s]{1}Li[\s]{1}HD.[\s]{1}Beyond[\s]{1}local[\s]{1}search:[\s]{1}tracking[\s]{1}objects[\s]{1}everywhere[\s]{1}with[\s]{1}instance-specific[\s]{1}proposals[C]∥2016[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}June[\s]{1}27-30,[\s]{1}2016,[\s]{1}Las[\s]{1}Vegas,[\s]{1}NV,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2016:[\s]{1}943-[\s]{1}951.[\s]{1}

[20] 葛宝义, 左宪章, 胡永江. 基于特征融合的长时目标跟踪算法[J]. 光学学报, 2018, 38(11): 1115002.

    Ge B Y, Zuo X Z, Hu Y J. Long-term object tracking based on feature fusion[J]. Acta Optica Sinica, 2018, 38(11): 1115002.

[21] Ma C, Huang J B, Yang X, et al. Robust visual tracking via hierarchical convolutional features[J]. IEEE transactions on pattern analysis and machine intelligence, 2018.

[22] DanelljanM,[\s]{1}HagerG,[\s]{1}Khan[\s]{1}FS,[\s]{1}et[\s]{1}al.[\s]{1}Learning[\s]{1}spatially[\s]{1}regularized[\s]{1}correlation[\s]{1}filters[\s]{1}for[\s]{1}visual[\s]{1}tracking[C]∥2015[\s]{1}IEEE[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}(ICCV),[\s]{1}December[\s]{1}7-13,[\s]{1}2015,Santiago,[\s]{1}Chile.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2015:[\s]{1}4310-[\s]{1}4318.[\s]{1}

[23] HongS,[\s]{1}YouT,[\s]{1}KwakS,[\s]{1}et[\s]{1}al.[\s]{1}Online[\s]{1}tracking[\s]{1}by[\s]{1}learning[\s]{1}discriminative[\s]{1}saliency[\s]{1}map[\s]{1}with[\s]{1}convolutional[\s]{1}neural[\s]{1}network[C]∥Proceedings[\s]{1}of[\s]{1}the[\s]{1}32nd[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Machine[\s]{1}Learning,[\s]{1}July[\s]{1}6-11,[\s]{1}2015,[\s]{1}Lille,[\s]{1}France.[\s]{1}New[\s]{1}York:[\s]{1}ACM,[\s]{1}2015,[\s]{1}37:[\s]{1}597-[\s]{1}606.[\s]{1}

[24] Ma C, Huang J B, Yang X K, et al. Adaptive correlation filters with long-term and short-term memory for object tracking[J]. International Journal of Computer Vision, 2018, 126(8): 771-796.

张超溢, 彭力, 贾天豪, 闻继伟. 基于高置信度更新的多滤波器协同跟踪算法[J]. 激光与光电子学进展, 2019, 56(19): 191502. Chaoyi Zhang, Li Peng, Tianhao Jia, Jiwei Wen. Multi-Filter Collaborative Tracking Algorithm Based on High-Confidence Updating Strategy[J]. Laser & Optoelectronics Progress, 2019, 56(19): 191502.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!