激光与光电子学进展, 2020, 57 (14): 141014, 网络出版: 2020-07-28   

自适应特征融合与抗遮挡的相关滤波跟踪算法 下载: 728次

Correlation-Filter Tracking Algorithm with Adaptive-Feature Fusion and Anti-Occlusion
作者单位
1 陕西科技大学电子信息与人工智能学院, 陕西 西安 710021
2 陕西科技大学文理学院, 陕西 西安 710021
摘要
为了解决特征融合目标跟踪(Staple)算法在复杂场景中固定权重融合方式的局限性,在其基础上进行改进并引入通道置信度,提出了一种自适应特征融合与通道加权的抗遮挡相关滤波跟踪算法。先引入多维特征描述,根据每个通道上滤波模板的响应峰值,计算通道权重;再根据特征模型的响应结果,计算模型的可靠性,确定模型的融合权重,从响应结果的角度完成特征融合;最后根据历史帧的平均峰值相关能量,以及当前帧图像与前一帧图像的均方误差,来判断目标的遮挡情况,并进行模型更新。在OTB-2013和OTB-100数据集上进行实验,与Staple算法相比,所提算法的成功率和精确度均有所提高,并在多项具有挑战的属性上表现较佳。
Abstract
To solve the limitation of the feature fusion target tracking (Staple) algorithm when using the fixed weight fusion method in complex scenes, this study proposes an adaptive-feature fusion and channel weighted anti-occlusion related filtering algorithms with an improved channel confidence. First, to introduce a multi-dimensional feature description, we calculate the channel weights according to the response peak of the filter template on each channel. Then, calculate the reliability of the model based on the response results of the feature model, determine the fusion weight of the model, and complete the feature fusion from the perspective of the response results. Finally, based on the average peak correlation energy of the historical frame and the mean square error of the current and previous frame images, we determine the occlusion of the target and update the model. Comparative experiments with the Staple algorithm are conducted on the OTB-2013 and OTB-100 datasets and the proposed algorithm suggests an improved success rate and accuracy and performs better with respect to many challenging attributes.

1 引言

视觉目标跟踪在计算机视觉领域中一直获得极大的关注度,由于实际跟踪问题受到各种因素的影响,如目标遮挡、快速移动、形变和光照变化等,因此解决这些影响具有很大挑战[1]

近年来,基于相关滤波的跟踪算法在跟踪结果和处理速度上取得了优异的表现,因此得到广泛的关注和研究。2010年,Bolme等[2]提出了最小输出平方误差(MOSSE)算法,仅通过灰度特征便能实现不错的跟踪结果,更重要的是达到669 frame/s的处理速度。2012年,Henriques等[3]通过引入核矩阵提出了基于循环结构的核检测跟踪(CSK)算法,利用循环密集采样法对样本进行采样,解决相关滤波器中样本不足的问题。2015年,Henriques等[4]在核相关滤波器快速跟踪(KCF)算法中,提出了多通道特征模型,并采用方向梯度直方图(HOG)特征[5]代替灰度特征,同时利用循环矩阵傅里叶空间对角化简化计算过程。

为了解决目标跟踪中的尺度估计问题,Danelljan等[6]在KCF的基础上引入尺度估计,提出了判别式尺度空间跟踪(DSST)算法,并单独训练用于目标位置估计的滤波器和用于目标尺度估计的滤波器。在此之后,Danelljan等[7]提出了快速判别式尺度空间跟踪(fDSST)算法,通过主成分分析提取目标特征中的主要部分,将特征维度压缩至18维,既提高了DSST算法的运行速度,又提升了跟踪性能。何雪东等[8]通过三个不同大小的尺度因子来确定尺度的变化趋势,进而求解最优尺度。

为了解决循环密集采样法存在的边界效应问题,Danelljan等[9]提出了空间正则化相关滤波跟踪(SRDCF)算法。在其基础上,训练集优化的空间正则化相关滤波跟踪(SRDCFdecon)算法[10]是解决因跟踪过程中目标出现遮挡或偏离中心的跟踪结果,导致正样本集被背景图像污染的问题,将样本质量引入最小化问题中,以此动态调节训练样本权重,进一步提高跟踪器性能。Galoogahi等[11]提出了边界约束相关滤波器(CFLB)算法,在该算法中通过隐式的方式在滤波器的右方和下方进行零填充,使滤波器的尺度与用于训练的图像块的大尺度保持相同,以便直接进行互相关运算。但CFLB算法中这种非对称的填充方式,只能在一定程度上解决边界效应问题。Lukežic等[12]在基于通道和空间置信度的判别式相关滤波(CSR-DCF)算法中,通过提出的空间置信度计算每一帧图像的可靠性区域,使得滤波器能够作用于适合跟踪的图像区域,减少背景信息的干扰,并通过通道置信度评估方法可更准确地跟踪目标。

在特征改进方面,Danelljan等[13-14]通过引入Color Names(CN)特征提出了CN算法,运用主成分分析技术自适应将11维的颜色特征降至2维,提高了特征的光照不变性,也保证了运算速度,在彩色测试序列中得到较好的跟踪结果。在基于特征互补的目标跟踪Staple算法[15]中采用线性加权的方式,将HOG特征模型与颜色直方图模型的响应结果进行融合。虽然融合模型有效提高了算法的鲁棒性,但由于算法中使用了固定的权重比例,在许多实际问题中无法得到很好的跟踪结果。文献[ 16]通过分段函数自适应调节融合权重。文献[ 17]使用平均峰值相关能量(APCE)[18]指标衡量跟踪过程中响应结果的可靠性,并以此来自适应调节HOG模型与局部二值模式(LBP)特征模型的融合权重。

此外,针对目标遮挡问题,文献[ 19]采用经典的峰值旁瓣比(PSR)衡量目标跟踪置信度,当置信度较低时暂停更新模型,避免引入背景信息。文献[ 20]引入阶段式模型更新恢复机制以解决模型污染问题。文献[ 21]通过可靠性投票选择最好的跟踪结果来更新模型。

为了解决固定权重融合方式在特定环境下缺乏针对性的问题,本文在Staple算法的基础上,提出了一种自适应特征融合与通道加权的解决方案,同时引入通道置信度评估方法,提出了一种相关滤波跟踪算法。与此同时,在跟踪过程中,通过置信度指标判断目标遮挡情况,选择合适的模型更新策略来解决目标跟踪过程中出现的目标遮挡问题。在OTB测试数据集[22-23]上进行多组实验,验证所提算法的普适性和有效性。

2 自适应特征融合跟踪算法

2.1 标准相关滤波器

近几年,多通道相关滤波器在视觉跟踪领域中非常流行,以下将介绍这些滤波器的主要思想。给定一个通道数为N的图像特征f={fd}和与之对应的滤波模板h={hd},其中d的取值范围是{1,2,…,N}。第d个通道上的特征fd和与之对应的滤波器hd的大小均为W×H,WH分别表示训练区域的宽和高。目标位置被估计为相关滤波响应g的最大值位置,即在图像中对应的位置。滤波响应的表达式为

g=d=1Nfd*hd,(1)

式中:*为fdhd的循环相关。通过最小化损失函数

ε(h)=g-gGaussian2+λh2(2)

求解最优相关滤波器h。式中:gGaussian为期望输出,通常是以目标位置为中心的二维高斯函数,gGaussian的大小为W×H;λ为正则化参数,可减轻过拟合现象;‖·‖2为L2范数的平方。通过在傅里叶域中求解ε(h)来提高计算效率。(2)式在傅里叶域中的向量形式为

εh^d=d=1Ndiagf^dh^-d-g^Gaussian2+λd=1Nh^d2,(3)

式中: ·^为·的傅里叶形式,以 f^d为例,计算公式为 f^d=F [vec (fd)],具体来说,先将fd拉伸为列向量vec (fd),再进行傅里叶变换F,最终 f^d的大小为(W×H)×1;diag ( f^d)为由 f^d构成的对角矩阵; h^-为对 h^d进行复共轭运算。通过求解(3)式,得到通道dh^d的封闭解为

h^d=diagf^dg^-GaussianØd=1Ndiagf^df^-d+λE,(4)

式中:Ø为元素点除操作;E为(W×H)×1的大小、且元素值全为1的列向量; g^-Gaussianf^-d分别为gGaussianfd的傅里叶共轭形式。封闭解适用于所有特征通道,并被应用于大多数相关滤波跟踪器中。通过(1)式求解最终的g,g的最大值对应图像中的位置为此刻目标的位置。

每个通道上特征的表示能力不同,则不应该对其同等看待,为此引入通道权重w={wd},即通道置信度权重,用于衡量每个通道特征表示目标的能力。w在目标定位阶段,计算相关滤波响应时使用w,表达式为

g=d=1Nfd*hd·wd,(5)

式中:wd为第d个通道上特征的权重。

2.2 Staple算法

Staple算法将使用HOG特征的DSST[7]算法和颜色直方图特征的DAT(Distractor-Aware Tracker)[24]算法的两个响应结果通过固定的权重系数进行融合。HOG特征能较好地捕捉目标的局部形状信息,对运动模糊和光照变化具有良好的不变性。颜色直方图特征包含的空间信息较少,因此能够适应目标的形状变化,这也使得Staple算法具有这两者的优点。

在实际跟踪问题中,存在光照变化、形变和运动模糊等诸多因素,Staple算法中两个跟踪模型固定权重系数的融合方式无法较好地解决实际问题,因此提出一种自适应融合方案通过衡量两个模型在跟踪过程中的表现来决定融合权重的大小。由于跟踪过程中每个通道特征的表现情况不同,为此引入通道置信度来反映各个通道上的特征和滤波器表现的优劣。

2.3 通道置信度评估

目标跟踪过程一般分为训练阶段和检测阶段,为此设置了通道学习置信度wd, lea和通道检测置信度wd, det。定义第d个通道上特征的权重wdwd, leawd, det的乘积,用于表示第d个通道上特征的重要程度,表达式为

wd=wd,lea×wd,det(6)

1)通道学习置信度。通道学习置信度可反映当前位置的估计滤波器所能检测出目标的最大可能性,通道学习置信度越高,说明该通道的可靠性越高。wd, lea直接由当前通道的最大响应值确定,即wd, lea=ζ max(gd),gd为第d个通道上特征fdhd的响应结果,计算公式为gd=fd*hd,ζ为归一化参数,保证各通道学习置信度总和为1,即 dwd,lea=1,通道学习置信度在目标定位时求得。这里用到的滤波器未进行更新,仅反映当前这一帧中目标的外观模型。

2)通道检测置信度。通道检测置信度可反映每个通道上的位置估计滤波器与候选区域的响应结果的可靠性。衡量标准为次峰值gd, max2(旁瓣峰强度)和主峰值gd, max之比,即ρ=gd, max2/gd, max,两者比值越小,说明响应图像越干净,跟踪效果越好,可靠性越高。

响应图像中响应值越大的位置为目标中心的可靠性越高,因此当多个与目标相似的对象出现时,响应图像中会出现多个响应峰,这种情况ρ值会增大。若ρ值越接近于1,跟踪结果的可靠性越低,但此时最大响应峰值可能已经确定了目标中心的位置。背景杂乱的情况,上述情况常常发生。为了防止对上述情况进行过于严重的惩罚,ρ的最大值被限制为0.5,即wd, det的最小值为0.5。检测置信度表达式为

wd,det=1-mingd,max2gd,max,12(7)

2.4 自适应融合方案

所提算法使用HOG特征和颜色直方图特征用于跟踪过程中的目标描述。目前大多数算法均采用全局颜色特征与局部空间特征融合的方式来提高跟踪算法的鲁棒性。由于两种特征表达方式和含义不同,直接对特征进行融合,效果往往不佳,因此可对两个模型与目标候选区域的响应结果进行融合。

响应图像中响应值越大的位置为目标中心的概率越大,所以使用两个模型响应结果的最大值来衡量模型所占权重,求解步骤如下。

1)初始化颜色直方图模型和HOG特征模型的权重,分别为whist=0.3和wtemp=0.7。目标定位阶段,根据当前帧图像的颜色直方图模型和HOG特征模型的响应结果,即ghistgtemp,求解当前帧图像颜色直方图模型的权重whist_new,求解公式为

whist_new=max(ghist)max(ghist)+max(gtemp)(8)

2)更新阶段使用线性内插法,对第t帧模型的权重进行更新,表达式为

wt,hist=(1-ηhist)wt-1,hist+ηhistwt,hist_new,(9)

式中:ηhist为颜色直方图模型的学习率;wt-1, hist为第t-1帧颜色直方图模型的权重。

3) HOG特征强大的表现能力在许多跟踪算法中已得到检验,由于颜色直方图特征包含的信息有限,实验将其作为辅助模型使用。为了保证HOG特征模型的主要作用,对第t帧图像颜色直方图特征的权重wt, hist进行处理,当wt, hist大于0.4时,取wt, hist=0.4;当wt, hist小于或等于0.4时,保持不变,表达式为

wt,hist=min(wt,hist,0.4)(10)

计算最终HOG特征的权重wt, temp,表达式为

wt,temp=1-wt,hist(11)

4)第t帧图像的最终响应融合结果为

gt=wt,histghist+wt,tempgtemp(12)

2.5 模型的抗遮挡方案

2.5.1 遮挡检测机制

以往跟踪算法大多使用固定的学习率逐帧更新模型,当目标发生遮挡和背景变化时,使用非目标的背景信息更新模型会导致模型的鲁棒性变差。固定的学习率在模型更新时,无法根据跟踪结果实时作出调整,当跟踪结果的置信度较低时,采用过大的学习率会降低模型的判别能力;当跟踪结果的置信度较高时,应增大学习率来提高训练样本的利用率。同时,采用逐帧更新的方式会累积跟踪漂移所引入的误差,最终可能导致跟踪失败。针对上述问题,LMCF(Large Margin Object Tracking with Circulant Feature Maps)算法[18]采用多峰检测的方法来检测目标周围是否存在相似物,并判断目标是否被遮挡。此外,当目标发生姿态变化和旋转时,也会使得滤波响应出现多峰情况。仅通过响应峰值gmax来判断跟踪质量的好坏不可靠,因此通过平均峰值相关能量(APCE)进行具体的衡量,APCE可反映响应结果的波动程度,同时APCE值越大跟踪结果越稳定。当APCE值突然降低时,目标可能被遮挡或丢失。大小为M×N的检测区域内模型响应结果的APCE,可表示为

PAPCE=gmax-gmin21MNm,n[g(m,n)-gmin]2,(13)

式中:gmin为响应结果的最小值;g(m,n)为在(m,n)处的响应结果。APCE仅使用当前帧的跟踪信息,未考虑连续帧图像中目标间的关系,当目标被遮挡时,连续帧图像中跟踪结果的APCE值会发生突变。仅根据APCE来判断跟踪过程中目标是否被遮挡的能力有限,因此在此基础上引入历史帧的APCE信息,来判断目标的遮挡情况,计算方法为

Rt=Pt,APCE1ti=1tPi,APCE,(14)

式中:Pi, APCE为第i帧响应结果的APCE值;Rt为第t帧跟踪结果的相对置信度。

Girl2视频序列中不同帧的跟踪置信度对比如图1所示,其中第103 frame目标处于正常跟踪状态,第105 frame目标被部分遮挡,第112 frame目标被完全遮挡。从(14)式可以看到,当目标发生遮挡时,Rt能够较好地反映目标遮挡情况。

图 1. 不同遮挡情况下Girl2视频序列部分帧的跟踪置信度对比结果。(a)未被遮挡;(b)部分遮挡;(c)完全遮挡

Fig. 1. Comparison results of tracking confidence of partial frames of Girl2 video sequence under different occlusions. (a) Not occlusion; (b) slight occlusion; (c) severe occlusion

下载图片 查看所有图片

此外,鉴于均方误差(MSE)在其他图像领域中的杰出表现,将MSE引入模型更新方案中,利用MSE衡量两帧图像间的差异性。当目标被遮挡或快速移动时,MSE值会增大;当目标移动或形变不明显时,MSE值几乎不变。检测区域大小为M×N的当前帧图像It与前一帧图像It-1的MSE为

Mt,MSE=1MNi=0M-1j=0N-1[It(i,j)-It-1(i,j)]2(15)

2.5.2 更新方案

目标跟踪过程中,置信度较低的跟踪结果会造成误差累计,导致模型判别能力变差。当目标出现时,依然可能出现跟踪漂移或失败的问题。针对目标遮挡问题,先对模型的ηtemp进行调整。由于相邻两帧图像的Mt, MSE可在一定程度上反映两帧中目标的变化程度,当目标几乎不变时,Mt, MSE值较小;当目标变化明显时,Mt, MSE值较大。因此作出以下调整,当Mt, MSE值小于最小更新阈值Tdown时,ηtemp=0.010;当Mt, MSE值大于最大更新阈值Tup时,ηtemp=0.025;除此之外,ηtemp=0.020。调整模型的学习率,即

ηtemp=0.010,ifMt,MSE<Tdown0.025,ifMt,MSE>Tup0.020,otherwise(16)

所提算法通过跟踪RtgmaxMt, MSE综合判断目标遮挡情况。当目标未发生遮挡时,采用线性插值的方法对模型进行正常更新,如(9)式,以适应目标的外观变化;当发生轻微遮挡时,以较低的学习率来更新模型,依然能够学习到目标的外观信息。并且采用轻微遮挡的目标作为样本来训练模型,能够增加训练样本的多样性;当发生严重遮挡时,停止更新模型以减少背景信息的引入,保证模型的判别能力。当目标再次出现时,未被背景信息污染的模型与检测区域的响应值变大,此时能够再次检测到目标,实现跟踪的恢复。更新策略如表1所示。

表 1. 模型更新策略

Table 1. Model update strategy

Algorithm 1: Update model
Require: Rt, Mt, MSE, gmax of response gt
Ensure: Update model
Occlusion condition:
Not occlusion: Rt>Rthreshold1 && gmax>gthreshold11) Update learning rate ηt, temp, model weights wt, temp and wt, hist2) Update models ht from ht, new and ht-1 like formula (9)3) Update color histogram ρt from ρt, new and ρt-1 like formula (9)
Severe occlusion: Rt<Rthreshold2 && gmax<gthreshold2Do not update models ht=ht-1 and color histogram ρt=ρt-1Slight occlusion: otherwiseSimilar to Not occlusion, but update rate ηt, temp is smaller in this part

查看所有表

图 2. 所提算法框架

Fig. 2. Framework of proposed algorithm

下载图片 查看所有图片

2.6 算法框架

所提跟踪算法框架如图2所示。

训练阶段:在第t帧图像Xt的目标估计位置pt处,提取固定窗口大小的图像块作为训练样本以提取HOG特征,加上同等大小余弦窗口以减少边缘效应。更新HOG特征跟踪模型ht,计算各个通道学习置信度,并与第t-1帧求得的通道检测置信度相乘得到当前帧的通道置信度w={wd};在pt处提取目标和背景的颜色直方图ρt(B),ρt(O),ρt={ρt(B),ρt(O)},更新颜色直方图特征跟踪模型βt

跟踪阶段:在第t+1帧图像Xt+1的目标估计位置pt处,提取固定窗口大小的图像块,并进行循环移位后作为候选目标区域。提取候选目标区域的HOG特征并加上余弦窗,以减少边缘效应的影响。在各个通道上提取到的HOG特征与跟踪模型ht进行相关操作得到响应图,通过通道置信度w进行加权求和得到HOG特征响应图gt, temp。在目标估计位置pt处,提取目标和背景的颜色直方图ρt(B),ρt(O),用于计算颜色直方图模型响应图gt, hist;计算两个模型的融合权重,进行加权求和后得到最终响应图gt。根据各通道的响应结果,计算通道检测置信度。由最终响应峰值得到当前帧图像中目标估计位置pt+1,至此确定目标在第t+1帧的位置信息。

尺度估计:作为独立的相关滤波器,尺度滤波器的训练、预测过程与使用HOG特征的位置滤波器训练、预测过程基本相似。要注意的是尺度滤波器包含33个详细尺度,并从中预测目标的实际尺度。

3 实验及结果分析

实验使用MATLAB来实现目标跟踪算法,在2.8 GHz i7-7700HQ CPU和16 GB RAM配置的计算机上完成。实验保持传统Staple算法中部分参数不变,HOG特征的像素块大小(cell_size)为4 pixel×4 pixel,梯度方向个数为9,初始学习率ηtemp=0.020,滤波器输出标准差为0.0625。颜色直方图的组数bin为25,学习率ηhist=0.038。正则化参数λ=0.001,初始化融合因子为0.3。尺度估计中,尺度因子个数为33,步长为1.02,最大尺度为(32×16) pixel,尺度滤波器输出标准差为0.25,学习率ηscale=0.025。

为了测试所提算法的性能,设置4组实验:实验1测试固定融合权重系数对于跟踪结果的影响;实验2测试所提算法各部件间的性能;实验3是所提算法与当前主流跟踪算法在OTB-2013数据集和OTB-100数据集上的对比;实验4是所提算法在OTB数据集中具有代表性的视频序列上的具体跟踪结果。

3.1 实验测试数据集和评估方法介绍

实验采用OTB-2013[22]和OTB-100[23]两个数据集,其中OTB-2013由51个完全标注的视频序列组成,涉及11种不同的挑战因素,如形变(DEF)、快速运动(FM)、光照变化(IV)、尺度变化(SV)、遮挡(OCC)、运动模糊(MB)、平面外旋转(OPR)、平面内旋转(IPR)、背景混乱(BC)、超出视野(OV)和低分辨率(LR),OTB-100由100个属性更加复杂、跟踪难度更大的视频序列组成。OTB测试集有三种评估鲁棒性的方式,分别为:一次鲁棒性评估(OPE),即以第一帧中目标的真实位置作为初始位置,测试整个视频序列;时间鲁棒性评估(TRE)是选择视频序列的部分连续帧作为测试序列,以首帧中目标的真实位置作为初始位置;空间鲁棒性评估(SRE)通过对首帧中目标的真实位置进行移动、旋转或缩放,得到不同初始位置的跟踪目标,用来测量跟踪算法的鲁棒性,包括4个中心位置移位、4个角度旋转和4个尺度变化。

实验中采用平均中心定位误差(CLE),距离精度(DP)和重叠精度(OP)作为评价指标。

1) CLE是在K个测试序列图像上,计算目标跟踪区域的中心位置P'i与手工标注的目标真实区域的中心位置Pi,两者间的平均欧氏距离用来反映算法的跟踪准确度,表达式为

CCLE=1Ki=1KP'i-Pi(17)

2) DP是CLE小于给定阈值的帧数占跟踪总帧数的百分比,一般取阈值为20 pixel。

3) OP定义为

OOP=StSgStSg,(18)

式中:St为目标跟踪窗口区域;Sg为目标真实窗口区域。若OOP值小于阈值记为跟踪失败,反之跟踪成功。OP为跟踪成功的帧数占总帧数的百分比,取阈值为0.5。

3.2 不同融合权重对跟踪结果的影响

以Bird1、Bird2、Board和Coke测试序列为例,对不同融合权重的跟踪情况进行分析。

whist=0时,此时颜色直方图特征不会对跟踪结果产生影响,融合特征模型的跟踪性能只与HOG特征有关;当whist=1时,此时只有颜色直方图特征决定融合特征模型的跟踪性能。从图3(b),3(d),3(f),3(h)可以看到,当whist=0时,4个序列跟踪结果的CLE值较小;当whist=1时,Bird1,Bird2,Board三个序列跟踪结果的CLE值较大。因此,HOG特征跟踪器的跟踪结果准确度比颜色直方图跟踪器更高。从图3(a),3(c),3(e),3(g)可以看到,当whist处于0和1附近时,跟踪精度值较低,即单纯使用HOG特征或颜色直方图特征均无法得到很好的跟踪结果。

从4个测试序列的实验结果可以看到,不同大小的whist对DP和OP影响较大,CLE在HOG特征模型比重变小时,基本呈现增大趋势。

图 3. 固定融合因子对于跟踪结果的影响。(a) Bird1的精度图;(b) Bird1的CLE图;(c) Bird2的精度图;(d) Bird2的CLE图;(e) Board的精度图;(f) Board的CLE图;(g) Coke的精度图;(h) Coke的CLE图

Fig. 3. Effect of fixed fusion factor on tracking. (a) Precision plot of Bird1; (b) CLE plot of Bird1; (c) precision plot of Bird2; (d) CLE plot of Bird2; (e) precision plot of Board; (f) CLE plot of Board; (g) precision plot of Coke; (h) CLE plot of Coke

下载图片 查看所有图片

图 4. Twinnings序列采用不同融合权重系数的跟踪结果。(a) whist=0时,第195 frame的跟踪结果;(b) whist=0时,第250 frame的跟踪结果;(c) whist=0.1时,第195 frame的跟踪结果;(d) whist=0.1时,第250 frame的跟踪结果;(e) whist=0.3时,第195 frame的跟踪结果;(f) whist=0.3时,第250 frame的跟踪结果

Fig. 4. Tracking results of Twinnings sequence with different fusion weights coefficients. (a) Tracking results of 195 frame with whist=0; (b) tracking results of 250 frame with whist=0; (c) tracking results of 195 frame with whist=0.1; (d) tracking results of 250 frame with whist=0.1; (e) tracking results of 195 frame with whist=0.3; (f) tracking results of 250 frame with whist=0.3

下载图片 查看所有图片

由于视频序列在不同帧图像中也存在光照变化、目标遮挡和形变等影响因素,所以对Twinnings序列具体帧的跟踪情况进行分析。图4为Twinnings序列中部分帧的跟踪结果,给出当whist为0、0.1和0.3时,Twinnings序列第195 frame和第250 frame的跟踪结果。

whist值为0, 0.1和0.3的跟踪结果可以看到,在第195 fame融合模型的表现比单纯使用HOG特征模型更好;第250 frame,whist值为0.3时的跟踪结果比当whist值为0.1和0时更好。此时,被跟踪目标发生旋转,则目标的空间信息发生变化,而颜色直方图特征变化较小,故此时颜色直方图模型表现较好,增大whist值会使跟踪结果更稳定。从两种情况下的目标高斯响应图变化也可反映跟踪模型的鲁棒性变化。当whist=0.1时,目标高斯响应图呈现多峰情况,且主峰与次峰高度差较小;当whist=0.3时,目标高斯响应图中主峰明显,也说明此时跟踪结果更好。

图4可以看到,不同的whist对跟踪结果影响很大。因此,若要使目标跟踪融合模型能够适应实际问题中目标形变、遮挡和光照变化等多种复杂情况,需根据模型的跟踪结果自适应调整whistwtemp的大小,使融合模型能够在实际跟踪问题中发挥出HOG特征和颜色直方图特征的各自优势。

3.3 所提算法各部件间的性能

为了证明各部件的性能,设置了4个跟踪算法的实验对象,包括原始Staple算法,在Staple算法的基础上引入通道置信度的改进算法Staple_CR,含自适应融合方案的Staple改进算法Staple_AM和含遮挡检测更新策略的Staple改进算法Staple_Update。其中包含的部件间参数保持一致,在OTB-2013数据集和OTB-100数据集上进行实验测试,结果如表2所示。

表 2. 实验2中跟踪模型的设置及各模型在OTB上的OPE测试结果

Table 2. Setting of tracking model in experiment 2 and OPE test results of each model on OTB

AlgorithmChannelreliabilityAdaptivemergeUpdateschemeOTB-2013OTB-100
Precision /%Success /%Precision /%Success /%
Staple_CR82.161.379.759.5
Staple_AM81.361.479.258.9
Staple_Update79.360.878.958.4
Staple78.859.378.457.9

查看所有表

表2可以看到,Staple_CR、Staple_AM和Staple_Update的跟踪效果相比于原始Staple算法均有所提升。从OTB-2013数据集上的结果来看,Staple_CR算法比Staple算法在成功率方面提高了2个百分点,精确度提高了3.3个百分点;Staple_AM算法比Staple算法在成功率上提高了2.1个百分点,精确度提高了2.5个百分点。从OTB-100数据集上的结果来看,在成功率方面Staple_CR算法比Staple算法提高了1.6个百分点,精确度提高了1.3个百分点。

3.4 所提算法与当前主流算法的对比实验

实验3将所提算法与KCF[5]、DSST[6]、SRDCF[9]、Staple[15]、基于特征融合的尺度自适应核相关滤波跟踪(SAMF)[25]、基于分层卷积的视觉跟踪(CF2)[26]、背景感知相关滤波(BACF)[27]、基于连续卷积运算的视觉跟踪(CCOT)[28]和一种高效卷积运算的视觉跟踪(ECO-HC)[29]当前9种主流跟踪算法分别在OTB-2013和OTB-100测试集上进行测试,最终跟踪结果如图5图6所示。

图 5. 实验3在OTB-2013数据集上的测试结果。(a) OPE精确度图;(b)成功率图

Fig. 5. Test results of experiment 3 on OTB-2013 dataset. (a) OPE precision plot; (b) success rate plot

下载图片 查看所有图片

图 6. 实验3在OTB-100上数据集的测试结果。(a) OPE精确度图;(b)成功率图

Fig. 6. Test results of experiment 3 on OTB-100 dataset. (a) OPE precision plot; (b) success rate plot

下载图片 查看所有图片

精确度图中横坐标为定位误差阈值,纵坐标为平均CLE在该阈值范围内的帧数占总帧数的百分比。成功率图中横坐标为重叠率阈值,纵坐标为在对应阈值下跟踪成功帧数占总帧数的百分比。这里绘制的成功率图有两种方式,一种是根据OP阈值对应的成功率直接绘制成功率图,另一种是通过第一种方式绘制出的成功率曲线的曲线下面积(AUC)绘制的成功率图。

图5图6可以看到,在数据集OTB-2013上,所提跟踪算法的成功率为0.629,精确度为0.841,在成功率方面比Staple算法提高了3.6个百分点,精确度提高了5.3个百分点;比KCF算法的成功率提高了11.5个百分点,精确度提高了10.1个百分点。在数据集OTB-100上,所提跟踪算法的成功率为0.743,精确度为0.811,比Staple算法的成功率提高了3.4个百分点,精确度提高了2.7个百分点;比KCF的成功率提高了19.2个百分点,精确度提高了11.5个百分点。

表3为所提算法与CSK[3], KCF[5], DSST[6], fDSST[7], CN[14]和Staple[15]7种目标跟踪算法在OTB-2013基准数据集中11个具有挑战的属性上的成功率。其中在每种属性中双下划线为第一名,单下划线为第二名。从表3可以看到,所提算法在平面外旋转、遮挡、目标形变、快速移动、平面内旋转和超出视野6个属性上表现最佳,在4个属性上排名第二。相比于Staple算法,所提算法在目标形变、移动模糊、快速移动和超出视野4个属性上提升较大,分别提升了4.7个百分点,5.4个百分点,8.1个百分点和9.3个百分点。

表 3. 7种算法在OTB-2013数据集中11个具有挑战性的属性上的表现

Table 3. Performance of seven algorithms on 11 challenging attributes in OTB-2013 datasetunit: %

AttributeSVIVOPROCCBCDEFMBFMIPROVLR
Ours56.3¯58.8¯61.1=61.5=58.5¯65.4=58.0¯58.2=59.4=61.1=30.3
fDSST57.1=59.7=57.2¯55.861.7=56.459.3=55.6¯58.4¯55.5¯38.9¯
DSST44.750.449.247.849.847.842.340.552.046.532.5
Staple54.556.156.958.5¯55.760.7¯52.650.157.651.839.5=
CSK35.036.938.636.542.134.330.531.639.934.935.0
KCF42.749.349.551.453.553.449.745.949.755.031.2
CN38.441.444.142.544.943.441.037.346.941.031.1

查看所有表

3.5 在OTB部分测试序列上跟踪结果的比较

图7为所提算法与CSK[3], KCF[5], DSST[6], fDSST[7], Staple[15]5种主流算法在OTB部分测试视频序列上的跟踪结果。按照图示顺序,测试序列分别为Joggong-2, Coke, Matrix, Football1h和Freeman4。测试序列Joggong-2和Coke主要测试当目标发生严重遮挡时跟踪算法的稳定性。

表4为所提算法与KCF[5]、DSST[6]、SRDCF[9]、SRDCFdecon[10]、Staple[15]、SAMF[25]、CF2[26]、BACF[27]、CCOT[28]和ECO-HC[29]当前10种主流跟踪算法在OTB-2013和OTB-100测试集上的运行速度对比。从表4可以看到,所提算法在两个测试集上的运行速度约为37 frame/s,满足跟踪算法在实时性方面的要求。所提算法与采用空间正则化来扩大搜索区域的SRDCF算法相比,所提算法效果更好,同时运算速度是SRDCF的10倍左右。

表 4. 11种算法在OTB-2013和OTB-100测试集上的运行速度对比

Table 4. Comparison of running speed of 11 algorithms on OTB-2013 and OTB-100 test datasets

AlgorithmRunning speed /(frame·s-1)
OTB-2013OTB-100
Ours37.865737.3656
ECO-HC35.511034.6002
BACF27.099827.4870
SRDCFdecon2.40892.2993
CCOT0.22790.2160
Staple44.903942.8838
SRDCF3.60163.5327
CF211.019310.4229
KCF127.1455113.4207
DSST32.324625.2587
SAMF18.586716.9518

查看所有表

图7(a)可以看到,Joggong-2序列未遮挡前(第45 frame),上述算法的跟踪结果基本一致。在第58 frame视野内出现小部分目标,所提算法已能够跟踪到目标。在第65 frame严重遮挡结束后,所提算法能够准确跟踪目标,其余4种跟踪算法均跟踪失败。

图7(b)可以看到,在第254 frame时目标被严重遮挡,在第270 frame目标出现,此时所提算法和DSST算法可准确跟踪到目标,其余算法均跟踪失败。

图7(c)可以看到,在复杂背景、目标快速运动和光照变化多因素的Matrix序列中,所提算法的跟踪结果相比其他4种算法更能让人满意。

图7(d)可以看到,在背景杂乱场景下,如Football1序列的跟踪结果,目标一直处于杂乱背景、多次遮挡和运动模糊等场景,在第40 frame各算法跟踪结果出现差异,在第74 frame目标处于极度模糊状态,仅有所提跟踪算法和fDSST可准确跟踪到目标。

图7(e)可以看到,目标所处背景出现多个相似目标,且发生多次遮挡,最终仅有所提算法可跟踪到目标,但此时所提算法对目标尺度的估计结果较为一般。

图 7. 所提算法与其他4种算法在不同视频序列上的跟踪结果对比。(a) Joggong-2;(b) Coke;(c) Matrix;(d) Football1;(e) Freeman4

Fig. 7. Comparison of tracking results of proposed algorithm with other 4 algorithms on different video sequences. (a) Joggong-2; (b) Coke; (c) Matrix; (d) Football1; (e) Freeman4

下载图片 查看所有图片

4 结论

在原始视觉目标跟踪Staple算法的基础上,对其作出三点改进,提出了新的自适应特征融合算法。先将通道置信度引入传统Staple算法中,根据每帧中学习所得模型与目标候选区域在各个通道上响应度的最大值,来确定通道的可靠性和该通道权重,提高了模型当面对不同复杂环境时的鲁棒性;再使用响应峰值确定HOG特征模型和颜色直方图特征模型与目标候选区域响应结果的融合权重,最大程度地利用特征中包含的信息,同时减少背景信息干扰;最后,使用模型历史帧跟踪结果的APCE信息及当前帧图像的MSE信息,来判断目标的遮挡情况,选择合适的模型更新策略,减少由于背景信息的引入引起误差累计问题。实验结果表明:与主流算法相比,所提算法在各种复杂情况下,可提高跟踪结果的成功率和准确率,同时在目标遮挡问题上表现较佳。后续工作将会结合空间约束滤波器来扩大搜索区域,进一步解决目标遮挡和快速移动的问题。

参考文献

[1] 卢湖川, 李佩霞, 王栋. 目标跟踪算法综述[J]. 模式识别与人工智能, 2018, 31(1): 61-76.

    Lu H C, Li P X, Wang D. Visual object tracking: a survey[J]. Pattern Recognition and Artificial Intelligence, 2018, 31(1): 61-76.

[2] Bolme DS, Beveridge JR, Draper BA, et al. Visual object tracking using adaptive correlation filters[C]∥2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, June 13-18, 2010, San Francisco, CA, USA. New York: IEEE, 2010: 2544- 2550.

[3] Henriques JF, CaseiroR, MartinsP, et al. Exploiting the circulant structure of tracking-by-detection with kernels[M] ∥Fitzgibbon A, Lazebnik S, Perona P, et al. Computer vision-ECCV 2012. Lecture notes in computer science. Heidelberg: Springer, 2012, 7575: 702- 715.

[4] Henriques J F, Caseiro R, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.

[5] O'Rourke S M. Herskowitz I, O'Shea E K. Yeast go the whole HOG for the hyperosmotic response[J]. Trends in Genetics, 2002, 18(8): 405-412.

[6] DanelljanM, HagerG, Khan FS, et al. Accurate scale estimation for robust visual tracking[C]∥British Machine Vision Conference 2014, September 1-5, 2014, Jubilee Campus. Berlin: Springer, 2014: 1- 11.

[7] Danelljan M, Häger G, Khan F S, et al. Discriminative scale space tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1561-1575.

[8] 何雪东, 周盛宗. 快速尺度自适应核相关滤波目标跟踪算法[J]. 激光与光电子学进展, 2018, 55(12): 121501.

    He X D, Zhou S Z. Fast scale adaptive kernel correlation filtering algorithm for target tracking[J]. Laser & Optoelectronics Progress, 2018, 55(12): 121501.

[9] DanelljanM, HägerG, Khan FS, et al. Learning spatially regularized correlation filters for visual tracking[C]∥2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile. New York: IEEE, 2015: 4310- 4318.

[10] DanelljanM, HägerG, Khan FS, et al. Adaptive decontamination of the training set: a unified formulation for discriminative visual tracking[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 1430- 1438.

[11] Galoogahi HK, SimT, LuceyS. Correlation filters with limited boundaries[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 4630- 4638.

[12] LukežicA, VojírT, Zajc LC, et al. Discriminative correlation filter with channel and spatial reliability[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 4847- 4856.

[13] van de Weijer J, Schmid C, Verbeek J, et al. Learning color names for real-world applications[J]. IEEE Transactions on Image Processing, 2009, 18(7): 1512-1523.

[14] DanelljanM, Khan FS, FelsbergM, et al. Adaptive color attributes for real-time visual tracking[C]∥2014 IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2014, Columbus, OH, USA. New York: IEEE, 2014: 1090- 1097.

[15] BertinettoL, ValmadreJ, GolodetzS, et al. Staple: complementary learners for real-time tracking[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 1401- 1409.

[16] 董秋杰, 何雪东, 葛海燕, 等. 基于概率模型的自适应融合互补学习跟踪算法[J]. 激光与光电子学进展, 2019, 56(16): 161505.

    Dong Q J, He X D, Ge H Y, et al. Adaptive merging complementary learners for visual tracking based on probabilistic model[J]. Laser & Optoelectronics Progress, 2019, 56(16): 161505.

[17] 刘晓悦, 王云明, 马伟宁. 融合FHOG和LBP特征的尺度自适应相关滤波跟踪算法[J]. 激光与光电子学进展, 2020, 57(4): 041512.

    Liu X Y, Wang Y M, Ma W N. Scale-adaptive correlation filter tracking algorithm based on FHOG and LBP features[J]. Laser & Optoelectronics Progress, 2020, 57(4): 041512.

[18] Wang MM, LiuY, Huang ZY. Large margin object tracking with circulant feature maps[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 4800- 4808.

[19] 成悦, 李建增, 褚丽娜, 等. 基于模型与尺度更新的相关滤波跟踪算法[J]. 激光与光电子学进展, 2018, 55(12): 121015.

    Cheng Y, Li J Z, Zhu L N, et al. Correlation filter tracking algorithm based on model and scale updating[J]. Laser & Optoelectronics Progress, 2018, 55(12): 121015.

[20] 崔洲涓, 安军社, 崔天舒. 基于多层深度卷积特征的抗遮挡实时跟踪算法[J]. 光学学报, 2019, 39(7): 0715002.

    Cui Z J, An J S, Cui T S. Real-time and anti-occlusion visual tracking algorithm based on multi-layer deep convolutional features[J]. Acta Optica Sinica, 2019, 39(7): 0715002.

[21] 尹宽, 李均利, 李丽, 等. 复杂情况下自适应特征更新目标跟踪算法[J]. 光学学报, 2019, 39(11): 1115002.

    Yin K, Li J L, Li L, et al. Adaptive feature update object-tracking algorithm in complex situations[J]. Acta Optica Sinica, 2019, 39(11): 1115002.

[22] WuY, LimJ, Yang MH. Online object tracking: a benchmark[C]∥2013 IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2013, Portland, OR, USA. New York: IEEE, 2013: 2411- 2418.

[23] Wu Y, Lim J, Yang M H. Object tracking benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848.

[24] PosseggerH, MauthnerT, BischofH. In defense of color-based model-free tracking[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 2113- 2120.

[25] LiY, Zhu JK. A scale adaptive kernel correlation filter tracker with feature integration[M] ∥Agapito L, Bronstein M, Rother C. Computer vision - ECCV 2014 Workshops. Lecture notes in computer science. Cham: Springer, 2015, 8926: 254- 265.

[26] MaC, Huang JB, Yang XK, et al. Hierarchical convolutional features for visual tracking[C]∥2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile. New York: IEEE, 2015: 3074- 3082.

[27] Galoogahi HK, FaggA, LuceyS. Learning background-aware correlation filters for visual tracking[C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy. New York: IEEE, 2017: 1144- 1152.

[28] DanelljanM, RobinsonA, Shahbaz KhanF, et al. Beyond correlation filters: learning continuous convolution operators for visual tracking[M] ∥Leibe B, Matas J, Sebe N, et al. Computer vision-ECCV 2016. Lecture notes in computer science. Cham: Springer, 2016, 9909: 472- 488.

[29] DanelljanM, BhatG, Khan FS, et al. ( 2017-04-10)[2019-10-20]. https:∥arxiv.org/abs/1611. 09224.

刘海峰, 孙成, 梁星亮. 自适应特征融合与抗遮挡的相关滤波跟踪算法[J]. 激光与光电子学进展, 2020, 57(14): 141014. Haifeng Liu, Cheng Sun, Xingliang Liang. Correlation-Filter Tracking Algorithm with Adaptive-Feature Fusion and Anti-Occlusion[J]. Laser & Optoelectronics Progress, 2020, 57(14): 141014.

本文已被 2 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!