激光与光电子学进展, 2021, 58 (8): 0815004, 网络出版: 2021-04-16   

高置信度的尺度自适应核相关跟踪方法 下载: 585次

Scale Adaptive Kernel Correlation Tracking Method with High Confidence
作者单位
华北理工大学电气工程学院, 河北 唐山 063210
摘要
相关滤波器由于近年来在实时准确地跟踪视频信号方面展示出了优异的性能,为此引起了很多学者的关注。但在应对复杂场景外观变化较大的情况下,滤波器的跟踪效果易不稳定,估计尺度变化能力也有待改进,模型更新过程易引入不可信样本,不利于精确跟踪目标。为此,采用颜色直方图模型和相关滤波判别模型相结合的方式对跟踪目标进行精确定位,再从预测位置处提取尺度样本训练核尺度相关器。针对模型更新过程中可能引入干扰信息的问题,选择当响应置信度达到一定阈值时,对模型进行更新。在跟踪数据集(OTB-2015)中所提方法表现良好,成功率为0.694,精确度为0.794。
Abstract
Correlation filters have demonsrtated excellent performance in real-time and accurate tracking of video signals in recent years, which have attracted the attention of many scholars. However, when the appearance of complex scenes changes greatly, the tracking effect of the filter is easy to be unstable, and the ability to estimate scale changes needs improvement. The model update process easily introduces untrustworthy samples, which is not conducive to track the target accurately. Therefore, a combination of a color histogram model and correlation filtering-discrimination model is used to track objects accurately, and then scale samples are extracted from the predicted position to train the kernel scale correlator. Considering the problem of interference information getting introduced in the model update process, the model is updated when the response confidence attains a certain threshold. The proposed algorithm in the tracking data set (OTB-2015) performed well with a success rate and a precision score of 0.694 and 0.794, respectively.

1 引言

智能视频监控技术在提高风险预警能力、减轻人力负担、保障公共安全以及便捷交通管理和客户服务等方面具有重要的应用价值[1]。目标跟踪作为提高视频监控智能化水平的关键研究方法之一,近年来取得了很大进展[2-4],但是在尺度变换、快速运动和背景杂乱等复杂的视频场景中,跟踪效果不理想,目标容易发生漂移。

近年来,目标跟踪数据集和基准[5-6]的提出为评价跟踪性能提供了一种比较统一的标准。相关滤波(CF)跟踪方法利用循环矩阵在频域中的对角性质,简化了滤波器的训练过程,使其在数据集上展示出了明显的速度优势。引入核技巧和梯度方向直方图(HOG)的核相关滤波器(KCF)[7]在保持高帧率的同时,跟踪精度得到进一步提升,其中将采用线性核的方法记为对偶相关滤波器(DCF)。之后,学者们从提高跟踪目标的尺度自适应[8-9]、抗遮挡能力[10]和样本质量[11-12],以及改进样本标签[13]和特征表征力[14-15]等角度提出了各种提高跟踪性能的方式。

Li等[16]提出了尺度自适应的多特征融合跟踪(SAMF)方案,该方案使用了结合颜色名(CN)和HOG特征的CF跟踪器对目标进行多尺度检测,可以有效提高了跟踪精度。SAMF方案在许多算法中均有应用[17-18]。Possegger等[19]结合颜色直方图提出了干扰感知(DAT)模型,可以有效抑制了相似对象的干扰。Wang等[20]提出了基于循环特征的大边缘目标跟踪(LMCF)算法,该算法采取了多峰检测的方式并使用平均峰值相关能量(APCE)自适应地更新模板,从而提高定位精度。由于核互相关器(KCC)不受核函数类型的限制,所以可以将CF只能预测平移变换扩展到能够预测旋转和尺度等任意仿射变换[21]。Ma等[22]使用了两种判别回归模型来预测位置,当处于低置信度状态时对目标进行检测,可以显著提高跟踪精度。也有研究人员将CF跟踪算法与特征建模能力强的深度学习方法结合,通过提取深度特征[23]或使用神经网络模拟CF实现端到端的训练方式[24-25],可以明显提高了跟踪精度,但其运行速度较采用手工特征的CF方法仍有待提高。

尽管CF跟踪器已经取得较好的发展,但其在复杂的视频场景中仍然存在图像特征不足以准确反映目标外观变化、尺度变化需通过平移滤波器来得到,以及缺少对响应置信度进行判断等问题,致使模型中易引入不可信样本,不利于精确地跟踪目标。

针对上述问题,本文采用颜色直方图对象-背景模型与核尺度相关器判别模型结合的方法,提高CF算法应对形变的能力,从而提高跟踪的稳定性,实现对跟踪目标的精确定位。接着从最可信的图像帧中训练核尺度相关器,用于对尺度进行预测。针对模型更新过程中可能引入噪声而造成模型损坏的问题,本文预定义阈值,当置信度满足一定阈值时,对模型进行更新。在100个序列中的跟踪结果表明,该方法在精度方面较KCC方法和SAMF方法分别高出0.039和0.043,成功率分别提高0.129和0.020。该方法在CPU上可以实现实时跟踪,在尺度变化、形变、光照、旋转、视野外和相似背景干扰等复杂的视频场景中能够有效跟踪目标,有利于智能视频监控技术的发展。

2 方法设计

使用颜色直方图来表征目标的对象模型已在相对复杂的视频场景中取得了较好的结果,颜色特征的优越性在DAT跟踪器中已展现出来。受到DAT[19]的启发,使用基于颜色直方图的贝叶斯分类器对位置进行估计,同时考虑到颜色直方图特征容易在光照发生较大变化的情况下产生跟踪漂移,因此再次提取对光照具有鲁棒性的HOG特征来表征目标,运用实时性能优异的CF方法与直方图方法相结合的方式来定位目标。

2.1 颜色直方图对象-背景模型

训练阶段的搜索区域Q∈{M,ε},其中M为前景目标区域,ε为背景区域。输入图片I,前景和背景直方图模型可分别表示为 HMIHεI。对于像素x,根据贝叶斯规则,使用颜色直方图来近似计算I中的x属于对象区域O的概率,表达式为

P(xOM,ε,bx)=HMI(bx)HMI(bx)+HεI(bx),ifI(x)I(Mε)0.5,otherwise,(1)

式中:bx表示x在区域Q中的颜色直方图H上所属颜色区间对应的直方条。对于不可见像素的情况,将P值设为0.5。(1)式求得的对象似然概率可以通过查表的方式来高效计算,得到一个能够将目标从背景中区分出来的像素级颜色概率图。

2.2 多通道特征核相关器判别模型

KCC[21]为CF方法提供了统一的解,打破了KCF核函数类型的限制,可以用于预测平移、旋转和尺度等自定义的仿射变换。受到KCC的启发,使用多通道核相关器模型对平移及尺度进行预测,将用于估计平移和尺度的核相关器分别记为KTC和KSC。

测试样本及训练样本分别为z∈ℝnx∈ℝn,其中n为维度,将样本映射到高维特征空间φ(x)中,则滤波器f的核化互相关响应函数为

g˙=Fκx(z)f=κ˙x(z)f˙*,(2)

式中:g表示回归目标;F(·)表示快速傅里叶变换函数;􀱋表示相关运算符;☉表示点积运算;^ *分别表示快速傅里叶变换符号和共轭符号;κx(z)= k(z,x1)k(z,xm)T,其中k(·)为核函数,定义k(u,u')T(u)φ(u'),m为样本数量,xi∈T(x)∈ℝn为基于样本x∈ℝn的向量,其中T(·)为变换函数,TTrans(·)和Tscale(·)分别为平移和尺度变换函数,i∈{1,…,m}。fg的长度与m有关,即f∈ℝmg∈ℝm

对于一个图像信号的D维通道特征图,在每帧图像中提取x∈ℝng选用高斯函数。学习一个最优的多通道特征相关器f,则目标函数应满足

minfc*c=1Dκxc(xc)fc-g2+λtmplc=1Dfc2,(3)

式中:xc表示第c维通道的特征样本;λtmpl表示正则化参数。在频域中,(3)式可以表示为

minf˙c*c=1Dκ˙xc(xc)f˙c*-g˙2+λtmplc=1Df˙c*2(4)

对(4)式进行求解,得到对应于第c维通道特征样本的相关器参数,表达式为

f˙c*=g˙κ˙xc*(xc)j=1Dκ˙xj(xj)κ˙xj*(xj)+λtmpl1(5)

对于信号z,平移变换数为q。由于在跟踪问题中,采用线性核具有计算简单且跟踪效果较好,因此所提算法采用线性核k(z,xo)=zTxo进行简化求解,其中oo=1,…,q,则

κx(z)=k(z,x1)k(z,xn)T=zTx1zTxnT=zx=F -1(z˙x˙*),(6)

式中:F-1(·)表示逆傅里叶变换。由于(6)式只存在元素方向的运算,因此可以快速地训练一个多通道的线性分类器。

2.3 高置信度更新策略

为了适应目标的外观变化,在图像的第t帧中,采用学习率ηcolor以线性插值的方式来更新颜色对象-背景模型,表达式为

HMI(bx)t,model=(1-ηcolor)HMI(bx)t-1,model+ηcolorHMI(bx)t,(7)HεI(bx)t,model=(1-ηcolor)HεI(bx)t-1,model+ηcolorHεI(bx)t(8)

相关器模板参数 f˙c*可以简写为 f˙c*= r˙c/( d˙+λtmpl1),其中 r˙c= g˙κ˙xc*(xc), d˙= j=1Dκ˙xj(xj)☉ κ˙xj*(xj),则对当前t帧的模型参数使用CF模型的学习率η进行在线更新,表达式为

r˙c,t,model=(1-η)r˙c,t-1,model+ηr˙c,t,(9)d˙t,model=(1-η)d˙t-1,model+ηd˙t(10)

为了提高遮挡处理的能力,以及避免更新过程中目标被损坏的问题,采用LMCF方法[20]对判断置信度的方法进行改进,使用APCE来衡量检测目标的置信度,表达式为

AAPCE,t=Smax,t-Smin,t2meanw,h(Sw,h,t-Smin,t)2,(11)

式中:Smax,t=max(St),Smin,t=min(St),其中St表示第t帧图像的响应;w∈(0,…,W)表示行,W为图像块的宽度;h∈(0,…,H)表示列,H为图像块的高度。将采用两种置信度阈值判断跟踪可靠性的方法进行对比(详见第3节),发现在满足APCE与最大响应均大于更新阈值θ,则对模型参数进行更新,此时效果最佳。

2.4 检测阶段

在位置检测阶段,计算颜色概率图中所有大小等于预测尺度的矩形框内像素概率的和,其可以在概率图上查找四次积分图而得到。设矩形框区域的长宽分别为uv,则该矩形框中心位置的响应图为

Scolor(x)=[J(pu,pv)+J(pu+u,pv+v)-J(pu+u,pv)-J(pu,pv+v)],(12)

式中:J表示积分图,在位置(pu,pv)处的积分图J(pu,pv)= pu1pu,pv1pvV(pu1,pv1),其为输入图像左上角的所有像素值V(pu1,pv1)的和,(pu,pv)为矩形框左上角的位置。

在前一帧图像的目标位置处提取z,则在当前t帧的图像中其平移相关响应可表示为

St,tmpl=F -1c=1Dκ˙t,xc(zc)f˙t-1,c,model*(13)

最终的平移响应得分采用融合因子γ来综合HOG特征和颜色统计特征的响应得分,得到当前t帧图像的平移综合响应分数为

St,p=(1-γ)St,tmpl+γSt,color,(14)

式中:St,color表示颜色统计特征响应得分。由(14)可知,响应的最大峰值位置即为预测的目标位置。

当进行尺度预测时,xi可以通过尺度变换来得到。由于尺度空间不具有周期性,因此存在边界效应,此时可以采用向核向量补零的方式来缓解,即

κx(z)=k(z,x1)k(z,xm)00T(15)

核向量的长度增加一倍,即κx(z)∈ℝ2mf∈ℝ2m。补零是非必要的,即使没有补零,核尺度相关器的尺度估计性能仍然是优于一般算法的[21]

尺度检测阶段,尺度测试样本zscale在当前t帧图像的尺度响应St,scale与(13)式求解方式相同,最大尺度相关响应即为预测的目标尺度。

2.5 算法执行

跟踪方法的流程如图1所示,步骤如下,其中Sp 为位置响应得分,Sscale为尺度响应得分。

图 1. 跟踪方法的流程图

Fig. 1. Flowchart of tracing method

下载图片 查看所有图片

首先初始化目标的位置和尺度;接着从当前帧的目标框中分别提取HOG特征和颜色特征,并分别用于训练KTC和直方图模型以计算两种模型的响应分数,使用(14)式求得平移综合响应分数,其最大值位置处即为预测的下一帧目标位置;从预测位置处提取HOG特征来训练KSC,并使用(13)式求解尺度相关响应,其最大响应值的尺度即为目标尺度;然后采用高置信度的方式更新模型;最后输出预测位置和尺度,对下一帧图像的模型进行训练和更新,直到完成所有序列的跟踪。

3 分析与讨论

将所提方法在MATLAB R2014a软件中进行仿真模拟,实验环境为Intel(R) Core(TM) i5-4200U CPU@1.60 GHz 2.3 GHz,根据在线目标跟踪基准(OTB-2015)对跟踪性能进行评估。

采用不同的置信度阈值来判断所提方法跟踪的可靠性,并与其他方法进行对比。受到文献[ 22]的启发,当方法1(ours 1)在APCE与最大响应均大于θ值时,则认为跟踪响应是可信的,当方法2(ours 2)在APCE与最大响应分别以一定的正确率α1α2大于历史均值时,判定跟踪结果可信[20]。判别置信度的条件如表1所示,其中θα1α2的设置参考文献[ 20,22],AAPCE,p为预测平移位置的平均峰值相关能量,AAPCE,scale为预测尺度的平均峰值相关能量。

表 3. 不同跟踪器的性能比较

Table 3. Performance comparison of different trackers

ParameterOurs 1Ours 2SAMFKCCKCFDCF
Average precision0.7940.7610.7510.7550.6960.690
Average success rate0.6940.6730.6740.5650.5510.548
Average frame rate/(frame×s-1)15.34016.3505.47616.68072.382105.650

查看所有表

表 2. 实验参数的设置

Table 2. Setting of experimental parameters

ParamaterValue
CF (HOG)model learning rate0.01
Background and foreground colour models learning rate0.04
Scale learning rate0.008
Interpolation factor0.3

查看所有表

表 1. 跟踪置信度的阈值设置

Table 1. Threshold setting for tracking confidence

NameTranslation confidence criterionScale confidence criterionValue
Ours 1AAPCE,p,t>θmaxSp,t>θAAPCE,scale,t>θmaxSscale,t>θθ=0.5
Ours 2AAPCE,p,t>α11t-1i=1t-1AAPCE,p,t(i)maxSp,t>α21t-1i=1t-1maxSp,t(i)AAPCE,scale,t>α11t-1i=1t-1AAPCE,scale,t(i)maxSscale,t>α21t-1i=1t-1maxSscale,t(i)α1=0.45α2=0.70

查看所有表

表 4. 不同跟踪挑战下的平均精度

Table 4. Average precision facing different tracking challenges

AttributeOurs 1Ours 2SAMFKCCKCFDCF
SV(63)0.7450.7150.7010.7010.6350.628
FM(39)0.7140.6800.6540.7110.6210.603
BC(31)0.8320.8140.6890.8080.7130.686
MB(29)0.7000.6910.6550.7130.6010.576
IV(37)0.8090.7900.7080.8080.7240.698
OV(14)0.6820.6100.6280.6520.5010.487
IPR(51)0.8020.7820.7210.7500.7010.686
DEF(43)0.7560.6930.6800.7510.6190.623
LR(9)0.6060.5180.6850.4940.5600.564
OCC (48)0.7240.6850.7220.6790.6320.611
OPR (63)0.7540.7150.7390.7160.6770.665

查看所有表

表 5. 不同跟踪挑战下的平均成功率

Table 5. Average success rate facing different tracking challenges

AttributeOurs 1Ours 2SAMFKCCKCFDCF
SV(63)0.6060.5890.5840.4950.4150.416
FM(39)0.6400.6300.5950.5990.5260.521
BC(31)0.7830.7690.6390.6250.6090.597
MB(29)0.6400.6530.6410.6510.5500.542
IV(37)0.7070.7070.6400.5990.5500.534
OV(14)0.6030.5660.5510.5160.4570.450
IPR(51)0.6960.6800.6410.5480.5530.544
DEF(43)0.6510.6080.6060.6060.5030.505
LR(9)0.4180.3820.5150.2440.2950.301
OCC (48)0.6530.6300.6640.5300.5120.500
OPR (63)0.6540.6250.6600.5300.5270.519

查看所有表

模型的参数设置如表2所示。

将所提方法与其他4种性能优异的方法(DCF[7]、KCF[7]、SAMF[16]和KCC[21])进行对比,100个视频序列中的一次性评估精确曲线和成功率曲线分别如图2图3所示。不同跟踪方法在100个视频序列中的平均精度、成功率及帧速率,如表3所示。从图2图3表3可以看到,ours 1方法和ours 2方法较其他方法在成功率方面提高更为明显,ours 1的跟踪效果较ours 2更优;在位置误差阈值为20 pixel的情况下,ours 1的平均距离精度(DP)为0.794;在重叠阈值范围为[0,1]的情况下,ours 1的平均重叠成功率(OS)为0.694,该方法的精确率和成功率较DCF方法提高了0.104和0.146,充分展示出融入颜色直方图及KSC估计尺度方法的跟踪优势,以及使用置信度阈值判别响应可靠性的优越性;在精度方面,采用置信度高的模型进行更新,其精度较KCC方法高出0.039,成功率比SAMF方法提高0.020;该方法在保持高精度和高成功率的情况下,在CPU上的帧速率达到15.34 frame/s,虽较实时性最优的DCF方法有所差距,但较融入CN特征的SAMF方法实时性能较优。

图 2. 不同方法在100个序列中的精度曲线

Fig. 2. Precision curves of different methods in 100 sequences

下载图片 查看所有图片

图 3. 不同方法在100个序列中的成功率曲线

Fig. 3. Success rate curves of different methods in 100 sequences

下载图片 查看所有图片

基准数据集使用11种属性描述了跟踪过程中的不同挑战性情况。表4表5分别为11个属性下的平均距离精度和平均重叠成功率,其中11个属性分别为尺度变化(SV)、快速运动(FM)、背景杂乱(BC)、运动模糊(MB)、光照变化(IV)、视线外(OV)、平面内旋转(IPR)、形变(DEF)、低分辨率(LR)、遮挡(OCC)和平面外旋转(OPR),对比结果排名第一的数值加粗,排名第二的数值使用下划线来标记,括号中的数值表示满足每一种属性的图像数。从表4表5可以看到,使用高置信度更新策略且融入多种特征的KCC方法,能够提高跟踪器在具有挑战性的BC、FM、SV和DEF等属性下的稳定性;所提方法ours 1和ours 2在BC、SV和IPR属性下的成功率及距离精度优势很明显,ours 1在MB和LR情况下的精度,以及在LR、OCC、MB和OPR情况下的成功率,虽较排名第一的SAMF方法有所降低,但所差不多。

为了更直观地反映所提方法的跟踪效果,定性评估6种方法在三个具有挑战性的序列中的表现,结果如图4所示。

图4可以看到,对于图4(a),在背景杂乱和光照较弱的情况下,当出现遮挡或旋转时,所提方法能够准确跟踪目标并能够适应目标的尺度变化,其他方法均出现跟踪失败的情况;对于图4(b),当其他跟踪器难以应对频繁的旋转变化时,该方法可以很好处理;对于图4(c),在第25 frame的图像中,当有相似的背景干扰时,除了所提方法外,其他方法均出现跟踪漂移的现象,在第35 frame的图像中,当处理运动模糊的情况时,所提方法与SAMF方法均能准确跟踪目标,而且所提方法的总体跟踪性能表现更佳。

图 4. 6种跟踪器在不同序列中的定性比较结果。(a) shaking序列; (b) freeman1序列; (c) deer序列

Fig. 4. Qualitative comparison results of six trackers in different sequences. (a) shaking sequence; (b) freeman1 sequence; (c) deer sequence

下载图片 查看所有图片

4 结论

为了使图像特征能够准确反映目标的外观变化,采用颜色直方图对象-背景模型与相关滤波判别模型结合的方式来定位目标。针对尺度变化需通过计算平移滤波响应求得的问题,使用尺度变换样本来直接训练核尺度相关器。针对未判断响应置信度就对模型进行更新可能会引入不可信样本,从而造成模型损坏的问题,采用APCE和最大响应判据对置信度高的模型进行更新。在100个序列中的跟踪结果表明,所提方法在CPU上实现实时跟踪,在尺度变化、形变、光照、旋转和相似背景干扰等复杂的视频场景中,能够以较高的精度和成功率跟踪目标,对提高智能视频监控系统的监控效率具有重要价值。

参考文献

[1] 吴国星. 智能视频监控下的目标跟踪关键技术研究[D]. 南京: 南京理工大学, 2017.

    Wu GX. Research on key technology of object tracking in intelligent video surveillance[D]. Nanjing: Nanjing University of Science and Technology, 2017.

[2] 卢湖川, 李佩霞, 王栋. 目标跟踪算法综述[J]. 模式识别与人工智能, 2018, 31(1): 61-76.

    Lu H C, Li P X, Wang D. Visual object tracking: a survey[J]. Pattern Recognition and Artificial Intelligence, 2018, 31(1): 61-76.

[3] 茅正冲, 陈海东. 基于核相关滤波的长期目标跟踪算法[J]. 激光与光电子学进展, 2019, 56(1): 010702.

    Mao Z C, Chen H D. Long-term object tracking algorithm based on kernelized correlation filter[J]. Laser & Optoelectronics Progress, 2019, 56(1): 010702.

[4] 张焕龙, 胡士强, 杨国胜. 基于外观模型学习的视频目标跟踪方法综述[J]. 计算机研究与发展, 2015, 52(1): 177-190.

    Zhang H L, Hu S Q, Yang G S. Video object tracking based on appearance models learning[J]. Journal of Computer Research and Development, 2015, 52(1): 177-190.

[5] Wu Y, Lim J, Yang M H. Object tracking benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848.

[6] Smeulders A W M, Chu D M, Cucchiara R, et al. Visual tracking: an experimental survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(7): 1442-1468.

[7] Henriques J F, Caseiro R, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.

[8] 刘晓悦, 王云明, 马伟宁. 融合FHOG和LBP特征的尺度自适应相关滤波跟踪算法[J]. 激光与光电子学进展, 2020, 57(4): 041512.

    Liu X Y, Wang Y M, Ma W N. Scale-adaptive correlation filter tracking algorithm based on FHOG and LBP features[J]. Laser & Optoelectronics Progress, 2020, 57(4): 041512.

[9] 廖秀峰, 侯志强, 余旺盛, 等. 基于核相关的尺度自适应视觉跟踪[J]. 光学学报, 2018, 38(7): 0715002.

    Liao X F, Hou Z Q, Yu W S, et al. A scale adapted tracking algorithm based on kernelized correlation[J]. Acta Optica Sinica, 2018, 38(7): 0715002.

[10] 王凯宇, 陈志国, 傅毅. 基于相关滤波器的目标抗遮挡算法[J]. 激光与光电子学进展, 2019, 56(3): 030401.

    Wang K Y, Chen Z G, Fu Y. Target anti-occlusion algorithm based on correlation filter[J]. Laser & Optoelectronics Progress, 2019, 56(3): 030401.

[11] MuellerM, SmithN, GhanemB. Context-aware correlation filter tracking[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 1387- 1395.

[12] 万欣, 张春辉, 张琳, 等. 加权全局上下文感知相关滤波视觉跟踪算法[J]. 计算机工程与应用, 2018, 54(16): 1-12, 67.

    Wan X, Zhang C H, Zhang L, et al. Visual tracking via weighted global context-aware correlation filter[J]. Computer Engineering and Applications, 2018, 54(16): 1-12, 67.

[13] BibiA, MuellerM, GhanemB. Target response adaptation for correlation filter tracking[M] //Leibe B, Matas J, Sebe N, et al. Computer vision-ECCV 2016. Lecture notes in computer science. Cham: Springer, 2016, 9910: 419- 433.

[14] BertinettoL, ValmadreJ, GolodetzS, et al.Staple:complementary learners for real-time tracking[C] //2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 1401- 1409.

[15] 尹宽, 李均利, 李丽, 等. 复杂情况下自适应特征更新目标跟踪算法[J]. 光学学报, 2019, 39(11): 1115002.

    Yin K, Li J L, Li L, et al. Adaptive feature update object-tracking algorithm in complex situations[J]. Acta Optica Sinica, 2019, 39(11): 1115002.

[16] LiY, Zhu JK. A scale adaptive kernel correlation filter tracker with feature integration[M] //Agapito L, Bronstein M, Rother C. Computer vision-ECCV 2014 workshops. Lecture notes in computer science. Cham: Springer, 2015, 8926: 254- 265.

[17] DanelljanM, HägerG, Khan FS, et al.Learning spatially regularized correlation filters for visual tracking[C] //2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile.New York: IEEE Press, 2015: 4310- 4318.

[18] DanelljanM, RobinsonA, Shahbaz KhanF, et al. Beyond correlation filters: learning continuous convolution operators for visual tracking[M] //Leibe B, Matas J , Sebe N, et al. Computer vision-ECCV 2016. Lecture notes in computer science. Cham: Springer, 2016, 9909: 472- 488.

[19] PosseggerH, MauthnerT, BischofH. In defense of color-based model-free tracking[C] //2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA.New York: IEEE Press, 2015: 2113- 2120.

[20] Wang MM, LiuY, Huang ZY. Large margin object tracking with circulant feature maps[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 4800- 4808.

[21] WangC, ZhangL, XieL, et al. Kernel cross-correlator[EB/OL]. (2018-02-26)[2020-07-29]. https://arxiv.org/abs/1709.05936. 05936.

[22] MaC, Yang XK, Zhang CY, et al.Long-term correlation tracking[C] //2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA.New York: IEEE Press, 2015: 5388- 5396.

[23] Dai KN, WangD, Lu HC, et al.Visual tracking via adaptive spatially-regularized correlation filters[C] //2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 15-20, 2019, Long Beach, CA, USA.New York: IEEE Press, 2019: 4665- 4674.

[24] ValmadreJ, BertinettoL, HenriquesJ, et al.End-to-end representation learning for correlation filter based tracking[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 5000- 5008.

[25] GuoQ, FengW, ZhouC, et al.Learning dynamic Siamese network for visual object tracking[C] //2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy.New York: IEEE Press, 2017: 1781- 1789.

李福进, 刘慧慧, 任红格, 史涛. 高置信度的尺度自适应核相关跟踪方法[J]. 激光与光电子学进展, 2021, 58(8): 0815004. Fujin Li, Huihui Liu, Hongge Ren, Tao Shi. Scale Adaptive Kernel Correlation Tracking Method with High Confidence[J]. Laser & Optoelectronics Progress, 2021, 58(8): 0815004.

本文已被 2 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!