激光与光电子学进展, 2018, 55 (4): 041501, 网络出版: 2018-09-11   

尺度自适应核相关滤波目标跟踪 下载: 1336次

Scale Adaptive Kernel Correlation Filtering for Target Tracking
作者单位
江南大学轻工过程先进控制教育部重点实验室, 江苏 无锡 214122
摘要
针对传统跟踪方法难以实时准确适应目标尺度变化这一问题,基于核相关滤波跟踪框并采用尺度估计方法,提出一种自适应尺度的目标跟踪算法。对正则化最小二乘分类器进行求解,获得滤波模板,并对候选样本进行检测,估计出目标的位置;利用尺度估计方法,在已确定目标位置处根据前一帧目标的大小对当前帧目标尺度进行检测,由最大的响应值确定当前帧目标的尺度;根据遮挡检测机制,在线更新目标和尺度模型参数。实验结果表明,所提出的算法与其他跟踪算法中的最优者相比,距离精度提高了17.12%,成功率提高了10.77%;在目标发生背景干扰、严重遮挡以及在光照、姿态和尺度变化等复杂场景下,该算法仍具有较好的跟踪效果。
Abstract
Focusing on the issue that the traditional tracking method is difficult to adapt to the target scale variation in real time accurately, an adaptive scale target tracking algorithm based on kernel correlation filtering tracking framework, which adapts a scale estimation method, is proposed. Firstly, the regularized least squares classifier is used to obtain the filter template, and the position of the target is estimated by detecting the candidate samples. Then, the scale of current frame is determined based on the target size of the previous frame, and the scale samples are obtained by the maximum response value through the scale estimation method. Finally, the target and scale model parameters are updated online according to the occlusion detection mechanism. The experimental results show that the proposed algorithm improves the distance precision by 17.12% and the success rate by 10.77% as compared with the best of the other tracking algorithms. In complex scenes, such as background clutters, severe occlusion, and illumination, posture and scale variation, the proposed algorithm still has a good tracking performance.

1 引言

目标跟踪是在视频序列中估计出感兴趣的目标位置及其运动轨迹的过程,在视频处理中有很多实际的应用,如视频监控[1]、智能工业控制[2]和机器人学[3]等,因此成为计算机视觉的一个重要研究领域。目前,目标跟踪技术已经取得了很大的进步,但是仍面临很多挑战,如目标尺度和光照变化、目标旋转和遮挡、目标快速移动、相机抖动和背景干扰等[4]

近年来,基于判别式的跟踪方法表现出了良好的跟踪性能,该方法引入机器学习的思想,将目标跟踪看成一个二分类问题,利用目标及其周围的背景信息,通过在线学习一个判别式的分类器,对候选样本进行评估来定位目标区域[5]。具有代表性的判别式跟踪器有Ensemble Tracking[6]、多示例学习跟踪器[7]和跟踪学习检测(TLD)算法[8]等。最近,基于深度学习的跟踪方法也表现出了较好的跟踪性能,最新的相关算法,如多域网络[9]和全卷积孪生网络跟踪算法[10],在目标跟踪标准库的跟踪性能检测中表现卓越[11]

有时为了实时性的考虑,算法在训练和检测过程中只选取有限数量的样本,无法获得可靠的分类器模型。为了解决此问题,Henriques等[12]提出了基于循环结构的检测跟踪(CSK)算法,该算法通过对训练样本和候选样本进行循环移位,近似目标的密度采样,获得可靠的目标外观模型和目标位置的检测。Danelljan等[13]在CSK框架的基础上,用色名(CN)属性对目标进行描述,并采用自适应降维的方法,提出了色名跟踪器(CNT),CNT比其他基于颜色空间的特征有更好的跟踪效果。核相关滤波(KCF)跟踪[14]算法用方向梯度直方图(HOG)特征代替CSK算法中的灰度特征,提高了算法跟踪的稳健性。刘行等[5]在CSK算法的基础上,将灰度、CN与HOG特征进行融合,提出了自适应多特征融合目标跟踪算法,提高了算法的跟踪精度和稳健性。然而,以上算法都用固定的跟踪框去跟踪不断变化的目标,这不仅影响跟踪精度,也可能导致跟踪漂移,甚至跟踪失败。

针对KCF目标跟踪算法在跟踪过程中无法解决目标尺度变化的问题,在KCF跟踪框下,引入一种尺度估计方法,并提出了一种自适应尺度的KCF跟踪算法。该算法通过KCF获得目标的估计位置,然后根据尺度估计输出的最大响应值,确定当前帧目标的尺度,并根据遮挡检测在线更新尺度与滤波模板,使算法的跟踪框能够实时地适应目标尺寸大小的变化。

2 KCF跟踪器

KCF跟踪器是在CSK跟踪器框架的基础上,以HOG代替最初的灰度值扩展而来的。KCF跟踪器通过在线密度采样获得大量训练样本,构建目标外观模型,训练一个正则化最小二乘分类器,利用核函数进行求解,以获得滤波模板。获得滤波模板后,即可对候选样本进行检测,实现目标的在线学习与跟踪[14]

2.1 正则化最小二乘分类器的求解

在KCF跟踪器中,训练分类器f(x)的目的是找到最小化风险参数w,使目标周围大小为m×n的图像块x的所有循环移位样本集xi(i∈{0,…,m-1}×{0,…,n-1})与其对应的回归标签ri的平方误差和最小[14]。训练分类器的最小代价函数可表示为

minwi=1nf(xi)-ri2+εw2,(1)

式中εw2为惩罚项;ε为正则化参数,用来防止过拟合。(1)式的解可表示为所有输入样本xi的线性联合,由于w=iαiφ(xi),则对w的求解可转化为对单一因数对偶变量αi的求解[15],其中φ(xi)表示将xi映射到Hilbert特征空间。于是,正则化最小二乘分类器的封闭解为

α=(k+εI)-1r,(2)

式中I为单位矩阵;k为核矩阵,其元素kij=k(xi,xj)=<φ(xi),φ(xj)>;r为每个样本对应的回归标签矩阵。文献[ 12]证明了k具有循环矩阵的结构,根据循环矩阵的性质可得到(2)式在频域中的解为

α=F-1F(r)F(k)+ε,(3)

式中F与F-1表示离散傅里叶变换与离散傅里叶逆变换。将(3)式代入f(z)=i=1nαikz,xi中,得到正则化最小二乘分类器的响应值为

f(z)=αK(z,x)=F-1{AF[K(z,x)]},(4)

式中A=F(α),K(z,x)=k(zi,xi)=φT(xi)φ(z),x为训练样本向量,z为测试样本向量,φ(x)与φ(z)分别为训练和测试样本的特征向量。

2.2 目标检测

在当前帧与前一帧目标中心相同的位置处,提取大小为m×n的图像块作为基候选样本,建立目标外观模型,对其进行循环移位操作,获得候选样本集合zi(i∈{0,1,…,m-1}×{0,1,…,n-1})。对每一个输入分类器的候选样本zi进行检测,利用训练获得的滤波系数对检测样本与目标图像块的相似度进行加权求和,得到分类器的响应r'i=jαjk(xj,zi)。类似训练过程,响应值的求解可转换到频域,以降低求解过程的运算量,即

r=F-1F(k)·F(α)(5)

KCF算法通过检测过程获得最大的响应值来估计当前帧的目标位置,跟踪效果较好,但是在一些复杂的场景中,由于尺度变化、遮挡等因素的干扰,算法的跟踪框不能随着目标大小自适应地变化,且在模型更新中未考虑目标遮挡的情况,容易引入背景信息,从而导致跟踪精度较低。

3 基于KCF的自适应尺度跟踪

所提出的算法在传统的跟踪算法上增加了尺度估计策略和遮挡检测更新策略,旨在解决以下两个问题:1) 传统算法跟踪框不能随目标大小自适应变化,导致跟踪准确率低;2) 遮挡情况下的目标模型不断更新,导致跟踪误差不断积累。

3.1 自适应尺度估计

KCF算法中的目标跟踪框是固定的,当目标逐渐变大时,只能捕捉到目标的某一部分,当目标逐渐变小时,跟踪的目标区域又易于掺杂干扰的背景信息,这不仅影响算法的跟踪精确度,还会影响后期的姿态估计和行为分析等操作。为了解决这一问题,在原始算法的跟踪过程中加入尺度估计的方法。

假设目标模板为M,第t-1帧检测出的目标尺度为St-1。由KCF算法获得的当前帧的目标位置为pt,在pt处以St-1为基准,提取多种不同尺度的图像块raSt-1,记为Si(i=1,2,…,2l+1),其中r为尺度变换因子,a为[-l,l]之间的整数。利用双线性插值的方法将尺度为Si的图像块调整到与M大小相同的尺寸,提取HOG的特征fi,将其输入到尺度估计模型,即(6)式中进行检测,由最大的响应值y确定当前帧目标的尺度St,即

minl=1dhlfl-y2+λl=1dhl2,(6)

式中⊗表示卷积;h为滤波模板,hl=F-1(A/B)=F-1F*(y)F(fl)i=1lF(fi)F*(fi)+λ,其中*表示共轭;y为满足一维高斯分布的函数。尺度检测的过程即为获得最大的y对应的尺度的过程,即

y=F-1i=1lAi*ZiB+λ(7)

获得当前帧的尺度后,更新h的分子和分母,即

A=(1-θ)At-1+θAt=(1-θ)At-1+θF*(y)F(fl),(8)B=(1-θ)Bt-1+θBt=(1-θ)Bt-1+θi=1lF*(fi)F(fi),(9)

式中θ为学习速率,fi(i=1,2,…,2l+1)为当前帧尺度的训练样本。

3.2 分类器的更新

对当前帧获得的目标区域x进行循环移位操作,得到训练样本集合。通过求解正则化最小二乘分类器获得学习系数,更新滤波模板系数α,同时对目标外观模型H进行更新,即

α=(1-θ)αpre+θαnew,(10)H=(1-θ)Hpre+θHnew,(11)

式中αpreHpre分别为前一帧获得分类器的模板系数和目标外观模型,αnewHnew分别为当前帧获得分类器的模板系数和目标外观模型。但跟踪环境复杂多变,目标难免受到干扰物的遮挡。当目标受到遮挡时,如果仍采用连续的模板更新方法,难免会掺杂遮挡物的信息而导致跟踪误差不断积累,为了解决此问题,采用了一种遮挡检测更新方法。

当目标正常运动时,KCF跟踪器的响应函数为高斯分布,峰值很明显;当目标受到遮挡时,峰值不明显且峰值旁瓣比减小,目标的可能位置点增多,目标位置与尺度的确定变得困难。假设最大响应值为rmax(z),其对应的目标位置为pmax,记大于T1·rmax(z)的最小响应值对应的位置为pmin,其中,T1为距离阈值两个位置点之间的欧式距离为

d=pmax(x)-pminx2+pmax(y)-pminy2,(12)

式中pmax(x)、pmin(x)分别为最大、最小响应值在x方向的坐标,pmax(y)、pmin(y)分别为最大、最小响应值在y方向的坐标。计算一定响应值内目标可能出现的位置点区域的面积S,Sd2,如果S>T2w'h'(T2为面积阈值,w'为搜索域的宽,h'为搜索域的高),则判断目标受到遮挡,减弱当前帧的模型参数在尺度模板、外观模型和滤波模板更新中的比重,即令(8)~(11)式的θ=0.01,否则按照原来的更新方法继续跟踪,即θ=0.02。

3.3 算法步骤

自适应尺度跟踪算法是以KCF算法为跟踪框、在获得目标位置后引入目标的尺度估计方法,算法的跟踪框能随着目标大小自适应地变化,同时引入判断模板更新的遮挡检测方法,避免了引入过多背景信息和丢失过多目标信息的问题,从而建立了更可靠的目标外观模型,提高了算法的准确性。

所提算法的具体步骤为:

1) 输入第一帧目标的位置p1、尺度S1和外观模型H1,记模板为M

2) 输出当前帧的位置pt、尺度St、滤波模板系数αt、外观模型Ht和尺度滤波模板ht

for t=1,2,…,nframe

① 在前一帧的位置pt-1处提取图像块z,循环移位获得候选样本集zi(i=1,2,…,n),对其进行检测,由(5)式获得的最大响应值确定当前帧目标的位置pt;

② 在pt处以前一帧目标尺度St-1为基准,提取多种不同尺度Si(i=1,2,…,2l+1)的图像块;

③ 将尺度为Si的图像块调整到与M大小相同的尺寸,对候选尺度样本进行检测,由(7)式获得各个候选尺度样本的响应值,根据最大响应值对应的尺度样本的大小获得当前帧的目标尺度St;

④ 将大小为St的候选尺度样本调整到与M大小相同的尺寸,获得当前帧的目标外观模型Ht,训练其循环移位样本集,由(3)式获得当前帧滤波模板系数αt,同时确定尺度滤波模板ht;

⑤ 根据遮挡检测机制判断目标是否受到遮挡,如果目标受到遮挡,令(8)~(11)式中的θ=0.01,否则令θ=0.02;

end

4 实验结果与分析

为了验证所提算法的性能,对Benchmark视频库中的50组视频进行测试,并对实验结果进行了定性和定量分析。实验分析采用文献[ 11]中的评估方法,将该方法与近年来出现的几种基于检测的优秀跟踪方法[包括Struck[16]、多示例学习(MIL)[7]、时空上下文(STC)[17]、压缩跟踪(CT)[18]、TLD[8]、CSK[12]以及KCF[14]]进行比较。

4.1 实验装置与评价标准

实验仿真环境为:Matlab R2012b,Windows 7系统,Intel Core i3-4170 CPU,主频3.7 GHz,4 GB内存。实验对所有视频序列参数保持不变,高斯核的标准差σ=0.1,正则化参数λ=0.01,θ随遮挡检测机制自动变化,尺度估计因子γ=1.02,尺度数l=16,选取HOG作为图像特征并选取大小为4 pixel×4 pixel的单元,初始化第一帧自动完成。

本实验通过两种评估标准来衡量跟踪器的性能,分别为距离精度(DP)和成功率(SR),均称为一次性评估(OPE)。DP为中心位置误差小于某一阈值的帧数占总帧数的比值,DP的计算公式为

VDP=n'/n,(13)

式中n'为跟踪结果的位置与目标的真实位置小于一定阈值时的帧数,n为跟踪视频的总帧数。选取与文献[ 11]相同的阈值(20 pixel)。SR表示实验获取的跟踪框与其真实跟踪框之间的重叠度超过一定阈值T(T∈[0,1])的帧数与总帧数的比值,选取与文献[ 11]相同的阈值(T=0.5)。SR的计算公式为

VSR=area(RiRgt)area(RiRgt),(14)

式中Ri表示实验获取的跟踪框区域面积,Rgt表示ground-truth中跟踪框区域面积,area(·)表示求取括号内结果的面积。

4.2 定性分析

为了比较直观地证明所提算法的有效性,将多组测试后的视频序列在所有跟踪器中的跟踪结果进行对比,结果如图1所示。图中,为了区分,各跟踪器的跟踪框类型分别采用不同颜色的实线框,红色框表示所提算法的跟踪框,绿色框表示KCF跟踪器的跟踪框,黄色框表示TLD跟踪器的跟踪框,紫色框表示CSK跟踪器的跟踪框,黑色框表示压缩跟踪器的跟踪框,蓝色框表示STC跟踪器的跟踪框,橙色框表示MIL跟踪器的跟踪框,灰色框表示Struck跟踪器的跟踪框。

1) 尺度与光照变化

在Singer1视频中,目标除了发生尺度与光照的剧烈变化,还存在遮挡与旋转的问题,如图1(a)所示。目标由近及远,在整个跟踪过程中,虽然所有算法的跟踪框都能捕捉到目标,但除了所提方法和TLD算法外其他算法的跟踪框都发生了偏移,而从第308帧可以看出,所提方法略优于TLD算法;在Car4视频中,目标除了发生尺度、光照及姿态的变化外,还存在背景干扰问题,如图1(b)所示。在整个跟踪过程中,只有所提方法能够根据目标尺度的变化自动调整跟踪窗口的大小,减少引入背景信息的干扰,因此能够一直准确地检测目标的位置与尺度;在Walking2视频中,目标发生了严重的遮挡与尺度变化,如图1(c)所示。其他算法的跟踪框发生偏移甚至丢失目标,所提算法能够较好地完成整个跟踪过程。

2) 遮挡、旋转与运动模糊

在Jogging2视频中,如图1(d)所示,目标发生了严重的遮挡后,其他算法全部跟踪漂移,目标再次出现时,只有所提方法和TLD可以准确地跟踪;在CarScale视频中,被跟踪目标存在遮挡和尺度变化的情况,目标由远及近,期间并未被树木遮挡,如图1(e)所示,在整个跟踪过程中,只有所提方法能够较好地跟踪目标;在Dog1视频中,如图1(f)所示,目标除了发生剧烈的尺度变化外,还存在姿态的变化,KCF算法与所提算法表现较好,但KCF算法跟踪框却不能随着目标大小自适应地变化,而所提算法却能解决这一问题。

图 1. 不同算法的跟踪结果对比图。 (a) Singer1;(b) Car4;(c) Walking2;(d) Jogging2;(e) CarScale;(f) Dog1

Fig. 1. Comparison of tracking results of different algorithms. (a) Singer1; (b) Car4; (c) Walking2; (d) Jogging2; (e) CarScale; (f) Dog1

下载图片 查看所有图片

4.3 定量分析

为了验证所提算法的有效性,对Benchmark视频库中的50组视频序列进行了距离精度与成功率的评估,并与其他几种近年来出现的优秀算法进行对比。图2(a)、(d)为所有发生尺度变化的26组视频序列的距离精度和成功率曲线图,从表1的对比数据可以看出,与比较算法中的最优者相比,所提算法的距离精度提高了53.23%,成功率提高了40.65%。图2(b)、(e)为所有发生遮挡(OCC)情况的27组视频序列的距离精度和成功率曲线图。从表1的对比数据可以看出,与比较算法中的最优者相比,所提算法的距离精度提高了9.87%,成功率提高了3.70%。图2(c)、(f)为考虑所有挑战(AC)因素的所有视频序列的距离精度和成功率曲线图,从表1的对比数据可以看出,与比较算法中的最优者相比,所提算法的距离精度提高了17.12%,成功率提高了10.77%。从对比曲线与数据可看出所提算法的优越性。

通过对50组视频序列的运行速度求平均得知,KCF的运行速度为190.26 frame/s。虽然所提算法中增加了对目标多种尺度的检测与估计,计算效率有所降低,但是在目标的训练与检测过程采用了快速傅里叶变换的方法,平均运行速度为35.66 frame/s,仍然满足实时性的要求。

表 1. 不同算法对比数据

Table 1. Comparison data of different algorithms

FactorStruckMILSTCCTCSKTLDKCFProposed
VDPVSRVDPVSRVDPVSRVDPVSRVDPVSRVDPVSRVDPVSRVDPVSR
Scalevariation0.3270.3870.3010.3290.2860.3340.2670.2910.2930.3410.3720.3990.3390.4010.5700.554
OCC0.3880.4120.3120.3290.2630.3190.2900.3080.3380.3650.3480.4120.4660.4870.5010.505
AC0.4270.4460.3540.3480.3150.3460.2870.2940.3730.3890.4110.4190.4790.4920.5610.545

查看所有表

图 2. 各算法的DP和SR曲线图。(a) OPE-SR的DP曲线;(b) OPE-OCC的DP曲线;(c) OPE的DP曲线;(d) OPE-SR的SR曲线;(e) OPE-OCC的SR曲线;(f) OPE的SR曲线

Fig. 2. DP and SR plots of different algorithms. (a) DP plots of OPE-SR; (b) DP plots of OPE-OCC; (c) DP plots of OPE; (d) SR plots of OPE-SR; (e) SR plots of OPE-OCC; (f) SR plots of OPE

下载图片 查看所有图片

5 结论

提出了一种自适应尺度的KCF目标跟踪算法,在KCF的基础上引入尺度估计方法。根据对目标区域采样的多种尺度的检测结果,判断目标的大小,使算法的跟踪框能随着目标大小自适应地变化。通过遮挡检测判断目标的遮挡情况,更新滤波模板系数、外观模型和尺度模板。从Benchmark视频库中选取50组视频序列进行测试,并与其他几种优秀的跟踪算法相比。由测试结果可以看出所提算法不仅能适应目标尺度变化与严重遮挡的情况,而且当考虑光照和姿态变化、背景干扰等复杂情况时,与比较算法中的最优者相比,所提算法的DP提高了17.12%,SR提高了10.77%,具有重要的理论和应用研究价值。但是所提算法对于快速运动的目标跟踪效果较差,主要是因为搜索的中心点是根据前一帧目标的中心点来确定的,且搜索的范围有限。未来的研究重点是在KCF的基础上引入运动状态估计的方法,使得跟踪能够在更为复杂的场景中更加稳健和高效。

参考文献

[1] Zhu J, Lao Y, Zheng Y F. Objecttracking in structured environments for video surveillance applications[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2010, 20(2): 223-235.

[2] 邹焱飚, 周卫林, 陈向志. 基于深度分层特征的激光视觉焊接检测与跟踪系统研究[J]. 中国激光, 2017, 44(4): 0402009.

    Zou Y B, Zhou W L, Chen X Z. Research of laser vision seam detection and tracking system based on depth hierarchical feature[J]. Chinese Journal of Lasers, 2017, 44(4): 0402009.

[3] 解则晓, 陈文柱, 迟书凯, 等. 基于结构光视觉引导的工业机器人定位系统[J]. 光学学报, 2016, 36(10): 1015001.

    Xie Z X, Chen W Z, Chi S K, et al. Industrial robust positioning system based on the guidance of the structured-light vision[J]. Acta Optica Sinica, 2016, 36(10): 1015001.

[4] 仇春春, 李庆武, 王恬, 等. 一种改进的IVT目标跟踪算法[J]. 激光与光电子学进展, 2016, 53(1): 011002.

    Qiu C C, Li Q W, Wang T, et al. An improved IVT algorithm for object tracking[J]. Laser & Optoelectronics Progress, 2016, 53(1): 011002.

[5] 刘行, 陈莹. 自适应多特征融合目标跟踪[J]. 光电工程, 2016, 43(3): 58-65.

    Liu H, Chen Y. Target tracking based on adaptive fusion of multi-feature[J]. Opto-Electronic Engineering, 2016, 43(3): 58-65.

[6] Avidan S. Ensemble tracking[J]. IEEE Transactions Pattern Analysis & Machine Intelligence, 2007, 29(2): 261-271.

[7] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8): 1619-1632.

[8] Kalal Z, Mikolajczyk K, Matas J. Tracking-learning-detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.

[9] NamH, HanB. Learning multi-domain convolutional neural networks for visual tracking[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016: 4293- 4302.

[10] BertinettoL, ValmadreJ, Henriques JF, et al. Fully-convolutional Siamese networks for object tracking[C]. European Conference on Computer Vision, 2016: 850- 865.

[11] Wu Y, Lim J, Yang M H. Object tracking benchmark[J]. Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848.

[12] Henriques JF, CaseiroR, MartinsP, et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]. European Conference on Computer Vision, 2012: 702- 715.

[13] DanelljanM, Khan FS, FelsbergM, et al. Adaptive color attributes for real-time visual tracking[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 1090- 1097.

[14] Henriques J F, Caseiro R, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.

[15] ScholkopfB, Smola AJ. Learning withkernels: Support vector machines, regularization, optimization, and beyond[M]. London: The MIT Press, 2002.

[16] HareS, SaffariA, Philip HS. Structured output tracking with kernels[C]. International Conference on Computer Vision, 2011: 263- 270.

[17] ZhangK, ZhangL, Yang MH, et al. Fast tracking via spatio-temporal context learning[C]. European Conference on Computer Vision, 2014: 127- 141.

[18] ZhangK, ZhangL, Yang MH. Real-time compressive tracking[C]. European Conference on Computer Vision, 2012: 864- 877.

高美凤, 张晓玄. 尺度自适应核相关滤波目标跟踪[J]. 激光与光电子学进展, 2018, 55(4): 041501. Meifeng Gao, Xiaoxuan Zhang. Scale Adaptive Kernel Correlation Filtering for Target Tracking[J]. Laser & Optoelectronics Progress, 2018, 55(4): 041501.

本文已被 12 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!