激光与光电子学进展, 2020, 57 (4): 041512, 网络出版: 2020-02-20   

融合FHOG和LBP特征的尺度自适应相关滤波跟踪算法 下载: 994次

Scale-Adaptive Correlation Filter Tracking Algorithm Based on FHOG and LBP Features
作者单位
华北理工大学电气工程学院, 河北 唐山 063210
摘要
针对核相关滤波算法中单一特征不能很好地适应跟踪过程中出现的复杂场景,以及算法无法解决目标尺度变化的问题,提出一种多特征融合的尺度自适应相关滤波跟踪算法。首先,在相关滤波算法的框架下,按照特征响应图的可信度来对快速方向梯度直方图 (FHOG)特征和局部二值模式(LBP)特征进行自适应加权融合,实现对目标的定位;其次,在尺度估计环节,利用尺度金字塔来估计目标的尺度大小,使算法对尺度发生变化的目标有很好的适应能力;最后,在OTB-50数据集上进行测试,将本文算法与其他5种跟踪方法进行对比,其精确率和成功率均有所提高,且具有较好的鲁棒性和稳定的跟踪性能。
Abstract
In this study, we propose a scale-adaptive correlation filter tracking algorithm based on the fusion of multiple features to handle the problems that the single feature of the kernel correlation filtering algorithm cannot adapt to the complex scenes observed during the tracking process and that the kernel correlation filtering algorithm cannot handle the scale changes of the target. First, under the framework of the correlation filtering algorithm, the fast histogram of oriented gradient and local binary pattern features are weighted adaptively based on the reliability of the feature response graph for localizing the target. Second, the scale estimation process estimates the scale of target using a scale pyramid to ensure good adaptability with respect to the target with scale change. The proposed algorithm and five other tracking methods are verified by testing on the OTB-50 dataset. Apart from outperforming the existing methods in terms of the accuracy and success rates, the proposed algorithm exhibits good robustness and a stable tracking performance.

1 引言

目前,随着计算机视觉在人工智能领域的火热,更多的研究是使用计算机代替人的眼睛和大脑去处理相关视频[1]。视觉目标跟踪是计算机视觉中一个重要的研究课题,它是在某视频序列初始帧目标的大小和位置给定的前提下,估计该视频后续帧中目标的大小和位置[2]

近年来,相关滤波算法速度快、准确度高,被广泛应用在目标识别、目标跟踪等领域,并取得了较好的效果。Bolme等[3]第一次将相关滤波算法应用到目标跟踪任务中,提出了最小均方误差(MOSSE)跟踪算法,但是该算法使用的是单通道的灰度特征,导致跟踪精度不高。Henriques等[4]在相关滤波算法的框架中加入了核函数,使用多通道的HOG(Histogram of Oriented Gridients)特征替换单通道的灰度特征,提出了核相关滤波器(KCF)跟踪算法,但是该算法并不能很好地解决目标跟踪过程中出现的遮挡等问题[2];后来,CN(Color Names)[5]、SAMF(Scale Adaptive Multiple Feature)[6]和DSST(Discriminative Scale Space Tracking)[7]算法相继被提出,均取得了较好的跟踪效果。

针对KCF跟踪算法存在以上问题,本文提出一种多特征融合的尺度估计相关滤波跟踪算法。将快速方向梯度直方图 (FHOG)特征和局部二值模式(LBP)特征进行自适应加权融合,实现对目标更精确的定位。再利用尺度金字塔来估计目标的尺度大小,使算法有较高的跟踪准确性。

2 改进跟踪算法

2.1 KCF跟踪算法

KCF跟踪算法是一种鉴别式追踪方法,其基本思想是通过训练一个分类器来区分目标和背景以实现目标的跟踪[8]。首先,在第1帧给定跟踪的目标框,并构建跟踪区域;其次,利用循环矩阵将该区域进行循环移位,利用核函数计算目标的相似程度和目标出现的位置区域;选取最大的输出响应值作为最新的目标,通过傅里叶变换训练目标检测分类器,完成目标检测,最终实现目标的持续跟踪[9]

2.2 特征融合

KCF跟踪算法提取图像特征时采用多通道, 因此可以采用更强大的特征代替单一的特征来进行算法改进。原KCF跟踪算法采用的是单一的HOG特征,当遇到目标背景复杂的情况时,该特征会造成目标丢失[10]。由于FHOG特征对运动模糊、光照变化等描述效果较好,而LBP特征具有较好的局部纹理表达能力和单调灰度不变性等显著优点,所以本文提出将FHOG与LBP特征进行自适应加权融合,实现对目标的定位。

1) FHOG特征

FHOG是通过在HOG上进行了一些改进得到的,由Felzenszwalb等[11]提出,FHOG基于梯度信息能很好地反映图像目标的边缘信息并根据局部梯度的大小将图像的局部外观和形状特征化[12]。该特征能够很好地表征目标的局部形状信息,并且对光照和目标形状变化都具有很好的不变性[12]图1为FHOG特征提取示意图。在FHOG特征中,把有、无符号的梯度方向直方图相结合。统计得到有符号的梯度方向直方图有18维特征,无符号的梯度方向直方图包含13维的特征,其中包括9维无符号梯度方向特征和4维累加特征。所以,共获取了18+9+4=31维的特征通道。

图 1. FHOG特征提取示意图

Fig. 1. Schematic of FHOG feature extraction

下载图片 查看所有图片

图 2. LBP特征提取原理图

Fig. 2. Extraction principle of LBP feature

下载图片 查看所有图片

2) LBP纹理特征

LBP特征[13]是一种用来描述图像局部纹理特征的算子,具有灰度不变性和旋转不变性等显著的优点[14]图2为原始的LBP特征提取原理图,原始的LBP算子是定义在一个3×3的窗口内的,图中的数字代表了该像素点的灰度值,以窗口中心像素为阈值,与相邻8个像素的灰度值作比较,其值比中心像素点的灰度值大的,则该位置记为数字1,否则记为0[15]。如此可以得到一个8位二进制数,将其转换成10进制的数,再将这个值作为窗口中心像素点的LBP值,来反映这个3×3区域的纹理信息[16]。对于普通的图像,按照上面的方法进行处理就可以得到整个图像的LBP值。

本文基于决策级融合的思想对FHOG和LBP特征进行融合。在跟踪的过程中,通过对目标区域进行密集采样得到大量的循环移位样本,再在相关滤波框架下构建基于FHOG和LBP特征的目标表观模型。基于岭回归思想,采用最小化分类误差来训练表观模型,即

ω=argminωifxm,n)-ym,n]2+λω2,(1)

式中:ω为权重系数;[f(xi)-yi]2为损失函数;λ为控制过拟合的正则化参数;xm,n表示中心位置是(m,n)的图像块所对应的特征向量;ym,n为点(m,n)的期望响应。 ω=iαiφ(xi),(1)式求解得到

αi=F-1F(y)F(kxx_i)+λ,(2)

式中:F、F-1分别为离散傅里叶变换和离散傅里叶逆变换;kxx表示基础样本对应特征向量的核自相关, kxx_i为其中元素;α为表观模型,对应元素为αi

经训练分别得到基于FHOG和LBP特征的表观模型αFHOG,αLBP,为确定下一帧中目标可能出现的位置,对这两个特征的表观模型与下一帧图像中候选区域图像块对应特征向量的相关响应值进行计算。计算式分别为

fFHOG(z)=F-1FkxzFHOG)F(αFHOG)],(3)fLBP(z)=F-1FkxzLBP)F(αLBP)],(4)

式中:fFHOG(z)、fLBP(z)分别为这两个特征的表观模型与候选区域图像块产生的特征响应图;☉表示点积;kxz表示基础样本对应的特征向量x与候选区域图像块对应的特征向量z的核相关。

将两个特征响应图进行加权融合,可得到

f(z)=λFHOGfFHOG(z)+λLBPfLBP(z),(5)

式中:λFHOGλLBP分别表示两个特征的融合系数,可通过各自输出响应图的置信度求出。本文采用平均峰值相关能量(APCE)[17]对输出响应图的置信度进行描述,即

RAPCE=(Qmax-Qmin)2meanw,h(Qw,h-Qmin)2,(6)

式中:QmaxQminQw,h分别表示相关响应最高值、最低值以及(w,h)位置处的相关响应。APCE反映响应图的波动程度和检测目标的置信水平。经过加权融合得到f(z),再利用其峰值对新一帧图像中的目标进行定位。根据FHOG和BLP特征对不同场景的处理能力,按照特征响应图的置信度对两种特征进行自适应加权融合,充分利用这两种特征在不同场景的适应能力,提高表观模型的鲁棒性和判别力。

2.3 目标尺度估计

为估计出目标的尺度大小,本文引入尺度金字塔模型来适应目标的尺度变化[18],如图3所示。设第t帧为当前帧,在该帧找到目标的位置,并以该位置为中心提取N个不同尺度的图像块,每个目标图像块的尺度大小为agAt-1×agBt-1(前一帧的目标尺度大小为At-1×Bt-1,可作为当前帧目标大小的先验值),a为尺度因子,gfloor-N-12,floor-N-32,,floorN-1219。在进行特征提取前,要将N个图像块调整到统一的尺寸,为节省计算时间,本文在尺度估计过程中只使用FHOG特征,再利用尺度滤波找到最大输出响应值对应的尺度,该尺度即为目标在当前帧的尺度估计值At×Bt,可分别表示为

At=ag'At-1Bt=ag'Bt-1,(7)

式中:g'为尺度空间的输出响应值最大的位置。

t帧的目标被估计出尺度后,以Pt为中心位置,选取图像块Zt,其尺度大小为bAt×bBt(b为扩展函数),其相应模型更新方案为[20]

x^t=(1-η)x^t-1+ηx^tα^t=(1-η)α^t-1+ηα^t,(8)

图 3. 当前帧的目标跟踪与尺度估计示意图

Fig. 3. Schematic of target tracking and scale estimation for the current frame

下载图片 查看所有图片

式中:η为学习率; x^t为当前帧目标外观模型; α^t为表观模型系数。

3 实验与结果分析

为了检验本文改进算法的性能,实验以MATLAB 2014a为开发平台,在Windows 7系统/处理器为Intel(R) Core(TM) i7-6700 CPU@3.40 GHz的计算机上进行测试。选择OTB-50数据集中存在遮挡、尺度变化、快速运动等问题的6组图像序列,并将本文算法与5种目标跟踪算法进行实验对比,5种跟踪算法分别为LCT(Long-Term Correlation Tracking)[21]、Staple[22]、Struck[23]、CSK(circulant structure kernel)[24]、KCF[4]。序列信息如表1所示,其中,IV为光照变化,SV为尺度变化,OCC为遮挡,DEF为形变,MB为运动模糊,FM为快速运动,IPR为平面内旋转,OPR为平面外旋转,OV为超出视野,BC为背景杂波,LR为低分辨率。

3.1 参数设置

本文改进算法的参数设置如表2所示。

表 2. 本文算法的主要参数设置

Table 2. Main parameters of the algorithm in this paper

Algorithm parameterValue
Regularization parameter λ10-4
Ratio of searching areas1.6
Learning ratio of apparent model[0.01,0.015]
Number of directions of FHOG9
Cell size of FHOG /(pixel×pixel)4×4
Learning rate η0.01
Scale factor a1.02
Scale space N33

查看所有表

表 1. 选用的图像序列的信息描述

Table 1. Information description of the selected image sequence

Image sequenceNumber of framesSize /(pixel×pixel)Property description
Bird1408720×400DEF, FM, OV
Box1161640×480IV, SV, OCC, MB, IPR, OPR, OV, BC, LR
Skating2473640×352SV, OCC, DEF, FM, OPR
Basketball725576×432IV, OCC, DEF, OPR, BC
Soccer392640×360IV, SV, OCC, MB, FM, IPR, OPR, BC
CarScale252640×272SV, OCC, FM, IPR, OPR

查看所有表

3.2 评价指标

为验证本文算法的有效性,采用OTB数据集中的三种评价指标来对跟踪结果进行评估:平均中心误差(CLE)、距离精度(DP)和重叠精度(OP)。

1) CLE为整个跟踪过程中所有图像序列中的目标中心位置 P^t与实际目标中心位置Pt间的距离[12],描述的是算法的跟踪精确程度[25],可表示为

RCLE=1Nt=1NP^t-Pt(9)

2) DP为 CLE小于某一阈值的帧数占总帧数的比值,可表示为

RDP=n'n,(10)

式中:n'表示CLE小于一定阈值的视频帧数;n为跟踪视频的总帧数,本文选取的阈值为20 pixel。

3) OP为计算目标预测位置及大小与实际位置及大小的重叠率大于一定阈值的视频帧数占总帧数的百分比,该阈值一般选取PASCAL的评价标准来进行计算。

本文算法和5种目标跟踪算法的CLE如表3所示,从表3中可看出,在测试的图像序列中,本文算法的跟踪效果较其他5种跟踪算法好。

表 3. 6种算法在6组测试图像序列上的CLE

Table 3. CLE of six algorithms on six sets of test image sequences

ImagesequenceCLE /pixel
LCTStapleStruckCSKKCFOur
Bird16.9254.5998.4986.0319.7784.375
Box5.9846.7216.1965.6336.7565.376
Skating26.9693.0953.0652.6065.1892.482
Basketball9.7657.3867.3527.26912.8897.198
Soccer4.0334.934.3564.0173.9973.949
CarScale6.9276.5116.2815.97510.6845.918

查看所有表

表4表5给出了表1视频序列在20 pixel阈值下的DP和OP数据,通过观察各性能指标的均值参数可知,本文算法在这两个性能指标上均取得最优效果,DP、OP分别为91.45%和79.17%。

表 4. 不同算法的DP数据对比

Table 4. Comparison of DP data of different algorithms

ImagesequenceDP /%
LCTStapleStruckCSKKCFOur
Bird1100.0034.9036.5035.2095.00100.00
Box92.8086.4087.2091.6086.40100.00
Skating2100.0068.9079.1078.90100.00100.00
Basketball24.6024.0024.0024.00100.00100.00
Soccer69.4096.7067.9017.9079.3066.60
CarScale75.8075.2069.4065.1080.6082.10
Mean77.1064.3560.6851.1790.2291.45

查看所有表

3.3 综合性能评估

在6组具有复杂属性的视频序列上,采用一次性评估(OPE)方法,即6种跟踪算法在每段视频序列上均运行一次,得到这6种跟踪算法的精确率和成功率曲线,如图4图5所示。

图4图5可以看出,本文算法在精确率和成功率方面,均排第一。本文算法精确率为79.80%,相比于KCF算法提高了7.3个百分点;本文算法的成功率为61.60%,相比于KCF算法提高了5.7个百分点。这说明本文算法具有较强的鲁棒性,提高了原KCF算法的整体跟踪性能。

表 5. 不同算法的OP数据对比

Table 5. Comparison of OP data of different algorithms

ImagesequenceOP /%
LCTStapleStruckCSKKCFOur
Bird1100.0027.6026.8027.6036.40100.00
Box30.6046.4052.3063.2074.2062.80
Skating297.7065.9067.9053.3084.0099.80
Basketball22.3022.3022.2022.30100.0097.70
Soccer39.0048.2036.7016.3039.3020.70
CarScale84.5044.8044.6044.8044.4093.70
Mean62.3542.5341.7537.9263.0579.17

查看所有表

图 4. 精确率对比图

Fig. 4. Comparison of accuracy rate

下载图片 查看所有图片

图 5. 成功率对比图

Fig. 5. Comparison of success rate

下载图片 查看所有图片

算法跟踪序列的部分跟踪效果图如图6所示。从图6可以看出:

1) Bird1序列中,目标出现快速运动、超出视野等问题。其他5种跟踪算法受到相似物体干扰或者在跟踪目标丢失时发生漂移,最终都导致跟踪失败。而本文算法能够持续跟踪,跟踪效果较好。

2) Box序列中,目标出现尺度变化、遮挡、运动模糊等问题。在跟踪过程中,目标周围出现相似物的遮挡并且逐渐发生跟踪漂移现象时,除LCT外的4种跟踪算法发生错误跟踪。目标出现尺度变化、相似物体干扰的问题时,本文改进算法仍能够有效地对目标进行跟踪,并且,相比于LCT算法,其CLE的数值更低。

图 6. 6种算法的部分跟踪效果图

Fig. 6. Diagrams of partial tracking effects of 6 algorithms

下载图片 查看所有图片

3) Skating2序列中,目标出现局部遮挡、旋转等问题。目标首次旋转时,Staple算法在跟踪时就开始出现漂移现象,在目标第二次旋转时,跟踪失败。Struck和CSK算法相比于其他算法虽然跟踪精度较高,但目标尺度发生变化和受到背景干扰时,发生了目标丢失。由于测试序列中背景信息的干扰,KCF和LCT算法跟踪失败。本文改进算法能准确跟踪到目标。

4) Basketball序列中,目标出现遮挡、快速运动等问题。由于目标出现快速运动,KCF算法跟踪发生错误。Struck和CSK算法虽然能够正确跟踪到目标,跟踪精度较高,但是当目标周围有相似物体干扰时,会出现跟踪错误。出现相似物体的干扰时,LCT算法很容易出现跟踪错误。本文改进的算法具有较好的跟踪鲁棒性。

5) Soccer序列中,目标出现尺度变化、遮挡、运动模糊、背景杂波等问题。由于背景复杂,KCF、Struck和CSK算法出现漂移现象,跟踪失败。由于有相似背景和物体的干扰,Staple和LCT算法跟踪错误。本文改进算法在出现上述问题时,依然呈现出较好的跟踪效果。

6) CarScale序列中,目标出现尺度变化、局部遮挡、快速运动等问题。KCF、Struck和CSK算法在目标有遮挡时,出现错误跟踪。在目标突然快速运动时,Staple算法跟踪失败。LCT和本文改进算法在该序列中的跟踪效果较好。

从三个评价指标和部分跟踪效果图可看出,本文算法相比于其他5种跟踪算法,CLE较低,跟踪的准确率较高,DP和OP值较高。从精确率对比图和成功率对比图中也可看出,本文算法对于这些视频跟踪中常见的问题均具有较好的鲁棒性,且均达到了较好的跟踪效果,具有稳定的跟踪性能。

4 结论

在复杂场景下,针对单一图像特征、尺度估计导致跟踪精度低的问题,提出一种融合FHOG和LBP特征的尺度自适应相关滤波跟踪算法。对于不同特征,按照特征响应图的可信度来对FHOG特征和LBP特征进行自适应加权融合,以实现对目标的定位;并且这两种特征在不同场景下的适应能力,使得目标表观模型的鲁棒性和判别力得到了有效提升;再利用尺度金字塔来估计目标的尺度大小,使算法对发生尺度变化的目标有很好的适应能力。在OTB-50数据集上进行对比实验,结果表明本文算法较其他跟踪算法在精确率和成功率上均有所提升,具有较好的鲁棒性、跟踪效果以及稳定的跟踪性能。

参考文献

[1] 徐海洋. 基于图片序列的三维重建技术研究[D]. 武汉: 华中科技大学, 2015.

    Xu HY. Image sequences based 3D reconstruction[D]. Wuhan: Huazhong University of Sciense & Technology, 2015.

[2] 杨德东, 蔡玉柱, 毛宁, 等. 采用核相关滤波器的长期目标跟踪[J]. 光学精密工程, 2016, 24(8): 2037-2049.

    Yang D D, Cai Y Z, Mao N, et al. Long-term object tracking based on kernelized correlation filters[J]. Optics and Precision Engineering, 2016, 24(8): 2037-2049.

[3] Bolme DS, Beveridge JR, Draper BA, et al. Visual object tracking using adaptive correlation filters[C]∥2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, June 13-18, 2010, San Francisco, CA, USA. New York: IEEE, 2010: 2544- 2550.

[4] Henriques J F, Caseiro R, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.

[5] DanelljanM, Shahbaz KhanF, FelsbergM, et al. Adaptive color attributes for real-time visual tracking[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2014, Columbus, Ohio. New York: IEEE, 2014: 1090- 1097.

[6] LiY, ZhuJ. A scale adaptive kernel correlation filter tracker with feature integration[M] ∥Agapito L, Bronstein M, Rother C. Computer Vision-ECCV 2014 Workshops. Lecture Notes in Computer Science. Cham: Springer, 2014, 8926: 254- 265.

[7] DanelljanM, HägerG, KhanF, et al.Accurate scale estimation for robust visual tracking[C]∥British Machine Vision Conference, September 1-5, 2014, Nottingham.UK: BMVA Press, 2014.

[8] 赵倩. 基于视频分析的公交客流统计技术研究与实现[D]. 重庆: 重庆大学, 2016.

    ZhaoQ. The technology research and implementation of bus passenger flow statistics based on video analysis[D]. Chongqing: Chongqing University, 2016.

[9] 田亚蕾, 马杰, 杨楠. 结合核相关滤波和Kalman预测的运动目标跟踪[J]. 小型微型计算机系统, 2018, 39(10): 2330-2334.

    Tian Y L, Ma J, Yang N. Moving target tracking based on kernelized correlation filter and Kalman predicting[J]. Journal of Chinese Computer Systems, 2018, 39(10): 2330-2334.

[10] 杨剑锋, 张建鹏. 基于核相关滤波的长时间目标跟踪[J]. 激光与光电子学进展, 2019, 56(2): 021502.

    Yang J F, Zhang J P. Long time target tracking based on kernel correlation filtering[J]. Laser & Optoelectronics Progress, 2019, 56(2): 021502.

[11] Felzenszwalb F, Girshick B. McAllester D, et al. Object detection with discriminatively trained part-based models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1627-1645.

[12] 周涛, 狄晓妮, 李岩琪. 多特征融合与尺度估计相结合的目标跟踪算法[J]. 红外技术, 2019, 41(5): 469-476.

    Zhou T, Di X N, Li Y Q. Object tracking using multiple features and scale estimation[J]. Infrared Technology, 2019, 41(5): 469-476.

[13] Ojala T, Pietikäinen M, Mäenpää T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2002, 24(7): 971-987.

[14] 徐绕山, 王爽, 孙正兴. 视觉相似性计算的艺术图像自组织方法[J]. 计算机工程与应用, 2017, 53(18): 163-169, 242.

    Xu R S, Wang S, Sun Z X. Self-organization method for artistic images based on visual similarity computation[J]. Computer Engineering and Applications, 2017, 53(18): 163-169, 242.

[15] 望少建. 基于相关滤波的视觉目标跟踪[D]. 西安: 西安电子科技大学, 2018.

    Wang SJ. Visual object tracking based on correlation filters[D]. Xi’an: Xidian University, 2018.

[16] 刘洪普, 郑梦敬, 侯向丹, 等. 基于局部二进制模式方差的分数阶微分医学图像增强算法[J]. 激光与光电子学进展, 2019, 56(9): 091006.

    Liu H P, Zheng M J, Hou X D, et al. Enhancement algorithm of fractional differential medical images based on local binary pattern variance[J]. Laser & Optoelectronics Progress, 2019, 56(9): 091006.

[17] Wang MM, LiuY, Huang ZY. Large margin object tracking with circulant feature maps[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 4800- 4808.

[18] 徐玉龙, 王家宝, 李阳, 等. 融合颜色特征的尺度自适应相关跟踪[J]. 计算机应用研究, 2017, 34(3): 945-948.

    Xu Y L, Wang J B, Li Y, et al. Scale adaptive correlation tracking combined with color features[J]. Application Research of Computers, 2017, 34(3): 945-948.

[19] 谢柳, 尚振宏, 刘辉. 基于相关滤波融合多特征的运动目标跟踪方法[J]. 数据采集与处理, 2019, 34(1): 122-134.

    Xie L, Shang Z H, Liu H. Object tracking combining multiple features based on correlation filter[J]. Journal of Data Acquisition and Processing, 2019, 34(1): 122-134.

[20] 何雪东, 周盛宗. 快速尺度自适应核相关滤波目标跟踪算法[J]. 激光与光电子学进展, 2018, 55(12): 121501.

    He X D, Zhou S Z. Fast scale adaptive kernel correlation filtering algorithm for target tracking[J]. Laser & Optoelectronics Progress, 2018, 55(12): 121501.

[21] MaC, Yang XK, Zhang CY, et al. Long-term correlation tracking[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 5388- 5396.

[22] BertinettoL, ValmadreJ, GolodetzS, et al. Staple: complementary learners for real-time tracking[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 1401- 1409.

[23] Hare S, Golodetz S, Saffari A, et al. Struck: structured output tracking with kernels[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(10): 2096-2109.

[24] Henriques JF, CaseiroR, MartinsP, et al. Exploiting the circulant structure of tracking-by-detection with kernels[M] ∥Fitzgibbon A, Lazebnik S, Perona P, et al. Computer Vision-ECCV 2012. Lecture Notes in Computer Science. Berlin, Heidelberg: Springer, 2012, 7575: 702- 715.

[25] 刘万军, 张壮, 姜文涛, 等. 遮挡判别下的多尺度相关滤波跟踪算法[J]. 中国图象图形学报, 2018, 23(12): 1789-1800.

    Liu W J, Zhang Z, Jiang W T, et al. Multi-scale correlation filter tracking algorithm based on occlusion discrimination[J]. Journal of Image and Graphics, 2018, 23(12): 1789-1800.

刘晓悦, 王云明, 马伟宁. 融合FHOG和LBP特征的尺度自适应相关滤波跟踪算法[J]. 激光与光电子学进展, 2020, 57(4): 041512. Xiaoyue Liu, Yunming Wang, Weining Ma. Scale-Adaptive Correlation Filter Tracking Algorithm Based on FHOG and LBP Features[J]. Laser & Optoelectronics Progress, 2020, 57(4): 041512.

本文已被 4 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!