基于尺度搜索的车辆跟踪算法 下载: 716次
1 引言
随着计算机视觉技术的迅猛发展,视觉车辆跟踪作为智能交通管理系统、辅助驾驶系统、无人驾驶等技术的重要组成部分,已经成为当前的研究热点,实现车辆目标的稳定快速跟踪具有极其重要的理论意义及现实价值。
相关滤波跟踪算法是近年来被引入到目标跟踪领域的一类基于在线分类学习的跟踪算法,因其优越的跟踪性能被广泛应用于各类目标的跟踪研究中。对于车辆目标,由于目标的相对速度较大,视频画面中车辆目标的尺度变化更加快速,而传统的相关滤波算法[1-5]采用固定尺度的目标区域进行模板更新,引入的背景信息过多或目标信息不完整,不但无法适应目标的外观变化,还会在模板更新中引入噪声,降低准确性,且随着噪声的不断累积,最终将导致模板漂移,跟踪失败。稳健而准确的尺度估计对于车辆目标的稳定跟踪至关重要,然而实现兼顾精度与速度的运动车辆尺度估计仍是一项极具挑战性的视觉任务。
为将运动目标的尺度估计纳入到相关滤波的跟踪框架中,Danelljan等[6-7]将目标跟踪分解为位置跟踪与尺度跟踪两个部分,在假设位置跟踪精度较高的前提下,提取检测区域的多尺度特征以训练尺度滤波器,进而实现目标的尺度估计,但其尺度估计的精度在很大程度上取决于目标位置跟踪的准确性。葛宝义等[8]通过正交三角分解法(QR分解法)对多尺度特征降维以快速训练尺度滤波器。Li等[9]采取与文献[ 6]类似的尺度滤波器方法,分别训练四个表征目标边界的一维相关滤波器,通过边界跟踪进行目标尺度的估计。文献[ 10-13]中对目标进行分块跟踪,然后根据各分块的离散程度估计目标整体的尺度大小。边界跟踪与分块跟踪虽能适应目标尺度的变化,但多滤波器的引入增加了计算负担,导致此类算法的实时性较差。文献[ 14-15]中分别利用目标的特征关键点与似物性采样对目标的尺度进行跟踪,但关键点的提取与匹配以及似物性采样同样需要较大的时间开销。Li等[16]通过尺度池法对检测区域进行多尺度相关响应,取响应值最大时的尺度与位置作为目标的当前状态,该方法是一种尺度与位置同时最优的方法,但其尺度估计精度受限于尺度池范围,算法速度也与尺度个数紧密相关。
针对车辆目标运动过程中的尺度变化问题,结合车辆跟踪任务对算法精度与速度的要求,本文在核相关滤波器[3](KCF)的基础上,提出一种基于尺度搜索的视频车辆跟踪算法。采用平均峰值相关能量(APCE)作为尺度估计的评价准则,通过三尺度的响应比较推断目标尺度的变化方向,继而在变化方向上迭代搜索当前目标的最佳尺度。此外,为进一步提高相关滤波模板的准确性,在最佳尺度估计的情形下,根据相关响应的最大值对相关滤波模板进行自适应加权更新,以适应车辆目标在运动过程中的外观变化。
2 基于尺度搜索的车辆跟踪算法
基于尺度搜索的车辆跟踪算法由初始化KCF、跟踪检测、模板更新3个部分组成,其基本框架如
图 1. 基于尺度搜索的车辆跟踪算法基本框架
Fig. 1. Overview of vehicle tracking algorithm based on scale search
2.1 核相关滤波器
基于尺度搜索的车辆跟踪算法以KCF为基础,通过对初始样本的循环移位,构建样本循环矩阵,提高相关滤波器的在线训练速度及判别能力。为便于表述,以一维信号为例,若一维信号
式中,上标T为转置符号,
式中,
式中,
在KCF中,训练的目的是找到一个滤波器(模板)
式中,
式中:
式中,☉表示矩阵哈达马乘积,*表示复共轭,
式中:
式中,
KCF算法中仅通过目标区域的方向梯度直方图特征(HOG)来训练KCF,忽略了图像丰富的色彩信息。HOG特征虽对光照变化具有较高的稳健性,但对旋转、尺度变化较为敏感。鉴于单图像特征对目标建模的不足,李聪等[17]将Lab颜色特征与HOG特征相结合,张博等[18]则融合了四种图像特征。多特征的融合使用显著提升了算法性能,却也额外增加特征提取的时间。考虑到车辆目标对算法实时性的要求,本文将CN颜色特征[19]与HOG特征相融合,以提高算法对尺度变化、运动模糊等因素的稳健性。将目标区域(以目标位置为中心,包含目标及部分背景的图像区域)的CN特征与HOG特征直接相连,组成特征矩阵,并将其映射到高斯空间,以(7)式训练高斯核相关滤波模板。
循环矩阵的应用不仅简化了训练过程,而且加速了检测跟踪。在跟踪阶段,以上一帧的目标位置为中心,在当前帧中截取检测区域,求其与相关滤波模板的响应为
式中,
2.2 尺度搜索
尺度自适应的多特征跟踪算法[16](SAMF)是与本文算法最为接近的一种目标跟踪算法,其尺度估计策略的本质都是通过多尺度的响应比较来确定当前目标的最佳尺度。不同的是,尺度搜索法首先推断目标尺度的变化方向,然后在变化方向上迭代搜索,以寻求当前目标尺度的最优估计。相对于SAMF的固定尺度池法,尺度搜索法是一种动态的尺度池法,它打破了固定的尺度范围及尺度个数的限制,对于较大的尺度变化具有更为准确的估计能力,对于较小的尺度变化也避免了尺度遍历带来的时间耗费,是一种更为精准高效的尺度估计方法。此外,不同于SAMF的最大响应值准则,尺度搜索法以APCE作为多尺度响应比较的评判准则,在多因素影响的复杂环境中更具稳健性。
相关响应矩阵分布的波动情况和峰值能够反映目标跟踪的置信度。理想情况下,响应矩阵在目标中心对应的真实位置处为一个尖锐的峰值,而在其他区域,随着与目标中心的距离增加响应值平滑下降至零。而当受到遮挡或运动模糊等因素影响时,响应矩阵的波动幅度将大幅增加。APCE由王蒙蒙等[20]提出,该度量能够较好地刻画相关响应矩阵的波动情况,其定义为
式中,
假设上帧中目标的尺度大小为
1)若尺度为
2)若尺度为
3)若为其他情况,则表明,与上一帧相比,当前帧中目标的尺度并未发生变化,即当前帧中的目标尺度与上一帧相同。
当前帧中目标位置的确定与KCF算法相似,由最佳尺度估计下响应矩阵最大值的坐标偏移量决定。尺度搜索法以APCE作为多尺度响应比较的准则,当尺度变化与其他影响因素并存时,能够进行更为稳健而准确的尺度估计。
2.3 自适应模板更新
为适应运动目标的外观变化及光照等环境变化,提高算法的跟踪精度,需要对相关滤波模板及目标的外观模板进行实时更新,KCF等传统相关滤波算法均采取线性插值的等权更新方式,即
式中:
为提高模板的准确性,本文算法利用最佳尺度下相关响应的最大值对模板进行自适应加权更新,即
式中,
3 实验
在OTB[21-22]、UAV[23]、TempColor[24]数据集提供的20段车辆运动视频中,对提出的算法(Ours)与7个优秀算法CSK[1]、KCF、CN[2]、DSST[6]、RPT[10]、SAMF、CT[25]进行比较。该20段视频包含光照变化、运动模糊、尺度变化、背景混杂等多种影响因素。为保证实验的公正性,所用对比算法的代码均由原论文作者开源提供。实验借助于Matlab R2014b软件在Intel(R) Core(TM) i5-3337U CPU,1.80 GHz,4.00 GB内存的个人计算机上调试运行。
3.1 评价标准与算法参数
对比实验中采用的算法评价标准为OTB数据集使用的OPE标准,以定位精度与成功率来衡量各算法的跟踪性能。定位精度以目标中心的估计位置与标定位置的平均像素距离来度量,距离越小则定位精度越高。在精度图中,横坐标为距离阈值,纵坐标为平均像素距离小于距离阈值的视频帧数占视频帧总数的比例,并用距离阈值为20时的纵坐标值(DP)对各算法进行排序。成功率以目标的估计矩形包围框与标定包围框的重叠率来度量,重叠率越高,跟踪的成功率也就越高,成功率能够反映算法对目标尺度的估计能力。在成功率图中,横坐标为重叠率阈值,纵坐标为重叠率大于重叠率阈值的视频帧数占视频帧总数的比例,并用比例曲线下的面积(AUC)对各算法进行了排序。
提出算法的正则化参数
3.2 实验结果与分析
各算法在20段车辆运动视频上的总体跟踪性能如
图 2. 各算法的总体性能。(a)定位精度;(b)成功率
Fig. 2. Overall performance of each algorithm. (a) Location precision; (b) success rate
表 1. 各算法总体性能表
Table 1. Overall performance of each algorithm
|
车辆目标跟踪算法作为其他技术的基础环节,不仅要求较高的跟踪精度,还要求算法具有较快的处理速度。为更全面地比较各算法的性能优劣,以平均每秒处理的视频帧数(FPS)作为算法速度的评价标准,各算法速度如
为体现自适应权值的模板更新方式对算法性能的提升,在具有尺度变化(SV)、光照变化(IV)、背景混杂(BC)、运动模糊(MB)、低分辨率(LR)影响因素的视频序列中,将采用固定权值更新(参数与KCF算法相同)与自适应权值更新的基于尺度搜索的跟踪算法进行比较,各影响因素下的算法性能如
表 2. 固定权值更新与自适应权值更新的性能比较表
Table 2. Performance comparison of fixed weight update and adaptive weight update
|
尺度搜索法有效解决了车辆目标运动过程中尺度变化造成的模型漂移问题,而自适应加权的模板更新方式在适应车辆外观变化的同时,进一步提高了相关滤波模板的准确性。为综合评估本文算法对车辆跟踪过程中各类影响因素的稳健性,将各算法分别在SV、IV、BC、MB、LR影响因素下的车辆运动视频中进行性能比较,实验结果
表 3. 各影响因素下的算法性能
Table 3. Performance of each algorithm under different factors
|
图 3. 部分视频序列的跟踪效果。(a) BlurCar1-OTB;(b) BlurCar2-OTB;(c) Car1-OTB; (d) Car7-UAV;(e) Car24-OTB;(f) CarDark-OTB
Fig. 3. Tracking renderings of partial video sequences. (a) BlurCar1-OTB; (b) BlurCar2-OTB; (c) Car1-OTB; (d) Car7-UAV; (e) Car24-OTB; (f) CarDark-OTB
4 结论
针对视觉车辆跟踪过程中的尺度变化问题,结合核相关滤波器提出一种尺度搜索的车辆目标尺度估计方法。将平均峰值相关能量作为多尺度响应的比较准则,推断目标尺度的变化方向,在变化方向上迭代搜索当前目标的最佳尺度,并在最佳尺度估计的情况下对相关滤波模板进行自适应加权更新。本文算法有效解决了车辆目标尺度变化导致的模型漂移问题,并在适应目标外观及环境变化的同时,进一步提高相关滤波模板的准确性,对于车辆目标运动过程中的光照变化、运动模糊等影响因素具有较高的稳健性。由于缺少目标再检测模块,本文算法尚不能对严重遮挡后的车辆目标进行再跟踪。如何在不影响算法实时性的同时结合车辆再检测模块,实现遮挡后的车辆再跟踪,将作为下一阶段研究的重点内容。
[1] Henriques JF, CaseiroR, MartinsP, et al. Exploiting the circulant structure of tracking-by-detection with kernels[M] ∥Fitzgibbon A, Lazebnik S, Perona P, et al. Computer vision-ECCV 2012. Lecture notes in computer science. Berlin, Heidelberg: Springer, 2012, 7575: 702- 715.
[2] DanelljanM, Khan FS, FelsbergM, et al. Adaptive color attributes for real-time visual tracking[C]∥2014 IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2014, Columbus, OH, USA. New York: IEEE, 2014: 1090- 1097.
[4] PosseggerH, MauthnerT, BischofH. In defense of color-based model-free tracking[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 2113- 2120.
[5] BertinettoL, ValmadreJ, GolodetzS, et al. Staple: complementary learners for real-time tracking[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE, 2016: 1401- 1409.
[6] DanelljanM, H ger G, Khan F S, et al. Accurate scale estimation for robust visual tracking[C]∥Proceedings of the British Machine Vision Conference 2014, September 1-5, 2014, Nottingham, British: BMVA Press, 2014.
[7] Danelljan M, Hager G, Khan F S, et al. Discriminative scale space tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1561-1575.
[8] 葛宝义, 左宪章, 胡永江. 基于特征融合的长时目标跟踪算法[J]. 光学学报, 2018, 38(11): 1115002.
[9] LiF, Yao YJ, Li PH, et al. Integrating boundary and center correlation filters for visual tracking with aspect ratio variation[C]∥2017 IEEE International Conference on Computer Vision Workshops (ICCVW), October 22-29, 2017, Venice, Italy. New York: IEEE, 2017: 2001- 2009.
[10] LiY, Zhu JK, Hoi S C H. Reliable patch trackers: robust visual tracking by exploiting reliable patches[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 7-12, 2015, Boston, MA, USA. New York: IEEE, 2015: 353- 361.
[13] SunX, Cheung NM, Yao HX, et al. Non-rigid object tracking via deformable patches using shape-preserved KCF and level sets[C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy. New York: IEEE, 2017: 5496- 5504.
[14] Montero AS, LangJ, LaganièreR. Scalable kernel correlation filter with sparse feature integration[C]∥2015 IEEE International Conference on Computer Vision Workshop (ICCVW), December 7-13, 2015, Santiago, Chile. New York: IEEE, 2015: 587- 594.
[15] Huang DF, LuoL, WenM, et al.Enable scale and aspect ratio adaptability in visual tracking with detection proposals[C]∥Procedings of the British Machine Vision Conference 2015, September 7-10, 2015, Swansea, UK.British: BMVA Press, 2015: 185.
[16] LiY, Zhu JK. A scale adaptive kernel correlation filter tracker with feature integration[M] ∥Agapito L, Bronstein M, Rother C. Computer vision-ECCV 2014 Workshops. Lecture notes in computer science. Cham: Springer, 2015, 8926: 254- 265.
[17] 李聪, 鹿存跃, 赵珣, 等. 特征融合的尺度自适应相关滤波跟踪算法[J]. 光学学报, 2018, 38(5): 0515001.
[18] 张博, 龙慧. 基于图像签名算法的视觉目标跟踪算法[J]. 激光与光电子学进展, 2017, 54(9): 091504.
[20] Wang MM, LiuY, Huang ZY. Large margin object tracking with circulant feature maps[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 4800- 4808.
[21] WuY, LimJ, Yang MH. Online object tracking: a benchmark[C]∥2013 IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2013, Portland, OR, USA. New York: IEEE, 2013: 2411- 2418.
[22] Wu Y, Lim J, Yang M H. Object tracking benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848.
[23] MuellerM, SmithN, GhanemB. A benchmark and simulator for UAV tracking[M] ∥Leibe B, Matas J, Sebe N, et al. Computer vision-ECCV 2016. Lecture notes in computer science. Cham: Springer, 2016, 9905: 445- 461.
[25] Zhang KH, ZhangL, Yang MH. Real-time compressive tracking[M] ∥Fitzgibbon A, Lazebnik S, Perona P, et al. Computer vision-ECCV 2012. Lecture notes in computer science. Berlin, Heidelberg: Springer, 2012, 7574: 864- 877.
范永昆, 张正道, 彭力. 基于尺度搜索的车辆跟踪算法[J]. 激光与光电子学进展, 2019, 56(22): 221501. Yongkun Fan, Zhengdao Zhang, Li Peng. Vehicle Tracking Algorithm Based on Scale Search[J]. Laser & Optoelectronics Progress, 2019, 56(22): 221501.