基于全卷积对称网络的目标尺度自适应追踪 下载: 917次
ing at the problem of tracking failure due to fast motion and scale variation during object tracking, an object scale adaptation tracking based on full-convolutional siamese networks is proposed. First, a full-convolutional symmetric network is constructed using MatConvNet framework, and the multidimensional feature maps of template images and experimental images are obtained by using the trained networks. Through the cross-correlation operation, the point with the highest confidence score is selected as the center of the tracked target. Then, through multi-scale sampling at the center, the error samples that are less than half the template variance are filtered out. The probability histograms of target templates and samples are built. The Hellinger distance between the template and the samples is calculated, and the appropriate scale is selected as the scale of the target tracking window. Experiments on the OTB-13 dataset are carried out. Compared with other tracking algorithms, the tracking success rate of proposed method is 0.832, and the precision is 0.899, which are higher than that of other algorithms, and the average tracking speed is achieved 42.3 frame/s, meeting the needs of real-time object tracking. Selecting the tracking sequences with fast motion or scale change attributes for further testing, the tracking performance of proposed method is still higher than other algorithms.
1 引言
目标追踪技术[1]广泛应用于智能交通、人机交互、**等领域。然而,由于目标的快速移动、实际环境复杂多变、目标尺度变化等原因,在一定程度上影响了追踪的准确性和稳健性。
近年来,利用深度学习方法解决目标追踪问题取得了良好的追踪效果。Wang等[2]首次将深度学习应用在单目标追踪问题上,采用离线预训练结合在线微调的方法,将候选图像输入到分类网络中,确定跟踪目标,表现出了极佳的跟踪效果,引起了学者们的广泛关注。此后,Danelljan等[3]探究了不同卷积层特征对追踪结果的影响,使用第一层卷积特征训练相关滤波器,在损失函数中引入惩罚项抑制由循环样本产生边界效应。Wang等[4]稀疏化不同卷积层的结果特征图,构建特征筛选网络,通过分析得到更有分类性的特征用于追踪,实验结果表明,对目标形变追踪有更加稳健的效果。蔡玉柱等[5]使用自适应降维技术对VGG-NET的cov3-4层降维处理,通过分类器获得置信度最大的位置,同时训练SVM分类器,在跟踪失败的情况下能够重新检测到目标。毛宁等[6]利用卷积神经网络提取分层卷积特征,结合相关滤波算法获取卷积特征响应图,并通过响应图的加权融合估计目标位置。上述算法在追踪精度和成功率上相比传统方法都有很大的提升,但是追踪速度往往不能达到实时性的要求;由于没有目标尺度估计机制,往往引入过多的背景信息或不能覆盖目标导致追踪性能变差;Danelljan等[7]提出了一种基于一维相关滤波器的尺度评估方法,在目标尺寸变化的情况下仍能取得较好的追踪效果。王鑫等[8]受此启发使用多层卷积特征进行目标的准确定位,通过一维尺度相关滤波器,确定目标的最佳尺度,取得了较好的追踪效果。
针对目标追踪过程中由于目标快速运动、尺度变化导致追踪失败以及追踪速度较慢的问题,结合全卷积对称网络结构与目标尺度估计方法,提出了一种基于全卷积对称网络的目标尺度自适应追踪算法。
本文的主要研究工作:1) 针对目标快速运动的问题,使用全卷积对称网络确定追踪目标的中心位置,缓解目标的追踪漂移问题;2) 针对目标尺度变化过快问题,在目标中心位置处进行多尺度采样,构建目标尺度金字塔,利用图像方差阈值过滤错误样本,建立目标模型和样本概率直方图,通过计算两者的海林洛距离,选取合适的尺度作为目标追踪窗口的尺度;3) 为验证本文算法的追踪性能,在OTB-13[9]数据集上进行测试,并挑选包含尺度变化或快速运动属性的42组追踪序列进行实验,与近几年其他9种主流追踪算法对比,本文算法在追踪精度和成功率上均超越了其他算法。
2 基本原理
Siamese网络[10]接受成对样本的输入,度量样本间的相似性,
Siamese网络有两个结构相同的子网络,分别接收输入
训练样本结构为(
式中
3 本文算法
利用Siamese网络能够度量样本间相似度的这一特性,设计了一种全连接对称网络完成目标中心定位;将Siamese Network架构中用于表征样本的子网络更换成结构为5层卷积2层池华层的卷积神经网络(CNN),如
表 1. 本文算法CNN体系结构
Table 1. Architecture of CNN of proposed algorithm
|
3.1 基于全卷积对称网络的追踪目标中心定位
Siamese的主要任务就是学习一个相似度匹配函数
式中
然后利用随机梯度下降(SGD)最小化损失函数,训练网络使用的训练数据集对(
式中
将首帧图像的目标图像块输入到网络中,以目标图像块大小为基准遍历下一帧图像,得到候选图像块输入到网络中,经过子网络的卷积层和池化层,将原始图像映射到特定的特征空间,使用卷积嵌入函数
式中*为互相关操作,选取分数最大的点为追踪目标的中心位置
3.2 目标尺度估计
确定追踪目标中心后,需要对目标尺度进行估计,若选取目标尺度不合理,会影响追踪效果,严重的情况下会导致追踪失败。所以本文结合多尺度采样方法和相似度匹配原理,估计目标尺度。
首先在目标中心
式中
其次,计算图像像素灰度值的方差,比较每层金字塔图像块的方差与目标模板方差,保留满足条件的金字塔图像块。公式为
式中
构建方差分类器,取模板方差的1/2作为阈值
在此基础上通过海林格距离度量剩余图像块与目标模板直方图特征的相似度,选择相似度最大的图像块尺度作为目标最佳尺度。目标模板与剩余图像块直方图概率分布表示为
式中
式中
4 分析与讨论
实现算法的编码环境MATLAB R2015,使用图形处理器(GPU)进行加速运算,计算机的配置为windows操作系统64位、Inter Xeon 2.4 GHz、NVIDIA GTX-TITAN X、内存32 GB。将本算法在tracker_benchmark_v1.0下运行以便和其他算法比较。
使用OTB-13数据集进行测试分析,综合评判本文算法的跟踪性能,同时为了进一步分析算法在面临目标快速运动以及尺度变化问题的跟踪性能,选取了OTB-13中具有目标快速运动或者尺度变化属性的42组追踪序列进行实验,
4.1 定性分析
从FM、SV、OCC、DEF、IV等属性下分析追踪算法性能,
1) FM:以5(a)、(b)和(d)为例,目标在水平或竖直方向快速运动过程中本文算法始终能够稳定地追踪,追踪窗口没有发生偏离。
图 5. 10种算法的部分追踪结果对比图。(a) Jumping (MB、FM);(b) CarScale (SV、OCC、FM、IPR、OPR);(c) Couple (SV、DEF、FM、BC、OPR);(d) Soccer (IV、SV、OCC、MB、FM、IPR、OPR、BC);(e) Ironman (IV、SV、OCC、MB、FM、IPR、OPR、OV、BC、LR);(f) Girl (SV、OCC、IPR、OPR);(g) Skiing (IV、SV、DEF、IPR、OPR);(h) Liquor (IV、SV、OCC、FM、IPR、OPR、OV、BC);(i) Woman (IV、SV、OCC、DEF、MB、FM、OPR)
Fig. 5. Comparison of tracking results of 10 algorithm. (a) Jumping (MB、FM); (b) CarScale (SV、OCC、FM、IPR、OPR); (c) Couple (SV、DEF、FM、BC、OPR); (d) Soccer (IV、SV、OCC、MB、FM、IPR、OPR、BC); (e) Ironman (IV、SV、OCC、MB、FM、IPR、OPR、OV、BC、LR); (f) Girl (SV、OCC、IPR、OPR); (g)Skiing (IV、SV、DEF、IPR、OPR); (h) Liquor (IV、SV、OCC、FM、IPR、OPR、OV、BC); (i) Woman (IV、SV、OCC、DEF、MB、FM、OPR)
2) SV:以
3) OCC:以
4) DEF:以
5) IV:以
4.2 定量分析
使用OTB-13[9]评价标准的追踪精度和追踪成功率来评估本算法的追踪性能;中心位置误差是衡量追踪精度的标准,通过比较追踪位置的中心位置与手工定位的准确中心的平均欧氏距离来确定中心位置误差,使用20个像素为评价阈值;边界框重叠率
为了进一步分析算法在面临目标FM以及SV问题的性能,
图 6. 50个追踪序列的精度和成功率曲线。(a)精度曲线; (b)成功率曲线
Fig. 6. Precision and success rate of 50 sequences. (a) Precision; (b) success rate
图 7. FM和SV属性下追踪精度和准确率曲线。(a) FM下精度曲线;(b) FM下成功率曲线; (c) SV下精度曲线;(d) SV下成功率曲线
Fig. 7. Precision and success rate on FM and SV attributes. (a) Precision on FM attribute; (b) success rate on FM attribute; (c) precision plot on SV attribute; (d) success rate on SV attribute
同时还比较了该算法在视频序列中所包含的其他属性(IV、OCC、LR、DEF、BC和OV)的性能,由
图 8. (a)(b) IV、(c)(d) OCC、(e)(f) LR、(g)(h) DEF、(i)(j) BC、(k)(l) OV属性下追踪精度和成功率曲线
Fig. 8. Tracking precision and success rate on (a)(b) IV, (c)(d) OCC, (e)(f) LR, (g)(h) DEF, (i)(j) BC, and (k)(l) OV attributes
4.3 算法追踪速率
表 2. 本文算法与其他算法追踪速率对比
Table 2. Tracking speed comparison of proposed algorithm and other algorithms
|
5 结论
提出了一种基于全卷积对称网络的目标尺度自适应追踪算法,首先构建全卷积对称的CNN网络确定目标的中心位置;然后对目标候选区域进行多尺度采样,通过比较模板与样本图像的方差阈值和海林洛距离,确定目标追踪窗口。大量实验结果表明,与其他追踪算法相比,本文算法追踪精度和成功率都排第一名;比同样使用对称网络的Siamfc算法在精度和成功率上分别提高了8.4%和4.1%。综上所述,本文算法较好地解决了目标FM及CV导致追踪失败的问题,有效地提高了追踪精度和成功率,满足实时追踪的要求。
在实验过程中发现,当追踪序列出现分辨率较低、背景模糊的情况时,本文算法容易跟踪失败,因此,如何结合视频预处理方法,使深度学习网络学习到更加稳健的特征是下一步研究的重点。
[1] 卢湖川, 李佩霞, 王栋. 目标跟踪算法综述[J]. 模式识别与人工智能, 2018, 31(1): 61-76.
Lu H C, Li P X, Wang D. Visualobject tracking: a survey[J]. Pattern Recognition and Artificial Intelligence, 2018, 31(1): 61-76.
[2] MaC, Yang XK, Zhang CY, et al. Learning a temporally invariant representation for visual tracking[C]∥IEEE International Conference on Image Processing (ICIP), 2015: 857- 861.
[3] DanelljanM, HägerG, Khan FS, et al. Convolutional features for correlation filter based visual tracking[C]∥IEEE International Conference on Computer Vision Workshop (ICCVW), 2015: 621- 629.
[4] Wang LJ, Wanli OY, Wang XG, et al. Visual tracking with fully convolutional networks[C]∥IEEE International Conference on Computer Vision (ICCV), 2015: 3119- 3127.
[5] 蔡玉柱, 杨德东, 毛宁, 等. 基于自适应卷积特征的目标跟踪算法[J]. 光学学报, 2017, 37(3): 0315002.
[6] 毛宁, 杨德东, 杨福才, 等. 基于分层卷积特征的自适应目标跟踪[J]. 激光与光电子学进展, 2016, 53(12): 121502.
[7] Danelljan M, Hager G, Khan F S, et al. Discriminative scale space tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1561-1575.
[8] 王鑫, 侯志强, 余旺盛, 等. 基于多层卷积特征融合的目标尺度自适应稳健跟踪[J]. 光学学报, 2017, 37(11): 1115005.
[9] WuY, LimJ, Yang MH. Online object tracking: a benchmark[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2013: 2411- 2418.
[10] ChopraS, HadsellR, LeCun Y. Learning a similarity metric discriminatively, with application to face verification[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05), 2005: 539- 546.
[11] Zhang MD, WangQ, Xing JL, et al.Visual tracking via spatially aligned correlation filters network[M] ∥Cham: Springer International Publishing, 2018: 484- 500.
[12] BertinettoL, ValmadreJ, Henriques JF, et al. Fully-convolutional siamese networks for object tracking[C]∥European Conference on Computer Vision, 2016: 850- 865.
[13] ValmadreJ, BertinettoL, HenriquesJ, et al. End-to-end representation learning for correlation filter based tracking[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 21-26 July2017, 2017: 5000- 5008.
[14] Henriques JF, RuiC, MartinsP, et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]∥European Conference on Computer Vision, 2012: 702- 715.
[16] BertinettoL, ValmadreJ, GolodetzS, et al. Staple: complementary learners for real-time tracking[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016: 1401- 1409.
[18] 李双双, 赵高鹏, 王建宇. 基于特征融合和尺度自适应的干扰感知目标跟踪[J]. 光学学报, 2017, 37(5): 0515005.
Article Outline
孙晓霞, 庞春江. 基于全卷积对称网络的目标尺度自适应追踪[J]. 激光与光电子学进展, 2019, 56(1): 011502. Xiaoxia Sun, Chunjiang Pang. Object Scale Adaptation Tracking Based on Full-Convolutional Siamese Networks[J]. Laser & Optoelectronics Progress, 2019, 56(1): 011502.