光电工程, 2023, 50 (6): 230009, 网络出版: 2023-08-09  

时空特征对齐的多目标跟踪算法

Multiple object tracking with aligned spatial-temporal feature
作者单位
1 中国科学院光场调控科学技术全国重点实验室,四川 成都 610209
2 中国科学院光电技术研究所,四川 成都 610209
3 中国科学院大学电子电气与通信工程学院,北京 100049
摘要
Abstract
Multiple object tracking (MOT) is an important task in computer vision. Most of the MOT methods improve object detection and data association, usually ignoring the correlation between different frames. They don’t make good use of the temporal information in the video, which makes the tracking performance significantly degraded in motion blur, occlusion, and small target scenes. In order to solve these problems, this paper proposes a multiple object tracking method with the aligned spatial-temporal feature. First, the convolutional gated recurrent unit (ConvGRU) is introduced to encode the spatial-temporal information of the object in the video; By considering the whole history frame sequence, this structure effectively extracts the spatial-temporal information to enhance the feature representation. Then, the feature alignment module is designed to ensure the time consistency between the historical frame information and the current frame information to reduce the false detection rate. Finally, this paper tests on MOT17 and MOT20 datasets, and multiple object tracking accuracy (MOTA) values are 74.2 and 67.4, respectively, which is increased by 0.5 and 5.6 compared with the baseline FairMOT method. Our identification F1 score (IDF1) values are 73.9 and 70.6, respectively, which are increased by 1.6 and 3.3 compared with the baseline FairMOT method. In addition, the qualitative and quantitative experimental results show that the overall tracking performance of this method is better than that of most of the current advanced methods.

1 引言

多目标跟踪是计算机视觉的重要组成部分,广泛应用在监控视频分析和自动驾驶等领域,其目的是定位多个感兴趣的目标,并维持每个目标唯一的身份编号(identification, ID),记录连续运动轨迹[1]。多目标跟踪面临诸多挑战,首先在背景复杂的场景中,目标的运动具有不确定性和随意性,而且目标与目标之间存在相互遮挡以及被物体遮挡现象,导致目标特征发生改变;其次在低分辨率场景中,目标与背景差异较小,分辨出感兴趣目标就十分困难;并且在多目标跟踪过程中目标数目具有不确定性,容易带来误检、漏检以及ID切换等现象。针对上述问题,研究者提出了一系列多目标跟踪方法。最早的多目标跟踪算法主要关注优化检测以及数据关联。随着目标检测和行人重识别的迅速发展,MOT也有了相当大的突破[2-10]。但是这些方法的检测步骤是完全独立于先前的历史帧,一旦目标变得部分或完全被遮挡,检测器就失效了,从而造成轨迹丢失。Zhou等人 [11-12]将成对的帧作为输入,直接输出检测和成对的关联,虽然这些方法提高了跟踪的健壮性,但是它们输入的是成对的帧,不能提取多帧的相关性,只能处理单帧遮挡。最近,随着端到端的目标检测器DETR[13]的提出,开始有学者提出了基于注意力机制的多目标跟踪算法[14-16]。虽然这些算法是端到端的(联合检测和跟踪),但是其中的检测部分也只是将基于卷积的检测器换成了基于Transformer[17]的检测器,仍是独立地对每一帧进行特征提取,没有对目标的时序信息进行直接地建模。

目前主流的多目标跟踪方法大多是单独地提取每一帧的信息,忽略了不同帧之间的关联,虽然近几年也有一些方法开始尝试构建不同帧之间相关性,但是它们都仅停留在相邻帧,没有对视频中存在的时序信息进行显式建模。而在视频目标检测和视频行人重识别领域中,视频时序信息已被证实在处理运动模糊,遮挡和小目标等问题上很有效。受此启发,本文提出了一种时空特征对齐的多目标跟踪方法。本文主要贡献如下:

1) 提出时空特征对齐的多目标跟踪方法,充分利用时空特征以及保证时间一致性,提升多目标跟踪性能;

2) 引入卷积门控递归单元,对视频时空信息进行建模,该结构可以学习整个历史帧序列信息,输入任意长度的视频,构建任意长度视频帧之间的相关性;

3) 设计特征对齐模块,利用前后帧目标的位置对应关系,将历史帧信息与当前帧信息对齐,保证时间一致性,降低误检率;

4) 将设计的方法在公开数据集MOT17和MOT20上进行实验验证,结果表明所提方法较基准方法提升明显且优于目前同类先进方法。特别是在MOT20上,MOTA值达到了67.4,IDF1值达到了70.6。

2 相关工作

本文方法从视频理解相关领域出发,探究多目标跟踪中视频时序信息的有效性,下面为这些领域中与本文方法相关的工作以及本文方法的不同之处。

2.1 多目标跟踪

多目标跟踪方法大致可以分为三类,分别为基于检测[2-3, 18-19],联合检测与重识别[9-10, 20-22]以及联合检测与跟踪[11-12, 14-16, 23]。基于检测的算法将多目标跟踪任务分为四步,分别为目标检测、特征提取、相似度计算和数据关联。由于目标检测和行人重识别的迅速发展,大多数学者的目光聚焦在前两步,而后两步采用传统方法。SORT[2]是最早利用卷积神经网络检测行人的多目标跟踪算法之一,该算法依靠卡尔曼滤波[24]和匈牙利算法[25]来解决目标关联,但是相似度计算只利用了运动信息——检测框和跟踪框的交并比(intersection over union, IOU),对于遮挡问题效果不佳,DeepSORT[3]在SORT的基础上引入行人重识别(re-identification, Re-ID)网络来提取目标的深度表观特征,使得数据关联更准确,还有一些方法利用了更复杂的特征,如Xu等人[8]使用了时空图卷积来提取轨迹深度特征表示。不过复杂特征的提取大大增加了计算量,算法实时性较差。为了提高实时性,JDE[9]提出联合检测与重识别这一跟踪范式,用一个网络来实现目标检测和Re-ID特征提取,平衡了跟踪精度和跟踪速度,而针对JDE方法在单一网络中检测和Re-ID特征存在不公平等问题,一系列算法如 FairMOT[10],CSTrack[20],RelationTrack[21],CorrTrack[22]相继提出。也有研究者尝试为MOT构建端到端的解决方案,也就是联合检测与跟踪,该范式旨在同时输出检测和跟踪结果,Tracktor[11]直接利用检测器的回归模块预测目标下一帧的位置来完成多目标跟踪任务,CenterTrack[12]通过在成对的图像上执行检测,并结合先前帧的目标检测结果来预测当前帧的目标位置偏移,从而将前后帧中相同目标建立起联系,实现多目标跟踪。ChainedTrack[26]使用相邻帧作为输入,并生成代表相同目标的框对,将跨帧关联问题转化成目标检测问题。简单有效的端到端目标检测器DETR[13]的出现给目标检测领域带来革新的同时,也给多目标跟踪带来了新思路,有学者开始构建基于Transformer[17]的端到端的多目标跟踪器,如TransTrack[14],TrackFormer[15],MOTR[16],这些算法主要在DETR解码器的查询输入这块进行一定的改进以适应MOT任务。可以看出,MOT的发展与目标检测和行人重识别的发展是一致的,不过本文从视频目标检测和视频行人重识别出发来研究视频时序信息对MOT的重要性。

2.2 视频行人重识别

在视频行人重识别方面,视频比静止图像包含更丰富的空间和时间信息,基于视频的行人重识别最直接的方法是先把视频拆成一帧一帧的图像,利用深度学习提取每帧图像的帧级别特征,然后通过不同操作如平均池化或最大池化[27],递归循环网络(recurrent neural networks, RNN)[28-29]和时间注意力[30]来聚合多帧特征得到视频级别特征。另一种策略是通过3D卷积同时捕获空间和时间信息[31],不同于基于2D卷积的模型需要诸如循环网络来提取时间信息,3D 卷积自然处理输入视频以输出时空特征。尽管性能良好,但3D卷积通常需要更多的计算和内存资源,因此本文方法没有采用3D卷积模型,而是采用先提取图像单帧级别特征,再聚合多帧特征这一策略。

2.3 视频目标检测

在视频目标检测方面,相比于图像目标检测,视频具有高冗余度的特性,其中包含了大量的时空信息[32]。充分利用好时序上下文关系,可以解决视频中连续帧之间的大量冗余的情况,提高检测速度[33];还可以解决视频相对于图像存在的运动模糊、视频失焦、部分遮挡和奇异姿势等问题。对于高冗余度特性,学者们希望利用运动信息来进行检测,其中最常用的运动信息是光流。DFF[34]只对关键帧进行特征提取,而对于关键帧附近的非关键帧,通过计算光流来聚集关键帧特征,大大减少了计算量。对于时空信息的提取,T-CNN[35]用检测算法学习图像中目标的空间信息,用跟踪算法学习图像中目标的时序信息,D&T[36]利用孪生网络来提取不同帧的相关性也就是时序信息,STMN[37]在单帧检测器上加入时空存储模块来提取时空信息,使其能够处理任意长度的视频。与STMN结构类似,本文在通用特征提取模块后引入了ConvGRU[18]来提取时空信息,并用特征对齐模块来保证了时空一致性。

3 本文方法

本节对本文方法进行详细描述。首先在3.1节对本文方法整体架构进行概述,然后在3.2节、3.3节和3.4节详细介绍各个模块,分别为时空特征提取模块、检测头与Re-ID头和数据关联模块。

3.1 方法整体架构

针对目前主流多目标跟踪算法未能有效地提取时序信息这一问题,本文提出时空特征对齐的多目标跟踪方法,结构如图1所示,是联合检测与重识别这一范式下的多目标跟踪方法。算法模型由通用特征提取、时空特征提取、检测头、Re-ID头和数据关联5部分组成。给定连续视频帧序列{I1,I2,,In}, 本文方法将每个帧单独地通过骨干网络得到单帧级别特征图{F1,F2,,Fn},本文方法的骨干网络与FairMOT[10]相同,采用DLA-34[38]网络来提取图像单帧级别特征,该网络包含很多高维特征与低维特征的连接,能更好地聚合空间信息和语义信息,提取目标位置与表观信息;对于任意时间步,先将存放历史帧序列信息的Mt1通过特征对齐模块得到AlignedMt1,然后FtAlignedMt1一同输入到ConvGRU[18]得到Mt;经过通用特征提取模块和时空特征提取模块后,直接将特征图送入检测头和Re-ID头分别输出位置信息和Re-ID特征;然后利用位置信息和Re-ID特征计算当前帧检测目标{d1,d2,,dN}与轨迹{T1,T2,,TK}的相似度矩阵,最后结合分配算法实现数据关联完成多目标跟踪。

图 1. 算法整体框架

Fig. 1. Overall framework of the algorithm

下载图片 查看所有图片

3.2 时空特征提取模块

本文方法使用ConvGRU[18]来学习目标的时空信息,ConvGRU是如图2所示的门控循环单元(gated recurrent unit, GRU)的改进版本。GRU常用于自然语言处理中捕捉序列数据的长时间依赖关系,不过自然语言处理领域处理的是一维信息,而图像是二维的,为了同时捕捉时间和空间信息,ConvGRU将一维状态向量替换成二维状态特征图,将全连接层替换成卷积层。ConvGRU的计算公式如下:

图 2. 门控循环单元结构图

Fig. 2. Gated recurrent unit

下载图片 查看所有图片

zt=σ(Wz*Ft+Uz*Mt1),

rt=σ(Wr*Ft+Ur*Mt1),

M˜t=tanh(W*Ft+rt*(UMt1)),

Mt=(1zt)M˜t+ztMt1,

其中*表示卷积,·表示点乘,WzWrWUzUrU都是2D卷积核,Ft表示当前帧特征图,Mt1表示过去状态特征图,代表了整个历史帧信息。

由于视频中目标是运动的,目标在当前帧的空间位置与前一帧的空间位置不同,那么代表历史帧特征的Mt1可能没有和当前帧特征Ft在空间位置上进行对齐,这可能会导致ConvGRU难以忘记历史帧目标的空间位置,从而叠加了未对齐的特征,造成拖尾现象——特征图上历史帧目标所在的空间位置存在高响应,从而使得检测器认为目标还处在前一时刻的空间位置,造成大量误检。为了解决这一问题,本文引入特征对齐模块如图3,充分利用相邻帧之间的一致性信息。具体来说,就是根据当前帧特征图Ft和前一帧特征图Ft1的位置对应关系来修正过去状态特征图Mt1,使其与Ft对齐。首先计算Ft中位置(x,y)的特征向量Ft(x,y)RDFt1中位置(x,y)附近区域的特征向量Ft1(x,y)RD的余弦相似度,然后对Mt1进行加权使其对齐到当前帧特征图Ft。具体计算如式(5)

图 3. 特征对齐

Fig. 3. Feature alignment

下载图片 查看所有图片

Cx,y(i,j)=Ft(x,y)Ft1(x+i,y+j)i,j{d,,d}Ft(x,y)Ft1(x+i,y+j),

AlignedMt1(x,y)=i,j{d,,d}Cx,y(i,j)Mt1(x+i,y+j),

其中i,j限制在范围[d,d]d是个超参数,本文设置d=2, 基于的假设是相邻帧不会有过大的位移,当然这样也可以减少计算量。

3.3 检测头和Re-ID头

检测模块主要由三个并行的卷积模块(卷积核大小为3x3,输出通道数为256的卷积+卷积核大小为1x1的卷积)组成,分别输出目标中心点热力图,目标中心点偏移和检测框宽高。热力图分支负责预测目标中心点位置,训练时需要将标签转化为热力图形式来计算损失,假设目标真实框为b=(x1,y1,x2,y2),则中心点为(cx,cy)=(x1+x22,y1+y22),经下采样得低分辨率坐标cd=(cx4,cy4),则该目标的中心点分散至热力图上Hxy=exp((xcdx)2+(ycdy)22σ2),其中σ为标准差。热力图分支的损失函数为:

Lheatmap=1Nxy{(1H^xy)αlogH^xy,Hxy=1(1Hxy)β(H^xy)αlog(1H^xy)otherwise,

其中,参数α用于控制易分类样本权重,参数β用于减少负样本权重占比,N是图像中心点个数,H^xy是热力图估计。中心点偏移分支用于估计目标中心点的偏移补偿,检测框宽高分支用于估计目标中心点到检测框四条边的距离,损失函数为:

Lbox=i=1Noio^i1+λssis^i1,

其中,oisi分别为中心点位置和检测框宽高的真实值,o^is^i为对应的网络估计值。

Re-ID模块旨在提取同一类别中可以区分不同身份的细粒度表观特征,主要在时空特征提取模块后应用卷积提取128维的特征图。训练时将Re-ID作为分类任务,将真值处目标特征向量经过一个线性分类层,得到每个ID分类的概率值p(k),k[1,K],其中K为类别数目。损失函数为:

Lid=i=1Nk=iKYi(k)lnp(k),

其中,Yi(k)表示第i个目标的真实ID概率分布。本文同时训练检测任务和Re-ID任务,使用不确定性损失来自动平衡两个任务,计算如下:

Ldet=Lheatmap+Lbox,

L=12(1ew1Ldet+1ew2Lid+w1+w2),

其中,w1w2为可学习参数,用于平衡检测和重识别任务

3.4 数据关联

数据关联策略与FairMOT[10]保持一致。首先基于第一帧中检测到的框初始化轨迹片段。然后在后续的帧中,使用两阶段匹配策略实现检测框与轨迹片段的连接。在第一阶段,通过网络得到输入图像的目标位置信息和Re-ID特征,首先利用卡尔曼滤波和马氏距离排除相距较远的匹配,然后将Re-ID特征余弦距离Dr和马氏距离Dm融合在一起计算相似度D=0.98Dr+0.02Dm,利用匈牙利算法完成目标和轨迹的第一次匹配;在第二阶段,对未匹配的轨迹片段和未匹配的目标计算交并比(Intersection over union, IoU),然后利用匈牙利算法完成目标和轨迹的第二次匹配;最后更新轨迹,将未匹配的目标初始化为新轨迹,对未匹配的轨迹做记录,当轨迹连续30帧都没匹配到新目标,则丢失该轨迹。

4 实验结果与分析

4.1 数据集与模型评价

实验主要在多目标跟踪数据集MOT17和MOT20上进行,并与现有方法进行对比分析。MOT17数据集主要标注目标为移动的行人,包含了不同天气状况、相机静止或运动、多个拍摄角度和光照变化的视频,涵盖了多目标跟踪过程中可能遇到各种挑战的场景。MOT17数据集共14个视频序列,分为7个训练集和7个测试集,视频序列长度平均为800帧,其中训练集包含112297个检测框标注和548个ID标注且提供3种检测器SDP、DPM和Faster R-CNN的检测结果。为了进行公平的对比分析,实验在训练时还使用了与FairMOT[10]相同的额外数据集ETH、CityPerson、CalTech、CUHK-SYSU、PRW、CrowdHuman。CityPerson是行人检测数据集,数据是由车载摄像机在城市中收集,总计25000张图片,350000个标注框;ETH包含5598张图片。不过这两个数据集只提供了目标真实检测框,所以训练时忽略了这些数据集中的 Re-ID损失。CalTech、CUHK-SYSU、PRW、MOT17提供了目标真实检测框和ID,可以用来同时训练检测分支和Re-ID分支。对于消融实验,本文使用上述6个额外数据集和MOT17的前半序列作为训练集,MOT17的后半序列作为验证集。MOT任务中的评价指标主要包括如下:

多目标跟踪准确度 (Multiple object tracking accurary, MOTA):同时考虑误检、漏检和ID切换,能够直接衡量算法检测和跟踪的性能。计算公式如式(12)所示,其中,t表示时间帧的索引,FN表示漏检数,FP表示误检数,IDSW表示ID切换次数,GT表示真实检测框数。

tFNt+FPt+IDSWttGTt.

识别F1值(Identification F1 Score,IDF1):用来衡量ID识别准确率与召回率之间的平衡性,评估跟踪器的ID识别性能。计算公式如式(13)所示,其中,IDTP表示真阳性ID,IDFP表示假阳性ID,IDFN表示假阴性ID,与检测指标的TP、FP、FN相对应。

IDF1=2IDTP2IDTP+IDFP+IDFN.

高阶跟踪精度(Higher order tracking accuracy, HOTA):同时考虑了检测精度、关联和定位精度。

误检数(False positive, FP):被预测为正样本的负样本数。

漏检数(False negatives, FN):被预测为负样本的正样本数。

命中轨迹比(Mostly tracked targets, MT):跟踪轨迹占真实轨迹80%以上的轨迹数与轨迹总数之比。

丢失轨迹比(Mostly lost targets, ML):跟踪轨迹占真实轨迹20%以下的轨迹数与轨迹总数之比。

ID切换(Identity switches, IDs):目标ID切换的总数。

4.2 实验环境与训练细节

实验硬件环境为搭载Inter Xeon(R) Platinum 8163 CPU 2.50GHz处理器和4张NVIDIA GeForce RTX 3090(24G 显存)的深度学习服务器。软件环境为Ubuntu 20.04操作系统下的Pytorch1.7深度学习框架。实验按照FairMOT[10]的设置,采用了如随机翻转和随机裁剪等数据增强方法。为了解决不同帧率的问题,本文对视频序列进行了有间隔的随机采样。ConvGRU的卷积核大小设为5×5,特征对齐模块的局部区域大小设为5。训练时输入图片大小为1088×608,首先使用在COCO数据集预训练得到的模型参数来初始化骨干网络模型,然后采用Adam优化器训练30个轮次,batch size设置为12,初始化学习率为1e-4,在第20个轮次更改学习率为1e-5。

4.3 定量分析

为了验证本文提出的时空特征对齐的多目标跟踪方法的效果,在MOT Challenge上与当前一些先进MOT算法进行了指标对比。表1表2分别为在MOT17、MOT20测试集对比结果。从表1可以看出,本文方法在IDF1指标上超过大部分现有方法且具有较高的MOTA值。对比基准方法FairMOT,IDF1值由原72.3提升至73.9,提升了1.6,MOTA值由原73.7提升至74.2,提升了0.5,MT和IDS指标也有所提升。不过特征对齐模块需要计算前后帧点对点的相似度,计算量较大,导致帧率有所下降。值得注意的是,尽管CSTrack方法的MOTA值较本文方法高,但是IDF1值较本文方法低,这也可以从FP、FN指标和MT、ML、IDS指标中可以看出,CSTrack方法的检测效果比本文方法好,但跟踪效果比本文方法差。MOT20数据集的目标更加稠密,目标遮挡现象更严重,因此更具有挑战性。实验结果如表2所示,可以看出,本文方法在MOTA指标上超过大部分现有方法且具有较高的IDF1值,并且带来的性能提升比在MOT17数据集上更加明显,说明本文方法的时空特征提取模块在遮挡和小目标等困难场景中更能发挥作用。对比基准方法FairMOT,IDF1值由原67.3提升至70.6,提升了3.3,MOTA值由原61.8提升至67.4,提升了5.6,IDS指标也有所提升。值得注意的是,尽管CorrTracker方法的IDF1指标较本文方法高,但MT、ML以及IDS这些评价跟踪器的指标都较本文方法低,说明本文方法的跟踪效果不比CorrTracker差。

表 1. 本文方法与其他先进方法在MOT17数据集上的对比结果

Table 1. The tracking performance comparision between our method and other advanced methods on MOT17 data set

MethodYearMOTA↑IDF1↑HOTA↑FP↓FN↓MT↑ML↓IDS↓FPS↑
TubeTK[39]CVPR202063.058.648.02706017748331.219.955293.0
CTracker[26]ECCV202066.657.449.02228416049132.224.255296.8
CenterTrack[12]ECCV202067.864.752.21848916033234.624.6330922.0
TraDes[40]CVPR202169.163.952.72089215006036.421.535553.4
FairMOT[10]IJCV202173.772.359.32750711747743.217.3330318.9
TrackFormer[15]CVPR202265.063.9-70443123552--3528-
MOTR[16]ECCV202267.467.0-3235514940034.624.51992-
CSTrack[20]TIP202274.972.3-2384711430341.517.5356716.4
Ours74.273.960.12712911633743.819.1236710.9

查看所有表

表 2. 本文方法与其他先进方法在MOT20数据集上的对比结果

Table 2. The tracking performance comparision between our method and other advanced methods on MOT20 data set

MethodYearMOTA↑IDF1↑HOTA↑FP↓FN↓MT↑ML↓IDS↓FPS↑
FairMOT[10]IJCV202161.867.354.61034408890168.87.652438.9
TransTrack[14]arXiv202164.559.2-2856615137749.113.63565-
CorrTracker[22]CVPR202165.273.6-298089951047.612.73369-
CSTrack[20]TIP202266.668.654.02540414435850.415.531964.5
Ours67.470.655.64935811737059.612.320664.8

查看所有表

4.4 消融实验

本文的消融实验使用上述6个额外数据集和MOT17的前半序列作为训练集,MOT17的后半序列作为验证集。本文探究了ConvGRU和特征对齐模块对整体跟踪性能的影响。从表3可以看出,使用ConvGRU和特征对齐模块均能有效提升多目标跟踪性能,其中最重要的指标MOTA由原69.1提升至70.0,IDF1由原72.8提升至74.8,但是误检率有所升高,不过加入特征对齐模块后有所缓解。值得注意的是,本文方法的IDs较基准方法也有所增加,但ML较高,ML较低,导致IDs占据总匹配数较小,从IDF1指标也能看出整体跟踪性能更好。

表 3. 不同模块对跟踪性能的影响

Table 3. The impact of different components on the overall tracking performance

MethodMOTA↑IDF1↑FP↓FN↓MT↑ML↓IDS↓
Baseline69.172.819761444314353299
Baseline+ConvGRU69.673.424341372915050321
Baseline+ConvGRU+Alignment Module70.074.822011371515351320

查看所有表

本文还设计了消融实验探究视频序列输入长度对跟踪性能的影响,如表4所示。当视频序列输入长度从2增加到8时,MOTA和IDF1指标分别提高了1.1和1.3,说明视频序列输入长度的增加可以提高跟踪性能,模型能够很好地学习目标长时间的依赖关系。尽管随着视频序列输入长度的增加,IDs也随之增加,但MT随之增加,ML随之减小,导致IDs占据总匹配数的比例越来越小,因此匹配错误越来越低,这也从IDF1指标中可以看出。

表 4. 视频序列输入长度对跟踪性能的影响

Table 4. The impact of video sequence input length on the overall tracking performance

Input lengthMOTA↑IDF1↑FP↓FN↓MT↑ML↓IDS↓
268.973.524121409214352311
369.674.121081399014451319
469.673.921561394915252293
569.574.122211394715152313
870.074.822011371515351320

查看所有表

4.5 定性分析

除了在基准数据集上进行量化指标的测试,本节也对本文方法与基准方法进行了对比定性分析,通过可视化的结果来分析本文方法在面对多目标跟踪中遮挡、目标形变等问题时表现出的效果。与消融实验一样,将MOT17的前半序列作为训练集,MOT17的后半序列作为验证集,本文在验证集上进行定性分析。图4表示本文方法和基准方法的多目标跟踪结果对比图,由于原数据集的图片过大,含有的目标比较多,不方便对比分析,所以截取了中间比较有代表性的一些跟踪结果来比较效果。

图 4. 本文方法与基准方法在验证集上的可视化结果对比。(a) ID切换;(b) 误检和漏检;(c) 特定的误检

Fig. 4. The visualization results comparison between baseline and our method on validation set. (a) ID switch; (b) FP and FN; (c) special FP

下载图片 查看所有图片

图4中MOT17-04视频序列,第723帧时基准方法和本文方法都出现了误检,但在第724帧时基准方法将目标关联到了第723帧的误检目标上,出现ID切换现象,而本文方法能排除误检干扰,保持目标ID。这是因为原模型的Re-ID特征只利用了图像单帧信息,一旦出现误检且提取的Re-ID特征相似,很容易发生ID切换;而本文方法的时空特征提取模块可以充分利用前几帧的信息,使得提取的Re-ID特征更鲁棒,更能避免因为一时误检造成的ID切换。

图4中MOT17-04视频序列,第542帧中左下角的背着红色书包的行人被店铺招牌遮挡,第546帧中右上角穿着白色上衣背着书包的行人被周围的行人严重遮挡。在这样的情况下,基准方法分别出现了错误识别目标和丢失了部分目标的现象,而本文方法仍然能够正确框出目标,这充分说明了时空特征提取模块的作用。在当前帧严重遮挡而缺失信息的情况下,时空特征提取模块可以利用前几帧的信息进行补齐,使得本文方法在面对因为遮挡而出现误检和漏检等问题上更有鲁棒性。

但时空特征提取模块也存在一定的缺陷,会出现基于单帧的方法中不存在的误检现象。比如图4中MOT17-11视频序列,第628帧中最中间的穿着黑色衣服的行人随着时间的推移在第632帧时几乎被完全遮挡而消失在视野中,但本文方法仍将其框出,出现了误检现象。这是因为本文方法利用的时序模型具有视频外推的能力,即可以将历史帧信息传递到当前帧,使得目标虽然在当前帧已经消失了但模型仍然保留了目标过去信息,从而造成误检现象。

5 结论

现有多目标跟踪方法大多是单独提取每一帧的信息,没有对视频中存在的时序信息进行显式建模,这使得方法在运动模糊、遮挡和小目标等场景中的性能显著下降。针对这一问题,本文提出了时空特征对齐的多目标跟踪方法,主要通过ConvGRU提取视频中的时空信息,不过由于前后帧目标的空间位置不同,且实验结果表明时序模型难以忘记过去帧目标所处位置,使得误检增多,因此进一步提出特征对齐模块将前后帧目标信息对齐。实验结果表明,本文方法可以有效提取时序信息,提升多目标跟踪性能,这也体现了多目标跟踪中时序信息的有效性。不过,特征对齐模块中相似度计算的运算量较大以及时序信息的引入会造成一些单帧检测器中不会出现的误检现象,影响检测器的性能,因此,下一步研究工作的重点在于更高效的特征对齐模块和检测模块上,通过改进检测模块来避免因为时序信息引入而出现的特定误检现象。

6 附录

6.1 KITTI数据集上的实验结果与分析

自动驾驶数据集KITTI共50个视频序列,分为21个训练集和29个测试集,包含市区、乡村和高速公路等场景采集的真实图像数据,可用于车辆多目标跟踪。值得注意的是,相比于MOT系列数据集,该数据集帧率较低,只有10 fps。KITTI车辆类测试集的定量结果如表5。许多方法会使用额外的合成数据集或者KITTI点云数据集进行训练,为了进行公平对比,对比的算法需未使用额外数据集。而且,大多数使用了Re-ID模块的算法未在KITTI上进行实验。因此,可对比的算法较少。对比算法中CenterTrack是只利用了运动信息,而QDTrack是采用对比学习提取了鲁棒的Re-ID特征。

表 5. 本文方法与其他先进方法在KITTI车辆类测试集上的对比结果

Table 5. The tracking performance comparision between our method and other advanced methods on KITTI vehicle class test set

MethodYearHOTA↑MOTA↑FP↓FN↓MT↑ML↓IDS↓
CenterTrack[12]ECCV202073.088.8270388682.215.4254
QDTrack[41]CVPR202168.584.9432054969.53.8313
Ours69.682.2540343358.68.3274

查看所有表

KITTI上的定量结果显示了本文方法的一个缺陷,即在本文方法的特征对齐模块中,计算前后帧相似度是在局部区域,假设目标在相邻帧不会有过大的位移,这在目标速度过快或帧率过低时有些不成立。KITTI数据集帧率低且车辆速度快,尽管如此,对于KITTI的大多数场景,本文方法仍有效。从可视化结果可以看出,在相机运动目标静止以及相机静止目标运动这些场景,本文方法跟踪性能良好。对于图5中0008视频序列的跟车和转向等场景,相机一直运动,本文方法稳定跟踪目标,对于图5中0010视频序列的红绿灯场景,相机静止但车辆的视角和形状变化较大,本文方法稳定跟踪目标。不过对于图5 中0002视频序列的会车场景,本文方法会出现跟踪框漂移现象。这是因为会车时车辆和相机是相对运动的,目标速度最快,此时的相邻帧位移特别大。会车在自动驾驶场景频繁出现,导致本文方法的整体跟踪性能不佳。很自然的改进点是特征对齐模块中前后帧相似度计算的区域采取一定方式自适应调整。

图 5. 本文方法在KITTI测试集上的可视化结果。图片左侧为视频号。图片左上角为帧号

Fig. 5. Visualization results of this method on the KITTI test set. The video number is in the left side of the figure. The frame number is in the upper left of the figure

下载图片 查看所有图片

尽管如此,对比同样使用了Re-ID模块的QDTrack,本文方法的HOTA、IDS指标较好,但在同时衡量检测和跟踪的MOTA 指标上较低,表明本文方法跟踪器较好,提取的Re-ID特征较好,而检测器较差,这也可以从FP这个指标可以看出,因为本文方法在会车场景时检测框会漂移,漂移的检测框与真实检测框的IOU可能小于0.5,就被认为是误检。不过使用Re-ID模块的方法对比未使用Re-ID模块的CenterTrack,跟踪性能都较差,表明提取的Re-ID特征不够鲁棒,这可以使用额外的车辆重识别数据弥补。

Overview: Multiple object tracking (MOT) is an important task in computer vision. It is widely used in the fields of surveillance video analysis and automatic driving. MOT is to locate multiple objects of interest, maintain the unique identification number (ID) of each object, and record continuous tracks. The difficulty of multi-target tracking is false positives (FP), false negatives (FN), ID switches (IDs), and the uncertainty of the target number. Most of the MOT methods improve object detection and data association, usually ignoring the correlation between different frames. Although some methods have tried to construct the correlation between different frames in recent years, they only stay in the adjacent frames and do not explicitly model the temporal information in the video. They don’t make good use of the temporal information in the video, which makes the tracking performance significantly degraded in motion blur, occlusion, and small target scenes. In order to solve these problems, this paper proposes a multiple object tracking method with the aligned spatial-temporal feature. First, the convolutional gated recurrent unit (ConvGRU) is introduced to encode the spatial-temporal information of the object in the video; By considering the whole history frame sequence, this structure effectively extracts the spatial-temporal information to enhance the feature representation. However, the target in the video is moving, and the spatial position of the target in the current frame is different from that in the previous frame, and ConvGRU is difficult to forget the spatial position of the target in the historical frame, thus overlaying the misaligned features, resulting in the spatial position of the target in the historical frame on the feature map has a high response, which makes the detector think that the target is still in the spatial position of the previous frame. Then, the feature alignment module is designed to ensure the time consistency between the historical frame information and the current frame information to reduce the false detection rate. Finally, this paper tests MOT17 and MOT20 datasets, and the multiple object tracking accuracy (MOTA) values are 74.2 and 67.4, respectively, which are increased by 0.5 and 5.6 compared with the baseline FairMOT method. Our identification F1 score (IDF1) value is 73.9 and 70.6, respectively, which is increased by 1.6 and 3.3 compared with the baseline FairMOT method. In addition, the qualitative and quantitative experimental results show that the overall tracking performance of this method is better than that of most of the current advanced methods.

参考文献

[1] Ciaparrone G, Sánchez F L, Tabik S, et alDeep learning in video multi-object tracking: a surveyNeurocomputing2020381618810.1016/j.neucom.2019.11.023

[2] Bewley A, Ge Z Y, Ott L, et al. Simple online and realtime tracking[C]//2016 IEEE International Conference on Image Processing (ICIP), 2016: 3464–3468. https://doi.org/10.1109/ICIP.2016.7533003.

[3] Wojke N, Bewley A, Paulus D. Simple online and realtime tracking with a deep association metric[C]//2017 IEEE International Conference on Image Processing, 2018: 3645–3649. https://doi.org/10.1109/ICIP.2017.8296962.

[4] 鄂贵, 王永雄基于R-FCN框架的多候选关联在线多目标跟踪光电工程202047119013610.12086/oee.2020.190136

    E G, Wang Y XMulti-candidate association online multi-target tracking based on R-FCN frameworkOpto-Electron Eng202047119013610.12086/oee.2020.190136

[5] Berclaz J, Fleuret F, Fua P. Robust people tracking with global trajectory optimization[C]//2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06), 2006: 744–750. https://doi.org/10.1109/CVPR.2006.258.

[6] Pirsiavash H, Ramanan D, Fowlkes C C. Globally-optimal greedy algorithms for tracking a variable number of objects[C]//CVPR 2011, 2011: 1201–1208. https://doi.org/10.1109/CVPR.2011.5995604.

[7] Brasó G, Leal-Taixé L. Learning a neural solver for multiple object tracking[C]//Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 6246–6256. https://doi.org/10.1109/CVPR42600.2020.00628.

[8] Xu J R, Cao Y, Zhang Z, et al. Spatial-temporal relation networks for multi-object tracking[C]//Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision, 2019: 3987–3997. https://doi.org/10.1109/ICCV.2019.00409.

[9] Wang Z D, Zheng L, Liu Y X, et al. Towards real-time multi-object tracking[C]//Proceedings of the 16th European Conference on Computer Vision, 2020: 107–122. https://doi.org/10.1007/978-3-030-58621-8_7.

[10] Zhang Y F, Wang C Y, Wang X G, et alFairMOT: On the fairness of detection and re-identification in multiple object trackingInt J Comput Vision2021129113069308710.1007/s11263-021-01513-4

[11] Bergmann P, Meinhardt T, Leal-Taixé L. Tracking without bells and whistles[C]//Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision, 2019: 941–951. https://doi.org/10.1109/ICCV.2019.00103.

[12] Zhou X Y, Koltun V, Krähenbühl P. Tracking objects as points[C]//Proceedings of the 16th European Conference on Computer Vision, 2020: 474–490. https://doi.org/10.1007/978-3-030-58548-8_28.

[13] Carion N, Massa F, Synnaeve G, et al. End-to-end object detection with transformers[C]//Proceedings of the 16th European Conference on Computer Vision, 2020: 213–229. https://doi.org/10.1007/978-3-030-58452-8_13.

[14] Sun P Z, Cao J K, Jiang Y, et al. Transtrack: Multiple object tracking with transformer[Z]. arXiv: 2012.15460, 2020. https://arxiv.org/abs/2012.15460.

[15] Meinhardt T, Kirillov A, Leal-Taixé L, et al. TrackFormer: Multi-object tracking with transformers[C]//Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022: 8834–8844. https://doi.org/10.1109/CVPR52688.2022.00864.

[16] Zeng F G, Dong B, Zhang Y A, et al. MOTR: End-to-end multiple-object tracking with transformer[C]//Proceedings of the 17th European Conference on Computer Vision, 2022: 659–675. https://doi.org/10.1007/978-3-031-19812-0_38.

[17] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems, 2017: 6000–6010.

[18] Ballas N, Yao L, Pal C, et al. Delving deeper into convolutional networks for learning video representations[C]//Proceedings of the 4th International Conference on Learning Representations, 2015.

[19] Yu F W, Li W B, Li Q Q, et al. POI: Multiple object tracking with high performance detection and appearance feature[C]//Proceedings of the European Conference on Computer Vision, 2016: 36–42. https://doi.org/10.1007/978-3-319-48881-3_3.

[20] Liang C, Zhang Z P, Zhou X, et alRethinking the competition between detection and ReID in multiobject trackingIEEE Trans Image Process2022313182319610.1109/TIP.2022.3165376

[21] Yu E, Li Z L, Han S D, et al. RelationTrack: Relation-aware multiple object tracking with decoupled representation[J]. IEEE Trans Multimedia, 2022. https://doi.org/10.1109/TMM.2022.3150169.

[22] Wang Q, Zheng Y, Pan P, et al. Multiple object tracking with correlation learning[C]//Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 3875–3885. https://doi.org/10.1109/CVPR46437.2021.00387.

[23] Tokmakov P, Li J, Burgard W, et al. Learning to track with object permanence[C]//Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision, 2021: 10840–10849. https://doi.org/10.1109/ICCV48922.2021.01068

[24] Welch G, Bishop G. An Introduction to the Kalman Filter[M]. Chapel Hill: University of North Carolina at Chapel Hill, 1995.

[25] Kuhn H W. The Hungarian method for the assignment problem[J]. Naval Res Logist Q, 1955, 2(1–2): 83–97.https://doi.org/10.1002/nav.3800020109.

[26] Peng J L, Wang C A, Wan F B, et al. Chained-tracker: Chaining paired attentive regression results for end-to-end joint multiple-object detection and tracking[C]//Proceedings of the 16th European Conference on Computer Vision, 2020: 145–161. https://doi.org/10.1007/978-3-030-58548-8_9.

[27] Zheng L, Bie Z, Sun Y F, et al. MARS: A video benchmark for large-scale person re-identification[C]//Proceedings of the 14th European Conference on Computer Vision, 2016: 868–884. https://doi.org/10.1007/978-3-319-46466-4_52.

[28] McLaughlin N, Del Rincon J M, Miller P. Recurrent convolutional network for video-based person re-identification[C]//Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016: 1325–1334. https://doi.org/10.1109/CVPR.2016.148.

[29] Zhou Z, Huang Y, Wang W, et al. See the forest for the trees: Joint spatial and temporal recurrent neural networks for video-based person re-identification[C]//Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition, 2017: 6776–6785. https://doi.org/10.1109/CVPR.2017.717.

[30] Fu Y, Wang X Y, Wei Y C, et al. STA: Spatial-temporal attention for large-scale video-based person re-identification[C]//Proceedings of the 33rd AAAI Conference on Artificial Intelligence, 2019: 8287–8294. https://doi.org/10.1609/aaai.v33i01.33018287.

[31] Li J N, Zhang S L, Huang T J. Multi-scale 3D convolution network for video based person re-identification[C]//Proceedings of the 33rd AAAI Conference on Artificial Intelligence, 2019: 8618–8625. https://doi.org/10.1609/aaai.v33i01.33018618.

[32] Wang D C, Bai C S, Wu K JSurvey of video object detection based on deep learningJ Front Comput Sci Technol20211591563157710.3778/j.issn.1673-9418.2103107

    王迪聪, 白晨帅, 邬开俊基于深度学习的视频目标检测综述计算机科学与探索20211591563157710.3778/j.issn.1673-9418.2103107

[33] Lu K L, Xue J, Tao C BMulti target tracking based on spatial mask prediction and point cloud projectionOpto-Electron Eng202249922002410.12086/oee.2022.220024

    陆康亮, 薛俊, 陶重犇融合空间掩膜预测与点云投影的多目标跟踪光电工程202249922002410.12086/oee.2022.220024

[34] Zhu X Z, Xiong Y W, Dai J F, et al. Deep feature flow for video recognition[C]//Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition, 2017: 4141–4150. https://doi.org/10.1109/CVPR.2017.441.

[35] Kang K, Ouyang W L, Li H S, et al. Object detection from video tubelets with convolutional neural networks[C]//Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016: 817–825. https://doi.org/10.1109/CVPR.2016.95.

[36] Feichtenhofer C, Pinz A, Zisserman A. Detect to track and track to detect[C]//Proceedings of the 2017 IEEE International Conference on Computer Vision, 2017: 3057–3065. https://doi.org/10.1109/ICCV.2017.330.

[37] Xiao F Y, Lee Y J. Video object detection with an aligned spatial-temporal memory[C]//Proceedings of the 15th European Conference on Computer Vision, 2018: 494–510. https://doi.org/10.1007/978-3-030-01237-3_30.

[38] Yu F, Wang D Q, Shelhamer E, et al. Deep layer aggregation[C]//Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018: 2403–2412. https://doi.org/10.1109/CVPR.2018.00255.

[39] Pang B, Li Y Z, Zhang Y F, et al. TubeTK: adopting tubes to track multi-object in a one-step training model[C]//Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 6307–6317. https://doi.org/10.1109/CVPR42600.2020.00634.

[40] Wu J J, Cao J L, Song L C, et al. Track to detect and segment: an online multi-object tracker[C]//Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 12347–12356. https://doi.org/10.1109/CVPR46437.2021.01217.

[41] Pang J M, Qiu L L, Li X, et al. Quasi-dense similarity learning for multiple object tracking[C]//Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 164–173. https://doi.org/10.1109/CVPR46437.2021.00023.

程稳, 陈忠碧, 李庆庆, 李美惠, 张建林, 魏宇星. 时空特征对齐的多目标跟踪算法[J]. 光电工程, 2023, 50(6): 230009. Wen Cheng, Zhongbi Chen, Qingqing Li, Meihui Li, Jianlin Zhang, Yuxing Wei. Multiple object tracking with aligned spatial-temporal feature[J]. Opto-Electronic Engineering, 2023, 50(6): 230009.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!