激光与光电子学进展, 2022, 59 (10): 1015007, 网络出版: 2022-05-16  

基于生成对抗网络与自校准卷积的行人重识别 下载: 555次

Person Re-Identification Based on Generative Adversarial Network and Self-Calibrated Convolution
作者单位
1 河南大学人工智能学院,河南 开封 475004
2 河南大学大数据分析与处理河南省重点实验室,河南 开封 475004
摘要
针对行人重识别过程中跨相机拍摄导致的行人图像风格差异问题,提出了一种基于循环矢量量化生成对抗网络(CVQGAN)与自校准卷积模块的学习框架。设计了一种离散化的矢量量化模块,将该模块用于生成器由编码到解码的过程中,利用矢量量化空间中的离散矢量解决了原始生成器产生噪声伪图像的问题,从而生成质量更高的风格转换图像。将自校准卷积模块融合至Resnet50主干网络的卷积层中,利用多分支网络结构对各支路进行不同的卷积操作,以获取表征能力更强的特征,进一步解决同一行人在不同相机下的风格差异问题。在Market1501和DukeMTMC-reID数据集上对所提算法进行有效性实验验证,结果表明本文算法能够有效提高行人重识别的准确率和鲁棒性。
Abstract
Aiming at the problem of person image style difference caused by cross-camera shooting in the process of person re-identification, this paper proposes a learning framework based on a cyclic vector quantization generative adversarial network (CVQGAN) and a self-calibrated convolution module. First of all, this paper designs a discrete vector quantization module, which is introduced into the process from encoding to decoding of the generator. The discrete vector in the vector quantization space is used to solve the problem that the original generator produces noisy pseudo images, therefore generating higher quality style conversion images. Then, the self-calibration convolution module is integrated into the convolution layer of the Resnet50 backbone network, and the multi-branch network structure is used to perform different convolution operations on each branch, so as to obtain features with stronger characterization ability and further solve the problem of style differences of the same pedestrian under different cameras. The proposed algorithm is validated by experiments on Market1501 and DukeMTMC-reID datasets, and the results show that the proposed algorithm can effectively improve the accuracy and robustness of person re-identification.

1 引言

行人重识别1,也称行人再识别,是指给定一个摄像头拍摄的行人图像,从其他视野可能重叠但视角不同的多个摄像头捕获的大量图像中重新识别该行人的过程,也可将其理解为图像检索,其在智能视频监控、刑侦等领域有着非常广阔的应用前景,也是近年来计算机视觉领域的研究热点。

在实际监控环境中,行人重识别面临着遮挡、跨模态和样本量少等问题。不同位置部署的摄像头具有较大的环境差异,拍摄到的行人图片往往背景杂乱且存在遮挡问题。跨模态的行人重识别主要为了解决行人的RGB图像和红外图像等不同模态下图像的交叉模态变化问题。相对于有监督学习,无监督的行人重识别任务不需要大量的有标签样本,其主要挑战在于学习样本图像中无标签的判别性特征识别。在实际场景中,现有技术无法有效地解决上述的各种挑战,行人重识别任务依然是国内外专家学者高度关注和广泛研究的重点。

为应对背景、光照和分辨率等因素造成相机采集到的行人图像在外观和风格上有差异的问题,文献[2-5]尝试用不同的方法去解决行人图像风格差异的问题。经典的方法包括KissMe2和XQDA3等,其中,KissMe算法使用似然比检验来判断两张图片之间的差异程度;XQDA算法利用高斯模型分别拟合类内和类间样本特征的差值分布,再使用对数似然比推导出马氏距离。深度学习的方法包括SVDNet4和TripletNet5等,其中,SVDNet算法利用正交性约束提升特征向量的表达能力;TripletNet算法由三个相同且彼此参数共享的前馈神经网络组成,分别计算正样本、负样本与候选样本的欧氏距离。以上方法都是在不同相机之间提取同一行人的不变性特征,但往往无法充分挖掘样本分布中更加丰富的其他特征信息。

另外一种思路则是通过扩充数据集的方式减小图像风格的差异性。但这种方法仍然存在一个问题,虽然利用扩充后的数据集能够提升识别的各项指标,但大规模的人工标注成本非常高。为了解决人工标注问题,文献[6-7]提出了多种数据扩充和正则化方法。其中,文献[6]使用DCGAN8生成未标记的样本,并为它们分配统一的标签以提高CNN模型的辨别能力。与文献[6]相反,Zhu等在文献[8]中提出的CycleGAN实现了对不同风格的图像进行转换,且风格转换的样本是从真实数据中产生的。因此只向训练集中添加更多的样本,而不重新标注新的数据,这样既能解决数据少的问题,也避免了标注成本的增加。除此之外,与此类似的生成对抗网络还有DualGAN9和DiscoGAN10等。

同时,行人重识别的准确率很大程度上也取决于行人的特征信息,行人特征信息获取越全面,重识别的效果就越好。文献[11]提出了一种多尺度卷积特征融合算法,使用金字塔池化方法获得全局特征和多尺度局部特征,以提升特征的鉴别能力。Simonyan等12提出的VGGNet使用更小核尺寸(3×3)的卷积滤波器来构建更深层次的网络,从而使得网络在使用更少参数的情况下具有更好的性能;毕晓君等13提出了一种基于视角信息嵌入的行人重识别模型,利用行人图像视角朝向特点对视角单元进行特征提取,以进一步优化网络;Chen等14提出了一种级联抑制策略,使网络更多地挖掘被显著特征掩盖的各种潜在的有用特征。

针对行人重识别过程中跨相机拍摄导致的行人图像风格差异问题以及传统卷积结构进行卷积操作时感受野较小导致的鲁棒性和判别力较差的问题,本文提出了一种基于生成对抗网络与自校准卷积的行人重识别学习框架。

2 基本原理及网络结构

2.1 基本原理

GAN(generative adversarial network)最初是由Goodfellow等15在2014年所提出,主要用于图像之间的翻译与转换。基本的GAN模型包含生成器G(generator)和判别器D(discriminator)两个网络,网络示意图如图1所示,整个GAN的目标函数可表示为

minGmaxDV(D,G)=ExPdata(x)[lgD(x)]+EzPz(x)lg1-DG(z)

图 1. GAN示意图

Fig. 1. GAN diagram

下载图片 查看所有图片

式中:x为真实样本数据;数据分布为Pdata;生成器的输入为Pz的随机噪声Z,然后输出Z到真实数据空间的映射GZ;θgθg为生成器参数;判别器网络为DZ;θdθd为判别器参数;D(x)为真实输入的概率;G(z)表示生成器生成的图像。在训练过程中,两个网络交替进行训练。训练生成器时,固定判别器参数,极小化V(D,G);训练判别器时,固定生成器参数,极大化V(D,G)。两者在不断博弈中对网络进行优化,使最终产生的图片越来越接近真实图片。经过近些年的发展,GAN已经取得了很大的成功,特别是在图像生成方面有很多改进形式,如DCGAN7,CycleGAN8,DualGAN9,DiscoGAN10等。

CycleGAN的本质是两个镜像对称的GAN构成的一个环形网络,两个镜像GAN一共拥有两个生成器和两个判别器8,如图2(a)所示。采用两个生成器是为了避免所有的数据域X都被映射到同一个数据域Y上,这样既能满足XY的映射,也能满足YX的映射。同时,采用两个对抗性判别器DY和DX对图像生成过程进行监督,以实现模型的最优参数。为了进一步正规化两个生成器相互间的映射,引入了两个循环一致性损失,即图2(b)中的前向循环一致性损失XG(X)FG(X)x̂,以及图2(c)中的后向循环一致性损失YF(Y)GF(Y)ŷ,其中,X̂Ŷ分别表示由真实域YX经模型映射生成的目标域数据,x̂ŷ则是目标域数据再次经模的逆映射生成的近似源域数据。

图 2. 环形网络工作原理。(a)生成器及判别器;(b)前向循环一致性损失;(c)后向循环一致性损失

Fig. 2. Cyclic network working principle. (a) Generator and discriminator; (b) forward cycle-consistency loss; (c) backward cycle-consistency loss

下载图片 查看所有图片

文献[16]正是基于这种思想提出了CamStyle方法,但是仍然存在一些问题:1)CycleGAN生成的Camstyle图像样本中会有图像噪声伪影,导致产生错误图像,如图3所示,Cam ii=1,2,3,4,5,6)分别为Market-1501数据集下6个不同视角的摄像头,其中标志处为转换过程中产生的图像噪声;2)生成器中由编码到解码的转换过程采用Resnet残差模块,卷积层数量较多,且需要训练的模型数量为CC2个,其中C为数据集中摄像机的数量,因此该过程不适用于计算资源不足的场景。本文提出的循环矢量量化生成对抗网络(CVQGAN)解决了CycleGAN产生伪图像的问题,生成了质量更高且风格统一的CVQStyle图像,并且训练所需要的计算资源也更少。

图 3. 由Market-1501中的CycleGAN和CVQGAN生成的示例

Fig. 3. Examples generated by CycleGAN and CVQGAN in Market-1501

下载图片 查看所有图片

类似于GAN,Variational autoencoder(VAE)是2013年由Kingma等17提出的一种基于变分思想的深度学习生成模型。它的目标与GAN的目标基本相同,都是希望构建一个从源数据X生成目标数据Y的模型。VAE又称为变分自编码器,由两个部分组成,即encoder编码器网络和decoder解码器网络,可以将源域的原始数据转换为不同风格的目标域数据。随机输入一个给定数据分布的n维向量,用于生成一张新的图片。对于GAN,生成器通过学习真实样本的数据分布进行训练以生成伪造样本,而判别器则对真实与伪造样本进行概率估计,两者通过对抗学习的方式获得较好的模型效果。不同于GAN生成图像的方式,对于VAE而言,n维向量代表的是n个决定最终生成图片样式的隐形因素。每一个因素都对应着一种分布,先从这些分布中进行采样,再通过深度网络恢复图片。

2.2 CVQGAN模型

本文利用VQ(vector quantization)的思想,设计了一种离散化的矢量量化模块,将该模块融入CycleGAN中,取代原始生成器结构中的Resnet转换模块。CVQGAN生成器结构流程图如图4所示,首先定义一个潜在的矢量量化空间vRK×NK为离散潜在空间的大小,N为每个潜在离散向量vi的维数,即存在K个离散向量viRN,i=1,2,,K,因此其code不再是由encoder直接输出得到的连续码,而是经过一个矢量量化后得到的离散码,这对解决一些实际问题更加有帮助。

图 4. CVQGAN生成器结构流程图

Fig. 4. Flow chart of CVQGAN generator

下载图片 查看所有图片

首先输入x,数据结构为[B,3,H,W],其中B为batch的数量,编码器输入的Channel数为3,H、W则表示输入图像的长和宽。图片x经过encoder之后,会得到关于编码器深度神经网络的输出,其结构为[B,C=NĤ,Ŵ],其中C是指编码器的Conv网络输出的Channel的数量,而N是指矢量量化中矢量的维度,也就是VQ space中所存储矢量的维度,ĤŴ表示输入图像经编码器处理后的长和宽,再通过矢量量化空间并使用式(1)计算离散潜在随机变量z以及z的后验分布q(z|x)。编码器的输出经reshape后为Zv(x),其结构为[B×Ĥ×Ŵ,N],即每一个图片有Ĥ×Ŵ个编码,每个编码是N维,计算这些编码B×Ĥ×Ŵ与VQ space中K(表示矢量量化编码的矢量个数)个矢量之间的距离,通过最近邻算法构成如下映射:

q(z=k|x)=1,k = argminj||Zv(x)-vj||20,otherwise

式(2)表示当输入为x时,z=k的概率是:当k是矢量序列v1,v2,...,vk中与Zv(x)最近的矢量的下标时,条件概率为1,否则为0。这里的矢量距离度量采用常见的欧拉距离||||2式(2)便是最近邻算法的实现。

zq(x)=vkif k = argminj||Zv(x)-vj||2

式(3)表示,通过最近邻计算出与Zv(x)最近矢量的下标为k,然后通过查表将vk输出作为编码输出Zq(x)Zq(x)作为decoder的输入,由decoder进行图像的重建。

CVQStyle图像生成网络的结构图如图5所示,首先输入图片X,经过生成器G的编码器编码并reshape后输出Zv(x),通过共享矢量量化空间并使用最近邻算法计算离散潜在随机变量z以及z的后验分布q(z|x),再利用对应的向量vk计算出Zq(x)作为解码器的输入。利用神经网络进行调参后,生成图像Y。可以看出,原始图像X与生成图像Y的风格发生了变化。生成的Y作为输入,经生成器F重构回原始输入的图像。在这个过程中,判别器DX和DY起到判别作用,确保图像的风格转换。

图 5. CVQStyle图像生成网络

Fig. 5. CVQStyle image generation network

下载图片 查看所有图片

2.3 网络结构

本文采用残差网络结构Resnet5018作为本文框架的主干网络。针对传统的深度学习网络在信息传递时存在信息丢失、梯度消失或者梯度爆炸的问题,在Resnet50网络中加入残差学习的思想,通过引入一条残差边实现了跨层连接。在Resnet50网络中输入的信息可以通过残差边到达输出,这简化了神经网络训练学习的难度,也保证了信息在传输过程中的完整性,解决了梯度消失导致的深度网络退化问题。

为了进一步解决同一行人在不同相机下的风格差异问题,本文引入了自校准卷积模块SCNet19。自校准卷积模块网络结构图如图6所示,XiYi(i=1,2)分别为输入特征图与输出特征图,ξ为不同kernel size的卷积层,kernel的大小包括K1K2K3K4,维度均为(C/2)×(C/2)×H×W

图 6. 自校准卷积模块网络结构

Fig. 6. Self-calibrated convolution module network structure

下载图片 查看所有图片

SCNet的操作主要分为两条路径:第一条路径即虚线部分为自校准操作,第二条路径为传统的卷积操作。首先,将大小为C×H×W的特征图X分为X1X2两部分。对X1进行虚线部分的自校准操作,该操作主要分为三个分支。分支1不进行操作。分支2可表示为

T1=AvgPoolr(X1)

式中:AvgPoolr为平均池化操作。首先将X1进行size为r×r、步长为r的平均池化下采样,得到T1T1的大小为(C/2)×(H/r)×(W/r);对T1进行ξ2卷积后再上采样r倍,得到X1'

X1'=Upξ2(T1) = Up(T1*K2)

式中:Up为双线性插值算子,用于实现上采样操作。将X1X1'求和,经过sigmoid操作得到权重值。将权重值与分支3的结果(X1经过ξ3卷积)相乘得到Y1'

Y1'=ξ3(X1)σ(X1+X1')

式中:σ为sigmoid激活函数。

最后对Y1'经过ξ4卷积,得到Y1

Y1= ξ4(Y1') = Y'*K4

第二条路径的目的是保留空间上下文关系,X2经过传统的卷积操作得到Y2。最后对Y1Y2进行concat操作,得到最后的输出特征图Y。对于传统的卷积模块,每个空间位置的感受野主要由预定义的卷积核大小控制。而自校准卷积模块采用多种不同size的卷积核,且考虑了空间上下关系,拥有了更大的感受野。

框架总体结构图如图7所示,对于每一张真实图片,利用训练好的CVQGAN模型来生成符合目标摄像机风格的图像。随后,将真实图像(实线框)和风格转换图像(虚线框)相结合,以训练基准模型Resnet50。本文将模型最后1000维的分类层舍弃,重新在卷积层后添加了一个输出为1024维的全连接层和一个输出为C维的全连接层,其中C为数据集中行人的ID数(如对于Market1501数据集,C=751),并且将交叉熵损失(LCross20和标签平滑正则化损失(LSR,其值用LLSR表示)16应用于真实图像和风格转换CVQStyle图像。其中,LSR损失的设计是为了应对建模过程中CVQGAN没有进行完美建模或遮挡和检测误差使真实数据存在噪声样本导致图像生成过程中出现噪声的问题。

图 7. 总体网络框架

Fig. 7. Overall network framework

下载图片 查看所有图片

3 实验分析与讨论

3.1 数据集及评价指标

为验证本文所提方法的有效性,在Market-150121和DukeMTMC-reID22两个标准数据集上进行了测试实验。Market-1501数据集是在清华大学校园内采集得到的,由6个摄像头拍摄到的1501个行人组成,共32668张行人图像,每个行人的图片由2~6个相机拍摄。其中:训练集有751人,包含12936张图像;测试集有750人,包含19732张图像。行人检测框使用DPM检测器进行标注。DukeMTMC-reID数据集是在杜克大学校园内采集,由8个不同摄像头拍摄到的1812个行人组成,但在两个以上摄像头中出现过的行人只有1404个,共34183张图像:训练集包含702个行人,共16522张图像;测试集包含702个行人,共17661张图像。行人检测矩形框由人工进行标注。这两个数据集在光照与姿态等方面均有着较大的变化,更加符合真实场景的应用。

此次实验采用首位命中率(Rank-1)与均值平均精度(mAP)两种评价指标评估算法的性能。采用了三种评价生成图像质量的指标即PSNR(peak signal to noise ratio)、FID(Frechet inception distance)和SSIM(structural similarity),对本文提出的CVQGAN与CycleGAN生成图片的质量进行比较。

3.2 实验环境及参数设置

实验使用Pytorch的深度学习框架进行网络的搭建,操作系统为Ubuntu16.04 版本,编程环境为Pycharm,配备了2.50 GHz E5-2678 v3 CPU和显卡为16G的Tesla T4 GPU的设备进行网络的训练,且本文采用在ImageNet数据集上预训练的Resnet50网络作为特征提取网络。在CVQGAN的训练过程中,将所有输入图片的大小调整为256×256,并使用Adam23优化器对实验模型进行优化。在前30个epochs中,生成器的学习率为0.0002,鉴别器的学习率为0.0001。在剩余20个epochs中,学习率线性地降为零。对于每幅训练图像,网络将生成C-1(即Market1501:5张;DukeMTMC-reID:7张)张额外的转换图像,并将其原始标签保留,作为扩充的训练数据。在训练re-ID基础模型时,将所有的输入图像尺寸调整为256×128 大小,并在训练期间使用随机裁剪、随机水平翻转和随机擦除来处理训练图像。本文设置随机擦除率γ为0.5,批处理大小为64。学习率从0.01开始,并将40个epochs后的学习速率除以10,共进行了50个epochs的训练。

3.3 CVQStyle模型

本文提出的CVQGAN解决了CycleGAN产生噪声伪图像的问题,有着更出色的相机风格转换能力。相对于DCGAN的单生成器结构,CVQGAN的两个生成器G、F对数据域XY实现了XYYX的双向映射,确保生成的图像仍然包含行人的主要特征。三种GAN的生成图像效果如图8所示。

图 8. DCGAN、CycleGAN和CVQGAN生成图像示例。

Fig. 8. Image examples generated by DCGAN, CycleGAN, and CVQGAN.

下载图片 查看所有图片

为了更加直观地对比两种方法生成图像的质量,本文采用了常用的GAN生成图像质量的三种评估指标PSNR、SSIM以及FID。PSNR,又称峰值信噪比,可以更好地反映GAN生成图像过程中产生的失真情况,其值越大则真实度更高;SSIM从亮度、对比度与结构三个方面度量两幅图像之间的相似性,以此判断生成结果的多样性,其值越大则代表模型性能越好;FID用来计算真实图像与生成图像的特征向量间距离的一种度量,其值越小,特征越相近。对图8中分别由CycleGAN与CVQGAN生成的8张风格转换图像进行比对,结果如表1所示。

表 1. 生成图像质量对比

Table 1. Generated image quality comparison

ImageModelPSNRSSIMFID
Image 1CamStyle18.460.66231.48
CVQStyle23.310.87196.44
Image 2CamStyle22.520.79145.70
CVQStyle23.710.9182.80
Image 3CamStyle21.040.77122.76
CVQStyle26.240.9593.77
Image 4CamStyle17.860.71223.48
CVQStyle22.410.87180.31
Image 5CamStyle20.540.79161.32
CVQStyle29.710.9741.53
Image 6CamStyle15.070.52321.54
CVQStyle20.110.82108.99
Image 7CamStyle16.090.63290.03
CVQStyle21.040.89208.25
Image 8CamStyle13.270.46282.65
CVQStyle20.180.80132.74

查看所有表

表1可以看出,本文提出的CVQGAN生成的样本图像在PSNR、SSIM和FID三项指标中均表现更好,其中image 5的PSNR和FID与image 8的SSIM均提升较高。PSNR和FID的对比数据说明了CVQStyle图像比CamStyle图像更加真实,且质量更好;SSIM更高则代表CVQStyle图像在多样性方面具有更大的竞争力。

3.4 消融实验

为了进一步验证本文所提方法的有效性,在Market-1501和DukeMTMC-reID两个数据集上进行了消融实验,结果如表2所示。其中,Baseline为以Resnet50为主干的基准网络,SCNet为自校准卷积模块。实验结果如表2所示,可以看到:相比实验1,实验2加入由CVQGAN生成的数据集后,Market-1501数据集的Rank-1与mAP分别提高了2.44%和3.42%,DukeMTMC-reID数据集的Rank-1与mAP分别提高了3.68%和4.47%,这验证了相机风格转换后可以有效解决CVQStyle图像的风格差异问题;相比实验1,实验3加入了自校准卷积模块,Market-1501数据集的Rank-1与mAP分别提高了1.23%和1.92%,DukeMTMC-reID数据集的Rank-1与mAP分别提高了2.61%和3.58%,这验证了SCNet能够有效增大感受野,获取更多的特征信息;实验3结合了实验1和实验2的模块,实现了更好的效果,相比基础的Baseline,Market-1501数据集的Rank-1与mAP分别提高了3.50%和6.05%,DukeMTMC-reID数据集的Rank-1与mAP分别提高了5.10%和7.69%。

表 2. 不同模型的实验结果

Table 2. Experimental results of different models

Experiment No.ModelMarket-1501DukeMTMC-reID
Rank-1mAPRank-1mAP
1Baseline91.1280.5983.1172.63
2Baseline+CVQGAN93.5684.0186.7977.10
3Baseline+SCNet92.3582.5185.7276.21
4Baseline+ CVQGAN+ SCNet94.6286.6488.2180.32

查看所有表

3.5 实验结果可视化

本文将改进后模型的结果与基准模型的检索结果进行可视化展示,如图9所示。其中序号1~10为算法检索返回的相似度排名前10的样本图像,从左至右相似度逐次递减,图9(a)、(c)为基准模型的检索结果,图9(b)、(d)为本文模型的检索结果,矩形框代表错误的检索结果,即行人身份与查询结果不一致,如图9(a)中序号5,7,10对应的图片均为误检结果。对比结果表明,本文改进后的算法能够提取更多具有判别力的特征,有效地减小风格变化、视角变化等干扰信息的影响,这证明了本文所提算法的有效性。

图 9. Market-1501数据集的可视化结果。(a)(c)基准模型;(b)(d)所提模型

Fig. 9. Visualization results of Market-1501 dataset. (a) (c) Reference model; (b) (d) proposed model

下载图片 查看所有图片

3.6 与主流算法的比较

为了更直观地表明本文算法的有效性,在Market-1501和DukeMTMC-reID两种数据集上将本文算法与主流算法进行了比较。为了验证CVQGAN的广泛适用性,Baseline除了使用Resnet50外,还将PCB24、Densenet12125作为主干网络,将CVQGAN应用到以上两种模型,以验证其有效性,结果如表3所示。从表3可知,本文所提出的框架在两种数据集上的表现均超过了对比算法。

表 3. 所提算法在Market-1501和DukeMTMC-reID数据集上与主流算法的性能比较

Table 3. Performance comparison of proposed algorithm with mainstream algorithms on Market-1501 and DukeMTMC-reID datasets

AlgorithmMarket-1501DukeMTMC-reID
Rank-1mAPRank-1mAP
SVDNet482.3062.1076.7056.80
Camstyle1689.4971.5578.3257.61
PAN2682.8163.3571.5951.51
LSRO683.9766.0767.6847.13
PSE+ECN2790.3084.0085.2079.80
DCNN2890.2075.6078.2073.80
PCB2492.4077.3081.9065.30
DenseNet1212590.1776.0280.6263.32
PCB+CVQGAN93.9584.9684.4976.40
DenseNet121+CVQGAN92.7380.8283.0774.92
Proposed algorithm94.6286.6488.2180.32

查看所有表

4 结论

提出了一种基于CVQGAN与自校准卷积模块的行人重识别学习框架。通过给定任意摄像头下的一张行人图像,CVQGAN将此样本图像转换为其他摄像头下清晰的、接近真实风格的不同行人图像,以此对数据集进行有效扩充,并且所提出的矢量量化模块有效解决了原始生成器产生噪声伪图像的问题,生成的CVQStyle图像质量更高。自校准卷积行人重识别网络将不同尺度的行人特征进行融合,从而获取更多的特征信息,使产生的特征图更具辨识性。所提方法在数据集Market-1501和DukeMTMC-reID上的性能与目前主流方法相比准确率和鲁棒性有了明显的提高,取得了更好的效果。

参考文献

[1] 刘可文, 房攀攀, 熊红霞, 等. 基于多层级特征的行人重识别[J]. 激光与光电子学进展, 2020, 57(8): 081503.

    Liu K W, Fang P P, Xiong H X, et al. Person re-identification based on multi-layer feature[J]. Laser & Optoelectronics Progress, 2020, 57(8): 081503.

[2] KöstingerM, HirzerM, WohlhartP, et al. Large scale metric learning from equivalence constraints[C]∥2012 IEEE Conference on Computer Vision and Pattern Recognition, June 16-21, 2012, Providence, RI, USA. New York: IEEE Press, 2012: 2288-2295. 10.1109/cvpr.2012.6247939

[3] LiaoS C, HuY, ZhuX Y, et al. Person re-identification by local maximal occurrence representation and metric learning[C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition, June 7-12, 2015, Boston, MA, USA. New York: IEEE Press, 2015: 2197-2206. 10.1109/cvpr.2015.7298832

[4] SunY F, ZhengL, DengW J, et al. SVDNet for pedestrian retrieval[C]∥2017 IEEE International Conference on Computer Vision, October 22-29, 2017, Venice, Italy. New York: IEEE Press, 2017: 3820-3828. 10.1109/iccv.2017.410

[5] HermansA, BeyerL, LeibeB. In defense of the triplet loss for person re-identification[EB/OL]. (2017-03-22)[2021-06-02]. https://arxiv.org/abs/1703.07737.

[6] ZhengZ D, ZhengL, YangY. Unlabeled samples generated by GAN improve the person re-identification baseline in vitro[C]∥2017 IEEE International Conference on Computer Vision, October 22-29, 2017, Venice, Italy. New York: IEEE Press, 2017: 3774-3782. 10.1109/iccv.2017.405

[7] RadfordA, MetzL, ChintalaS. Unsupervised representation learning with deep convolutional generative adversarial networks[EB/OL]. (2015-11-19)[2021-06-03]. https://arxiv.org/abs/1511.06434.

[8] ZhuJ Y, ParkT, IsolaP, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]∥2017 IEEE International Conference on Computer Vision, October 22-29, 2017, Venice, Italy. New York: IEEE Press, 2017: 2242-2251. 10.1109/iccv.2017.244

[9] YiZ L, ZhangH, TanP, et al. DualGAN: unsupervised dual learning for image-to-image translation[C]∥2017 IEEE International Conference on Computer Vision, October 22-29, 2017, Venice, Italy. New York: IEEE Press, 2017: 2868-2876. 10.1109/iccv.2017.310

[10] KimT, ChaM, KimH, et al. Learning to discover cross-domain relations with generative adversarial networks[C]∥Proceedings of the 34th International Conference on Machine Learning, ICML 2017, August 6-11, 2017, Sydney, NSW, Australia. London: PMLR, 2017: 1857-1865. 10.1109/iccvw.2017.229

[11] 徐龙壮, 彭力. 基于多尺度卷积特征融合的行人重识别[J]. 激光与光电子学进展, 2019, 56(14): 141504.

    Xu L Z, Peng L. Person reidentification based on multiscale convolutional feature fusion[J]. Laser & Optoelectronics Progress, 2019, 56(14): 141504.

[12] SimonyanK, ZissermanA. Very deep convolutional networks for large-scale image recognition[EB/OL]. (2014-09-04)[2021-06-02]. https://arxiv.org/abs/1409.1556. 10.5244/c.28.6

[13] 毕晓君, 汪灏. 基于视角信息嵌入的行人重识别[J]. 光学学报, 2019, 39(6): 0615007.

    Bi X J, Wang H. Person re-identification based on view information embedding[J]. Acta Optica Sinica, 2019, 39(6): 0615007.

[14] ChenX S, FuC M, ZhaoY, et al. Salience-guided cascaded suppression network for person re-identification[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 13-19, 2020, Seattle, WA, USA. New York: IEEE Press, 2020: 3297-3307. 10.1109/cvpr42600.2020.00336

[15] GoodfellowI, Pouget-AbadieJ, MirzaM, et al. Generative adversarial networks[EB/OL]. (2014-06-10)[2021-06-02]. https://arxiv.org/abs/1406.2661. 10.1145/3422622

[16] ZhongZ, ZhengL, ZhengZ D, et al. Camera style adaptation for person re-identification[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 18-23, 2018, Salt Lake City, UT, USA. New York: IEEE Press, 2018: 5157-5166. 10.1109/cvpr.2018.00541

[17] KingmaD P, WellingM. Auto-encoding variational Bayes[EB/OL]. (2013-12-20)[2021-06-03]. https://arxiv.org/abs/1312.6114. 10.1561/9781680836233

[18] HeK M, ZhangX Y, RenS Q, et al. Deep residual learning for image recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition, June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 770-778. 10.1109/cvpr.2016.90

[19] LiuJ J, HouQ B, ChengM M, et al. Improving convolutional networks with self-calibrated convolutions[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 13-19, 2020, Seattle, WA, USA. New York: IEEE Press, 2020: 10093-10102. 10.1109/cvpr42600.2020.01011

[20] ZhengZ, YangX, YuZ, et al. Joint discriminative and generative learning for person re-identification[C]∥2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 15-20, 2019,Long Beach, USA. New York: IEEE Press, 2019: 2138-2147. 10.1109/cvpr.2019.00224

[21] ZhengL, ShenL Y, TianL, et al. Scalable person re-identification: a benchmark[C]∥2015 IEEE International Conference on Computer Vision, December 7-13, 2015, Santiago, Chile. New York: IEEE Press, 2015: 1116-1124. 10.1109/iccv.2015.133

[22] RistaniE, SoleraF, ZouR, et al. Performance measures and a data set for multi-target, multi-camera tracking[M]∥Hua G, Jégou H. Computer vision-ECCV 2016 workshops. Lecture notes in computer science. Cham: Springer, 2016, 9914: 17-35. 10.1007/978-3-319-48881-3_2

[23] KingmaD P, BaJ. Adam: a method for stochastic optimization[EB/OL]. (2014-12-22)[2021-06-01]. https://arxiv.org/abs/1412.6980.

[24] SunY F, ZhengL, YangY, et al. Beyond part models: person retrieval with refined part pooling (and a strong convolutional baseline)[M]∥Ferrari V, Hebert M, Sminchisescu C, et al. Computer vision-ECCV 2018. Lecture notes in computer science. Cham: Springer, 2018, 11208: 501-518. 10.1007/978-3-030-01225-0_30

[25] HuangG, LiuZ, van der MaatenL, et al. Densely connected convolutional networks[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition, July 21-26, 2017, Honolulu, HI, USA. New York: IEEE Press, 2017: 2261-2269. 10.1109/cvpr.2017.243

[26] Zheng Z D, Zheng L, Yang Y. Pedestrian alignment network for large-scale person re-identification[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2019, 29(10): 3037-3045.

[27] SarfrazM S, SchumannA, EberleA, et al. A pose-sensitive embedding for person re-identification with expanded cross neighborhood re-ranking[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 18-23, 2018, Salt Lake City, UT, USA. New York: IEEE Press, 2018: 420-429. 10.1109/cvpr.2018.00051

[28] Li Y, Jiang X Y, Hwang J N. Effective person re-identification by self-attention model guided feature learning[J]. Knowledge-Based Systems, 2020, 187: 104832.

李开放, 惠冠程, 王汝涵, 张苗辉. 基于生成对抗网络与自校准卷积的行人重识别[J]. 激光与光电子学进展, 2022, 59(10): 1015007. Kaifang Li, Guancheng Hui, Ruhan Wang, Miaohui Zhang. Person Re-Identification Based on Generative Adversarial Network and Self-Calibrated Convolution[J]. Laser & Optoelectronics Progress, 2022, 59(10): 1015007.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!