激光与光电子学进展, 2021, 58 (4): 0410025, 网络出版: 2021-02-22   

基于多尺度注意力网络的行人属性识别算法 下载: 1086次

Pedestrian Attribute Recognition Algorithm Based on Multi-Scale Attention Network
李娜 1,2,*武阳阳 1,2,*刘颖 2邢琎 1
作者单位
1 西安邮电大学通信与信息工程学院, 陕西 西安 710121
2 电子信息现场勘验应用技术公安部重点实验室, 陕西 西安 710121
摘要
为了提高行人属性识别的准确率,提出了一种基于多尺度注意力网络的行人属性识别算法。为了提高算法的特征表达能力和属性判别能力,首先,在残差网络ResNet50的基础上,增加了自顶向下的特征金字塔和注意力模块,自顶向下的特征金字塔由自底向上提取的视觉特征构建;然后,融合特征金字塔中不同尺度的特征,为每层特征的通道注意力赋予不同的权重。最后,改进了模型损失函数以减弱数据不平衡对属性识别率的影响。在RAP和PA-100K数据集上的实验结果表明,与现有算法相比,本算法对行人属性识别的平均精度、准确度、F1性能更好。
Abstract
In order to improve the accuracy of pedestrian attribute recognition, a multi-scale attention network for pedestrian attribute recognition algorithm is proposed in this paper. In order to improve the ability of feature expression and attribute recognition of the algorithm, first, the top-down feature pyramid and attention module are added to the residual network ResNet50. A top-down feature pyramid is constructed from the visual features extracted from the bottom-up. Then, the features of different scales in the feature pyramid are fused to give different weights to the channel attention of each layer of features. Finally, the model loss function is improved to weaken the impact of data imbalance on the attribute recognition rate. Experimental results on the RAP and PA-100K data sets show that compared with existing algorithms, the algorithm has better performance in terms of average accuracy, accuracy, and F1 for pedestrian attribute recognition.

1 引言

行人属性识别是近年来监控领域的研究热点,目的是识别图像或视频中行人的视觉属性,如年龄、性别、服装风格、鞋子类别,在计算机视觉任务中有很大的应用潜力,如行人重识别[1-2]利用行人属性辅助匹配不同监控摄像头下的同一行人,行人检索[3]利用属性快速检索感兴趣的目标。在许多真实的监控场景中,摄像机被安装在能覆盖一定区域的位置,捕获的行人图像分辨率较低,难以获得清晰的脸部图像。因此,这种情况下的行人属性因其光照不变性和对比度不变性具有很好的应用价值。

行人属性识别算法可大致可分为传统机器学习和深度学习的算法。其中,传统机器学习算法主要由特征提取和分类器设计组成。首先利用手工特征获取行人图像的底层特征,如Deng等[4]选取颜色特征、纹理特征以及方向梯度直方图特征,并利用K近邻法对特征进行分类。Gray等[5]通过组合局部手工特征实现行人属性识别。传统机器学习在训练前需要进行手工特征提取,工作量较大,因此不能保证特征选取的合理性。随着深度学习的发展,很多计算机视觉任务[6-8]有了新的突破,Li等[9]提出的多标签属性学习卷积神经网络(CNN)模型DeepMar(Deep learning based multiple attributes recognition)也取得了较大的进展。DeepMar用CNN得到更丰富的特征,以代替手工特征,从一个网络模型中同时识别出行人的多个属性。Sudowe等[10]提出的属性卷积网络(ACN)将整个行人图像作为模型输入,联合学习所有属性的预测。这些方法都是利用网络最后一个特征图完成属性识别任务,不能提高属性识别的准确率,原因是不同网络层的特征反映了属性不同的语义信息。如CNN模型需要从前几层网络中提取颜色或纹理等底层特征,这些特征对于衣服颜色和条纹的属性非常重要,但对于性别、年龄这样的语义属性,高层网络的特征比底层特征更有效。Park等[11]融合多个网络中间层特征识别行人属性,Zhou等[12]将中间层特征利用不同的内核进行池化操作,以弱监督的方式预测属性的位置,为了有效提高行人属性识别的性能,需要网络中不同层次的特征。

为了应对多层次的属性识别,通过CNN提取行人图像的特征构建特征金字塔网络(FPN)[13]。本文针对行人属性识别任务的特点重新设计了多尺度注意力网络,采用基础的残差网络ResNet50[14]框架构建FPN,以融合底层特征和高层特征,并利用通道注意力机制提升特征通道之间的关联性,以增强网络的属性识别能力。

2 网络结构

CNN处理计算机视觉任务时,使用的池化操作会不断缩小特征图的尺寸,网络卷积由底层到高层的分辨率越来越粗糙,特征图也越来越小。但卷积层越高,特征图包含的语义信息越丰富。为了同时利用底层特征和高层特征,本网络的结构如图1所示,包含自底向上的特征提取模块、自顶向下构建的FPN模块和通道注意力模块,通过融合不同层的特征信息,提高模型对多尺度行人属性的识别效率。

图 1. 行人属性识别网络的结构

Fig. 1. Structure of the pedestrian attribute recognition network

下载图片 查看所有图片

2.1 自底向上的特征提取

He等[14]提出的ResNet可以有效解决深度神经网络训练过程中出现的梯度消失以及加深网络导致的退化问题。该网络主要对残差块进行重复使用,将原始输入直接跳过某些层传到之后的层中,并将两者相加作为输出,这样的连接也被称为残差块。实验用ResNet50作为主干网络,选择每个阶段卷积层(conv2,conv3,conv4,conv5)最后一个残差结构的特征输出,相对于输入图像的分辨率分别为{56 pixel×56 pixel,28 pixel×28 pixel,14 pixel×14 pixel,7 pixel×7 pixel}。由于conv1的特征尺度太大,容易占用内存,因此未被使用。

2.2 自顶向下构建特征金字塔

自顶向下网络的目的是融合相邻层的特征,构建特征金字塔。以conv3为例,相邻两层特征的融合过程如图2所示,可表示为

f'c=x1×1(fc),(1)f'u=Xupsample(fu)×2,(2)F=x3×3(f'c+f'u),(3)

式中,f'c为经过basic conv的横向连接,是一个1×1的卷积操作。f'u为上采样的结果,fc为conv3层的特征输出,fu为conv4层与conv5(相邻)的融合输出,f'cf'u经像素相加得到融合的特征,再用3×3卷积核x3×3进行去卷积处理,得到最终的特征F

图 2. 特征融合的流程图

Fig. 2. Flow chart of the feature fusion

下载图片 查看所有图片

为了保证高层特征图和相邻下一层特征图的大小相同,对高层特征进行2倍上采样。实验采用最近邻插值算法减少计算的复杂度。为了在不增加太多计算量的同时融合不同尺度的特征,用basic conv改变网络的通道数,由于相邻特征层的通道数不相同,该过程主要包括三个操作:首先将输入特征通过1×1卷积层提取;然后经批量正则化(batch norm)层进行数据归一化处理,避免网络提取的特征因数值过大出现不稳定情况;最后经修正线性单元(ReLU)激活函数处理。通过像素间的加法融合相邻层的特征,为了消除上采样带来的混叠效应,用3×3的卷积核处理已经融合的特征图。重复迭代该过程,得到conv2,conv3,conv4,conv5层对应的融合特征层为p2,p3,p4,p5。

2.3 通道注意力模块

为了减少网络的参数,利用最大池化对特征图p5(7×7)进行下采样,如对特征图p4用1个3×3的卷积核进行池化操作,对特征图p3则用2个3×3的卷积核进行池化操作,对特征图p2进行类似的池化操作,以保证所有融合的特征层有相同的大小和形状。

由于融合后的最终特征不同,通道的作用也不同,为了增大有效特征通道的权重,减小无效或者效果小的特征通道权重,增强更有利于行人属性识别效果的通道特征表示,结合Hu等[15]提出的注意力方法设置一个通道注意力机制,使网络自主学习融合特征中不同的通道特征。最大池化和通道注意力模块结构如图3所示,自顶向下的某层特征(如p5)经过最大池化后得到x,再利用全局平均池化(GAP)压缩每个通道的特征尺寸。全局平均池化后的特征维度为h×w×c,其中,h×w为原输入特征图的高度和宽度,c为属性的数量。该特征经过两个全连接层(FC)的降维和升维,恢复到原来的通道数,以达到编码解码的激励操作,同时极大减少了参数量和计算量。将第二个全连接层的输出经过Sigmoid函数得到融合特征中每个通道的注意力权重,最终得到特征H(x)(如p5')。

图 3. 通道注意力模块

Fig. 3. Channel attention module

下载图片 查看所有图片

最终的预测是p5'、p4'、p3'、p2'以及自底向上预测(top prediction)的融合结果,实验得到属性的预测为5组N个属性的特征向量,用N个滤波器组、5×1的卷积核为这5组预测属性分配不同的权重,并用Softmax函数对每组权重加以约束,确保每组权重的和为1。最后将注意力加权输出作为属性识别的最终预测结果。

2.4 损失函数

本模型同时识别行人样本的多个属性,本质上是对行人的多标签识别,因此,采用交叉熵损失。在行人数据集中,如果一张图像具有某个属性,则为该属性的正样本,否则为负样本。但大部分属性的正样本和负样本分布严重不平衡,如RAP数据集中,戴眼镜的正样本只占10%。正样本的比例越小,该属性的损失值越大。为了解决该问题,在损失函数中引入了一个正样本权重因子wl。当某个属性的正样本数目较少时,为整个损失函数赋予一个较大的惩罚权重,以防止出现网络训练时因正负样本不平衡导致的梯度爆炸现象,可表示为

XLoss=-1Mm=1Ml=1Lwl[ym,lln(pm,l)+(1-ym,l)ln(1-pm,l)],(4)pm,l=1/1+exp(-xm,l),(5)wl=exp(-pl/σ2),(6)

式中,M为行人图像的数量,L为属性个数,xm为不同的行人图像,m∈1,2,…,M,对应的属性标签为yl,l∈1,2,…,L,ym,l∈{0,1}为样本xm的第l个属性的标签,ym,l=1表示样本xm包含第l个属性,反之则不包含。pm,l为属性识别网络对样本xml个属性预测的结果,pl为第l个属性的正样本比率,即该属性正样本数目在训练集中所占的比率,σ为1。

3 实验结果及分析

3.1 实验数据

实验使用的数据集为RAP[16]和PA-100K[17]两大行人属性数据集,RAP数据集在真实室内监视场景拍摄,包含26个摄像头拍摄的41585张图像,其中,33268张用于训练,其余图像用于测试,数据集中图像的分辨率从36 pixel×92 pixel到344 pixel×554 pixel。每张图像用72个细粒度属性注释,选取正样本比例高于1%的51个属性进行评价。PA-100K数据集包括598个室外监控摄像头采集到的100000张行人图像,分辨率从50 pixel×100 pixel到758 pixel×454 pixel,每张图像用26个属性注释。目前PA-100K数据集是最大的行人属性识别数据集,将80000张图像用于训练,20000张图像用于测试。

3.2 参数设置和评价指标

实验环境:工作站为64位Ubuntu系统,服务器的GPU为NVIDIA GTX 1080 Ti、内存为16 G。模型训练使用的深度学习平台为Pytorch,编程语言为Python。根据行人图像特点将输入图像的分辨率统一缩放至224 pixel×224 pixel,同时使用随机扩张、随机裁剪等数据增强方法,网络使用随机梯度下降法(SGD)训练。共训练200个epoch,batch-size为32,学习率(learning-rate)采用多分步策略,初始学习率为1×10-3,在150,180和200个epoch时学习率依次衰减为上一次的十分之一。参数衰减值(weight-decay)为0.0005,动量因子(momentum)为0.9。为防止初始XLoss爆炸,前10个epoch的学习率从1×10-4逐渐升至4×10-4

衡量行人属性识别能力的两个指标为基于标签的评价指标和基于实例的评价指标。Deng等[18]提出基于标签的评价方式即平均精度(mA),分别计算每个属性正样本和负样本识别正确的比例,再将二者的平均值作为每个属性的准确度。Zhao等[19]提出基于实例的评价方式,根据每个样本的分对属性和分错属性关系得到4个评价指标,分别为准确率(Acc)、精确率(Prec)、召回率(Rec)和F1。

3.3 网络模型的切片分析

为了更好地分析通道注意力模块的有效性,表1对比了基础网络ResNet50(Baseline)和在每个中间层(conv2、conv3 、conv4 、conv5)添加通道注意力模块的网络(Baseline+CA)对最终属性识别效果的影响,并用mA和F1评估网络在RAP和PA-100K数据集上的性能。可以发现,相比Baseline,Baseline+CA在RAP数据集上的mA仅提升了0.22个百分点,整体提升效果不明显。原因是监控中行人图像质量差,将通道注意力加入网络中并不能明显关注一些语义特征。

表 1. 通道注意力有效性的验证实验

Table 1. Verification experiment of the channel attention effectiveness unit: %

MethodsRAPPA-100K
mAF1mAF1
Baseline75.6778.2077.2884.52
Baseline+CA75.8978.3677.3584.67

查看所有表

为了验证自顶向下模块的指导效果,在每个数据集上进行3组对比实验,第1组实验在基础网络中添加图1中自顶向下(top-down)的金字塔结构,得到不同阶段的特征(p2,p3,p4,p5),以相加(addition)的方式融合这些特征,相比基础网络(Baseline),简单的相加方式会忽略特征不匹配的问题,包括一些必要的特征,导致属性识别率下降。相比基础网络(Baseline),第2组实验在融合不同特征层前赋予不同阶段特征不同权重(weight),在RAP和PA-100K数据集上的mA分别提升了1.08和0.85个百分点,这表明用高层次特征进行自顶向下的指导是有效果的。第3组实验通过引入注意力机制建立特征通道之间的依赖性,在RAP和PA-100K数据集上的mA分别提升了3.03和2.54个百分点,这说明高层次自顶向下的指导和通道注意力机制的结合有助于提高行人属性的识别率。

表 2. 不同特征融合模块的识别结果

Table 2. Recognition results of different feature fusion modules unit: %

MethodRAPPA-100K
mAF1mAF1
Baseline75.6778.2077.2884.52
Top-down(addition)74.2378.0176.6584.63
Top-down(weight)76.7578.9678.1384.95
Top-down(weight)+CA78.7080.1279.8285.71

查看所有表

3.4 属性在各个特征层的识别率

为了进一步分析网络中多尺度特征融合的有效性,用几个行人属性在RAP数据集上进行实验,包括高级语义属性年龄Age less 16、 Age 17~60、Age bigger 60和低级语义属性上身衬衫(ub-shirt)、下身裙子(lb-skirt)和上身短袖(ub-short sleeve),结果如表3所示。可以看到,如果从自底向上的单个中间层特征(conv2、conv3、conv4、conv5)进行预测,这些高级语义属性以及低级语义属性的mA比基线模型(Baseline)差很多,原因是这些特征不足以进行属性预测。而添加自顶向下的金字塔结构及通道注意力模块得到的特征(p5'、p4'、p3'、p2')可大幅提升识别率。当积累更多不同层次的特征,对mA的提升更明显。

表 3. RAP数据集上每层特征的识别结果

Table 3. Recognition results for each layer feature on RAP data set unit: %

Feature layerAge less 16Age 17-60Age bigger 60ub-shirtlb-skirtub-short sleevemA
conv249.5449.3650.1251.2350.5654.5761.29
conv350.1249.7848.9350.5454.1869.5565.46
conv449.8249.7047.6549.7353.9079.7862.91
p5'56.7652.5960.9971.9375.6877.2177.01
p4'61.2454.4264.2378.2474.7679.9277.23
p3'62.3556.7467.4278.8977.1580.5476.89
p2'62.2756.6766.3777.9775.4380.3577.65
Baseline63.3658.4971.1778.5278.8279.1575.67
Ours76.4275.5666.9279.1480.1478.6678.70

查看所有表

对单个属性的分析,推断低级语义属性同时基于低级特征和高级特征。如上身短袖(ub-short sleeve)依赖于从网络的浅层中获得的低层特征,如纹理特征;而上身衣服属性需要从高层特征的语义信息中获得,当高层特征用于指导底层特征时,可大幅度提升属性识别率,这表明高层特征对底层特征具有属性语义指导作用。因此,每个属性的识别需要多层次的特征。由实验数据可知,p5'、p4'、p3'、p2'四个横向预测对不同属性的识别率不同,因此,融合时对所有预测的总和进行加权,结果表明本算法更有效。

3.5 实验结果

本算法与其他行人属性识别算法在RAP和PA-100K数据集上的训练和验证结果如表4表5所示,包括DeepMar[9]、ACN[10]、联合姿态多属性深度学习(VeSPA)[17]、姿态引导深度模型(PGDM)[20]、基于注意力机制的深度网络(HP-Net)[21]和互动聚集网络(IA2-Net)[22]。其中,DeepMar[9]和ACN[10]算法都是从一个自底向上的网络中利用最后一层网络信息解决多属性分类问题,缺乏对属性中先验信息的考虑。IA2-Net[22]采用卷积神经网络-循环神经网络(CNN-RNN)模型作为主要的体系结构,用行人图像和相应的属性作为输入,并设计了一种融合注意力机制,使模型能对输入进行加权。VeSPA[17]通过粗略的视图预测器进行属性预测。PGDM[20]使用预先训练的姿态估计模型估计图像中人体的关键点,最后将局部关键点提取的特征与全局特征融合起来进行属性识别。这类方法需要额外的网络信息,不能进行端到端的训练,且模型的复杂度较高。HP-Net[21]利用多方向注意力模块将注意力机制应用于多层图像特征,也可以获得行人属性识别从低级到高层语义的有效信息。本算法使用高层次语义信息指导底层次信息,并利用通道注意力机制建立属性之间的依赖关系。

表 4. 不同算法在RAP数据集上的识别结果

Table 4. Recognition results of different algorithms on the RAP data set unit: %

AlgorithmmAAccPrecRecF1
ACN69.6662.6180.1272.2675.98
DeepMar73.7962.0274.9276.2175.56
HP-Net76.1265.3977.3378.7978.05
VeSPA77.7067.3579.5179.6779.59
PGDM74.3164.5778.8675.9077.35
IA2-Net77.4465.7579.0177.4578.03
Ours78.7068.1778.8979.9880.12

查看所有表

表 5. 不同算法在PA-100K数据集上的识别结果

Table 5. Recognition results of different algorithms on the PA-100K data set unit: %

AlgorithmmAAccPrecRecF1
DeepMar72.7070.3982.2480.4281.32
HP-Net74.2172.1982.9782.0982.53
VeSPA76.3273.0084.9981.4983.20
PGDM74.9573.0884.3682.2483.29
IA2-Net77.2874.7383.3485.7384.52
Ours79.8278.1782.8384.9885.71

查看所有表

表4表5可以发现,与现有基于标签和基于实例的度量算法相比,本算法在两个数据集上都取得了良好的性能,这也验证了多尺度融合的有效性。相比IA2-Net算法,在更具有挑战性的数据集PA-100K上,本算法的mA和F1提高了2.54和1.19个百分点;在RAP数据集中的mA和F1提高了1.26和2.09个百分点。需要注意的是,本算法在召回率较高时精确率较低,原因是这两个度量是负相关,即一个度量的增加总是导致另一个度量的减少,特别是调节损失函数权重时。因此这两个指标对于样本不平衡时的评估结果不是很可靠,在评价属性识别模型的性能时,mA和F1评价指标更合适,而本算法在这两个指标中的结果是最好的。

4 结论

提出了一种端到端多尺度特征融合的行人属性识别算法,通过对残差网络建立特征金字塔以及通道注意力模块,有效融合了高层语义特征和底层特征,进一步提升了模型的学习效率。在RAP和PA-100K数据集上的实验结果表明,与现有算法相比,本算法的平均精度、准确度和F1性能更好。但该模型没有充分利用属性之间的联系,后续可将属性之间的关系建模整合到行人属性识别网络中,进一步提高行人属性的识别率。

参考文献

[1] SchumannA, StiefelhagenR. Person re-identification by deep learning attribute-complementary information[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 1435- 1443.

[2] Su C, Yang F, Zhang S L, et al. Multi-task learning with low rank attribute embedding for multi-camera person re-identification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(5): 1167-1181.

[3] SchumannA, SpeckerA, BeyererJ. Attribute-based person retrieval and search in video sequences[C]∥2018 15th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS), November 27-30, 2018, Auckland, New Zealand.New York: IEEE Press, 2018: 1- 6.

[4] Deng YB, LuoP, Loy CC, et al. Pedestrian attribute recognition at far distance[C]∥Proceedings of the 22nd ACM International Conference on Multimedia, November 3-7, 2014, Orlando, Florida, USA. New York: ACM, 2014: 789- 792.

[5] GrayD, TaoH. Viewpoint invariant pedestrian recognition with an ensemble of localized features[M] ∥Forsyth D, Torr P, Zisserman A, et al. Computer Vision-ECCV 2018. Lecture Notes in Computer Science. Cham: Springer, 2018, 5302: 262- 275.

[6] 陈立里, 张正道, 彭力. 基于改进SSD的实时检测方法[J]. 激光与光电子学进展, 2019, 56(1): 011002.

    Chen L L, Zhang Z D, Peng L. Real-time detection based on improved single shot MultiBox detector[J]. Laser & Optoelectronics Progress, 2019, 56(1): 011002.

[7] 王俊强, 李建胜, 周学文, 等. 改进的SSD算法及其对遥感影像小目标检测性能的分析[J]. 光学学报, 2019, 39(6): 0628005.

    Wang J Q, Li J S, Zhou X W, et al. Improved SSD algorithm and its performance analysis of small target detection in remote sensing images[J]. Acta Optica Sinica, 2019, 39(6): 0628005.

[8] 欧攀, 张正, 路奎, 等. 基于卷积神经网络的遥感图像目标检测[J]. 激光与光电子学进展, 2019, 56(5): 051002.

    Ou P, Zhang Z, Lu K, et al. Object detectionin of remote sensing images based on convolutional neural networks[J]. Laser & Optoelectronics Progress, 2019, 56(5): 051002.

[9] Li DW, Chen XT, Huang KQ. Multi-attribute learning for pedestrian attribute recognition in surveillance scenarios[C]∥2015 3rd IAPR Asian Conference on Pattern Recognition (ACPR), November 3-6, 2015, Kuala Lumpur, Malaysia.New York: IEEE Press, 2015: 111- 115.

[10] SudoweP, SpitzerH, LeibeB. Person attribute recognition with a jointly-trained holistic CNN model[C]∥2015 IEEE International Conference on Computer Vision Workshop (ICCVW), December 7-13, 2015, Santiago, Chile.New York: IEEE Press, 2015: 329- 337.

[11] ParkS, Zhu SC. Attributed grammars for joint estimation of human attributes, part and pose[C]∥2015 IEEE International Conference on Computer Vision (ICCV), December 7-13, 2015, Santiago, Chile.New York: IEEE Press, 2015: 2372- 2380.

[12] ZhouY, YuK, LengB, et al. Weakly-supervised learning of mid-level features for pedestrian attribute recognition and localization[EB/OL]. [2020-09-15].http:∥arxiv.org/abs/1611. 05603. 02e04d9b3f57a054f8052a87b1eb8113http%3A%2F%2Farxiv.org%2Fabs%2F1611.05603年度引用

[13] Lin TY, DollárP, GirshickR, et al.Feature pyramid networks for object detection[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 936- 944.

[14] He KM, Zhang XY, Ren SQ, et al.Deep residual learning for image recognition[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA.New York: IEEE Press, 2016: 770- 778.

[15] HuJ, ShenL, AlbanieS, et al. Squeeze-and-excitation networks [EB/OL]. [2020-09-11].https:∥arxiv.org/abs/1709. 01507.

[16] Li DW, ZhangZ, Chen XT, et al. A richly annotated dataset for pedestrian attribute recognition[EB/OL]. [2020-09-15].https:∥arxiv.org/abs/1603. 07054.

[17] Saquib MS, SchumannA, WangY, et al. Deep view-sensitive pedestrian attribute inference in an end-to-end model[EB/OL]. [2020-09-13].http:∥arxiv.org/abs/1707. 06089.

[18] Deng YB, LuoP, Loy CC, et al. Learning to recognize pedestrian attribute[EB/OL]. [2020-09-18].http:∥arxiv.org/abs/1501. 00901.

[19] ZhaoX, Sang LF, Ding GG, et al.Grouping attribute recognition for pedestrian with joint recurrent learning[C]∥Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence, July 13-19, 2018, Stockholm, Sweden.California: AAAI Press, 2018: 3177- 3183.

[20] Li DW, Chen XT, ZhangZ, et al.Pose guided deep model for pedestrian attribute recognition in surveillance scenarios[C]∥2018 IEEE International Conference on Multimedia and Expo (ICME), July 23-27, 2018, San Diego, CA, USA.New York: IEEE Press, 2018: 1- 6.

[21] Liu XH, Zhao HY, Tian MQ, et al.HydraPlus-net: attentive deep features for pedestrian analysis[C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, 2017, Venice, Italy. New York: IEEE Press, 2017: 350- 359.

[22] Ji Z, He E L, Wang H R, et al. Image-attribute reciprocally guided attention network for pedestrian attribute recognition[J]. Pattern Recognition Letters, 2019, 120: 89-95.

李娜, 武阳阳, 刘颖, 邢琎. 基于多尺度注意力网络的行人属性识别算法[J]. 激光与光电子学进展, 2021, 58(4): 0410025. Na Li, Yangyang Wu, Ying Liu, Jin Xing. Pedestrian Attribute Recognition Algorithm Based on Multi-Scale Attention Network[J]. Laser & Optoelectronics Progress, 2021, 58(4): 0410025.

本文已被 3 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!