激光与光电子学进展, 2018, 55 (6): 061009, 网络出版: 2018-09-11   

基于时空方向主成分直方图的人体行为识别 下载: 1077次

Action Recognition Based on Histogram of Spatio-Temporal Oriented Principal Components
徐海洋 1孔军 1,2,1; 2; 蒋敏 1昝宝锋 1
作者单位
1 江南大学物联网工程学院, 江苏 无锡 214122
2 新疆大学电气工程学院, 新疆 乌鲁木齐 830047
摘要
为解决由视角、尺度等变化造成的行为类内差别大的问题,提出一种基于时空方向主成分直方图(HSTOPC)的人体行为识别方法。首先,将深度图序列转换为三维(3D)点云序列,对此序列采用新颖的图像预处理方法获得新的深度图序列,即在空间和时间维度上对采样获得的深度图序列进行限制,除去一些动作信息量较少的序列和空间,从而降低输入数据的冗余减少空间尺度变化的影响;其次,为了解决帧间关联性较弱的问题,采用时空方向主成分方法描述新的点云序列,获得3D点云序列中每点的方向特征;然后,对3D点云序列中所有方向特征进行多层时域重叠分割,获得HSTOPC特征描述子;最后,采用支持向量机分类器进行训练、测试。在3个标准数据库上的实验结果表明,提出的HSTOPC特征描述子对噪声、运动速度变化、视角变化和时域不对齐具有很好的稳健性,可以显著提高人体行为识别的准确率。
Abstract
In order to solve the problem of inter-class difference caused by the angle of view and scale change, we propose a method based on histogram of spatio-temporal oriented principal components of three-dimensional (3D) point clouds for action recognition. Firstly, the depth sequences are converted into 3D point clouds sequences. Then, we use a novel image preprocessing method to get new depth sequences. Namely, the sampled depth sequences are limited in spatio-temporal dimension to remove areas with less information, and reduce the redundancy of the input data and the influence of space scale change In order to solve the problem of weak correlation between frames, we adopt histogram of spatio-temporal oriented principal components (HSTOPC) method to describe 3D point clouds sequences and obtain the direction of each point of the 3D point clouds in sequences. For all direction of 3D point clouds in sequences, we use multilayer overlapping segmentation method to obtain HSTOPC descriptor. Finally, we use the support vector machine classifier for training and test. Experimental results on three human action recognition datasets show that the proposed HSTOPC feature descriptor has better robust for noise, rate variations, view change and temporal misalignment, and is able to improve the accuracy of human behavior recognition significantly.

1 引言

在人体行为识别领域,基于深度传感器(如Kinect[1])的算法解决了传统方法中数据难以处理的问题,逐渐引起人们的关注。通过深度传感器获得的深度图可以准确地提取出比颜色信息更具有区分度的几何信息,而且,深度图序列不易受光照、纹理和亮度的影响。但是,深度图序列仍存在遮挡、速度变化、传感器噪声,以及摄像视角不同等问题,因此基于深度图序列的人体行为识别依然具有一定的挑战性。

基于深度图序列的人体行为识别的首要任务是设计一个良好的特征描述子,其次是选取恰当的分类器。在选取特征描述子方面,最初使用的特征描述子[2-4]主要是基于RGB图像的特征描述,但这种基于颜色信息的方法不能直接应用于深度序列中[5]。近年来,涌现出很多基于几何特征的行为识别方法[5-8]。Tang等[5]通过深度图序列中的法向量直方图进行行为识别,采用极坐标表示每张深度图,通过计算其空间导数,来获得二维直方图描述子。黄成挥[6]运用时空特征协方差矩阵表示视频中的人体行为,建立基于Log-Euclidean词袋模型和基于Stein核系数编码的人体行为识别方法;王军[7]把分解后的行为看作一个包,把各个动作看作包中的各个示例,结合多示例学习法与AnyBoost算法提出多示例行为学习算法,通过在多示例框架下对每一类行为进行学习,得到强分类器,用于未知行为包的识别;刘智等[8]根据深度图序列中的人体关节信息分别提取表示关节之间角度和相对位置的两个特征向量,然后使用LIBLINEAR-支持向量机(SVM)分类器分别对提取的两个特征向量进行分类识别,最后通过融合分类结果,得到最终的行为识别结果。在分类器方面,使用较多的是SVM[9]、神经网络[10-11]。张燕君等[9]将粒子群算法与最小二乘SVM相结合,应用于304钢板损伤识别研究中,使预测模型具有自诊断功能;刘峰等[10]将可见光、中波红外和长波红外三个波段的舰船目标特征进行融合识别,性能较单波识别方法有明显提升;毕立恒等[11]通过径向基函数神经网络建立模型,并采用多环量子算法确定各环量个体选择概率,实现径向基函数神经网络参数优化,从而提高植物叶片图像的识别率。

在上述方法的基础上,提出一种基于三维(3D)点云的时空方向主成分直方图(HSTOPC)的人体行为识别方法。首先,提出一种基于运动集中的时空区域提取方法,对获取得到的深度图序列转换为3D点云序列,在空间和时间维度上对视频序列进行限制,去除在时空中影响因子较小的序列和空间区域;其次,对获得的运动信息较为集中的3D点云序列求出符合条件的三维点序列中的点,对三维点序列中的点的散度矩阵求出其特征向量和特征值,将对应的特征向量映射到柏拉图立体中,从而获得每帧中符合条件的点的时空主成分;然后,通过多层时域重叠分割方法获得最终的3D点云的时空方向主成分直方图描述子;最后,采用SVM分类器在三个标准数据库进行训练和测试。

2 基本原理

提出的基于3D点云的时空方向主成分直方图的行为识别方法包括数据预处理、特征提取、多层时域重叠分割三个步骤。具体的操作步骤如图1所示,首先对获取得到的深度图序列转换为3D点云序列,对此序列在时间和空间维度上进行限制[图1(a)],提取出运动信息较多的新序列(如图1中绿线框标注的序列);然后对点云序列中每个点获取符合条件的点[图1(b)],计算所有的点对应的散度矩阵的特征值和特征向量,将特征向量映射到柏拉图立体中[图1(c)],从而获每个点云点的特征信息;最后采用多层时域重叠分割方法获得HOTSPC描述子[图1(d)]。

图 1. 形成描述子HSTOPC的步骤

Fig. 1. Steps of HSTOPC descriptor generation

下载图片 查看所有图片

2.1 时空区域中的数据预处理方法

为了获得有效的特征描述子,首先对由深度视频序列转换的3D点云序列进行如下预处理。令Q={Q1,Q2,…,Qt,…,Qnf-1,Qnf}表示由深度传感器捕获的3D点云序列,其中nf表示序列总个数,Qt表示由深度视序列中t时刻深度图形成的3D点云帧(图2)。每个序列中都存在单位信息量少或无用的时空区域,去除上述区域可以减少运算时间。将一组运动序列分为准备阶段、过程阶段和结束阶段,由于准备阶段和结束阶段与其他的运动序列相似,且过程阶段的移动能量占比最大,因此把过程阶段作为有效判断行为类别的数据区域。根据输入的深度序列是否去除背景,采用不同的预处理方法基于高宽比的限制(LHW)和基于特征值和特征向量的限制(LEE)获得新的3D点云序列Q'={Q's,Q's+1,…,Q't,…,Q'e-1,Q'e},其中Q'sQ'e分别表示实施阶段的起始时刻s的点云帧和结束时刻e的点云帧[图1(a)]。

图 2. (a)高抛与(b)画圆动作的3D点云序列

Fig. 2. Action sequences of 3D point clouds of (a) high throw and (b) draw circle

下载图片 查看所有图片

2.1.1 LHW方法

针对已提取前景的点云序列采用LHW方法。在时间维上,先提取每帧图像的人体轮廓的最小外接矩形框,计算每帧最小外接矩形框的高度和宽度的比值αt。进而计算出帧间的变化比值为

γtt-1=αt-1αt-1(1)

设置一个阈值ηLHW,找出序列中首次和最后大于ηLHW的时间点,作为序列的起始时刻s和结束时刻e。在空间范围内,提取在实施阶段内人体占用的最大矩形框。

2.1.2 LEE方法

针对未提取前景的点云序列采用LEE方法。在时间维上,先计算每一帧的散度矩阵Ct,其中假设在点云帧Qt中任意一点qi=(xtytzt)T12,1≤tnf

Ct=1ntqiQt(qi-μ')(qi-μ')T,μ'=1ntqiQtqi,(2)

式中nt表示tth序列上点的数目。对散度矩阵Ct特征分解CV=EV,其中E表示以散度矩阵C的特征值λ1λ2λ3(λ1λ2λ3)为对角矩阵,V表示由散度矩阵C的三个正交特征向量组成的矩阵[v1,v2,v3],通过 v'j=j=1j=3λj×vj计算每一帧的主向量。然后将向量v'j和向量v'j+1进行点乘,从而获得向量之间的相似程度,最后设定一个阈值ηEVL,找出序列中首次和最后小于ηEVL的时间点,分别对应起始时刻s和结束时刻e

2.2 时空方向主成分特征提取

预处理之后的点云序列Q'={Q's,Q's+1,…,Q't,…,Q'e-1,Q'e},取时间间隔[t-τ,t+τ],将3D点云序列融合形成一个时空累积的3D点云帧[图1(b)]。假设在点云帧Q't中任意一点p=(xt,yt,zt)T,ste,Ω(p)表示一个以点p为中心、r为半径的球体时空邻域(图1),通过邻域Ω(p)的散度矩阵C来描述点p[图1(c)]。

C=Ct-τ×Ct-τ+1××Ct+τ-1×Ct+τCi=1nipqiΩ(pi)(qi-μ)(qi-μ)T,(3)

式中 μ=1ntqΩ(p)q,nt表示Ω(p)中点的数目,Ω(pi)表示第i(i∈[t-τ,t+τ])点云帧在点p的空间邻域内的点, nip=Ω(pi)表示第i(i∈[t-τ,t+τ])点云帧在点p的空间邻域内的点个数。pi表示在Ω(pi)中的点。将散度矩阵C进行矩阵分解,即CV=EV,其中E表示由散度矩阵C的特征值λ1λ2λ3(λ1λ2λ3)组成的对角矩阵,V表示由散度矩阵C的三个正交特征向量组成的矩阵[v1,v2,v3]。

在点p的邻域Ω(p)中,HSTOPC描述子与特征值的顺序存在相关性。文献[ 12]提出了消除每一个点的模糊特征向量的方法,其中δ12δ23定义如下:

δ12=λ1λ2,δ23=λ2λ3(4)

假设是3D对称曲面,则δ12δ23的值等于1;假设曲面的主方向发生变化,则δ12δ23的值必大于1,即存在判别性点。鉴于存在噪声等干扰因素,设置阈值θ>1,其中ε表示噪声临界值,如果δ12,λ1λ2值设为0;如果δ23,λ2λ3值设为0。

特征向量表示3D空间中相应点的最大变化方向,但存在方向歧义性问题。为了消除该歧义性,采用特征向量vjp空间邻域内所有向量的内积符号作为特征向量vj的符号: signqΩ(p)sign(oTvj)(oTvj)2,其中o=q-p

将散度矩阵C对应特征值非0的特征向量投影到正m面体的m(m=20)个方向上[图1(c)]。 U{{ui}i=1m}表示正m面体中心到面中心的所有方向向量构成的矩阵。

对于一个以中心为原点的正二十面体,其方向向量归一化表示为 ±1Lu,±1Lu,±1Lu, 0,±φ-1Lu,±φLu, ±φ-1Lu,±φLu,0, ±φLu,0,±φ-1Lu,其中φ=1+52,Lu=φ2+1φ2表示向量ui(1≤im)的长度。

然后将每一个特征向量vj映射到U上:

bj=UTvjRm,1j3(5)

若特征向量vjuiU的方向一致,那么vj的幅值应该完全投影到第i个bin。但由于ui之间存在不正交,bj在其他bin中的投影值可能是非零值。为了克服上述影响,采用由任意两个相邻向量ukul间的投影计算得到的阈值ψ[12]bj进行量化处理。

ψ=uTkul=φ+φ-1Lu2,ukulU(6)

量化后的向量表示为

b^j(z)=0,bjzψbj(z)-ψ,bj(z)>ψ,(7)

式中1≤zm表示向量分量下标。对于第j个特征向量,hj表示对相应 b^j进行尺度归一化,具体表示为

hj=λjb^jb^j2Rm,1j3(8)

最后按照特征值λ的降序将三个特征向量的时空主成分直方图相连接形成点p的描述子:

hp=[hT1,hT2,hT3]TR3m(9)

2.3 多层时域重叠分割

为了获取相同维度的特征,对时空区域块中所有点的描述子hp进行叠加,其中时空区域块是时空域上采用不同分割方式获得的。首先,对空间人体运动区域分割,从而捕捉到人体躯干的运动情况,不仅减少了待处理的数据量,而且在一定程度上减小了背景影响。其次,在时域分割方面,保持分割处信息之间的相关性,以增强对噪声因素的稳健性。本文采用多层时域重叠分割模型,在局部时间维度上聚集方向信息。模型的构建思路:第一层是对整个序列在时间维度上进行均匀分割;第二层和第三层是在第一层时域分割处的基础上前后重叠一定的帧数[13],鉴于预处理之后的点云序列总帧数不同,重叠帧数o可由总帧数n=e-s+1计算得到,o=n×δ,其中重叠系数δ=0.11;最后将这三层按空间和时间顺序连接成HSTOPC向量。模型如图3所示,其中,⌊n/3|」表示n和3数字相除之后,对n/3向下取值,即取小于等于这个数字的最大整数,o表示第二层的重叠数目。

3 实验结果和讨论

为了验证本文算法的识别效果,分别采用MSR Action3D数据库[14]、ActionPairs3D数据库[15]和UWA3D数据库[12]进行测试。

为了便于性能比较,本文遵循文献[ 12]中的实验设置(所有的实验使用固定的球半径r和时间跨度τ,未使用文献[ 12]中的自适应方法)。在本实验中,使用θ=1.12,ηWHL=0.11,ηEVL=1.4,每个3D点云序列按照XYT维度(空间和时间维度)被分为6×7×3的时空体。

3.1 MSR Action3D数据库

MSR Action3D数据库[14]是由10个人完成20类动作的深度图序列构成,每个人的每类动作采集2~3次,深度图片的分辨率为320×240。虽然此数据库的背景经过预处理,但是20种动作中存在许多非常相似的行为,且类内差别大。

图 3. HSTOPC的多尺度时域重叠分割

Fig. 3. Multi-scale temporal overlap segmentation method of HSTOPC

下载图片 查看所有图片

本文选择近几年比较典型的识别方法作为比较对象,实验中使用相同的实验设置[12]。测试1和测试2的识别精度对比如表1表2所示,其中5/5表示数据库中受试者编号{1、3、5、7、9}的到受试者用于训练,而编号为{2,4,6,8,10}的受试者用于测试。。表1中将HSTOPC描述子与其他识别方法进行比较,HSTOPC+LHW方法比基于3D面的直方图(H3DF)方法[16]高5.06%,比姿势集合方法(Pose Set)方法[17]高4.51%,比3D梯度方向直方图(HOG3D)+基于位置的线性编码方法(LLC)方法[18]高3.61%,比多层3D核描述子(HKD)方法[19]高1.78%,比深度运动图-局部二值模式-决策层融合(DMM-LBP-DF)方法[18]高1.51%。Pose Set方法由于不规则的遮挡导致关节点容易连接错误,文献[ 17]选择最好的k个关节点组合模型,在很大程度上消除了由不准确的关节点造成的影响。本文方法优于文献[ 16]和文献[ 17]方法,原因是点云对遮挡不敏感,并且提供额外的类似于骨骼关节的形状信息,更好地描述了帧间的前后连续信息,弥补了分割处的信息。

表 1. MSR Action3D数据库的识别率比较

Table 1. Recognition rate comparison on MSR Action3D dataset

MethodRecognition rate /%
H3DF[16]89.45
Pose Set[17]90.00
HOG3D+LLC[18]90.90
HKD[19]92.73
DMM-LBP-DF[20]93.00
HOPC[12]91.64
HOPC+LHW93.77
HOPC+LEE93.04
HSTOPC+LHW94.51
HSTOPC+LEE94.14

查看所有表

在主成分方向直方图(HOPC)方法基础上增加LHW方法,则识别率提高了2.13%,对应地,增加EIL方法,则识别率提高了1.4%。可以看出,图像预处理方法LHW和LEE均可以提高识别精度。这是由于加上了对时空区域的限制,可以提取更多的有效区域。HSTOPC+LHW方法使得识别率提高2.87%;HSTOPC+LEE方法使得识别率提高2.5%。以上比较结果表明,HSTOPC描述子可以很好地表示行为。这是由于多尺度时域重叠分割的计算和时间域的增强会提供更多可用于判别的信息。

表2采用一个个体用于测试其他个体用于训练的方式,表中的数据分别表示10次分类识别的平均值(Mean)、均方差(STD)、最大识别率(Max)和最小识别率(Min)。与HOPC对应项比较,HSTOPC的结果均提高。这是由于通过数据的预处理,获得了信息集中的时空域,增强了时域特性,这也进一步证明了时空限制和时间信息增强的重要性。

表 2. 不同方法的实验结果比较

Table 2. Comparison of experimental results with different methods

MethodMean±STDMax /%Min /%
HOPC[12]87.06±10.6396.5566.67
HOPC+LHW89.55±9.5510068.21
HOPC+LEE89.71±9.8010068.42
HSTOPC+LHW90.41±9.9510069.81
HSTOPC+LEE90.56±9.0510071.93

查看所有表

图4所示为混淆矩阵,大多数识别错误为手抓、画叉、画圆。因为大多数动作涉及到相同的身体部位,容易产生一些相似的动作特性,所以这个数据库难以准确地提取序列中几何数据与动作的关联信息。

3.2 ActionPairs3D数据库

ActionPairs3D数据库[15]是由10个人完成6对动作的深度序列构成,每个人每类动作重复3次采样。其中成对的动作具有高度相似的轮廓和运动。按照文献[ 12]的实验设置,实验结果如表3所示,将HSTOPC描述子与现有的典型方法进行比较,本文方法比HOPC方法的识别率提高了1.11%。这是因为本文方法提取运动信息集中区域,并且强调运动的先后顺序,同时对运动序列具有一定的对齐效果。

图 4. HOPCT+WHL算法在MSR Action3D数据集测试5/5实验结果的混淆矩阵

Fig. 4. Confusion matrix of the HOPCT+WHL algorithm by experiment setting of 5/5 on MSR action 3D dataset

下载图片 查看所有图片

表 3. ActionPairs3D数据库上的识别率比较

Table 3. Accuracy comparison on MSR Action3D dataset

MethodMean±STDMax /%Min /%5/5
STPC[15]---98.33
HOPC[12]97.15±2.2110088.8997.22
HSTOPC+LEE98.18±2.7510090.5698.33

查看所有表

3.3 UWA3D数据库

表 4. UWA3D数据库的识别率比较

Table 4. Accuracy Comparison with other description on UWA3D datasets

MethodMean±STDMax /%Min /%
HON4D[20]79.28+2.6888.8970.14
HDG[3]75.54±3.6485.0761.90
HOPC[12]83.77±3.0992.1874.67
HSTOPC+LHW85.11±3.2194.0475.67

查看所有表

4 结论

通过分析已有的基于深度视频序列的人体行为识别方法,针对其中的预处理方法和特征提取方法展开研究,提出一种基于3D点云的时空方向主成分直方图方法用于行为识别。首先,将深度图序列转化为3D点云序列,通过LHW或者LEE方法对数据库进行预处理,旨在减少不重要及次要的时空区域。其次,为了突显所有时空体内的相对时间变化,在每个时空体中使用HSTOPC描述子来提高其相关性,即在每个时空体中,对每个时间层的矩阵使用矩阵连乘的方法提取时空特征。最后,除了预处理和HSTOPC特征描述子,简单的时空分割会导致分割处信息丢失,因此采用三层时域重叠分割方法。在三个公开行为数据库中进行行为识别实验,并与其他行为识别方法进行对比,结果表明,本文算法在不同的数据库中通用性较好,且识别精度有所提高。

参考文献

[1] 董珂. 基于Kinect的人体行为识别研究[D]. 武汉: 武汉科技大学, 2015.

    DongK. Human action recognition based on Kinect[D]. Wuhan: Wuhan University of Science and Technology, 2015.

[2] 蔡加欣, 冯国灿, 汤鑫, 等. 基于姿势字典学习的人体行为识别[J]. 光学学报, 2014, 34(12): 1215002.

    Cai J X, Feng G C, Tang X, et al. Human action recognition based on poses a dictionary[J]. Acta Optica Sinica, 2014, 34(12): 1215002.

[3] RahmaniH, MahmoodA, Huynh DQ, et al. Real time human action recognition using histograms of depth gradients and random decision forests[C]. 2014 IEEE Winter Conference on Application of Computer Vision, 2014: 626- 633.

[4] 蔡加欣, 冯国灿, 汤鑫, 等. 基于局部轮廓和随机森林的人体行为识别[J]. 光学学报, 2014, 34(10): 1015006.

    Cai J X, Feng G C, Tang X, et al. Human action recognition based on the local contour and random forest[J]. Acta Optica Sinica, 2014, 34(10): 1015006.

[5] TangS, WangX, LvX, et al. Histogram of oriented normal vectors for object recognition with a depth sensor[C]. Asian Conference on Computer Vision, 2013: 525- 538.

[6] 黄成挥. 基于视频的人体行为识别算法研究[D]. 成都: 电子科技大学, 2016.

    Huang CH. Human action recognition algorithm based on video[D]. Chengdu: University of Electronic Science and Technology of China, 2016.

[7] 王军. 基于多示例学习法的人体行为识别[J]. 信息技术, 2016( 7): 65- 70.

    WangJ. Human action recognition based on sample learning method[J]. Information Technology, 2016( 7): 65- 70.

[8] 刘智, 董世都. 利用深度视频中的关节运动信息研究人体行为识别[J]. 计算机应用与软件, 2017, 34(2): 189-192.

    Liu Z, Dong S D. Human action recognition based on the joint movement in the depth of video information[J]. Computer Applications and Software, 2017, 34(2): 189-192.

[9] 张燕君, 王会敏, 付兴虎, 等. 基于粒子群支持向量机的钢板损伤位置识别[J]. 中国激光, 2017, 44(10): 1006006.

    Zhang Y J, Wang H M, Fu X H, et al. Identification of steel plate damage position based on particle swarm support vector machine[J]. Chinese Journal of Lasers, 2017, 44(10): 1006006.

[10] 刘峰, 沈同圣, 马新星. 特征融合的卷积神经网络多波段舰船目标识别[J]. 光学学报, 2017, 37(10): 1015002.

    Liu F, Sheng T S, Ma X X. Convolutional neural network based multi-band ship target recognition with feature fusion[J]. Acta Optica Sinica, 2017, 37(10): 1015002.

[11] 毕立恒, 刘云潺. 基于改进神经网络算法的植物叶片图像识别研究[J]. 激光与光电子学进展, 2017, 54(12): 121102.

    Bi L H, Liu Y C. Plant leaf image recognition based on improved neural network algorithm[J]. Laser & Optoelectronics Progress, 2017, 54(12): 121102.

[12] RahmaniH, MahmoodA, Du QH, et al. HOPC: histogram of oriented principal components of 3D pointclouds for action recognition[C]. European Conference on Computer Vision, 2014: 742- 757.

[13] 曹林. 人脸识别与人体动作识别技术及应用[M]. 北京: 电子工业出版社, 2015.

    CaoL. Face recognition and human motion recognition technology and application[M]. Beijing: Electronic Industry Press, 2015.

[14] LiW, ZhangZ, LiuZ. Action recognition based on a bag of 3D points[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition-Workshops, 2010: 9- 14.

[15] JiX, ChengJ, FengW. Spatio-temporal cuboid pyramid for action recognition using depth motion sequences[C]. Eighth International Conference on Advanced Computational Intelligence, IEEE, 2016: 208- 213.

[16] Zhang C, Tian Y. Histogram of 3Dfacets: a depth descriptor for human action and hand gesture recognition[J]. Computer Vision & Image Understanding, 2015, 139: 29-39.

[17] WangC, WangY, Yuille AL. An Approach to Pose-Based Action Recognition[C]. Computer Vision and Pattern Recognition IEEE, 2013: 915- 922.

[18] Rahmani H, Du Q H, Mahmood A, et al. Discriminative human action classification using locality-constrained linear coding[J]. Pattern Recognition Letters, 2016, 72: 62-71.

[19] KongY, SattarB, FuY. Hierarchical 3D kernel descriptors for action recognition using depth sequences[C]. IEEE International Conference on Automatic Face and Gesture Recognition, 2015: 1- 6.

[20] ChenC, JafariR, KehtarnavazN. Action Recognition from Depth Sequences Using Depth Motion Maps-based Local Binary Patterns[C]. IEEE Applications of Computer Vision, 2015: 1092- 1099.

[21] OreifejO, LiuZ. HON4D: Histogram of Oriented 4D Normals for Activity Recognition from Depth Sequences[C]. Computer Vision and Pattern Recognition, IEEE, 2013: 716- 723.

徐海洋, 孔军, 蒋敏, 昝宝锋. 基于时空方向主成分直方图的人体行为识别[J]. 激光与光电子学进展, 2018, 55(6): 061009. Haiyang Xu, Jun Kong, Min Jiang, Baofeng Zan. Action Recognition Based on Histogram of Spatio-Temporal Oriented Principal Components[J]. Laser & Optoelectronics Progress, 2018, 55(6): 061009.

本文已被 5 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!