基于卷积神经网络的鞋型识别方法 下载: 1212次
1 引言
随着视频监控技术的广泛应用,融合现场静态足迹及周围动态监控视频资料对犯罪嫌疑人进行追踪溯源的方法,为足迹检验的发展创造了新的契机。现有全国公安机关鞋样本查询系统可根据现场足迹得出鞋型图像,侦查人员在侦办案件工作中根据分析得出的鞋型图像在监控视频中查找犯罪嫌疑人。视频监控领域的不断建设与完善也使这一视频侦查技术得以发展成熟,使其在案件侦破中的作用日益显著。2015年1月,广东云浮市公安局就根据“耐克”、“鸿星尔克”等品牌鞋型确定了作案人数,结合案发时空节点迅速缩小侦查范围,关联外围视频监控资料,锁定了技术开锁入室盗窃案的流窜盗窃犯罪团伙并将其成功抓捕[1]。2016年12月,内蒙古呼和浩特市公安局在一起超市杀人案中利用与现场数枚血鞋印花纹一致的嫌疑鞋型进行视频侦查模拟实验,通过特征标示、拼接对比、重合比较等方法将可疑鞋图像作清晰化处理,利用特征评价对比分析处理后的图像与模拟鞋图像,分析结果表明两者种类特征相同,无本质性差异,由此可确定嫌疑鞋型为现场血鞋印同种鞋型。根据这种鞋型在视频监控中排查确认重点嫌疑人,进行轨迹追踪,为调整侦查重心提供了重要依据[2]。通过视频监控中获取的鞋型轮廓、品牌、花纹等鞋的排它属性特征可为侦破案件确定筛查范围,鞋的信息容量越丰富,视频侦查工作将愈发快捷高效。但目前查找锁定视频中的鞋型以及犯罪嫌疑人这一过程仍主要依靠公安技术人员人工进行,侦查效率低下,易错过侦查抓捕工作的最佳时机。因此,亟需一种以依据犯罪现场足迹得到的鞋型图像为基础,对犯罪现场周围不同场景监控视频中的鞋型图像进行自动匹配识别的方法,以提高鞋型分析自动化程度,为追踪锁定犯罪嫌疑人提供快速、有效的信息。
本文提出一种基于卷积神经网络对监控视频中的鞋型图像进行快速自动识别的方法。在案发时间段内,将犯罪现场周围视频中出现的行人进行检测并分割,进而对鞋型进行切割,建立临时数据库,然后将犯罪现场推断出的鞋型样本输入数据库进行分类识别,得到与样本相似的鞋型,进而查找到穿有目标鞋型的犯罪嫌疑人图像信息。由于特定时间段出现相似鞋型的概率不高,即使同时得到多双相似鞋型,也可协助公安技术人员根据鞋印推断犯罪嫌疑人的身高、体态等。在视频中自动检索人身并分割的算法已相对成熟[3-4],故对鞋型进行切割也是可行的。本文将研究重点放在建立临时数据库后的分类识别算法。首先设立犯罪现场周围监控视频,在监控视频中采集实验数据,并对数据进行格式转换、分帧、鞋型区域切割及归一化处理,构建实验数据库,其中包含50类鞋型共计160231张数据图像;基于Caffe框架设计网络结构,搭建适配的网络模型,分析第一层全连接层输出元素数、网络深度对网络性能的影响,引用重叠池化对网络模型进行优化,通过调试网络参数等方法提高网络识别率与稳健性,得到准确、高效的鞋型识别网络,完善适用于鞋型识别的网络模型与方法。
2 相关研究工作
继监控普及后,融合足迹与犯罪现场周围监控视频对犯罪嫌疑人进行追踪溯源才逐渐开始被研究。袁楚平等[1]首次将犯罪现场提取的足迹输入全国公安机关鞋样本查询系统,通过比对查出鞋型图像,并在周围视频中搜寻嫌疑鞋型进而找到犯罪嫌疑人,结合后续的侦查工作打破侦查僵局,为破案提供重要线索。但文中对犯罪现场周围视频中鞋型采用人工识别的传统技术方法,非常耗费警力资源,且侦查效率低下,易错过侦查抓捕工作最佳时机。许磊等[2]对视频监控中可疑鞋图像与模拟实验视频中模拟鞋图像进行比对分析,发现可疑鞋图像与模拟鞋图像的特征基本相符,缩小了侦查范围。文中应用人工寻找特征、人工比对的方法,工作量较大,耗时费力,且易受主观因素影响,误差较大。鞋型外观形态的识别关键在于特征的提取与比对,只要对鞋型图像实现自动特征提取与智能决策即可实现该问题的自动化识别。自动化识别需要利用图像识别技术,即通过对图像的处理分析来识别不同模式目标或对象(如人脸、虹膜、花卉植物、遥感图像等)。近年来,图像识别技术不断发展,已经广泛应用于各个领域,其中人脸识别[5-7]、步态识别[8-9]等技术已相对成熟。
图像识别技术起源于20世纪50年代,最早应用于办公自动化任务中的字符识别,主要针对二维图像进行分析识别。20世纪60年代,Roberts[10]从数字图像中提取三维特征,开创了理解三维场景的图像识别研究。而后的几十年中,前期图像识别技术所采用的高斯混合模型、k均值聚类、支持向量机等浅层结构,可以解决医学、工业、交通、安防等各个领域的一些简单问题,但是难以解决复杂的真实环境问题。后来随着深度神经网络的出现,特别是自2011年以来随着计算机计算能力的显著增强,各种算法的应用效果良好,出现了一大批基于神经网络的图像识别方法。自Krizhevsky等[11]在ILSVRC竞赛上提出卷积神经网络结构(AlexNet)后,卷积神经网络在图像分类和识别领域得到了广泛应用。卷积神经网络具有相对简单的网络拓扑结构,可直接处理图像二维矩阵,同时进行特征提取和模式分类,其利用权值共享,缩短了运行时间,适合不同领域的多分类任务[12]。2015年,牛津大学计算机视觉组和DeepMind公司共同研发了一种深度卷积网络VGGNet[13]。VGGNet相对于AlexNet网络深度更深,有16层和19层两种结构。2014时,VGGNet网络在加深的同时减少了参数量,多个非线性操作使得网络判别性更好。同年,香港中文大学的DeepID项目[14]及Facebook的DeepFace项目[15] 利用卷积神经网络结构,在LFW数据库上的人脸识别正确率分别达97.45%和97.35%,只略低于人类视觉识别正确率(97.5%)[16]。He等[17]提出的ResNet取得了2015年度的ILSVRC比赛冠军,ResNet的核心是学习映射的残差,故为残差网络。相比于19层的VGGNet,ResNet的网络深度加深了7倍,解决了随着网络加深到一定程度后的识别精度下降问题。
鉴于卷积神经网络的良好应用结果,本文将卷积神经网络引入鞋型分析之中,不仅可以避免人工选择确定鞋型特征的主观因素影响,同时自动化识别匹配速度的大幅提升,可有效提高侦查工作效率,避免人工查找的误差,匹配结果可快速应用到下一阶段的侦查工作中。
3 卷积神经网络
卷积神经网络通常由卷积层、池化层、全连接层、输出层等构成,卷积层常与池化层相互交替使用。
每个卷积层会有多个卷积核,于是,数据经过卷积层会形成多个特征图,每个特征图由众多神经元组成,每个神经元与特征图的输入局部连接,通过对输入进行加权求和再加上偏置值得到输出。假设输出特征图为
式中:
池化层常用的有最大池化和平均池化,主要作用是对数据进行降维,在降低计算量的同时增加了模型的泛化能力,加强了算法的稳健性。池化层一般设置在卷积层后,卷积层输出的特征图作为池化层的输入。经过池化操作后,输出的特征图数量不发生改变[19],特征图大小变化公式为
式中:
经过多层卷积和池化之后,连接一个或多个全连接层。全连接层的作用是将卷积与池化操作后的输出整合为一维数组,对提取的特征进行分类,得到基于数据输入的概率分布
式中:
全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的,增大了计算量,所以现在常用卷积来代替全连接。
4 基于卷积神经网络的鞋型识别方法
4.1 初始网络模型
香港中文大学的DeepID项目[12]中LFW数据库上的人脸识别正确率达97.45%,鞋型识别问题与人脸识别较为类似,根据鞋型识别独有的特点,参照DeepID项目的网络框架设置适用于鞋型识别的初始网络结构。DeepID网络框架包含4层卷积,3层池化,2层全连接。其Ip1层连接了第4层卷积的同时还连接了第3层池化,故可兼顾局部与全局特征,但需要较多输出神经元。DeepID网络可解决的数据集种类很多,而本实验模拟的数据库种类较少,考虑到计算量的问题,本文并未完全引用全连接策略,仅设置2层卷积、2层池化,其网络结构如
4.2 网络模型改进
4.2.1 Ip1层输出改进
Ip1层为全连接层,全连接层的目的是将网络学习到的特征映射到样本的标记空间中,但同时会损失部分特征。Ip2层的输出作为分类层的输入,本文是对50类鞋型进行训练。Ip2层的输出元素数不易改动,因此需探究Ip1层输出的元素个数对实验结果的影响。
4.2.2 网络深度加深
随着经典网络的发展,网络深度不断加深,其在ImageNet数据集的应用效果也越来越好。对于Lenet的4层网络结构和AlexNet的8层网络结构,Top-5错误率为16.4%;对于VGG的19层网络结构,Top-5错误率降至7.3%;对于GoogLeNet[20]的21层网络结构,Top-5错误率低至6.7%;后来ResNet的网络结构达到了152层,其Top-5错误率仅为3.57%。虽然以上应用效果越来越好的影响因素还包括引入了dropout、小卷积核、残差网络等,但是随着网络的不断加深,网络将具有更多的非线性函数,即使在不引入其他影响因素的情况下其判决函数判决性也会越来越好,可以达到更好的分类效果。
4.2.3 加入重叠池化
传统的池化策略是使池化滑动窗口大小与滑动步长相等,本文初始设置的网络结构的滑动窗口大小和步长均为2。重叠池化与传统池化不同的是池化窗口大小大于滑动步长,相邻池化窗口之间会有重合区域。本文加入重叠池化,设置池化层的滑动窗口大小为3和4。当训练或测试输入的图片较大时,由于传统池化策略是对输入图片进行单一映射,因此输出的图片特征维度仍旧较高。重叠池化将池化层的输出扩充为多级较小的特征,降低了池化层输出的特征维度[21]。假设原来池化层的输入大小为
5 实验及结果分析
5.1实验数据库的构建
本实验视频数据采集在足迹实验室进行,对8名志愿者(男性6名,女性2名)穿的50双鞋进行视频数据采集。在实验场地铺置浅蓝色地毯以减少背景干扰。为模拟视频监控中不同角度的鞋型并保证实验的可靠性,从不同角度(0°,5°,10°,15°,180°等)进行数据采集,同时通过调整室内灯光使视频数据不受光照强度的影响。志愿者依次在1.2 m宽的行走区域行走,行走路线如
视频数据采集完成之后,运用HMSTranscoder软件对视频进行格式转换并截取每双鞋的视频素材作为一个样本视频,同时将视频亮度设定为12,对比度为15。运用Matlab(R2016a)软件对每一个视频样本进行批量分帧处理,为确保数据量,对视频进行逐帧分帧,建立50个视频帧文件夹,命名为1~50。由于视频帧尺寸较大,鞋型占有比例很小,为了排除无效的干扰并减小运算量,对视频帧中的鞋按2∶1的比例进行切割,并归一化为大小为96 pixel×48 pixel的图片保存。视频帧截取鞋型过程是模拟自动检测和切割,运用Matlab(R2016a)编写程序,可以通过手动点击鞋型左上角位置来获得坐标,自动截取比例为2∶1的鞋型图片,并保存到指定文件夹。截取过程如
视频帧处理过程中将左脚与右脚分开截取,对于左右脚重叠,有其他干扰及角度大于45°的视频帧予以删除,对截取得到的50类鞋型图像数据进行筛选,挑选不同光照、角度样本图像共160231张。各类样本数据示例如
5.2 实验配置及参数设置
本实验的硬件配置为Intel(R)Core(TM)i7-8700K CPU @3.7 GHz,内存16 GB,GPU为NVIDIA GeForce GTX1080。软件配置为Windows 10,CUDA9.1 GPU并行计算库,开源深度学习框架Caffe。
本实验基于深度学习Caffe框架进行搭建,超参数设置默认选用小批量梯度下降优化算法,基础学习率为0.0001,学习率调整策略设置为inv。根据inv的学习策略:
初始网络输入层的数据大小为96 pixel×48 pixel,任意选取数据库80%的样本作为训练集(共128185张),20%的样本作为测试集(共32046张)。训练批量数目
5.3 实验结果与分析
5.3.1 Ip1层输出元素个数对性能的影响
为了探究Ip1层输出元素个数对性能的影响,本文在初始模型上设置Ip1层输出元素个数分别为300,500,1000,并对识别精度和训练时间进行比较分析,实验结果如
表 1. Ip1层输出元素个数对性能的影响
Table 1. Effect of number of output elements in Ip1 layer on performance
|
从
5.3.2 网络加深对性能的影响
由于利用两层3×3大小的卷积核堆叠的卷积层得到的感受野与大小为5×5的卷积核相同,但在达到相同感受野的情况下,采用较小卷积核可增加网络深度,提取特征更加精细。故本实验将原始网络5×5大小的卷积核转换为两层3×3大小的卷积核,其他参数不变,实验效果如
表 2. 网络加深对性能的影响
Table 2. Effect of network depth on performance
|
从
5.3.3 重叠池化对性能的影响
在加深网络结构后,识别精度值显著提升,在此基础上运用重叠池化代替传统的池化策略,在pool1层设置池化滑动窗口大小为4×4,步长为2,设置pool2层池化滑动窗口为3×3,滑动步长为2。实验结果如
表 3. 重叠池化对性能的影响
Table 3. Effect of overlapping pooling on performance
|
从
5.3.4 综合实验结果与分析
综合以上分析,选用加深网络结构并运用重叠池化对搭建的鞋型数据库进行训练和分类识别时,其测试识别精度可达96.06%。该网络下随着训练迭代次数的增加,识别精度和损失值的变化情况如
图 6. 部分错误识别的鞋型图片。(a)标签为4的鞋型图片被错误识别为14示例;(b)标签为3的鞋型图片被错误识别为19示例
Fig. 6. Photographs of partial misidentify of shoe type. (a) Example of shoe image with label 4 being incorrectly identified as label 14; (b) example of shoe image with label 3 being incorrectly identified as label 19
选用加深网络结构并运用重叠池化对搭建的鞋型数据库进行训练和分类识别后,识别错误率为3.94%。识别错误的原因主要是颜色较为相近、图像模糊和光照不一等,部分错误识别的鞋型图片如
6 结论
基于大规模采集数据,建立数据库,设计适用于鞋型识别的卷积神经网络结构,设置合适的超参数。通过比较不同全连接的输出元素数对网络识别精度结果的影响,发现输出元素数的增加会提高识别精度,但训练时间会随之不断增加。权衡训练效率与精度后,设置Ip1层输出元素数目为500。利用两个3×3卷积核替换5×5卷积核后,加深网络可显著提高模型精度。引用重叠池化代替传统的池化策略,识别精度可提高至96.06%,实验结果充分验证了基于卷积神经网络进行鞋型识别方法的可行性。
将卷积神经网络应用于鞋型识别,取得了良好的识别效果。通过对初始设计网络的改进,在提高精度的同时也减少了参数量,加快了训练速度,提高了网络性能与识别效率。然而所采用的实验数据皆为纯蓝色背景下的鞋型,实际侦查案件中经常存在复杂背景、形变、部分遮挡等干扰。现阶段实验网络结构较为简单,且针对颜色相近的样本识别效果不佳。下一步将对网络进行改进,以提高对相似样本的识别精度,搭建适用于复杂场景下稳健的鞋型识别网络模型。
[1] 袁楚平, 余尚伟. 足迹分析在视频侦查工作中的运用初探[J]. 广东公安科技, 2017, 25(2): 61-63, 74.
Yuan C P, Yu S W. Preliminary study on the application of footprint analysis in video investigation[J]. Guangdong Gongan Keji, 2017, 25(2): 61-63, 74.
[2] 许磊, 黎智辉, 李志刚, 等. 视频侦查模拟实验在案件侦破中的应用[J]. 刑事技术, 2018, 43(4): 330-333.
Xu L, Li Z H, Li Z G, et al. A murder case investigated and solved by applying the simulation experiment into the collected video[J]. Forensic Science and Technology, 2018, 43(4): 330-333.
[3] 王旭, 刘毅, 李国燕. 基于改进视觉背景提取算法的运动目标检测方法[J]. 激光与光电子学进展, 2019, 56(1): 011007.
[4] 陈超, 宣士斌, 徐俊格. 复杂背景下的行人检测与分割[J]. 计算机工程与应用, 2012, 48(30): 177-181.
Chen C, Xuan S B, Xu J G. Pedestrian detection and segmentation under background clutter[J]. Computer Engineering and Applications, 2012, 48(30): 177-181.
[5] Wu C Y, Ding J J. Occluded face recognition using low-rank regression with generalized gradient direction[J]. Pattern Recognition, 2018, 80: 256-268.
[6] Weng[\s]{1}RL,[\s]{1}Lu[\s]{1}JW,[\s]{1}Hu[\s]{1}JL,[\s]{1}et[\s]{1}al.[\s]{1}Robust[\s]{1}feature[\s]{1}set[\s]{1}matching[\s]{1}for[\s]{1}partial[\s]{1}face[\s]{1}recognition[C]∥2013[\s]{1}IEEE[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision,[\s]{1}December[\s]{1}1-8,[\s]{1}2013,[\s]{1}Sydney,[\s]{1}Australia.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2013:[\s]{1}601-[\s]{1}608.[\s]{1}
[7] Ali Akber Dewan M, Granger E, Marcialis G L, et al. . Adaptive appearance model tracking for still-to-video face recognition[J]. Pattern Recognition, 2016, 49: 129-151.
[8] AlotaibiM,[\s]{1}MahmoodA.[\s]{1}Improved[\s]{1}gait[\s]{1}recognition[\s]{1}based[\s]{1}on[\s]{1}specialized[\s]{1}deep[\s]{1}convolutional[\s]{1}neural[\s]{1}networks[C]∥2015[\s]{1}IEEE[\s]{1}Applied[\s]{1}Imagery[\s]{1}Pattern[\s]{1}Recognition[\s]{1}Workshop[\s]{1}(AIPR),[\s]{1}October[\s]{1}13-15,[\s]{1}2015,[\s]{1}Washington[\s]{1}DC.,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2015:[\s]{1}15888701.[\s]{1}
[9] Wu Z F, Huang Y Z, Wang L, et al. A comprehensive study on cross-view gait based human identification with deep CNNs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(2): 209-226.
[10] Roberts[\s]{1}LG.[\s]{1}Machine[\s]{1}perception[\s]{1}of[\s]{1}three-dimensional[\s]{1}solids[M].[\s]{1}New[\s]{1}York:[\s]{1}Garland[\s]{1}Publishing,[\s]{1}1965.[\s]{1}
[11] KrizhevskyA,[\s]{1}SutskeverI,[\s]{1}Hinton[\s]{1}GE.[\s]{1}ImageNet[\s]{1}classification[\s]{1}with[\s]{1}deep[\s]{1}convolutional[\s]{1}neural[\s]{1}networks[C]∥Proceedings[\s]{1}of[\s]{1}the[\s]{1}25th[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Neural[\s]{1}Information[\s]{1}Processing[\s]{1}Systems,[\s]{1}December[\s]{1}3-6,[\s]{1}2012,[\s]{1}Lake[\s]{1}Tahoe,[\s]{1}Nevada,[\s]{1}USA.[\s]{1}USA:[\s]{1}NIPS,[\s]{1}2012:[\s]{1}1097-[\s]{1}1105.[\s]{1}
[12] 杜剑, 胡炳樑, 张周锋. 基于卷积神经网络与显微高光谱的胃癌组织分类方法研究[J]. 光学学报, 2018, 38(6): 0617001.
[13] SimonyanK,[\s]{1}Zisserman[\s]{1}A[\s]{1}.[\s]{1}Very[\s]{1}deep[\s]{1}convolutional[\s]{1}networks[\s]{1}for[\s]{1}large-scale[\s]{1}image[\s]{1}recognition[J/OL].[\s]{1}([\s]{1}2015-04-10)[[\s]{1}2018-12-17].[\s]{1}https:∥arxiv.org/abs/1409.[\s]{1}1556.[\s]{1}
[14] SunY,[\s]{1}Wang[\s]{1}XG,[\s]{1}Tang[\s]{1}X[\s]{1}O.[\s]{1}Deeply[\s]{1}learned[\s]{1}face[\s]{1}representations[\s]{1}are[\s]{1}sparse,[\s]{1}selective,[\s]{1}robust[J/OL].[\s]{1}([\s]{1}2014-12-03)[[\s]{1}2018-12-17].[\s]{1}https:∥arxiv.org/abs/1412.[\s]{1}1265.[\s]{1}
[15] TaigmanY,[\s]{1}YangM,[\s]{1}RanzatoM,[\s]{1}et[\s]{1}al.[\s]{1}DeepFace:[\s]{1}closing[\s]{1}the[\s]{1}gap[\s]{1}to[\s]{1}human-level[\s]{1}performance[\s]{1}in[\s]{1}face[\s]{1}verification[C]∥2014[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition(CVPR),[\s]{1}June[\s]{1}23-28,[\s]{1}2014,[\s]{1}Columbus,[\s]{1}OH,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2014:[\s]{1}1701-[\s]{1}1708.[\s]{1}
[16] KumarN,[\s]{1}Berg[\s]{1}AC,[\s]{1}Belhumeur[\s]{1}PN,[\s]{1}et[\s]{1}al.[\s]{1}Attribute[\s]{1}and[\s]{1}simile[\s]{1}classifiers[\s]{1}for[\s]{1}face[\s]{1}verification[C]∥2009[\s]{1}IEEE[\s]{1}12th[\s]{1}International[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision,[\s]{1}September[\s]{1}29-October[\s]{1}2,[\s]{1}2009,[\s]{1}Kyoto,[\s]{1}Japan.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2009:[\s]{1}365-[\s]{1}372.[\s]{1}
[17] He[\s]{1}KM,[\s]{1}Zhang[\s]{1}XY,[\s]{1}Ren[\s]{1}SQ,[\s]{1}et[\s]{1}al.[\s]{1}Deep[\s]{1}residual[\s]{1}learning[\s]{1}for[\s]{1}image[\s]{1}recognition[C]∥2016[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}June[\s]{1}27-30,[\s]{1}2016,[\s]{1}Las[\s]{1}Vegas,[\s]{1}NV,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2016:[\s]{1}770-[\s]{1}778.[\s]{1}
[18] 李素梅, 雷国庆, 范如. 基于卷积神经网络的深度图超分辨率重建[J]. 光学学报, 2017, 37(12): 1210002.
[19] 肖进胜, 刘恩雨, 朱力, 等. 改进的基于卷积神经网络的图像超分辨率算法[J]. 光学学报, 2017, 37(3): 0318011.
[20] SzegedyC,[\s]{1}LiuW,[\s]{1}Jia[\s]{1}YQ,[\s]{1}et[\s]{1}al.[\s]{1}Going[\s]{1}deeper[\s]{1}with[\s]{1}convolutions[C]∥2015[\s]{1}IEEE[\s]{1}Conference[\s]{1}on[\s]{1}Computer[\s]{1}Vision[\s]{1}and[\s]{1}Pattern[\s]{1}Recognition[\s]{1}(CVPR),[\s]{1}June[\s]{1}7-12,[\s]{1}2015,[\s]{1}Boston,[\s]{1}MA,[\s]{1}USA.[\s]{1}New[\s]{1}York:[\s]{1}IEEE,[\s]{1}2015:[\s]{1}15523970.[\s]{1}
[21] 王露.[\s]{1}基于稀疏时空特征的人体行为识别研究[D].[\s]{1}苏州:[\s]{1}苏州大学,[\s]{1}2015:[\s]{1}29-[\s]{1}36.[\s]{1}
WangL.[\s]{1}Research[\s]{1}on[\s]{1}human[\s]{1}action[\s]{1}recognition[\s]{1}based[\s]{1}on[\s]{1}sparse[\s]{1}spatio-temporal[\s]{1}features[D].[\s]{1}Suzhou:[\s]{1}Soochow[\s]{1}University,[\s]{1}2015:[\s]{1}29-[\s]{1}36.[\s]{1}
Article Outline
杨孟京, 唐云祁, 姜晓佳. 基于卷积神经网络的鞋型识别方法[J]. 激光与光电子学进展, 2019, 56(19): 191505. Mengjing Yang, Yunqi Tang, Xiaojia Jiang. Novel Shoe Type Recognition Method Based on Convolutional Neural Network[J]. Laser & Optoelectronics Progress, 2019, 56(19): 191505.