复杂背景下车型识别分类器 下载: 1100次
1 引言
随着我国经济快速发展,汽车保有量逐年上升,智能交通系统逐渐成为现代社会的研究重点。车型识别系统作为智能交通系统的重要组成部分,在交通监管、事故判罚等领域起到了关键的作用。相比于粗粒度车型识别[1],细粒度分类是一个较新的研究领域[2-4],尤其是当细粒度车型图像中包含大量复杂环境背景时,识别易受环境、光照、噪声等因素干扰,在不进行大量图片预处理工作的前提下,研究面临很多难点。
细粒度车型识别主要包括特征提取和分类两部分,传统识别方法主要依靠尺度不变特征转换(SIFT)特征提取算法[5]、梯度直方图(HOG)特征提取算法[6]、稳定特征加速算法(SURF)与积分通道特征提取算法[7]等,通过人工设定抽取特征,并结合支持向量机(SVM)进行分类。由于细粒度车型图像的外观形式多样,类间差异小[8],因此,难以通过上述方法提取有效特征,从而造成SVM分类器无法准确判别。深度卷积神经网络(DCCN)以原始图像作为输入,能够通过卷积操作自主训练,完成图像处理工作并提取图像中的语义和特征,避免了人工选择特征的难题[9]。此外,为减少计算量,深度卷积神经网络还引入了空间子采样、局部感受野和权值共享概念。深度卷积神经网络由自动特征提取器和训练分类器Softmax组成,是多层次化的网络,在图像分类方面具有特征表达能力[10]和识别性能[11],因此被广泛应用于人脸识别[12]、图像分类[13]、目标检测[14]等机器视觉任务。
深度卷积神经网络虽然善于学习不变量特征,但是在训练过程中,Softmax层的损失函数会不断更新已经正确分类的样本,在图像背景复杂的情况下,容易发生过拟合。SVM由Vapnik和Cortes[15]提出,是一种功能强大的分类器[16]。它定义的损失函数不仅避免了上述问题,并且善于从良好的特征向量生成决策面[17]。因此,为了提高在复杂背景中的细粒度车型识别准确率,本文有针对性地研究了深度卷积神经网络的Softmax函数层和SVM,提出了基于深度卷积神经网络的Softmax-SVM混合模型。该模型将深度卷积神经网络作为原始图像的自动特征提取器,训练达到训练集识别准确率阈值后,提取全连接层(FC1层)数据用于SVM分类器训练,最终在识别复杂背景下的细粒度车型方面,Softmax-SVM分类器有效避免了过拟合,增强了模型的泛化能力,提高了识别精度和识别速度。
2 深度卷积神经网络与支持向量机
2.1 深度卷积神经网络
2.1.1 卷积层
卷积层的表达式为
式中:
2.1.2 池化层
卷积神经网络中常用的池化方法包括平均池化、最大池化、随机池化等,池化后特征图数目保持不变,特征维数降低,计算量减少。通用公式为
式中:down(·)为下采样函数;
2.1.3 批量标准化层
批量标准化处理使每个卷积层提取的深层特征信息都在有效范围内并向下一层传递,抑制因网络层数增加而带来的传递扰动。若对某一层的输出数据只进行批量标准化后就直接输入下一层,误差反向传播过程中会影响本层网络学习到的特征。因此,需引入可学习参数,使网络可以恢复出该层数据的原始特征分布。前向传递公式可表示为
式中:
2.1.4 全连接层
全连接层能够把高维特征变到低维,同时,将前面所有的有用信息进行整合提取,通过激活函数的非线性映射,多层全连接可以用于模拟任何非线性变换。
2.1.5 Softmax函数层
深度卷积神经网络训练是一个端到端的过程,最后一层的Softmax分类器将分类结果映射到概率域,目标是最小化预测类别的概率分布和损失。常用的损失函数有均方差代价函数(Square-loss)、指数代价函数(Exp-loss)和交叉熵代价函数(Cross-entropy-loss)。均方误差代价函数和指数代价函数分别表示为
式中:
这里引入交叉熵代价函数
交叉熵代价函数是凸函数,满足在随机化初始权重之后,分类结果越差梯度越大的性质。Softmax分类器算法为
式中:
2.2 SVM分类器
SVM分类器具有全局最优、简洁和灵活的特性,已经被广泛应用于多种分类预测[18]和模式识别任务,取得了良好的效果[19]。不同于传统神经网络最小化经验风险, SVM的基础是最小化结构风险[20]。因此,SVM分类器和Softmax函数层最大的区别在于损失函数不同,SVM的损失函数可以表示为
式中:
3 改进的Softmax-SVM模型
3.1 Softmax-SVM分类器
在DCNN训练时,Softmax函数层对于分类正确的输入样本仍会耗费时间计算损失,且反向传播使得该样本的分类概率更接近于1,故容易造成过拟合。由于 SVM 分类器在一定范围内忽略了与真实值间的误差,因此对已经正确分类的样本不再进行修正,只须继续训练分类错误的样本。这里提出Softmax-SVM分类器,将DCNN作为特征提取器,提取FC1层特征用于训练SVM分类器,在节省计算时间的同时避免了过拟合。Softmax-SVM分类器流程如
第一步:输入的训练样本尺寸归一化为96 pixel×96 pixel,采用DCNN模型提取特征,由Softmax函数层结合交叉熵代价函数进行网络训练,设置训练集识别准确率的阈值;
第二步:当训练集的识别准确率达到阈值时DCNN停止训练;
第三步:提取网络中的全连接层FC1的特征向量,并接入到SVM分类器,结合hinge损失函数继续训练,生成最终的分类模型。
3.2 模型结构
基于DCNN的Softmax-SVM分类器模型结构如
4 实验数据与结果分析
结合卷积神经网络经典参数模型和多次实验结果,将深度卷积神经网络的初始学习率设置为0.01,动量因子设置为0.9,为避免过拟合,加入正则规范化因子L2,设置为0.0005。实验的笔记本内存4 GB,CPU运行在Interli5条件下,操作系统为Windows7,软件平台为Matlab2018a。
图 2. 基于DCNN的Softmax-SVM分类器模型结构图
Fig. 2. Structural diagram of Softmax-SVM classifier based on DCNN
4.1 实验数据集
为验证基于深度卷积神经网络的Softmax-SVM分类器的分类性能,采集了不同光照、不同噪声、不同背景等复杂环境下的共27种常见车型的正视图,采用随机剪裁、反转等一系列随机变换的方法增大样本数量。为适应卷积神经网络的输入尺寸,将图片的像素大小归一化为96×96,添加标签,采用ImageNet[21]数据集构建方法,建立了一个用于复杂背景下精细车型识别的标准数据库。该数据库包含奥迪、大众、别克等品牌,共2698张图片,尤其还包含了如启腾V60、EX80,景逸X3、X5,大众CC、新宝来,丰田凯美瑞、皇冠、RV4,BJ 20、战旗等同一汽车厂商的相近车型,以增加实验的可行性。随机选取每种车型样本的80%作为训练集(共2160张),20%作为测试集(共538张),27种车型部分样本如
4.2 结果与分析
训练传统DCNN模型达到阈值是训练基于DCNN的Softmax-SVM分类器的重要过程,因此,实验研究Softmax损失函数的选择。采用均方差代价函数、交叉熵代价函数、指数代价函数,分析DCNN模型中训练集和测试集的识别精度和损失随训练次数的变化,如
由
图 4. 采用不同损失函数的DCNN性能随训练变化的曲线。 (a)训练准确率;(b)测试准确率;(c)训练损失;(d)测试损失
Fig. 4. DCNN performance versus training under different loss functions. (a) Training accuracy; (b) test accuracy; (c) training loss; (d) test loss
表 1. 不同代价函数的DCNN训练350次时的识别准确率
Table 1. Recognition accuracies of DCNN training for 350 times under different loss functions
|
表 2. 不同代价函数的DCNN训练350次时的损失
Table 2. Losses of DCNN training for 350 times under different loss functions
|
此外,结合
为了验证在DCNN模型中引入Softmax-SVM分类器,能够在复杂环境背景的干扰下提高细粒度车型的识别效果,对分类器的识别精度和速度两个性能指标进行统计,实验同时对比了未改进的DCNN模型、HOG特征结合SVM、SURF特征结合词袋算法3种识别方法。
表 3. 不同分类器模型测试准确率
Table 3. Test accuracies of different classifier models
|
由
表 4. 不同分类器训练与识别全部测试样本的时间
Table 4. Time for training and recognition of all test samples by different classifiers
|
在速度方面,由
提取DCNN模型的不同层特征用于SVM训练,生成的Softmax-SVM分类器性能存在差异。
表 5. 提取DCNN不同层特征训练SVM的Softmax-SVM性能
Table 5. Softmax-SVM performance in extracting features of different layers of DCNN to train SVM
|
5 结论
复杂背景下,细粒度车型识别的环境干扰因素较多,为避免卷积神经网络的分类层Softmax在训练过程中发生过拟合现象,从车型识别的精度和耗时角度出发,提出了基于深度神经网络的Softmax-SVM分类器,先将深度神经网络作为共性特征提取器,通过Softmax函数层,训练达到识别准确率阈值后,提取FC1层数据用于训练SVM分类器。针对复杂环境背景下精细车型进行识别实验。基于DCNN模型的Softmax-SVM分类器识别269张测试样本,识别精度达到了97.78%,相比于传统模式识方法和改进前的DCNN模型分别提高了51.78%,10.19%,2.27%;耗时仅为0.759 s,只有未改进的DCNN模型的31%。因此,在复杂图像背景中,基于深度神经网络的Softmax-SVM模型特征提取能力强,识别精度高,运行速度快,优势明显,为类间差异小且环境、噪声、光照等因素干扰多的复杂背景下的细粒度车型识别提供了应用参考。
[1] 张军, 张婷, 杨正瓴, 等. 深度卷积神经网络的汽车车型识别方法[J]. 传感器与微系统, 2016, 35(11): 19-22.
[2] Zheng HL, Fu JL, MeiT, et al. Learning multi-attention convolutional neural network for fine-grained image recognition[C]∥2017 IEEE International Conference on Computer Vision (ICCV), October 22-29, Venice, Italy. New York: IEEE, 2017: 5219- 5227.
[3] YanY, NiB, YangX. Fine-grained recognition via attribute-guided attentive feature aggregation[C]∥The 25th ACM International Conference on Multimedia, October 23-27, 2017, California, USA. New York: ACM, 2017: 1032- 1040.
[4] HuangK, Zhang BL. Fine-grained vehicle recognition by deep convolutional neural network[C]∥2016 9th International Congress on Image and Signal Processing, Biomedical Engineering and Informatics, October 15-17, Datong, China. New York: IEEE, 2016: 465- 470.
[5] Khusnuliawati H, Fatichah C, Soelaiman R. Multi-feature fusion using SIFT and LEBP for finger vein recognition[J]. Telecommunication Computing Electronics and Control, 2017, 15(1): 478-485.
[7] 凌永国, 胡维平. 基于SURF特征与积分通道特征的车型识别[J]. 电视技术, 2016, 40(7): 139-143.
[10] 邹焱飚, 周卫林, 陈向志. 基于深度分层特征的激光视觉焊缝检测与跟踪系统研究[J]. 中国激光, 2017, 44(4): 0402009.
[11] 周云成, 许童羽, 郑伟, 等. 基于深度卷积神经网络的番茄主要器官分类识别方法[J]. 农业工程学报, 2017, 33(15): 219-226.
[12] Song J, Kim H I, Yong M. Fast and robust face detection based on CNN in wild environment[J]. Journal of Korea Multimedia Society, 2016, 19(8): 1310-1319.
[14] 曲磊, 王康如, 陈利利, 等. 基于RGBD图像和卷积神经网络的快速道路检测[J]. 光学学报, 2017, 37(10): 1010003.
[15] Cortes C, Vapnik V. Support-vector networks[J]. Machine Learning, 1995, 20(3): 273-297.
[18] 程力勇, 米高阳, 黎硕, 等. 基于主成分分析-支持向量机模型的激光钎焊接头质量诊断[J]. 中国激光, 2017, 44(3): 0302004.
[19] Huang FJ, LeCun Y. Large-scale learning with SVM and convolutional for generic object categorization[C]∥2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR'06), June 17-22, New York, USA. New York: IEEE, 2006: 284- 291.
[20] LapinM, HeinM, SchieleB. Loss functions for top-k error: analysis andinsights[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, Las Vegas, NV, USA. New York: IEEE, 2016: 1468- 1477.
Article Outline
张洁, 赵红东, 李宇海, 闫苗, 赵泽通. 复杂背景下车型识别分类器[J]. 激光与光电子学进展, 2019, 56(4): 041501. Jie Zhang, Hongdong Zhao, Yuhai Li, Miao Yan, Zetong Zhao. Classifier for Recognition of Fine-Grained Vehicle Models under Complex Background[J]. Laser & Optoelectronics Progress, 2019, 56(4): 041501.