激光与光电子学进展, 2019, 56 (23): 231009, 网络出版: 2019-11-27   

复杂光照条件下的交通标志检测与识别 下载: 1017次

Traffic Sign Detection and Recognition Under Complicated Lighting Conditions
作者单位
重庆交通大学交通运输学院, 重庆 400074
摘要
针对现有主流检测算法在低光照或光照条件强烈变化情况下对交通标志检测精度不足、漏检现象严重的问题,提出一种改进后的基于图像关键点统计变换(MCT)特征的Adaboost集成算法,以降低样本图像对光照变化的敏感性,通过对图像关键点进行提取并建立弱分类器,增强噪声和部分遮挡情况下算法的抗干扰能力,同时采用多尺度特征融合算法实现交通标志的分类识别。选用德国交通标志数据集(GTSDB、GTSRB)和自建数据集对所提算法性能进行验证,结果表明,在三类数据集中本文算法均具有最佳检测率与识别率,对于低光照条件下的交通标志图像,本文算法的检测精确率为94.96%,在复杂光照环境下具有较好的稳健性。
Abstract
Herein, we investigate solutions to address various problems, including the low detection precision and leak detection of the traffic signs, associated with the major detection algorithms under conditions of low illumination or intense variation of lighting. We propose an improved integrated Adaboost algorithm based on multicomponent transformation of the characteristics of key points of image to reduce the sensitivity of a sample image to illumination variation. The proposed algorithm extracts the key points of image and builds a weak classifier to reinforce the anti-disturbance ability of the algorithm under conditions of noise and partial obscurity. Meanwhile, the multi-scale feature fusion algorithm is used to classify and recognize the traffic signs. Furthermore, the German traffic sign datasets (the GTSDB and GTSRB datasets, respectively) and the self-built dataset are used to verify the performance of the proposed algorithm. The results denote that the proposed algorithm exhibits the highest detection and recognition rates when compared to other existing algorithms based on these three datasets. For the images of traffic signs under low illumination, the detection accuracy of proposed algorithm is 94.96%, indicating good robustness in complicated lighting environments.

1 引言

随着智能驾驶技术的发展,驾驶辅助系统受到了越来越多学者的广泛关注,其中交通标志的准确检测与识别对智能车的行车导航和驾驶决策提供了有效信息,对提高车辆的行驶安全,保障道路交通顺畅起到了至关重要的作用[1-3]。因此对交通标志检测和识别方法的研究具有重要的意义。

交通标志的检测识别系统一般分为两部分,首先需要对图像空间中交通标志的候选区域进行准确提取,之后对检测到的交通标志进行识别和分类[4]。然而,受自然场景中不同天气、光照强度等因素的影响,交通标志的准确检测面临巨大挑战。目前,交通标志的检测主要分为基于颜色或形状信息的检测和基于深度学习的检测[5]。基于颜色的检测主要包括RGB空间和HSV空间下的交通标志检测,通过分割特定的颜色创建显著性映射,可快速高效地对候选区域进行检测,但极易受到光照影响,无法满足恶劣天气条件下的检测需求[6]。而基于形状的检测利用交通标志在形状上的特殊性对其边缘进行检测,但当交通标志发生运动模糊或遮挡等情况时,算法精度会下降。随着深度学习的快速发展,基于神经网络的图像检测与识别算法逐渐受到学者们的广泛关注[7]。Cireşan等[8]使用深度网络对交通标志进行检测识别,取得了较好的效果,但由于使用梯度下降法,训练过程中需不断对所有参数进行调整,训练时间过长,实用性较差。徐岩等[9]通过将极限学习机和主成分分析法相结合实现了目标准确分类,但该算法对噪声等干扰因素的稳健性较差,且对夜间等低亮度目标检测时性能不足。Froba等[10]提出基于统计变换的Adaboost人脸检测算法,通过对每个像素点构建弱分类器进行集成训练,可对图像相似区域进行有效分割,但由于需要对所有像素进行训练,因此,随着输入图像分辨率的增大,算法训练时间急剧增加,无法对高清图像进行实时检测,且当输入图像的背景发生突变时,算法精度会降低。

本文提出一种改进后的基于图像关键点统计变换(MCT)特征的Adaboost交通标志检测算法。以真实驾驶场景为输入图像,通过提取图像MCT特征增加算法对光照变化的稳健性,实现不良光照下交通标志的精准检测。同时,提取图像关键点构建Adaboost集成分类器,在提高算法抗遮挡能力的前提下有效缩短算法训练时间,满足了检测实时性需求。最终通过多尺度神经网络对目标的整体和局部特征进行提取融合,实现了交通标志准确识别。

2 交通标志检测算法

2.1 基于光照不变性的MCT特征提取

对于不同光照条件下的图像样本,其像素点a处的亮度可表示为

B(a)=gC(a)R(a)+p,(1)

式中:B(a)为像素点a的亮度;C(a)和R(a)分别为光照强度和表面反射率;gp为相机参数。由此可以看出,像素点的亮度由光源的光照强度和物体反射率确定。若保证光照强度C(a)为某一定值,则像素点亮度与物体反射率关系可表示为

B'(a)=k1R(a)+p,(2)

式中:k1为偏差常量。此时像素点a的亮度只与物体的反射率相关,因此,可通过对输入图像像素归一化来减少复杂环境下不同光照强度的影响。本文以MCT作为图像像素点的特征描述符,MCT是一种无需参数调整的局部纹理描述算子,可对交通标志的候选区域进行检测,能够捕获图像的整体结构信息,且对光照和细节变换有较强的稳健性。

对于3×3的像素窗口,MCT将中心像素点的8个相邻像素与区域平均像素灰度值进行对比,若该像素灰度值大于平均灰度值,将其设置为比特1,反之设置为比特0;之后将任意相邻排序转换为二进制,建立图像局部块之间的一致性。不同于传统统计变换(CT)算法,MCT能将每个像素值与局部区域的像素平均值进行对比,并不会受整体图像的光照影响,同时由于只考虑局部区域内8个相邻像素间的差异及其平均值,因此可降低中心像素点a处噪声对图像特征的影响,对于低照度等复杂光照变化情况具有较强的稳健性。像素点a的MCT计算过程为

Γ(a)=f[Bavg(a)<B(y)],(y=1,2,,N),(3)

式中:Γ(a)为MCT特征表达;N为中心像素点a的相邻像素数量;Bavg(a)为N个像素的平均像素灰度值;当运算结果为真时,函数f(·)返回1,否则返回0;􀱋为对N个像素点转换结果进行排列。像素点MCT特征的计算示意图及部分样本计算效果如图1、2所示。

2.2 基于关键点Adaboost集成的交通标志检测

Adaboost集成算法通过对训练样本进行多次迭代学习,将每轮迭代生成的弱分类器分类结果与标注进行对比,再根据样本分类准确率进行样本分布更新,并将更新后的样本作为下一轮分类器的输入进行弱分类器再学习,依据弱分类器误差确定每个弱分类器的权重,最后通过加权组合生成高性能分类器[11]

不同于传统Adaboost算法对每个像素点建立分类器模型,本文利用基于图像关键点MCT特征的Adaboost检测算法,采用尺度不变特征变换(SIFT)[12]对图像关键点进行提取,并基于MCT特征对其建立弱分类器,再对图像候选区域进行检测,这样不仅保留了样本图像的轮廓特征,同时采用滑动窗口进行并行搜索运算,有效缩短训练时间,进一步提升了算法的检测效率,其具体的算法流程如图3所示。

图 1. MCT计算过程示意图

Fig. 1. Schematic of MCT calculation process

下载图片 查看所有图片

图 2. 部分样本效果。(a)原图像;(b)变换后图像

Fig. 2. Partial sample effects. (a) Original images; (b) transformed images

下载图片 查看所有图片

图 3. 本文算法整体流程图

Fig. 3. Overall flow chart of proposed algorithm

下载图片 查看所有图片

SIFT是一种高效、准确的关键点检测算法,因具有良好的旋转、光照不变性,被广泛应用于图像处理领域。

对于二维图像I(x,y),其尺度空间L(x,y,σ)可定义为

L(x,y,σ)=G(x,y,σ)*I(x,y),(4)

式中:G(x,y,σ)为尺度可变换的高斯卷积核,G(x,y,σ)= 12πσ2e-(x2+y2)/2σ2;σ为高斯卷积的标准差,其值越小代表空间图像越清晰;*为卷积运算符。

同时SIFT指出,对于某一尺度的关键点,可通过相邻尺度空间L作差构造高斯差分尺度空间响应值D(x,y,σ),进而对极值点的位置坐标和尺度空间进行粗略定位。

D(x,y,σ)=[G(x,y,)-G(x,y,σ)]*I(x,y)=L(x,y,)-L(x,y,σ),(5)

式中:k为经验常数,取k=2 1s,s∈{3,4,5}。通过对粗略定位关键点的三维二次函数进行拟合,进一步剔除对比度低的关键点和不稳定的边缘响应点,提高算法的抗干扰能力,其拟合函数为

D1(X)=D1DT1XX+12XT2D1X2X,(6)

式中:D1为高斯变换的Taylor展开式;X为关键点(m,n)的尺度变换,X=(m,n,σ)T

最终,通过对其求导使得D1=0,获得图像关键点的精确位置。

3 基于多尺度卷积神经网络的交通标志识别

基于检测到的交通标志候选区域,提出一种多尺度特征提取的卷积神经网络识别框架,通过对不同尺度交通标志进行卷积运算,将其整体和局部轮廓特征进行提取融合,提高算法识别精度和泛化能力,其网络结构如图4所示。

图 4. 多尺度卷积神经网络结构

Fig. 4. Structure of multi-scale convolutional neural network

下载图片 查看所有图片

首先,将检测到的候选区域缩放为16×16、32×32、64×64三种不同尺寸的图片以作为神经网络的输入,通过卷积运算对各候选区域内的样本特征进行提取,由于训练过程中不同尺寸样本的感受野占比不同,因此,通过对不同尺寸样本进行特征提取可更好地反映出样本的全局特征和局部特性,提高算法的识别精度。本文共设置三层卷积网络结构,其中,conv1和conv2均使用32个大小为5×5的卷积核,其深度和步长均为1,且使用ReLU激活函数,conv3包含64个大小为5×5的卷积核。通过最大池化层将各尺寸的特征进行合并,构成输入样本的特征向量。最终,选用softmax分类器对不同类别交通标志进行识别。

4 实验数据集

4.1 GTSDB数据集

德国交通标志检测数据集(GTSDB)[13]包含43类共900张真实车辆驾驶环境下的高清交通标志场景图像,分为训练样本600张(包含846个交通标志)及测试样本300张(包含360个交通标志)。其中含有大量低分辨率、不良光照、遮挡、运动模糊等不利条件下的交通标志样本,每幅图像分辨率为1360 pixel×800 pixel,交通标志尺寸为16 pixel×16 pixel~128 pixel×128 pixel,部分样本如图5所示。

图 5. GTSDB部分样本示意图

Fig. 5. Partial sample pictures in GTSDB dataset

下载图片 查看所有图片

4.2 自建数据集

为检验算法在不同光照条件下的检测性能及算法的泛化能力,本文采集重庆市不同天气(晴天、阴天、雨天等)、不同光照及遮挡模糊等条件下的车辆真实驾驶图像以构建交通标志数据集,由重庆白天(CQD)和重庆夜间(CQN)两个子集构成,包含23类共450幅车辆驾驶图像,并对其中的交通标志进行标注,每幅图像中分别包含0~5个交通标志,图像分辨率为1984 pixel×1488 pixel。部分样本如图6所示。

图 6. 自建数据集部分样本示意图

Fig. 6. Partial sample pictures in self-built dataset

下载图片 查看所有图片

5 实验结果及分析

本实验是在Linux-16.04环境中基于TensorFlow深度学习框架完成,硬件配置为Inter Core i7-8700K,8G内存,2T硬盘,GPU为NVIDIA GTX 1080Ti。

5.1 算法检测性能

为验证本文算法在复杂光照条件下对交通标志检测的有效性,在GTSDB数据集和自建数据集下,将本文算法与基于全像素点MCT特征的Adaboost集成算法(MCT-Adaboost)和在GTSDB数据集中检测性能排名较高的HOG+SVM算法[14]进行对比,统计结果如表1所示。

表1中,TP表示算法正检率,即被正确检测的目标个数;FN为假阳性,即负样本被误检为真个数;FP为假阴性,即正样本被漏检个数。本文算法在GTSDB数据集、CQD数据集和CQN数据集中均具有最佳的算法召回率,分别达到了98.61%、97.65%和93.16%。HOG+SVM算法虽然在GTSDB和CQD数据集中展现了较好的检测精度,其检测精确率为98.03%和96.76%,但在夜间或低光照时算法性能出现下降。本文算法通过对像素点MCT特征的提取,增强了其在复杂光照条件下的稳健性,在光照强度较低的CQN数据集上,其检测精确率和召回率仍可达到94.96%和93.16%,分别高于HOG+SVM算法8.77%和3.59%。此外,不同于MCT-Adaboost算法,本文选取图像关键点对目标候选区域进行检测,有效降低了算法复杂度,同时提高了算法的抗干扰能力,对于CQD数据集中存在部分遮挡和复杂光照的交通标志同样具有良好检测能力,其检测精确率为98.31%,均优于MCT-Adaboost,具有较强的抗噪声和抗干扰能力。本文算法在各数据集上的检测结果如图7所示。

表 1. 各算法检测性能

Table 1. Detection performance of each algorithm

DatasetAlgorithmTPFNFPPrecision /%Recall rate /%
Proposed algorithm3545698.3398.61
GTSDBMCT-Adaboost318384288.3389.33
HOG+SVM3495798.0398.58
Proposed algorithm583141098.3197.65
CQDMCT-Adaboost519718585.9387.97
HOG+SVM568381996.7693.73
Proposed algorithm245181394.9693.16
CQNMCT-Adaboost174354479.8283.25
HOG+SVM206243386.1989.57

查看所有表

图 7. 本文算法检测效果图。(a) GTSDB数据集检测结果;(b) CQD数据集检测结果;(c) CQN数据集检测结果

Fig. 7. Detection results of proposed algorithm. (a) Detection results of GTSDB dataset; (b) detection results of CQD dataset; (c) detection results of CQN dataset

下载图片 查看所有图片

图7(a)可以看出,在良好天气和光照条件下,本文算法无论是对近处较大的交通标志还是远处小目标均能够进行精确检测,且能有效分割与交通标志相似的背景区域,避免误检和漏检现象的发生。从图7(b)可看出,在阴天和降雨环境下,交通标志普遍存在图像模糊、光照不足等问题,本文算法能够较好地适应目标遮挡情况,在交通标志只有局部可见时仍能对其进行准确检测。图7(c)为夜间情况下本文算法对交通标志检测的效果,由于光照强度过低,且受信号灯、车灯等不良光照影响严重,基于传统特征的检测算法很难对其进行有效检测,本文通过对关键点处的MCT特征进行提取,有效提高算法光照不变性,减少漏检和误检现象的发生。

5.2 算法识别精度

为进一步验证本文基于多尺度特征融合的神经网络对不同光照条件下交通标志的识别性能,选取GTSRB交通标志数据集和自建数据集对本文算法识别性能进行验证。将自建数据集中交通标志进行截取,并通过翻转、平移、缩放等方式对其进行扩样,其中,白天数据集(CQD)共包含2000幅训练样本和800幅测试样本;夜间数据集(CQN)共包括1500幅训练样本和800幅测试样本。选取本文算法与Multi-scale CNN、Random forests和LDA on HOG算法进行对比,设置网络学习率为0.02,训练迭代次数为30000。识别准确率统计结果如表2所示。可看出,对于GTSRB数据集,本文算法和Multi-scale CNN均具有较高的识别精度,分别达到了98.94%和98.31%。但在复杂光照条件下,当样本图像发生运动模糊及遮挡情况时,算法性能差异较明显,本文算法通过对多尺度图像特征进行提取,融合图像整体特征和局部边缘特征以提高算法的抗干扰能力,具有更好的稳健性。

表 2. 各算法识别准确率

Table 2. Recognition accuracy of each algorithm%

DatasetAccuracy
Proposed algorithmMulti-scale CNN[15]Random forests[16]LDA on HOG[17]
GTSRB98.9498.3197.2095.68
CQD98.3797.8895.2493.07
CQN96.6191.7584.3767.33

查看所有表

5.3 算法耗时

时间效率是衡量算法可行性的重要指标,本文选取GTSDB数据集,将输入图像尺寸归一化至1080 pixel×720 pixel,基于相同测试环境对算法的检测效率进行对比分析,各算法时间成本统计结果如表3所示,其中时间成本由交通标志的检测和识别两部分构成。

表 3. 各算法运行的时间成本

Table 3. Running time cost of each algorithmms

AlgorithmTime cost
Proposed algorithm81
MCT-Adaboost394
HOG+SVM267
Faster-RCNN102

查看所有表

表3可以看出,本文算法利用图像关键点建立Adaboost集成网络,运算效率明显高于MCT-Adaboost和HOG+SVM等机器学习算法,其时间成本共计81 ms,输出帧率为12 frame/s,可满足算法实时性要求。相比于Faster-RCNN,本文算法通过对多尺度交通标志图像进行特征提取,获得了更加丰富的图像局部特征,在复杂背景条件下本文算法具有更好的稳定性。因此,无论是在算法精度还是时间成本上本文算法均优于其他检测识别算法。

6 结论

针对复杂光照条件下的高分辨率输入图像,提出一种基于图像关键点MCT特征的交通标志检测算法,在降低光照影响的前提下提升算法性能。同时,采用多尺度图像特征提取和融合实现交通标志准确识别。实验基于GTSDB数据集和自建数据集,对算法检测性能进行对比分析,结果表明,本文算法在两类数据集中均展现出最佳的检测精确率。针对光线昏暗的极端情况,本文算法召回率为93.16%,高于HOG+SVM算法3.59%,表明本文算法具有良好的光照不变性和抗干扰能力,可很好地适应复杂光照条件下的交通标志检测任务。同时,采用多尺度特征融合提升算法在复杂环境下对交通标志的识别能力。如何在确保检测和识别性能的前提下进一步提升算法性能,以实现智能车辆辅助系统的实际应用将会是下一步研究的主要内容。

参考文献

[1] 张新钰, 高洪波, 赵建辉, 等. 基于深度学习的自动驾驶技术综述[J]. 清华大学学报(自然科学版), 2018, 58(4): 438-444.

    Zhang X Y, Gao H B, Zhao J H, et al. Overview of deep learning intelligent driving methods[J]. Journal of Tsinghua University(Science and Technology), 2018, 58(4): 438-444.

[2] 刘华平, 李建民, 胡晓林, 等. 动态场景下的交通标识检测与识别研究进展[J]. 中国图象图形学报, 2013, 18(5): 493-503.

    Liu H P, Li J M, Hu X L, et al. Recent progress in detection and recognition of the traffic signs in dynamic scenes[J]. Journal of Image and Graphics, 2013, 18(5): 493-503.

[3] 张淑芳, 朱彤. 一种基于HDR技术的交通标志牌检测和识别方法[J]. 激光与光电子学进展, 2018, 55(9): 091006.

    Zhang S F, Zhu T. A method of traffic sign detection and recognition based on HDR technology[J]. Laser & Optoelectronics Progress, 2018, 55(9): 091006.

[4] Mogelmose A, Trivedi M M, Moeslund T B. Vision-based traffic sign detection and analysis for intelligent driver assistance systems: perspectives and survey[J]. IEEE Transactions on Intelligent Transportation Systems, 2012, 13(4): 1484-1497.

[5] 童英, 杨会成. 基于改进卷积神经网络的实时交通标志检测方法[J]. 激光与光电子学进展, 2019, 56(7): 071003.

    Tong Y, Yang H C. Real-time traffic sign detection method based on improved convolution neural network[J]. Laser & Optoelectronics Progress, 2019, 56(7): 071003.

[6] 李厚杰, 邱天爽, 宋海玉, 等. 基于曲率尺度空间角点检测的交通标志分离算法[J]. 光学学报, 2015, 35(1): 0115002.

    Li H J, Qiu T S, Song H Y, et al. Separation algorithm of traffic signs based on curvature scale space corner detection[J]. Acta Optica Sinica, 2015, 35(1): 0115002.

[7] 刘占文, 赵祥模, 李强, 等. 基于图模型与卷积神经网络的交通标志识别方法[J]. 交通运输工程学报, 2016, 16(5): 122-131.

    Liu Z W, Zhao X M, Li Q, et al. Traffic sign recognition method based on graphical model and convolutional neural network[J]. Journal of Traffic and Transportation Engineering, 2016, 16(5): 122-131.

[8] Cireşan D, Meier U, Masci J, et al. Multi-column deep neural network for traffic sign classification[J]. Neural Networks, 2012, 32: 333-338.

[9] 徐岩, 韦镇余. 一种改进的交通标志图像识别算法[J]. 激光与光电子学进展, 2017, 54(2): 021001.

    Xu Y, Wei Z Y. An improved traffic sign image recognition algorithm[J]. Laser & Optoelectronics Progress, 2017, 54(2): 021001.

[10] FrobaB, ErnstA. Face detection with the modified census transform[C]∥Sixth IEEE International Conference on Automatic Face and Gesture Recognition, 2004. Proceedings., May 19-19, 2004, Seoul, Korea. New York: IEEE, 2004: 8152121.

[11] 袁双, 吕赐兴. 基于PCA改进的快速Adaboost算法研究[J]. 科学技术与工程, 2015, 15(29): 62-66.

    Yuan S, Lü C X. Fast Adaboost algorithm based on improved PCA[J]. Science Technology and Engineering, 2015, 15(29): 62-66.

[12] Lowe DG. Object recognition from local scale-invariant features[C]∥Proceedings of the Seventh IEEE International Conference on Computer Vision, September 20-27, 1999, Kerkyra, Greece. New York: IEEE, 1999: 6365386.

[13] HoubenS, StallkampJ, SalmenJ, et al. Detection of traffic signs in real-world images: the German traffic sign detection benchmark[C]∥The 2013 International Joint Conference on Neural Networks (IJCNN), August 4-9, 2013, Dallas, TX, USA. New York: IEEE, 2013: 14027444.

[14] Ellahyani A, Ansari M E, Jaafari I E. Traffic sign detection and recognition based on random forests[J]. Applied Soft Computing, 2016, 46: 805-815.

[15] SermanetP, LeCun Y. Traffic sign recognition with multi-scale Convolutional Networks[C]∥The 2011 International Joint Conference on Neural Networks, July 31-August 5, 2011, San Jose, CA, USA. New York: IEEE, 2011: 2809- 2813.

[16] ZakloutaF, StanciulescuB, HamdounO. Traffic sign classification using K-d trees and Random Forests[C]∥The 2011 International Joint Conference on Neural Networks, July 31-August 5, 2011, San Jose, CA, USA. New York: IEEE, 2011: 2151- 2155.

[17] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

屈治华, 邵毅明, 邓天民, 朱杰, 宋晓华. 复杂光照条件下的交通标志检测与识别[J]. 激光与光电子学进展, 2019, 56(23): 231009. Zhihua Qu, Yiming Shao, Tianmin Deng, Jie Zhu, Xiaohua Song. Traffic Sign Detection and Recognition Under Complicated Lighting Conditions[J]. Laser & Optoelectronics Progress, 2019, 56(23): 231009.

本文已被 5 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!