激光与光电子学进展, 2021, 58 (16): 1610020, 网络出版: 2021-08-16  

一种基于注意力模型的无锚框交通标志识别算法 下载: 532次

Anchor-Free Traffic Sign Recognition Algorithm Based on Attention Model
作者单位
天津大学电气自动化与信息工程学院, 天津 300072
摘要
针对交通标志只在图像中占极小的区域且难以准确识别的问题,提出一种基于注意力模型的无锚框交通标志识别算法,利用密集连接网络DenseNet-121作为骨干网络并对特征进行提取。为了解决小型交通标志准确率低的问题,在骨干网络中加入注意力模型,可以对特征图进行空间和通道上的自适应调整,通过加强或抑制特征图中元素的权重可以提升对小型交通标志的识别性能。为了减小编码路径与解码路径间的语义鸿沟,引入残差网络的连接方式并提出一种语义连接路径。为了解决锚框中正负样本不均衡的问题,采用无锚框的检测方式可以定位交通标志的中心点、回归边界框的位置与尺寸信息。对所提算法在TT100K数据集上进行验证,实验结果证明所提算法具有优越性。
Abstract
Aiming at the problem that traffic signs only occupy a very small area in the image and are difficult to accurately identify, an anchorless frame traffic sign recognition algorithm based on the attention model is proposed. The densely connected network DenseNet-121 is used as the backbone network and features are extracted. In order to solve the problem of low accuracy of small traffic signs, an attention model is added to the backbone network to make adaptive adjustments to the space and channel of the feature map. The recognition performance of small traffic signs can be improved by strengthening or suppressing the weight of elements in the feature map. In order to reduce the semantic gap between the encoding path and the decoding path, the residual network connection method is introduced and a semantic connection path is proposed. In order to solve the problem of the imbalance of positive and negative samples in the anchor frame, the detection method without anchor frame can locate the center point of the traffic sign to regression the position and size information of the boundary box. The proposed algorithm is verified on the TT100K dataset, and the experimental results prove the superiority of the proposed algorithm.

1 引言

根据世界卫生组织统计,全球每年有超过一百万人因交通事故死亡,而且该事故已经成为青少年以及儿童的首要死亡原因之一。为了减少交通事故的发生,各国家的科研院校和高科技企业都投入了大量的资金来研发先进驾驶辅助系统,而交通标志的识别是驾驶辅助系统中非常重要的一项研究内容。

传统的交通标志识别算法利用交通标志特殊的形状和颜色对其进行分类[1]。Madani等[2]提出了一种基于监督距离分类器的颜色分割算法,使用6种随机值代表HSV(Hue, Saturation, Value)颜色空间[3]中的主要颜色并进行训练,该算法能够在不同的天气条件下对6个颜色区域中的标志进行分割。随着深度学习的发展,Faster R-CNN(Faster Region-Convolutional Neural Network)[4]和YOLO(You Only Look Once)[5]等各种卷积神经网络模型均被应用在交通标志识别的领域,而且取得了出色的效果。此外,许多学者都对经典的卷积神经网络进行了改进,并应用在交通标志识别的领域。张毅等[6]提出了一种基于改进Faster R-CNN的交通标志识别算法,通过拟合交通标志特征来设计锚框以获取更好的推荐区域,从而进一步降低误检率与漏检率。童英等[7]对YOLOv2网络模型进行了改进,并使用标准的边界框宽度和高度来计算损失函数。常用的目标检测算法都将锚框作为先验框,一些学者对锚框的生成方式进行了改进并提出了无锚框的方法。CenterNet模型[8]将目标建模为其边界框的中心点,检测目标的过程中利用关键点估计来找到中心点,再回归出其余目标的属性,例如边界框的大小、3D位置、方向甚至姿势等。虽然这些方法在复杂的现实场景中均能准确识别近距离的交通标志,但对于远距离和小尺寸的交通标志,识别率仍旧较低,如何准确识别小型目标仍然是交通标志识别领域的一大难点。

本文提出一种基于注意力模型的无锚框交通标志识别网络,利用密集连接网络(DenseNet-121)[9]作为骨干网络并用来对特征进行提取,特征的重复利用可缓解梯度消失的现象,有效加强了特征传播。网络整体采用编码器-解码器的结构,在编码路径中加入注意力模型可对提取到的特征图进行空间和通道上的自适应调整,用来获取有益于交通标志分类的信息。本文提出一种语义连接路径,可以将编码路径的浅层语义信息与解码路径的深层语义信息进行融合。网络采用无锚框的检测方式,通过定位交通标志的中心点来回归边界框的位置与尺寸信息,有效解决锚框所带来的正负样本不均衡问题。

2 算法原理

2.1 卷积神经网络结构

基于注意力模型的无锚框卷积神经网络(AAFCNN)模型的结构如图1所示,该模型采用编码器-解码器的结构,整个网络大致分为编码路径与解码路径,其中⊕为特征图对应元素相加。编码路径采用密集连接网络(DenseNet-121)作为骨干网络,可以使其充分提取图像中的浅层语义信息;解码路径由残差连接模块与上采样层组成,将编码器网络输出的低分辨率特征图映射回输入图像的尺寸,从而逐步修复图像的细节信息。在编码路径的密集连接模块之间加入注意力模型,能够有效提取对交通标志分类有益的信息。编码路径与解码路径之间存在三条语义连接路径,编码路径提取到的浅层语义特征会经过语义连接路径并与解码路径的深层语义特征进行融合,能够帮助解码器修复交通标志的轮廓信息。

图 1. AAFCNN模型的结构

Fig. 1. Structure of AAFCNN model

下载图片 查看所有图片

受到CenterNet模型的启发,AAFCNN模型采用中心点预测的方式来识别交通标志。输入的街景图像经过编码器-解码器结构中的全卷积网络后,得到包含交通标志语义信息的热力图。使用网络模型对热力图进行3×3卷积与1×1卷积操作后,得到关键点热力图、中心点偏移量与目标尺寸。其中关键点热力图的峰值点就是交通标志的中心点,检测与识别交通标志的过程就是提取峰值点的过程。首先针对每个类别分别提取关键点热力图中的峰值,然后检测出所有大于或等于其相邻8个响应点的峰值点并保留前100个点。令 Ŝk表示k个类别交通标志中所检测到的n个中心点 Ŝ= (x̂j,ŷj)j=1n的集合,其中( x̂j, ŷj)为检测到第j个中心点的坐标,得到的交通标志边界框坐标为

(x̂j+x̂j-ŵj/2,ŷj+ŷj-ĥj/2,x̂j+x̂j+ŵj/2,ŷj+ŷj+ĥj/2),(1)

式中:(∂ x̂j,∂ ŷj)= Ô(x̂j,ŷj)为中心点偏移量;( ŵj, ĥj)= Ŝ(x̂j,ŷj)为交通标志尺寸的预测值。

2.2 语义连接路径

对于一些经典的编码器-解码器结构,如U-Net[10]和V-Net[11]等均会在编码路径的池化层和解码路径的反卷积层之间加入跳跃连接路径。因此,编码路径中提取到的多尺度特征便可以传播到解码路径,编码路径中经过池化操作后丢失的空间信息得到了恢复。虽然保留了编码路径中损失的空间特征,但跳跃连接路径仍然存在缺陷。编码路径的特征是在浅层网络中所提取到的低层次语义特征,而解码路径中的特征是深层神经网络所提取到的高层次语义特征,二者之间存在语义鸿沟[12]。将这两组不兼容的特征直接进行融合,这会影响神经网络的学习,而且会对交通标志的识别产生不利影响。

为了减小编码路径与解码路径之间的语义鸿沟,可以在跳跃连接路径中加入一些卷积层,用来对编码路径传播过来的特征进行更多处理。此外,随着卷积神经网络的加深,编码路径中的特征图与解码路径中的特征图之间的语义鸿沟逐渐减小。由于语义鸿沟的大小与卷积层的数量呈正相关,所以每个跳跃连接路径中加入的卷积层数量也应该不同。综上,提出语义连接支路,结构如图2所示。利用卷积核尺寸为1×1与3×3的卷积层加深编码路径传入特征的语义层次,同时引入残差连接可以使神经网络更易于学习[13]

图 2. 语义连接路径的结构

Fig. 2. Structure of semantic connection path

下载图片 查看所有图片

2.3 注意力模型

注意力机制是一种模拟人类大脑处理视觉任务的机制,其可以引导神经网络关注交通标志区域,排除交通场景中其他背景特征的干扰。受到文献[ 14]的启发,在解码路径中加入注意力模型,该注意力模型由通道注意力模块与空间注意力模块构成。

通道注意力模块利用不同特征通道间的关系来生成通道注意图,使其更关注输入特征图中不同通道信息的重要性。通道注意力模块的结构如图3(a)所示,其中FC表示全连接。首先对输入的特征图Y∈ℝK×W×H进行全局最大池化和全局平均池化等操作,然后对特征图中的元素进行相加,可以扩张得到包含输入特征图各个通道权重信息的通道注意力图YCA∈ℝK×W×H,其中K为注意力图的通道数,W和H分别为注意力图的宽和高。特征图的不同通道对交通标志识别任务所做的贡献不同,将输入特征图与通道注意力图的对应元素相乘,可以根据通道的重要程度来对特征图进行自适应调整。

图 3. 不同的注意力模块。(a)通道注意力模块;(b)空间注意力模块

Fig. 3. Different attention modules. (a) Channel attention module; (b) spatial attention module

下载图片 查看所有图片

空间注意力模块利用特征之间的空间关系来生成空间注意图,使其更关注输入特征图中不同位置信息的重要性。空间注意力模块的结构如图3(b)所示,其中©为特征图拼接操作,BN表示批量归一化。首先对输入特征图Y'∈ℝK×W×H基于通道维度进行全局最大池化与全局平均池化操作后进行通道拼接,然后经过7×7的卷积处理,可以扩张得到包含特征图不同坐标权重信息的空间注意力图YSA∈ℝK×W×H。将输入特征图与空间注意力图的对应元素相乘可以增强图像中交通标志区域的权重,降低背景区域的权重,从而提高交通标志的识别率。

集成的注意力模型如图4所示。输入的特征图Y经过通道注意力模块后生成通道注意力图,将其与原始特征图进行元素相乘以得到Y',接着经过空间注意力模块后生成空间注意力图,将其与Y'进行元素相乘以得到最终改善的特征Yout,具体可表示为

Yout=YYCAYSA,(2)

式中: 为对应元素相乘符号。

图 4. 注意力模型的结构

Fig. 4. Structure of attention model

下载图片 查看所有图片

2.4 无锚框预测方式

目标检测算法中通常使用滑动窗口的方式来产生大量的锚框,然后以锚框作为先验框生成候选区域,但锚框中负样本的数量远大于正样本,这为模型的训练带来困难。为了避免此类问题,实验采用无锚框的方法对标志进行识别,首先确定交通标志的中心点与类别信息,再回归出中心点的偏移量与边界框的尺寸。

采用基于编码器-解码器结构的全卷积网络处理输入的街景图像,目的是获得C通道的关键点热力图,其中C表示关键点热力图的种类,即数据集中的45类交通标志。对于真值图中的每个关键点,一个低分辨率的等效点可表示为

p̃=pR,(3)

式中:R为输出的跨度,实验中R值为4;p为原始真值图中的关键点; p̃为低分辨率的等效关键点;[·]为映射符号。

使用σp表示目标自适应尺寸的标准差,卷积神经网络在训练过程中利用高斯核公式将真值图中的所有关键点映射到热力图中,表达式为

Yxy,C=exp-(x-p̃x)2+(y-p̃y)22σp2,(4)

式中:(x,y)表示热力图中对应点的平面坐标。交通标志中心点预测的损失函数Lk可表示为

Lk=1Nxy,C(1-Ŷxy,C)αln(Ŷxy,C),ifYxy,C=1(1-Yxy,C)β(Ŷxy,C)αln(1-Ŷxy,C),otherwise,(5)

式中:αβ为损失函数的超参数;N为街景图像中关键点的数量; Ŷxy,C值为1,表示检测的点为交通标志关键点, Ŷxy,C值为0,表示检测的点为街景图像的背景点。

网络中的编码器-解码器会对输入的图像进行多次池化操作,但在重新映射回原图像后会产生位置偏差,因此使用位置偏差损失函数Loff来补偿交通标志中心点的位置偏差,表达式为

Loff=1NpÔp˙-pR-p̃,(6)

式中: pR- p̃为交通标志中心点的位置偏差; Ôp̃为交通标志中心点位置偏差的预测值。

使用( x1(k), y1(k), x2(k), y2(k))表示待测交通标志的边界框,则交通标志中心点pk的坐标为 x2(k)-x1(k)2,y2(k)-y1(k)2,交通标志的尺寸sk为( x2(k)- x1(k), y2(k)- y1(k)),其中k为第k个关键点。使用 Ŝ表示交通标志尺寸的预测值,使用尺寸损失函数Lsize来预测交通标志的尺寸,表达式为

Lsize=1Nk=1NŜpk-sk(7)

综上,网络的整体损失函数由中心点预测损失Lk、位置偏差损失Loff和尺寸损失Lsize构成,表达式为

L=Lk+λsLsize+λoLoff,(8)

式中:λsλo分别为控制位置偏差损失Loff和尺寸损失Lsize的超参数,实验中λsλo分别设为0.1和1.0。

3 实验结果与分析

3.1 交通标志识别的数据集

TT100K数据集[15]是非常具有挑战性的交通标志数据集之一,共包含1×105张从腾讯街景全景图中收集的图像,图像涵盖各种天气条件和光照变化。数据集中街景图像的分辨率为2048 pixel×2048 pixel,分辨率比其他数据集更大,并且涵盖的交通标志种类更多,尺寸更小。在[0,32]像素之间的交通标志约占总数的42%,这些小型交通标志所占面积不到街景图像面积的1/4000。在[32,96]像素之间的交通标志约占总数的49%,而在[96,400]像素之间的大型交通标志仅占总数的9%,图5为TT100K数据集中交通标志的尺寸分布。

图 5. TT100K数据集中交通标志的尺寸分布

Fig. 5. Size distribution of traffic signs in TT100K dataset

下载图片 查看所有图片

由于TT100K数据集中不同类别的交通标志数量不均匀,一些罕见的交通标志数量稀少,为此实验忽略了在数据集中出现频次小于100的类别,对剩余的45类交通标志进行训练。为了平衡样本并确保每个类别至少包含1000张样本,实验对数据集中数量少于1000的类别进行重采样操作。为了证明所提算法的鲁棒性,将数据集中的交通标志按照像素范围分为小型(像素区间为(0,32],S)、中型(像素区间为(32,96],M)与大型(像素区间为(96,400],L)三种尺度并进行指标评测。

3.2 实验设置

神经网络是使用深度学习框架PyTorch搭建的并在Ubuntu 16.04的环境中进行训练,实验中使用的显卡型号为英伟达GTX1080Ti。网络的输入是经过裁剪与数据增强后的街景图像,分辨率为512 pixel×512 pixel。实验选择的优化算法为随机梯度下降(SGD)算法,网络的初始学习率设为0.00125,批量处理的数据规模为8,共进行120轮迭代训练,分别在第50轮、80轮和110轮学习率降低90%。

3.3 实验结果分析

3.3.1 交通标志识别性能评价

在交通标志数据集TT100K中进行对比实验,将所提模型的实验结果与TT100K数据集的提出者Zhu等[15]使用的网络模型、三个经典的目标检测网络Faster R-CNN[4]、FPN(Feature Pyramid Networks)[16]和RetinaNet[17]以及两个无锚框的目标检测网络FCOS(Fully Convolutional One-Stage Object Detection)[18]和CenterNet[8]进行比较,各对比实验中均对TT100K数据集进行相同处理,实验结果如表1所示。从表1可以看到,Faster R-CNN对小型交通标志的识别性能最差,只有72.0%的召回率与76.1%的精确率;FPN与RetinaNet均在网络中加入特征金字塔结构,利用图像的多尺度信息识别小型交通标志可以获得一定的提升,但仍存在较大的改进空间;两种无锚框的目标检测网络FCOS与CenterNet能够解决锚框所带来的正负样本不均衡问题,而且均取得了较好的效果,说明研究无锚框的交通标志识别算法是有意义的;AAFCNN模型采用编码器-解码器结构可以充分利用街景图像的多种尺度信息,对各种尺寸的交通标志均具有出色的识别效果;与CenterNet模型相比,所提的AAFCNN模型识别小型交通标志的精确率提高了1.1个百分点,对中型交通标志与大型交通标志的精确率分别提高了0.6个百分点与1.9个百分点,并且网络的参数量仅为CenterNet的25.1%。此外,引入F1分数来全面评估网络模型的识别性能,其中AAFCNN模型在三种尺度下均取得了最高的得分,并在小型交通标志的情况下获得了90.9%的得分,取得了比其他目标检测网络更出色的效果,这充分说明了所提模型的优越性。

表 1. 不同交通标志识别方法的性能对比

Table 1. Performance comparison of different traffic sign recognition methods

MethodBackboneParams /106IndexS /%M /%L /%
Faster R-CNNResNet-10152.2Recall72.091.391.5
Precision76.187.586.1
F1-score74.089.488.7
Faster R-CNN +FPNResNet-10160.1Recall86.695.595.1
Precision85.092.992.3
F1-score85.894.293.7
Ref. [15]81.2Recall87.493.687.7
Precision81.790.890.6
F1-score84.592.089.1
RetinaNetResNeXt-10194.7Recall87.495.193.1
Precision84.395.994.2
F1-score85.895.593.6
FCOSResNeXt-10189.7Recall88.795.692.4
Precision85.696.493.5
F1-score86.896.093.0
CenterNetHourglassNet191.3Recall89.796.092.4
Precision90.196.794.9
F1-score89.996.393.6
AAFCNNDenseNet-12148.1Recall90.695.693.1
Precision91.297.396.8
F1-score90.996.494.9

查看所有表

图6为7种识别方法的准确率-召回率曲线,根据交通标志的尺度信息分为三幅图。从图6可以看到,对于(32,96]的像素区间,所提模型的性能与FCOS模型和CenterNet模型相当,显著优于Faster R-CNN与文献[ 15]模型;对于(0,32]与(96,400]的像素区间,所提模型的性能均优于其余方法。图7为TT100K测试集中部分图像的可视化识别结果,为了便于观察,将图中的交通标志使用矩形框标出并在图像的右下角放大。第一行图像为交通标志离散分布下的识别结果,第二行图像为交通标志聚集下的识别结果。从图7可以看到,在复杂的交通场景下,无论是近距离的交通标志还是远距离的交通标志,所提的AAFCNN模型均能准确地定位与识别交通标志。

图 6. 三种尺度交通标志的准确率-召回率曲线。(a)(0,32]的像素区间;(b)(32,96]的像素区间;(c)(96,400]的像素区间

Fig. 6. Accuracy-recall curves of traffic signs at three scales. (a) Pixel interval of (0,32); (b) pixel interval of (32,96]; (c) pixel interval of (96,400]

下载图片 查看所有图片

图 7. AAFCNN模型的部分可视化识别结果

Fig. 7. Part of visual recognition results of AAFCNN model

下载图片 查看所有图片

3.3.2 模块有效化验证

为了探究解码路径中密集连接网络的深度对网络整体性能的影响,在TT100K数据集中分别利用DenseNet-121、DenseNet-161、DenseNet-169和DenseNet-201 4种骨干网络对特征进行提取,实验结果如表2所示。为了更直观地给出识别效果,实验使用AP(Average Precision)来衡量性能[19]。从表2可以看到,编码路径中利用DenseNet-121对特征进行提取,网络的实验性能最佳,但该网络会过多地加深编码路径,而且不会提升网络性能。加深编码路径中的特征提取网络会降低识别小型交通标志的精确率,并且引入大量的无用参数。

表 2. 密集连接网络的深度对识别性能的影响

Table 2. Effect of depth of densely connected network on recognition performance

BackboneParams /106AP /%
SML
DenseNet-12148.163.480.186.1
DenseNet-16965.462.579.986.1
DenseNet-201101.461.779.785.7
DenseNet-264154.861.980.085.0

查看所有表

在网络的编码路径与解码路径中均加入注意力模型,用来研究注意力模型的位置对网络识别性能的影响,结果如表3所示。从表3可以看到,在编码路径中加入注意力模型可以使网络的识别性能最优,对于小型交通标志的识别,比解码路径中加入注意力模型的识别率高出1.3个百分点;同时在解码路径与编码路径中加入注意力模型后,网络的识别性能不会得到更多的增益,解码路径中的注意力模型会抑制编码路径注意力模型的性能。在网络提取特征的过程中加入注意力引导,可以提取出更多有益于交通标志定位与分类的语义特征,因此注意力模型加在网络的编码路径中会使识别结果更理想。

表 3. 注意力模型的位置对识别性能的影响

Table 3. Effect of location of attention model on recognition performance

LocationParams /106AP /%
SML
In coding path48.163.480.186.1
In decoding path47.862.180.085.8
Both coding path and decoding path48.262.680.085.1

查看所有表

为了验证注意力模型与语义连接路径的有效性,对模型进行了消融实验,实验结果如表4所示,其中base代表采用跳跃连接方式并且移除注意力模块的基准模型,AM表示注意力模型,SCP表示语义连接路径。从表4可以看到,加入语义连接路径后,由于需要对密集连接网络输入的特征图进行多次卷积运算,所以网络的参数量显著增加,但网络的识别性能得到明显提升,AP值分别提高1.1、0.3与1.3个百分点;在网络中加入注意力模型后,虽然在一定程度上降低网络对大型交通标志的识别性能,但显著提升网络对小型交通标志的识别率;对于小型交通标志,加入注意力模型与语义连接路径后,所提模型的AP值比基准模型提升了2.6个百分点,充分说明了增加的模块对小型交通标志识别的有效性。

表 4. 各模块的性能对比

Table 4. Performance comparison of each module

ModelParams /106AP /%
SML
Base14.160.879.785.9
Base+AM14.261.779.885.1
Base+SCP47.861.980.087.2
Base+AM+SCP48.163.480.186.1

查看所有表

4 结论

本文提出一种基于注意力模型的无锚框交通标志识别网络,其由编码路径与解码路径两部分构成。编码路径采用密集连接网络DenseNet-121作为骨干网络并进行特征提取,可以获取交通标志的轮廓信息;解码路径通过上采样层逐步修复交通标志的细节信息。为了减小编码路径与解码路径之间的语义鸿沟,本文设计一种语义连接路径。实验结果表明,加入语义连接路径后,神经网络对小型、中型与大型交通标志的精确率分别提高1.1、0.3与1.3个百分点。为了提升对小型交通标志的识别效果,本文在编码路径中加入注意力模型,可以抑制特征图中背景元素的权重,能够使网络关注交通标志区域。通过采用交通标志中心点的检测方式,本文成功解决正负样本的不均衡问题。与目前领先的几种目标检测网络相比,所提的AAFCNN模型在TT100K数据集中获得了更出色的识别效果。

参考文献

[1] 屈治华, 邵毅明, 邓天民, 等. 复杂光照条件下的交通标志检测与识别[J]. 激光与光电子学进展, 2019, 56(23): 231009.

    Qu Z H, Shao Y M, Deng T M, et al. Traffic sign detection and recognition under complicated lighting conditions[J]. Laser & Optoelectronics Progress, 2019, 56(23): 231009.

[2] MadaniA, YusofR, MalihaA. Traffic sign segmentation using supervised distance based classifiers[C] //2015 10th Asian Control Conference (ASCC), May 31-June 3, 2015, Kota Kinabalu, Malaysia.New York: IEEE Press, 2015: 15436782.

[3] Wang YQ, Liu LM, ZhaoY. Traffic sign detection based on fixed color combination and intensity restraint[C] //2009 International Symposium on Computer Network and Multimedia Technology, January 18-20, 2009, Wuhan, China.New York: IEEE Press, 2009: 11069873.

[4] Ren S Q, He K M, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[5] RedmonJ, DivvalaS, GirshickR, et al.You only look once: unified, real-time object detection[C] //2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. New York: IEEE Press, 2016: 779- 788.

[6] 张毅, 龚致远, 韦文闻. 基于改进Faster R-CNN模型的交通标志检测[J]. 激光与光电子学进展, 2020, 57(18): 181015.

    Zhang Y, Gong Z Y, Wei W W. Traffic sign detection based on improved Faster R-CNN model[J]. Laser & Optoelectronics Progress, 2020, 57(18): 181015.

[7] 童英, 杨会成. 基于改进神经网络的交通标志识别[J]. 激光与光电子学进展, 2019, 56(19): 191002.

    Tong Y, Yang H C. Traffic sign recognition based on improved neural networks[J]. Laser & Optoelectronics Progress, 2019, 56(19): 191002.

[8] ZhouX, WangD, KrahenbuhlP, et al. Objects as points[EB/OL]. (2019-04-16)[2020-08-17]. https://arxiv.org/abs/1904.07850v1.

[9] HuangG, LiuZ, van der MaatenL, et al. Densely connected convolutional networks[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 2261- 2269.

[10] RonnebergerO, FischerP, BroxT. U-net: convolutional networks for biomedical image segmentation[M] //Navab N, Hornegger J, Wells W, et al. Medical image computing and computer-assisted intervention-MICCAI 2015. Lecture notes in computer science. Cham: Springer, 2015, 9351: 234- 241.

[11] MilletariF, NavabN, Ahmadi SA. V-Net: fully convolutional neural networks for volumetric medical image segmentation//2016 Fourth International Conference on 3D Vision (3DV), October 25-28, 2016, Stanford, CA, USA. New York: IEEE Press, 2016: 565- 571.

[12] Ibtehaz N, Rahman M S. MultiResUNet: rethinking the U-Net architecture for multimodal biomedical image segmentation[J]. Neural Networks, 2020, 121: 74-87.

[13] SzegedyC, IoffeS, VanhouckeV, et al. Inception-v4,inception-ResNet and the impact of residual connections on learning[EB/OL]. [2020-08-17]. https://www.researchgate.net/publication/301874967_Inception-v4_Inception-ResNet_and_the_Impact_of_Residual_Connections_on_Learning.

[14] WooS, ParkJ, Lee JY, et al. CBAM: convolutional block attention module[M] //Ferrari V, Hebert M, Sminchisescu C, et al. Computer vision-ECCV 2018. Lecture notes in computer science. Cham: Springer, 2018, 11211: 3- 19.

[15] ZhuZ, LiangD, Zhang SH, et al.Traffic-sign detection and classification in the wild[C] //2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA.New York: IEEE Press, 2016: 2110- 2118.

[16] Lin TY, DollárP, GirshickR, et al.Feature pyramid networks for object detection[C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA.New York: IEEE Press, 2017: 936- 944.

[17] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327.

[18] TianZ, Shen CH, ChenH, et al. FCOS: fully convolutional one-stage object detection[C] //2019 IEEE/CVF International Conference on Computer Vision (ICCV), October 27-November 2, 2019, Seoul, Korea. New York: IEEE, 2019: 9626- 9635.

[19] Lin TY, MaireM, BelongieS, et al. Microsoft COCO: common objects in context[M] //Fleet D, Pajdla T, Schiele B, et al. Computer vision-ECCV 2014. Lecture notes in computer science. Cham: Springer, 2014, 8693: 740- 755.

褚晶辉, 黄浩, 吕卫. 一种基于注意力模型的无锚框交通标志识别算法[J]. 激光与光电子学进展, 2021, 58(16): 1610020. Jinghui Chu, Hao Huang, Wei Lü. Anchor-Free Traffic Sign Recognition Algorithm Based on Attention Model[J]. Laser & Optoelectronics Progress, 2021, 58(16): 1610020.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!