激光与光电子学进展, 2020, 57 (20): 201508, 网络出版: 2020-10-13   

基于改进Frustum PointNet的3D目标检测 下载: 908次

3D Object Detection Based on Improved Frustum PointNet
刘训华 1,2,*孙韶媛 1,2顾立鹏 1,2李想 1,2
作者单位
1 东华大学信息科学与技术学院, 上海 201620
2 东华大学数字化纺织服装技术教育部工程研究中心, 上海 201620
摘要
提出对图像和激光雷达点云数据进行3D目标检测的改进F-PointNet(Frustum PointNet)。首先利用图像的2D目标检测模型提取目标2D区域,并将其映射到点云数据中,得到该目标的点云候选区域,然后预测候选区域的3D目标掩模,最后利用掩模对3D目标进行检测。当预测掩模时,提出的宽阈值掩模处理可以用来减少原始网络的信息损失;增加注意力机制可以获取需要被关注的点和通道层;使用Focal Loss可以解决目标与背景不平衡的问题。通过多次对比实验,证明宽阈值掩模处理可以提高3D目标检测的准确率,同时注意力机制和Focal Loss可以提高预测的准确率。
Abstract
An improved F-PointNet (Frustum PointNet) for 3D target detection on image and lidar point cloud data is proposed. First, the 2D target detection model of the image is used to extract 2D region of the target, and it is mapped to the point cloud data to obtain the candidate region of the target. Then, the 3D target mask of the candidate region is predicted. Finally, the 3D target is detected by using mask. When the mask is predicted, the proposed wide-threshold mask processing is used to reduce the information loss of the original network, the attention mechanism is added to obtain the points and channel layers that require attention, the Focal Loss can solve the imbalance between the target and the background problem. Through multiple comparison experiments, it is proved that wide-threshold mask processing can improve the accuracy of 3D target detection, and the attention mechanism and Focal Loss can improve the accuracy of prediction.

1 引言

随着自动驾驶技术的发展,3D目标检测变得越来越重要。3D目标检测是在自动驾驶环境中感知动态障碍物,如车辆、行人和自行车[1],实现难度大。基于图像的3D目标检测,其准确率较低,近年来In0.53Ga0.47As(InGaAs)单光子探测阵列的深入研究推动了激光雷达的发展[2],因此基于激光雷达以及基于图像与激光雷达融合的方案越来越多且准确率较高。融合的方案能够结合图像与激光雷达的优势,有效提高3D目标检测的准确率,但是如何融合才能减少较少的信息损失且同时剔除大量的冗余信息,这是提高3D目标检测效果的关键。

基于RGB(Red,Green,Blue)图像和激光点云融合数据的3D目标检测方法主要有多视图融合检测框架和PointNet融合检测框架[3]。Chen等[4]提出的MV3D(Multi-View 3D)检测网络是典型的多视图融合检测结构,使用激光点云数据的前视图和鸟瞰图来表示三维点云信息,并与RGB图像融合以预测定向3D边界框,但是该网络使用的是转换成视图的点云数据,不是原始点云数据,这会造成信息损失。Qi等[5]提出的F-PointNet(Frustum PointNet)是典型的PointNet融合检测结构,通过Mask R-CNN(Region Convolutional Neural Networks)[6]结合深度信息以得到视锥目标区域,然后使用PointNet++[7]对得到的视锥区域进行目标的3D边界框回归估计,该网络是在原始点云上进行特征提取的,但是边界框预测直接使用了掩模结果,这依旧会存在信息损失的问题。万鹏[8]在F-PointNet的基础上修改参数初始化的方式、增加正则化以及减少T-Net(Transform Network)卷积核数,有效提升了检测精度,但是并未解决原始网络信息损失的问题。

经过掩模预测后,发现大部分非目标点的预测概率接近0,剩余部分目标点的预测概率既有大于0.5,也有小于0.5。因此本文对F-PointNet中掩模预测部分的网络结构进行改进,使用宽阈值掩模处理放宽掩模判定的边界,解决原始网络在该处损失信息的问题。同时增加注意力机制[9]并提取全局特征以进一步增加目标信息,并且更换损失函数为适合目标点较少、背景点较多的Focal Loss[10],通过多个对比实验,证明改进的F-PointNet可以提高3D目标检测的效果。

2 基本原理

2.1 整体网络框架

原有F-PointNet的基础架构由锥形点云候选区域提取部分、3D目标掩模预测部分以及3D目标边界框预测部分组成,对3D目标掩模预测部分的网络结构进行改进,改进的F-PointNet如图1所示。从图1可以看到,在3D目标掩模预测部分加入宽阈值掩模处理、注意力机制以及全局特征,并且使用Focal Loss损失函数计算掩模损失。

图 1. 改进的F-PointNet结构

Fig. 1. Improved F-PointNet structure

下载图片 查看所有图片

2.2 锥形点云候选区域的提取

锥形点云候选区域提取部分的整体网络结构如图2所示,其中k为类别数目,n为点云数,c为特征通道数。从图2可以看到,提取部分先采用基于FPN(Feature Pyramid Networks)[11]的2D目标检测模型,以获取RGB图像中的2D目标边界框并对其进行分类。然后使用已知的相机投影矩阵校准2D图像与3D点云数据,配准结果如图3所示。接着采用视锥的形式将2D边界框映射到点云数据中对应的位置,再收集视锥候选区域中的所有点以形成视锥体点云,进而初步得到3D目标视锥候选区域,如图4所示。最后,将3D目标视锥候选区域从摄像机坐标系转换至视锥坐标系中表示,即将视锥朝向调整到中心视角,视锥体的中心轴正交于图像平面,从而得到最终的3D目标视锥候选区域,如图5所示。

图 2. 锥形点云候选区域提取的网络结构

Fig. 2. Network structure for extracting candidate regions of frustum point cloud

下载图片 查看所有图片

图 3. 2D图像与3D点云的配准结果。(a) RGB图像;(b)3D点云数据;(c)图(a)与图(b)的配准效果

Fig. 3. Registration results of 2D images and 3D point clouds. (a) RGB image; (b) 3D point cloud data; (c) registration effect of Fig. (a) and Fig. (b)

下载图片 查看所有图片

图 4. 初步获取的3D目标视锥候选区域

Fig. 4. 3D target frustum candidate region initially obtained

下载图片 查看所有图片

图 5. 视锥朝向调整示意图

Fig. 5. Schematic of viewing frustum orientation adjustment

下载图片 查看所有图片

2.3 3D目标掩模预测

3D目标掩模预测部分是将候选区域的点云数据(每个候选区域只包含一个感兴趣目标)输入到3D目标掩模预测网络中,以预测候选点云区域中每个点的概率得分,进而得到该候选区域的目标掩模预测结果,最后根据预测的掩模结果,在3D目标视锥候选区域点云中提取目标实例点云。3D目标掩模预测网络如图6所示,其中MLP为多层感知机。从图6可以看到,3D目标掩模预测网络主要由PointNet++构成。与原始网络不同,该网络是在此基础上使用宽阈值掩模处理,增加注意力机制且提取全局特征,并更换损失函数为Focal Loss。宽阈值掩模处理能够丰富下一步3D目标边界框预测的输入信息,从而提高3D目标边界框预测的准确率。注意力机制能够找到点云数据中需要被关注的空间点和特征通道,结合全局特征可以有效增加目标信息。使用Focal Loss能够解决点云数据中目标与背景类别不平衡的问题,二者相结合有利于3D目标掩模的预测。

图 6. 3D目标掩模预测网络

Fig. 6. 3D target mask prediction network

下载图片 查看所有图片

当预测3D目标边界框时,需要利用掩模结果来提取目标实例点云,这可能会出现由于目标掩模预测结果不准确而缺失有用信息的情况。因此采用宽阈值掩模处理放宽判定目标掩模的边界,从原来大于1/2为掩模,放宽为大于(1-xmargin)/2,其中xmargin为原阈值被放宽的程度,取值范围为0~1。该处理过程不仅能够将大部分预测概率接近于0的非目标点剔除,而且能够有效保留预测概率小于0.5的目标点。通过多次实验,实验选取最佳的xmargin=0.2,既减少在3D目标边界框预测输入的冗余信息,又增加有用信息,有利于获得更好的检测结果。

受到基于二维图像的混合域软注意力机制的启发,实验对3D点云数据的注意力机制分为空间域和通道域。空间域注意力机制能够找到3D点云数据中需要关注的点,通道域能够找到特征图中需要关注的通道层,实现方式均采用基础的注意力模型。图7为通道/空间域注意力机制实现流程,FC为全连接层,其中输入为上一层的特征,输出为经过注意力机制处理后的特征。

图 7. 注意力机制实现流程

Fig. 7. Attention mechanism implementation process

下载图片 查看所有图片

原始掩模预测网络使用的是普通的交叉熵损失函数,但是由于点云数据中目标前景点与背景点的数量比例十分不平衡,拥有大量的背景无关点。普通的交叉熵损失函数无法挖掘前景点的重要性,因此实验中使用Focal Loss损失函数,其能够降低大量背景点在训练中所占的权重,使得训练更关注前景点即目标物体,掩模预测损失计算公式为

Lmask=LFL=-α(1-p)γln(p),ify=1-(1-α)pγln(1-p),otherwise,(1)

式中:p为预测概率;α为权重因子,能够平衡正负样本的重要性;γ为调制因子,能够调节样本权重降低的速率;y为真值的类别,对于y=1,预测概率为p。实验过程中,α取0.25,γ取2。

2.4 3D目标边界框预测

3D目标边界框预测部分是对2.3节得到的目标实例点云和全局特征进行3D目标检测,网络结构如图8所示。首先,将目标实例点云从视锥坐标系转换至3D目标掩模中心坐标系中表示。然而由于点云数据的采集特性,即使是真实的目标实例点云也无法形成完整的物体,故3D目标掩模中心并不是目标边界框的中心,即真实完整目标的中心,因此使用与STN (Spatial Transformer Network)[12]相似的T-Net来估计目标边界框的中心,然后转换至目标边界框中心坐标系中表示, 坐标系转换结果如图9所示。最后使用PointNet++以及多层感知机,并采用残差回归的方式来实现目标实例点云的3D边界框回归估计,其中回归参数包括3D目标边界框的中心坐标、长宽高以及目标的方位角。

图 8. 3D目标边界框预测网络

Fig. 8. 3D target bounding box prediction network

下载图片 查看所有图片

图 9. 目标实例点云的坐标转换

Fig. 9. Coordinate transformation of target instance point cloud

下载图片 查看所有图片

2.5 损失函数

改进的F-PointNet使用与原始网络一样的多任务损失函数Lmulti-task,其包含3D目标掩模预测损失函数Lmask和3D目标边界框预测损失函数Lbbox。3D目标边界框预测损失函数与原始网络相同,包含T-Net产生的损失函数Lc1-reg、目标边界框中心预测的损失函数Lc2-reg、目标方位角的分类损失函数Lh-cls和回归损失函数Lh-reg、目标边界框大小的分类损失函数Ls-cls和回归损失函数Ls-reg、目标边界框中8个顶点的损失函数Lcorner。但是3D目标掩模预测损失函数与原始网络不同,使用2.3节(1)式的Focal Loss。Lmulti-task计算公式为

Lmultitask=Lmask+Lbbox=Lmask+λ(Lc1reg+Lc2reg+Lhcls+Lhreg+Lscls+Lsreg+γLcorner)(2)

Lh-clsLs-cls使用Softmax交叉熵损失函数,Lmask使用Focal Loss,Lc1-regLc2-regLh-regLs-reg使用L1范数损失函数损失,λγ沿用原始网络中的设置,Lcorner是指预测的边界框与真值之间对应8个顶点的距离之和。

3 分析与讨论

3.1 实验配置与数据

所提网络使用TensorFlow框架来实现,数据使用公开的KITTI数据集[13],实验配置如表1所示。

表 1. 实验配置

Table 1. Experimental configuration

ItemCPUComputing memoryGPUSystemCUDA
ContentIntel i5-66008 GBNVIDIA GTX 1070Ubuntu 16.04CUDA 9.0

查看所有表

3.2 实验步骤

首先在ImageNet分类和COCO目标检测数据集上对2D目标检测模型的权重进行预训练,在KITTI 2D目标检测数据集上对预训练后的数据集进行微调。然后使用训练好的2D目标检测器得到2D目标,再提取KITTI数据集中的3D点云候选数据并进行存储。最后,使用存储的候选区域点云数据进行3D目标掩模预测和3D目标边界框预测的联合训练。模型训练过程中,先进行宽阈值掩模实验,实验时设定多个阈值并从中选择平均准确率(AP)最高的阈值,然后在该阈值下对各处理部分进行对比,最后将最终改进模型的结果与其他模型进行比较。学习率选择0.001,其随训练衰减,优化器选择Adam算法,Batch大小为12,训练执行100轮。

3.3 实验结果及分析

可视化的候选区域提取结果如图4所示,图10为可视化的3D目标检测结果,其中图10(a)为2D目标检测结果,图10(b)为3D目标检测结果,该图仅给出估计的边界框,不包含真值及其类别。为了确定最佳掩模判定的阈值而进行多次实验,设置xmargin值分别为0、0.1、0.2和0.3,AP值如表2所示,easy为目标全部可见,moderate为目标部分遮挡,hard为目标难以看见。从表2可以看到,宽阈值掩模处理确实可以提高3D目标检测的结果,且当xmargin=0.2时,在汽车、行人和骑自行车的人中AP值最大。

表 2. 各阈值下3D目标检测的AP值

Table 2. AP values of 3D target detection under each threshold unit: %

xmarginCarPedestrianCyclist
EasyModerateHardEasyModerateHardEasyModerateHard
082.0568.4662.4265.9458.3550.8774.1055.5452.09
0.182.3969.5362.5261.9055.2049.0273.4555.4652.26
0.282.7970.8563.4967.0559.1651.8276.0457.0953.33
0.383.1970.5963.1365.0657.5350.5973.5555.7652.73

查看所有表

图 10. 可视化的3D目标边界框预测结果。(a) 2D目标检测结果;(b) 3D目标检测结果

Fig. 10. Visual 3D target bounding box prediction results. (a) 2D target detection result; (b) 3D target detection result

下载图片 查看所有图片

为了验证各个处理部分对原始网络的影响程度,仅对汽车类别进行对比实验,结果如表3所示。从表3可以看到,宽阈值掩模处理可以有效提高3D目标检测的AP值,注意力机制和Focal Loss对于模型略有帮助。最后,将所提模型与其他模型进行比较,结果如表4所示。从表4可以看到,与原始F-PointNet相比,改进的F-PointNet可以提升整体的检测精度,同时与UberATG-ContFuse[14]相比,仅hard结果略低,与MLOD(Multi-view Labelling Object Detector)[15]相比整体的准确率较高。

表 3. 各处理部分对AP值的影响

Table 3. Influence of each processing part on AP values

PartAP /%
Wide-threshold mask(xmargin=0.2)Attention mechanismFocal LossEasyModerateHard
---82.0568.4662.42
--82.7970.8563.49
--81.8969.2362.54
--82.7369.8963.27
83.0471.2563.82

查看所有表

表 4. 不同模型的AP值对比

Table 4. Comparison of AP values of different models

MethodAP /%
EasyModerateHard
MV3D[4]71.2962.2856.56
F-PointNet[5]82.0568.4662.42
UberATG-ContFuse[14]82.5466.2264.04
MLOD[15]72.2464.2057.20
Proposed83.0471.2563.82

查看所有表

4 结论

为了提高3D目标检测的准确率,对F-PointNet的掩模预测部分进行改进,使用宽阈值掩模处理,增加注意力机制并更换损失函数为Focal Loss。实验结果表明,宽阈值掩模处理在减少点云冗余信息的同时,能够充分利用其有用信息,最终与基于其他网络的3D目标检测相比,基于改进的F-PointNet的3D目标检测可以获得较优的结果。但针对无人驾驶领域的3D目标检测研究,准确率还有提升的空间,后续的研究将进一步在网络结构设计及目标检测过程的机理上深入挖掘。

参考文献

[1] 张银, 任国全, 程子阳, 等. 三维激光雷达在无人车环境感知中的应用研究[J]. 激光与光电子学进展, 2019, 56(13): 130001.

    Zhang Y, Ren G Q, Cheng Z Y, et al. Application research of there-dimensional LiDAR in unmanned vehicle environment perception[J]. Laser & Optoelectronics Progress, 2019, 56(13): 130001.

[2] 刘凯宝, 杨晓红, 何婷婷, 等. InP基近红外单光子雪崩光电探测器阵列[J]. 激光与光电子学进展, 2019, 56(22): 220001.

    Liu K B, Yang X H, He T T, et al. Indium phosphide-based near-infrared single photon avalanche photodiode detector arrays[J]. Laser & Optoelectronics Progress, 2019, 56(22): 220001.

[3] 季一木, 陈治宇, 田鹏浩, 等. 无人驾驶中3D目标检测方法研究综述[J]. 南京邮电大学学报(自然科学版), 2019, 39(4): 72-79.

    Ji Y M, Chen Z Y, Tian P H, et al. A survey of 3D target detection methods in unmanned driving[J]. Journal of Nanjing University of Posts and Telecommunications (Natural Science Edition), 2019, 39(4): 72-79.

[4] Chen XZ, Ma HM, WanJ, et al. Multi-view 3D object detection network for autonomous driving[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 6526- 6534.

[5] Qi CR, LiuW, Wu CX, et al. Frustum PointNets for 3D object detection from RGB-D data[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 18-23, 2018, Salt Lake City, UT, USA. New York: IEEE, 2018: 918- 927.

[6] He K M, Gkioxari G, Dollar P, et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 386-397.

[7] Qi CR, YiL, SuH, et al. ( 2017-07-07)[2019-12-23]. https:∥arxiv.org/abs/1706. 02413.

[8] 万鹏. 基于F-PointNet的3D点云数据目标检测[J]. 山东大学学报(工学版), 2019, 49(5): 98-104.

    Wan P. Object detection of 3D point clouds based on F-PointNet[J]. Journal of Shandong University (Engineering Science), 2019, 49(5): 98-104.

[9] WooS, ParkJ, Lee JY, et al. CBAM: convolutional block attention module[M] ∥Ferrari V, Hebert M, Sminchisescu C, et al. Computer vision-ECCV 2018. Lecture notes in computer science. Cham: Springer, 2018, 11211: 3- 19.

[10] Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327.

[11] Lin TY, DollárP, GirshickR, et al. Feature pyramid networks for object detection[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 936- 944.

[12] JaderbergM, SimonyanK, ZissermanA, et al. ( 2016-02-04)[2019-12-23]. https:∥arxiv.org/abs/1506. 02025.

[13] GeigerA, LenzP, UrtasunR. Are we ready for autonomous driving? The KITTI vision benchmark suite[C]∥2012 IEEE Conference on Computer Vision and Pattern Recognition, June 16-21, 2012, Providence, RI, USA. New York: IEEE, 2012: 3354- 3361.

[14] LiangM, YangB, Wang SL, et al. Deep continuous fusion for multi-sensor 3D object detection[M] ∥Ferrari V, Hebert M, Sminchisescu C, et al. Computer vision-ECCV 2018. Lecture notes in computer science. Cham: Springer, 2018, 11220: 663- 678.

[15] DengJ, CzarneckiK. MLOD: a multi-view 3D object detection based on robust feature fusion method[C]∥2019 IEEE Intelligent Transportation Systems Conference (ITSC), October 27-30, 2019, Auckland, New Zealand. New York: IEEE, 2019: 279- 284.

刘训华, 孙韶媛, 顾立鹏, 李想. 基于改进Frustum PointNet的3D目标检测[J]. 激光与光电子学进展, 2020, 57(20): 201508. Xunhua Liu, Shaoyuan Sun, Lipeng Gu, Xiang Li. 3D Object Detection Based on Improved Frustum PointNet[J]. Laser & Optoelectronics Progress, 2020, 57(20): 201508.

本文已被 3 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!