激光与光电子学进展, 2019, 56 (24): 242801, 网络出版: 2019-11-26   

基于三维激光雷达的障碍物及可通行区域实时检测 下载: 1726次

Real-Time Detection of Obstacles and Passable Areas Based on Three-Dimensional Lidar
蒋剑飞 1,2李其仲 1,2黄妙华 1,2,*龚杰 1,2
作者单位
1 武汉理工大学现代汽车零部件技术湖北省重点实验室, 湖北 武汉 430070
2 武汉理工大学汽车工程学院, 湖北 武汉 430070
摘要
针对交通环境中障碍物及可通行区域检测的问题,利用改进欧氏聚类算法进行实时障碍物检测,提出一种相邻点云间距算法以实时提取道路可通行区域。对点云数据进行预处理,再通过地面坡度分离算法进行地面与非地面点云分离;根据不同的聚类距离阈值对非地面点云进行障碍物聚类检测,使用长方体框标记区分;将每个地面激光束固有的相邻点云间距与实际相邻两点间距离进行对比,结合相邻点角度差以及点云聚类,实现可通行区域的提取;融合障碍物检测和可通行区域提取结果,对可通行区域的通过性进行合并检测。多路况实车实验表明,本文算法能准确检测出障碍物及道路的可通行区域,检测平均准确率为94.13%,平均耗时为69 ms,满足智能车实时性的要求。
Abstract
Results

of obstacle detection and passable area extraction are fused to detect the passing ability of the passable area. Multi-road real-time vehicle experiments show that the proposed algorithm can accurately detect obstacles and passable road areas, with an average detection accuracy of 94.13% and an average processing time of 69 ms, meeting the real-time requirements of intelligent vehicles.

1 引言

道路信息环境感知作为智能车的“眼睛”,需要在未知环境中实时可靠地获得道路环境信息,是实现智能车无人驾驶至关重要的技术之一。三维激光雷达作为环境感知的主要传感器,可以直接输出深度信息,具有测量精度高、测量范围广、受光照影响小等优点,且能够在雨雪、雾霾等恶劣环境条件下稳定工作,因而被广泛运用于智能驾驶汽车的道路环境感知中。

在障碍物检测方面主要有3类检测方式。第一类为基于栅格地图的检测算法[1-2],Chen等[1]提出一种结合栅格地图和一维高斯过程回归的地面分割算法,该算法利用霍夫变换提取栅格地图中的直线信息,检测动态车辆目标的存在。第二类为多传感器多特征融合检测[3-5],谢德胜等[3]利用无人车RTK-GPS数据和INS航向角数据进行多帧融合的静态障碍物的检测。第三类为基于聚类算法的障碍物检测,可分为基于距离的聚类方法[6-7]及基于密度的聚类方法。Behley等[6]提出基于改进的索引八叉树的半径近邻搜索法,加快了聚类速度;袁夏等[8]将基于密度的噪声应用空间聚类算法(DBSCAN)与结合信息编码的稳健信息聚类算法相结合,优化了聚类结果。对比3类检测方式,基于距离的聚类算法的检测效果较好,为现阶段研究的主流聚类算法。

在道路可通行区域研究方面,现有算法大部分是拟合路沿点、边界点[9-10]或者检测道路边界[11-12],从而确定道路宽度范围,但没有实现道路范围内障碍物的检测,无法形成准确的可通行区域。Liu等[9]通过单线激光雷达构建局部数字高程地图,再基于Hough变换以及多模型随机抽样一致算法(RANSAC)方法成功对路沿候选点进行拟合,从而划分出可通行区域;周智等[13]提出一种改进的直线特征提取算法,并引入回退机制、逻辑推理和特征合并的方法,实现了可通行区域的检测。但使用单线或者二维激光雷达只能进行固定高度平面的检测,容易漏检低于检测平面的障碍物,故检测准确性不高。

本文针对现有障碍物检测算法实时性不高的问题,首先采用地面坡度分离算法,对地面点与非地面点进行分离。通过改进欧氏聚类算法对非地面点云进行聚类分析,同时计算出障碍物点云的最大最小XYZ坐标及点云类平均坐标,确定障碍物位置,再通过长方体框标记区分,实现障碍物的实时检测。现阶段研究中主要通过提取道路边界实现可通行区域的检测,但在实际道路上存在道路两侧停有车辆,行驶过程中左右两侧有车辆并行,甚至缺少路沿石等情况,易导致道路边界点的缺少,无法形成有效的道路边界。针对此情况,本文提出一种相邻点云间距算法,并结合相邻点角度差以及点云聚类,对地面点进行可通行区域的提取,并将提取结果与障碍物检测结果进行融合,实现了对可通行区域通过性的二次检测。

2 激光雷达配置以及数据预处理

2.1 激光雷达基本参数

采用Velodyne的VLP-16三维激光雷达,具体参数如表1所示。三维激光雷达采用飞行时间(TOF)原理进行距离测量,即通过激光器向外发射一束激光,当遇到障碍物时,激光将反射回到激光雷达的接收器,得到激光飞行的时间T,再乘以光速,进而得到与物体的距离。定义激光雷达旋转一周输出的数据为一帧数据,耗时为100 ms。

表 1. Velodyne VLP-16激光雷达基本参数

Table 1. Basic parameters of Velodyne VLP-16 lidar

ParameterValue
Measurement range /m0-100
Range accuracy /cm3
Vertical field of view /(°)-15.0-15.0
Vertical angular resolution /(°)2.0
Horizontal field of view /(°)360
Horizontal angular resolution /(°)0.2
Rotation rate /Hz10
Laser wavelength /nm903

查看所有表

图 1. 激光雷达三维坐标系

Fig. 1. Three-dimensional coordinate system of lidar

下载图片 查看所有图片

2.2 激光雷达坐标系

为计算激光点云的距离和角度信息,建立XYZ三维笛卡尔坐标系,如图1所示,以车辆正前方为X轴正方向,以车辆水平向左为Y轴正方向,以竖直向上为Z轴正方向。

根据三维坐标系,每一个激光点可以通过3个参数计算其空间位置XYZ坐标,其中R为激光点到坐标系原点的距离,ω为激光束与坐标系XOY平面的夹角,α为激光束在XOY平面上的投影与Y轴之间的夹角,通过这3个参数可计算出激光点在三维笛卡尔坐标系下的XYZ坐标,计算公式为

x=R×cosω×sinαy=R×cosω×sinαz=R×sinω(1)

2.3 点云数据预处理

VLP-16三维激光雷达每帧的数据会产生将近3万个激光点,在进行检测时,数据量巨大,处理时间将会延长,此时需要通过点云滤波对点云数据进行预处理,进而减少噪点和离群点,降低采样数据量,得到更有效的感兴趣点云区域。通过点云库(PCL)中直通滤波器直接筛选XYZ轴坐标区间范围,确定点云区域范围,可实现快速去除偏远点,达到点云第一步粗处理的目的。经过点云直通滤波后,可用统计滤波器去除明显离群点、孤立点,排除无效数据的干扰。具体滤波方式为:对每个点的邻域进行一个统计分析,并修剪掉一些不符合标准的点。在输入数据中对点到临近点的距离分布进行计算,对每一个点,计算它到所有临近点的平均距离,平均距离在标准范围之外的点,被定义为离群点,并从数据中去除。

点云直通滤波结果如图2所示,可以看出通过直通滤波后,排除了大量干扰点云数据,划定出明确的感兴趣点云区域。

在直通滤波基础上进行统计滤波,结果如图3所示,与图2对比,可以看出图2中离群点和噪点被滤除。

图 2. 点云直通滤波结果图。(a)原始点云;(b)直通滤波后点云

Fig. 2. Through-pass filter results for point clouds. (a) Original point cloud; (b) through-pass filtered point cloud

下载图片 查看所有图片

图 3. 点云统计滤波结果图

Fig. 3. Statistical filtering result of point clouds

下载图片 查看所有图片

3 障碍物及道路可通行区域检测

3.1 地面点与非地面点云分离

地面点与非地面点分离情况,对后续障碍物检测影响很大。如果地面点云分离不够彻底,会产生很多噪点,被误检测为障碍物,影响检测结果。在进行障碍物检测前,需要对点云数据进行地面与非地面点云分离处理。现有的主流分割滤波算法总结为6类,分别为基于坡度、基于形态学、基于曲面拟合、基于不规则三角网(TIN)、基于分割[14-15]及基于机器学习的滤波算法[16]。其中:Himmelsbach等[17]采用地面坡度分离算法将地面分成扇形小块,并从每一个扇形中提取直线进行地面分割,可实现快速地面点云分割;Zhang等[18]采用基于形态学滤波器地面分离算法,通过开运算对点云进行处理,使用渐进的滤波窗口,逐渐对地面点和非地面点进行分离,但该算法处理时间长,满足不了实时性要求。

本文在文献[ 17]基础上提出一种地面坡度分离算法,具体原理为:以激光雷达角分辨率Δρ将环境360°均分为360/Δρ个小扇形块。根据激光雷达旋转速率为10 Hz,对应角分辨率为0.2°,可以等分为1800个扇形区域。通过计算点与X正轴的夹角,再除以角分辨率,即可确定点所在的扇形区域Pm,其中m为扇形区域数。

Pm=arctan(yi/xi)Δρ,(2)

式中:i为点云数。将同一个扇形区域Pm中的点按照距离的远近进行排序,计算出同一扇形区域内所有点与扇形区域中心轴的夹角,将所有点旋转偏移到该扇形区域垂直中心平面上。

设定距离区间Wjxi2+yi2Wj+1,其中Wj为区间距离值,j为区间数,根据距离范围将垂直平面上的点进行区间等分。同时通过两个判断机制进行地面点筛选。第一个机制是通过设定地面坡度阈值θ以及点到坐标原点的水平距离,求得地面高度阈值Hg,若点云的Z坐标在正负地面高度阈值内,则可判断该点为地面点。

Hg=xi2+yi2×tanθ(3)

再设立第二判断机制:在第一机制基础上,设定相邻点坡度阈值ε,进行地面点判断检验。计算相邻两点的坡度δ,若其绝对值小于相邻点坡度阈值ε,则可判断该点为地面点。

δ=arctanzi+1-zi(xi+1-xi)2+(yi+1-yi)2(4)

通过这两个判断机制,即可快速实现地面与非地面点分离,实际效果如图4所示。在水平路面上,文献[ 18]中算法的分离结果较好,但遇到坡度较大的路面时,出现了分割不足的情况,地面点没有完全去除,如图4(a)所示;而地面坡度分离算法对大坡度路段仍能实现准确的地面点分离,如图4(b)所示。

图 4. 地面与非地面点云分割效果对比图。(a)基于形态学滤波器地面分离算法;(b)地面坡度分离算法

Fig. 4. Comparison of segmentation effects of ground and non-ground point clouds. (a) Ground separation algorithm based on morphological filter; (b) ground slope separation algorithm

下载图片 查看所有图片

3.2 非地面点障碍物检测

由于激光雷达在远处点云较稀疏的情况下,容易造成单个障碍物点分散较远的情况,因此需要对点云数据进行聚类检测。采用基于K维(K-D)树搜索的改进欧氏聚类算法,可将各点云聚类为单一障碍物点云群,同时可计算出障碍物点云的最大XYZ轴点坐标,进行长方体框标记区分,完成非地面点的障碍物检测。

聚类过程中需要根据距离对数据点进行大量的临近点搜索,此时采用遍历方法效率太低,而K-D树是欧几里德空间中组织点的基本数据结构,使用K-D树可加快聚类过程中的搜索速度。另外,由于激光雷达远处点云比较稀疏,因此对欧氏聚类算法进行部分改进。首先,将点云数据按不同半径进行点云区域划分,可分为半径为r1、2r1、3r1、4r1的同心点云圆。设置一个合适的聚类距离阈值Ds对障碍物聚类结果的影响较大。如果搜索半径取一个非常小的值,一个实际的对象就会被分割为多个类;如果将值设置得太高,多个对象会被聚类为同一障碍物。可按照距离设置不同的聚类距离阈值Ds,分别对应为Ds、2Ds、3Ds、4Ds,当点云距离大于4r1时,均以5Ds进行聚类。通过远距离设置更大的聚类阈值能实现更好的远处障碍物检测。改进的欧氏聚类算法具体实现方法如下:

1) 根据所有点云在XOY平面的距离,通过不同半径r对点云筛选,并进行分区,分别保留在点云空间Vf(f=1,2,…)内;

2) 引入点云空间Vf= {Vk}N(k=1,2,…),Vk= [xk,yk,zk]T,其中xk,yk,zk表示单个点的xyz坐标,同时创建一个K-D树作为点云的搜索机制,从数据中随机获取一个激光点Vk,搜索距离该点最近的N个点,计算得出这N个点到该点的距离D,将距离D小于聚类距离阈值Ds的所有点保留在类空间P内,并记录加入点云的数量;

3) 从类空间P中随机选取激光点Vk,进行2)中相邻点距离计算及判断是否小于Ds,满足条件的所有点保留在类空间P内;

4) 重复循环2)、3),根据设定的聚类点云最小数量阈值Nmin和最大数量阈值Nmax进行判断,如果在这个范围内,则表示障碍物类Qb(b=1,2,…)已经形成,否则结束该类空间点云循环;

5) 计算障碍物类Qb内点云最大的XYZ坐标,在最大坐标外随机寻找一点Vk+1,重复循环2)~4),形成新的障碍物类Qb+1,直到障碍物类Qb数量不再增加,否则结束该点云数据空间Vf聚类;

6) 引入点云数据空间Vf+1,进行2)~5),完成该数据空间的聚类,以此循环,直到所有点云数据空间聚类完成。

聚类完成后,对各障碍物类Qb计算出所有点云中最大的XYZ坐标以及平均XYZ坐标,以确定障碍物的空间位置以及三维尺寸大小,并进行长方体框标记。计算公式为

xmax=max(x1,x2,,xn),xmin=min(x1,x2,,xn)ymax=max(y1,y2,,yn),ymin=min(y1,y2,,yn)zmax=max(z1,z2,,zn),zmin=min(z1,z2,,zn),(5)l=xmax-xminw=ymax-yminh=zmax-zmin,(6)xa=(x1+x2+x3++xn)nya=(y1+y2+y3++yn)nza=(z1+z2+z3++zn)n,(7)

式中:n为该障碍物类点云总数;xmaxymaxzmax分别为该障碍物最大的XYZ坐标;xminyminzmin分别为该障碍物最小的XYZ坐标;lwh分别为标记长方体三维尺寸长、宽、高;xayaza分别为该障碍物XYZ平均坐标,即障碍物中心位置。实际障碍物检测结果如图5所示,并用长方体框进行标记。原始欧氏聚类算法检测时出现了相邻较近的4个障碍物(1、3-车,2、4-树)未完全聚类分割的情况,而是将相邻障碍物聚类成一个整体;而改进后的欧氏聚类算法能准确聚类并划分为四个单一障碍物,聚类检测结果更好。

3.3 道路可通行区域检测

本文提出一种相邻点云间距算法,通过点云之间的距离对地面点云进行处理,可实现道路可通行区域快速检测提取。确定激光雷达安装高度为H,每个激光束对应的垂直角度为ω,可计算出各激光束在地面上的水平距离Le;根据激光雷达的水平角分辨率β,结合水平距离可得到每个激光束固有的相邻点云间距ΔSe。激光束距离示意图如图6所示。

Le=H/tanω,(8)ΔSe=Leβπ/180(9)

图 5. 障碍物检测对比图。(a)欧氏聚类算法障碍物检测;(b)改进欧氏聚类算法障碍物检测

Fig. 5. Obstacle detection comparison chart. (a) Euclidean clustering algorithm for obstacle detection; (b) improved Euclidean clustering algorithm for obstacle detection

下载图片 查看所有图片

图 6. 激光束距离示意图。(a)激光束距离侧视图;(b)激光束距离俯视图

Fig. 6. Diagram of laser beam distance. (a) Side view of laser beam distance; (b) top view of laser beam distance

下载图片 查看所有图片

相邻点云间距算法基本原理:由于三维激光雷达垂直角分辨率和水平角分辨率固定不变,当安装高度固定时,在没有障碍物遮挡的情况下,不同激光发射器对应扫描到地面上的激光束距离Le是固定不变的,同一激光束点云是连续的,相邻两点之间的距离以及空间角度也是固定不变的;只有存在障碍物时,相邻点间距以及角度才会产生异常变动。因此,实现道路可通行区域的检测提取步骤如下。

1) 根据激光雷达地面激光束数量设置激光束点云容器Ge(e=1,2,…,M),M为地面激光束总数。不同激光束对应不同的激光束距离Le,在此基础上设置一个正负波动阈值ΔLe。导入原始点云数据,计算XOY平面内各点与坐标原点的距离Dc= xc2+yc2,(c=1,2,…),通过判断点云Dc在哪个(LeLe,LeLe)之间,将点云保存在对应激光束的点云Ge内。

2) 引入单一Ge容器点云数据,计算同一激光束相邻两点之间的距离Sc

Sc=(xc+1-xc)2+(yc+1-yc)2+(zc+1-zc)2(10)

与激光束对应的相邻点云间距ΔSe进行比较,如果ScSe,则保留点在Ge容器;如果Sc≥ΔSe,则该点处存在障碍物,表示为不可通行点,进行排除。以此排除模式循环计算每个激光束点云,进而对障碍物噪点进行排除。

3) 引入2)筛选后的Ge容器点云数据,计算激光束相邻三点间的角度差Δλc

Δλc=arctanzc+1-zc(xc+1-xc)2+(yc+1-yc)2-arctanzc-zc-1(xc-xc-1)2+(yc-yc-1)2(11)

计算出所有点云之间角度差的总和,再除以Ge容器点云总数,得到平均角度差Δλa,如果Δλc≥Δλa,则该点为异常点,进行排除;如果Δλcλa,则将点继续保留在Ge容器中,以此排除模式循环计算每个激光束点云。

4) 通过1)~3),检测提取出平整的路面区域。通过设置合适的聚类距离阈值Ds以及最小点云数量阈值Nmin,采用改进欧氏聚类算法分别对单一激光束Ge容器点云数据进行聚类,同一激光束会形成多个类。通过计算每个类的长度F= (Xmax-Xmin)2+(Ymax-Ymin)2,其中XmaxXminYmaxYmin分别表示该类中最大最小XY坐标,再和车身宽度进行对比,保留类长度大于1.5倍车身宽度的类点云,可得到单个激光束路面可通行区域。以此模式循环聚类判断每个激光束点云,即可提取出整个道路可通行区域。

基于图3点云进行地面点分离,利用相邻点云间距算法提取可通行区域的结果,如图7(b)所示,该算法不仅排除了路沿点、障碍物噪点,而且去除了路面平行的人行道区域,提取出完好的道路可通行区域。

图 7. 可通行区域检测结果。(a)图3场景地面点云;(b)地面点可通行区域检测

Fig. 7. Detection results of passable areas. (a) Ground point cloud in Fig. 3; (b) detection of ground point passable area

下载图片 查看所有图片

结合障碍物和可通行区域的检测结果,可实现对可通行区域通过性的合并检测,可提取出障碍物类Qb位置中心的xaya坐标,以及可通行区域每个激光束Ge容器的Xmin。计算每个激光束与障碍物中心相邻距离Ks= xa-Xmin,通过对比得到最小相邻距离Ks,提取出离障碍物最近的激光束可通行区域范围;通过判断xaya在不在该激光束可通行区域范围内,来实现对可通行区域通过性的二次验证。合并检测结果如图8所示,地面线为可通行区域,长方体框为障碍物。

图 8. 合并检测结果

Fig. 8. Combined detection results

下载图片 查看所有图片

4 实验结果及分析

实验平台为课题组搭建的智能车,如图9所示。智能车主要设备包括Velodyne VLP-16激光雷达、GPS+惯导系统,Intel i7-8750H 2.2 GHz CPU、8 G内存的计算机。算法程序为C++语言编写,并在配有ROS和PCL的Ubuntu系统上运行。激光雷达安装高度H为2.15 m,为降低处理数据量,保证激光雷达安全的情况下,Z轴滤波后只保留2.3 m以下点云。改进欧氏聚类算法中参数设置如下:区域划分半径r1=5 m,聚类距离阈值Ds=0.3 m,聚类点云最小数量阈值Nmin=20及最大数量阈值Nmax=10000。根据VLP-16激光雷达的特性,16条激光束只有一半角度低于水平面,考虑远距离点云数据比较稀疏,无法形成有效点云,只选-7°至-15°的5条激光束(M=5),垂直间隔角度为2°,角分辨率为0.2。在无障碍物遮挡情况下,各激光束对应的垂直角度、水平距离Le和相邻点云间距ΔSe表2所示。

表 2. 各激光束对应距离

Table 2. Distance corresponding to each laser beam

Laser No.Vertical angle /(°)Le /mΔSe /m
G1-158.0240.028
G2-139.3130.033
G3-1111.0610.038
G4-913.5750.047
G5-717.5100.061

查看所有表

图 9. 实验平台。(a)正面图;(b)侧面图

Fig. 9. Experimental platform. (a) Front view; (b) side view

下载图片 查看所有图片

图 10. 上坡路况检测结果。(a)上坡场景;(b)激光雷达原始点云;(c)非地面障碍物检测结果;(d)地面可通行区域检测结果;(e)合并检测结果(1:车,2:人,长方体框:单一障碍物)

Fig. 10. Detection results of uphill road condition. (a) Uphill scene; (b) lidar original point cloud; (c) detection result of non-ground obstacle; (d) detection result of ground passable area; (e) combined detection results (1: car, 2: person, cuboid frame: single obstacle)

下载图片 查看所有图片

图 11. 下坡路况检测结果。(a)下坡场景;(b)激光雷达原始点云;(c)非地面障碍物检测结果;(d)地面可通行区域检测结果;(e)合并检测结果(1:车,2、3:人,长方体框:单一障碍物)

Fig. 11. Detection results of downhill road condition. (a) Downhill scene; (b) lidar original point cloud; (c) detection result of non-ground obstacle; (d) detection result of ground passable area; (e) combined detection result (1: car, 2,3: person, cuboid frame: single obstacle)

下载图片 查看所有图片

为了检验本文算法对道路可通行区域及障碍物检测的有效性,以及多路况环境的通用性,在半开放校园多路况环境下,针对平地路况、上坡路况、下坡路况3种路况进行大量测试实验,并对结果展开分析。平地路况检测结果在前几节算法实现结果中已体现,图10为上坡路况检测结果,图11为下坡路况检测结果。

图5图10(c)、图11(c)所示,通过改进的欧氏聚类算法能准确聚类各种障碍物,包括动态障碍物(人、车)以及静态障碍物(房屋、树木),并通过长方体框进行了标记区分。可以看到图10(a)中汽车和人都被精准地检测并标记,相邻的多个细树干也能被很好地检测并分离为多个障碍物;图11(a)中四辆汽车、和人也都被检测,虽然人离墙面很近,但聚类检测将人和墙分离为不同障碍物,由此表明检测效果较好。

图7图10(d)、图11(d)所示,虽然道路一侧边界被汽车所遮挡,但提出的相邻点云间距算法仍能精确地提取出完整的道路可通行区域,并排除了路旁人行道区域以及较短路面区域(低于车身宽度,车辆无法通过)。并且从图10(d)(e)可以得出,相邻点云间距算法也能适用于交叉路口的可通行区域提取。另外,道路可通行区域与障碍物检测结果的融合,实现对可通行区域及障碍物的合并检测,如图8图10(e)、图11(e)所示,道路内人和车等动态障碍物均不在可通行区域内,位于可通行区域左右的两侧,该算法对可通行区域的通过性进行了二次验证。

检测准确率NAC可对人工标记为实际场景的可通行区域与障碍物点云进行量化比较,计算方程为

NAC=NGP+NOPNGP+NFGP+NOP+NFOP×100%,(12)

式中:NGP为被正确标记的地面可通行区域点数;NOP为被正确标记的聚类障碍物点数;NFGP为被漏检或者错误标记的地面点数;NFOP为被漏检或错误标记的非地面点数。实验共采集2305帧激光点云数据,各算法在不同路况中的平均检测准确率如表3所示。从表3中可看出本文算法优于改进前的算法,总体平均准确率为94.13%。

表 3. 不同路况的算法平均准确率

Table 3. Average accuracy of algorithm for different road conditions%

Experimental road conditionAverage accuracy
Euclidean clustering algorithms+adjacent point cloud spacing algorithmsImproved Euclidean clustering algorithms+adjacent point cloud spacing algorithms
Flat road condition89.5794.76
Uphill road condition87.6393.72
Downhill road condition88.2693.91

查看所有表

算法检测每帧所耗的时间如图12所示。通过图12可以看出所有帧算法检测时间均低于80 ms,平均每帧检测时间为69 ms,而激光雷达每帧采样时间为100 ms,所以本文算法满足智能车对算法实时性的要求。

图 12. 本文算法检测耗时

Fig. 12. Detection time-consuming of the proposed algorithm

下载图片 查看所有图片

5 结论

针对交通环境中障碍物及可通行区域检测问题,改进欧氏聚类算法,实现了对非地面点的障碍物的准确聚类。通过长方体框对障碍物进行标记区分,相比于原欧氏聚类算法,改进的欧氏聚类算法对相邻障碍物分离聚类效果更好。提出一种相邻点云间距检测算法,该算法将每个激光束单独分离,再对单个激光束内所有点云间距进行对比检测,结合相邻点角度差和点云聚类,实现了道路可通行区域的实时提取。该算法也适用于道路边界被车辆遮挡的行驶环境。融合障碍物检测和可通行区域提取结果,对可通行区域的通过性进行二次验证,提高了检测结果的可靠性。通过实验表明,本文算法既实现了较高的检测准确率(94.13%),又保证了较短的处理时间(69 ms),可以满足智能车实际自动行驶时对实时性的需求。但VLP-16激光雷达地面激光束数量较少,地面检测范围受限,所以本研究主要在半开放的校园环境内进行实验。在后续研究中,将通过多个激光雷达与双目摄像头进行融合检测,以适用于高速复杂路况,并提高检测的范围和精度。

参考文献

[1] Chen TT, DaiB, Liu DX, et al. LIDAR-based long range road intersection detection[C]∥2011 Sixth International Conference on Image and Graphics, August 12-15, 2011, Hefei, Anhui, China. New York: IEEE, 2011: 754- 759.

[2] DouillardB, UnderwoodJ, MelkumyanN, et al. Hybrid elevation maps: 3D surface models for segmentation[C]∥2010 IEEE/RSJ International Conference on Intelligent Robots and Systems, October 18-22, 2010, Taipei, Taiwan. New York: IEEE, 2010: 1532- 1538.

[3] 谢德胜, 徐友春, 王任栋, 等. 基于三维激光雷达的无人车障碍物检测与跟踪[J]. 汽车工程, 2018, 40(8): 952-959.

    Xie D S, Xu Y C, Wang R D, et al. Obstacle detection and tracking for unmanned vehicles based on 3D laser radar[J]. Automotive Engineering, 2018, 40(8): 952-959.

[4] 辛煜, 梁华为, 梅涛, 等. 基于激光传感器的无人驾驶汽车动态障碍物检测及表示方法[J]. 机器人, 2014, 36(6): 654-661.

    Xin Y, Liang H W, Mei T, et al. Dynamic obstacle detection and representation approach for unmanned vehicles based on laser sensor[J]. Robot, 2014, 36(6): 654-661.

[5] 程子阳, 任国全, 张银. 基于马尔可夫随机场的植被环境中的障碍物识别[J]. 激光与光电子学进展, 2019, 56(3): 031010.

    Cheng Z Y, Ren G Q, Zhang Y. Obstacle recognition in vegetation environment based on Markov random field[J]. Laser & Optoelectronics Progress, 2019, 56(3): 031010.

[6] BehleyJ, SteinhageV, Cremers AB. Efficient radius neighbor search in three-dimensional point clouds[C]∥2015 IEEE International Conference on Robotics and Automation (ICRA), May 26-30, 2015, Seattle, WA, USA. New York: IEEE, 2015: 3625- 3630.

[7] 范小辉, 许国良, 李万林, 等. 基于深度图的三维激光雷达点云目标分割方法[J]. 中国激光, 2019, 46(7): 0710002.

    Fan X H, Xu G L, Li W L, et al. Target segmentation method for three-dimensional lidar point cloud based on depth image[J]. Chinese Journal of Lasers, 2019, 46(7): 0710002.

[8] 袁夏, 赵春霞. 一种应用于机器人导航的激光点云聚类算法[J]. 机器人, 2011, 33(1): 90-96.

    Yuan X, Zhao C X. A laser point cloud clustering algorithm for robot navigation[J]. Robot, 2011, 33(1): 90-96.

[9] Liu Z, Wang J L, Liu D X. A new curb detection method for unmanned ground vehicles using 2D sequential laser data[J]. Sensors, 2013, 13(1): 1102-1120.

[10] Kumar P. McElhinney C P, Lewis P, et al. An automated algorithm for extracting road edges from terrestrial mobile LiDAR data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 85: 44-55.

[11] 孙朋朋, 赵祥模, 徐志刚, 等. 基于3D激光雷达城市道路边界鲁棒检测算法[J]. 浙江大学学报(工学版), 2018, 52(3): 504-514.

    Sun P P, Zhao X M, Xu Z G, et al. Urban curb robust detection algorithm based on 3D-LIDAR[J]. Journal of Zhejiang University(Engineering Science), 2018, 52(3): 504-514.

[12] Zhou L, Vosselman G. Mapping curbstones in airborne and mobile laser scanning data[J]. International Journal of Applied Earth Observation and Geoinformation, 2012, 18: 293-304.

[13] 周智, 蔡自兴, 余伶俐. 基于直线特征提取的自主车辆可通行区域检测[J]. 华中科技大学学报(自然科学版), 2011, 39(S2): 188-191.

    Zhou Z, Cai Z X, Yu L L. Line extraction for drivable road region detection on autonomous vehicle[J]. Journal of Huazhong University of Science and Technology. Nature Science, 2011, 39(S2): 188-191.

[14] 王晓辉, 吴禄慎, 陈华伟, 等. 基于区域聚类分割的点云特征线提取[J]. 光学学报, 2018, 38(11): 1110001.

    Wang X H, Wu L S, Chen H W, et al. Feature line extraction from a point cloud based on region clustering segmentation[J]. Acta Optica Sinica, 2018, 38(11): 1110001.

[15] 李仁忠, 刘阳阳, 杨曼, 等. 基于改进的区域生长三维点云分割[J]. 激光与光电子学进展, 2018, 55(5): 051502.

    Li R Z, Liu Y Y, Yang M, et al. Three-dimensional point cloud segmentation algorithm based on improved region growing[J]. Laser & Optoelectronics Progress, 2018, 55(5): 051502.

[16] 惠振阳, 程朋根, 官云兰, 等. 机载LiDAR点云滤波综述[J]. 激光与光电子学进展, 2018, 55(6): 060001.

    Hui Z Y, Cheng P G, Guan Y L, et al. Review on airborne LiDAR point cloud filtering[J]. Laser & Optoelectronics Progress, 2018, 55(6): 060001.

[17] HimmelsbachM, Hundelshausen FV, Wuensche HJ. Fast segmentation of 3D point clouds for ground vehicles[C]∥2010 IEEE Intelligent Vehicles Symposium, June 21-24, 2010, La Jolla, CA, USA. New York: IEEE, 2010: 560- 565.

[18] Zhang K Q, Chen S C, Whitman D, et al. A progressive morphological filter for removing nonground measurements from airborne LIDAR data[J]. IEEE Transactions on Geoscience and Remote Sensing, 2003, 41(4): 872-882.

蒋剑飞, 李其仲, 黄妙华, 龚杰. 基于三维激光雷达的障碍物及可通行区域实时检测[J]. 激光与光电子学进展, 2019, 56(24): 242801. Jianfei Jiang, Qizhong Li, Miaohua Huang, Jie Gong. Real-Time Detection of Obstacles and Passable Areas Based on Three-Dimensional Lidar[J]. Laser & Optoelectronics Progress, 2019, 56(24): 242801.

本文已被 5 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!