激光与光电子学进展, 2020, 57 (18): 181503, 网络出版: 2020-09-02  

基于车道线的车辆测距方法的测距误差分析与改进 下载: 1134次

Measurement Error Analysis and Improvement of Vehicle Ranging Method Based on Lane Lines
作者单位
江苏大学汽车与交通工程学院, 江苏 镇江 212013
摘要
针对现有的基于车道线宽度的测距方法在弯道时的测距误差,提出一种基于车道线斜率的弯道处车道线横向宽度的估计方法,并推导出基于车道线横向宽度的改进测距模型。随后在同心圆车道线模型下,对现有方法和所提方法的测距误差进行对比,所提方法的测距精度得到明显提高。当车道线曲率为0.01时,在真实距离为50 m内,所提方法的测距误差小于3%;当曲率小于0.005时,在真实距离为100 m内,所提方法的测距误差小于1%。最后基于KITTI数据集验证所提方法在实际道路环境下的测距效果,结果显示,所提方法的平均测距误差在5%以内,显著提高了弯道处的测距精度。
Abstract
To mitigate the problem of distance measurement errors in the existing vehicle ranging method based on lane line width of curved roads, this study propose a lane line lateral width estimation method at the curve based on the slope of the lane line. Further, an improved ranging model based on lateral width of the lane line is derived. Then, compared with the existing method, the ranging accuracy of the proposed method is obviously improved under the concentric circular lane line model. When the curvature of the lane line is 0.01 and 0.005, the distance measurement errors of proposed method within the true distance of 50 and 100 m are less than 3% and 1%, respectively. Finally, the proposed method is evaluated based on an actual road environment on the KITTI dataset. Results show that the average distance measurement error is less than 5%, indicating the accuracy of distance measurement is significantly improved at the curved road.

1 引言

环境感知是先进驾驶辅助系统和自动驾驶技术中基础和关键的技术之一,感知用传感器主要有雷达、激光雷达及摄像头等[1]。其中,基于视觉摄像头的感知方式因具有感知信息丰富、价格相对低廉、算法容易实施等优点而得到广泛应用。自动驾驶视觉环境感知的一项主要任务是车辆定位,即通过图像计算周围车辆的实际位置。目前的视觉测距方法主要有单目视觉测距和立体视觉测距[2]。其中立体视觉测距需要匹配多个摄像头,计算量大,在汽车上应用时难度较大;而单目视觉测距的方法简单、计算量小、成本低廉,更适合于汽车动态环境。目前单目视觉车辆测距方法主要分为两类,即基于车辆位置信息和基于宽度信息。

Adamshuk等[3]提出一种基于逆透视变换的测距方法,但是由于逆透视变换的固有特性,距离越远透视误差越大,该方法得到的有效测距范围小。Rezaei等[4]考虑了逆透视变换的缺点,提出一种基于小孔成像模型的测距模型,该模型对逆透视变换和小孔成像模型的测距结果进行加权得到距离,但是受摄像机俯仰角影响,在动态环境下进行远距离测量时测距精度低。对此,Cheung等[5]提出一种基于道路消失点的改进小孔成像模型来修正俯仰角,但是道路图像远处对应的纵向像素过少,使用该模型测距时,消失点的单位像素偏离会带来较大的距离误差。通过对上述研究的分析可知,基于车辆位置的测距方法对远处车辆的测距效果较差,即有效测距范围小,且难以应对车载动态环境。从宽度信息角度入手,Han等[6]提出基于车辆宽度计算两车间距离的方法,但是该方法只能由其他信息估计车辆宽度,存在很大的不确定性。针对车辆宽度无法检测的问题,Zhao等[7]提出一种基于具有固定宽度的车牌来计算距离的方法,但是距离较远时图像中车牌非常小,以致难以检测,导致测距范围依赖于摄像头视场角的大小。Lee[8]提出一种基于车道线宽度不变的测距方法,该方法根据前车所在位置处车道线像素宽度来计算距离,相比基于车牌宽度的方法,该方法的测距范围更远。

基于车道线宽度的方法受车辆距离、摄像头俯仰角等因素影响最小,且所需要的先验信息获取容易,动态环境下测距鲁棒性好。但是Lee[8]提出的基于车道线的测距方法只针对直线车道线情况,弯道下误差大。因此,本文分析现有的基于车道线宽度的测距方法在弯道下的误差因素,提出对应的测距模型,并采用逆透视变换获取车道线方程,将基于车道线的测距方法推广至弯曲道路。

2 误差建模分析

由成像原理可知,三维世界坐标系中的平行直线映射到二维坐标系时会交汇于一点[9]。车道线正好符合上述情况,因此可以根据目标位置处车道线在图像中的像素宽度,通过相似三角形成像原理推导出距离,如图1所示。已知车道线宽度Lline、目标车辆位置处车道线像素宽度Lpixel、摄像头焦距fx,则自车与目标车辆之间的距离为

Y=fxLlineLpixel(1)

图 1. 直道测距模型

Fig. 1. Straight road ranging model

下载图片 查看所有图片

但是车辆行驶在弯道上时,在摄像头采集的二维图像上获取的目标车辆位置处的车道线宽度信息会产生变化,如图2所示。现有算法在图像上绘制的目标车辆位置处车道线像素宽度Lpixel对应于真实世界坐标系中的Ldraw,但是从三维世界俯瞰图可以看到,Ldraw并不等于实际的车道线宽度Lline。此时采用现有的车道线辅助测距方法会产生误差,且弯道曲率越大,距离越远,测距误差越大。因此,要发挥基于车道线测距的方法的鲁棒性优势,则需要获得车道线像素宽度Lpixel对应的Ldraw的真实宽度。为了弥补弯道导致的宽度损失,提出了一种能精确估计前方车辆位置处车道线横向宽度的方法。

图 2. 弯道测距模型

Fig. 2. Curve road ranging model

下载图片 查看所有图片

已知车道线方程x=f(y)。首先通过(1)式计算出目标的大致距离Ydraw,随后通过Ydraw处的车道线斜率k计算世界坐标系中LdrawLline的夹角θ,并估计车道线的实际横向宽度,表达式分别为

k=dydx=1f'(Ydraw),(2)θ=arctan1k,(3)Ldraw=Llinecosθ(4)

最后联立(1)、(4)式,计算出目标位置的实际纵向距离,表达式为

Ytruth=fxLpixel×Llinecosarctanf'(fxLlineLpixel)(5)

3 所提方法的误差分析

分析可知,根据目标车辆位置处车道线的斜率推导出的车道线的实际横向宽度的方法存在两个误差,如图3所示。一是根据(2)式计算目标位置处车道线斜率时,默认Ldraw等于Lline并代入(1)式计算得到纵向距离Ydraw,导致计算得到的并非目标位置A处的车道线斜率,而是附近某一位置A'处的车道线斜率;二是根据(4)式计算车道线横向宽度Ldraw时,计算结果比实际横向宽度大ΔL

图 3. 误差分析模型

Fig. 3. Error analysis model

下载图片 查看所有图片

为了定量分析两个误差源对所提测距方法的影响,建立如图3所示的坐标系,取自车前进方向为Y轴,横向为X轴,L为依据(4)式计算得到的A点处车道线横向宽度,L'为依据(4)式计算得到的A'处车道线横向宽度。为了简便计算,设车道线为同心圆模型,车辆平行车道线行驶,弯道内侧车道线方程为(X-a)2+Y2=r2,外侧为(X-a)2+Y2=(r+Lline)2,则目标车辆位置处车道线横向宽度Ldraw与真实纵向距离Yr的关系为

Ldraw=dAB=r+Lline2-Yr2-r2-Yr2,(6)

式中:a为车道线同心圆模型圆心的横坐标;r为车道线半径。

Ldraw代入(1)式,可得

fxLpixel=Yrr+Lline2-Yr2-r2-Yr2(7)

所以现有测距方法[8]基于(1)式得到的测距结果为

Yd=Yr×Lliner+Lline2-Yr2-r2-Yr2(8)

通过(5)式可以计算出所提测距方法的测距结果为

Yp=Yrr+Lline2-Yr2-r2-Yr2LlinecosarctanYdr2-Yd2(9)

假设车道线宽度Lline为3 m,在不同曲率半径的车道线情况下,两种方法的测距结果与真实距离如图4所示。可见:在同等情况下,所提测距方法更接近真实值,且随着真实距离的增加,所提方法的优势更明显;但是当弯车道线半径为85 m和105 m时,远距离测距结果都很差,这是因为此时半径较小,远距离测量时目标车辆实际已经驶出自车的视野中央或者已经脱离自车的检测范围。但即使在这种特殊情况下,相比于现有方法,近距离测量时所提方法仍然十分接近真实距离,测距方法的修正效果十分明显。

图 4. 所提方法与文献[ 8]方法的测距结果

Fig. 4. Measured distance results of proposed method and method in Ref.[8]

下载图片 查看所有图片

图5为两种方法的测距误差。在弯车道线半径为85 m,真实距离为30 m时,文献[ 8]方法的测距误差为6.2%,所提方法的测距误差仅为0.6%;真实距离为50 m处,文献[ 8]方法的测距误差为18.4%,所提方法的测距误差为7%。在弯车道线半径为225 m下,真实距离为30 m处,文献[ 8]方法的测距误差为0.88%,所提方法的测距误差约为0;真实距离为80 m处,文献[ 8]方法的测距误差为6.72%,所提方法的测距误差为0.72%。

图 5. 所提方法与文献[ 8]方法的测距误差

Fig. 5. Measured distance error of proposed method and method in Ref.[8]

下载图片 查看所有图片

可见,所提方法对测距误差有很明显的修正。虽然随着真实距离越远,测距误差越大,但是相对而言误差距离很小。弯车道线曲率半径越大,测距误差越低,当曲率半径大于200 m时,真实距离为100 m内的测距误差小于1%。

4 实验

为了验证所提方法在实际道路环境下的测距效果,在KITTI数据集上对所提方法进行验证。

首先通过逆透视变换计算图像底边车道线的宽度,并将其作为当前车道线宽度,从KITTI数据集中提取车道线信息和车辆目标检测框,通过逆透视变换将车道线映射到世界坐标系中,再提取世界坐标系下的车道线方程。图6为车道线逆透视变换示意图。测距结果如图7所示,相关测距结果如表1所示。

图 6. 车道线逆透视变换示意图

Fig. 6. Inverse perspective transformation result of lane lines

下载图片 查看所有图片

图 7. 所提方法的测距结果

Fig. 7. Measured distance results of proposed method

下载图片 查看所有图片

表 2. 实验总体测距结果

Table 2. Overall ranging results in experiment

ParameterMethod in Ref.[8]Proposed method
Error distance /mError /%Error distance /mError /%
(μ,σ)(4.09,3.95)(9.5,5.23)(1.88,1.74)(4.42,2.12)

查看所有表

表 1. 所提方法与文献[ 8]方法的测距结果

Table 1. Measured distance results of proposed method and method in Ref.[8]

No.Truth distance /mMethod in Ref.[8]Proposed method
Measured distance /mError /%Measured distance /mError /%
Fig.7(a)25.9224.26.6325.13.16
52.0941.819.7549.15.74
Fig.7(b)35.6333.26.6734.43.39
47.0940.514.0844.26.16

查看所有表

实验共选取了98张包含标注数据的图片,共对142个车辆目标实施测距算法。将所提方法、文献[ 8]方法的检测结果与真实距离进行对比,结果如表2所示。可以看出,所提方法得到的误差均值μ和标准差σ都小于文献[ 8]方法,平均误差在5%以内,说明所提方法优于文献[ 8]方法,有效提高了在弯道下的测距精度。

所提方法除了固有误差,还包括以下几种误差来源。

1) 车道线检测精度。车道线是所提方法的关键参照信息,因此车道线方程的精度对测距结果有较大的影响。例如在图6(b)中,因摄像头外参数变化,逆透视变换后的车道线明显不平行,导致车道线方程不准确、测距误差增大。

2) 车辆检测框底边缘位置精度。车辆检测框确定车辆的位置,则其底边缘的上下像素位移会影响对应的车道线像素宽度,进而对测距结果造成影响。但由于所提方法是基于横向宽度进行测距的,相对于基于车辆位置信息的测距方法,车辆检测框底边缘的误差对所提方法的影响很小。

5 结论

分析了现有的基于车道线宽度的测距方法存在的局限性,即在弯道下测距误差较大的问题;分析了误差产生的机理,并提出了关于弯道处车道线横向宽度的计算公式,推导出基于车道线横向实际宽度的测距模型。随后选用同心圆车道线模型,分析现有测距方法与所提测距方法在不同曲率车道线下的测距误差。误差分析结论指出,相比于现有方法,所提测距方法的测距精度明显得到提高。当车道线曲率为0.01时,在真实距离为50 m内,所提方法的测距误差小于3%;当曲率小于0.005时,在真实距离为100 m内,所提方法的测距误差小于1%。最后在KITTI数据集上验证所提方法在实际道路环境下的测距效果,平均距离误差在5%以内,测距精度得到明显的提高。

参考文献

[1] RezaeiM, KletteR. Vision-based driver-assistance systems[M] ∥Rezaei M, Klette R. Computer vision for driver assistance. Computational imaging and vision. Cham: Springer, 2017, 45: 1- 18.

[2] Liu L C, Fang C Y, Chen S W. A novel distance estimation method leading a forward collision avoidance assist system for vehicles on highways[J]. IEEE Transactions on Intelligent Transportation Systems, 2017, 18(4): 937-949.

[3] AdamshukR, CarvalhoD, Neme J H Z, et al. On the applicability of inverse perspective mapping for the forward distance estimation based on the HSV colormap[C]∥2017 IEEE International Conference on Industrial Technology (ICIT), March 22-25, 2017, Toronto, ON. New York: IEEE, 2017: 1036- 1041.

[4] Rezaei M, Terauchi M, Klette R. Robust vehicle detection and distance estimation under challenging lighting conditions[J]. IEEE Transactions on Intelligent Transportation Systems, 2015, 16(5): 2723-2743.

[5] Cheung HK, Siu WC, LeeS, et al. Accurate distance estimation using camera orientation compensation technique for vehicle driver assistance system[C]∥2012 IEEE International Conference on Consumer Electronics (ICCE), January 13-16, 2012, Las Vegas, NV, USA. New York: IEEE, 2012: 227- 228.

[6] Han J, Heo O, Park M, et al. Vehicle distance estimation using a mono-camera for FCW/AEB systems[J]. International Journal of Automotive Technology, 2016, 17(3): 483-491.

[7] Zhao DC, Yang, HuangJ, et al. Vehicle position estimation using geometric constants in traffic scene[C]∥Proceedings of 2014 IEEE International Conference on Service Operations and Logistics, and Informatics, October 8-10, 2014, Qingdao, China. New York: IEEE, 2014: 90- 95.

[8] Lee J. Intervehicle distance estimation through camera images[J]. Journal of Electronic Imaging, 2018, 27(6): 063001.

[9] Moghadam P, Starzyk J A, Wijesoma W S. Fast vanishing-point detection in unstructured environments[J]. IEEE Transactions on Image Processing, 2012, 21(1): 425-430.

刘军, 张睿, 胡超超. 基于车道线的车辆测距方法的测距误差分析与改进[J]. 激光与光电子学进展, 2020, 57(18): 181503. Jun Liu, Rui Zhang, Chaochao Hu. Measurement Error Analysis and Improvement of Vehicle Ranging Method Based on Lane Lines[J]. Laser & Optoelectronics Progress, 2020, 57(18): 181503.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!