激光与光电子学进展, 2020, 57 (3): 030102, 网络出版: 2020-02-17   

基于3D特征点的激光雷达与立体视觉配准方法 下载: 1501次

Extrinsic Calibration for Lidar and Stereo Vision Using 3D Feature Points
陈少杰 1,2,*朱振才 3张永合 1郭明 1,**支帅 1,***
作者单位
1 中国科学院微小卫星创新研究院, 上海 201203
2 中国科学院大学, 北京 100049
3 国科学院微小卫星重点实验室, 上海 201203
摘要
激光雷达和双目相机作为无人驾驶领域中重要的环境感知设备,两者之间的外参配准是其联合应用的重要基础,然而两种信息的融合意味着繁琐的校准过程。基于此,提出一种基于特征点对匹配求解的方法,采用两块矩形木板,分别提取双目相机与激光雷达坐标系下的木板边缘3D点云,拟合空间直线求取角点坐标,最后利用Kabsch算法求解配对的特征点之间的坐标转换,利用聚类法去除多次测量结果中的异常值,并求取平均值。通过搭建实验,所提算法可在Nvidia Jetson Tx2嵌入式开发板上实现,获得了准确的配准参数,验证了理论方法的可行性。此配准方法简单易行,可自动完成多次测量,相比于同类方法精度也有所提高。
Abstract
Lidar and stereo cameras are important environmental sensors for unmanned driving. Calibrating external parameters between these two sensors is an important basis for their combination; however, combining two types of information requires a complex calibration process. This paper proposes a method based on feature point pair matching. Two rectangular planks are used to extract the 3D point cloud of the edge of the board in stereo vision and lidar coordinate systems, which is then used to obtain the corner coordinates. Finally, the Kabsch algorithm is used to solve the coordinate transformation between the paired feature points, and a clustering method is used to remove outliers from the multiple measurements and obtain the average value. By setting up an experiment, this method can be implemented on the Nvidia Jetson Tx2 embedded development board, and accurate registration parameters can be obtained, thus verifying the theoretical method’s feasibility. This registration method is simple and easy to execute, can automatically perform multiple measurements, and is improved compared with similar methods.

1 引言

近年来,无人车行业发展迅速,预计到2021年,无人车将进入市场,进入新的阶段。无人车系统主要分为三个部分:算法端、Client端、云端。其中,算法端的主要任务是利用传感器获取原始数据并从中提取有用的信息,以便了解周围环境状况,进而根据环境具体状况作出判断。无人驾驶中通常使用的传感器包括:全球定位系统(GPS)、惯性测量单元(IMU)、激光雷达、摄像头等。GPS与IMU所获数据的融合是无人车里程计的主要数据来源,激光雷达与摄像头的融合是环境感知、目标检测的主要设备。激光雷达测距远、精度高,但所获信息量少,且无法获得颜色信息,目标检测受限,需将其与视觉信息融合,以形成优势互补。摄像头又可分为单目相机、双目相机、深度(RGB-D)相机。单目相机具有尺度不确定性,有一定局限性。RGB-D相机分辨率低,且只适应于室内环境。双目相机不仅具有单目相机的全部优点,还可以通过视差感知深度信息。因此,激光雷达与双目相机融合具有一定优势,本文主要涉及激光雷达与双目相机的配准。

目前,激光雷达与相机配准的方法主要有两大类:一是先提取点、线等特征集,再通过雷达点云与图像特征之间的匹配,求解两者之间的配准参数[1-5];二是先计算雷达点云与相机图像之间的互信息损失函数,再利用优化算法求解配准参数[6-10],但此类方法只适用于传感器位移及旋转角较小的情况。还有一些方法是将SFM(Structure from motion)算法用于参数配准[11],但需要多个辅助摄像头,硬件成本要求较高。

本文方法是通过提取特征点进行匹配参数求解的,通过简单的实验装置,快速有效地求解激光雷达与双目相机之间的配准参数,可为激光雷达与立体视觉数据融合提供基础。

2 基本原理

求解激光雷达与双目相机之间的配准参数,需要在雷达与相机各自坐标系下提取一组对应的3D点,选取两块木板的八个角点作为待求解的点。双目相机与激光雷达的角点提取采用的是相似的处理流程,即都是通过提取木板边缘3D点并拟合对应的直线,再求取直线交点。下面将介绍算法的具体操作流程。

2.1 双目相机特征点提取

双目立体视觉模拟人类视觉处理景物的方式,融合两只眼睛获得的图像并观察它们之间的差别,使大家可以感知深度。将空间中同一物理点在不同图像中的像素点进行匹配,建立特征间的对应关系,形成视差(Disparity)图。关于视差图计算,有很多种方法,其中最经典的就是SGM(Semi-global matching)算法[12]。可以发现,目前排名靠前的算法很多都是SGM算法的改进,且具有很强的实用价值。综合考虑效果与计算速度,选取SGM算法的一种改进算法:SGBM(Semi-global block matching)算法,采用该方法可以获得较精确的视差图,其算法整体框架如图1所示。

图 1. SGBM算法框架

Fig. 1. SGBM algorithm framework

下载图片 查看所有图片

在获得视差图的基础上,通过相机内参计算出深度,并进而计算出点云坐标(x,y,z)。具体转换原理如图2(a)所示,图中:P1P2为空间点P在左右像平面上的成像点;f为相机焦距(左右相机一样);OLOR分别为左右相机的光心;b为基线,表示两光心之间的距离;XLXR分别为两个成像点与各自所在图像的左边缘间的距离,XLXR的差值称为视差;W表示图像分辨率中的宽度。

根据三角形相似原理,可求得像素点对应的深度值为

Z=b×fXL-XR,(1)

式中:XL-XR为视差值。若左右目相机内参中cX不一致,即cX_LcX_R,则需将深度值修改为

Z=b×f(XL-XR)+doffs,(2)

式中:doffs为两个相机主点在X方向上的距离,doffs=cX_L-cX_R

求得的Z为深度值,也即是点云对应的ZC轴坐标,继续求出XCYC轴坐标,即可获得点云空间坐标,如图2(b)所示,根据空间几何关系可得

xC=(u-cX)zCfXyC=(v-cY)zCfY,(3)

式中:cXcYfXfY为相机内参;uv为待求点云在视差图上的像素坐标。

图 2. 成像系统。(a)视差与深度几何关系;(b)由像素坐标得到空间点

Fig. 2. Imaging system. (a) Geometric relationship between parallax and depth; (b) getting spatial points from pixel coordinates

下载图片 查看所有图片

按照从左到右逆时针的顺序,依次提取图像中木板边缘,根据像素坐标可提取对应空间点云,利用随机抽样一致性(RANSAC)算法拟合点云对应的直线[13-14]。由于存在误差,拟合出的两条空间直线可能不会相交,此时选用直线间最短线段的中点作为待求的角点。

2.2 激光雷达特征点提取

目前,激光雷达的特征提取有很多的方法与应用,如文献[ 15-17]中所采用的方法。本文激光雷达特征点提取选取的方法的提取过程与双目相机类似。默认激光雷达坐标系Z轴朝上、X轴朝前,而双目相机坐标系Z轴朝前、X轴朝右。首先需要通过一个初始旋转矩阵R0将雷达点云坐标轴方向旋转至与双目相机大致相同,方便后续操作,例如先绕X轴旋转—90°,再绕Y轴旋转90°。

关于激光点云,按照文献[ 9]中的方法找到深度间断性过大的点,进而提取出木板边缘。木板平面中的每个点被赋予一个幅度,表示相对于其相邻点的深度差异,并设置一个差异阈值保留木板边缘上的点云。对于空间上的点,较难直接分割出各自在木板边缘对应的点云,而平面上的点云相对容易分割。可以利用所设置的初始旋转矩阵R0与左目相机内参K将过滤后的点云映射到相机左目像素平面上,此过程通过

uv1=KR0xyz4

来计算完成,从而使点云空间坐标与像素点联系在一起,达到选取像素点就能获得对应空间点云坐标的目的。从左到右逆时针依次框选木板的边缘,然后拟合直线,求取角点。其拟合求解顺序与相机边缘一致,目的是便于在两者之间进行角点匹配。

2.3 配准参数求解

2.3.1 Kabsch算法求解过程

MN分别表示两组对应的点云,MiNi分别表示MN集合内的点。那么优化目标函数为

min(E)=i=1n(RMi+t)-Ni,(5)

式中:E为误差函数;Rt分别为待求的旋转矩阵和平移矢量。

t求偏导,并令等式为零,得

t=1ni=1nNi-R1ni=1nMi,(6)t=N--RM-,(7)

式中: M-=1ni=1nMi;N-=1ni=1nNi

将(7)式代入优化目标函数(5)式,并令 Xi=Mi-M-,X'=RX,Yi=Ni-N-,可得

i=1nXi-Yi2=Tr(X'-Y)T(X'-Y),(8)i=1nXi-Yi2=Tr(X'TX')+Tr(YTY)-2Tr(YTX'),(9)i=1nXi-Yi2=i=1nXi2+Yi2-2Tr(YTX')(10)

由(10)式可知,对(5)式求最小值,相当于求Tr(YTX')的最大值。

因为X'=RX,所以有

Tr(YTX')=Tr(YTRX)=Tr(XYTR),(11)

XYT作奇异值分解(SVD),即令XYT=UDVT,有

Tr(XYTR)=Tr(UDVTR)=Tr(DVTRU),(12)

Z=VTRU,则有

Tr(YTX')=i=13diZiii=13di(13)

因为RU都是正交矩阵,所以Z也为正交矩阵,则有det(Z)=±1。

Zii=1,即Z为单位矩阵,则有

Z=IVTRU=IR=VUT,(14)

R必须是右手系下的旋转,因此(14)式可修正为

R=V10001000dUT,(15)

式中:d=sign det(UVT);sign()为符号函数;det()表示行列式的值。

由于最初对雷达点云作过一次旋转变换,所以需将此处求解得到的旋转矩阵R乘上初始旋转变换矩阵才能得到最终激光雷达与双目相机的配准参数。

2.3.2 多次配准减少噪声影响

双目相机保持不动,在静止的封闭房间内,通过实时显示双目相机建立的点云,可以发现,点云并不是静止的,来自雷达的点云空间坐标同样也有一定的浮动范围。为了减少噪声影响,在程序运行中需多次估计旋转和平移参数。

经过N次求解,对所有配准参数进行聚类,去除异常值后求取均值,将其作为最终的最优结果。旋转矩阵的均值求解不太容易,且由于四元数可以直接累加,因此可以先把旋转矩阵转换为四元数。四元数与旋转矩阵之间的转换关系如下:

设四元数 q=q0+q1i+q2j+q3k,对应的旋转矩阵R

R=1-2q22-2q322q1q2-2q0q32q1q3+2q0q22q1q2+2q0q31-2q12-2q322q2q3+2q0q12q1q3-2q0q22q2q3-2q0q11-2q12-2q22(16)

反之,假设R= mij,i,j1,2,3,其对应四元数q

q0=Tr(R)+12,q1=m23-m324q0,q1=m31-m134q0,q1=m12-m214q0(17)

事实上,一个旋转矩阵对应的四元数表示不唯一,还有其他一些转换方式,且当 q0接近0时,其余三分量会非常大,导致解不稳定,此时需考虑其他解法,此处不再赘述。

3 实验环境搭建

本文所提方法中使用速腾聚创的RS-LiDAR-16激光雷达,相机采用ZED双目相机,主要由两个高分辨率镜头组成,通过Nvidia Jetson Tx2上的GPU加速计算。

实验装置为两块矩形木板,提供8个角点,方便提取特征点对。图3为实验装置图,为了避免周围物体的影响,通过将绳子固定在木板背面,使木板竖直悬挂在空中。激光雷达与双目相机大概位于两块木板平面正前方2 m左右,与木板中心大概处于同一水平面。目的是保证木板每条边都可以包含一定数量的雷达扫描线,以及木板位于双目相机的成像区域。另外,在开始矫正前,相机的内参为已知条件。

图 3. 实验装置图。(a)木板设置图;(b)激光雷达与双目相机放置图

Fig. 3. Experimental device diagram. (a) Board layout; (b) layout of lidar and binocular camera

下载图片 查看所有图片

4 实验结果

通过双目相机提取的木板边缘点云如图4(a)、4(b)所示,图4(a)、4(b)分别为同一提取结果的不同视角图。将激光雷达提取的边缘点云映射到像素平面上,通过鼠标框选各个边缘所在区域,进而依次提取边缘对应的雷达点云,效果如图4(c)所示。

图 4. 边缘提取。(a)(b)双目相机不同视角的边缘提取结果;(c)激光雷达点云框选图

Fig. 4. Edge extraction. (a) (b) Edge extraction results of different perspectives of binocular camera; (c) frame selection of lidar point cloud

下载图片 查看所有图片

可以采用三种方法来查看融合结果:一,直接通过联合标定的外参来融合激光雷达与双目相机各自产生的点云;二,通过相机的内参与联合标定的外参将激光雷达点云映射到双目相机的左目图像中;三,通过双目相机与雷达的外参传递,融合两个不同视角的双目点云,从而评估外参的准确性。

4.1 结果验证

方法一:在两种不同场地上的点云融合结果如图5所示,其中线条状点云为雷达获得的精确点云。从整体上以及各个物体轮廓部分的点云融合结果来看,通过本文提出的方法可以有效地对激光雷达与双目相机进行配准。

图 5. 不同视角下两个场景的点云融合结果。(a)(b)场景一;(c)(d)场景二

Fig. 5. Point cloud fusion results from different perspectives in two scenes. (a) (b) Scene one; (c)(d) scene two

下载图片 查看所有图片

图5中融合结果的研究意义在于:可以将视觉图像与雷达精确点云联合在一起,以达到数据联合应用的目的。例如,对于图5(b)方框中物体,单靠雷达难以识别目标,联合双目相机后可以方便获取目标。

方法二:为了体现效果,将木板上的雷达点云重投影到左目图像上进行轮廓比对,如图6所示。可以看到,通过雷达获得的木板像素点与通过双目相机成像的木板像素点的轮廓吻合较好,说明配准参数比较准确。

图 6. 雷达点云重投影结果

Fig. 6. Results of lidar point cloud reprojection

下载图片 查看所有图片

方法三:首先获得雷达与双目相机视角一的配准外参TLC1,保持雷达固定,移动双目相机,转换视角,获得配准外参TLC2,则两不同视角下的点云转换外参为TC2C1=TLC1· TLC2-1。两种双目视角左视图及融合结果如图7所示。

图 7. 双目相机两个不同视角的点云融合。(a)(b)两个视角的左视图;(c)点云融合结果

Fig. 7. Point cloud fusion of two different perspectives of binocular camera. (a)(b) Left view of two perspectives; (c) result of the point cloud fusion

下载图片 查看所有图片

通过融合结果图7(a)和7(b)中的木板、绳子、地面等物体轮廓,可以看出求得的配准参数很准确。此外,这种验证方法也是配准参数的应用之一,可以通过此方法融合两个不同视角的双目相机,以达到扩大视场角的目的。

由以上三种方法的验证结果可以看出,利用本文方法可以很准确地获得激光雷达与双目相机的配准参数。

4.2 结果比较

为了体现本文方法的优越性,将其与文献[ 4]中特征点匹配求解的方法进行比较。本文方法与文献[ 4]中方法属于同种类型的方法,即都为通过提取特征点来进行匹配参数求解。本文与文献[ 4]中方法的主要区别有两点:一是特征点提取方式不同,二是配准参数求解方法不同。文献[ 4]中采取拟合圆、提取圆心点的方式,并通过 ICP(Iterative closest points)的方法求解配准参数。由于本文是按照一定顺序提取角点的(如逆时针提取边缘,并依次求取角点),所以提取出的两组点匹配关系已知,可以直接采用Kabsch算法进行配准参数求解,从而避免使用ICP算法陷入局部最优解的可能。

本文将采用两种方式进行比较:一是理论分析比较,二是结果图直观比较。

理论分析:首先,文献[ 4]中采用带有4个圆形孔洞的大矩形平面木板,且该方法是直接在XY平面上对木板平面进行提取,并进而拟合出圆心,意味着传感器坐标系的Z轴必须与木板垂直,较容易引入不必要的误差。另外,文献[ 4]中方法拟合圆心时所用的点太少,容易产生较大误差,如图8所示。若要产生更多的点,则相对需使圆形更大,但木板尺寸太大不利于实验场景布置。其次,仅通过4个匹配点求取配准参数,可能会产生较大误差。本文方法在保证精度的前提下,装置容易设置,操作方便,同时通过8个匹配点求解得到的配准参数将更加准确。

图 8. 文献[ 4]中方法的融合结果图。(a)边缘点提取结果图;(b)圆心提取结果图

Fig. 8. Fusion results of method in Ref. [4]. (a) Result of edge point extraction; (b) result of circle center extraction

下载图片 查看所有图片

结果展示:文献[ 4]中方法的融合结果如图9所示,从右侧圈出的三角形区域中可以看出映射到图像上的点云存在一些偏差,与图6进行比较,可以发现本文方法有一定的优势。

图 9. 文献[ 4]中方法融合结果图。(a)结果一;(b)结果二

Fig. 9. Fusion results of method in Ref. [4]. (a) Result 1; (b) another result

下载图片 查看所有图片

5 结论

本文提出了一种基于3D-3D特征点的激光雷达与双目相机的外参配准方法。在已知双目相机内参的情况下,通过SGBM方法恢复视差图并获得点云,利用边缘提取算法提取木板边缘,拟合边缘求取木板角点,获得了双目相机坐标系下的3D特征点;对于激光雷达,映射其点云到左目图像上,选取木板边缘对应的点云,拟合直线求取木板角点。最后利用Kabsch算法对两种途径提取的配对特征点云进行配准,准确求解激光雷达与双目相机之间的配准参数,实验装置简单,方便搭建。

参考文献

[1] Zhou LP, Li ZM, KaessM. Automatic extrinsic calibration of a camera and a 3D LiDAR using line and plane correspondences[C]∥2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), October 1-5, 2018, Madrid, Spain. New York: IEEE, 2018: 5562- 5569.

[2] GeigerA, MoosmannF, CarO, et al. Automatic camera and range sensor calibration using a single shot[C]∥2012 IEEE International Conference on Robotics and Automation, May 14-18, 2012, St Paul, MN, USA. New York: IEEE, 2012: 3936- 3943.

[3] GuindelC, BeltránJ, MartínD, et al. Automatic extrinsic calibration for lidar-stereo vehicle sensor setups[C]∥2017 IEEE 20th International Conference on Intelligent Transportation Systems (ITSC), October 16-19, 2017, Yokohama, Japan. New York: IEEE, 2017: 17631999.

[4] Vel'asM, ŠpanělM, MaternaZ, et al. Calibration of RGB camera with velodyne LiDAR[C]∥22nd International Conference in Central Europeon Computer Graphics, Visualization and Computer Vision, November 10, 2014. [S.l.: s.n.], 2014: 135- 144.

[5] CastorenaJ, Kamilov US, Boufounos PT. Autocalibration of lidar and optical cameras via edge alignment[C]∥2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), March 20-25, 2016, Shanghai, China. New York: IEEE, 2016: 2862- 2866.

[6] 夏鹏飞, 尹慧琳, 何艳侠. 基于最大互信息的激光雷达与相机的配准[J]. 仪器仪表学报, 2018, 39(1): 34-41.

    Xia P F, Yin H L, He Y X. Calibration of Lidar and camera based on maximum mutual information[J]. Chinese Journal of Scientific Instrument, 2018, 39(1): 34-41.

[7] TaylorZ, NietoJ. Automatic calibration of lidar and camera images using normalized mutual information[C]∥2013 IEEE International Conference on Robotics and Automation, ICRA 2013, May 6-10, 2013, Karlsruhe, Germany. New York: IEEE, 2013.

[8] PandeyG, McBride J R, Savarese S, et al. Automatic targetless extrinsic calibration of a 3D lidar and camera by maximizing mutual information[C]∥Twenty-Sixth AAAI Conference on Artificial Intelligence, July 22-26, 2012, Toronto, Ontario, Canada. California: AAAI, 2012: 2053- 2059.

[9] LevinsonJ, ThrunS. Automatic online calibration of cameras and lasers[C]∥Robotics: Science and Systems, Jun 24-28, 2013, Berlin, Germany. Cambridge: MIT Press, 2013.

[10] JohnV, LongQ, LiuZ, et al. Automatic calibration and registration of lidar and stereo camera without calibration objects[C]∥2015 IEEE International Conference on Vehicular Electronics and Safety (ICVES), November 5-7, 2015, Yokohama, Japan. New York: IEEE, 2015: 231- 237.

[11] BokY, Choi DG, Kweon IS. Generalized laser three-point algorithm for motion estimation of camera-laser fusion system[C]∥2013 IEEE International Conference on Robotics and Automation, May 6-10, 2013, Karlsruhe, Germany. New York: IEEE, 2013: 2880- 2887.

[12] Hirschmüller H. Stereo processing by semiglobal matching and mutual information[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 30(2): 328-341.

[13] Fischler M A, Bolles R C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981, 24(6): 381-395.

[14] Sorkine-Hornung O, Rabinovich M. Least-squares rigid motion using SVD[J]. Computing, 2017, 1(1): 1-5.

[15] 王岱良, 李玉. 基于旋转差值核估计的激光雷达点云建筑物边缘提取[J]. 中国激光, 2019, 46(1): 0104005.

    Wang D L, Li Y. Building edge extraction from LiDAR point cloud based on rotational difference kernel estimation[J]. Chinese Journal of Lasers, 2019, 46(1): 0104005.

[16] 苗松, 王建军, 李云龙, 等. 基于建筑物激光点云边缘线自动提取提高DSM精度[J]. 激光与光电子学进展, 2018, 55(1): 012803.

    Miao S, Wang J J, Li Y L, et al. Digital surface model accuracy improvement based on edge line automatic extraction of building laser point cloud[J]. Laser & Optoelectronics Progress, 2018, 55(1): 012803.

[17] 陈贵宾, 高振海, 何磊. 车载三维激光雷达外参数的分步自动标定算法[J]. 中国激光, 2017, 44(10): 1010004.

    Chen G B, Gao Z H, He L. Step-by-step automatic calibration algorithm for exterior parameters of 3D lidar mounted on vehicle[J]. Chinese Journal of Lasers, 2017, 44(10): 1010004.

陈少杰, 朱振才, 张永合, 郭明, 支帅. 基于3D特征点的激光雷达与立体视觉配准方法[J]. 激光与光电子学进展, 2020, 57(3): 030102. Shaojie Chen, Zhencai Zhu, Yonghe Zhang, Ming Guo, Shuai Zhi. Extrinsic Calibration for Lidar and Stereo Vision Using 3D Feature Points[J]. Laser & Optoelectronics Progress, 2020, 57(3): 030102.

本文已被 3 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!