中国激光, 2019, 46 (1): 0104003, 网络出版: 2019-01-27   

基于iGPS定位跟踪的三维形貌测量系统标定方法 下载: 816次

Calibration Method of Three-Dimensional Shape Measurement System Based on iGPS Positioning and Tracking
作者单位
1 长春理工大学机电工程学院, 吉林 长春 130022
2 长春理工大学光电工程学院, 吉林 长春 130022
摘要
基于iGPS定位跟踪的三维形貌测量系统, 建立了测量系统的数学模型, 介绍了传统手眼标定技术的主要原理, 使用激光跟踪仪建立了系统转换关系。提出了一种融合特征点拟合的标定方法, 利用特征点约束和基于罗德里格矩阵的算法得到了转换关系。对标定后的系统进行了基于机器人基坐标系和iGPS世界坐标系的点云拼接对比实验, 实验结果表明, 融合特征点拟合的标定方法提高了点云拼接的精度。
Abstract
Based on the three-dimensional shape measurement system of iGPS positioning and tracking, a mathematical model of this system is established, and the main principle of the traditional hand-eye calibration technology is introduced. Then the system conversion relationship is established with the laser tracker. A calibration method based on feature point fitting is proposed and the transformation relationship is solved by the feature point constraint and the Rodrigue matrix based algorithm. The point cloud splicing contrast experiments based on the robot base coordinate system and the iGPS world coordinate system are performed on the calibration system. The experimental results show that the calibration method based on fusion feature point fitting improves the precision of point cloud splicing.

1 引言

在由工业机器人和形貌传感器组成的三维形貌机器人测量系统中,机器人既是运动载体,也是精度链中的重要环节。针对工业机器人绝对定位精度较低的问题,目前大多数研究以关节误差补偿为主[1],但在大尺寸复杂曲面的测量过程中,测量系统往往需要进行较大范围的运动,机器人各关节运动角度非常大,在测量域内的关节误差补偿往往无法达到测量系统所需的精度要求。

本文以“室内全局定位系统(iGPS)-工业机器人-形貌传感器”为核心,利用iGPS来实现全局定位跟踪,基于iGPS全局坐标系实现了形貌测量,提高了三维形貌机器人柔性测量系统的测量精度。系统不再以机器人基坐标系作为拼接坐标系,而是以iGPS世界坐标系作为拼接坐标系,因此传统“眼在手上”(Eye-in-hand)的手眼标定方式已不再适用。提出了一种融合特征点拟合的转换关系标定方法,通过对比实验,验证引入iGPS定位跟踪系统的测量系统标定算法的可靠性以及提高点云拼接精度的可行性。

2 测量系统总体设计

测量系统以控制计算机为中心,由工业机器人、形貌测量传感器、iGPS定位跟踪测量系统、机器人控制系统等组成,如图1所示,其中USB为通用串行总线。根据固定安装在三维形貌传感器上的iGPS接收器实时获取的点云数据进行基于iGPS测量坐标系的多视点云拼接,消除工业机器人定位精度对点云拼接的影响。

图 1. 系统方案组成框图

Fig. 1. Block diagram of system plan compositions

下载图片 查看所有图片

3 测量系统数学模型

形貌测量系统坐标系由形貌传感器测量坐标系、iGPS接收传感器构成的Frame坐标系和作为世界坐标系的iGPS测量坐标系构成。系统各坐标系及关系示意图如图2所示,各坐标系定义如下。

形貌传感器测量坐标系Os-XsYsZs:形貌传感器系统的Zs轴与投影头轴线重合,且正向指向传感器,Xs轴与Ys轴都在投影光平面上。

Frame坐标系Of-XfYfZf由安装在形貌传感器顶端的4个iGPS接收传感器构成,是测量数据传递的中转站。Frame坐标系由iGPS测量系统创建,其创建规则如下。选择其中一个接收传感器作为原点,以4个传感器构成的平面作为XfYf平面,该平面的法线即为Zf轴方向,以作为原点的接收传感器指向另一个接收传感器的方向为Xf轴,Yf轴由右手定则确定。iGPS接收传感器固定安装在形貌传感器上,故坐标系Os-XsYsZs与坐标系Of-XfYfZf之间的转换关系 sfT不随测量系统的运动而改变,其中上标f代表坐标系Of-XfYfZf,下标s代表坐标系Os-XsYsZs

世界坐标系Ow-XwYwZw由iGPS定位跟踪系统确定,可使用任何一个激光发射器的坐标系作为世界坐标系。iGPS激光发射器在系统标定后不可以移动,而形貌传感器上的iGPS接收传感器会随着测量站位的改变而发生变化,故坐标系Of-XfYfZf与坐标系Ow-XwYwZw之间的转换关系 fwT是不断变化的,其中上标w代表坐标系Ow-XwYwZw,下标f代表坐标系Of-XfYfZf

设点P为测量范围内任意一点,在工件坐标系下点P的坐标为Pp,在世界坐标系Ow-XwYwZw下坐标为Pw。则两坐标系下点P的坐标满足

Pw=fwT·sfT·psT·Pp,(1)

式中 psT为工件坐标系向形貌传感器坐标系转化的关系。

工件坐标系下的被测点Pp在每次测量时都会先转换到形貌传感器坐标系Os-XsYsZs下,故转换关系 psT的转换结果可由标定后的形貌传感器测量得到,只需将转换关系 fwTsfT在测量前进行标定,测量系统即可正常工作。

图 2. 系统坐标系示意图。(a)机器人系统相关坐标系; (b) iGPS坐标系

Fig. 2. Schematic of coordinate system. (a) Coordinate system related to robot system; (b) iGPS coordinate system

下载图片 查看所有图片

图 3. 手眼标定示意图

Fig. 3. Schematic of hand-eye calibration

下载图片 查看所有图片

4 测量系统转换关系标定

传统的工业机器人和形貌传感器结合的测量系统只需完成手眼标定,即建立起机器人末端法兰盘坐标系与形貌传感器坐标系之间的转换关系,便可对测量数据进行基于机器人基坐标系的点云拼接[2]。但所提测量系统存在三个坐标系,需要标定两组坐标系之间的转换关系:坐标系Os-XsYsZs

与坐标系Of-XfYfZf之间的转换关系 sfT,坐标系Of-XfYfZf与坐标系Ow-XwYwZw之间的转换关系 fwT

4.1 传统转换关系标定方法及参数求解

4.1.1 转换关系模型

传统机器人测量系统的标定方法控制机器人进行多次姿态变换,使传感器对固定不动的棋盘格进行拍摄,求得棋盘格相对于传感器的多个外部姿态参数,再结合机器人控制器显示的运动参数构建齐次方程,求得手眼变换矩阵[3]。经典的手眼标定模型为AiX=BiX,其中X为所要求得的手眼矩阵[4],AiBi分别为机器人末端法兰盘的运动量和与其对应的摄像机的运动量,Ai由摄像机校准中的外部参数确定,Bi可由机器人正向运动学关系和机器人关节读数确定,i为变量的维数。图3所示为传统手眼标定的示意图,其中Oq-XqYqZq为棋盘格坐标系,Ob-XbYbZb为机器人基坐标系。

将手眼矩阵X用旋转矩阵R和平移向量T描述,即

X=RT01,(2)

求出旋转矩阵R与平移向量T,便可完成手眼矩阵的求解。

4.1.2 常用转换关系求解方法

手眼矩阵的求解实质是实现从笛卡儿空间一个坐标系到另一个坐标系的转换,应用最广泛的两种求解方法为四元数法和奇异值分解(SVD)法[5]

1) 四元数法

四元数法是一种利用四元矢量q表示旋转矩阵R的方法,q=q0+q1i+q2j+q3k=(q0,q1,q2,q3),其中q0q1q2q3为任意实数,i、j、k为虚数单位,i2=j2=k2=i×j×k=-1。旋转矩阵R用单位四元数表示为

R=q02+q12-q22-q322(q1q2-q0q3)2(q1q3+q0q2)2(q1q2+q0q3)q02-q12+q22-q322(q2q3-q0q1)2(q1q3-q0q2)2(q2q3+q0q1)q02-q12-q22+q32,(3)

式中单位四元数满足 q02+q12+q22+q32=1。

Pi=(xi,yi,zi)为公共点Pi在形貌传感器中的坐标,P'i=(x'i,y'i,z'i)为此公共点在机器人法兰盘坐标系下的坐标,s为比例因子。则Pi=(xi,yi,zi)可用四元数表示为

xiyizi=T+sq02+q12-q22-q322(q1q2-q0q3)2(q1q3+q0q2)2(q1q2+q0q3)q02-q12+q22-q322(q2q3-q0q1)2(q1q3-q0q2)2(q2q3+q0q1)q02-q12-q22+q32x'iy'iz'i(4)

可用si的算术平均值作为比例因子s的最佳估计值,si的表达式为

si=x'2ij+y'2ij+z'2ijxij2+yij2+zij2,(5)

式中xij=xi-xj,yij=yi-yj,zij=zi-zj;x'ij=x'i-x'j,y'ij=y'i-y'j,z'ij=z'i-z'j;(xj,yj,zj)为某公共点Pj在机器人法兰盘坐标系中的坐标,且ji

设测量系统中的所有公共点的质心在机器人法兰盘坐标系中的坐标为 P-i=( x-, y-, z-),公共点的质心在形貌传感器中的坐标为 P-'i=( x-', y-', z-'),公共点的个数为n,则由所有公共点的质心所列的转站方程组为

x-'y-'z-'=T+sRx-y-z-(6)

从而得到交叉共生矩阵为

U=1ni=1n(Pi-P-i)(P'i-P-'i)T,(7)

式中上标T代表求转置。

设反对称矩阵S=U-UT,列矢量η=S23S31S12T,交叉共生矩阵的迹M=trace(U),其中trace为求迹运算,则可得矩阵Q

Q=MηTηU+UT-ME,(8)

式中E为3阶单位矩阵。

解出矩阵Q的最大特征值,其对应的特征向量即为四元矢量q=(q0,q1,q2,q3),代入(3)式可得旋转矩阵R。将sR的值代入(6)式可求解平移向量T

2) SVD法

SVD法是在求解目标函数最小化时应用的一种方程组求解算法[6]。记Qi(x'i,y'i,z'i)为某公共点在形貌传感器坐标系中的坐标,则转站模型可表示为

Pi=sR·Qi+T(9)

设所有公共点的质心在形貌传感器坐标系中的坐标为( x-'i, y-'i, z-'i),记为 Q-i。两组点PiQi的质心坐标分别为

P-i=i=1nPin, Q-i=i=1nQin(10)

两组点PiQi质心化后的坐标分别可表示为P'i=Pi-P-,Q'i=Qi-Q-,质心化后的误差为

Δ=i=1nP'i-sR·Q'i2(11)

Δ达到最小时,得到所求的旋转矩阵R。要使Δ最小等价于使 i=1nP'iT·R·Q'i最大,即

i=1nP'iT·R·Q'i=trace(R·H),(12)

式中矩阵H=i=1nQ'i·P'iT。对H进行SVD,得到H的SVD矩阵UV。当R=V·UT时, i=1nP'iT·R·Q'i达到最大值,求解得到旋转矩阵R

可由(5)式中si的算术平均值作为比例因子s的最佳估计值,得到比例因子s和旋转矩阵R,再根据(9)式求出平移矩阵T,进而完成手眼矩阵的求解。

4.2 融合特征点拟合的转换关系 sfT标定

传统的手眼标定方法适用于以机器人基坐标进行点云拼接的测量系统,由于机器人的绝对定位精度较差,这种测量系统的点云拼接精度较低。以iGPS全局定位跟踪系统作为世界坐标系,机器人仅作为移动机构,不再是精度链中的环节;结合形貌传感器的坐标系无法直接测量的特点,提出了融合特征点拟合的转换关系标定方法,借助激光跟踪仪对形貌传感器坐标系Os-XsYsZs与Frame坐标系Of-XfYfZf之间的转换关系 sfT进行标定。

1) 融合特征点拟合标定的数学模型

为提高测量坐标值的精确性,选择尺寸相同的激光跟踪仪靶球与形貌传感器半球形作为参考点,可得到由形貌传感器坐标系Os-XsYsZs到激光跟踪仪坐标系Ol-XlYlZl的转换关系 slT。使用激光跟踪仪对形貌传感器上4个iGPS接收传感器进行测量,按照iGPS定位跟踪系统中的坐标系建立原则建立Frame坐标系,得到激光跟踪仪坐标系Ol-XlYlZl到Frame坐标系Of-XfYfZf的转换关系 lfT,转换关系标定的示意图如图4所示。故形貌传感器坐标系到Frame坐标系的转换关系为

sfT=lfT·slT(13)

根据布尔-沙七参数转换模型[7-8],对于空间中可测量范围内的特征点,假设点P在形貌传感器坐标系下的坐标为( XYZ)T,点P在激光跟踪仪坐标系下的坐标为( xyz)T,则两坐标系的关系为

xyz=sRlXYZ+Tl,(14)

式中Rl=R(εX)R(εY)R(εZ)为由形貌传感器坐标系到激光跟踪仪坐标系的旋转矩阵;Tl=( ΔXΔYΔZ)T为两坐标系之间的平移向量。则(13)式可以表示为

sfT=sRlTl01RsTs01=sRlRssRlTs+Tl01,(15)

式中RsTs分别为激光跟踪仪坐标系到Frame坐标系的旋转矩阵和平移向量,可由激光跟踪仪直接对形貌传感器上安装的4个iGPS接收传感器进行测量获取。

图 4. 转换关系标定示意图

Fig. 4. Schematic of calibration of conversion relationship

下载图片 查看所有图片

2) 转换关系参数求解

融合特征点拟合的标定方法在求解形貌传感器与激光跟踪仪转换关系时,首先需要建立形貌传感器坐标系Os-XsYsZs和激光跟踪仪坐标系Ol-XlYlZl下的一组公共特征点。为计算方便,通常将特征点坐标转化为以重心为原点的重心化坐标。设特征点在两坐标系下的坐标分别为( XiYiZi)T、( xiyizi)T,i=1,2,…,n,两个坐标系下的重心坐标分别为( XgYgZg)T、( xgygzg)T,g代表重心。则有

(XgYgZg)T=1ni=1n(XiYiZi)T(xgygzg)T=1ni=1n(xiyizi)T(16)

记经重心化后两坐标系下的特征点坐标分别为( X-iY-iZ-i)T、( x-iy-iz-i)T,则有

(X-iY-iZ-i)T=(XgYgZg)T-(XgYgZg)T(x-iy-iz-i)T=(xgygzg)T-(xgygzg)T(17)

将(16)、(17)式代入(14)式可得

x-iy-iz-i=sRlX-iY-iZ-i(18)

对(18)式两边取2-范数,由s>0及旋转矩阵为正交矩阵的特性可得

(x-iy-iz-i)T=λ(X-iY-iZ-i)T,(19)

式中λsR1l的二范数值。

对于n个公共点,可得s的最小均方估计为

s=i=1nx-iy-iz-iT·X-iY-iZ-iTi=1nX-iY-iZ-iT2(20)

形貌传感器坐标系与激光跟踪仪坐标系之间的转换通常为大角度空间坐标转换,在求解旋转矩阵Rl时,若采用基于泰勒级数展开的非线性方法求解,涉及到旋转参数初始值的选取问题,得不到准确结果[9-10];而SVD法特殊性较强,不能保证得到旋转矩阵[11]。这里采用基于罗德里格矩阵的最小二乘法进行求解,罗德里格矩阵由反对称矩阵和单位矩阵构建[12-13],引入一个具有3个独立元素的反对称矩阵:

S=0-c-bc0-aba0,(21)

式中abc为罗德里格参数,则Rl=(E+S)(E-S)-1为正交矩阵。将Rl展开为

Rl=11+a2+b2+c21+a2-b2-c2-2c-2ab-2b+2ac2c-2ab1-a2+b2-c2-2a-2bc2b+2ac2a-2bc1-a2-b2+c2(22)

在解算罗德里格参数abc时,可将两个公共点的坐标代入(18)式,求差可得

x-2-x-1y-2-y-1z-2-z-1=sRlX-2-X-1Y-2-Y-1Z-2-Z-1,(23)

(23)式两端同时左乘(E-S)得

(E-S)x-2-x-1y-2-y-1z-2-z-1=s(E-S)RlX-2-X-1Y-2-Y-1Z-2-Z-1(24)

Rl=(E+S)(E-S)-1知(E-S)Rl=(E+S),将其代入(24)式得

(E-S)x-2-x-1y-2-y-1z-2-z-1=s(E+S)X-2-X-1Y-2-Y-1Z-2-Z-1(25)

代入ES后,整理可得

x-21-sX-21y-21-sY-21z-21-sZ-21=0-z-21+sZ-21-y-21+sY-21-z-21+sZ-210x-21+sX-21-y-21+sY-21x-21+λX-210abc,(26)

式中 x-21=x-2-x-1, y-21=y-2-y-1, z-21=z-2-z-1; X-21=X-2-X-1, Y-21=Y-2-Y-1, Z-21=Z-2-Z-1

(26)式为两公共点矩阵方程,对于n个公共点(n≥3),可根据(25)式引入间接平差模型,误差方程为

V=B3(n-1)×3·X3×1-l3(n-1)×3,(27)

式中

B3(n-1)×3=0-(z-21+sZ-21)-(y-21+sY-21)-(z-21+sX-21)0x-21+sX-21-(y-21+sY-21)x-21+sX-2100-(z-n1+sZ-n1)-(y-n1+sY-n1)-(z-n1+sZ-n1)0x-n1+sX-n1-(y-n1+sY-n1)x-n1+sX-n10,X3×1=abc,l3(n-1)×3=x-21-sX-21y-21-sY-21z-21-sZ-21x-21-sX-21y-21-sY-21z-21-sZ-21(28)

根据最小二乘原理[13],可求得X

X=(BT·B-1)·BT·l(29)

将(29)式求得的值代入(22)式即可求得Rl,平移向量Tl的计算公式为

Tl=xyz-sRlXYZ(30)

综合激光跟踪仪建立机器人法兰盘坐标系与激光跟踪仪坐标系的转换关系 lfT,根据(13)式即可完成转换关系的求解。

4.3 转换关系 fwT

Frame坐标系由4个iGPS接收传感器组成,4个iGPS接收传感器的相对位置关系始终保持不变,虽然Frame坐标系在测量过程中随测量站位的改变而变化,但是其坐标系各轴的方位是稳定不变的。iGPS跟踪定位系统可实时跟踪4个iGPS接收传感器的空间坐标,系统软件对每个测量站位的4个接收传感器坐标进行处理,则Frame坐标系Of-XfYfZf到世界坐标系Ow-XwYwZw的转换关系为

Pw=Rf·Pf+Tf,(31)

式中Rf=R(εX)R(εY)R(εZ)为包含X轴、Y轴、Z轴旋转信息的旋转矩阵。

转换关系 fwT可以将Frame坐标系Of-XfYfZf下的测量数据传递给世界坐标系Ow-XwYwZw,其精度依赖于iGPS测量系统的测量精度。相较于传统手眼系统,将机器人法兰盘坐标系下的测量数据传递给机器人基坐标系的转换精度明显提升,且不会因为机器人在使用中积累的轴隙磨损导致机器人处在不同位姿的转换关系精度不同。

5 测量系统标定及测量实验

5.1 测量系统标定实验

所搭建的机器人形貌测量系统的iGPS跟踪定位系统采用4站式iGPS激光发射器,形貌传感器上安装4个iGPS接收传感器,形貌传感器与工业机器人末端法兰盘采用刚性连接件连接。按照融合特征点拟合的 sfT转换关系标定方法进行标定,标定过程中借助激光跟踪仪。激光跟踪仪作为辅助测量仪器,在整个实验过程中位置始终保持不变,具体标定操作如下。

1) 形貌扫描仪刚性固结在机器人末端,调整工业机器人的位姿,在形貌扫描仪测量域内固定安装一组磁力靶座,该磁力靶座可与直径为3.81 cm的激光跟踪仪靶球和形貌扫描仪特制球形靶标配合。

2) 保持机器人位姿不变,将直径为3.81 cm的形貌扫描仪特制球形靶标放置在5个磁力座上,调整特制球形靶标至合适角度,使用形貌扫描仪识别靶标的坐标值,形貌扫描仪坐标系下靶标的坐标如表1所示。

表 1. 形貌传感器坐标系下的球心坐标

Table 1. Coordinates of the spherical center in the shape sensor coordinate system

NO.x /mmy /mmz /mm
P1-629.501-456.168-709.990
P2-489.565-327.139-839.924
P3-287.453-370.202-824.983
P4-785.155-211.489-868.092
P5-479.621-168.579-1028.013

查看所有表

3) 保持机器人位姿不变,将直径为3.81 cm的激光跟踪仪靶球分别放置在磁力座上,利用激光跟踪仪进行坐标测量,测量过程中每个点位的坐标均测量三次,根据测量结果剔除偏差较大的坐标值,将三次测量结果拟合成一点的坐标值作为球心坐标,结果如表2所示。

表 2. 激光跟踪仪坐标系下的球心坐标

Table 2. Coordinates of the spherical center in laser tracker coordinate system

NO.x /mmy /mmz /mm
P11750.6562-652.9866-566.1360
P21521.3690-676.2413-566.1982
P31412.9291-500.7903-585.8113
P41649.6295-961.3801-504.6604
P51335.7658-836.7170-586.6102

查看所有表

4) 保持机器人和形貌扫描仪位姿不变,换用直径为1.27 cm的激光跟踪仪靶球测量形貌扫描仪上4个iGPS接收器的坐标,将测量结果进行偏移补偿,使坐标测量值为iGPS接收器的中心坐标,测量结果如表3所示。

其iGPS接收传感器的中心坐标

Table 3 iGPS receiving sensor center coordinates

NO.x /mmy /mmz /mm
P11515.3124-112.0494445.7442
P21456.9414-166.5095371.5581
P31418.1711-2.8220450.7450
P41349.2972-58.6704362.3372

根据iGPS定位跟踪系统坐标系的建立原则,结合表1~3的数据建立Frame坐标系Of-XfYfZf。对公共点坐标测量值进行平差优化后,根据4.2节的数学模型即可解算出转换关系 sfT

sfT=-0.99998373-0.00091760.00562765-72.25599670.005592320.03478620.99937916119.856002810.00111279-0.999394360.03478050144.162002560001(32)

通过以上的步骤即完成了测量系统转换关系标定的实验,验证了所提算法的可靠性。

5.2 机器人测量系统形貌测量实验

完成测量系统的标定后,通过基于机器人基坐标系和iGPS世界坐标系的点云拼接对比实验,验证该标定方法可提高点云拼接精度。基于机器人基坐标系的点云拼接实验中使用传统Eye-in-hand的手眼标定方式;基于iGPS世界坐标系的点云拼接实验中机器人结合iGPS定位跟踪系统对标准球进行测量,使用与基于机器人基坐标系点云拼接实验相同的机器人测量轨迹,即让机器人携带形貌扫描仪在相同的测量站位对处在相同位置的标准球进行测量。测量得到的点云数据会自动拼接在iGPS世界坐标系下,从6个测量站位对测量域内固定位置的标准球进行测量。

将测量的点云预处理后拼接在机器人基坐标系下,将测量点云拼接成三角网格,如图5所示,再与标准球的理论数模进行最佳拟合对齐,之后进行三维偏差分析,结果如图6所示,右侧彩色偏差分布条形图(数值表示拼接精度,单位为mm,绿色代表在公差范围内,红色代表正偏差,蓝色代表负偏差)结果显示,点云拼接精度在±0.6625 mm以内,偏差分布较均匀,但拼接精度很低。将基于iGPS世界坐标系的点云拼接实验测量点云封装成三角网格,如图7所示,将其与标准球理论数模进行三维偏差分析,结果如图8所示,右侧彩色偏差分布条形图结果显示点云拼接精度在±0.0905 mm之间,拼接效果较好。

图 5. 机器人基坐标系点云拼接

Fig. 5. Robot base coordinate system point cloud splicing

下载图片 查看所有图片

图 6. 机器人基坐标系拼接偏差

Fig. 6. Robot base coordinate system splicing deviation

下载图片 查看所有图片

图 7. iGPS世界坐标系点云拼接

Fig. 7. iGPS world coordinate system point cloud splicing

下载图片 查看所有图片

图 8. iGPS拼接偏差

Fig. 8. iGPS splicing deviation

下载图片 查看所有图片

两次基于不同坐标系的点云拼接实验,使用了相同的设备、测量站位与测量顺序,故其拼接精度的差异基本源于机器人的定位误差。通过对比图6图8可知,以机器人基坐标系作为拼接坐标系的点云拼接精度明显低于iGPS世界坐标系的,其原因主要是由机器人制造工艺导致的模型误差和由日常使用中连杆轴隙间磨损导致的定位误差。机器人工作时各轴角度变化较大,在不同角度定位误差不尽相同,即使采用机器人本体标定技术对机器人进行标定,仍然无法得到测量需求的系统拼接精度。而在iGPS跟踪定位系统中,机器人仅仅是一个执行机构,不作为精度链的组成环,不存在使用过程中由磨损等因素导致iGPS接收传感器精度降低的问题,故针对大型复杂曲面测量时利用iGPS进行点云拼接,其精度更高,拼接结果更为可靠。

6 结论

研究了基于iGPS定位跟踪系统的大型复杂曲面三维形貌机器人测量系统坐标转换关系的标定方法。测量系统主要由形貌传感器、工业机器人、iGPS定位跟踪系统构成,建立了测量系统的数学模型。对形貌传感器测量坐标系、Frame坐标系、世界坐标系的定义和构成进行了说明,对各个坐标系之间的转换关系进行了研究。提出了融合特征点拟合的标定方法来建立形貌传感器坐标系与Frame坐标系之间的转换关系,在此基础上利用罗德里格矩阵进行了转换关系的求解。对标定后的系统进行基于机器人基坐标系和iGPS世界坐标系的点云拼接对比实验,实验结果表明,融合特征点拟合的标定方法提高了点云拼接的精度。

参考文献

[1] 邾继贵, 邹剑, 林嘉睿, 等. 面向测量的工业机器人定位误差补偿[J]. 光电子·激光, 2013, 24(4): 746-750.

    Zhu J G, Zou J, Lin J R, et al. Measurement-oriented positioning error compensation for industrial robot[J]. Journal of Optoelectronics·Laser, 2013, 24(4): 746-750.

[2] Heller J, Henrion D, Pajdla T. Hand-eye and robot-world calibration by global polynomial optimization[J]. 2014 IEEE International Conference on Robotics and Automation (ICRA), 2014: 3157-3164.

[3] 李巍, 吕乃光, 董明利, 等. 基于对偶四元数的机器人方位与手眼关系同时标定方法[J]. 机器人, 2018, 40(3): 301-308.

    Li W, Lü N G, Dong M L, et al. Simultaneous robot-world/hand-eye calibration using dual quaternion[J]. Robot, 2018, 40(3): 301-308.

[4] 洪磊, 田啟良, 嵇保健. 基于单应性矩阵的线结构光参量标定法[J]. 光子学报, 2015, 44(12): 1212003.

    Hong L, Tian Q L, Ji B J. Calibration method for line structured-light parameters based on homography matrix[J]. Acta Photonica Sinica, 2015, 44(12): 1212003.

[5] 张铁, 张美辉, 邹焱飚. 基于三维点云的机器人加工轨迹规划[J]. 中国激光, 2018, 45(5): 0502009.

    Zhang T, Zhang M H, Zou Y B. Path planning of robot processing based on three-dimensional point cloud[J]. Chinese Journal of Lasers, 2018, 45(5): 0502009.

[6] 张召瑞, 张旭, 郑泽龙, 等. 融合旋转平移信息的机器人手眼标定方法[J]. 仪器仪表学报, 2015, 36(11): 2443-2450.

    Zhang Z R, Zhang X, Zheng Z L, et al. Hand-eye calibration method fusing rotational and translational constraint information[J]. Chinese Journal of Scientific Instrument, 2015, 36(11): 2443-2450.

[7] 谷亚先, 马军山. 利用激光反馈测量物体三维形貌[J]. 光学仪器, 2015, 37(1): 1-3, 8.

    Gu Y X, Ma J S. Research on an algorithm about 3D profile measurement based on laser feedback[J]. Optical Instruments, 2015, 37(1): 1-3, 8.

[8] 侯茂盛, 王强, 马国庆, 等. 三维形貌柔性测量系统标定方法及验证[J]. 应用光学, 2018, 39(3): 385-391.

    Hou M S, Wang Q, Ma G Q, et al. Calibration and verification method for 3D shape flexible measurement system[J]. Journal of Applied Optics, 2018, 39(3): 385-391.

[9] 李定坤, 叶声华, 任永杰, 等. 机器人定位精度标定技术的研究[J]. 计量学报, 2007, 28(3): 224-227.

    Li D K, Ye S H, Ren Y J, et al. Research on robot's positioning accuracy calibration[J]. Acta Metrologica Sinica, 2007, 28(3): 224-227.

[10] 赵明路, 马骁, 张子邦, 等. 激光散斑三维形貌绝对测量技术[J]. 中国激光, 2016, 43(2): 0208001.

    Zhao M L, Ma X, Zhang Z B, et al. Three-dimensional shape absolute measurement based on laser speckles[J]. Chinese Journal of Lasers, 2016, 43(2): 0208001.

[11] 蒋倩, 张云志, 张少擎, 等. 飞机数字化装配中IGPS导航的AGV路径规划方法[J]. 航空制造技术, 2016( 22): 72- 77,83.

    JiangQ, Zhang YZ, Zhang SQ, et al. Path planning method of the AGV navigated by IGPS in aircraft digital assembly[J]. Aeronautical Manufacturing Technology, 2016( 22): 72- 77,83.

[12] Piña E. Rotations with Rodrigues' vector[J]. European Journal of Physics, 2011, 32(5): 1171-1178.

[13] 杨守瑞, 尹仕斌, 任永杰, 等. 机器人柔性视觉测量系统标定方法的改进[J]. 光学精密工程, 2014, 22(12): 3239-3246.

    Yang S R, Yin S B, Ren Y J, et al. Improvement of calibration method for robotic flexible visual measurement systems[J]. Optics and Precision Engineering, 2014, 22(12): 3239-3246.

马国庆, 刘丽, 于正林, 曹国华, 王强. 基于iGPS定位跟踪的三维形貌测量系统标定方法[J]. 中国激光, 2019, 46(1): 0104003. Ma Guoqing, Liu Li, Yu Zhenglin, Cao Guohua, Wang Qiang. Calibration Method of Three-Dimensional Shape Measurement System Based on iGPS Positioning and Tracking[J]. Chinese Journal of Lasers, 2019, 46(1): 0104003.

本文已被 2 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!