单目视觉高精度测量中的合作目标图形设计 下载: 943次
1 引言
随着机器视觉技术的发展,单目视觉图像测量方法越来越多地应用于精确地确定两个物体之间的三维位姿关系中,例如将动态测量获得的无人机降落时相对跑道的姿态用于精确控制着陆轨迹,将快速准确测量获得的机械手相对物体的姿态用于完成自动抓取操作等。
单目视觉测量方法是一种利用一台成像装置采集图像,完成对目标的外形结构尺寸、位姿等测量的方法[1]。在确定对象的位姿视觉测量系统设计中,采用合作目标可以显著减少测量计算的工作量,实时获得较高的测量精度,是广泛采用的一种视觉测量方式[2-3]。如何设计合作目标是研究位姿视觉测量系统首要解决的问题。在大多数的单目视觉位姿测量系统中,最常用的是采用由空间几何元素和其视觉图像上对应点来计算相机外参数的PnP(perspective n-points)问题求解方法[4-5]。由于PnP问题解算中必须有4个共面特征点才能获得唯一的姿态角,故在单目视觉位姿测量系统设计中,经常求解平面合作目标上4个特征点空间关系的P4P问题,来获得被测对象的位姿参数。
聂烜等[6]设计了三级白色正方形嵌套、中间黑色分割、各级矩形边长比值为固定值的合作目标,该方案能够在不同测量距离和复杂环境下准确、可靠地提取其中一个白色正方形顶角的4个特征点,但缺少对图形制作加工精度影响的深入分析,对合作目标的图形设计缺乏指导性。霍炬等[7]研究了椭圆化问题与测量准确度的关系,指出圆点标靶随着转台转动会使特征点存在不同程度上的椭圆化问题,使得提取特征点中心坐标值时存在偏差,影响对刚体位姿的测量解算;定性分析了通过减小特征圆点半径来减小特征点椭圆化程度,但未考虑测量相机与合作目标的距离、偏心距离及倾斜的问题。杨天阳等[8]提出一种基于合作目标的精确跟踪算法及其在图像识别中的应用方法,设计了一种由圆形标志组成的新型合作目标,但未分析在透视条件下的圆提取的偏心误差。胡鹏等[9]提出一种无人机精确自主着陆合作标志的设计方法,基于发光二极管(LED)点阵的合作目标进行位姿测量,但其应用背景的精度需求低于本文背景的精度需求。杨险峰等[10]提出一种基于亚像素边缘的椭圆中心检测方法,该方法对椭圆图像边缘梯度特征信息进行高斯拟合,获取精确的亚像素边缘点后再进行最小二乘拟合,得到精确的椭圆中心位置,但未分析圆心在透视变换后与椭圆中心的偏差。魏振忠等[11]提出一种在视觉检测中椭圆中心成像畸变的误差模型,并对该模型进行了详细分析,但未给出相关参数的显性函数关系,也未进行实际用例量化分析。
许多研究直接将圆心作为仿射不变点,以简化测量算法[12-13]。但圆心仿射不变量只适合平行投影下的物体,并不适合单目成像的透视投影场合[14-16]。当圆形直径远远小于合作目标到相机的距离时,尽管可用仿射不变量来近似描述圆心位置,但不满足高精度测量需要。
2 合作目标设计原则
信息奠基人Shannon认为,“信息是用来消除随机不确定性的东西”。按照信息论的观点,视觉测量中的合作目标实际上是按照确定方式布列的、具有某种确定含义的图符信息载体,可用来清晰解析不确定的相对位置和空间关系。
因此,合作目标的形状和图案设计应包含可解析出被测对象位姿参数的确切信息,满足复杂使用环境下高测量精度的要求,并具有一定的信息冗余和抗光照变化、抗污染干扰能力,确保测量系统的鲁棒性。其特征可归纳为
1) 良好的可检测性和易于识别的特性,图形中包含确定的、显著区别于背景的图形特征点;
2) 特征点应具有中心投射下的透视不变性,以适应动态测量环境,满足高精度测量需求;
3) 图形的结构尺寸既满足测量精度要求,又满足测量动态范围要求;
4) 满足复杂光照环境下高精度测量要求;
5) 具有抗污染、遮挡的信息冗余;
6) 易于制作,加工精度满足工程化要求。
3 合作目标图形选择与精度影响分析
3.1 图形特征点透视变换影响分析
单目视觉P4P问题求解中,通常以平面合作目标图形的4个角点或圆心作为特征点。但不同图形成像后的特征点的提取精度存在差异,直接影响P4P问题位姿求解精度[17]。因此,应根据测量精度、测量系统和测量对象所处环境合理选择合作目标图形[18]。
单目视觉测量是典型的中心透视投影成像方法[19]。在高精度测量场合中,合作目标特征点应具有中心投射下的透视不变性,以确保根据图像上特征点解算出的合作目标特征点位置与实际位置的一致性,即不随测量系统的外参变化而与真值发生偏离。
对方形和圆形合作目标的特征点坐标提取精度进行对比分析,设计示意图如
1) 方形合作目标
根据透视变换性质,在射影空间内以相机为中心,利用中心投射的透视变换,空间点和直线具有同素性,空间共点直线的交点具有透视不变性。
在提取方形合作目标角点位置坐标时,由于直接处理角点区域局部图像的方法对噪声比较敏感,像平面定位精度只能达到0.5 pixel左右。实际使用中,利用整个方形合作目标信息,先拟合4条外边缘直线,再求解4个直线交点坐标,可获得至少高出一个数量级的亚像素级精度,而且因充分利用了方形合作目标的全部信息,算法的抗干扰能力更强。
显然,利用方形合作目标角点的透视不变性,并采用直线拟合获得特征点坐标,可满足单目视觉高精度位姿测量需求。
2) 圆形合作目标
根据PnP问题求解特性,合作目标至少由4个圆形构成,并将圆心作为特征点。但在中心投射下,圆形在透视变换后将呈椭圆化,作为特征点的对称中心不具备透视不变性,即在透视变换后的圆心位置与透视变换后椭圆对称中心不重合。此时,将采用椭圆图像处理算法提取的椭圆中心作为位姿估计的输入会引入偏差。文献[ 20]推导了空间圆的图像椭圆曲线方程,给出了图像二次曲线中心偏移的计算公式,但未引入合作目标图形偏离垂直中心距离的变量。
为此,按照实际测量环境,以合作目标中的单个圆形为例,给出圆形中心投射的透视关系,如
椭圆中心点oF偏离实际圆心oM的距离Δd为
在单目视觉测量系统中,通常R≪H,(2)式可近似为
从(3)式可以看出,当存在倾角θ时,椭圆中心偏离实际合作目标圆心的距离与圆半径、成像高度、偏离垂直中心距离有关。当H、A相对固定时,Δd与R2呈正比。因此,在像平面内按照椭圆拟合求图像中心的方法得到的特征点圆心位置将会产生Δd的偏差。
以A=100 mm,H分别取500 mm、2800 mm为例,
表 1. 当θ=10°时,椭圆中心偏离圆心的距离
Table 1. Distance from ellipse center to circle center when θ=10°
|
表 2. 当θ=30°时,椭圆中心偏离圆心的距离
Table 2. Distance from ellipse center to circle center when θ=30°
|
由此可见,单目视觉测量系统在相对固定的位置测量合作目标的姿态变化时,作为特征点的圆形R越大,椭圆中心偏离圆心的距离越大。特别是在近距离测量场合,要尽可能地减小半径才能满足高精度测量需求,但在实际应用场合中,较小的圆形又容易受到环境干扰。
综上所述,在单目视觉测量中,方形合作目标的特征点具有透视不变性,相比圆形合作目标,更适合于高精度测量场合。
3.2 阴影干扰下测量精度分析与处理
在实际户外应用中,自然光强度不仅随时间变化,而且常常会因光线遮挡产生阴影,从而在合作目标上带来额外的局部光强变化,影响合作目标特征点的提取精度。因此,在合作目标图形设计中,还应充分考虑抗光强变化的能力。
根据CCD相机的基本工作原理可知,像素的灰度值与它的感光面上光强的分布及变化相关。当光线被部分遮挡时,光照强度发生变化,使得局部图像的像素灰度变化。当光照强度过大时,CCD器件像元的像素灰度趋于饱和,提取到的物体边缘将向尺寸减小的方向变化;如果光照强度变小,提取到的边缘位置将向尺寸增大的方向变化。
在高精度测量场合中,4个圆形合作目标存在透视变换影响问题,但通常单个圆形尺寸小,分别处于不同光照强度下不同圆形的圆心坐标变化小。而大尺寸的方形合作目标不受透视变换影响,但却容易受到光线变化的影响。
从
首先,采用直方图均衡、高斯同态滤波等算法对有阴影的图像进行预处理[22-23],增加图像的全局对比度,对图像的照明更加均匀。但阴影预处理后的图像仍会存在浓淡变化,甚至还会出现图像细节的畸变,直接用于高精度测量计算将不可避免地带来误差。
图 4. 方框边缘受光线遮挡影响实例。(a)原始图像;(b)梯度图像
Fig. 4. Examples of box edges affected by light occlusion. (a) Original image; (b) gradient image
然后,通过修正算法减少阴影对测量精度的干扰,具体算法如下。
根据预处理图像,拟合后的框线的4条外边缘直线方程为
4条内边缘直线方程为
式中:O表示外边缘;I表示内边缘;kn表示直线斜率;bn表示直线截距。
将外边缘直线作为测量基准,内边缘直线斜率
式中:φ表示修正函数的一般形式,应根据合作目标大小、垂直距离、偏心距离等参数合理选择。用修正后的方框测量基准直线,求解4个角点,并在保证图像提取质量前提下,尽可能减小框线宽度,可显著减小局部光强变化对直线提取精度的影响。
另外,还可将框线中心线交点作为特征点,采用求框线中心线的方法来修正光线部分遮挡的影响。但也应尽可能减小框线宽度,减少类似的圆心透视变换偏差情况,同时框线宽度还应大于光衍射宽度,以满足户外复杂光照条件下图像提取的需要。
3.3 图形尺寸和精度需求分析
1) 图形几何尺寸设计
由于单目视觉系统测量平面位姿固有的特性,方位角测量精度高,而俯仰角和倾斜角测量误差大致是方位角误差的H/L倍(L为矩形合作目标长度的一半)。文献[ 1]推导了单目视觉测量系统参数与位姿测量精度之间的关系。当存在俯仰角θ时,方位角误差σψ、俯仰角误差σθ与像点提取误差σp之间的关系为
式中:a表示像元尺寸;f表示焦距。
当测量相机与合作目标的空间距离H相对固定,且相机a、f内部参数基本确定时,合作目标的几何尺寸L直接影响测量精度。
因此,在设计单目视觉测量系统时,必须根据测量精度要求和测量环境条件,在合理选择相机的内部参数后,应尽可能增大合作目标尺寸,增加特征点之间的距离,以提高测量精度。
2) 图形尺寸精度需求分析
在P4P问题求解中,4个特征点的坐标还与方形合作目标的制作精度有关,直接影响位姿解算结果。
根据透视投影,建立边长为LD=2L的合作目标的成像关系,如
对(9)式求导,得到函数增量的全微分表达式为
通常合作目标边长制作误差σLD和角点的亚像素点提取误差σp服从正态分布,根据随机误差传递理论,则(9)式又可表示为
从(11)式可以看出,在完成单目视觉测量系统参数设计后,σLD和σp之间存在直接的线性关系。因此,提高合作目标制作精度也是确保提取特征点坐标精度的重要环节。
4 设计实例和验证
根据某现场实时高精度监测需求,亚像元提取精度应不低于0.05 pixel,单目成像测量装置与被测物体空间距离H为500 mm,焦距f为8 mm,像元尺寸a为5.5 μm/pixel。设计的合作目标方框外边缘尺寸为180 mm×180 mm,作为测量基准;内边缘尺寸为160 mm×160 mm,作为修正基准。当合作目标的边长制作误差σLD不超过0.024 mm时,满足设计实例中提出的高精度测量需求。
实验中,合作目标中心偏离光轴距离A为100 mm,合作目标的方位角、俯仰角、倾斜角分别设为-8.3°、-13.4°、-0.5°,并对合作目标施加动态光干扰,如
图 6. 施加光干扰的方形合作目标图像
Fig. 6. Square cooperative target image under optical interference condition
对1000组实验数据进行统计,得到的实验结果如下。
1)方形合作目标外边缘4个角点坐标的均方差为(x:0.0245 pixel,y:0.0474 pixel),如
2)在无光干扰时,方位角、俯仰角、倾斜角的均方差分别为0.0019°、0.0104°、0.0122°,如
3)在有光干扰时,方位角、俯仰角、倾斜角的均方差分别为0.0036°、0.0174°、0.0215°,如
4)在有光干扰时,内边缘修正后的方位角、俯仰角、倾斜角的均方差分别为0.0021°、0.0122°、0.0128°,如
图 8. 方形合作目标的位姿数据。(a)无光干扰;(b)光干扰;(c)光干扰修正
Fig. 8. Pose data of square cooperative target. (a) Without optical interference; (b) with optical interference; (c) optical interference correction
实验结果表明,方形合作目标角点提取精度高,能够满足某现场实时高精度监测位姿变化的测量需求。针对光阴影干扰,采取修正后的角点提取补偿算法,使姿态测量算法具有较强的复杂光环境适应能力。经统计,实际测量的俯仰角、倾斜角均方差为方位角的5.5~6.4倍,这与理论值基本一致,也进一步证明了文献[ 1]中误差理论模型的正确性。
5 结论
针对单目视觉高精度位姿测量需求,提出了合作目标设计的基本原则,分析了在透视投影下方形合作目标角点和圆形合作目标圆心特征点的提取精度,给出了合作目标设计方法和要求,即方形合作目标角点具有透视投影不变性,且结构简单、易于制作,适合高精度测量场合;在保证图像提取质量的前提下,将方形合作目标设计为框线宽度尽可能窄的图形,并将其外边缘作为测量基准,内边缘斜率作为修正因子,减小户外光线遮挡的影响;合作目标的尺寸和制作精度直接影响测量精度,应根据外部实际测量环境和精度要求,设计合作目标的几何尺寸,明确制作精度要求。
[1] 屈也频, 侯旺. 基于误差传播理论的PnP问题姿态精度分析[J]. 光学精密工程, 2019, 27(2): 479-487.
[2] Wang P, Xu G L, Cheng Y H, et al. A simple, robust and fast method for the perspective-n-point problem[J]. Pattern Recognition Letters, 2018, 108: 31-37.
[3] Ruchanurucks M, Rakprayoon P, Kongkaew S. Automatic landing assist system using IMU+PnP for robust positioning of fixed-wing UAVs[J]. Journal of Intelligent & Robotic Systems, 2018, 90(1/2): 189-199.
[4] Hamel T, Samson C. Riccati observers for the nonstationary PnP problem[J]. IEEE Transactions on Automatic Control, 2018, 63(3): 726-741.
[5] 王天宇, 董文博, 王震宇. 基于单目视觉和固定靶标的位姿测量系统[J]. 红外与激光工程, 2017, 46(4): 0427003.
[6] 聂烜, 陆满君, 席超敏, 等. 一种基于合作目标的视觉定位方法[J]. 制导与引信, 2017, 38(2): 42-50.
Nie X, Lu M J, Xi C M, et al. A method of UAV'S vision positioning using a cooperative object[J]. Guidance & Fuze, 2017, 38(2): 42-50.
[7] 霍炬, 崔家山, 王伟兴. 基于共面特征点的单目视觉位姿测量误差分析[J]. 光子学报, 2014, 43(5): 0512003.
[8] 杨天阳, 金立左, 潘虹. 基于合作目标的精确跟踪算法及其在图像识别中的应用[J]. 扬州大学学报(自然科学版), 2019, 22(1): 62-66, 73.
Yang T Y, Jin L Z, Pan H. Cooperative target-based precise tracking algorithm and its application in image recognition[J]. Journal of Yangzhou University(Natural Science Edition), 2019, 22(1): 62-66, 73.
[9] 胡鹏, 郝向阳, 刘松林, 等. 无人机精确自主着陆合作标志设计与研究[J]. 电子测量技术, 2018, 41(24): 83-87.
Hu P, Hao X Y, Liu S L, et al. Landmark design of precise autonomous landing in UAV[J]. Electronic Measurement Technology, 2018, 41(24): 83-87.
[10] 杨险峰, 蔡少虬, 杨学友. 基于亚像素边缘的椭圆中心检测方法研究[J]. 光学仪器, 2014, 36(6): 481-485.
[11] 魏振忠, 张广军. 视觉检测中椭圆中心成像畸变误差模型研究[J]. 北京航空航天大学学报, 2003, 29(2): 140-143.
Wei Z Z, Zhang G J. Distortion error model of image of ellipse center in 3D visual inspection[J]. Journal of Beijing University of Aeronautics and Astronautics, 2003, 29(2): 140-143.
[12] 尚洋, 孙晓亮, 张跃强, 等. 三维目标位姿跟踪与模型修正[J]. 测绘学报, 2018, 47(6): 799-808.
Shang Y, Sun X L, Zhang Y Q, et al. Research on 3D target pose tracking and modeling[J]. Acta Geodaetica et Cartographica Sinica, 2018, 47(6): 799-808.
[13] 王鹏, 周权通, 孙长库. 多特征点拓扑确定位姿测量算法研究[J]. 红外与激光工程, 2017, 46(5): 0517001.
[14] 汪启跃, 王中宇. 基于单目视觉的航天器位姿测量[J]. 应用光学, 2017, 38(2): 0203001.
Wang Q Y, Wang Z Y. Position and pose measurement of spacecraft based on monocular vision[J]. Journal of Applied Optics, 2017, 38(2): 0203001.
[15] 苏建东, 齐晓慧, 段修生. 基于单目视觉和棋盘靶标的平面姿态测量方法[J]. 光学学报, 2017, 37(8): 0815002.
[16] 张振杰, 郝向阳, 程传奇, 等. 基于共面直线迭代加权最小二乘的相机位姿估计[J]. 光学精密工程, 2016, 24(5): 1168-1175.
[17] 李鑫, 张跃强, 刘进博, 等. 基于直线段对应的相机位姿估计直接最小二乘法[J]. 光学学报, 2015, 36(6): 0615003.
Li X, Zhang Y Q, Liu J B, et al. A direct least squares method for camera pose estimation based on straight line segment correspondences[J]. Acta Optica Sinica, 2015, 36(6): 0615003.
[18] 邹瑜, 梁斌, 王学谦, 等. 基于旋转投影二进制描述符的空间目标位姿估计[J]. 光学精密工程, 2017, 25(11): 2958-2967.
[19] 赵连军, 刘恩海, 张文明, 等. 单目三点位置测量精度分析[J]. 光学精密工程, 2014, 22(5): 1190-1197.
[20] 韩庆瑶, 万书亭. 机器视觉中空间圆透视投影特性研究[J]. 华北电力大学学报, 1998, 25(1): 79-84.
Han Q Y, Wan S T. Study of characteristics of space circular perspective projection for machine vision[J]. Journal of North China Electric Power University, 1998, 25(1): 79-84.
[21] 马一凡. 复杂光照环境下的单目视觉位姿测量技术研究[D]. 济南: 山东大学, 2019: 57- 59.
Ma YF. Research of monocular visual pose measurement technology under complex light environment[D]. Jinan: Shandong University, 2019: 57- 59.
[22] Voicu L I, Myler H R, Weeks A R. Practical considerations on color image enhancement using homomorphic filtering[J]. Journal of Electronic Imaging, 1997, 6(1): 108-113.
[23] Zhang Y. Optimisation of building detection in satellite images by combining multispectral classification and texture filtering[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 1999, 54(1): 50-60.
Article Outline
屈也频, 刘坚强, 侯旺. 单目视觉高精度测量中的合作目标图形设计[J]. 光学学报, 2020, 40(13): 1315001. Yepin Qu, Jianqiang Liu, Wang Hou. Graphics Design of Cooperative Targets on Monocular Vision High Precision Measurement[J]. Acta Optica Sinica, 2020, 40(13): 1315001.