红外与毫米波学报, 2024, 43 (1): 134, 网络出版: 2023-12-26  

对象随型粗糙面近红外单目视觉测量与基准图像自愈

Near-infrared monocular vision measurement and reference image self-healing of object random rough surface
作者单位
海军研究院,上海 200436
摘要
针对复杂应用环境中近红外单目视觉位姿测量系统偏离预置合作目标对象后,无法完成位姿测量的特殊情况,提出一种以合作目标周边随型粗糙面图像为测量对象的单目视觉测量方法,以及图像受损后的动态自愈方法。通过将实时获取的随型粗糙面图像特征与预存基准图像特征进行匹配计算,完成特殊情况下的应急测量。同时,为减少随型粗糙面图像污染或受损后对位姿测量精度的影响,实时计算污染或受损程度并动态自愈基准图像特征。实验结果表明,以随型粗糙面为对象的位姿测量精度稍低于合作目标对象,但能够满足特殊情况下的应急使用需求,提高了测量系统的鲁棒性;当随型粗糙面图像污染或受损达到70%时,采用自愈处理与未做自愈处理相比,方位角测量误差减少72%以上,验证了基准图像自愈方法的有效性。
Abstract
In response to the special situation where the near-infrared monocular vision pose measurement system in complex application environments deviates from the preset cooperative target object and cannot complete pose measurement, a monocular vision measurement method based on the random rough surface image around the cooperative target is proposed, as well as a dynamic self-healing method after image damage. By matching and calculating the real-time acquired features of the random rough surface image with the pre stored reference image features, emergency measurement in special situations is completed. At the same time, in order to reduce the impact on the pose measurement accuracy after the pollution or damage of the random rough surface image, Real-time computing calculation of the degree of pollution or damage and dynamic self-healing of the reference image features. The experimental results show that the pose measurement accuracy of the random rough surface object is slightly lower than that of the cooperative target object, but it can meet the emergency use needs in special situations and improve the robustness of the measurement system; When the pollution or damage of the random rough surface image reaches 70%, using self-healing processing reduces the azimuth measurement error by more than 72% compared to not doing self-healing processing, verifying the effectiveness of the benchmark image self-healing method.

1 引言

基于计算机单目视觉的位姿测量系统具有结构简单、非接触测量、精度高、稳定性好的特点1,已广泛应用于工业现场机器人系统自动控制、物体三维重构、飞机导航和助降等领域2-4。其中,采用近红外作为单目视觉测量光源,穿透性强,特别适合户外受环境光干扰场合使用。

在大多数单目视觉位姿测量系统中,最常用的方法是PnP问题(Perspective n-Points Problem)求解5-8,即采用由空间几何元素和其视觉图像上的对应点计算相机外参数,也称为3D-2D特征点匹配方法910。文献7基于误差传播理论提出了一种PnP问题误差分步分析新方法,以P4P问题研究为例,推导得到了单目视觉测量中相关参数和变量的误差函数解析式,揭示了影响姿态测量精度的误差规律。在采用PnP解算的系统中,合作目标的图形和尺寸等经过精心设计,标志的三维位置信息可事先完成高精度测量标定,从而解算准确的位姿信息。文献9中归纳了单目视觉高精度位姿测量中合作目标形状和图案设计的基本原则,分析了在透视投影情况下合作目标特征点的提取精度,并针对光阴影干扰测量精度的问题,提出了误差修正算法和合作目标几何尺寸设计方法。

PnP问题的解法又分为非迭代算法及迭代算法两类。非迭代算法采用解析数学模型直接计算,速度快、实时性好,适合于动态测量与控制应用场合。代表性算法有直接线性计算方法DLT10、高效的EPnP方法11、强鲁棒性的RPnP方法12、快速、全局最优的OPnP方法13等。迭代算法可减少合作目标的制作误差影响,测量精度更高,但多次迭代会带来实时性下降。代表性算法有局部优化能力很强的比例正交投影迭代变化POSIT算法14、对初始值适应性更强的正交迭代OI15算法。第二类算法适合于静态高精度测量场合。

尽管采用PnP方法在解算合作目标位姿参数方面具有显著的优势,但当在实际运行中出现单目视觉测量系统偏离预置合作目标对象特殊情况后,因失去合作目标特征点图像信息,也将无法完成位姿测量,影响测量系统的正常运行。

因此,本文以被测物体合作目标周边的随型粗糙防滑涂层表面为研究对象,针对随型粗糙面图像缺少专门设计的特征点信息,难以使用PnP算法进行精确位姿测量的问题,研究提出一种以随型粗糙面为测量对象的单目视觉测量法,以及随型粗糙面污染受损后基准图像自愈方法。该方法可作为以合作目标位测量对象的单目视觉测量系统的补充,提高测量系统在复杂运行环境中的鲁棒性和稳定性。

1 随型粗糙面测量中需解决的问题

在单目视觉相对空间位姿测量场合,通常选用精心设计特征点的合作目标为测量对象。

合作目标上的点、线及标识符精度受控,用于单目视觉位姿测量的精度高。特别是测量对象上安装的合作目标十分明显,若被污染或损坏,维护人员很容易观察到并及时清理和更换,不影响测量工作。合作目标的尺寸和在测量视场中的占比越大,精度越高。同时,在动态测量中,既要确保合作目标始终处于视场内,又要留出测量装置与合作目标相对位置的允许偏差余量,便于单目视觉位姿测量系统在动态运行环境中的使用。

但在实际使用中,仍会因人为操作动作过大或突发情况,出现测量装置偏离合作目标,不能获得完整合作目标图像而无法完成测量。此时,如果充分利用合作目标附近的对象背景测量,获得满足一定使用精度要求的姿态测量结果,将大幅度提高测量装置对各种突发状况的适应能力。

测量对象合作目标附近的背景,具有与背景表面形状随型的特征。特别是在合作目标背景表面涂覆防滑层的应用场合,其成像效果表现为充满画幅的非规则图像。若将这类非规则图像用于位姿解算,需要解决以下两个方面的问题:

(1)随型粗糙表面是非精确加工自然形成的,具有随机性,无法事先获得图像上特征点本身的参数,需要通过与基准图像匹配才能完成位姿测量。而且,理论上精度相对合作目标会有所下降,必须选择合适的算法确保测量精度满足使用最基本要求。

(2)与合作目标相比,背景随型粗糙面的变化不易观察,一旦被污染或损坏,将影响位姿正常解算,必须采取应对措施,对被污染或损坏区域的基准图像进行动态更新。通常,随型粗糙面的污染或损坏是一个逐渐累积变化和扩大的过程,必须逐次隔离历史图像变化,在动态自愈中实现位姿测量。

2 随型粗糙面特征点提取与匹配算法

2.1 建立基于RANSAC单应变换匹配的基准图像

采用PnP的n点算法,需要特征点在世界坐标系下的位置数据,而随型粗糙面是随机形成的,要逐个获得大量特征点的位置参数不具备工程可行性。因此,宜采用图像特征点与基准图像匹配的方法,即:通过光学测量设备捕获实时随型粗糙表面图像,计算采集图像的特征点,得到刻画其特征的数据结构——描述子,与事先存储的基准图像特征点及描述子进行特征匹配,并使用RANSAC(随机抽样一致算法)选取大部分特征匹配点对遵循的图像间单应变换,从而获得相对位姿测量结果。

首先,构建匹配计算的基准图像。在首次实时测量之前,将单目视觉测量装置在超出被测对象合作目标一定范围内的区域运动,通过将相机坐标系与随型粗糙面坐标系的倾斜角、俯仰角及方位角调整到零位,采集获得随型粗糙面基准图像。

考虑到工程实际使用需求,在被测对象合作目标及其周围八个方向连续拍摄9幅图片,并确保一定的图像重叠率。将拍摄的9幅图像进行图像畸变校正和拼接后导入单目视觉测量装置。

图1为基准图像制作过程示意。(a)图示意了相机在方形合作目标上方,以垂下视正方向以一定的重叠率拍摄9幅图像的结果。为清晰显示不同图像相互之间的几何变换关系,使用不同等级的灰度填充。(b)图为拼接过程示意。周围8幅图像与居中图像分别进行图像匹配和拼接,拼接过程中以中心图像为观察点进行投影校正。(c)图为拼接融合后的基准图像,边界不规则,取最大内接矩形包围的图像为最终基准图像。

图 1. 原始基准图像拼接制作示意(a)原始图,(b)拼接图,(c)基准图

Fig. 1. Schematic diagram of reference image mosaic(a)Original image,(b)Splicing image,(c)Reference image

下载图片 查看所有图片

在形成的最终基准图像上提取特征点/描述子数据,连同随型粗糙面坐标系至基准相机坐标系的坐标转换矩阵,打包写入xml文件。

2.2 坐标转换、特征点提取及匹配计算

定义随型粗糙面坐标系为Ot-XtYtZt,实时测量的相机坐标系为Oc-XcYcZc,采集基准图时的相机坐标系为Oc'-Xc'Yc'Zc'。从随型粗糙面坐标系至实时相机坐标系的旋转矩阵定义为Rtc,至基准相机坐标系的旋转矩阵为Rtc'Rc'c通过图像匹配计算。

坐标旋转矩阵的计算关系为:

Rtc=Rc'cRtc'Rc'c ,

令c及c′坐标系下的同一特征点的图像坐标分别为p1,p2,则转换关系为:

p2=KRtc'+tcc'×nTdK-1p1 ,

单应矩阵H表示为:

H=Kd×Rtc'+tcc'×nTK-1 ,

其中,K为内参矩阵,nT为法向量,tcc'为相机光心的位移量,d为归一化系数。

采用RANSAC算法,根据公式求解旋转矩阵及位移矩阵。在获取四组解后,按照本文的实验背景,对姿态角及位移向量进行滤波,得到满足要求的唯一正确解。

目前比较成熟的基于斑点检测的特征提取算子有SIFT15、SURF16、KAZE17、AKAZE18、ORB19等。其中SIFT算法具有自适应尺度、透视变形、光照变化等优良特性,是图像特征检测领域中具有里程碑意义的算法;SURF算法为加速SIFT算法;KAZE算法利用非线性尺度分解解决边界模糊及细节丢失;AKAZE算法为加速KAZE算法;ORB算法混合使用了机器学习和手工特征子算法。

经过测量比较,选用匹配精度最高的SIFT算子,采用BF策略进行特征点提取及描述子计算。

特征点提取具体方法为:使用高斯函数实现尺度空间上不同图像的卷积,具体采用DOG(Difference of Gaussian)金字塔方式,以寻找极值点。根据疑似像素点周围八个区域点及其近邻尺度相应点比较,若得到相应极值,则作为疑似SIFT特征点。然后再剔除不适合作为特征点的低对比度点及边缘点。

描述子计算具体方法:以提取出的特征点为中心,4×4像点为结构体,统计其梯度方向的分布及梯度幅值在各方向区域内的叠加值。方向空间按照8区间划分,每区间45度,每个结构体使用8维向量描述,形成32维向量,即为该SIFT特征点的描述子。

特征点匹配具体方法:使用暴力(Brute-Force)匹配器进行两幅图像特征描述子之间的匹配,遍历第一幅图像的描述子,搜索在第二幅图像的描述子,返回距离最小的匹配。使用的距离度量采用2范数计算。

3 随型粗糙面污染或损坏后的自愈

3.1 图像自愈的基本原理

基准图像至实时图像的特征匹配点,经过RANSAC计算后可剔除不符合单应模型的一些误匹配点对。但当随型粗糙表面局部被污染或损坏后,相比污染和损坏前的匹配点数量减少,匹配解算精度将会受到影响。此时,若采用最近一次测量图像去修正原始基准图像,完成基准图像自愈修复更新,可避免出现使用累积形成大面积污染和损坏的随型粗糙面图像与原始基准图像匹配解算的情况,进一步提高测量系统的工作可靠性。

图像自愈的基本原理可以概括为,在最新的包含因污染或损坏导致部分区域出现固定改变的、但能基本满足精度要求的随型粗糙面图像上,将特征点提取时未能与基准图像匹配的污染或损坏区域稳定的新特征点,在测量完成后替换基准图像中相应区域原特征点,用于下一次同一区域的测量匹配。

图像自愈的过程实质上就是基准图像持续更新迭代的过程。

图2(a)左图为事前标定获取的原始基准拼接图像,(a)右图为实时图像;(b)左图为自愈更新的基准图像,(b)右图为实时图像。正方形实线粗框为图像边界,小圆圈为匹配后的特征点位置,中心黑色粗方框为合作目标,实时图像未拍摄完整,使用合作目标测量精度难以保证。阴影区域为受污染区域,小三角形为阴影区域内的匹配特征点。实时图像与基准图像之间的几何关系为单应变换。图2(b)左图为自愈更新后的基准图像,通过匹配纳入了被污染或损坏区域中新的特征点。

图 2. 随型粗糙表面被污染后的图像匹配示意(a)自愈前匹配图像,(b)自愈后匹配图像

Fig. 2. Schematic diagram of image matching after contaminated random rough surface(a)Matching image before self-healing,(b)Matching image after self-healing

下载图片 查看所有图片

3.2 自愈精度与适用范围

自愈是在粗糙面被污染或破坏时自动激活的算法,应首先研究特征点数量与方位角和水平姿态角精度之间的关系,以量化评估未损坏粗糙面上特征点对于已损坏粗糙面特征点校正的效果。

图3为方位角、倾斜角、俯仰角的测量精度随着特征点数目增长的变化曲线。在本论文设计的实验中,匹配的随型粗糙面上特征点数量为500左右,经多次实验取平均测量值绘制曲线。

图 3. 特征点个数影响测量测量精度实验曲线

Fig. 3. Experimental curve of influence of number of characteristic points on measurement accuracy

下载图片 查看所有图片

从图中可以看出,随着特征点个数从4开始增加,测量精度迅速提高,当特征点数目达到约60个时,测量精度趋于稳定。

显然,在该项实验中,当有效匹配特征点数量不低于60个时,启动自愈算法能够基本满足测量精度要求。因此,必须根据具体情况,设置自愈适用范围,判别污染或损坏的程度启动或终止自愈算法,避免频繁启动自愈或自愈后精度不满足使用要求。

为此,引入自愈系数概念,在将实时图像与基准图像匹配时,采用RANSAC方法选取概率最大单应模型计算匹配特征点对,根据匹配特征点密度情况计算自愈系数。若随型粗糙面污染或破坏超过范围,则计算当前图像的特征点及描述子,并更新基准数据。

设Mk0、Mk1为污染或破坏前后,第k次实时测量图像区域内与基准图像内正确匹配特征点对数。定义自愈系数λ如下:

λ=Mk0-Mk1Mk0×100% ,

λ反映了图像的污染或破坏程度。根据实际使用需要,设置自愈启动和终止区间λI,λS,作为启动自愈流程的条件之一。

需要指出的是,视场内粗糙面出现少量污染或损坏时,可以启动自愈后将其纳入基准图像特征点。若粗糙面的污染区域较大,但未达到终止自愈条件时,以剩余特征点的数量进行单应变换的精度下降,而且随着自愈次数的增加,误差逐渐累积,最终出现自愈算法性能衰退的情况。

为消除因累积误差导致自愈失效的情况,在测量流程设计时,充分利用正常运行中基于合作目标测量时机,进行随型粗糙面基准图像的自愈。启动自愈的时机包括以下两种情况:

(1)当能检测到完整的合作目标,且自愈系数超过λI值时,就对视场内粗糙面数据进行自愈更新。此时可以确保自愈后基于随型粗糙面的测量精度与基于合作目标的测量精度相当。

(2)当检测不到合作目标或检测到不完整的合作目标时,且根据污染和损坏情况计算的自愈系数处于区间λI,λS时,则启动自愈更新。虽然存在出现累计误差影响测量精度的可能性,但连续多次偏离合作目标的概率很小,可忽略不计,一旦后续测量中拍摄到完整的合作目标,即可清除累积误差。

另外,实际运用环境中,还存在随型粗糙表面常常会受到外来物的短时干扰或者入侵情况,此时如果启动自愈,将会造成实时测量图像与基准图像产生较大差异,大幅降低测量精度。此时,应在测量流程设计时增加判据,消除外来物的短时干扰或者入侵的影响。

3.3 基于图像自愈的位姿测量流程

基于随型粗糙面图像自愈的位姿测量算法实现过程为:

(1)实时采集随型粗糙面图像数据,进行图像畸变校正,计算实时图像关键点位置及描述子数据。

(2)与存储的基准图像关键点及描述子进行特征匹配,解算随型粗糙面坐标系至相机坐标系的单应转换矩阵。

(3)按照存储的基准转换矩阵及测量结果,计算出随型粗糙面坐标系至相机坐标系转换矩阵。反解高精度方位角及水平姿态角,完成参数测量。

(4)测量完毕,判断视场内是否能够检测到完整的合作目标。当能够完成基于合作目标的测量时,且自愈系数超过λI值,启动对视场内周边随型粗糙面图像的自愈,更新基准图像关键点、描述子及基准转换矩阵。

(5)当视场内未能检测到合作目标或只能检测到不完整的合作目标时,统计特征点有效匹配点数,计算自愈系数,若自愈系数处于区间λI,λS,则启动自愈。

(6)当检测不到合作目标或检测到不完整的合作目标,且自愈系数超过λS,则停止自愈更新,提示存在大面积的污染或损坏,系统需要重新回到合作目标上方对附近区域内随型粗糙面基准图像标定。对于处于基准图像边缘的污染或损坏区域,可以用合作目标修复后的部分图像进行传递标定。

随型粗糙面位姿测量流程图见图4

图 4. 随型粗糙面位姿测量流程图

Fig. 4. Flow chart of pose measurement of profile following rough surface

下载图片 查看所有图片

需要注意的是,启动自愈后,应将自愈图像上的特征点观察视点转化至以基准图像为中心,进行投影校正。

4 测量实验与结果

4.1 基于随型粗糙面与合作目标的测量仿真结果对比

比较随型粗糙面与精密加工的合作目标位姿测量性能,相机焦距8mm,高度为500mm,图像分辨率为1920像素×1080像素。合作目标为方形合作目标9,加工精度为0.1mm。选用直线拟合相交算法进行亚像素提取,获取合作目标上4个标志点高精度位置。提取随型粗糙面上的特征点输入测量系统进行实验。以合作目标的高精度结果作为测量真值比较随型粗糙面算法精度。

控制三维转台运动,通过光学手段解算方位角ψ及两个姿态角θ、γ,计算测量精度,结果见图5。如图所示,以基于合作目标的P4P算法测量结果为基准,虽然本文提出的算法(VO-IM)在随型粗糙面上测量方位角、俯仰角、倾斜角误差与基于合作目标的P4P算法相比误差稍大,但优于AKAZE18、BRISK20、FAST21、SURF16(均为BF策略)算法,能基本满足大部分应急使用场合的要求。

图 5. 随型粗糙面上不同测量算法结果对比

Fig. 5. Comparison of different measurement algorithms on random rough surfaces

下载图片 查看所有图片

在实时性方面,考虑实际工程应用,选取120个特征点匹配对实施测量,获得的结果更加稳定。比较各种算法耗时,基于120个特征点处理的本文算法运算时间与P4P算法相比约增加5倍,与其他算法相比运算时间处于中等水平,见图6。实际工程应用中,应根据实时性要求,约束参与运算的匹配点数上限。

图 6. 算法处理时间对比

Fig. 6. Algorithm processing time comparison

下载图片 查看所有图片

4.2 粗糙面污染和损坏后的自愈实测实验

搭建仿真环境,进行基于随型粗糙面测量实验以验证测量算法和自愈算法。随型粗糙面上特征点通过算法自动提取,相机参数与位置关系不变。提供三种场景测量,第一种为正常粗糙面上测量;第二种为人为局部破坏粗糙面,测量装置内部基准数据未更新条件下测量;第三种为粗糙面被破坏后,测量装置自动启动自愈算法,更新基准数据并测量。

为验证算法,设置不同污染共进行6次实验。下面,以其中一组实验结果为例进行说明。

示例实验:在三种场景下各任意提取一组匹配图像对,如图7所示。从上至下依次为第一、二、三种场景(分别记为图a、b、c)下匹配结果图。其中,左为基准图,右为实时图。

图 7. 自愈匹配对比图(a)破坏前匹配图像,(b)破坏后匹配图像,(c)自愈后匹配图像

Fig. 7. Self healing matching comparison diagram (a) Matching image before destruction,(b) Matching image after destruction,(c) Matching image after self-healing

下载图片 查看所有图片

图(a)为未污染的图像匹配对;图(b)为粗糙面被污染后的图像匹配对,能够匹配的特征点大幅减少;图(c)为在更新基准图像后,污染后粗糙面图像能匹配的特征点显著增加。

在三维转台上转动相机,并记录实时测量曲线,结果见图8。从上至下依次为方位角、俯仰角、倾斜角的偏差曲线。可见,在粗糙面受损后,三个角的测量精度均受严重影响。自愈后,三个角的测量精度基本恢复至污染前,验证了自愈算法的有效性。

图 8. 自愈前、后对比实验(a)破坏前方位角测量曲线,(b)破坏后方位角测量曲线,(c)自愈后方位角测量曲线,(d)破坏前俯仰角测量曲线,(e)破坏后俯仰角测量曲线,(f)自愈后俯仰角测量曲线:(g)破坏前倾斜角测量曲线;(h)破坏后倾斜角测量曲线;(i)自愈后倾斜角测量曲线

Fig. 8. Self healing contrast experiment (a) Measurement curve before destruction of azimuth, (b) Measurement curve after destruction of azimuth, (c) Measurement curve after self-healing of azimuth, (d) Measurement curve before destruction of pitch, (e) Measurement curve after destruction of pitch, (f) Measurement curve after self-healing of pitch, (g) Measurement curve before destruction of roll, (h) Measurement curve after destruction of roll, (i) Measurement curve after self-healing of roll

下载图片 查看所有图片

该次实验中,当污染程度即自愈系数为70%时,自愈后与自愈前的方位角误差比值约为28%,自愈后的方位测量误差减少了72%。证明在更新基准图像后,被破坏区域的特征点信息能够用于匹配解算并保持一定的精度。

表1给出了6 组随自愈系数变化的方位及姿态角测量算法及自愈算法获取的实测数据。

表 1. 自愈实验测量结果

Table 1. Measurement results of self-healing experiment

均方根误差(单位:°)均方根误差(单位:°)均方根误差(单位:°)
方位角俯仰角倾斜角方位角俯仰角倾斜角方位角俯仰角倾斜角
自愈系数60%65%70%
破坏前0.070.380.830.080.390.830.070.410.85
破坏后0.090.520.890.170.540.840.311.851.52
自愈后0.090.410.770.080.460.740.080.490.76
误差比值98.70%80.35%86.14%50.96%85.73%88.51%28.04%26.86%50.41%
自愈系数72%75%80%
破坏前0.070.410.850.170.450.820.230.490.85
破坏后0.311.851.524.551.362.762.041.646.69
自愈后0.080.500.740.080.520.770.080.550.78
误差比值27.66%27.38%48.76%1.90%38.19%28.16%4.25%33.72%11.70%

查看所有表

从表中可以看出,当污染程度即自愈系数为60%时,自愈能力不显著,方位角的误差比值仅为98.7%。但随着自愈系数的增加,即粗糙面被破坏或污染程度的增加,自愈算法的自愈能力越来越强,表现为方位角的误差比值越来越小。当污染程度即自愈系数超过70%后,自愈效果显著。

5 结论

本文提出对象随型粗糙面的单目视觉测量与自愈方法,解决凹凸不平粗糙面位姿测量及其受损后的自愈问题。

描述了随型粗糙面测量中需解决的问题,详细阐述了随型粗糙面特征点提取与匹配算法和随型粗糙面污染或损坏后的自愈。设计实验室实验对提出的算法进行验证。结果表明:提出的测量和自愈算法可作为基于合作目标算法的有效补充,在粗糙面被破坏或污染后自动激活自愈处理流程。当随型粗糙面图像污染或受损达到70%时,采用自愈处理与未做自愈处理相比,方位角测量误差减少72%以上,验证了基准图像自愈方法的有效性。

实际应用中还必须解决如何有效区分随型粗糙面污染、受损与外来物入侵,以及户外光照、阴影变化的情况,避免误判而频繁错误更新基准图像的问题,探讨运用人工智能技术提高算法对环境的适应性。

参考文献

[1] 冯肖维, 谢安安, 肖健梅, 等. 非合作纹理目标单目位姿计算[J]. 光学精密工程, 2020, 28(8): 1775-1784.

    FENG Xiao-Wei, XIE An-An, XIAO Jian-Mei, et al. Monocular pose calculation of non-coo ration textured object[J]. Optics and Precision Engineering, 2020, 28(8): 1775-1784.

[2] 熊芝, 许航, 张刘港, 等. 基于加权加速正交迭代算法的相机位姿估计[J]. 红外与激光工程, 2022, 51(10): 20220030.

    XIONG Zhi, XU Huang, ZHANG Liu-Gang, et al. Pose estimation of camera based on weighted accelerated orthogonal iterative algorithm[J]. Infrared and Laser Engineering, 2022, 51(10): 20220030.

[3] 尚洋, 孙晓亮, 张跃强, 等. 三维目标位姿跟踪与模型修正[J]. 测绘学报, 2018, 47(6): 799-808.

    SHANG Yang, SUN Xiao-Liang, ZHANG Yue-Qiang, et al. Research on 3D Target Pose Tracking and Modeling[J]. Acta Geodaetica et Cartographics Sinica, 2018, 47(6): 799-808.

[4] 邹瑜, 梁斌, 王学谦, 等. 基于旋转投影二进制描述符的空间目标位姿估计[J]. 光学精密工程, 2017, 25(11): 2958-2967.

    ZOU Yu, LIANG Bin, WANG Xue-Qian, et al. Space target pose estimation based on binary rotational projection histogram[J]. Optics and Precision Engineering, 2017, 25(11): 2958-2967.

[5] Hamel T, Samson C. Riccati Observers for the Nonstationary PnP Problem[J]. IEEE Transactions on Automatic Control, 2018, 63(3): 726-741.

[6] 王天宇, 董文博, 王震宇. 基于单目视觉和固定靶标的位姿测量系统[J]. 红外与激光工程, 2017, 46(4): 427001-427003.

    WANG Tian-Yu, DONG Wen-Bo, WANG Zheng-Yu, et al. Position and orientation measurement system based on monocular vision and fixed target[J]. Infrared and Laser Engineering, 2017, 46(4): 427001-427003.

[7] 屈也频, 侯旺. 基于误差传播理论的PnP问题姿态精度分析[J]. 光学精密工程, 2019, 27(2): 479-487.

    QU Ye-Pin, HOU Wang. Attitude accuracy analysis of PnP based on error propagation theory[J]. Optics and Precision Engineering, 2019, 27(2): 479-487.

[8] 王鹏, 周权通, 孙长库. 多特征点拓扑确定位姿测量算法研究[J]. 红外与激光工程, 2017, 46(5): 517001.

    WANG Peng, ZHOU Quan-Tong, SUN Chang-Ku. Study of pose estimation based on multiple feature points topological determination[J]. Infrared and Laser Engineering, 2017, 46(5): 517001.

[9] 屈也频, 刘坚强, 侯旺. 单目视觉高精度测量中的合作目标图形设计[J]. 光学学报, 2020, 40(13): 1315001.

    QU Ye-Pin, LIU Jian-Qiang, HOU Wang. Graphics Design of Cooperative Targets on Monocular Vision High Precision Measurement[J]. Acta Optica Sinica, 2020, 40(13): 1315001.

[10] I Y., et al. Direct Linear Transformation from Comparator Coordinates into Object Space Coordinates in Close-Range Photogrammetry[J]. Photogrammetric Engineering & Remote Sensing Journal of the American Society of Photogrammetry, 2015.

[11] 张慧娟, 熊芝, 劳达宝, 等. 基于EPNP算法的单目视觉测量系统研究[J]. 红外与激光工程, 2019, 48(5): 517001-517005.

    ZHANG Hui-Juan, XIONG Zhi, LAO Da-Bao, et al. Monocular vision measurement system based on EPNP algorithm[J]. Infrared and Laser Engineering, 2019, 48(5): 517001-517005.

[12] Xu C, Xie M. A Robust O(n) Solution to the Perspective-n-Point Problem[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1444-1450.

[13] 劳达宝, 张慧娟, 熊芝, 等. 基于单目视觉的姿态自动测量方法[J]. 光子学报, 2019, 48(3): 315001.

    LAO Da-Bao, ZHANG Hui-Juan, XIONG Zhi, et al. Automatic Measurement Method of Attitude Based on Monocular Vision[J]. Acta Photonica Sinica, 2019, 48(3): 315001.

[14] 李鑫, 张跃强, 刘进博, 等. 基于直线段对应的相机位姿估计直接最小二乘法[J]. 光学学报, 2015, 35(6): 615001-615003.

    LI Xin, ZHANG Yue-Qiang, LIU Jin-Bo, et al. A Direct Least Squares Method for Camera Pose Estimation Based on Straight Line Segment Correspondences[J]. Acta Optica Sinica, 2015, 35(6): 615001-615003.

[15] Lowe D. Distinctive image features from scale-invariant key points[J]. International Journal of Computer Vision, 2003, 20: 91-110.

[16] BayH, TuytelaarsT, GoolL V. SURF: Speeded up robust features[C]// Proceedings of the 9th European conference on Computer Vision - Volume Part I. Springer-Verlag, 2006.

[17] AlcantarillaP F, BartoliA, DavisonA J. KAZE Features[C]// European Conference on Computer Vision (ECCV). 2012.

[18] AlcantarillaP F. Fast Explicit Diffusion for Accelerated Features in Nonlinear Scale Spaces[C]// British Machine Vision Conference (BMVC). 2013.

[19] RubleeE, RabaudV, KonoligeK, et al. ORB: an efficient alternative to SIFT or SURF[C]// IEEE International Conference on Computer Vision, ICCV2011, Barcelona, Spain, November 6-13, 2011. IEEE, 2011.

[20] LeuteneggerS, ChliM, SiegwartR Y. BRISK: Binary Robust invariant scalable keypoints[C]// International Conference on Computer Vision. IEEE, 2011.

[21] Rosten E, Porter R, Drummond T. FASTER and better: A Machine Learning Approach to Corner Detection[J]. IEEE Transactions on Software Engineering, 2010, 32(1): 105-119.

侯旺, 屈也频, 刘坚强, 吕余海. 对象随型粗糙面近红外单目视觉测量与基准图像自愈[J]. 红外与毫米波学报, 2024, 43(1): 134. Wang HOU, Ye-Pin QU, Jian-Qiang LIU, Yu-Hai LYU. Near-infrared monocular vision measurement and reference image self-healing of object random rough surface[J]. Journal of Infrared and Millimeter Waves, 2024, 43(1): 134.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!