激光与光电子学进展, 2023, 60 (1): 0112003, 网络出版: 2022-12-09  

融合区域匹配的快速多线结构光测量方法 下载: 536次

Fast Multi-Line Structured Light Measurement Method Integrated with Region Matching
林群鸿 1,2张举 1,2江开勇 1,2林俊义 1,2,*
作者单位
1 华侨大学厦门市数字化视觉测量重点实验室,福建 厦门 361021
2 华侨大学福建省特种能场制造重点实验室,福建 厦门 361021
摘要
针对多线结构光测量中测量效率与测量精度相矛盾的问题,提出了一种融合区域数字图像相关匹配的快速三维测量方法。采用双边滤波和大津阈值法对图像进行预处理,利用重心法提取初始条纹中心点。用双三次插值法提升初始点的局部邻域分辨率,在局部邻域内再次利用灰度重心法提高中心点的提取精度。以左图像提取的中心线为基准,利用数字图像相关法在右图像中心线附近搜索基准对应的立体匹配点,大大缩小了数字图像相关法的搜索范围,提高了测量效率和立体匹配精度。对标准块规的测量实验结果表明,该方法的中心线提取速度为Steger法的3.29倍,均方根误差相比传统极线约束立体匹配法减小了68.57%。
Abstract
According to the contradiction between measurement efficiency and accuracy in the multi-line structured light measurement, a fast measurement results of the measurement method base on region digital image correlation matching is proposed in this paper. The bilateral filter and Otsu thresh method are used to preprocess the image, and the gray centroid method is utilized to extract the initial point of the stripe center. The bicubic interpolation method is adopted to improve the local neighborhood resolution of the center initial point for the reuse of the gray centroid method in the local neighborhood to improves the accuracy of the center point extraction. Based on the center line extracted from the left image, the digital image correlation method is used to search for stereo matching points corresponding to the reference near the center line of the right image, which greatly reduced the search range of the digital image correlation method and improved measurement efficiency and stereo matching accuracy. The measurement experimental result of the standard block gauge show that the centerline extraction speed of the method is 3.29 times that of the Steger method, and compared with the traditional epipolar constrained stereo matching method, the root mean square error of this method is reduced by 68.57%.

1 引言

线结构光技术作为一种非接触式主动测量方法,具有成本低、检测效率高、适应性强等特点,被广泛应用于工业自动化中,如三维重建1-2、误差检测3及目标定位4。在线结构光技术中,条纹中心线提取的准确性直接影响了三维测量的精度,已有的中心线提取方法主要有极值法、灰度重心法、曲线拟合法和Hessian矩阵法等5-7。灰度重心法因具有速度快、稳定性好等优点近年来得到了人们的青睐,如:杨毅等8采用均值法和Savitzky-Golay滤波算法对灰度重心法提取的中心线进行平滑处理,减小了中心线凸起和毛刺对测量精度的影响;曾超等9采用灰度重心法提取的结果作为初始点,通过方向模板计算出初始点的法线方向,再将沿法线方向计算的灰度重心作为条纹的中心点,显著提高了弯曲光条的中心线提取精度;Li等10根据灰度重心法提取的中心点定义一个矩形区域,在矩形区域法线方向上重新计算每个中心点的坐标。基于Hessian矩阵的Steger法11充分考虑了激光条纹的方向和走势,提高了中心线提取的精度与稳定性,如:Xu等12采用Hessian矩阵计算出条纹中心初始点,利用随机采样一致性算法剔除离群点并拟合出精细的中心线;王福斌等13利用二次灰度重心法提取条纹中心并计算出小范围的连通域,然后利用主成分分析求解协方差矩阵的特征值和特征向量;程鑫等14提出一种融合极值法、Hessian矩阵法和高斯函数拟合法的中心线提取方法,在黑色胶条背景下提高了中心线提取算法的鲁棒性和精度。但这类方法较大的计算量及复杂的参数设置限制了其在工业现场的应用。

在双目线结构光系统中,立体匹配是三维重构的关键步骤,匹配精度直接影响最终的重构精度。而目前的立体匹配都依赖于激光中心线的提取,提取出左右图像的中心线后利用极线约束原理就能直接完成中心线的立体匹配,这类方法的重构精度不仅与左右图像中心线的提取精度有关,还取决于双目立体校正的精度,如:激光中心线在左右图像中存在差异(像素数目不同15-16、中心位置差异17)会影响匹配精度;理论上,经立体校正后可在同一行像素中查找匹配点,但校正误差也会引起行方向产生偏差,匹配精度不高。基于区域匹配的数字图像相关(DIC)法如灰度梯度法18-19、曲面拟合法和反向组合法20的匹配精度较高,但将其用于基于灰度分布的全局匹配时计算量大,严重限制了该方法在工业实际中的应用。

针对上述问题,本文提出了一种融合区域匹配的快速多线结构光测量方法。该方法不需要考虑左右图像中心线的差异,直接以重心法提取中心线,以左图像的中心线为基准,利用DIC法在右图像中心线附近进行区域匹配,计算获得精确的匹配点,在减小DIC法区域匹配范围的同时提高了立体匹配效率,且匹配精度较高。

2 方法描述

融合区域匹配的快速多线结构光测量方法主要流程如图1所示。首先,利用系统参数对左右相机拍摄的图像进行立体校正,并对校正后的图像进行预处理。然后,利用传统重心法提取左右图像的条纹中心初始点。以初始点为中心根据条纹宽度生成子区域图像块,采用双三次插值法对子区域进行分辨率提升,对提升后的区域采用重心法进行二次中心线提取。进一步利用激光条纹在左右图像中的单应性关系确定左图像中每条激光条纹在右图像中的匹配条纹,完成多线立体匹配。最后,以左图像激光中心线像素为基准,采用DIC法在右图像同一行的中心点附近进行区域匹配,获得最佳匹配点并根据立体视觉原理重构出三维点。

图 1. 多线结构光测量方法的流程图

Fig. 1. Flow chart of multi-line structured light measurement method

下载图片 查看所有图片

2.1 中心初始点提取

激光条纹横截面的灰度值一般服从高斯分布,但在图像采集过程中会产生随机噪声,而双边滤波方法考虑了像素点间的距离信息和灰度信息,能保留条纹的边缘信息,有助于中心线的提取。由于测量背景复杂,图像中的非条纹区域会干扰中心线的提取,同时增加不必要的计算量。因此,根据条纹区域与背景区域的灰度值差异,设定阈值对图像进行二值化。本方法采用大津阈值法自适应计算出最佳阈值,分割出需要进行计算的条纹区域。

在条纹区域内,逐行计算灰度重心点作为条纹中心初始点。重心法的基本原理:假设某一行中像素点的坐标为ui,v,i=0,,m,对应的灰度值为fi,则条纹中心初始点的横坐标可表示为

u=i=0mfi×uii=0mfi

采用重心法遍历左右图像的条纹区域,可获得左右图像的所有中心初始点。

2.2 局部分辨率的提升

虽然灰度重心法的计算速度快,稳定性较好,能减少干扰引起的误差,但在不考虑条纹方向的情况下,条纹中心线提取精度较低。因此,以2.1节提取的中心点为初始点,在初始点的局部邻域内对图像分辨率进行提升,具体流程如下。

1)对于左图像和右图像中心线上的每一个点u,v,选取尺寸为k×k的子区域P,子区域的尺寸根据条纹宽度决定,一般为10~20 pixel。对子区域P分别在u方向和v方向进行分辨率提升,提升系数为m,并利用双三次插值得到尺寸为km×km的子区域P'。提升系数的大小理论上可以任意选取,但实际应用中要根据子区域的灰度分布情况确定。一般设置为奇数,以便于以原区域的中心点为中心。

2)受测量时环境光的影响,左图像与右图像子区内的灰度值分布不一致,且区域插值后灰度值的变化范围较小,导致后续匹配步骤中产生误差。因此,对子区域P'进行灰度值归一化,将灰度值统一到[50,220]区间内。

3)采用双三次插值获得高分辨率中各像素的灰度值,此时,子区域中心不再是该行的灰度重心,需要遍历子区域P'中间行的各像素,再次利用重心法计算该行的灰度重心点。假设计算得到该行灰度重心点与子区域中心的坐标偏差为Δu',将Δu'除以拉伸系数m就能得到子区域P中心点的坐标偏差Δu,则该行中心点的坐标为u+Δu,v,如图2所示。

图 2. 局部分辨率的提升示意图

Fig. 2. Diagram of local resolution enhancement

下载图片 查看所有图片

2.3 区域DIC立体匹配

在双目多线结构光系统中,中心线的立体匹配存在一对多的问题,因此基于单应性矩阵的方法解决多线激光条纹的立体匹配问题。将每条激光中心线看作是一个虚拟的光平面,每个光平面映射到左右相机像平面上的像素点形成一一对应关系,在左右相机中获得任意三个不在同一直线上的像素点,从而建立左右图像中关于该激光条纹的单应性矩阵。采用标定物通过多个中心像素点进行单应性矩阵标定,计算每条激光中心线的单应性矩阵。实际测量时,左图像的任一激光条纹中心线经过其对应的单应性变换后,将与右图中相匹配的激光中心线重合,从而快速完成左图像中各激光条纹中心线的立体匹配。完成多线条纹立体匹配后,与单线激光测量原理一样,利用极线约束原理直接计算左图像与右图像的匹配点,经过立体校正后,左图像中心线的某一点坐标ui,vi在右图像中的匹配点一定为同一行的中心线点ui',vi。当被测物体表面存在曲率变化和反射率差异或左右相机拍摄到的中心线像素数目不一致时,需要通过插值获取匹配点在v方向的精确位置。由于相机参数标定存在一定误差,立体校正后左右图像也存在亚像素级误差,即经过立体校正可保证左右图像上的匹配点位于像素级的同一行上,但也存在亚像素级误差,且该误差在计算时往往被忽略,从而影响最终三维重构的精度。

为了解决上述问题,同时考虑立体匹配的效率,提出了一种融合区域DIC立体匹配的方法。在高分辨率子区域中,以左图像提取的中心线为基准,在右图像中心线的邻近区域采用DIC方法搜索相关系数最大的像素点,并利用子区域的灰度梯度计算出亚像素位移。立体校正后的匹配精度可达到亚像素量级,因此DIC方法在右图像中的搜索范围可以限定在高分辨率子区域内。在左右图像的子区域PL'PR'内分别选取尺寸为n×n的图像子区域PLPR进行相关性计算并取亚像素级位移,如图3所示。

图 3. DIC立体匹配示意图。(a)左右图像;(b)左右图像的局部高分辨率子区域

Fig. 3. Schematic diagram of DIC stereo matching. (a) Left and right images; (b) local high-resolution sub-regions of left and right images

下载图片 查看所有图片

fLu0,v0fRu',v'分别为左图像子区域PL与右图像子区域PR中对应点的灰度值,在传统DIC法中,通常假设对应匹配点的灰度值相同,但由于环境光和噪声的影响,实际测量中会导致较大的误差。左右图像中像素点坐标的关系可表示为

u'=u0+Δuv'=v0+ΔvfRu',v'=δu0,v0fLu0,v0

式中:ΔuΔv分别为右图像像素点u0,v0uv方向上的亚像素级位移;δu0,v0为灰度变化函数。文献[19]中假设左右子区域的灰度值呈线性关系,引入灰度变化函数。相关系数函数用于评价左右图像子区域的相似程度,考虑到了噪声、灰度值不均等因素对图像的影响,因此选取具有较强抗干扰能力的最小平方距离相关函数,将式(2)代入相关函数,得到

CΔu,Δv=i=-ttj=-ttδu0,v0fLu0+i,v0+j-fRu'+i,,v'+j2

灰度变化函数δu0,v0满足

CΔu,Δvδu0,v0=0

式(3)代入式(4)中,得到

δu0,v0=i=-ttj=-ttfLu0+i,v0+jfRu0'+i,v0'+ji=-ttj=-ttfL2u0+i,v0+j

相关系数函数在极大值附近呈单峰性的曲面分布,相关系数函数的解即一阶导数为0的地方,可表示为

CΔu,ΔvΔu=0CΔu,ΔvΔv=0

求解式(6),得到

ΔuΔv=fRu2fRufRvfRufRvfRv2-1×δfL-fRfRuδfL-fRfRv

式中,fRufRv分别为右图像在uv方向上的梯度。因此,只需计算右图像子区域的灰度梯度就能求解出位移。目前Barron梯度算子的计算结果最准确,其计算方法可表示为

fRu,vu=112fRu-2,v-812fRu-1,v+812fRu+1,v-112fRu+2,vfRu,vv=112fRu,v-2-812fRu,v-1+812fRu,v+1-112fRu,v+2

结合式(7)式(8),计算出右子区域PR中最佳匹配点距离子区域中心的像素偏差Δu,Δv,将偏差Δu,Δv除以分辨率提升系数m,得到右子区域PR中最佳匹配点距离中心的像素偏差Δu',Δv',即可求得最佳匹配点的像素坐标。

基于上述区域DIC立体匹配对左图像中任意一个中心点在右图像中匹配得到具有亚像素坐标的中心点,该匹配点不仅在u方向获得了较高的匹配精度,在v方向也校正了立体匹配引起的位置偏移。利用立体重构原理可以计算每个匹配点对的空间三维坐标,完成被测物体的三维重构。

3 实验结果及分析

基于上述方法搭建双目视觉系统进行测量实验。实验设备:波长为650 nm的红色线激光器;分辨率为1600 pixel×1200 pixel的映美精DMK23U247工业相机;使用Visual Studio 2015开发环境结合OpenCV3.4.5和PCL1.8.1开源库进行编程。

首先,对中心线提取精度进行测量分析。将激光投射到平面上,采用双目相机采集图像,分别利用传统灰度重心法、Steger法和本方法对中心线进行提取。实际测量中条纹宽度为15 pixel,因此选取尺寸为15 pixel×15 pixel的子区域,并将提升系数设置为11。传统灰度重心法、Steger法以及本方法提取的中心线如图4所示。可以发现:在分辨率放大11倍的情况下,传统灰度重心法提取的中心线具有明显的台阶效应,精度较低;Steger法考虑了条纹方向,提取的中心线比较光滑且精度较高;本方法由于提升了局部分辨率,提取的中心线比较光滑,精度也较高。

图 4. 不同方法提取的条纹中心。(a)灰度重心法;(b)Steger法;(c)本方法

Fig. 4. Fringe centers extracted by different methods. (a) Gray centroid method; (b) Steger method; (c) our method

下载图片 查看所有图片

表 1. 不同方法的平均运行时间

Table 1. Average running time of different methods

Image No.Gray centroid methodSteger methodOur method
10.0524290.7405570.222822
20.0458750.7012350.229376
30.0327680.7340030.209715

查看所有表

表 2. 不同方法的RMSE

Table 2. RMSE of different methods

Image No.Gray centroid methodOur method
LeftRightLeftRight
Average value0.230.220.140.14
10.230.180.170.14
20.230.220.130.16
30.230.270.130.12

查看所有表

表 3. 不同方案的RMSE

Table 3. RMSE of different schemes

Image No.CJSJBJCDSDBD
Average value0.1400.0920.0660.0820.0680.044
10.110.080.070.070.050.05
20.160.070.070.100.050.04
30.160.110.040.110.070.03
40.140.120.070.080.100.05
50.130.080.080.050.070.05

查看所有表

为验证本方法的快速性,分多次对平面进行测量实验,并记录3种方法提取右图像中心线的时间各10次后取平均值,结果如表1所示。可以发现,本方法的运行速度约为Steger法的3.29倍,满足实时测量的要求。

由于无法测量条纹的真正中心线,以Steger法提取的中心线为标准进行精度分析,计算传统灰度重心法与本方法提取的中心线均方根误差(RMSE),结果如表2所示。可以发现,相比传统灰度重心法,本方法的中心线提取精度得到了一定的提升,RMSE减小了0.085 pixel。原因是本方法将子区域的分辨率提升了11倍,相当于在原有子区域的一个像素点内计算高精度的中心点。

对高度为1 mm和6 mm的标准块规进行测量,以分析不同方法的三维测量精度,标准块规如图5所示。将多线激光投射到标准块规上,采用搭建的双目系统进行图像采集,分别用传统重心法提取中心线+极线约束立体匹配(CJ)、Steger法提取中心线+极线约束立体匹配(SJ)、本方法提取中心线+极线约束立体匹配(BJ)、传统重心法提取中心线+区域DIC立体匹配(CD)、Steger法提取中心线+区域DIC立体匹配(SD)以及本方法提取中心线+区域DIC立体匹配(BD)6种方案对块规进行测量实验。图6为第1次测量时采用本方法获取的三维点云数据。

图 5. 高度为1 mm和6 mm的块规

Fig. 5. Block gauges with heights of 1 mm and 6 mm

下载图片 查看所有图片

图 6. 本方法获取的点云

Fig. 6. Point cloud obtained by our method

下载图片 查看所有图片

根据点云数据拟合出两个块规平面,以1 mm块规点云数据拟合的平面为基准,计算高度为6 mm块规点云数据点到该平面的距离,并用该距离减去标准高度差得到误差值。表3为6种方案提取中心线的RMSE。可以发现:BJ方案提取的中心线RMSE比CJ方案减少了52.86%,与SJ方案的精度相差较小,验证了本方法对中心线提取精度的实用性;CD方案提取的中心线RMSE比CJ方案减少了41.43%,验证了区域DIC匹配方法的有效性;BD方案提取的中心线RMSE比CJ方案平均减少了68.57%。

将本方法运用到机器人引导加工中,利用搭建的视觉系统对手臂模型和头部模型进行了局部三维测量。图7为手臂模型测量图和点云数据,图8为头部模型测量图和点云数据。可以发现,本方法能很好地实现物体的三维重构,获得较为精确的三维点云数据。

图 7. 手臂模型的测量结果。(a)测量模型;(b)三维点云数据

Fig. 7. Measurement results of the arm model. (a) Measurement model; (b) three-dimensional point cloud data

下载图片 查看所有图片

图 8. 头部模型的测量结果。(a)测量模型;(b)三维点云数据

Fig. 8. Measurement results of the head model. (a) Measurement model; (b) three-dimensional point cloud data

下载图片 查看所有图片

4 结论

提出了一种融合区域匹配的快速多线结构光测量方法,以传统的重心法为基础,通过提升局部区域分辨率获得更高的中心线初始点,利用立体校正获得左右相机的初始匹配点,进而基于灰度梯度的DIC法进行亚像素精确匹配。将DIC法引入线结构光立体匹配中,利用线结构光的匹配关系,缩小了传统DIC法的匹配搜索范围,提高了立体匹配的效率。同时解决了立体校正误差引起的匹配精度下降问题,进一步提高了线结构光的测量精度。通过块规测量实验验证本方法的有效性,结果表明,本方法能实现快速、高精度的线结构光三维重建,测量误差小于0.05 mm,可应用于机器人引导加工、在线实时检测等工业自动化领域中。

参考文献

[1] 庞兆智, 韩雷, 邵华, 等. 基于线结构光的大型螺纹在线测量与重构方法研究[J]. 工具技术, 2021, 55(3): 81-85.

    Pang Z Z, Han L, Shao H, et al. On-line measurement and reconstruction of large screw thread based on line structured light[J]. Tool Engineering, 2021, 55(3): 81-85.

[2] 王雪嵩, 邵双运, 苏晓东, 等. 基于双目线结构光的承轨台测量[J]. 激光与光电子学进展, 2020, 57(21): 211202.

    Wang X S, Shao S Y, Su X D, et al. Measurement of rail bearing platform based on binocular line-structured light[J]. Laser & Optoelectronics Progress, 2020, 57(21): 211202.

[3] 李东洁, 宋贺, 徐立航. 一种基于激光视觉的焊缝实时检测技术研究[J]. 激光与红外, 2019, 49(7): 818-823.

    Li D J, Song H, Xu L H. A real-time welding seam detection technology based on laser vision[J]. Laser & Infrared, 2019, 49(7): 818-823.

[4] 俞隽, 李泷杲, 李根, 等. 一种基于多线结构光视觉引导的工业机器人定位方法[J]. 航空制造技术, 2020, 63(22): 84-91.

    Yu J, Li S G, Li G, et al. An industrial robot positioning method based on guidance of multi-line structured light vision[J]. Aeronautical Manufacturing Technology, 2020, 63(22): 84-91.

[5] 张瑞峰, 刘畅. 分区间曲线拟合的干涉条纹中心点提取方法[J]. 激光与光电子学进展, 2021, 58(8): 0812002.

    Zhang R F, Liu C. Interference fringe center point extraction method based on interval curve fitting[J]. Laser & Optoelectronics Progress, 2021, 58(8): 0812002.

[6] He L Y, Wu S S, Wu C Y. Robust laser stripe extraction for three-dimensional reconstruction based on a cross-structured light sensor[J]. Applied Optics, 2017, 56(4): 823-832.

[7] 吴庆华, 周阳, 李子奇, 等. 双频曲线拟合线结构光条纹中心提取方法[J]. 激光与光电子学进展, 2020, 57(14): 141502.

    Wu Q H, Zhou Y, Li Z Q, et al. Extracting method for light strip center of linear structural light based on dual frequency curve fitting[J]. Laser & Optoelectronics Progress, 2020, 57(14): 141502.

[8] 杨毅, 闫兵, 董大伟, 等. 基于二次平滑算法的线结构光中心线提取方法[J]. 激光与光电子学进展, 2020, 57(10): 101504.

    Yang Y, Yan B, Dong D W, et al. Method for extracting the centerline of line structured light based on quadratic smoothing algorithm[J]. Laser & Optoelectronics Progress, 2020, 57(10): 101504.

[9] 曾超, 王少军, 卢红, 等. 线结构光光条中心提取算法[J]. 中国图象图形学报, 2019, 24(10): 1772-1780.

    Zeng C, Wang S J, Lu H, et al. Center extraction algorithm of line structured light stripe[J]. Journal of Image and Graphics, 2019, 24(10): 1772-1780.

[10] Li Y H, Zhou J B, Huang F S, et al. Sub-pixel extraction of laser stripe center using an improved gray-gravity method[J]. Sensors, 2017, 17(4): 814.

[11] Steger C. An unbiased detector of curvilinear structures[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(2): 113-125.

[12] Xu G, Yuan J, Li X T, et al. Reconstruction method adopting laser plane generated from RANSAC and three dimensional reference[J]. MAPAN, 2018, 33(3): 307-319.

[13] 王福斌, 刘贺飞, 王蕊, 等. 线结构光条纹中心亚像素自适应提取算法[J]. 激光技术, 2021, 45(3): 350-356.

    Wang F B, Liu H F, Wang R, et al. Sub-pixel adaptive center extraction of line structured light stripe[J]. Laser Technology, 2021, 45(3): 350-356.

[14] 程鑫, 凌鹤, 李硕. 汽车焊缝密封胶条的光条中心提取算法研究[J]. 应用光学, 2019, 40(5): 823-828.

    Cheng X, Ling H, Li S. Light bar center extraction algorithm for automotive weld sealant strips[J]. Journal of Applied Optics, 2019, 40(5): 823-828.

[15] 贾振元, 樊超楠, 刘巍, 等. 双目视觉测量中等匹配点的光条中心提取[J]. 光学 精密工程, 2016, 24(7): 1582-1591.

    Jia Z Y, Fan C N, Liu W, et al. Extraction of laser stripe centers based on equal matching points for binocular vision measurement[J]. Optics and Precision Engineering, 2016, 24(7): 1582-1591.

[16] 孙海卫, 毕远伟, 徐仕东. 反向重投影多线结构光立体视觉测量方法[J]. 激光杂志, 2021, 42(2): 47-51.

    Sun H W, Bi Y W, Xu S D. A measurement method of multi-line structured light stereo vision based on reverse reprojection[J]. Laser Journal, 2021, 42(2): 47-51.

[17] 肖华军, 侯力, 游云霞. 一种基于图像融合的多线结构光立体视觉测量方法[J]. 四川大学学报(工程科学版), 2015, 47(3): 154-159.

    Xiao H J, Hou L, You Y X. A measurement method of multi-line structured light stereo vision based on image fusion[J]. Journal of Sichuan University (Engineering Science Edition), 2015, 47(3): 154-159.

[18] 赵健. 数字散斑相关方法及其在工程测试中的应用研究[D]. 北京: 北京林业大学, 2014.

    ZhaoJ. Research on digital speckle correlation method and its applications in mechanical engineering measurement[D]. Beijing: Beijing Forestry University, 2014.

[19] Zhou P, Goodson K E. Subpixel displacement and deformation gradient measurement using digital image/speckle correlation[J]. Optical Engineering, 2001, 40(8): 1613-1620.

[20] Bing P, Wu D F, Xia Y. Incremental calculation for large deformation measurement using reliability-guided digital image correlation[J]. Optics and Lasers in Engineering, 2012, 50(4): 586-592.

林群鸿, 张举, 江开勇, 林俊义. 融合区域匹配的快速多线结构光测量方法[J]. 激光与光电子学进展, 2023, 60(1): 0112003. Qunhong Lin, Ju Zhang, Kaiyong Jiang, Junyi Lin. Fast Multi-Line Structured Light Measurement Method Integrated with Region Matching[J]. Laser & Optoelectronics Progress, 2023, 60(1): 0112003.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!