激光与光电子学进展, 2019, 56 (11): 111503, 网络出版: 2019-06-13   

一种改进Census变换的双目匹配测距方法 下载: 1108次

Binocular Ranging Method Using Stereo Matching Based on Improved Census Transform
李大华 1,2沈洪宇 1,2,*于晓 1,2高强 1,2汪宏威 1,2
作者单位
1 天津理工大学电气电子工程学院, 天津 300384
2 天津市复杂系统控制理论及应用重点实验室, 天津 300384
摘要
为了得到一种易实现且精度较高的双目测距方法,立体校正左右相机的非前向平行结构,先将改进的Census变换算法应用于立体匹配,得到准确的视差值,再根据双目视觉特殊的外极线几何结构计算出实际的距离信息。将原始Census变换中比较周围像素与中心像素的方案改进为多中心点相互监督融合,极大地提升了立体匹配精度。在实验室环境下,利用两个完全相同的互补金属氧化物半导体(CMOS)相机搭建了双目测距实验平台,详细介绍了测距流程中的硬件、算法以及标定过程。将实验结果应用于实际距离测量,并与原始的Census变换进行对比,结果表明:改进的Census变换测量误差为6.4 cm,2 m测量误差精度提高了19.1%,满足高精度双目测距要求。
Abstract
This study proposes a simple and high-precision binocular ranging method. A stereo correction algorithm was first used for the stereo correction of the non-forward parallel structures of the left and right cameras. The improved Census transform algorithm was then applied to obtain accurate disparity values. Finally, the true distance information was calculated based on the special epipolar-line geometry of binocular vision. Further, the multi-center points were used to compare with the surrounding pixels in the original Census transform, which is improved as mutual supervision and fusing of multi-center points. Thus the accuracy of the stereo matching is improved. Two identical complementary metal-oxide-semiconductor (CMOS) cameras were used to build a binocular ranging platform, and the hardware, algorithm and calibration process in the flow chart of ranging were introduced in detail. The experimental results show that the proposed method performs better than the original Census transform. For a 2 m measurement, the accuracy is increased by 19.1% and the measurement error is 6.4 cm, thus meeting the requirements of high-precision binocular ranging.

1 引言

随着计算机视觉的发展,双目立体视觉测量技术研究具有重要的实际意义。利用两个简单的互补金属氧化物半导体(CMOS)或电荷耦合器件(CCD)相机实现被拍摄物体距离的测量是今后测距的主要方式[1]。立体视觉测量技术是仿照人类的双眼视觉成像过程。人的两只眼睛从不同的角度观察同一个物体,物体成像在人左右两眼视网膜上的不同位置,视网膜上的距离差称为视差值[2-3]。利用视差值以及三角测量原理,可以还原出物体的深度信息[2]。双目立体测距广泛应用于刑侦检测、交通定位测距、机器视觉定位抓取、**探测以及无人机航拍等研究领域[4]。因此,针对双目视觉测距精度提升的研究有着深远长久的意义。

2017年,Lee等[5]提出一种新型的基于代价融合的立体匹配方法的双目测距方法,并给出了详细的推导。目前,大部分学者把提高测距精度的重点放在立体匹配过程中。张丽娟等[6]提出一种基于模板的灰度相关算法,提出亚像素级别的匹配算法,并利用三次曲面拟合寻点进行立体配准,但是在匹配过程中引入图像压缩的相关方法,极大地降低了立体匹配的准确性。为了保留图像的原始信息,推荐采用Census变换算法,此方法的优点是不改变图像的原始特征,操作简单,通过汉明距离确定立体匹配关系,满足工业过程的测距需求[7]。针对Census变换的研究,王琼等[8]利用变换窗口灰度均值与局部纹理反差值之和代替中心像素灰度值,有效减小了边界不连续区域对匹配的影响,但此方法实现困难,除边界外的点,其他点出现误匹配的概率很高。祝世平等[9]提出一种区域为十字交叉形状窗口且设有噪声容限的改进Census变换,该方法可通过代价计算得到匹配像素,以至得到相对准确的视差值,但是实现过程极其困难,且算法运行时间较长。针对目前Census匹配的研究过程,本文提出一种基于Census变换的多中心点融合监督的方式,实现过程简单且精度高,适用于一般环境下的测距项目。

2 基本原理

2.1 双目测距原理介绍

双目测距基于视差原理,形同于人类两只眼观察同一物体所呈现的图像的差异,即成像在视网膜上发生了位置平移,根据此原理及数学三角法可以直接测量出两只眼睛与被测物体的距离信息[10]。双目测距流程中,先将两个CMOS相机前向平行摆放,通过双目相机标定工作将两个相机统一在一个坐标系中,接着对被测物体在左右相机中的成像点进行立体匹配,获取被测物体在两个CMOS中成像的横坐标的差值,最终利用相似三角形原理测得真实的距离信息。

1) 双目标定工作。双目标定建立在单相机标定的基础上,单相机标定出两个相机各自的内部参数和外部参数,双目标定基于两个相机的内外参数计算出两个相机间相对位姿关系,并基于这一关系校正两个相机的前向平行结构,使得被拍摄物体在两个相机的成像行对齐。2)立体匹配工作。立体匹配时Census变换的立体匹配算法的误匹配率很高,运用改进的Census变换算法,采用多中心点融合监督的方式能大幅提升匹配的准确性,最终结合三角法即可求得距离信息。

2.2 双目标定

此步骤为求解两个相机之间的相对位置关系,即外参,并对左右相机拍摄的图片进行行校正,外极线几何结构如图1所示,为对极几何结构,图中eler为两个极点,el-er为左极线,er-pr为右极线,el-pl所在平面为透视平面,对于此非标准结构应用两个单相机标定内外参数结果得到其校正向量[11]。两个相机之间的位姿关系可根据两个单相机标定结果进行矩阵运算得到,即根据Xl=R1Xw+t1,Xr=R2Xw+t2,可得

Xl=R1R2-1Xr+t1-R1R2-1t2,(1)

图 1. 外极线几何结构

Fig. 1. Geometric structure of epipolar-line

下载图片 查看所有图片

式中:XlXr为左右相机成像平面点坐标;Xw为被测物体点坐标;R1t1为左相机外参和内参矩阵;R2t2为右相机的外参和内参矩阵。设R=R1R2-1,t=t1-R1R2-1t2,其中Rt为两相机之间的外参矩阵,外参矩阵包含了两台相机之间所有的几何信息。双目标定得到右相机相对左相机的旋转和平移向量后,校正两极线,创建一个由αl方向开始的旋转矩阵Rrect= α1α2α3,其中α2=αl× 001T,α3αlα2的外积,生成的映射图将两图中行与行之间配准,提高了后续立体匹配的精度和速度。图2为平行校正后的外极线几何结构。其中l为距离信息(相机镜头距离物体的深度信息),Xw为被测物体点坐标,XlXr为左右相机成像平面点,D=Xl-Xr(视差),f为焦距,OlOr为相机光心。立体匹配后,将左右相机对应像素点的横坐标相减便可以得到视差,由相似三角形原理即可得到距离信息

l=bfD-b,(2)

式中:b为相机光心间的距离。

图 2. 平行校正的外极线几何结构

Fig. 2. Geometric structure of epipolar-lines for parallel correction

下载图片 查看所有图片

2.3 单相机标定原理

双目标定中关键的一步为单相机标定,求解单相机的内外参数,Oc为相机光心点,成像平面为图中虚线平面。假设圆形标志区域的左上角的点为世界坐标系原点,虚线平面为相机的成像平面,将其前移构建图像坐标系Oxy-xy,像素坐标系Ouv-uv,世界坐标系Ow-XwYwZw ,相机坐标系Oc-XcYcZc,标定过程即可将像素坐标系中点(u,v)与其在世界坐标系中对应物体点的坐标(Xw,Yw,Zw)的对应关系求出[12-13]

图 3. 相机标定原理

Fig. 3. Camera calibration principle

下载图片 查看所有图片

假设图像中一点坐标的矩阵形式为m=[ uv1],对应于世界坐标系中的点坐标为M=[ XYZ1] ,外参矩阵为Q=[ r1r2r3t],其中,r1~r3分别为绕XYZ轴的旋转向量,t为平移向量,t=[ TXTYTZ],TX~TZ分别为沿XYZ轴的平移向量,内参矩阵可表示为

A=1/dx0u001/dyv0001f0000f000010,(3)

式中:f为焦距;dxdy为单个像素所代表的实际长度尺寸和宽度尺寸;(u0,v0)为相机的光心坐标[14]。图像中点对应于世界坐标系点的映射关系式为

A*Q*MT=mT(4)

2.4 改进Census变换的立体匹配

原始的Census变换算法的步骤为:输入2幅图像,1幅左图,1幅右图,定义1个小窗口为3×3或者5×5的矩阵,类似掩模,为了方便,后文称其为掩模。掩模是用来遍历左右图像中行上的点,寻找匹配像素。立体校正后可得到行对齐的左右图像。由于校正存在一到两个像素的误差,因此即使校正比较准确,也要在立体匹配时将对应行及其周围行像素扩展一到两行,扩大其匹配范围,提高匹配的准确度。定义一个掩模为

2461*5478(5)

掩模中间像素值为空,将掩模遍历左右图像中的对应行,比较掩模周围的灰度值与中间点的灰度值,比中间点小的标记为1,比中间点大的标记为0,与其相等的像素也记为0。假设被遍历的像素值为3,则矩阵可展开为一条码:10010000,比较左右图像对应点码的相似程度,相似度高则匹配度高。但这种算法存在一定缺点,即存在匹配误差,误差举例如下:

2461*5478,(6)48122*1081416,(7)1572*6587(8)

当(5)式经过的中间像素点值为3,(6)式经过的中间像素点值为6时,可以得出(5)式和(6)式的矩阵最终生成的码相同,虽然两式中的中间点的灰度值呈两倍关系,但最终仍会把这两个像素点误匹配为一个点。(7)式所示的矩阵中,当中间像素点值为4时,(5)式和(7)式也能匹配成一个像素点,其中*代表中间孔像素值。针对此缺点,采用扫描窗口中多中心点融合监督方式进行了改进,改进掩模矩阵示意为

b1b2b3b4b5b6b7b8b9b10b11b12*b13b14b15b16b17b18b19b20b21b22b23b24,(9)a1a2a3a4a5a6*a7*a8a9a10a11a12a13a14*a15*a16a17a18a19a20a21(10)

舍弃3×3的掩模,将掩模大小扩充至5×5甚至更大。以(8)式为例,将一个中心点扩充为4个新中心点,得到矩阵如(9)式所示。4个新的中心点与原始中心点为8邻域邻接,在4个中心点下,a1~a21为随机的数,代表像素值,在改进的算法中,将4个中心点分别在其8邻域内比较周围点的汉明距离值记录下来,并进行相互融合以及相互监督,即可规避原始Census变换中的误匹配,大幅提高匹配精度。

3 实验结果

3.1 搭建硬件系统

硬件系统示意图如图4所示。硬件系统由2个前向平行摆放的相机构成,固定相机位置后保证2个相机的相对位置不变,硬件系统搭建图如图4(a)所示,其中2个相机在地面上的主固定支架为经过高精度调平的托盘式的铝合金支架。

图 4. 硬件系统示意图。 (a)侧视图;(b)俯视图

Fig. 4. Schematic of hardware system. (a) Side view; (b) top view

下载图片 查看所有图片

3.2 单相机标定

左相机内参矩阵为[0.0806856,-5.67737,3.45139×10-5,3.45×10-5,1253.07,958.157,2448,2048],右相机内参矩阵为[0.0809745,-6.29119,3.45483×10-5,3.45×10-5,1278.83,972.503,2448,2048]。实验中,用标定板将相机与世界坐标系建立联系,设计的标定板是一组7×7的由黑色标准圆组成的可提取圆中心点坐标的二维靶标。左相机拍摄的第1幅标定板的外参矩阵为[0.114368,-0.0898491,0.468311,359.189,1.37263,91.8985],右相机拍摄的第一幅标定板的外参数矩阵为[-0.16579,-0.0836154,0.466578,358.078,0.596036,91.3967]。

3.3 双目标定

双目标定结果为[0.272985,0.00425349,0.00123705,1.11599,0.793002,0.475306],运行行校正矩阵结果如图5所示,左右相机拍摄的图片被校正为行对齐,立体校正结果如图5所示。

图 5. 立体校正结果

Fig. 5. Stereo correction results

下载图片 查看所有图片

3.4 改进Census变换的立体匹配

改进Census变换的立体匹配实验步骤如下:1) 输入左右相机原图;2) 进行图像预处理,针对复杂的背景图像以及光照因素干扰,分割提取出感兴趣区域(ROI);3) 将ROI图形作为Census立体匹配程序的输入图像进行计算,得到匹配结果同时生成视差值;4) 视差值编码成灰度图像,反映距离远近。行校正后立体匹配的视差图(针对被测物茶叶罐)如图6所示,距离越近则对应颜色越深。

图 6. 行校正后立体匹配的视差图。(a)左相机原图;(b) Census变换得到的视差图;(c)改进的Census变换得到的视差图

Fig. 6. Disparity map for stereo matching after row correction. (a) Original image of left camera; (b) disparity map obtained by Census transform; (c) disparity map obtained by improved Census transform

下载图片 查看所有图片

图6(a)为左相机原图,需要测量2个相机与茶罐的深度距离信息。图6 (b)为运用原始的Census变换得到的视差图像,由图可以看出,茶罐表面出现了许多误匹配点(白色的噪声点)。图6 (c)为运用改进的Census变换得到的视差图像,由图可以看出,改进后的算法消除了误匹配,且在茶罐深度图像边缘部分处得到了由于深度距离不同而发生颜色不同的变化特征。

4 分析与讨论

原始的Census变换得到的视差图中,茶叶罐表面出现许多白色的斑点痕迹,这是由误匹配而产生的错误结果。针对这一问题,使用改进的Census变换重新运行程序,得到的视差图效果明显优于原始Census变换的结果,且可以读取视差图中的视差值以进行实际距离的测量。经反复实验,实际距离为2 m时的测量误差仅为6.4 cm。应用于测距时,原始Census变换与改进的Census变换的误差比较如表1所示。

改进的Census算法将原始3×3的掩模扩展为5×5,采用4个中心点融合监督,极大地降低了误匹配率。由于一些实际项目中需要实时定位测量标记物体的距离,增加掩模大小的确能使结果更加准确,但程序运行时间也会随之增加,无法满足实时性需求。因此,这里在求解视差值的同时,利用相机的特殊结构构建三角形进行求解,如图4所示,当物体正好在两个相机正中心时,校正平行的外极线几何结构为等腰三角形。当被测物体在其他位置时也可以利用三角形的比例关系进行计算,相机成像平面与光心构成平行结构。由于实验室场地的局限性,这里仅对于2 m左右的距离进行了百次测量,得到了准确的结论。当被测物距离增加时,左右相机之间的距离应随之提升,后续工作中重新进行了长距离的测距实验并验证了此测距流程的可行性。

表 1. 原始Census变换与改进Census变换的误差比较

Table 1. Comparison of errors between original Census transform and improved Census transform

Actualdistance /mmMeasured distance byimproved Census /mmError for improvedCensus /%Census measuringdistance error /%Accuracyimprovement /%
400400.840.212.262.05
500502.650.533.883.35
600604.980.834.954.12
700707.141.026.965.94
800809.521.198.317.12
900914.041.5610.789.22
10001019.71.9713.3111.34
20002064.23.2122.3119.10

查看所有表

5 结论

介绍了一套易实现且精度较高的双目测距系统,给出了其外观构造图,使用2个完全相同的500万像素的黑白相机,定制了带微调结构的铝合金落地支架,固定两相机。通过单相机标定获得其内外参数,利用单相机标定结果进行双目标定获得两相机的相对位置关系。计算出校正向量并对左右相机拍摄的图片进行行对准,并在此基础上运行改进的Census变换的立体匹配算法,得到较为准确的视差值,给出了视差值到实际距离的求解公式。实验中,以茶罐为被测物,运用改进的Census变换得到的视差图中消除了茶罐表面的误匹配点。为了验证此高精度双目测距系统的准确性,设置多组被测距离进行对比,实际被测距离为2 m,改进算法的测距误差为6.4 cm。设置对照组与原始的Census算法运行结果进行对比,验证了改进的Census算法的优越性,2 m测量精度提高了19.1%。所提测距方法得到准确的测量结果有两个前提:在单相机标定过程中需要将标定误差控制在0.1 pixel以内;双目标定误差需要控制在0.2 pixel以内。Census变换基于比大小与异或运算,因此所提测距方法的立体匹配速度快,优于其他算法,有望广泛应用于刑侦监控中实时定位跟踪嫌疑人,行驶车辆测速,生产流水线上实时记录多自由度机械臂位姿等实时性测量的项目中。

参考文献

[1] Zhang E S, Wang S B. Plane-space algorithm based on binocular stereo vision with its estimation of range and measurement boundary[J]. IEEE Access, 2018, 6: 62450-62457.

    Zhang E S, Wang S B. Plane-space algorithm based on binocular stereo vision with its estimation of range and measurement boundary[J]. IEEE Access, 2018, 6: 62450-62457.

[2] 蒋晓东, 于纪言, 朱立坤, 等. 基于硬件SURF算法的自校准双目测距系统[J]. 光学学报, 2018, 38(10): 1036001.

    蒋晓东, 于纪言, 朱立坤, 等. 基于硬件SURF算法的自校准双目测距系统[J]. 光学学报, 2018, 38(10): 1036001.

    Jiang X D, Yu J Y, Zhu Li K, et al. Self-calibrated binocular ranging system based on hardware SURF algorithm[J]. Acta Optica Sinica, 2018, 38(10): 1036001.

    Jiang X D, Yu J Y, Zhu Li K, et al. Self-calibrated binocular ranging system based on hardware SURF algorithm[J]. Acta Optica Sinica, 2018, 38(10): 1036001.

[3] 周富强, 王晔昕, 柴兴华, 等. 镜像双目视觉精密测量技术综述[J]. 光学学报, 2018, 38(8): 0815003.

    周富强, 王晔昕, 柴兴华, 等. 镜像双目视觉精密测量技术综述[J]. 光学学报, 2018, 38(8): 0815003.

    Zhou F Q, Wang Y X, Chai X H, et al. Review on precise measurement technology based on mirror binocular vision[J]. Acta Optica Sinica, 2018, 38(8): 0815003.

    Zhou F Q, Wang Y X, Chai X H, et al. Review on precise measurement technology based on mirror binocular vision[J]. Acta Optica Sinica, 2018, 38(8): 0815003.

[4] 肖进胜, 田红, 邹文涛, 等. 基于深度卷积神经网络的双目立体视觉匹配算法[J]. 光学学报, 2018, 38(8): 0815017.

    肖进胜, 田红, 邹文涛, 等. 基于深度卷积神经网络的双目立体视觉匹配算法[J]. 光学学报, 2018, 38(8): 0815017.

    Xiao J S, Tian H, Zou W T, et al. Stereo matching based on convolutional neural network[J]. Acta Optica Sinica, 2018, 38(8): 0815017.

    Xiao J S, Tian H, Zou W T, et al. Stereo matching based on convolutional neural network[J]. Acta Optica Sinica, 2018, 38(8): 0815017.

[5] Lee D H, Chang J Y, Heo Y S. Stereo matching using cost volume fusion for high dynamic range scenes[J]. Electronics Letters, 2017, 53(23): 1522-1524.

    Lee D H, Chang J Y, Heo Y S. Stereo matching using cost volume fusion for high dynamic range scenes[J]. Electronics Letters, 2017, 53(23): 1522-1524.

[6] 张丽娟, 杨进华, 姜雨彤, 等. 基于双目CCD测距的目标图像匹配算法研究[J]. 激光与光电子学进展, 2014, 51(9): 091002.

    张丽娟, 杨进华, 姜雨彤, 等. 基于双目CCD测距的目标图像匹配算法研究[J]. 激光与光电子学进展, 2014, 51(9): 091002.

    Zhang L J, Yang J H, Jiang Y T, et al. Research on target image matching algorithm for binocular CCD ranging[J]. Laser & Optoelectronics Progress, 2014, 51(9): 091002.

    Zhang L J, Yang J H, Jiang Y T, et al. Research on target image matching algorithm for binocular CCD ranging[J]. Laser & Optoelectronics Progress, 2014, 51(9): 091002.

[7] 周龙, 徐贵力, 李开宇, 等. 基于Census变换和改进自适应窗口的立体匹配算法[J]. 航空学报, 2012, 33(5): 886-892.

    周龙, 徐贵力, 李开宇, 等. 基于Census变换和改进自适应窗口的立体匹配算法[J]. 航空学报, 2012, 33(5): 886-892.

    Zhou L, Xu G L, Li K Y, et al. Stereo matching algorithm based on Census transform and modified adaptive windows[J]. Acta Aeronautica et Astronautica Sinica, 2012, 33(5): 886-892.

    Zhou L, Xu G L, Li K Y, et al. Stereo matching algorithm based on Census transform and modified adaptive windows[J]. Acta Aeronautica et Astronautica Sinica, 2012, 33(5): 886-892.

[8] 王琼, 江晓亮, 袁建英, 等. 基于改进Census变换的区域立体匹配算法[J]. 计算机应用研究, 2015, 32(10): 3164-3167.

    王琼, 江晓亮, 袁建英, 等. 基于改进Census变换的区域立体匹配算法[J]. 计算机应用研究, 2015, 32(10): 3164-3167.

    Wang Q, Jiang X L, Yuan J Y, et al. Regional stereo matching algorithm based on improved Census transform[J]. Application Research of Computers, 2015, 32(10): 3164-3167.

    Wang Q, Jiang X L, Yuan J Y, et al. Regional stereo matching algorithm based on improved Census transform[J]. Application Research of Computers, 2015, 32(10): 3164-3167.

[9] 祝世平, 闫利那, 李政. 基于改进Census变换和动态规划的立体匹配算法[J]. 光学学报, 2016, 36(4): 0415001.

    祝世平, 闫利那, 李政. 基于改进Census变换和动态规划的立体匹配算法[J]. 光学学报, 2016, 36(4): 0415001.

    Zhu S P, Yan L N, Li Z. Stereo matching algorithm based on improved Census transform and dynamic programming[J]. Acta Optica Sinica, 2016, 36(4): 0415001.

    Zhu S P, Yan L N, Li Z. Stereo matching algorithm based on improved Census transform and dynamic programming[J]. Acta Optica Sinica, 2016, 36(4): 0415001.

[10] Zhang Z G, Tao W B. Pedestrian detection in binocular stereo sequence based on appearance consistency[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2016, 26(9): 1772-1785.

    Zhang Z G, Tao W B. Pedestrian detection in binocular stereo sequence based on appearance consistency[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2016, 26(9): 1772-1785.

[11] McIntire J P, Wright S T, Harrington L K, et al. . Binocular fusion ranges and stereoacuity predict positional and rotational spatial task performance on a stereoscopic 3D display[J]. Journal of Display Technology, 2015, 11(11): 959-966.

    McIntire J P, Wright S T, Harrington L K, et al. . Binocular fusion ranges and stereoacuity predict positional and rotational spatial task performance on a stereoscopic 3D display[J]. Journal of Display Technology, 2015, 11(11): 959-966.

[12] Han Y, Qian Y J, Sun J, et al. A self-calibration technique for on-chip precise clock generator[J]. IEEE Transactions on Circuits and Systems II: Express Briefs, 2015, 62(12): 1114-1118.

    Han Y, Qian Y J, Sun J, et al. A self-calibration technique for on-chip precise clock generator[J]. IEEE Transactions on Circuits and Systems II: Express Briefs, 2015, 62(12): 1114-1118.

[13] 解则晓, 朱瑞新, 张安祺. 超大尺度线结构光传感器三维测量系统外参数标定[J]. 中国激光, 2017, 44(10): 1004003.

    解则晓, 朱瑞新, 张安祺. 超大尺度线结构光传感器三维测量系统外参数标定[J]. 中国激光, 2017, 44(10): 1004003.

    Xie Z X, Zhu R X, Zhang A Q. Extrinsic parameters calibration of three-dimensional measurement system for ultra-large scale line-structured light sensor[J]. Chinese Journal of Lasers, 2017, 44(10): 1004003.

    Xie Z X, Zhu R X, Zhang A Q. Extrinsic parameters calibration of three-dimensional measurement system for ultra-large scale line-structured light sensor[J]. Chinese Journal of Lasers, 2017, 44(10): 1004003.

[14] 郑兴纯, 赵敏, 冯少华. 平面靶标测头中心的两步法标定[J]. 激光与光电子学进展, 2018, 55(1): 011201.

    郑兴纯, 赵敏, 冯少华. 平面靶标测头中心的两步法标定[J]. 激光与光电子学进展, 2018, 55(1): 011201.

    Zheng X C, Zhao M, Feng S H. Two-step calibration of probe tip center of planar target[J]. Laser & Optoelectronics Progress, 2018, 55(1): 011201.

    Zheng X C, Zhao M, Feng S H. Two-step calibration of probe tip center of planar target[J]. Laser & Optoelectronics Progress, 2018, 55(1): 011201.

李大华, 沈洪宇, 于晓, 高强, 汪宏威. 一种改进Census变换的双目匹配测距方法[J]. 激光与光电子学进展, 2019, 56(11): 111503. Dahua Li, Hongyu Shen, Xiao Yu, Qiang Gao, Hongwei Wang. Binocular Ranging Method Using Stereo Matching Based on Improved Census Transform[J]. Laser & Optoelectronics Progress, 2019, 56(11): 111503.

本文已被 6 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!