基于VCSEL投影阵列的散斑结构光三维成像技术及其传感器设计
下载: 773次特邀研究论文内封面文章
1 引言
随着工业智能制造、消费电子、人工智能物联网(AIoT)、智能机器人等行业迅猛发展,三维传感技术的研究和应用步入到一个前所未有的高速发展期。国内外先进的三维传感设备在朝着“距离更远、精度更高、速度更快、功耗更低、自动化、智能化”的方向发展。据The Insight Partners报道,三维传感市场在未来几年将呈现爆发式的增长,市场规模将从2022年的221亿美元发展到2026年的588亿美元,成为下一个重要传感器细分市场。《中国制造2025》中明确指出“以信息化和工业化两化深度融合引领和带动制造业发展”。作为智能制造中重要的信息输入环节,三维数字传感技术是数字化和信息化的源头。在工业设计和制造领域,工业质量检测、虚拟装配和智能制造对复杂零部件三维外形的检测效率和检测精度提出了更高的要求。在消费电子、AIoT、智能机器人领域,场景三维建模、增强现实/虚拟现实(AR/VR)、机器人三维视觉定位和导航相关应用严重依赖于远距离、高精度、高速三维成像。针对以上发展趋势,开发低功耗、远距离、高精度、高速、高分辨的三维传感系统对我国科技创新和产业升级具有重大意义。
目前,国内外市场上的非接触式主动三维传感设备主要采用飞行时间(ToF)法或结构光投影法两种方法。ToF[1-6]分为直接飞行时间(dToF)和间接飞行时间(iToF)。dToF具有功耗低、抗干扰性强、精度高、测量距离远等优势,但是对单光子雪崩二极管(SPAD)的制作工艺、检测精度有很高要求,导致系统集成困难、分辨率低。以国内南京芯视界微电子科技有限公司的VI4330产品为例,测距范围下的精度达±1%@15 m,速度最高达30 frame/s,但分辨率仅为320×240像素。iToF采用图像传感器接收光信号,克服了分辨率低这一缺陷,但是由于不同反射路径的干扰问题,随着测量距离的不断增大,相位测量的信噪比显著降低,深度误差增大。以国内聚芯微电子公司的SIF2610产品为例,测距范围下的精度达±1%@5 m,分辨率为640×480像素。
结构光投影法[7-13]中的两种代表性方法分别是条纹投影法和散斑投影法。条纹投影法是一种高精度、全视场的三维测量方法,相关技术已经较为成熟,一些商用化高精度三维测量系统已在工业上广泛使用,如德国GOM公司的ATOS系列,荷兰LMI公司的Gocator系列,国内先临三维公司的EinScan系列。条纹投影法难以实现高质量的动态三维成像,关键条纹投影设备成本高昂,核心部件数字微镜器件被美国TI公司垄断,难以实现系统小型化。散斑投影法极大简化了结构光投影器件的制作工艺,具有测量效率高、系统小型化等优势,器件如美国英特尔公司的RealSense系列,国内奥比中光公司的Astra系列、图漾科技公司的FM系列。以RealSense D455设备为例,测距范围下的精度达±2%@4 m,分辨率为1280×720像素。影响散斑投影法3D成像性能的两大关键技术为散斑图案设计方法与高性能立体匹配算法。散斑图案设计方法的关键思想在于保证局部散斑相对于整个投影散斑图案是全局唯一的,然而,由于被测物体表面的复杂反射特性和双相机间存在的视角差异,仅投影单幅散斑图案仍难以保证整个测量空间中每个像素的全局唯一性,在实际测量时存在因误匹配而导致其测量精度较差的问题。为此,一些立体匹配方法通过平滑视差图以实现密集匹配,代价是匹配精度较低,如半全局匹配(SGM)、高效的大尺度立体匹配(ELAS)和基于倾斜支持窗口的立体匹配(PatchMatch)等。
不难理解,投影多幅散斑图案时可以利用更多的约束信息以保证被测场景的全局唯一性,进而提高三维测量精度。遵循这一思想,四川大学的Zhou等[14]利用单幅彩色散斑图案和时空立体匹配算法实现了对运动物体的高精度三维测量。德国耶拿大学的Schaffer等[15-16]采用声光偏转器快速投影激光散斑图案,其投影速率比普通投影仪高10倍以上,实现了每秒350帧的高速三维测量,但该设备存在系统集成的问题。四川大学的Zhou等[17]提出了一种基于二值掩模转轮的小型化散斑投影器件,利用伺服电机驱动基于近红外LED光源的特制散斑掩模玻璃,向被测场景投影实时旋转的散斑图案。但是为了保证相机采集的相邻两帧散斑图间的低相关性,该散斑投影器件的图案切换需耗时11 ms,限制了高速投影能力。
本文提出了一种基于垂直腔面发射激光器(VCSEL)投影阵列的散斑结构光三维成像技术及其传感器设计方法,利用水平方向上间隔分布的3个小型化散斑投影模组形成散斑投影阵列,向被测场景连续投影3幅不同的散斑图案,实现对场景深度信息的高效时空编码。同时,提出了一种由粗到精的时空散斑相关算法,利用基于零均值归一化互相关(ZNCC)的局部时空匹配算法估计场景的初始视差,继而实施基于归一化互信息的单像素时域匹配方法,在成本计算阶段有效保留被测目标的局部细节,防止局部平滑问题。然后,利用基于3幅散斑图的引导滤波方法实现快速成本滤波,在提升匹配正确率的同时有效保留边缘细节。最后,使用融合抛物线与线性的加权插值函数实现亚像素匹配,以进一步提升匹配精度。经过大量实验证明,所提基于散斑投影阵列的三维结构光传感器具有小型化、远距离、大视场、高精度等优势,可潜在应用于零件分拣、机器人码垛等工业场景。
2 基于散斑投影阵列的三维结构光传感器
2.1 三维结构光传感器的硬件系统
所提基于VCSEL投影阵列的三维结构光传感器主要由2个红外相机模组和3个小型化散斑投影模组构成,如

图 1. 基于VCSEL投影阵列的三维结构光传感器的硬件结构示意图
Fig. 1. Diagram of the hardware structure of the 3D structured-light sensor based on VCSEL projection array
关于红外相机设计,配备了一款像素分辨率为
2.2 由粗到精的时空散斑相关算法
所提时空散斑相关方法主要包含3个步骤:时空匹配、成本聚合和视差优化,如

图 2. 由粗到精的时空散斑相关算法的示意图
Fig. 2. Diagram of a coarse-to-fine spatial-temporal speckle correlation algorithm
2.2.1 基于ZNCC的局部时空立体匹配算法
对红外立体相机采集的立体散斑图像序列(3幅)使用立体校正进行极线对齐,根据视差范围
式中:
2.2.2 基于归一化互信息的单像素时域匹配算法
局部匹配的基本假设是:匹配窗口中的所有像素具有相似视差。而这一假设在视差不连续处是不成立的,将导致三维重建结果中物体的边缘或狭窄表面处存在边缘粗化问题。针对这一问题,提出了基于归一化互信息的单像素时域匹配方法,以有效恢复被测目标的精细轮廓,从而缓解局部匹配的视差平滑问题。
传统的基于互信息的成本计算方法一般采用分层迭代的计算方式,使用泰勒展开将基于整幅图像的互信息转换为像素级的互信息计算[19]。如
通过计算
式中:
式中:
相比传统互信息匹配方法,如

图 4. 基于归一化互信息的单像素时域匹配方法
Fig. 4. Single-pixel temporal matching method based on normalised mutual information
2.2.3 基于引导滤波的时空成本聚合
获得匹配成本后,将引导滤波应用于基于三帧散斑图的时空成本聚合[20],通过聚合每个像素在局部窗口内的成本值,减少误匹配。使用引导图
式中:滤波权重
式中:
2.2.4 基于加权插值函数的视差优化
使用WTA对聚合后的成本
式中:

图 5. 使用不同插值函数的插值前后差异的直方图。(a)线性插值函数;(b)抛物线插值函数;(c)融合插值函数
Fig. 5. Histogram of difference before and after interpolation using different interpolation functions. (a) Linear interpolation function; (b) parabolic interpolation function; (c) fused interpolation function

图 6. 使用不同插值函数的三维点云结果。(a)线性插值函数;(b)抛物线插值函数;(c)融合插值函数
Fig. 6. 3D point cloud results using different interpolation functions. (a) Linear interpolation function; (b) parabolic interpolation function; (c) fused interpolation function
为了缓解这种影响,使用加权融合的方法结合抛物线插值函数和线性插值函数得到
式中:
3 实验结果与分析
为了系统地评估所提基于散斑投影阵列的三维结构光传感器的实际三维测量性能,分别进行4组实验,包括精度分析实验、三维模型扫描重构实验、小目标金属零件的远距离测量实验和复杂场景测量实验。此外,选用市面上2款常见的散斑投影三维传感器作为对比,奥比中光公司的Astra Pro相机和英特尔公司的RealSense D455相机。
3.1 精度分析实验
为了验证三维结构光传感器在不同距离处的测量精度,以10 cm为间隔对50 cm至100 cm距离处的白墙进行多次测量。为了减少随机测量误差的干扰,对每个距离都重复进行10次测量,选取测量点云数据的中心区域进行平面拟合得到其测量误差,误差曲线如

图 7. 精度分析结果。(a)不同距离的测量误差曲线;(b)100 cm处平面的点云结果;(c)100 cm处平面的误差直方图
Fig. 7. Precision analysis result. (a) Measurement error curves at different distances; (b) point cloud results of the plane at 100 cm; (c) error histograms of the plane at 100 cm
3.2 三维模型扫描重构实验
为了验证所研制的三维结构光传感器对复杂三维模型的测量性能,继续使用这3款设备扫描2个具有不同形状的物体(人头模型和大卫模型),对应的三维测量结果如
为了实现定量化的测量误差分析,对获得的三维点云数据与标准数据进行点云对比。标准数据使用天远蓝光三维扫描仪OKIO 5M生成,这是一款工业级三维扫描设备,其精度高达0.005 mm。

图 10. 不同设备输出的三维点云与标准数据间的测量误差
Fig. 10. Measurement error between the 3D point cloud output by different devices and the standard data
3.3 小目标金属零件的远距离测量实验
为了验证所提设备在工业智能制造场景的应用潜力,进行小目标金属零件的远距离测量实验,以满足金属零件的分拣与装配等应用需求。

图 11. 金属零件的远距离测量实验。(a)~(c)不同姿态堆叠放置的金属螺丝钉的散斑图;(d)~(f)对应的三维点云结果
Fig. 11. Long-distance measurement experiment of metal parts. (a)-(c) Speckle images of metal screws stacked in different postures; (d)-(f) corresponding 3D point cloud results
3.4 复杂场景测量实验
对于三维测量系统而言,测量具有复杂结构或不连续空间分布的远距离场景是一项挑战性任务。使用各种形状不同、大小不一的物体,有表面平滑连续的物体,也有纹理特征复杂的物体进行实验,待测场景的三维空间为0.7 m×0.6 m×1 m(宽度×高度×深度)。如
4 结论与展望
提出了一种基于VCSEL投影阵列的散斑结构光三维成像技术及其传感器设计方法,通过使用3个小型化散斑投影模组形成散斑投影阵列,向被测场景连续投影3幅空间位置不同的散斑图案,实现对场景深度信息的高效时空编码。同时,提出了一种由粗到精的时空散斑相关算法,将基于ZNCC的局部时空匹配算法与基于归一化互信息的单像素时域匹配方法结合,在提升匹配精度的同时有效保留被测目标的局部细节,避免了常见的局部平滑问题。然后,将引导滤波应用于基于三帧散斑图的时空成本聚合,使用融合抛物线与线性的加权插值函数实现亚像素匹配,从而成功恢复了复杂目标表面的精细轮廓。精度分析实验证明,相比于市面上现有的同类设备,所提设备将平面目标的测量误差减小了50%以上,在50 cm至100 cm的深度范围内实现了精度优于0.75 mm、稳定性更高的三维测量。三维模型扫描重构实验表明,不同于现有设备,所提设备在扫描不同形貌的复杂目标时均可提供完整度较高的高精度三维重构结果,将测量精度提升至0.6 mm,实现了对复杂目标的鲁棒、高质量三维测量。小目标金属零件的远距离测量实验和复杂场景测量实验共同表明,所提设备实现了对小目标金属零件和复杂场景的远距离、大视场、高精度三维测量,具有应用于零件分拣、机器人码垛等工业场景的潜在能力。
在提升散斑结构光三维测量精度的同时,还应关注散斑匹配/立体匹配算法的计算开销与执行效率等问题。高计算效率的立体匹配一直是立体匹配研究的热门方向,一些对实时性要求较高的应用需要毫秒级的立体匹配,如无人驾驶、机器人自主导航和手持式三维扫描仪等。目前,基于硬件加速的立体视觉方法利用高性能GPU或FPGA硬件平台实现了实时三维成像。面对市场上移动端设备对三维测量的需求,一些三维传感器厂家设计并研发了专用的ASIC芯片以实现基于散斑投影的立体匹配算法,如奥比中光的MX系列芯片、华捷艾米的IMI系列芯片等。随着三维传感器市场的逐渐扩大,相关设备的出货量也稳步增加,专用ASIC芯片研发的高投入也将获得回报。此外,基于FPGA的通用开发平台同样可以实现立体匹配的实时运算处理,但是其成本较高和芯片供应依赖进口等问题限制了基于FPGA的三维传感器的大批量生产能力。因此,为了同时满足精度、速度与计算成本的要求,针对散斑投影轮廓术,如何直接在移动端设备上实现高效率、低计算开销的实时立体匹配也将是今后研究的重点之一。
[1] GanapathiV, PlagemannC, KollerD, et al. Real -time motion capture using a single time-of-flight camera[C]∥2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, June 13-18, 2010, San Francisco, CA, USA. New York: IEEE Press, 2010: 755-762.
[2] Kolb A, Barth E, Koch R, et al. Time-of-flight cameras in computer graphics[J]. Computer Graphics Forum, 2010, 29(1): 141-159.
[3] HansardM, LeeS, ChoiO,et al. Time-of-flight cameras: principles, methods, and applications[M]. London: Springer, 2013.
[5] Salvadori M, Di Giorgio G, Cipriani M, et al. Time-of-flight methodologies with large-area diamond detectors for ion characterisation in laser-driven experiments[J]. High Power Laser Science and Engineering, 2022, 10: e6.
[7] Zhang Q C, Su X Y. High-speed optical measurement for the drumhead vibration[J]. Optics Express, 2005, 13(8): 3110-3116.
[8] Gorthi S S, Rastogi P. Fringe projection techniques: whither we are?[J]. Optics and Lasers in Engineering, 2010, 48(2): 133-140.
[9] Feng S J, Zhang L, Zuo C, et al. High dynamic range 3D measurements with fringe projection profilometry: a review[J]. Measurement Science and Technology, 2018, 29(12): 122001.
[10] Zhang S. Absolute phase retrieval methods for digital fringe projection profilometry: a review[J]. Optics and Lasers in Engineering, 2018, 107: 28-37.
[11] Yin W, Feng S J, Tao T Y, et al. The calibration method for panoramic 3D shape measurement with plane mirrors[J]. Optics Express, 2019, 27(25): 36538-36550.
[12] Wu Z J, Guo W B, Zhang Q C. High-speed three-dimensional shape measurement based on shifting Gray-code light[J]. Optics Express, 2019, 27(16): 22631-22644.
[13] Zuo C, Feng S J, Huang L, et al. Phase -shifting algorithms for fringe projection profilometry: a review[J]. Optics and Lasers in Engineering, 2018, 109: 23-59.
[14] Zhou P, Zhu J P, Jing H L. Optical 3-D surface reconstruction with color binary speckle pattern encoding[J]. Optics Express, 2018, 26(3): 3452-3465.
[15] Schaffer M, Grosse M, Arendt B, et al. High-speed three-dimensional shape measurements of objects with laser speckles and acousto-optical deflection[J]. Optics Letters, 2011, 36(16): 3097-3099.
[16] Schaffer M, Grosse M, Kowarschik R. High-speed pattern projection for three-dimensional shape measurement using laser speckles[J]. Applied Optics, 2010, 49(18): 3622-3629.
[17] Zhou P, Zhu J P, Xiong W, et al. 3D face imaging with the spatial-temporal correlation method using a rotary speckle projector[J]. Applied Optics, 2021, 60(20): 5925-5935.
[18] Zuo C, Zhang X L, Hu Y, et al. Has 3D finally come of age? —an introduction to 3D structured-light sensor[J]. Infra-red and Laser Engineering, 2020, 49(3): 303001.
[19] Hirschmüller H. Stereo processing by semiglobal matching and mutual information[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 30(2): 328-341.
[20] Hosni A, Rhemann C, Bleyer M, et al. Fast cost-volume filtering for visual correspondence and beyond[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(2): 504-511.
Article Outline
尹维, 李明雨, 胡岩, 冯世杰, 张晓磊, 王槐, 陈钱, 左超. 基于VCSEL投影阵列的散斑结构光三维成像技术及其传感器设计[J]. 激光与光电子学进展, 2023, 60(8): 0811014. Wei Yin, Mingyu Li, Yan Hu, Shijie Feng, Xiaolei Zhang, Huai Wang, Qian Chen, Chao Zuo. Speckle Structured