条纹投影法中抗噪声干扰的相移编码去包裹方法 下载: 995次
1 引言
由于高速、高精度和非接触测量等优点,三维形貌测量技术在工业监控、计算机视觉、虚拟现实及逆向工程等领域得到了广泛应用[1]。常见的三维形貌测量技术包括条纹投影方法、立体视觉技术[2-3]、激光干涉方法[4]和光场相机类方法[5]等。在这些技术中,条纹投影法凭借其灵活、可靠和高自动化等优点,成为近年来的研究热点。条纹投影法一般使用投影仪将一组计算机生成的正弦条纹图像投影到测量物体上,并采用相机采集被物体表面轮廓调制的条纹图像,在测量系统得到良好标定的情况下,通过分析这些条纹数据,可以精确快速地得到被测物体的三维形貌信息[6]。
条纹投影方法从周期性条纹数据中获取绝对相位分布,需要确定条纹周期阶数后完成相位去包裹。现有去包裹方法分为两类:时间去包裹方法和空间去包裹方法。时间去包裹方法需要投射多幅图像,利用每个像素的多个光强信息完成该点的去包裹过程[7-10]。空间去包裹方法不需要投射额外图像,假设绝对相位是连续分布的,通过分析邻域像素的相位差来完成去包裹 [11-13]。显然,空间去包裹方法的效率高,但应用对象有限,相比之下,时间去包裹方法适用于具有复杂形貌的物体,但需要投射更多条纹图,如何兼顾两者优点一直是去包裹方法研究的重点。研究者提出了一种相移编码方法[14],其继承了时间类方法的普适性,同时仅需要额外投射一幅编码图像。该编码图像含有相移信息,可用于相移法,因此可以媲美空间类方法的高效性。但相移编码去包裹方法对噪声很敏感,在实际应用中难以避免投影阴影[15]、传感器噪声[16]及环境振动[17-18]等噪声源污染,因此迫切需要一种更稳健的相移编码方法。
在光学测量方法中,针对噪声问题有很多研究,主要可以分为两类。一类是设法去除噪声,如Deng等[19]提出了一种基于相位分析的图像深度分割方法,并使用双边滤波器过滤相位图噪声。Lin等[20]基于深度学习,提出了一种光学条纹图案的去噪卷积神经网络(FPD-CNN)方法,可以从带噪声的输入条纹图案中去除噪声点。Yan等[21]同样使用卷积神经网络(CNN)方法,通过分别对求解相位的不连续反正切函数的分子分母来实现噪声过滤,并实现了鲁棒去包裹。Zhou等[15]提出了一种非迭代的双阈值去噪方法,通过将灰度图像视为三维点云来进行分层处理,快速去除了图像中偏离较大的误差点。这类方法适用性较好,但缺点是计算复杂或需要调试阈值,在滤波时容易损失图像细节信息。第二类方法是设法提升方法自身的鲁棒性。如Deng等[22]提出了一种基于分割线相移不变性的深度分割方案,并通过增加相移法步数来提高相位求解的鲁棒性。Wang等[23]提出了一种用于动态3D形状测量的互补相位编码,通过投影两套周期交错的条纹图像,增强了阶梯点去包裹的鲁棒性。Juarez-Salazar 等[24]提出了一种编码方法,该方法将多频去包裹方法中的同一相移量的不同频率条纹合成为一幅,并通过使用大的相移步数来抵抗噪声。第二类方法一般只适用于特定方法,但能显著提升原方法的实用性能,且可以结合第一类方法使鲁棒性进一步增强。
本文提出了一种改进的相移编码去包裹条纹投影形貌测量方法,通过增加互补的编码条纹图像,在实现不连续物体形貌测量的同时,显著增强了噪声鲁棒性。本文首先简要介绍了条纹投影方法的基础与相移编码方法的基本原理。接着,通过对相移编码去包裹方法进行噪声分析,针对噪声敏感区域设计了补偿的编码图像和探测校正方案,显著提升了原方法的抗噪能力。最后分别通过仿真模拟和实验,验证了该方法的可行性和适用性。
2 基本原理
2.1 条纹投影方法
条纹投影法的基本光路如
投影仪将计算机模拟产生的正弦条纹投影到被测物体表面,因为该系统的参考平面与直线ef是平行的,即使投影方向倾斜,参考平面上的条纹光栅仍然是平行的。当参考平面上放置物体后,被测物体的自身形貌会使物体与参考平面产生距离差,进而采集到的条纹会发生畸变,畸变条纹与原参考平面上采集到的正弦条纹相比,各点均有不同程度的移动。
在理想的条纹投影系统中,假设采用N步相移法获取相位。将计算机产生的余弦条纹序列
式中:δi为等步相移法中设计的第i幅条纹图的相移量;i为条纹图像的序号;x为条纹图像在变化方向上的像素坐标值;p为条纹周期;
通过(2)式反正切函数获得的φw的取值范围在[0, 2π]内,还需要去包裹操作来获得条纹级数k,从而得到绝对相位值φ,即
已有的去包裹算法可以分为空间和时间去包裹方法两类,前者高效仅需要少量图像,后者能对每个点进行独立去包裹。目前流行的多频条纹去包裹方法可以实现逐点独立去包裹[27-28],但需要多组频率的条纹图,而且每种频率都需要采用相移法,不利于快速动态形貌测量。因此,本文设计了一种新的相移编码方法,通过给每个周期赋予不同的相移量来进行编码,在仅增加两幅编码图像的情况下实现逐点独立去包裹。
2.2 编码图像去包裹
对于(1)式给出的N步相移法图像,通过引入第N+1幅图像作为编码图像,来获取条纹级数,进而方便去包裹。在不考虑非线性影响时,编码图像写为
式中:
式中:
结合(1)式与(4)式,构造的条纹级数判别式[14]满足
式中:Ki为判别式系数,为实数。
以三步相移法(N=3)为例,将(1)式中的
由于(7)式中的φ及系数
可以得到判别式系数Ki的方程组解为
在实际应用中,相机采集到的相移图像和编码图像都不可避免地包含噪声,这意味着(6)式的条纹级数判别式并不精确为零。为此,将判别式改写为函数F(t),即
式中:Ki(t)可以理解为低通滤波器的权函数,具体表达式如(9)式所示;t(k)为编码相位。
一般地,条纹级数k为正整数,在0~floor(x/p)范围内变化,即k∈[0,floor(T)]。为了确定条纹级数k,需要逐一将k值代入判别(10)式,寻找条纹级数k所对应的t(k),使得判别式(10)式中的F(t)最接近0,即采用尝试法来确定正确的条纹级数k。从(10)式完成条纹级数k的正确识别后,就可以通过(3)式获得去包裹相位。
值得注意的是,当相位
图 3. 特殊点对编码去包裹方法的影响。(a) T=10时k的错误解码;(b) T=31/3时k的正确解码
Fig. 3. Effect of special point on coding unwrapping method. (a) Incorrect decoding when T=10; (b) correct decoding when T=31/3
2.3 噪声影响分析
在实际应用中,相机采集到的相移图像和编码图像都不可避免地存在随机噪声,为了增强编码去包裹方法的鲁棒性,还需要对该方法进行噪声影响分析。
对采集图像
假设白噪声ηi服从高斯分布N(0,σ2),表现为白噪声误差σ=Δ
此外,将(6)式对变量
将(14)式代入(13)式化简得到
使用(15)式即可对相移编码去包裹方法开展鲁棒性评估,为了方便分析,令编码图像误差为
利用(16)式表征编码图像受到的噪声影响。设σ的上限为σlim,则(15)式的极限形式为
可见,噪声造成的极限误差σlim与编码图像误差I'N+1和判别式系数Ki有关。
下面采用仿真方法来分析噪声对编码去包裹方法的影响。条纹频率T=31/3,条纹周期p=30 pixel时,白噪声误差σ取一阶振幅
由
图 4. 噪声对编码去包裹方法的影响。(a) k的分布;(b) σlim和I'N+1的分布
Fig. 4. Effect of noise on coding unwrapping method. (a) Distribution of k; (b) distributions of σlim and I'N+1
第二类是条纹级数偏差
因此,利用(17)式可找到相移编码去包裹方法对噪声敏感的区域,即
3 抗噪声干扰的编码去包裹方法
为了避免噪声的影响,本文新增一幅编码图像
与已有的编码图像(4)式相比,新增的编码图像(18)式增加了一个相位π/2,可灵活避开(17)式所示的噪声敏感区间。则考虑噪声影响时,相机采集的相移图像和编码图像变为
因为一幅编码图像对应一个条纹级数判别式,新方法中有两幅编码图像,就会有两个条纹级数判别式。考虑噪声影响时,条纹级数判别式为
式中:Fs(t)为新增的相移编码条纹图像对应的判别式。
可见,新的编码去包裹方案有两幅编码图像[(4)式和(18)式],其组合判别式(21)式能避开噪声敏感区域,可以有效增强相移编码去包裹方法的鲁棒性,尽可能避免噪声的影响。尽管判别式的组合形式有多种,但本文选用的绝对值之和的组合方式可以使判别式是单峰分布,这有利于正确解码。
在实际解码过程中,为了增强方法的鲁棒性,在每次解码时提前判断该点是否处在(21)式的噪声敏感区域,通过识别错误点来进行校正。在理想情况下,若找到正确的编码相位t值,则(21)式中的F(t)和Fs(t)恒为0,此时将两个判别式分别对t求导,有
这里定义一个衡量噪声容忍度
在使用两幅编码图像进行解码时,可根据(23)式获得每一个像素位置处的VNTI值,当小于某阈值(VNTI<Vthreshold)时,则判断该点为噪声点,并采用正确解码的邻域像素点进行校正。
本文所提出的抗噪声干扰的编码去包裹算法流程叙述如下。
1) 根据伽马非线性程度,选择相移步N,条纹频率T和条纹周期p,生成待投影的N幅相移条纹
2) 通过条纹判别式(21)式,遍历条纹级数k,分别获得两幅编码图像对应的编码系数Ki(t)和Ki(t+π/2)。
3) 使用(23)式计算每一像素点的噪声容忍度VNTI值,当小于某阈值(VNTI<Vthreshold)时,则判断该点为噪声点,采用正确解码的邻域像素点进行条纹级数k的校正。本文设置阈值Vthreshold=20σ,可以覆盖约95%的噪声点。
4 仿真分析
采用仿真方法来验证抗噪声干扰的编码去包裹算法的可行性。条纹频率T=31/3,条纹周期p=30 pixel时,仿真图像
图 5. 仿真实验结果。(a)常规方法和本文方法的解码结果;(b)三种判别方式的抗噪声效果
Fig. 5. Simulation results. (a) Decoding results of conventional method and proposed method; (b) anti-noise effects of three discrimination methods
从
从
为了进一步分析高噪声的影响程度,设置白噪声η服从高斯分布,
图 6. 大噪声时本文方法的解码结果。(a)错误解码位置和对应的NTI指标;(b)邻域校正结果
Fig. 6. Decoding results by proposed method in case of large noise. (a) Error decoding position and corresponding NTI index; (b) neighborhood correction result
5 实验验证
选用三步(N=3)相移法来验证本文方法的有效性,实验装置如
根据
图 7. 验证实验。(a)实验装置;(b)测量物体
Fig. 7. Test experiment. (a) Experimental setup; (b) measured objects
然后,将采集后的三幅相移图像与两幅编码图像相结合,利用本文方法得到条纹级数分布,如
图 9. 实验过程及结果。(a)条纹投影到被测物体;(b)被测物体的包裹相位;(c) k的分布;(d)去包裹相位;(e)相位差的二维分布;(f)本文解码方法结果;(g)文献[ 14]解码方法的结果
Fig. 9. Experimental process and results. (a) Fringe projecting to measured object; (b) wrapped phase of measured object; (c) distribution of k; (d) unwrapping phase; (e) 2D distribution of phase difference; (f) result by proposed decoding method; (g) result by decoding method in Ref. [14]
6 结论
通过增加互补的编码条纹图像,提出了一种鲁棒的相移编码去包裹方法,在实现不连续物体的形貌测量的同时,显著增强了原方法的噪声鲁棒性。理论分析了噪声对解码过程中条纹级数判别式的影响,并设计了互补编码条纹图像与噪声敏感性指示器,通过仿真分析和实验验证了所提方法的可行性。与常规的相移编码去包裹相比,实验结果显示,所提方法能有效抑制噪声对相位去包裹结果的影响。同时,所提方法也有不足之处,一是理论分析解码时采用的线性模型没有考虑伽玛误差的影响,二是条纹编码限制了条纹频率,这是未来需要解决的问题。
[1] Lazaros N, Sirakoulis G C, Gasteratos A. Review of stereo vision algorithms: from software to hardware[J]. International Journal of Optomechatronics, 2008, 2(4): 435-462.
[2] Goda I. L'Hostis G, Guerlain P. In-situ non-contact 3D optical deformation measurement of large capacity composite tank based on close-range photogrammetry[J]. Optics and Lasers in Engineering, 2019, 119: 37-55.
[3] 葛启杰, 史金龙, 孙蕴瀚. 基于二值空间编解码的结构光三维场景重建[J]. 激光与光电子学进展, 2020, 57(2): 021509.
[4] Asundi T K, Valyukh S. Determination of surface profiles of transparent plates by means of laser interferometry with wavelength tuning[J]. Optics and Lasers in Engineering, 2019, 115: 59-66.
[5] Zhao J Y, Liu Z W, Guo B Q. Three-dimensional digital image correlation method based on a light field camera[J]. Optics and Lasers in Engineering, 2019, 116: 19-25.
[6] Hu Y, Chen Q, Liang Y C, et al. Microscopic 3D measurement of shiny surfaces based on a multi-frequency phase-shifting scheme[J]. Optics and Lasers in Engineering, 2019, 122: 1-7.
[7] Peng X, Yang Z L, Niu H B. Multi-resolution reconstruction of 3-D image with modified temporal unwrapping algorithm[J]. Optics Communications, 2003, 224(1/2/3): 35-44.
[10] 王张颖, 高楠, 张宗华. 基于并行四颜色通道条纹投影的三维测量术[J]. 光学学报, 2018, 38(8): 0815022.
[14] Yang S C, Wu G X, Wu Y X, et al. High-accuracy high-speed unconstrained fringe projection profilometry of 3D measurement[J]. Optics & Laser Technology, 2020, 125: 106063.
[15] Zhou S T, Liu X L, Wang C Y, et al. Non-iterative denoising algorithm based on a dual threshold for a 3D point cloud[J]. Optics and Lasers in Engineering, 2020, 126: 105921.
[17] Wizinowich P L. Phase shifting interferometry in the presence of vibration: a new algorithm and system[J]. Applied Optics, 1990, 29(22): 3271-3279.
[18] Liu Q, Li L L, Zhang H, et al. Simultaneous dual-wavelength phase-shifting interferometry for surface topography measurement[J]. Optics and Lasers in Engineering, 2020, 124: 105813.
[19] Deng J, Li J, Feng H, et al. Omnidirectional depth segmentation using orthogonal fringe patterns and multi-scale enhancement[J]. Optics and Lasers in Engineering, 2020, 126: 105890.
[20] Lin B W, Fu S J, Zhang C M, et al. Optical fringe patterns filtering based on multi-stage convolution neural network[J]. Optics and Lasers in Engineering, 2020, 126: 105853.
[21] Yan K T, Yu Y J, Sun T, et al. Wrapped phase denoising using convolutional neural networks[J]. Optics and Lasers in Engineering, 2020, 128: 105999.
[22] Deng J, Li J, Feng H, et al. Flexible depth segmentation method using phase-shifted wrapped phase sequences[J]. Optics and Lasers in Engineering, 2019, 122: 284-293.
[23] Wang Y W, Liu L, Wu J, et al. Dynamic three-dimensional shape measurement with a complementary phase-coding method[J]. Optics and Lasers in Engineering, 2020, 127: 105982.
[24] Juarez-Salazar R, Martinez-Laguna J. Diaz-Ramirez V H. Multi-demodulation phase-shifting and intensity pattern projection profilometry[J]. Optics and Lasers in Engineering, 2020, 129: 106085.
[25] 代晴, 孙平, 类智方, 等. 基于条纹光流的物体面形测量技术[J]. 光学学报, 2019, 39(11): 1112004.
[27] 毛翠丽, 卢荣胜. 提高多频条纹投影相位提取精度的反向误差补偿法[J]. 光学学报, 2018, 38(4): 0412005.
[28] 陈超, 高楠, 王向军, 等. 基于自适应条纹投影的彩色物体三维形貌测量[J]. 光学学报, 2018, 38(8): 0815008.
[29] Zuo C, Huang L, Zhang M L, et al. Temporal phase unwrapping algorithms for fringe projection profilometry: a comparative review[J]. Optics and Lasers in Engineering, 2016, 85: 84-103.
[30] Lai G M, Yatagai T. Generalized phase-shifting interferometry[J]. Journal of the Optical Society of America A, 1991, 8(5): 822.
刘达, 雷振坤, 姜昊, 白瑞祥. 条纹投影法中抗噪声干扰的相移编码去包裹方法[J]. 光学学报, 2020, 40(23): 2312002. Da Liu, Zhenkun Lei, Hao Jiang, Ruixiang Bai. Anti-Noise Phase-Shift Coding Unwrapping Method in Fringe Projection Profilometry[J]. Acta Optica Sinica, 2020, 40(23): 2312002.