光电工程, 2022, 49 (12): 220169, 网络出版: 2023-01-17  

结构光投影三维面形测量及纹理贴图方法

3D shape measurement and texture mapping method based on structured light projection
作者单位
四川大学电子信息学院,四川 成都 610065
摘要
针对光学三维传感中的纹理映射贴图问题,文章在利用结构光投影双目视觉测量系统获取待测场景面形的三维点云数据后,探究完成物体纹理信息(灰度和彩色)的获取及映射方法。在无额外彩色成像设备的条件下,分别提出了两种(灰度和彩色)纹理获取方法。在使用额外纹理相机前提条件下,首先提出了通过增设标记点实现自由纹理映射的方案。随后,为了摆脱对于标记点的依赖,提出了利用物体本征特征信息实现无约束自由纹理映射的方案。本文提出了不同应用场景下三维点云数据纹理映射的三种实用、可行方案,实验证明了它们的可行性。这些纹理映射方案可为文物数字化、逆向工程等领域提供简单易行的含真彩色纹理的三维信息获取手段。
Abstract
2) On the premise of taking an additional texture camera, marker points are added in the measured field, and the mapping relationship between the 3D point cloud and the 2D texture image can be obtained from the camera imaging model. To further get rid of the constraints of adding markers, an unconstrained free texture mapping method is proposed for objects with rich textures. The idea is to perform feature matching between the object images captured by the left and right cameras. According to the corresponding relationship between feature matching points and the 3D point cloud, the PnP problem is solved to obtain the pose relationship for the establishment of the mapping relationship between the 3D point cloud and the 2D texture image and finally realizes texture mapping. Experiments have proved the feasibility of these two methods. The research fruits of this paper could provide a simple and easy means of color 3D information acquirement for the fields of cultural relics digitization and reverse engineering.After obtaining three-dimensional (3D) point cloud data of a measured scene using the binocular structured light projection measurement system, three texture (grayscale and color) acquisition and mapping methods have been explored in this paper for different scenes. Under the condition of no additional color imaging equipment, two texture acquisition methods are proposed respectively. On the premise of using an additional texture camera, the method using free texture mapping by adding marker points is proposed. Then, to get rid of the dependence on marker points, the unconstrained free texture mapping method using the object’s feature information is presented. This paper proposes three kinds of practical and feasible solutions from 3D point cloud data to mapping texture for different applicable scenes, and the feasibility of the proposed methods is proved by experiments. The free texture mapping method based on a binocular structured light system provides a simple and easy means of color 3D information acquirement for the fields of cultural relics digitization and reverse engineering.

1 引言

三维传感技术已成为时下研究热点,其中的光学三维传感方法发展势头迅猛,并以非接触、高精度、测量速度快等优点获得了业界学者们的青睐。目前,光学三维传感技术已在机器视觉、工业检测、文物保护、生物医学、影视特技、虚拟现实等领域得到广泛应用[1-8]

双目立体视觉[9-11]属于被动三维传感技术,其结构简单、操作便捷,不需要人为提供光照条件,仅用两套成像系统获取二维图像完成三维面形的重建。然而,该技术在弱纹理区域容易产生匹配的多义性,导致相关操作难以进行。为了解决这个问题,业内提出了将主动传感与被动传感相结合的方法,即在双目立体视觉的条件下,使用结构光对被测物体进行辅助照明[12-14],增加双目匹配时的对应特征点。即使在弱纹理区域,利用结构光的相位信息也可准确实现双目系统的匹配。

随着应用需求的发展,物体三维数据的数字化不再单单以获得物体的高精度三维模型尺寸信息为最终目的。让三维模型表面附着上场景真实的颜色和纹理信息,使重建三维模型具有更强烈的真实感,同样也成为三维重建中不可或缺的一部分。因此,纹理映射技术应运而生,最早提出纹理映射概念的是Catmull[12],他给出了以像素(u, v)表示的纹理空间和以坐标参数(x, y, z)表示的三维空间之间的映射关系,随后Blinn[13]对该方法进行了改进,使得纹理映射结果更加自然。Bier[14]提出了两步映射法,通过引入中介曲面作为映射媒介,构建起从三维模型到纹理图像的映射关系。

早期传统的纹理映射方法大多是通过计算机生成纹理信息渲染添加到三维模型中,与物体本身所呈现的纹理样式差异较大,其三维模型与纹理图像的映射关系也并非真实存在于物理世界之中。学者们随后所研究的纹理贴图方法,则是利用实际拍摄的彩色照片作为待映射纹理图像,获取真实物体的三维模型与其纹理图像映射关系后,将纹理信息赋给三维点云,完成具有高真实感和还原度的三维重建。

在以实际拍摄图片作为纹理信息进行映射的研究中,所用方法大致可以分为两类:一类是不采用额外成像设备,在三维重建的数据记录过程中同时拍摄纹理图像,通过图像处理方式从所采集图像中提取物体纹理信息,利用深度图像与纹理图像的精确对应完成纹理映射;另一类是采用额外的纹理相机,该相机不参与三维重建过程,仅用于拍摄物体的纹理信息,通过确定纹理相机与重建系统的位姿关系来达到纹理映射的目的。第一类研究中由于不需要建立复杂的映射关系,因此其重点在于如何获取纹理图像。张宗华[15]等通过白光数字莫尔三维成像系统,利用傅里叶变换方法重建了物体的三维点云并从编码条纹中提取出不含条纹的R、G、B三分量信息,通过组合变换得到彩色纹理图像。孙士杰[16]等通过彩色编码的正弦相移光栅,通过改进的“2+1”相移算法实现了物体的三维面形重建并得到了彩色纹理信息。Liu[17]利用一个单色相机,通过投影仪投影三幅不同频率的正弦条纹和三幅均匀的R、G、B灰度图案,利用傅里叶变换方法恢复物体的三维面形,所采集到的三幅R、G、B灰度图像用于消除零频项的影响并同时用来组合生成物体的彩色纹理。

第一类研究中,在获得了物体的纹理信息后,即可简单、精确地实现纹理映射,但其纹理图像单一且分辨率受限。此外,彩色相机同时用于重建三维面形和获取二维纹理信息,通常会因为颜色串扰问题而影响三维重建的质量。

第二类研究中,Zhang[18]等通过一个额外的彩色相机获取物体的纹理信息,再用事先标定好彩色相机与黑白相机之间的关系来完成纹理映射。随后Ou[19]等为获得自然光照下的物体纹理信息,利用近红外相机标定过程中已有的棋盘格信息直接确定三维点云与纹理图像像素点间的映射关系。刘星明[20]等通过将纹理相机加入双目结构光系统中并保持它们之间的相对位姿关系不变,事先标定好纹理相机与双目系统的位姿关系,将不同视角下的点云以及纹理信息统一到同一坐标系下,完成了多视角的点云拼接及纹理映射。杜瑞建[21]等在双目结构光基础上增加一个长焦相机去获取高分辨率图像,通过二维特征匹配构建纹理图像双目左图的单应性矩阵,以其为桥梁构建起三维点云与纹理图像的映射关系,得到了高分辨率的纹理映射结果。赵琳敬[22]通过标定旋转轴参数,得到相机旋转角度与左右相机外参数变化关系,在旋转角度已知的条件下,可以确定不同视角的纹理图像与三维点云间的对应关系。

为了增强纹理信息记录和映射的工程实用性,本文针对如何获取高精度三维面形重建数据、无彩色相机条件下纹理映射及额外增加彩色相机情况下的自由纹理映射等内容展开研究,总结提出了三种不同场景下的纹理信息获取和映射方法。在三维重建环节采用了双目与条纹结构光相结合的测量方案,保证了对待测物体的高精度三维面形测量。在纹理映射环节,依照不同的使用场景,设计了在无彩色相机条件下,利用固有的双目系统去获取灰度纹理及彩色纹理的方案;为了获取丰富的多视角纹理,采用分辨率高、操作简单的智能手机作为额外的纹理相机,提出了两种纹理映射方案,仅只对纹理相机初始标定一次,即可简单、准确地完成自由纹理映射目标。

2 原理

2.1 固定视角纹理映射原理

本节针对于无彩色成像设备条件下的纹理映射任务展开研究,在利用双目结构光(条纹)方案重建被测物体的三维(3D)点云数据时,可以直接利用双目系统本身的两个相机同时获取被测物体的纹理信息。由于纹理信息以及点云重建的数据都来自同一个传感器,且视角固定不变,不涉及复杂映射关系的建立,仅需将双目端获取的纹理图像同样进行极线校正,即可保证3D点云与纹理图像像素点的一一对应。因此,该方法的关键在于如何获取物体在双目成像端的纹理信息。

通过将双目相机所拍摄到的相移条纹图样算术平均消去条纹强度周期分布,即可得到被测场景的灰度纹理信息,将其对应的灰度赋值给3D点云,即可完成灰度纹理贴图。

在3D点云和纹理数据获取的视角固定情况下,也可以获取到被测场景的彩色纹理信息,具体流程如图1所示。使用三频相位展开方法,利用测量系统中的投影仪R、G、B三通道分别投影三个周期数t分别为1、 SS (本实验中S=64)的四步相移条纹(共12幅)到测量视场中,将三个频率相移条纹图样各自算术平均消去条纹强度周期分布,获得物体在R、G、B单色光投影下的调制图像,组合这三幅调制图像并进行颜色校正,即可得到彩色纹理图像。诚然,如果双目系统采用两个彩色相机进行测量,也可以直接投影三频相移黑白条纹,通过求取相移条纹图均值获得对应彩色纹理。

图 1. 固定视角彩色纹理信息获取流程

Fig. 1. Flow chart of the acquiring color texture information from fixed viewing angle

下载图片 查看所有图片

2.2 自由纹理映射原理

所谓自由纹理映射,是在保持焦距不变的条件下,纹理相机可以自由移动,利用不同摆放姿态拍摄目标的纹理图片完成纹理贴图。

要完成自由纹理映射,关键是在纹理相机位置发生改变时也要能准确获得其与双目系统的外方位参数。本文提出在被测场景上增设标记点,事先标定得到纹理相机的内部参数,当纹理相机任意移动拍图时,将被测物体纹理和标记点信息一起获得,通过标记点及时反映纹理相机的当前位置姿态。利用标记点在世界坐标系、纹理相机图像像素坐标系和双目左相机图像像素坐标系中的坐标位置变换关系,完成自由移动的纹理相机和双目系统的坐标位置转换,再根据成像模型得到3D点云与纹理像素的对应关系,最终完成自由纹理的贴图[23],其原理如图2所示。

图 2. 自由纹理映射原理示意图

Fig. 2. Schematic diagram of the free texture mapping

下载图片 查看所有图片

以图中红圈所标识的四个点作为空间位置已知的共面标记点,通过这四个点已知的空间坐标及它们在左相机和纹理相机像平面上的像素坐标可以求出标记点平面与左相机以及纹理相机像平面间的单应性矩阵H1H2,由已知的纹理相机和左相机的内参即可求得该靶标坐标系与两个坐标系间的外参R1t1R2t2。由此,以该靶标平面坐标系为桥梁,即可构建其左相机与自由纹理相机间的位姿关系,该位姿关系和已知的纹理相机内参数联合构建起3D点云到纹理图像的映射关系,将2D点的RGB值对应赋值给3D点云,即可完成自由纹理映射[23]

2.3 无约束自由视角纹理映射原理

利用增设标记点来确定双目系统与纹理相机之间的位姿关系,实现自由纹理映射的方法,对物体本身的纹理特征没有要求,但该方法依赖于辅助存在的标记点,需要在视场中设置四个已知空间位置的标记点,对某些测量场景来说不太方便、不适用。

针对纹理特征较为明显、纹理信息比较丰富的被测场景,我们提出一种新的纹理映射方法,在不增设额外标记点的条件下,通过自由纹理相机所拍到的彩色纹理图像与双目相机所拍到的灰度纹理图像建立起3D点云与纹理图像之间的映射关系。该方法希望能摆脱自由纹理映射任务对标记点的依赖,利用物体本征存在的特征信息完成自由纹理映射。

该方法具体过程是:首先采用特征检测算法对双目左相机捕获的灰度纹理图像与纹理相机记录的彩色纹理图像进行特征检测与提取,随后将两幅图中所提取到的特征进行匹配,并利用误匹配点消除算法剔除无效匹配点,获得正确的匹配点对。由于在三维重建过程中已经得到了左相机每个像素所对应的3D点云数据,因此以左相机图像上的像素点为媒介,可以建立起匹配点与3D点云的对应关系,也就得到了若干组空间点在左相机坐标系下的坐标位置以及它们在纹理图像上的像素坐标。本质上,该过程是已知N组3D到2D的对应点关系及相机内参,求解世界坐标系(左相坐标系下)与纹理相机坐标系之间的外方位参数关系问题,也即N点透视(perspective n-point, PnP)问题求解。

该方法原理如图3所示。首先利用双目结构光方案获取物体在左相机坐标系下的3D点云,将左相机记录的变形条纹图像算术平均消去条纹强度周期分布得到灰度纹理分布,采用SURF算法将其与自由纹理相机灰度化的纹理图像进行特征检测及匹配,对匹配结果采用RANSAC算法并辅以少量人工干预进行误匹配消除,获得N组正确的匹配点(如图中黄色线条所示)。由于在双目结构光重建过程中已建立起左相机图像像素与3D点云之间的对应关系,因此,左相机图像中的N个匹配点也可找到其在3D点云中的N个对应点,以左相机图像为媒介,得到了左相机坐标系下3D点与纹理图像2D点的N组对应(图中绿色线条所示)。

图 3. 无约束自由纹理映射方法原理示意图

Fig. 3. Schematic diagram of the unconstrained free texture mapping method

下载图片 查看所有图片

通过EPnP算法[24]求解左相机坐标系与自由纹理相机坐标系之间的外方位参数Rt,且纹理相机内参Atc已由预先标定获得,根据相机成像模型,即可构建起左相机坐标系下点云与自由纹理图像之间的映射关系。此时通过映射关系建立的3D点云对应2D纹理图像坐标为亚像素坐标,为了得到更为准确的纹理映射结果,对纹理图像进行双线性插值操作得到纹理图像亚像素的RGB值并将其赋给对应空间点,完成纹理贴图。

3 实验结果

3.1 实验装置介绍

图4(a)中由两台Imageware公司IDS UI-2250SE黑白相机和一台可投影R、G、B三色条纹的DLP Light Crafter 4500投影仪(其分辨率为912 pixels×1140 pixels),构成的双目结构光三维测量系统,用于进行固定视角下的纹理映射实验。IDS相机分辨率为1600 pixels×1200 pixels,镜头为AVENIR CCTV LENS SE1212精工镜头,焦距为12 mm。图4(b)所示的系统用于进行自由纹理映射实验,在图4(a)的基础上额外增加了一个手持可自由移动的苹果iPhone7手机作为纹理相机,手机(纹理相机)分辨率4032 pixels×3024 pixels,投影仪更换为只能投影黑白灰度条纹的福州巨维达PDC03投影仪,其分辨率为1140 pixels×912 pixels。

图 4. 实验装置图。(a) 固视纹理映射实验装置;(b) 自由视角纹理映射实验装置

Fig. 4. Experimental setup of (a) fixed-view texture mapping and (b) free-view texture mapping

下载图片 查看所有图片

3.2 固定视角纹理映射实验结果

对一个羊脸面具进行了三维重建及固定视角下的灰度与彩色纹理映射实验,其实物如图5所示。

图 5. 羊脸面具实物

Fig. 5. Sheep face mask to be measured

下载图片 查看所有图片

使用图4(a)所示双目结构光三维重建系统投影仪的RGB三通道分别投影三种频率正弦条纹。将左相机采集到的三种频率四步相移图分别算术平均得到如图6(a)~6(c)的结果,将该三个结果进行组合,得到如图6(d)的纹理信息,对其进行白平衡校正,得到如图6(e)的被测物体彩色纹理信息。

图 6. 羊脸面具纹理。(a) 低频(R通道)灰度纹理;(b) 中频(G通道)灰度纹理;(c) 高频(B通道)灰度纹理;(d) 未校正的彩色纹理;(e) 校正后的彩色纹理

Fig. 6. Sheep face mask texture. (a) Low frequency (R channel) grayscale texture; (b) Intermediate frequency (G channel) grayscale texture; (c) High frequency (B channel) grayscale texture; (d) Uncorrected color texture; (e) Corrected color texture

下载图片 查看所有图片

依据双目结构光三维重建原理恢复被测面具的3D点云如图7(a)所示,将图6(e)所示经过白平衡校正的纹理信息进行贴图后得到图7(b)所示的带彩色纹理信息物体3D点云结果。

图 7. 羊脸面具的三维重建与纹理映射结果。(a) 羊脸3D点云;(b) 校正彩色纹理贴图结果

Fig. 7. 3D reconstruction and texture mapping results of sheep face mask. (a) 3D point cloud of sheep face; (b) Corrected color texture mapping result

下载图片 查看所有图片

需要注意的是,该方法会存在因被测物体纹理颜色单一、且与高频条纹颜色互补时,所获取到的条纹图质量下降、影响相位质量的问题。因此,使用该方法时应根据被测物体主要纹理颜色分布,调节、交换三组相移条纹图的投影颜色,保证最高频率条纹投影颜色尽可能与物体主要纹理颜色最接近,以确保获得可靠的相位质量。

3.3 自由纹理映射实验结果

陶瓷猫脸模型重建3D点云的两个姿态结果如图8所示,纹理相机在不同角度下所拍摄的纹理图片如图9(a)~9(b)所示,其所对应的两个姿态下纹理映射结果分别如图9(c)~9(d)和图9(e)~9(f)所示。

图 8. 不同视角下的陶瓷猫脸重建3D点云

Fig. 8. Reconstructed 3D point clouds of a ceramic cat face from different perspectives

下载图片 查看所有图片

图 9. 纹理相机在不同位置获得陶瓷猫脸2D纹理及其映射结果。(a)~(b) 纹理相机自由拍摄的2幅纹理;(c)~(f) 分别对应于(a)~(b)纹理不同视角下的映射结果

Fig. 9. 2D textures of a ceramic cat face obtained from different positions by the texture camera and their mapping results. (a)~(b) Texture images freely captured by the texture camera; (c)~(f) Texture mapping results in different perspective views

下载图片 查看所有图片

从实验结果可以看出,从不同角度拍摄的纹理图像都与3D点云进行了较好的映射,未出现纹理走样、伪像等情况,且能有效表达由不同角度所带来的纹理之间差异,如亮度不同及反光点的移位等都很好地体现在纹理映射结果上,实验结果验证了本文方法的可行性。

3.4 无约束自由纹理映射实验结果

被测物体分别为表面有丰富纹理信息的人脸面具和狐狸面具,其实物图如图10所示。

图 10. 待测物体实物图。(a) 人脸面具;(b) 狐狸面具

Fig. 10. Object to be measured. (a) Human face mask; (b) Fox mask

下载图片 查看所有图片

通过前文所介绍的双目结构光三维测量方案对待测物体进行三维面形重建,在重建获得被测物体的3D点云后,为验证所提方法能够实现自由纹理映射的目标(即可将自由角度拍摄的纹理信息对应映射到3D点云表面),分别用纹理相机在三个不同角度获取了物体的纹理信息,下文将简单称其为“纹理1”、“纹理2”、“纹理3”,将它们与双目系统所拍摄的灰度纹理图像进行特征匹配,通过EPnP算法计算其与双目系统的外方位参数关系。左右相机图像均可用来参与以上过程,以所能获取正确匹配点对的数量作为选择标准,在数量相当时,默认选择左相机图像参与运算过程。

人脸面具与双目系统左相机的外方位参数如 表1所示,纹理相机在三个不同角度所拍摄到的物体纹理图如图11所示,三维重建及纹理映射结果如图12所示,图12(a)、12(e)、12(i)分别为人脸面具点云的三视图,图12(b)、12(f)、12(j)、12(c)、12(g)、12(k)、12(d)、12(h)、12(l)分别为与图11(a)~11(c)对应纹理映射结果的三视图。由映射结果可以看到,贴图结果与所拍摄物体的纹理信息一致,由于物体面形遮挡而导致某些区域纹理信息的缺失,这些区域的3D点云纹理信息将表现为光心与该区域点的连线与物体上可见区域交点的纹理信息。如图11(c)所示的纹理3中,由于面形遮挡导致的左眼区域附近未采集到物体的纹理信息,导致图12(l)中红色虚线框区域纹理信息出现错误,该错误信息可以在后期用其他视角的纹理信息进行插补弥合。

表 1. 左相机与不同位置纹理相机的外方位参数

Table 1. External orientation parameters of the left camera and the texture camera at different positions

Rt
纹理1−0.03070.9555−0.2934208.3941
−0.9915−0.0662−0.111999.9431
−0.12630.28750.9494181.5234
纹理20.06050.9565−0.2854167.1802
−0.9562−0.0265−0.2914200.2506
−0.28630.29050.9130128.3280
纹理3−0.16880.9809−0.096824.7501
−0.9681−0.14660.2030−113.2616
0.18490.12800.974455.6844

查看所有表

图 11. 纹理相机在三个不同角度所拍摄到的人脸面具纹理图片

Fig. 11. Texture images of human face mask captured by texture camera at three different angles

下载图片 查看所有图片

图 12. 人脸面具的三维重建与纹理映射结果。(a) 重建点云结果;(b)~(d) 纹理1~3映射结果;(e)~(h) 对应于(a)~(d)结果的左视图;(i)~(l) 对应于(a)~(d)结果的右视图

Fig. 12. 3D reconstruction and texture mapping results of human face mask. (a) Reconstructed point cloud results; (b)~(d) Mapping results of texture 1~3; (e)~(h) Left view corresponding to (a)~(d) results; (i)~(l) Right view corresponding to (a)~(d) results

下载图片 查看所有图片

该方法第二个实验中,纹理相机在三个不同角度所拍摄到的狐狸面具纹理图片如图13所示。同理,在获得狐狸面具与双目系统左相机的外方位参数后,三维重建及纹理映射结果如图14所示,图14(a)、14(e)、14(i)分别为狐狸面具点云的三视图,图14(b)、14(f)、14(j)、14(c)、14(g)、14(k)、14(d)、14(h)、14(l)分别为与图13(a)~13(c)对应纹理映射结果的三视图,由映射结果可以看到,贴图结果与所拍摄物体的纹理信息一致,贴图结果准确。

图 13. 纹理相机在三个不同角度所拍摄到的狐狸面具纹理图片

Fig. 13. Texture images of the fox mask captured by texture camera at three different angles

下载图片 查看所有图片

图 14. 狐狸面具的三维重建与纹理映射结果。(a) 重建点云结果;(b)~(d) 纹理1~3映射结果;(e)~(h) 对应于(a)~(d)结果的左视图;(i)~(l) 对应于(a)~(d)结果的右视图

Fig. 14. 3D reconstruction and texture mapping results of the fox mask. (a) Reconstructed point cloud results; (b)~(d) Mapping result of texture 1~3; (e)~(h) Left view corresponding to (a)~(d) results; (i)~(l) Right view corresponding to (a)~(d) results

下载图片 查看所有图片

4 结论及展望建议

针对传统三维重建只恢复了物体的3D点云信息,忽略了物体所携带的纹理信息这一问题,为了让物体重建的3D点云信息更加具有真实感,对不同硬件条件、不同待测物体3D点云的纹理映射方法进行了研究。分别提出了不同场景和要求下的纹理映射实用方法:无额外纹理相机时的固定视角灰度或彩色纹理映射方案、对测量物体纹理特征信息无要求的自由纹理映射方案,以及针对具有较为丰富纹理特征信息被测物体的无约束自由纹理映射方案,实验验证了本文提出三种纹理贴图方法的有效性。本文研究内容有望在文物保护、影视娱乐等领域得到应用。

本文所提出的通过增设标记点实现自由纹理映射的方案中,在待测大场景中设置空间位置已知且精确的标记点较为困难,如何在面临大场景贴图工作中对该方法进行改进需要进一步研究;无约束自由纹理映射方案会因为物体面形遮挡致使某些区域纹理信息的缺失或错误,后续将通过多视角纹理获取和融合等手段解决该部分纹理缺陷问题,实现3D测量结果整个区域高质量、完整的彩色纹理映射。两种自由纹理映射方案分别适用于不同测量场景及被测物体,目前尚未设计出一种所有场景的自由纹理通用贴图方案,后续将针对所提两种方案的优劣性,尝试做深入研究。

参考文献

[1] Li Y X, Qian J M, Feng S J, et alDeep-learning-enabled dual-frequency composite fringe projection profilometry for single-shot absolute 3D shape measurementOpto-Electron Adv20225521002110.29026/oea.2022.210021Li Y X, Qian J M, Feng S J, et al. Deep-learning-enabled dual-frequency composite fringe projection profilometry for single-shot absolute 3D shape measurement[J]. Opto-Electron Adv, 2022, 5(5): 210021.

[2] 应晓霖, 姚建云, 张晓松, 等采用LD的光源步进条纹投影三维测量系统光电工程2021481121029810.12086/oee.2021.210298应晓霖, 姚建云, 张晓松, 等. 采用LD的光源步进条纹投影三维测量系统[J]. 光电工程, 2021, 48(11): 210298.

    Ying X L, Yao J Y, Zhang X S, et alFringe projection based three-dimensional measurement system by the light-source-stepping method using LDOpto-Electron Eng2021481121029810.12086/oee.2021.210298Ying X L, Yao J Y, Zhang X S, et al. Fringe projection based three-dimensional measurement system by the light-source-stepping method using LD[J]. Opto-Electron Eng, 2021, 48(11): 210298.

[3] Wu Z J, Guo W B, Zhang Q CTwo-frequency phase-shifting method vs. Gray-coded-based method in dynamic fringe projection profilometry: a comparative reviewOpt Lasers Eng202215310699510.1016/J.OPTLASENG.2022.106995Wu Z J, Guo W B, Zhang Q C. Two-frequency phase-shifting method vs. Gray-coded-based method in dynamic fringe projection profilometry: a comparative review[J]. Opt Lasers Eng, 2022, 153: 106995.

[4] 左超, 张晓磊, 胡岩, 等3D真的来了吗?——三维结构光传感器漫谈红外与激光工程2020493030300110.3788/IRLA202049.0303001左超, 张晓磊, 胡岩, 等. 3D真的来了吗?−三维结构光传感器漫谈[J]. 红外与激光工程, 2020, 49(3): 0303001.

    Zuo C, Zhang X L, Hu Y, et alHas 3D finally come of age?——An introduction to 3D structured-light sensorInfrared Laser Eng2020493030300110.3788/IRLA202049.0303001Zuo C, Zhang X L, Hu Y, et al. Has 3D finally come of age?——An introduction to 3D structured-light sensor[J]. Infrared Laser Eng, 2020, 49(3): 0303001.

[5] Zhang Q C, Wu Z JThree-dimensional imaging technique based on gray-coded structured illuminationInfrared Laser Eng2020493030300410.3788/IRLA202049.0303004Zhang Q C, Wu Z J. Three-dimensional imaging technique based on gray-coded structured illumination[J]. Infrared Laser Eng, 2020, 49(3): 0303004.

    张启灿, 吴周杰基于格雷码图案投影的结构光三维成像技术红外与激光工程2020493030300410.3788/IRLA202049.0303004张启灿, 吴周杰. 基于格雷码图案投影的结构光三维成像技术[J]. 红外与激光工程, 2020, 49(3): 0303004.

[6] 张宗华, 于瑾, 高楠, 等高反光表面三维形貌测量技术红外与激光工程2020493030300610.3788/IRLA202049.0303006张宗华, 于瑾, 高楠, 等. 高反光表面三维形貌测量技术[J]. 红外与激光工程, 2020, 49(3): 0303006.

    Zhang Z H, Yu J, Gao N, et alThree-dimensional shape measurement techniques of shiny surfacesInfrared Laser Eng2020493030300610.3788/IRLA202049.0303006Zhang Z H, Yu J, Gao N, et al. Three-dimensional shape measurement techniques of shiny surfaces[J]. Infrared Laser Eng, 2020, 49(3): 0303006.

[7] Hou G Y, Wu B, He R F, et alThree-dimensional measurement method of defects based on binocular grating reconstruction and texture mappingActa Opt Sin2022427071200310.3788/AOS202242.0712003Hou G Y, Wu B, He R F, et al. Three-dimensional measurement method of defects based on binocular grating reconstruction and texture mapping[J]. Acta Opt Sin, 2022, 42(7): 0712003.

    侯冠宇, 吴斌, 何荣芳, 等基于双目光栅重建和纹理映射的缺陷三维测量方法光学学报2022427071200310.3788/AOS202242.0712003侯冠宇, 吴斌, 何荣芳, 等. 基于双目光栅重建和纹理映射的缺陷三维测量方法[J]. 光学学报, 2022, 42(7): 0712003.

[8] Zuo C, Chen QComputational optical imaging: an overviewInfrared Laser Eng20225122022011010.3788/IRLA20220110Zuo C, Chen Q. Computational optical imaging: an overview[J]. Infrared Laser Eng, 2022, 51(2): 20220110.

    左超, 陈钱计算光学成像: 何来, 何处, 何去, 何从?红外与激光工程20225122022011010.3788/IRLA20220110左超, 陈钱. 计算光学成像: 何来, 何处, 何去, 何从?[J]. 红外与激光工程, 2022, 51(2): 20220110.

[9] 张广军. 视觉测量[M]. 北京: 科学出版社, 2008.

    Zhang G J. Vision Measurement[M]. Beijing: Science Press, 2008.

[10] 何进英, 刘晓利, 彭翔, 等基于灰度约束的三维数字散斑整像素相关搜索中国激光2017444040400310.3788/CJL201744.0404003何进英, 刘晓利, 彭翔, 等. 基于灰度约束的三维数字散斑整像素相关搜索[J]. 中国激光, 2017, 44(4): 0404003.

    He J Y, Liu X L, Peng X, et alInteger pixel correlation searching for three-dimensional digital speckle based on gray constraintChin J Lasers2017444040400310.3788/CJL201744.0404003He J Y, Liu X L, Peng X, et al. Integer pixel correlation searching for three-dimensional digital speckle based on gray constraint[J]. Chin J Lasers, 2017, 44(4): 0404003.

[11] 赵涵卓, 高楠, 孟召宗, 等双视角三维测量系统同时标定方法光电工程202148320012710.12086/oee.2021.200127赵涵卓, 高楠, 孟召宗, 等. 双视角三维测量系统同时标定方法[J]. 光电工程, 2021, 48(3): 200127.

    Zhao H Z, Gao N, Meng Z Z, et alMethod of simultaneous calibration of dual view 3D measurement systemOpto-Electron Eng202148320012710.12086/oee.2021.200127Zhao H Z, Gao N, Meng Z Z, et al. Method of simultaneous calibration of dual view 3D measurement system[J]. Opto-Electron Eng, 2021, 48(3): 200127.

[12] Catmull E E. A subdivision algorithm for computer display of curved surfaces[D]. Salt Lake City: The University of Utah, 1974.

[13] Blinn J FA scan line algorithm for displaying parametrically defined surfacesACM SIGGRAPH Comput Graph197812SI1710.1145/988437.988439Blinn J F. A scan line algorithm for displaying parametrically defined surfaces[J]. ACM SIGGRAPH Comput Graph, 1978, 12(SI): 1−7.

[14] Bier E A, Sloan K RTwo-part texture mappingsIEEE Comput Graph Appl198669405310.1109/MCG.1986.276545Bier E A, Sloan K R. Two-part texture mappings[J]. IEEE Comput Graph Appl, 1986, 6(9): 40−53.

[15] 张宗华, 彭翔, 胡小唐一种新型彩色三维光学成像系统光学学报200222899499810.3321/j.issn:0253-2239.2002.08.022张宗华, 彭翔, 胡小唐. 一种新型彩色三维光学成像系统[J]. 光学学报, 2002, 22(8): 994−998.

    Zhang Z H, Peng X, Hu X TA new color 3-D optical imaging systemActa Opt Sin200222899499810.3321/j.issn:0253-2239.2002.08.022Zhang Z H, Peng X, Hu X T. A new color 3-D optical imaging system[J]. Acta Opt Sin, 2002, 22(8): 994−998.

[16] Sun S J, Zhai A P, Cao Y PA fast algorithm for obtaining 3D shape and texture information of objectsActa Opt Sin2016363031200110.3788/AOS201636.0312001Sun S J, Zhai A P, Cao Y P. A fast algorithm for obtaining 3D shape and texture information of objects[J]. Acta Opt Sin, 2016, 36(3): 0312001.

    孙士杰, 翟爱平, 曹益平一种快速获取物体三维形貌和纹理信息的算法光学学报2016363031200110.3788/AOS201636.0312001孙士杰, 翟爱平, 曹益平. 一种快速获取物体三维形貌和纹理信息的算法[J]. 光学学报, 2016, 36(3): 0312001.

[17] Liu Y Z, Fu Y J, Zhou P X, et alA real-time 3D shape measurement with color texture using a monochromatic cameraOpt Commun202047412608810.1016/j.optcom.2020.126088Liu Y Z, Fu Y J, Zhou P X, et al. A real-time 3D shape measurement with color texture using a monochromatic camera[J]. Opt Commun, 2020, 474: 126088.

[18] Zhang S, Huang P SHigh-resolution, real-time three-dimensional shape measurementOpt Eng2006451212360110.1117/1.2402128Zhang S, Huang P S. High-resolution, real-time three-dimensional shape measurement[J]. Opt Eng, 2006, 45(12): 123601.

[19] Ou P, Li B W, Wang Y J, et alFlexible real-time natural 2D color and 3D shape measurementOpt Express20132114167361674110.1364/OE.21.016736Ou P, Li B W, Wang Y J, et al. Flexible real-time natural 2D color and 3D shape measurement[J]. Opt Express, 2013, 21(14): 16736−16741.

[20] 刘星明, 刘晓利, 殷永凯, 等真实感三维模型的纹理融合计算机辅助设计与图形学学报201224111440144610.3969/j.issn.1003-9775.2012.11.008刘星明, 刘晓利, 殷永凯, 等. 真实感三维模型的纹理融合[J]. 计算机辅助设计与图形学学报, 2012, 24(11): 1440−1446.

    Liu X M, Liu X L, Yin Y K, et alTexture blending of 3D photo-realistic modelJ Comput-Aided Des Comput Graph201224111440144610.3969/j.issn.1003-9775.2012.11.008Liu X M, Liu X L, Yin Y K, et al. Texture blending of 3D photo-realistic model[J]. J Comput-Aided Des Comput Graph, 2012, 24(11): 1440−1446.

[21] 杜瑞建, 葛宝臻, 陈雷多视高分辨率纹理图像与双目三维点云的映射方法中国光学20201351055106410.37188/CO.2020-0034杜瑞建, 葛宝臻, 陈雷. 多视高分辨率纹理图像与双目三维点云的映射方法[J]. 中国光学, 2020, 13(5): 1055−1064.

    Du R J, Ge B Z, Chen LTexture mapping of multi-view high-resolution images and binocular 3D point cloudsChin Opt20201351055106410.37188/CO.2020-0034Du R J, Ge B Z, Chen L. Texture mapping of multi-view high-resolution images and binocular 3D point clouds[J]. Chin Opt, 2020, 13(5): 1055−1064.

[22] 赵琳敬. 三维点云智能进化拼接与表面纹理映射方法研究[D]. 天津: 天津大学, 2018. doi: 10.27356/d.cnki.gtjdu.2018.000668.

    Zhao L J. Research on 3D point cloud intelligent evolutionary registration and surface texture mapping method[D]. Tianjin: Tianjin University, 2018. doi: 10.27356/d.cnki.gtjdu.2018.000668.

[23] 向卓龙, 张启灿, 陈超文利用自由拍摄二维图像实现三维点云的纹理贴图激光与光电子学进展20215818181101810.3788/LOP202158.1811018向卓龙, 张启灿, 陈超文. 利用自由拍摄二维图像实现三维点云的纹理贴图[J]. 激光与光电子学进展, 2021, 58(18): 1811018.

    Xiang Z L, Zhang Q C, Chen C WTexture mapping of 3D point clouds with freely recorded 2D imagesLaser Optoelectron Prog20215818181101810.3788/LOP202158.1811018Xiang Z L, Zhang Q C, Chen C W. Texture mapping of 3D point clouds with freely recorded 2D images[J]. Laser Optoelectron Prog, 2021, 58(18): 1811018.

[24] Lepetit V, Moreno-Noguer F, Fua PEPnP: an accurate O(n) solution to the PnP problemInt J Comput Vis200981215516610.1007/s11263-008-0152-6Lepetit V, Moreno-Noguer F, Fua P. EPnP: an accurate O(n) solution to the PnP problem[J]. Int J Comput Vis, 2009, 81(2): 155−166.

向卓龙, 张启灿, 吴周杰. 结构光投影三维面形测量及纹理贴图方法[J]. 光电工程, 2022, 49(12): 220169. Zhuolong Xiang, Qican Zhang, Zhoujie Wu. 3D shape measurement and texture mapping method based on structured light projection[J]. Opto-Electronic Engineering, 2022, 49(12): 220169.

引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!