光子学报
2022, 51(11): 1112001
1 南京航空航天大学机电学院, 江苏 南京 210016
2 中航西安飞机工业集团股份有限公司, 陕西 西安710089
多视角结构光测量是利用结构光测量系统从多个角度测量实现被测对象完整表达的过程,所以多个视角下测量数据的拼接影响了被测对象的完整性。提出一种利用深度学习估计位姿并直接进行多视角数据拼接的方法。结构光测量模型为四步相移配合多频外差法,实现单次高精度三维重建。使用只看一次(YOLO)网络识别被测对象的3D包围盒角点,采用n点透视(PnP)算法进行目标位姿估计。由于测量系统和位姿估计的坐标系均统一到单目相机下,多个视角的数据直接利用估计的位姿进行拼接。建立相邻点云的特征描述子,利用迭代最近点(ICP)算法实现高精度拼接。结果表明,提出的测量方法能够有效实现多视角结构光数据的拼接;位姿估计的平移精度优于3 mm,旋转精度优于1°,拼接点云的平均偏差为0.02 mm;这与利用标志点拼接的结果具有可比较的精度水平。拼接方法适用于单次可完整估计位姿的多视角结构光测量,提升了多视角拼接效率。
结构光测量 多视角 位姿估计 深度学习 数据拼接 光学学报
2021, 41(17): 1712001