作者单位
摘要
北京航空航天大学仪器科学与光电工程学院,精密光机电一体化技术教育部重点实验室,北京 100191
位置和姿态参数是表征目标空间朝向和位置的基本几何量参数,比如飞行器的飞行位姿、高端装备大部件的对接位姿、自由运动中的人体位姿等。因此,位姿参数的准确快速测量一直是航空航天、****、工业生产、体育竞技等诸多领域的重要研究内容,并发展出惯导、卫星、雷达、星敏感器和视觉测量等多种不同测量技术途径。本文重点针对位姿视觉测量方法及其应用进行了综述,主要内容包括位姿视觉测量基本原理、位姿视觉测量典型方法、多源数据融合的位姿视觉测量方法和位姿视觉测量典型应用领域。
测量 位姿参数 视觉测量 图像处理 PnP 深度学习 
激光与光电子学进展
2023, 60(3): 0312010
作者单位
摘要
1 天津理工大学 中环信息学院 电子信息工程系, 天津 300380
2 北京航空航天大学 仪器科学与光电工程学院 精密光机电一体化教育部重点实验室, 北京 100191
对于一台激光跟踪仪对多个测量点进行测量的问题, 提出了一种视觉引导激光跟踪测量方法。摄像机固定于激光跟踪仪顶部, 随之旋转对测量范围内激光跟踪仪反射器进行定位, 引导激光跟踪仪激光投射到反射器上。标定摄像机与激光跟踪仪相对姿态, 用平面圆孔靶标。激光跟踪仪和摄像机同时测量圆孔靶标, 将两个坐标系下对应三维点数组进行均值化处理, 变为两个坐标系下对应的向量组, 向量组之间的转换关系, 即激光跟踪仪与摄像机之间的旋转矩阵。再根据两坐标系下对应的任一点的三维坐标, 求解两坐标系的平移矢量。此标定算法把对两个坐标系之间的旋转矩阵的求解, 通过Cayley变换, 转换为对与转换矩阵相对应的三维向量的求解, 求解过程简单稳定。实验结果表明, 靶标摆放50次, 测量误差小于1 mm。把校准结果应用到实际测量中, 激光跟踪仪可快速准确地将激光束投射到反射球中。此方法操作简单, 稳定性强, 具有很高的实用价值。
视觉导引 激光跟踪仪 Cayley变换 校准 visual-guided laser tracker Cayley transformation calibration 
红外与激光工程
2016, 45(5): 0517001
作者单位
摘要
1 北京航空航天大学 精密光机电一体化技术教育部重点实验室,北京 100191
2 山东建筑大学 信息与电气工程学院,山东 济南 250101
车载移动式视觉跟踪与测量系统在实际应用中,快速便捷地进行视觉系统与场地坐标系的全局统一是关键技术。结合视觉系统与现场特点,阐述了系统标定原理,给出了视觉跟踪与测量系统相对于场地坐标系转换数学模型。该方法的基本思路是转台视轴分别指向场地坐标系内的两个控制点,根据两点对应的俯仰角、方位角及距离确定两坐标系的转换关系。仿真分析和实验结果表明:角度和距离精度分别达到0.03°和0.52%。该方法便捷、高效,对移动式视觉测量系统坐标系快速统一有实用价值。
位姿测量 转台 坐标系快速统一 pose measurement turn-table coordinate system expeditious calibration 
红外与激光工程
2015, 44(7): 2175
作者单位
摘要
北京航空航天大学 精密光机电一体化技术教育部重点实验室,北京 100191
实现高效准确的目标检测算法在视频监控、自动导航等诸多领域有着至关重要的作用。针对现有目标检测算法速度不高且鲁棒性差的缺点,提出了一种基于对象性测度估计和霍夫森林的快速目标检测方法。首先,基于自下而上的视觉注意机制,采用对象性测度估计,提取图像中的物体候选集;然后,在由物体候选集确定的感兴趣区域内进行霍夫森林目标检测,确定目标中心位置;最后,结合目标中心所在的对象性测度估计候选框的尺度信息,确定目标大小。实现结果表明,该方法在提高霍夫森林目标检测算法检测准确度的同时,大大提升了检测速率。
目标检测 霍夫森林 对象性测度估计 object detection Hough forest objectness estimation 
红外与激光工程
2015, 44(6): 1936
作者单位
摘要
北京航空航天大学 精密光机电一体化技术教育部重点实验室, 北京 100191
针对先进制造业对大型装备大范围精密尺寸测量需求, 根据双目立体视觉测量原理设计了一种光笔式大视场三维视觉测量系统。基于透视投影变换下的时针顺序和共线性不变量设计了光笔特征点空间分布模式, 实现了特征点的准确识别与接触探头坐标的计算。应用双目立体视觉传感器的透视投影和齐次坐标三维测量模型, 以一维基线尺靶标自由移动和基准长度约束为核心, 通过本质矩阵E的线性求解结合非线性优化实现了其结构参数的现场精确标定。研制了由光笔、双目立体视觉测量系统、便携式三脚架、一维基线尺靶标和测量软件构成的大视场三维视觉测量系统, 完成了机器人本体表面三维数据的稠密测量实验, 在7 m×4.7 m测量范围内系统的测量精度优于0.2 mm。实验显示设计的光笔式大视场三维视觉测量系统在光笔结构、发光点识别方法和系统标定方法上均具有新的思路。
三维视觉测量 大视场 光笔 标定 光斑识别 3D vision measurement large Field of View(FOV) light probe calibration light spot recognition 
光学 精密工程
2013, 21(9): 2217
作者单位
摘要
北京航空航天大学 精密光机电一体化技术教育部重点实验室,北京 100191
针对双机器人仿真测量系统的手眼标定问题, 提出一种由机器视觉求解法兰盘位姿得出手眼关系的方法。将目标机器人运动到合适的位姿, 由视觉机器人拍摄其法兰盘图像, 提取图像中法兰盘的椭圆轮廓, 解算摄像机坐标系下的法兰盘姿态和圆心坐标, 并由销孔位置约束得出摄像机与目标法兰盘坐标系的转换关系H1。然后由控制器读数得出两台机器人各自法兰盘坐标系与基坐标系间的转换关系H2, H4, 并由机器人单轴旋转运动得出双机器人基坐标系转换关系H3, 由此形成闭环得出机器人手眼关系HCG。将法兰盘运动到共面的多个不同位置分别拍摄图像, 通过图像融合来提高标定精度。实验结果表明, 单位置标定和多位置图像融合标定的精度分别为0.345°和0.187°, 满足双机器人视觉仿真测量系统的精度要求。
机器人 手眼标定 坐标转换 图像融合 圆姿态 robot hand-eye calibration coordinate transform image fusion circle pose 
光学 精密工程
2011, 19(8): 1895
作者单位
摘要
北京航空航天大学 精密光机电一体化技术教育部重点实验室,北京 100191
为了消除视觉测量中单个圆姿态识别中存在二义性的问题,提出了一种基于空间角度约束消除二义性的方法,并且对姿态求解算法进行了误差分析,为准确进行姿态估算给出了指导性的实验结果。在摄像机已标定的前提下,根据圆特征在图像上的投影椭圆曲线确定了圆心位置和圆平面姿态参数,计算结果存在二义性;利用欧式空间中的角度不变量,识别出圆平面的真实姿态参数,同时确定圆心的真实位置;最后,根据误差传播理论对基于单圆特征的位姿估计算法进行了精度分析。实验结果表明,圆平面姿态角的测量绝对误差在0.2°以内,圆心的定位误差为0.5%,根据圆平面的位姿参数计算的共面直线的距离误差为0.8%。该方法能够准确地识别圆平面的位置和姿态,计算过程简单,结果稳定可靠且具有较高的精度。
机器视觉 姿态求解  二义性 角度约束 误差分析 machine vision pose estimation circle duality angular constraint error analysis 
光学 精密工程
2010, 18(3): 685
作者单位
摘要
北京航空航天大学 精密光机电一体化技术教育部重点实验室,北京 100083
针对大视场摄像机标定中,大尺寸靶标加工困难,小尺寸靶标标定精度不高等问题,提出一种基于柔性立体靶标的摄像机标定方法。柔性立体靶标是由多个小平面靶标(又称子靶标)灵活组合的一种靶标形式,将多个小的子靶标摆放在视场周边,以其中1个子靶标坐标系为基础建立柔性立体靶标坐标系。以子靶标之间位置关系不变为约束条件,将各子靶标特征点的局部坐标统一到柔性立体靶标坐标系下,建立以重投影误差为最小的目标函数,采用非线性优化方法得到摄像机参数的最优解。仿真和实验证明采用柔性立体靶标可以达到与相同靶标区域大小的大平面靶标相当的标定结果。
机器视觉 摄像机标定 大视场 柔性立体靶标 小靶标 
光学学报
2009, 29(12): 3433
作者单位
摘要
北京航空航天大学精密光机电一体化技术教育部重点实验室,北京 100083
针对现有线结构光视觉传感器标定方法存在的局限性,提出一种不需要求解光平面标定点的标定方法。根据光条图像求解平面靶标上光条在摄像机坐标系下的Plücker矩阵。在视觉传感器前合适位置将平面靶标摆放多次,联立所有光条空间直线的Plücker矩阵,求解光平面在摄像机坐标系的平面方程。最后通过非线性优化方法得到光平面方程在最大似然准则下的最优解。在标定过程中,所有光条点都参与光平面参数的计算过程,因此该方法标定结果精度高、稳健性强。实验证明,与现有方法相比该方法标定精度提高30%左右。
机器视觉 线结构光视觉传感器 平面靶标 Plücker直线坐标 
光学学报
2009, 29(11): 3124
作者单位
摘要
北京航空航天大学 精密光机电一体化技术教育部重点实验室,北京 100191;[北京航空航天大学]
针对光笔视觉三维测量中左右两幅图像中光斑图像点的立体匹配难题,引入SoftPosit 算法将其转换为二维像点与三维物点对应关系未知情况下的位姿参数估计问题。通过将对应匹配和位姿估计融合在一起,进行捆绑迭代寻优,分别完成左右两幅图像中光斑图像点与空间光笔光斑的对应匹配,从而实现了左右两幅图像中对应光斑图像点的立体匹配。该方法基于模型,与空间点分布模式、点的数量及图像灰度无关,实验结果表明该方法切实可行,也可用于特征点的识别。
立体匹配 视觉 光斑图像 三维测量 stereo matching vision light-spot image 3D measurement 
光电工程
2009, 36(8): 45

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!