作者单位
摘要
上海大学机电工程与自动化学院,上海 200072
基于主动散斑投射的双目立体视觉成像技术仅需一次投影拍摄即可实现三维重建,适合于动态成像,但在水下应用时,存在小孔模型失效、极线约束匹配条件不满足,以及投射散斑左右图像因受水下环境吸收、散射影响产生退化等问题。本文重新建立了基于主动投射散斑图案的水下双目视觉成像模型,分析了散斑图案对水下双目对应点匹配精度的影响,搭建了主动散斑水下双目视觉动态三维成像系统实验装置。实验结果表明,基于主动散斑投射的水下双目立体视觉技术具有较好的动态3D成像效果,动态误差在该双目立体视觉实验装置本身结构和系统参数决定的静态误差之内。
成像系统 水下双目立体视觉 动态三维成像 水下三维重建 主动散斑投射 
光学学报
2023, 43(14): 1411003
张雁鹏 1,2,*孟楠 1,2肖夏 3朱筱琪 1,2
作者单位
摘要
1 兰州交通大学自动化与电气工程学院,甘肃 兰州 730070
2 甘肃省人工智能与图形图像处理工程研究中心,甘肃 兰州 730070
3 天津大学微电子学院,天津 300072
为提高隧道环境下列车的定位精度,提出了一种基于可见光通信与双目立体视觉的列车自主定位方法。首先,列车根据安装在隧道壁上发光二极管(LED)光源的光信号实时接收LED光源对应的唯一标识符(UID)。然后,运用灰度重心法和最小二乘法,列车获取LED光源图像中光斑中心的像素坐标。接着,利用双目立体视觉原理,得到列车初始定位结果。最后,采用维纳滤波器和惯性测量单元(IMU)补偿列车运行引起的定位误差,得到列车实时定位结果。结合成都地铁1号线的线路数据和设备信息来验证列车自主定位方法的可行性和有效性,研究结果表明:该方法最大静态定位误差为29.93 cm;当列车在不同速度下运行时,最大定位误差为36.11 cm,满足列车控制系统的定位要求。
光通信 可见光通信 列车定位 双目立体视觉 车车通信 
光学学报
2023, 43(10): 1006001
作者单位
摘要
中国飞行试验研究院,陕西 西安 710089
针对直升机旋翼动载荷飞行试验测试需求,提出一种直升机旋翼三维动态变形测量与可视化分析方法。首先,根据直升机旋翼的结构特点和高速旋转特性,设计了以一组双目高清摄像头为核心的旋翼动态变形影像测量与监控及分析系统;其次,基于双目立体视觉测量理论,论述了测量系统标定、实时单点变形测量、散斑影像匹配、旋翼表面三维重建与三维动态变形可视化分析原理/方法;最后,在地面进行了模拟实测环境的仿真试验,实现了试验系统搭建、试验数据采集、处理与分析。试验结果证明,该方法可获得最大误差优于4 mm的定位测量精度,能很好地实现直升机旋翼三维动态变形测量,为飞行试验旋翼载荷测试数据分析等提供直观、可靠的数据与技术支撑。
直升机旋翼 双目立体视觉测量 系统标定 动态变形测量 数字散斑相关 三维可视化 helicopter rotor binocular stereo vision measurement system calibration dynamic deformation measurement digital speckle correlation 3D visualization 
应用光学
2023, 44(1): 159
作者单位
摘要
上海大学 机电工程与自动化学院,上海 200072
双目视觉系统水下应用时,空气中的测量模型和标定方法失效,导致水下三维重建难以实现。提出一种水下双目立体视觉成像模型,并据此开展标定方法研究。用光线四维参数化表示方法描述水下相机成像过程,建立水下双目立体视觉成像模型;在保留光线信息的基础上,根据共面约束标定出分界面法向量与空气介质厚度的初始值,并构建最优目标函数进行非线性优化,以获取高精度的标定参数。进行了系统参数标定仿真分析、系统标定实验和水下标准球棒测量实验,结果表明:系统参数标定仿真分析的平均误差为0.078 pixel,系统标定实验的平均误差小于0.12 pixel,水下标准球棒测量误差的标准差优于1.2 mm。水下实物三维重建实验进一步表明,该系统具有较好的水下三维重建效果。
双目立体视觉 水下成像模型 相机标定 光线四维参数化表示 三维重建 Underwater binocular stereo vision Underwater imaging model Underwater camera calibration 4D parametric representation of ray Underwater 3D reconstruction 
光子学报
2022, 51(12): 1211002
作者单位
摘要
南京理工大学 电子工程与光电技术学院, 江苏 南京 210094
基于等腰棱镜和单摄像机设计了一款小型化工业内窥镜系统, 它能够同时获取同一场景的两个视图并在单帧CCD图像上显示。通过建立系统结构参数模型, 分析测量范围对系统测量误差的影响, 结果表明: 近距离测量时, 测量范围小系统误差小, 随着测量范围变大测量误差也会变大, 并且在沿着直线ω1=ω2方向, 误差变化平缓。利用该系统测量高精度标定板的方格尺寸, 测量误差达到微米量级, 平均误差为2.06%, 符合工业应用需求。文章系统结构紧凑, 系统参数相对较少, 对工业内窥镜的结构设计与应用具有一定的指导意义。
等腰棱镜 工业内窥镜 双目立体视觉 误差分析 biprism industrial endoscope binocular stereo vision error analysis 
光学技术
2022, 48(4): 416
作者单位
摘要
上海大学 机电工程与自动化学院,上海 200444
为满足水下机器人水下目标识别、精细作业的需要,研制了一种融合3D点云和二维RGB图像为一体的RGB-D水下相机工程样机。针对水下环境的特殊性,考虑水下多层折射效应,建立水下相机成像及双目立体成像模型。将水下图像转换为空气中的图像来消除折射对重建精度的影响,进行对应点像素匹配,重建3D点云。采用基于颜色校正和暗原色先验的水下图像增强算法对左、右水下图像进行图像增强处理。最后,构建对准叠加模型将3D点云和二维彩色数据叠加融合,获得水下RGB-D图像数据。实验表明:研制的水下RGB-D工程样机具有较好的三维测量精度,3 m远处的系统重建误差为2.6 mm,颜色再现真实,3D点云数据与RGB二维图像对准精准。这对于水下目标识别和水下机器人精细作业具有重要意义。
双目立体视觉 水下相机成像模型 水下图像增强 水下三维重建 点云色彩对准叠加模型 水下RGB-D相机 Binocular stereo vision Imaging model of the underwater camera Underwater image enhancement Underwater 3D reconstruction Alignment overlay model of point clouds and colors Underwater RGB-D camera 
光子学报
2022, 51(4): 0404003
作者单位
摘要
西南交通大学机械工程学院,四川 成都 610031
随着三维测量技术的成熟,非接触式三维(3D)掌纹采集系统为掌纹识别的研究提供了新的途径。为了提高3D掌纹信息的采集精度,提出一种融合双目立体视觉与结构光的便携式非接触3D掌纹采集系统。首先将编码图案投影到目标手掌表面,使用双目相机获取左右视图后,采用格雷码-相移法获取目标的绝对相位信息,然后引入波义耳摩尔投票算法进行最大概率校正以降低视差图中的跳变噪声,经过亚像素级立体匹配和双目相机的立体标定后,得到3D掌纹信息。最后在自行搭建的一套便携式3D掌纹采集系统上进行实验,实验结果表明,该方法相比于传统基于双目立体视觉的3D掌纹采集系统,能提高掌纹的采集精度,获得更好的三维掌纹重建效果。
图像处理 双目立体视觉 结构光 格雷码-相移法 立体匹配 三维掌纹采集 
激光与光电子学进展
2022, 59(4): 0410016
作者单位
摘要
1 浙江师范大学信息光学研究所,浙江 金华 321004
2 浙江省光信息检测与显示技术重点实验室,浙江 金华 321004
在采用LED的光源步进法三维测量系统中,由于LED发散角大,在短距离内就达到较大的条纹投影面积,造成系统工作距离短。另外大功率LED发光面尺寸大导致条纹对比度低,投影高亮度、高对比度的条纹困难。为解决上述问题,提出在光源步进法投影装置中采用激光二极管(LD)作为光源,实现高亮度、高对比度相移条纹投影。采用该投影装置与双目摄像机设计了便携、高速的三维测量系统。首先利用改进的傅里叶变换轮廓术获取变形条纹相位及调制强度;接着利用激光散斑的随机性,在调制强度图中实现双目图像的粗匹配;然后在粗匹配的基础上进行条纹相位展开,利用相位实现精匹配;最后获得待测物体三维形貌。利用设计的系统进行了实验验证。系统的测量体积为360 mm×290 mm×100 mm,采集的三维数据最多为1280×1024点。实现了100 f/s的三维形貌测量速度,对平面的测量标准偏差为0.19 mm,对5个间隔距离为1.00 mm的平面进行了测量,测量距离的平均误差为0.05 mm。
光学三维形貌测量 条纹投影 傅里叶变换轮廓术 双目匹配 optical three-dimensional shape measurement fringe projection Fourier transform profilometry binocular stereo vision 
光电工程
2021, 48(11): 210298
作者单位
摘要
合肥工业大学 电子科学与应用物理学院, 合肥 230009
立体匹配是双目视觉领域的重要研究方向。为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率, 提出一种基于引导滤波及视差图融合的立体匹配方法。首先, 根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域。接着, 分别采用不同参数的引导滤波进行代价聚合及视差计算, 得到两张视差图。然后依据纹理区域划分的结果对获得的两张视差图进行融合。最后, 通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图。对Middlebury测试平台上标准图像对的实验结果表明, 该方法在6组弱纹理图像上的平均误匹配率为9.67%, 较传统引导滤波立体匹配算法具有更高的匹配精度。
双目立体视觉 立体匹配 引导滤波 视差图融合 binocular stereo vision stereo matching guided filtering disparity map fusion 
半导体光电
2021, 42(6): 931
王华 1,*陈儒 1张爽 2
作者单位
摘要
1 长春工业大学机电工程学院, 吉林 长春 130012
2 长春工程学院机电工程学院, 吉林 长春 130012
根据双目立体视觉的三维重构原理, 如果能获得致密的三维点云数据, 就可以确定三维物体表面形状的特征。因此, 提出一种改进天牛须的图像配准方法, 首先采用SURF算法对双目拍摄的图像进行特征点的提取, 利用返回的二进制或从强度图像中提取其特征向量及特征向量对应位置。再由正态分布统计两幅图像特征点对应程度, 剔除不满足设定百分界值的数据, 最后将两张图之间的关系矩阵作为改进天牛须算法的目标函数, 计算出双目立体视觉中左右图像之间的转换关系。通过图像分割等方式寻找其中一幅图中的内侧面二维点云数据, 使用关系矩阵计算得到对应二维点云数据, 最终重构出内侧面的三维点云数据。由图像对比分析可知, 相比通过寻找对应点计算关系矩阵从而配准图像的SURF算法, 采用计算出的旋转平移矩阵进行配准更加精准。
图像配准 双目立体视觉 特征点检测 天牛须 三维重构 image registration binocular stereo vision feature point detection BAS 3D reconstruction 
应用激光
2021, 41(5): 1055

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!