作者单位
摘要
1 重庆交通大学 交通运输学院, 重庆400074
2 同济大学 道路与交通工程教育部重点实验室, 上海01804
针对自动驾驶三维建图中存在的建图不准确以及位姿飘移的问题,利用激光雷达里程计消除惯性测量单元(Inertial Measurement Unit, nIMU)累计误差并通过IMU预积分去除激光雷达点云畸变,形成激光雷达与IMU的紧耦合建图系统;通过增加回环检测因子、激光雷达里程计因子以及IMU预积分因子进行后端图优化,旨在提升定位建图的全局一致性,减小位姿估计误差,降低累计漂移误差。最后,在学校园区实地场景以及利用开源数据集KITTI进行实验验证,实验表明,在选取的学校园区实地场景下,改进算法APE误差均值相较于原算法降低了11.04%,APE均方根误差较于原算法降低了17.35%;改进算法在KITTI数据集场景下平均APE误差下降了10.04%,均方误差方面相较于原算法平均下降了12.04%。研究结果表明,改进的建图方法能够有效提高建图的位姿估计精度与地图构建精度。
激光雷达 自动驾驶 同步定位与建图 传感器融合 lidar automatic driving synchronous positioning and mapping sensor fusion 
光学 精密工程
2024, 32(3): 422
张普 1,2,3,4刘金清 1,2,3,*肖金超 4熊俊峰 4[ ... ]王忠泽 4
作者单位
摘要
1 福建师范大学医学光电科学与技术教育部重点实验室,福建 福州 350007
2 福建省光子技术重点实验室,福建 福州 350007
3 福建省光电传感应用工程技术研究中心,福建 福州 350007
4 广州工业智能研究院,广东 广州 511458
环境感知是无人驾驶的关键技术,针对相机缺乏深度信息无法定位检测目标以及目标跟踪精度较差的问题,提出一种基于相机与激光雷达融合的目标定位与跟踪算法。该算法通过图像检测框内的激光雷达点云簇在像素平面的面积比例大小获得检测目标的定位信息,然后根据检测目标的轮廓点云在像素坐标系下的横向移动速度和纵向移动速度融合图像检测框中心坐标提高目标跟踪精度。实验结果表明:所提目标定位算法正确率为88.5417%,且平均每帧处理时间仅为0.03 s,满足实时性要求;图像检测框中心横坐标的平均误差为4.49 pixel,纵坐标的平均误差为1.80 pixel,平均区域重叠率为87.42%。
传感器融合 机器视觉 3D激光雷达 目标定位 目标跟踪 
激光与光电子学进展
2024, 61(8): 0828004
王五岳 1,*徐召飞 2,3曲春燕 3林颖 4[ ... ]廖键 1
作者单位
摘要
1 哈尔滨工程大学 烟台研究生院,烟台 265500
2 哈尔滨工程大学 机电工程学院,哈尔滨 150000
3 烟台艾睿光电科技有限公司,烟台 265500
4 国网山东省电力公司 电力科学研究院,济南 250014
结合MEMS激光雷达和红外相机的优势,设计了一种简单轻量、易于扩展、易于部署的可分离融合感知系统实现三维目标检测任务,将激光雷达和红外相机分别设置成独立的分支,两者不仅能独立工作也能融合工作,提升了模型的部署能力。模型使用鸟瞰图空间作为两种不同模态的统一表示,相机分支和雷达分支分别将二维空间和三维空间统一到鸟瞰图空间下,融合分支使用门控注意力融合机制将来自不同分支的特征进行融合。通过实际场景测试验证了算法的有效性。
传感器融合 激光雷达 红外相机 鸟瞰图 三维目标检测 Multisensor fusion LiDAR Infrared camera BEV 3D object detection 
光子学报
2024, 53(1): 0111002
蒲文浩 1,2刘锡祥 1,2,*陈昊 1,3徐浩 1,2刘烨 1,2
作者单位
摘要
1 东南大学仪器科学与工程学院,江苏 南京 210096
2 微惯性仪表与先进导航技术教育部重点实验室,江苏 南京 210096
3 国网江苏省电力有限公司南京供电公司,江苏 南京 210019
针对单一传感器难以解决激光雷达在运动场景中因为点云畸变和误差累积产生的运动失真与定位精度差的问题,提出一种融合惯性测量单元数据和轮速计数据的激光雷达点云畸变矫正与定位方法。首先,以激光雷达数据为时刻基准,利用积分的方法对惯性测量单元和轮速计的数据进行预处理;之后,将融合数据与激光雷达数据融合,以矫正产生畸变的激光点云;最后,利用线性插值的方式来保证传感器间数据的时间同步,并将计算的位姿作为里程计迭代计算的初值,降低计算复杂度并提高里程计的定位精度。实验结果表明,相比没有采用多传感器融合的传统方案(LOAM、F-LOAM),在公开数据集实验中,所提方法的定位均方根误差分别降低了81.11%和21.54%,在自测数据集实验中,定位均方根误差分别降低了52.76%和24.29%。
激光雷达 畸变补偿 传感器融合 激光雷达里程计 
激光与光电子学进展
2023, 60(24): 2428003
周维超 1,2黄俊 1,2,*
作者单位
摘要
1 中国科学院上海高等研究院,上海 201210
2 中国科学院大学,北京 100049
同时定位与建图(SLAM)是自动驾驶的基本要求之一。多传感器融合,尤其是激光雷达和相机的融合,对于自动驾驶来说是必不可少的。其中,如何针对各种场景调整不同传感器的置信度是关键问题,基于此,提出一种自适应紧耦合的激光雷达相机融合的SLAM(AVLS)算法。首先,所提AVLS算法建立在基于滑动窗口的因子图上,包含提升整体算法精度和鲁棒性的灵活深度关联和弹性初始化等模块。其次,为了充分探索激光雷达和相机在不同环境中的性能,采用一种基于先验知识的动态加权方案。最后,将所提AVLS算法在两个公开的大规模自动驾驶数据集上进行了全面实验,包括与经典算法的对比及消融实验,实验结果表明,AVLS算法的鲁棒性和精确度可以达到目前领先水平。
激光雷达 同时定位与建图 传感器融合 自主导航 稀疏位姿优化 
激光与光电子学进展
2023, 60(20): 2028009
李航 1,2彭高亮 1,2,*林鸿钊 1,2陈朝 1,2
作者单位
摘要
1 哈尔滨工业大学 机器人技术与系统国家重点实验室,黑龙江 哈尔滨 150001
2 哈尔滨工业大学 机电工程学院,黑龙江 哈尔滨 150001
针对光电跟踪系统中CCD相机反馈帧率较低,延迟较大导致跟踪高速目标能力差、响应能力差的问题,提出一种基于传感器融合预测的改进跟踪前馈控制方法。为减小融合获得目标高阶运动状态噪声大的问题,提出一种基于微分跟踪的传感器融合策略;针对图像反馈延迟问题,提出一种降阶匀加速Kalman模型,根据融合获得的运动学信息,结合Kalman滤波进行预测跟踪,补偿脱靶量的时间延迟,得到近似真实的目标位置和速度、加速度信息;针对低频输入信号引入闭环扰动问题,提出一种快速数据扩展方法,实现低频信号到高频信号的扩展;根据传感器融合预测结果,设计跟踪前馈控制器,提高系统的响应速度。仿真结果和实验结果均表明该前馈方法能够对CCD反馈延迟导致的跟踪误差进行补偿。实验结果表明:该方法能够大幅提高系统对高速目标的跟踪性能,在目标运动状态相同条件下,相比补偿前跟踪误差减小约83.67%。
预测滤波 前馈控制 传感器融合 最小二乘多项式拟合 跟踪补偿 predictive filtering feedforward control sensor fusion least square polynomial fitting tracking compensation 
红外与激光工程
2023, 52(5): 20220665
作者单位
摘要
1 长安大学 道路施工技术与装备教育部重点实验室, 陕西 西安 710064
2 中国铁建重工集团股份有限公司, 湖南 长沙 410000
3 南京信息工程大学 计算机与软件学院, 江苏 南京 210044
三维重建技术是机器视觉中最热门的研究方向之一,在无人驾驶和数字化加工与生产等领域得到了广泛的应用。传统的三维重建方法包括深度相机和多线激光扫描仪,但是通过深度相机获得的点云存在着信息不完整和不精确的问题,而多线激光扫描仪成本高,阻碍了该项技术的应用和研究。为解决上述问题,提出了一种基于转动式二维激光扫描仪的三维重建方法。首先,用步进电机带动二维激光扫描仪旋转运动来获取三维点云数据。然后,用多传感器融合的方法对激光扫描仪的位置进行标定,采用坐标系变换完成点云数据的匹配。最后,对采集得到的点云数据进行了滤波和精简处理。实验结果表明:相较于深度相机/IMU数据融合的重建方法,平均误差降低了0.93 mm,为4.24 mm;精度达到了毫米级别,误差率也控制在了2%以内;整套设备的成本相较于多线激光扫描仪大大降低。本文方法基本满足保留物体的外形特征、高精度和成本低的要求。
二维激光扫描仪 坐标系变换 传感器融合 三维重建 2D laser scanner coordinate system transformation multi-sensor fusion three-dimensional reconstruction 
中国光学
2023, 16(3): 663
作者单位
摘要
1 湖北工业大学,武汉 430000
2 湖北省农机装备智能化工程技术研究中心, 武汉 430000
同步定位与建图(SLAM)技术是自主移动机器人的主要技术支撑, 成为当今的研究热点。介绍了SLAM 技术的发展历程及主要传感器, 梳理了基于视觉、激光雷达以及多传感器融合的SLAM技术, 并对常见的SLAM算法进行归纳总结, 对比分析各实现方案的优缺点。最后探讨了SLAM的技术难题和发展趋势。
同步定位与建图 激光雷达 视觉相机 传感器融合 自主移动机器人 SLAM lidar vision camera multi-sensor fusion autonomous mobile robot 
电光与控制
2023, 30(3): 78
作者单位
摘要
1 清华大学电子工程系, 北京 100084
2 中国人民解放军 31401部队, 吉林长春 130022
3 北京科技大学计算机与通信工程学院, 北京 100083
对于视觉惯性里程计(VIO), 视觉遮挡、运动物体等复杂场景可能带来异常的视觉测量, 导致系统定位精确度急剧下降。对此, 提出了一种新的 VIO异常视觉测量的检测和处理方法。通过选取检测指标、设置先验阈值和设计检测分类器, 实现对异常视觉测量的检测与分类;提出多传感器融合策略和自适应误差加权算法, 及时消除与实际运动不一致的异常视觉测量的影响;最后, 将异常视觉测量检测和处理算法整合到基于关键帧的视觉惯性里程计(OKVIS)系统中, 提出了视觉惯性里程计的异常检测和处理(EDS-VIO)系统框架。在复杂场景仿真数据集上的评测结果表明, EDS-VIO比 OKVIS取得了更好的性能, 定位误差均值从 1.045 m下降到 0.437 m。所提方法较好地提升了 VIO在复杂场景中的定位精确度和鲁棒性。
视觉惯性里程计 异常视觉测量 传感器融合 自适应误差权重 复杂场景 Visual-Inertial Odometry abnormal visual measurement multi-sensor fusion strategy adaptive error weighting complex scene 
太赫兹科学与电子信息学报
2022, 20(10): 1038
作者单位
摘要
南京理工大学 电子工程与光电技术学院,江苏 南京 210094
激光雷达系统采用主动照明的方式,激光发射脉冲周期信号至目标场景,激光脉冲经目标表面漫反射,由单光子雪崩二极管(Single-Photon Avalanche Diode, SPAD)探测器记录回波光子的到达时间,获得场景的深度信息。然而在探测过程中,测量结果往往会遭到环境光的干扰。传感器融合是进行单光子成像的有效方法之一。最近提出的基于LiDAR和强度相机融合的数据驱动方法大多采用扫描式激光雷达,深度获取速度慢。SPAD阵列的出现打破了帧率的限制。SPAD阵列允许同时收集多个回波光子,加速了信息采集,但分辨率较低,在探测过程中还会受到环境光的干扰,因此需要通过算法打破SPAD阵列的固有限制,从噪声中分离深度信息。针对分辨率为32×32 pixel的SPAD阵列探测器,提出了一种卷积神经网络结构,旨在强度图的引导下,将低分辨率TCSPC直方图映射至高分辨率深度图。该网络采用多尺度方法提取输入特征,并基于注意力模型融合深度数据和强度数据。另外,设计了一个损失函数组合,适用于处理TCSPC直方图数据的网络。在采集数据上进行了验证,提出方法能成功将深度数据的空间分辨率提升4倍,并在质量和数据指标上都优于其他算法。
激光雷达 单光子成像方法 传感器融合 SPAD阵列 卷积神经网络 LiDAR single-photon imaging method sensor fusion SPAD array convolutional neural network 
红外与激光工程
2022, 51(2): 20210871

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!