作者单位
摘要
1 天津大学微电子学院,天津 300072
2 天津大学电气自动化与信息工程学院,天津 300072
提出一种使用点云记忆区来移除动态点云的激光雷达同时定位与建图(SLAM)算法——DOR-LOAM算法。该算法首先引入先验地图伪占用区域的概念,细化了动态点云记忆区的划分,从而提高了对动态点云的识别精度;然后,通过网格化每块伪占用区域,并设置点云概率密度阈值,增强算法对动态小目标的识别能力;最后,使用动态点云移除率优化滑窗方式,建立轻量级的先验地图,加快系统整体的处理速度。在KITTI开放数据集上的验证结果显示,DOR-LOAM算法移除动态点云的F1分数为95.52%,平均相对平移误差和相对旋转误差分别为0.81%和0.0033(°)·m-1,该算法能实时、高效地消除环境中动态因素的影响。
遥感 同时定位与建图 动态物体去除 激光雷达 伪占用区域 点云记忆区 
光学学报
2023, 43(20): 2028001
周维超 1,2黄俊 1,2,*
作者单位
摘要
1 中国科学院上海高等研究院,上海 201210
2 中国科学院大学,北京 100049
同时定位与建图(SLAM)是自动驾驶的基本要求之一。多传感器融合,尤其是激光雷达和相机的融合,对于自动驾驶来说是必不可少的。其中,如何针对各种场景调整不同传感器的置信度是关键问题,基于此,提出一种自适应紧耦合的激光雷达相机融合的SLAM(AVLS)算法。首先,所提AVLS算法建立在基于滑动窗口的因子图上,包含提升整体算法精度和鲁棒性的灵活深度关联和弹性初始化等模块。其次,为了充分探索激光雷达和相机在不同环境中的性能,采用一种基于先验知识的动态加权方案。最后,将所提AVLS算法在两个公开的大规模自动驾驶数据集上进行了全面实验,包括与经典算法的对比及消融实验,实验结果表明,AVLS算法的鲁棒性和精确度可以达到目前领先水平。
激光雷达 同时定位与建图 传感器融合 自主导航 稀疏位姿优化 
激光与光电子学进展
2023, 60(20): 2028009
作者单位
摘要
1 中国民航大学 1. 交通科学与工程学院
2 中国民航大学 2. 航空工程学院, 天津 300300
针对同时定位与建图(SLAM)中存在定位精度不足、匹配特征点误差累积和特征匹配时间较长, 提出了一种融合改进RANSAC光流法的优化算法。该方法基于传统RANSAC算法, 加入最小二乘法对模型进行迭代优化来估计最优模型, 对光流法的误匹配点进行剔除, 大量减少图像误匹配特征点; 把融合改进后的RANSAC光流法与特征点通过卡尔曼滤波进行融合, 最后使用改进后的算法在公开的EuRoC MAV数据集中进行SLAM定位精度实验。实验结果表明: 该改进算法能够有效减小光流法特征匹配的误差, 从而提高无人机视觉SLAM的定位精度。
无人机 同时定位与建图 光流法 UAV SLAM optical flow method RANSAC RANSAC 
半导体光电
2023, 44(2): 277
作者单位
摘要
1 西南科技大学信息工程学院,四川 绵阳 621010
2 特殊环境机器人技术四川省重点实验室,四川 绵阳 621010
传统的虚拟现实(VR)技术通过人为建模的方式生成室内三维地图模型,存在速度慢、模型与现实物体尺度之间存在偏差的问题。鉴于此,提出基于VR的移动机器人的真实环境三维建模系统。首先通过视觉同时定位与建图(SLAM)技术快速地获取室内的高精度稠密三维点云地图;其次将三维点云通过曲面重建算法重建为室内三维模型并导入到unity 3D中;然后借助VR设备将室内三维模型置于三维立体的虚拟环境中;最后通过视觉SLAM技术实现移动机器人在室内环境的重定位,实时映射机器人在模型中的位姿,完成交互。利用视觉SLAM技术构建三维地图模型不仅快速,解决了场景尺度偏差的问题,且实现地图的重复使用。同时VR技术也使操作人员可以获得强烈的沉浸感,从而更好地理解机器人的工作环境。
视觉同时定位与建图 虚拟现实 三维建模 室内建模 
激光与光电子学进展
2023, 60(2): 0233001
作者单位
摘要
北京宇航系统工程研究所,北京100076
针对单目视觉SLAM(Simultaneous Localization and Mapping,同时定位与建图)算法无法恢复地理尺度信息、位姿估计误差累积大等问题,提出了一种基于GNSS融合的单目视觉SLAM算法。该算法基于图优化理论,在视觉里程计中构建相似变换估计模型求解真实尺度,在后端优化中加入GNSS全局地理位置节点,设计优化求解策略,提高关键帧位姿以及三维地图点位置估计的准确性,最后在序列末尾对全局地图离线迭代优化,保证地图构建的全局一致性。实验表明,在室外环境下,运动轨迹在5 km以内时,所提出方法的尺度估计误差在0.1%以内,轨迹误差在2 m以内,满足实际应用需求。
同时定位与建图 多源融合 单目视觉 尺度恢复 SLAM multi-source fusion monocular vision scale recovery 
光电子技术
2022, 42(2): 100
作者单位
摘要
西安工程大学 电子信息学院,陕西 西安 710048
实际场景中运动物体的特征点加入到相机位姿计算中,以及静态环境特征点过度稀疏都会导致移动机器人传统视觉同步定位与地图构建(simultaneous localization and mapping, SLAM)算法在位姿估计时精度低、鲁棒性差。设计了基于分支空洞卷积的双边语义分割算法,将环境区分为潜在运动区域和静态区域;结合几何约束进行静态特征点的二次判断及对没有先验动态标记而具有移动性的特征点的判断,并在事先均匀提取的全部特征点中进行移除,只应用静态特征点求解相机位姿和构建静态环境地图。在TUM公共数据集上进行实验,验证了提出算法在动态环境中SLAM的定位精度明显优于现有其他方法。在存在运动物体的真实环境下进行建图实验,与ORB-SLAM2算法进行对比,本文算法在动态场景中构建的地图更清晰。
动态场景 语义分割 同时定位与建图 几何约束 语义先验 dynamic environment semantic segmentation simultaneous localization and mapping geometric constraints semantic prior 
应用光学
2022, 43(2): 269
作者单位
摘要
新疆大学, 乌鲁木齐 830000
视觉传感器与激光雷达融合的SLAM方法是当下研究的热点, 实际效果优于单一传感器的SLAM方法。针对当下视觉传感器与激光雷达融合的算法仍然存在着用于定位的特征点不足导致定位精度不高的问题, 充分利用激光雷达提供的深度信息, 提出了一种多策略的视觉与激光融合的SLAM算法, 在估计帧间位姿前对上一帧中的特征点深度值进行判断, 通过特征点全部具有深度信息、部分具有深度信息、均不具有深度信息3种判断结果分别采取不同的位姿估计策略。最后在公共数据集KITTI上进行测试, 实验结果表明, 所提算法有效地提高了定位精度与鲁棒性。
同时定位与建图 单目相机 激光雷达 SLAM monocular camera lidar 
电光与控制
2022, 29(2): 99
占浩 1,2,3,*朱振才 1,2,3张永合 1,2,3郭明 1,2丁国鹏 1,2
作者单位
摘要
1 中国科学院微小卫星创新研究院, 上海 201203
2 中国科学院微小卫星重点实验室, 上海 201203
3 中国科学院大学, 北京 100049
机器人在大尺度场景下开展同时定位与建图(SLAM)任务时,其闭环检测环节会出现较严重的错匹配或者漏匹配问题,因此,采用残差网络(ResNet)对图像序列进行特征提取,并提出一种新的闭环检测算法。通过预训练的ResNet提取输入图像的全局特征,并对该帧图像及之前具有一定长度的图像序列的特征按照下采样的方式进行拼接,将结果作为当前帧图像的特征,保证图像特征的丰富性与准确性。同时,设计一种双层查询的方法以获得最相似的图像帧,并对最相似图像进行一致性检验,确保闭环的准确性。在闭环检测主流公开数据集New College和City Centre上,所提算法在100%准确率下的召回率为83%,在99%准确率下的召回率为85%。与传统的词袋方法和VGG16方法相比,所提算法具有显著的提升。
成像系统 闭环检测 残差网络 同时定位与建图 机器视觉 
激光与光电子学进展
2021, 58(4): 0411003
作者单位
摘要
上海电力大学自动化工程学院, 上海 200090
融合视觉传感器和激光雷达可以实现优于单一传感器的同时定位与建图(SLAM)系统,现有的视觉和激光雷达融合算法仍然存在计算复杂度高、系统精度及稳定性受错误的深度匹配影响等问题。为了更加高效、鲁棒地融合视觉和激光雷达的信息,充分利用图像和激光点云中的地平面信息,提出了高效的视觉辅助激光雷达SLAM算法。首先,从激光点云中分割出地面点云用于提取图像中的地面ORB特征点,并通过单应性变换中的交比不变性校验特征匹配,从而高效鲁棒地利用单应性矩阵分解实现绝对尺度相机运动估计。然后,将得到的相机运动估计以李群SE(3)形式进行插值,用于校正激光雷达在自身运动过程中产生的点云畸变。最后,单目相机的运动估计作为初值用于激光里程计的位姿优化。公共数据集KITTI和实际环境的测试结果表明,本文算法可以有效利用相机运动估计对激光点云畸变进行校正,实时准确地实现里程计和建图。
遥感 同时定位与建图 激光雷达 单目相机 单应性变换 交比不变性 
光学学报
2020, 40(24): 2428002
作者单位
摘要
上海工程技术大学电子电气工程学院, 上海 201600
针对由一般卷积神经网络预测的粗糙特征生成的深度图质量低、监督学习处理任务限制数据量等问题,提出一种新颖的融合扩张卷积神经网络和同时定位与建图(SLAM)的无监督单目深度估计方法。该方法采用视图重构的思想估计深度,利用光学一致性误差约束网络训练,扩大感受野,考虑图片细节特征。同时采用SLAM算法优化相机姿态,并将其嵌入视图重构框架中,实现单目图片与其深度图的直接映射。利用该方法在公开的KITTI数据集上进行实验,结果表明,与经典的sfmlearner方法相比,误差度量指标绝对差、平方差、均方差和对数均方差分别降低了0.032、0.634、1.095和0.026;准确率度量指标δ1、δ2和δ3分别提升了3.8%、2.6%和0.9%。该模型的可用性与稳健性得到验证。
图像处理 扩张卷积神经网络 同时定位与建图 无监督学习 单目视觉 深度估计 
激光与光电子学进展
2020, 57(6): 061007

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!