吕媛媛 1,2,3刘朝晖 1,3乔文龙 1,2,3周亮 1,3,*[ ... ]张海洋 1,2,3
作者单位
摘要
1 中国科学院西安光学精密机械研究所,西安 710119
2 中国科学院大学,北京 100049
3 中国科学院空间精密测量技术重点实验室,西安 710119
建立了事件相机空间目标探测灵敏度模型,分析了影响事件相机观测灵敏度的影响因素,得到了可观测极限星等与阈值的线性关系,并通过望远镜进行了外场观星实验。结果表明事件相机可以进行空间目标探测,同时验证了空间目标探测灵敏度模型的准确性。进一步明确了阈值对事件相机空间目标探测的影响,为基于事件相机的空间目标观测及其他相关研究提供了理论基础。
生物视觉传感器 事件相机 空间目标观测 灵敏度 星等 Bio-inspired vision Event camera Space target observation Sensitivity Magnitude 
光子学报
2023, 52(2): 0211001
吴涛 1,2谢志军 1,2
作者单位
摘要
1 宁波大学 信息科学与工程学院,浙江 宁波 315211
2 衢州东南数字经济发展研究院, 浙江 衢州 324003
针对基于单目相机和惯性测量单元(IMU)组成的视觉导航系统需要精确初始化的问题, 该文提出了一种减少处理时间同时提高精度的系统初始化方法。首先, 对采集数据中的陀螺仪偏置进行单独估计并分离, 实现估计陀螺仪偏置和求解系统初始化封闭解问题的解耦; 然后, 采用基于紧耦合的线性模型求取初始化问题的封闭解; 最后, 将所提出的改进初始化方法应用于经典的VinsMono框架中。实验表明, 改进方法可有效提高视觉惯性导航系统的初始化精度和效率。
视觉传感器 惯性测量单元 惯性测量单元(IMU)预积分封闭解 视觉惯性导航 初始化 vision sensor inertial measurement unit(IMU) IMU pre-integral closed solution visual inertial navigation initialization 
压电与声光
2021, 43(6): 863
作者单位
摘要
1 中国科学院 长春光学精密机械与物理研究所, 吉林 长春 130033
2 中国科学院大学, 北京 100049
基于事件的视觉传感器是一种新型的仿生型视觉传感器, 它更类似于人眼的工作机制使其广受关注。与基于帧的传统相机的工作机制和输出方式不同, 基于事件的视觉传感器的像素可以单独检测光照强度对数的变化, 并在变化量超过一定阈值时输出包含位置、时间、极性的事件信息, 拥有低延迟、高动态范围、低功耗的优点, 其独特的输出方式和工作特性使其特别适应于有高速运动、光照条件变化较大或小能耗的场合。本文介绍了事件相机的发展历程、分类和工作原理、优缺点, 以及事件相机在快速运动的跟踪与监测、目标识别、即时定位与地图构建(SLAM)等领域近些年的应用情况。最后总结了事件相机在不同应用领域仍存在的挑战, 并展望其未来的发展。事件相机的广泛应用将为目前传统相机仍很棘手的高速运动和高动态范围场合提供新的解决方案, 在未来的不断更新和发展下, 它将能够在更多复杂的应用场景发挥作用。
事件相机 视觉传感器 基于事件的视觉传感器 原理和应用 event-based camera vision sensor event-based vision sensor principle and application 
液晶与显示
2021, 36(12): 1664
作者单位
摘要
1 江南大学轻工过程先进控制教育部重点实验室,江苏 无锡 214122
2 无锡信捷电气股份有限公司,江苏 无锡 214072
针对龙门架机器人末端执行机构只具有三个正交方向上的平移自由度的工作特性,参照传统手眼标定的两步法,设计了一种直接对3D视觉传感器的点云坐标系与机器人执行机构的工具坐标系进行手眼标定的方法。该方法只需要操作机器人进行两次正交的平移运动,采集三组标定板图片和对应点云数据,并通过执行机构的工具中心点(TCP)接触式测量出标定板上标志点的基坐标值,即可解算出手眼关系的旋转矩阵和平移矢量。该方法操作简单,标定板易于制作且成本低。采用XINJE龙门架机器人与3D视觉传感器搭建实验平台,实验结果表明,该方法具有良好的稳定性,适合现场标定,标定精度达到?0.2 mm。
视觉引导 手眼标定 龙门架机器人 3D视觉传感器 点云 vision guidance hand-eye calibration gantry robot 3D vision sensor point cloud 
光电工程
2021, 48(4): 200239
作者单位
摘要
泰州职业技术学院 机电技术学院, 江苏 泰州 225300
为提高传统跌倒检测系统的识别准确率, 降低识别时间, 提出了一种新型跌倒检测模型。以Kinect V2深度视觉传感器获取的骨骼节点为样本数据源, 由改进型K-means算法计算聚类中心点, 并在此基础上提取跌倒检测特征数据。将特征数据重构成5×5训练样本数据后, 输入所设计的卷积神经网络模型进行训练学习, 得到优化的跌倒检测模型参数。实验表明, 所设计的新型检测模型相对于传统检测跌倒算法具有更高的识别准确率和更快的运算速度, 保证了系统的实时性和鲁棒性要求。
深度视觉传感器 跌倒检测 卷积神经网络 depth vision sensor fall detection K-means K-means CNN 
光学技术
2021, 47(1): 56
冯天伟 1,2,3,4刘金清 1,2,3,*肖金超 4熊俊峰 4
作者单位
摘要
1 福建师范大学医学光电科学与技术教育部重点实验室, 福建 福州 350007
2 福建师范大学福建省光电传感应用工程技术研究中心, 福建 福州 350007
3 福建师范大学光电与信息工程学院, 福建 福州 350007
4 广州中国科学院沈阳自动化研究所分所, 广东 广州 510000
海天线是海空背景图像所具有的重要特征之一,海天线的检测对天空区域和海面区域的划分以及目标检测具有重要作用。然而,复杂海空背景环境中的海杂波、云层、强反射、复杂气象条件等都会给海天线检测造成困难。针对复杂背景下海天线检测的环境适应性问题,对视觉传感器获取的原始图像及图像中海天线的特点、干扰因素及其抑制方法、现有的海天线生成方法三个方面进行了详细的阐述和分析,通过对比实验列出各种海天线生成方法的优缺点和适用场景,对比分析了自行提出的形态学方法的实验结果及适用场景。最后提出海天线检测面临的挑战,展望其下一步的研究方向。
图像处理 海天线检测 无人艇 视觉传感器 线性拟合 霍夫变换 小波变换 
激光与光电子学进展
2020, 57(16): 160002
作者单位
摘要
河南科技大学 机电工程学院, 河南 洛阳 471000
针对传统机器人视觉系统手眼标定方法存在人工定位特征点误差大和标定过程耗时长的问题, 提出了一种机器人视觉系统非接触式手眼标定方法。采用圆锥体作为标定块, 通过3D视觉传感器采集标定块图像, 基于Halcon编写上位机程序对图像进行处理计算, 自动获取3D视觉传感器坐标系下标定块特征点坐标, 同时导入机器人基坐标系下的坐标, 计算手眼关系变换矩阵, 完成机器人视觉系统手眼关系标定。实验表明: 此方法平均标定操作时间为6.47min, 平面定位误差最大值为0.39mm, 空间定位误差最大值为0.478mm, 缩短了标定操作时间并提高了标定精度。
机器人视觉系统 手眼标定 非接触式 3D视觉传感器 robot vision system hand-eye calibration Halcon Halcon non-contact 3D vision sensor 
光学技术
2020, 46(1): 110
作者单位
摘要
1 青岛科技大学 自动化与电子工程学院, 山东 青岛 266061
2 国家深海基地管理中心, 山东 青岛 266061
针对深海环境下通过视觉方法难以实现地貌的大范围、高精度三维重建的问题, 提出一种基于“蛟龙号”载人潜水器的线结构光法深海地貌三维重建视觉传感器的设计方案。根据线结构光三维重建的原理, 首先改进了Steger算法, 实现了快速、精准的激光条纹中心线提取; 然后利用直接标定法求解出地形特征的二维空间坐标, 并克服了图像畸变对重建的影响; 再将获得的二维点云与多传感器数据融合, 跟随潜水器坐标实时计算偏移量, 并根据传感器位姿变化对图像矫正, 最终获得地貌的三维点云数据。根据重建原理设计了视觉传感器的软硬件系统, 并搭建了实验模拟平台来验证方案的可行性。通过水下实验可以实现对模拟地貌的完整重建, 精度达到96.9%, 符合重建要求。
三维重建 线结构光 数据融合 视觉传感器 3D reconstruction linear structured light data fusion visual sensor 
红外与激光工程
2019, 48(5): 0503001
作者单位
摘要
重庆工程学院电子信息学院, 重庆, 400056
选用激光测距传感器加pixy视觉传感器作为道路信息的采集器, 设计了一辆循迹智能小车系统, 能够从指定位置出发, 快速搜寻场地内随机点亮的信标灯。该系统以pixy视觉传感器采集光源, 得到智能小车的位置信号, 采用激光测距传感器, 采集障碍物的位置信号。通过PID控制算法、路径识别算法、速度控制算法, 判断道路是直线还是曲线, 避开障碍物, 实现自动行驶。本系统经多次实验验证能够实现控制小车选择合适的路径, 具有稳定性高、系统响应灵敏等特点。
激光传感器 视觉传感器 比例微分积分控制 路径识别 laser sensor visual sensor PID control path recognition 
光电子技术
2019, 39(1): 68
作者单位
摘要
天津大学 精密测试技术及仪器国家重点实验室, 天津 300072
工业机器人在工业现场进行连续高速作业过程中, 电机发热和关节摩擦生热将导致机械臂本体温度升高, 引起机器人末端定位漂移, 严重影响机器人的重复定位精度和作业精度。针对制造现场的工业机器人, 提出了一种基于双目立体视觉的温度误差在线补偿方法, 并基于微分运动学和双目视觉原理构建了温度误差补偿模型。在机器人末端安装基准球, 同时在基座附近固定视觉测量传感器, 机器人完成作业循环之后, 以不同的姿态带动基准球至传感器视场内进行补偿测量。此外, 通过分析各关节参数随时间变化的规律, 筛选出符合温度漂移规律的显著性参数进行补偿, 有效降低了补偿测量次数和耗时。实验结果显示, 补偿后机器人的重复定位精度可维持在±0.1 mm的水平, 能够显著改善制造现场工业机器人的作业精度, 且整个补偿测量过程耗时10 s左右。
立体视觉 工业机器人 连杆参数 温度误差 在线补偿 视觉传感器 stereo vision industrial robot link parameter thermal error in-line compensation vision sensor 
光学 精密工程
2018, 26(9): 2139

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!