1 长春理工大学光电工程学院,吉林 长春 130022
2 长春理工大学空间光电技术研究所,吉林 长春 130022
目前多光谱行人检测算法大多对可见光与红外图像融合方法展开研究,但是充分融合多光谱图像所需的参数量巨大,会导致检测速度降低。针对这一问题,提出了一种基于时效性较高的YOLOv5s的多光谱行人检测算法。为了保证算法的检测速度,选用可见光与红外光通道方向上的合并方法作为网络的输入,并通过对传统算法的改进来提升检测精度。首先,用可变形卷积替换部分标准卷积,增强了网络对不规则形状的特征目标的提取能力;其次,用多尺度残差注意力模块替换网络中的空间金字塔池化模块,减弱了背景对行人目标的干扰,提升了检测精度;最后,通过改变连接方式,增加大尺度特征拼接层,提升了网络的检测最小尺度,提升了网络对小目标的检测效果。实验结果表明,改进后的算法在检测速度上有明显优势,并比原算法的mAP@0.5和mAP@0.5∶0.95分别提升了5.1和1.9个百分点。
行人检测 可变形卷积 注意力机制 小目标检测 YOLOv5s 激光与光电子学进展
2024, 61(10): 1037004
1 武汉理工大学现代汽车零部件技术湖北省重点实验室,湖北 武汉 430070
2 武汉理工大学汽车零部件技术湖北省协同创新中心,湖北 武汉 430070
3 武汉理工大学湖北省新能源与智能网联车工程技术研究中心,湖北 武汉 430070
为解决行人检测任务中低能见度场景下单模态图像漏检率高和现有双模态图像融合检测速度低等问题,提出了一种基于双模态图像关联式融合的轻量级行人检测网络。网络模型基于YOLOv7-Tiny设计,主干网络嵌入关联式融合模块RAMFusion用以提取和聚合双模态图像互补特征;将特征提取部分的1×1卷积替换为带有空间感知能力的坐标卷积;引入Soft-NMS改善结群行人漏检问题;嵌入注意力机制模块来提升模型检测精度。在公开的红外与可见光行人数据集LLVIP上的消融实验表明:与其他融合方法相比,所提方法行人漏检率降低、检测速度显著提高;与YOLOv7-Tiny相比,改进后的模型检测精度提高了2.4%,每秒检测帧数达到124 frame/s,能够满足低能见度行人实时检测需求。
行人检测 红外与可见光图像 关联式融合 轻量化网络 注意力机制 YOLOv7-Tiny 激光与光电子学进展
2024, 61(8): 0837014
1 北京信息科技大学自动化学院, 北京 100000
2 高动态导航技术北京市重点实验室, 北京 100000
3 现代测控技术教育部重点实验室, 北京 100000)
4 北京德维创盈科技有限公司, 北京 100000
针对惯性器件误差建模方法影响其误差补偿准确性进而影响导航系统精度的问题, 提出一种基于器件噪声统计特征还原的惯性器件误差建模方法。首先, 通过功率谱密度建模还原器件高频噪声误差; 其次, 根据低频噪声统计特征用对应的性能计算方法还原低频噪声误差, 既避免功率谱密度建模方法对器件低频噪声表征能力弱的问题, 又避免机器学习方法中前期工作量和计算量大的问题。与已有误差建模方法的对比实验表明: 器件数学模型的输出与其真实器件输出之间误差相比下降了一个数量级; 在行人导航应用中具有更高的器件误差补偿准确度, 补偿后导航位置误差降低了35.261%, 航向角误差降低了31.198%, 有效提升了行人导航系统精度。
惯性器件 噪声统计特征 误差建模 行人导航 器件误差补偿 inertial devices noise statistical characteristics error modeling pedestrian navigation device error compensation
1 西安工业大学电子信息工程学院,陕西 西安 710021
2 西安工业大学本科生院,陕西 西安 710021
3 北京微电子技术研究所,北京 100000
针对现有利用可见光与红外模态融合的行人目标检测算法在全天候环境下漏检率高的问题,提出一种基于光照感知权重融合的多模态行人目标检测算法。首先,使用引入高效通道注意力(ECA)机制模块的ResNet50作为特征提取网络,分别提取两个模态的特征;其次,对现有光照加权感知融合策略进行改进,通过设计一种新的光照感知加权融合机制获取可见光与红外模态的对应权重,并进行加权融合得到融合特征,从而降低算法的检测漏检率;最后,将从特征网络最后一层提取的多模态特征和生成的融合特征共同送入到检测网络,完成行人目标检测。实验结果表明,所提算法在KAIST数据集下具有良好的检测性能,在全天候下对行人目标的检测漏检率为11.16%。
多模态图像融合 注意力机制 光照感知权重融合 行人检测 激光与光电子学进展
2023, 60(16): 1610008
光学 精密工程
2023, 31(10): 1532
中国矿业大学信息与控制工程学院,江苏 徐州 221008
针对视频行人重识别中的目标行人大范围遮挡的问题,将具有时间关联性、不受遮挡影响的行人轨迹预测与行人重识别相结合,提出一种基于时空轨迹融合的遮挡视频行人重识别算法。首先,从时间与空间域出发,实现符合社会属性的精确行人轨迹坐标预测;其次,构建时空轨迹融合特征,将视频序列中的表观视觉特征与行人轨迹中的坐标数据有效结合,有效缓解查询集中遮挡问题对重识别性能造成的影响;最后,构建适用于所提算法的轨迹融合数据集MARS_traj,并通过实验证明所提算法对遮挡视频重识别性能的有效提升。
图像处理 机器视觉 视频行人重识别 目标遮挡 行人轨迹预测 激光与光电子学进展
2023, 60(10): 1010021
南昌航空大学信息工程学院, 江西 南昌 330063
针对传统视觉背景提取(visual background extractor, ViBe)算法在进行行人检测时会产生鬼影的缺点, 本文提出了一种基于改进的 ViBe和 YOLO v3算法的行人检测方法。利用改进的 YOLO v3算法 YOLO v3-SPP(spatial pyramid pooling)对 ViBe算法的初始化策略进行改进以消除鬼影。运用 YOLO v3-SPP算法对首帧图像进行行人检测, 使用本文提出的行人消除方法将检测出的行人进行消除, 并将输出图像代替 ViBe算法的首帧, 从而达到消除鬼影的目的。经过分析和实验验证, 结果表明该算法能够有效解决鬼影问题。
图像处理 行人检测 视觉背景提取 鬼影消除 YOLO v3算法 image processing, pedestrian detection, visual bac
1 南京信息工程大学电子与信息工程学院,江苏 南京 210044
2 南京信息工程大学江苏省大气环境与装备技术协同创新中心,江苏 南京 210044
地铁场景行人目标存在大小不一、不同程度遮挡以及环境过暗导致目标模糊等问题,很大程度影响了行人目标检测的准确性。针对上述问题,本研究提出了一种改进YOLOv5s目标检测算法以增强地铁场景行人目标检测的效果。构建地铁场景行人数据集,标注对应标签,进行数据预处理操作。本研究在特征提取模块中加入深度残差收缩网络,将残差网络、注意力机制和软阈值化函数相结合以增强有用特征信道,削弱冗余特征信道;利用改进空洞空间金字塔池化模块,在不丢失图像信息的前提下获得多尺度、多感受野的融合特征,有效捕获图像全局上下文信息;设计了一种改进非极大值抑制算法,对目标预测框进行后处理,保留检测目标最优预测框。实验结果表明:提出的改进YOLOv5s算法能有效提高地铁场景行人目标检测的精度,尤其对小行人目标和密集行人目标的检测,效果提升更为显著。
行人目标检测 YOLOv5s 注意力机制 改进空洞空间金字塔池化 激光与光电子学进展
2023, 60(6): 0610013
内蒙古大唐国际托克托发电有限责任公司, 呼和浩特 010206
为了提高车间监控系统智能化程度和工作场景中行人检测精度,提出了一种基于计算机视觉技术的行人检测方法。采用基于高级语义信息的无锚框特征检测技术,将检测任务简化为中心点和尺度的回归预测。特征提取模块通过四阶段降采样卷积网络,得到多尺度的图像特征并融合。头探测模块分成两路卷积,并行处理特征图,获得中心点热力图和尺度信息,输出检测结果。结果表明,在CityPersons数据集R子集上,MR-2达到11.61%,加入偏移量预测分支后MR-2提升了0.6%。这证明了该人员检测方法的性能优良。
目标检测 行人检测 计算机视觉技术 无锚框检测 语义信息 object detection pedestrian detection computer vision technique anchor free detection semantic information