1 中国科学院空天信息创新研究院传感技术国家重点实验室,北京 100190
2 中国科学院大学电子电气与通信工程学院,北京 100049
3 中国科学院大学材料科学与光电技术学院,北京 100049
针对迷你无人飞行器(mini-UAV)探测难度大的问题,仿真设计并制作了谐振频率接近mini-UAV噪声特征频率的硅基微机电系统(MEMS)轮形振膜,结合精密机械加工制作了光纤法布里-珀罗干涉式声传感器。测试结果表明,该光纤声传感器的谐振频率为7.279 kHz,与仿真结果基本一致,其在频率为7 kHz声波正入射的条件下的灵敏度为1.8 V/Pa,信噪比为71 dB,最小可探测声压为99 μPa/Hz0.5。值得强调的是,该声传感器对声波的响应呈现“8”字形的方向依赖性,表明其具有识别声源方向的能力。进一步在户外测试了该光纤声传感器对mini-UAV的探测能力,结果表明,声传感器能够在65 m的范围内探测到mini-UAV噪声,其探测距离是商用驻极体声传感器的3倍左右。所研制的硅基MEMS轮形振膜光纤声传感器为解决实践中mini-UAV探测难的问题提供了一种简单有效的工具。
传感器 光纤声传感器 MEMS轮形振膜 迷你无人飞行器探测
1 长安大学汽车学院,陕西 西安 710018
2 长安大学信息工程学院,陕西 西安 710018
为了提升雨天车辆检测的精度,解决智能网联汽车的车辆检测系统受雨纹干扰导致精度衰退的问题,提出一种雨天车辆检测的两阶段渐进式图像去雨算法。该算法搭建了以轻量级特征提取与加权模块、高效率特征传递与融合模块为核心的两阶段渐进式去雨网络,实现了对雨纹信息的挖掘与捕获,完成了雨纹的精准去除。为了验证所提算法的有效性,融入基准车辆检测器YOLOv5,对输入YOLOv5的去雨图像进行检测。同时根据智能网联汽车的工作环境构建了混合车辆数据集。在该数据集上的结果表明:雨天交通场景下,相比其他算法,所提去雨算法对基准车辆检测器YOLOv5的精确率、召回率、mAP@0.5的增益分别为3.0个百分点、8.9个百分点、7.6个百分点,证明所提去雨算法能够显著提升对雨天车辆的检测精度,可应用于实际场景。
图像处理 图像去雨 图像增强 两阶段渐进式图像去雨算法 车辆检测 激光与光电子学进展
2023, 60(22): 2210006
1 北方工业大学电气与控制工程学院,北京 100144
2 北方工业大学信息学院,北京 100144
3 华北电力大学控制与计算机工程学院,北京 102206
智能交通系统的建立离不开车辆检测技术。目前的主流方案是使用卷积神经网络(CNN)架构进行车辆检测,然而在复杂交通场景中,远距离小目标像素点少,CNN的下采样机制导致提取的特征缺乏充足的上下文信息,因而小目标检测面临极大挑战。针对这个问题,提出了一种基于视觉Transformer的小目标车辆检测算法。所提算法通过改进Transformer的线性嵌入模块,补充小目标的线性嵌入信息;对图像进行层级构建,每层仅对局部进行关系建模,同时扩大感受野,代替CNN提取出更强有力的小目标车辆特征,实现端到端的精确检测。在UA-DETRAC车辆数据集上进行验证,实验结果表明,改进后的车辆检测算法提高了对远距离及严重遮挡情况下小目标的检测性能,检测精度达到99.0%。
机器视觉 车辆检测 小目标 图像增强 视觉Transformer 激光与光电子学进展
2022, 59(18): 1815016
1 沈阳理工大学自动化与电气工程学院, 沈阳 110000
2 中共辽宁省委党校, 沈阳 110000
针对传统目标检测算法对航拍影像中的车辆等小目标检测效果差的问题, 提出一种基于改进Faster R-CNN的无人机地物车辆检测算法。该算法在原始Faster R-CNN网络的基础上融合了FPN作为基础网络模型——FFRCNN, 采用ResNet-50代替原始VGG-16作为主要骨干网络进行多特征融合, 使用Focal Loss损失函数改善正负样本不均衡的情况。在改进网络的基础上, 使用空洞卷积将多尺度空间的特征信息进行融合, 提高网络的感受野, 更好地收集图像的上下文信息。实验结果表明, 改进后的检测算法平均精确度达到93.8%, 相较于原FFRCNN网络, 平均精确度提升了19.2%, 具有更好的鲁棒性。
深度学习 空洞卷积 车辆检测 deep learning Faster R-CNN Faster R-CNN Focal Loss Focal Loss atrous convolution vehicle detection
上海师范大学环境与地理科学学院,上海 200234
伴随着城市的发展,车辆数量在不断地增加。这一现象不仅增加了城市拥挤状态,而且还促使交通事故频发。要提高城市治理能力,就必须提高对城市车辆的监测能力。使用无人机对上海、赤峰地区的四个场景进行了低空摄影,获取了航空遥感影像数据,然后结合深度学习的Unet卷积神经网络技术对无人机影像中的车辆进行了单目标提取。结果表明,深度学习对无人机影像中车辆的识别能力远高于传统机器学习中的随机森林方法,达到了99%的超高精确度,且每个场景内汽车数的估算结果与真实数量极其接近。根据研究结果可知,将无人机和深度学习技术相结合的车辆检测方法具备实时性和现实可行性,可为城市的车辆实时监测和交通管理提供可靠的技术手段。
深度学习 无人机 遥感 车辆检测 城市管理 deep learning UAV remote sensing vehicle detection urban management
1 中国科学院 光电信息处理重点实验室,辽宁沈阳006
2 中国科学院 沈阳自动化研究所,辽宁沈阳110016
3 中国科学院 机器人与智能制造创新研究院,辽宁沈阳110169
4 中国科学院大学,北京10009
为了解决点云处理过程中空间信息损失的问题,同时在融合过程中最大程度地提取可见光图像的纹理信息,本文提出了一种基于特征切片的激光点云与可见光图像融合车辆检测方法(FVOIRGAN-Detection)。在CrossGAN-Detection方法中加入了FVOI(Front View Based on Original Information)的点云处理思路,将点云投影到前视角度并把原始点云信息的各个维度切片为特征通道,在不降低网络性能的情况下显著提高点云信息利用效率。并且引入了相对概率的思想,采用鉴别器鉴别图像的相对真实概率替代绝对真实概率,使得融合图像提取的纹理信息更加接近真实的纹理信息。在KITTI数据集上进行检测性能实验验证结果表明,本文方法在容易、中等和困难三个类别中的AP指标分别达到97.67%、87.86%和79.03%。在光线受限的场景下,AP指标达到了88.49%,与CrossGAN-Detection方法相比提高了2.37%,提高了目标检测的性能。
点云处理 空间信息 相对概率 GAN 特征切片 车辆检测 point cloud processing spatial information relative probability GAN feature slice vehicle detection 光学 精密工程
2022, 30(12): 1478
国防科技大学电子科学学院ATR重点实验室, 湖南 长沙 410073
对无人机群的红外视频进行监视是安防和**领域的新热点。由于复杂背景下无人机图像获取难度大,图像数量难以满足相关算法的模型训练和验证等需求,因此提出一种基于图像衍生的红外无人机图像仿真方法。采用该方法对红外无人机模板图像与红外背景图像进行混合,从而生成大量不同背景下的无人机目标图像。针对图像混合技术受背景噪声影响严重、无人机目标边缘模糊和合成图像调和度低等问题,采用一种无监督的生成式对抗网络来生成调和度较高的灰度约束图像,将其与目标梯度图像作为联合约束来求解高斯-泊松方程,得到与真实图像特征一致性较高的混合图像。实验结果表明,所提方法生成的混合图像具有较高的图像调和度和视觉真实性,说明所得图像作为扩充样本可有效提高机器学习算法的性能。
图像处理 红外探测 图像混合 无人机探测 数据增强