红外与激光工程
2021, 50(3): 20200148
1 中国科学院国家空间科学中心复杂航天系统电子信息技术重点实验室, 北京 100190
2 中国科学院大学, 北京 100049
随着无人机技术在**、民用等领域的广泛运用,高精度、低功耗智能无人机跟踪系统的需求也日益增多。针对无人机跟踪任务中目标尺度变化大、视野角度多变、遮挡等问题,提出了一种基于轻量级Siamese注意力网络的无人机实时跟踪算法。首先,选取易于部署在嵌入式设备中的轻量级卷积神经网络MobileNetV2作为特征提取主干网络;接着,设计通道空间协同注意力模块,增强模型的适应能力与判别能力;然后,搭载区域建议网络,通过互相关获取前景背景分类和边界框回归响应图;最后,加权融合多层响应图,调整候选区域筛选策略,计算得到更加准确的跟踪结果。在无人机跟踪数据集上的仿真实验结果表明,相对于当前主流算法SiamRPN,该算法跟踪精度提升了3.5%,能更好地应对复杂多变的场景。同时,在NIVIDA RTX 2060 GPU上,跟踪速度达到60 frame/s。
机器视觉 目标跟踪 Siamese网络 MobileNet 通道注意力 空间注意力 协同注意力 光学学报
2020, 40(19): 1915001
1 中国科学院国家空间科学中心 复杂航天系统电子信息技术重点实验室, 北京 100190
2 中国科学院大学, 北京 100049
3 长春大学, 吉林 长春 130022
针对Edge Boxes算法召回率不高的问题, 并结合目标的显著性检测, 提出了一种基于颜色距离与Edge Boxes候选区域算法。首先利用结构化边缘检测算子获取图像的边缘特征, 并通过边缘点聚合及边缘段相似性策略, 获取每个边缘段的权值; 其次, 在待检测图像上无重叠采样若干图像块, 记作C图像块, 并将C图像块向周边延拓像素, 获取S图像块; 然后, 根据颜色直方图, 计算两图像块各颜色通道的卡方距离, 并赋予合适权重作为该C图像块的显著性得分; 最后, 统计滑动窗口内边缘段的数量和C图像块数, 确定候选区域。在PASCAL VOC 2007验证集上实验, 当交并比取05, 0.6, 0.7, 候选区域个数为2 000时, 与Edge Boxes相比, 所提算法的召回率分别提高了0.46%, 0.35%, 0.57%。每张图像的运行时间大约为0.43 s, 这表明, 所提算法以牺牲微小计算资源却能够有效改善候选区域质量。
显著性目标 颜色距离 目标检测 候选区域 salient object color distance object detection region proposals
1 中国科学院国家空间科学中心复杂航天系统电子信息技术重点实验室, 北京 100190
2 中国科学院大学, 北京 100049
为提高复杂场景中目标跟踪算法的准确性与实时性,提出一种基于多层深度卷积特征的抗遮挡实时目标跟踪算法。针对目标跟踪任务,先对深度卷积网络VGG-Net-19进行微调,再提取目标区域的多层深度卷积特征。根据相关滤波框架构建位置相关滤波器,确定目标中心位置。设计尺度相关滤波器对目标区域进行不同尺度采样,确定目标尺度。目标遮挡时,采用阶段性评估策略进行模型更新与恢复,解决模型误差积累问题。选取目标跟踪评估数据集OTB-2015(100组视频序列)与UAV123(123组视频序列)进行测试。实验结果表明,本文算法具有更高的准确性,能够适应目标遮挡、外观变化及背景干扰等复杂情况,平均速度为29.6 frame/s,满足目标跟踪任务的实时性要求。
机器视觉 目标跟踪 深度卷积特征 相关滤波 模型恢复