光学 精密工程
2023, 31(10): 1532
1 内蒙古科技大学机械工程学院, 内蒙古 包头 014010
2 内蒙古科技大学信息工程学院, 内蒙古 包头 014010
3 内蒙古工业大学, 内蒙古 呼和浩特 010051
提出了一种基于二维(2D)转三维(3D)骨架的实时检测双分支子网络,可实现2D骨架关键点的3D估计和2D、3D骨架特征融合的人体3D动作识别。在检测过程采用OpenPose框架实时获取视频中人体骨架的2D关键点坐标。在2D转3D骨架估计过程中,设计了一种输入为难样本且具有反馈功能的孪生网络。在3D动作识别过程中设计了一种2D、3D骨架特征双分支孪生网络,以完成3D姿态识别任务。在Human3.6M数据集上训练3D骨架估计网络,在基于欧拉变换的NTU RGB+D 60多视角增强数据集上训练骨架动作识别网络,最终得到的3D骨架动作识别交叉受试者准确率为88.2%,交叉视野准确率为95.6%。实验结果表明,该方法对3D骨架的预测精度较高,且具有实时反馈能力,可适用于实时监控中的动作识别。
图像处理 三维骨架估计 人体动作识别 多分支网络 多特征融合 激光与光电子学进展
2021, 58(24): 2410010
1 陕西科技大学 电气与控制工程学院, 西安 710021
2 西北工业大学 无人系统技术研究院, 西安 710072
3 陆军装备部 装备技术合作中心, 北京 100000
针对遥感图像背景复杂且存在某场景图像中关键物体小且尺度变化较大, 需提升模型表征能力来准确辨别各类场景的问题, 提出了一种深度多分支特征融合网络的方法进行遥感图像场景分 类.利用多分支网络结构提取高、中、低三个层次的特征信息, 将三个层次的特征进行基于拆分-融合-聚合的分组融合, 最后为了关注难辨别样本和标签位置损失, 提出一种损失函数.试验结果证明 , 本文所提出的方法对于提高分类准确率十分有效, 在UCM、AID和OPTIMAL三个数据集上的准确率超过其他算法.在数据集UCM上80%样本训练, 准确率达到了99.29%, 与ARCNet-VGG16算法相比分类准 确率提高了1.35%.在数据集AID上50%样本训练, 准确率达到了95.56%, 与Two-Stream算法相比提高了0.98%.在数据集OPTIMAL上80%样本训练, 准确率达到95.43%, 与ARCNet-VGG16算法相比提升 2.73%.
遥感图像 场景分类 多分支网络 特征融合 损失函数 Remote image Scene classification Multi branch network Feature fusion Loss function