陈凯余 1,2,3,4,5李颖 1,2,3,4李政岱 1,2,3,4郭友明 1,2,3,4,*
1 中国科学院自适应光学重点实验室,四川 成都 610209
2 中国科学院光电技术研究所,四川 成都 610209
3 中国科学院大学,北京 100049
4 中国科学院大学电子电气与通信工程学院,北京 100049
5 光场调控科学技术全国重点实验室,四川 成都 610209
无透镜成像系统使用掩模板替代镜头,在降低成本的同时使设备更加轻巧,然而在进行目标识别前需通过计算重建图像,涉及参数调优和计算耗时问题。基于此,提出一种无重建的目标识别方案,直接在无透镜相机拍摄的编码图像上训练网络识别目标,在节约计算资源的同时还提供隐私保护。使用具有相位掩模板和振幅掩模板的无透镜相机,仿真生成MNIST与Fashion MNIST数据集和实采MNIST数据集,然后在这些数据集上训练ResNet-50与Swin_T网络进行目标识别。结果表明,在仿真MNIST、Fashion MNIST和真实MNIST数据集上,所提方案的最高识别准确率达99.51%、92.31%和98.06%,与先重建目标后识别方案的准确率相当,证明所提方案是一种高效的、具有隐私保护的端到端方案,且在两种掩模板和两类常规骨干分类网络上得到了验证。
计算成像 目标识别 深度学习 无透镜成像 激光与光电子学进展
2024, 61(8): 0811008
1 中国科学院西安光学精密机械研究所,西安 710119
2 中国科学院大学,北京 100039
针对光路对接准直目标识别算法对双目标粘连状态无法判别的问题,提出了基于二进制大对象(Binary Large Object,BLOB)区域和边缘特征分析的准直图像双光学目标识别方法。首先,对二值化图像进行数字形态学处理,计算全图各BLOB区域的面积、中心、轴长、区域、有效BLOB区域个数等信息。其次,对有效BLOB区域个数大于1的完全分离双目标准直图像,统计各BLOB区域中心分别为位于两个面积最大的BLOB区域内的BLOB数量,数量小的候选BLOB区域为主激光目标,数量大的候选BLOB区域为模拟光目标。然后,对于有效BLOB区域个数等于1的待识别图像,从左、右、上、下4个方向分别提取模板边缘图像的有效坐标序列和待识别边缘图像坐标序列,搜索有效坐标序列和待识别边缘图像坐标序列的最大相关系数对应的有效坐标序列。当4个方向的相关系数全部大于0.95时,待识别图像为模拟光目标;当4个方向的相关系数都小于0.95时,待识别图像为主激光目标;否则待识别图像为粘连图像。实验结果表明:提出的双光学目标识别算法,不仅能够识别完全分离的模拟光目标和主激光目标,误差小于3个像素,处理时间小于1 s,而且能够判别处于粘连状态的光学目标和单个独立的光学目标,满足光路对接准直图像识别算法对于自适应性、精度和效率的要求。
光路对接准直 BLOB区域 边缘特征分析 双光学目标识别 粘连图像识别 Optical path docking collimation BLOB region Edge feature analysis Dual optical target recognition Adhesion image recognition
1 长春理工大学物理学院,吉林 长春 130022
2 长春理工大学吉林省光谱探测科学与技术重点实验室,吉林 长春 130022
3 吉林求是光谱数据科技有限公司,吉林 长春 130000
目前的显微光谱成像系统的探测模块主要以推扫型光谱成像仪为主,无法进行动态微观样本的观测。基于超材料宽谱调制型光谱成像技术体制,使用该原理研制的快照式光谱相机作为探测模块,其与显微镜模块形成新型的快照式显微光谱成像系统。该系统可实时获取样本的光谱曲线与光谱图像信息。同时利用该系统获取不同藻类的吸收光谱曲线,进一步使用基于支持向量机的图像分割识别算法,对水中的动态藻类样本进行识别。共测试样本80个,预测结果准确率为100%,召回率为65.52%,为快照式光谱成像技术在显微领域的应用奠定基础。
显微镜 光谱成像 快照式 吸收光谱 目标识别 激光与光电子学进展
2024, 61(6): 0618023
针对合成孔径雷达(SAR)目标识别问题, 设计并提出基于改进稀疏表示的方法。首先以传统稀疏表示分类(SRC)为基础, 在全局字典上求解稀疏表示系数矢量。在此基础上, 按照类别选择局部最佳字典, 并据此进行测试样本的重构表示, 最终, 通过比较不同类别的重构误差大小进行目标类别确认。实验中采用MSTAR数据集作为样本进行测试和验证。结果证明了所提方法的性能优势。
合成孔径雷达(SAR) 目标识别 改进稀疏表示 局部字典 Synthetic Aperture Radar (SAR) target recognition modified sparse representation local dictionary
北京理工大学 光电学院 “复杂环境智能感测技术”工信部重点实验室, 北京 100081
针对激光惯性约束核聚变实验中海量靶丸筛选效率低的问题, 提出一种基于改进YOLO-v5深度学习模型的靶丸快速筛选方法。方法通过控制靶丸在不同的景深处成像, 并将图像拼接在一起以获得其清晰图像; 同时引入通道注意力机制来增强模型的特征提取能力, 建立了SE-YOLOV5s深度学习靶丸表面缺陷识别模型, 并对靶丸缺陷按照缺陷种类进行了分类和评估从而实现对海量靶丸的筛选。靶丸表面缺陷检测的准确率为94.4%, 每秒可检测到约50张靶丸图像(分辨率3072×4096), 为激光惯性约束核聚变试验提供一种快速、准确筛选海量靶丸的方法。
应用光学 聚变靶丸 目标识别 深度学习 YOLO算法 applied optics ICF capsules target identification deep learning YOLO algorithm
1 联想集团 神奇工场通讯技术有限公司,北京 100089
2 北京工商大学 计算机与人工智能学院,北京 100048
3 北京工商大学 中国轻工业工业互联网与大数据重点实验室,北京 100048
基于手机成像质量颜色评价的必要性,提出一种融合相机主观场景成像色彩和白平衡的自动评测方法(CIQA),以充分提取彩色图像相关特征并模拟人眼视觉感知特性来评价图像颜色。首先使用尺度不变特征变换(Scale-invariant feature transform,SIFT)与透射变换相结合的方法,标识主观图像中ColorChecker标准二十四色卡对应的位置;而后构建离差率最小二乘法模型,并采用专家赋权法和熵权法计算色彩还原和白平衡指标权重分配比例;最后,通过多指标权重值对TOPSIS(Technique for Order Preference by Similarity to an Ideal Solution)进行改进,确定各方案与典型正负理想方案的接近程度,实现对智能手机成像质量颜色的优劣排序。对真实场景采集的图片进行实验,并与现有的两种决策方法进行对比验证。结果表明,所提方法能提高评价效率、节省人力,并可以获得与人眼主观判断一致性较好的评价结果。
目标识别 指标 离差率最小二乘法 颜色 智能手机 target recognition indicator deviation least square method color smart phone
1 微米纳米加工技术全国重点实验室, 上海 200241
2 上海交通大学 微纳电子学系, 上海 200241
近年来仿生扑翼飞行器利用视觉系统自主飞行成为一个具有广泛前景的研究方向, 然而, 其有限的带载能力对视觉传感器的类型、尺寸和重量提出了严格要求。目前商用图像处理模块的尺寸和重量较大, 且需要回传图像信息至地面控制系统处理, 文章旨在设计一款轻量化机载单目视觉系统, 帮助微型仿生扑翼飞行器获取外界信息并实现智能自主的飞行。相比于其他图像处理模块, 此系统以国产高算力芯片K210为核心进行设计, 可脱离电脑端完成图像处理, 尺寸仅为2.2cm×2.3cm, 重量仅为3g, 内部兼容轻量化网络模型实现分类识别, 通过串口进行信息交互, 控制扑翼飞行器实现手势识别和目标追踪。
仿生飞行器 单目视觉系统 卷积神经网络 轻量化 目标识别 机载图像处理 串口通信 自主飞行 bionic aircraft monocular vision system convolution neural network lightweight target recognition onboard image processing serial communication autonomous flight
强激光与粒子束
2023, 35(6): 069002