作者单位
摘要
1 陆军工程大学石家庄校区电子与光学工程系, 河北 石家庄 050003
2 武警部队研究院, 北京 100012
3 北京跟踪与通信技术研究所, 北京 100094
在现有车载辅助驾驶系统中, 可见光成像系统难以有效应用于夜晚、 雨、 雾、 霾等低照度不良天气。 红外成像系统有效克服了上述不足, 但传统车载红外系统存在视场角小、 视野盲区大的缺点。 研究了超大视场红外系统的车载辅助驾驶应用, 提出了基于安全距离和成像尺寸联合约束的超大视场红外系统关键参数论证方法。 通过分析等距投影成像规律, 建立了超大视场红外系统车载应用的安全距离约束模型和成像尺寸约束模型, 以极限速度对应的探测最近距离和二维Johnson准则约束下的“发现”最远距离来验证超大视场红外车载系统的可行性, 计算了视场角等关键参数。 经过理论论证和分析, 超大视场红外车载系统的镜头焦距/像元尺寸范围需在[276.1 521.3]范围之内。 通过开展系统试验, 设计了水平视场角为140°的超大视场红外成像系统, 满足了对人的发现距离大于130 m的要求, 进而可用于车辆辅助驾驶。
红外成像 超大视场 Johnson准则 安全距离 Infrared imaging Ultra-field Johnson criterion Safe distance 
光谱学与光谱分析
2022, 42(11): 3601
作者单位
摘要
1 武警部队研究院 系统工程研究所, 北京 100012
2 军事科学院系统工程研究院 总体研究所, 北京 100012
3 武警北京市总队参谋部通信大队, 北京 100000
针对超大视场红外图像畸变大、与人眼视觉差异明显的问题, 提出了一种基于精确模型和逆投影的超大视场红外图像畸变校正算法以改善其视觉效果。该算法首先利用精确模型对超大视场红外相机成像中的物、像关系进行描述; 然后, 针对红外图像像素采样率不高的缺点, 利用较为精确的三次卷积插值法对图像进行插值来补全成像信息; 最后, 根据校正图像上的待赋值像点的坐标, 结合校正模型和超大视场红外相机精确模型, 计算该像点逆投影到插值图像时的对应坐标, 并以最近邻像点像素值作为校正后图像像点的赋值。车载道路场景下的超大视场红外图像畸变校正实验结果显示, 所提出的算法图像校正结果边界清晰、无锯齿效应, 对场景中的直线平均还原偏差小于0.35pixels, 表明该算法对超大视场红外图像畸变校正具有较好的适用性。
机器视觉 超大视场 红外成像 畸变校正 machine vision ultra-wide FOV infrared imaging distortion correction 
半导体光电
2021, 42(4): 546
作者单位
摘要
陆军工程大学石家庄校区电子与光学工程系, 河北 石家庄 050003
在红外光谱中, 大气对不同波长辐射透过率不同, 透过率较高的波段范围称为大气窗口。 为在大视场角范围内探测目标在长波红外光谱的辐射, 弥补传统可见光相机在复杂环境下不能探测目标的缺陷, 超大视场长波红外相机应运而生。 相比于传统可见光相机, 超大视场长波红外相机覆盖视场大, 能够用于夜间、 烟雾等复杂环境, 具有一定穿透效果。 双目超大视场长波红外立体视觉系统可用于车辆夜间辅助驾驶, 军用无人化作战平台全天候信息侦察等领域。 作为实现立体视觉的第一步, 标定的准确性严重影响立体视觉中物体三维重建精度, 因此提高标定准确性是立体视觉研究中的关键问题。 标定目的是求出立体视觉成像的内部参数和外部参数, 内部参数描述相机镜头成像的物像关系, 外部参数表示两个相机之间的相对位置关系。 但超大视场长波红外相机成像畸变严重、 分辨率低、 图像对比度低, 对立体视觉标定造成极大困难。 为准确标定超大视场长波红外立体视觉外部参数, 在Scaramuzza通用相机模型基础上提出了一种基于最小二乘法的外部参数标定方法; 为评价内外参数标定结果准确性, 以常用单目角点重投影误差评价内部参数为基础, 引入外部参数, 提出一种双目角点重投影误差评价方法。 为验证方法有效性和准确性, 使用主动红外辐射标定板生成角点, 分别采用视场角(FOV)为180°和210°的两组双目超大视场长波红外相机, 在不同位置上进行标定实验。 实验结果显示, 常用的Bouguet方法双目平均重投影误差(BMRE)在0.782~0.943 pixels, 而基于最小二乘法方法BMRE处于0.620~0.754 pixels, 实验数据表明该方法有效降低了双目角点重投影误差, 提高了外部参数标定准确性。 此外, 评价方法操作简便、 客观准确, 避免在评价过程中对物点三维重建从而引入额外误差, 并且不需要高精度三维坐标测量设备。
长波红外 立体视觉 标定 外部参数 最小二乘法 重投影误差 Long-wave infrared Stereo vision Calibration Extrinsic parameters Least squares optimization Reprojection error 
光谱学与光谱分析
2020, 40(9): 2670
作者单位
摘要
陆军工程大学石家庄校区电子与光学工程系, 河北 石家庄 050003
针对多尺度目标检测问题,提出一种基于深度注意力机制的多尺度红外行人检测方法。首先,选取较为轻量级的Darknet53作为深度卷积特征提取的主干网络,设计四尺度的特征金字塔网络负责目标的定位和分类,通过引入更低层高分辨率的特征图来改善对小尺度行人目标的检测性能。其次,利用注意力模块替代特征金字塔网络中传统的上采样模块,生成基于卷积特征的局部显著图,可以有效抑制不相关区域的特征响应,突出图像局部特性。最后,利用Caltech行人数据集和U-FOV红外行人数据集进行两次迁移训练,以提高模型的泛化能力,丰富行人的样本特征。实验结果表明,所提方法在U-FOV数据集上的识别平均准确率达到了93.45%,比YOLOv3高26.74个百分点,能检测到的最小行人像素为6×13。在LTIR数据集上的定性实验结果验证,所提模型具有良好的泛化能力,适用于多尺度红外行人的检测。
探测器 红外行人检测 卷积神经网络 超大视场 特征金字塔网络 注意力机制 
光学学报
2020, 40(5): 0504001
作者单位
摘要
1 陆军工程大学石家庄校区 电子与光学工程系, 石家庄 050003
2 中国人民解放军66350部队, 河北 保定 071000
摄像机标定通过求解摄像机的内外参数,获取空间物体三维坐标与图像二维坐标的对应关系,在计算机视觉中起到越来越重要的作用。介绍了摄像机标定技术中的常用坐标系及转换关系、摄像机成像的线性及非线性模型,以及三类典型的标定方法。相比于小视场,针对大视场摄像机标定方法的研究较少,重点针对六个方面的改进,归纳了国内外近年来大视场摄像机标定方法的研究进展。
计算机视觉 大视场摄像机标定 成像模型 标定板 computer vision large field of view camera calibration imaging models checker board 
半导体光电
2019, 40(3): 303
作者单位
摘要
陆军工程大学石家庄校区 电子与光学工程系, 石家庄 050003
小型机器人传统视觉方法对环境适应性差。提出了一种基于双目超大视场红外相机的环境感知方法。利用大视场镜头高阶奇次多项式模型, 建立了超大视场红外双目立体成像的水平和垂直视差数字模型。以视差模型为基础建立超大视场红外双目视觉模型, 研究了超大视场红外双目系统立体视觉范围和阈值。搭建了视场为170°×128°的超大视场红外立体视觉系统, 分析了立体视觉范围及阈值应用于小型机器人视觉的可行性。同时, 针对照度不均、雾霾等条件下的场景开展超大视场红外双目立体视觉实验研究, 构建了双目图像标准视差图, 结果表明, 超大视场红外双目立体视觉系统对复杂场景具有良好的适应性, 基本能够满足小型机器人视觉系统需求。
红外 超大视场 立体视觉 视差模型 视差图 infrared ultrawide field stereo vision parallax model disparity map 
半导体光电
2019, 40(2): 266
作者单位
摘要
陆军工程大学石家庄校区 电子与光学工程系, 石家庄 050003
针对传统可见光、红外小视场视觉定位系统易受光照条件影响、环境适应性差、视觉信息不足等缺陷, 提出了一种基于超大视场红外双目视觉的非线性极线约束与目标定位方法.利用全景相机畸变模型对超大视场红外相机成像过程的几何关系进行分析, 建立了一般结构的超大视场红外双目视觉系统成像模型, 完成了同名像点非线性极线约束方程的数理推导; 以此模型为基础, 研究了一种适用于超大视场红外双目视觉系统的目标三维空间定位解算方法.实验结果表明:不同环境照度场景中距离为1.75~8.05 m的8个目标点在极线方程约束下, 同名像点的匹配搜索由二维降为一维, 将匹配同名像点坐标带入三维空间定位解算方程, 距离误差在0.9%~7.0%之间, 较高的定位精度验证了所提方法的正确性, 以及超大视场红外双目视觉系统的空间定位能力与优势.
机器视觉 双目立体视觉 非线性极线约束 超大视场红外 空间定位 Machine vision Binocular and stereopsis Nonlinear epipolar constraint Ultra-wide field infrared Spatial positioning 
光子学报
2019, 48(2): 0211003
作者单位
摘要
陆军工程大学电子与光学工程系,河北石家庄 050003
为解决当前夜间辅助驾驶仪平面显示导致驾驶员无法正确判断景物纵深关系的问题,本文提出利用平行式红外双目立体系统进行夜间辅助驾驶的方案。针对红外探测器分辨精度低导致观看红外立体影像时立体盲区占立体区比重过大的问题,本文通过分析对比平行式红外双目系统和肉眼的立体感知精度,结合 Panum融合区理论,对红外立体影像立体区间进行界定,并对立体区间所对应的基线长度范围进行推导。根据推导结果,计算分析 3组不同场景下基线长度所满足的最小值,并以得到的最小值为基准获取 5组不用基线长度下的视差图。最后通过虚拟现实显示装置验证了推导结果的正确性。该结果可用于指导红外双目系统参数的选取和搭建。
辅助驾驶 红外双目立体系统 立体感知误差 基线长度 driver assistant infrared binocular stereo system stereo perception error baseline length 
红外技术
2018, 40(12): 1130
刘秉琦 1,*余皓 1闫宗群 2张瑜 3[ ... ]张帅 1
作者单位
摘要
1 陆军工程大学石家庄校区电子与光学工程系,河北石家庄 050003
2 装甲兵工程学院控制工程系,北京 100072
3 北京系统工程研究所,北京 100101
利用逐线积分方法,建立了一种均匀大气中氧气 A吸收带平均透过率快速计算模型。模型采用等波数间隔取样,能根据大气温度和压强自动选择谱线线形,并利用直和模型进行快速近似计算 Voigt线形函数。在不同大气模式下设置不同传输路径,利用该模型计算氧气 A带平均透过率与路径长度关系曲线,并将计算结果与 Modtran软件计算结果进行对比。从对比结果可知,不同路径下模型计算的平均氧气透过率最大相对误差均小于 2%,计算时间均小于 1s,具有较高的准确度和计算实时性。计算结果表明该模型能够在均匀大气中对氧气 A带平均透过率进行快速准确计算。
气体光谱 逐线积分 氧气 A吸收带 平均透过率 gas spectra line-by-line the oxygen A absorption band average transmission 
红外技术
2018, 40(11): 1056
作者单位
摘要
陆军工程大学石家庄校区 电子与光学工程系, 石家庄 050003
针对大视场红外凝视成像系统中非相似成像对目标形状、运动规律产生畸变影响而造成的跟踪困难, 提出了一种基于梯度熵权的目标质心定位模型, 并结合卡尔曼滤波实现了大视场中多目标跟踪.该模型利用灰度梯度来描述小目标的概率分布, 并求取目标8个方向区域内的梯度熵权, 来表示目标不同位置与质心的相关程度.提出了多方向最大梯度法来提取大视场中的天地分界线, 确定深空背景区域, 通过背景抑制提取航迹起始点.采用线性路径规划方法, 解决了目标相遇时卡尔曼滤波模型之间的互相干扰问题.实验结果表明: 所提方法在视场角为70°和180°的三种背景下, 可准确跟踪多个航模、飞机和导弹目标, 与传统跟踪方法相比, 跟踪中心定位误差低、准确率高, 平均帧速提高了约1.5倍.
红外大视场 目标跟踪 卡尔曼滤波 航迹起始点 梯度熵权质心定位模型 Infrared wide-field Target tracking Kalman filter Starting point Gradient entropy weighted centroid model 
光子学报
2018, 47(11): 1110002

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!