作者单位
摘要
陆军工程大学石家庄校区车辆与电气工程系, 河北 石家庄 050003
基于卷积神经网络(CNN)的目标位姿估计模型的损失函数大多采用两点之间的欧氏距离作为评判准则,虽然该损失函数计算简单、运算速度快,但训练规则不够全面、缺乏对目标的全局认识。针对这一问题,提出了一种基于组合型损失函数的ComPoseNet模型,并进行位姿估计。此模型中的损失函数从空间学习的角度出发,同时利用两点欧氏距离、两点直线和两点直线角度等作为训练规则。相比传统损失函数,此算法分别从点、线以及角度方面考虑了目标的空间整体位置,进一步减小了估计位姿与真实位姿之间的误差,位姿估计得以改善。在LineMod数据上进行大量的实验和分析,结果表明,在相同的训练次数情况下,本文算法比传统算法收敛速度快、精度高、误差小,其中平移误差降低了7.407%,角度误差降低了6.968%。
图像处理 损失函数 位姿估计 深度学习 神经网络 计算机视觉 
激光与光电子学进展
2019, 56(22): 221002
作者单位
摘要
军械工程学院, 河北 石家庄 050003
当前卷积神经网络结构未能充分考虑RGB图像和深度图像的独立性和相关性,针对其联合检测效率不高的问题,提出了一种新的双流卷积网络。将RGB图像和深度图像分别输入到两个卷积网络中,两个卷积网络结构相同且权值共享,经过数次卷积提取各自独立的特征后,在卷积层根据最优权值对两个卷积网络进行融合;继续使用卷积核提取融合后的特征,最后通过全连接层得到输出。相比于以往卷积网络对RGB-D图像采用的早期融合和后期融合方法,在检测时间相近的情况下,双流卷积网络检测的准确率和成功率分别提高了4.1%和3.5%。
机器视觉 RGB-D 卷积神经网络 多模态信息 联合检测 深度学习 
激光与光电子学进展
2018, 55(2): 021503
作者单位
摘要
陆军工程大学石家庄校区, 河北 石家庄 050003
针对当前彩色图像和深度图像(RGB-D)特征融合困难、联合识别效率不高的问题,提出了一种结合K奇异值分解(KSVD)和最大相关最小冗余准则(mRMR)的RGB-D场景图像融合算法。该算法首先采用KSVD稀疏图像的特征,将稀疏系数对应的字典原子作为特征融合的参数,以完整地表达图像的全部信息;之后采用互信息的mRMR原则求取维度最小且各维度之间相关性最小的特征原子组合;最后通过最大化原则融合特征原子对应的稀疏系数,从而完成了两种图像之间的有效信息融合。实验结果表明,该算法在信息熵、互信息和边缘保持度等方面比主成分分析-K奇异值分解和非下采样轮廓变换-K奇异值分解融合算法更有优势,有效提高了图像目标的识别准确率和成功率。
机器视觉 图像融合 K奇异值分解 互信息 RGB-D 
光学学报
2018, 38(1): 0115003

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!