基于显著性检测的增强现实混合跟踪注册方法 下载: 928次
1 引言
在增强现实系统中,往往需要对运动目标叠加虚拟信息,以提升人们对客观事物的感知。例如在机械装配维修中,为运动的机械部件添加虚拟装配提示文字或图像,以辅助用户操作等[1],类似的应用广泛适用于教育、医学、**等各个领域[2]。增强现实系统一般包括光学系统、三维跟踪注册和实时交互等内容[3],而跟踪注册实现了虚拟信息与真实环境的配准与融合,是增强现实技术实现的关键和难点。
目前运动目标的跟踪注册问题,大多数都是基于特征点的跟踪与匹配策略,该策略采用基于特征点的跟踪方式实现[4],如光流法[5]。但是该方法受噪声影响大,尤其是在复杂环境中,特征点检测不稳定。目标移动可能会造成特征点丢失且无法找回的问题,那么在长时间的跟踪中,误差的累积将无法保证跟踪注册的持续稳定性,从而导致虚拟模型注册失败。均值漂移算法[6-8]是一种基于区域的生成类跟踪算法,该方法运算简单快速,具有边缘遮挡、目标旋转、形变不敏感等诸多优势。Vojir等[7]提出尺度自适应均值漂移算法,在均值漂移算法中加入了尺度估计机制,并引入背景加权(BRW)区分目标和背景区域,提高了跟踪器的性能,但是长时间跟踪易丢失的问题没有得到很好的解决;刘斌等[9]基于四通道不可分小波的目标区域分割提高了均值漂移算法对噪声干扰、目标形变、尺度变化的跟踪效果,但是没有充分考虑受遮挡情况;胡威[10]结合卡尔曼滤波和帧差法减少了均值漂移算法的匹配迭代次数和快速运动目标丢失的问题,但是在复杂背景下跟踪准确率还有待提高。在目标的特征检测方面,熟悉的特征检测算法有尺度不变特征变换(SIFT)[11]、快速稳健特征(SURF)[12]等,虽然SIFT和SURF可以检测出大量稳定可靠的特征点,但是计算复杂,达不到增强现实系统实时性的要求。而二进制描述(ORB)[13]算法,在计算速度方面,比 SIFT 高出2个数量级,比 SURF高出1个数量级,且效果不亚于另外两种算法。
在目标跟踪方面,上述方法已经进行了很大的改进,但它们仅从噪声干扰、目标丢失等某一方面去完善,因此整体的跟踪效果仍可提高,且针对基于特征点跟踪与匹配的跟踪注册方法,尤其在一些复杂场景中,目标跟踪检测的准确率不高,甚至受严重遮挡以后特征点跟踪失败所存在的问题的影响,本文将改进的基于区域的跟踪方法与基于局部特征点检测方法相结合,首先将显著性检测运用到目标跟踪框架中,并利用均值漂移算法的运算机制预测中心位置,生成结合中心先验的显著图,有效降低非目标背景区域的影响;其次引入形变多样相似性匹配(DDIS)机制,如果目标丢失,则使用模板匹配重新定位目标以继续跟踪,提高连续跟踪的稳定性;然后得到准确的待注册目标区域,并缩小特征检测空间,此时对局部目标区域采用改进尺度不变性的ORB算法进行特征点检测与匹配,并采用随机抽样一致性(RANSAC)[14]算法优化特征匹配质量;最后计算得到注册参数完成三维注册。利用本文方法对视频序列图像进行测试,通过实验验证,表明本文方法提高了跟踪精度,并有效解决目前跟踪注册方法中误差累计导致模型注册渲染失败的问题。本文方法在保持实时性的同时,跟踪注册效果更加稳定。
2 混合跟踪注册
本文混合跟踪注册主要分为4个部分,显著性检测模块、均值漂移算法跟踪模块、DDIS目标重定位模块和三维注册模块,
2.1 基于中心先验的显著性检测
2.1.1 显著性检测算法
视觉注意机制能够对输入的图像序列进行有选择的处理,为目标跟踪算法筛选出有用信息,并且能够降低信息处理的计算量,从而提高信息处理的效率。
HC算法[15]是一种基于全局颜色对比度的显著性检测算法,一个像素的显著值是通过与图像中的所有其他像素的色差来定义的。视频序列图像
式中:
式中:
式中:
2.1.2 融合中心先验的显著性检测
在实际场景中,由于复杂背景的影响,目标区域可能不是唯一生成的显著区域,从而会影响目标跟踪注册的质量,为此本文将中心先验与显著性检测融合,得到更加合理的显著图。而传统的中心先验理论以人的经验(重要的景物通常会位于视野的中央)作为图像显著性检验的先验知识,但是其更多地强调图像中心部分,会导致偏离中心的目标区域检测效果的下降[16],因此基于采用均值漂移算法得到的目标预测位置来估计显著性目标区域,建立一个峰值位于候选目标预测中心位置
式中:(
另外,为避免预测位置误差累计导致的中心偏差,在计算中心先验值时进行校正,即
式中:
本文通过相乘的方式将2.1.1节中得到的显著图与中心先验图进行融合,从而得到以目标预测中心位置形成的图像显著值,表达式为
采用基于均值漂移算法得到目标预测位置的方法来估计较为可靠的显著区域,滤除由复杂背景引起的非目标区域的噪声,并且突出目标区域的显著性特征,显著性检测效果如
图 2. 结合中心先验的显著性仿真结果。(a)原图像;(b)全局显著图;(c)中心先验显著图
Fig. 2. Simulation results of salience combined with center prior. (a) Original image; (b) global salience map; (c) salience map with center prior
2.2 结合显著性检测的均值漂移算法
均值漂移算法[6-8]是一种基于密度梯度上升的无参数估计方法。它采用目标的颜色直方图作为描述特征,利用相似度量函数计算目标模型和候选目标模型的相似性,通过不断迭代均值漂移向量使得算法收敛于目标的真实位置,从而达到跟踪的目的。然而其会受到相似颜色背景的干扰,导致无法得到正确的搜索目标。而采用2.1节的方法来检测目标显著性,可以均匀地突出目标,有效筛选显著信息,因此,本文将基于中心先验的显著性检测算法融合到均值漂移算法的框架中。对视频序列进行显著性检测,根据(6)式中计算得到的显著值,采用统计直方图的方法来描述目标模型,那么在初始帧的目标搜索框中,目标模型特征值
式中:
同样地,假设在当前帧中,候选目标区域内以
式中:
利用Bhattacharyya系数计算目标模型
式中:
2.3 DDIS重定位
利用动态跟踪窗口,采用均值漂移算法来解决连续目标跟踪的问题,但是当背景杂乱或目标遮挡时,会影响目标跟踪效果甚至丢失目标。因此,将第一帧图像选择的跟踪注册目标保存为模板图像,利用(9)式计算此时的相似系数,若小于阈值0.2,则认为目标丢失,此时采用形变多样相似性模板匹配算法对目标进行遍历映射,重新搜索目标,然后继续采用均值漂移算法进行目标跟踪,实现连续、准确的跟踪,增强系统的完整性。
DDIS[18] 是一种依赖于局部外观和几何信息的新的模板匹配度量方法,它对背景杂波、目标形变和受遮挡情况具有稳健性。DDIS包括外观和形变两个相似性度量部分。定义
式中:
定义
定义
式中
2.4 基于多尺度的ORB目标特征检测
利用混合跟踪方法得到待注册目标区域,对目标区域进行尺度空间ORB特征检测,得到具有尺度不变性和旋转不变性的二进制描述子,采用汉明距离匹配以后通常还存在错误匹配,这时采用随机抽样一致性算法进一步剔除错误匹配,由此计算出注册参数,完成虚拟信息的注册。
2.4.1 特征点提取与描述
ORB由FAST特征检测和BRIEF描述符组成,虽然能够很好地抵抗图像的缩放、仿射和旋转变化,但是不具有尺度不变性。因此首先构建8层尺度金字塔,由原始图像作为第一层,原始图像1.5倍采样作为第二层,然后分别进行2倍下采样并将这两个序列图像交叉放置。为了既能精确检测特征点又能提高运算速度,采用每层中仅有一张不同模糊程度的图像。对图像进行FAST特征检测,如
式中:
图 3. 特征提取示意图。(a) FAST特征检测;(b) BRIEF特征描述子
Fig. 3. Schematics of feature extraction. (a) FAST feature detection; (b) BRIEF feature descriptor
BRIEF是一种二进制描述子,对图像进行高斯滤波平滑处理以后,以某一特征点
式中:
BRIEF描述子不具有旋转不变性, 针对旋转性问题,ORB算法采用灰度质心法给每个特征点赋予方向信息,使描述向量具有旋转不变性,得到最终的描述子
2.4.2 特征点匹配
采用汉明距离进行特征匹配,通过按位“异或”运算完成两个特征点的ORB描述符,得到两者的汉明距离。进行距离度量以后,仍旧存在着大量错误匹配,为提高注册精度,采用随机抽样一致性算法剔除错误匹配对,最终效果如
图 4. 特征匹配示意图。(a)汉明距离匹配;(b)剔除错误匹配
Fig. 4. Schematic of feature matching. (a) Hamming distance matching; (b) eliminating mismatches
3 实验结果与分析
本实验硬件配置为处理器Intel(R)Core(TM)i7-6700 CPU,3.40 GHz,内存32 G,Windows 7操作系统,运行平台为Matlab 2015b和Visual Studio 2015,基于OpenCV计算机视觉库和OpenGL图形库,摄像头为罗技 C270,手动标记目标在第一帧中的位置。
为验证算法的跟踪性能,将其与4种算法进行对比,具体包括尺度自适应均值漂移算法(ASMS)[6]、时空上下文跟踪算法(STC)[19]、基于单一颜色特征的粒子滤波算法(PF)[20]、基于角点的光流跟踪算法(LK)。其中,PF、ASMS是与本文方法类型一致的生成类目标跟踪算法,STC是与本文方法类型不同的判别类目标跟踪算法,LK是基于特征点跟踪的目标跟踪算法,它是目前增强现实跟踪注册中主流的跟踪算法。选取的视频数据集Box序列和Liquor序列分别包含背景杂波以及目标部分遮挡和完全遮挡的情况。
3.1.1 运动目标跟踪结果及分析
跟踪结果如
图 5. 各算法的跟踪结果。(a) Box序列;(b) Liquor序列
Fig. 5. Tracking results of different algorithms. (a) Box sequence; (b) Liquor sequence
为更加直观地表示各跟踪算法的跟踪精度,采用中心误差[21]进行定量分析,如
图 6. 各算法的中心位置误差。(a) Box序列;(b) Liquor序列
Fig. 6. Central position errors of different algorithms. (a) Box sequence; (b) Liquor sequence
表 1. 各算法平均中心误差
Table 1. Average central errors of different algorithmspixel
|
表 2. 各算法的平均速度对比
Table 2. Comparison of average tracking speeds of different algorithmsframe/s
|
图 7. Box序列跟踪注册结果。(a) ORB特征与光流法;(b)本文方法
Fig. 7. Tracking registration results of Box sequence. (a) ORB feature and optical flow method; (b) proposed method
图 8. Liquor序列跟踪注册结果。(a) ORB特征与光流法;(b)本文方法
Fig. 8. Tracking registration results of Liquor sequence. (a) ORB feature and optical flow method; (b) proposed method
3.1.2 算法时间对比与分析
3.2 运动目标的注册结果对比及分析
对视频每一帧场景进行渲染注册,将虚拟彩色立方体渲染到盒子和瓶子的正前方。截取4个不同阶段的跟踪注册情况,如
4 结论
针对目前增强现实系统基于特征点的跟踪注册方法存在的问题,本文采用中心先验的显著性检测,抑制相似背景区域对运动目标的干扰,提高了均值漂移算法的跟踪准确性,并且结合DDIS算法,在目标丢失时重新初始化目标,保证了跟踪注册的稳定性和准确性。在跟踪到的待注册目标的基础上采用ORB算法进行特征检测,在保持尺度、旋转等不变的同时,确保运算速度和准确性。实验结果表明,本文增强现实混合跟踪注册方法在复杂背景下具有更好的精确性,在目标受遮挡或者目标丢失等长时间跟踪的场景中,依旧可以较为准确地进行注册,因此具有更好的稳定性。本文方法对纹理丰富的对象有很好的适用性,但是没有考虑到基于特征点方式对于弱纹理或者无纹理对象可能出现的跟踪注册失败的问题。下一步拟从轮廓特征的角度,研究无纹理物体的增强现实跟踪注册姿态求解问题。
[1] 王月, 张树生, 白晓亮. 点云和视觉特征融合的增强现实装配系统三维跟踪注册方法[J]. 西北工业大学学报, 2019, 37(1): 143-151.
[2] 周雅, 闫达远, 王涌天, 等. 一种增强现实系统的三维注册方法[J]. 中国图象图形学报, 2000, 5(5): 430-433.
[3] 安喆, 徐熙平, 杨进华, 等. 基于语义目标匹配的三维跟踪注册方法[J]. 光学学报, 2018, 38(12): 1212002.
[4] 李炎, 尹东. 基于TLD的增强现实跟踪注册方法[J]. 系统仿真学报, 2014, 26(9): 2062-2067, 2072.
[5] 张志禹, 刘耀阳. 基于SURF与光流法的增强现实跟踪注册[J]. 计算机工程与应用, 2015, 51(3): 166-170.
Zhang Z Y, Liu Y Y. Tracking and AR registration based on SURF and optical flow method[J]. Computer Engineering and Applications, 2015, 51(3): 166-170.
[6] ComaniciuD, RameshV, MeerP. Real-time tracking of non-rigid objects using mean shift[C]∥Proceedings IEEE Conference on Computer Vision and Pattern Recognition. CVPR 2000 (Cat. No.PR00662), June 15-15, 2000, Hilton Head Island, SC, USA. New York: IEEE, 2000: 6651771.
[7] Vojir T, Noskova J, Matas J. Robust scale-adaptive mean-shift for tracking[J]. Pattern Recognition Letters, 2014, 49: 250-258.
[8] 初红霞, 谢忠玉, 王科俊. 一种结合颜色纹理直方图的改进型Camshift目标跟踪算法[J]. 西安交通大学学报, 2018, 52(3): 145-152.
[9] 刘斌, 郑凯凯. 基于四通道不可分小波的均值漂移目标跟踪方法[J]. 量子电子学报, 2018, 35(1): 13-22.
[10] 胡威. 一种新的Meanshift快速运动目标鲁棒跟踪方法[J]. 计算机应用与软件, 2014, 31(1): 140-143.
[11] 佟国峰, 李勇, 刘楠, 等. 大仿射场景的混合特征提取与匹配[J]. 光学学报, 2017, 37(11): 1115003.
[12] 陈波, 孙天齐, 刘爱新. 散斑噪声对基于特征点匹配的图像配准的影响[J]. 激光与光电子学进展, 2017, 54(12): 121103.
[13] RubleeE, RabaudV, KonoligeK, et al. ORB: an efficient alternative to SIFT or SURF[C]∥2011 International Conference on Computer Vision, November 6-13, 2011, Barcelona, Spain. New York: IEEE, 2011: 2564- 2571.
[14] 方文辉, 陈熙源, 柳笛. 基于改进Harris的低动态载体速度的快速计算方法[J]. 光学学报, 2018, 38(4): 0415001.
[15] Cheng MM, Zhang GX, Mitra NJ, et al. Global contrast based salient region detection[C]∥CVPR 2011, June 20-25, 2011, Colorado Springs, CO, USA. New York: IEEE, 2011: 409- 416.
[16] 贺超, 陈振学, 刘成云. 自底向上的图像显著目标检测研究[J]. 光电子·激光, 2016, 27(8): 886-892.
[17] 周帅骏, 任福继, 堵俊, 等. 融合背景先验与中心先验的显著性目标检测[J]. 中国图象图形学报, 2017, 22(5): 584-595.
[18] TalmiI, MechrezR, Zelnik-ManorL. Template matching with deformable diversity similarity[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. New York: IEEE, 2017: 1311- 1319.
[19] Zhang KH, ZhangL, Liu QS, et al. Fast visual tracking via dense spatio-temporal context learning[M] ∥Fleet D, Pajdla T, Schiele B, et al. Computer vision-ECCV 2014. Lecture notes in computer science. Cham: Springer, 2014, 8693: 127- 141.
[21] 吴世东, 鲍华, 张陈斌, 等. 基于视觉显著性特征的粒子滤波跟踪算法[J]. 中国科学技术大学学报, 2015, 45(11): 934-942.
Article Outline
高凡一, 党建武, 王阳萍. 基于显著性检测的增强现实混合跟踪注册方法[J]. 激光与光电子学进展, 2019, 56(24): 241504. Fanyi Gao, Jianwu Dang, Yangping Wang. Hybrid Tracking Registration of Augmented Reality Based on Salience Detection[J]. Laser & Optoelectronics Progress, 2019, 56(24): 241504.