激光与光电子学进展, 2020, 57 (6): 061012, 网络出版: 2020-03-06   

基于激光点云全局特征匹配处理的目标跟踪算法 下载: 1624次

Object Tracking Algorithm Based on Global Feature Matching Processing of Laser Point Cloud
作者单位
1 国防科技大学电子对抗学院脉冲功率激光技术国家重点实验室, 安徽 合肥 230037
2 安徽省电子制约技术重点实验室, 安徽 合肥 230037
3 中央军委装备发展部驻北京地区军事代表局, 北京 100191
摘要
实际场景中各物体的尺寸差异导致激光三维数据中各物体对应的三维积分区域(SVR)存在差异。在初始帧中,借助于SVR筛选与全局特征匹配完成目标识别,实现对待跟踪目标的自动选取,并且比较四种全局特征描述子的识别能力及运行速度。得到初始帧中的目标位置后,提出了利用全局特征匹配在后续帧中实施目标跟踪的方法。实验结果表明,SVR筛选有利于提高识别跟踪的准确率及算法整体运行速度。
Abstract
The difference in size between different kinds of objects will lead to the difference in summed volume region (SVR) of corresponding laser point cloud. In the first frame, object recognition is accomplished based on SVR selection and global feature matching to automatically select the interested object. The performance and execution time of four global feature descriptors are compared. After obtaining the position of the interested object in the first frame, an object tracking method based on global feature matching processing of laser point cloud is put forward for subsequent frames. The experimental results show that adding SVR selection is helpful to improve the accuracy of recognition and tracking and the overall running speed of the algorithm.

1 引言

激光雷达获得的三维数据,即激光点云,可反映目标的基本结构信息。基于二维数据的目标跟踪过程易受光照变化、物体在二维平面内的形状变化等因素的影响。基于三维数据的目标分割[1-2]、目标识别[3]、目标分类[4-5]、目标配准[6]等研究均取得了一定的成果。其中,将三维数据应用于目标跟踪过程可以提高目标跟踪的准确性。基于激光点云的无人驾驶技术是当下研究热点,并已应用于实际的驾驶过程[7]。但车载平台下,目标跟踪的有效作用范围受限于其本身的应用方向与平台。目前,点云目标跟踪方法主要分为两类。第一类方法是对物体进行运动估计,目前卡尔曼滤波[8]、粒子滤波[9]等方法较为成熟。Azim等[10]利用卡尔曼滤波方法,对获得的相邻两帧激光点云基于八叉树的占领栅格地图分析其不一致信息,从而检测动态物体,再使用全局最近邻的方法进行数据关联,最后使用卡尔曼滤波方法跟踪动态物体的中心点。孙水发等[11]利用贝叶斯滤波方法提出变尺寸车辆跟踪算法,可动态更新目标车辆的尺寸、姿态及速度。

第二类方法根据物体的三维形状信息在相邻帧之间进行特征匹配,并返回匹配得到的目标在各帧中的位置,从而实现跟踪。Moosmann等[12]利用局部凸准则[13]生成假设,采用迭代最近点算法[14]将待跟踪物体表面的三维数据与输入完整的三维数据进行匹配以估计待跟踪物体的状态。该算法对初始帧中的初始值设置要求很高。上述研究使用的激光点云数据大多由激光雷达在前视角度下获取,而未来的远距离作战,仍需研究基于激光雷达得到的下视角度下的点云数据处理,如机载平台[15]及弹载平台下获取的激光点云。

激光雷达与目标之间距离连续变化时跟踪激光点云目标,首先仿真下视角度获取的运动场景数据,而后通过帧间对激光点云全局特征的匹配处理跟踪运动目标。为提高整体过程的实时性与准确性,本文提出了三维积分区域(SVR)筛选的预处理方法。

2 基于激光点云SVR筛选的目标识别方法

目标跟踪需要已知目标在初始帧中的位置,可通过人工选定感兴趣的目标或通过基于特征直方图匹配的点云识别方法进行自动定位。基于特征直方图匹配的点云目标识别方法包括线下处理部分和线上处理部分,具体流程如图1所示。线下部分主要包括构造目标的多视角多尺度特征模板库;线上处理部分是对初始帧中获取的点云数据进行处理,首先进行数据预处理,包括滤波、分割及聚类,其次依据SVR的大小筛选出符合待跟踪目标特点的聚类,再对符合条件的聚类进行特征提取,最终通过与模板库的特征匹配得出目标。

图 1. 基于SVR筛选的点云目标识别流程

Fig. 1. Point cloud target recognition process based on SVR selection

下载图片 查看所有图片

2.1 线下部分

实际情况中激光雷达扫描目标区域获取激光点云数据时,易受平台的姿态变化及平台与目标之间距离变化的影响。因此,线下部分搭建了多角度及不同平台与目标间距离的模型特征模板库。借助于三维仿真软件Blender进行仿真,调整目标与激光雷达之间的位置关系以及两者间的角度关系得到多角度、多距离下的模型数据。通过特征提取,将得到的数据存储在快速搜索最近邻库(FLANN)[16]中。

2.2 线上部分

2.2.1 数据预处理

数据预处理部分包括地面滤波与非地面点的聚类分割。大部分情况下目标跟踪任务中指定的目标均为非地面点,因此通过地面滤波提取数据中的非地面点可提升整体目标定位的效率及运行速度。选用布料模拟滤波算法[17]实现地面滤波。

布料模拟滤波算法是假设有一块足够柔软的布料置于地面,布料受重力作用与地面贴合,此时布料的形状便是地形的高度模型。该算法首先假设存在一虚拟格网,而后依据下式计算其节点的空间位置,初始时刻的布料并非紧贴地面,仍有一定距离。

P(t+Δt)=2P(t)-P(t-Δt)+GmΔt2,(1)

式中:m=1表示布料节点的质量;P为某个时刻节点的空间位置;ΔtG分别为时间间隔与重力常数。若已知Δt与初始时刻节点的位置则可得到当前节点的位置。

比较布料节点与地面激光点云之间的高程,将高程值小于或等于地面激光点云的节点移动到与之对应的激光点的位置。根据布料节点是否处于地面激光点云的位置将其区分为可移动点与不可移动点,从而得到近似真实的地形表面。激光点(xl,yl,zl)与其对应的布料节点(xc,yc,zc)间的距离d

d=(xc-xl)2+(yc-yl)2+(zc-zl)2(2)

设定距离阈值h,选择不同的阈值实现地面滤波:

groundpoints,dhnongroundpoints,d>h(3)

通过地面滤波得到的非地面点中包含多种目标,城市背景下可能包含行人、车辆、树木和建筑等物体。这些目标在水平方向上任意两者间都存在互相遮挡的可能性,在垂直方向上,除去树木树冠以及建筑物对目标的遮挡外,目标间互相遮挡的可能性相对较低。因此可以通过对点云进行聚类分割将其分为相互独立的点云簇,有利于后续的全局特征提取与匹配。

基于欧氏距离对点云进行聚类提取,目的是使划分得到的同一簇内的点云具有相似的空间和几何等特征。欧氏距离聚类分割基于非地面点之间的欧氏距离进行判断,设非地面点集合P,任意选中空间一点p10,判断流程如下。

1) 利用K-D树数据结构计算得到与p10距离最近的n个点,分别记为p11,p12,…,p1n

2) 计算各点与p10之间的欧氏距离 dp10p1i(i=1,2,…,n)。

3) 阈值选择,将 dp10p1i小于阈值r的点存储在类Q集合中。

4) Qp10中选择一点p12,重复步骤1)~3),将得到的p21,p22,…,p2n全部放进类Q集合中。

5) 集合Q中无法加入新点时,完成搜索。

2.2.2 SVR筛选

实际场景中,不同类别的物体的大小存在差异,因此在同一成像距离分辨率下,激光雷达扫描物体获得的激光点云数据的数据量也存在差异,即聚类后得到的各簇点云的SVR大小不同。若给定三维空间内的立体范围V,对点云P中各点pi(i=1,2,…,n)在这一范围内进行积分:

S=(xi,yi,zi)Vpi(4)

在线下部分,计算得到常用目标在不同成像距离分辨率时的SVR值并存入FLANN库中。图2给出激光雷达与目标间距离分别为300 m与1800 m时,分别对六种目标计算得到的SVR值。

图 2. 六种目标在两种激光雷达与目标间距离下的SVR值

Fig. 2. SVR values of six objects for two LIDAR-object distances

下载图片 查看所有图片

在线上部分,根据指定目标的SVR的阈值范围(Smin,Smax),若满足SminScSmax,则保留该点云簇,反之舍弃。对满足阈值条件的点云簇进行特征提取与匹配。

3 基于激光点云全局特征匹配的目标跟踪方法

激光点云可用局部特征或全局特征进行描述。当激光雷达成像分辨率保持一致时,作用距离越远,激光雷达的距离分辨率越低,得到的激光点云包含的数据量越少。为充分反映激光点云的总体结构信息,选用全局特征描述子表征分割后得到的点云簇。

在计算机视觉领域,基于空间几何结构的全局特征描述子主要有视点特征直方图(VFH)[18]、基于聚类的视点特征直方图(CVFH)[19]、基于半径的全局描述子(GRSD)[20]及形状特征集合(ESF)[21]。考虑到各描述子在实际应用中的准确率及运行速度,在基于SVR筛选的点云目标识别方法中使用ESF特征描述子,在基于激光点云全局特征匹配的目标跟踪过程中使用VFH特征描述子。

表 1. 四种全局描述子的对比

Table 1. Comparison of four global feature descriptors

DescriptorHistogram lengthInformationPre-processionNormalization
VFH308AngleNormalYes
CVFH308AngleNormal, segmentationNone
GRSD21DistanceNormal, voxelization, surface categorizationNone
ESF640Angle, distance, areaNoneYes

查看所有表

表1中四种全局描述子均利用直方图进行表征。特征匹配过程中,将各点云簇的特征直方图与FLANN模板库中存储的模型特征直方图进行比较,分别计算两者间的距离[22]L1,用来表征两者间的匹配程度。假设存在两个长度相同的数组a(n)与b(n),L1的计算公式为

L1=n=1ma(n)-b(n)(5)

由(5)式可以看到,L1值越小,即测试的点云簇与此时所选定的模板越接近,则认为测试点云簇与模板的属性一致。

与目标识别方法中的数据处理步骤一致,基于激光点云全局特征匹配的目标跟踪流程如图3所示。

将获得的激光雷达点云数据通过数据预处理得到独立的点云簇并进行SVR筛选,根据待跟踪的目标以及平台与目标之间的实时距离设定SVR的阈值大小,对满足筛选条件的点云簇进行特征提取。根据前一帧中得到的目标点云簇进行匹配,计算并比较各点云簇与前一帧目标点云簇之间的L1值,L1值最小的点云簇即为当前帧中待跟踪的目标。

4 实验

4.1 实验环境与实验数据

基于Visual Studio2017中的PCL点云库[23]进行实验。使用两组在下视角度下获取的数据集,其中一组借助于Blender软件仿真实际场景,通过激光雷达成像仿真模型得到平台与目标发生相对运动时,扫描距离从1800 m到300 m连续变化的场景点云数据。激光雷达成像仿真的具体参数如表2所示,实验以长3.83 m、宽1.68 m、高1.51 m的jeep为例,激光雷达与目标间距离为300 m时仿真成像的效果如图4(a)所示。

图 3. 基于全局特征匹配的点云目标跟踪流程图

Fig. 3. Point cloud target tracking flow based on global feature matching

下载图片 查看所有图片

表 2. 场景仿真参数

Table 2. Parameters of the scene simulation

TargetSize /(m×m×m)Target speed /(m·s-1)Platform speed /(m·s-1)Pitch /(°)Yaw /(°)
0340
Jeep3.83×1.68×1.5120015-600-180
20340

查看所有表

实验使用的另一组数据集通过实际测量得到[24],测量平台与目标间的距离不变,数据可视化效果如图4(b)所示。

4.2 实验结果

4.2.1 目标识别效果实验基于目标静止、平台运动时的激光点云数据,激光雷达与目标间的距离和激光雷达获取数据的视角发生变化时,比较四种全局描述子的识别准确率,利用数据集1验证所提基于三维区域筛选的目标识别方法的识别效果。实验得到四种全局特征描述子[25]在六种激光雷达与目标间的距离下的目标识别准确率,如表3所示。

表 3. 四种特征描述子目标识别效果对比

Table 3. Recognition rate comparison of four feature descriptors%

DescriptorLIDAR-target range /m
300600900120015001800
VFH76.768.253.055.541.040.5
CVFH89.390.091.583.574.047.8
GRSD49.644.235.422.226.613.2
ESF99.099.094.076.571.054.7

查看所有表

图 4. 不同数据集可视化效果。(a)数据集1,(b)数据集2

Fig. 4. Visualization of different datasets. (a) Dataset 1; (b) dataset 2

下载图片 查看所有图片

表3可以看到,四种特征描述子目标识别的平均准确率由高到低排序为ESF、CVFH、VFH、GRSD。随着激光雷达与目标间距离的增加,激光雷达获取的目标信息减少,四种特征描述子的识别准确率平均下降39.6%。其中ESF特征的准确率下降得最多,为44.3%,VFH特征下降得最少,为36.2%。因此,四种特征描述子对激光雷达与目标间距离变化的稳定性由高到低排序为VFH、GRSD、CVFH、ESF。

表4可以看到,预处理步骤中加入SVR筛选步骤后,识别准确率最少提高了2.5%。数据集2中包含的数据量较大,一方面增加了数据预处理的难度,另一方面提高了特征描述的准确性,因此测得的识别准确率有2.5%~4.8%的提高。数据集2中包含的目标种类较多,经过SVR筛选后可排除较多干扰,与基于数据集1相比识别准确率提高更明显。

表 4. 基于SVR筛选的目标识别效果对比

Table 4. Recognition rate comparison with and without SVR selection

ParameterVFHCVFHGRSDESF
Recognition rate without SVR selection /%55.879.431.982.4
Dataset 1Recognition rate with SVR selection /%59.982.635.584.9
Increased recognition rate /%4.13.23.62.5
Execution time /ms3.64.531.039.0
Recognition rate without SVR selection /%57.580.134.384.0
Dataset 2Recognition rate with SVR selection /%62.383.338.686.7
Increased recognition rate /%4.83.24.33.7
Execution time /ms6.27.8109.0110.0

查看所有表

表4也可以看到,四种描述子在两组实验中的平均运行时间与两个因素有关:1)待处理数据量的大小,数据量增加会增加运行时间;2)描述子本身的计算步骤,描述子包含的信息越多,计算步骤越复杂,运行时间越长。实验结果表明:VFH描述子与CVFH描述子的运行速度较快,其次是预处理步骤复杂的GRSD描述子,包含信息最多的ESF描述子运行速度最慢。

4.2.2 目标跟踪效果

目标跟踪部分实验分别使用数据集1和数据集2进行验证,实验效果如图5所示,实验中使用跟踪准确率Tt作为评价目标跟踪效果的标准。其中图5(a)~(f)使用数据集1,图5(g)~(l)使用数据集2。

图5可以看到,基于全局特征匹配的点云目标跟踪方法基本可以跟踪目标,但方框标识出的结果与实际物体仍存在差异,表明在对目标进行聚类时仍存在误差。

表5中基于数据集1的结果可以看到,随着激光雷达与目标间的距离缩短,目标跟踪的准确率逐渐提高。基于数据集1与数据集2的实验结果均表明,整体算法中加入SVR筛选的步骤,排除了与待跟踪目标之间差异过大的点云簇,减少了特征提取与匹配过程中的运算量,从而提高了整体跟踪的准确率,每帧平均跟踪准确率分别提高了6.28%与3.88%。

图 5. N帧目标跟踪结果。(a)(g) N=40;(b)(h) N=80;(c)(i) N=120;(d)(j) N=160;(e)(k) N=200;(f)(l) N=240

Fig. 5. Object tracking results in the N th frame. (a)(g) N=40; (b)(h) N=80; (c)(i) N=120; (d)(j) N=160; (e)(k) N=200; (f)(l) N=240

下载图片 查看所有图片

表 5. N帧目标跟踪的跟踪准确率

Table 5. Tracking accuracy of sight line in the Nth frame

ParameterN
4080120160200240
Dataset 1Accuracy without SVR selection /%50.071.372.774.175.380.3
Accuracy with SVR selection /%55.175.179.980.483.287.7
Dataset 2Accuracy without SVR selection /%81.382.080.580.381.782.5
Accuracy with SVR selection /%86.386.783.385.084.386.0

查看所有表

图 6. 不同数据集的目标跟踪过程各部分运行时间。(a)数据集1;(b)数据集2

Fig. 6. Execution time of each part in object tracking based on different datasets. (a) Dataset 1; (b) dataset 2

下载图片 查看所有图片

除了每帧跟踪的准确率之外,各帧的运行速度也十分关键。因此,研究了SVR筛选的加入对目标跟踪中各部分运行时间的影响。SVR筛选的加入使整体算法的步骤增多,分别为数据预处理、SVR、特征提取与特征匹配。

图6可以看到,SVR筛选虽然增加了整体算法的步骤数量,但减少了特征提取与匹配步骤中处理的运算量,基于数据集1与数据集2的实验中,目标跟踪的总体运行时间分别缩短9.5 ms与44.2 ms。

5 结论

针对激光雷达扫描得到的三维数据的目标跟踪问题,提出了初始帧中基于SVR筛选的目标识别方法与基于激光点云全局特征匹配处理的目标跟踪算法。实验结果表明,SVR筛选既充分利用了点云的数据特性,又提高了目标识别跟踪的准确率与算法整体的运行速度。此外,实验对四种全局特征描述子在识别准确率、激光雷达与目标间距离变化稳定性以及运行速度方面的性能进行了比较,得到结论如下:识别准确率由高到低依次为ESF、CVFH、VFH、GRSD;对激光雷达与目标间距离变化的稳定性由高到低依次为VFH、GRSD、CVFH、ESF;运行速度由快到慢依次为VFH、CVFH、GRSD、ESF。

参考文献

[1] 范小辉, 许国良, 李万林, 等. 基于深度图的三维激光雷达点云目标分割方法[J]. 中国激光, 2019, 46(7): 0710002.

    Fan X H, Xu G L, Li W L, et al. Target segmentation method for three-dimensional LiDAR point cloud based on depth image[J]. Chinese Journal of Lasers, 2019, 46(7): 0710002.

[2] 张坤, 乔世权, 周万珍. 基于三维形状匹配的点云分割[J]. 激光与光电子学进展, 2018, 55(12): 121011.

    Zhang K, Qiao S Q, Zhou W Z. Point cloud segmentation based on three-dimensional shape matching[J]. Laser & Optoelectronics Progress, 2018, 55(12): 121011.

[3] 陈明猷, 唐昀超, 邹湘军, 等. 复杂环境下异形多目标识别与点云获取算法[J]. 激光与光电子学进展, 2018, 55(11): 111505.

    Chen M Y, Tang Y C, Zou X J, et al. Multi-shaped targets recognition and point clouds acquisition algorithm in complex environment[J]. Laser & Optoelectronics Progress, 2018, 55(11): 111505.

[4] 陈向宇, 云挺, 薛联凤, 等. 基于激光雷达点云数据的树种分类[J]. 激光与光电子学进展, 2019, 56(12): 122801.

    Chen X Y, Yun T, Xue L F, et al. Classification of tree species based on LiDAR point cloud data[J]. Laser & Optoelectronics Progress, 2019, 56(12): 122801.

[5] 赵中阳, 程英蕾, 释小松, 等. 基于多尺度特征和PointNet的LiDAR点云地物分类方法[J]. 激光与光电子学进展, 2019, 56(5): 052804.

    Zhao Z Y, Cheng Y L, Shi X S, et al. Terrain classification of LiDAR point cloud based on multi-scale features and PointNet[J]. Laser & Optoelectronics Progress, 2019, 56(5): 052804.

[6] 郭王, 程效军. 基于激光强度分类的机载与地面激光雷达点云配准方法[J]. 激光与光电子学进展, 2018, 55(6): 062803.

    Guo W, Cheng X J. Registration method for airborne and terrestrial light detection and ranging point cloud based on laser intensity classification[J]. Laser & Optoelectronics Progress, 2018, 55(6): 062803.

[7] 甘志梅, 王春香, 杨明. 基于激光雷达的车辆跟踪与识别方法[J]. 上海交通大学学报, 2009, 43(6): 923-926.

    Gan Z M, Wang C X, Yang M. A method for vehicle tracking and recognition based on scanning laser radar[J]. Journal of Shanghai Jiaotong University, 2009, 43(6): 923-926.

[8] Kalman R E. A new approach to linear filtering and prediction problems[J]. Journal of Basic Engineering, 1960, 82(1): 35-45.

[9] 廖逸琪, 任侃, 顾国华, 等. 复杂动态场景下运动目标跟踪的卡尔曼粒子滤波方法[J]. 激光与光电子学进展, 2014, 51(9): 091001.

    Liao Y Q, Ren K, Gu G H, et al. Kalman particle filter algorithm for moving target tracking based on the complex dynamic scene[J]. Laser & Optoelectronics Progress, 2014, 51(9): 091001.

[10] AzimA, AycardO. Detection, classification and tracking of moving objects in a 3D environment[C]∥2012 IEEE Intelligent Vehicles Symposium, June 3-7, 2012, Alcala de Henares, Madrid, Spain. New York: IEEE, 2012: 802- 807.

[11] 孙水发, 李准, 夏坤, 等. 变尺度点云配准算法[J]. 系统仿真学报, 2018, 30(7): 2465-2474.

    Sun S F, Li Z, Xia K, et al. Variable scale point cloud registration algorithm[J]. Journal of System Simulation, 2018, 30(7): 2465-2474.

[12] MoosmannF, StillerC. Joint self-localization and tracking of generic objects in 3D range data[C]∥2013 IEEE International Conference on Robotics and Automation, May 6-10, 2013, Karlsruhe, Germany. New York: IEEE, 2013: 1146- 1152.

[13] MoosmannF, PinkO, StillerC. Segmentation of 3D lidar data in non-flat urban environments using a local convexity criterion[C]∥2009 IEEE Intelligent Vehicles Symposium, June 3-5, 2009, Xi'an, China. New York: IEEE, 2009: 215- 220.

[14] Arun KS, Huang TS, Blostein S D. Least-squares fitting of two 3D point sets[J]. IEEE Transactions on Pattern Analysis and MachineIntelligence, 1987, PAMI-9( 5): 698- 700.

[15] 惠振阳, 鲁铁定, 胡友健, 等. 基于动态阈值的机载LiDAR点云滤波法[J]. 激光与光电子学进展, 2019, 56(6): 062802.

    Hui Z Y, Lu T D, Hu Y J, et al. Airborne LiDAR point cloud filtering algorithm based on dynamic threshold[J]. Laser & Optoelectronics Progress, 2019, 56(6): 062802.

[16] MujaM, Lowe DG. Fast matching of binary features[C]∥2012 Ninth Conference on Computer and Robot Vision, May 28-30, 2012, Toronto, Ontario, Canada. New York: IEEE, 2012: 404- 410.

[17] Zhang W M, Qi J B, Wan P, et al. An easy-to-use airborne LiDAR data filtering method based on cloth simulation[J]. Remote Sensing, 2016, 8(6): 501.

[18] RusuB, BradskiG, ThibauxR, et al. Fast 3D recognition and pose using the viewpoint feature histogram[C]∥2010 IEEE/RSJ International Conference on Intelligent Robots and Systems, October 18-22, 2010, Taipei, Taiwan. New York: IEEE, 2010: 2155- 2162.

[19] AldomaA, VinczeM, BlodowN, et al. CAD-model recognition and 6DOF pose estimation using 3D cues[C]∥2011 IEEE International Conference on Computer Vision Workshops (ICCV Workshops), November 6-13, 2011, Barcelona, Spain. New York: IEEE, 2011: 585- 592.

[20] Marton Z C, Pangercic D, Blodow N, et al. Combined 2D-3D categorization and classification for multimodal perception systems[J]. The International Journal of Robotics Research, 2011, 30(11): 1378-1402.

[21] WohlkingerW, VinczeM. Ensemble of shape functions for 3D object classification[C]∥2011 IEEE International Conference on Robotics and Biomimetics, December 7-11, 2011, Karon Beach, Phuket, Thailand. New York: IEEE, 2011: 2987- 2992.

[22] Tung T, Matsuyama T. Invariant shape descriptor for 3D video encoding[J]. The Visual Computer, 2015, 31(3): 311-324.

[23] Aldoma A, Marton Z C, Tombari F, et al. Tutorial: point cloud library: three-dimensional object recognition and 6 DOF pose estimation[J]. IEEE Robotics & Automation Magazine, 2012, 19(3): 80-91.

[24] Niemeyer J, Rottensteiner F, Soergel U. Contextual classification of lidar data and building object detection in urban areas[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2014, 87: 152-165.

[25] Guo Y, Bennamoun M, Sohel F, et al. 3D object recognition in cluttered scenes with local surface features: a survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(11): 2270-2287.

钱其姝, 胡以华, 赵楠翔, 李敏乐, 邵福才. 基于激光点云全局特征匹配处理的目标跟踪算法[J]. 激光与光电子学进展, 2020, 57(6): 061012. Qishu Qian, Yihua Hu, Nanxiang Zhao, Minle Li, Fucai Shao. Object Tracking Algorithm Based on Global Feature Matching Processing of Laser Point Cloud[J]. Laser & Optoelectronics Progress, 2020, 57(6): 061012.

本文已被 4 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!