光学学报, 2018, 38 (2): 0210004, 网络出版: 2018-08-30   

基于快速仿射模板匹配和改进仿射迭代最近点算法的人脸稳健精确仿射配准 下载: 803次

Robust and Precise Affine Registration for Faces Based on Fast Affine Template Matching and Modified Affine Iterative Closet Point Algorithm
作者单位
1 空军工程大学航空工程学院, 陕西 西安 710038
2 西安交通大学人工智能与机器人研究所, 陕西 西安 710049
摘要
提出了一种仅基于单个模板的人脸仿射配准方法。首先,为了克服人脸仿射变换而产生的局部形变,引入颜色特征来平衡模板人脸和目标人脸之间的颜色相似性和形状错配率,进而提出了一种基于颜色特征的人脸粗搜索算法。接着,采用人脸粗搜索算法得到的仿射变换作为初始约束,建立上步仿射约束下的人脸形状精确配准算法。在算法的每一步迭代中,利用前一步迭代得到的仿射变换,建立最近点的对应关系,并利用前步仿射约束下的目标函数求解新的仿射变换。本文算法成功解决了旋转、缩放和噪声干扰情况下人脸形状难以配准的问题。与传统人脸仿射配准算法相比,本文算法有效提高了人脸仿射配准的稳健性和精确性。
Abstract
We propose a method for face affine registration based on a single template. Firstly, in order to overcome the local deformation caused by face affine transformation, the color feature is introduced to balance the color similarity and shape mismatch rate between the template face image and the target face image, and then the face rough search algorithm is proposed based on the color feature. Secondly, the affine transformation obtained by face rough search algorithm is used as an initial constraint to establish the face shape fine registration algorithm based on the previous affine constraints. In each iteration step of the algorithm, the affine transformation obtained in the previous iteration is used to establish the correspondence of the nearest point, and the new affine transformation is solved by use of the objective function based on the previous affine constraint. The proposed algorithm successfully solves the problem that a face shape is difficult to register under the conditions of presence of rotation, scale transformation, and noise interference. Compared with the traditional face affine registration algorithm, the proposed algorithm effectively improves the robustness and accuracy of face affine registration.

1 引言

人脸配准是指找到两幅人脸图像之间最佳的空间几何变换,使得这两幅人脸图像在空间域上达到几何位置的对应。人脸配准是计算机视觉的关键技术之一,在人脸识别[1-3]、姿势预测[4]和目标跟踪[5-6]等研究领域发挥了重要作用。

近年来,人脸配准在理论和实践上都取得了很大的进步。然而,基于单一匹配模板的人脸仿射配准问题仍未被广泛探索,导致这种情况的原因是仿射变换对人脸局部外形改变较大,也大大增加了人脸配准的难度。

对于一幅模板人脸图像,目前人脸仿射配准方法大致可以分为两类:直接匹配的方法和基于特征的方法。一方面,可以使用直接匹配的方法解决人脸仿射配准问题,其中最流行的是仿射迭代最近点(AICP)算法[7-9],该算法通过最小化两幅人脸形状之间的均方根误差(RMSE),直接求解两幅人脸图像之间最佳的仿射变换,然而由于AICP算法缺乏形状约束,其仿射配准结果容易陷入局部最小值问题。Baker等[10]提出了一种基于两帧差分的光流估计算法,该算法通过寻找两幅人脸图像之间的参数光流映射,直接最小化两幅人脸图像的配准误差,然而其参数优化过程是基于梯度下降的,对初始值十分敏感。Yang等[11]在光流估计算法的基础上,提出了一种基于单个模板的人脸配准方法,该方法建立了一个非线性人脸变换模型,将人脸形状参数转换到一个更紧凑的空间,提高了人脸配准的精度,然而这种方法只适用于中性表情的人脸模板。Dekel等[12]提出了一种基于互最近邻搜索的稳健图像配准方法,但是该方法难以解决旋转和尺度变换下的人脸配准问题。最近,Korman等[13]提出了一种新颖的图像配准方法,称为快速仿射模板匹配(Fast-match)算法,该算法通过建立仿射变换网络并最小化人脸模板仿射映射后产生的绝对误差和(SAD),可以找到一个最佳的人脸仿射变换,然而由于该算法仅关注两幅人脸图像之间的颜色相似性,而忽略了形状错配率,因此导致人脸仿射配准的精度较低。

另一方面,可以使用基于特征的方法[14-16]解决人脸仿射配准问题,包括尺度不变特征变换(SIFT)[17]、加速稳健特征(SURF)[18]、方向梯度直方图(HoG)[19]和面向快速旋转的BRIEF(ORB)[20]等算法。这些算法使用局部特征建立模板人脸图像和目标人脸图像之间的对应关系,只要给定足够的对应特征点,就可以计算出模板人脸图像和目标人脸图像之间的仿射变换。然而这些算法依赖于在每幅人脸图像中独立地检测到相同的特征点,并且要求这些特征点的描述符具有仿射不变性。

本文提出了一种基于单一匹配模板的人脸仿射配准方法。首先,为了克服人脸仿射变换而产生的局部形变,引入颜色特征来平衡模板人脸图像和目标人脸图像之间的颜色相似性和形状错配率。其次,在Fast-match算法配准框架的基础上,提出了一种基于颜色特征的人脸粗搜索算法。最后,利用人脸粗搜索算法得到的仿射变换作为初始约束,建立了上步仿射约束下的人脸形状精确配准(FSFR)算法。

2 人脸仿射配准理论

提出了一种基于颜色特征的人脸粗搜索算法,然后以人脸粗搜索算法得到的仿射变换作为初始约束,建立了上步仿射约束下的FSFR算法。

2.1 基于颜色特征的人脸粗搜索算法

人脸粗搜索的目标是寻找一个最佳的仿射变换T,使得模板人脸图像I1和目标人脸图像I2对应位置的颜色特征尽可能相似,本文选择像素SAD作为颜色相似性的度量方式。首先利用Fast角点检测[21]从模板图像I1中提取形状点集{pi}i=1Np,然后在形状点集{pi}i=1Np附近随机采样Np个点构成随机点集{ri}i=1Np,接着合并{pi}i=1Np和{ri}i=1Np得到相似性度量点集{mi}i=12Np图1显示了两种相似性度量点集采样方法。图1(a)是本文提出的点集采样方法,它采样的点集包含表示形状信息的形状点集{pi}i=1Np(红色点集表示)和补充细节信息的随机点集{ri}i=1Np(蓝色点集表示);图1(b)是Fast-match算法的点集采样方法,其点集采样是杂乱无序的,并不包含特定的形状信息。

图 1. 两种相似性度量点集采样方法。 (a)本文方法;(b)Fast-match算法

Fig. 1. Two similarity measure point set sampling methods. (a) Proposed method; (b) Fast-match algorithm

下载图片 查看所有图片

此时,模板人脸图像和目标人脸图像对应位置的像素SAD可以表示为

dT(I1,I2)=12Nx)2i=12NxI1(mi)-I2Tmi)],(1)

式中I1I2分别为模板人脸图像和目标人脸图像的灰度矩阵;mi为相似性度量点集中第i个点的位置坐标;T(mi)为mi经过仿射映射后在目标人脸图像中的位置坐标。在满足模板人脸图像到目标人脸图像的任意仿射变换都接近于集合S中的仿射变换这一条件下,建立仿射变换集合S={Tj}j=1N,其中N为集合S中的仿射变换个数。

基于颜色特征的人脸粗搜索算法采用迭代更新的方法,从仿射变换集合S中寻找使(1)式达到最小值的仿射变换Tbest。假设第k次迭代时的仿射变换集合为Sk={ Tjk}j=1Nk,则第k次迭代包括以下步骤。

1) 在形状点集{pi}i=1Np附近随机采样Np个点,构成随机点集{ri}i=1Np,合并{pi}i=1Np和{ri}i=1Np,得到相似性度量点集{ mik}i=12Np

2) 利用(1)式计算每一个仿射变换 Tjk所对应的像素SAD,从中选择误差较小的仿射变换,构成新的仿射变换集合 S^k={ T^jk}j=1N^k,其表达式为

S^k={TjkSk:dTjk(I1,I2)-dTbestk(I1,I2)<Tth·δk},(2)

式中 dTbestk(I1,I2)为第k次迭代时,最佳仿射变换 Tbestk所对应的像素SAD;Tth为选择阈值;δk为第k次迭代时的精度因子。

3) 更新精度因子δk+1=ffact·δk(0<ffact<1),利用精度因子δk+1将集合 S^k中的每一个仿射变换 T^jk都扩充为一个子仿射变换集合 Qjk={ Tjik}i=110,该步骤的前提条件是要求满足公式

Qjk={TjikQjkdTjik(I1,I2)-dT^jk(I1,I2)<Tth·δk+1},(3)

式中 Tjik为对 T^jk进行一个微小的随机增量而得到的第i个仿射变换。

4) 合并所有扩充后的子仿射变换集合,得到新的仿射变换集合Sk+1={ Tjk+1}j=1Nk+1,其表达式为

Sk+1=Q1k++Qjk+QN^kk(4)

重复上述步骤,直到 dTbestk+1(I1,I2)- dTbestk(I1,I2)ε时,输出最终的仿射变换 Tbestk+1

2.2 FSFR算法

由于最相似的颜色通常不代表最相似的形状,人脸粗搜索阶段得到的仿射变换 Tbestk+1并不代表最佳的仿射变换。因此,本文首先利用仿射变换 Tbestk+1对模板人脸图像进行仿射映射,得到模板人脸图像在目标人脸图像中的对应区域,接着利用Fast角点检测从该区域内提取目标点集{qj}j=1Nq,以进行形状点集的精确配准。将仿射变换T分解为一个仿射矩阵A∈ℝm×m和一个平移矢量t∈ℝm,则传统AICP算法的目标函数可以表示为

minA,t,j{1,2,,Nq}i=1NpAxi+t)-yj22,(5)

式中Np为形状点集的点个数;Nq为目标点集的点个数。由于传统AICP算法的目标函数缺乏形状约束,因此当其处理人脸仿射配准问题时容易陷入局部最小值问题。为了克服这一问题,本文引入人脸粗搜索阶段得到的仿射变换 Tbestk+1,并将其作为初始约束,建立前步仿射约束下的FSFR算法目标函数,该函数为

minAk,tk[1Npi=1Np(Akxi+tk)-ycki22+αNpi=1Np(Akxi+tk)-(Ak-1xi+tk-1)22],(6)

式中α为前一步仿射变换(Ak-1,tk-1)的约束系数。当α增大时,第k-1次仿射变换的约束作用也在增大。通过改变α的大小,可以利用第k-1次的仿射变换,约束第k次仿射变换的形变程度,从而有效克服因(Ak,tk)偏离(Ak-1,tk-1)过远而导致人脸仿射配准陷入局部最小值的问题。由(6)式可以看出,人脸形状的精确配准可以看作一个约束优化问题,本文采用两步迭代策略对其进行求解。

1) 根据k-1步的仿射变换(Ak-1,tk-1),建立形状点集和目标点集之间的对应关系为

ck(i)=argminj{1,2,,Nq}[(Ak-1pi+tk-1)-qj22],i=1,2,,Np(7)

2) 根据对应关系ck(i)和前一步的仿射变换(Ak-1,tk-1),求解两点集之间新的仿射变换(Ak,tk)为

(Ak,tk)=argminAk,tk[1Npi=1Np(Akpi+tk)-qcki22+αNpi=1Np(Akpi+tk)-(Ak-1pi+tk-1)22]8

由于每次迭代的步骤1可以通过k-d树[22-23]或基于Delaunay三角分解的最近点搜索算法[24-25]完成,因此FSFR算法的关键是求解每次迭代的步骤2。将(8)式重写为

F(Ak,tk)=1Npi=1Np(Akpi+tk)-qcki22+αNpi=1Np(Akpi+tk)-(Ak-1pi+tk-1)229

令dF(Ak,tk)/dtk=0,可以解得

tk=i=1Npqcki+(αAk-1-αAk-Ak)i=1Nppi+αNxtk-1Np(1+α)(10)

tk代入(9)式,并令

pi1=(1/Np)12·(pi-i=1Nppi/Np)qcki1=(1/Np)12·{qcki-(i=1Npqcki+   αAk-1i=1Nppi+αNptk-1)[Np(1+α)]}pi2=(α/Np)12·(pi-i=1Nppi/Np)qcki2=(α/Np)12·{Ak-1pi+tk-1-(i=1Npqcki+   αAk-1i=1Nppi+αNptk-1)[Np(1+α)]},(11)

则目标函数F(Ak,tk)可被化简为

F(Ak)=i=1NpAkpi1-qcki122+i=1NpAkpi2-qcki222(12)

E={ej}12Np,F={fj}12Np,其中ejfj定义为

ej=pj1,1jNppj-Nx2,Np+1j2Npfj=qckj1,1jNpqck(j-Nx)2,Np+1j2Np,(13)

则(12)式可被进一步化简为

F(Ak)=j=12NpAkej-fj22(14)

为了最小化目标函数F(Ak),对dF(Ak)/dAk=0进行求解,得到仿射矩阵Ak

Ak=j=12NpfjeTjj=12NpejeTj-1(15)

将仿射矩阵Ak代入(10)式,可以进一步求解出平移向量tk

直到 F(Ak,tk)-F(Ak-1,tk-1)ε或者算法达到最大迭代次数K,循环结束并输出最终的仿射变换(Ak,tk)。

3 实验结果与分析

为了验证本文算法的稳健性和精确性,选择Stereo人脸数据库[26]和麻省理工学院生物和计算学习中心(MIT-CBCL)人脸数据库[27]进行实验。设置了3组人脸仿射配准实验:第一组实验研究了FSFR算法的配准性能;第二组实验研究了噪声干扰对FSFR算法配准精度的影响;第三组实验研究了约束系数α对FSFR算法配准精度的影响。实验中选择SIFT[17]、SURF[18]、ORB[20]和Fast-match[13]算法作为对比算法。本文所有的实验均在配置为Intel Core 3.1 GHz CPU和16 GB RAM的电脑上运行。

3.1 实验设置

首先从Stereo人脸数据库和MIT-CBCL人脸数据库中,各分别选择3对具有局部形变和视角变换的人脸图像。接着对每对图像中的目标人脸图像进行旋转和尺度变换,旋转和尺度变换共有9种组合方式:旋转0°、旋转45°、旋转90°、旋转135°、旋转180°、缩小为0.5倍、扩大为1.5倍、旋转45°并缩小为0.5倍、旋转45°并扩大为1.5倍。这样,可以得到54对包含旋转和尺度变换的人脸图像。为了更好地比较人脸仿射配准结果,为所有人脸图像都手动标注了42个人脸特征点,并利用这些人脸特征点来验证最终仿射变换(A,t)的准确性。图2显示了42个人脸特征点的标注顺序。

图 2. 42个人脸特征点的标注顺序

Fig. 2. Annotation order of 42 facial feature points

下载图片 查看所有图片

基于这些人脸特征点,定义人脸仿射配准误差(FARE)为

E=1Ni=1NApi+t-qi2q12-q172,(16)

式中pi为模板人脸图像中的第i个人脸特征点;qi为目标人脸图像中的第i个人脸特征点;(A,t)为算法输出的仿射变换;N为人脸特征点的个数; q12-q172为目标人脸图像上2个最近眼角之间的距离。当E<0.05时,认为配准成功。平均人脸仿射配准误差(AFARE)是通过对54对人脸图像的FARE求和并取平均值而得到的。

3.2 FSFR算法的配准性能

第一组实验研究了FSFR算法的配准性能,选择54对包含旋转和尺度变换的人脸图像进行人脸形状的精确配准实验。不同人脸配准算法的仿射配准结果如表1所示。

表1可以看出,FSFR算法的AFARE远远低于其他配准算法,在处理具有旋转和尺度变换的人脸图像时,FSFR算法的配准成功率也是最高的。FSFR算法对54对人脸图像的整体配准时间处于SIFT和SURF算法之间,具有一定的运算复杂度。与Fast-match算法相比,FSFR算法通过在人脸精配准阶段引入形状信息进行精确配准,减小了人脸粗搜索阶段的迭代次数,提高了人脸仿射配准的精度和速度。不同人脸配准算法的部分仿射配准效果如图3所示;不同人脸配准算法的部分仿射配准结果如图4所示。

表 1. 不同人脸配准算法的仿射配准结果

Table 1. Affine registration results for different face registration algorithms

AlgorithmAFARESuccess rate /%Registration time /s
SIFT[17]0.051977.7834.6940
SURF[18]0.299044.449.1800
ORB[20]0.176348.424.5140
Fast-match[13]0.067747.2261.6080
FSFR0.0230100.0030.0216

查看所有表

图 3. 不同人脸配准算法的部分仿射配准效果图。(a)旋转90°;(b)旋转0°;(c)缩小为一半;(d)旋转45°并扩大为1.5倍

Fig. 3. Partial affine registration effect graphs for different face registration algorithms. (a) Rotate 90°; (b) Rotate 0°; (c) shrink to the half; (d) Rotate 45° and expand to 1.5 times

下载图片 查看所有图片

图 4. 不同人脸配准算法的部分仿射配准结果

Fig. 4. Partial affine registration results for different face registration algorithms

下载图片 查看所有图片

图3可以看出,与其他4种人脸配准算法相比,FSFR算法实现了最佳的人脸仿射配准效果。在图4的部分配准结果中,FSFR算法的FARE也是最低的,与Fast-match算法相比,FSFR算法将人脸配准的精度提高到原来的2倍,这说明FSFR算法对旋转和尺度变换数据具有很强的处理能力。

3.3 噪声干扰对FSFR算法配准精度的影响

第二组实验研究了噪声干扰对FSFR算法配准精度的影响。选择第19对人脸图像进行仿射配准实验。在实验中,分别在目标人脸图像上加入方差为0.01,0.05,0.1,0.2,0.4,0.6,0.8和1的高斯噪声。表2为不同噪声干扰下各人脸配准算法的人脸仿射配准误差结果。

表 2. 不同高斯噪声干扰下各人脸配准算法的人脸仿射配准误差结果

Table 2. Face affine registration error results for different face registration algorithms with different Gaussian noise interferences

Variance of Gaussian noise interferencesFARE
SIFT[17]algorithmSURF[18]algorithmORB[20]algorithmFast-match[13]algorithmFSFR algorithm
0.010.03680.04080.05120.05710.0323
0.050.04910.05590.81950.05880.0475
0.10.82310.05581.06040.06360.0551
0.20.74120.06791.00060.06890.0637
0.41.67630.95791.18370.07420.0713
0.61.67631.16501.31540.08470.0781
0.81.67632.47501.00200.09740.0936
1.01.67633.88651.70440.46230.4636

查看所有表

表2可以看出,随着高斯噪声方差的增加,SIFT、SURF和ORB算法的FARE急剧上升,而Fast-match和FSFR算法的FARE先缓慢上升再快速增加。这是因为基于特征的人脸配准算法在噪声干扰时难以建立稳定的特征点描述符,进而导致人脸仿射配准的精度下降;而Fast-match和FSFR算法通过对模板人脸图像进行多次随机点采样并比较这些采样点和目标人脸图像对应点的像素SAD,从而进行人脸搜索,在一定程度上降低了由于噪声干扰而导致的两幅人脸图像的不相似性,提高了人脸仿射配准的精度。随着高斯噪声方差的增加,Fast角点检测难以在两幅人脸图像上检测到准确的形状点集和目标点集,这影响了FSFR算法在人脸精确配准阶段的精度,使得FSFR算法在高噪声干扰时的FARE与Fast-match算法的FARE相差不大。图5为不同噪声干扰下FSFR算法的人脸配准效果图。

图5中,虽然人脸仿射配准的精度随着高斯噪声方差的增加而不断降低,但是直到高斯噪声方差超过0.8时,人脸仿射配准结果才显示出较大的配准误差。当高斯噪声方差小于0.8时,FSFR算法取得了良好的配准效果,这再一次证明了FSFR算法具有较高的精确性和稳健性。

3.4 约束系数对FSFR算法配准精度的影响

第三组实验研究了约束系数α对FSFR算法配准精度的影响。选择第1对人脸图像进行仿射配准实验。约束系数α分别被设置为0,0.5,1,1.5,2和2/k,其中k表示迭代次数,随着迭代次数k的增加,约束系数2/k不断减小。图6为不同约束系数下FSFR算法的人脸仿射配准误差曲线;图7为不同约束系数下FSFR算法的人脸仿射配准效果图。

图 5. 不同高斯噪声干扰下FSFR算法的人脸仿射配准效果图。 (a)模板人脸图像;(b)方差为0.01;(c)方差为0.05;(d)方差为0.1;(e)方差为0.2;(f)方差为0.4;(g)方差为0.6;(h)方差为0.8;(i)方差为1.0

Fig. 5. Face affine registration effect graphs of FSFR algorithm with different Gaussian noise interferences. (a) Template face image; (b) variance of 0.01; (c) variance of 0.05; (d) variance of 0.1; (e) variance of 0.2; (f) variance of 0.4; (g) variance of 0.6; (h) variance of 0.8; (i) variance of 1.0

下载图片 查看所有图片

图 6. 不同约束系数下FSFR算法的人脸仿射配准误差曲线

Fig. 6. Face affine registration error curves of FSFR algorithm with different constraint coefficients

下载图片 查看所有图片

图6可以看出,当约束系数α=0时,由于缺乏前一步仿射变换的约束,因此人脸配准结果陷入了局部最小值问题,导致仿射配准失败。随着约束系数α从0.5增加到2,FSFR算法的收敛次数不断增加。其原因是前一步仿射变换的约束过大,减缓了模板人脸形变到目标人脸的过程。因此,设置了一个随着迭代次数增加而不断减小的约束系数α=2/k,当迭代次数k较小时,模板人脸形状可以快速地与目标人脸形状粗略配准。当迭代次数k增大时,k-1步仿射变换的约束作用不断降低,收敛速度进一步加快。由α=2/k时的误差曲线可以看出,这种约束系数设置方法在保持人脸配准误差不变的同时,大大降低了FSFR算法的收敛次数。图7同样证明了这种约束系数设置方法的有效性。

图 7. 不同约束系数下FSFR算法的人脸仿射配准效果图。(a) α=0; (b) α=0.5; (c) α=1; (d) α=1.5; (e) α=2; (f) α=2/k

Fig. 7. Face affine registration effect graphs of FSFR algorithm with different constraint coefficients. (a) α=0; (b) α=0.5; (c) α=1; (d) α=1.5; (e) α=2; (f) α=2/k

下载图片 查看所有图片

4 结论

提出了一种基于单一匹配模板的人脸仿射配准理论。首先,为了综合考虑两幅人脸图像的颜色相似性和形状错配率,提出了一种基于颜色特征的人脸粗搜索算法。接着,以人脸粗搜索算法得到的仿射变换为初始约束,建立了前步仿射约束下的FSFR算法。实验结果表明,本文算法成功解决了旋转、尺度变换和噪声干扰下人脸形状难以配准的问题。与传统的人脸配准算法相比,本文算法的稳健性和精确性都有了很大提高。在后续工作中,本文算法将被扩展为3D人脸配准算法,并且应用到三维人脸重建中。

参考文献

[1] Sun Z L, Lam K M, Dong Z Y, et al. Face recognition with multi-resolution spectral feature images[J]. Plos One, 2013, 8(2): e55700.

    Sun Z L, Lam K M, Dong Z Y, et al. Face recognition with multi-resolution spectral feature images[J]. Plos One, 2013, 8(2): e55700.

[2] 周亮基, 李庆武, 霍冠英, 等. 基于NSCT和仿生模式的人脸图像识别方法[J]. 激光与光电子学进展, 2015, 52(3): 031001.

    周亮基, 李庆武, 霍冠英, 等. 基于NSCT和仿生模式的人脸图像识别方法[J]. 激光与光电子学进展, 2015, 52(3): 031001.

    Zhou L J, Li Q W, Huo G Y, et al. Face image recognition method based on the NSCT and bionic pattern[J]. Laser & Optoelectronics Progress, 2015, 52(3): 031001.

    Zhou L J, Li Q W, Huo G Y, et al. Face image recognition method based on the NSCT and bionic pattern[J]. Laser & Optoelectronics Progress, 2015, 52(3): 031001.

[3] Wang L P, Chen S C. Joint representation classification for collective face recognition[J]. Pattern Recognition, 2017, 63(5): 182-192.

    Wang L P, Chen S C. Joint representation classification for collective face recognition[J]. Pattern Recognition, 2017, 63(5): 182-192.

[4] YeM, Wang XW, Yang RG, et al. Accurate 3D pose estimation from a single depth image[C]. International Conference on Computer Vision, 2011, 24( 4): 731- 738.

    YeM, Wang XW, Yang RG, et al. Accurate 3D pose estimation from a single depth image[C]. International Conference on Computer Vision, 2011, 24( 4): 731- 738.

[5] Chen C L, Jian B L. Infrared thermal facial image sequence registration analysis and verification[J]. Infrared Physics & Technology, 2015, 69: 1-6.

    Chen C L, Jian B L. Infrared thermal facial image sequence registration analysis and verification[J]. Infrared Physics & Technology, 2015, 69: 1-6.

[6] Sariyanidi E, Gunes H, Cavallaro A. Robust registration of dynamic facial sequences[J]. IEEE Transactions on Image Processing, 2017, 26(4): 1708-1722.

    Sariyanidi E, Gunes H, Cavallaro A. Robust registration of dynamic facial sequences[J]. IEEE Transactions on Image Processing, 2017, 26(4): 1708-1722.

[7] HoJ, Yang MH, RangarajanA, et al. A new affine registration algorithm for matching 2D point sets[C]. IEEE Workshop on Applications of Computer Vision, 2007: 25.

    HoJ, Yang MH, RangarajanA, et al. A new affine registration algorithm for matching 2D point sets[C]. IEEE Workshop on Applications of Computer Vision, 2007: 25.

[8] 韦盛斌, 王少卿, 周常河, 等. 用于三维重建的点云单应性迭代最近点配准算法[J]. 光学学报, 2015, 35(5): 0515003.

    韦盛斌, 王少卿, 周常河, 等. 用于三维重建的点云单应性迭代最近点配准算法[J]. 光学学报, 2015, 35(5): 0515003.

    Wei S B, Wang S Q, Zhou C H, et al. An iterative closest point algorithm based on biunique correspondence of point clouds for 3D reconstruction[J]. Acta Optica Sinica, 2015, 35(5): 0515003.

    Wei S B, Wang S Q, Zhou C H, et al. An iterative closest point algorithm based on biunique correspondence of point clouds for 3D reconstruction[J]. Acta Optica Sinica, 2015, 35(5): 0515003.

[9] 周文振, 陈国良, 杜珊珊, 等. 一种聚类改进的迭代最近点配准算法[J]. 激光与光电子学进展, 2016, 53(5): 051202.

    周文振, 陈国良, 杜珊珊, 等. 一种聚类改进的迭代最近点配准算法[J]. 激光与光电子学进展, 2016, 53(5): 051202.

    Zhou W Z, Chen G L, Du S S, et al. An improved iterative closest point algorithm using clustering[J]. Laser & Optoelectronics Progress, 2016, 53(5): 051202.

    Zhou W Z, Chen G L, Du S S, et al. An improved iterative closest point algorithm using clustering[J]. Laser & Optoelectronics Progress, 2016, 53(5): 051202.

[10] Baker S, Matthews I. Lucas-Kanade 20 years on: a unifying framework[J]. International Journal of Computer Vision, 2004, 56(3): 221-255.

    Baker S, Matthews I. Lucas-Kanade 20 years on: a unifying framework[J]. International Journal of Computer Vision, 2004, 56(3): 221-255.

[11] Yang Y, Liu Y H, Liu J Y. Automatic face image annotation based on a single template with constrained warping deformation[J]. IET Computer Vision, 2013, 7(1): 20-28.

    Yang Y, Liu Y H, Liu J Y. Automatic face image annotation based on a single template with constrained warping deformation[J]. IET Computer Vision, 2013, 7(1): 20-28.

[12] DekelT, OronS, RubinsteinM, et al. Best-buddies similarity for robust template matching[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 2021- 2029.

    DekelT, OronS, RubinsteinM, et al. Best-buddies similarity for robust template matching[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2015: 2021- 2029.

[13] KormanS, ReichmanD, TsurG, et al. Fast-match: fast affine template matching[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013: 2331- 2338.

    KormanS, ReichmanD, TsurG, et al. Fast-match: fast affine template matching[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013: 2331- 2338.

[14] CristinacceD, Cootes TF. Feature detection and tracking with constrained local models[C]. British Machine Vision Conference, 2006: 929- 938.

    CristinacceD, Cootes TF. Feature detection and tracking with constrained local models[C]. British Machine Vision Conference, 2006: 929- 938.

[15] LiangL, XiaoR, WenF, et al. Face alignment via component-based discriminative search[C]. 10th European Conference on Computer Vision, 2008: 72- 85.

    LiangL, XiaoR, WenF, et al. Face alignment via component-based discriminative search[C]. 10th European Conference on Computer Vision, 2008: 72- 85.

[16] GrittiT, Shan CF, JeanneV, et al. Local features based facial expression recognition with face registration errors[C]. 8th IEEE International Conference on Automatic Face & Gesture Recognition, 2008: 1- 8.

    GrittiT, Shan CF, JeanneV, et al. Local features based facial expression recognition with face registration errors[C]. 8th IEEE International Conference on Automatic Face & Gesture Recognition, 2008: 1- 8.

[17] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

    Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

[18] BayH, Tuytelaars T, van Gool L. SURF: speeded up robust features[C]. 9th European conference on Computer Vision, 2006: 404- 417.

    BayH, Tuytelaars T, van Gool L. SURF: speeded up robust features[C]. 9th European conference on Computer Vision, 2006: 404- 417.

[19] DalalN, TriggsB. Histograms of oriented gradients for human detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2005: 886- 893.

    DalalN, TriggsB. Histograms of oriented gradients for human detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2005: 886- 893.

[20] RubleeE, RabaudV, KonoligeK, et al. ORB: an efficient alternative to SIFT or SURF[C]. IEEE International Conference on Computer Vision, 2012: 2564- 2571.

    RubleeE, RabaudV, KonoligeK, et al. ORB: an efficient alternative to SIFT or SURF[C]. IEEE International Conference on Computer Vision, 2012: 2564- 2571.

[21] RostenE, DrummondT. Machine learning for high-speed corner detection[C]. 9th European Conference on Computer Vision, 2006: 430- 443.

    RostenE, DrummondT. Machine learning for high-speed corner detection[C]. 9th European Conference on Computer Vision, 2006: 430- 443.

[22] NuchterA, LingemannK, HertzbergJ. Cached k-d tree search for ICP algorithms[C]. 6th International Conference on 3-D Digital Imaging and Modeling, 2007: 419- 426.

    NuchterA, LingemannK, HertzbergJ. Cached k-d tree search for ICP algorithms[C]. 6th International Conference on 3-D Digital Imaging and Modeling, 2007: 419- 426.

[23] Dasgupta S, Sinha K. Randomized partition trees for nearest neighbor search[J]. Algorithmica, 2015, 72(1): 237-263.

    Dasgupta S, Sinha K. Randomized partition trees for nearest neighbor search[J]. Algorithmica, 2015, 72(1): 237-263.

[24] Chen H, Lin T. An algorithm to build convex hulls for 3D objects[J]. Journal of the Chinese Institute of Engineers, 2006, 29(6): 945-952.

    Chen H, Lin T. An algorithm to build convex hulls for 3D objects[J]. Journal of the Chinese Institute of Engineers, 2006, 29(6): 945-952.

[25] Alexander C. Delineating tree crowns from airborne laser scanning point cloud data using Delaunay triangulation[J]. International Journal of Remote Sensing, 2009, 30(14): 3843-3848.

    Alexander C. Delineating tree crowns from airborne laser scanning point cloud data using Delaunay triangulation[J]. International Journal of Remote Sensing, 2009, 30(14): 3843-3848.

[26] FransensR, Strecha C, van Gool L. Parametric stereo for multi-pose face recognition and 3d-face modeling[C]. 2nd International Conference on Analysis and Modeling of Faces and Gestures, 2005: 109- 124.

    FransensR, Strecha C, van Gool L. Parametric stereo for multi-pose face recognition and 3d-face modeling[C]. 2nd International Conference on Analysis and Modeling of Faces and Gestures, 2005: 109- 124.

[27] Rowley H A, Baluja S, Kanade T. Neural network-based face detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(1): 23-38.

    Rowley H A, Baluja S, Kanade T. Neural network-based face detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(1): 23-38.

吴礼洋, 熊磊, 杜少毅, 毕笃彦, 方挺. 基于快速仿射模板匹配和改进仿射迭代最近点算法的人脸稳健精确仿射配准[J]. 光学学报, 2018, 38(2): 0210004. Liyang Wu, Lei Xiong, Shaoyi Du, Duyan Bi, Ting Fang. Robust and Precise Affine Registration for Faces Based on Fast Affine Template Matching and Modified Affine Iterative Closet Point Algorithm[J]. Acta Optica Sinica, 2018, 38(2): 0210004.

本文已被 2 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!