激光与光电子学进展, 2019, 56 (7): 071007, 网络出版: 2019-07-30   

基于子空间与纹理特征融合的掌纹识别 下载: 1065次

Palmprint Recognition Based on Subspace and Texture Feature Fusion
作者单位
1 辽宁工程技术大学电子与信息工程学院, 辽宁 葫芦岛 125105
2 辽宁工程技术大学研究生学院, 辽宁 葫芦岛 125105
摘要
针对单一描述符无法准确获取有效掌纹特征导致识别率低的问题,提出一种基于子空间与纹理特征融合的掌纹识别方法。利用稳健线性判别分析和局部方向二值模式分别获取掌纹图像的子空间特征和纹理特征;基于加权串联方法实现子空间特征与纹理特征的有效融合;根据融合特征向量间的卡方距离进行匹配识别。在PolyU图库和自建非接触图库上的实验结果表明,识别时间分别为0.3069 s和0.3127 s,最低等误率分别为0.3440%和1.4922%;与其他方法相比,所提方法在保证实时性的前提下,能够准确提取掌纹图像的有效特征信息,提高系统识别性能。
Abstract
Aim

ing at the problem of low recognition rate because the single descriptor cannot accurately obtain the effective palmprint features, a palmprint recognition method is proposed based on subspace and texture feature fusion. The subspace feature and texture feature of a palmprint image are obtained by robust linear discriminant analysis and local direction binary pattern, respectively. The weighted concatenation method is used for the subspace and texture feature fusion. The chi-square distance among the fused feature vectors is used for identification matching. The experimental results on the PolyU and the self-built non-contact databases show that the recognition time is 0.3069 s and 0.3127 s, respectively, and the lowest equal error rate is only 0.3440% and 1.4922%, respectively. Compared with other methods, the proposed method can accurately obtain the effective feature information of a palmprint image and improve the system recognition performance under the premise that the real-time performance is ensured.

1 引言

作为新兴的生物特征之一,掌纹不仅包含基于线的特征,还包含脊和细节点[1],这些特征被认为是不可变的且个体独有的。与其他的生物特征相比,掌纹含有稳定、丰富、易获取的身份鉴别特征[2]。自Zhang等[3]提出掌纹识别技术以来,经过多年发展,该技术现已成为模式识别领域的研究热点。

特征选择和提取在模式识别中起着重要作用,近年来备受关注[4]。特别是对于生物特征识别,原始数据通常包含大量的冗余信息和噪声。在这种情况下,如何为不同的分类任务选择和提取最具辨别力的特征是一项具有挑战性的工作[5]。在模式识别和机器学习领域,特征选择和提取已被证明是降低复杂性、提高效率和识别性能的有效工具[6]。尽管传统方法在应用中具有明显的优越性,但它们只能提取单一特征,存在一定的局限性。因此,识别精度高以及防伪性、稳健性较好的特征融合成为生物特征识别领域的发展方向。掌纹识别技术中主要包含两种特征融合:1)掌纹与掌脉等其他生物模态的特征融合[7-8];2)采用不同方法提取掌纹的不同特征进行融合[9]

近年来,许多掌纹识别方法相继出现,如文献[ 9]提出了局部二值模式(LBP)与二维局部保持投影(2DLPP)融合的掌纹识别(LBP+2DLPP)方法,该方法分别提取掌纹图像的LBP和2DLPP特征,通过串联方式融合提取的特征向量,提高了系统的识别率。文献[ 10]提出的广义Gabor滤波器的掌纹识别(GGF)方法将两个不同的GGF子库用于特征提取,GGF在捕获方向特征、识别精度和效率方面具有优势。文献[ 11]提出了结合加权自适应中心对称局部二值模式(WACS-LBP)和基于加权稀疏表示的分类算法(WSRC)的掌纹识别(WACS-LBP+WSRC)方法,该方法使分类问题变得简单,类别更少,具有良好的识别性能。这些方法虽然具有一定的优势,但是在识别率方面有待提高。

本文针对单一的特征描述符在掌纹识别系统中无法准确获取有效特征,导致识别性能差的问题,提出一种基于子空间与纹理特征融合的掌纹识别方法。子空间特征提取方法利用空间投影变换对原始掌纹图像降维,从而获得较高的运算效率;纹理分析方法具有较强的描述能力,在掌纹识别领域的通用性较强,直观上比较符合掌纹图像自身特点。所提方法分别利用稳健线性判别分析(RLDA)算法和局部方向二进制模式(LOBP)算法提取掌纹的子空间特征和纹理特征,将获得的特征向量加权串联得到融合特征向量,实现子空间与纹理特征融合的掌纹识别。与最新的LBP+2DLPP、GGF以及WACS-LBP+WSRC方法相比,所提方法具有较高的识别准确性,实用性更好。

2 基本原理

2.1 LDA算法

假设存在d个模式类,nη表示第η个类的样本数,n= η=1dnη为所有样本的总数,R表示实数集,Rm表示实m维列向量空间,列向量 xξη∈Rm表示第η个类的第ξ个样本。线性判别分析(LDA)试图找到一个投影向量,其能够扩大不同类的样本距离,并减少同一类的样本距离。LDA利用Fisher准则获得此投影向量

a=argmaxa(aTSba/aTSwa),(1)

式中:a为最优投影向量;SbSw分别为类间和类内散度矩阵。SbSw计算公式分别为

Sb=1nη=1dnη(uη-u)(uη-u)T,(2)Sw=1nη=1dξ=1nη(xξη-uη)(xξη-uξ)T,(3)

式中:uη= 1nηξ=1nηxξη表示第η类样本的均值向量;u= 1nη=1dξ=1nηxξη为所有样本的均值向量。(1)式等同于优化公式[12]

a=argminaTa=IaT(Sw-λSb)a(4)

求解(4)式,可以得到最优投影向量a为对应于Swa=λSba的最小特征值的特征向量。在实际应用中,单个投影向量不足以区分多个类。通常选择一组满足最优Fisher准则的投影矢量A=arg minATA=Itr AT(Sw-λSb)A用于多类分类,tr(·)为矩阵求迹运算符。判别投影矩阵A作为对应于SwA=λSbA的前k个最小特征值的一组特征向量,设A= a1,a2,,ak∈Rm×k为该集合通过选择的k个特征向量,Rm×km×k的实矩阵集,可以得到每个样本的判别特征向量 yξη=ATxξη, yξη∈Rk

2.2 LOBP算法

LOBP算法[13]的基本原理是利用一组具有不同方向的线检测器检测掌纹的主要方向。通常,Gabor滤波器是掌纹方向检测最强大的工具之一,其一般形式为

G(x,y,θ,μ,φ,β)=12πφβexp-πx2φ2+y2β2expi2πμ(xcosθ+ysinθ),(5)

式中:μ为径向频率;φβ分别为椭圆高斯沿x轴和y轴的标准偏差;(5)式中的最优参数设置为μ=0.0916,φ=β=5.6179;定义Gabor滤波器的大小,即xy的范围为35×35;θ表示Gabor函数的方向。使用6个不同的方向定义6个模板,即(j-1)π/6(j=1,2,…,6)。在提取掌纹主方向特征的过程中,Gabor滤波器的实部与掌纹图像进行卷积,可以得到

Cj(x,y)=Grj255-Im(x,y),(6)

式中: Gjr为Gabor滤波器的实部;“ ”为卷积算子;Im表示输入的掌纹图像;C为Gabor模板和输入掌纹图像的卷积结果。根据卷积结果可以得到掌纹的主方向为

O(x,y)=argmaxjCj(x,y)(7)

主方向上的卷积结果反映了方向的重要性和稳定性。因此,将最大卷积结果,即CO(x,y)(x,y)视为主方向的置信度,则有

CO(x,y)=CO(x,y)(x,y)=argmaxCCj(x,y),(8)

式中:i表示第i个相邻像素(i=1,2,…,8);O(x,y)和CO(x,y)分别表示主方向和方向置信度。对表示掌纹特征的主方向和方向置信度进行编码和组合时,给定一条掌纹线,局部区域内沿着此线的点通常具有相似的主方向,即线的方向,其他点不在此线上,这可能形成不同的主方向。因此,局部区域内主方向之间的关系反映了主方向的变化趋势。方向二值模式(OBP)可以表示为

DOBP=i=18e(Oi,Oc)×2i,(9)

式中:Oc为中心像素的主方向;Oi为相邻像素的主方向;e表示从自变量到函数值的对应原则。相邻区域根据经验定义为(8,1)邻域集,即将中心点与最近的8个点进行比较。当Oc=Oi时,e(Oi,Oc)=1,否则e(Oi,Oc)=0。

主方向上的最大卷积结果CO(x,y)基本上代表主方向的置信度。利用(8,1)相邻区域中CO的差异可以获得方向置信度方差,即置信二值模式(CBP)

DCBP=i=18s(CO,i-CO,c)×2i,(10)

式中CO,cCO,i分别为中心像素和相邻像素的方向置信度。当CO,i-CO,c>0时,s(CO,i-CO,c)=1,否则s(CO,i-CO,c)=0。基于卷积结果的CBP与使用原始数据的LBP相比,稳定性更好。

由于O(x,y)和CO(x,y)携带高度相关的信息,故OBP应与CBP结合。掌纹的不同区域具有不同的线条和纹理特征,以便承载不同的方向特征。因此,利用OBP和CBP的逐块统计形成全局掌纹描述符LOBP。LOBP编码原理如图1所示。

图 1. LOBP编码原理

Fig. 1. Coding principle of LOBP

下载图片 查看所有图片

3 基于子空间与纹理特征融合的掌纹识别方法

3.1 RLDA算法

针对LDA的分类准确性易受掌纹图像尺寸大小和噪声的影响,导致系统稳健性下降的问题,提出一种稀疏判别特征提取算法,即稳健线性判别分析算法(RLDA)。为了将原始数据的主要信息保留在判别子空间中,引入正交矩阵连接原始数据和变换数据,使变换后的数据可以保留主要判别信息。为了提高稳健性,引入稀疏误差项消除特征提取过程中的噪声,从而保证该算法具有更好的性能。

判别子空间的表达式为

minAtrAT(Sw-λSb)A,(11)

式中:A∈Rm×k(k<m)为判别投影矩阵;λ为用于平衡SwSb重要性的最小正数。

传统的LDA对维度k的选择敏感。如果k非常小,则投影不能尽可能多地保留判别信息,这导致分类精度低。因此,提出一种有效的解决方法,在保持主成分分析(PCA)特性的前提下,将PCA约束的变量引入到投影学习模型中,即[14]

minP,AtrAT(Sw-λSb)A,(12)

式中:X=PATXPTP=I的约束在某种程度上视为PCA的变体,这确保了可以很好地恢复原始数据[15];P∈Rm×k为正交矩阵。建立原始数据与变换数据之间的对应关系,使变换后的数据尽可能多地保留原始数据的主要信息。通过这种方式,RLDA不仅可以学习判别子空间,还减少了信息的损失,因此具有更好的子空间特征提取性能。

针对掌纹识别系统易受外界噪声的影响导致识别率低的问题,利用稀疏项补偿噪声,从而可以减少噪声的干扰。因此,RLDA的目标函数为

minP,A,EtrAT(Sw-λSb)A+λ1E1,(13)

式中:X=PATX+E;PTP=I;λ1为权衡参数;E为误差,用于模拟随机噪声;‖·‖1表示l1范数。

使用乘法器的交替方向法(ADMM)[16]解决RLDA的优化问题。将(13)式转换为拉格朗日函数

L(P,A,E,Y)=trAT(Sw-λSb)A+λ1E1+<Y,X-PATX-E>+α2X-PATX-EF2=trAT(Sw-λSb)A+λ1E1-12αYF2+α2X-PATX-E+YαF2,(14)

式中:α为惩罚参数;Y为拉格朗日乘数; ·F2为F范数的平方。利用最小化其他变量固定的拉格朗日函数L,可以交替地求解PAE。具体步骤如下。

1) 求解A

L(A)=trAT(Sw-λSb)A+α2X-PATX-E+YαF2,(15)

X-E+ Yα=B,A可以通过L(A)相对于A的导数计算,即

L(A)A=2(Sw-λSb)A+α(XXTA-XBTP)=0,(16)

解得

A=2(Sw-λSb)+αXXT-1(αXBTP)(17)

2) 求解P

minPTP=IX-PATX-E+YαF2,(18)

X-E+ Yα=B,将(18)式化简为

minPTP=IB-PATXF2=minPTP=Itr(BTB-2BTPATX)=maxPTP=Itr(BTPATX)=maxPTP=Itr(PTBXTA),(19)

(19)式可以利用正交普鲁克分析进行求解,设SVD(BXTA)=USVT,则获得P=UVT15,其中SVD表示奇异值分解。

3) 求解E

minEλ1E1+α2X-PATX-E+YαF2,(20)

e= λ1α;E0=X-PATX+ Yα。根据收缩算子[17],(20)式具有闭合形式的解,

E=shrink(E0,e),(21)

式中shrink表示收缩操作符。

4) 求解Yα

Y=Y+α(X-PATX-E),(22)α=min(ρα,αmax),(23)

式中ραmax为常数。

表 1. RLDA算法总结

Table 1. Summary of RLDA algorithm

Input: data matrix X, parameter λ1
Initialization:A=0; E=0; Y=0; α=0.1; ρ=1.01;P=argminPtrPT(Sw-λSb)P s.t. PTP=I;αmax=105;λ=10-4
while not converged do1. Update A by using Eq. (17);2. Update P by using Eq. (19);3. Update E by using Eq. (21);4. Update Y, α by using Eqs. (22) and (23), respectively
end while
Output: P,A,E

查看所有表

3.2 特征提取

1) RLDA算法提取掌纹的子空间特征:提取子空间特征的目标就是找出一组对分类最有效的特征,而掌纹图像是一个高维空间的数据。因此,RLDA算法把原始的掌纹图像投影到低维的子空间上,得到掌纹的子空间特征。给定掌纹的感兴趣区域(ROI)图像,将其灰度值矩阵转换为低维向量并存入数组X中。计算类内散度矩阵Sw、类间散度矩阵Sb、正交重建矩阵P、误差矩阵E,进而得到判别投影矩阵A。利用Z=ATXX投影到特征子空间中,Z即为RLDA算法提取到的掌纹子空间特征向量。

2) LOBP算法提取掌纹的纹理特征:给定掌纹的ROI图像,将其均匀地划分为一组非重叠子块,大小设置为8×8。纹理特征提取过程如图2所示。

图 2. LOBP提取掌纹纹理特征的流程图

Fig. 2. Flow chart for extracting palmprint texture features by LOBP

下载图片 查看所有图片

对于每个子块,分别提取主方向和相应的方向置信度特征以获得OBP和CBP编码值,进而得到OBP直方图和CBP直方图。最后串联基于子块的OBP直方图和CBP直方图,获得掌纹ROI图像的LOBP直方图特征。

3.3 特征融合

首先,采用RLDA算法提取掌纹ROI图像的子空间特征,有效降低了特征的维数,本文将子空间特征向量标记为V1∈Rm1;然后,采用LOBP算法提取掌纹ROI图像的纹理特征,得到OBP和CBP直方图串联形成的LOBP直方图,将数据保存为从左到右、从上到下的特征向量,标记为V2∈Rm2,且V2中的元素为“0”和“1”;最后,结合掌纹的子空间特征向量与纹理特征向量,得到融合特征向量,标记为Vf∈Rm1+Rm2,即

Vf=V1σ1,V2σ2T,(24)

式中:σ1σ2为矢量V1V2的标准差,通过计算特征向量方差的平方根获得[18]

基于子空间与纹理特征融合的掌纹识别(RLDA+LOBP)方法的流程如图3所示。

图 3. 掌纹识别流程

Fig. 3. Flow chart of palmprint recognition

下载图片 查看所有图片

3.4 特征匹配

匹配是指利用一定的匹配算法得到特征间的相似度,为了测试本文方法的识别性能,将卡方距离进行统计判别。利用测试掌纹图像的融合特征向量与其他候选掌纹图像的融合特征向量进行比较,两个向量MN的卡方距离为

χ2(M,N)=τ=1h(Mτ-Nτ)2Mτ+Nτ,(25)

式中:N为测试掌纹图像的融合特征向量;M为候选掌纹图像的融合特征向量;h为候选图像的总数。在判别过程中,需要设定一个合理的阈值t,当卡方距离χ2和阈值t的关系满足

χ2<t,(26)

则认为是同一个人的掌纹图像,从而被接受,否则被拒绝。

4 实验与分析

实验环境为Windows 7系统,Matlab2015a软件,处理器为AMD A6-5350M APU with Radeon(tm) HD Graphics,主频2.90 GHz,内存(RAM)2.00 GB。

4.1 实验图库

1) 香港理工大学的超光谱接触式图库(PolyU图库):目前生物特征识别中广泛采用的手部公开标准测试集。该图库采用接触式采集设备在室内环境下进行掌纹图像采集。选择PolyU图库中的100人,每人的5张掌纹图像作为实验图库,ROI图像的大小为128 pixel×128 pixel。图4(a)为PolyU图库的示例。

2) 自建非接触图库:实验采用自建非接触图库区别于接触式标准图库。非接触式采集具有友好性和安全性的优势。利用定焦CCD工业摄像头在室内环境下采集手掌自然张开图像,背景为单一的黑色背景,光源为白色LED,采集100人,每人的5张掌纹图像作为实验图库,ROI图像的大小为128 pixel×128 pixel。图4(b)为自建非接触图库的示例。

图 4. 图库示例。(a) PolyU图库;(b)自建非接触图库

Fig. 4. Examples of databases. (a) PolyU database; (b) self-built non-contact database

下载图片 查看所有图片

4.2 评价指标

根据类内类间匹配算法评估本文方法的性能,其中类内匹配是指对同一人的不同掌纹进行匹配,类间匹配是指对不同人的掌纹进行匹配[19]。类内匹配的实验次数为(100×5×4)÷2=1000,类间匹配的实验次数为(100×5×99×5)÷2=123750,总匹配次数为1000+123750=124750。

通过计算类内类间卡方距离,绘出匹配分布曲线,根据类内距离曲线和类间距离曲线的交点,设点阈值t,按照(26)式给出掌纹分类结果。本文的评价指标有:

1) 错误接受率(FAR),即识别系统把假冒者的特征误认为是合法者的特征,接受假冒者,表达式为RFAR=(NFA/NIA)×100%,其中NIA为假冒者的尝试次数,NFA为系统错误接受假冒者的次数。

2) 错误拒绝率(FRR),即识别系统把合法者的特征误认为是假冒者的特征,拒绝合法者,表达式为RFRR=(NFR/NEA)×100%,其中NEA为合法者的尝试次数,NFR为系统错误拒绝合法者的次数。

3) 等误率(EER),即ROC曲线上横轴FAR和纵轴FRR的等值点,EER越小说明掌纹识别系统的识别性能越好。

4.3 实验结果及分析

为了验证融合特征在掌纹识别系统中的优势,在PolyU图库和自建非接触图库上将RLDA提取的子空间特征、LOBP提取的纹理特征和RLDA+LOBP得到的融合特征进行对比实验,每种特征对应的最低EER如表2所示。

表 2. 单一特征与融合特征识别的EER

Table 2. EER for single feature and fusion feature recognitions%

DatabaseSubspacefeatureTexturefeatureFusionfeature
PolyU1.50820.38530.3440
Self-builtnon-contact2.51761.51681.4922

查看所有表

分析表2可知,在PolyU图库和自建非接触图库上,融合特征对应的最低EER分别为0.3440%和1.4922%。与单一的子空间特征相比,EER分别降低了1.1642%和1.0254%。与单一的纹理特征相比,EER降低了0.0413%和0.0246%。所提方法获得的融合特征在两个图库上EER都为最低,证明融合特征提高了掌纹识别性能。

图5给出了所提方法在PolyU图库上的实验结果。分析可知,类内类间曲线交点的横坐标为0.3820,即阈值t=0.3820。根据ROC曲线图可知,ROC曲线和直线y=x交点的坐标为(0.3440%,0.3440%),即EER最低为0.3440%。

图6给出了所提方法在自建非接触图库上的实验结果。分析可知,类内类间曲线交点的横坐标为0.3942,即阈值t=0.3942。根据ROC曲线图可知,ROC曲线和直线y=x交点的坐标为(1.4922%,1.4922%),即EER最低为1.4922%。

为了验证所提方法的实时性和识别准确性,在PolyU图库和自建非接触图库上比较所提方法与传统的PCA、2DGabor、文献[ 9]的LBP+2DLPP方法、文献[ 10]的GGF方法和文献[ 11]的WACS-LBP+WSRC方法的EER和识别时间,结果如表3所示。

图 5. PolyU图库上的实验结果。(a)匹配结果;(b) ROC

Fig. 5. Experimental results on PolyU database. (a) Matching results; (b) ROC

下载图片 查看所有图片

图 6. 自建非接触图库上的实验结果。(a)匹配结果;(b) ROC

Fig. 6. Experimental results on self-built non-contact database. (a) Matching results; (b) ROC

下载图片 查看所有图片

表 3. 所提方法与其他方法的EER和识别时间比较

Table 3. Comparison of EER and recognition time between proposed and other methods

MethodPolyUdatabaseSelf-built non-contactdatabase
EER /%Recognitiontime /sEER /%Recognitiontime /s
PCA3.50640.31655.64320.3091
2DGabor2.52420.81893.13400.9136
LDA3.23400.26744.37590.3010
LBP3.17540.24244.25910.2911
RLDA1.50820.22292.51760.2294
LOBP0.38530.16281.51680.1801
LBP+2DLPP[9]0.50770.48441.63260.5794
GGF[10]0.47610.35051.60730.3968
WACS-LBP+WSRC[11]0.40850.32391.53840.3479
ProposedRLDA+LOBP0.34400.30691.49220.3127

查看所有表

分析表3可知,所提方法的识别时间分别为0.3069 s和0.3127 s,说明满足实时性要求。最低EER分别为0.3440%和1.4922%。在相同条件下,与最新的LBP+2DLPP、GGF以及WACS-LBP+WSRC方法相比,EER分别降低了0.1637%、0.1321%、0.0645%和0.1404%、0.1151%、0.0462%,说明所提方法的识别性能更好。融合方法的EER比非融合方法的EER更低,说明融合有效结合了掌纹子空间特征和纹理特征信息,识别性能最好。

在PolyU图库和自建非接触图库上将所提方法与最新的LBP+2DLPP、GGF以及WACS-LBP+WSRC方法的EER和识别率进行统计比较,EER的直观统计结果如图7所示,识别率的直观统计结果如图8所示。

图 7. 所提方法与最新方法的EER比较

Fig. 7. Comparison of EER between proposed method and latest methods

下载图片 查看所有图片

图 8. 所提方法与最新方法的识别率比较

Fig. 8. Comparison of recognition rate between proposed method and latest methods

下载图片 查看所有图片

分析图7可知,所提方法在两个图库上的EER均低于LBP+2DLPP、GGF、WACS-LBP+WSRC等最新方法。分析图8可知,所提方法在PolyU图库和自建非接触图库上的识别率分别为99.82%和99.08%,明显高于其他最新方法的识别率。说明所提方法准确提取了掌纹图像的有效特征信息,提高了系统识别性能。

5 结论

针对掌纹识别技术中单一的特征描述符无法准确获得有效特征导致识别率低的问题,提出了一种基于子空间与纹理特征融合的掌纹识别方法。该方法在特征提取阶段,利用所提RLDA算法提取掌纹图像的子空间特征,有效提高了识别系统的效率,同时采用最新的LOBP算法提取掌纹图像的纹理特征,获取了更全面的纹理特征信息。在特征融合阶段,将获得的纹理特征和子空间特征利用加权串联方法进行融合。在特征匹配阶段,利用卡方距离与阈值的关系确定两幅掌纹图像的相似程度,进而完成匹配。在相同条件下,与RLDA提取的子空间特征、LOBP提取的纹理特征相比,所提方法得到的融合特征在掌纹识别系统中更具有优势。与最新的LBP+2DLPP、GGF和WACS-LBP+WSRC方法的EER、识别时间以及识别率进行了比较,结果表明,所提方法在保证实时性的前提下,有效提高了系统的识别率,具有良好的应用前景。后续工作将进行算法优化,提高算法的运行速率,并融合手部的其他特征。

参考文献

[1] Jia W, Zhang B, Lu J T, et al. Palmprint recognition based on complete direction representation[J]. IEEE Transactions on Image Processing, 2017, 26(9): 4483-4498.

[2] 岳峰, 左旺孟, 张大鹏. 掌纹识别算法综述[J]. 自动化学报, 2010, 36(3): 353-365.

    Yue F, Zuo W M, Zhang D P. Survey of palmprint recognition algorithms[J]. Acta Automatica Sinica, 2010, 36(3): 353-365.

[3] Zhang D, Kong W K, You J, et al. Online palmprint identification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(9): 1041-1050.

[4] Kwak N, Choi C H. Input feature selection for classification problems[J]. IEEE Transactions on Neural Networks, 2002, 13(1): 143-159.

[5] Liu Y, Tang F, Zeng Z Y. Feature selection based on dependency margin[J]. IEEE Transactions on Cybernetics, 2015, 45(6): 1209-1221.

[6] Zhang Z, Shao L, Xu Y, et al. Marginal representation learning with graph structure self-adaptation[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(10): 4645-4659.

[7] 王浩, 康文雄, 陈晓鹏. 基于视频的掌纹掌脉联合识别系统[J]. 光学学报, 2018, 38(2): 0215004.

    Wang H, Kang W X, Chen X P. Palm print and palm vein joint recognition system based video[J]. Acta Optica Sinica, 2018, 38(2): 0215004.

[8] 李新春, 张春华, 林森. 基于BSLDP和典型相关分析的掌纹掌脉融合识别[J]. 激光与光电子学进展, 2018, 55(5): 051012.

    Li X C, Zhang C H, Lin S. Palmprint and palm vein feature fusion recognition based on BSLDP and canonical correlation analysis[J]. Laser & Optoelectronics Progress, 2018, 55(5): 051012.

[9] Ali M M H, Yannawar P L, Gaikwad A T. Multi-algorithm of palmprint recognition system based on fusion of local binary pattern and two-dimensional locality preserving projection[J]. Procedia Computer Science, 2017, 115: 482-492.

[10] Tabejamaat M, Mousavi A. Generalized Gabor filters for palmprint recognition[J]. Pattern Analysis and Applications, 2018, 21(1): 261-275.

[11] Zhang S W, Wang H X, Huang W Z, et al. Combining modified LBP and weighted SRC for palmprint recognition[J]. Signal, Image and Video Processing, 2018, 12(6): 1035-1042.

[12] Lai Z H, Xu Y, Jin Z, et al. Human gait recognition via sparse discriminant projection learning[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2014, 24(10): 1651-1662.

[13] Fei LK, XuY, Teng SH, et al.Local orientation binary pattern with use for palmprint recognition[M]. Cham: Springer International Publishing, 2017: 213- 220.

[14] Fang X Z, Teng S H, Lai Z H, et al. Robust latent subspace learning for image classification[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(6): 2502-2515.

[15] Zou H, Hastie T, Tibshirani R. Sparse principal component analysis[J]. Journal of Computational and Graphical Statistics, 2006, 15(2): 265-286.

[16] Boyd S, Parikh N, Chu E. et al. Distributed optimization and statistical learning via the alternating direction method of multipliers[J]. Foundations and Trends® in Machine Learning, 2010, 3(1): 1-122.

[17] Candès E J, Li X, Ma Y, et al. Robust principal component analysis?[J]. Journal of the ACM, 2011, 58(3): 1-37.

[18] Luo Y, Zhang T, Zhang Y. A novel fusion method of PCA and LDP for facial expression feature extraction[J]. Optik, 2016, 127(2): 718-721.

[19] 林森, 徐天扬, 王颖. 基于Gabor小波和NBP算法的手掌静脉识别[J]. 激光与光电子学进展, 2017, 54(5): 051002.

    Lin S, Xu T Y, Wang Y. Palm vein recognition based on Gabor wavelet and NBP algorithm[J]. Laser & Optoelectronics Progress, 2017, 54(5): 051002.

李新春, 马红艳, 林森. 基于子空间与纹理特征融合的掌纹识别[J]. 激光与光电子学进展, 2019, 56(7): 071007. Xinchun Li, Hongyan Ma, Sen Lin. Palmprint Recognition Based on Subspace and Texture Feature Fusion[J]. Laser & Optoelectronics Progress, 2019, 56(7): 071007.

本文已被 5 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!