激光与光电子学进展, 2021, 58 (2): 0210019, 网络出版: 2021-01-11   

基于NSST和Tetrolet能量特征的指关节纹识别 下载: 722次

Finger-Knuckle-Print Recognition Based on NSST and Tetrolet Energy Features
作者单位
辽宁工程技术大学电子与信息工程学院, 辽宁 葫芦岛 125105
摘要
针对目前指关节纹识别方法鲁棒性差的问题,提出了一种基于非下采样的Shearlet变换(NSST)和Tetrolet能量特征的指关节纹识别方法。首先,采用直方图均衡化调整图像的灰度,以减少光照分布不均对识别系统产生的影响。其次,利用NSST及其逆变换得到去噪后的重构图像,并对其进行Tetrolet变换,建立低频图像的能量曲面。最后,将不同图像的能量曲面作差,得到能量差曲面,进一步计算曲面的方差,并以此为依据对不同指关节纹图像进行分类识别。在HKPU-FKP、IIT Delhi-FK、和HKPU-CFK图库及其噪声图库的实验结果表明,本方法的正确识别率可达98.0392%,最短识别时间为0.0497 s,最低等误率为2.5646%。相比其他方法,本方法可以明显提高指关节纹识别系统的性能,具有可行性和有效性。
Abstract
Aiming at the identification problem with poor robustness based on current finger-knuckle-print recognition methods, a finger-knuckle-print recognition method using non-subsampled Shearlet transform (NSST) and Tetrolet energy features is proposed in this paper. First, histogram equalization is used to adjust the gray level of the image to reduce the influence of uneven light distribution on the recognition system. Second, the NSST and its inverse transform are used to obtain the reconstructed image after denoising, and Tetrolet transform is performed on it to establish the energy surface of low-frequency image. Finally, the energy difference surface is obtained by subtracting the energy surface of different images, and the variance of the surface is further calculated. Based on this, the classification and recognition of different finger joint print images are carried out. The experiment results on the HKPU-FKP, IIT Delhi-FK, and HKPU-CFK databases and their noise databases show that the correct recognition rate of the method is 98.0392%, the shortest recognition time is 0.0497 s, and the lowest equal error rate is 2.5646%. Compared with other algorithms, the algorithm improves the performance of the finger-knuckle-print recognition system, which is feasible and effective.

1 引言

随着生物学信息与科技的快速发展,当今社会对于身份认证的需求显著增加,生物特征识别技术是一种有效的解决方法。相比指静脉、掌静脉,指关节纹的采集设备更简易;相比指纹[1],指关节纹的采集环境具有非侵犯性;相比掌纹[2],指关节纹接触刚性物体少,不易被磨损[3];相比人脸图像[4-5],指关节纹的纹理特征更稳定。因此,利用指关节纹进行身份认证具有一定的优势,可用于对人们真实身份的辨别,且安全性较高。

目前,基于指关节纹进行识别的方法较多,Yang等[6]提出了基于图形嵌入学习和费舍尔鉴别分析框架的特征提取方法,用得到的最优映射特征进行匹配识别;Chlaoua等[7]提出了一种基于主成分分析网络(PCANet)提取指关节纹图像特征的多模态生物特征识别系统;冯媛[8]提出了一种用ImageNet数据集预训练的网络模型,并在指关节纹数据集上进行参数微调,得到最优模型;Chen等[9]提出了基于稀疏表示和线性回归的分类规则,在特征提取时可最大化近邻子空间的边缘;Kong等[10]提出基于分数级融合的识别方法,将Gabor特征作为识别的基本特征,根据阈值的判定规则进行匹配识别;Kumar等[11]提出利用细节点进行指关节纹图像的恢复和匹配,通过提取细节特征提高指关节纹模式匹配的性能;Nigam等[12]提出融合多纹理特征的指关节纹认证系统,利用曲率Gabor滤波器提取感兴趣区域(ROI),通过不同的相似性度量进行匹配识别。

综上所述,传统识别方法在特征提取时注重指关节纹的局部特征,在实际应用中易被伪造,抗仿冒性较差;基于深度学习对手指组合图像的识别效果更好,但存在数据样本量较小等问题。指关节纹具有丰富的纹理信息,考虑到其主线与褶皱周围空间复杂的能量值分布,本文提出了一种基于非下采样的Shearlet变换(NSST)和Tetrolet能量特征的识别方法。首先,利用直方图均衡化扩大指关节纹图像的灰度范围,并对处理后的图像进行NSST分解与重构,滤除其噪声分量;然后,对图像进行Tetrolet变换,获取变换后的低频图像,在特征提取时,利用处理后图像形成的能量曲面作为特征,根据曲面呈现的空间形态进行识别,伪造难度更大。曲面的变化趋势可直观反映指关节纹纹理信息的强弱,若两幅图像匹配,则其在三维空间形成曲面的凹凸程度和位置也非常相似;否则,特征差异较大,从而快速、准确地识别指关节纹。在三个标准图库及其噪声图库中的实验结果表明,本方法在指关节纹识别领域具有明显的优势和可行性,且准确性和鲁棒性较好。

2 NSST和Tetrolet变换原理

2.1 非下采样的Shearlet变换

指关节纹图像经NSST分解后可获得具有冗余性的系数,包含大量的方向性信息。Shearlet变换的定义中,ψL2(R2)为输入函数,其中,L2(·)为平方函数空间,R为实数,L2(R2)为平方可积二元函数空间,满足以下条件。

1) ψ̂(ζ)= ψ̂(ζ1,ζ2)= ψ̂1(ζ1) ψ̂2(ζ1/ζ2),任意ζ=(ζ1,ζ2)∈R2, ψ̂ψ的傅里叶变换。

2) ψ1ζ1的连续小波, ψ̂1C(R), C(·)为光滑函数空间,Xsupp( ψ̂1)⊂ -2,-1/21/2,2。其中,Xsupp为支撑集函数。

3) ψ̂2C(R),ψ2ζ2的连续小波,Xsupp( ψ̂2)⊂ -1,1,ψ1>0且‖ψ2‖=1,则由ψAa= a00a以及Bs= 1s01生成的Shearlet系统可表示为

ψast(x)=ψAa-1Bs-1(x-t),    aB+,sR,tB2,(1)

式中,ψast(x)为剪切波,AaBs分别为各向异性膨胀矩阵和剪切矩阵,a为尺度、s为剪切、t为平移。剪切波可对各个尺度、方向的图像信息进行处理。在实际应用中[13]

Aa=A0=4002,Bs=B0=1101,tZ2,(2)

式中,Z为整数。NSST是Shearlet变换的位移不变形式,变换时,指关节纹图像经一层非下采样拉普拉斯金字塔滤波器组(NSPFB)分解为高通滤波的图像和低通滤波的图像。在低频系数上进行下一层非下采样金字塔(NSP)分解,每层分解都在上一层分解所得的低频系数上进行迭代,从而得到图像信息的多尺度分解;然后通过剪切波滤波器组(SF)对高频子带图像进行方向局部化分解[13]。在图像的分解和重构过程中,NSST消除了向下采样步骤,具有多尺度、多方向扩展以及完全的平移不变性[14],从而抑制了图像中的伪吉布斯现象[15]

图像的噪声主要包含在高频部分中,因此还需进一步处理高频系数。定义高频子带图像区域I的中心像素点为(i,j),则

Imean=1K2m=-KKn=-KKb(i+m,j+n),(3)Imedian=Mb(i+m,j+n),m,n=   -K,,K,(4)

式中,I的大小为K×K,M为取中值操作,ImeanI的均值,ImedianI的中值,b为子带中的初始系数。根据文献[ 16]可知,阈值L

L=σp,q×Imean(i,j)/Imedian(i,j),(5)

式中,σp,q为对应NSST中尺度p、方向q子带的噪声方差估计值,Imean(i,j)和Imedian(i,j)分别为中心像素点(i,j)系数的均值和中值,去噪后的高频系数可表示为

b*(m,n)=b(m,n),b(m,n)L0,b(m,n)<L,(6)

式中,b(m,n)为去噪前的子带系统、b*(m,n)为去噪后的子带系统。最后,对处理后的子带系数进行NSST的逆变换。

2.2 Tetrolet变换

Tetrolet变换对指关节纹图像进行四格拼版(Tetromino)划分[17],可以表达出更精确、丰富的图像信息。Tetromino是由四个单位正方形通过边连接起来的图形,共有五种基础的拼版形式,如图1所示。

图 1. 五种基础的Tetrominoes

Fig. 1. Five basic Tetrominoes

下载图片 查看所有图片

用四个不相交的Tetrominos覆盖4×4的区域,共有22种基本排列形式[17]。考虑到旋转与对称,共有117种方法,由于这些方法具有相似性,实际应用中可简化排列方式[17]。Tetrolet变换的具体过程如下。

1) 输入去噪后的指关节纹图像d0= (d[i,j])i,j=0N-1,N=2J,JZ。Tetrolet变换有J-1层,对第r(r=1,2,…,J-1)层变换进行计算。

2) 将指关节纹的低通图像dr-1划分成尺寸为4×4的图像块Qi,j,i,j=0,1,…,N/2r+1-1。

3) 对每个块Qi,j进行拼版划分,共有117(c=1,2,3,…,117)种组合方案。 Is(c)(s=0,1,2,3)为拼版划分后的排列区域,每个区域有4个像素点。对 Is(c)应用Haar小波变换,得到每个排列的低通子带dr,(c)和高通子带 ωlr,(c)(l=1,2,3)为

dr,(c)=dr,(c)ss=03,dr,(c)s=   (m,n)Is(c)ε0,L(m,n)dr-1m,n,(7)ωlr,(c)=(ωlr,(c)s)s=03,ωlr,(c)s=   (m,n)Is(c)εl,L(m,n)dr-1m,n,(8)

式中,系数ε0,L(m,n)εl,L(m,n)为Haar小波变换矩阵中的元素[17]。计算出每个方案的低通、高通子带后,选取最佳排列方式的准则为

c*=argmincl=13ωlr,(c)1=  argminl=13s=03ωlr,(c)s,(9)

式中,c*为最佳排列方式。每个分块Qi,j进行Tetrolet变换后的子带为

dr,(c*),ω1r,(c*),ω2r,(c*),ω3r,(c*)(10)

将子带 dr,(c*)ωlr,(c*)通过变换矩阵R重新排列成2×2的矩阵,准备进行下一级变换。重排后的低通、高通子带分别为

dQi,jr=Rdr,(c*)=dr,(c*)0dr,(c*)2dr,(c*)1dr,(c*)3,     ωl|Qi,jr=Rωlr,(c*)(11)

4) 存储低通子带矩阵dr= dQi,jri,j=0N2r+1-1和高通子带矩阵 ωlr= ωl|Qi,jri,j=0N2r+1-1,用drωlr构成变换后的图像dr-1= drω2rω1rω3r

分解结束时,最优的Tetrolet子带产生的拼版方式最接近该4×4图像块的边缘和纹理,能较好地保留图像的纹理特征,得到原指关节纹图像的最优稀疏逼近。

3 基于NSST与Tetrolet的指关节纹特征提取与匹配识别

本方法结合NSST与Tetrolet变换,先将指关节纹图像经NSST分解为低频、高频子带图像,其中,低频图像中包含主要的能量信息,高频图像的灰度值变化较快,包含图像的边缘、细节及噪声信息。由于低频系数较大且分布均匀,因此不对其进行处理。而高频系数中包含的噪声会对匹配识别产生影响,需根据文献[ 16]中的方法确定阈值,得到去噪后的高频系数。低频子带与去噪后的高频子带进行NSST逆变换得到去除噪声的指关节纹图像。将去噪后的指关节纹图像进行Tetrolet变换得到最优稀疏表示的图像,有效增强了纹理特征,进而建立Tetrolet变换低频图像的能量曲面,根据曲面间的差值进行匹配识别,具体步骤:

1) 对指关节纹图像f进行NSST分解,得到低频子带图像fL和高频子带图像fH;

2) 通过阈值处理确定去噪后的高频图像fh,将fhfL进行NSST逆变换得到重构的去噪指关节纹图像fA;

3) 将fA通过Tetrolet变换后的低频图像形成能量曲面,并将NSST和Tetrolet能量曲面(NTES)作为指关节纹特征;

4) 利用不同图像形成能量曲面之间的差异进行匹配识别。本方法的识别流程如图2所示。

图 2. 本方法的流程图

Fig. 2. Flow chart of our method

下载图片 查看所有图片

经本方法处理后的指关节纹图像形成的能量曲面如图3所示,其中,图3(b)为图3(a)的能量特征曲面,可直观表现出图像的灰度变化,XY轴为图像沿两个方向的像素值,Z轴为图像中每个点的灰度值。通过NSST和Tetrolet变换得到具有最优表示纹理特征的指关节纹图像,有效增强了图像对比度,曲面的凹凸程度变化更明显,有利于提高识别率。

图 3. 本方法处理后的结果。 (a) 本方法处理后的图像; (b) 能量特征曲面

Fig. 3. Result processed by our method. (a) Image processed by our method; (b) energy characteristic surface

下载图片 查看所有图片

用不同NTES之间的差异值对指关节纹图像进行识别,设曲面上任意点为(x,y),两个图像矩阵的NTES分别为Z1=E1(x,y)和Z2=E2(x,y),Z1Z2的能量差曲面为Z12=S(x,y)=E1(x,y)-E2(x,y)。匹配时,当差曲面的变化程度较小,即方差较小时,认为两个手指关节纹的图像匹配;方差较大则表示两个指关节纹图像不匹配,图像来自两个不同的手指。将差曲面的方差作为指关节纹的匹配距离,并根据该距离的大小判定图像是否来自同一手指。方差S和均值E可表示为

S2=1M×Ni=0M-1j=0N-1S(x,y)-E2,(12)E=1M×Ni=0M-1j=0N-1S(x,y),(13)

式中,MN分别为差曲面的宽度和高度。根据两幅图像差曲面的方差形成的曲线选取阈值[18],当方差S小于该阈值时认为两个指关节纹来自同一手指;否则,来自不同手指。图4为匹配与不匹配时的情况,可以发现,若两幅图像来自同一手指,形成的差曲面变化幅度较小,且灰度值的变化范围小于不匹配的情况。区分指关节纹图像采用能量差曲面的方法,由于大纹理之间产生的方差更大,因此大纹理在识别中起到的作用更大。本方法结合NSST和Tetrolet变化,在去除噪声的同时,增强了指关节纹的对比度,有利于形成能量值变化明显的特征曲面,使识别更准确。

图 4. 不同情况下的能量差曲面。 (a)同一个人的图片1; (b)同一个人的图片2; (c)不同人的图片; (d)匹配的能量差曲面; (e)不匹配的能量差曲面

Fig. 4. Energy difference surfaces under different conditions. (a) Image1 of the same person; (b) image2 of the same person (c) image of the different person; (d) matching energy difference surface; (e) mismatching energy difference surface

下载图片 查看所有图片

4 实验结果及分析

4.1 评价指标及实验环境

识别率WCRR可表示为

WCRR=VCVS×100%,(14)

式中,VC为正确识别的样本数,VS为测试样本总数。WCRR的值越大,表明方法的识别性能越好;反之,方法的性能越差。在坐标系内以错误接受率WFAR为横坐标,错误拒绝率WFRR为纵坐标绘制接受者操作特征曲线(ROC),WFRRWFAR的交点即为等误率(EER),WEER的值越小,表明方法的性能越好。WFRRWFAR可表示为

WFRR=VNFRVNEA×100%,(15)WFAR=VNFAVNIA×100%,(16)

式中,VNFR为错误拒绝次数,VNEA为类内测试总次数,VNFA为错误接受次数,VNIA为类间测试总次数。

本方法的实验环境:系统为Windows10,中央处理器为酷睿i5 7200U,内存为12 G。实验所用测试集为香港理工大学接触式指关节纹库(HKPU-FKP)、非接触式指关节纹图库(HKPU-CFK)、印度理工学院德里分校指关节纹图库(IIT Delhi-FK)及其噪声图库。

4.2 香港理工大学接触式图库测试

HKPU-FKP包含165个人、660根手指的指关节纹图像,且图像已经过ROI的提取。实验选取100个人的左手中指指关节纹图像,每人6幅,共600幅指关节纹图像,图像大小为110 pixel×220 pixel。为检验本方法的抗噪性及鲁棒性,在图像中加入高斯噪声后进行识别率的计算和类内、类间匹配实验,HKPU-FKP原图库及加入噪声的图库示例如图5所示。

图 5. HKPU-FKP图库ROI示例。 (a)原图库; (b)噪声图库

Fig. 5. Example of HKPU-FKP database ROI. (a) Original database; (b) noise database

下载图片 查看所有图片

为了降低光照对匹配造成的影响,对ROI图像进行直方图均衡化处理后再执行本方法。均衡化前后的像素分布如图6所示,可以发现,相比原始图像,均衡化处理后的图像灰度范围变大,像素更集中,有利于后续的特征值提取。

图 6. 直方图均衡化对比图。 (a)均衡化前的图像; (b)均衡化前的直方图; (c)均衡化后的图像; (d)均衡化后的直方图

Fig. 6. Histogram equalization contrast. (a) Image before equalization; (b) histogram before equalization; (c) image after equalization; (d) histogram after equalization

下载图片 查看所有图片

实验进行1500次类内匹配,178200次类间匹配,原图库、噪声图库的类内、类间匹配曲线及ROC如图7所示。可以发现,本方法能有效区分出类内、类间距离,在原图库中的EER为2.5646%,在噪声图库中的EER为6.7252%。

图 7. 匹配曲线及ROC(HKPU-FKP及噪声图库)。(a)匹配曲线;(b)ROC

Fig. 7. Matching curve and ROC (HKPU-FKP and noise database). (a) Matching curve;(b) ROC

下载图片 查看所有图片

为进一步验证本方法的优越性,将NTES与其他方法在HKPU-FKP图库及其噪声图库上的识别结果进行对比,包括主成分分析(PCA)、局部二值模式(LBP)、基于小波变换的灰度曲面、二维PCA(2DPCA)、 基于Surfacelet、 Tetrolet的灰度曲面、Gabor+线性判别分析法(Gabor+LDA)。不同方法在原图库及噪声图库中的识别率及识别时间如表1表2所示,NTES与LGIC、LGIC2、2DPCA等方法在HKPU-FKP图库中的EER和识别时间如表3所示。

表 1. 识别率与识别时间(HKPU-FKP原图库)

Table 1. Recognition rate and matching time (HKPU-FKP original database)

AlgorithmGabor+LDAPCAHaarLBPSurfaceletTetrolet2DPCANTES
WCRR/%96.872194.456496.670194.265995.238196.190198.102598.0392
Matching time/s0.14520.09870.04440.01260.15620.09260.13450.0497

查看所有表

表 2. 识别率与识别时间(HKPU-FKP噪声图库)

Table 2. Recognition rate and matching time (HKPU-FKP noise database)

AlgorithmGabor+LDAPCAHaarLBPSurfaceletTetrolet2DPCANTES
WCRR/%94.270593.216795.761292.807593.495594.265896.285197.7328
Matching time/s0.15290.10240.07680.02750.17620.11210.16720.0526

查看所有表

表 3. 等误率与识别时间(HKPU-FKP图库)

Table 3. Equal error rate and matching time (HKPU-FKP database)

AlgorithmLGIC[19]LBPPCALGIC2[20]2DPCANTES
WEER/%0.4023.50464.25910.3583.47052.5646
Matching time/s0.26180.01260.0987<0.50000.13450.0497

查看所有表

4.3 印度理工学院德里分校指关节纹图库

印度理工学院德里分校指关节纹图库包含158名志愿者的图像,选取其中100个人的指关节纹图像,每人5幅,共500幅图像。ROI图像的大小为80 pixel×100 pixel,IIT Delhi-FK图库原图像及加入高斯噪声的图库如图8所示。

图 8. IIT Delhi-FK图库示例。 (a)原图库; (b)噪声图库

Fig. 8. Example of IIT Delhi-FK database. (a) Original database; (b) noise database

下载图片 查看所有图片

实验共进行1000次类内匹配,123750次类间匹配,得到的类内、类间匹配曲线及ROC如图9所示。当WFAR=WFRR时,本方法在原图库的EER为2.6071%,在噪声图库的EER为8.0588%。表4

图 9. 匹配曲线及ROC(IIT Delhi-FK及噪声图库)。(a)匹配曲线;(b)ROC

Fig. 9. Matching curve and ROC (IIT Delhi-FK and noise database). (a) Matching curve; (b) ROC

下载图片 查看所有图片

表 4. 识别率与识别时间 (IIT Delhi-FK原图库)

Table 4. Recognition rate and matching time (IIT Delhi-FK original database)

AlgorithmGabor+LDAPCAHaarLBPSurfaceletTetrolet2DPCANTES
WCRR/%96.952394.032395.265894.569695.658696.963397.025698.0158
Matching time/s0.15230.08450.0600.02450.11450.12950.15620.0552

查看所有表

表5为本方法与其他方法在IIT Delhi-FK图库及其噪声图库上的正确识别率及识别时间。

表 5. 识别率与识别时间(IIT Delhi-FK噪声图库)

Table 5. Recognition rate and matching time (IIT Delhi-FK noise database)

AlgorithmGabor+LDAPCAHaarLBPSurfaceletTetrolet2DPCANTES
WCRR/%94.375293.508794.757893.250693.312195.158295.316497.1328
Matching time/s0.17230.10810.08320.05760.13210.13080.16420.0672

查看所有表

4.4 香港理工大学非接触式指关节纹图库

香港理工大学非接触式指关节纹图库中的图像通过手机等手持设备采集, 包含503名志愿者的右手中指指关节纹图像。选取其中100人,每人5幅图像,共500幅图像进行实验。ROI图像的大小为160 pixel×180 pixel。原图库及加入高斯噪声的ROI图像如图10所示。

图 10. HKPU-CFK图库ROI示例。 (a)原图库; (b)噪声图库

Fig. 10. Example of HKPU-CFK ROI database. (a) Original database; (b) noise database

下载图片 查看所有图片

在原图库及噪声图库进行类内类间匹配实验,得到的匹配曲线及ROC如图11所示。可以发现,本方法在原图库中的EER为3.4130%,在噪声图库的EER为9.6528%。本方法与其他方法在HKPU-CFK原图库和噪声图库中的正确识别率及识别时间如表6表7所示。

图 11. 匹配曲线及ROC(HKPU-CFK及噪声图库)。 (a) 匹配曲线; (b) ROC

Fig. 11. Matching curve and ROC (HKPU-CFK and noise database). (a) Matching curve; (b) ROC

下载图片 查看所有图片

表 6. 识别率与识别时间 (HKPU-CFK原图库)

Table 6. Recognition rate and matching time(HKPU-CFK original database)

AlgorithmGabor+LDAPCAHaarLBPSurfaceletTetrolet2DPCANTES
WCRR/%97.235693.251796.179893.507494.895196.213597.332198.0027
Matching time/s0.19250.11250.07230.01850.17230.08270.17280.0572

查看所有表

表 7. 识别率与识别时间 (HKPU-CFK噪声图库)

Table 7. Recognition rate and matching time(HKPU-CFK noise database)

AlgorithmGabor+LDAPCAHaarLBPSurfaceletTetrolet2DPCANTES
WCRR/%95.952592.573295.851291.565393.705895.367596.270897.1631
Matching time/s0.20320.13240.09080.03260.18720.10340.19070.0625

查看所有表

图12为本方法与其他方法在三个指关节纹图库的原图库及噪声图库中的识别率和识别时间,可以发现,本方法在三个原图库中的正确识别率均高于其他方法,最高识别率为98.0392%,这验证了本方法的有效性和优越性;在三个噪声图库中的正确识别率最高为97.7328%,也高于其他方法,这证明了本方法具有较好的抗噪性。在计算复杂度方面,本方法在三个原图库及噪声图库中的最短识别时间分别为0.0497 s和0.0526 s,计算效率优于大部分方法。其中,PCA、2DPCA等方法需要对图像进行降维操作,增加了特征提取的时间;Haar、Surfacelet等方法的特征维数较小,在特征提取时耗时较长;Gabor+LDA在特征提取时进行了大量卷积运算,复杂度较高;LBP方法的用时最短,但识别准确率不高;而本方法的特征向量维数适中,在特征提取时耗时较短,具有实时性,在识别率和识别时间两个方面均优于大部分方法。

图 12. 正确识别率和识别时间。 (a) 正确识别率; (b) 识别时间

Fig. 12. Correct recognition rate and matching time. (a) Correct recognition rate; (b) matching time

下载图片 查看所有图片

4.5 实验分析

综上所述,相比其他方法,本方法在识别率上有明显提升,最高可达98.0392%,且识别时间最短,为0.0497 s,EER最低,为2.5646%,这也验证了本方法的有效性和优越性。在噪声图库的对比实验中,本方法的性能优于其他方法,表现出良好的抗噪性能。其中,PCA、2DPCA等方法在进行特征提取时运算过程比较复杂,降维运算导致运行时间较长;基于Haar小波灰度曲面的方法虽然缩短了计算时间,但识别率不高;Surfacelet、Tetrolet方法在识别率、抗噪性能方面均不理想;LGIC、LGIC2方法将局部特征与全局特征融合,EER优于本方法,但识别效率不及本方法。本方法抛弃了传统方法在匹配之前进行大量的局部特征提取、编码等复杂操作,通过NSST进行去噪处理,提升了本方法的鲁棒性;并结合具有稀疏能力的Tetrolet变换对指关节纹图像进行变换,得到原图像的最优表示图像,建立能量曲面并进行匹配,有效提升了正确识别率。匹配时,用整个特征曲面构建待匹配图像,具有抗仿冒性,不易被伪造。此外,本方法提供了更显著的区分判别信息,有效提高了识别性能,缩短了匹配时间。

5 结论

针对指关节纹的纹理特点,提出一种基于NSST和Tetrolet能量特征的指关节纹识别方法。利用NSST分解和Tetrolet变换获取待匹配图像,建立能量曲面进行匹配识别。在三个图库及其噪声图库上的实验结果表明,本方法能有效提高识别系统的准确性,识别率最高为98.0392%,且运行时间较短,EER最低,为2.5646%。这表明本方法在提升识别准确率方面具有优势,且抗仿冒性强。但本方法的准确性仍有较大上升空间,原因是进行图像的去噪及稀疏处理时,图像边缘不能完全被表示。今后可采用对边缘处理能力较强的超小波变换或基于深度学习的多模态融合识别提高系统的识别率和抗伪造性,并致力于建立更大的样本库。

参考文献

[1] 曹燕平, 李晓记, 胡云云. 基于可见光指纹的室内高精度定位方法[J]. 激光与光电子学进展, 2019, 56(16): 160601.

    Cao Y P, Li X J, Hu Y Y. Visible light fingerprint-based high-accuracy indoor positioning method[J]. Laser & Optoelectronics Progress, 2019, 56(16): 160601.

[2] 钟德星, 朱劲松, 杜学峰. 掌纹识别研究进展综述[J]. 模式识别与人工智能, 2019, 32(5): 436-445.

    Zhong D X, Zhu J S, Du X F. Progress of palmprint recognition: a review[J]. Pattern Recognition and artificial Intelligence, 2019, 32(5): 436-445.

[3] 徐颖, 翟懿奎, 甘俊英. 面向指背关节纹识别的图像集与凸壳优化算法[J]. 信号处理, 2014, 30(8): 930-936.

    Xu Y, Zhai Y K, Gan J Y. Finger-knuckle-print recognition based on image sets and convex optimization[J]. Journal of Signal Processing, 2014, 30(8): 930-936.

[4] 杨恢先, 陈凡, 甘伟发. 基于多任务学习的深层人脸识别算法[J]. 激光与光电子学进展, 2019, 56(18): 181005.

    Yang H X, Chen F, Gan W F. Deep face recognition algorithm based on multitask learning[J]. Laser & Optoelectronics Progress, 2019, 56(18): 181005.

[5] 吴晓萍, 管业鹏. 基于人脸关键点与增量聚类的多姿态人脸识别[J]. 激光与光电子学进展, 2019, 56(14): 141002.

    Wu X P, Guan Y P. Multi-pose face recognition based on facial landmarks and incremental clustering[J]. Laser & Optoelectronics Progress, 2019, 56(14): 141002.

[6] Yang W K, Sun C Y, Zhang L. A multi-manifold discriminant analysis method for image feature extraction[J]. Pattern Recognition, 2011, 44(8): 1649-1657.

[7] Chlaoua R, Meraoumia A, Aiadi K E, et al. Deep learning for finger-knuckle-print identification system based on PCANet and SVM classifier[J]. Evolving Systems, 2019, 10(2): 261-272.

[8] 冯媛. 融合指静脉及指关节纹的身份识别方法[D]. 阜新: 辽宁工程技术大学, 2019.

    FengY. Recognition method based on finger vein and finger knuckleprint[D]. Fuxin: Liaoning Technical University, 2019.

[9] Chen Y, Li Z Z, Jin Z. Feature extraction based on maximum nearest subspace margin criterion[J]. Neural Processing Letters, 2013, 37(3): 355-375.

[10] Kong T, Yang G, Yang L. A hierarchical classification method for finger knuckle print recognition[J]. Eurasip Journal on Advances in Signal Processing, 2014, 2014(1): 44.

[11] Kumar A, Wang B C. Recovering and matching minutiae patterns from finger knuckle images[J]. Pattern Recognition Letters, 2015, 68: 361-367.

[12] Nigam A, Tiwari K, Gupta P. Multiple texture information fusion for finger-knuckle-print authentication system[J]. Neurocomputing, 2016, 188: 190-205.

[13] 刘益含, 闫德勤, 王洪东. 一种基于非下采样剪切波变换的医学图像配准方法[J]. 计算机应用研究, 2015, 32(5): 1586-1588.

    Liu Y H, Yan D Q, Wang H D. Medical image registration method based on non-subsampled shearlet transform[J]. Application Research of Computers, 2015, 32(5): 1586-1588.

[14] 于津强, 段锦, 陈伟民, 等. 基于NSST与自适应SPCNN的水下偏振图像融合[J]. 激光与光电子学进展, 2020, 57(6): 061006.

    Yu J Q, Duan J, Chen W M, et al. Underwater polarization image fusion based on NSST and adaptive SPCNN[J]. Laser & Optoelectronics Progress, 2020, 57(6): 061006.

[15] 张兰花. 基于NSST和Tetrolet变换的图像增强算法的研究[D]. 乌鲁木齐: 新疆大学, 2018.

    Zhang LH. The research on image enhancement algorithm based on NSST and Tetrolet transform[D]. Urumqi: Xinjiang University, 2018.

[16] 张耀军, 吴海燕. 基于NSST的自适应阈值图像去噪方法[J]. 信息与电脑(理论版), 2015( 16): 12- 15.

    Zhang YJ, Wu HY. A NSST based adaptive threshold image denoising method[J]. China Computer & Communication, 2015( 16): 12- 15.

[17] Krommweh J. Tetrolet transform: a new adaptive Haar wavelet algorithm for sparse image representation[J]. Journal of Visual Communication and Image Representation, 2010, 21(4): 364-374.

[18] 林森, 徐天扬, 汤永华, 等. 基于改进S变换的手掌静脉身份识别[J]. 光电子·激光, 2015, 26(9): 1776-1782.

    Lin S, Xu T Y, Tang Y H, et al. Palm vein identity recognition based on improved S-transform[J]. Journal of Optoelectronics·laser, 2015, 26(9): 1776-1782.

[19] Zhang L, Zhang L, Zhang D, et al. Ensemble of local and global information for finger-knuckle-print recognition[J]. Pattern Recognition, 2011, 44(9): 1990-1998.

[20] Zhang L, Zhang L, Zhang D, et al. Phase congruency induced local features for finger-knuckle-print recognition[J]. Pattern Recognition, 2012, 45(7): 2522-2531.

王媛, 林森. 基于NSST和Tetrolet能量特征的指关节纹识别[J]. 激光与光电子学进展, 2021, 58(2): 0210019. Yuan Wang, Sen Lin. Finger-Knuckle-Print Recognition Based on NSST and Tetrolet Energy Features[J]. Laser & Optoelectronics Progress, 2021, 58(2): 0210019.

本文已被 1 篇论文引用
被引统计数据来源于中国光学期刊网
引用该论文: TXT   |   EndNote

相关论文

加载中...

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!