李俊林,王華彬,陶 亮
LI Junlin,WANG Huabin,TAO Liang
安徽大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,合肥 230601
School of Computer Science and Technology,Anhui University,Hefei 230601,China
當(dāng)前,生物特征識別技術(shù)[1]由于其便捷性,是人們用來替代傳統(tǒng)人工密碼認(rèn)證方式的主要途徑?,F(xiàn)有的研究人員對基于手部特征的識別技術(shù)已經(jīng)做了大量的研究,主要包括指靜脈識別[2]、掌靜脈識別[3]、指紋識別[4]、掌紋識別[5]和手型識別[6]等。而針對指紋識別和掌紋識別這些皮膚表層的生物特征,容易遭到偽造,破壞其安全性[7],且單一特征的識別技術(shù)在提高識別率上往往處于研究的瓶頸[8]。為了解決以上問題,現(xiàn)有的學(xué)者提出了多特征融合識別技術(shù)[9],其中,掌靜脈和掌紋的融合識別技術(shù)是當(dāng)前的研究熱點(diǎn)之一。在掌靜脈圖像和掌紋圖像多特征融合識別系統(tǒng)中,利用近紅外手掌圖像中提取增強(qiáng)的掌靜脈圖像是其步驟之一,這個過程中卻丟棄了近紅外手掌圖像中原本包含掌紋圖像等結(jié)構(gòu)特征信息,后續(xù)步驟中需要用其他方式重新獲得掌紋結(jié)構(gòu)信息的圖像,這些過程無疑造成諸多的不便和繁瑣。在現(xiàn)今應(yīng)用成熟的掌靜脈圖像和掌紋圖像多特征融合識別的系統(tǒng)中,獲取樣本的掌靜脈圖像和掌紋圖像,主要有以下兩種方式:
(1)采用多攝像頭,普通鏡頭和帶有近紅外(Near Infrared,NIR)濾波片的鏡頭組合使用,如文獻(xiàn)[10],采用3個攝像頭分別捕捉掌紋、掌靜脈和掌背的圖像,得到的3個圖像分別提取各自的特征,最后進(jìn)行決策層的融合方法,實(shí)現(xiàn)多模態(tài)的特征融合識別。上述研究都由于多幅圖像空間位置不是一一對應(yīng)的,這樣得到的多幅圖像需要進(jìn)行圖像配準(zhǔn)。如Yang等人在文獻(xiàn)[11]中和Wang等人在文獻(xiàn)[12]都用到圖像配準(zhǔn)的方法,找到單應(yīng)矩陣,從而實(shí)現(xiàn)一對一的映射關(guān)系。為找到的3×3的單應(yīng)矩陣需要選取圖像中的4個結(jié)構(gòu)點(diǎn),應(yīng)用到實(shí)際都有一定的缺陷。
(2)采用單攝像頭,利用不同波長頻譜捕捉掌紋和掌靜脈圖像,如文獻(xiàn)[13]。因?yàn)檠褐械难t蛋白吸收紅外光譜的范圍在760~850 nm之間,紅外光譜被靜脈血液中的血紅蛋白吸收,使得掌靜脈在近紅外光源下顯得更暗,從而區(qū)別顯示掌紋和掌靜脈。其具體操作相對來說比較復(fù)雜,實(shí)際應(yīng)用范圍有限。
通過上述分析可知,現(xiàn)有的掌靜脈和掌紋融合識別方法中,掌靜脈和掌紋圖像是完全獨(dú)立的,不管采用多攝像頭還是單攝像頭模式,其采集過程多有不便,較為繁瑣。經(jīng)過實(shí)驗(yàn)分析,單幅近紅外手掌圖像中同時包含掌靜脈和掌紋結(jié)構(gòu)信息,如果能夠從單幅圖像中分別增強(qiáng)掌靜脈以及掌紋結(jié)構(gòu),設(shè)計出合理的融合識別方法,不僅提高單幅近紅外手掌圖像的識別率,而且可以簡化融合識別系統(tǒng)的復(fù)雜度。
本文提出了一種從單幅近紅外手掌圖像中,分別單獨(dú)增強(qiáng)掌靜脈和掌紋結(jié)構(gòu),實(shí)現(xiàn)掌靜脈和掌紋的多特征融合識別方法。具體過程如下:(1)增強(qiáng)掌靜脈結(jié)構(gòu),首先利用改進(jìn)的引導(dǎo)濾波算法,去除掌紋結(jié)構(gòu);然后用反模糊細(xì)節(jié)增強(qiáng)模型對掌靜脈結(jié)構(gòu)進(jìn)行增強(qiáng)。(2)為了增強(qiáng)掌紋結(jié)構(gòu),利用分塊增強(qiáng)算法突出掌紋主線條結(jié)構(gòu),同時去除掌靜脈結(jié)構(gòu);針對分塊增強(qiáng)算法無法處理顆粒噪聲的問題,及提高掌紋主線條結(jié)構(gòu)的對比度,使用基于Sobel梯度算子反銳化掩模增強(qiáng)算法增強(qiáng)掌紋結(jié)構(gòu)。(3)利用二維小波分解提取掌靜脈圖像和掌紋圖像的全局特征,提出特征加權(quán)融合識別方法。訓(xùn)練時,計算掌靜脈和掌紋圖像的識別閾值,計算兩者加權(quán)后的識別閾值,得到最終的識別閾值。測試時,計算待測樣本和已注冊圖像掌靜脈和掌紋的相似系數(shù),找出加權(quán)后相似系數(shù)最大的一組,判斷相似系數(shù)和識別閾值的關(guān)系,若相似系數(shù)大于等于其識別閾值,判斷為同類,否則拒絕識別,識別結(jié)束。最后統(tǒng)計其中正確識別和錯誤識別的樣本數(shù),得到識別率、誤識率和拒識率。
本文設(shè)計的算法可以從單幅近紅外手掌圖像中,分別增強(qiáng)掌靜脈圖像和掌紋圖像。然后利用掌靜脈和掌紋圖像,提出特征加權(quán)融合識別算法,其識別效果優(yōu)于其他算法。
由于活體人體手掌組織各個部位的差異性,使得近紅外手掌圖像中同時包含掌靜脈結(jié)構(gòu)和掌紋結(jié)構(gòu)圖像,如圖1中所示的樣本圖像,可以觀察到掌靜脈和掌紋結(jié)構(gòu)(掌靜脈結(jié)構(gòu)表現(xiàn)暗淡,掌紋結(jié)構(gòu)表現(xiàn)偏白)。通過對感興趣區(qū)域的(Region of Interest,ROI)近紅外手掌圖像進(jìn)行分析,發(fā)現(xiàn)掌靜脈和掌紋結(jié)構(gòu)存在以下區(qū)別:
(1)掌紋線條結(jié)構(gòu)延伸平緩,局部區(qū)域掌靜脈相對于掌紋的線條結(jié)構(gòu)更寬,且掌靜脈在結(jié)構(gòu)邊緣處方差較大。
(2)掌紋與掌靜脈的像素值分布范圍不同,掌靜脈像素值偏小,視覺上顯得暗淡。
基于以上兩點(diǎn)事實(shí),認(rèn)為可以從單幅近紅外手掌圖像中分別單獨(dú)增強(qiáng)掌靜脈結(jié)構(gòu)和掌紋結(jié)構(gòu)圖像,實(shí)現(xiàn)掌靜脈和掌紋的多特征融合識別。
圖1 數(shù)據(jù)庫樣圖
提取掌靜脈圖像使用引導(dǎo)濾波算法[14],針對二維引導(dǎo)濾波模型,可用下面式(1)表達(dá):
在式(1)中,I為引導(dǎo)濾波的引導(dǎo)圖像,q為輸出圖像式,p為輸入圖像式,Wij為是引導(dǎo)圖像I的核函數(shù),i和 j為像素點(diǎn)的空間位置。I作為引導(dǎo)圖像,如果I=p,即自引導(dǎo)濾波。設(shè)濾波窗口wk,中心點(diǎn)為k,q為I的線性變換,則引導(dǎo)圖像如式(2)所示:
引導(dǎo)濾波中,為了減少邊緣細(xì)節(jié)損失,通過最小化p和q的差來確定系數(shù)ak和bk,使得式(3)最?。?/p>
式(3)中ε是正則化參數(shù),防止ak過大。通過最小二乘法解式(3),求解 ak、bk得到:
式(4)、(5)中 uk和分別是 I在 wk中的均值和方差,|w|是wk中像素的個數(shù),pˉk是輸入圖像 p在wk中的均值,求出該局部線性模型后,代入整幅圖像,由于每一個像素點(diǎn)會有多個包含在該像素點(diǎn)的窗口wk,所以當(dāng)在不同的窗口wk計算時qi的值會有不同,故進(jìn)行平均處理,如下式:
式(7)中:
綜上,核函數(shù)W可以定義如下:
圖像增強(qiáng)是圖像處理過程中非常重要的一個步驟,關(guān)系到高層次圖像處理的特征提取和識別。圖像增強(qiáng)的主要目的是抑制噪聲和提高圖像邊緣的對比度。自引導(dǎo)濾波由于引導(dǎo)圖像是自身圖像,和其他濾波算法相比具有良好的邊緣梯度保持能力,同時具備一定的平滑去噪能力。引導(dǎo)濾波在圖像的增強(qiáng)方面得到廣泛的應(yīng)用,通過原圖像和自引導(dǎo)濾波后的圖像相減得到濾除的部分,將這些濾除的部分以一定的比例融入濾波后的圖像,即可以獲得到高對比度的圖像。這個過程如何選取合適的濾波半徑和正則化參數(shù)是關(guān)鍵。
自引導(dǎo)濾波中,如果ε>0,像素值方差大的局部區(qū)域,自引導(dǎo)濾波效果不明顯,保持了原圖的邊緣信息。而像素值方差小的局部區(qū)域,自引導(dǎo)濾波近似為加權(quán)均值濾波;同時,濾波半徑越大,其平滑噪聲效果越明顯,但隨著濾波半徑的增大也會降低邊緣的對比度圖2(b)。觀察近紅外手掌圖像,容易發(fā)現(xiàn)掌紋像素值較大,線條窄細(xì),其結(jié)構(gòu)邊緣局部像素值方差較小,因此,自引導(dǎo)濾波選取較大的濾波半徑對其使用近似的加權(quán)均值濾波處理,去除掌紋結(jié)構(gòu)。而掌靜脈結(jié)構(gòu),灰度值較低,且邊緣明顯,其局部像素值方差較大,自引導(dǎo)濾波可以選取較小的濾波半徑,從而保持掌靜脈結(jié)構(gòu)邊緣信息。然而由于自引導(dǎo)濾波半徑固定,不能獲得增強(qiáng)掌靜脈結(jié)構(gòu)的同時去除掌紋的圖像,如圖2(c)所示。
為了解決以上的問題,本文提出了改進(jìn)的自引導(dǎo)濾波算法增強(qiáng)掌靜脈圖像,不僅可以增強(qiáng)掌靜脈圖像,同時可以去除掌紋信息。觀察自引導(dǎo)濾波后的圖2(b),較大的自引導(dǎo)濾波半徑可以得到平滑掌紋的圖像,而當(dāng)自引導(dǎo)濾波半徑較小時可以得到保持邊緣的掌靜脈圖像。因此可以分兩次自引導(dǎo)濾波處理,第一次選取較小的濾波半徑r1得到保持掌靜脈邊緣的q1,第二次將對q1使用較大的濾波半徑r2得到平滑掌紋的q2,最后對q1和q2使用細(xì)節(jié)融合增強(qiáng)算法,具體步驟如下:
(1)對近紅外手掌圖像 pinfrared使用自引導(dǎo)濾波,選取較小的濾波窗口r1=2和正則化參數(shù)ε=0.12,得到保持掌靜脈邊緣的q1。
(2)對q1使用窗口較大的r2=16和正則化參數(shù)ε=0.12,進(jìn)行自引導(dǎo)濾波,平滑掉掌紋后的圖像q2。
(3)對保持細(xì)節(jié)邊緣的q1和平滑掉掌紋后的圖像q2使用細(xì)節(jié)增強(qiáng)模型,I為增強(qiáng)后掌靜脈圖像,這里的t為細(xì)節(jié)增強(qiáng)參數(shù),t取5。
(4)為了增強(qiáng)較好的掌靜脈圖像,重復(fù)步驟(1)~(3),提取增強(qiáng)后的掌靜脈圖像Ivein。
經(jīng)過上述步驟處理近紅外手掌圖像,得到增強(qiáng)的掌靜脈圖像,如圖2(d)所示,掌靜脈結(jié)構(gòu)對比度明顯,去除了掌紋結(jié)構(gòu)信息,且增強(qiáng)后的掌靜脈結(jié)構(gòu)保持連續(xù)。
圖2 增強(qiáng)掌靜脈
近紅外手掌圖像中包含掌紋結(jié)構(gòu),由于掌紋結(jié)構(gòu)窄細(xì),線條平緩。相對于掌靜脈,掌紋的像素值較大,且掌紋的像素值偏離該局部區(qū)域的均值。因此可以用改進(jìn)的分塊增強(qiáng)模型[15]突出掌紋的主線條結(jié)構(gòu)。分塊增強(qiáng)算法需要評估背景強(qiáng)度,其具體算法步驟如下:
(1)將圖像分成大小相等半徑為R小塊,每個小塊間3個像素的重疊,計算各個小塊的像素均值,得到背景矩陣。
(2)將得到的背景矩陣使用雙三次插值,得到和原圖像矩陣一樣的維數(shù)。
(3)用原圖像和背景矩陣相減,最后使用直方圖均衡化。
圖3列出了不同分塊半徑下的掌紋增強(qiáng)效果。
圖3 不同分塊半徑下掌紋結(jié)構(gòu)增強(qiáng)
實(shí)驗(yàn)得知,圖像分塊增強(qiáng)算法可以提高掌紋結(jié)構(gòu)的紋理和對比度,同時,由于分塊增強(qiáng)模型算法對背景矩陣使用了雙三次插值,圖像的分塊增強(qiáng)引入大量顆粒噪聲,掌紋紋理結(jié)構(gòu)得到突出,但是無法消除背景的噪聲,如圖3(b)所示。由于這個問題,本文在掩模增強(qiáng)算法[16]的基礎(chǔ)上,對掌紋結(jié)構(gòu)提出了基于Sobel算子改進(jìn)的圖像反銳化掩模增強(qiáng)算法。
為了獲取掌紋的主線條結(jié)構(gòu)紋理,Sobel算子在檢測邊緣的同時可以抑制噪聲。Sobel算子的梯度操作可以明顯地看到掌紋的主線結(jié)構(gòu)提取出來,如圖4(c)所示,但是也不可避免地引入虛假掌紋結(jié)構(gòu)和其他噪聲。虛假掌紋結(jié)構(gòu)表現(xiàn)為不連續(xù)的斷點(diǎn)噪聲,這些噪聲是Sobel算子的誤檢測導(dǎo)致,將那些梯度大于閾值的認(rèn)為是掌紋結(jié)構(gòu)邊緣。為了消除這些虛假掌紋結(jié)構(gòu)信息的噪聲,本文使用的方法是迭代均值濾波處理,濾波窗口大小為9。均值濾波的功能是對像素鄰域內(nèi)所有的像素值取均值,將得到的平均值作為當(dāng)前像素新的像素值。由于掌紋主線條結(jié)構(gòu)處像素值較大,掌紋邊緣周圍的像素值較小,經(jīng)過均值濾波處理后的掌紋結(jié)構(gòu)更加突出,同時對于那些由于Sobel算子誤檢測的噪聲小塊和細(xì)紋可以得到平滑和去噪處理。圖4(d)~(f)分別為均值濾波迭代一次、兩次和三次的結(jié)果,從中可以看出,經(jīng)過三次迭代后的效果最好,過多的迭代也會造成圖像模糊化問題。
圖4 掌紋結(jié)構(gòu)圖像增強(qiáng)
為了進(jìn)一步增強(qiáng)掌紋結(jié)構(gòu),提高掌紋主線結(jié)構(gòu)和周圍的對比度,這里使用隸屬度函數(shù)[17]。該方法提供模糊反銳化的圖像增強(qiáng)算法,即:
其中,I′是增強(qiáng)后的圖像,I為待增強(qiáng)圖像,Ifuzzy為I經(jīng)過隸屬度函數(shù)處理后的模糊化后的圖像,λ是細(xì)節(jié)增強(qiáng)系數(shù)。當(dāng)λ=10時,掌紋增強(qiáng)的效果如圖4(g)所示。
綜上,掌紋結(jié)構(gòu)的增強(qiáng)步驟為:
(1)將圖像分成小塊,每個小塊大小為R×R,用分塊增強(qiáng)模型算法處理近紅外手掌圖像Pinfrared,得到Iblock。
(2)采用Sobel算子水平和垂直方向檢測分塊增強(qiáng)圖像Iblock中掌紋主線條結(jié)構(gòu),經(jīng)過3次迭代均值濾波處理得到ISobel。
(3)隸屬度函數(shù)處理ISobel,得到模糊化后的圖像Ifuzzy。
(4)使用模糊反銳化圖像增強(qiáng)模型 I′=ISobel-λ×Ifuzzy,得到增強(qiáng)后的掌紋結(jié)構(gòu)圖像I′。
小波分解在圖像特征提取中比較常見的應(yīng)用方法。經(jīng)小波分解后的圖像有低頻和高頻部分,低頻對應(yīng)圖像的全局特征,高頻對應(yīng)與圖像的細(xì)節(jié)特征。由于在近紅外手掌圖像中提取掌靜脈和掌紋主要結(jié)構(gòu)信息的過程中,細(xì)節(jié)信息丟失嚴(yán)重,但掌靜脈和掌紋的主要結(jié)構(gòu)特征得到保留,因此特征提取選取小波分解后的低頻子帶圖像。
圖像每經(jīng)過一次小波分解,圖像像素點(diǎn)個數(shù)都會減少到原圖像的1/4,且會得到LL、HL、LH和HH四個子帶圖像,分別代表原圖像水平方向和垂直方向的低頻分量、水平方向高頻分量和垂直方向低頻分量、水平方向低頻分量和垂直方向高頻分量、水平方向和垂直方向的高頻分量。近紅外手掌圖像中提取到的掌靜脈圖像和掌紋圖像,大小依然是128×128的灰度圖像。為了降低圖像的維數(shù),保持圖像主要的全局特征,這里使用二級二維小波分解的方法,兩次提取LL子帶低頻分量的圖像。
經(jīng)過二級二維小波分解后LL子帶低頻分量的圖像,保持了圖像的主要全局特征,且圖像矩陣的大小降低為32×32。設(shè)A、B為大小為M×N的兩個矩陣。則它們的相似系數(shù)Rs定義如下:
識別閾值的設(shè)置:訓(xùn)練時,計算每個樣本的若干張圖像中任意兩張圖像矩陣的相似系數(shù),取其中最小的值記為,則識別閾值其中m=1,2,…,500)。
測試時用數(shù)據(jù)庫每個樣本中隨機(jī)選取的6張圖像,共進(jìn)行3 000次測試。具體步驟為:
將第i個待測樣本的第 j張圖像與數(shù)據(jù)庫k個樣本的第1張圖像一一計算相似系數(shù)(其中i=1,2,…,500,j=7,8,…,12,k=1,2,…,500),取其中相似系數(shù)最大的一組,判斷和Rthreshold的關(guān)系,將識別結(jié)果定義如下:
識別率(Correct Recognition Rate,CRR)、誤識率(False Accept Rate,F(xiàn)AR)和拒識率(False Rejection Rate,F(xiàn)RR)定義如下:
圖像的融合系統(tǒng)中,融合方式有多種,分為像素層融合、特征層融合和決策層融合。一般將這些融合方式稱為低級融合、中級融合和高級融合[18]。不同的融合識別系統(tǒng)采用的融合方式不一樣。其中,低級融合的融合方式利用圖像的信息量最大,高級融合的融合方式利用圖像的信息量最小。雖然在信息量利用方面低級融合要優(yōu)于高級融合,但是從實(shí)現(xiàn)的難度來看,圖像的高級融合方式更加簡單便捷[19],通過計算單一模態(tài)得分后即可通過加權(quán)得分實(shí)現(xiàn)決策層的特征融合,且本文在增強(qiáng)掌靜脈和掌紋結(jié)構(gòu)圖像的過程中,原近紅外手掌圖像的像素信息已經(jīng)發(fā)生改變,不適合使用低級融合的掌靜脈和掌紋多特征融合,綜合以上原因,本文采用了決策層的加權(quán)融合方法,即對掌靜脈和掌紋的識別閾值進(jìn)行加權(quán)處理,其閾值的數(shù)學(xué)表達(dá)式如下:式(12)中,α是加權(quán)系數(shù),0≤α≤1,Tvein是掌靜脈的識別閾值,Tprint是掌紋的識別閾值,通過加權(quán)處理,最后得到融合后的識別閾值Tfusion。
目前公開的近紅外手掌圖像的數(shù)據(jù)庫中,香港理工大學(xué)人體生物特征識別研究中心提供的多頻譜掌紋圖像數(shù)據(jù)庫[20]是眾多學(xué)者經(jīng)常使用的數(shù)據(jù)庫之一,該數(shù)據(jù)庫提供藍(lán)、綠、紅和近紅外光源下的手掌感興趣區(qū)域圖像。本文選取的是近紅外手掌圖像,圖像為128×128的灰度圖像,來自250個人的左手和右手,共計500個樣本,每個樣本分前后兩個時期采集,每期采集6張近紅外手掌圖像,共計6 000張。其中,對于近紅外手掌圖像感興趣區(qū)域提取算法在文獻(xiàn)[21]中有說明。
自引導(dǎo)濾波中,選取合適的濾波窗口r和正則化參數(shù)ε是有效增強(qiáng)掌靜脈的關(guān)鍵,圖5是調(diào)節(jié)自引導(dǎo)濾波參數(shù)的一組實(shí)驗(yàn)效果圖。
由圖5知,在濾波窗口半徑r固定的時候,正則化參數(shù)ε變化對濾波的效果變化不明顯。相反,在正則化參數(shù)ε固定的時候,濾波窗口的變化對濾波效果較為明顯,隨著窗口的增加,圖像的平滑效果也越明顯。因此,本文采用固定正則化參數(shù)ε=0.12,控制濾波窗口r來比較掌靜脈增強(qiáng)效果。
圖5 濾波窗口r和正則化參數(shù)濾波效果
掌靜脈的自引導(dǎo)濾波中,正則化參數(shù)ε變化對掌靜脈的濾波效果影響不明顯,這里取值0.12,而濾波窗口t的變化對掌靜脈的濾波效果明顯。因此,圖6列出(r1,r2)和細(xì)節(jié)增強(qiáng)參數(shù)t,比較掌靜脈的增強(qiáng)效果。
圖6 不同濾波窗口和增強(qiáng)系數(shù)掌靜脈增強(qiáng)效果
表1 不同濾波窗口和增強(qiáng)系數(shù)的掌靜脈識別效果
其中圖6中(r1,r2)分別表示自引導(dǎo)濾波保持掌靜脈邊緣的q1選擇較小的濾波窗口r1,以及自引導(dǎo)濾波為了平滑掌紋得到的q2而選擇較大的濾波窗口r2,t為細(xì)節(jié)增強(qiáng)模型參數(shù)。得到的掌靜脈結(jié)構(gòu)增強(qiáng)效果圖6所示,表1給出了對應(yīng)的掌靜脈識別結(jié)果。
結(jié)合圖6和表1,可以看出,隨著窗口(r1,r2)的取值變化,濾波效果也發(fā)生了變化。增強(qiáng)系數(shù)取值增大,也會導(dǎo)致掌靜脈圖像的濾波效果變得更加明顯。同時,增強(qiáng)系數(shù)過大,引入的噪聲數(shù)據(jù)也會增多,不利于識別。在選取每個樣本的隨機(jī)6張圖像作為訓(xùn)練樣本時,由表1中數(shù)據(jù)可得,當(dāng) (r1,r2)=(2,16)時,t=5時,此時的掌靜脈識別效果最好,掌靜脈的識別閾值為0.654 0,識別率99.23%,誤識率0.57%,據(jù)識率為0.20%。
一般來說,當(dāng)選取的訓(xùn)練樣本數(shù)越多,模式識別的識別效果也會越好。本文在訓(xùn)練樣本個數(shù)不同的情況下做了識別實(shí)驗(yàn),其結(jié)果如圖7所示。
圖7表明,當(dāng)樣本的訓(xùn)練個數(shù)在6以下時,掌靜脈的識別率是隨著訓(xùn)練樣本數(shù)的增加而提高;當(dāng)訓(xùn)練的樣本數(shù)大于6時,識別率變化不明顯,只有在樣本數(shù)為9和10時,識別率稍有提高,由于實(shí)驗(yàn)中樣本訓(xùn)練個數(shù)越多,對應(yīng)的處理時間也會增多。因此,本文的所有識別實(shí)驗(yàn)中,選取訓(xùn)練樣本為6,既充分考慮識別率也兼顧了處理時間。
圖7 訓(xùn)練樣本數(shù)和識別率關(guān)系
由4.1節(jié)可知,掌紋的分塊增強(qiáng)算法中,實(shí)驗(yàn)得知,分塊大小也會影響掌紋結(jié)構(gòu)質(zhì)量和圖像的噪聲,分塊較小的時候留下來的掌靜脈信息較少,然而掌紋的對比度不高,不利于增強(qiáng)掌紋結(jié)構(gòu);分塊較大的時候,掌紋結(jié)構(gòu)更加突出,然而掌靜脈等不必要的噪聲信息較多。
細(xì)節(jié)增強(qiáng)系數(shù)也會影響識別率,為了選取細(xì)節(jié)增強(qiáng)參數(shù)λ,圖8列出了不同參數(shù)下增強(qiáng)后的掌紋結(jié)構(gòu)圖像,及表2對應(yīng)地列出了掌紋識別結(jié)果。
結(jié)合圖8和表2可知,在R=9,λ=50時,此時的掌紋識別效果最好,得到的掌紋識別閾值是0.525 4,識別率為94.00%,誤識別率為3.57%,據(jù)識別率為2.43%。上述的結(jié)果表明,同時增強(qiáng)掌靜脈和掌紋,掌靜脈的識別效果要優(yōu)于掌紋識別。
圖8 不同分塊半徑和增強(qiáng)系數(shù)掌紋增強(qiáng)效果
表2 不同分塊半徑和增強(qiáng)系數(shù)掌紋識別效果
表3 掌靜脈和掌紋融合識別效果
為了達(dá)到最好的識別效果,結(jié)合掌靜脈識別和掌紋識別的實(shí)驗(yàn)結(jié)果,將掌靜脈的增強(qiáng)參數(shù)設(shè)置為(r1,r2)=(2,16),t=5;掌紋的增強(qiáng)參數(shù)設(shè)置為 R=9,λ=50。由實(shí)驗(yàn)得知,同時增強(qiáng)掌靜脈結(jié)構(gòu)和掌紋結(jié)構(gòu)圖像,掌靜脈的識別效果優(yōu)于掌紋識別效果,因此,融合識別時掌靜脈的權(quán)值應(yīng)該大于掌紋的權(quán)值,即α的取值區(qū)間為[0.5,1.0]。為了找到近優(yōu)解α,擇優(yōu)間隔為0.05。最后得到的融合識別效果如表3所示。
由表3可得,在α取值0.6時,此時的融合識別率最高99.63%,誤識率為0.37%,拒識率為0。在α取值0.7時,此時的等誤率(Equal Error Rate,EER)為0.37%。
本文中的所有實(shí)驗(yàn)均在Intel i5/3.20 GHz CPU/4 GB RAM/MATLAB 2013環(huán)境下進(jìn)行,對整個識別階段的處理時間Ttotal定義如下:
式(13)中,Tv_e為在近紅外手掌圖像中增強(qiáng)掌靜脈結(jié)構(gòu)圖像所需時間;Tp_e為在近紅外手掌圖像中增強(qiáng)掌紋結(jié)構(gòu)圖像所需時間;Tv_w為掌靜脈結(jié)構(gòu)圖像的小波分解特征提取所需時間;Tp_w為掌紋結(jié)構(gòu)圖像小波分解的特征提取所需時間;Tf_r為掌靜脈和掌紋加權(quán)融合識別處理時間。設(shè)圖像的像素點(diǎn)個數(shù)為N,則表4列出每個步驟對應(yīng)的時間復(fù)雜度和其平均運(yùn)行時間。結(jié)果表明,識別階段總的時間Ttotal為0.708 181 s。
表4 時間復(fù)雜度和對應(yīng)的運(yùn)行時間
在單幅近紅外手掌圖像實(shí)現(xiàn)掌靜脈和掌紋多特征融合識別的研究中,目前沒有可以比較的文獻(xiàn)。為了驗(yàn)證本文提出的算法具有有效性,故在表5中列舉了針對近紅外手掌圖像針對掌靜脈特征幾種常見的識別算法。其中,文獻(xiàn)[22]對近紅外手掌圖像中的掌靜脈采用了基于方向梯度直方圖的特征提取方法,和改進(jìn)的支持向量機(jī)的方法實(shí)現(xiàn)識別匹配。通過計算圖像局部像素點(diǎn)的梯度幅值和前景邊緣方向來描述圖像特征,最后采用可調(diào)節(jié)閾值支持向量機(jī)完成分類識別。文獻(xiàn)[23]把近紅外手掌圖像中掌靜脈作為特征,通過二維可調(diào)Gabor濾波器在提取掌靜脈圖像的4方向(0°,45°,90°和135°)特征,找到Gabor函數(shù)實(shí)部和虛部響應(yīng)的4個方向中最大的梯度值,對實(shí)部最大梯度值和虛部最大的梯度值使用位串編碼(VeinCode),采用這樣的方向編碼方法,將掌靜脈的方向信息存儲為特征向量,最后采用歸一化后的漢明距離方法進(jìn)行匹配識別。文獻(xiàn)[24]采用尺度不變特征變換(Scale Invariant Feature Transform SIFT),首先通過高斯差分函數(shù)的極值點(diǎn)找到掌靜脈圖像中的關(guān)鍵點(diǎn),對每一個樣本圖像分配梯度幅值和梯度方向,在關(guān)鍵點(diǎn)區(qū)域16×16的數(shù)組內(nèi)形成方向直方圖,計算關(guān)鍵點(diǎn)梯度方向,每個關(guān)鍵點(diǎn)包含8個方向信息,一共有4×4個關(guān)鍵點(diǎn),這樣就形成了128維的特征向量,最后采用歐幾里德距離進(jìn)行樣本匹配識別。本文在香港理工大學(xué)提供的近紅外手掌圖像數(shù)據(jù)庫中實(shí)現(xiàn)了其中的算法。由于以上文獻(xiàn)算法對本文數(shù)據(jù)庫中的近紅外手掌圖像只作為靜脈識別,其方法為單一特征的掌靜脈識別,沒有考慮原近紅外手掌圖像中的掌紋信息,本文在考慮掌紋信息情況下等誤率優(yōu)于以上算法,具體對比如表5所示。
表5 近紅外手掌圖像識別性能對比
本文對單幅近紅外手掌近圖像分別增強(qiáng)掌靜脈結(jié)構(gòu)和掌紋結(jié)構(gòu)圖像。采用自引導(dǎo)濾波算法增強(qiáng)掌靜脈結(jié)構(gòu),通過實(shí)驗(yàn)表明,自引導(dǎo)濾波中正則化參數(shù)ε對掌靜脈的濾波效果不明顯,而近紅外手掌圖像中掌靜脈和掌紋的結(jié)構(gòu)紋理不同,通過自引導(dǎo)濾波無法獲得增強(qiáng)掌靜脈結(jié)構(gòu)同時去除掌紋結(jié)構(gòu)的圖像。為了解決這個問題,本文使用了兩次自引導(dǎo)濾波,第一次使用較小的濾波半徑,得到保持掌靜脈邊緣的圖像,對第一次濾波圖像使用較大的自引導(dǎo)濾波半徑處理,得到了平滑掌紋結(jié)構(gòu)的圖像,兩次相減剛好是濾除的掌紋紋理的部分,通過一定的系數(shù)融合到保持掌靜脈邊緣的圖像中,掌靜脈的邊緣結(jié)構(gòu)相比原圖,得到明顯增強(qiáng),且同時平滑了掌紋信息。近紅外手掌圖像中同時也包含掌紋結(jié)構(gòu),由于掌紋結(jié)構(gòu)窄細(xì),線條平緩。相對于掌靜脈,掌紋的像素值較大,且掌紋的像素值偏離該局部區(qū)域的均值。因此用分塊增強(qiáng)模型突出掌紋的主線條結(jié)構(gòu)。經(jīng)過分塊增強(qiáng)后,掌紋主線條結(jié)構(gòu)得到突出,但引入了顆粒噪聲。為了提高掌紋邊緣的對比度和平滑噪聲,使用Sobel算子在水平和垂直方向做邊緣檢測,對誤檢測的邊緣使用迭代均值的濾波方法平滑,平滑后的圖像使用反銳化掩模增強(qiáng)算法增強(qiáng)掌紋圖像,和原圖相比,掌紋主線條結(jié)構(gòu)對比度提高,且平滑了掌靜脈結(jié)構(gòu)。對增強(qiáng)后的掌靜脈結(jié)構(gòu)和掌紋結(jié)構(gòu)圖像使用加權(quán)特征融合識別,結(jié)果表明,在相同的數(shù)據(jù)庫下,本文算法等誤率EER為0.37%,比其他算法平均降低0.66%。
本文單幅近紅外手掌圖像實(shí)現(xiàn)掌靜脈和掌紋多特征融合識別的方法:即利用單幅近紅外手掌圖像分別單獨(dú)增強(qiáng)掌靜脈和掌紋結(jié)構(gòu)圖像,解決了傳統(tǒng)多特征識別需要獲取多幅圖像的問題。由于掌靜脈和掌紋結(jié)構(gòu)在近紅外手掌圖像中局部紋理信息的差異和像素值分布范圍的不同,通過改進(jìn)的自引導(dǎo)濾波方法增強(qiáng)掌靜脈結(jié)構(gòu),和基于Sobel算子反銳化掩模增強(qiáng)算法增強(qiáng)掌紋結(jié)構(gòu),得到了增強(qiáng)后的掌靜脈和掌紋結(jié)構(gòu)圖像。對掌靜脈和掌紋結(jié)構(gòu)圖像使用多特征融合識別方法,結(jié)果表明,本文掌靜脈和掌紋融合識別算法識別率達(dá)到99.63%,對比單一特征掌靜脈識別率提高0.40%,單一特征掌紋識別率提高5.63%。單幅近紅外手掌圖像的多特征融合識別率比其他算法等誤率EER平均降低0.66%,單個隨機(jī)樣本平均識別時間小于1 s,算法適用于門禁、考勤等識別系統(tǒng)。因此,本文算法具有實(shí)用性。
參考文獻(xiàn):
[1]Shekhar S,Patel V M,Nasrabadi N M,et al.Joint sparse representation for robust multimodal biometrics recognition[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2014,36(1):113-126.
[2]Liu Z,Song S.An embedded real-time finger-vein recognition system for mobile devices[J].IEEE Transactions on Consumer Electronics,2012,58(2):522-527.
[3]Kang W,Wu Q.Contactless palm vein recognition using a mutual foreground-based local binary pattern[J].IEEE Transactions on Information Forensics&Security,2014,9(11):1974-1985.
[4]Cao K,Jain A K.Learning fingerprint reconstruction:From minutiae to image[J].IEEE Transactions on Information Forensics&Security,2015,10(1):104-117.
[5]Zhang D,Lu G.3D palmprint classification by global features[J].IEEE Transactions on Systems Man&Cybernetics Systems,2013,43(2):370-378.
[6]Kang W,Wu Q.Pose-invariant hand shape recognition based on finger geometry[J].IEEE Transactions on Systems Man&Cybernetics Systems,2014,44(11):1510-1521.
[7]Gupta P,Gupta P.Multi-modal fusion of palm-dorsa vein pattern for accurate personal authentication[J].Knowledge-Based Systems,2015,81:117-130.
[8]Haghighat M,Abdel-mottaleb M,Alhalabi W.Discriminant correlation analysis:Real-time feature level fusion for multimodal biometric recognition[J].IEEE Transactions on Information Forensics&Security,2016,11(9):1984-1996.
[9]Ding Changxing,Tao Dacheng.Robust face recognition via multimodal deep face representation[J].IEEE Transactions on Multimedia,2015,17:2049-2058.
[10]Bu W,Zhao Q,Wu X,et al.A novel contactless multimodal biometric system based on multiple hand features[C]//2011 International Conference on Hand-Based Biometrics(ICHB),2011:1-6.
[11]Yang W,Huang X,Zhou F,et al.Comparative competitive coding for personal identification by using finger vein and finger dorsal texture fusion[J].Information Sciences,2014,268(6):20-32.
[12]Wang J G,Yau W Y,Suwandy A.Feature-level fusion of palmprint and palm vein for person identification based on a“junction point”representation[C]//The 15th IEEE International Conference on Image Processing,San Diego,CA,2008:253-256.
[13]Fuksis R,Kadikis A,Greitans M.Biohashing and fusion of palmprint and palm vein biometric data[C]//International Conference on Hand-based Biometrics,2011:1-6.
[14]He K,Sun J,Tang X.Guided image filtering[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2013,35(6):1397-1409.
[15]Zhou Y,Kumar A.Human identification using palm-vein images[J].IEEE Transactions on Information Forensics&Security,2011,6(4):1259-1274.
[16]Guang D.A generalized unsharp masking algorithm[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2011,20(5):1249-1261.
[17]王艷霞,阮秋琦.一種新的掌紋圖像預(yù)處理方法[J].中國圖象圖形學(xué)報,2008,13(6):1115-1122.
[18]Zhang D,Guo Z,Lu G,et al.An online system of multispectral palmprint verification[J].IEEE Transactions on Instrumentation&Measurement,2010,59(2):480-490.
[19]王科俊,宋新景,王晨暉.手形和掌紋決策層融合方法研究[J].黑龍江大學(xué)工程學(xué)報,2010,1(4):122-127.
[20]Polyu.Multispectral palmprint database[EB/OL].(2015-06-24).http://www.comp.polyu.edu.hk/~biometrics/MultispectralPalmprint/MSP.htm.
[21]Goshtasby A A,Nikolov S.Image fusion:Advances in the state of the art[J].Information Fusion,2007,8(2):114-118.
[22]徐笑宇,姚鵬.基于HOG與改進(jìn)的SVM的手掌靜脈識別算法[J].計算機(jī)工程與應(yīng)用,2016,52(11):175-180.
[23]Lee J C.A novel biometric system based on palm vein image[J].Pattern Recognition Letters,2012,33(33):1520-1528.
[24]Pan M,Kang W.Palm vein recognition based on three local invariant feature extraction algorithms[M]//Biometric Recognition.Berlin Heidelberg:Springer,2011:116-124.