馮華麗,劉淵
(1.無錫商業(yè)職業(yè)技術(shù)學院教育信息化中心 江蘇 無錫 214153;2.江南大學數(shù)字媒體學院 江蘇 無錫 214122)
21世紀是信息技術(shù)、網(wǎng)絡技術(shù)的世紀。隨著計算機及網(wǎng)絡的高速發(fā)展,信息的安全性、隱蔽性越來越重要。網(wǎng)絡信息化時代的一個大特征就是身份的數(shù)字化和隱蔽化。如何有效、方便地進行身份驗證和識別,已經(jīng)成為人們?nèi)找骊P(guān)心的問題,也是當代必須解決的關(guān)鍵性社會問題。人臉識別是生物特征識別技中最自然、最直接的手段,,與其他身份識別方法相比,具有直接、友好和方便等特點,易于為用戶所接受,多年來一直受到研究者的廣泛關(guān)注。另外,人臉識別由于其在公安部門、安全驗證系統(tǒng)、信用卡驗證,檔案管理、人機交互系統(tǒng)等方面的廣闊應用前景,因而成為當前模式識別和人工智能領域的一個研究熱點。
特征提取是人臉識別技術(shù)中一個基本而又十分重要的環(huán)節(jié),如何尋找有效的特征是解決識別問題的關(guān)鍵[1]。其中比較典型的算法有主成分分析(Principal Component Analysis, PCA)[2],該方法的目的是通過線性變化尋找一組最優(yōu)的單位正交向量基(即主分量)用它們的線性組合來重構(gòu)原樣本,并使重構(gòu)后的樣本和原樣本的均方誤差最小。但PCA算法只考慮了人臉的整體分布,沒有利用樣本類別的標簽信息,因此分類效果并不十分理想。Peter等人提出了線性鑒別分析(Linear Discriminant Analysis, LDA)[3]方法,該方法充分利用了訓練樣本已知的類別信息,從而尋找最有助于分類的投影方向子空間。但以上方法往往只考慮了圖像中的像素信息而忽略了圖像中像素之間的上下文關(guān)系。近年來的研究表明,圖像在高維空間都具有特定的流形,受到上下文信息的限制,因此上下文約束對于圖像表示是非常重要的。其中比較典型的方法有馬爾科夫隨機場[4-6],然而由于其計算量比較復雜所以限制了其應用。此后,Wang等人[7]又提出了一種基于圖像像素分布信息的圖像匹配算法,但并未將這種算法應用到圖像降維中。因此 Zhen等人提出了一種將上下文約束與鑒別分析方法相結(jié)合的CCLDA算法[8],并用于人臉識別中取得了很好的效果。
本文在上述工作的基礎上,將模塊化 2DPCA與上下文約束線性鑒別分析方法相結(jié)合,并將其用于人臉識別。該方法的特點是:首先將原始樣本圖像矩陣分成若干了子模塊圖像,然后對這些子樣本采用 2DPCA算法,這樣不僅可以較好地保留了人臉圖像的局部特征,同時可以減少計算量,避免CCLDA算法中的小樣本問題。另一方面,CCLDA算法在 LDA算法的基礎上考慮了樣本圖像結(jié)構(gòu)中的上下文約束關(guān)系,因此更有利于分類。
本文后續(xù)章節(jié)安排如下:第二小節(jié)介紹基于模塊化2DPCA和CCLDA的人臉識別算法;第三小節(jié)對實驗結(jié)果進行了分析;最后總結(jié)了本文地研究工作,并對人臉識別方法的發(fā)展進行了展望。
在本文中,我們提出了一種基于模塊化2DPCA和CCLDA的人臉識別算法。為了減少運算復雜度,保留樣本的局部信息,首先采用模塊化 2DPCA進行降維,然后對降維后的樣本采用CCLDA方法來進行特征提取,從而為識別提供更有利的分類信息。算法的主要思想如圖1所示:
圖1 本文新算法的主要思想框圖
模塊化2DPCA的思想是先將一個m×n的圖像矩陣A分成p×q模塊圖像矩陣[9],即:
其中,每個子圖像矩陣Akl是m1×n1矩陣,p×m1=m,q×n1=n。然后將所有訓練圖像樣本的子圖像矩陣看作訓練圖像樣本采用 2DPCA算法進行特征提取。
則訓練樣本的子圖像矩陣的總體散布矩陣Gt為:
與2DPCA類似,我們令W=[w1, w2,...,wd]為模塊化2DPCA的最優(yōu)投影矩陣。訓練樣本 Ai投影到W上的特征矩陣 Yi為:
為了進行以下步驟,需要將矩陣 Yi按列向量一次排成一個列向量yi,易知yi∈Rd×p×n,這個過程稱為矩陣的向量化處理。
其中η是平衡訓練鑒別能力與上下文限制的系數(shù)。Sij表示像素i與像素j之間的相似性,對于一幅原始的圖像,假設圖像相鄰位置的像素有相同的特性,并且反映了圖像的相同結(jié)構(gòu)。因此,對于像素不同的權(quán)重我們采用如下的方式定義Sij:
其中fi表示每一幅樣本中像素i位置所組成的特征向量,σ的值通常取這些特征向量f的平均距離。當相同位置的像素的權(quán)重相差很大時,限制函數(shù)J2(w) 的值將會很大。在一般情況下,由于Sij的對稱性,所以J2(w)可以表示為
這里的Lw=D-S是一個拉普拉斯矩陣,D是對角化矩陣,Dii=∑jSij。因此,CCLDA的目標函數(shù)可以表示為:
因此最佳投影矢量w可以轉(zhuǎn)化為解以下的特征值的問題。
首先將待測數(shù)據(jù)向量Z按照公式(1)分成p×q個樣本子圖像,然后按照公式(4)投影到2DPCA提取的子空間W上,并轉(zhuǎn)化為得到新的樣本向量z。然后分別將投影后的訓練樣本yi和測試樣本z投影到CCLDA特征空間。最后采用最近鄰分類方法進行分類識別。
為了驗證所提算法的可行性和有效性,我們分別在ORL人臉數(shù)據(jù)庫和XM2VTS人臉庫中做了實驗,實驗結(jié)果表明,與其他算法相比,新方法在人臉識別上有明顯的優(yōu)勢。
我們在劍橋ORL人臉數(shù)據(jù)庫[10]做了實驗。ORL人臉庫包含40個人的400幅面部圖像,由英國劍橋大學的AT&T實驗室采集,其中部分志愿者的圖像包括姿態(tài)、表情和面部飾物的變化,圖像的分辨率為92×112,灰度級為256。圖2是ORL人臉庫中的一些圖像,比較充分地反應了同一個人不同人臉圖像的變化和差異。實驗中將圖像庫中的人臉圖像分為訓練樣本和測試樣本兩部分,從中任意選取幾幅人臉圖像組成訓練樣本集,其余的作為測試樣本集。
圖2 ORL人臉庫部分圖像
表1 ORL人臉數(shù)據(jù)庫識別率
圖3 ORL人臉庫算法識別率比較
表1中Gi表示每一類訓練樣本數(shù)目。通過表1和圖3的實驗結(jié)果我們可以得出以下幾個結(jié)論:
(1)首先本文所的提出算法在識別率上有了很大的提高,與其他算法相比,有明顯的優(yōu)勢。
(2)其次,從圖和表中可以看出,其他算法在訓練樣本足夠的情況下,可以取得較高的識別率,而我們的算法即使在較少的訓練樣本情況下,識別率也很理想的,可以達到90%左右。此外,當訓練樣本數(shù)超過5時,識別率可以達到100%,這是非常理想的。
(3)最后可以發(fā)現(xiàn),不同的子模塊數(shù)對本文算法的識別結(jié)果有一定的影響,但算法總體識別效果還是比較理想的。
XM2VTS人臉庫[11]包括人臉庫包括295人在4個月時間內(nèi)4次錄制的人臉和語音數(shù)據(jù)。每次采集都包括2個頭部旋轉(zhuǎn)視頻和6種不同語音視頻片段。從每個時期中提取兩幅圖像構(gòu)成了這個用于人臉驗證或者識別的人臉庫,分辨率為55*51。圖4是該庫中的幾幅圖像。
圖4 XM2VTS人臉數(shù)據(jù)庫中的圖像
表2 XM2VTS人臉數(shù)據(jù)庫識別率
圖5 XM2VTS人臉庫算法識別率比較
表2中Gi表示每一類訓練樣本數(shù)目。通過表2和圖5的實驗結(jié)果我們可以發(fā)現(xiàn),采用我們算法在XM2VTS人臉數(shù)據(jù)庫上得到的識別結(jié)果,與其他算法相比,提高了很多,有明顯的優(yōu)勢。而且本文算法,不僅在較少訓練樣本的情況下可以取得較高的識別率,而且當訓練樣本數(shù)足夠時,識別率均可達到 100%。而且不同的子模塊化樣本數(shù),對算法在XM2VTS上的實驗結(jié)果影響不大,說明我們的算法具有較好的穩(wěn)定性。
表3 在XM2VTS人臉庫上的運行時間比較:
通過表3各算法在XM2VTS人臉數(shù)據(jù)庫上的運行時間可以發(fā)現(xiàn):
(1)隨著訓練樣本數(shù)目的逐漸增多,各算法特征提取的時間和運行的總時間也隨著增加。
(2)在以上幾個算法的運行時間中,由于 MPCA算法既要對樣本進行分塊,又要將分塊后的子樣本轉(zhuǎn)化為向量來處理,導致計算量復雜,因此特征提取和運行時間都相對較長。
(3)本文所提算法的運行時間受模塊化2DPCA算法中子模塊數(shù)目的影響,但是總體運行時間較快,與其他計算算法相比,運行時間效率幾乎差不多,特別是當劃分為2*4個子模塊時,各方面運行時間幾乎都是最少的,因此具有較高的效率。
總之,通過在ORL人臉數(shù)據(jù)和XM2VTS人臉數(shù)據(jù)庫的實驗結(jié)果表明,本文所提出算法不僅提高人臉識別的正確率,同時減少計算的復雜度,提高了識別的時間效率。
本文提出了一種模塊化2DPCA和CCLDA相結(jié)合的人臉識別新方法。該方法一方面吸取了CCLDA考慮了樣本圖像結(jié)構(gòu)之間的上下為你約束關(guān)系,可以更好地分類提供有效信息;另一方面,吸取了模塊化 2DPCA算法可以保留樣本的局部信息,減少計算量以及避免小樣本問題等優(yōu)點。實驗表明,該算法具有較好的識別效果。但是由于與模塊化 2DPCA相結(jié)合,因此不同的子模塊數(shù)對算法的識別率有一定的影響,如何有效的劃分樣本子模塊數(shù),是我們需要進一步研究的問題。
[1]ROSENFELD A.Survey:image analysis and computer vision[J].Computer Vision and Image Understanding.1997,62(1);33-93
[2]M.Turk, A.Pentland, Eigenfaces for Recognition[J], Cognitive Neuroscience, 1991,3(1), 71-86.
[3]Peter N.Belhumeur, Joao P.Hespanha, David J.Kriegman, Eigenfaces vs.Fisherfaces:Recognition Using Class Specific Linear Projection [J], IEEE Trans.PAMI.1997,19(7), 711-720.
[4]Dass S.C., Jain A.K., Markov face models [C].IEEE International Conference on Computer Vision.2001,vol.2,680-687.
[5]Dass S.C., Jain A.K., Lu X., Face detection and synthesis using Markov random field models[C].IEEE International Conference on Pattern Recognition, 2002, vol.4, 201-204.
[6]Huang R., Pavlovic V., Metaxas D., A hybrid face recognition method using markov random fields [C].IEEE International Conference on Pattern Recognition,2004, vol.3, 157-160.
[7]Wang L., Zhang Y., Feng J., On the Euclidean distance of images [J].IEEE Trans.PAMI.2005,27(8), 1334–1339.
[8]Zhen Lei, Stan Z.Li.Contextual Constraints Based Linear Discriminant Analysis [J].Pattern Recognition Letters.2011, 32, 626-632.
[9]陳伏兵, 楊靜宇等.基于模塊2DPCA 的人臉識別方法[J].中國圖象圖形學報, 2006, 11(4) :581-585
[10]Jian Yang, David Zhang, et al.Two-Dimensional PCA:A New Approach to Appearance-Based Face Representation and Recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(1),131-137.
[11]K Messer, J Kittler, J Luettin ,et al .XM2VTSDB:The extended M2VTS database[C].Audio and Video Based Biometric Person Authentication Conference(AVBPA99) ,Surrey, 1999