袁 華,鐘歡虹,歐陽(yáng)寧,莫建文
(桂林電子科技大學(xué) 信息與通信學(xué)院,廣西 桂林 541004)
基于分塊LBP和魯棒核編碼的人臉識(shí)別
袁華,鐘歡虹,歐陽(yáng)寧,莫建文
(桂林電子科技大學(xué) 信息與通信學(xué)院,廣西 桂林 541004)
摘要:針對(duì)人臉識(shí)別中的遮擋和姿態(tài)偏轉(zhuǎn)等問(wèn)題,提出了一種基于分塊LBP和魯棒核編碼(Robust Kernel Coding, RKC)的人臉識(shí)別算法,簡(jiǎn)稱(chēng)LBP-RKC算法。該算法首先對(duì)人臉圖像進(jìn)行多級(jí)分塊的LBP特征提取,得到圖像的每一塊統(tǒng)計(jì)直方圖特征。然后,將特征投影到核空間中,在核空間中建立一個(gè)魯棒的回歸模型來(lái)處理圖像中的異常值,并利用迭代重加權(quán)算法求解該模型。最后,計(jì)算測(cè)試樣本的每一塊核表示重構(gòu)殘差并進(jìn)行分類(lèi)識(shí)別。實(shí)驗(yàn)表明,提出的LBP-RKC算法在處理遮擋、姿態(tài)偏轉(zhuǎn)等人臉問(wèn)題時(shí)能取得很好的識(shí)別效果,同時(shí)算法效率較高。
關(guān)鍵詞:人臉識(shí)別;遮擋;分塊;局部二值模式;核編碼
人臉識(shí)別是一種基于面部特征來(lái)識(shí)別人類(lèi)的生物識(shí)別技術(shù),廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)和模式識(shí)別領(lǐng)域。然而,人臉識(shí)別中仍有許多難題未解決,例如遮擋、表情變化、姿態(tài)偏轉(zhuǎn)等。近年來(lái),稀疏表示方法被成功運(yùn)用于人臉識(shí)別中,Wright等[1]提出基于稀疏表示分類(lèi)(Sparse Representation based Classification,SRC)的人臉識(shí)別方法,通過(guò)所有訓(xùn)練樣本的l1范數(shù)最小化的稀疏線性表示來(lái)表征測(cè)試樣本。然而,稀疏表示中的l1范數(shù)約束條件使得計(jì)算非常復(fù)雜,部分學(xué)者開(kāi)始質(zhì)疑稀疏性在分類(lèi)鑒別中的角色[2]。在文獻(xiàn)[3]中發(fā)現(xiàn)了使用所有訓(xùn)練樣本的線性組合共同表示測(cè)試樣本的思想,使得SRC成功應(yīng)用于人臉識(shí)別分類(lèi),而不是l1范數(shù)的稀疏約束。同樣,測(cè)試樣本對(duì)異常值的魯棒性來(lái)自殘差的稀疏約束而不是系數(shù)。因此,協(xié)作表示分類(lèi)(Collaborative Representation based Classification, CRC)[4]用l2范數(shù)替代l1范數(shù)在獲得相似于SRC的識(shí)別率的同時(shí),大大降低了計(jì)算復(fù)雜度。Yang等[5]提出了魯棒稀疏編碼算法(Robust Sparse Coding, RSC),該方法假設(shè)編碼殘差和系數(shù)是獨(dú)立同分布的,尋求稀疏編碼模型的最大似然解,該算法對(duì)人臉中的遮擋、偽裝等問(wèn)題具有比SRC更強(qiáng)的魯棒性。
考慮到特征提取在人臉識(shí)別中的重要作用,眾多學(xué)者從對(duì)圖像特征的研究入手,相對(duì)于全局特征簡(jiǎn)單、粗糙的特征提取方法,局部特征通常對(duì)移位、光照表情變化、遮擋以及偽裝表現(xiàn)出更好的效果。例如,Yang等[6]提出基于Gabor濾波器的特征提取方法,并結(jié)合稀疏表示應(yīng)用于人臉識(shí)別中,取得了較好的識(shí)別效果。另一類(lèi)廣泛應(yīng)用于人臉識(shí)別的局部特征是統(tǒng)計(jì)局部特征,如局部二值模式(LBP)直方圖[7]。其主要思想是將一幅人臉圖像看作是由一些小模塊組成的,通過(guò)將人臉圖像分割成若干子塊,然后提取這些子塊的統(tǒng)計(jì)特征,最后把所有塊提取到的特征連接起來(lái)。
雖然這些特征提取算法和SRC/CRC/RSC等分類(lèi)算法在人臉識(shí)別中已經(jīng)取得了很好的效果,但是鮮有學(xué)者把它們結(jié)合起來(lái)以期取得更好的性能。文獻(xiàn)[8]和文獻(xiàn)[9]嘗試把LBP特征和SRC結(jié)合起來(lái),但是沒(méi)有有效的表示模型來(lái)處理人臉遮擋、姿態(tài)偏轉(zhuǎn)等問(wèn)題。受此啟發(fā),本文利用核函數(shù)可增大類(lèi)別間的差分性的特性,提出一種基于分塊LBP和魯棒核編碼模型的人臉識(shí)別算法。首先用LBP算子計(jì)算人臉圖像的LBP特征譜,并將劃分為互不重疊的區(qū)域統(tǒng)計(jì)其直方圖;然后充分利用局部特征之間的鑒別信息提出一個(gè)RKC模型,采用一個(gè)魯棒的回歸函數(shù)來(lái)處理人臉圖像中遮擋、姿態(tài)偏轉(zhuǎn)等問(wèn)題;最后,通過(guò)計(jì)算每一塊的核表示重構(gòu)殘差來(lái)實(shí)現(xiàn)對(duì)樣本的分類(lèi)。
1相關(guān)知識(shí)
1.1LBP算子
LBP算子因其計(jì)算簡(jiǎn)單和對(duì)圖像紋理描述的有效性,通常被用于人臉圖像的特征描述。假設(shè)局部區(qū)域圖像的中心灰度值為gc,則區(qū)域圖像的LBP值計(jì)算如下[10]
(1)
(2)
其中,LBPN,R表示半徑為R的圓鄰域內(nèi)有N個(gè)像素點(diǎn),gN是圓中心的相鄰像素值。對(duì)于不同的(N,R)組合,將N個(gè)相鄰的gN分別和gc做相減比較,大于gc的記為1,否則為0。對(duì)于不在中心的鄰值的灰度值通過(guò)雙線性插值來(lái)估計(jì)。
將圖像的LBP值進(jìn)行統(tǒng)計(jì),即可畫(huà)其直方圖。假設(shè)圖像的大小是m×n,得到每個(gè)像素(i,j)的LBP值以后,表示整幅圖像統(tǒng)計(jì)特征的直方圖計(jì)算如下
(3)
(4)
其中,u=N×(N-1)+3是LBP的不同模式[10]。
1.2SRC和CRC模型
文獻(xiàn)[1]通過(guò)所有訓(xùn)練樣本的l1正規(guī)化的稀疏表示來(lái)線性表征測(cè)試樣本,以及文獻(xiàn)[3]通過(guò)l2正規(guī)化的協(xié)作表示來(lái)表征測(cè)試樣本,都取得了較好的效果。假設(shè)人臉庫(kù)中有L類(lèi)個(gè)體,第i類(lèi)中包含ni(i=1,2,…,L)幅人臉圖像,則第i類(lèi)個(gè)體的訓(xùn)練樣本矩陣表示為Xi=[xi(1),xi(2),…,xi(ni)]∈Rm×ni,i=1,2,…,L,其中,xi(j)∈Rm表示第i類(lèi)的第j幅圖像,m表示特征向量的維數(shù)。對(duì)于L類(lèi)所有訓(xùn)練樣本構(gòu)成的矩陣X=[X1,X2,…,Xi,…,XL],給定一個(gè)待測(cè)試的樣本y∈Rm,SRC或CRC模型定義為
(5)
(6)
1.3RSC算法
傳統(tǒng)的稀疏編碼中,假設(shè)殘差服從高斯分布或拉普拉斯分布,但實(shí)際上,殘差會(huì)偏離這兩種分布,特別是在人臉處于偽裝或遮擋情況下。為了得到一個(gè)魯棒的稀疏編碼模型,Yang等人[5]通過(guò)假設(shè)編碼殘差是獨(dú)立同分布的,提出一種魯棒的稀疏編碼(RSC)模型
(7)
其中,σ是大于0的常數(shù),yi表示測(cè)試樣本y=[y1,y2,…,yn]T的第i個(gè)元素,ri是訓(xùn)練樣本構(gòu)成的字典X=[r1;r2;…;rn]的第i行,α為編碼系數(shù)。把式(7)中的最小化問(wèn)題轉(zhuǎn)化為迭代加權(quán)稀疏編碼問(wèn)題,表示為
(8)
其中,W是對(duì)角權(quán)重矩陣,其對(duì)角元素是
(9)
(10)
2LBP-RKC算法
2.1分塊LBP特征的提取
LBP具有很好的灰度不變和旋轉(zhuǎn)不變的特點(diǎn),較好地克服了圖像移位、旋轉(zhuǎn)和光照不均勻的問(wèn)題,能有效地提取代表圖像本質(zhì)的特征,而對(duì)圖像進(jìn)行LBP分塊特征提取更能表現(xiàn)出圖像的局部細(xì)節(jié)。本文提取分塊LBP特征的過(guò)程如圖1所示。
圖1 分塊LBP特征提取流程圖
算法主要步驟詳細(xì)描述如下:
1)根據(jù)式(1)采用LBP8,2算子計(jì)算原始圖像的LBP特征譜,得到如圖1b所示的LBP特征譜。
2)將LBP特征譜劃分為互不重疊的B(B=P×Q)塊,如圖1c所示。
3)每一塊又進(jìn)一步細(xì)分為4(4=2×2)個(gè)子塊,如圖1d所示,圖中以第一塊的細(xì)分為例。
4)根據(jù)式(3)統(tǒng)計(jì)各細(xì)分子塊的LBP直方圖H11,H12,H13,H14,如圖1e所示。
5)將一個(gè)圖像塊中的細(xì)分子塊的LBP直方圖串聯(lián)起來(lái)得到一個(gè)直方圖序列H1,如圖1f所示,以此作為該圖像第一塊的特征向量。
6)重復(fù)步驟3)~5)計(jì)算其他圖像塊的直方圖序列,總共得到B個(gè)圖像塊后續(xù)應(yīng)用的特征向量H1,H2,…,HB。
2.2RKC模型及求解
KZZ=φ(Z)Tφ(Z)
(11)
kZv=φ(Z)Tφ(v)
(12)
假設(shè)對(duì)一幅測(cè)試樣本進(jìn)行分塊LBP特征提取后,得到B個(gè)子特征向量y1,y2,…,yB,其中yi(i=1,2,…,B)表示提取到的測(cè)試樣本第i塊的LBP特征向量。同樣地對(duì)每一個(gè)訓(xùn)練樣本提取子特征向量,Ai(i=1,2,…,B)表示由所有訓(xùn)練樣本的第i塊LBP特征向量組成的矩陣。以第i塊為例,yi對(duì)應(yīng)矩陣Ai在核空間中用SRC(p=1)或CRC(p=2)表示的模型為
(13)
其中,αi表示在核空間中的第i塊對(duì)應(yīng)的編碼系數(shù)向量。假設(shè)從同一測(cè)試樣本提取的不同塊特征yi(i=1,2,…,B)對(duì)應(yīng)矩陣Ai(i=1,2,…,B)有相同的表示形式,則結(jié)合一個(gè)測(cè)試樣本的所有塊特征的核表示模型可表示為
(14)
其中,α是測(cè)試樣本y的編碼系數(shù)向量。式(14)的核表示模型只有在殘差服從高斯分布或拉普拉斯分布時(shí)才能確保其精確度[5]。然而在實(shí)際應(yīng)用中,人臉通常存在遮擋或偽裝等情況,這時(shí)候殘差的分布可能偏離這兩種分布,因此,式(14)的模型對(duì)存在異常像素的塊魯棒性不強(qiáng)。
(15)
(16)
be0為由e0決定的尺度限制;W是對(duì)角權(quán)重矩陣,其第i個(gè)對(duì)角元素為
Wi,i=w(e0,i)=ρ′(e0,i)/e0,i
(17)
根據(jù)以上分析,經(jīng)轉(zhuǎn)變,式(15)的RKC模型可用式(18)表示
(18)
結(jié)合測(cè)試樣本的所有塊特征,則上式變?yōu)?/p>
(19)
(21)
利用所有塊的重構(gòu)殘差之和對(duì)測(cè)試樣本y進(jìn)行分類(lèi)
(22)
2.3LBP-RKC算法流程
假設(shè)測(cè)試樣本為y,訓(xùn)練樣本共有c類(lèi),訓(xùn)練集為A=[A1,A2,…,Aj,…,Ac],本文提出的LBP-RKC人臉識(shí)別算法流程如下:
1)利用2.1節(jié)的分塊LBP特征提取算法分別對(duì)測(cè)試樣本和訓(xùn)練樣本進(jìn)行塊特征提取,假設(shè)人臉被分為B塊,得到測(cè)試樣本的B個(gè)子特征向量y1,y2,…,yB,以及訓(xùn)練樣本的B個(gè)子特征矩陣A1,A2,…Ai,…AB,其中Ai表示由所有訓(xùn)練樣本的第i塊子特征向量組成的矩陣。
3)給每一個(gè)圖像塊賦予初始權(quán)重為1,即wi=1,i=1,2,…,B。
5)計(jì)算每一塊的重構(gòu)殘差
(23)
(24)
2.4算法復(fù)雜度分析
本文分別通過(guò)l1范數(shù)和l2范數(shù)來(lái)正規(guī)化編碼系數(shù)執(zhí)行算法,表示為L(zhǎng)BP-RKC_l1和LBP-RKC_l2。LBP-RKC算法的計(jì)算復(fù)雜度主要集中在RKC的求解上,當(dāng)人臉圖像無(wú)遮擋時(shí),每一塊的權(quán)重wi可固定為1。此時(shí)LBP-RKC_l1可通過(guò)稀疏編碼求解,標(biāo)準(zhǔn)稀疏編碼的算法復(fù)雜度是ο(m2n1.5),其中m是人臉圖像特征維數(shù),n是訓(xùn)練樣本個(gè)數(shù),本文用文獻(xiàn)[13]的L1LS算法求解LBP-RKC_l1模型,其計(jì)算復(fù)雜度為ο(m2n1.3),和SRC[1]的計(jì)算復(fù)雜度類(lèi)似。LBP-RKC_l2可通過(guò)協(xié)同表示的最小二乘法求解,其計(jì)算復(fù)雜度為ο(n2), 其中n是訓(xùn)練樣本個(gè)數(shù)。因此,在人臉無(wú)遮擋偽裝情況下,即wi=1時(shí),LBP-RKC_l2的時(shí)間復(fù)雜度比SRC要低很多。
3實(shí)驗(yàn)結(jié)果及分析
3.1AR和Extended Yale B數(shù)據(jù)庫(kù)中的光照、表情變化實(shí)驗(yàn)
1)AR數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)
在AR人臉數(shù)據(jù)庫(kù)中,選擇50名男性和50名女性的人臉組成數(shù)據(jù)庫(kù)子集,抽取每人的14幅光照、表情變化的人臉圖像,其中7幅用來(lái)訓(xùn)練,另外7幅作為測(cè)試集。圖像尺寸統(tǒng)一調(diào)整為83×60。表1顯示在訓(xùn)練樣本個(gè)數(shù)不同情況下多種算法的識(shí)別率比較。由表可看出,所提出的LBP-RKC算法在目標(biāo)訓(xùn)練樣本個(gè)數(shù)取不同值時(shí)均比其他算法識(shí)別率高,在AR數(shù)據(jù)庫(kù)中可得到高達(dá)99.9%的識(shí)別率。LBP-RKC_l1和LBP-RKC_l2識(shí)別率類(lèi)似,但LBP-RKC_l2運(yùn)算時(shí)間短得多。
表1AR人臉庫(kù)中各算法的識(shí)別率 %
訓(xùn)練樣本數(shù)1234567SRC61.765.668.777.884.490.091.1CRC76.779.982.084.487.189.090.0RSC63.469.079.286.888.692.794.3LBP+SRC79.987.189.492.396.298.798.7LBP+CRC86.688.488.790.194.698.498.4LBP-RKC_l189.992.392.994.697.799.799.7LBP-RKC_l290.192.192.794.797.799.999.9
2)Extended Yale B數(shù)據(jù)庫(kù)的實(shí)驗(yàn)
Extended Yale B人臉庫(kù)由38個(gè)目標(biāo)的2 414幅正面人臉組成,其中每人大約有64幅圖像,來(lái)自64種實(shí)驗(yàn)光照條件。隨機(jī)選擇每人32幅作為訓(xùn)練數(shù)據(jù),剩余32幅作為測(cè)試集,在測(cè)試集不變情況下,每次選取的訓(xùn)練樣本個(gè)數(shù)不同進(jìn)行4組實(shí)驗(yàn)(訓(xùn)練樣本的個(gè)數(shù)分別選擇每人6幅、12幅、24幅、32幅)。實(shí)驗(yàn)中圖像均裁剪為96×84。表2所示為在Extended Yale B數(shù)據(jù)庫(kù)中訓(xùn)練樣本個(gè)數(shù)不同的情況下多種算法的識(shí)別率比較。由表可看出,本文提出的LBP-RKC算法取得了最好的識(shí)別率,在訓(xùn)練樣本個(gè)數(shù)較少時(shí)(例如6和12),本文算法和其他算法對(duì)比平均提高6%左右。當(dāng)選擇較多訓(xùn)練樣本時(shí)(例如24和32),本文算法幾乎取得百分百的識(shí)別率,例如訓(xùn)練樣本取32個(gè)時(shí),LBP-RKC_l2達(dá)到99.3%的識(shí)別率。
表2Extended Yale B人臉庫(kù)中各算法的識(shí)別率 %
訓(xùn)練樣本數(shù)6122432SRC72.384.294.795.3CRC74.885.894.395.0RSC77.885.495.098.2LBP+SRC74.588.196.898.4LBP+CRC75.088.597.298.0LBP-RKC_l178.089.897.198.8LBP-RKC_l280.090.998.599.3
3.2FERET數(shù)據(jù)庫(kù)中的姿態(tài)偏轉(zhuǎn)和尺度變化實(shí)驗(yàn)
FERET數(shù)據(jù)庫(kù)包含了表情、光照、不同尺度下的姿態(tài)變化人臉圖像,本文實(shí)驗(yàn)選取200人的1 400張圖像,每人7幅。圖2為實(shí)驗(yàn)中某個(gè)目標(biāo)的圖像,從左到右分別為標(biāo)準(zhǔn)、表情變化、光照變化、偏轉(zhuǎn)-25°、偏轉(zhuǎn)-15°、偏轉(zhuǎn)+15°、偏轉(zhuǎn)+25°的7幅人臉圖像。以前3幅圖像作為訓(xùn)練集,4個(gè)偏轉(zhuǎn)角度不同的圖像分別作為4個(gè)測(cè)試集。圖像均裁剪為80×80。表3所示為FERET數(shù)據(jù)庫(kù)中姿態(tài)偏轉(zhuǎn)尺度不同的情況下多種算法的識(shí)別率比較。由表可以看出,所提出的LBP-RKC算法識(shí)別率均優(yōu)于其他算法,尤其是在測(cè)試集姿態(tài)偏轉(zhuǎn)尺度較大時(shí)(+25°和-25°)明顯提高。由于PCA算法對(duì)姿態(tài)偏轉(zhuǎn)較為敏感,原始的SRC算法取得的識(shí)別率明顯偏低。
圖2 來(lái)自FERET數(shù)據(jù)庫(kù)中某個(gè)目標(biāo)的圖像
3.3AR數(shù)據(jù)庫(kù)中的遮擋偽裝實(shí)驗(yàn)
本節(jié)將在AR數(shù)據(jù)庫(kù)中測(cè)試LBP-RKC算法對(duì)遮擋的魯棒性。AR數(shù)據(jù)庫(kù)包含兩個(gè)部分(Session1和Session2),每部分包含的人臉圖像有:7幅光照表情變化、3幅眼睛遮擋、3幅圍巾遮擋。選擇50名男性和50名女性人臉作為實(shí)驗(yàn)對(duì)象,從session1選擇每人4張光照表情變化的人臉圖像作為訓(xùn)練集,Session1和Session2中有遮擋的人臉?lè)謩e作為4個(gè)測(cè)試集。圖像尺寸統(tǒng)一調(diào)整為83×60。實(shí)驗(yàn)中,LBP-RKC算法和RSC算法更新權(quán)重的最大迭代次數(shù)均設(shè)為10。4個(gè)測(cè)試集在不同算法中的識(shí)別結(jié)果如表4所示。由表可看出,LBP-RKC算法在所有測(cè)試集中均取得最好效果。在Session1中的2個(gè)測(cè)試集達(dá)到百分百的識(shí)別率,圍巾遮擋比時(shí)新算法SRC、CRC和RSC分別高58.2%、55%、7.6%,眼鏡遮擋分別高19.8%、20.2%、4.7%以上;而在Session2中眼鏡遮擋和圍巾遮擋至少比3種時(shí)新算法高6.7%和17.7%。LBP-RKC算法和LBP+SRC、LBP+CRC相比也有一定程度的提高,這是由于本文算法不僅通過(guò)提取分塊的LBP特征突出局部細(xì)節(jié),而且把低維數(shù)據(jù)投影到核空間中,增強(qiáng)不同類(lèi)的差分能力,并且用模型處理圖像中的異常值,減少其對(duì)分類(lèi)的影響。
表3FERET人臉庫(kù)中各算法的識(shí)別率%
姿態(tài)偏轉(zhuǎn)尺度+25°+15°-15°-25°SRC27.758.071.531.0CRC33.479.590.032.2RSC34.282.391.235.8LBP+SRC36.287.595.533.0LBP+CRC37.083.495.034.5LBP-RKC_l142.590.099.344.0LBP-RKC_l238.088.597.041.5
表4AR人臉庫(kù)中遮擋偽裝下各算法的識(shí)率 %
算法Session1Session2眼鏡遮擋圍巾遮擋眼鏡遮擋圍巾遮擋SRC81.241.856.322.0CRC79.845.052.346.5RSC95.392.488.079.0LBP+SRC99.597.584.289.0LBP+CRC99.095.679.385.7LBP-RKC_l199.710094.796.7LBP-RKC_l210010094.496.7
3.4識(shí)別時(shí)間比較
除了識(shí)別率,運(yùn)行時(shí)間也是一個(gè)評(píng)估算法性能的重要標(biāo)準(zhǔn)。從2.4節(jié)的算法復(fù)雜度分析可知本文算法復(fù)雜度較低,下面在AR數(shù)據(jù)庫(kù)上進(jìn)行驗(yàn)證。實(shí)驗(yàn)平臺(tái)為主頻2.6 GHz的處理器,4 Gbyte內(nèi)存,MATLAB R2013a版本仿真軟件。實(shí)驗(yàn)分為兩個(gè),一個(gè)是3.1節(jié)中的AR數(shù)據(jù)庫(kù)中的無(wú)遮擋實(shí)驗(yàn)(訓(xùn)練樣本數(shù)為每人7幅),另一個(gè)是3.3節(jié)中的AR數(shù)據(jù)庫(kù)中Session1部分有眼鏡和圍巾遮擋偽裝的實(shí)驗(yàn),對(duì)比算法包括SRC和RSC。
表5,6,7分別為AR數(shù)據(jù)庫(kù)中無(wú)遮擋、眼鏡遮擋、圍巾遮擋下的對(duì)比結(jié)果,顯示時(shí)間為識(shí)別一張測(cè)試圖片的平均時(shí)間。由表可看出,RSC算法的識(shí)別率高于SRC,但是其識(shí)別時(shí)間比SRC長(zhǎng)得到多,算法效率不高;而SRC在無(wú)遮擋情況下,其識(shí)別時(shí)間比LBP-RKC_l1快,但后者識(shí)別率明顯高于前者,當(dāng)在有遮擋時(shí),SRC算法由于加入了一個(gè)單位矩陣來(lái)編碼異常像素,其運(yùn)算時(shí)間大大增加;LBP-RKC_l2可由最小二乘法求解,其時(shí)間復(fù)雜度最低,同時(shí)識(shí)別率也較高,證明了本文算法的高效性。
表5AR庫(kù)中無(wú)遮擋時(shí)的識(shí)別率和時(shí)間對(duì)比
算法RSCSRCLBP-RKC_l1LBP-RKC_l2識(shí)別率/%95.794.799.799.9識(shí)別時(shí)間/s1.69430.37861.59420.0401
表6AR庫(kù)Session1部分眼鏡遮擋時(shí)的識(shí)別率和時(shí)間對(duì)比
算法RSCSRCLBP-RKC_l1LBP-RKC_l2識(shí)別率/%95.381.299.7100識(shí)別時(shí)間/s9.84333.95000.63330.1633
表7AR庫(kù)Session1部分圍巾遮擋時(shí)的識(shí)別率和時(shí)間對(duì)比
3.5實(shí)驗(yàn)分析
從以上識(shí)別率和識(shí)別時(shí)間的實(shí)驗(yàn)結(jié)果可知,本文提出的LBP-RKC算法不僅在光照表情變化、姿態(tài)偏轉(zhuǎn)、遮擋偽裝實(shí)驗(yàn)中取得了較高的識(shí)別準(zhǔn)確率,同時(shí)也從時(shí)間上證明了其算法的高效率,原因有以下幾點(diǎn):
1)LBP-RKC算法首先進(jìn)行了分塊的LBP特征提取,有效地突出了圖像的局部細(xì)節(jié)特征;
2)把數(shù)據(jù)投影到核空間中,增大了類(lèi)別間的幾何差距,加強(qiáng)了數(shù)據(jù)的線性可分性;
3)采用一個(gè)魯棒的回歸函數(shù)來(lái)處理人臉圖像中的遮擋,姿態(tài)偏轉(zhuǎn)等問(wèn)題,對(duì)不同像素賦予不同的權(quán)重,如異常值分配較小的權(quán)重,降低它們對(duì)分類(lèi)的負(fù)影響,在人臉?lè)诸?lèi)識(shí)別中更具合理性;
4)在最后分類(lèi)步驟中,利用不同塊之間的殘差之和進(jìn)行判別分類(lèi),具有更強(qiáng)的分類(lèi)決策能力。
4總結(jié)
本文結(jié)合魯棒的稀疏編碼算法,提出了一種LBP-RKC人臉識(shí)別算法。該算法的特點(diǎn)是在核空間中建立一個(gè)魯棒的表示模型來(lái)處理圖像的異常值(如遮擋、損壞、偽裝時(shí)的像素),并采用多級(jí)分塊LBP直方圖特征作為人臉圖像的局部統(tǒng)計(jì)特征,加強(qiáng)了圖像的局部細(xì)節(jié)特征。通過(guò)在光照變化、表情變化、姿態(tài)偏轉(zhuǎn)、塊遮擋和偽裝等不同條件下的人臉圖像進(jìn)行驗(yàn)證,本文算法均取得較好的識(shí)別效果,且運(yùn)算效率較高。LBP-RKC算法適用于存在各種噪聲和遮擋情況下的人臉圖像,和當(dāng)前的一些人臉識(shí)別算法相比,識(shí)別率也有了明顯的提高,是一種能較好應(yīng)用到實(shí)時(shí)人臉識(shí)別系統(tǒng)的算法。
參考文獻(xiàn):
[1]WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. IEEE transactions on pattern analysis and machine intelligence, 2009, 31(2): 210-227.
[2]RIGAMONTI R, BROWN M A, LEPETIT V. Are sparse representations really relevant for image classification?[C]// 2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). [S.l.]:IEEE Press, 2011: 1545-1552.
[3]ZHANG D, YANG M, FENG X. Sparse representation or collaborative representation: which helps face recognition?[C]// 2011 IEEE International Conference on Computer Vision (ICCV) . [S.l.]:IEEE Press, 2011: 471-478.
[4]ZHANG L, YANG M, FENG X, et al. Collaborative representation based classification for face recognition[EB/OL].[2015-05-27].http://perception.csl.illinois.edu/recognition/Files/CRC.pdf.
[5]YANG M, ZHANG D, YANG J. Robust sparse coding for face recognition[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) . [S.l.]:IEEE Press, 2011: 625-632.
[6]YANG M, ZHANG L, SHIU S C K, et al. Gabor feature based robust representation and classification for face recognition with Gabor occlusion dictionary[J]. Pattern recognition, 2013, 46(7): 1865-1878.
[7]AHONEN T, HADID A, PIETIKAINEN M. Face description with local binary patterns: Application to face recognition[J]. IEEE transactions on pattern analysis and machine intelligence, 2006, 28(12): 2037-2041.
[8]MIN R, DUGELAY J L. Improved combination of LBP and sparse representation based classification (SRC) for face recognition[C]//2011 IEEE International Conference on Multimedia and Expo (ICME) . [S.l.]:IEEE Press, 2011: 1-6.
[9]KANG C, LIAO S, XIANG S, et al. Kernel sparse representation with local patterns for face recognition[C]// 2011 18th IEEE International Conference on Image Processing (ICIP) . [S.l.]:IEEE Press, 2011: 3009-3012.
[10]OJALA T, PIETIKAI INEN M,MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. Pattern Analysis and machine intelligence, 2002, 24(7): 971-987.
[11]匡金駿, 熊慶宇, 柴毅. 基于核稀疏分類(lèi)與多尺度分塊旋轉(zhuǎn)擴(kuò)展的魯棒圖像識(shí)別[J]. 模式識(shí)別與人工智能,2013, 26(2): 129-135.
[12]GAO X, MIAO Z J. Generalized histogram intersection kernel for image classification[C]//2014 IEEE International Conference on Signal Processing (ICSP).[S.l.]:IEEE Press, 2014: 866-870.
[13]LEE H, BATTLE A, RAINA R, et al. Efficient sparse coding algorithm[C]//Proc. Neural Information and Processing Systems.[S.l.]:IEEE Press,2006.
[14]GAO X, MIAO Z J. Generalized histogram intersection kernel for image classification [C]// 2014 IEEE International Conference on Signal Processing (ICSP).[S.l.]:IEEE Press,2014: 866-870.
袁華(1975— ),講師,碩士,主要研究方向?yàn)閳D像處理、智能信號(hào)處理;
鐘歡虹(1989— ),女,碩士研究生,主要研究方向?yàn)槿四樧R(shí)別、圖像信號(hào)處理;
歐陽(yáng)寧(1972— ),碩士,教授,本文通信作者,主要研究方向?yàn)槟J阶R(shí)別、智能信息處理、圖像信號(hào)處理;
莫建文(1972— ),博士,副教授,主要研究方向?yàn)閳D像信號(hào)處理、模式識(shí)別。
責(zé)任編輯:閆雯雯
Face recognition based on block LBP and robust kernel coding
YUAN Hua, ZHONG Huanhong, OUYANG Ning, MO Jianwen
(SchoolofElectronicandTechnology,GuilinUniversityofElectronicTechnology,GuangxiGuilin541004,China)
Abstract:Focused on the issue of occlusion and pose rotate in face recognition, an improved face recognition method based on the block LBP and robust kernel coding is proposed, which is named LBP-RKC. Firstly, LBP-RKC algorithm extracted the multilevel blocking LBP features of face images, and the statistical histogram features of each block will be obtained. Then, projecting the features into a kernel space, a robust regression model is used to deal with the image outliers is built in the kernel space, and it uses the iteratively reweighted algorithm to solve this model. Finally, it classifies and recognizes the test sample by calculate kernel code reconstruction residual of each block. Experiments results show that the proposed algorithm LBP-RKC has a good recognition on dealing with the face images that have occlusion and pose rotate, and the efficiency of the algorithm is higher at the same time.
Key words:face recognition; occlusion; block; local binary pattern; kernel coding
中圖分類(lèi)號(hào):TP391.41
文獻(xiàn)標(biāo)志碼:A
DOI:10.16280/j.videoe.2016.02.023
基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(61362021);廣西自然科學(xué)基金項(xiàng)目(2014GXNSFDA118035;2013GXNSFDA019030;2013GXNSFAA019331;2012GXNSFBA053014)
作者簡(jiǎn)介:
收稿日期:2015-05-27
文獻(xiàn)引用格式:袁華,鐘歡虹,歐陽(yáng)寧,等. 基于分塊LBP和魯棒核編碼的人臉識(shí)別[J].電視技術(shù),2016,40(2):119-126.
YUAN H, ZHONG H H, OUYANG N,et al. Face recognition based on block LBP and robust kernel coding[J].Video engineering, 2016,40(2):119-126.