• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      K鄰域分塊自動(dòng)加權(quán)的單樣本人臉識(shí)別算法*

      2017-09-18 00:28:58魏明俊許道云秦永彬
      計(jì)算機(jī)與生活 2017年9期
      關(guān)鍵詞:訓(xùn)練樣本分塊字典

      魏明俊,許道云,秦永彬

      貴州大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,貴陽 550025

      K鄰域分塊自動(dòng)加權(quán)的單樣本人臉識(shí)別算法*

      魏明俊,許道云+,秦永彬

      貴州大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,貴陽 550025

      在人臉識(shí)別問題中,當(dāng)每類訓(xùn)練樣本有且僅有一個(gè)時(shí),由于類內(nèi)缺乏足夠的特征變化信息來預(yù)測(cè)人臉復(fù)雜的特征變化,從而導(dǎo)致常用分類算法的識(shí)別準(zhǔn)確率急劇下降。目前最好的解決方法大致可分為兩類:一是生成虛擬的訓(xùn)練樣本以擴(kuò)大訓(xùn)練集;二是學(xué)習(xí)稀疏變化字典以表示復(fù)雜特征變化。針對(duì)此問題,在引入稀疏變化字典來表示人臉復(fù)雜特征變化的基礎(chǔ)上,提出一種基于K鄰域分塊自動(dòng)加權(quán)的單樣本識(shí)別算法。通過對(duì)測(cè)試樣本進(jìn)行分塊,然后對(duì)每一個(gè)子分塊求K鄰域分塊,以組成虛擬的同類別測(cè)試樣本集;同時(shí)提出了一種自動(dòng)加權(quán)策略,對(duì)這些分塊在分類中的比重進(jìn)行加權(quán),最后通過一種改進(jìn)的投票機(jī)制確定分類結(jié)果。通過與已有的單樣本識(shí)別算法進(jìn)行比較,并在公共人臉數(shù)據(jù)庫AR、CMU Multi-PIE和ORL上進(jìn)行實(shí)驗(yàn),結(jié)果表明該方法有助于提高單樣本識(shí)別問題的分類準(zhǔn)確率。

      單訓(xùn)練樣本;人臉識(shí)別;稀疏變化字典;K鄰域分塊;自動(dòng)加權(quán);投票機(jī)制

      1 引言

      人臉識(shí)別是一種經(jīng)典的模式識(shí)別問題,雖然經(jīng)過國(guó)內(nèi)外學(xué)者近幾十年的研究已取得較多的研究成果,但如何保證人臉存在復(fù)雜特征變化時(shí)的準(zhǔn)確識(shí)別仍是一項(xiàng)挑戰(zhàn)。解決該問題的通常做法是:擴(kuò)大訓(xùn)練樣本集中每類樣本的規(guī)模。但在一些實(shí)際應(yīng)用中,如自動(dòng)判定護(hù)照、身份證、駕駛證等持有者是否為本人持有,根據(jù)某段監(jiān)控中截取的面部圖像跟蹤或搜索犯罪嫌疑人時(shí),可獲得的圖像有且僅有一個(gè),稱這類問題為單訓(xùn)練人臉問題(single sample per person,SSPP)。單訓(xùn)練樣本識(shí)別問題會(huì)極大地影響常用人臉識(shí)別算法的效率[1],導(dǎo)致一些基于線性子空間學(xué)習(xí)的算法,如線性判別分析(linear discriminant analysis,LDA)及其改進(jìn)算法[2]的效率大打折扣,即使是魯棒性較強(qiáng)的稀疏表示分類(sparse representation based classification,SRC)算法[3],表現(xiàn)效果也較差。

      針對(duì)此問題,國(guó)內(nèi)外學(xué)者從不同角度提出了一些解決方法。文獻(xiàn)[4]從圖像梯度方向提出一種子空間學(xué)習(xí)算法,通過提取魯棒的局部特征來進(jìn)行識(shí)別;而文獻(xiàn)[5]則通過在圖像分片中學(xué)習(xí)判別特征來進(jìn)行識(shí)別。盡管這兩種算法能提高識(shí)別率,但對(duì)光照、表情變化較敏感。文獻(xiàn)[6]通過引入視覺子空間的混合特征空間(hybrid-eigenspace)方法來生成虛擬訓(xùn)練樣本,提出了對(duì)姿態(tài)變化、光照變化較為魯棒的單訓(xùn)練樣本人臉識(shí)別算法;文獻(xiàn)[7]在基于人臉具有對(duì)稱性這個(gè)理論前提下,利用對(duì)稱原則生成對(duì)稱的虛擬樣本,達(dá)到增加訓(xùn)練樣本的目的;文獻(xiàn)[8]則使用奇異值分解產(chǎn)生虛擬訓(xùn)練樣本;文獻(xiàn)[9]將兩個(gè)原始樣本的均值作為虛擬訓(xùn)練樣本。雖然生成虛擬訓(xùn)練樣本可在一定程度上解決單樣本問題,但由于虛擬樣本與原始樣本類內(nèi)間距較小,無法表示人臉圖像復(fù)雜的類內(nèi)變化。因此在實(shí)際應(yīng)用中,當(dāng)人臉特征變化較復(fù)雜時(shí),此類算法效果普遍不理想。

      正是由于利用原始訓(xùn)練樣本生成虛擬樣本的局限性,文獻(xiàn)[10]從變化字典中學(xué)習(xí)一種姿態(tài)不變子空間,用來解決單樣本識(shí)別時(shí)的面部姿態(tài)變化問題;文獻(xiàn)[11]提出一種擴(kuò)展稀疏表示分類算法(extended SRC,ESRC),通過構(gòu)造類內(nèi)變化字典來表示待檢測(cè)樣本的特征變化;文獻(xiàn)[12]針對(duì)SSPP問題,基于訓(xùn)練字典和一般擴(kuò)展字典之間的關(guān)系,提出了一種稀疏變化字典學(xué)習(xí)算法。通過引入稀疏變化字典可以解決待分類樣本的特征變化問題,但這些字典學(xué)習(xí)算法卻忽略了人臉一些重要特征部位(如眼部、嘴部、鼻子等)的獨(dú)特性,而這些重要特征部位的獨(dú)特性則是正確分類的關(guān)鍵。文獻(xiàn)[13-15]通過對(duì)圖像進(jìn)行分塊后,重要的特征部位則會(huì)分到某一個(gè)子分塊中,而對(duì)每一個(gè)子分塊進(jìn)行分類則可以很好地利用這一特性。

      基于此,本文提出了一種基于K鄰域分塊自動(dòng)加權(quán)的單樣本識(shí)別算法。結(jié)合稀疏變化字典來表示人臉特征變化部分,同時(shí)對(duì)所有樣本進(jìn)行圖像分塊,并在圖像分塊的基礎(chǔ)上求出距離每個(gè)分塊最近的K個(gè)分塊,并對(duì)這些分塊在分類中的比重進(jìn)行自動(dòng)加權(quán),最后通過一種投票機(jī)制確定待分類樣本的分類結(jié)果。在同等條件下,通過在標(biāo)準(zhǔn)人臉數(shù)據(jù)庫AR、CMU Multi-PIE和ORL上進(jìn)行對(duì)比實(shí)驗(yàn),本文算法均獲得了最高的識(shí)別準(zhǔn)確率。

      2 構(gòu)造擴(kuò)展變化字典及分塊加權(quán)

      通過原始訓(xùn)練樣本生成的虛擬訓(xùn)練樣本無法預(yù)測(cè)待檢測(cè)樣本的復(fù)雜特征變化,因此本文采用構(gòu)造稀疏變化字典來模擬出人臉的各種表情、光照、姿態(tài)、遮罩等特征變化。

      2.1 構(gòu)造稀疏變化字典

      在單訓(xùn)練樣本人臉識(shí)別問題中,假定共有n類訓(xùn)練樣本,則訓(xùn)練樣本總數(shù)為n。定義原始訓(xùn)練集為G=[g1,g2,…,gn]∈Rm×n,m 為樣本維度,gk∈Rm為第 k類訓(xùn)練樣本,k=1,2,…,n。待分類樣本y由G可表示為:

      其中,e表示殘差。運(yùn)用稀疏表示模型,求得待檢測(cè)樣本y在G上的表示系數(shù)α:

      其中,ε>0為殘差約束;||.||k表示Lk范數(shù)約束。原始稀疏約束模型k=0,但求解L0范數(shù)最小化是NP_hard問題,因此直接求解不可行。但壓縮感知理論證明了在足夠稀疏的前提下可用L1范數(shù)代替L0范數(shù)進(jìn)行稀疏約束[16],因此以下的稀疏模型都會(huì)用L1范數(shù)進(jìn)行稀疏約束。式(2)在實(shí)際使用中,通常用下面的拉格朗日式子代替:

      其中,λ為常數(shù)項(xiàng)約束,通過式(3)求出表示系數(shù)α=[α1,α2,…,αn],αi為由第 i類訓(xùn)練樣本表示時(shí)的表示系數(shù)。最終y的分類結(jié)果為:

      受限于每類只有一個(gè)訓(xùn)練樣本,且待分類人臉圖像特征變化不可控,直接使用SRC算法時(shí),誤分類概率較大。這是因?yàn)楫?dāng)待檢測(cè)樣本相對(duì)原始訓(xùn)練樣本存在光照、表情、姿態(tài)、遮罩等特征變化時(shí),字典G無法準(zhǔn)確表示待檢測(cè)樣本。因此本文引入包含各種復(fù)雜特征變化的字典X,X與G類別無交集。記X=[XrXv],其中Xr為正常穩(wěn)定的參考樣本子集,而Xv則對(duì)應(yīng)于存在光照、表情、姿態(tài)、遮罩等特征變化的變化樣本子集。假定X包含M種特征變化,即,其中表示第 j種特征,j=1,2,…,M。則通過變化樣本與參考樣本Xr之間的差值,得到變化字典X,即:

      則y由訓(xùn)練字典G和變化字典X協(xié)同表示為:

      其中,α和β分別為y在訓(xùn)練字典G和變化字典X上的表示系數(shù)。與式(3)原理相同,α和 β可通過下式求得:

      由于變化字典X是由包含特征變化的樣本與其對(duì)應(yīng)的特征穩(wěn)定樣本之間的差值構(gòu)成的,從而變化字典X與具體樣本無關(guān),只包含變化特征部分。只要變化字典包含的特征變化種類足夠多,則理論上可以表示任何未知分類人臉樣本的特征變化部分。而特征不變部分則可以由訓(xùn)練字典中對(duì)應(yīng)的原始訓(xùn)練樣本表示,可以避免人臉特征變化對(duì)分類算法的干擾。

      2.2 圖像分塊

      本文引入變化字典X主要是用來表示待檢測(cè)樣本的特征變化部分,避免特征變化對(duì)正確分類的干擾。由于每類訓(xùn)練樣本僅為一個(gè),當(dāng)一些訓(xùn)練樣本相似度較高時(shí),即樣本距離較近時(shí),容易誤分類。雖然相似樣本整體距離較近,但是具體到某個(gè)局部特征部位時(shí),如眼睛、鼻子、眉毛等時(shí),個(gè)體差異性則較大。因此可以對(duì)圖像進(jìn)行分塊,分別求得每一子分塊分類結(jié)果,然后通過某種投票策略確定最終分類結(jié)果。采用分塊策略,可以將每一個(gè)分塊結(jié)果當(dāng)作一個(gè)弱分類器,而這些弱分類器作用在一起則構(gòu)成強(qiáng)分類器。

      對(duì)圖像分塊或分片是指將原始圖像按照某種規(guī)則分成幾塊。如圖1(a)為原始訓(xùn)練樣本,對(duì)其進(jìn)行平均4分塊時(shí),得到圖1(b)。通過分塊可以突出分塊所包含的特征,而不同樣本具有不同的特征則是可分類的前提,因此分塊可在一定程度上提高識(shí)別準(zhǔn)確率。

      Fig.1 An example of image sub-block圖1 圖像分塊示例

      一般圖像分塊分為無重疊分塊和帶重疊分塊,本文采用帶重疊分塊,即分塊之間有一定的重疊。之所以采用重疊分塊,一是為了增加弱分類器的數(shù)量,使得最終決策分類更準(zhǔn)確;二是因?yàn)橥ㄟ^重疊分塊可以使得面部某些重要特征(眼睛、鼻子、嘴巴、眉毛等)不被劃分到不同塊,同時(shí)可以預(yù)測(cè)一些人臉姿態(tài)變化。

      假定原始圖像大小為 p×q,分塊大小為 pr×pc,分塊步長(zhǎng)為 po(即每隔 po距離取下一個(gè)分塊),則可分塊數(shù)記為S:

      其中,“L」”為向下取整運(yùn)算。

      分塊步驟如下:

      (1)對(duì)字典進(jìn)行分塊。對(duì)G和X分別進(jìn)行分塊,G={G1,G2,…,GS},X={X1,X2,…,XS},Gi為所有訓(xùn)練字典的第i個(gè)分塊構(gòu)成的集合,Xi則為所有變化字典的第i個(gè)分塊構(gòu)成的集合,i=1,2,…,S。

      (2)對(duì)待分類樣本 y分塊,y={y1,y2,…,yS},yi為y的第i個(gè)分塊,i=1,2,…,S。

      2.3 鄰域分塊及其權(quán)重系數(shù)定義

      引入變化字典相當(dāng)于增加了訓(xùn)練字典的規(guī)模,由原始訓(xùn)練字典G和變化字典X構(gòu)成新的訓(xùn)練字典。而在對(duì)待分類樣本y進(jìn)行分塊時(shí),分別取出與每個(gè)分塊距離最近的K個(gè)分塊,這K個(gè)分塊與原分塊類別相同,相當(dāng)于增加了待分類樣本的個(gè)數(shù),由于這K個(gè)近鄰分塊相對(duì)原分塊只是發(fā)生了很小的位移,在一定程度上還可以用來預(yù)測(cè)人臉姿態(tài)變化。如圖2(a)為原始圖像,先分塊得到圖2(b),然后對(duì)其每個(gè)分塊分別求4近鄰分塊,得到圖2(c)。

      Fig.2 An example of 4 nearest patches圖2 最近鄰分塊示例

      記第s(s=1,2,…,S)個(gè)分塊的K個(gè)近鄰分塊構(gòu)成的集合為,其中表示第s個(gè)原始分塊本身,為其第i個(gè)近鄰分塊,i=0,1,…,K。

      引入灰度圖像上像素點(diǎn)坐標(biāo)這一概念,記為L(zhǎng)(x,y),表示某像素點(diǎn)的坐標(biāo)位置。x、y分別表示灰度圖像矩陣的第x行y列。定義第s個(gè)分塊與其對(duì)應(yīng)的K個(gè)近鄰分塊的距離集合為,其中表示第s個(gè)原始分塊與其第k個(gè)近鄰分塊的距離,距離定義如下:

      關(guān)于權(quán)重設(shè)置的說明:與原始分塊ys越近的近鄰分塊,與原始分塊越相似,權(quán)重系數(shù)設(shè)置越大;距離越遠(yuǎn)的分塊,與原始分塊相差較大,則將其權(quán)重系數(shù)設(shè)置越小。

      2.4 分類策略

      通過下式自動(dòng)對(duì)每個(gè)近鄰分塊的殘差進(jìn)行加權(quán)求第s個(gè)分塊由第 j類表示時(shí)的殘差:

      其中,Es為最小殘差值;Lj為獲取最小殘差值的類標(biāo)。

      依次求得S個(gè)分塊的分類結(jié)果與對(duì)應(yīng)的標(biāo)簽集,記為:

      對(duì)式(13)S個(gè)分類結(jié)果進(jìn)行投票,記Vi為分類結(jié)果為第i類的投票數(shù);ei為最小殘差。當(dāng)Lj=i時(shí),Vi增加1,且 ei=min(ei,Ej),其中 j=1,2,…,S ,i=1,2,…,n,記投票結(jié)果為:

      則待分類樣本y的最終分類結(jié)果為:

      即最終分類結(jié)果為S個(gè)分塊投票后獲取最小殘差比的分類類標(biāo)。這里之所以采用殘差比而不是投票數(shù)決定分類結(jié)果,是為了避免兩個(gè)或兩個(gè)以上的類別同時(shí)獲得最大投票數(shù)的問題。

      3 基于K鄰域分塊自動(dòng)加權(quán)的稀疏表示分類算法

      原始訓(xùn)練樣本構(gòu)成字典G=[G1,G2,…,Gn],由式(4)生成變化字典X。

      (1)輸入待分類樣本y。

      (2)對(duì)G、X、y分別進(jìn)行分塊,分塊數(shù)為S,G={G1,G2,…,GS},X={X1,X2,…,XS},y={y1,y2,…,yS}。

      (3)初始化變量s=1,初始化S個(gè)分塊的表示殘差及類標(biāo):(E,L)=[(E1,L1),(E2,L2),…,(ES,LS)]=[(0,0),(0,0),…,(0,0)]。

      (4)求分塊ys及其K近鄰分塊構(gòu)成的分塊集合,

      (5)根據(jù)式(8)求s分塊與其K個(gè)近鄰分塊的距離Dists,由式(9)根據(jù)距離自動(dòng)設(shè)置權(quán)值

      (6)根據(jù)式(10)求n類訓(xùn)練樣本分別表示時(shí)的殘差,記為,由式(11)更新(ES,LS)。

      (7)若 s<S,返回(5),否則執(zhí)行步驟(8)。

      (8)根據(jù)式(14),計(jì)算投票結(jié)果 [V,e],然后求分類結(jié)果class(y)=arg mini(ei/Vi)。

      (9)返回分類結(jié)果。

      4 實(shí)驗(yàn)結(jié)果與分析

      本文在 AR[17]、CMU Multi-PIE[18]和 ORL[19]3 種人臉數(shù)據(jù)庫上進(jìn)行實(shí)驗(yàn),并與現(xiàn)有的單樣本識(shí)別算法進(jìn)行對(duì)比。對(duì)比算法包括基本分類算法NN(nearest neighbor)[20]、SVM(support vector machine)[21],基于生成虛擬訓(xùn)練樣本的文獻(xiàn)[8]中的算法,基于稀疏字典學(xué)習(xí)的算法 ESRC[11]、SVDL(sparse variation dictionary learning)[12]。同時(shí)為體現(xiàn)K鄰域分塊自動(dòng)加權(quán)(automatic weight,AW)的效果,分別對(duì)比無分塊、不求鄰域分塊的基本分塊(patch)、K鄰域分塊平均加權(quán)(average weight,AVG)的SRC[3]算法。

      4.1 參數(shù)設(shè)置

      常量參數(shù)設(shè)置:稀疏約束模型中稀疏約束參數(shù)λ設(shè)置為0.05;3個(gè)人臉數(shù)據(jù)集上的分塊大小均設(shè)置為20×20,分塊步長(zhǎng)設(shè)置為10,鄰域分塊數(shù)K=4。

      4.2 變化字典X的生成方式

      實(shí)驗(yàn)中,選擇人臉數(shù)據(jù)庫中的部分樣本集共m類,每類n張圖像用來生成變化字典X,選擇每類樣本的第一張圖片作為Xr,剩余的n-1個(gè)樣本用來構(gòu)成Xv,生成變化字典規(guī)模為m×(n-1)。其中m的數(shù)量根據(jù)不同人臉數(shù)據(jù)庫在實(shí)驗(yàn)中具體設(shè)定,n與具體的數(shù)據(jù)庫有關(guān)。

      4.3 AR人臉數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果

      AR人臉庫大約包含類別數(shù)為126,每類樣本數(shù)約為26,每類包含不同的光照、表情、遮罩等特征變化。本文選取其中的100類,男女各占一半作為實(shí)驗(yàn)樣本,選擇其中的20類用來生成稀疏變化字典X。剩下的80類中,每類的第一張無明顯特征變化的人臉構(gòu)成訓(xùn)練集,測(cè)試集分為3類:光照變化、墨鏡、口罩(或圍巾)。樣本集每類樣本數(shù)大小均為6,實(shí)驗(yàn)中所有圖像尺寸統(tǒng)一處理為80×80像素。

      從表1中可以看出,在光照、墨鏡、口罩3種特征變化下,本文算法SRC(AW-KPatch)均獲得最高識(shí)別準(zhǔn)確率。相比K鄰域平均分塊算法提高1.3%、3.3%、3.0%,相比SRC(Patch)平均提高10%~15%,相比SRC則提高明顯;同時(shí)對(duì)比字典學(xué)習(xí)算法SVDL以及ESRC也有所提升,相比其他算法則提升效果明顯。且采用稀疏變化字典以及分塊后,在墨鏡和口罩這兩種遮擋條件下,算法識(shí)別率提高明顯。

      Table 1 Recognition rate of different algorithms onAR database表1 不同算法在AR數(shù)據(jù)庫上的識(shí)別準(zhǔn)確率 %

      4.4 CMU Multi-PIE數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果

      CMU Multi-PIE數(shù)據(jù)庫中人臉種類數(shù)多達(dá)337類,包含光照、表情、姿態(tài)等特征變化。本文實(shí)驗(yàn)選取160類,其中120類用作訓(xùn)練集,40類用來生成變化字典。使用不包含姿態(tài)變化的中立人臉每類選擇一個(gè)作為訓(xùn)練集;測(cè)試集主要為表情變化,分為笑臉(S1-smile)、驚嚇(S2-surprise)和瞇眼(S2-squint)3類,測(cè)試樣本集每類樣本數(shù)為6。所有圖像的尺寸使用Matlab自帶函數(shù)resize統(tǒng)一處理為80×80像素。

      由于CMU Multi-PIE較為復(fù)雜,面部特征變化尺度較大且復(fù)雜,從而在驚訝、瞇眼測(cè)試集上各種算法的識(shí)別率都較低。但從表2中可以看出,本文算法識(shí)別效果較其他算法仍有一定的改進(jìn),在驚訝(S2-surprise)這個(gè)測(cè)試集上雖比SVDL低4.4%,但仍比其他算法準(zhǔn)確率高;在笑臉(S1-smile)和瞇眼(S2-squint)測(cè)試集上,則比效果第二好的算法識(shí)別率提高2.6%、5.7%。

      4.5 ORL人臉數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果

      ORL人臉數(shù)據(jù)庫包含40類,每類10幅圖像,共400幅圖像。每類圖像均包含各種姿態(tài)變化,同時(shí)也伴隨有光照、表情以及是否帶有眼鏡等變化。由于樣本較少,為滿足SRC算法的稀疏性,隨機(jī)選擇其中的20類圖像用來構(gòu)成變化字典X;剩下的20類,選擇每類第一張人臉作為訓(xùn)練集,剩下的9張包含各種特征變化的圖像作為測(cè)試集,將所有灰度圖像的尺寸處理為40×40像素。

      由于ORL人臉庫主要包含姿態(tài)變化,通過表3可以看出,引入稀疏變化字典X以及K鄰域分塊加權(quán)后的SRC(AW-KPatch)相比原始SRC識(shí)別率提升23.3%,相比平均加權(quán)的SRC(AVG-KPatch)提高0.8%,相比SVDL及ESRC提高2.1%、7.9%,相比其他算法則效果明顯。同時(shí),本文算法即使姿態(tài)變化下仍能達(dá)到90.0%的識(shí)別率,因此算法也具有一定的姿態(tài)魯棒性。

      Table 3 Recognition rate of different algorithms on ORL database表3 不同算法在ORL數(shù)據(jù)庫上的識(shí)別準(zhǔn)確率 %

      最后,通過表1、表2、表3的實(shí)驗(yàn)數(shù)據(jù)綜合分析可知,引入稀疏變化字典X后,特征變化部分可以由X表示,因此可以在一定程度上提高單訓(xùn)練樣本情況下的SRC算法識(shí)別率;同時(shí)結(jié)合K鄰域自動(dòng)分塊加權(quán)策略,獲得了最好的識(shí)別結(jié)果;并且在相同的人臉特征變化條件下,通過對(duì)比基于AVG-KPatch、Patch、無分塊的SRC算法,證明了K鄰域分塊自動(dòng)加權(quán)方法的有效性。雖然有關(guān)采用K近鄰樣本的方法前人文獻(xiàn)也有敘述[22-23],但本文將其與圖像分塊相結(jié)合并應(yīng)用于單樣本人臉識(shí)別中,取得了最優(yōu)的結(jié)果。

      5 結(jié)束語

      本文針對(duì)單訓(xùn)練樣本識(shí)別問題,提出了一種基于K鄰域分塊自動(dòng)加權(quán)的單樣本識(shí)別算法。結(jié)合稀疏變化字典來預(yù)測(cè)特征變化,對(duì)待分類樣本進(jìn)行K近鄰分塊,根據(jù)距離自動(dòng)設(shè)置不同近鄰分塊在決策分類中的權(quán)重系數(shù),最后通過投票機(jī)制獲取最終分類結(jié)果。同時(shí)通過與其他一些有效的單樣本人臉識(shí)別算法對(duì)比,驗(yàn)證了本文算法在識(shí)別準(zhǔn)確率上,相比字典學(xué)習(xí)算法、分塊算法都有較大的改進(jìn)。但本文沒有考慮重要局部特征(眼睛、鼻子、嘴部等)所在的分塊在投票中應(yīng)具有更大的表決權(quán),下一步將研究在投票分類時(shí)給予重要特征部位以較大的表決權(quán)是否有助于提高分類準(zhǔn)確率。

      [1]Tan Xiaoyang,Chen Songcan,Zhou Zhihua,et al.Face recognition from a single image per person:a survey[J].Pattern Recognition,2006,39(9):1725-1745.

      [2]Belhumeur P N,Hespanha J P,Kriegman D J.Eigenfaces vs.fisherfaces:recognition using class specific linear projection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):711-720.

      [3]Wright J,Yang A Y,Ganesh A,et al.Robust face recognition via sparse representation[J].IEEE Transactions on PatternAnalysis and Machine Intelligence,2009,31(2):210-227.

      [4]Tzimiropoulos G,Zafeiriou S,Pantic M.Subspace learning from image gradient orientations[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(12):2454-2466.

      [5]Sharma A,Dubey A,Tripathi P,et al.Pose invariant virtual classifiers from single training image using novel hybrideigenfaces[J].Neurocomputing,2010,73(10/12):1868-1880.

      [6]Lu Jiwen,Tan Yappeng,Wang Gang.Discriminative multimanifold analysis for face recognition from a single training sample per person[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(1):39-51.

      [7]Xu Yong,Zhu Xingjie,Li Zhengming,et al.Using the original and‘symmetrical face’training samples to perform representation based two-step face recognition[J].Pattern Recognition,2013,46(4):1151-1158.

      [8]Zhang Daoqiang,Chen Songcan,Zhou Zhihua.A new face recognition method based on SVD perturbation for single example image per person[J].Applied Mathematics and Computation,2005,163(2):895-907.

      [9]Xu Yong,Fang Xiaozhao,Li Xuelong,et al.Data uncertainty in face recognition[J].IEEE Transactions on Cybernetics,2014,44(10):1950-1961.

      [10]Kim T K,Kittler J.Locally linear discriminant analysis for multimodally distributed classes for face recognition with a single model image[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(3):318-327.

      [11]Deng Weihong,Hu Jiani,Guo Jun.Extended SRC:undersampled face recognition via intraclass variant dictionary[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(9):1864-1870.

      [12]Yang Meng,Van Gool L,Zhang Lei.Sparse variation dic-tionary learning for face recognition with a single training sample per person[C]//Proceedings of the 2013 IEEE International Conference on Computer Vision,Sydney,Australia,Dec 1-8,2013.Piscataway,USA:IEEE,2013:689-696.

      [13]Chen Songcan,Liu Jun,Zhou Zhihua.Making FLDA applicable to face recognition with one sample per person[J].Pattern Recognition,2004,37(7):1553-1555.

      [14]Kumar R,Banerjee A,Vemuri B C,et al.Maximizing all margins:pushing face recognition with kernel plurality[C]//Proceedings of the 2011 IEEE International Conference on Computer Vision,Barcelona,Spain,Nov 6-13,2011.Piscataway,USA:IEEE,2011:2375-2382.

      [15]Zhu Pengfei,Zhang Lei,Hu Qinghua,et al.Multi-scale patch based collaborative representation for face recognition with margin distribution optimization[C]//LNCS 7572:Proceedings of the 12th European Conference on Computer Vision,Florence,Italy,Oct 7-13,2012.Berlin,Heidelberg:Springer,2012:822-835.

      [16]Donoho D L.Compressed sensing[J].IEEE Transactions on Information Theory,2006,52(4):1289-1306.

      [17]MartinezAM.TheAR face database[R].CVC,1998.

      [18]Gross R,Matthews I,Cohn J,et al.Multi-PIE[J].Image and Vision Computing,2010,28(5):807-813.

      [19]ORL database[EB/OL].(2015-10-24)[2016-05-10].http://www.cl.cam.ac.uk/research/dtg/attarchive/facedatabase.html.

      [20]Duda R O,Hart P E,Stork D G.Pattern classification[M].Hoboken,USA:John Wiley&Sons,2012.

      [21]Cortes C,Vapnik V.Support-vector networks[J].Machine Learning,1995,20(3):273-297.

      [22]Xu Yong,Zhang D,Yang Jian,et al.A two-phase test sample sparse representation method for use with face recognition[J].IEEE Transactions on Circuits and Systems for Video Technology,2011,21(9):1255-1262.

      [23]Xu Yong,Zhu Qi,Fan Zizhu,et al.Using the idea of the sparse representation to perform coarse-to-fine face recognition[J].Information Sciences,2013,238:138-148.

      WEI Mingjun was born in 1991.He is an M.S.candidate at Guizhou University.His research interest is computability and computational complexity.

      魏明?。?991—),男,湖北十堰人,貴州大學(xué)碩士研究生,主要研究領(lǐng)域?yàn)榭捎?jì)算性與計(jì)算復(fù)雜性。

      XU Daoyun was born in 1959.He is a professor and Ph.D.supervisor at Guizhou University,and the senior member of CCF.His research interests include computability and computational complexity,algorithm design and analysis.

      許道云(1959—),男,貴州安順人,貴州大學(xué)教授、博士生導(dǎo)師,CCF高級(jí)會(huì)員,主要研究領(lǐng)域?yàn)榭捎?jì)算性與計(jì)算復(fù)雜性,算法設(shè)計(jì)與分析。

      QIN Yongbin was born in 1980.He is an associate professor at Guizhou University,the member of CCF.His research interests include computability and computational complexity,intelligent computing and big data management and application.

      秦永彬(1980—),山東招遠(yuǎn)人,博士,貴州大學(xué)副教授,CCF會(huì)員,主要研究領(lǐng)域?yàn)榭捎?jì)算性與計(jì)算復(fù)雜性,智能計(jì)算,大數(shù)據(jù)管理與應(yīng)用。

      Face Recognition Based on Automatic WeightedKNearest Patches for Single Training Sample*

      WEI Mingjun,XU Daoyun+,QIN Yongbin
      College of Computer Science and Technology,Guizhou University,Guiyang 550025,China

      Face recognition with single training sample per person,due to the lack of inner-class information to predict the complex variations,results in the recognition accuracy of commonly used algorithms declined sharply.And the best solutions can be broadly divided into two categories,one is to generate virtual training samples from original samples,the other is through learning a sparse variation dictionary to predict the variations.To solve this challenging problem,this paper proposes an algorithm based on automatic weights to theKnearest patches.Because the training dictionary which just has one training sample per class can not predict facial complex features change,this paper imports the sparse variation dictionary to represent the complex facial features changes.Then this paper divides the test sample into some sub-blocks,and picks out theKnearest patches of each sub-block to form a virtual testing set and gives automatic weights to those patches in the classification.Finally,this paper uses an improved voting mechanism to get classification results of the original test sample.Extensive experiments on representative face databases AR,CMU Multi-PIE and ORL demonstrate that the proposed algorithm is much more effective than state-of-the-art algorithms in dealing with face recognition with single training sample per person.

      2016-06, Accepted 2016-08.

      A

      TP391

      +Corresponding author:E-mail:dyxu@gzu.edu.cn

      WEI Mingjun,XU Daoyun,QIN Yongbin.Face recognition based on automatic weightedKnearest patches for single training sample.Journal of Frontiers of Computer Science and Technology,2017,11(9):1505-1512.

      10.3778/j.issn.1673-9418.1607031

      *The National Natural Science Foundation of China under Grant Nos.61262006,61540050(國(guó)家自然科學(xué)基金);the Major Applied Basic Research Program of Guizhou Province under Grant No.JZ20142001(貴州省重大應(yīng)用基礎(chǔ)研究項(xiàng)目);the Science and Technology Foundation of Guizhou Province under Grant No.LH20147636(貴州省科技廳聯(lián)合基金).

      CNKI網(wǎng)絡(luò)優(yōu)先出版: 2016-08-15, http://www.cnki.net/kcms/detail/11.5602.TP.20160815.1659.008.html

      Key words:single training sample;face recognition;sparse variation dictionary;K nearest patches;automatic weight;voting mechanism

      猜你喜歡
      訓(xùn)練樣本分塊字典
      開心字典
      家教世界(2023年28期)2023-11-14 10:13:50
      開心字典
      家教世界(2023年25期)2023-10-09 02:11:56
      分塊矩陣在線性代數(shù)中的應(yīng)用
      人工智能
      寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
      融合原始樣本和虛擬樣本的人臉識(shí)別算法
      我是小字典
      基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
      反三角分塊矩陣Drazin逆新的表示
      正版字典
      讀者(2016年14期)2016-06-29 17:25:50
      北流市| 清水县| 兴安盟| 双鸭山市| 朝阳县| 绍兴县| 蒙阴县| 凤庆县| 七台河市| 靖西县| 丰都县| 信宜市| 临高县| 南召县| 固阳县| 广南县| 孙吴县| 梅州市| 黑龙江省| 铁岭县| 屯门区| 巴彦县| 六枝特区| 紫金县| 内丘县| 进贤县| 双牌县| 都江堰市| 陇南市| 库尔勒市| 巴林右旗| 嫩江县| 台东市| 楚雄市| 浦北县| 新安县| 庄河市| 邯郸县| 东阳市| 龙门县| 临夏市|