彭思江,戴厚平,周成富,劉 倩
(吉首大學(xué)數(shù)學(xué)與統(tǒng)計學(xué)院,湖南 吉首 416000)
人臉識別技術(shù)被廣泛應(yīng)用于交通安全、金融、法律等領(lǐng)域,國內(nèi)外學(xué)者對人臉識別問題進行了優(yōu)化建模和算法設(shè)計.如基于K-L變換[1-2]、模糊BP神經(jīng)網(wǎng)絡(luò)[3]、DCT和RBF神經(jīng)網(wǎng)絡(luò)[4]等設(shè)計人臉識別算法,這些研究的對象都是同一年齡階段的人臉圖像;又如基于深度卷積神經(jīng)網(wǎng)絡(luò)[5]、分解稀疏非負矩陣[6]等,這些算法可以進行跨年齡人臉識別.方向梯度直方圖(HOG)特征提取算法[7]是通過一致空間的密度矩陣提高準確率,能較準確地描述人臉的亮暗點和邊緣等局部分布特征;主成分分析(PCA)方法[8]是利用樣本中部分主要元素效果代替整體元素效果,將多維復(fù)雜問題簡化為低維簡單問題;SVM訓(xùn)練原理[9]應(yīng)用在小樣本、非線性樣本的分類問題中,取得了很好的分類效果.筆者將這3種方法結(jié)合,對跨年齡人臉進行識別.
HOG特征是對局部區(qū)域進行描述,在局部區(qū)域上構(gòu)建HOG,以此構(gòu)成圖像特征.設(shè)I為輸入圖像,I(x,y)為圖像在像素點(x,y)處的灰度值.HOG特征提取的計算步驟如下:
Step1計算每個像素點處的梯度.圖像在像素點(x,y)處的水平方向梯度、垂直方向梯度分別為
Gx(x,y)=H(x+1,y)-H(x-1,y),
(1)
Gy(x,y)=H(x,y+1)-H(x,y-1),
(2)
其中H(x,y)為像素值.由(1),(2)式可計算出像素點(x,y)處的梯度幅值和梯度方向分別為
Step2對每一個細胞單元構(gòu)建HOG.將圖像劃分為n個大小相同的細胞單元ci(i=1,2,…,n),設(shè)細胞單元的大小為m×m像素,并以細胞單元作為單位統(tǒng)計出HOG.將梯度方向劃分為K個均勻的區(qū)間,用Vk(x,y)表示像素點(x,y)對第k個區(qū)間(記為Bk)的貢獻(即權(quán)值).本研究采用權(quán)值取法中較為簡單的一種,
Step4收集HOG特征.將各個塊的HOG連接起來,就得到輸入圖像的HOG特征.
PCA[10]是一種無監(jiān)督的線性特征提取方法,其最優(yōu)變換是基于K-L變換在最小均方誤差意義下產(chǎn)生的.利用該變換可較大幅度地降低人臉表情數(shù)據(jù)特征的維數(shù).n個d維空間中的樣本a1,a2,…,an,其中ai=(ai1,ai2,…,aid)T∈Rd,設(shè)A為這n個樣本構(gòu)成的數(shù)據(jù)矩陣,即A=(a1,a2,…,an).給定m Step3求協(xié)方差矩陣S的前m個最大特征值,并將這m個特征值從大到小排序,即λ1≥λ2≥…≥λm,其對應(yīng)的特征向量分別為φ1,φ2,…,φm,φj(j=1,2,…,m)∈Rd,由特征向量構(gòu)成的矩陣φm=(φ1,φ2,…,φm). 圖1 距離不同的2個超平面H1和H2Fig. 1 Two Hyperplanes with Different Distances SVM將N-D空間中的正樣本和負樣本看作2個不同的集合,并自動尋找一個超平面,將N-D空間分成2個部分,使得正、負樣本分別落在不同半徑的空間中,同時也使得正、負樣本之間的間隔拉到最大.圖1示出距離不同的2個超平面H1和H2,其中2d1和2d2均是樣本S1和S2之間的間隔. 從圖1可看出,最大間隔為2d1,其對應(yīng)的平面H1即所要尋找的超平面,與樣本S1和S2相切的超平面分別是Ha和Hb.位于超平面Ha和Hb上的數(shù)據(jù)即為支持向量,這些數(shù)據(jù)對超平面具決定性作用,新的測試樣本由已經(jīng)得到的支持向量來判定. 給定訓(xùn)練數(shù)據(jù) D={(xi,yi)|xi∈RN,yi∈{-1,1}}i=1,…,l. 其中:xi是N-D特征空間中的向量;yi為xi對應(yīng)的標簽,yi=1表示正樣本標簽,yi=-1表示負樣本標簽.訓(xùn)練樣本線性可分時,最優(yōu)分隔超平面H一定存在,用w表示其法向量,b表示其截距,則根據(jù)文獻[11],有w·x+b=0.超平面H可以將不同類別的2個樣本分開,對應(yīng)的約束條件為 w·xi+b≥1yi=1, (3) w·xi+b≤-1yi=-1. (4) 合并(3),(4)式,得到y(tǒng)i(w·xi+b)-1≥0.引入拉格朗日優(yōu)化理論,得到 (5) (6) 其中αi為拉格朗日乘子.由(5),(6)式得到SVM最終的優(yōu)化形式: (7) 對模型(7)進行求解即可得αi,再由(5)式求出超平面H的法向量w.根據(jù)Karush-Kuhn-Tucher條件,可由w求出超平面H的截距b,計算公式為αi(yi(w·xi+b)-1)=0.w和b確定后,SVM也隨之產(chǎn)生,之后便可以利用此SVM對新樣本進行分類識別. 筆者從FQ-NET數(shù)據(jù)庫中選取11個人臉圖像進行仿真實驗,其中1個人臉圖像為對照組,另外10個人臉圖像為實驗組.實驗組又分為2小組,每小組5個人臉圖像,第一小組圖像人物與對照組是同一人但年齡不同(編號A,B,C,D,E),第二小組為另一個人在不同年齡的人臉圖像(編號F,G,H,I,J).因選取的人臉圖像是彩色圖像,故先對其進行預(yù)處理. 圖2 Gamma校正函數(shù)圖像Fig. 2 Image of the Gamma Correction Function 將彩色圖像的RGB分量分別乘以一個權(quán)重再相加,得到灰度圖像,具體計算公式[12]為Y=0.3R+0.59G+0.11B.當(dāng)圖像的灰度值較低時采用γ<1的Gamma校正,實現(xiàn)低灰度值向高灰度值拉伸;當(dāng)圖像的灰度值較高時采用γ>1的Gamma校正,實現(xiàn)高灰度值向低灰度值拉伸.Gamma校正過程可用公式表達為 其中:I(x,y)為原圖像灰度值;Y(x,y)為經(jīng)過Gamma校正后的圖像灰度值.圖像I為雙精度圖像,像素取值為0~1.Gamma校正函數(shù)圖像如圖2所示.人臉圖像預(yù)處理前后的對比效果如圖3所示. 圖3 人臉圖像預(yù)處理前后的效果對比Fig. 3 Comparison of Effects Before and After Face Image Preprocessing 預(yù)處理后的對照組和實驗組人臉圖像分別如圖4,5所示.將經(jīng)過預(yù)處理的實驗組樣本圖像分為正、負樣本圖像:以類內(nèi)圖像作為正樣本圖像,即實驗組第一小組的人臉圖像;以類間圖像作為負樣本圖像,即實驗組第二小組的人臉圖像. 圖4 預(yù)處理后的對照組人臉圖像Fig. 4 Face Image of the Control Group After Preprocessing 圖5 預(yù)處理后的實驗組人像圖像Fig. 5 Face Images of the Experimental Group After Preprocessing 對經(jīng)預(yù)處理的人臉圖像提取其對應(yīng)的HOG特征.首先,將預(yù)處理后的256×256像素的圖像劃分為16×16個大小相同的細胞單元,每個細胞單元的大小為16×16像素;其次,以細胞單元作為單位統(tǒng)計出HOG,將梯度方向劃分為9個均勻的區(qū)間,得到一個9維的特征向量;然后,將相鄰的2×2個細胞單元構(gòu)成一個大塊,得到一個36維的特征向量;接著,在每個大塊內(nèi)對所有像素的梯度方向在各個方向區(qū)間進行直方圖統(tǒng)計,并作歸一化處理;最后,相互連接225個大塊便得到整個圖像的HOG特征.提取過程如圖6所示. 圖6 HOG特征提取的過程Fig. 6 Process of Extracting HOG Features 接下來利用PCA方法對提取的HOG特征進行降維.將正樣本圖像的HOG特征差空間作為正樣本,其樣本標簽為1;將負樣本圖像的HOG特征差空間作為負樣本,其樣本標簽為-1;將確定好的正、負樣本輸入到SVM中進行訓(xùn)練.表1示出實驗組的分類識別結(jié)果. 表1 實驗組的分類識別結(jié)果 由表1可知:A,B,C,D,E這5個被分類到正樣本的人臉圖像與對照組的匹配度相對較高(最高達90.91%),驗證了它們與對照組是不同年齡的同一個人的人臉圖像;F,G,H,I,J這5個被分類到負樣本的人臉圖像與對照組的匹配度相對較低,驗證了它們與對照組不是同一個人的人臉圖像. 根據(jù)梯度幅值和梯度方向這2個重要的圖像特征之間的差異,筆者設(shè)計了基于HOG/PCA/SVM的跨年齡人臉圖像識別算法,并對算法進行了有效性驗證.下一步將以該算法為基礎(chǔ),對光照等外界因素干擾的人臉圖像進行識別,以期更好地解決人臉識別問題.3 SVM原理
4 仿真實驗
4.1 圖像預(yù)處理
4.2 人臉識別仿真過程
5 結(jié)語