劉帥師, 陳 奇, 程 曦
(長(zhǎng)春工業(yè)大學(xué) 電氣與電子工程學(xué)院, 吉林 長(zhǎng)春 130012)
?
基于SVM與C4.5混合分類器的人臉表情識(shí)別
劉帥師,陳奇,程曦
(長(zhǎng)春工業(yè)大學(xué) 電氣與電子工程學(xué)院, 吉林 長(zhǎng)春130012)
摘要:針對(duì)人臉表情識(shí)別特點(diǎn),首先使用幾何特征與基于灰度共生矩陣紋理特征的低維混合特征提取方法來提取易分類表情圖片的特征向量,然后使用C4.5決策樹分類器識(shí)別出臉部變化較為明顯的表情,再使用SVM支持向量機(jī)對(duì)較難分類表情圖片進(jìn)行分類。實(shí)驗(yàn)結(jié)果表明,通過改變決策樹算法剪枝中錯(cuò)誤樣本比率的方法可以獲得最佳預(yù)測(cè)精度,識(shí)別率達(dá)到90%。
關(guān)鍵詞:人臉表情識(shí)別; C4.5決策樹; SVM; 混合特征提取; 決策樹減枝
0引言
人臉表情傳遞著豐富的個(gè)人感情信息,并且在人與人之間的交流中扮演著重要的角色。因此,為了推動(dòng)更加智能和自然的人機(jī)交互[1],人臉表情識(shí)別在過去幾十年得到廣泛研究,并且成為一個(gè)研究熱點(diǎn)。人臉表情識(shí)別的目標(biāo)是在人臉圖像的范圍內(nèi)提取出對(duì)表情識(shí)別有利的特征,并據(jù)此進(jìn)行表情圖像的分類工作,所以,特征提取以及圖像分類這兩個(gè)過程也就成為了表情分類的重點(diǎn),而分類器的選擇與應(yīng)用成為決定最終識(shí)別精度的關(guān)鍵。然而,現(xiàn)有的多種分類技術(shù)如貝葉斯分類器、決策樹分類器,亦或是支持向量機(jī)分類器都是單分類器,而隨著分類對(duì)象的多樣化,人們逐漸提出了多分類器組合的概念。多分類器組合使用多個(gè)基分類器進(jìn)行分類,并綜合所有分類結(jié)果形成一個(gè)最終結(jié)果,它能彌補(bǔ)單一分類器的缺陷,針對(duì)分類對(duì)象的特點(diǎn),同時(shí)結(jié)合各分類器的優(yōu)勢(shì),將分類器之間進(jìn)行有效的組合,將其運(yùn)用在分類對(duì)象中,最終提高分類效果。
黃勇[2]等提出了一種基于分類器聯(lián)合的人臉表情識(shí)別方法,首先采用CKFD算法在雙決策子空間進(jìn)行特征融合;分別利用最鄰近、最小距離和神經(jīng)網(wǎng)絡(luò)3種子分類器進(jìn)行識(shí)別;最后運(yùn)用模糊積分對(duì)子分類器的識(shí)別結(jié)果進(jìn)行融合?;贘AFFE的實(shí)驗(yàn)結(jié)果表明,它是一種有效的表情識(shí)別方法。程劍[3]等提出了一種基于模糊積分多分類器融合的表情識(shí)別方法。首先采用離散余弦變換進(jìn)行特征提取,然后分別用最鄰近分類器、最近特征線分類器和余弦分類器3個(gè)子分類器對(duì)生氣、恐懼、高興、中性、悲傷、厭惡、驚訝等7種表情進(jìn)行識(shí)別,最后利用模糊積分對(duì)子分類器的識(shí)別結(jié)果進(jìn)行融合。經(jīng)過實(shí)驗(yàn)驗(yàn)證取得了比較高的識(shí)別精度。黃永明[4]等提出了利用幾何特征與相應(yīng)的一級(jí)SVM分類器進(jìn)行一次分類,最后利用Fisher特征與建立的二級(jí)集成SVM進(jìn)行最終分類,該方法經(jīng)實(shí)驗(yàn)分析證明與單個(gè)特征相比具有更高的識(shí)別率與更強(qiáng)的魯棒性。張志平[5]等設(shè)計(jì)了一種(KNN+HMM)+SVM的混合分類器,利用KNN與HMM對(duì)測(cè)試樣本進(jìn)行判決,當(dāng)判決結(jié)果相同時(shí),直接輸出判決結(jié)果,當(dāng)判決結(jié)果不同時(shí),引入SVM對(duì)測(cè)試樣本進(jìn)行再判決。結(jié)果表明,該方法所確定的分類器優(yōu)于單一分類器判決,能有效實(shí)現(xiàn)表情分類。周艷平[6]等通過Gabor濾波器對(duì)人臉部圖像進(jìn)行濾波,提取濾波后圖像的統(tǒng)計(jì)信息作為表情識(shí)別的特征信息,采用多分類器集成的方法對(duì)得到的神經(jīng)網(wǎng)絡(luò)輸出向量進(jìn)行線性加權(quán)集成,得到最終的識(shí)別結(jié)果。實(shí)驗(yàn)結(jié)果表明了該方法的正確性。胡步發(fā)[7]等提出了一種基于表情子空間和多分類器集成的人臉識(shí)別新方法。通過結(jié)合子空間與多分類器集成,對(duì)測(cè)試集中的圖像進(jìn)行表情分類識(shí)別,該方法減少了人臉外觀特征和表情表現(xiàn)方式所帶來的影響,具有更好的識(shí)別效果。
以上這些方法都是使用多分類器對(duì)表情進(jìn)行分類,文獻(xiàn)[3-4,7]使用多分類器進(jìn)行級(jí)聯(lián),而文獻(xiàn)[2,5-6]是對(duì)多分類器進(jìn)行信息融合,且都是對(duì)單一分類器進(jìn)行分類器改進(jìn),在改進(jìn)的過程中同時(shí)也增加了分類方法的復(fù)雜性。而文中針對(duì)表情圖片自身的特點(diǎn),設(shè)計(jì)出一種根據(jù)表情區(qū)分難易程度不同,對(duì)易分類表情如高興、驚訝、生氣等使用低維特征提取,決策樹C4.5算法進(jìn)行快速、有效分類,而對(duì)區(qū)分度較小、變化并不明顯的表情如中性、恐懼、悲傷、厭惡,使用Gabor高維特征提取,支持向量機(jī)分類器進(jìn)行二次分類,該方法不但依據(jù)表情圖片的特點(diǎn),同時(shí)結(jié)合各分類器自身特性,相對(duì)于傳統(tǒng)單一分類器分類方法,該方法具有機(jī)器內(nèi)存占用少,運(yùn)算時(shí)間快,識(shí)別效果好的優(yōu)勢(shì)。該方法流程如圖1所示。
圖1 表情分類流程
1基于混合特征的低維特征提取
對(duì)于人臉表情特征信息,單一的特征提取能夠反映某一局部或者單一特性的表情特征,但并不能夠全面反映表情的總體特征,而對(duì)于表情分類器而言,特征屬性值的全面程度是很重要的,它能夠很大程度影響表情的識(shí)別率。所以,為了使最終誤差率降到最低,采用的是包括幾何特征、基于灰度共生矩陣的紋理特征等的混合特征提取,它能夠全面有效地反映易分類表情圖片變化的整體特征,同時(shí)足夠區(qū)分易分類表情。
1.1幾何特征提取
面部表情的變化由面部肌肉的牽動(dòng)引起,面部肌肉的收縮會(huì)拉動(dòng)面部器官的變化,而由各器官特征點(diǎn)相聯(lián)系的特征距離也必然發(fā)生變化,從而反映表情的類別。因此,文中提出基于幾何結(jié)構(gòu)特征用于表征表情的變化。由于手動(dòng)量取特征點(diǎn)容易造成誤差,且臉部運(yùn)動(dòng)的相對(duì)誤差本來就不大,如果采用手動(dòng)測(cè)量,易產(chǎn)生較大誤差。
文中采用角點(diǎn)檢測(cè)的方法,自動(dòng)提取[8]出圖像的特征點(diǎn),避免因手動(dòng)測(cè)量而產(chǎn)生偏差。找出相應(yīng)的特征點(diǎn),自動(dòng)截取相應(yīng)特征點(diǎn)之間的距離,選取由表情改變而變化最為明顯的6種臉部器官距離。提取過程中,首先使用角點(diǎn)檢測(cè)的方法將圖像邊緣的特征點(diǎn)標(biāo)記出,再選取14個(gè)相對(duì)點(diǎn),如圖2所示。
圖2 預(yù)標(biāo)定的特征點(diǎn)
自動(dòng)截取相應(yīng)特征點(diǎn)之間的距離得到6維特征向量,見表1。
1.2基于灰度共生矩陣的紋理特征提取
紋理作為一種區(qū)域特征,是對(duì)于圖像各像元之間空間分布的一種描述。由于紋理能充分利用圖像信息,無論從理論上或常識(shí)出發(fā)它都可以成為描述與識(shí)別圖像的重要依據(jù),與其他圖像特征相比,能更好地兼顧圖像宏觀性質(zhì)與細(xì)微結(jié)構(gòu)兩個(gè)方面,因此成為目標(biāo)識(shí)別需要提取的重要特征。一幅圖像的灰度共生矩陣能反映出圖像灰度關(guān)于方向、相鄰間隔、變化幅度的綜合信息,它是分析圖像的局部模式和它們排列規(guī)則的基礎(chǔ)。文中使用基于灰度共生矩陣的紋理特征提取,計(jì)算了15種灰度共生矩陣特征,分別為小梯度優(yōu)勢(shì)、大梯度優(yōu)勢(shì)、灰度分布的不均勻性、能量、灰度平均、梯度平均、灰度均方差、梯度均方差、相關(guān)、灰度熵、梯度熵、混合熵、慣性、逆差矩。
表1 幾何結(jié)構(gòu)特征及物理含義
計(jì)算灰度共生矩陣前,需要做圖像的量化,文中將圖像的量化級(jí)定為256,分別計(jì)算:
1)大梯度優(yōu)勢(shì):
(1)
式中:mhk----一個(gè)灰度為h,而另一個(gè)灰度為k的兩個(gè)相聚度為(Δx,Δy)的像素對(duì)出現(xiàn)的頻率。
2)小梯度優(yōu)勢(shì):
(2)
3)反差:
(3)
4)能量:
(4)
5)相關(guān):
(5)
式中:μx,μy,σx,σy----分別為mx,my的均值和標(biāo)準(zhǔn)差;
mx----共生矩陣中每列元素之和;
my----共生矩陣中每行元素之和。
6)熵:
(6)
將提取出的15維灰度共生矩陣數(shù)據(jù)與幾何特征數(shù)據(jù)外加7種hu不變矩組成28維特征向量。
2決策樹C4.5分類器
C4.5算法[9]作為Quinlan的ID3[10]改進(jìn)版,繼承了ID3算法的優(yōu)點(diǎn):用信息增益率來選擇屬性,克服了用信息增益選擇屬性時(shí)偏向選擇取值多的屬性的不足;在樹構(gòu)造過程中進(jìn)行剪枝;能夠完成對(duì)連續(xù)屬性的離散化處理;能夠?qū)Σ煌暾麛?shù)據(jù)進(jìn)行處理。這些特性都適用于易分類表情的分類。
文中提出了對(duì)區(qū)分度較高的易分類表情使用C4.5決策樹算法分類。C4.5算法的優(yōu)點(diǎn)是產(chǎn)生的分類規(guī)則易于理解,準(zhǔn)確率較高;缺點(diǎn)是對(duì)高維數(shù)據(jù)處理能力不足。因此,文中在使用C4.5算法時(shí)使用的是低維的特征,并且將輸入的特征向量進(jìn)行了預(yù)處理與規(guī)范化,使得C4.5能夠有效利用特征數(shù)據(jù),發(fā)揮其優(yōu)勢(shì)。
在將特征向量輸入分類器之前,首先將特征向量進(jìn)行數(shù)據(jù)規(guī)范化處理,使用min-max標(biāo)準(zhǔn)化方法,也叫離差標(biāo)準(zhǔn)化,將得到的28維特征向量統(tǒng)一量綱,假設(shè)minA,minB分別為屬性值的最大值與最小值,將屬性的取值投影到[-1,1]范圍內(nèi),則最小值對(duì)應(yīng)的是-1,最大值對(duì)應(yīng)的是1。
假設(shè)用S代表當(dāng)前表情樣本集,當(dāng)前候選屬性集用A表示,則C4.5算法C4.5 formtree(S,A)的偽代碼如下:
算法:Generate_decision_tree由給定的表情訓(xùn)練數(shù)據(jù)產(chǎn)生一棵決策樹。
輸入:訓(xùn)練樣本samples;候選屬性的集合attributelist。
輸出:一棵表情分類決策樹;創(chuàng)建根節(jié)點(diǎn)N。
1)IfS都屬于同一類表情C,則返回N為葉節(jié)點(diǎn),標(biāo)記為類表情C;
2)If attributelist為空orS中所剩的樣本數(shù)少于某給定值,則返回N為葉節(jié)點(diǎn);
3)標(biāo)記N為S中出現(xiàn)最多的類表情;
4)For each attributelist 中的屬性,計(jì)算信息增益率information gain ratio:
(7)
其中,Gain(S,A)與ID3算法中的信息增益相同,而分裂信息SplitInfo(S,A)代表了按照屬性A分裂樣本集S的廣度和均勻性:
(8)
5)在實(shí)驗(yàn)時(shí)假設(shè)此時(shí)當(dāng)N的測(cè)試屬性test.attribute=attributelist具有最高信息增益率的屬性;
6)If測(cè)試屬性為連續(xù)型,則找到該屬性的分割閾值;
7)For each由節(jié)點(diǎn)N分出一個(gè)新的葉子節(jié)點(diǎn);
8)If該葉子節(jié)點(diǎn)對(duì)應(yīng)的樣本子集S′為空,則分裂此葉子節(jié)點(diǎn)生成新葉節(jié)點(diǎn),將其標(biāo)記為S中出現(xiàn)最多的類表情;Else在該葉子節(jié)點(diǎn)上執(zhí)行如下產(chǎn)生樹語(yǔ)句對(duì)它繼續(xù)分裂C4.5formtree(S’,S’.attributelist);
9)計(jì)算每個(gè)節(jié)點(diǎn)的分類錯(cuò)誤,進(jìn)行決策樹剪枝[11];
10)生成最終決策樹,將測(cè)試集輸入決策樹進(jìn)行分類,計(jì)算識(shí)別率。
3基于Gabor小波變換的高維特征提取
Gabor小波[12]方法具有良好的時(shí)頻局部化特性、多分辨率特性和變焦能力,具有提取圖像局部細(xì)微變換的能力,這個(gè)特性非常適合人臉表情特征的提取,尤其是在分辨差別較小的圖像如厭惡、悲傷等表情時(shí),能夠反應(yīng)出這些表情的細(xì)微差別。并且Gabor小波對(duì)光照變化不敏感,具有良好的光照性,能夠較好地解決由環(huán)境變化引起的圖像變化問題。Gabor變換方法如下:
將表情圖像I(x,y)與Gabor濾波器
(9)
進(jìn)行卷積I(X,Y)*ψj(k,x),得到不同方向和尺度的Gabor圖像特征,式中:σ=2π定義了小波濾波器的帶寬,(X,Y)為圖像空間位置坐標(biāo)。將表情圖像分割為3行5列,分割后的圖像特征如圖3所示。
圖3 分割圖像前后對(duì)比
4基于SVM的分類算法
支持向量機(jī)是目前最為流行的大數(shù)據(jù)處理方法,已經(jīng)廣泛用于表情分類領(lǐng)域。它的方法是,先給定表情訓(xùn)練樣本集,支持向量機(jī)SVM通過非線性映射將輸入表情特征向量映射到一個(gè)高維特征空間:在此高維特征空間尋找最優(yōu)線性分類面。給定訓(xùn)練樣本集:(xi,yi),i=1,2,…,N,xi∈Rd,yi∈{-1,1},SVM通過非線性映射Φ(x)將輸入向量X映射到一個(gè)高維特征空間:
在此高維特征空間中尋找最優(yōu)線性分類面,即求解以下問題:
(10)
yi[〈w,Φ(xi)〉+b]≥1-ξi(i=1,2,…,N)ξi≥0,c>0約束的二次優(yōu)化問題求解,可得分類決策函數(shù):
(11)
其中,K(xi,yi)=φ(xi)Tφ(yi)為核函數(shù),α是非負(fù)拉格朗日乘子。
SVM分類器是兩類分類器,只能實(shí)現(xiàn)兩類分類。SVM多類分類器計(jì)算復(fù)雜,通過組合多個(gè)SVM兩類分類器可以實(shí)現(xiàn)多類分類,通常采用兩種組合方法:
1)一對(duì)一(one-against-one),在所有N類之間構(gòu)造所有可能的兩類分類器,采用投票方法來決定分類結(jié)果,共需構(gòu)造N(N-1)/2個(gè)兩類分類器。
2)一對(duì)多(one-against-the rest),構(gòu)造N個(gè)兩類分類器,通過比較N個(gè)分類器的輸出值來判定分類結(jié)果。
一對(duì)一的方法分類效果較好,但是其計(jì)算代價(jià)大,一對(duì)多的方法計(jì)算代價(jià)較小。
為了減小計(jì)算量,文中采用的是一對(duì)多的方式構(gòu)造表情識(shí)別分類器分類難分類表情,先將分類效果較好的方案放在父節(jié)點(diǎn)上執(zhí)行,層層向下,逐層推進(jìn),構(gòu)造分類器,如圖4所示。
圖4 SVM分類器
5實(shí)驗(yàn)與結(jié)果分析
5.1實(shí)驗(yàn)流程
實(shí)驗(yàn)流程如圖5所示。
圖5 實(shí)驗(yàn)流程圖
實(shí)驗(yàn)A表示對(duì)表情圖片使用文中第1節(jié)所述方法進(jìn)行特征提取,使用決策樹C4.5算法進(jìn)行表情分類,識(shí)別出生氣、高興、驚訝表情;實(shí)驗(yàn)B表示將剩余的未分類表情使用文中第3節(jié)所述方法進(jìn)行特征提取,采用SVM分類器分類出剩余表情。
5.2實(shí)驗(yàn)描述
為了比較混合分類器與單一分類器在識(shí)別率和識(shí)別性能上的優(yōu)劣,文中以日本的JAFFE女性人臉表情數(shù)據(jù)庫(kù)為例進(jìn)行測(cè)試,JAFFE包括10個(gè)日本女性的7種表情的213張圖片,每種表情有3到4種樣本。將其中140張圖片作為訓(xùn)練集,70張圖片作為測(cè)試集。首先將表情庫(kù)中所有圖像進(jìn)行預(yù)處理,包括純臉分割、幾何歸一化和光照歸一化后得到歸一化后的圖像,如圖6所示。
圖6 部分實(shí)驗(yàn)用純臉表情
5.3C4.5分類器表情分類實(shí)驗(yàn)
在使用C4.5決策樹分類作為表情分類時(shí),由于該分類器適用于處理低維數(shù)據(jù),因此在提取特征時(shí),選用幾何特征以及圖像的基于灰度共生矩陣的紋理特征等共28向量作為特征向量,文中將數(shù)據(jù)屬性值分為2類和3類,分別構(gòu)造二叉樹與三叉樹決策樹結(jié)構(gòu),計(jì)算識(shí)別率。
由于C4.5與其前身ID3算法[13]相比最大的不同是增加了決策樹后剪枝環(huán)節(jié),該方法是用訓(xùn)練樣本本身來估計(jì)剪枝前后的誤差,從而決定是否真正剪枝,而通過在輸入環(huán)節(jié)改變調(diào)整節(jié)點(diǎn)誤差率,找到最佳決策樹,最終得到最佳識(shí)別率。由于C4.5算法中節(jié)點(diǎn)誤差率一般默認(rèn)為0.25,而超過0.4即出現(xiàn)過剪枝問題,所以在實(shí)驗(yàn)中,將誤差率分別選取為:0.1,0.2,0.3三種類別進(jìn)行實(shí)驗(yàn)。
C4.5二叉樹三種節(jié)點(diǎn)誤差率對(duì)應(yīng)的表情識(shí)別結(jié)果見表2。
表2 基于C4.5的易分類表情識(shí)別結(jié)果(二叉樹)
當(dāng)誤差率e=0.2時(shí),對(duì)應(yīng)的表情識(shí)別率達(dá)到最高的96.67%,于是將決策樹節(jié)點(diǎn)誤差率設(shè)定為0.2時(shí)取得識(shí)別最佳值。三叉樹對(duì)應(yīng)的三種節(jié)點(diǎn)誤差率的識(shí)別結(jié)果見表3。
表3 基于C4.5的易分類表情識(shí)別結(jié)果(三叉樹)
可以看出,三叉樹的整體識(shí)別率均低于二叉樹,而當(dāng)節(jié)點(diǎn)誤差率e=0.2時(shí)也取得最佳識(shí)別率。通過表2、表3的比較,可得到在使用C4.5算法進(jìn)行表情識(shí)別時(shí)使用二叉樹作為決策樹形式,且當(dāng)誤差率e=0.2時(shí)獲得最佳識(shí)別率。
5.4SVM分類器表情分類實(shí)驗(yàn)
由于SVM在處理高維數(shù)據(jù)特有的優(yōu)勢(shì),實(shí)驗(yàn)在特征提取時(shí)使用Gabor高維紋理特征的提取方法提取出特征向量。分別選取線性核函數(shù)(Linear Kernel)、多項(xiàng)式核(Polynomial Kernel)、徑向基核函數(shù)(Radial Basis Function)作為SVM的核函數(shù)選擇,分別計(jì)算在這3種核函數(shù)下表情識(shí)別率的差異,最終選取最佳識(shí)別率對(duì)應(yīng)的核函數(shù)。
表4 基于SVM的表情識(shí)別結(jié)果
從表4可以看出,在對(duì)3種支持向量機(jī)核函數(shù)進(jìn)行比較的過程中,使用徑向基核函數(shù)(RBF)作為核函數(shù)的SVM表情識(shí)別率最高,對(duì)難分類的四種表情識(shí)別率達(dá)到了85%,因此決定將表情識(shí)別方法核函數(shù)定為徑向基核函數(shù)。同時(shí)可以發(fā)現(xiàn)中性表情的識(shí)別率較低,低于其它圖片表情的識(shí)別精度。
圖7 部分識(shí)別失敗表情舉例
圖7列出了部分識(shí)別失敗表情,(a)、(b)分別為“恐懼”、“悲傷”表情,由于這兩類表情都為復(fù)合表情,容易和其它表情相混淆,所以分類器并沒有識(shí)別出來。而(c)、(d)都是“中性”表情,變化較為細(xì)微,分類器同樣沒有識(shí)別出來。
5.5C4.5與SVM混合分類器結(jié)合以及性能分析實(shí)驗(yàn)
為了分類所有表情,將C4.5決策樹分類器與SVM分類器混合分類,得到分類結(jié)果見表5。
表5 基于SVM與C4.5所有表情識(shí)別結(jié)果
根據(jù)以上兩個(gè)實(shí)驗(yàn),將決策樹定為二叉樹結(jié)構(gòu),節(jié)點(diǎn)誤差率e=0.2,支持向量機(jī)核函數(shù)設(shè)為RBF核函數(shù)。同時(shí),分析兩種分類器分別進(jìn)行分類時(shí)的分類時(shí)間和機(jī)器內(nèi)存占用兩方面的不同,得到結(jié)果見表6。
從表5中可以看出,當(dāng)將兩種分類器綜合分類所有表情時(shí),分類精度達(dá)到90%,而從表6可以看出,混合分類器中由于決策樹分類器使用低維特征向量,所以特征向量維數(shù)相對(duì)支持向量機(jī)分類器特征向量大大減少,同時(shí)機(jī)器內(nèi)存占用也就小了。并且,由于C4.5分類速度快,特征向量維數(shù)少的特點(diǎn),分類時(shí)間也較快。
5.6結(jié)果分析
從上述C4.5分類器與SVM分類器用于表情識(shí)別實(shí)驗(yàn)結(jié)果表明,文中所提出的C4.5與SVM混合分類器用于表情識(shí)別最高識(shí)別率能夠達(dá)到90%,決策樹分類器在使用二叉樹形式,選取節(jié)點(diǎn)誤差率e=0.2時(shí)獲取最大識(shí)別率,同時(shí),支持向量機(jī)在使用RBF核函數(shù)作為徑向基核函數(shù)時(shí)獲得最大識(shí)別率。在比較兩種分類器性能時(shí)可以看出,無論是機(jī)器內(nèi)存占用還是分類時(shí)間,C4.5決策樹分類器相對(duì)于SVM分類器都具有較強(qiáng)的優(yōu)勢(shì),而在最終的識(shí)別率上,文中提出的混合分類器已經(jīng)接近傳統(tǒng)表情分類器。
在對(duì)分類器中單一表情的識(shí)別精度上觀察可以發(fā)現(xiàn),一些圖片表情由于變化輕微,如“中性”表情,識(shí)別率較低,還有一些圖片表情是復(fù)合表情,如“恐懼”表情、“悲傷”表情,雖然識(shí)別率也達(dá)到了90%,但識(shí)別率并不如“高興”表情、“驚訝”表情,它們都達(dá)到了100%。
6結(jié)語(yǔ)
根據(jù)傳統(tǒng)的單一分類器的特點(diǎn),提出了一種新穎的多分類器的表情識(shí)別分類方法,首先采用混合特征提取與C4.5分類器分類出快樂、驚訝、憤怒這3種表情,然后將剩余的表情使用Gabor特征,用SVM分類剩余表情。主要成果如下:
1)考慮到C4.5分類算法的特點(diǎn),提出將C4.5決策樹算法應(yīng)用于表情識(shí)別,分類特征維數(shù)低的特征向量,發(fā)揮其計(jì)算量不大、直觀、低維數(shù)據(jù)處理能力強(qiáng)的優(yōu)勢(shì)。決策樹分類器以往并沒有廣泛地應(yīng)用于表情分類領(lǐng)域,文中嘗試將其結(jié)合其它分類器用于表情分類并取得了不錯(cuò)的成果,希望對(duì)其在表情研究領(lǐng)域作進(jìn)一步的推廣。
2)結(jié)合Gabor特征與SVM算法的特點(diǎn),使用高維紋理特征以及高維特征處理能力強(qiáng)的SVM分類器,分類難分類表情,與C4.5組成混合分類器進(jìn)行所有表情分類。
實(shí)驗(yàn)結(jié)果表明,文中所用方法無論在計(jì)算量上還是在識(shí)別性能上都比單一分類器更具有優(yōu)勢(shì),應(yīng)用在JAFFE表情庫(kù)中識(shí)別率達(dá)到90%,表明適用于表情識(shí)別領(lǐng)域。下一步的研究重點(diǎn)則集中在使用單一決策樹分類器在表情分類領(lǐng)域的研究。
參考文獻(xiàn):
[1]薛雨麗,毛峽,郭葉,等.人機(jī)交互的人臉表情識(shí)別研究進(jìn)展[J].中國(guó)圖形圖象學(xué)報(bào),2009,14(5):764-772.
[2]黃勇,應(yīng)自爐.基于分類器聯(lián)合的表情識(shí)別[J].計(jì)算機(jī)工程與應(yīng)用,2007,43(25):244-248.
[3]程劍,張有為.基于模糊積分多分類器融合的人臉表情識(shí)別[J].信號(hào)處理,2005,8(4A):358-361.
[4]黃永明,章國(guó)寶,董飛,等.基于Gabor、Fisher臉多特征提取及集成SVM的人臉表情識(shí)別[J].計(jì)算機(jī)應(yīng)用研究,2011,28(4):1536-1543.
[5]孫正興,徐文輝.基于局部SVM分類器的表情識(shí)別方法[J].智能系統(tǒng)學(xué)報(bào),2008,3(5):455-466.
[6]周艷平,夏利民,宋星光.基于Gabor濾波的多分類器集成人臉表情識(shí)別[J].長(zhǎng)沙交通學(xué)院學(xué)報(bào),2005,21(2):70-74.
[7]胡步發(fā),陳炳興,黃銀成.基于表情子空間多分類器集成的非特定人人臉表情識(shí)別[J].計(jì)算機(jī)應(yīng)用,2011,31(3):736-740.
[8]顧華,蘇光大,杜成.人臉關(guān)鍵特征點(diǎn)的自動(dòng)定位[J].光電子·激光,2004,15(8):975-979.
[9]劉鵬,姚正,尹俊杰.一種有效的C4.5改進(jìn)模型[J].清華大學(xué)學(xué)報(bào),2006,46(s1):996-1001.
[10]朱顥東.ID3算法的改進(jìn)和簡(jiǎn)化[J].上海交通大學(xué)學(xué)報(bào),2010,44(7):883-891.
[11]范潔,楊岳湘.決策樹后剪枝算法的研究[J].現(xiàn)代科學(xué)技術(shù)研究,2005(1):54-56.
[12]劉帥師,田彥濤,萬川.基于Gabor多方向特征融合與分塊直方圖的人臉識(shí)別方法[J].自動(dòng)化學(xué)報(bào),2011,12(7):1456-1463.
[13]劉澤,潘暉.基于ID3算法汽車變速箱故障診斷技術(shù)[J].長(zhǎng)春工業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2011,32(6):534-537.
Facial expression recognition based on C4.5 and SVM hybrid classifier
LIU Shuaishi,CHEN Qi,CHENG Xi
(School of Electrical & Electronic Engineering, Changchun University of Technology, Changchun 130012, China)
Abstract:The geometric feature extraction is combined with the low dimensional hybrid feature extraction which is based on gray co-occurrence matrix to extract the features of easy-classified expression images, and then C4.5 decision tree classifier is used to identify the obvious changes of expressions. At last, SVM is applied to identify the difficulty-classified expressions. The experimental results show that the optimal prediction accuracy is obtained with error-sample rate in the decision tree pruning algorithm, and the identification rate is up to 90%.
Key words:facial expression recognition; C4.5 decision tree; SVM; hybrid feature extraction; decision tree pruning.
收稿日期:2016-02-22
基金項(xiàng)目:吉林省科技發(fā)展計(jì)劃青年科研基金資助項(xiàng)目(20140520065JH); 長(zhǎng)春工業(yè)大學(xué)科學(xué)研究發(fā)展基金資助項(xiàng)目(2010XN07)
作者簡(jiǎn)介:劉帥師(1981-),女,漢族,吉林長(zhǎng)春人,長(zhǎng)春工業(yè)大學(xué)講師,博士,主要從事模式識(shí)別方向研究,E-mail:liu-shuaishi@126.com.
DOI:10.15923/j.cnki.cn22-1382/t.2016.2.10
中圖分類號(hào):TP 181
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1674-1374(2016)02-0150-09