• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于多層卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法

      2023-05-08 17:25:55曾晴曾小舟申靜
      電腦知識(shí)與技術(shù) 2023年9期
      關(guān)鍵詞:人臉檢測(cè)卷積神經(jīng)網(wǎng)絡(luò)

      曾晴 曾小舟 申靜

      關(guān)鍵詞: 表情識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);數(shù)據(jù)增強(qiáng);MTCNN;人臉檢測(cè)

      0 引言

      表情作為人類重要的情感表達(dá)方式之一[1],目前正成為新的研究熱點(diǎn),人們希望通過研究人臉表情識(shí)別方法來實(shí)現(xiàn)計(jì)算機(jī)獲取人類表情的功能。具備表情識(shí)別功能的計(jì)算機(jī)設(shè)備能提高人機(jī)交互體驗(yàn),高效地解決更多實(shí)際問題并滿足更多的生活需求。例如:及時(shí)掌握駕駛員的情緒狀態(tài),減少交通事故;監(jiān)控老人和嬰幼兒的情緒狀態(tài),及時(shí)掌握其身體狀況,提高生活質(zhì)量;實(shí)時(shí)掌握遠(yuǎn)程教學(xué)過程中學(xué)生的上課狀態(tài),提高教學(xué)效果等。

      卷積神經(jīng)網(wǎng)絡(luò)具有局部感知和權(quán)值共享的特點(diǎn)以及強(qiáng)大的特征提取能力,更適合于表情識(shí)別領(lǐng)域的應(yīng)用[2-7]。李冠杰等人[8]提出一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的表情識(shí)別方法,實(shí)驗(yàn)結(jié)果說明基于卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別方法優(yōu)于傳統(tǒng)方法;趙彩敏等人[9]將一種改進(jìn)的LeNet-5卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于人臉表情識(shí)別,在JAFFE表情數(shù)據(jù)集上的仿真結(jié)果表明,在數(shù)據(jù)集樣本很小的情況下,該方法的識(shí)別率達(dá)到了79.81%。魏赟等人[10]提出了一種引入注意力機(jī)制的輕量級(jí)CNN通道和卷積自編碼器預(yù)訓(xùn)練通道的雙通道模型,在FER2013和CK+兩個(gè)表情數(shù)據(jù)集上分別取得了較高的識(shí)別率;王軍等人[11]提出一種雙通道遮擋感知神經(jīng)網(wǎng)絡(luò)模型,用于解決面部遮擋情況下特征提取難的問題,在CK+、RAF-DB、SFEW 3個(gè)表情數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),其識(shí)別準(zhǔn)確率分別達(dá)到97.33%、86%和61.06%,有效提高了面部遮擋情況下的表情識(shí)別精度。

      1 數(shù)據(jù)預(yù)處理

      1.1 數(shù)據(jù)增強(qiáng)

      人臉表情數(shù)據(jù)集大多數(shù)據(jù)量較小,而多層卷積神經(jīng)網(wǎng)絡(luò)的復(fù)雜度較高,直接將人臉表情數(shù)據(jù)集中的圖像作為輸入,容易出現(xiàn)過擬合的情況,不能訓(xùn)練出適用性強(qiáng)的樣本。為了解決這個(gè)問題,本文采用了數(shù)據(jù)增強(qiáng)的方法,即通過對(duì)原始圖像進(jìn)行裁剪、旋轉(zhuǎn)、縮放等操作獲得大量新的圖像,用以擴(kuò)增數(shù)據(jù)集,使表情識(shí)別模型所能學(xué)習(xí)到更多特征,從而增強(qiáng)算法的魯棒性。

      本文中數(shù)據(jù)增強(qiáng)的具體操作包括:將原始圖像逆時(shí)針旋轉(zhuǎn)5度、縮放成260×180大小、按左上角坐標(biāo)(50, 60) 和右下角坐標(biāo)(220, 200) 進(jìn)行裁剪。如圖1所示,以JAFFE 數(shù)據(jù)集中表情圖像為例,進(jìn)行數(shù)據(jù)增強(qiáng)操作。

      1.2 人臉檢測(cè)和剪切[12]

      為了提高人臉識(shí)別的準(zhǔn)確率,去除人臉表情以外信息的干擾,在將人臉圖片輸入訓(xùn)練模型和預(yù)測(cè)模型之前,先對(duì)圖片進(jìn)行人臉的檢測(cè)和剪切。本文選用MTCNN(Multi-task Convolutional Neural Network,多任務(wù)卷積神經(jīng)網(wǎng)絡(luò))實(shí)現(xiàn)人臉檢測(cè)和剪切。MTCNN主要分為P-Net、R-Net和O-Net三層網(wǎng)絡(luò)結(jié)構(gòu)。具體來說,基于MTCNN的人臉檢測(cè)和剪切實(shí)現(xiàn)流程如圖2所示。

      1) 將輸入的圖像按照不同的縮放因子進(jìn)行不同尺度的變換,依據(jù)圖像大小生成圖像金字塔,從而實(shí)現(xiàn)檢測(cè)不同大小的人臉圖像。

      2) 通過淺層的全連接卷積網(wǎng)絡(luò)P-Net(ProposalNetwork) 快速產(chǎn)生人臉候選檢測(cè)框。將上一步的圖像金字塔輸入P-Net中的三個(gè)卷積層后,通過人臉分類器初步判斷所輸入圖像是否包含人臉,同時(shí)使用邊框和定位器將初步判斷所得的人臉區(qū)域和面部關(guān)鍵點(diǎn)進(jìn)行定位,并輸出判斷所得的所有可能的人臉區(qū)域邊框,且將結(jié)果輸入R-Net,即下一步進(jìn)行處理。

      3) 通過比P-Net結(jié)構(gòu)較為復(fù)雜的卷積網(wǎng)絡(luò)R-Net(Refine Network) ,對(duì)上一步輸出的多個(gè)候選人臉區(qū)域框進(jìn)行精選,刪除大部分效果較差的人臉區(qū)域框,留下極小部分可信度較高的人臉區(qū)域框。該層結(jié)構(gòu)主要是卷積神經(jīng)網(wǎng)絡(luò),與P-Net相比增加了一個(gè)全連接層,所以具有更為嚴(yán)格的數(shù)據(jù)篩選標(biāo)準(zhǔn),可以對(duì)輸入的人臉區(qū)域框進(jìn)行細(xì)化選擇,并再次使用邊框和定位器進(jìn)行人臉邊框定位,將結(jié)果輸出給O-Net,即下一步進(jìn)行處理。

      4) 通過比R-Net 結(jié)構(gòu)更復(fù)雜的卷積網(wǎng)絡(luò)O-Net(Output Network) ,對(duì)上一步結(jié)果進(jìn)一步篩選,得到最終的人臉區(qū)域框和面部特征點(diǎn)坐標(biāo)。O-Net比R-Net多了一個(gè)卷積層,它的輸入圖像特征更多,能對(duì)輸入信息再次進(jìn)行人臉判別、人臉邊框定位和人臉特征點(diǎn)定位,最終輸出人臉區(qū)域框的左上角坐標(biāo)、右下角坐標(biāo)以及人臉的五個(gè)特征點(diǎn)(左眼、右眼、鼻子、左嘴角和右嘴角)。

      5) 根據(jù)上一步的人臉區(qū)域框坐標(biāo)結(jié)果,對(duì)原始圖像進(jìn)行剪切,得到人臉區(qū)域框包含的人臉部分圖像。

      2 基于多層卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法

      本文提出的基于多層卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法如圖3所示,具體步驟如下:

      1) 選擇數(shù)據(jù)集:本文選取JAFFE 表情數(shù)據(jù)集,輸入多層卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。JAFFE 表情數(shù)據(jù)集共213張圖像,包含了10個(gè)日本女學(xué)生的7種面部表情:Angry(憤怒)、Disgust(厭惡)、Fear(恐懼)、Happy(高興)、Sad(悲傷)、Surprise(驚訝)和Neutral(中性)。

      2) 數(shù)據(jù)預(yù)處理:首先對(duì)JAFFE表情數(shù)據(jù)集中的圖像進(jìn)行數(shù)據(jù)增強(qiáng),包括裁剪、旋轉(zhuǎn)和縮放操作,得到增強(qiáng)后的表情數(shù)據(jù)集,從而提高模型的學(xué)習(xí)能力;然后基于MTCNN實(shí)現(xiàn)人臉檢測(cè)和剪切,將剪切后得到的人臉圖像作為表情識(shí)別網(wǎng)絡(luò)模型的輸入,從而去除多余的干擾。本文在預(yù)處理后的圖像數(shù)據(jù)集中隨機(jī)選取90%作為訓(xùn)練集,10%作為測(cè)試集。

      3) 設(shè)計(jì)表情識(shí)別網(wǎng)絡(luò)模型:本文設(shè)計(jì)的用于人臉表情識(shí)別的多層卷積神經(jīng)網(wǎng)絡(luò)模型共包含8個(gè)權(quán)重層,即6個(gè)卷積層和2個(gè)全連接層。其中,卷積層的第1、2層分別使用3個(gè)卷積核,每個(gè)卷積核大小為3×3,卷積層的第3、4層分別使用4個(gè)卷積核,每個(gè)卷積核大小為3×3,卷積層的第5、6層分別使用5個(gè)卷積核,每個(gè)卷積核大小為3×3;池化層采用最大池化,窗口大小為2,步長為1;兩個(gè)全連接層的節(jié)點(diǎn)數(shù)分別設(shè)置為512和64;最后通過Softmax分類層進(jìn)行分類,得到7種表情的預(yù)測(cè)結(jié)果,模型結(jié)構(gòu)如圖4所示。

      4) 訓(xùn)練表情識(shí)別網(wǎng)絡(luò)模型:將第2步得到的訓(xùn)練集輸入第3步設(shè)計(jì)的表情識(shí)別模型進(jìn)行訓(xùn)練,得到訓(xùn)練后的表情識(shí)別模型。

      5) 人臉表情預(yù)測(cè):將第2步得到的測(cè)試集輸入第4 步訓(xùn)練后的表情識(shí)別模型,進(jìn)行預(yù)測(cè)并輸出預(yù)測(cè)結(jié)果。

      3 實(shí)驗(yàn)

      本文實(shí)驗(yàn)基于Python語言和TensorFlow平臺(tái),在JetBrains PyCharm 集成開發(fā)環(huán)境下實(shí)現(xiàn)。筆者將JAFFE人臉表情數(shù)據(jù)庫的圖片共213張進(jìn)行壓縮、剪切、旋轉(zhuǎn)后得到增強(qiáng)后的圖片,加上原來表情庫中圖片一起共818張,其中90%的圖片用于模型訓(xùn)練,10%的圖片用于預(yù)測(cè),即訓(xùn)練圖片736張,預(yù)測(cè)圖片82張。訓(xùn)練時(shí),選擇優(yōu)化器Adam,誤差函數(shù)categorical_cros?sentropy,迭代次數(shù)100,學(xué)習(xí)率0.005,激活函數(shù)選擇Relu。

      預(yù)測(cè)結(jié)果如表1所示,其中高興的預(yù)測(cè)準(zhǔn)確率為91.67%,驚訝的預(yù)測(cè)準(zhǔn)確率為90.91%,中性的預(yù)測(cè)準(zhǔn)確率為81.82%,憤怒的預(yù)測(cè)準(zhǔn)確率為76.92%,厭惡的預(yù)測(cè)準(zhǔn)確率為72.73%,效果較好,而恐懼和悲傷的預(yù)測(cè)準(zhǔn)確率都低于50%,效果不理想。主要原因包括:1) 本文方法將JAFFE表情數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)后得到的表情數(shù)據(jù)集作為輸入,能提高模型的學(xué)習(xí)能力,另一方面,基于MTCNN對(duì)輸入圖像進(jìn)行人臉檢測(cè)和剪切,去除了多余的干擾;2) 本文設(shè)計(jì)的多層卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)于所輸入的數(shù)據(jù)集,能夠較好地提取出相應(yīng)的表情特征,所以大多數(shù)情況能很好地識(shí)別出人臉表情;3) 恐懼和悲傷的表情特征相對(duì)于其他幾種表情來說不夠明顯,提取難度更高,所以實(shí)驗(yàn)得到的預(yù)測(cè)準(zhǔn)確率較低;4) 要獲得更高的表情識(shí)別率,一是要從數(shù)量角度和多樣性角度進(jìn)一步豐富輸入的表情數(shù)據(jù)集,二是要設(shè)計(jì)出更合適的神經(jīng)網(wǎng)絡(luò)模型,能夠提取出更多有效的表情特征,從而提高整體的表情識(shí)別能力。

      4 總結(jié)

      人臉表情識(shí)別功能可以提升智能設(shè)備人機(jī)交互體驗(yàn)和解決問題的能力。本文提出了一種基于多層卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法,先對(duì)JAFFE表情數(shù)據(jù)集中的圖像進(jìn)行數(shù)據(jù)增強(qiáng),包括裁剪、旋轉(zhuǎn)和縮放操作,得到增強(qiáng)后的表情數(shù)據(jù)集;然后基于MTCNN實(shí)現(xiàn)人臉檢測(cè)和剪切,將剪切后得到的人臉圖像作為表情識(shí)別網(wǎng)絡(luò)模型的輸入;接下來設(shè)計(jì)表情識(shí)別網(wǎng)絡(luò)模型,模型共包含8個(gè)權(quán)重層,即6個(gè)卷積層和2個(gè)全連接層;再把預(yù)處理后的人臉圖像數(shù)據(jù)集中90%的圖像輸入模型進(jìn)行訓(xùn)練得到訓(xùn)練后的模型;最后將預(yù)處理后的人臉圖像數(shù)據(jù)集中剩下的10%的圖像作為測(cè)試集進(jìn)行預(yù)測(cè)。實(shí)驗(yàn)結(jié)果表明,本文方法對(duì)高興、驚訝、中性、憤怒和厭惡五種表情的預(yù)測(cè)準(zhǔn)確率較高,而恐懼和悲傷的預(yù)測(cè)準(zhǔn)確率較低。為了進(jìn)一步提高本文方法的表情識(shí)別能力,可以從以下兩個(gè)方面進(jìn)行改進(jìn),一是從數(shù)量角度和多樣性角度進(jìn)一步豐富輸入的表情數(shù)據(jù)集;二是設(shè)計(jì)更合適的神經(jīng)網(wǎng)絡(luò)模型,能夠提取出更多有效的表情特征。

      猜你喜歡
      人臉檢測(cè)卷積神經(jīng)網(wǎng)絡(luò)
      JNI技術(shù)在基于OpenCV的人臉與微笑檢測(cè)中的應(yīng)用
      基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
      基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
      基于人臉特征定位的SNS網(wǎng)站應(yīng)用組件研究與設(shè)計(jì)
      基于Android平臺(tái)的人臉識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于Matlab的人臉檢測(cè)實(shí)驗(yàn)設(shè)計(jì)
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
      基于交互式隨機(jī)動(dòng)作的人臉活體檢測(cè)
      南通市| 叙永县| 威信县| 英山县| 田林县| 崇信县| 宾阳县| 岐山县| 宁明县| 乳源| 遵义市| 万山特区| 大悟县| 琼结县| 兴城市| 黄大仙区| 闵行区| 嘉黎县| 鄂尔多斯市| 河津市| 衢州市| 萍乡市| 南宫市| 上饶县| 阜新市| 武陟县| 杭锦后旗| 沐川县| 信宜市| 西华县| 黄平县| 准格尔旗| 新宾| 城步| 屯昌县| 霍山县| 内黄县| 姜堰市| 新疆| 牙克石市| 洪洞县|