• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度學(xué)習(xí)與隨機(jī)森林的人臉年齡與性別分類研究

      2018-05-30 01:26:54董蘭芳張軍挺
      計算機(jī)工程 2018年5期
      關(guān)鍵詞:人臉準(zhǔn)確率卷積

      董蘭芳,張軍挺

      (中國科學(xué)技術(shù)大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,合肥 230027)

      0 概述

      隨著近年來社交平臺與媒體的發(fā)展,人臉年齡估計與性別識別在現(xiàn)實生活中的應(yīng)用越來越多,引起了人們廣泛的興趣。人臉年齡估計與性別識別技術(shù)在身份認(rèn)證、人機(jī)接口、網(wǎng)絡(luò)娛樂以及計算機(jī)視覺中的應(yīng)用也越來越多。年齡估計和性別識別方法有相似之處,首先它們的識別對象都是人臉,輸入一張圖像,都要進(jìn)行人臉檢測定位、圖像預(yù)處理,然后提取出人臉特征,最后進(jìn)行識別。在以前對人臉年齡估計和性別識別的研究中,提取的特征大多是人為設(shè)計的淺層特征,然后使用機(jī)器學(xué)習(xí)方法對輸入特征進(jìn)行分類。

      本文運(yùn)用深度卷積神經(jīng)網(wǎng)絡(luò)一般到特殊的微調(diào)方法對人臉屬性進(jìn)行微調(diào)訓(xùn)練。使用在自然場景下拍攝的圖像,訓(xùn)練過程較簡單,不需要復(fù)雜繁瑣的人臉歸一化預(yù)處理,且訓(xùn)練出的模型對復(fù)雜光照、姿態(tài)和背景變化具有魯棒性。

      1 相關(guān)研究

      下面分別對人臉年齡估計和性別識別的研究進(jìn)行討論。

      人臉年齡估計與性別識別主要步驟如圖1所示。

      圖1 人臉年齡估計與性別識別流程

      在年齡估計方面,文獻(xiàn)[1]在1994年就開始研究人臉圖像的年齡估計,首先對人臉的眼睛、鼻子和嘴巴進(jìn)行定位,然后計算人臉上述特征的大小、距離、比例等,使用計算的特征對年齡分類;文獻(xiàn)[2]使用類似文獻(xiàn)[1]的方法,對年齡在18歲以下的人臉進(jìn)行分類,需要精確檢測定位臉部特征,這種方法對在自然場景下的人臉圖像則不適合。文獻(xiàn)[3]提出衰老模式子空間方法,使用個人在不同時間段的人臉圖像來對衰老模式進(jìn)行建模,對于輸入的人臉圖像,通過子空間投影方法,重構(gòu)出其衰老模式,從而估計人臉圖像的年齡。文獻(xiàn)[4]使用子空間學(xué)習(xí)方法,提取與人臉年齡相關(guān)的特征,并設(shè)計局部可調(diào)的回歸學(xué)習(xí)方法估計人臉年齡。隨著越來越多魯棒的圖像特征描述符被提出來,有些描述符也被應(yīng)用在人臉年齡估計的研究中。文獻(xiàn)[5]使用Gabor[6]特征,以及模糊線性判別分析方法對年齡分類;文獻(xiàn)[7]使用Gabor[6]特征和LBP[8]特征作為輸入特征,并用支持向量機(jī)對年齡分類;文獻(xiàn)[9]使用LBP[8]特征,以及dropout-SVM分類器對人臉年齡估計與性別識別進(jìn)行研究。

      在性別識別方面,早在20世紀(jì)90年代,文獻(xiàn)[10]提出使用全連接神經(jīng)網(wǎng)絡(luò),在小數(shù)據(jù)集上對人臉圖像進(jìn)行性別識別實驗;文獻(xiàn)[11]較早使用支持向量機(jī)(SVM)直接對圖像強(qiáng)度進(jìn)行分類,在FERET[12]數(shù)據(jù)庫上實驗;文獻(xiàn)[13]用Adaboost分類器,對圖像像素強(qiáng)度進(jìn)行訓(xùn)練與測試;文獻(xiàn)[14]使用Adaboost分類器,但輸入使用人臉圖像的LBP特征;文獻(xiàn)[15]使用SIFT特征,并運(yùn)用Adaboost進(jìn)行特征選擇;文獻(xiàn)[16]使用WLD[17]特征進(jìn)行人臉性別識別研究,在FERET[12]數(shù)據(jù)庫上進(jìn)行訓(xùn)練和測試;文獻(xiàn)[18]使用LBP特征和Adaboost結(jié)合的方法,在LFW[19]數(shù)據(jù)集上進(jìn)行人臉性別識別的實驗。其中LFW是自然場景下的人臉數(shù)據(jù)庫,近年來被很多研究者用作人臉識別的研究;文獻(xiàn)[20]使用深度卷積神經(jīng)網(wǎng)絡(luò)對人臉年齡與性別分類進(jìn)行研究。

      以上對人臉年齡與性別識別的研究,使用的特征大多是人工設(shè)計的,在限制性條件下會取得較好的結(jié)果,但受光照、姿態(tài)、背景變化影響較大,對自然場景下的人臉進(jìn)行識別時,會遇到更大的挑戰(zhàn)。近年來,深度學(xué)習(xí)技術(shù)快速發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)提取的特征,分類效果較好,有著廣泛的應(yīng)用。比如文獻(xiàn)[21]提出基于深度卷積神經(jīng)網(wǎng)絡(luò)的服裝圖像分類檢索算法,在服裝分類問題上取得較高的準(zhǔn)確率。

      本文提出基于深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)從一般到特殊的微調(diào)方案,訓(xùn)練好模型后進(jìn)行特征提取,再結(jié)合使用隨機(jī)森林(RFC)方法對人臉年齡與性別分類進(jìn)行訓(xùn)練和測試。其中DCNN使用的是VGG-Face[22]網(wǎng)絡(luò)結(jié)構(gòu),如圖2所示,先對不同人臉進(jìn)行分類預(yù)訓(xùn)練,然后在CelebA[23]人臉屬性數(shù)據(jù)庫上進(jìn)行微調(diào)訓(xùn)練,挖掘不同個體的人臉差異與人臉屬性的內(nèi)在聯(lián)系,最后使用RFC進(jìn)行訓(xùn)練和測試。模型的訓(xùn)練使用了大量自然場景下的圖像,對于復(fù)雜光照、人臉姿態(tài)以及背景變化具有魯棒性。本文使用Adienc[9]數(shù)據(jù)集進(jìn)行實驗,其中數(shù)據(jù)集由各個年齡段、不同性別的人臉圖像組成,均在自然場景下拍攝,如圖3所示。

      圖2 一般到特殊的微調(diào)訓(xùn)練流程

      圖3 Adience數(shù)據(jù)庫中的人臉圖像

      2 人臉特征提取

      2.1 人臉檢測

      對于訓(xùn)練集與測試集圖像,本文采用Mathias[24]的人臉檢測器得到人臉的定位。對于少部分沒有檢測到人臉的圖像,或者圖像較模糊時,則直接舍棄,防止這些圖像對訓(xùn)練結(jié)果產(chǎn)生干擾。

      改變上述圖像尺寸,使每個圖像都是224像素×224像素,作為深度卷積神經(jīng)網(wǎng)絡(luò)的輸入。

      2.2 基于DCNN的特征提取

      基于DCNN的特征提取流程如圖2所示,受文獻(xiàn)[25-26]的啟發(fā),本文提出一般到特殊的微調(diào)方案,并將卷積神經(jīng)網(wǎng)絡(luò)各全連接層的特征連接起來,構(gòu)成特征向量。主要包含3個步驟:

      1)采用VGG-Face[22]的模型,它在大數(shù)據(jù)集上對不同人臉進(jìn)行分類預(yù)訓(xùn)練。如圖4所示,該網(wǎng)絡(luò)有13個卷積層和3個全連接層。其中,卷基層參數(shù)表示為“conv<感受野大小>-<通道數(shù)>”,最大池化層用maxpool表示,全連接層表示為FC-<輸出數(shù)>。在該網(wǎng)絡(luò)中,圖像輸入尺寸是固定的,接著依次通過一系列核大小為3×3的卷積層。每2個或3個連續(xù)堆疊的卷積層構(gòu)成一個單元模塊,稱之為Block。每個Block模塊后面都會接入一個maxpool層,用于減少輸入的尺寸大小,并保持網(wǎng)絡(luò)的平移不變性。經(jīng)過多個堆疊的Block模塊后,接入一個三層全連接層,最后連接一個softmax分類器。為了簡潔,ReLU激活函數(shù)沒有在圖4中展示。該網(wǎng)絡(luò)最大的特點就是它的卷積核尺寸全都是3×3,卷積操作能夠覆蓋到輸入的上、下、左、右、中、左上、右上、左下、右下共9個方向。多個小卷積核的堆疊跟單個大卷積核比,具有更好的特征提取能力。

      圖4 VGG-Face卷積神經(jīng)網(wǎng)絡(luò)配置

      2)在CelebA[23]人臉屬性數(shù)據(jù)集上對VGG-Face[22]模型進(jìn)行多標(biāo)簽微調(diào)訓(xùn)練,該數(shù)據(jù)集共有40個屬性類別,每個屬性用“是”或者“不是”來表示,例如是否年輕等。本文選取其中5個屬性,分別是:(1)是否留胡子;(2)是否年輕;(3)是否戴眼鏡;(4)性別是否為男;(5)是否戴帽子。在多標(biāo)簽微調(diào)訓(xùn)練時,需要設(shè)計多個損失函數(shù)層,將圖4的網(wǎng)絡(luò)結(jié)構(gòu)更改一下。首先為每個屬性標(biāo)簽定義一個損失函數(shù),在深度學(xué)習(xí)框架caffe[27]中表示為softmaxWithloss;然后在每個損失函數(shù)前添加一個全連接層,新添加的全連接層都與VGG-Face的第2個全連接層連接,即圖4中的FC-4096層;最后將FC-2622全連接層去掉。將各個損失函數(shù)的權(quán)重值設(shè)置為0.2,使得所有任務(wù)的權(quán)重值相加為1,把全連接層的學(xué)習(xí)率設(shè)置為0.001,其他中間層的學(xué)習(xí)率設(shè)置為0.000 1,微調(diào)訓(xùn)練得到的模型記作模型a。

      3)輸入人臉圖像,經(jīng)過模型a前向,將所有全連接層的輸出值連接起來,構(gòu)成一個向量,作為人臉DCNN特征。

      與傳統(tǒng)手工設(shè)計的特征相比(例如LBP特征、HOG特征等),使用本文方法提取人臉特征,主要有以下優(yōu)勢:

      1)近年來,深度學(xué)習(xí)快速發(fā)展在計算機(jī)視覺領(lǐng)域有出色的表現(xiàn)。本文使用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,提取的特征對自然場景中的復(fù)雜光照、人臉姿態(tài)變化,以及部分遮擋等具有魯棒性。

      2)假如某個手工設(shè)計的特征可以有效識別出人臉性別,但是它對于人臉年齡的估計就不一定有效,因此,對于同一張輸入圖像,使用傳統(tǒng)方法需要計算不同的特征。

      本文挑選了幾個人臉屬性進(jìn)行訓(xùn)練,例如“是否年輕”“性別是否為男”“是否留胡子”等,這幾個屬性跟人臉年齡與性別的識別有關(guān)系。對于一張輸入圖像,本文只需要前向一次網(wǎng)絡(luò)來提取特征值。

      3)本文先在大規(guī)模人臉數(shù)據(jù)庫上,對不同的人臉個體進(jìn)行識別訓(xùn)練,再對人臉屬性微調(diào)訓(xùn)練,使用這種方法不容易發(fā)生過擬合。

      4)本文方法的可擴(kuò)展性較強(qiáng)。比如有新的應(yīng)用需求時,要對人臉種族、表情等進(jìn)行識別,只需要挑選相關(guān)的人臉屬性數(shù)據(jù)庫進(jìn)行微調(diào)訓(xùn)練。

      3 隨機(jī)森林

      RFC是Leo breiman[28]提出的集成樹形分類器,由k棵分類樹組成,它的基本思想是將多個弱分類器集成為一個強(qiáng)分類器。分類樹由根節(jié)點、內(nèi)部節(jié)點和葉子節(jié)點構(gòu)成。其中,根節(jié)點代表訓(xùn)練集,每個內(nèi)部節(jié)點代表弱分類器,將樣本按照某一屬性劃分,每個葉子節(jié)點都是有標(biāo)簽的訓(xùn)練或測試集,將輸入數(shù)據(jù)分類成若干個子集。RFC最后的決策結(jié)果是所有分類樹投票選擇的最優(yōu)結(jié)果。

      使用基尼指數(shù)[29]選擇最優(yōu)的特征,同時決定該特征的最優(yōu)二值切分點。基尼指數(shù)Ggini(D)表示集合D的不確定性。在分類問題中,假設(shè)共有N個類,對于給定樣本集合D,其基尼指數(shù)定義為:

      (1)

      其中,Cn是D中屬于第n類的樣本子集。如果樣本集合D根據(jù)特征A的取值是否為a,被劃分為D1和D2兩部分,即:

      D1={(x,y)∈D|A(x)=a},D2=D-D1

      (2)

      在特征A的條件下,集合D的基尼指數(shù)定義為:

      (3)

      基尼指數(shù)Ggini(D)表示集合D的不確定性,基尼指數(shù)Ggini(D,A)表示經(jīng)過A=a分割過后集合D的不確定性?;嶂笖?shù)越大,樣本集合的不確定性就越大。構(gòu)建分類樹時,要選擇基尼指數(shù)最小的特征,以及其相應(yīng)的最優(yōu)二值切分點。

      使用基尼指數(shù)最小準(zhǔn)則構(gòu)建RFC,主要有如下步驟:

      1)使用bootstrap重抽樣方法從原始樣本集D中有放回地抽取,將第k個樣本集記作Dk,并為第k棵分類樹生成隨機(jī)向量θk,θk跟前面的隨機(jī)向量獨立同分布。本文使用h(Dk,θk)表示第k棵分類樹模型。

      2)分別對k個樣本建立分類樹。分類樹的生成就是遞歸構(gòu)建二叉分類樹的過程,使用基尼指數(shù)最小的特征分裂二叉樹。假設(shè)輸入樣本Dk是M維的特征向量,在樹的每個節(jié)點處,從這M個特征中隨機(jī)抽取m(m<

      3)根據(jù)每一棵分類樹的結(jié)果,投票決定最后的分類結(jié)果。

      構(gòu)建隨機(jī)森林的流程如圖5所示。

      圖5 隨機(jī)森林分類器流程

      本文在2.2節(jié)中提取人臉屬性特征向量,將其構(gòu)成樣本集合D,使用RFC進(jìn)行訓(xùn)練和測試。RFC能夠處理高維的數(shù)據(jù),同時隨機(jī)選擇特征可以有效防止過擬合。

      4 實驗結(jié)果與分析

      4.1 實驗數(shù)據(jù)

      本文使用Adience[9]數(shù)據(jù)庫,該數(shù)據(jù)庫被專門用來做年齡與性別的分類研究。數(shù)據(jù)庫中的圖像由用戶手機(jī)上傳到Flickr平臺上,在非限制性條件下拍攝的,并且沒有經(jīng)過濾波操作。數(shù)據(jù)庫中的人臉姿勢、光照條件以及背景都存在差異,能夠展現(xiàn)在實際生活中圖像的真實情況。

      Adience數(shù)據(jù)庫包含了2 284個不同個體,一共約26 KB張圖像。表1展現(xiàn)了數(shù)據(jù)庫中在不同年齡階段的人中男性和女性的人數(shù)。根據(jù)文獻(xiàn)[9]中定義的5份數(shù)據(jù)集,本文取前4份作為訓(xùn)練集,最后一份作為測試集。

      表1 Adience人臉數(shù)據(jù)集

      4.2 結(jié)果分析

      對于人臉年齡分類,本文分為8個年齡段。分類結(jié)果如表2所示,記錄了在不同分類樹數(shù)量情況下的準(zhǔn)確率。人臉年齡分類存在3種情況:

      1)預(yù)測的年齡段就是人臉圖像所在的實際年齡段。

      2)預(yù)測的年齡段存在錯誤。當(dāng)預(yù)測年齡段跟實際年齡段相鄰,即預(yù)測的年齡段比實際年齡大一個區(qū)間或者小一個區(qū)間,本文把這種情況記作1-off誤差。如果把存在1-off誤差的預(yù)測結(jié)果當(dāng)做分類正確處理,可以得到1-off準(zhǔn)確率,同理也可以得到2-off準(zhǔn)確率,如表2所示。這種測試方法沿用了前人的經(jīng)驗。人臉是否花妝、是否使用護(hù)膚品保養(yǎng)、拍攝圖像是否模糊等情況,都會影響分類準(zhǔn)確率。

      表2 各年齡段分類準(zhǔn)確率均值估計結(jié)果

      某個年齡段的分類準(zhǔn)確率,可以用式(4)表示。

      (4)

      其中,Nacc表示在這個年齡段分類正確的數(shù)量,Nall表示這個年齡段的總?cè)藬?shù)。年齡分類的實驗結(jié)果使用各個年齡段分類準(zhǔn)確率的平均值±標(biāo)準(zhǔn)差來表示。

      從表2可以看出,對于年齡分類,在測試集上準(zhǔn)確率為55%左右,1-off準(zhǔn)確率為85%左右,2-off準(zhǔn)確率為97%左右,隨著分類樹數(shù)量增加,分類準(zhǔn)確率有所提高。如圖6所示為部分存在預(yù)測誤差的圖像,它的預(yù)測年齡跟實際年齡不在一個區(qū)間內(nèi),但是受遮擋、模糊等外界因素影響,它“看起來”像預(yù)測的年齡。第1行圖像是預(yù)測的年齡段比實際年齡要大,第2行圖像是預(yù)測的年齡段比實際年齡要小。1-off準(zhǔn)確率在一定程度上描述了本文方法對人臉年齡估計的有效性。

      圖6 年齡分類錯誤圖像

      人臉性別分類結(jié)果如表3所示,在測試集上準(zhǔn)確率為86%左右。其中,性別分類準(zhǔn)確率表示為分類正確的人臉數(shù)量與總數(shù)量的比值。圖7展示了部分分類錯誤的圖像,其中第一行圖像是將男性錯誤識別為女性,第二行圖像是將女性錯誤識別為男性。從圖7中可以看出,部分性別識別錯誤的圖像存在較大的“混淆性”,有時候人們很難做出準(zhǔn)確的判斷。

      表3 性別識別準(zhǔn)確率

      圖7 性別分類錯誤圖像

      本文與文獻(xiàn)[9,20]相同,都為使用Adience人臉數(shù)據(jù)庫進(jìn)行實驗,其中對于訓(xùn)練集和測試集的定義一樣,年齡段的劃分方式也相同。因此,本文引用文獻(xiàn)[9,20]的實驗結(jié)果進(jìn)行比較,如表4和表5所示。在人臉年齡分類方面,本文方法的準(zhǔn)確率要比文獻(xiàn)[9,20]好。在性別識別方面,本文方法的準(zhǔn)確率高于文獻(xiàn)[9],和文獻(xiàn)[20]相當(dāng)。

      表4 在Adience上的年齡估計結(jié)果比較

      表5 在Adience上的性別識別結(jié)果比較 %

      文獻(xiàn)[9]使用傳統(tǒng)手工設(shè)計的特征(LBP特征),并結(jié)合支持向量機(jī)進(jìn)行分類。文獻(xiàn)[20]使用2個深度卷積神經(jīng)網(wǎng)絡(luò),分別對人臉年齡與性別進(jìn)行訓(xùn)練,得到2個模型。本文提出一般到特殊的訓(xùn)練方案,并使用一個模型提取人臉特征,與上述2種方法相比,本文提取的深度卷積特征對各種環(huán)境變化具有魯棒性,而手工設(shè)計特征則受環(huán)境的影響較大。本文使用一個特征向量,可以同時對人臉年齡與性別進(jìn)行分類,不需要多次計算不同特征,比較方便。一般到特殊的訓(xùn)練方案可以防止過擬合,也容易擴(kuò)展人臉屬性識別的內(nèi)容,比如增加種族、表情的識別等。

      5 結(jié)束語

      目前傳統(tǒng)的方法解決了人臉年齡估計與性別識別問題,但是這些工作大部分都是在限制性圖像數(shù)據(jù)集上進(jìn)行研究的。對于在自然場景下拍攝的圖像,由于存在復(fù)雜光照、姿態(tài)、背景變化、遮擋以及模糊的影響,年齡與性別識別會遇到更大的挑戰(zhàn)。本文運(yùn)用深度卷積神經(jīng)網(wǎng)絡(luò)一般到特殊的微調(diào)方法,對人臉屬性進(jìn)行微調(diào)訓(xùn)練。實驗圖像在自然場景下拍攝,訓(xùn)練過程較簡單,不需要復(fù)雜繁瑣的人臉歸一化預(yù)處理。本文訓(xùn)練出的模型對復(fù)雜光照、姿態(tài)和背景變化具有魯棒性。實驗結(jié)果表明,該方法能夠克服復(fù)雜光照、姿態(tài)變化的影響,準(zhǔn)確地對自然場景下的人臉進(jìn)行年齡估計和性別識別。

      [1] KWON Y H,da VITORIN L N.Age classification from facial images[J].Computer Vision and Image Understanding,1999,74(1):1-21.

      [2] RAMANATHAN N,CHELLAPPA R.Modeling age progression in young faces[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington D.C.,USA:IEEE Press,2006:387-394.

      [3] GENG X,ZHOU Z H,SNITH-MILES K.Automatic age estimation based on facial aging patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(12):2234-2240.

      [4] GUO G,FU Y,DYER C R,et al.Image-based human age estimation by manifold learning and locally adjusted robust regression[J].IEEE Transactions on Image Processing,2008,17(7):1178-1188.

      [5] GAO F,AI H.Face age classification on consumer images with gabor feature and fuzzy LDA method[C]//Proceedings of International Conference on Biometrics.Germany,Berlin:Springer,2009:132-141.

      [6] LIU C,WECHSLER H.Gabor feature based classification using the enhanced fisher linear discriminant model for face recognition[J].IEEE Transactions on Image processing,2002,11(4):467-476.

      [7] CHOI S E,LEE Y J,LEE S J,et al.Age estimation using a hierarchical classifier based on global and local facial features[J].Pattern Recognition,2011,44(6):1262-1281.

      [8] AHINEN T,HADID A,PIETIKAINEN M.Face description with local binary patterns:application to face recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(12):2037-2041.

      [9] EIDINGER E,ENBAR R,HASSNER T.Age and gender estimation of unfiltered faces[J].IEEE Transactions on Information Forensics and Security,2014,9(12):2170-2179.

      [10] GOLOMB B A,LAWRENCE D T,SEJNOWSKI T J.SEXNET:A neural network identifies sex from human faces[C]//Proceedings of IEEE NIPS’90.Washington D.C.,USA:IEEE Press,1990:21-32.

      [11] MDGHADDAM B,YANG M H.Learning gender with support faces[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):707-711.

      [12] PHILLIPS P J,WECHSLER H,HUANG J,et al.The FERET database and evaluation procedure for face-recognition algorithms[J].Image and Vision Computing,1998,16(5):295-306.

      [13] BALUJA S,ROWLEY H A.Boosting sex identification performance[J].International Journal of Computer Vision,2007,71(1):111-119.

      [14] SUN N,ZHENG W,SUN C,et al.Gender classification based on boosting local binary pattern[C]//Proceedings of International Symposium on Neural Networks.Germany:Berlin:Springer,2006:194-201.

      [15] WANG J G,LI J,YAU W Y,et al.Boosting dense SIFT descriptors and shape contexts of face images for gender recognition[C]//Proceedings of 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops.Washington D.C.,USA:IEEE Press,2010:96-102.

      [16] ULLAH I,HUSSAIN M,MUHAMMAD G,et al.Gender recognition from face images with local WLD descriptor[C]//Proceedings of the 19th International Conference on Systems,Signals and Image Processing.Washington D.C.,USA:IEEE Press,2012:417-420.

      [17] CHEN J,SHAN S,HE C,et al.WLD:a robust local image descriptor[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(9):1705-1720.

      [18] SHAN C.Learning local binary patterns for gender classification on realworld face images[J].Pattern Recognition Letters,2012,33(4):431-437.

      [19] HUANG G B,RAMESH M,BERG T,et al.Labeled faces in the wild:a database for studying face recognition in unconstrained environments.technical report:07-49[R].Amherst,USA:University of Massachusetts,2007.

      [20] LEVI G,HASSNER T.Age and gender classification using convolutional neural networks[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition Workshops.Washington D.C.,USA:IEEE Press,2015:34-42.

      [21] 厲 智,孫玉寶,王 楓,等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的服裝圖像分類檢索算法[J].計算機(jī)工程,2016,42(11):309-315.

      [22] PARKHI O M,VEDALDI A,ZISSERMAN A.Deep face recognition[C]//Proceedings of British Machine Vision Conference.Washington D.C.,USA:IEEE Press,2015:6.

      [23] LIU Z,LUO P,WANG X,et al.Deep learning face attributes in the wild[C]//Proceedings of IEEE International Conference on Computer Vision.Washington D.C.,USA:IEEE Press,2015:3730-3738.

      [24] MATHIAS M,BENENSON R,PEDERSOLI M,et al.Face detection without bells and whistles[C]//Proceedings of European Conference on Computer Vision.Germany,Berlin:Springer,2014:720-735.

      [25] ZHANG K,TAR L,LI Z,et al.Gender and smile classi-fycation using deep convolutional neural networks[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition Workshops.Washington D.C.,USA:IEEE Press,2016:34-38.

      [26] WANG X,GUO R,KAMBHAMETTU C.Deeply learned feature for age estimation[C]//Proceedings of 2015 IEEE Winter Conference on Applications of Computer Vision.Washington D.C.,USA:IEEE Press,2015:534-541.

      [27] JIA Yangqing,SHELHAMER V,et al.Caffe:convolutional architecture for fast feature embedding[EB/OL].[2014-10-15].https://dl.acm.org/citation.cfm?id=264786 8.2654889.

      [28] BREIMAN L.Random forests[J].Machine Learning,2001, 45(1):5-32.

      [29] 李 航.統(tǒng)計學(xué)習(xí)方法[M].北京:清華大學(xué)出版社,2012.

      猜你喜歡
      人臉準(zhǔn)確率卷積
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      有特點的人臉
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      三國漫——人臉解鎖
      動漫星空(2018年9期)2018-10-26 01:17:14
      高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      馬面部與人臉相似度驚人
      车险| 观塘区| 电白县| 武威市| 台北县| 曲松县| 巫溪县| 榆中县| 榆社县| 莒南县| 凯里市| 神木县| 环江| 英吉沙县| 读书| 泸西县| 东乡族自治县| 承德市| 太仆寺旗| 沾化县| 惠东县| 泸州市| 巴南区| 英德市| 南平市| 宜良县| 宾阳县| 武夷山市| 富阳市| 昌黎县| 周至县| 巩义市| 秦皇岛市| 麻江县| 福建省| 丘北县| 阳江市| 双辽市| 马龙县| 绿春县| 永善县|