摘要:針對(duì)大姿態(tài)人臉轉(zhuǎn)正的圖像生成效果較差問題,文章建立了一種基于生成器、判別器和分類器三者對(duì)抗的生成對(duì)抗網(wǎng)絡(luò)(GAN)人臉轉(zhuǎn)正方法。實(shí)驗(yàn)中通過引入超參數(shù)6進(jìn)行比例控制生成器和判別器的交替訓(xùn)練,避免模式崩潰并提高了訓(xùn)練效率。大姿態(tài)人臉轉(zhuǎn)正實(shí)驗(yàn)表明,該方法在CFP數(shù)據(jù)集對(duì)側(cè)臉轉(zhuǎn)正效果的Rank識(shí)別準(zhǔn)確率達(dá)到了68.7%,與 DR-GAN相比提高了4.4%,驗(yàn)證了所提出的方法能夠有效生成正面人臉圖像且較好地保留人臉的身份特征。
關(guān)鍵詞:人臉轉(zhuǎn)正;生成對(duì)抗網(wǎng)絡(luò)﹔三者對(duì)抗;分類器;特征提取中圖法分類號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:A
Face correction method based on three-player adversarial generative network
Ll Zhuang
(College of Information Engineering,Shanghai Maritime University,Shanghai 201306,China)
Abstract: A generative adversarial network (GAN) face correction method based on a three-playeradversarial approach of generator,discriminator and classifier is established to address the problem ofpoor image generation for large pose face correction. The experiments are conducted by introducinghyper-parameters 6 for alternate training of the proportional control generator and discriminator toavoid pattern collapse and improve the training efficiency.For the face turning experiments with largepose,the method achieves 68.7% Rank recognition accuracy for the side-face turning effect in theCFP data-set,which is 4.4% better compared with DR-GAN. It is verified that the proposed methodcan effectively generate frontal face images and better preserve the identity features of faces.
Key words: face transformation,generative adversarial network , triplet adversarial, classifier, featureextraction
1? 引言
人臉識(shí)別系統(tǒng)主要依賴正面人臉圖像判別人物身份,由于人臉本身具有非剛體性,在采集圖像時(shí)會(huì)受到一些外在因素(如光照、視角、表情等)制約,而容易引起系統(tǒng)誤判。比如,隨著人臉姿態(tài)的變化,面部特征會(huì)受到不同程度遮擋,視角差異導(dǎo)致人臉轉(zhuǎn)角越大越難以識(shí)別其身份。本文研究從大角度姿態(tài)的側(cè)臉圖像中恢復(fù)出正臉圖像,以便利用側(cè)面人臉圖像進(jìn)行人物身份識(shí)別、人機(jī)交互等實(shí)際智能應(yīng)用。
傳統(tǒng)人臉轉(zhuǎn)正方法主要基于統(tǒng)計(jì)學(xué)和圖形學(xué),一般通過2D/3D 局部紋理變形或者建模旋轉(zhuǎn)生成正面人臉,但生成圖像效果差且耗時(shí)長。深度學(xué)習(xí)方法能使網(wǎng)絡(luò)模型直接學(xué)習(xí)端到端的非線性映射,可以將側(cè)臉圖像轉(zhuǎn)換成正臉的姿態(tài)校正問題視為側(cè)臉到正臉的非線性映射。利用卷積神經(jīng)網(wǎng)絡(luò)、自編碼網(wǎng)絡(luò)和生成對(duì)抗網(wǎng)絡(luò)等對(duì)側(cè)面人臉圖像的特征學(xué)習(xí)、提取更加細(xì)致,可使生成的正面圖像的真實(shí)性更高。Yin 等[ 1] 提出了一種針對(duì)大姿態(tài)人臉校正的 FF?GAN ( Face Frontalization Generative Adversarial Network)方法,將3D 形變模型結(jié)合到生成對(duì)抗網(wǎng)絡(luò)中以提供人臉形狀和外觀先驗(yàn)知識(shí)。其對(duì)非受限數(shù)據(jù)集的人臉轉(zhuǎn)正適應(yīng)能力強(qiáng),但人臉圖像生成效果需提高。Huang 等[2] 提出雙通道生成對(duì)抗網(wǎng)絡(luò) ( Two?Pathway GAN ,TP? GAN),利用兩個(gè)深度卷積網(wǎng)絡(luò)分別學(xué)習(xí)側(cè)臉圖像的全局結(jié)構(gòu)和局部紋理細(xì)節(jié)。通過融合兩條通路的全局信息與局部特征進(jìn)行正臉視圖的合成,能夠更好地保留輪廓細(xì)節(jié)信息。雖然能獲得很真實(shí)的人臉轉(zhuǎn)正效果,但其需要在人臉照片中定位人臉五官位置。在訓(xùn)練和測(cè)試過程中,需要人工標(biāo)注勞動(dòng)力和大的計(jì)算機(jī)算力,人臉轉(zhuǎn)正時(shí)間較長。
為進(jìn)一步提高側(cè)臉轉(zhuǎn)正生成圖像的質(zhì)量,本文建立了一種三者對(duì)抗生成網(wǎng)絡(luò)的人臉轉(zhuǎn)正方法。針對(duì)傳統(tǒng) GAN ,在生成器和判別器中引入自編碼結(jié)構(gòu),并結(jié)合分類器形成三者對(duì)抗,進(jìn)行人臉轉(zhuǎn)正。
2? 三者對(duì)抗的生成網(wǎng)絡(luò)模型
傳統(tǒng)生成對(duì)抗網(wǎng)絡(luò)中生成器通常是簡單卷積神經(jīng)網(wǎng)絡(luò),而判別器為二分類器,對(duì)于側(cè)臉圖像的特征提取和判別能力低,影響圖像生成效果。本文在使用生成對(duì)抗網(wǎng)絡(luò)模型的基礎(chǔ)上結(jié)合自編碼技術(shù)構(gòu)建生成器與判別器,對(duì)于側(cè)臉信息的特征提取和正面人臉圖像的生成有著高效率和高質(zhì)量的作用。通過引入分類器,參與生成器與判別器的對(duì)抗訓(xùn)練,形成三者對(duì)抗,以提高特征信息保留能力。
該模型結(jié)構(gòu)如圖1 所示。整個(gè)網(wǎng)絡(luò)由三部分組成,分別是生成器 G、判別器 D 和分類器 C 。其中,生成器包含編碼器和解碼器。c 和 z 分別表示姿態(tài)信息和隨機(jī)噪聲,Ip 表示人臉生成圖像,Ir表示真實(shí)人臉輸入圖像。判別器 D 和分類器 C 的輸入皆為 Ip 和Ir,判別器 D 要使 Ip 和Ir盡可能接近,以提高生成圖像的質(zhì)量。分類器 C 為提前訓(xùn)練好的 Light ?CNN,協(xié)助判別器 D 與生成器對(duì)抗,以達(dá)到有效保留人臉身份特征的目的。首先針對(duì)每張人臉圖像標(biāo)記身份信息 yd 和姿態(tài)信息yp,即輸入帶標(biāo)簽的人臉圖像樣本Ir { yd ,yp };在包含編解碼結(jié)構(gòu)的生成器 G 中,編碼器將側(cè)臉圖像經(jīng)過卷積層后提取到人臉的綜合特征信息,當(dāng)解碼器接收到特征信息和姿態(tài)信息后,結(jié)合隨機(jī)噪聲進(jìn)行人臉的正面圖像還原;然后將生成圖像 Ip 和真實(shí)圖像Ir分別輸入到判別器 D 和分類器 C 中,依靠反饋并與生成器協(xié)同對(duì)抗訓(xùn)練;最后生成圖像逐步修正為輸出目標(biāo)姿態(tài)圖像。
2.1? 生成器結(jié)構(gòu)
生成器 G 內(nèi)部結(jié)構(gòu)如圖2 所示,包括編碼器和解碼器兩部分。其中,編碼器由 Conv 1、Conv2、Conv3、 Conv4和 Conv5組成,采用小卷積核和深層次的網(wǎng)絡(luò)結(jié)構(gòu),以減少網(wǎng)絡(luò)參數(shù),并增加網(wǎng)絡(luò)非線性,更適用于側(cè)面人臉的特征提取。輸入為真實(shí)人臉圖像Ir,在 Conv 1 中用卷積核為 3× 3,步長為1 的 Conv 11 和 Conv 12來調(diào)節(jié)通道數(shù),以線性組合不同通道上的像素點(diǎn),再進(jìn)行非線性化處理。在每個(gè)卷積層后分別應(yīng)用 BN(batch normalization )層進(jìn)行批量歸一化來防止過擬合,再經(jīng)由激活函數(shù)指數(shù)線性單元( exponential linear unit,ELU)形成特征圖;然后依次通過卷積核為3×3,步長為2 的 Conv21、Conv22和 Conv23進(jìn)行淺層特征提取;再經(jīng)由 Conv3、Conv4和 Conv5(與 Conv2結(jié)構(gòu)相同)進(jìn)一步深層次提取特征。最后通過卷積核為6×6,步長為1 的平均池化層輸出1×1×320維更具有高層語義的特征向量f( x )。
解碼器的主要任務(wù)是生成人臉圖像,采用數(shù)據(jù)還原原理,內(nèi)部結(jié)構(gòu)為反卷積網(wǎng)絡(luò)。將編碼器學(xué)習(xí)的身份表示特征向量f( x ),和姿態(tài)信息 c 和隨機(jī)噪聲 z 融合合成人臉圖像。解碼器包括5 個(gè),分別為 FConv5、 FConv4、FConv3、FConv2和FConv 1。首先經(jīng)過由卷積核為3×3,步長為1 的 FConv52和 FConv51以及每個(gè)反卷積層后分別應(yīng)用 BN 層和 ELU 激活函數(shù)組成的 FConv5;再經(jīng)過4 組相同結(jié)構(gòu)反卷積網(wǎng)絡(luò) FConv4、 FConv3、FConv2和FConv 1的反卷積操作后,輸出生成的正面人臉圖像,即 Ip =G(Ir,c ,z )。與前幾層不同的是,F(xiàn)Conv 11后采用 Tanh 激活函數(shù),最終生成正面人臉圖像。生成器的主要目標(biāo)是增強(qiáng)生成人臉圖像的真實(shí)性以混淆判別器。生成器損失函數(shù)參見式(1):
式中,Ddyd (G(Ir,c ,z ))表示生成器努力將生成圖像分類到對(duì)應(yīng)的真實(shí)樣本所屬的類上,Dy(p)t ( G( Ir,c ,z ))則表示生成器將生成樣本分類到正確的姿態(tài)上。與判別器的目標(biāo)不同,生成器在訓(xùn)練中須形成對(duì)抗。
2.2? 判別器結(jié)構(gòu)
模型判別器是一個(gè)多任務(wù)的卷積神經(jīng)網(wǎng)絡(luò),分類為身份和姿勢(shì)。輸入圖像為生成圖像或真實(shí)圖像,其內(nèi)部采用與生成編碼器類似的網(wǎng)絡(luò)結(jié)構(gòu),包含 Conv1、 Conv2、Conv3、Conv4和 Conv5五個(gè)卷積層和一個(gè)池化層。其中,Conv1由卷積核為3×3,步長為1 的 Conv11 和 Conv12組成,Conv2、Conv3、Conv4和 Conv5結(jié)構(gòu)相同。每層卷積引入 BN 層和 ELU 激活函數(shù)。經(jīng)平均池化層進(jìn)入全連接層再用Softmax對(duì)輸入的人臉圖像進(jìn)行身份和姿勢(shì)分類。
當(dāng)給定一個(gè)面部圖像樣本Ir的標(biāo)簽為是人臉圖像的身份類別,yp是人臉呈現(xiàn)的角度類別。此時(shí),判別器輸出記為[ Dd ,Dp ],其中 Dd ∈RNd+1 ,Dp∈RNp。判別器中 Nd+1為身份總數(shù)用來做身份分類,Np 為離散姿態(tài)總數(shù)用作姿勢(shì)的分類。給定一個(gè)真實(shí)的人臉圖像Ir,判別器目標(biāo)是估計(jì)其身份和姿態(tài);當(dāng)給定來自生成器 Ip =G(Ir,c ,z )合成人臉圖像時(shí),判別器試圖將 Ip 歸類為假時(shí),使用公式(2)作為目標(biāo)函數(shù),通過在生成器 G 與判別器 D 的訓(xùn)練中,最大化 D 區(qū)分生成圖像和真實(shí)圖像能力。判別器區(qū)分真實(shí)圖像Ir和生成圖像 Ip 的角度和身份(生成圖像的身份被劃分為第 N+1類)。
式中,第一項(xiàng)是對(duì)真實(shí)樣本Ir進(jìn)行身份分類和姿勢(shì)分類的交叉熵的相反數(shù)。第二項(xiàng)為將生成圖像分類到假樣本交叉熵的相反數(shù)。兩項(xiàng)之和并最大化它們的和,即最小化分類交叉熵。
2.3? 分類器及損失函數(shù)
為了保持人臉身份的一致性,很多研究采用在生成器中引入損失函數(shù)來實(shí)現(xiàn)。本文模型將分類器單獨(dú)作為一個(gè)結(jié)構(gòu)與生成器進(jìn)行對(duì)抗,與判別器形成三者對(duì)抗。分類器 C 采用提前訓(xùn)練好的Light?CNN模型。與判別器功能類似,首先輸入圖像為真實(shí)圖像Ir和生成圖像 Ip 經(jīng)一個(gè)卷積核為5×5 ,步長為1 的 Conv1處理后,通過最大特征圖( Max Feature Map ,MFM)稀疏處理,實(shí)現(xiàn)通道數(shù)減半;然后通過一個(gè)由 Conv21、 Conv22以及最大池化操作組成的 Conv2層處理,再經(jīng)由與 Conv2相同的 Conv3、Conv4和 Conv5處理;最后由全連接層和 MFM 操作后完成特征提取。
分類器和判別器的任務(wù)類似,即盡可能地區(qū)分生成圖像和真實(shí)圖像。經(jīng)分類器分別提取的特征記為fidp和fird。分類器的結(jié)果標(biāo)簽定義為1 ~2N,其中真實(shí)人臉圖像對(duì)應(yīng)為前 N 個(gè)標(biāo)簽,生成圖像對(duì)應(yīng)后 N 個(gè)標(biāo)簽。交叉熵?fù)p失函數(shù)分別對(duì)應(yīng)為:
式中,Ir和 Ip 分別表示真實(shí)圖像和生成圖像,lird和lipd表示真實(shí)圖像標(biāo)簽和生成圖像標(biāo)簽,lird,i表示第i個(gè)對(duì)應(yīng)的真實(shí)正確標(biāo)簽,i∈{ 1,2...2N }。Ci ( Ir )和 Ci (Ip )分別表示第i個(gè)真實(shí)的輸出標(biāo)簽和生成的輸出標(biāo)簽。
分類器損失為兩部分加權(quán)和,權(quán)重為α,同時(shí)是身份信息特征的保留損失,分類器的損失參見公式(5):
2.4? 比例控制的訓(xùn)練超參數(shù)6
生成對(duì)抗網(wǎng)絡(luò)通常有訓(xùn)練過程復(fù)雜、訓(xùn)練初期判別器呈明顯優(yōu)勢(shì)易導(dǎo)致生成器與判別器不平衡、模式崩潰等[3]。為保持生成器和判別器訓(xùn)練的平衡,引入比例控制[4]即:
式中,E[L(G( z ))]和 E[L( x )]分別為生成數(shù)據(jù)和真實(shí)數(shù)據(jù)逐像素誤差的期望值。當(dāng)生成器與判別器兩者達(dá)到平衡時(shí),判別器無法判別出真實(shí)樣本和生成樣本,此時(shí)兩者期望值應(yīng)盡可能相等。本文訓(xùn)練中為了使生成器和判別器形成更具包容性收斂條件,設(shè)置超參數(shù)δ且δ∈[0,1],對(duì)生成器及判別器進(jìn)行自定義的平衡訓(xùn)練,通過δ來調(diào)節(jié)生成效果,以提高網(wǎng)絡(luò)收斂的速度、訓(xùn)練效率和性能。經(jīng)過多次實(shí)驗(yàn)本文對(duì)超參數(shù)δ設(shè)置為0.8。
3? 實(shí)驗(yàn)結(jié)果與分析
3.1? 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)
本文實(shí)驗(yàn)環(huán)境為 Windows 10操作系統(tǒng),計(jì)算機(jī)配置為 NVIDIA GeForce RTX 2070顯卡。訓(xùn)練和測(cè)試采用Pytorch深度學(xué)習(xí)框架。
實(shí)驗(yàn)采用專門用于大姿態(tài)人臉驗(yàn)證的 CFP 數(shù)據(jù)集,涵蓋了姿態(tài)、表情、裝飾物和光照等變化。由500個(gè)人組成,每人有10張不同的正臉圖像和4 張有差異的側(cè)臉圖像[5]。實(shí)驗(yàn)中訓(xùn)練數(shù)據(jù)包含側(cè)臉和正臉,將全部數(shù)據(jù)集輸入模型中,用于訓(xùn)練和生成正面人臉圖像。
3.2? 模型訓(xùn)練設(shè)置
為實(shí)現(xiàn)對(duì)偏轉(zhuǎn)人臉進(jìn)行轉(zhuǎn)正且保留對(duì)應(yīng)人臉的身份特征,本文生成器和判別器模型采用交替訓(xùn)練方式,分類器采用預(yù)訓(xùn)練Light?CNN設(shè)置,用 Adam 算法優(yōu)化。模型中的基本參數(shù)設(shè)置如下:選擇β1 為 0.5, β2 為0.999的 Adam 優(yōu)化器,學(xué)習(xí)率為2×10-5,圖像分辨率為96×96時(shí)設(shè)置 batch size 為16。生成器輸入的隨機(jī)噪聲Nz為50維,取自(-1,1)的標(biāo)準(zhǔn)正態(tài)分布。數(shù)據(jù)集的姿勢(shì)標(biāo)簽分正臉和大角度側(cè)臉,即設(shè)置姿態(tài)類型總數(shù) Np 為2 。數(shù)據(jù)集中共有500個(gè)人物身份樣本,即 Nd =500。比例控制中的超參數(shù)δ設(shè)置為0.8,訓(xùn)練的迭代次數(shù)設(shè)置為2000個(gè) epoch。
3.3? 實(shí)驗(yàn)結(jié)果及分析
當(dāng)判別器正解率大于指定以上即0.9時(shí),則認(rèn)為判別器足夠強(qiáng)且訓(xùn)練有序。隨著迭代次數(shù)增加判別器判別生成圖像逐漸趨近于1 ,表明生成器和判別器有效的互相對(duì)抗訓(xùn)練。相反,訓(xùn)練時(shí)未進(jìn)行比例控制則呈現(xiàn)因判別器過強(qiáng),導(dǎo)致生成器崩塌且判別器一直判別生成圖像為假。實(shí)驗(yàn)表明,控制生成器和判別器的訓(xùn)練比例可以使模型平穩(wěn)運(yùn)行并靈活調(diào)度訓(xùn)練,從而提高訓(xùn)練效率。
人臉轉(zhuǎn)正可以作為人臉識(shí)別模型的一種預(yù)處理操作,因此可以使用人臉識(shí)別準(zhǔn)確率作為評(píng)價(jià)指標(biāo)來評(píng)估不同人臉轉(zhuǎn)正方法的身份特征保留能力。識(shí)別準(zhǔn)確率越高,人臉圖像合成過程保留的人臉特征越多,轉(zhuǎn)正效果越好。本文模型加入分類器形成三者對(duì)抗,有助于訓(xùn)練時(shí)身份特征信息的保留。隨著迭代次數(shù)增加,與生成器對(duì)抗訓(xùn)練過程中,分類器對(duì)全局的身份特征信息保留起積極作用。通過反饋不斷修正生成圖像,提高生成圖像質(zhì)量。分類器中身份信息保留損失的收斂如圖3 所示。
為驗(yàn)證模型有效性,實(shí)驗(yàn)對(duì)比了現(xiàn)有的大姿態(tài)人臉轉(zhuǎn)正模型以及本模型的消融實(shí)驗(yàn)驗(yàn)證模型的優(yōu)勢(shì)和各個(gè)組成部分的貢獻(xiàn)。采用人臉識(shí)別模型Light?CNN作為分類器,并使用距離度量計(jì)算生成圖像和真實(shí)圖像之間的相似度。用分類器Light?CNN提取特征進(jìn)而計(jì)算 Rank 識(shí)別率 R 作為衡量人臉轉(zhuǎn)正效果的指標(biāo)。識(shí)別實(shí)驗(yàn)采用同一數(shù)據(jù)集 CFP ,其中大多數(shù)側(cè)臉為大姿態(tài),一般角度為± 75°~ ±90°。結(jié)果表明在這些極端角度上,本文方法獲得了更高的識(shí)別準(zhǔn)確率,驗(yàn)證了本文方法在人臉轉(zhuǎn)正任務(wù)上的有效性。
訓(xùn)練中,如果未對(duì)模型比例進(jìn)行控制,生成器和判別器因訓(xùn)練不均衡易導(dǎo)致模型坍塌,加入超參數(shù)δ 可有效解決。在不加入分類器的情況下,本文模型生成器和判別器采用自編碼結(jié)構(gòu)達(dá)到了62.3%的準(zhǔn)確率;FF?GAN 將人臉姿態(tài)范圍擴(kuò)大到90°,由于其僅僅依賴人臉形狀和外觀先驗(yàn)知識(shí),因此側(cè)臉識(shí)別率僅為54.7%。TP?GAN 雖然在多姿態(tài)人臉轉(zhuǎn)正上取得了很好的效果,但對(duì)于大姿態(tài)人臉轉(zhuǎn)正的識(shí)別準(zhǔn)確率仍顯不足。而本文方法采用了三者對(duì)抗的思想,較 DR? GAN[6~ 8]識(shí)別率提升了4.4個(gè)百分點(diǎn)。
通過定量對(duì)比實(shí)驗(yàn),驗(yàn)證了本文方法對(duì)人臉轉(zhuǎn)正和身份識(shí)別的有效性。本文模型在 CFP 數(shù)據(jù)集上,在輸入同一身份的不同側(cè)臉的同時(shí),該模型可較好地保留身份特征,生成正面人臉圖像。
4? 結(jié)語
本文建立了一種基于三者對(duì)抗生成網(wǎng)絡(luò)的人臉轉(zhuǎn)正方法。利用生成器的自編碼結(jié)構(gòu)完成特征提取和人臉圖像生成;接著在判別器和分類器的對(duì)抗訓(xùn)練下逐步提高圖像生成效果,并通過比例控制設(shè)置超參數(shù)δ 交替訓(xùn)練生成器和判別器,使網(wǎng)絡(luò)模型更加平穩(wěn);采用單獨(dú)的 Light? CNN 分類器進(jìn)行三者對(duì)抗,以便進(jìn)一步保留人物的身份特征并提高人臉圖像生成質(zhì)量,加速網(wǎng)絡(luò)收斂。在 CFP 數(shù)據(jù)集的實(shí)驗(yàn)中表明,本文方法可以更好地解決大角度的側(cè)臉轉(zhuǎn)正識(shí)別問題,準(zhǔn)確率達(dá)到了68.7%,并提高了正面人臉生成質(zhì)量。本文的論述和實(shí)驗(yàn)驗(yàn)證了模型方法的有效性。
參考文獻(xiàn):
[1] Yin? X ,Yu? x ,Sohn? K ,et? al.Towards? Large?Pose? FaceFrontalization? in? the? Wild [ C ] ∥ The? IEEE? International Conference on Computer Vision ( ICCV),USA:IEEE ,2017:3990?3999.
[2] Huang? R ,Zhang? S ,Li? T ,et? al.Beyond? Face? Rotation:Global? and? Local? Perception? GAN? for? Photorealistic? and Identity Preserving Frontal ViewSynthesis [ C]∥ The IEEE International Conference on Computer Vision (ICCV),Italy: IEEE ,2017:2439?2448.
[3] 曹志義,牛少彰,張繼威.基于半監(jiān)督學(xué)習(xí)生成對(duì)抗網(wǎng)絡(luò)的人臉還原算法研究[ J].電子與信息學(xué)報(bào),2018,40(2):323?330.
[4] Cao K,Rong Y,Li C ,et al.Pose?Robust Face Recognition via Deep? Residual? Equivariant? Mapping [ C ]∥ The? IEEE Conference? on? Computer? Vision? and? Pattern? Recognition (CVPR),USA:IEEE ,2018:5187?5196.
[5]? Chi? Nhan? Duong ,Khoa? Luu,Kha? Gia? Quach ,et? al.DeeAppearance? Models: A? Deep? Boltzmann? Machine Approach? for? Face? Modeling [ J ] International? Journal? of Computer Vision,2018,18(1):1?19.
[6] Luan T,Xi Y,Liu X .Disentangled Representation Learning GAN for Pose?Invariant Face Recognition[ C]∥2017 IEEE Conference? on? Computer? Vision? and? Pattern? Recognition (CVPR).IEEE ,2017.
[7] Goodfellow I ,Pouget?Abadie J ,Mirza M ,et al.Generativeadversarial? nets [ C ] ∥ Proc.Adv.Neural? Inf.Process. Syst.2014:2672?2680.
[8] Alex Krizhevsky,Ilya Sutskever,Geoffrey E.Hinton.ImageNet Classification with Deep Convolutional Neural Networks[C]∥ Neural??? Information??? Processing??? Systems??? Conference (NIPS).IEEE ,2012:432?439.
作者簡介:
李壯(1997—) ,碩士,研究方向:圖像處理、模式識(shí)別。