• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法綜述

    2022-05-07 02:36:52涂鵬琦高常鑫
    模式識(shí)別與人工智能 2022年4期
    關(guān)鍵詞:風(fēng)格化源域一致性

    涂鵬琦 高常鑫 桑 農(nóng)

    圖像的風(fēng)格是指一幅圖像或一個(gè)域所有圖像共有的觸點(diǎn)、紋理、色彩等特征,如藝術(shù)圖和照片表示兩種不同的圖像風(fēng)格.圖像風(fēng)格化旨在通過(guò)風(fēng)格化模型,將一幅圖像在保持語(yǔ)義內(nèi)容不變的同時(shí)從原始風(fēng)格轉(zhuǎn)換為參考圖像或目標(biāo)域定義的風(fēng)格,即具有某一風(fēng)格的原始圖像通過(guò)風(fēng)格化模型轉(zhuǎn)換為另一個(gè)風(fēng)格的風(fēng)格化圖像.強(qiáng)大的風(fēng)格轉(zhuǎn)換能力和多樣有趣的風(fēng)格化結(jié)果使圖像風(fēng)格化技術(shù)在社交、藝術(shù)創(chuàng)作和數(shù)據(jù)生產(chǎn)等領(lǐng)域都有著廣泛的應(yīng)用.

    近年來(lái),深度神經(jīng)網(wǎng)絡(luò)由于強(qiáng)大的特征提取和表達(dá)能力,受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,并在圖像生成[1-8]、圖像到圖像轉(zhuǎn)換[9-22]、圖像編輯[23-26]和圖像風(fēng)格化[27-32]等任務(wù)上取得重大的技術(shù)突破.在此背景下,越來(lái)越多的研究者嘗試使用深度神經(jīng)網(wǎng)絡(luò)完成圖像風(fēng)格化任務(wù),提出各種基于深度神經(jīng)網(wǎng)絡(luò)的方法,解決圖像風(fēng)格化任務(wù)中存在的問(wèn)題.

    Gatys等[27,33]首先提出圖像風(fēng)格化的概念,并提出基于優(yōu)化(Optimization-Based)的圖像風(fēng)格化方法,這也是圖像風(fēng)格化研究初期采用的主要方法.為了提高風(fēng)格化的速度和效率,Johnson等[34]和Ulyanov等[35]先后提出使用前向深度神經(jīng)網(wǎng)絡(luò)代替緩慢的優(yōu)化過(guò)程,并提出相應(yīng)的內(nèi)容損失函數(shù)和風(fēng)格損失函數(shù),用于網(wǎng)絡(luò)訓(xùn)練,為基于前向深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化研究奠定基礎(chǔ).此外,生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)[36]的提出,以及它在各種圖像生成和圖像到圖像轉(zhuǎn)換任務(wù)上的突出表現(xiàn),使很多基于GAN的圖像風(fēng)格化方法被提出,改善已有方法的效果和性能,大幅促進(jìn)圖像風(fēng)格化的研究進(jìn)程.因此,基于前向深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法和基于GAN的圖像風(fēng)格化方法也成為目前圖像風(fēng)格化研究中采用的主要方法.

    本文根據(jù)風(fēng)格的定義方式,將基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法劃分為兩類:基于參考的圖像風(fēng)格化方法和基于域的圖像風(fēng)格化方法.

    在基于參考的圖像風(fēng)格化方法中,風(fēng)格由單幅圖像定義,即目標(biāo)風(fēng)格由參考圖像決定.深度神經(jīng)網(wǎng)絡(luò)的輸入為原始圖像和參考圖像.深度神經(jīng)網(wǎng)絡(luò)通過(guò)訓(xùn)練,學(xué)習(xí)如何在保持原始圖像語(yǔ)義內(nèi)容的同時(shí)將其風(fēng)格轉(zhuǎn)換為參考圖像的風(fēng)格,所以在這類方法中原始圖像稱為內(nèi)容圖像,參考圖像稱為風(fēng)格圖像.基于參考的圖像風(fēng)格化方法的優(yōu)點(diǎn)在于,目標(biāo)風(fēng)格由參考圖像定義,對(duì)于訓(xùn)練完成的模型,可根據(jù)參考圖像的不同實(shí)現(xiàn)任意目標(biāo)風(fēng)格的轉(zhuǎn)換.不足之處主要有如下兩方面.一方面由于目標(biāo)風(fēng)格由參考圖像定義,因此對(duì)于模型訓(xùn)練時(shí)未出現(xiàn)的參考圖像,模型對(duì)其代表風(fēng)格的轉(zhuǎn)換能力較弱,風(fēng)格化結(jié)果較差.另一方面,由于模型很難“干凈地”學(xué)到參考圖像的風(fēng)格,其風(fēng)格化過(guò)程會(huì)無(wú)法避免地保留一些原始圖像的風(fēng)格信息,同時(shí)引入?yún)⒖紙D像的一些語(yǔ)義內(nèi)容信息.當(dāng)原始圖像和參考圖像差距過(guò)大時(shí),風(fēng)格化過(guò)程中保留的原始圖像的風(fēng)格信息會(huì)使生成的風(fēng)格化圖像出現(xiàn)不同程度的風(fēng)格失真,即出現(xiàn)欠風(fēng)格化問(wèn)題.引入?yún)⒖紙D像的語(yǔ)義內(nèi)容信息會(huì)使生成的風(fēng)格化圖像出現(xiàn)不同程度的內(nèi)容失真,即產(chǎn)生過(guò)度風(fēng)格化問(wèn)題.

    在基于域的圖像風(fēng)格化方法中,風(fēng)格是由一個(gè)域的所有圖像共同定義.該任務(wù)涉及兩個(gè)域:定義原始風(fēng)格的源域和定義目標(biāo)風(fēng)格的目標(biāo)域,分別由訓(xùn)練時(shí)使用的原始圖像集合和目標(biāo)圖像集合表達(dá),該任務(wù)此時(shí)就轉(zhuǎn)化為從源域到目標(biāo)域的圖像到圖像轉(zhuǎn)換任務(wù).鑒于GAN在圖像到圖像轉(zhuǎn)換任務(wù)上的突出表現(xiàn),此類方法常采用GAN學(xué)習(xí)源域到目標(biāo)域的映射關(guān)系,完成兩者之間的轉(zhuǎn)換.基于域的圖像風(fēng)格化方法的優(yōu)點(diǎn)在于,目標(biāo)風(fēng)格由目標(biāo)域的所有圖像共同定義,更魯棒,模型能學(xué)到更“干凈的”風(fēng)格.因此,模型在向目標(biāo)風(fēng)格轉(zhuǎn)換的風(fēng)格化任務(wù)上較魯棒,更多地保留源域圖像的語(yǔ)義內(nèi)容信息,風(fēng)格化結(jié)果更真實(shí)自然.不足之處在于,由于該類方法中目標(biāo)風(fēng)格由目標(biāo)域的所有圖像共同定義,因此訓(xùn)練完成的模型只能完成單一目標(biāo)風(fēng)格的轉(zhuǎn)換,無(wú)法實(shí)現(xiàn)任意目標(biāo)風(fēng)格的轉(zhuǎn)換,存在一定的局限性.

    1 基于參考的圖像風(fēng)格化方法

    基于參考的圖像風(fēng)格化方法需要解決如何在保持原始圖像語(yǔ)義內(nèi)容不變的同時(shí)將其風(fēng)格轉(zhuǎn)化為參考圖像的風(fēng)格的問(wèn)題.問(wèn)題的關(guān)鍵是如何獲取圖像的語(yǔ)義內(nèi)容信息和風(fēng)格信息,并完成目標(biāo)風(fēng)格的轉(zhuǎn)換.根據(jù)近年來(lái)風(fēng)格化過(guò)程中的特征處理方式,基于參考的圖像風(fēng)格化方法可劃分為兩類:基于特征解耦的圖像風(fēng)格化方法和基于特征融合的圖像風(fēng)格化方法.

    1.1 基于特征解耦的圖像風(fēng)格化方法

    基于特征解耦的圖像風(fēng)格化方法是指將圖像的特征解耦為包含語(yǔ)義內(nèi)容信息的內(nèi)容特征和包含風(fēng)格信息的風(fēng)格特征,再交換原始圖像和參考圖像的風(fēng)格特征,完成風(fēng)格的轉(zhuǎn)換.該類方法在圖像風(fēng)格化研究初期采用較多,圖像風(fēng)格化過(guò)程如圖1所示.

    圖1 基于特征解耦的圖像風(fēng)格化過(guò)程Fig.1 Image stylization process based on feature decoupling

    Gatys等[27,33]首先提出神經(jīng)風(fēng)格遷移(Neural Style Transfer, NST)的概念和相應(yīng)的基于優(yōu)化的圖像風(fēng)格化方法,同時(shí)也是第一個(gè)基于特征解耦的圖像風(fēng)格化方法.在方法中,結(jié)合原始圖像的內(nèi)容特征和參考圖像的風(fēng)格特征,不斷迭代以優(yōu)化生成的風(fēng)格化圖像,并使用Gram矩陣衡量風(fēng)格化圖像和參考圖像之間的風(fēng)格相似性.在圖像風(fēng)格化研究領(lǐng)域,學(xué)者們先后提出基于特征解耦的圖像風(fēng)格化方法.Li等[37]提出使用馬爾科夫隨機(jī)場(chǎng)(Markov Random Field, MRF)正則化器代替Gram矩陣以衡量圖像間的風(fēng)格相似性,MRF在計(jì)算時(shí)考慮風(fēng)格化圖像和參考圖像的語(yǔ)義相關(guān)性,采用基于塊(Patch)的方式進(jìn)行匹配并計(jì)算風(fēng)格相似度.基于MRF的模型優(yōu)化進(jìn)一步提升生成的風(fēng)格化圖像的質(zhì)量.

    盡管上述方法已獲得較高質(zhì)量的風(fēng)格化圖像,但都是基于優(yōu)化的,需要經(jīng)過(guò)多次迭代才能獲得較高質(zhì)量的風(fēng)格化圖像,在實(shí)際應(yīng)用中非常耗時(shí).為了加快風(fēng)格化過(guò)程,Johnson等[34]和Ulyanov等[35]先后提出使用前向深度神經(jīng)網(wǎng)絡(luò)代替緩慢的優(yōu)化過(guò)程,并提出用于前向深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練的感知損失.感知損失包括衡量語(yǔ)義內(nèi)容差距的內(nèi)容損失和衡量風(fēng)格差距的風(fēng)格損失.首先利用VGG網(wǎng)絡(luò)[38]提取原始圖像Is和風(fēng)格化圖像Is-r,在網(wǎng)絡(luò)各層的特征進(jìn)行對(duì)比,即得到表示兩者語(yǔ)義內(nèi)容差距的內(nèi)容損失:

    其中,φ表示VGG網(wǎng)絡(luò),j表示網(wǎng)絡(luò)的第j層,Cj表示網(wǎng)絡(luò)第j層對(duì)應(yīng)特征圖的通道數(shù),Hj、Wj表示網(wǎng)絡(luò)第j層對(duì)應(yīng)特征圖的高和寬.進(jìn)而,再使用VGG網(wǎng)絡(luò)提取參考圖像Ir和風(fēng)格化圖像Is-r在網(wǎng)絡(luò)各層的特征,在分別計(jì)算Gram矩陣后進(jìn)行對(duì)比,得到表示兩者風(fēng)格差距的風(fēng)格損失:

    其中Gram表示計(jì)算Gram矩陣值.前向深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用使圖像風(fēng)格化的速度提升2~3個(gè)量級(jí),實(shí)現(xiàn)實(shí)時(shí)的圖像風(fēng)格化,而基于前向深度神經(jīng)網(wǎng)絡(luò)的方法也逐漸成為圖像風(fēng)格化的主流方法.

    隨著GAN的提出,及其在圖像生成和圖像到圖像轉(zhuǎn)換等領(lǐng)域的突出表現(xiàn),研究者們嘗試?yán)肎AN在圖像風(fēng)格化領(lǐng)域取得新的突破.Huang等[39]提出MUNIT(Multimodal Unsupervised Image-to-Image Translation),Lee等[40]提出DRIT(Diverse Image-to-Image Translation via Disentangled Representa-tions).這兩種方法實(shí)質(zhì)上都可歸為基于特征解耦的圖像風(fēng)格化方法.MUNIT和DRIT網(wǎng)絡(luò)結(jié)構(gòu)基本一致,只在一些網(wǎng)絡(luò)層上存在差異,具體網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示.

    圖2 MUNIT和DRIT網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.2 Network architecture of MUNIT and DRIT

    該訓(xùn)練過(guò)程涉及的損失函數(shù)如下.

    1)生成對(duì)抗損失:

    用于約束生成的風(fēng)格化圖像Is-r和參考圖像Ir風(fēng)格分布的一致性,其中,G表示生成器,D表示判別器.

    2)KL損失:

    3)循環(huán)一致性損失:

    相比文獻(xiàn)[27]、文獻(xiàn)[33]~文獻(xiàn)[35]、文獻(xiàn)[37]方法,MUNIT和DRIT主要有兩方面改進(jìn).

    1)引入GAN,更容易學(xué)到目標(biāo)風(fēng)格的分布,獲得更真實(shí)的風(fēng)格化圖像.

    2)將風(fēng)格特征的分布約束為標(biāo)準(zhǔn)正態(tài)分布,推理時(shí)既可通過(guò)參考圖像編碼產(chǎn)生風(fēng)格特征,也可直接從標(biāo)準(zhǔn)正態(tài)分布隨機(jī)采樣得到風(fēng)格特征,增加風(fēng)格化結(jié)果的多樣性.

    盡管基于特征解耦的圖像風(fēng)格化方法已獲得較高質(zhì)量的風(fēng)格化圖像,但通過(guò)對(duì)圖像分別編碼的解耦方式很難將風(fēng)格特征和內(nèi)容特征“干凈地”解耦,導(dǎo)致風(fēng)格特征中包含內(nèi)容信息,而內(nèi)容特征中包含風(fēng)格信息,使得由原始圖像轉(zhuǎn)換得到的風(fēng)格化圖像會(huì)保留較多的原始圖像的風(fēng)格信息或引入較多參考圖像的內(nèi)容信息.一方面,當(dāng)參考圖像與原始圖像的風(fēng)格信息相差較大時(shí),生成的風(fēng)格化圖像會(huì)由于保留較多原始圖像的風(fēng)格信息,出現(xiàn)欠風(fēng)格化問(wèn)題.另一方面,當(dāng)參考圖像與原始圖像的內(nèi)容信息相差較大時(shí),生成的風(fēng)格化圖像會(huì)由于呈現(xiàn)較多風(fēng)格圖像的內(nèi)容信息,出現(xiàn)過(guò)度風(fēng)格化問(wèn)題.

    1.2 基于特征融合的圖像風(fēng)格化方法

    基于特征融合的圖像風(fēng)格化方法是指分別提取原始圖像和參考圖像的特征,再采用特征融合模塊,融合兩者特征后,得到包含原始圖像語(yǔ)義內(nèi)容信息和參考圖像風(fēng)格信息的特征,完成風(fēng)格的轉(zhuǎn)換.該類方法是目前基于參考的圖像風(fēng)格化的主流方法,圖像風(fēng)格化過(guò)程如圖3所示.

    圖3 基于特征融合的圖像風(fēng)格化過(guò)程Fig.3 Image stylization process based on feature fusion

    基于特征融合的圖像風(fēng)格化方法在進(jìn)行風(fēng)格化時(shí),原始圖像Is通過(guò)編碼器Es,得到圖像特征Fs,參考圖像Ir通過(guò)編碼器Er,得到圖像特征Fr,然后將Fs和Fr通過(guò)特征融合模塊,得到融合后的特征Fs-r,再經(jīng)過(guò)解碼器得到風(fēng)格化圖像Is-r.這里編碼器Es和Er可為同個(gè)編碼器,一般采用預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)[38].

    Chen等[41]首先提出基于塊的特征融合方式,采用預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)φ分別提取原始圖像Is的特征圖φ(Is)和參考圖像Ir的特征圖φ(Ir).再分別將φ(Is)和φ(Ir)劃分為同樣大小有重疊的特征圖塊,對(duì)每個(gè)原始圖像特征圖塊,將它和相關(guān)性最強(qiáng)的參考圖像特征圖塊交換.然后使用交換后的特征圖塊構(gòu)建新的特征圖,得到重建的特征圖φs-r(Is,Ir).最后將φs-r(Is,Ir)輸入生成器,得到風(fēng)格化圖像Is-r.

    雖然Chen等[41]提出的應(yīng)用基于塊的特征匹配和交換進(jìn)行特征融合的方式可獲得較高質(zhì)量的風(fēng)格化圖像,但是這種基于特征匹配和交換的特征融合方式計(jì)算量較大,較耗時(shí).

    此外,當(dāng)參考圖像和原始圖像差距較大時(shí),對(duì)匹配的特征直接進(jìn)行交換的方式可能會(huì)引入較多參考圖像的語(yǔ)義內(nèi)容信息,使風(fēng)格化圖像丟失較多原始圖像的語(yǔ)義內(nèi)容信息.

    為了解決這些問(wèn)題,Li等[42]提出新的特征融合方式——WCT(Whitening and Coloring Transforms),在特征層面上提出風(fēng)格的表示方式,即風(fēng)格應(yīng)由圖像特征的協(xié)方差矩陣表示,并基于此理論提出使用原始圖像特征圖的協(xié)方差矩陣匹配參考圖像特征圖的協(xié)方差矩陣進(jìn)行特征融合的方式.WCT的提出加快基于特征融合的圖像風(fēng)格化過(guò)程的處理速度,并獲得較高質(zhì)量的風(fēng)格化圖像,為后續(xù)的基于特征融合的圖像風(fēng)格化研究奠定基礎(chǔ).

    為了進(jìn)一步提高風(fēng)格化圖像的質(zhì)量,Huang等[28]提出用于圖像風(fēng)格化的特征融合方式——AdaIN(Adaptive Instance Normalization).他們認(rèn)為圖像的風(fēng)格是由其特征圖的統(tǒng)計(jì)量均值和方差決定的,并提出使用參考圖像特征圖的均值和方差對(duì)原始圖像特征圖進(jìn)行調(diào)制,使調(diào)制后的特征圖和參考圖像特征圖的方差和均值一致.AdaIN的提出大幅加快圖像風(fēng)格化的處理速度,達(dá)到實(shí)時(shí)圖像風(fēng)格化的水平,也進(jìn)一步提升風(fēng)格化圖像的質(zhì)量.同時(shí),AdaIN的提出也為基于特征融合的圖像風(fēng)格化方法提供新的研究方向和思路,學(xué)者們先后提出基于此的新方法,而AdaIN也成為基于特征融合的圖像風(fēng)格化方法主要采用的特征融合方式.

    為了進(jìn)一步提升風(fēng)格化過(guò)程中特征融合的準(zhǔn)確性和魯棒性,Park等[43]提出SANet(Style Atten-tional Network).首先使用預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)提取原始圖像Is和參考圖像Ir的特征圖Fs和Fr,然后采用SANet進(jìn)行特征融合,SANet結(jié)構(gòu)圖如圖4所示.

    圖4 SANet結(jié)構(gòu)圖Fig.4 Architecture of SANet

    經(jīng)過(guò)SANet可得到融合后的特征:

    Wf、Wg和Wh表示可學(xué)習(xí)矩陣,

    AdaIN[28]、WCT[42]和SANet[43]的提出對(duì)基于特征融合的圖像風(fēng)格化方法具有重大意義,后續(xù)提出的該類方法基本都是在這3種方式的基礎(chǔ)上進(jìn)行特征融合.

    An等[44]為了在風(fēng)格化過(guò)程中盡可能地保留原始圖像的語(yǔ)義內(nèi)容信息,改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),采用完全可逆的編碼器-解碼器結(jié)構(gòu)ArtFlow,即解碼器是編碼器的逆過(guò)程.整個(gè)過(guò)程的可逆性使風(fēng)格化過(guò)程中原始圖像的語(yǔ)義內(nèi)容信息得到更多的保留,提升風(fēng)格化圖像的質(zhì)量.

    盡管基于特征融合的圖像風(fēng)格化方法在一定程度上解決風(fēng)格化過(guò)程的欠風(fēng)格化和過(guò)度風(fēng)格化問(wèn)題,獲得較高質(zhì)量的風(fēng)格化圖像,但是當(dāng)參考圖像和原始圖像差距較大時(shí),仍不能完全解決上述問(wèn)題.這也是未來(lái)基于參考的圖像風(fēng)格化方法的研究熱點(diǎn).

    綜上所述,基于參考的圖像風(fēng)格化的代表性方法Optimized-Based[27]、AdaIN[28]、WCT[42]、SANet[43]和ArtFlow[44]的特點(diǎn)可總結(jié)如表1所示.

    表1 基于參考的圖像風(fēng)格化的代表性方法的特點(diǎn)Table 1 Characteristics of representative methods in reference-based image stylization

    2 基于域的圖像風(fēng)格化方法

    基于域的圖像風(fēng)格化方法是指對(duì)兩個(gè)域進(jìn)行轉(zhuǎn)換,每個(gè)域定義一種風(fēng)格,通過(guò)對(duì)域的轉(zhuǎn)換完成對(duì)風(fēng)格的轉(zhuǎn)換,實(shí)現(xiàn)圖像風(fēng)格化.這類方法一般都是采用GAN的網(wǎng)絡(luò)結(jié)構(gòu),圖像風(fēng)格化過(guò)程如圖5所示.

    圖5 基于域的圖像風(fēng)格化過(guò)程Fig.5 Image stylization process based on domain

    在基于域的圖像風(fēng)格化方法進(jìn)行風(fēng)格化時(shí),源域圖像Is通過(guò)源域到目標(biāo)域的生成器Gs-t,得到具有目標(biāo)域風(fēng)格的風(fēng)格化圖像Is-t.

    Zhu等[10]首先提出用于未配對(duì)圖像到圖像轉(zhuǎn)換的CycleGAN,在基于域的圖像風(fēng)格化方法中,源域到目標(biāo)域的轉(zhuǎn)換也是未配對(duì)的,因此 CycleGAN可用于基于域的圖像風(fēng)格化.CycleGAN包含兩個(gè)過(guò)程:源域到目標(biāo)域到源域的風(fēng)格轉(zhuǎn)換和目標(biāo)域到源域到目標(biāo)域的風(fēng)格轉(zhuǎn)換.這兩個(gè)訓(xùn)練過(guò)程類似,現(xiàn)只選擇其中一個(gè)介紹,采用的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示.

    ①m ≥ 2,于是得pm|pi,即pm-1|i,i.e.i=pm-1,2pm-1,···,pm,故bi∈ Z(G),此時(shí)(biaj)p=bipajp=1,即j=pn-1,2pn-1,···,pn,從而易得p階元的個(gè)數(shù)為p2-1,p階子群個(gè)數(shù)為p+1.由引理6可知P?(G)的連通分支個(gè)數(shù)k(P?(G))=p+1.② m=1,此時(shí)G=Mp(n,1)= 〈a,b:apn=bp=1,ab=a1+pn-1〉,容易計(jì)算

    圖6 CycleGAN網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.6 Network architecture of CycleGAN

    CycleGAN的提出為未配對(duì)圖像到圖像轉(zhuǎn)換提出一種新的解決思路,也為基于域的圖像風(fēng)格化研究奠定基礎(chǔ),后續(xù)基于域的圖像風(fēng)格化方法基本都是采用CycleGAN作為基本的網(wǎng)絡(luò)框架.

    Liu等[45]在CycleGAN的基礎(chǔ)上,根據(jù)源域和目標(biāo)域特征潛層空間共享的假設(shè),即源域圖像Is和目標(biāo)域圖像It的特征符合同種分布(標(biāo)準(zhǔn)正態(tài)分布),提出UNIT(Unsupervised Image-to-Image Tran-slation).在UNIT中,網(wǎng)絡(luò)的訓(xùn)練包括2個(gè)并行的訓(xùn)練過(guò)程:圖像的重建和圖像的風(fēng)格轉(zhuǎn)換.圖像的重建過(guò)程是指針對(duì)源域和目標(biāo)域訓(xùn)練相應(yīng)的變分自編碼器(Variational Autoencoder, VAE)[46],源域的VAE包括編碼器Es和解碼器Gs,目標(biāo)域的VAE包括編碼器Et和解碼器Gt.圖像的風(fēng)格轉(zhuǎn)換過(guò)程是指將源域圖像Is通過(guò)該域VAE對(duì)應(yīng)的編碼器Es,得到符合某一分布的特征Fs,根據(jù)源域和目標(biāo)域特征潛層空間共享的假設(shè),F(xiàn)s再經(jīng)過(guò)目標(biāo)域VAE對(duì)應(yīng)的解碼器Gt,得到具有目標(biāo)域風(fēng)格的風(fēng)格化圖像Is-t.

    UNIT的提出為基于域的圖像風(fēng)格化研究提供一種特征潛層空間的研究視角,大幅推動(dòng)圖像風(fēng)格化的研究進(jìn)程.

    由于CycleGAN[10]中循環(huán)一致性損失的約束,采用CycleGAN作為基本網(wǎng)絡(luò)框架的方法在存在形變的圖像風(fēng)格化任務(wù)上往往會(huì)產(chǎn)生較差的風(fēng)格化結(jié)果.為了解決這個(gè)問(wèn)題,Kim等[47]提出U-GAT-IT(Unsupervised Generative Attentional Networks with Adaptive Layer-Instance Normalization for Image-to-Image Translation).U-GAT-IT采用的網(wǎng)絡(luò)結(jié)構(gòu)同樣是CycleGAN,但是在此基礎(chǔ)上引入注意力模塊和自適應(yīng)的層-實(shí)例正則化(Adaptive Layer-Instance Normalization, AdaLIN).注意力模塊指導(dǎo)模型根據(jù)輔助分類器獲得特征圖通道方向的注意力權(quán)重,使加權(quán)后的特征圖能將注意力集中在源域和目標(biāo)域區(qū)別最大的區(qū)域,同時(shí)也是容易發(fā)生形變的區(qū)域,促進(jìn)風(fēng)格化過(guò)程中這些區(qū)域的形變.

    AdaLIN是指在進(jìn)行正則化時(shí),采用層正則化和實(shí)例正則化,再采用可學(xué)習(xí)的權(quán)重系數(shù)對(duì)這兩種正則化的結(jié)果進(jìn)行加權(quán).通過(guò)兩種正則化方式的結(jié)合,更精確地控制風(fēng)格化圖像的形狀和紋理.U-GAT-IT的提出為采用CycleGAN的基于域的圖像風(fēng)格化方法在需要形變的圖像風(fēng)格化任務(wù)上提供一種有效的解決方式,提升該任務(wù)中風(fēng)格化圖像的質(zhì)量.

    盡管基于域的圖像風(fēng)格化方法能在保留源域圖像語(yǔ)義內(nèi)容信息的基礎(chǔ)上學(xué)習(xí)目標(biāo)域的風(fēng)格,完成目標(biāo)域風(fēng)格的轉(zhuǎn)換,但是已有方法仍很難學(xué)到完全由目標(biāo)域所有圖像共同定義的風(fēng)格,不可避免地都會(huì)學(xué)到目標(biāo)域中一些特定圖像才有的風(fēng)格特征,使不同風(fēng)格化圖像的風(fēng)格存在較大差異.該問(wèn)題也是后續(xù)基于域的圖像風(fēng)格化研究需要重點(diǎn)關(guān)注的問(wèn)題.

    綜上所述,基于域的圖像風(fēng)格化中代表性方法CycleGAN[10]、UNIT[45]、U-GAT-IT[47]、Council-GAN[48]的特點(diǎn)總結(jié)如表2所示.

    表2 基于域的圖像風(fēng)格化方法中代表性方法的特點(diǎn)Table 2 Characteristics of representative methods in domain-based image stylization

    3 實(shí)驗(yàn)及結(jié)果分析

    3.1 基于參考的圖像風(fēng)格化方法對(duì)比

    本節(jié)主要從運(yùn)行速度和效果上對(duì)比基于參考的圖像風(fēng)格化方法,其中運(yùn)行速度指生成一幅風(fēng)格化圖像需要的時(shí)間,效果指生成的風(fēng)格化圖像的質(zhì)量.該類方法對(duì)比時(shí)無(wú)固定的數(shù)據(jù)集,本文選取相關(guān)論文中常用的原始圖像和參考圖像作為測(cè)試數(shù)據(jù)進(jìn)行對(duì)比.

    本文選取Optimization-Based[27]、AdaIN[28]、WCT[42]、Avatar-Net[49]、SANet[43]和ArtFlow[44]進(jìn)行運(yùn)行速度和效果的對(duì)比,運(yùn)行速度對(duì)比結(jié)果如表3所示,其中黑體數(shù)字表示最優(yōu)值.

    由表3可知,Optimization-Based因?yàn)樾枰啻蔚鷥?yōu)化,生成一幅風(fēng)格化圖像所需時(shí)間最長(zhǎng).采用前向深度神經(jīng)網(wǎng)絡(luò)的方法WCT、AdaIN、Avatar-Net、SANet和ArtFlow生成一幅風(fēng)格化圖像所需時(shí)間較短,相比Optimization-Based,提升2~3個(gè)量級(jí).對(duì)比表明前向深度神經(jīng)網(wǎng)絡(luò)的使用大幅提升圖像風(fēng)格化的處理速度.相比WCT和Avatar-Net,AdaIN、SANet和ArtFlow進(jìn)行特征融合時(shí)需要的矩陣運(yùn)算更簡(jiǎn)單,生成一幅風(fēng)格化圖像所需時(shí)間更短,能實(shí)現(xiàn)實(shí)時(shí)的圖像風(fēng)格化.

    表3 各方法的運(yùn)行時(shí)間對(duì)比Table 3 Running time comparison of different methods s

    各方法生成的風(fēng)格化圖像對(duì)比如圖7所示.由圖可知,SANet和ArtFlow生成的風(fēng)格化圖像在語(yǔ)義內(nèi)容信息保留上效果較優(yōu),特別是一些關(guān)鍵的紋理細(xì)節(jié),如SANet和ArtFlow生成的風(fēng)格化圖像能完整保留原始圖像額頭的皺紋、發(fā)梢等紋理細(xì)節(jié),而Optimization-Based、WCT和AdaIN生成的風(fēng)格化圖像都會(huì)存在不同程度的語(yǔ)義內(nèi)容信息丟失問(wèn)題,這表明SANet和ArtFlow在風(fēng)格化過(guò)程中對(duì)于語(yǔ)義內(nèi)容信息保留的有效性.進(jìn)一步可發(fā)現(xiàn),WCT、AdaIN、Avatar-Net、SANet、ArtFlow生成的風(fēng)格化圖像和參考圖像的風(fēng)格一致性更高,而Optimization-Based生成的風(fēng)格化圖像和參考圖像的風(fēng)格一致性存在較大波動(dòng),表明Optimization-Based得到的風(fēng)格化圖像的質(zhì)量會(huì)較依賴于優(yōu)化過(guò)程中的迭代次數(shù),向不同風(fēng)格轉(zhuǎn)換時(shí)需要的迭代次數(shù)存在較大差異.

    (a)內(nèi)容圖像(a)Content images

    3.2 基于域的圖像風(fēng)格化方法對(duì)比

    基于域的圖像風(fēng)格化方法都能實(shí)現(xiàn)實(shí)時(shí)的圖像風(fēng)格化,生成一幅風(fēng)格化圖像所需時(shí)間都在一個(gè)量級(jí),因此通常只對(duì)各方法的風(fēng)格化結(jié)果進(jìn)行定量和定性的對(duì)比.

    本文選取CycleGAN[10]、UNIT[45]、U-GAT-IT[47]、Council-GAN[48]、CUT(Contrastive Unpaired Transla- tion)[50]和SPatchGAN[51],在selfie2-anime、Celeb- A2anime、vangogh2photo、monet2photo數(shù)據(jù)集上進(jìn)行對(duì)比.

    selfie2anime數(shù)據(jù)集在U-GAT-IT[47]中被使用,包含人臉和動(dòng)漫人臉兩種風(fēng)格.訓(xùn)練集包含3 400幅人臉圖像和3 400幅動(dòng)漫人臉圖像.測(cè)試集包含100幅人臉圖像和100幅動(dòng)漫人臉圖像.

    CelabA2anime數(shù)據(jù)集是本文構(gòu)建的,人臉圖像從CelebA數(shù)據(jù)集上篩選,動(dòng)漫人臉圖像來(lái)自selfie2-anime數(shù)據(jù)集,同樣包含人臉和動(dòng)漫人臉兩種風(fēng)格.訓(xùn)練集包含3 400幅人臉圖像和3 400幅動(dòng)漫人臉圖像.測(cè)試集包含100幅人臉圖像和100幅動(dòng)漫人臉圖像.

    vangogh2photo數(shù)據(jù)集在CycleGAN[10]中被使用,包含藝術(shù)圖像和照片兩種風(fēng)格.訓(xùn)練集包含400幅藝術(shù)圖像和6 287幅照片圖像.測(cè)試集包含400幅藝術(shù)圖像和751幅照片圖像.

    monet2photo數(shù)據(jù)集在DRIT[40]中被使用,同樣包含藝術(shù)圖像和照片兩種風(fēng)格.訓(xùn)練集包含1 811幅藝術(shù)圖像和6 452幅照片圖像.測(cè)試集包含400幅藝術(shù)圖像和751幅照片圖像.

    在定量對(duì)比方面,采用的定量指標(biāo)分別為FID(Frechet Inception Distance)和結(jié)構(gòu)相似性(Structural Similarity, SSIM).FID指目標(biāo)域圖像和風(fēng)格化圖像特征之間的最大均方差,這里特征是采用 Inception V3網(wǎng)絡(luò)[52]提取的.FID值越低表示目標(biāo)域圖像和風(fēng)格化圖像之間的風(fēng)格一致性越高.SSIM指源域圖像和風(fēng)格化圖像之間的結(jié)構(gòu)相似度,包括亮度、對(duì)比度和結(jié)構(gòu).SSIM值越高,表示源域圖像和風(fēng)格化圖像的結(jié)構(gòu)一致性越高.

    各方法的FID、SSIM值對(duì)比如表4所示,表中黑體數(shù)字表示最優(yōu)值.

    表4 各方法的FID和SSIM值對(duì)比Table 4 Comparison of FID score and SSIM score of different methods

    由表4可知,對(duì)比FID值可發(fā)現(xiàn),各方法在不同類型的圖像風(fēng)格化任務(wù)上表現(xiàn)存在差異,在selfie2anime、CelebA2anime數(shù)據(jù)集上從人臉到動(dòng)漫人臉的圖像風(fēng)格化任務(wù)中,SPatchGAN的FID值均最低,CUT、U-GAT-IT、Council-GAN、CycleGAN、UNIT的FID值依次升高,表明U-GAT-IT生成的動(dòng)漫人臉圖像和目標(biāo)動(dòng)漫人臉域的風(fēng)格一致性最高,CUT、U-GAT-IT、Council-GAN、CycleGAN和UNIT生成的動(dòng)漫人臉圖像和目標(biāo)動(dòng)漫人臉域的風(fēng)格一致性依次降低.在vangogh2photo、monet2photo數(shù)據(jù)集上從藝術(shù)圖像到照片的圖像風(fēng)格化任務(wù)中,UNIT的FID值均最低,SPatchGAN、CUT、U-GAT-IT、Council-GAN和CycleGAN的FID值依次升高,表明UNIT生成的照片圖像和目標(biāo)照片域的風(fēng)格一致性最高,SPatch-GAN、CUT 、U-GAT-IT、Council-GAN和CycleGAN生成的照片圖像和目標(biāo)照片域的風(fēng)格一致性依次降低.

    對(duì)比SSIM值可發(fā)現(xiàn),各方法在不同類型的圖像風(fēng)格化任務(wù)上的表現(xiàn)同樣存在差異,在selfie2-anime、CelebA2anime數(shù)據(jù)集上從人臉到動(dòng)漫人臉的圖像風(fēng)格化任務(wù)中,SPatchGAN的SSIM值均最高,CUT、U-GAT-IT、CycleGAN、Council-GAN、UNIT的SSIM值依次降低,表明SPatchGAN生成的動(dòng)漫人臉圖像和原始人臉圖像的結(jié)構(gòu)一致性最高,CUT、U-GAT-IT、CycleGAN、Council-GAN、UNIT生成的動(dòng)漫人臉圖像和原始人臉圖像的結(jié)構(gòu)一致性依次降低.在vangogh2photo、monet2photo數(shù)據(jù)集上從藝術(shù)圖像到照片的圖像風(fēng)格化任務(wù)中,U-GAT-IT和SPatch-GAN的SSIM值分別取得最高值,Council-GAN、CUT、UNIT、CycleGAN的SSIM值依次降低,表明U-GAT-IT和SPatchGAN生成的照片圖像和原始藝術(shù)圖像的結(jié)構(gòu)一致性較高,Council-GAN、CUT、UNIT、CycleGAN生成的照片圖像和原始藝術(shù)圖像的結(jié)構(gòu)一致性依次降低.

    各方法在4個(gè)數(shù)據(jù)集上生成的風(fēng)格化圖像對(duì)比分別如圖8和圖9所示.由圖可發(fā)現(xiàn),在selfie2-anime、CelebA2anime數(shù)據(jù)集上從人臉到動(dòng)漫人臉的圖像風(fēng)格化任務(wù)中,SPatchGAN、CUT、U-GAT-IT、Council-GAN生成的動(dòng)漫人臉圖像質(zhì)量更高,在語(yǔ)義內(nèi)容信息的保留和風(fēng)格一致性上表現(xiàn)更優(yōu),而UNIT和CycleGAN生成的動(dòng)漫人臉圖像質(zhì)量相對(duì)較低,在語(yǔ)義內(nèi)容信息的保留和風(fēng)格一致性上存在不同程度的問(wèn)題,特別是生成動(dòng)漫人臉的頭發(fā)和鬢角處會(huì)出現(xiàn)較大的失真.在vangogh2photo、monet2-photo數(shù)據(jù)集上從藝術(shù)圖像到照片的圖像風(fēng)格化任務(wù)中,SPatchGAN、U-GAT-IT、UNIT生成的照片圖像質(zhì)量更高,在語(yǔ)義內(nèi)容信息的保留和風(fēng)格一致性上表現(xiàn)更優(yōu),而CUT、Council-GAN、CycleGAN生成的照片圖像質(zhì)量相對(duì)較低,在語(yǔ)義內(nèi)容信息的保留和風(fēng)格一致性上同樣存在一些問(wèn)題,如CUT、Council-GAN、CycleGAN生成的照片圖像會(huì)出現(xiàn)嚴(yán)重的語(yǔ)義內(nèi)容信息丟失問(wèn)題.

    整體上,各方法在不同類型的圖像風(fēng)格化任務(wù)上的表現(xiàn)存在差異,SPatchGAN、Council-GAN、UGA-TIT綜合表現(xiàn)更優(yōu),表明SPatchGAN中提出的基于統(tǒng)計(jì)特征的判別器能有效幫助模型學(xué)習(xí)目標(biāo)風(fēng)格的分布,U-GAT-IT中提出的注意力機(jī)制和AdaLIN在風(fēng)格化過(guò)程中能幫助模型更好地學(xué)習(xí)目標(biāo)風(fēng)格,對(duì)語(yǔ)義內(nèi)容和風(fēng)格的控制更精確,Council-GAN中提出代替循環(huán)一致性約束的多個(gè)GAN的協(xié)同約束更適合圖像風(fēng)格化任務(wù),能幫助模型更好地學(xué)習(xí)目標(biāo)風(fēng)格.UNIT在從藝術(shù)圖像到照片的圖像風(fēng)格化任務(wù)上表現(xiàn)更優(yōu),表明這兩類風(fēng)格的特征潛層空間一致性較高,特征潛層空間共享的假設(shè)更適合此類風(fēng)格化任務(wù).

    (a)原始圖像(a)Original images

    (a)原始圖像(a)Original images

    4 問(wèn)題與展望

    4.1 存在的問(wèn)題

    盡管已有的基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法獲得較高質(zhì)量的風(fēng)格化圖像,但仍存在一些問(wèn)題.

    1)泛化性難以保證.這是基于深度神經(jīng)網(wǎng)絡(luò)的方法在實(shí)際應(yīng)用中都會(huì)存在的問(wèn)題.基于深度神經(jīng)網(wǎng)絡(luò)的風(fēng)格化模型訓(xùn)練完成后,在實(shí)際應(yīng)用時(shí),對(duì)于在訓(xùn)練中未出現(xiàn)過(guò)的、與訓(xùn)練數(shù)據(jù)集中的圖像差異較大的圖像,模型生成的風(fēng)格化圖像質(zhì)量較低,會(huì)出現(xiàn)不同程度的失真.提高圖像風(fēng)格化方法的泛化性仍是圖像風(fēng)格化研究領(lǐng)域的難點(diǎn)問(wèn)題.

    2)欠風(fēng)格化和過(guò)度風(fēng)格化問(wèn)題.盡管已有的圖像風(fēng)格化方法在一定程度上解決風(fēng)格化過(guò)程的欠風(fēng)格化和過(guò)度風(fēng)格化問(wèn)題,并獲得較高質(zhì)量的風(fēng)格化圖像,但是當(dāng)參考圖像和原始圖像差距較大時(shí),該問(wèn)題仍不能得到完全解決.生成的風(fēng)格化圖像要么出現(xiàn)欠風(fēng)格化問(wèn)題,保留過(guò)多原始圖像的風(fēng)格信息,和參考圖像的風(fēng)格一致性較低,要么出現(xiàn)過(guò)度風(fēng)格化問(wèn)題,丟失較多原始圖像的語(yǔ)義內(nèi)容信息.解決該問(wèn)題是圖像風(fēng)格化研究領(lǐng)域急需解決的問(wèn)題.

    3)難以學(xué)到想要的風(fēng)格.當(dāng)采用GAN的風(fēng)格化模型訓(xùn)練時(shí),模型收斂后,不同迭代周期可能會(huì)學(xué)到不同的風(fēng)格分布,導(dǎo)致同幅源域圖像生成的風(fēng)格化圖像可能會(huì)存在較大差異,難以學(xué)到想要的風(fēng)格.在模型收斂后學(xué)到基本相同的風(fēng)格分布或?qū)W到想要的風(fēng)格,是圖像風(fēng)格化研究領(lǐng)域需進(jìn)一步研究的問(wèn)題.

    4)缺乏可解釋性.雖然基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法可從人類認(rèn)知的角度進(jìn)行風(fēng)格的定義和轉(zhuǎn)換,根據(jù)圖像間的相似性定義風(fēng)格,利用訓(xùn)練完成的深度神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)風(fēng)格轉(zhuǎn)換,有一定的可解釋性.但是,風(fēng)格轉(zhuǎn)換是在由深度神經(jīng)網(wǎng)絡(luò)映射的潛層空間上進(jìn)行,而潛層空間中特征的含義難以解釋,不同方法潛層空間中特征的含義可能會(huì)存在較大的差異,導(dǎo)致這類方法仍不具備可以讓人類能理解的解釋性.

    5)設(shè)計(jì)缺乏理論指導(dǎo).雖然近年來(lái)圖像風(fēng)格化受到學(xué)者們的廣泛關(guān)注,并取得不錯(cuò)成果,但是關(guān)于圖像風(fēng)格化的理論研究卻很少.大部分方法設(shè)計(jì)的初衷都是來(lái)源于人類認(rèn)知過(guò)程中的啟發(fā)或猜測(cè),并無(wú)理論保證或指導(dǎo).

    4.2 未來(lái)展望

    通過(guò)對(duì)當(dāng)前基于深度神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格化方法的梳理及已有相關(guān)方法存在問(wèn)題的分析,可展望未來(lái)圖像風(fēng)格化領(lǐng)域的研究方向.

    1)從數(shù)據(jù)和模型兩個(gè)角度提升圖像風(fēng)格化模型的泛化性.在數(shù)據(jù)層面,一方面增加訓(xùn)練時(shí)的數(shù)據(jù)量,即增加訓(xùn)練數(shù)據(jù)集上圖像的種類數(shù),另一方面對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)操作,如翻轉(zhuǎn)、裁剪等操作,提高數(shù)據(jù)的多樣性.在模型層面,考慮多個(gè)參考圖像在模型映射的特征潛層空間進(jìn)行線性插值等操作,進(jìn)行風(fēng)格特征的融合,使模型能學(xué)習(xí)更多樣的風(fēng)格特征.從數(shù)據(jù)和模型兩個(gè)角度出發(fā),使模型學(xué)習(xí)更多種類的風(fēng)格和風(fēng)格特征,提高風(fēng)格化模型的泛化性.

    2)從網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)兩個(gè)角度解決欠風(fēng)格化和過(guò)度風(fēng)格化問(wèn)題.在網(wǎng)絡(luò)結(jié)構(gòu)層面,采用級(jí)聯(lián)的特征融合結(jié)構(gòu),如將WCT、AdaIN和SANet進(jìn)行相應(yīng)的聯(lián)合,在風(fēng)格化過(guò)程中進(jìn)行更精細(xì)化的特征融合.在損失函數(shù)層面,設(shè)計(jì)損失函數(shù),對(duì)生成的風(fēng)格化圖像的語(yǔ)義內(nèi)容信息和風(fēng)格信息進(jìn)行更嚴(yán)格的約束,如使用多細(xì)粒度的輪廓損失約束風(fēng)格化圖像和原始圖像多細(xì)粒度輪廓的一致性,使用多尺度的風(fēng)格特征損失,約束風(fēng)格化圖像和參考圖像在各層多個(gè)尺度風(fēng)格特征上的一致性.

    3)建立不同風(fēng)格化圖像的聯(lián)系,學(xué)習(xí)想要的風(fēng)格.例如,在模型訓(xùn)練中后期,約束同幅源域圖像在不同迭代周期中生成的風(fēng)格化圖像的一致性,降低差異性,使模型能學(xué)到基本相同的風(fēng)格分布或?qū)W到想要的風(fēng)格,不會(huì)因?yàn)榈芷诘牟煌鴮W(xué)到不同的風(fēng)格分布.

    4)研究可解釋的圖像風(fēng)格化方法.已有多數(shù)圖像風(fēng)格化方法常只從人類認(rèn)知角度給出簡(jiǎn)單的定性解釋,說(shuō)明方法在風(fēng)格轉(zhuǎn)換方面的有效性.雖然風(fēng)格化中間過(guò)程的一些可視化結(jié)果可部分說(shuō)明為什么這些方法會(huì)起作用,但方法中的網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)和訓(xùn)練策略等如何在風(fēng)格化過(guò)程中起作用缺乏可靠的解釋.因此,設(shè)計(jì)可解釋的圖像風(fēng)格化方法,更好地讓風(fēng)格化模型像人一樣學(xué)習(xí)是未來(lái)值得研究的問(wèn)題.

    5)基于參考的圖像風(fēng)格化方法能對(duì)風(fēng)格化過(guò)程進(jìn)行更精確的控制,基于域的圖像風(fēng)格化方法能學(xué)習(xí)更魯棒的風(fēng)格分布,因此可結(jié)合這兩種方法.采用基于域的圖像風(fēng)格化方法中風(fēng)格的定義方式,即風(fēng)格由目標(biāo)域的所有圖像共同定義,但采用基于參考的圖像風(fēng)格化方法的網(wǎng)絡(luò)框架,添加額外的約束.例如,在模型訓(xùn)練時(shí),每次迭代從源域隨機(jī)采樣一幅圖像作為原始圖像,從目標(biāo)域隨機(jī)采樣兩幅圖像作為參考圖像,對(duì)于模型生成的兩幅風(fēng)格化圖像,通過(guò)相應(yīng)的損失函數(shù)約束其風(fēng)格的一致性,即確保模型學(xué)到完全由目標(biāo)域所有圖像共同定義的風(fēng)格.在推理時(shí),對(duì)于同幅原始圖像,從目標(biāo)域隨機(jī)選取一幅圖像作為參考圖像,在一定程度上可保證模型生成的風(fēng)格化圖像風(fēng)格的一致性,學(xué)到更魯棒的風(fēng)格分布.

    猜你喜歡
    風(fēng)格化源域一致性
    多源域適應(yīng)方法綜述
    關(guān)注減污降碳協(xié)同的一致性和整體性
    公民與法治(2022年5期)2022-07-29 00:47:28
    注重教、學(xué)、評(píng)一致性 提高一輪復(fù)習(xí)效率
    IOl-master 700和Pentacam測(cè)量Kappa角一致性分析
    基于參數(shù)字典的多源域自適應(yīng)學(xué)習(xí)算法
    修拉的點(diǎn)的可能性與不可能性
    樸贊郁導(dǎo)演與《親切的金子》
    淺析插畫造型的風(fēng)格化表現(xiàn)
    東方教育(2016年3期)2016-12-14 20:10:11
    結(jié)合原創(chuàng)漫畫《百鬼夜行》談動(dòng)漫的教學(xué)
    戲劇之家(2016年16期)2016-09-28 18:36:29
    基于事件觸發(fā)的多智能體輸入飽和一致性控制
    少妇人妻一区二区三区视频| www.av在线官网国产| 狂野欧美激情性xxxx在线观看| 成人毛片60女人毛片免费| 久久久精品免费免费高清| 精品人妻熟女av久视频| 精品国产国语对白av| 亚洲av.av天堂| 在线观看免费视频网站a站| 麻豆乱淫一区二区| 精品久久久精品久久久| 欧美性感艳星| 久久精品国产自在天天线| 日韩欧美 国产精品| 国产在线视频一区二区| 亚洲精华国产精华液的使用体验| av在线app专区| av线在线观看网站| 三级国产精品片| 熟女人妻精品中文字幕| 男人和女人高潮做爰伦理| 简卡轻食公司| 久久99精品国语久久久| 大又大粗又爽又黄少妇毛片口| 亚洲av成人精品一二三区| 欧美97在线视频| 精品卡一卡二卡四卡免费| 久久国产乱子免费精品| 亚洲国产精品999| 91成人精品电影| 最后的刺客免费高清国语| 久久99蜜桃精品久久| 另类亚洲欧美激情| 国产淫片久久久久久久久| 激情五月婷婷亚洲| 婷婷色麻豆天堂久久| 欧美一级a爱片免费观看看| 桃花免费在线播放| 日韩成人伦理影院| 久久精品国产亚洲网站| 天堂8中文在线网| 日本色播在线视频| 人人妻人人爽人人添夜夜欢视频 | 狂野欧美激情性bbbbbb| √禁漫天堂资源中文www| 日本免费在线观看一区| 国产在线一区二区三区精| 校园人妻丝袜中文字幕| 国产精品国产三级专区第一集| 精品国产乱码久久久久久小说| 日韩不卡一区二区三区视频在线| 99视频精品全部免费 在线| 男女无遮挡免费网站观看| 一本久久精品| 最近最新中文字幕免费大全7| 国产男女超爽视频在线观看| 欧美97在线视频| 狂野欧美白嫩少妇大欣赏| 国产亚洲91精品色在线| 成年美女黄网站色视频大全免费 | 国产深夜福利视频在线观看| 高清不卡的av网站| 日韩伦理黄色片| 九草在线视频观看| 国产高清三级在线| 狂野欧美激情性bbbbbb| 国国产精品蜜臀av免费| 日韩人妻高清精品专区| 久久婷婷青草| 欧美3d第一页| 国产成人a∨麻豆精品| 久久精品久久久久久噜噜老黄| 黄色一级大片看看| 99热这里只有精品一区| 亚洲精品日本国产第一区| 色哟哟·www| 美女大奶头黄色视频| 97超碰精品成人国产| videos熟女内射| 最近2019中文字幕mv第一页| 一级a做视频免费观看| 欧美精品一区二区大全| 国产av一区二区精品久久| 久久这里有精品视频免费| 丝袜喷水一区| 免费黄色在线免费观看| 一区二区三区四区激情视频| 久久青草综合色| 国产成人91sexporn| 美女国产视频在线观看| 草草在线视频免费看| 天堂中文最新版在线下载| 国产av精品麻豆| 日韩熟女老妇一区二区性免费视频| 两个人免费观看高清视频 | 男女无遮挡免费网站观看| 99热这里只有精品一区| 丝袜在线中文字幕| 妹子高潮喷水视频| 欧美3d第一页| 亚洲欧美日韩另类电影网站| 色婷婷久久久亚洲欧美| 简卡轻食公司| 在线免费观看不下载黄p国产| 久久久久精品性色| 91久久精品国产一区二区成人| 久久综合国产亚洲精品| 久久久久久伊人网av| av福利片在线| 日日啪夜夜撸| 大话2 男鬼变身卡| 亚洲成人av在线免费| 欧美日本中文国产一区发布| 尾随美女入室| 午夜视频国产福利| 人人妻人人爽人人添夜夜欢视频 | 精品一区二区三卡| 精品一区二区三卡| 少妇的逼水好多| 欧美一级a爱片免费观看看| 韩国高清视频一区二区三区| 亚洲精品国产av成人精品| 国产亚洲最大av| 青青草视频在线视频观看| 亚洲高清免费不卡视频| 日本欧美国产在线视频| 少妇熟女欧美另类| 涩涩av久久男人的天堂| 特大巨黑吊av在线直播| 妹子高潮喷水视频| 免费看av在线观看网站| 韩国高清视频一区二区三区| 超碰97精品在线观看| 中文字幕亚洲精品专区| 如何舔出高潮| 乱人伦中国视频| 国产一区有黄有色的免费视频| 欧美变态另类bdsm刘玥| 国产探花极品一区二区| 国产在线视频一区二区| .国产精品久久| 三级经典国产精品| 波野结衣二区三区在线| av天堂中文字幕网| 纵有疾风起免费观看全集完整版| 国产淫片久久久久久久久| 亚洲精品色激情综合| 欧美bdsm另类| 我的老师免费观看完整版| 久久亚洲国产成人精品v| 男人添女人高潮全过程视频| 欧美成人午夜免费资源| 亚洲国产色片| 黄色毛片三级朝国网站 | 日韩亚洲欧美综合| 日韩成人av中文字幕在线观看| 亚洲内射少妇av| 又大又黄又爽视频免费| 日韩一本色道免费dvd| 汤姆久久久久久久影院中文字幕| 国产黄片美女视频| 国产精品一区二区三区四区免费观看| 国产日韩欧美亚洲二区| 国产片特级美女逼逼视频| 亚洲精品久久午夜乱码| 我要看日韩黄色一级片| 桃花免费在线播放| 黄片无遮挡物在线观看| 国产黄色免费在线视频| 你懂的网址亚洲精品在线观看| 日韩在线高清观看一区二区三区| av在线app专区| av线在线观看网站| 一级二级三级毛片免费看| 一级毛片 在线播放| 亚洲精品日韩在线中文字幕| 国产成人精品一,二区| 黄色怎么调成土黄色| 色哟哟·www| 成人国产av品久久久| 观看免费一级毛片| 精品99又大又爽又粗少妇毛片| 色婷婷久久久亚洲欧美| 黄色毛片三级朝国网站 | 免费黄频网站在线观看国产| 国产一级毛片在线| 韩国高清视频一区二区三区| 老司机亚洲免费影院| 一二三四中文在线观看免费高清| 黄色怎么调成土黄色| 97在线视频观看| 黑人高潮一二区| 日韩中文字幕视频在线看片| 视频区图区小说| 观看av在线不卡| 欧美bdsm另类| 免费人妻精品一区二区三区视频| av.在线天堂| 肉色欧美久久久久久久蜜桃| 不卡视频在线观看欧美| 久久久欧美国产精品| 久久毛片免费看一区二区三区| 亚洲图色成人| 亚洲国产欧美日韩在线播放 | 一级毛片黄色毛片免费观看视频| 成年美女黄网站色视频大全免费 | 自线自在国产av| 国产日韩欧美视频二区| 国产色婷婷99| 在线精品无人区一区二区三| 大陆偷拍与自拍| 两个人的视频大全免费| 亚洲综合色惰| 久久综合国产亚洲精品| 男人爽女人下面视频在线观看| 在线亚洲精品国产二区图片欧美 | 国产视频内射| 少妇 在线观看| 中文字幕久久专区| 成年人免费黄色播放视频 | 久久99蜜桃精品久久| 日韩精品有码人妻一区| av又黄又爽大尺度在线免费看| 亚洲国产精品一区三区| 国产淫片久久久久久久久| 中文字幕制服av| 欧美一级a爱片免费观看看| 18禁动态无遮挡网站| 欧美精品高潮呻吟av久久| 国产av一区二区精品久久| 亚洲国产日韩一区二区| 国产熟女欧美一区二区| 亚洲精品乱码久久久久久按摩| 精华霜和精华液先用哪个| 丰满人妻一区二区三区视频av| 久久影院123| 亚洲高清免费不卡视频| 久久精品久久久久久久性| 丝袜喷水一区| 日韩,欧美,国产一区二区三区| 天天躁夜夜躁狠狠久久av| 极品人妻少妇av视频| 啦啦啦中文免费视频观看日本| 最近的中文字幕免费完整| 国产亚洲av片在线观看秒播厂| 久久久久国产网址| 91午夜精品亚洲一区二区三区| 日本av免费视频播放| 2018国产大陆天天弄谢| 国产在视频线精品| 免费黄网站久久成人精品| 一个人看视频在线观看www免费| 成年人免费黄色播放视频 | 欧美日韩精品成人综合77777| 午夜日本视频在线| 日韩制服骚丝袜av| 国产亚洲午夜精品一区二区久久| 成人18禁高潮啪啪吃奶动态图 | 日韩精品有码人妻一区| 成人特级av手机在线观看| 久久97久久精品| 国产 精品1| tube8黄色片| 国产在线免费精品| 街头女战士在线观看网站| 国产精品欧美亚洲77777| 性色avwww在线观看| 超碰97精品在线观看| 少妇的逼水好多| 制服丝袜香蕉在线| 我的女老师完整版在线观看| 久久6这里有精品| 18禁动态无遮挡网站| 人人妻人人爽人人添夜夜欢视频 | 国产 一区精品| 免费av中文字幕在线| 国产精品久久久久成人av| 又黄又爽又刺激的免费视频.| 人人妻人人澡人人爽人人夜夜| 欧美日韩在线观看h| 久久ye,这里只有精品| 女性被躁到高潮视频| 九九爱精品视频在线观看| 国产成人一区二区在线| 欧美精品人与动牲交sv欧美| 亚洲av.av天堂| 在线观看美女被高潮喷水网站| 亚洲美女黄色视频免费看| 五月玫瑰六月丁香| 777米奇影视久久| 观看美女的网站| 久久6这里有精品| 美女cb高潮喷水在线观看| 欧美3d第一页| 亚洲图色成人| 国产成人一区二区在线| 久久久国产精品麻豆| 亚洲国产精品一区二区三区在线| 日韩一本色道免费dvd| 中文欧美无线码| 少妇的逼好多水| 国产男人的电影天堂91| 青春草亚洲视频在线观看| 91精品国产国语对白视频| 最近手机中文字幕大全| 亚洲国产欧美日韩在线播放 | 久久久国产一区二区| 国精品久久久久久国模美| 亚洲va在线va天堂va国产| 国产精品久久久久久久久免| 国产亚洲av片在线观看秒播厂| 亚洲人成网站在线观看播放| 精品人妻熟女毛片av久久网站| 亚洲成色77777| 欧美日韩精品成人综合77777| 一级毛片 在线播放| 亚洲国产精品一区三区| av卡一久久| 国产美女午夜福利| 亚洲精品国产av蜜桃| 国产免费又黄又爽又色| 成人亚洲精品一区在线观看| 国产真实伦视频高清在线观看| 欧美日韩国产mv在线观看视频| 欧美精品高潮呻吟av久久| 人妻制服诱惑在线中文字幕| 午夜福利在线观看免费完整高清在| 这个男人来自地球电影免费观看 | 免费在线观看成人毛片| 欧美成人午夜免费资源| 日韩在线高清观看一区二区三区| 看十八女毛片水多多多| 亚洲av日韩在线播放| 少妇人妻 视频| 九色成人免费人妻av| 午夜福利影视在线免费观看| 97精品久久久久久久久久精品| 久久精品国产a三级三级三级| a级一级毛片免费在线观看| 久久女婷五月综合色啪小说| 一级,二级,三级黄色视频| 日韩精品有码人妻一区| 人人澡人人妻人| 国产精品熟女久久久久浪| 中文在线观看免费www的网站| 中文资源天堂在线| 日日啪夜夜撸| 亚洲av男天堂| 日日爽夜夜爽网站| 亚洲国产色片| 国产乱人偷精品视频| 久久亚洲国产成人精品v| 亚洲电影在线观看av| 日本色播在线视频| 一边亲一边摸免费视频| 成人无遮挡网站| 麻豆乱淫一区二区| 久久毛片免费看一区二区三区| 九九在线视频观看精品| 女人精品久久久久毛片| 夫妻午夜视频| 精品少妇久久久久久888优播| 国产精品嫩草影院av在线观看| 国产精品蜜桃在线观看| 热re99久久精品国产66热6| 乱人伦中国视频| 新久久久久国产一级毛片| 久久这里有精品视频免费| 欧美最新免费一区二区三区| 欧美亚洲 丝袜 人妻 在线| 亚州av有码| av卡一久久| 极品教师在线视频| 日韩一区二区视频免费看| 成人黄色视频免费在线看| 日日摸夜夜添夜夜爱| 又爽又黄a免费视频| 亚洲第一区二区三区不卡| 国产精品免费大片| 在线观看www视频免费| 亚洲国产日韩一区二区| 亚洲国产av新网站| 国产精品久久久久成人av| 人妻 亚洲 视频| 亚洲欧美一区二区三区国产| 狂野欧美白嫩少妇大欣赏| 亚洲无线观看免费| 日本色播在线视频| 国模一区二区三区四区视频| 日本欧美视频一区| 国产黄色免费在线视频| 91在线精品国自产拍蜜月| 国产欧美日韩一区二区三区在线 | 女人久久www免费人成看片| 18禁裸乳无遮挡动漫免费视频| 乱系列少妇在线播放| 99国产精品免费福利视频| 亚洲欧美成人综合另类久久久| 国产精品久久久久久精品电影小说| 高清视频免费观看一区二区| 桃花免费在线播放| 国产精品99久久99久久久不卡 | 精品午夜福利在线看| 亚洲国产精品成人久久小说| 少妇的逼水好多| 国产黄频视频在线观看| 免费观看性生交大片5| 在线亚洲精品国产二区图片欧美 | 黄色一级大片看看| 精品午夜福利在线看| 最近的中文字幕免费完整| 黄色一级大片看看| 免费不卡的大黄色大毛片视频在线观看| 黄色视频在线播放观看不卡| 欧美人与善性xxx| 我的女老师完整版在线观看| 亚洲欧美日韩另类电影网站| 大香蕉久久网| 精品午夜福利在线看| 永久免费av网站大全| 成人影院久久| 国产日韩欧美亚洲二区| 日韩人妻高清精品专区| 亚洲情色 制服丝袜| 亚洲图色成人| 精品人妻偷拍中文字幕| 视频中文字幕在线观看| 新久久久久国产一级毛片| 亚洲一区二区三区欧美精品| 丰满乱子伦码专区| 极品教师在线视频| 成年美女黄网站色视频大全免费 | 一区二区av电影网| 亚洲欧美中文字幕日韩二区| 久久久欧美国产精品| 26uuu在线亚洲综合色| av不卡在线播放| 赤兔流量卡办理| 搡女人真爽免费视频火全软件| 久久精品夜色国产| 成人免费观看视频高清| 欧美另类一区| 在线观看www视频免费| 男女免费视频国产| 午夜久久久在线观看| 青春草国产在线视频| 久久久国产精品麻豆| 啦啦啦在线观看免费高清www| 青春草国产在线视频| 九九在线视频观看精品| 久久久久人妻精品一区果冻| 乱人伦中国视频| 男女啪啪激烈高潮av片| 亚洲欧美日韩卡通动漫| av视频免费观看在线观看| 日韩不卡一区二区三区视频在线| 国产精品一区www在线观看| 三级经典国产精品| 成人亚洲欧美一区二区av| 最近最新中文字幕免费大全7| 久久久久国产精品人妻一区二区| 亚洲中文av在线| 免费av中文字幕在线| 午夜精品国产一区二区电影| av网站免费在线观看视频| 毛片一级片免费看久久久久| 美女中出高潮动态图| 99热国产这里只有精品6| 黄色视频在线播放观看不卡| 色94色欧美一区二区| 观看美女的网站| 成年av动漫网址| 日本免费在线观看一区| av一本久久久久| 一级av片app| av天堂中文字幕网| 777米奇影视久久| 国产69精品久久久久777片| 九草在线视频观看| 十分钟在线观看高清视频www | 午夜激情福利司机影院| 国产伦在线观看视频一区| 国产欧美日韩综合在线一区二区 | 丝袜在线中文字幕| 熟女电影av网| 男女边吃奶边做爰视频| 三上悠亚av全集在线观看 | 色视频在线一区二区三区| 亚洲国产精品国产精品| 国产女主播在线喷水免费视频网站| 黄色毛片三级朝国网站 | 最黄视频免费看| av不卡在线播放| 日韩成人伦理影院| 大码成人一级视频| 青春草国产在线视频| 国产黄片美女视频| 有码 亚洲区| 亚洲国产成人一精品久久久| 交换朋友夫妻互换小说| 午夜免费鲁丝| 涩涩av久久男人的天堂| 男的添女的下面高潮视频| 国产精品女同一区二区软件| 国产一区有黄有色的免费视频| 日日啪夜夜撸| 插阴视频在线观看视频| 国产精品人妻久久久久久| 少妇人妻 视频| 国产日韩欧美视频二区| 国产精品一区二区在线观看99| 欧美国产精品一级二级三级 | 男人舔奶头视频| 一级毛片我不卡| 欧美变态另类bdsm刘玥| 99久久精品热视频| 久久精品夜色国产| 波野结衣二区三区在线| 人人妻人人添人人爽欧美一区卜| 丁香六月天网| 欧美日韩在线观看h| 国产精品熟女久久久久浪| 精品人妻熟女毛片av久久网站| 国产亚洲午夜精品一区二区久久| 三上悠亚av全集在线观看 | 美女内射精品一级片tv| 国产又色又爽无遮挡免| 日韩中文字幕视频在线看片| 婷婷色av中文字幕| 制服丝袜香蕉在线| 91精品国产国语对白视频| 国产伦精品一区二区三区四那| 最黄视频免费看| 狂野欧美激情性bbbbbb| 久久国产精品大桥未久av | 精品视频人人做人人爽| 成人国产麻豆网| 韩国高清视频一区二区三区| 精品熟女少妇av免费看| 日日爽夜夜爽网站| 国产av一区二区精品久久| 99热网站在线观看| 国产爽快片一区二区三区| 边亲边吃奶的免费视频| 亚洲婷婷狠狠爱综合网| 欧美人与善性xxx| 高清av免费在线| 97在线人人人人妻| 少妇人妻一区二区三区视频| 下体分泌物呈黄色| 寂寞人妻少妇视频99o| 午夜福利视频精品| 午夜福利,免费看| 亚洲久久久国产精品| 久久人人爽人人爽人人片va| 高清在线视频一区二区三区| 国产极品天堂在线| 高清欧美精品videossex| 伊人久久精品亚洲午夜| 国产精品欧美亚洲77777| 国产色婷婷99| 国产伦精品一区二区三区视频9| 国产69精品久久久久777片| 只有这里有精品99| 在线 av 中文字幕| 最近中文字幕2019免费版| 美女内射精品一级片tv| 人人妻人人爽人人添夜夜欢视频 | av国产精品久久久久影院| 少妇被粗大的猛进出69影院 | 亚洲欧美日韩卡通动漫| 中文资源天堂在线| 男女国产视频网站| av在线老鸭窝| 99久久精品热视频| 97在线人人人人妻| 一级片'在线观看视频| 两个人免费观看高清视频 | videos熟女内射| 各种免费的搞黄视频| 久久精品国产鲁丝片午夜精品| 自拍偷自拍亚洲精品老妇| 亚洲人与动物交配视频| 亚洲国产精品一区二区三区在线| 毛片一级片免费看久久久久| 99国产精品免费福利视频| 18禁在线播放成人免费| 国产在线男女| 日本猛色少妇xxxxx猛交久久| 中文字幕人妻熟人妻熟丝袜美| 亚洲欧美精品自产自拍| 欧美另类一区| 亚洲丝袜综合中文字幕| 男女边吃奶边做爰视频| 精品一品国产午夜福利视频| 91精品伊人久久大香线蕉| 少妇的逼水好多| 久久ye,这里只有精品| 国产又色又爽无遮挡免| 激情五月婷婷亚洲| 午夜视频国产福利| 男女国产视频网站| 两个人免费观看高清视频 | 国产在线一区二区三区精| 亚洲av.av天堂| 国产日韩欧美亚洲二区| 黑人高潮一二区| 青春草视频在线免费观看| 夫妻午夜视频| 午夜福利,免费看| 啦啦啦视频在线资源免费观看| 国产高清不卡午夜福利| 亚洲婷婷狠狠爱综合网| av福利片在线观看| 人妻人人澡人人爽人人|