• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于聯(lián)合一致循環(huán)生成對(duì)抗網(wǎng)絡(luò)的人像著色

      2020-08-19 10:42:16劉昌通杜康寧
      關(guān)鍵詞:著色灰度損失

      劉昌通 ,曹 林 ,杜康寧

      1.北京信息科技大學(xué) 光電測(cè)試技術(shù)及儀器教育部重點(diǎn)實(shí)驗(yàn)室,北京 100101

      2.北京信息科技大學(xué) 信息與通信工程學(xué)院,北京 100101

      1 引言

      色彩是圖像的重要屬性,人眼對(duì)彩色圖像的敏感程度高于灰度圖像。因此,通過(guò)灰度圖像著色,可以使觀察者從著色圖像中獲得更多的信息,提高圖像的使用價(jià)值?;叶葓D像著色在視頻處理、影視制作、歷史照片還原等方面起著至關(guān)重要的作用,具有重要的研究?jī)r(jià)值。其中,人像著色是圖像著色的主要應(yīng)用領(lǐng)域,本文針對(duì)人像著色展開(kāi)了一系列的研究。

      傳統(tǒng)的圖像著色方法主要有基于局部顏色擴(kuò)展的方法[1-2]和基于顏色傳遞的方法[3-4]?;诰植款伾珨U(kuò)展的方法需要指定灰度圖像某一區(qū)域的彩色像素,將顏色擴(kuò)散至整幅待著色圖像。這一類(lèi)方法需要大量人為的工作,如顏色標(biāo)注等,且圖像著色的質(zhì)量過(guò)度依賴(lài)于人工著色技巧?;陬伾珎鬟f的方法消除了人為因素在圖像著色中的影響,通過(guò)一幅或者多幅顏色、場(chǎng)景相近的參考圖像,使顏色轉(zhuǎn)移至待著色圖像。傳統(tǒng)方法可以應(yīng)用在人像著色中,但這類(lèi)方法需要設(shè)定參考圖像,且著色的計(jì)算復(fù)雜度高。

      為了減小著色過(guò)程中人工因素的影響,傳統(tǒng)的著色方法已逐漸被基于深度學(xué)習(xí)的方法所取代。其中,Iizuka等人[5]使用雙通道網(wǎng)絡(luò),聯(lián)合圖像中的局部特征信息和全局先驗(yàn)信息,可以將任意尺寸的灰度圖像自動(dòng)著色。Larsson 等人[6]利用 VGG 神經(jīng)網(wǎng)絡(luò)[7],提取圖像的特征,來(lái)預(yù)測(cè)每個(gè)像素的顏色分布。Zhang 等人[8-9]先后提出針對(duì)像素點(diǎn)進(jìn)行分類(lèi)和基于用戶(hù)引導(dǎo)的灰度圖像著色方法。這一類(lèi)方法利用神經(jīng)網(wǎng)絡(luò)提取特征,但在訓(xùn)練過(guò)程中容易丟失局部信息,使特征表達(dá)不完整,限制了著色的效果。

      近年來(lái),生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)[10]在圖像生成領(lǐng)域取得了巨大的成功,相比較傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)[11],GAN 生成的圖像質(zhì)量更高。但GAN的訓(xùn)練不穩(wěn)定,容易出現(xiàn)模式崩潰。Zhu等[12]研究人員在文獻(xiàn)[13]的基礎(chǔ)上提出了循環(huán)生成對(duì)抗網(wǎng)絡(luò)(Cycle Generative Adversarial Network,Cycle-GAN),通過(guò)循環(huán)生成對(duì)抗的方式,提高訓(xùn)練網(wǎng)絡(luò)的穩(wěn)定性。

      綜上所述,針對(duì)復(fù)雜背景下人像誤著色的問(wèn)題,本文提出了聯(lián)合一致循環(huán)生成對(duì)抗網(wǎng)絡(luò)(Jonit Consistent Cyclic Generative Adversarial Network,JCCGAN)。該網(wǎng)絡(luò)在循環(huán)生成對(duì)抗網(wǎng)絡(luò)基礎(chǔ)上,聯(lián)合了一致性損失實(shí)現(xiàn)網(wǎng)絡(luò)整體的反向傳遞優(yōu)化,其生成網(wǎng)絡(luò)改用U型網(wǎng)絡(luò)(UNet)[14],并加入最小二乘損失,作為著色的優(yōu)化目標(biāo),提高圖像的生成細(xì)節(jié)。在判別網(wǎng)絡(luò)中,采用多層特征融合的方式提取圖像特征,使提取的特征表示更多圖像信息。最后在自建的CASIA-PlusColors 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果驗(yàn)證了本文方法的有效性。

      2 本文方法

      2.1 色彩空間

      在色彩空間中,基于顏色合色的RGB空間,不適應(yīng)人眼調(diào)色,只能比較亮度和色溫的視覺(jué)特性,不能直接反映圖像中光照信息的強(qiáng)弱。因此,大多著色方法中采用Lab色彩空間。

      其中,著色的過(guò)程是通過(guò)網(wǎng)絡(luò)模型,輸入給定寬高W×H的亮度L通道圖像XL,映射至色度通道a和b,預(yù)測(cè)值分別為,將網(wǎng)絡(luò)模型的輸出和L通道灰度重新合成一個(gè)新的三通道圖像,即得到的著色圖像為因而,訓(xùn)練著色模型最終的目標(biāo)是獲得的一種最優(yōu)映射關(guān)系。因此,本文將圖像從RGB 色彩空間轉(zhuǎn)換至基于人眼對(duì)顏色感覺(jué)的Lab色彩空間。

      2.2 網(wǎng)絡(luò)結(jié)構(gòu)

      傳統(tǒng)的GAN 是單向生成,采用單一的損失函數(shù)作為全局優(yōu)化目標(biāo),可能會(huì)將多個(gè)樣本映射為同一個(gè)分布,從而導(dǎo)致模式崩潰。CycleGAN 采用循環(huán)生成對(duì)抗的方式,有效地避免了傳統(tǒng)GAN 的這一不足。本文提出了聯(lián)合一致循環(huán)生成對(duì)抗網(wǎng)絡(luò)的人像著色方法。該方法在CycleGAN的基礎(chǔ)上,將兩個(gè)循環(huán)生成網(wǎng)絡(luò)重構(gòu)的數(shù)據(jù)組合,計(jì)算其與真實(shí)彩色圖像的距離,實(shí)現(xiàn)一致性損失對(duì)整個(gè)網(wǎng)絡(luò)的反向傳遞,加強(qiáng)了原有網(wǎng)絡(luò)的穩(wěn)定性。同時(shí),為了提高生成圖像信息的完整性,本文采用了UNet 網(wǎng)絡(luò)來(lái)改進(jìn)原有的生成網(wǎng)絡(luò),并將多特征融合的方法引入到判別網(wǎng)絡(luò)中,使提取的特征更多表示圖像的細(xì)節(jié)。

      2.2.1 著色網(wǎng)絡(luò)模型

      本文的著色網(wǎng)絡(luò)模型包含四個(gè)子網(wǎng)絡(luò),分別是:生成網(wǎng)絡(luò)G,負(fù)責(zé)將L通道灰度圖像映射至ab通道彩色分量XL→;生成網(wǎng)絡(luò)F,負(fù)責(zé)將ab通道彩色分量映射至L通道灰度圖像Xab→;判別網(wǎng)絡(luò)DX,用于判別區(qū)分L通道灰度圖像XL和生成網(wǎng)絡(luò)F生成的灰度圖像;判別網(wǎng)絡(luò)DY,用于區(qū)分真實(shí)的彩色圖像和生成的分量與L通道組合的彩色圖像 。該網(wǎng)絡(luò)的目標(biāo)是通過(guò)訓(xùn)練L通道分量{XL}i=1∈XL和ab通道彩色分量{Xab}i=1∈Xab,獲得最優(yōu)對(duì)應(yīng)關(guān)系G:XL→,即將L通道灰度圖像映射至ab通道彩色分量的最優(yōu)關(guān)系。網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

      以上的子網(wǎng)絡(luò)構(gòu)成了一對(duì)循環(huán)生成網(wǎng)絡(luò),其分別將輸入的樣本映射到中間域,然后將中間域的數(shù)據(jù)重構(gòu)回原有的域中。例如,輸入L通道灰度圖像XL,最終會(huì)被映射回灰度圖像F[G(xL)],中間域數(shù)據(jù)是生成的ab通道彩色分量。同樣,輸入為ab通道彩色分量Xab時(shí),最終也會(huì)被重構(gòu)回原有的域中G(F(Xab)),其中間域是F網(wǎng)絡(luò)生成的灰度圖像。

      在原始CycleGAN中,兩個(gè)循環(huán)生成網(wǎng)絡(luò)是相互獨(dú)立的,反向傳遞優(yōu)化網(wǎng)絡(luò)時(shí),循環(huán)生成網(wǎng)絡(luò)的一致性損失是分開(kāi)計(jì)算的。如圖1所示,本文的著色模型將兩個(gè)循環(huán)生成網(wǎng)絡(luò)重構(gòu)的數(shù)據(jù)結(jié)合,即將重構(gòu)的ab通道彩色分量G(F(Xab))與灰度分量F[G(xL)]重新組合,得到重構(gòu)的彩色圖像。然后計(jì)算其與輸入彩色圖像的L1距離作為網(wǎng)絡(luò)的聯(lián)合一致性損失,共同實(shí)現(xiàn)整個(gè)網(wǎng)絡(luò)的反向傳遞優(yōu)化。

      圖1 聯(lián)合一致循環(huán)生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)圖

      2.2.2 生成網(wǎng)絡(luò)

      傳統(tǒng)GAN 中,生成網(wǎng)絡(luò)僅由簡(jiǎn)單的卷積層和反卷積層構(gòu)成,提取特征時(shí)容易丟失圖像的局部信息,限制網(wǎng)絡(luò)的著色效果。如圖2 所示,為了避免上述問(wèn)題,本文的生成網(wǎng)絡(luò)采用U 型網(wǎng)絡(luò)(UNet),通過(guò)跳躍連接,將下采樣中每一層輸出的特征連接至對(duì)應(yīng)的上采樣層。其目的是將淺層信息直接傳遞到相同高度的反卷積層,形成更厚的特征,提升圖像的生成細(xì)節(jié)。

      圖2 生成網(wǎng)絡(luò)結(jié)構(gòu)圖

      生成網(wǎng)絡(luò)整體由上采樣和下采樣兩部分組成。其中下采樣部分共有5 層,濾波器的數(shù)量分別為[32,64,128,256,512]。如圖2所示,下采樣過(guò)程中,圖像特征每層經(jīng)過(guò)兩次卷積,濾波器大小為3×3,其目的是提取圖像紋理結(jié)構(gòu)等基本信息。卷積后連接批標(biāo)準(zhǔn)化(Batch Normalization,BN)層[15],目的是調(diào)整卷積后的數(shù)據(jù)分布,使卷積的輸出分布在激活函數(shù)近原點(diǎn)鄰域內(nèi),降低梯度彌散率,避免梯度消失的問(wèn)題。激活層本文采用帶泄露的線(xiàn)性整流函數(shù)(Leaky Rectified Linear Unit,LReLU),代替原本的線(xiàn)性激活函數(shù)(Rectified Linear Unit,ReLU)[16],其目的是減少計(jì)算的復(fù)雜度,且不會(huì)導(dǎo)致負(fù)值區(qū)域的神經(jīng)元全為0。在上采樣過(guò)程中,采用了與下采樣相對(duì)稱(chēng)的5層反卷積,將深層特征恢復(fù)至一定尺寸的大小。生成網(wǎng)絡(luò)的目的是將輸入映射至目標(biāo)域空間的分布,例如根據(jù)嘴唇形狀特征對(duì)應(yīng)至著紅色的過(guò)程。

      2.2.3 判別網(wǎng)絡(luò)

      傳統(tǒng)判別網(wǎng)絡(luò)采用單層特征表達(dá)整個(gè)圖像,容易丟失圖像的細(xì)節(jié)信息。因此本文在判別網(wǎng)絡(luò)中引入多特征融合的方式,如圖3所示。采用融合后的特征可以增強(qiáng)對(duì)圖像的細(xì)節(jié)信息,提高圖像分類(lèi)的準(zhǔn)確率。同時(shí),為了避免維度災(zāi)難,本文在特征融合層后添加編碼網(wǎng)絡(luò)對(duì)特征進(jìn)行降維。

      圖3 判別網(wǎng)絡(luò)模型

      生成的分量同L通道組合后構(gòu)成一幅著色圖像,判別網(wǎng)絡(luò)DY對(duì)其與真實(shí)的彩色圖像之間進(jìn)行判別區(qū)分。由于二者之間存在相關(guān)性,判別器可以通過(guò)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí),獲取更加有效的圖像特征,對(duì)兩類(lèi)圖像進(jìn)行正確分類(lèi)。對(duì)于判別網(wǎng)絡(luò)DY,首先輸入三通道256×256 大小的彩色圖像,然后經(jīng)過(guò)帶有步伐(Stride)的6次卷積后,輸出256個(gè)4×4的特征圖。特征提取的卷積核尺寸為5×5,卷積步長(zhǎng)2,每一個(gè)卷積層的特征圖個(gè)數(shù)分別是8、16、32、64、128、256。卷積后融合特征,分別對(duì)第四層和第五層進(jìn)行4×4、2×2的平均值池化,生成448 個(gè)4×4 大小的特征圖。然后將融合后的特征圖拉伸至11 264維長(zhǎng)度的向量,使用多層全連接將特征的維度降低至1 024維。為了進(jìn)一步防止特征降維過(guò)程中,出現(xiàn)過(guò)擬合的現(xiàn)象,在全連接層后面加上Dropout層,概率值設(shè)置為0.7。最后,將壓縮過(guò)的特征向量輸入至Sigmoid 函數(shù),判別生成圖像是否符合真實(shí)圖像的分布。對(duì)于判別網(wǎng)絡(luò)DX,輸入圖像為單通道的灰度圖像,模型結(jié)構(gòu)與判別網(wǎng)絡(luò)DY相同。

      2.3 損失函數(shù)

      傳統(tǒng)GAN 只采用生成對(duì)抗損失函數(shù),存在多余的映射空間。本文方法結(jié)合生成對(duì)抗損失和聯(lián)合一致性損失共同監(jiān)督訓(xùn)練網(wǎng)絡(luò),有效避免了這一問(wèn)題。同時(shí),為了減小生成圖像與決策邊界的距離,本文采用最小二乘損失LLSGAN改進(jìn)原有的生成對(duì)抗損失函數(shù),提高圖像生成的質(zhì)量。

      2.3.1 生成對(duì)抗損失

      生成對(duì)抗性損失應(yīng)用在輸入圖像映射為中間域圖像的過(guò)程。原始的交叉熵?fù)p失如式(1)所示,使得生成器無(wú)法進(jìn)一步優(yōu)化被判別器識(shí)別為真的生成圖像,可能導(dǎo)致網(wǎng)絡(luò)生成圖像的質(zhì)量不高。受Mao等人[17]的啟發(fā),本文采用最小二乘損失作為生成對(duì)抗損失。相比較原始損失函數(shù),最小二乘損失會(huì)對(duì)遠(yuǎn)離決策邊界并且判決為真的生成樣本進(jìn)行處理,將遠(yuǎn)離決策邊界的生成樣本重新放置在決策邊界附近。即通過(guò)使距決策邊界不同的距離度量構(gòu)建出一個(gè)收斂快、穩(wěn)定,并且生成圖像質(zhì)量高的對(duì)抗網(wǎng)絡(luò)。

      其中,x~Pdata(x)、y~Pdata(y)分別為樣本X、Y服從的概率分布。Ex~Pdata(x)和Ey~Pdata(y)是各自樣本分布的期望值。

      因此,對(duì)于生成網(wǎng)絡(luò)G:X→Y及其判別網(wǎng)絡(luò)DY,生成網(wǎng)絡(luò)G將X域數(shù)據(jù)生成符合Y域分布的目標(biāo),判別網(wǎng)絡(luò)DY用于區(qū)分真實(shí)的Y域數(shù)據(jù){y}和生成樣本{G(x)}。本文最小二乘生成對(duì)抗損失的函數(shù)定義如式(2)所示。

      最小二乘生成對(duì)抗損失的目標(biāo)如式(3)所示。訓(xùn)練判別器時(shí),損失函數(shù)目標(biāo)是使判別器區(qū)分真實(shí)的樣本和生成的樣本,即最大化DY(y),同時(shí)使DY(G(x))最小;訓(xùn)練生成器時(shí),損失函數(shù)的目標(biāo)是使生成數(shù)據(jù)接近真實(shí)數(shù)據(jù),即使DY(G(x))最大化。

      對(duì)于生成網(wǎng)絡(luò)F:Y→X及相應(yīng)的判別網(wǎng)絡(luò),同樣引入相同的生成對(duì)抗損失,損失函數(shù)目標(biāo)如式(4)所示。

      2.3.2 聯(lián)合一致性損失

      傳統(tǒng)GAN 只使用了對(duì)抗性損失訓(xùn)練網(wǎng)絡(luò),學(xué)習(xí)輸入圖像和目標(biāo)圖像的映射關(guān)系,但無(wú)法解決生成網(wǎng)絡(luò)中存在的多余映射問(wèn)題。而循環(huán)生成網(wǎng)絡(luò)采用了循環(huán)一致性損失,來(lái)更好確保生成數(shù)據(jù)的穩(wěn)定性,減少其他多余映射關(guān)系。本文在此思想的基礎(chǔ)上,提出了聯(lián)合一致性損失,將重構(gòu)的數(shù)據(jù)重新組合,再計(jì)算其與輸入彩色圖像的L1損失。

      式(5)和式(6)分別是網(wǎng)絡(luò)中兩個(gè)循環(huán)生成過(guò)程:

      其中,xL和為真實(shí)的L通道分量和其重構(gòu)的數(shù)據(jù);xab和為真實(shí)的ab通道彩色分量和其重構(gòu)的數(shù)據(jù)。

      其中,x為輸入的樣本,F(xiàn)(G(xab))+G(F(xL))表示重構(gòu)的彩色圖像。

      完整的目標(biāo)函數(shù)包括生成對(duì)抗損失和聯(lián)合一致性損失,如式(6)所示:

      其中,λ參數(shù)用于調(diào)整最小二乘損失和聯(lián)合一致性損失的權(quán)重。網(wǎng)絡(luò)總訓(xùn)練目標(biāo)為:

      3 實(shí)驗(yàn)數(shù)據(jù)

      目前公開(kāi)的人像數(shù)據(jù)集有很多,如PubFig、CelebA等,主要應(yīng)用在人臉識(shí)別等領(lǐng)域,人物圖像大多集中在人的面部區(qū)域,并且圖像質(zhì)量不一致,直接用于著色模型的訓(xùn)練,效果不好。為了解決數(shù)據(jù)庫(kù)的問(wèn)題,本文在CASIA-FaceV5數(shù)據(jù)庫(kù)的基礎(chǔ)上,通過(guò)爬蟲(chóng)技術(shù),對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)充,最終數(shù)據(jù)庫(kù)總共包含了9 500張多種姿態(tài)、各種背景下的人物彩色圖像,簡(jiǎn)稱(chēng)為CASIA-PC(CASIAPlusColor)。

      CASIA-FaceV5 是中國(guó)科學(xué)院公布的數(shù)據(jù)庫(kù),該數(shù)據(jù)庫(kù)是開(kāi)放的亞洲人物數(shù)據(jù)集,其中包含了來(lái)自500人2 500 張高質(zhì)量的彩色圖像。通過(guò)觀察發(fā)現(xiàn),該數(shù)據(jù)庫(kù)的人物圖像大部分為單色背景下的正面照,缺少實(shí)際環(huán)境下的人像場(chǎng)景。

      為了解決CASIA-FaceV5 數(shù)據(jù)庫(kù)缺乏真實(shí)場(chǎng)景人像的問(wèn)題,本文在該數(shù)據(jù)庫(kù)的基礎(chǔ)上,使用爬蟲(chóng)技術(shù),完成了在互聯(lián)網(wǎng)中自動(dòng)化、模塊化爬取圖片的任務(wù),收集圖片,最后得到了7 000 張復(fù)雜背景下的不同姿態(tài)的彩色人像。

      本文實(shí)驗(yàn)采用了CASIA-PC數(shù)據(jù)集,所有圖片的大小調(diào)整為225×225像素,并將數(shù)據(jù)庫(kù)劃分為訓(xùn)練集和測(cè)試集,訓(xùn)練集由隨機(jī)選取的8 600張圖片組成;剩下的圖片作為測(cè)試集。數(shù)據(jù)集實(shí)例如圖4所示,其中圖4(a)選自CASIA 數(shù)據(jù)庫(kù),圖4(b)選自互聯(lián)網(wǎng)中爬取的人像。由圖4可知,本文自建的數(shù)據(jù)集場(chǎng)景豐富,色彩鮮艷,增加了著色的難度。

      圖4 數(shù)據(jù)集實(shí)例

      為了客觀地評(píng)價(jià)生成圖像的質(zhì)量,本文采用圖像質(zhì)量評(píng)價(jià)標(biāo)準(zhǔn)結(jié)構(gòu)相似性(Structural Similarity Index,SSIM)[18]和峰值信噪比(Peak Signal to Noise Ratio,PSNR)對(duì)著色圖像整體進(jìn)行質(zhì)量評(píng)估。PSNR用于評(píng)價(jià)生成圖像著色的真實(shí)程度,其值越大,表示失真越少;SSIM用于衡量目標(biāo)間結(jié)構(gòu)的相似程度,SSIM測(cè)量值越大,表示兩張圖像相似度越高。

      4 實(shí)驗(yàn)與分析

      4.1 實(shí)驗(yàn)步驟

      (1)預(yù)處理。實(shí)驗(yàn)的預(yù)處理階段,將每張圖像的顏色模型從RGB 轉(zhuǎn)為L(zhǎng)ab 模型,并將彩色人像的L通道和ab通道彩色分量分離,將分離后的L通道和ab通道彩色分量作為網(wǎng)絡(luò)的輸入。

      (2)參數(shù)設(shè)置。數(shù)據(jù)訓(xùn)練過(guò)程中,生成網(wǎng)絡(luò)G和F,判別網(wǎng)絡(luò)DX和DY均采用初始學(xué)習(xí)率為0.000 2,動(dòng)量為0.5 的Adam 優(yōu)化器更新網(wǎng)絡(luò)的參數(shù),同時(shí)采用線(xiàn)性衰減的方法逐漸降低學(xué)習(xí)率。經(jīng)過(guò)不斷的迭代訓(xùn)練使模型收斂,存儲(chǔ)整個(gè)網(wǎng)絡(luò)的參數(shù)。

      (3)實(shí)驗(yàn)過(guò)程。實(shí)驗(yàn)流程如圖5 所示,可以分為兩個(gè)階段:第一階段使用8 600 個(gè)訓(xùn)練樣本對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到著色模型。為了避免網(wǎng)絡(luò)有過(guò)擬合的現(xiàn)象,本文在使用規(guī)模較大的數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò)時(shí),會(huì)出現(xiàn)數(shù)據(jù)質(zhì)量不同,部分圖像存在顏色暗淡和圖像模糊等問(wèn)題,會(huì)影響模型著色的效果。因此,第二階段本實(shí)驗(yàn)在規(guī)模較大的原數(shù)據(jù)集中篩選出了質(zhì)量相對(duì)較高的2 160個(gè)訓(xùn)練樣本,微調(diào)網(wǎng)絡(luò)的參數(shù)。

      圖5 模型訓(xùn)練示意圖

      本文將圖像的標(biāo)準(zhǔn)差和平均梯度值作為數(shù)據(jù)篩選的評(píng)價(jià)指標(biāo),具體如下:

      標(biāo)準(zhǔn)差(Standard Deviation,SD)是指圖像灰度值相對(duì)于均值的離散程度,標(biāo)準(zhǔn)差越大說(shuō)明圖像中灰度級(jí)分布越分散,圖像的顏色也更加鮮明。設(shè)待評(píng)估圖像為F,大小為M×N,則標(biāo)準(zhǔn)差的計(jì)算公式如下所示:

      平均梯度(Mean Gradient,MG)反映了圖像細(xì)節(jié)和紋理的變化,在一定程度上可以表示圖像的清晰度,其值越大說(shuō)明圖像整體的清晰度越高。圖像平均梯度的計(jì)算公式如下所示:

      其中,ΔxF(i,j)、ΔyF(i,j)分別表示像素點(diǎn)(i,j)在x、y方向上的一階差分。

      本文將標(biāo)準(zhǔn)差和平均梯度的閾值設(shè)置為54 和25時(shí),篩選出的圖像質(zhì)量較高。如圖6 所示,前兩列是篩選出的人像圖片,圖像顏色明亮,且清晰程度較高。后兩列是未選出的人像圖片,其中第三列人像的標(biāo)準(zhǔn)差低于閾值54,圖像亮度低,色彩偏暗,第四列人像的平均梯度值低于閾值25,圖像較為模糊。

      圖6 人像篩選實(shí)例

      實(shí)驗(yàn)第一階段是模型預(yù)訓(xùn)練的過(guò)程,為了使生成網(wǎng)絡(luò)G學(xué)習(xí)灰度圖像映射至ab通道彩色分量的對(duì)應(yīng)關(guān)系;第二階段則是模型微調(diào)的過(guò)程,為了提高模型著色的效果。

      4.2 實(shí)驗(yàn)結(jié)果與分析

      4.2.1 著色效果提高

      為了測(cè)試數(shù)據(jù)篩選對(duì)不同模型著色效果的影響,本文對(duì)三種不同的著色方法進(jìn)行實(shí)驗(yàn),結(jié)果如圖7 所示。其中,第一列是灰度圖像;第二列是直接采用CASIA-PC訓(xùn)練模型的結(jié)果;第三列是在第二列基礎(chǔ)上加入篩選人像微調(diào)模型的結(jié)果。對(duì)比后發(fā)現(xiàn),采用篩選人像微調(diào)的方法均比直接訓(xùn)練的著色效果好,主要表現(xiàn)在部分背景的色彩變得更加明亮。

      圖7 人像篩選著色對(duì)比

      本文在循環(huán)生成對(duì)抗網(wǎng)絡(luò)的基礎(chǔ)上,提出了基于聯(lián)合一致循環(huán)生成對(duì)抗網(wǎng)絡(luò)的人像著色方法。該方法改進(jìn)了基礎(chǔ)網(wǎng)絡(luò)的模型結(jié)構(gòu)、損失函數(shù),并在訓(xùn)練中采用了模型微調(diào)的方法。為了驗(yàn)證上述方法對(duì)提高模型著色能力的影響,本文比較了不同改進(jìn)方法的著色效果,如圖8 所示。其中,第一列是待著色灰度圖;第二列是基礎(chǔ)網(wǎng)絡(luò)模型的著色結(jié)果;第三列是訓(xùn)練中采用模型微調(diào)后的著色結(jié)果;第四列是采用最小二乘損失訓(xùn)練網(wǎng)絡(luò)的著色結(jié)果;第五列是模型采用聯(lián)合一致循環(huán)網(wǎng)絡(luò)的著色結(jié)果。

      通過(guò)對(duì)比不同改進(jìn)方法的著色結(jié)果,發(fā)現(xiàn)僅改進(jìn)訓(xùn)練方法對(duì)改善人像誤著色問(wèn)題的效果不明顯,但部分區(qū)域顏色效果有所提升。如圖8(c)第二行中樹(shù)葉的顏色相比圖8(b)更明亮。而損失函數(shù)和著色模型的改進(jìn)都可以改善人像誤著色的問(wèn)題。其中,采用最小二乘損失訓(xùn)練模型的著色準(zhǔn)確率雖有提高,但部分區(qū)域仍有較明顯的誤著色,如圖8(d)中第一行所示,草色被誤著為紅色。而相比較下,改進(jìn)網(wǎng)絡(luò)模型后的著色效果提升更為明顯,如圖8(e)中第一行所示,僅有少部分不明顯的誤著色。

      4.2.2 著色人像對(duì)比實(shí)驗(yàn)

      不同方法的著色結(jié)果如圖9所示,第一列為L(zhǎng)通道的灰度人像;第二列為真實(shí)的彩色人像;第三列為原始CycleGAN 的著色結(jié)果;第四列在第三列方法的基礎(chǔ)上僅將生成網(wǎng)絡(luò)結(jié)構(gòu)改為UNet 網(wǎng)絡(luò);最后一列是本文方法的著色結(jié)果。前兩行為相應(yīng)模型在單色背景下的著色結(jié)果,其余為復(fù)雜背景下的著色結(jié)果。

      根據(jù)圖9中不同模型著色的結(jié)果可以看出,使用原始CycleGAN 模型進(jìn)行著色時(shí),效果較為粗糙,顏色飽和度和著色準(zhǔn)確率偏低,會(huì)出現(xiàn)誤著色和顏色溢出等問(wèn)題。例如,圖9(c)的第三行中誤將原圖中綠色的樹(shù)葉生成為其他顏色,而圖9(c)的第五行中原本屬于人臉區(qū)域的顏色超出了自身的范圍,擴(kuò)散至樹(shù)木、天空等四周。生成網(wǎng)絡(luò)采用UNet網(wǎng)絡(luò)的方法,該模型著色結(jié)果如圖9(d)的第二行所示,對(duì)于背景單一的圖像著色準(zhǔn)確率有很大的提升。在復(fù)雜背景人像下的著色效果雖有一定提高,但依舊存在著誤著色的問(wèn)題,其中圖9(d)第三行中較為明顯。相比之下,本文著色模型采用聯(lián)合一致循環(huán)網(wǎng)絡(luò),著色結(jié)果更加準(zhǔn)確、自然,即使在復(fù)雜背景的人像中,也能夠較為準(zhǔn)確地賦予人像和背景真實(shí)的顏色,人像誤著色的問(wèn)題有明顯的改善。并且本文方法可以正確區(qū)分出圖像中的不同目標(biāo),減少顏色溢出的現(xiàn)象,如圖9(e)所示。另外,第一行的著色結(jié)果值得注意,著色后服飾的顏色發(fā)生了改變,這是由于數(shù)據(jù)庫(kù)中缺乏相同服飾的樣本,或是相近的服飾多以灰黑色為主。這說(shuō)明了訓(xùn)練集對(duì)著色結(jié)果具有很大的影響。圖9(d)中第一行的著色結(jié)果相比采用本文方法的著色結(jié)果,其拉鏈部位的顏色更接近于原始的彩色圖像。這是由于該方法注重學(xué)習(xí)待著色目標(biāo)的結(jié)構(gòu),著色時(shí)選擇模型學(xué)習(xí)到的特征中和它結(jié)構(gòu)相近的顏色。而本文模型采用了聯(lián)合一致循環(huán)網(wǎng)絡(luò),在學(xué)習(xí)圖像結(jié)構(gòu)的同時(shí),更注重人像著色的整體一致性。因此,拉鏈部位著色時(shí)會(huì)對(duì)應(yīng)服裝的色彩,選擇與之相適應(yīng)的顏色。

      圖8 改進(jìn)方法著色對(duì)比

      本實(shí)驗(yàn)在單色和復(fù)雜背景下,分別比較了三種模型的PSNR 和SSIM 平均指標(biāo),如表1、表2 所示。在客觀指標(biāo)評(píng)定下,隨著三種模型網(wǎng)絡(luò)結(jié)構(gòu)的豐富,著色效果在單色背景和復(fù)雜背景下依次有著提升。另外,由于單色背景圖像的結(jié)構(gòu)和紋理相對(duì)比較簡(jiǎn)單,著色相對(duì)更為容易,其表現(xiàn)在同一種模型中單色背景下圖像的平均指標(biāo),明顯高于在復(fù)雜背景下圖像的指標(biāo)。

      表1 復(fù)雜背景下不同方法平均SSIM、PSNR對(duì)比

      表2 單色背景下不同方法平均SSIM、PSNR對(duì)比

      另外,本文又與其他著色模型進(jìn)行了比較,結(jié)果如圖10 所示。其中Iizuka 等[5]采用雙通道卷積網(wǎng)絡(luò),著色結(jié)果顏色較為鮮艷,但著色準(zhǔn)確率低。Larsson等[6]采用VGG網(wǎng)絡(luò)提取圖像特征,誤著色問(wèn)題有所改善,但人像部分區(qū)域變得模糊。Zhang等[8]針對(duì)圖像中每個(gè)像素點(diǎn)進(jìn)行分類(lèi),著色準(zhǔn)確率較高且人像清晰,但顏色飽和度低。而本文方法的著色準(zhǔn)確率高,不同目標(biāo)的區(qū)分度較高,顏色也更加自然。但部分區(qū)域存在顏色分布不均勻的問(wèn)題,仍未能達(dá)到理想的飽和度,如圖10第一行的著色結(jié)果。本文進(jìn)一步比較了與其他著色模型不同場(chǎng)景中SSIM和PSNR指標(biāo)均值,分別如表3和表4所示。在不同場(chǎng)景下,本文方法著色的圖像與原圖相比具有更高的SSIM、PSNR值,說(shuō)明本實(shí)驗(yàn)的結(jié)果與原圖相比較,結(jié)構(gòu)更加相似,而且失真較小。

      圖9 不同方法著色對(duì)比

      圖10 不同模型著色對(duì)比

      表3 單色背景下不同模型平均SSIM、PSNR對(duì)比

      表4 復(fù)雜背景下不同模型平均SSIM、PSNR對(duì)比

      5 結(jié)束語(yǔ)

      針對(duì)復(fù)雜背景的灰度人像誤著色問(wèn)題,本文提出了聯(lián)合一致循環(huán)生成對(duì)抗網(wǎng)絡(luò)的人像著色方法。該方法采用聯(lián)合的一致性損失,聯(lián)合重構(gòu)的數(shù)據(jù)計(jì)算其與輸入彩色圖像的L1損失,實(shí)現(xiàn)整個(gè)網(wǎng)絡(luò)的反向傳遞優(yōu)化。實(shí)驗(yàn)證明了本文方法適用于單色和復(fù)雜背景的人像著色,著色精度有很大提高,并且對(duì)比同類(lèi)的方法,本文方法在圖像顏色連續(xù)性和合理性等方面都有著出色的表現(xiàn)。

      猜你喜歡
      著色灰度損失
      采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
      少問(wèn)一句,損失千金
      蔬菜著色不良 這樣預(yù)防最好
      胖胖損失了多少元
      基于灰度拉伸的圖像水位識(shí)別方法研究
      蘋(píng)果膨大著色期 管理細(xì)致別大意
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      10位畫(huà)家為美術(shù)片著色
      電影(2018年10期)2018-10-26 01:55:48
      基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
      基于灰度線(xiàn)性建模的亞像素圖像抖動(dòng)量計(jì)算
      广饶县| 庆云县| 嫩江县| 安陆市| 方山县| 綦江县| 华安县| 壶关县| 油尖旺区| 双江| 富蕴县| 泉州市| 河北区| 泸水县| 瑞昌市| 盐边县| 叶城县| 宣威市| 哈巴河县| 米林县| 北京市| 论坛| 海伦市| 宁远县| 吴堡县| 沅陵县| 偏关县| 北京市| 攀枝花市| 呼图壁县| 宜阳县| 西平县| 辽阳县| 厦门市| 广安市| 嘉禾县| 亚东县| 中牟县| 新干县| 东辽县| 商都县|