• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    圖像風(fēng)格遷移技術(shù)概況及研究現(xiàn)狀

    2021-03-24 09:13:00苗序娟余浩王露郭瑞佳楊天輝牛本杰
    現(xiàn)代計(jì)算機(jī) 2021年2期
    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)深度

    苗序娟,余浩,王露,郭瑞佳,楊天輝,牛本杰

    (天津商業(yè)大學(xué)信息工程學(xué)院計(jì)算機(jī)系,天津300134)

    早期的圖像風(fēng)格遷移技術(shù)算法適用風(fēng)格范圍窄,一個(gè)算法往往只能針對(duì)于一種圖像紋理類型,而且遷移轉(zhuǎn)換結(jié)果不理想,但隨著近些年人工智能和深度學(xué)隨習(xí)的興起,賦予圖像風(fēng)格遷移技術(shù)新的生命力?;谏疃葘W(xué)習(xí)的圖像風(fēng)格遷移技術(shù)的快速發(fā)展,使得該技術(shù)被廣泛的應(yīng)用于圖片影像加工美化,最常見的就是根據(jù)真人照片生成卡通頭像,深度神經(jīng)網(wǎng)絡(luò)特有的“學(xué)習(xí)”能力讓圖像風(fēng)格遷移技術(shù)算法實(shí)現(xiàn)一個(gè)算法對(duì)應(yīng)多個(gè)類型圖像風(fēng)格,遷移轉(zhuǎn)換結(jié)果也能與原圖像樣本達(dá)到高度吻合,這使得圖像風(fēng)格遷移技術(shù)應(yīng)用范圍更加寬廣,使用更加便捷高效。通過對(duì)圖像風(fēng)格遷移技術(shù)發(fā)展歷程,以及卷積神經(jīng)網(wǎng)絡(luò)和對(duì)抗式生成神經(jīng)網(wǎng)絡(luò)的研究分析,了解并總結(jié)兩種神經(jīng)網(wǎng)絡(luò)各自優(yōu)缺點(diǎn),對(duì)圖像風(fēng)格遷移這一研究領(lǐng)域的未來(lái)發(fā)展趨勢(shì)做出合理推測(cè)。

    圖像風(fēng)格遷移;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);生成式對(duì)抗網(wǎng)絡(luò);VGG19;TensorFlow

    0 引言

    不同圖像之所以帶給人們不一樣的感觀,是因?yàn)閳D像的風(fēng)格不同,特定的圖像一般呈現(xiàn)出其專屬的風(fēng)格。通俗的講,圖像風(fēng)格遷移是指利用計(jì)算機(jī)程序?qū)D像A的風(fēng)格特征提取出來(lái),把該特征與圖像B的內(nèi)容相融合,最終得到一個(gè)全新的、擁有A的風(fēng)格和B的內(nèi)容的圖像C,它是一項(xiàng)將某一圖像的風(fēng)格應(yīng)用到另一圖像內(nèi)容上的技術(shù)。目前大部分熱門的圖像處理軟件產(chǎn)品中都有圖像風(fēng)格遷移技術(shù)的應(yīng)用,它能讓用戶更加方便快捷地得到自己想要的圖像效果。

    傳統(tǒng)的圖像風(fēng)格遷移方法主要是采用對(duì)圖像紋理和筆觸建模的方式,通過所建的模型來(lái)表示一種風(fēng)格的特征,以此來(lái)達(dá)到風(fēng)格遷移的效果。傳統(tǒng)方法中需要給特定圖像風(fēng)格建立唯一的數(shù)學(xué)模型,建模困難且費(fèi)時(shí)費(fèi)力,在應(yīng)用上有很大的局限性,改變這種現(xiàn)狀的是基于神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格遷移的思路的產(chǎn)生。在深度學(xué)習(xí)廣受歡迎時(shí),不斷涌現(xiàn)出各種不同的圖像風(fēng)格遷移算法,如選用VGG19訓(xùn)練模型+TensorFlow深度學(xué)習(xí)框架進(jìn)行圖像風(fēng)格遷移的算法[1];還有針對(duì)傳統(tǒng)算法風(fēng)格遷移后圖像表現(xiàn)不自然的問題,基于Gram矩陣和卷積神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格遷移算法[2]等。

    本文將從圖像風(fēng)格遷移技術(shù)的變遷歷程,以及卷積神經(jīng)網(wǎng)絡(luò)等方面來(lái)闡述圖像風(fēng)格遷移技術(shù)的研究狀況和相關(guān)理論,最后給出總結(jié)及應(yīng)用前景。

    1 圖像風(fēng)格技術(shù)的變遷

    1.1 最初的圖像風(fēng)格遷移技術(shù)

    圖像風(fēng)格遷移技術(shù)大概是在20世紀(jì)末出現(xiàn)的,主要通過圖像紋理生成技術(shù)來(lái)實(shí)現(xiàn)風(fēng)格的遷移。有關(guān)圖像紋理的研究都需要研究人員手動(dòng)建立模型,其中的核心思想就是通過對(duì)圖像局部特征的統(tǒng)計(jì)來(lái)生成紋理,沒有這個(gè)前提模型根本無(wú)法建立,而且一個(gè)模型只能做一種風(fēng)格或場(chǎng)景。另外,當(dāng)時(shí)計(jì)算機(jī)計(jì)算能力也不強(qiáng),所以圖像風(fēng)格遷移技術(shù)發(fā)展十分緩慢。

    1.2 圖像風(fēng)格遷移與深度學(xué)習(xí)

    機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、卷積神經(jīng)網(wǎng)絡(luò)三者之間的關(guān)系如圖1所示。

    圖1 關(guān)系圖

    1997年,Mitchell教授在其著作Machine Learning中很專業(yè)地定義了機(jī)器學(xué)習(xí):如果一個(gè)程序可以在任務(wù)T上,伴隨著經(jīng)驗(yàn)E的增加,效果P也會(huì)增加,那么這個(gè)程序就可以從經(jīng)驗(yàn)中學(xué)習(xí),稱之為機(jī)器學(xué)習(xí)[3]。不過機(jī)器學(xué)習(xí)可以追溯到17世紀(jì),貝葉斯、拉普拉斯關(guān)于最小二乘法的推導(dǎo)和馬爾可夫鏈等奠定基礎(chǔ),到了1950年,圖靈提議建立機(jī)器學(xué)習(xí),再到后來(lái)深度學(xué)習(xí)的提出,使得機(jī)器學(xué)習(xí)有了很大的發(fā)展。

    深度學(xué)習(xí)是機(jī)器學(xué)習(xí)一個(gè)新的研究方向,最初的深度學(xué)習(xí)受到了神經(jīng)學(xué)科的啟發(fā),從生物神經(jīng)網(wǎng)絡(luò)中獲得靈感,該方法具有提取抽象特征的能力。深度學(xué)習(xí)由Hinton等人在2006年提出后,在學(xué)術(shù)界等行業(yè)掀起了一波新的浪潮,人工智能度過了又一次寒冬,進(jìn)入快速發(fā)展期,也開啟了新的里程碑。

    而卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的代表算法之一,盡管卷積神經(jīng)網(wǎng)絡(luò)在上世紀(jì)80年代到90年代就被提出,但是一直沒有應(yīng)用在圖像風(fēng)格遷移領(lǐng)域。

    2012年,深度學(xué)習(xí)的潛力被證明,其在圖像識(shí)別方面有著驚人的表現(xiàn),到2015年Gatys等人提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格遷移算法,把圖像的內(nèi)容特征和風(fēng)格特征進(jìn)行分離,通過獨(dú)立處理深層特征來(lái)實(shí)現(xiàn)風(fēng)格遷移,這才將卷積神經(jīng)網(wǎng)絡(luò)和圖像風(fēng)格遷移連接了起來(lái),極大地改變了圖像風(fēng)格遷移技術(shù)的舊狀,使得該技術(shù)有了很大的發(fā)展。因此,2015年也被稱為圖像風(fēng)格遷移技術(shù)的元年。

    2 卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)的前身是Hubel和Wiesel記錄特定模式下對(duì)貓的刺激形成的大腦反饋從而創(chuàng)建的視覺皮層地圖。1980年Yann Lecun提出了LeNet-5[4]形成了當(dāng)代卷積神經(jīng)網(wǎng)絡(luò)的雛形,基于LeNet-5模型,在科研人員的潛心研究下卷積神經(jīng)網(wǎng)絡(luò)有了更系統(tǒng)的定義和精準(zhǔn)的結(jié)構(gòu)。

    卷積神經(jīng)網(wǎng)絡(luò)是一類仿造生物視知覺機(jī)制構(gòu)建的包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feed?forward Neural Networks)[5],因?yàn)槟軌蚍€(wěn)定學(xué)習(xí)數(shù)據(jù)被大范圍應(yīng)用于圖像識(shí)別、行為認(rèn)知、姿態(tài)估計(jì)和自然語(yǔ)言處理等領(lǐng)域。

    2.1 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格遷移技術(shù)

    風(fēng)格遷移是卷積神經(jīng)網(wǎng)絡(luò)(CNN)面對(duì)計(jì)算機(jī)視覺領(lǐng)域的一項(xiàng)特殊應(yīng)用,充分體現(xiàn)出了卷積神經(jīng)網(wǎng)絡(luò)表征學(xué)習(xí)的能力,能夠?qū)W習(xí)特征并且學(xué)習(xí)提取特征的過程避免手動(dòng)提取特征的麻煩。

    CNN網(wǎng)絡(luò)由多層神經(jīng)網(wǎng)絡(luò)構(gòu)成,主要包含了輸入層、卷積層、激勵(lì)函數(shù)、池化層和全連接層。卷積層是CNN的重要組成部分,用于提取特征值。不同的卷積核可以提取不同的特征,低層的卷積層只能提取邊緣、線條和角等低級(jí)特征,高層的網(wǎng)絡(luò)能夠利用低層特征獲取更加復(fù)雜的特征。池化層是在卷積核進(jìn)行特征提取后的一個(gè)下采樣操作,主要用來(lái)進(jìn)行特征降維,通過壓縮數(shù)據(jù)和參數(shù)的數(shù)量的方式提高計(jì)算速度,能夠控制過擬合、提高網(wǎng)絡(luò)的魯棒性[6]。

    基于已發(fā)布的結(jié)構(gòu)模型,2015年Gatys等人[7]在紋理合成的基礎(chǔ)上通過引入目標(biāo)內(nèi)容圖像,修改了損失函數(shù)使算法同時(shí)針對(duì)風(fēng)格和內(nèi)容進(jìn)行優(yōu)化[8],將任意一張圖像內(nèi)容與《神奈川沖浪里》、《星空》、《吶喊》中的風(fēng)格結(jié)合在一起形成具有藝術(shù)風(fēng)格特色的圖像,如圖2所示。

    圖2 Gatys等人生成藝術(shù)風(fēng)格圖像

    Gatys等人提出的Neural Style方法,模擬了人類視覺的處理方式,經(jīng)過訓(xùn)練多層卷積神經(jīng)網(wǎng)絡(luò)[9],使計(jì)算機(jī)辨別并學(xué)會(huì)藝術(shù)風(fēng)格。但是從生成圖像中可以明顯看出部分圖像內(nèi)容扭曲、細(xì)節(jié)丟失的問題,并且訓(xùn)練的卷積網(wǎng)絡(luò)的時(shí)間耗費(fèi)長(zhǎng),遷移程度不能控制。

    隨后,Gatys等人又對(duì)自己的方法進(jìn)行了改進(jìn),加強(qiáng)了風(fēng)格遷移中對(duì)細(xì)節(jié)的控制,但是仍對(duì)圖像內(nèi)容沒有把控。在此之后,Johnson等人提出Fast Neural Style的方法[10]改善了原始風(fēng)格遷移訓(xùn)練耗時(shí)長(zhǎng)的缺陷,每訓(xùn)練好一個(gè)風(fēng)格模型之后,GPU通常只需要運(yùn)行幾秒便生成對(duì)應(yīng)的風(fēng)格遷移結(jié)果,但生成圖像效果仍沒有得到改進(jìn)。Luan等人[11]在Gatys的工作基礎(chǔ)上加強(qiáng)改進(jìn),能夠控制風(fēng)格遷移的內(nèi)容細(xì)節(jié)[12]。

    隨著科技不斷的發(fā)展,圖像風(fēng)格遷移技術(shù)越發(fā)成熟,但圖像扭曲和細(xì)節(jié)丟失的問題仍然存在,今后基于卷積神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格遷移技術(shù)的主要突破點(diǎn)在于得到合成匹配度最佳、損失度更低的圖像。

    2.2 經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型

    經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型有LeNet-5、AlexNet、VGG、NiN、GoogLeNet、ResNet、DenseNet等,本文將介紹AlexNet和VGG模型,并且對(duì)VGG中的兩種模型進(jìn)行對(duì)比。

    AlexNet與前文提到的LeNet-5,設(shè)計(jì)理念十分相似,但AlexNet模型具有更深的網(wǎng)絡(luò)結(jié)構(gòu),這個(gè)改進(jìn)增加了卷積通道數(shù)讓模型擁有更多路徑提取圖像特征,并且提高了可捕捉物體的像素大小[13]。同時(shí),AlexNet引入了大量的圖像增廣,如裁剪、調(diào)整亮度和色彩,從而進(jìn)一步擴(kuò)大數(shù)據(jù)集來(lái)緩解擬合。AlexNet是第一個(gè)證明學(xué)習(xí)到的特征可以超越手工設(shè)計(jì)特征的模型,突破了當(dāng)時(shí)計(jì)算機(jī)視覺研究的現(xiàn)狀。

    Oxford Visual Geometry Group自2014年先后發(fā)布了網(wǎng)絡(luò)模型VGG11-VGG19。在下文將簡(jiǎn)單介紹VGG16和VGG19,并對(duì)兩者之間差異進(jìn)行對(duì)比。

    VGG16模型[14]采用了5段卷積,對(duì)于每一段,其基本結(jié)構(gòu)均由卷積(第1、2段的卷積次數(shù)為2,第3、4、5段的卷積次數(shù)為3)、池化和ReLU激活函數(shù)組成。VGG19模型與VGG16結(jié)構(gòu)類似,只是卷積部分有所不同。VGG19第1、2段的卷積次數(shù)為2,第3、4、5段的卷積次數(shù)為4。

    通過對(duì)比兩個(gè)模型可以看出VGG結(jié)構(gòu)非常一致,從頭到尾都采用3×3大小的卷積核,核尺寸2×2的池化層,能較好地捕捉圖像的梯度特征,從而高效地對(duì)邊緣紋理等語(yǔ)義細(xì)節(jié)信息進(jìn)行描述[15]。對(duì)比VGG16和VGG19兩者沒有本質(zhì)區(qū)別,只是VGG19拓展性較強(qiáng),遷移到其他圖片數(shù)據(jù)集上的泛化性較好[16];擁有更強(qiáng)網(wǎng)絡(luò)深度,可以合理分配各層的學(xué)習(xí)任務(wù),學(xué)習(xí)到更復(fù)雜的變換,從而擬合更復(fù)雜的特征輸入,提高圖像識(shí)別的精度。

    2.3 卷積神經(jīng)網(wǎng)絡(luò)的常用框架

    在深度學(xué)習(xí)的研究中,研究者們?yōu)榱颂岣呔帉懘a的效率避免編寫大量重復(fù)代碼,將代碼列為框架發(fā)布出去作為共享資源。目前常用的深度學(xué)習(xí)框架有TensorFlow、Caffe、Torch、Keras、PyTorch和DeepLear?ing4j等。本文將介紹基于卷積神經(jīng)網(wǎng)絡(luò)常用的三種框架TensorFlow、Caffe、Torch,并做出比較。

    TensorFlow是Google推出的深度學(xué)習(xí)框架,可以部署各類服務(wù)器、PC終端和網(wǎng)頁(yè)并支持GPU和TPU高性能數(shù)值計(jì)算[17]。而且其擁有自帶的可視化工具TensorBoard,具有展示數(shù)據(jù)流圖、繪制分析圖、顯示附加數(shù)據(jù)等功能[18]。

    Caffee是由伯克利人工智能研究小組和伯克利視覺和學(xué)習(xí)中心開發(fā)的C++/CDUA構(gòu)架,支持命令行、Python和MATLAB接口,可以在CPU和GPU直接無(wú)縫切換。Caffee是目前計(jì)算機(jī)視覺領(lǐng)域最流行的框架,但是它對(duì)遞歸網(wǎng)絡(luò)和語(yǔ)言建模的支持較差。

    Torch是Facebook的開源機(jī)器學(xué)習(xí)庫(kù)、科學(xué)計(jì)算框架和基于Lua編程語(yǔ)言的腳本語(yǔ)言。Torch可以最大化地保證算法的靈活性和速度,同時(shí)可以使用并行的方式對(duì)CPU和GPU進(jìn)行更有效率的操作。但是Torch使用Lua作為腳本語(yǔ)言比較小眾,并且不支持Win?dows。

    針對(duì)三種不同的深度學(xué)習(xí)框架的各個(gè)屬性總結(jié)如表1。

    表1 三種框架的屬性表

    為了更直接更客觀的對(duì)比三種框架,通過soumith/convnet-benchmarks給出的各個(gè)框架在AlexNet上單GPU的性能評(píng)測(cè)結(jié)果如表2所示,從表中可以看出TensorFlow的訓(xùn)練更加迅速。同時(shí)通過在GitHub上查詢的數(shù)據(jù)顯示,TensorFlow的性能、貢獻(xiàn)和總評(píng)優(yōu)于Caffe、Torch。

    表2 各個(gè)深度學(xué)習(xí)框架在AlexNet上單GPU的性能對(duì)比

    3 生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)

    3.1 生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)的含義

    在基于深度學(xué)習(xí)的圖像風(fēng)格遷移中,除了卷積神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用,生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)也相當(dāng)熱門。

    生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)(GAN),是伊恩·古德費(fèi)洛(Ian Goodfellow)在2014年提出的。一個(gè)GAN主要包含兩個(gè)獨(dú)立的神經(jīng)網(wǎng)絡(luò):生成器網(wǎng)絡(luò)(Generator)和判別器網(wǎng)絡(luò)(Discriminator)。生成器的任務(wù)是,從一個(gè)隨機(jī)均勻分布里采樣一個(gè)噪聲z,然后輸出合成數(shù)據(jù)G(z);判別器獲得一個(gè)真實(shí)數(shù)據(jù)x或者合成數(shù)據(jù)G(z)作為輸入,輸出這個(gè)樣本為“真”的概率。

    物理學(xué)家理查德,費(fèi)曼有一句名言:我不能創(chuàng)造的東西,我就不能理解。這與GAN的創(chuàng)造思路相符。當(dāng)我們要計(jì)算機(jī)理解一類事物時(shí),生成器就負(fù)責(zé)大量輸入這類事物的數(shù)據(jù),而判別器的任務(wù)就是甄別多個(gè)實(shí)例之間的異同與真假,然后保留判斷為真樣本的共同點(diǎn),建立模型,最后輸出。生成器提供的數(shù)據(jù)越復(fù)雜,判別器最后輸出的模型結(jié)構(gòu)就越精確,越趨向真實(shí)樣本情況。

    3.2 生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)在圖像上的相關(guān)應(yīng)用

    GAN主要應(yīng)用于超分辨任務(wù)、語(yǔ)義分割、數(shù)據(jù)增強(qiáng)。

    對(duì)于超分辨率任務(wù),GAN工作原理簡(jiǎn)單的來(lái)講,就是生成器負(fù)責(zé)通過輸入的低分辨率圖片生成高分辨率圖片,然后交給判別器辨別是否符合原圖,如果為否,那么生成器會(huì)再次進(jìn)行訓(xùn)練生成,直到符合判別器標(biāo)準(zhǔn)再輸出。

    語(yǔ)義分割,就是識(shí)別圖片中的不同物體,將不同的顏色填充,將它們各自區(qū)分開,讓計(jì)算機(jī)對(duì)客觀世界,擁有像人一樣的辨別能力。

    數(shù)據(jù)增強(qiáng)就是當(dāng)數(shù)據(jù)樣本數(shù)量不足,種類單一時(shí),通過一定的方法將樣本容量進(jìn)行擴(kuò)充豐富,以滿足需求。

    數(shù)據(jù)增強(qiáng)的作用:

    (1)增加訓(xùn)練的數(shù)據(jù)量,提高模型的泛化能力。

    (2)增加噪聲數(shù)據(jù),提升模型的魯棒性。

    由GAN訓(xùn)練得到的數(shù)據(jù)集與原數(shù)據(jù)樣本有著較高的相似性,這是它在數(shù)據(jù)增強(qiáng)領(lǐng)域受歡迎的主要原因。

    3.3 對(duì)抗式生成神經(jīng)網(wǎng)絡(luò)在圖像風(fēng)格遷移上的應(yīng)用

    GAN將一個(gè)對(duì)抗性判別器模型(判別器)巧妙地結(jié)合到一個(gè)生成模型(生成器)中,生成器生成數(shù)據(jù),判別器判斷該數(shù)據(jù)的真?zhèn)危呦嗷ジ?jìng)爭(zhēng),相互促進(jìn),生成器產(chǎn)生的結(jié)果愈來(lái)愈真,達(dá)到以假亂真的程度;判別器的能力也愈來(lái)愈強(qiáng),對(duì)于真假數(shù)據(jù)的判別越來(lái)越強(qiáng)。GAN訓(xùn)練過程是一個(gè)全自動(dòng)的非監(jiān)督性的學(xué)習(xí)過程,幾乎無(wú)需人工干預(yù)。已有的研究表明,GAN在諸如圖像生成、圖像超分辨和半監(jiān)督學(xué)習(xí)等各種任務(wù)中發(fā)揮著重要作用[19]。

    GAN不僅在傳統(tǒng)圖像風(fēng)格遷移上,有著極強(qiáng)的風(fēng)格紋理抓取能力,能輸出與原圖像樣本風(fēng)格極為相似的產(chǎn)品;在抽象畫系風(fēng)格遷移上,通過模型的改進(jìn),GAN也能通過其獨(dú)有的對(duì)抗訓(xùn)練能力,高效地抓取其紋理特點(diǎn),然后輸出效果理想的圖像。

    3.4 生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)在圖像風(fēng)格遷移上的優(yōu)劣勢(shì)

    優(yōu)勢(shì):

    (1)GAN能生成的圖像數(shù)據(jù)與真實(shí)樣本極為接近,幾乎以假亂真。

    (2)理論上,GAN能訓(xùn)練任何圖像風(fēng)格生成網(wǎng)絡(luò)。

    (3)不必遵循任何種類的因子分解設(shè)計(jì)模型,所有生成器和鑒別器都可以正常工作。

    (4)模型只用到了反向傳播,不需要馬爾科夫鏈。

    劣勢(shì):

    (1)可解釋性差,生成模型的分布Pg(G)沒有顯式的表達(dá)。

    (2)比較難訓(xùn)練,D與G之間需要很好地同步。

    (3)GAN很難學(xué)習(xí)生成離散性數(shù)據(jù),例如學(xué)習(xí)生成一類帶文字的圖像。

    4 結(jié)語(yǔ)

    本文介紹了圖像風(fēng)格遷移技術(shù)的發(fā)展歷程,詳細(xì)分析了基于深度學(xué)習(xí)的圖像風(fēng)格遷移技術(shù)現(xiàn)今較熱門的兩種神經(jīng)網(wǎng)絡(luò)模型,即卷積神經(jīng)網(wǎng)絡(luò)模型和生成式對(duì)抗網(wǎng)絡(luò)模型。通過對(duì)這兩種模型多個(gè)方面的分析我們發(fā)現(xiàn),隨著社會(huì)的進(jìn)步與發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用領(lǐng)域越來(lái)越廣闊,再加上人工智能的不斷發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)在諸多研究方向上都大放光彩,用戶對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型的要求也會(huì)越來(lái)越高,今后很長(zhǎng)一段時(shí)間內(nèi)卷積神經(jīng)網(wǎng)絡(luò)依然是深度學(xué)習(xí)領(lǐng)域研究的重點(diǎn)。

    總而言之,今后對(duì)于卷積神經(jīng)網(wǎng)絡(luò)的研究必定會(huì)持續(xù)下去,且會(huì)在很長(zhǎng)一段時(shí)間內(nèi)占據(jù)研究者們的視線。

    猜你喜歡
    卷積神經(jīng)網(wǎng)絡(luò)深度
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    深度理解一元一次方程
    神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    深度觀察
    深度觀察
    深度觀察
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
    復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
    夏邑县| 山西省| 青冈县| 汉中市| 汉寿县| 桦川县| 迁西县| 云林县| 巩义市| 介休市| 南靖县| 家居| 永仁县| 金沙县| 贵港市| 临清市| 嘉义县| 禹城市| 多伦县| 泽普县| 延安市| 浏阳市| 海林市| 陇川县| 常德市| 尚志市| 平凉市| 潞西市| 历史| 克什克腾旗| 酒泉市| 濮阳县| 上思县| 汉沽区| 通城县| 德安县| 社旗县| 图木舒克市| 锦屏县| 内丘县| 建瓯市|