• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度學習的單幅圖像超分辨率重建方法綜述

    2021-09-26 10:42:08趙元元
    計算機工程與應(yīng)用 2021年18期
    關(guān)鍵詞:殘差分辨率損失

    黃 健,趙元元,郭 蘋,王 靜

    西安科技大學 通信與信息工程學院,西安710600

    圖像超分辨率重建即用特定算法將同一場景中的低分辨率(LR)圖像轉(zhuǎn)換成高分辨率(HR)圖像[1],該技術(shù)是圖像處理與計算機視覺的主要技術(shù)之一[2]。高分辨率圖像因其具有很高的像素密度,能夠獲得圖像更多的細節(jié)特征,而在實際場景中應(yīng)用廣泛。超分辨率重建技術(shù)可根據(jù)輸入圖像的數(shù)量分為單張LR圖像生成HR圖像技術(shù)和多張LR圖像生成HR圖像技術(shù)。本文著重介紹單幅圖像超分辨率重建技術(shù)(Single Image Super-Resolution,SISR),該類技術(shù)憑借其靈活性與簡便性及高實用性,已經(jīng)被普遍應(yīng)用在圖像壓縮、醫(yī)學成像[3-5]、遙感成像[6]、公共安防[7]等領(lǐng)域,是目前圖像處理領(lǐng)域的研究熱點。

    在過去的研究工作中,傳統(tǒng)的單幅圖像超分辨率算法已經(jīng)取得了很大的成功,但是有一定的局限性,因為隨著放大倍數(shù)的增大,人為定義的先驗信息與模型能提供的用來進行高分辨率重建的信息逐漸變少,使得算法達不到重建圖像高頻信息的目的。傳統(tǒng)的SISR方法主要分為三大類[8]:基于插值的超分算法(最近鄰內(nèi)插、雙三次插值[9]等),這類算法雖簡單但重建圖像有偽影和振鈴;基于建模的超分算法(最大后驗估計法[10]、迭代反向投影算法[11]等),這類算法相較于插值法重建效果較好,但模型運算效率低且受放大因子的影響較大;基于學習的超分算法(局部嵌入[12]、稀疏編碼[13]等),該類算法的重建質(zhì)量最好,是目前研究的主流方向。這些方法都是通過學習HR圖像與LR圖像樣本對的映射函數(shù),或者利用圖像的內(nèi)部相似性來重建HR圖像。近年來,深度學習技術(shù)在其他領(lǐng)域得到了長足發(fā)展,被應(yīng)用在各類人工智能任務(wù)中,且都取得了理想結(jié)果,隨之基于深度學習的超分辨率技術(shù)也得到了積極的探索與發(fā)展,目前已經(jīng)提出了各種各樣的基于深度學習的超分辨率算法,且在各種公開數(shù)據(jù)集上取得了很好的重建效果。目前流行的網(wǎng)絡(luò)模型為卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)和生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN),在縮放因子較大時使用這兩個網(wǎng)絡(luò)模型都能夠很好地恢復出圖像的高頻細節(jié),使輸出的圖像更接近真實圖像。

    1 超分辨率重建方法的網(wǎng)絡(luò)模型

    基于深度學習的超分辨率重建技術(shù)的出現(xiàn),是圖像處理領(lǐng)域的一大創(chuàng)舉,解決了傳統(tǒng)算法中存在的諸多問題。近幾年在該領(lǐng)域取得了較大的發(fā)展。根據(jù)網(wǎng)絡(luò)模型結(jié)構(gòu)的不同,可以分為以下兩大類:(1)基于CNN網(wǎng)絡(luò)模型的超分方法;(2)基于生成對抗網(wǎng)絡(luò)GAN網(wǎng)絡(luò)模型的超分方法。目前,基于CNN網(wǎng)絡(luò)模型的超分方法是單幅圖像超分辨率重建領(lǐng)域應(yīng)用最廣泛的模型。

    1.1 基于CNN網(wǎng)絡(luò)模型的超分方法

    隨著深度學習的發(fā)展,在其他領(lǐng)域表現(xiàn)突出的卷積神經(jīng)網(wǎng)絡(luò)CNN已經(jīng)被成功地應(yīng)用在圖像超分辨率重建領(lǐng)域,并取得了很好的重建結(jié)果。相比于其他的神經(jīng)網(wǎng)絡(luò)方法,CNN提供的端到端學習模型通過梯度下降法訓練學習圖像特征,更適合圖像特征的學習與表達。本文又將基于CNN網(wǎng)絡(luò)模型的超分方法分為直連模型、殘差模型、密集模型以及注意力機制模型。

    1.1.1 直連模型

    第一個用于單幅圖像超分辨率重建的CNN網(wǎng)絡(luò)模型是由Dong團隊在2014年提出的SRCNN(Super-Resoution Convolutional Neural Network)算法[14],是直連模型結(jié)構(gòu)。SRCNN的網(wǎng)絡(luò)結(jié)構(gòu)簡單,如圖1所示,該網(wǎng)絡(luò)包含三個部分:特征提取、非線性映射和重建。

    圖1 SRCNN網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 SRCNN network structure

    SRCNN先用雙三次插值將低分辨率圖像放大至目標尺寸大?。ㄎㄒ活A(yù)處理),然后用9×9的卷積核進行圖像塊提取與表示,用1×1的卷積核進行非線性映射,最后用5×5的卷積核完成高分辨率圖像重建。網(wǎng)絡(luò)中通過使用大的卷積核來使淺層網(wǎng)絡(luò)(3層卷積網(wǎng)絡(luò))獲得較大的感受野,從而獲得了較好的SR重建效果。SRCNN相比于傳統(tǒng)的超分辨率算法,重建圖像的質(zhì)量有了很大的提升,但SRCNN的訓練速度非常慢。Dong等人針對SRCNN訓練慢的問題提出了FSRCNN[15]。FSRCNN網(wǎng)絡(luò)包括特征提取:直接對原始LR圖像操作;收縮:用小卷積核降維以減少參數(shù);非線性映射:感受野大;擴張:利用小卷積核擴維;反卷積層:實現(xiàn)上采樣。FSRCNN網(wǎng)絡(luò)在重建層用反卷積放大輸入圖像,可直接向網(wǎng)絡(luò)輸入LR圖像,降低網(wǎng)絡(luò)的計算量。同時FSRCNN使用更小的卷積核和更深的網(wǎng)絡(luò)層數(shù),提升訓練速度,重建圖像的質(zhì)量更高。同時Shi等人也研究了如何將低分辨率圖像直接輸入網(wǎng)絡(luò),在2016年提出了亞像素卷積超分重建網(wǎng)絡(luò)ESPCN[16]對SRCNN的重建部分進行了改進,通過亞像素卷積層來放大圖像,降低網(wǎng)絡(luò)的計算量,訓練速度有了成倍的提升。以上算法網(wǎng)絡(luò)結(jié)構(gòu)簡單,實現(xiàn)非常容易,但該網(wǎng)絡(luò)存在的致命缺點是網(wǎng)絡(luò)中使用大的卷積核以及輸入插值放大圖像,導致淺層網(wǎng)絡(luò)需要大量參數(shù)來計算,使網(wǎng)絡(luò)加深加寬時參數(shù)逐漸變多,網(wǎng)絡(luò)訓練難度大,難以收斂,SR重建效果不佳。

    1.1.2 殘差模型

    傳統(tǒng)神經(jīng)網(wǎng)絡(luò)會隨著深度加深而導致網(wǎng)絡(luò)性能退化,殘差網(wǎng)絡(luò)的提出解決了這個問題,目前大部分研究人員都在使用殘差網(wǎng)絡(luò),它成功加深了ResNet[17]網(wǎng)絡(luò)的深度,成為現(xiàn)在模型中應(yīng)用最廣泛的技術(shù)。原始低分辨率圖像與重建的高分辨率圖像在很大程度上相似,即它們的低頻部分信息基本一致,殘差學習用稀疏矩陣學習來代替原始稠密矩陣學習,使計算量大幅度降低。殘差網(wǎng)絡(luò)分為局部殘差和全局殘差,局部殘差主要用來解決隨著網(wǎng)絡(luò)的加深導致圖像退化的問題,全局殘差通過學習輸入圖像與原始HR圖像的極大相關(guān)性來重建圖像。Kim等人提出的VDSR算法[18]首次將殘差網(wǎng)絡(luò)引入單圖像超分辨率方法中。該網(wǎng)絡(luò)在輸入輸出之間用殘差進行連接使網(wǎng)絡(luò)的深度高達20層,僅學習LR圖像與HR圖像之間的高頻殘差部分,同時使用自適應(yīng)梯度裁剪來解決網(wǎng)絡(luò)加深時訓練困難性能下降的問題,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2(a)所示。VDSR的實現(xiàn)證明網(wǎng)絡(luò)結(jié)構(gòu)越深重建效果越好。RED[19]是由卷積與反卷積構(gòu)成的編碼器和解碼器,卷積層用來進行圖像的特征提取,反卷積層用來恢復圖像的內(nèi)容和細節(jié)。網(wǎng)絡(luò)中的卷積層與反卷積層的殘差跳接結(jié)構(gòu),使網(wǎng)絡(luò)的深度加深到30層并能恢復出更清晰的圖像。

    更深的網(wǎng)絡(luò)存在過度擬合和模型過于復雜的問題,為了緩解這一問題,提出了遞歸學習。Kim團隊在VDSR算法的基礎(chǔ)上通過使用全局殘差網(wǎng)絡(luò)、多目標優(yōu)化函數(shù)以及遞歸學習策略等方法提出了DRCN算法[20],網(wǎng)絡(luò)結(jié)構(gòu)如圖2(c)所示。首次將遞歸神經(jīng)網(wǎng)絡(luò)引入到圖像超分辨率算法中并取得了很好的效果。Tai等人又在DRCN的基礎(chǔ)上提出了DRRN算法[21],其結(jié)構(gòu)如圖2(d)所示,該算法采用多路徑方式的全局殘差和局部殘差進行學習,同時在殘差單元中引入了遞歸循環(huán),加深網(wǎng)絡(luò)的同時沒有帶來更多的計算量,加快了收斂速度,取得了更好的效果。這種方法證明通過遞歸網(wǎng)絡(luò)與殘差網(wǎng)絡(luò)的結(jié)合能夠使圖像層間的信息相互通信及上下文信息相互關(guān)聯(lián),對網(wǎng)絡(luò)層間連接的建設(shè)提供指導思想。EDSR(Enhanced Deep Residual Networks for SR)算法[22]提出使用全局殘差和局部殘差來學習圖像的更多高頻細節(jié),同時也可以降低網(wǎng)絡(luò)的訓練難度。具體做法是移除殘差塊中的BN層(批歸一化層),增加了卷積層的特征個數(shù)(由64改為256),提升了網(wǎng)絡(luò)的重建效果,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2(b)所示。

    圖2 VDSR、EDSR、DRCN、DRRN網(wǎng)絡(luò)結(jié)構(gòu)對比Fig.2 VDSR,EDSR,DRCN,DRRN network structure comparison

    分層特征融合可以充分利用網(wǎng)絡(luò)中不同層提取的圖像特征信息,有助于重建更準確的高分辨率圖像。首次使用分層融合方法實現(xiàn)圖像重建的算法是基于拉普拉斯金字塔網(wǎng)絡(luò)的單幅圖像超分辨率LapSRN[23],它將低分辨率圖像分為高頻細節(jié)和低頻內(nèi)容兩部分,分別對這兩部分采取不同的方法處理后將圖像融合以得到高分辨率重建圖像。LapSRN提升了網(wǎng)絡(luò)訓練速度和圖像質(zhì)量。

    1.1.3 密集模型

    網(wǎng)絡(luò)深度的增加使得梯度消失越來越明顯,受殘差連接的啟發(fā),密集連接的提出能夠緩解這類問題。密集連接中的特有的跳躍連接方式可以使每一層的輸入都充分吸收該層前面所有層的輸出,充分利用不同卷積層提取到的細節(jié)特征信息,使輸出層得到更多的參考信息來重建SR圖像,基本結(jié)構(gòu)如圖3所示?;诿芗瘔K網(wǎng)絡(luò)的SISR網(wǎng)絡(luò)SRDenseNet首次將密集連接網(wǎng)絡(luò)應(yīng)用于圖像重建,重建的SR圖像質(zhì)量有了很大的提升。該網(wǎng)絡(luò)通過堆疊密集連接的卷積層組成的稠密塊,來融合LR圖像的不同特征信息,增大了網(wǎng)絡(luò)層中信息交流的能力,并且有效抑制了梯度爆炸和梯度消失的問題[24]。He等人在SRDenseNet的基礎(chǔ)上提出了殘差密集網(wǎng)絡(luò)RDN[17],該方法在密集塊結(jié)構(gòu)的首尾增加殘差連接和卷積來進行特征降維,構(gòu)建RDN的基本單元殘差密集塊RDB,網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。RDB的作用是整合殘差塊和密集塊,RDN充分利用每一個RDB學習到的圖像分層特征,使模型具有更強的特征表達能力,重建圖像的質(zhì)量更好。

    圖3 密集連接網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of dense connection network

    圖4 RDN網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Structure of RDN network

    后來Haris等人在密集連接的基礎(chǔ)上又提出了深度反投影網(wǎng)絡(luò)D-DBPN[25],該網(wǎng)絡(luò)構(gòu)建了多個上下投影單元來進行淺層特征到深層特征的映射,同時使用密集連接的方法使淺層網(wǎng)絡(luò)和投影網(wǎng)絡(luò)的輸出堆疊到迭代單元的輸入,使最終恢復圖像的效果優(yōu)于SRDenseNet。這類方法將稠密塊應(yīng)用到了網(wǎng)絡(luò)中,加強了圖像特征交流和圖像特征復用,極大豐富了重建模塊輸入圖像的信息以得到更加準確的特征細節(jié)來重建更好的圖像。

    1.1.4 注意力機制模型

    上述的網(wǎng)絡(luò)模型在各個通道都是對圖像的特征映射同等處理,但是在人類的視覺環(huán)境中圖像在不同的區(qū)域和通道中有著不同的重要性,如果等價處理這些映射將會造成計算量資源大,限制了網(wǎng)絡(luò)的深度。

    注意力機制被引入到圖像超分辨率重建中,并且取得了很好的效果。如RCAN[26](Super-Resolution Using Very Deep Residual Channel Attention Networks),該算法通過學習不同通道的重要性得到權(quán)重值,來自適應(yīng)地調(diào)整每個通道特征,強化有用通道的同時抑制無用通道,充分利用計算資源。通道注意力機制結(jié)構(gòu)如圖5所示,其中HGP用于運算提取通道描述符,WD與WU為全連接層的參數(shù),f是非線性變換,相當于對不同的通道特征重新加權(quán)分配。RACN還通過使用全局殘差和局部殘差結(jié)構(gòu)使網(wǎng)絡(luò)的深度高達400層,恢復圖像效果得到顯著提升,總體來說,RCAN在PSNR和SSIM值上都取得了最佳重建結(jié)果。

    圖5 RCAN網(wǎng)絡(luò)結(jié)構(gòu)Fig.5 Structure of RCAN network

    1.2 基于生成對抗網(wǎng)絡(luò)GAN模型的超分方法

    現(xiàn)有的基于CNN網(wǎng)絡(luò)模型的超分算法不論是恢復圖像的準確性還是訓練速度都取得了重大突破,但還存在一些缺陷,如圖像缺乏高頻細節(jié),圖像邊緣模糊,尤其在較大的放大因子下,這種缺陷更加明顯。對抗網(wǎng)絡(luò)的引入將超分重建圖像的質(zhì)量推向了一個新的高度,使網(wǎng)絡(luò)能夠生成更加精細的紋理細節(jié),進一步增強重建圖像的視覺效果。

    Leding等人首次將GAN[27]應(yīng)用到圖像超分辨率重建領(lǐng)域中,在2017年提出了SRGAN(Photo-Realistic Single Image Super Resolution Using a Generative Adversarial Network)算法[28],SRGAN的生成器網(wǎng)絡(luò)結(jié)構(gòu)主要由多個結(jié)構(gòu)相同的殘差塊組成,包括兩個3×3卷積層和64個特征映射,然后是BN層[29]及PReLU激活函數(shù)[30],最后通過兩個亞像素卷積層用來實現(xiàn)圖像上采樣。SRGAN的鑒別器網(wǎng)絡(luò)同樣包括多個卷積層,特征通道由64逐漸變?yōu)?12,激活函數(shù)為LReLU,最后使用兩個全連接層和S型激活函數(shù)得到樣本的分類概率。SRGAN的訓練原理是生成器生成的圖像盡可能騙過鑒別器,而鑒別器則盡可能區(qū)分生成器生成的圖像與真實高分辨率圖像,通過雙方的相互博弈,克服了1.1節(jié)所提網(wǎng)絡(luò)模型恢復圖像質(zhì)量差的缺點,使恢復的圖像更加自然。

    隨后,ESRGAN[31]通過移除SRGAN生成網(wǎng)絡(luò)中的BN層來降低重建圖像中產(chǎn)生的偽影,并且結(jié)合多級殘差網(wǎng)絡(luò)和密集連接提出密集殘差塊RRDB,如圖6所示,該結(jié)構(gòu)具有更深更復雜的網(wǎng)絡(luò)結(jié)構(gòu),因此具有更高的容量,更容易訓練。在判別網(wǎng)絡(luò)中使用相對平均判別器,生成更穩(wěn)定、質(zhì)量更高的數(shù)據(jù)樣本,提升模型的訓練穩(wěn)定性和圖像的重建質(zhì)量。

    圖6 RRDB網(wǎng)絡(luò)結(jié)構(gòu)Fig.6 Structure of RRDB network

    基于生成對抗網(wǎng)絡(luò)GAN網(wǎng)絡(luò)模型的超分方法相較于基于CNN網(wǎng)絡(luò)模型的超分方法能夠獲得更接近人眼真實感知的重建圖像,所以它更適合一些對感官要求比較高的圖像重建任務(wù)。但是對于需要高精度像素信息的任務(wù),明顯不適用?;谏蓪咕W(wǎng)絡(luò)GAN網(wǎng)絡(luò)模型的超分方法學習速度慢,網(wǎng)絡(luò)計算較復雜,對硬件要求高,所以訓練難度很大。

    1.3 小結(jié)

    1.1至1.2節(jié)分別詳細介紹了基于CNN網(wǎng)絡(luò)模型和基于GAN網(wǎng)絡(luò)模型的超分方法。整體而言,這兩類算法的重建質(zhì)量在不斷提高,模型的訓練速度也有一定的提升。表1總結(jié)了不同網(wǎng)絡(luò)模型的優(yōu)缺點及適用場景,表2總結(jié)了不同算法的網(wǎng)絡(luò)結(jié)構(gòu)及優(yōu)缺點對比。由表1可以看出,隨著深度學習的發(fā)展,超分辨率重建算法的網(wǎng)絡(luò)越來越復雜,重建效果也越來越優(yōu),已經(jīng)達到了很高的水平,但是隨著網(wǎng)絡(luò)復雜度的提高也帶來了計算量的增大,因此模型訓練難度也加大,難以滿足實時重建。由表2可以看出,研究人員在不斷嘗試引入新的網(wǎng)絡(luò)到超分辨率重建領(lǐng)域,加深網(wǎng)絡(luò)的深度,使重建圖像的質(zhì)量和網(wǎng)絡(luò)的訓練速度越來越好。基于深度學習的圖像超分辨率重建方法在發(fā)展的過程中,不斷解決之前算法的缺陷,向著滿足更高更多樣化需求的方向發(fā)展,基于生成對抗網(wǎng)絡(luò)GAN模型的超分方法的提出更是提升了重建圖像的真實感。但是同時也面臨著新的挑戰(zhàn),模型訓練慢的問題始終沒有得到根本性解決。未來該領(lǐng)域的發(fā)展,應(yīng)在提高重建質(zhì)量的同時提升訓練速度,并能降低模型的規(guī)模以滿足實際應(yīng)用中對于模型規(guī)模限制的要求,使該類模型能在一些硬件平臺上得到大規(guī)模的部署和應(yīng)用。

    表1 不同網(wǎng)絡(luò)模型的優(yōu)缺點及適用場景Table 1 Advantages and disadvantages of different network models and applicable scenarios

    表2 不同算法的網(wǎng)絡(luò)結(jié)構(gòu)及優(yōu)缺點Table 2 Network structure and advantages and disadvantages of different algorithms

    2 單圖像超分辨率重建尺度放大方法

    圖像超分辨率尺度放大其實質(zhì)是圖像上采樣,放大原圖像并提高圖像的分辨率。根據(jù)上采樣的方式和時機,模型所重建的圖像效果大不相同。

    2.1 上采樣方式

    目前,該領(lǐng)域常見的圖像上采樣方式主要有:基于插值的圖像SR上采樣、亞像素卷積圖像SR上采樣和反卷積圖像SR上采樣。

    基于插值的圖像SR上采樣是利用合適的內(nèi)插算法在圖像原始像素點的中間插入新生成的像素點。使用插值法來放大圖像的算法主要有最鄰近插值法和雙三次插值法等?;诓逯档膱D像SR上采樣方法計算量小,原理簡單,能夠高效率地放大低分辨率圖像的尺度,但是這種方法由于沒有考慮到離待測樣點遠的其他像素點的影響,因而圖像像素損失較大,重建圖像有鋸齒和模糊現(xiàn)象。早期使用插值法來放大圖像的算法包括SRCNN、VDSR等。

    亞像素卷積[16]圖像SR上采樣是一種高效、快速、無參的像素重新排列的上采樣方式,如圖7(a)所示,它的原理是輸入r2個通道的特征圖,通過特定的算法規(guī)則將所有的像素重新排列,最后生成一幅尺度放大的圖像。這種方式非常靈活,對于不同的重建倍數(shù),只需要改變低分辨率空間中的卷積通道數(shù),且上采樣速度很快,可以實時地實現(xiàn)上采樣。

    反卷積(Decnvolution)[32]即卷積操作的逆運算,是將卷積變換過程中某一步驟反向轉(zhuǎn)換,對圖像進行補零擴充操作再卷積,將小部分缺失像素信息最大化恢復,從而放大圖像的尺寸,其原理如圖7(b)所示。該方法屬于基于學習的上采樣方法,能夠減少圖像鋸齒狀失真等現(xiàn)象。目前SISR重建領(lǐng)域最常用的方法就是反卷積圖像SR上采樣,如FSRCNN、EDSR等。

    圖7 亞像素卷積和反卷積實現(xiàn)原理Fig.7 Principle of deconvolution and sub-pixel convolution

    2.2 上采樣時機

    目前SISR重建領(lǐng)域上采樣時機包括預(yù)先上采樣、后上采樣、漸進上采樣及迭代變動上采樣。

    預(yù)先上采樣考慮到直接學習LR圖像到HR圖像比較困難,因此先使用傳統(tǒng)的插值法將圖像上采樣到HR圖像,再通過神經(jīng)網(wǎng)絡(luò)精調(diào)。最早使用預(yù)先上采樣方法的是SRCNN算法,后來VDSR、DRCN及DRRN都使用該方法對圖像進行上采樣。由于該方法將最困難的上采樣操作交給了傳統(tǒng)的方法,神經(jīng)網(wǎng)絡(luò)值需要對上采樣后的粗糙圖像進行調(diào)整,因此減少了訓練難度。但是在預(yù)處理階段進行上采樣操作,增大了網(wǎng)絡(luò)的計算量,且網(wǎng)絡(luò)深度越深計算量越大,模型的效率和重建圖像的質(zhì)量都有待提高。

    后上采樣解決了預(yù)先上采樣計算量大的問題,將上采樣操作放在SISR模型的最后一個模塊,通過亞像素卷積或者反卷積重建來放大圖像的特征尺度。使用該方法的網(wǎng)絡(luò)模型有FSRCNN、ESPCN等。后上采樣方法雖然提高了計算效率但恢復出的圖像存在失真和重建質(zhì)量差的問題。

    為了解決后上采樣中的問題,研究學者們提出了漸進上采樣,在級聯(lián)的深度卷積神經(jīng)網(wǎng)絡(luò)模型下,每個階段都進行一次上采樣,從而得到更高分辨率的圖像,最后再使用卷積神經(jīng)網(wǎng)絡(luò)進行精調(diào),實現(xiàn)較好的上采樣效果,使恢復的圖像質(zhì)量更優(yōu)。漸進上采樣使用低倍上采樣(2倍)來解決大尺度(4倍、8倍)上采樣的問題。使用該方法的網(wǎng)絡(luò)有LapSRN和EUSR,表3為ESUR算法[33]使用不同的上采樣方法重建圖像的效果,其中數(shù)字加粗表示最優(yōu),可以看出相比于直接上采樣,漸進上采樣恢復圖像的效果更好。

    表3 ESUR算法中采用不同上采樣方法重建效果對比Table 3 Comparison of reconstruction effects using different upsampling methods in ESUR network

    迭代變動上采樣方法是迭代地進行上采樣之后再進行反向傳播并且精調(diào),它是通過計算重建誤差來調(diào)整高分辨率圖像的。這種方法能夠?qū)W習到更多不同深度的圖像上采樣特性,通過圖像在不同層的特征來重建上采樣圖像,使得恢復的圖像擁有更多細節(jié)特征。迭代變動上采樣方法被應(yīng)用在DBPN和SRFBN算法[34]中,都展現(xiàn)出良好的重建效果。DBPN網(wǎng)絡(luò)通過交替循環(huán)連接上采樣層和下采樣層,最后用所有中間重建圖像來重建最終的HR圖像,使得重建出的圖像效果更佳。SRFBN通過迭代具有密集跳躍連接的上下采樣反饋塊來學習,使重建出的HR圖像更好。近年來,迭代變動上采樣方法也是研究學者們使用的主流方法之一。

    3 基于深度學習的單圖像超分辨率重建損失函數(shù)

    目前在單幅圖像超分辨率重建領(lǐng)域常用的損失函數(shù)主要有像素損失函數(shù)和感知損失函數(shù)。

    3.1 像素損失函數(shù)

    許多超分辨率重建網(wǎng)絡(luò)訓練模型都是以均方誤差(MSE)[35]作為損失函數(shù)訓練網(wǎng)絡(luò)的,如SRCNN、DRCN、FSRCNN等。MSE計算的是實際值與目標值之間絕對值的平方和,其表達式如下:

    其中,n為訓練樣本的數(shù)量,θ為訓練參數(shù),F(xiàn)(Xi,θ)網(wǎng)絡(luò)重建后的圖像,Yi為對應(yīng)的高分辨率圖像。MSE衡量了網(wǎng)絡(luò)重建出的高分辨率圖像與原始高分辨率圖像之間的差值,使得基于深度學習的圖像超分模型在性能方面有了很大的提高。但是MSE損失能夠?qū)Υ蟮膿p失進行懲罰,在小的損失上卻無能為力,因此恢復出的圖像會模糊。與MSE類似的另一種損失函數(shù)為絕對值誤差MAE。它計算實際值與目標值之間絕對差值的總和,LapSRN、ESRGAN等都使用MAE損失函數(shù)取得了較好的效果。其表達式如下:

    為了提高模型的泛化能力,Lai等人提出了L1損失的變體,其表達式如下:

    3.2 感知損失函數(shù)

    基于像素的損失函數(shù)沒有考慮到圖像的感知、紋理質(zhì)量,在視覺上難以令人滿意。在GAN被應(yīng)用于圖像超分辨率領(lǐng)域之后,基于感知的損失函數(shù)因其能恢復更豐富的高頻細節(jié)而被廣泛應(yīng)用。目前,基于感知的損失函數(shù)主要有內(nèi)容損失和對抗損失,其中內(nèi)容損失又分為特征重建損失和風格重建損失。

    Smonyan等人[36]首次通過預(yù)訓練的VGG19網(wǎng)絡(luò)提取重建圖像與原始高分辨率圖像在特征空間中對應(yīng)的特征映射提出特征重建損失函數(shù),其表達式如下:

    其中,GθG(X)為生成的高分辨率圖像,?j為VGG19網(wǎng)絡(luò)內(nèi)第j個卷積獲得的特征圖,W和H為特征圖的寬和高,X、Y為原始LR圖像和重建的HR圖像。實驗表明,在網(wǎng)絡(luò)模型中使用特征重建損失函數(shù)能夠獲得比基于像素損失更好的視覺效果。Gatys等人[37]在特征重建損失函數(shù)的基于上又提出了風格重建損失函數(shù),該函數(shù)首先在loss網(wǎng)絡(luò)的每一層中對原始LR圖像和重建的HR圖像計算Gram矩陣,計算公式如下:

    隨后在對應(yīng)層中計算Gram矩陣的歐式距離差并相加得到風格重建損失函數(shù),如式(6):

    風格重建損失使重建圖像與原始圖像在條紋、色澤上保持一致,重建出的高分辨率圖像質(zhì)量更優(yōu)。

    SRGAN網(wǎng)絡(luò)首次提出對抗損失,其基本形式如下:

    其中,DθD(GθG(X))為模型生成的HR圖像,GθG(X)是原始HR圖像的概率。網(wǎng)絡(luò)最終的優(yōu)化目標為最小最大化問題:

    其中,Ptrain(IHR)為HR圖像分布,PG(ILR)為原始LR圖像分布。對抗網(wǎng)絡(luò)訓練使得生成的圖像與原始高分辨率圖像高度相似,使判別器難以區(qū)分,最終獲得高度接近原始高分辨率的圖像。ESRGAN網(wǎng)絡(luò)中使用了相對平均判別器[38],讓判別器預(yù)測真實HR圖像比生成HR圖像更真實的概率。

    其中,C(real)為鑒別器判別結(jié)果,E[C(fake)]為鑒別器網(wǎng)絡(luò)判別結(jié)果的平均值,σ為Sigmoid激活函數(shù),ESRGAN實驗結(jié)果表明使用相對平均判別器恢復出的圖像具有更銳利的邊緣和更多的紋理細節(jié)。

    3.3 小結(jié)

    3.1至3.2節(jié)分別詳細介紹了圖像超分辨率重建領(lǐng)域常用的兩種損失函數(shù)。其中像素損失始終反映的是圖像像素之間的誤差,而沒有考慮到像素與像素之間的內(nèi)在聯(lián)系,因此恢復的圖像邊緣模糊有振鈴現(xiàn)象,如FSRCNN、DRCN等算法恢復出的圖像邊緣模糊。內(nèi)容損失通過使用特征足夠相似來促進生成圖像的質(zhì)量,而對抗損失可以使鑒別網(wǎng)絡(luò)可以提取真實圖像中的一些難以獲取的潛在特征將解決方案推向自然圖像流形,在感知質(zhì)量上有顯著的提高使重建圖像相對真實,但圖像的PSNR[39-40]值下降了。隨著損失函數(shù)的發(fā)展,圖像超分辨率重建的質(zhì)量也越來越高,滿足更高更多樣化的需求。但是現(xiàn)有的損失函數(shù)仍然不能充分結(jié)合圖像中的語義、內(nèi)容等信息來重建圖像,未來該領(lǐng)域損失函數(shù)的發(fā)展,應(yīng)在提高PSNR值的同時恢復圖像中的更多紋理細節(jié),滿足人眼觀感。

    4 實驗對比分析

    本章對現(xiàn)有的單幅圖像超分辨率重建算法進行性能對比。通過PSNR和SSIM評價指標來度量超分算法的性能[41]。所對比的算法包括雙三次插值Bicubic和10個文中提到的基于深度學習的單幅圖像超分辨率重建算法。在公開數(shù)據(jù)集DIV2K[42]上訓練,網(wǎng)絡(luò)在Set5[43]、Set14[44]和BSD100[45]數(shù)據(jù)集下完成測試,基于像素損失函數(shù)的SR方法實驗結(jié)果如表4。

    表4 不同數(shù)據(jù)集下基于像素損失函數(shù)的SR算法的PSNR和SSIM值對比Table 4 Comparison of PSNR and SSIM values of SR algorithm based on pixel loss function under different data sets

    對比實驗數(shù)據(jù)可以明顯看出基于深度學習的算法相比傳統(tǒng)算法的PSNR值和SSIM值都有了很大的提升。作為圖像超分辨率重建領(lǐng)域的開山鼻祖,SRCNN在插值方法的基礎(chǔ)上利用卷積網(wǎng)絡(luò)強大的特征學習能力,構(gòu)建了端到端的映射,使重建圖像的質(zhì)量遠超雙三次插值Bicubic算法。隨著SRCNN的突破性進展,研究學者們在該算法的基礎(chǔ)上提出很多超分辨率算法,如FSRCNN在SRCNN的基礎(chǔ)上加快了訓練速度且恢復出更好的圖像,VDSR、DRCN、DRRN、EDSR將殘差連接與稠密連接引入網(wǎng)絡(luò)來構(gòu)建更深更復雜的網(wǎng)絡(luò)結(jié)構(gòu),實驗表明能夠獲得更好的恢復效果。LapSRN算法融合了網(wǎng)絡(luò)中不同層提取的特征信息,簡化網(wǎng)絡(luò)結(jié)構(gòu)提升了訓練速度,恢復圖像的效果接近DRCN。目前最好的算法是RCAN,它在EDN的基礎(chǔ)上將注意力機制引入網(wǎng)絡(luò)通道中,同時構(gòu)建殘差結(jié)構(gòu)加深網(wǎng)絡(luò)深度,放大因子為2時,與傳統(tǒng)Bicubic算法相比在Set5、Set14和BSD100數(shù)據(jù)集上的PSNR值分別提高4.67、3.99和2.9,SSIM值分別提高0.031 8、0.053 7和0.06;放大因子為3時,PSNR值分別提高4.46、3.21和2.18,SSIM值分別提高0.062 3、0.075 2和0.073 7;放大因子為4時,PSNR值分別提高4.31、2.98和1.89,SSIM值分別提0.909、0.088 3和0.078。通過觀察實驗數(shù)據(jù)可以看出,算法的網(wǎng)絡(luò)越深,重建圖像的質(zhì)量越好。隨著放大因子的增大,算法的性能提升越來越弱,因此對于大的放大因子圖像超分辨率重建仍然具有很大的挑戰(zhàn)。

    基于像素的損失函數(shù)存在的問題是重建圖像邊緣平滑,缺乏高頻信息,人眼視覺感知效果并不是很好。感知損失函數(shù)能在一定程度上提升圖像的人眼視覺感知質(zhì)量。Set14數(shù)據(jù)集上放大因子為4時基于感知損失函數(shù)的網(wǎng)絡(luò)與基于像素損失函數(shù)的網(wǎng)絡(luò)重建圖像的結(jié)果比較為表5。L1、L2表示MSE損失函數(shù)和MAE損失函數(shù),LC、LGAN表示內(nèi)容損失函數(shù)和對抗損失函數(shù)。其可視化效果圖如圖8。由表5可以看出,基于感知的損失函數(shù)網(wǎng)絡(luò)(SRGAN、ESGAN)相比于基于像素的損失函數(shù)網(wǎng)絡(luò)(EDSR、SRCNN)重建圖像的PSNR值有所下降。但是對比圖8的可視化效果可以看出,基于感知的損失函數(shù)網(wǎng)絡(luò)恢復出的圖像紋理更豐富,邊緣更清晰,圖中胡須毛發(fā)相對比較清楚,更接近原始圖像,人眼的感知效果更好。ESRGAN結(jié)合感知損失和像素損失,均衡了視覺感知和像素精確值,使重建圖像在視覺上更符合真實圖像。

    表5 不同類型損失函數(shù)算法Table 5 Different types of loss function algorithm

    圖8 Set14數(shù)據(jù)集上不同網(wǎng)絡(luò)重建圖像效果可視化Fig.8 Visualization of effect of different network reconstruction images on Set14 dataset

    5 總結(jié)與展望

    本文在對單幅圖像超分辨率重建網(wǎng)絡(luò)廣泛研究的基礎(chǔ)上,系統(tǒng)總結(jié)了基于深度學習的圖像超分辨率重建算法的發(fā)展情況,從網(wǎng)絡(luò)模型結(jié)構(gòu)、尺度放大方法和損失函數(shù)三個方面來詳細介紹了圖像超分辨率算法,分析主流算法的網(wǎng)絡(luò)結(jié)構(gòu)和優(yōu)缺點,并對其性能進行對比。

    總體來看,基于CNN的圖像超分辨率重建網(wǎng)絡(luò)結(jié)構(gòu)越來越復雜,近幾年許多研究學者在這些主流算法的基礎(chǔ)上不斷改進,重建圖像的像素精確值越來越高[46],但是人眼感知效果并不理想,且重建速度上普遍偏慢,難以滿足實際應(yīng)用的實時性需求,在應(yīng)用推廣上面臨困難。而基于GAN的圖像超分辨率重建網(wǎng)絡(luò)雖然在圖像的像素精確值上不如前者,但是重建出的圖像在人眼視覺感知上更有優(yōu)勢,隨著近幾年的發(fā)展,其恢復出的圖像更逼真更自然,且重建圖像的像素精確值也在逐漸提高[47-48],在實際應(yīng)用上更有潛力。未來的研究方向?qū)⒏鼘W⒂谙袼刂?、視覺感知和速度的結(jié)合,借鑒CNN高像素精度和GAN高感知質(zhì)量的優(yōu)勢,同時提高像素值與感知質(zhì)量,以滿足實際需求。

    深度學習的快速發(fā)展,以及硬件設(shè)施的不斷完善,為圖像超分辨率領(lǐng)域提供了非常好的發(fā)展機遇。雖然現(xiàn)有的深度學習圖像超分辨率重建算法的性能已經(jīng)遠遠超越了傳統(tǒng)算法,但是還有很多改進空間。如何實現(xiàn)任意放大倍數(shù)的超分重建,如何在放大比例較大時保證重建出的高分辨率圖像質(zhì)量,如何選擇重建圖像的質(zhì)量評價標準,如何更好地利用場景信息和圖像的語義、內(nèi)容信息,如何滿足視頻監(jiān)控、衛(wèi)星遙感成像、醫(yī)學圖像、刑偵分析和人臉識別等實際應(yīng)用領(lǐng)域的精確性和實用性的需求等,這將是接下來圖像超分辨率重建領(lǐng)域的重點研究方向。

    猜你喜歡
    殘差分辨率損失
    基于雙向GRU與殘差擬合的車輛跟馳建模
    少問一句,損失千金
    胖胖損失了多少元
    基于殘差學習的自適應(yīng)無人機目標跟蹤算法
    基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
    自動化學報(2019年6期)2019-07-23 01:18:32
    EM算法的參數(shù)分辨率
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    原生VS最大那些混淆視聽的“分辨率”概念
    基于深度特征學習的圖像超分辨率重建
    自動化學報(2017年5期)2017-05-14 06:20:52
    一種改進的基于邊緣加強超分辨率算法
    国产成人一区二区在线| 一夜夜www| 特级一级黄色大片| 99久国产av精品| 精品日产1卡2卡| 国产乱人偷精品视频| 久久久欧美国产精品| 99久久九九国产精品国产免费| 伦精品一区二区三区| 国产黄片美女视频| 久久精品91蜜桃| 国产av在哪里看| 12—13女人毛片做爰片一| 人人妻人人澡人人爽人人夜夜 | 国产精品久久视频播放| 日日干狠狠操夜夜爽| 亚洲五月天丁香| 免费观看的影片在线观看| 99在线视频只有这里精品首页| 国产美女午夜福利| 国产精品伦人一区二区| 国产又黄又爽又无遮挡在线| 欧美潮喷喷水| 一个人看的www免费观看视频| 久久人人精品亚洲av| 欧美性猛交黑人性爽| 别揉我奶头~嗯~啊~动态视频| 又黄又爽又刺激的免费视频.| 久久久久免费精品人妻一区二区| 国产一区二区三区av在线 | 日韩 亚洲 欧美在线| 中文字幕久久专区| 国内少妇人妻偷人精品xxx网站| 亚洲中文字幕日韩| 搡老岳熟女国产| 久久综合国产亚洲精品| 成年免费大片在线观看| 搞女人的毛片| 一区福利在线观看| 六月丁香七月| 一本精品99久久精品77| 成年女人看的毛片在线观看| 国产av不卡久久| 国产亚洲av嫩草精品影院| 久久久久久久久久久丰满| 三级经典国产精品| 久久婷婷人人爽人人干人人爱| 色播亚洲综合网| 久久草成人影院| 久久久久久久久久成人| 国产午夜精品久久久久久一区二区三区 | 欧美性感艳星| 午夜精品国产一区二区电影 | 成年女人看的毛片在线观看| 变态另类丝袜制服| 中文字幕精品亚洲无线码一区| 欧美最黄视频在线播放免费| 国产精品综合久久久久久久免费| 国产精品日韩av在线免费观看| 别揉我奶头~嗯~啊~动态视频| 成人一区二区视频在线观看| 男人舔奶头视频| 日韩强制内射视频| 精品午夜福利视频在线观看一区| 少妇高潮的动态图| 最新中文字幕久久久久| 午夜福利在线观看吧| 别揉我奶头 嗯啊视频| 黄色日韩在线| 黑人高潮一二区| 国内精品宾馆在线| 赤兔流量卡办理| 91午夜精品亚洲一区二区三区| 国产一区二区激情短视频| 精品人妻熟女av久视频| 午夜免费男女啪啪视频观看 | 精品日产1卡2卡| 伦理电影大哥的女人| 搡女人真爽免费视频火全软件 | 久久精品国产亚洲av涩爱 | 亚洲av第一区精品v没综合| 男人狂女人下面高潮的视频| 欧美激情国产日韩精品一区| 欧美不卡视频在线免费观看| 国产精品一区二区免费欧美| 哪里可以看免费的av片| 亚洲国产欧美人成| 国产黄色小视频在线观看| 国模一区二区三区四区视频| 久久人人爽人人片av| 亚洲av电影不卡..在线观看| 免费av观看视频| 人人妻人人澡人人爽人人夜夜 | 国产高清不卡午夜福利| 最好的美女福利视频网| 免费不卡的大黄色大毛片视频在线观看 | 精品久久久久久成人av| 精品人妻视频免费看| 日韩,欧美,国产一区二区三区 | 久久久久国内视频| 成年免费大片在线观看| 一级毛片aaaaaa免费看小| 久久鲁丝午夜福利片| 22中文网久久字幕| 草草在线视频免费看| 久久久久久久午夜电影| 午夜福利在线观看吧| 夜夜夜夜夜久久久久| 99热这里只有是精品50| 国产精品亚洲美女久久久| 成人毛片a级毛片在线播放| 2021天堂中文幕一二区在线观| 亚洲精品在线观看二区| 欧美精品国产亚洲| 日日干狠狠操夜夜爽| 亚洲国产精品久久男人天堂| 国产高潮美女av| 中文字幕熟女人妻在线| 欧美中文日本在线观看视频| 黄色日韩在线| 成人特级av手机在线观看| 99热这里只有是精品在线观看| 欧美人与善性xxx| 一区福利在线观看| 国产人妻一区二区三区在| 小蜜桃在线观看免费完整版高清| 国产av在哪里看| 综合色av麻豆| 国产真实乱freesex| 国模一区二区三区四区视频| 欧美成人免费av一区二区三区| 又粗又爽又猛毛片免费看| 国产精品久久久久久av不卡| 91在线精品国自产拍蜜月| 国产探花在线观看一区二区| 久久久国产成人免费| 久久韩国三级中文字幕| 亚洲熟妇中文字幕五十中出| 国产蜜桃级精品一区二区三区| 18禁黄网站禁片免费观看直播| 综合色丁香网| 成人二区视频| 色尼玛亚洲综合影院| 亚洲图色成人| 亚洲不卡免费看| 变态另类丝袜制服| 亚洲自拍偷在线| h日本视频在线播放| 亚洲av二区三区四区| 亚洲欧美精品综合久久99| 99久国产av精品| 少妇的逼水好多| 村上凉子中文字幕在线| 亚洲va在线va天堂va国产| 国产91av在线免费观看| 亚洲中文日韩欧美视频| 黄色日韩在线| 国产精品电影一区二区三区| a级毛色黄片| 国产片特级美女逼逼视频| 99九九线精品视频在线观看视频| 亚洲av一区综合| 夜夜爽天天搞| 国产乱人偷精品视频| 日本-黄色视频高清免费观看| 深夜a级毛片| 国产一区二区三区av在线 | 免费人成视频x8x8入口观看| 激情 狠狠 欧美| 国产精品三级大全| 久久综合国产亚洲精品| 在线看三级毛片| 欧美激情久久久久久爽电影| 大型黄色视频在线免费观看| 九九久久精品国产亚洲av麻豆| 神马国产精品三级电影在线观看| 又黄又爽又免费观看的视频| 国产精品乱码一区二三区的特点| 国产精品国产高清国产av| 看免费成人av毛片| 国产高清不卡午夜福利| 精品久久久久久久久av| 色av中文字幕| 日本成人三级电影网站| eeuss影院久久| 精品久久久久久久久av| 欧美性感艳星| 久久久久久久久大av| 精品人妻偷拍中文字幕| 亚洲中文字幕一区二区三区有码在线看| 欧美最新免费一区二区三区| 午夜影院日韩av| 一区二区三区四区激情视频 | 91久久精品国产一区二区成人| 99久久无色码亚洲精品果冻| 日本一二三区视频观看| 久久人人爽人人爽人人片va| 亚洲熟妇中文字幕五十中出| 99久久中文字幕三级久久日本| a级毛片免费高清观看在线播放| 久久6这里有精品| 美女cb高潮喷水在线观看| 亚洲av电影不卡..在线观看| 又黄又爽又免费观看的视频| 色哟哟·www| 成人二区视频| 久久久久久九九精品二区国产| 搡老妇女老女人老熟妇| 国产av一区在线观看免费| 天天躁夜夜躁狠狠久久av| 十八禁网站免费在线| 99久久无色码亚洲精品果冻| 国产麻豆成人av免费视频| 1024手机看黄色片| 一进一出抽搐动态| 成人二区视频| 校园人妻丝袜中文字幕| 亚州av有码| 69人妻影院| 少妇人妻精品综合一区二区 | 国产真实伦视频高清在线观看| 欧美日韩一区二区视频在线观看视频在线 | 婷婷六月久久综合丁香| 一个人免费在线观看电影| 成人亚洲精品av一区二区| 日韩成人伦理影院| av在线蜜桃| 2021天堂中文幕一二区在线观| 日韩人妻高清精品专区| 日韩欧美 国产精品| 一级a爱片免费观看的视频| 中国国产av一级| 一级毛片我不卡| 国产精品一二三区在线看| 赤兔流量卡办理| 亚洲欧美成人综合另类久久久 | 偷拍熟女少妇极品色| 欧美成人免费av一区二区三区| 国产成人freesex在线 | 综合色丁香网| 亚洲欧美日韩卡通动漫| 在现免费观看毛片| 51国产日韩欧美| 亚洲国产精品久久男人天堂| 色5月婷婷丁香| 全区人妻精品视频| 97在线视频观看| 欧美高清性xxxxhd video| 中文字幕av成人在线电影| 岛国在线免费视频观看| 国产精品人妻久久久久久| 精品人妻视频免费看| 噜噜噜噜噜久久久久久91| 亚洲欧美中文字幕日韩二区| 亚洲精品乱码久久久v下载方式| 一级av片app| 日韩大尺度精品在线看网址| 亚洲欧美日韩东京热| 精品人妻视频免费看| 我要搜黄色片| 亚洲精品影视一区二区三区av| 欧美中文日本在线观看视频| 不卡视频在线观看欧美| 国产高清视频在线播放一区| 亚洲精品色激情综合| 国产一区二区激情短视频| 最后的刺客免费高清国语| 日本撒尿小便嘘嘘汇集6| 国产精品一区二区免费欧美| 两性午夜刺激爽爽歪歪视频在线观看| 日产精品乱码卡一卡2卡三| 激情 狠狠 欧美| 精品日产1卡2卡| 高清午夜精品一区二区三区 | 国产高清不卡午夜福利| 最好的美女福利视频网| 99在线人妻在线中文字幕| 免费大片18禁| 亚洲aⅴ乱码一区二区在线播放| 欧美3d第一页| 久久久久国产网址| 婷婷六月久久综合丁香| 亚洲欧美日韩高清专用| 国产av麻豆久久久久久久| 精品一区二区三区人妻视频| 亚洲国产精品sss在线观看| 欧美性猛交黑人性爽| 禁无遮挡网站| 国产色爽女视频免费观看| 国产精品一区二区三区四区免费观看 | 日本精品一区二区三区蜜桃| 人妻少妇偷人精品九色| 国产精品亚洲美女久久久| 一级a爱片免费观看的视频| 最近视频中文字幕2019在线8| 久久国内精品自在自线图片| 在线播放国产精品三级| 国产精品乱码一区二三区的特点| 国产精品无大码| 69人妻影院| 内地一区二区视频在线| 国产白丝娇喘喷水9色精品| 男女啪啪激烈高潮av片| 成人性生交大片免费视频hd| 亚洲欧美精品自产自拍| 国产一区二区三区在线臀色熟女| 如何舔出高潮| 国产精品乱码一区二三区的特点| 精华霜和精华液先用哪个| 国产精品女同一区二区软件| 内地一区二区视频在线| 亚洲av五月六月丁香网| 在线观看一区二区三区| 黄色视频,在线免费观看| 在现免费观看毛片| 国产精品野战在线观看| 免费在线观看影片大全网站| 国产高清视频在线观看网站| 一本久久中文字幕| av在线老鸭窝| 国产高清激情床上av| 成年女人毛片免费观看观看9| 亚洲中文字幕日韩| 丰满乱子伦码专区| 乱系列少妇在线播放| 天堂网av新在线| 99视频精品全部免费 在线| 亚洲自偷自拍三级| 久99久视频精品免费| av专区在线播放| 精品久久久久久久久亚洲| 免费观看人在逋| 99热这里只有精品一区| 可以在线观看毛片的网站| 久久久午夜欧美精品| 在现免费观看毛片| 不卡视频在线观看欧美| 亚洲av美国av| 麻豆国产av国片精品| 日本一本二区三区精品| 国产精品99久久久久久久久| 日日啪夜夜撸| 久久久精品欧美日韩精品| 国产精品一二三区在线看| 中文字幕av在线有码专区| 国产男靠女视频免费网站| 少妇裸体淫交视频免费看高清| 看黄色毛片网站| 日韩制服骚丝袜av| 人妻少妇偷人精品九色| 伊人久久精品亚洲午夜| 亚洲美女黄片视频| 偷拍熟女少妇极品色| 91精品国产九色| 人妻制服诱惑在线中文字幕| 少妇丰满av| 天天躁日日操中文字幕| 欧美另类亚洲清纯唯美| 永久网站在线| 久久九九热精品免费| 亚洲中文字幕日韩| 插阴视频在线观看视频| 久久久久久久久久成人| 国产精品,欧美在线| 少妇人妻精品综合一区二区 | 亚洲国产欧美人成| 毛片女人毛片| 国产在线男女| av在线观看视频网站免费| 欧美性感艳星| 乱码一卡2卡4卡精品| 午夜福利18| 麻豆av噜噜一区二区三区| 国产精品综合久久久久久久免费| 日韩av在线大香蕉| 日韩在线高清观看一区二区三区| 亚洲精品日韩av片在线观看| 18禁裸乳无遮挡免费网站照片| 亚洲精品乱码久久久v下载方式| 亚洲第一区二区三区不卡| 久久久久久大精品| 久久草成人影院| 欧美日韩一区二区视频在线观看视频在线 | 老司机福利观看| 国内精品美女久久久久久| 亚洲熟妇中文字幕五十中出| aaaaa片日本免费| 日韩,欧美,国产一区二区三区 | 少妇熟女欧美另类| 欧美日本视频| 我的女老师完整版在线观看| 非洲黑人性xxxx精品又粗又长| 嫩草影视91久久| 熟女人妻精品中文字幕| 亚洲一区二区三区色噜噜| 欧美zozozo另类| 日日摸夜夜添夜夜添小说| 一区福利在线观看| 久久久色成人| av在线亚洲专区| 精华霜和精华液先用哪个| 一级毛片我不卡| 午夜免费男女啪啪视频观看 | 老司机影院成人| 人人妻人人看人人澡| 亚洲精品色激情综合| 欧美一级a爱片免费观看看| 亚洲自偷自拍三级| 在线播放国产精品三级| 国产 一区精品| 亚洲欧美清纯卡通| 联通29元200g的流量卡| 日产精品乱码卡一卡2卡三| 日日干狠狠操夜夜爽| 亚洲av不卡在线观看| 在线观看66精品国产| 国产精品爽爽va在线观看网站| 欧美中文日本在线观看视频| 永久网站在线| 欧美激情在线99| 在线播放无遮挡| 男女之事视频高清在线观看| 日韩在线高清观看一区二区三区| 99在线人妻在线中文字幕| 校园春色视频在线观看| 日产精品乱码卡一卡2卡三| 日本一二三区视频观看| av黄色大香蕉| 22中文网久久字幕| 男女视频在线观看网站免费| 日日摸夜夜添夜夜添小说| 国产不卡一卡二| 欧美成人一区二区免费高清观看| 免费一级毛片在线播放高清视频| 久久亚洲精品不卡| 久久精品国产鲁丝片午夜精品| 久久久久久久久久黄片| 蜜桃久久精品国产亚洲av| 2021天堂中文幕一二区在线观| 日韩亚洲欧美综合| 一个人看视频在线观看www免费| 亚洲一级一片aⅴ在线观看| 亚洲最大成人手机在线| 国产欧美日韩精品一区二区| www日本黄色视频网| 最近2019中文字幕mv第一页| 人人妻人人看人人澡| 1000部很黄的大片| 最近视频中文字幕2019在线8| 99久国产av精品| 国产极品精品免费视频能看的| 在线观看美女被高潮喷水网站| 日韩一区二区视频免费看| 久久久久久伊人网av| 91精品国产九色| 寂寞人妻少妇视频99o| 最近中文字幕高清免费大全6| 欧美最黄视频在线播放免费| 美女免费视频网站| 国产麻豆成人av免费视频| 日产精品乱码卡一卡2卡三| 老司机福利观看| 我的女老师完整版在线观看| 真人做人爱边吃奶动态| 亚洲七黄色美女视频| 在线观看免费视频日本深夜| 麻豆国产av国片精品| 最好的美女福利视频网| 欧美国产日韩亚洲一区| 亚洲国产欧洲综合997久久,| 尾随美女入室| 校园春色视频在线观看| 日本 av在线| 真实男女啪啪啪动态图| 九色成人免费人妻av| 淫妇啪啪啪对白视频| 国产午夜精品久久久久久一区二区三区 | 日韩欧美精品v在线| 久久国内精品自在自线图片| 黄色配什么色好看| 精品国产三级普通话版| 亚洲最大成人手机在线| 熟妇人妻久久中文字幕3abv| 变态另类丝袜制服| 久久人妻av系列| 男人舔女人下体高潮全视频| 国产精品一区www在线观看| 欧美日韩综合久久久久久| 日本a在线网址| 大香蕉久久网| 给我免费播放毛片高清在线观看| 国产男靠女视频免费网站| 免费黄网站久久成人精品| 国产精品一区二区三区四区久久| 亚洲欧美成人精品一区二区| 美女内射精品一级片tv| 国内少妇人妻偷人精品xxx网站| av女优亚洲男人天堂| 人妻夜夜爽99麻豆av| 好男人在线观看高清免费视频| 特级一级黄色大片| 国产亚洲91精品色在线| 亚洲av不卡在线观看| 一级黄色大片毛片| 不卡一级毛片| 国产精品三级大全| 欧美一级a爱片免费观看看| 精品一区二区免费观看| 欧美成人免费av一区二区三区| 人人妻,人人澡人人爽秒播| 成人性生交大片免费视频hd| 成人毛片a级毛片在线播放| 在线免费十八禁| 日本与韩国留学比较| 亚洲不卡免费看| 国产精品三级大全| 国产亚洲精品综合一区在线观看| 我要看日韩黄色一级片| 欧美日韩国产亚洲二区| 午夜亚洲福利在线播放| 亚洲人成网站在线观看播放| 国产高清视频在线观看网站| 国产亚洲精品久久久com| 免费看日本二区| 国产爱豆传媒在线观看| 最近在线观看免费完整版| 亚洲中文字幕一区二区三区有码在线看| 丝袜美腿在线中文| 少妇熟女aⅴ在线视频| 色播亚洲综合网| 国产白丝娇喘喷水9色精品| 亚洲四区av| 亚洲国产精品sss在线观看| 又黄又爽又刺激的免费视频.| 偷拍熟女少妇极品色| 国产熟女欧美一区二区| 最近的中文字幕免费完整| 亚洲乱码一区二区免费版| 99热全是精品| 亚洲激情五月婷婷啪啪| 亚洲精品影视一区二区三区av| 亚洲成av人片在线播放无| 午夜a级毛片| 国产单亲对白刺激| 自拍偷自拍亚洲精品老妇| 能在线免费观看的黄片| 精品一区二区三区人妻视频| 成人性生交大片免费视频hd| 日本免费一区二区三区高清不卡| 国内精品宾馆在线| 精品不卡国产一区二区三区| 男女视频在线观看网站免费| 国产精品亚洲一级av第二区| 午夜激情福利司机影院| 日日撸夜夜添| 特级一级黄色大片| 日韩亚洲欧美综合| 男人舔女人下体高潮全视频| 小蜜桃在线观看免费完整版高清| videossex国产| 自拍偷自拍亚洲精品老妇| av在线老鸭窝| а√天堂www在线а√下载| 一区二区三区高清视频在线| 一卡2卡三卡四卡精品乱码亚洲| 成年女人永久免费观看视频| 亚洲专区国产一区二区| 97超级碰碰碰精品色视频在线观看| 美女黄网站色视频| 中文字幕av在线有码专区| 亚洲av一区综合| 国产白丝娇喘喷水9色精品| 日韩av在线大香蕉| 久久鲁丝午夜福利片| 舔av片在线| 91在线观看av| 女生性感内裤真人,穿戴方法视频| 国产又黄又爽又无遮挡在线| av免费在线看不卡| 国产成人a区在线观看| 国产成人福利小说| 啦啦啦韩国在线观看视频| 波多野结衣高清作品| 午夜免费男女啪啪视频观看 | 国产午夜精品论理片| 久久九九热精品免费| 少妇丰满av| 免费av观看视频| 毛片女人毛片| 男人舔女人下体高潮全视频| 在线国产一区二区在线| 午夜老司机福利剧场| 久久人人精品亚洲av| 国产色爽女视频免费观看| 久久久精品94久久精品| 免费看光身美女| 免费搜索国产男女视频| 老熟妇乱子伦视频在线观看| 欧美成人a在线观看| av.在线天堂| 午夜福利视频1000在线观看| 国产极品精品免费视频能看的| 国产精华一区二区三区| av在线蜜桃| 99热全是精品| 色在线成人网| 欧美国产日韩亚洲一区| 九色成人免费人妻av| 欧美日韩国产亚洲二区| 亚洲aⅴ乱码一区二区在线播放| 亚洲av二区三区四区| 久久久色成人| 99国产极品粉嫩在线观看| 欧美另类亚洲清纯唯美| 淫秽高清视频在线观看|