• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Swin Transformer和Style-based Generator的盲人臉修復(fù)

    2023-04-29 01:10:43向澤林樓旭東李旭偉
    關(guān)鍵詞:盲人特征提取分辨率

    向澤林 樓旭東 李旭偉

    盲人臉修復(fù)任務(wù)是從低質(zhì)量的圖像(例如模糊、噪聲和壓縮圖像)中恢復(fù)高質(zhì)量的圖像.由于事先不知道低質(zhì)量圖像的退化類型和退化參數(shù),因此盲人臉修復(fù)是一個高度病態(tài)的問題,在修復(fù)過程中嚴(yán)重依賴各種先驗指導(dǎo).然而,由于面部成分和面部標(biāo)志等面部先驗通常是從低質(zhì)量圖像中提取或估計的,可能存在不準(zhǔn)確的情況,這直接影響最終的修復(fù)性能,因此難以有效利用這些先驗知識.此外,目前的主流方法基本都是依賴ConvNets進(jìn)行特征提取,沒有很好地考慮長距離特征,導(dǎo)致最終結(jié)果缺乏連續(xù)一致性.本文提出了一種改進(jìn)的StyleGAN模型,命名為SwinStyleGAN,應(yīng)用在高級視覺任務(wù)上表現(xiàn)出色的Swin Transformer來提取長距離特征,并通過改進(jìn)后的類StyleGAN合成網(wǎng)絡(luò)逐步生成圖像.本文設(shè)計了一個空間注意力轉(zhuǎn)換模塊SAT來重新分配每個階段特征的像素權(quán)重,以進(jìn)一步約束生成器.大量實驗表明,本文提出的方法具有更好的盲人臉修復(fù)性能.

    盲人臉修復(fù); ConvNets; Swin Transformer; StyleGAN; 空間注意力轉(zhuǎn)換模塊

    TP391A2023.032003

    收稿日期: 2023-02-16

    基金項目: 國家重點研發(fā)項目(2020YFC0832404)

    作者簡介: 向澤林(1975-), 男, 四川資陽安岳人, 講師, 主要研究領(lǐng)域為圖像處理、故障診斷.E-mail: xiangzelin@cisisu.edu.cn

    通訊作者: 李旭偉.E-mail: lixuwei@scu.edu.cn

    Blind face restoration based on Swin Transformer and? Style-Based Generator

    XIANG Ze-Lin1, LOU Xu-Dong2, LI Xu-Wei2

    (1.Chengdu Institute Sichuan International Studies University, Dujiangyan 611844, China;

    2.College of Computer Science, Sichuan University, Chengdu 610065, China)

    Blind face restoration is the process of restoring a high-quality image from a low-quality image (e.g., blurred, noisy, or compressed image). Since the degradation type and degradation parameters of the low-quality image are unknown, blind face restoration is a highly ill-posed problem that heavily relies on various facial prior such as facial components and facial landmarks during the restoration process. However, these facial priors are typically extracted or estimated from low-quality images, which may be inaccurate, directly affecting the final restoration performance. The current mainstream methods mostly use ConNets for feature extraction and do not consider long-distance features, resulting in a lack of continuous consistency in the final results.The authors propose an improved StyleGAN model named SwinStyleGAN, which uses Swin Transformer to extract long-distance features and gradually generates images through an improved StyleGAN synthesis network.Addtionally, the authors design a Spatial Attention Transformation (SAT) module to reassign pixel weights of each stage feature to further constrain the generator. Experiments show that the proposed SwinStyleGAN in this paper has better blind face restoration performance.

    Blind face restoration; ConvNets; Swin Transformer; StyleGAN; Spatial attention transformation

    1 引 言圖像修復(fù)是計算機視覺中一項至關(guān)重要且具有挑戰(zhàn)性的任務(wù),其主要目的是從低質(zhì)量退化圖像重建高質(zhì)量清晰圖像,如圖像修復(fù)[1,2]、圖像去模糊[3,4]、圖像重構(gòu)[5,6]、圖像去噪和圖像超分辨率(SR)[7,8]等任務(wù).

    現(xiàn)有的圖像修復(fù)方法大多是基于卷積神經(jīng)網(wǎng)(ConvNets)[9-13]設(shè)計的.由于卷積的設(shè)計是局部連接的,在處理圖像信息時該方法無法捕捉到圖像的遠(yuǎn)距離依賴信息,有研究表明其實際感受也遠(yuǎn)小于理論感受,不利于充分利用上下文信息進(jìn)行特征捕獲.雖然可以不斷堆疊更深的卷積層,但會導(dǎo)致模型過于臃腫和計算量過大.我們隨機選擇了幾層特征并將他們可視化,如圖1所示.圖1中,第一行是ConvNets;第二行是Swin Transformer.注意力熱圖從左至右分別來自第1、2、4、6層編碼器.顯然,Transformer的attention范圍要比Convolution大很多.也有不少研究[5,14,15]在面部修復(fù)中利用了面部的先驗知識,并驗證了這些先驗面部特征對于恢復(fù)精確面部細(xì)節(jié)的重要性.

    然而,這些先驗知識是從低質(zhì)量圖像中提取的,其準(zhǔn)確性受到原始輸入圖像質(zhì)量的限制.為解決卷積網(wǎng)絡(luò)無法捕捉到圖像的遠(yuǎn)距離依賴信息這一問題,本文有效地引入了Transformer[16-21]來替代常用的用于特征提取的卷積網(wǎng)絡(luò).Transformer依靠自注意力機制來捕獲上下文之間的全局交互,并在計算機視覺上顯示出較好的性能.對于無法充分利用面部先驗知識等問題,我們使用改進(jìn)的StyleGAN[22,23]來生成具有先驗信息的逼真圖像.改進(jìn)后的類StyleGAN生成器并沒有經(jīng)過預(yù)訓(xùn)練,但實驗表明這并不影響最終結(jié)果的有效性.

    本文提出一種SwinStyleGAN的盲人臉修復(fù)模型,可被視為一種編碼器-解碼器結(jié)構(gòu).其主要由三部分組成,Swin Transformer特征提取模塊、改進(jìn)后的類StyleGAN[22,23]生成模塊、判別器模塊.與卷積和ViT[21]相比,Swin Transformer[20]具有更強大的全局特征提取能力、參數(shù)和計算量大幅度減少等優(yōu)點.大量研究[17,18,20,21]表明,無論是在圖像分類還是其他下游任務(wù)中,全局特征都優(yōu)于局部特征,文中實驗也證實了這一點.本文將Swin Transformer[20]的結(jié)構(gòu)引入到StyleGAN中以提高其穩(wěn)定性.在StyleGAN生成過程的每一步,都會將其輸出為RGB圖像,并通過金字塔重構(gòu)損失來進(jìn)一步規(guī)范生成過程,使修復(fù)的圖像效果更加逼真.此外,空間注意力轉(zhuǎn)換(Spatial Attention Transformatio, SAT)模塊可以進(jìn)一步約束StyleGAN.最后,我們設(shè)計了一個鑒別器來區(qū)分真實圖像和生成圖像,進(jìn)一步增強了生成模型的能力.

    本文工作的主要貢獻(xiàn)有:(1) 引入Swin Transformer作為特征提取模塊,以提取圖像的全局特征,從而有效地提高圖像語義描述的性能;(2) 從Transformer中抽象出一個雙階段的跳過連接的一種通用架構(gòu),用來改進(jìn)StyleGAN的基于樣式的生成器模塊,以增強StyleGAN的生成能力,并使訓(xùn)練過程更加穩(wěn)定; (3) 與一般圖像恢復(fù)任務(wù)設(shè)計的重建損失不同,在生成過程中為每個分辨率設(shè)計了一個重建損失,稱為金字塔重構(gòu)損失.

    2 相關(guān)工作

    圖像修復(fù)主要包括超分辨率[7,8]、圖像修復(fù)[1,2]、重構(gòu)[5,6]和去模糊[3,4].盲人臉修復(fù)最常用的模型是基于ConvNets的.事實上,ConvNets在圖像特征提取方面的效果是相當(dāng)有效和顯著的.Yang等人[26]提出了可以逐漸填充面部細(xì)節(jié)的HiFaceGAN.Li等人[27]介紹了GRFNet,可以學(xué)習(xí)用于盲人臉修復(fù)的扭曲指導(dǎo).Chen等人[5] 提出了PSFRGAN,使用漸進(jìn)式語義感知樣式轉(zhuǎn)換和類似于StyleGAN[22,23]的漸進(jìn)式生成方法來修復(fù)盲人臉.Wang等人[6,25]提出了退化去除模塊和預(yù)訓(xùn)練的人臉生成器,用于盲人臉修復(fù).然而,基于CNN的方法主要關(guān)注小的判別區(qū)域,難以關(guān)注圖像的整體信息.此外,CNN中的下采樣操作(如池化和步幅卷積)會降低輸出特征圖的空間分辨率,導(dǎo)致CNN提取的特征缺失了一些信息.幸運的是,最近興起的Transformer[16,20,21]可以彌補CNN的這些不足.Liang等人[24]提出了基于Swin Transformer[20]的圖像恢復(fù)任務(wù)SwinIR,并取得了非常好的結(jié)果.本文也使用Swin Transformer進(jìn)行特征提取,也取得了不錯的效果

    3 實現(xiàn)方法

    針對基于卷積網(wǎng)絡(luò)無法捕捉到圖像的遠(yuǎn)距離依賴信息和無法充分利用面部先驗知識這兩個問題,本文提出了SwinStyleGAN模型.接下來將對SwinStyleGAN模型的網(wǎng)絡(luò)結(jié)構(gòu)和構(gòu)成進(jìn)行詳細(xì)描述.

    3.1 SwinStyleGAN模型

    SwinStyleGAN模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示.輸入損壞的低分辨率圖像,經(jīng)過該模型處理后,可以輸出清晰的修復(fù)圖像,并盡可能接近基準(zhǔn)(Ground Truth)圖像的像素.SwinStyleGAN模型包含三個模塊:(1) Transformer特征提取模塊,由多個Swin Transformer塊組成;(2) 基于StyleGAN[22-23]改進(jìn)的人臉重建模塊;(3) 判別器模塊.這三個模塊之間按順序連接,此外,我們還增加了一個空間注意力轉(zhuǎn)換(Spatial Attention Transformation, SAT)模塊,其工作方式類似于U-Net[28],目的是將編碼器的特征引入到解碼器中,用以提升結(jié)果的保真度.

    3.2 基于Transformer的特征提取模塊

    編碼器-解碼器的對稱結(jié)構(gòu)在多個圖像處理任務(wù)中展示了其強大的功能.本文設(shè)計了一個類似U-Net的網(wǎng)絡(luò)結(jié)構(gòu),并使用Swin Transformer進(jìn)行特征提取.在encoder的每一階段,經(jīng)過兩個連續(xù)的Swin Transformer Block和patch merging層后,token的數(shù)量會減少,特征維度的數(shù)量會增加.特征提取方法定義如下式.

    Fswin,F(xiàn)latent=SwinILQ? (1)

    其中,Swin·是基于Swin Transformer的特征提取模塊;ILQ是SwinStyleGAN的低質(zhì)量輸入;Fswin,F(xiàn)latent是從該模塊中提取的特征,F(xiàn)latent是類StyleGAN生成器在歸一化和映射網(wǎng)絡(luò)之后的樣式輸入,并且Swin特征Fswin用于在空間注意力轉(zhuǎn)換模塊之后調(diào)制StyleGAN特征.

    3.3 空間注意力轉(zhuǎn)換模塊

    大量研究表明,網(wǎng)絡(luò)的淺層特征對于各種計算機視覺任務(wù)非常重要.本文保留了Swin Transformer提取的多階段特征,作為類StyleGAN生成器的輸入之一來控制生成.考慮到特征在不同階段和不同像素點的重要性是不同的,本文設(shè)計的空間注意力轉(zhuǎn)換模塊,可以使模型在訓(xùn)練過程中,自動判斷特征的重要性.如圖2所示,SAT是一個倒置的瓶頸結(jié)構(gòu),其隱藏層的維度比輸入維度寬4倍,雖然該結(jié)構(gòu)與MobileNetV2[29]類似,但本文進(jìn)行了多項改進(jìn).首先,在激活函數(shù)的選擇上,使用GELU[30]代替ConvNets中常用的ReLU[31].受限于顯存,本文實驗的batch size較小,而batch size的大小對BatchNorm的效果有較大的影響.當(dāng)batch size較小時,Batch Norm的效果可能會受到噪聲數(shù)據(jù)的影響,導(dǎo)致性能下降.Transformer中常用的LayerNorm(LN)[32]更簡單,從而能在不同的應(yīng)用場景下獲得更好的性能.在實驗中,由于batch size比較小,所以選擇使用LN而不是BN.空間注意力轉(zhuǎn)換模塊的具體操作定義如下式.

    B=SATFswin(2)

    3.4 改進(jìn)的StyleGAN類生成器模塊

    StyleGAN的生成能力極其強大,幾乎可以生成人眼無法分辨真假的圖像.一般來說,StyleGAN會從當(dāng)前分辨率開始穩(wěn)定地訓(xùn)練,然后逐漸過渡到下一個更高分辨率的階段.在初始階段,網(wǎng)絡(luò)主要專注于低分辨率圖像,在訓(xùn)練過程中逐漸將注意力轉(zhuǎn)移到更高分辨率的圖像上.

    在使用原始StyleGAN結(jié)構(gòu)進(jìn)行訓(xùn)練時,我們發(fā)現(xiàn)網(wǎng)絡(luò)非常不穩(wěn)定,恢復(fù)結(jié)果中的一些細(xì)節(jié)與原始圖像相差甚遠(yuǎn).文獻(xiàn)[33,34]的研究表明,Transformer的強大之處不僅在于Self-attention機制的使用,還在于其結(jié)構(gòu)框架(雙層殘差連接)的設(shè)計.因此,我們將Transformer的結(jié)構(gòu)與StyleGAN的合成網(wǎng)絡(luò)相結(jié)合,嘗試使用殘差連接來改善訓(xùn)練不穩(wěn)定的問題,并使用相同的風(fēng)格特征多次調(diào)制該分辨率下的生成特征.雖然高斯隨機噪聲可以豐富生成圖像的多樣性,但該特征也會給圖像復(fù)原帶來一定程度的誤差,因此我們使用SAT模塊處理后的特征來代替高斯隨機噪聲,以降低其隨機性,具體結(jié)構(gòu)如圖3所示.模塊的整體生成過程如下式所示.

    Iout=StyleGANMLPFlatent,B(3)

    其中,StyleGAN·是生成模塊,主要由一系列上采樣和調(diào)制卷積組成,其輸入為SAT模塊處理的特征B和由多層感知器MLP·生成的樣式特征;Iout為修復(fù)后的圖像.

    3.5 損失函數(shù)設(shè)計

    除了最基本的重構(gòu)損失和GAN中引入的對抗損失外,我們還引入了感知損失和風(fēng)格損失.整體模型損失函數(shù)定義如下.

    Ltotal=λpyrLpyr+λadvLadv+λperLper+λstyleLstyle(4)

    損失函數(shù)的超參數(shù)設(shè)置如下:λper=3.0,λadv=0.1,λper=1.0,λstyle=50.0.式(4)中包括了金字塔重構(gòu)損失、對抗損失和風(fēng)格損失等4種損失.

    (1) 金字塔重構(gòu)損失.為了使圖像在每個生成階段都接近所需的GT,我們將GT重塑為從8×8到512×512的多個分辨率大小,并將每個階段的特征卷積為三通道的RGB圖像,然后分別與相應(yīng)分辨率大小的GT圖像計算重建損失.稱其為金字塔重構(gòu)損失,采用L1計算,公式如下.

    Lpyr=∑y︿i-yi1(5)

    其中,y︿i和yi分別表示在第i階段通過特征卷積得到的RGB圖像和對應(yīng)分辨率大小的GT圖像.本文共設(shè)計了7層金字塔.

    (2) 對抗損失.GAN[29]的對抗損失Ladv可以指導(dǎo)生成器生成更加自然的圖像,同時產(chǎn)生更加逼真的紋理,生成器定義如下式.

    Ladv=Euclid Math TwoEA@y︿~Euclid Math TwoPA@gDy︿-Euclid Math TwoEA@y~Euclid Math TwoPA@rD(y)(6)

    其中,D(·)表示鑒別器; y︿和y分別表示輸出圖像和真實圖像.

    (3) 感知損失.為了捕獲更多上下文特征信息,引入了感知損失,用于度量特征空間中的距離.為了獲得特征圖,我們使用19層的預(yù)訓(xùn)練VGG[35]網(wǎng)絡(luò),并使用卷積后的前五個特征圖.感知損失定義如下.

    Lper=φy︿-φy1(7)

    其中,φ·是19層的預(yù)訓(xùn)練VGG網(wǎng)絡(luò),y︿和y分別代表輸出圖像和真實圖像.

    (4) 風(fēng)格損失.Liu等人進(jìn)一步提出了風(fēng)格損失,類似于感知損失,使用Gram矩陣計算特征之間的相關(guān)性,可以有效地捕獲紋理信息.我們分別從輸出圖像和真實圖像中提取特征并計算特征相關(guān)性.計算公式如下.

    Lstyle=Grimφy︿-Grimφy1(8)

    其中,Grim·用于Gram矩陣特征提取.

    4 實驗與結(jié)果

    4.1 數(shù)據(jù)集和實現(xiàn)細(xì)節(jié)

    SwinStyleGAN的訓(xùn)練集為FFHQ數(shù)據(jù)集[36],該數(shù)據(jù)集包含70 000張分辨率為1024×1024的HQ人臉圖像.我們將所有圖像的分辨率大小調(diào)整為512×512.為了構(gòu)建LQ-HQ圖像對來訓(xùn)練我們的模型,使用以下退化模型從FFHQ中的HQ圖像合成退化人臉,合成方式如下.

    ILQ=IHQk↓s+nδJPEG↑s (9)

    上述過程已經(jīng)在多篇論文[5,27,37,38]中使用過.其中,IHQ是高質(zhì)量圖像,它與模糊內(nèi)核k卷積,然后進(jìn)行下采樣操作(比例因子為s).向圖像添加高斯噪聲nδ,再進(jìn)行質(zhì)量因子為q的JPEG壓縮操作.最后,將壓縮圖像調(diào)整為原始大小.對于每個HR圖像,我們分別從{1∶8}{0∶15}{6∶100}中隨機抽樣s,δ和q.

    在整個訓(xùn)練期間,我們設(shè)置的Batch Size為4,采用Adam作為模型的優(yōu)化器[39],共進(jìn)行1 M次迭代,學(xué)習(xí)率設(shè)置為2e-5.使用PyTorch框架和單個RTX 3090 NVIDIA GPU訓(xùn)練我們提出的SwinStyleGAN.

    4.2 方法比較和評估指標(biāo)

    我們將SwinStyleGAN方法與幾種較先進(jìn)的盲人臉修復(fù)方法進(jìn)行了比較,分別是DeblurGANv2[3]、HiFaceGAN[26]、PSFRGAN[5]、PULSE[40]和GPEN[25].同時,我們還將SwinStyleGAN方法與其它圖像超分辨率方法Bicubic、Super-FAN[41]、Real-ESRGAN[8]和GPEN[25]進(jìn)行了比較.我們對CelebA-Test和VGGFace-Test進(jìn)行與訓(xùn)練集相同的退化處理.在基于真實情況的評估方面,采用了廣泛使用的像素級指標(biāo):PSNR和SSIM,這兩個指標(biāo)都是基于對應(yīng)像素點之間的誤差,沒有考慮到人眼的視覺特性.因此,評價結(jié)果往往與人的主觀感受不一致.相比之下,基于學(xué)習(xí)的感知相似性度量更符合人類感知.因此,我們還采用了感知度量評價指標(biāo)LPIPS[42]和FID[43].

    4.3 合成圖像與真實圖像的比較

    除了對兩個合成數(shù)據(jù)集和兩個真實的低質(zhì)量數(shù)據(jù)集進(jìn)行盲人臉修復(fù)比較之外,還在CelebA-Test數(shù)據(jù)集上進(jìn)行了x4超分辨率比較,其對比結(jié)果驗證了SwinStyleGAN的有效性.定性結(jié)果如圖4 ~圖8所示,從展示的復(fù)原結(jié)果來看,除了一些細(xì)節(jié)外,SwinStyleGAN的修復(fù)效果是令人滿意的,能夠生成更接近人眼主觀感受的修復(fù)圖像.雖然PULSE[40]方法具有較好的圖像修復(fù)效果,且符合人眼的主觀感知.但很明顯,其生成的圖像與輸入圖像之間存在巨大差異,即保真度低下,并丟失了一些原始特征.

    每種方法的定量結(jié)果如表1~表3所示,表3中,粗體表示最佳性能.SwinStyleGAN實現(xiàn)了最低的LPIPS[42],表明本文提出的SwinStyleGAN模型在感知上更接近真實情況.此外,SwinStyleGAN在FID[43]上也取得了更好的結(jié)果,表明其輸出結(jié)果與真實人臉分布的距離更加接近.

    4.4 消融實驗

    為了更好地理解SwinStyleGAN各個模塊的作用,我們做了幾組對比實驗.實驗結(jié)果如表4所示,粗體表示最佳性能,可以發(fā)現(xiàn),移除任何一個模塊都將導(dǎo)致性能下降.(1) 用卷積代替Transformer.我們嘗試用卷積替換原來的Transformer作為模型的特征提取模塊.雖然整體效果令人滿意,但部分細(xì)節(jié)不是很完整,人臉的一些局部位置缺乏一定的連續(xù)性.FID和LPIPS指標(biāo)分別上升了1.31和0.0331.(2) 刪除空間注意轉(zhuǎn)換.為了驗證SAT模塊的有效性,將其移除后進(jìn)行訓(xùn)練,并對結(jié)果進(jìn)行定量分析.去除SAT模塊后,F(xiàn)ID和LPIPS指標(biāo)分別上升了3.39和0.0689,說明SAT可以提升模型效果.(3) 去除金字塔重構(gòu)損失.金字塔恢復(fù)損失可以增強對現(xiàn)實世界中復(fù)雜退化的恢復(fù)能力.如果沒有這個模塊,后續(xù)調(diào)制的多分辨率空間特性可能仍然會下降,從而導(dǎo)致性能下降.此外,我們在訓(xùn)練中發(fā)現(xiàn),該模塊還可以使訓(xùn)練過程更加穩(wěn)定,起到一定的加速訓(xùn)練的效果.(4)使用原始的StyleGAN.我們同時使用原始StyleGA生成模塊和改進(jìn)后的StyleGAN生成模塊進(jìn)行訓(xùn)練,對比實驗結(jié)果如表4所示.FID和LPIPS分別上升0.39和0.002 7,說明改進(jìn)后的StyleGAN是有效的.此外,在模型的訓(xùn)練過程中,我們發(fā)現(xiàn)經(jīng)過改進(jìn)后的StyleGAN在訓(xùn)練時變得更加穩(wěn)定,速度也有所提升.

    5 結(jié) 論

    本文提出了一種漸進(jìn)式人臉恢復(fù)網(wǎng)絡(luò)SwinStyleGAN模型,該模型使用Swin Transformer進(jìn)行特征提取,并使用修改后的StyleGAN對潛在代碼進(jìn)行從粗到細(xì)的重構(gòu).由于采用Swin Transformer替換了廣泛使用的CNN,解決了卷積無法整合長距離信息的問題.利用提取的全局特征上的空間注意力轉(zhuǎn)換(SAT)模塊來調(diào)制StyleGAN生成的特征,可以嚴(yán)格約束和控制StyleGAN的生成過程.同時,為了解決StyleGAN訓(xùn)練的不穩(wěn)定性和生成結(jié)果與輸入不一致的問題,我們將Transformer的框架結(jié)構(gòu)引入到StyleGAN中,充分利用兩者的優(yōu)勢.大量實驗表明,SwinStyleGAN無論是在盲人臉修復(fù)還是人臉超分辨率方面都具有很高的可靠性和魯棒性.在實際場景中具有較高的應(yīng)用價值.

    參考文獻(xiàn):

    [1] Qin J, Bai H, Zhao Y. Multi-scale attention network for image inpainting [J]. Comput Vis Image Und, 2021, 204: 103155.

    [2] Xiao Z, Li D. Generative image inpainting by hybrid contextual attention network[C]//Proceedings of the MultiMedia Modeling: 27th International Conference on MMM. Prague:Springer International Publishing, 2021: 162.

    [3] Kupyn O, Martyniuk T, Wu J, et al. Deblurgan-v2: Deblurring (orders-of-magnitude) faster and better[C]//Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul: IEEE, 2019.

    [4] Kupyn O, Budzan V, Mykhailych M, et al. Deblurgan: Blind motion deblurring using conditional adversarial networks [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 8183.

    [5] Chen C, Li X, Yang L, et al. Progressive semantic-aware style transformation for blind face restoration[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Kuala Lumpur:IEEE, 2021: 11896.

    [6] Wang X, Li Y, Zhang H, et al. Towards real-world blind face restoration with generative facial prior [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Kuala Lumpur: IEEE, 2021: 9168.

    [7] Wang X, Yu K, Wu S, et al. Esrgan: Enhanced super-resolution generative adversarial networks[C]//Proceedings of the European Conference on Computer Vision (ECCV) Workshops. Munich: Springer, 2018.

    [8] Wang X, Xie L, Dong C, et al. Real-esrgan: Training real-world blind super-resolution with pure synthetic data [C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Montreal: IEEE, 2021: 1905.

    [9] Ma N, Zhang X, Zheng H T, et al. Shufflenet v2: Practical guidelines for efficient cnn architecture design [C]//Proceedings of the European Conference on Computer Vision (ECCV). Munich: Springer, 2018: 116.

    [10] Sandler M, Howard A, Zhu M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. California: IEEE, 2018: 4510.

    [11] Tan M, Le Q. Efficientnet: Rethinking model scaling for convolutional neural networks[C]//International Conference on Machine Learning. California: PMLR, 2019: 6105.

    [12] Tan M, Le Q. Efficientnetv2: smaller models and faster training[C]//International Conference on Machine Learning. Long Beach Convention Center, Long Beach: PMLR, 2021.

    [13] Zhang X, Zhou X, Lin M, et al. Shufflenet: An extremely efficient convolutional neural network for mobile devices [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 6848.

    [14] Kim D, Kim M, Kwon G, et al. Progressive face super-resolution via attention to facial landmark[J]. IEEE Signal Proc Let, 2019, 26: 1859.

    [15] Yu X, Fernando B, Ghanem B, et al. Face super-resolution guided by facial component heatmaps[C]//Proceedings of the European Conference on Computer Vision (ECCV). Munich: Springer, 2018: 217.

    [16] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Adv Neur Inf Process Syst, 2017, 30: 5998.

    [17] Wu H, Xiao B, Codella N, et al. Cvt: Introducing convolutions to vision transformers[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Virtual Event: IEEE, 2021: 22.

    [18] Wang W, Xie E, Li X, et al. Pyramid vision transformer: a versatile backbone for dense prediction without convolutions[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Virtual Event: IEEE, 2021: 568.

    [19] Wang W, Xie E, Li X, et al. Pvt v2: Improved baselines with pyramid vision transformer[J]. Comp Visual Media, 2022, 8: 415.

    [20] Liu Z, Lin Y, Cao Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Canada: IEEE, 2021: 10012.

    [21] Dosovitskiy A, Beyer L, Kolesnikov A, et al. An image is worth 16x16 words: Transformers for image recognition at scale [J]. [EB/OL].[2022-05-10]. https://arxiv.org/abs/2010.11929.

    [22] Karras T, Laine S, Aila T. A style-based generator architecture for generative adversarial networks[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 4401.

    [23] Karras T, Laine S, Aittala M, et al. Analyzing and improving the image quality of stylegan [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington: IEEE, 2020: 8110.

    [24] Liang J, Cao J, Sun G, et al. Swinir: Image restoration using swin transformer [C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Montreal, Canada: IEEE, 2021.

    [25] Yang T, Ren P, Xie X, et al. Gan prior embedded network for blind face restoration in the wild [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Kuala Lumpur: IEEE, 2021: 672.

    [26] Yang L, Wang S, Ma S, et al. Hifacegan: Face renovation via collaborative suppression and replenishment [C]//Proceedings of the 28th ACM International Conference on Multimedia. New York:ACM, 2020: 1551.

    [27] Li X, Liu M, Ye Y, et al. Learning warped guidance for blind face restoration [C]//Proceedings of the European Conference on Computer Vision (ECCV). Munich: Springer, 2018.

    [28] Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[C]//Proceedings of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention-MICCAI. Munich: Springer International Publishing, 2015.

    [29] Sandler M, Howard A, Zhu M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Seoul: IEEE, 2018: 4510.

    [30] Hendrycks D, Gimpel K. Gaussian error linear units (gelus) [C] //Proceedings of the IEEE International Conference on Learning Representations (ICLR).[S.l.:s.n.], 2016.

    [31] Glorot X, Bordes A, Bengio Y. Deep sparse rectifier neural networks[C]//Proceedings of the 14th International Conference on Artificial Intelligence and Statistics. Fort Lauderdale: [s.n.], 2011.

    [32] Ba J L, Kiros J R, Hinton G E. Layer normalization [EB/OL].[2023-04-01]. https://arxiv.org/abs/1607.06450.

    [33] Yu W, Luo M, Zhou P, et al. Metaformer is actually what you need for vision[C]//Proceedings of the IEEE/CVF Conference on Computer vision and Pattern Recognition. New Orleans: IEEE, 2022: 10819.

    [34] Liu Z, Mao H, Wu C Y, et al. A convnet for the 2020s [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.:s.n.],2022: 11976.

    [35] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[C]//Proceedings of the International Conference on Learning Representations (ICLR). [S.l.:s.n.], 2015.

    [36] Karras T, Laine S, Aila T. A style-based generator architecture for generative adversarial networks[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.:s.n.], 2019: 4401.

    [37] Li X, Chen C, Zhou S, et al. Blind face restoration via deep multi-scale component dictionaries [C]//Proceedings of the 16th European Conference on Computer Vision-ECCV. Glasgow: Springer International Publishing, 2020: 399.

    [38] Xu X, Sun D, Pan J, et al. Learning to super-resolve blurry face and text images [C]//Proceedings of the IEEE International Conference on Computer Vision. Venice: IEEE, 2017: 251.

    [39] Kingma D P, Ba J. Adam: a method for stochastic optimization [EB/OL].[2023-04-01]. https://arxiv.org/abs/1412.6980.

    [40] Menon S, Damian A, Hu S, et al. Pulse: self-supervised photo upsampling via latent space exploration of generative models [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 2437.

    [41] Bulat A, Tzimiropoulos G. Super-fan: integrated facial landmark localization and super-resolution of real-world low resolution faces in arbitrary poses with gans [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 109.

    [42] Heusel M, Ramsauer H, Unterthiner T, et al. Gans trained by a two time-scale update rule converge to a local nash equilibrium [J]. Adv Neur Inf Process Syst, 2017, 30: 6626.

    [43] Zhang R, Isola P, Efros A A, et al. The unreasonable effectiveness of deep features as a perceptual metric [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 586.

    引用本文格式:

    中 文:? 向澤林, 樓旭東, 李旭偉. 基于Swin Transformer和Style-based Generator的盲人臉修復(fù) [J]. 四川大學(xué)學(xué)報: 自然科學(xué)版, 2023, 60: 032003.

    英 文: Xiang Z L, Lou X D, Li X W. Blind face restoration based on Swin Transformer and Style-Based Generator [J]. J Sichuan Univ: Nat Sci Ed, 2023, 60: 032003.

    猜你喜歡
    盲人特征提取分辨率
    盲人取襪
    隨聲附和的盲人
    EM算法的參數(shù)分辨率
    自首的盲人
    基于Daubechies(dbN)的飛行器音頻特征提取
    電子制作(2018年19期)2018-11-14 02:37:08
    原生VS最大那些混淆視聽的“分辨率”概念
    盲人節(jié)
    基于深度特征學(xué)習(xí)的圖像超分辨率重建
    Bagging RCSP腦電特征提取算法
    一種改進(jìn)的基于邊緣加強超分辨率算法
    男插女下体视频免费在线播放| 男男h啪啪无遮挡| 黑人巨大精品欧美一区二区mp4| 久久人人精品亚洲av| 亚洲av成人av| 欧美人与性动交α欧美精品济南到| 国产精品 欧美亚洲| 国产亚洲精品一区二区www| 欧美日韩黄片免| 国产精品久久久人人做人人爽| 18禁美女被吸乳视频| 黄色片一级片一级黄色片| 最近最新中文字幕大全电影3| 少妇熟女aⅴ在线视频| av中文乱码字幕在线| 琪琪午夜伦伦电影理论片6080| 日韩大码丰满熟妇| 最近最新中文字幕大全电影3| 黄色成人免费大全| 久久99热这里只有精品18| 亚洲欧美一区二区三区黑人| 成人亚洲精品av一区二区| 国产熟女xx| 亚洲av成人不卡在线观看播放网| 露出奶头的视频| 午夜精品久久久久久毛片777| 久久热在线av| 久久久久久免费高清国产稀缺| 色综合亚洲欧美另类图片| 欧美zozozo另类| 久久久久性生活片| 国产亚洲精品综合一区在线观看 | 母亲3免费完整高清在线观看| 首页视频小说图片口味搜索| 两性午夜刺激爽爽歪歪视频在线观看 | 国产精品免费视频内射| 一进一出抽搐gif免费好疼| 久久天堂一区二区三区四区| 亚洲av日韩精品久久久久久密| 这个男人来自地球电影免费观看| 亚洲av成人精品一区久久| 亚洲人成网站在线播放欧美日韩| 草草在线视频免费看| 国产成人精品久久二区二区91| e午夜精品久久久久久久| 天堂av国产一区二区熟女人妻 | 亚洲五月天丁香| 99热这里只有精品一区 | 亚洲精品中文字幕在线视频| 国产亚洲欧美在线一区二区| 日本撒尿小便嘘嘘汇集6| 亚洲av片天天在线观看| 国产成人系列免费观看| cao死你这个sao货| 久久久久精品国产欧美久久久| av免费在线观看网站| 日本 av在线| 大型av网站在线播放| 色av中文字幕| 日本成人三级电影网站| 男女床上黄色一级片免费看| 可以在线观看的亚洲视频| 亚洲精品av麻豆狂野| 亚洲专区中文字幕在线| 香蕉丝袜av| 成人国语在线视频| 不卡av一区二区三区| 无遮挡黄片免费观看| 久久中文字幕一级| 精品久久久久久成人av| 久久精品91蜜桃| 日韩欧美三级三区| 国产精品美女特级片免费视频播放器 | 黑人操中国人逼视频| 人人妻,人人澡人人爽秒播| 国产一区二区三区在线臀色熟女| 亚洲欧美精品综合久久99| 岛国在线观看网站| 久久中文看片网| 黄片大片在线免费观看| 丁香六月欧美| 亚洲国产精品sss在线观看| 性色av乱码一区二区三区2| 免费看日本二区| 欧美精品啪啪一区二区三区| 久久天堂一区二区三区四区| 国产精品美女特级片免费视频播放器 | 国产成+人综合+亚洲专区| 男女午夜视频在线观看| 日本a在线网址| 精品久久久久久成人av| 国产一级毛片七仙女欲春2| 长腿黑丝高跟| 日本撒尿小便嘘嘘汇集6| 亚洲专区字幕在线| 丰满的人妻完整版| 欧美日韩福利视频一区二区| 老司机深夜福利视频在线观看| 国产成人系列免费观看| 午夜免费激情av| 淫妇啪啪啪对白视频| 久久婷婷成人综合色麻豆| 天堂√8在线中文| 亚洲人成电影免费在线| 好看av亚洲va欧美ⅴa在| 丁香欧美五月| 在线观看免费日韩欧美大片| 9191精品国产免费久久| 人妻夜夜爽99麻豆av| 亚洲精品美女久久久久99蜜臀| 真人一进一出gif抽搐免费| 99精品在免费线老司机午夜| 久久久国产欧美日韩av| 麻豆av在线久日| 国产成人av激情在线播放| 亚洲国产高清在线一区二区三| 国产91精品成人一区二区三区| 国产av又大| 久久久久久久久中文| 免费看a级黄色片| 日韩欧美免费精品| 亚洲男人的天堂狠狠| 国产亚洲av高清不卡| 美女高潮喷水抽搐中文字幕| 久久久精品国产亚洲av高清涩受| 国产1区2区3区精品| 亚洲精品在线观看二区| 免费看十八禁软件| 看片在线看免费视频| av天堂在线播放| 亚洲欧美一区二区三区黑人| 国产探花在线观看一区二区| 巨乳人妻的诱惑在线观看| a级毛片在线看网站| 99热这里只有是精品50| 亚洲成人精品中文字幕电影| 亚洲精华国产精华精| 亚洲人成网站高清观看| 久久久国产欧美日韩av| 色精品久久人妻99蜜桃| 免费一级毛片在线播放高清视频| avwww免费| 久久久久九九精品影院| 国产午夜精品论理片| avwww免费| 两性夫妻黄色片| 波多野结衣巨乳人妻| 亚洲成人精品中文字幕电影| 精品久久久久久久末码| 亚洲中文日韩欧美视频| 国产av一区二区精品久久| 成人手机av| 成人精品一区二区免费| 在线视频色国产色| 两性夫妻黄色片| 9191精品国产免费久久| 一进一出好大好爽视频| 日韩有码中文字幕| 亚洲一区中文字幕在线| 国产精品免费一区二区三区在线| 最新在线观看一区二区三区| 一区二区三区激情视频| av在线天堂中文字幕| 99热这里只有精品一区 | 日韩成人在线观看一区二区三区| cao死你这个sao货| 波多野结衣巨乳人妻| 国产一区在线观看成人免费| 亚洲一卡2卡3卡4卡5卡精品中文| 欧美性长视频在线观看| av有码第一页| 丰满人妻熟妇乱又伦精品不卡| 每晚都被弄得嗷嗷叫到高潮| 久久亚洲真实| 中文字幕av在线有码专区| 一级a爱片免费观看的视频| 中国美女看黄片| 99国产精品99久久久久| 色综合亚洲欧美另类图片| 日韩有码中文字幕| 国产亚洲av高清不卡| 九九热线精品视视频播放| 欧美另类亚洲清纯唯美| 久久久久久人人人人人| 亚洲精华国产精华精| 久久 成人 亚洲| 美女午夜性视频免费| 毛片女人毛片| 岛国在线观看网站| 国产精品爽爽va在线观看网站| 欧美中文综合在线视频| 99国产极品粉嫩在线观看| 亚洲精品中文字幕一二三四区| 国产在线精品亚洲第一网站| 国产一区在线观看成人免费| 老司机午夜十八禁免费视频| 在线观看免费视频日本深夜| 久久久国产精品麻豆| √禁漫天堂资源中文www| 午夜视频精品福利| 国产成人精品久久二区二区91| 日韩大尺度精品在线看网址| 久久精品夜夜夜夜夜久久蜜豆 | 精品少妇一区二区三区视频日本电影| 99国产综合亚洲精品| 两人在一起打扑克的视频| 亚洲午夜理论影院| 亚洲精品中文字幕在线视频| 男人舔女人下体高潮全视频| 嫩草影院精品99| 制服诱惑二区| 两个人看的免费小视频| 又黄又粗又硬又大视频| 久久欧美精品欧美久久欧美| 亚洲中文av在线| 成年人黄色毛片网站| 国产又黄又爽又无遮挡在线| 国产精品1区2区在线观看.| 2021天堂中文幕一二区在线观| 日韩欧美三级三区| 在线观看免费日韩欧美大片| 亚洲欧洲精品一区二区精品久久久| 老司机在亚洲福利影院| 国产精品久久久av美女十八| 国产精品爽爽va在线观看网站| 国产视频内射| 身体一侧抽搐| 精品久久久久久久末码| 亚洲自偷自拍图片 自拍| 亚洲国产欧洲综合997久久,| 精品久久久久久久久久久久久| av天堂在线播放| 桃红色精品国产亚洲av| 亚洲色图av天堂| 视频区欧美日本亚洲| 久久久久精品国产欧美久久久| 亚洲精品一区av在线观看| 这个男人来自地球电影免费观看| 又黄又爽又免费观看的视频| 19禁男女啪啪无遮挡网站| 国产久久久一区二区三区| 男人舔女人的私密视频| 制服诱惑二区| 亚洲成人免费电影在线观看| av超薄肉色丝袜交足视频| 亚洲av片天天在线观看| 国产一区二区在线av高清观看| 亚洲av电影不卡..在线观看| 欧美av亚洲av综合av国产av| 99热6这里只有精品| 麻豆成人av在线观看| 在线观看美女被高潮喷水网站 | 久久国产乱子伦精品免费另类| 午夜精品在线福利| 午夜两性在线视频| 欧美在线一区亚洲| 日韩高清综合在线| 岛国在线观看网站| 极品教师在线免费播放| 人人妻人人看人人澡| 亚洲成人国产一区在线观看| 成人亚洲精品av一区二区| 嫩草影视91久久| 久久精品成人免费网站| 成年版毛片免费区| 亚洲精品中文字幕一二三四区| 看片在线看免费视频| 国产精品,欧美在线| 中出人妻视频一区二区| 亚洲真实伦在线观看| 好男人在线观看高清免费视频| 手机成人av网站| 欧美性猛交╳xxx乱大交人| 欧美大码av| 日韩 欧美 亚洲 中文字幕| 日本一区二区免费在线视频| 老司机靠b影院| 1024视频免费在线观看| 老司机在亚洲福利影院| 日韩av在线大香蕉| 搞女人的毛片| 国内毛片毛片毛片毛片毛片| 在线观看舔阴道视频| www.999成人在线观看| 校园春色视频在线观看| 国产三级在线视频| 老司机午夜十八禁免费视频| www.自偷自拍.com| 操出白浆在线播放| 日本黄色视频三级网站网址| 国模一区二区三区四区视频 | 五月伊人婷婷丁香| 性欧美人与动物交配| 男人舔女人的私密视频| 香蕉国产在线看| 午夜激情av网站| 一夜夜www| 久久久久久久久中文| 亚洲av成人av| 免费观看精品视频网站| 免费高清视频大片| 中文字幕久久专区| 天堂√8在线中文| 成人18禁高潮啪啪吃奶动态图| 五月伊人婷婷丁香| 精品日产1卡2卡| 精品人妻1区二区| 国产真实乱freesex| 亚洲电影在线观看av| 一个人观看的视频www高清免费观看 | √禁漫天堂资源中文www| 无遮挡黄片免费观看| 热99re8久久精品国产| 日本黄大片高清| 又大又爽又粗| 黑人巨大精品欧美一区二区mp4| 亚洲aⅴ乱码一区二区在线播放 | 后天国语完整版免费观看| 黄色成人免费大全| 久久精品成人免费网站| 国产精品亚洲一级av第二区| 国产精品久久视频播放| 在线观看免费视频日本深夜| 国产成人影院久久av| 午夜激情av网站| 岛国在线免费视频观看| 久久久久国产精品人妻aⅴ院| 国产精品av久久久久免费| 久久 成人 亚洲| 久久久水蜜桃国产精品网| 国产精品 欧美亚洲| 国产又色又爽无遮挡免费看| 亚洲第一欧美日韩一区二区三区| 日韩欧美精品v在线| 亚洲成a人片在线一区二区| 国产三级中文精品| aaaaa片日本免费| 天天躁夜夜躁狠狠躁躁| 99久久国产精品久久久| 午夜福利在线在线| 成年免费大片在线观看| 一区二区三区高清视频在线| а√天堂www在线а√下载| 国产v大片淫在线免费观看| 亚洲国产精品合色在线| 久久99热这里只有精品18| 男女视频在线观看网站免费 | 欧美zozozo另类| 天天一区二区日本电影三级| 日韩av在线大香蕉| av福利片在线观看| 又大又爽又粗| 妹子高潮喷水视频| 久久香蕉激情| 嫩草影视91久久| 99久久国产精品久久久| 日本五十路高清| 亚洲人成伊人成综合网2020| 国产野战对白在线观看| 国产v大片淫在线免费观看| 亚洲欧美日韩无卡精品| 亚洲第一欧美日韩一区二区三区| 一a级毛片在线观看| 色av中文字幕| 在线永久观看黄色视频| xxx96com| 黄色视频不卡| 亚洲国产欧美网| 舔av片在线| 欧美高清成人免费视频www| 午夜福利免费观看在线| 中文资源天堂在线| 午夜亚洲福利在线播放| 白带黄色成豆腐渣| 1024视频免费在线观看| 亚洲精品在线美女| 久久久国产成人免费| 亚洲一区二区三区色噜噜| 制服诱惑二区| 欧美+亚洲+日韩+国产| 可以在线观看的亚洲视频| 91字幕亚洲| 热99re8久久精品国产| 国产精品久久久久久亚洲av鲁大| 99久久精品国产亚洲精品| 国产av在哪里看| 国产亚洲欧美98| 欧美日本亚洲视频在线播放| 婷婷丁香在线五月| 国产精品久久久久久精品电影| 级片在线观看| 美女高潮喷水抽搐中文字幕| 丁香六月欧美| 丝袜美腿诱惑在线| 在线十欧美十亚洲十日本专区| 性色av乱码一区二区三区2| 国内精品一区二区在线观看| 日本 欧美在线| 国产亚洲av高清不卡| 午夜福利视频1000在线观看| 久久久久久人人人人人| av片东京热男人的天堂| 99re在线观看精品视频| 午夜成年电影在线免费观看| 久久中文看片网| 国产在线精品亚洲第一网站| 国产亚洲欧美在线一区二区| 亚洲一区二区三区不卡视频| 久久久久久久精品吃奶| 国产视频一区二区在线看| 嫁个100分男人电影在线观看| 日韩中文字幕欧美一区二区| 一级作爱视频免费观看| 人人妻人人澡欧美一区二区| 精品久久蜜臀av无| 亚洲美女视频黄频| 国产成人av激情在线播放| 国产一区二区在线av高清观看| 在线国产一区二区在线| 亚洲七黄色美女视频| 亚洲av五月六月丁香网| 久久久久九九精品影院| 日本免费一区二区三区高清不卡| av片东京热男人的天堂| 国内揄拍国产精品人妻在线| 制服人妻中文乱码| 亚洲熟妇熟女久久| 好看av亚洲va欧美ⅴa在| 国产高清有码在线观看视频 | 18禁美女被吸乳视频| 精品福利观看| 亚洲色图 男人天堂 中文字幕| 久久久久久人人人人人| 欧美3d第一页| 男女下面进入的视频免费午夜| 级片在线观看| av有码第一页| 亚洲欧美日韩东京热| 男女视频在线观看网站免费 | e午夜精品久久久久久久| 啦啦啦免费观看视频1| 亚洲国产精品久久男人天堂| 高清毛片免费观看视频网站| 999久久久精品免费观看国产| 在线观看免费午夜福利视频| 亚洲欧美日韩无卡精品| 国产高清videossex| 一二三四社区在线视频社区8| 在线国产一区二区在线| 日韩av在线大香蕉| 亚洲精品中文字幕在线视频| 亚洲成a人片在线一区二区| 国产不卡一卡二| 久久久久精品国产欧美久久久| 一进一出好大好爽视频| 成人一区二区视频在线观看| 免费看美女性在线毛片视频| 三级男女做爰猛烈吃奶摸视频| 青草久久国产| 国产av在哪里看| 亚洲精品国产一区二区精华液| 免费在线观看完整版高清| 少妇的逼水好多| 两个人视频免费观看高清| 九九在线视频观看精品| 午夜激情福利司机影院| 精华霜和精华液先用哪个| 老师上课跳d突然被开到最大视频| 波多野结衣高清作品| 国产精品不卡视频一区二区| 一夜夜www| 夫妻性生交免费视频一级片| 午夜爱爱视频在线播放| 哪个播放器可以免费观看大片| 99久久人妻综合| 国产国拍精品亚洲av在线观看| 亚洲欧美成人精品一区二区| 男女视频在线观看网站免费| 欧美精品一区二区大全| 极品教师在线视频| 深夜精品福利| 国产精品不卡视频一区二区| 欧美xxxx黑人xx丫x性爽| 成人毛片a级毛片在线播放| 麻豆精品久久久久久蜜桃| 亚洲欧美成人综合另类久久久 | 悠悠久久av| 成人鲁丝片一二三区免费| 国产成人91sexporn| 天堂av国产一区二区熟女人妻| 69人妻影院| 精品熟女少妇av免费看| 麻豆av噜噜一区二区三区| 草草在线视频免费看| 可以在线观看毛片的网站| 亚洲av第一区精品v没综合| 国产熟女欧美一区二区| a级毛色黄片| 久久婷婷人人爽人人干人人爱| 天堂网av新在线| 青青草视频在线视频观看| 欧美日韩综合久久久久久| 久久精品夜色国产| 婷婷六月久久综合丁香| 欧美变态另类bdsm刘玥| 天天躁日日操中文字幕| 久久精品人妻少妇| 精品99又大又爽又粗少妇毛片| 又粗又硬又长又爽又黄的视频 | 长腿黑丝高跟| 少妇熟女aⅴ在线视频| 午夜精品在线福利| 91av网一区二区| 国产成人精品一,二区 | 日本-黄色视频高清免费观看| 亚洲av免费高清在线观看| 亚洲精品乱码久久久久久按摩| 国产精品久久电影中文字幕| 男女边吃奶边做爰视频| 少妇高潮的动态图| 亚洲成人久久爱视频| 国产不卡一卡二| 成人一区二区视频在线观看| 69av精品久久久久久| 国产女主播在线喷水免费视频网站 | 深爱激情五月婷婷| 亚洲国产高清在线一区二区三| 夜夜夜夜夜久久久久| 国产伦精品一区二区三区视频9| 精品国内亚洲2022精品成人| 亚洲aⅴ乱码一区二区在线播放| 日韩欧美 国产精品| 成人亚洲精品av一区二区| 国产男人的电影天堂91| 久久久久国产网址| 国产精品一区www在线观看| 男女下面进入的视频免费午夜| av专区在线播放| 男女视频在线观看网站免费| 亚洲精品亚洲一区二区| 级片在线观看| 超碰av人人做人人爽久久| 你懂的网址亚洲精品在线观看 | 亚洲欧美日韩东京热| 久久久久网色| 久久精品夜夜夜夜夜久久蜜豆| 国产激情偷乱视频一区二区| 色播亚洲综合网| 亚洲精品乱码久久久久久按摩| 亚洲国产精品国产精品| 99九九线精品视频在线观看视频| 欧美三级亚洲精品| 欧美成人精品欧美一级黄| 亚洲内射少妇av| 白带黄色成豆腐渣| 精品无人区乱码1区二区| 高清日韩中文字幕在线| 欧美激情国产日韩精品一区| 久久久久网色| 亚洲美女视频黄频| 国产精品不卡视频一区二区| 禁无遮挡网站| 欧美日韩精品成人综合77777| 免费人成在线观看视频色| 国产成人a∨麻豆精品| 国产精品久久久久久亚洲av鲁大| 久久人妻av系列| 91在线精品国自产拍蜜月| 一进一出抽搐gif免费好疼| 国产久久久一区二区三区| 我要看日韩黄色一级片| 永久网站在线| 精品日产1卡2卡| a级毛片免费高清观看在线播放| 欧美+日韩+精品| 男人的好看免费观看在线视频| 哪个播放器可以免费观看大片| 一级毛片aaaaaa免费看小| 18禁在线无遮挡免费观看视频| 人人妻人人澡欧美一区二区| 欧美一级a爱片免费观看看| 卡戴珊不雅视频在线播放| 日韩av不卡免费在线播放| 国产大屁股一区二区在线视频| 国产黄色小视频在线观看| 99久久久亚洲精品蜜臀av| 99久久人妻综合| 免费大片18禁| 国产女主播在线喷水免费视频网站 | 亚洲国产精品成人综合色| 日日啪夜夜撸| 亚洲av成人精品一区久久| 亚洲国产精品成人综合色| av天堂在线播放| 欧美一级a爱片免费观看看| 国产精品久久久久久av不卡| 日本免费一区二区三区高清不卡| 国产在视频线在精品| 国产精品女同一区二区软件| 精品一区二区三区人妻视频| 免费黄网站久久成人精品| or卡值多少钱| 三级国产精品欧美在线观看| 亚洲美女搞黄在线观看| 中文字幕熟女人妻在线| av在线蜜桃| 国产乱人偷精品视频| 校园人妻丝袜中文字幕| 欧美+亚洲+日韩+国产| 99热这里只有是精品50| av卡一久久| 少妇人妻一区二区三区视频| 成人欧美大片| 免费搜索国产男女视频| 国产三级在线视频|