• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    級(jí)聯(lián)離散小波多頻帶分解注意力圖像去噪方法

    2024-02-18 11:17:06王力李小霞秦佳敏朱賀周穎玥
    關(guān)鍵詞:圖像去噪

    王力 李小霞 秦佳敏 朱賀 周穎玥

    摘 要:針對(duì)圖像去噪網(wǎng)絡(luò)中下采樣導(dǎo)致高頻信息損失和細(xì)節(jié)保留能力差的問(wèn)題,設(shè)計(jì)了一種級(jí)聯(lián)離散小波多頻帶分解注意力圖像去噪網(wǎng)絡(luò)。其中多尺度級(jí)聯(lián)離散小波變換結(jié)構(gòu)將原始圖像分解為多個(gè)尺度下的高低頻子帶來(lái)代替?zhèn)鹘y(tǒng)下采樣,能減少高頻信息損失。多頻帶特征增強(qiáng)模塊使用不同尺度的卷積核并行處理高低頻特征,在子網(wǎng)絡(luò)每一級(jí)下重復(fù)使用兩次,可增強(qiáng)全局和局部的關(guān)鍵特征信息。多頻帶分解注意力模塊通過(guò)注意力評(píng)估紋理細(xì)節(jié)成分的重要性并加權(quán)不同頻帶的細(xì)節(jié)特征,有助于多頻帶特征增強(qiáng)模塊更好地區(qū)分噪聲和邊緣細(xì)節(jié)。多頻帶選擇特征融合模塊融合多尺度多頻帶特征增強(qiáng)選擇性特征,提高模型對(duì)于不同尺度噪聲的去除能力。在SIDD和DND數(shù)據(jù)集上,所提方法的PSNR/SSIM指標(biāo)分別達(dá)到了39.35 dB/0.918、39.72 dB/0.955。實(shí)驗(yàn)結(jié)果表明,該方法的性能優(yōu)于主流去噪方法,同時(shí)具有更清晰的紋理細(xì)節(jié)和邊緣等視覺效果。

    關(guān)鍵詞:圖像去噪; 高頻信息; 級(jí)聯(lián)離散小波變換; 多頻帶特征增強(qiáng); 多頻帶分解注意力

    中圖分類號(hào):TP391.4?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號(hào):1001-3695(2024)01-046-0288-08

    doi:10.19734/j.issn.1001-3695.2023.06.0245

    Cascade discrete wavelet multi-band decomposition attention image denoising method

    Abstract:To address the issue of high-frequency information loss and poor detail preservation ability in image denoising networks caused by downsampling, this paper proposed a cascade discrete wavelet multi-band decomposition attention image denoising network. The multi-scale cascade discrete wavelet transform structure decomposed the original image into high and low-frequency sub-bands at multiple scales, replacing traditional downsampling and reducing high-frequency information loss. The multi-band feature enhancement module employed convolutional kernels of different scales to process high and low-frequency features in parallel. By repeating this process twice at each level of the subnetwork, it effectively enhanced both global and local key feature information. The multi-band decomposition attention module evaluated the importance of texture detail components through attention and weighted the detail features of different bands, which helped the multi-band feature enhancement module better distinguish between noise and edge details. The multi-band selective feature fusion module fused multi-scale multi-band features to enhance selective features, improving the models ability to remove noise at different scales. The proposed method achieves PSNR/SSIM values of 39.35 dB/0.918 and 39.72 dB/0.955 on the SIDD and DND datasets, respectively. The experimental results demonstrate that the proposed method outperforms mainstream denoising methods and produces clearer visual effects, such as texture details and edges.

    Key words:image denoising; high-frequency information; cascade discrete wavelet transform; multi-band feature enhancement; multi-band decomposition attention

    0 引言

    圖像噪聲會(huì)顯著降低圖像質(zhì)量,因此消除圖像噪聲對(duì)于提高圖像的視覺質(zhì)量至關(guān)重要。圖像去噪是一個(gè)不適定問(wèn)題,具有很大的挑戰(zhàn)性。在高級(jí)計(jì)算機(jī)視覺任務(wù)的預(yù)處理步驟中,如目標(biāo)檢測(cè)和圖像分割,圖像去噪扮演著重要角色。為了解決這個(gè)問(wèn)題,研究人員開發(fā)了基于模型和學(xué)習(xí)的圖像去噪方法。

    基于模型的方法采用基于明確定義的圖像先驗(yàn)信息或噪聲統(tǒng)計(jì)模型的優(yōu)化策略,這些方法具有良好的可解釋性和強(qiáng)大的泛化能力。典型的先驗(yàn)信息包括圖像域的平滑性、變換域的稀疏性[1,2]、斑塊域的非局部自相似性[3,4]和低秩[5]。雖然這些方法都取得了不錯(cuò)的效果,但它們?nèi)源嬖谝韵滤膫€(gè)缺點(diǎn):a)需要人工調(diào)整參數(shù);b)需要復(fù)雜的優(yōu)化算法才能達(dá)到理想的去噪效果;c)保留圖像邊緣細(xì)節(jié)特征的能力差;d)無(wú)法去除復(fù)雜的真實(shí)噪聲。

    在過(guò)去十余年,深度學(xué)習(xí)方法促進(jìn)了圖像處理領(lǐng)域快速發(fā)展。相較于傳統(tǒng)的圖像去噪方法,基于深度學(xué)習(xí)的方法有很多優(yōu)點(diǎn)。首先,這些方法通常不需要人工設(shè)置超參數(shù)或依賴于人類知識(shí)的圖像先驗(yàn)。其次,它們?cè)谌コ铣稍肼暫驼鎸?shí)噪聲方面都表現(xiàn)得更好。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)的結(jié)構(gòu)非常適合于同時(shí)捕捉淺層和深層圖像特征,并且能夠從大規(guī)模的圖像訓(xùn)練集中獲得強(qiáng)大的數(shù)據(jù)推理能力,從而表現(xiàn)出更優(yōu)的性能。已有的一些方法,例如DnCNN[6]和FFDNet[7],通過(guò)引入殘差學(xué)習(xí)和人工設(shè)置噪聲級(jí)別來(lái)去除圖像中的噪聲。然而,這些方法在處理真實(shí)噪聲方面表現(xiàn)不佳。為了應(yīng)對(duì)這個(gè)問(wèn)題,CBDNet[8]通過(guò)使用噪聲估計(jì)子網(wǎng)絡(luò)來(lái)預(yù)測(cè)噪聲圖像作為先驗(yàn)知識(shí),從而去除真實(shí)場(chǎng)景中圖像的真實(shí)噪聲。RIDNet[9]則使用了注意力機(jī)制來(lái)增強(qiáng)高頻信息的流動(dòng),并使用殘差結(jié)構(gòu)減少低頻信息的傳遞,以重建去噪圖像中的詳細(xì)信息。然而,這些方法的計(jì)算復(fù)雜度較高。InvDN[10]是一種輕量級(jí)且可逆的真實(shí)圖像去噪網(wǎng)絡(luò),該網(wǎng)絡(luò)將噪聲圖像轉(zhuǎn)換為低分辨率的干凈圖像和包含噪聲的潛在表示,從而實(shí)現(xiàn)干凈圖像的恢復(fù)和新噪聲圖像的生成。CVF-SID[11]中提出了一種關(guān)于真實(shí)噪聲自監(jiān)督訓(xùn)練去噪方法,能將噪聲圖像分解成干凈圖像、信號(hào)相關(guān)和無(wú)關(guān)的噪聲;同時(shí)還引入一種自監(jiān)督的數(shù)據(jù)增強(qiáng)策略,以有效地增加訓(xùn)練樣本的數(shù)量。MaskedTraining[12]引入輸入掩碼和注意力掩碼兩種掩碼訓(xùn)練方法,通過(guò)對(duì)輸入圖像進(jìn)行隨機(jī)像素掩蓋,并在訓(xùn)練過(guò)程中重建缺失信息,有效提高了去噪模型的泛化能力。MIRNetv2[13]通過(guò)使用多尺度殘差塊、結(jié)合密集連接塊和全局殘差學(xué)習(xí)來(lái)保留圖像細(xì)節(jié)。但是,以上這些方法無(wú)法在具有復(fù)雜紋理和結(jié)構(gòu)的區(qū)域中精細(xì)地保留圖像邊緣細(xì)節(jié)特征。引入注意力機(jī)制可以幫助網(wǎng)絡(luò)更準(zhǔn)確地區(qū)分信號(hào)和噪聲,并更好地恢復(fù)圖像的細(xì)節(jié)和紋理信息。目前,許多研究已經(jīng)在這方面作出了重要的貢獻(xiàn)。例如,Hu等人[14]將注意力機(jī)制引入到圖像分類任務(wù)中,提出了顯式建模通道間相互依賴關(guān)系的網(wǎng)絡(luò),提高了網(wǎng)絡(luò)性能。Woo等人[15]提出了即插即用的卷積塊注意力模塊(convolutional block attention module,CBAM),通過(guò)最大池化和平均池化分別在信道空間維度提取全局圖像特征。尹海濤等人[16]提出了局部和非局部的混合注意力機(jī)制的去噪模型,能自適應(yīng)調(diào)整特征通道并有效刻畫圖像中的局部和非局部特征。Qin等人[17]提出了多頻譜通道注意力框架,是一種融合頻域分析和注意力機(jī)制的嘗試。

    目前通用的圖像去噪任務(wù)架構(gòu)使用噪聲圖像和干凈的目標(biāo)圖像對(duì)進(jìn)行訓(xùn)練,并對(duì)加性高斯白噪聲(additive white Gaus-sian noise,AWGN)等合成噪聲圖像進(jìn)行處理,獲得了良好的視覺質(zhì)量。然而,真實(shí)圖像去噪仍然是一個(gè)具有挑戰(zhàn)性的任務(wù),真實(shí)圖像噪聲來(lái)源于相機(jī)系統(tǒng)中的處理步驟,如馬賽克、伽馬校正和壓縮多樣化。近年來(lái),研究人員試圖通過(guò)對(duì)真實(shí)噪聲進(jìn)行建模,構(gòu)建基于CNN的去噪模型來(lái)處理真實(shí)世界的噪聲圖像。典型的CNN真實(shí)圖像去噪方法采用編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu),然而編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu)中重復(fù)的下采樣操作會(huì)對(duì)圖像高頻信息造成嚴(yán)重的破壞,無(wú)法重構(gòu)出高質(zhì)量的圖像。圖像信息主要分為低頻信息和高頻信息兩部分。低頻信息包含了原始圖像的主要內(nèi)容,而高頻信息則包含了水平、垂直和對(duì)角線細(xì)節(jié),能夠清晰地表現(xiàn)圖像的紋理特征。這些信息不僅對(duì)于圖像去噪至關(guān)重要,也是其他視覺任務(wù)的關(guān)鍵。引入小波變換(wavelet transform,WT)[18]可以進(jìn)一步提高圖像去噪的性能。小波變換具有多分辨率分析和時(shí)頻域逐步細(xì)分的功能,可以將特征映射分解為不同頻率以作進(jìn)一步處理。通過(guò)將圖像中的高頻信息從低頻信息中分離出來(lái),小波變換可以大大減少CNN中下采樣造成的信息損失。此外,小波變換是可逆的,在圖像處理中也得到了廣泛的應(yīng)用。Sun等人[19]提出級(jí)聯(lián)離散小波變換模塊,該模塊充分利用了不同的頻率分量,通過(guò)替換現(xiàn)有的池化操作,提高了圖像分類任務(wù)的準(zhǔn)確率。Liu等人[20]通過(guò)使用小波變換代替U-Net[21]中下采樣操作,利用正交化方法保留更多的信息。徐景秀等人[22]提出一種改進(jìn)小波軟閾值函數(shù)方法,通過(guò)對(duì)閾值的選取方式和閾值函數(shù)進(jìn)行改進(jìn)來(lái)提升去噪后的圖像質(zhì)量。陳清江等人[23]基于小波變換和CNN的優(yōu)勢(shì)將圖像進(jìn)行尺度為1的小波分解,得到高頻分量和低頻分量分別輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,能有效去除噪聲。Duan等人[24]應(yīng)用雙樹復(fù)小波變換設(shè)計(jì)了一種卷積小波神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)具有抑制特定噪聲和保持特征結(jié)構(gòu)的能力。盡管基于小波的去噪方法取得了成功,但仍存在一些局限性:a)固定的小波濾波器選擇和有限的分解級(jí)別可能無(wú)法捕捉到所有尺度上的信號(hào)特征;b)當(dāng)噪聲水平較高時(shí)或處理復(fù)雜的真實(shí)噪聲時(shí),去噪性能可能會(huì)惡化,因?yàn)樵肼曉谛〔ǚ纸膺^(guò)程中可能會(huì)通過(guò)不同的子帶傳播;c)現(xiàn)有方法將所有頻率信息直接混合,或直接丟棄高頻信息,導(dǎo)致不同頻率信息相互作用產(chǎn)生偽影和失真,以及無(wú)法保留圖像邊緣細(xì)節(jié)特征等問(wèn)題,特別是在具有復(fù)雜紋理和結(jié)構(gòu)的區(qū)域。

    針對(duì)以上問(wèn)題,本文提出了一種級(jí)聯(lián)離散小波多頻帶分解注意力(cascaded discrete wavelet multi-band decomposition attention,CDW-MDA)圖像去噪網(wǎng)絡(luò),該網(wǎng)絡(luò)結(jié)合了模型可解釋性強(qiáng)和CNN學(xué)習(xí)能力強(qiáng)的優(yōu)點(diǎn),采用編碼器-子網(wǎng)絡(luò)-解碼器結(jié)構(gòu),包括多尺度級(jí)聯(lián)離散小波變換(multi-scale cascaded discrete wavelet transform,MC-DWT)結(jié)構(gòu)、多頻帶特征增強(qiáng)(multi-band feature enhancement,Mb-FE)模塊、多頻帶分解注意力(multi-band decomposition attention,Mb-DA)模塊以及多頻帶選擇特征融合(multi-band selective feature fusion,Mb-SFF)模塊。

    具體來(lái)說(shuō),本文在編碼器和解碼器階段采用離散小波變換(discrete wavelet transform,DWT)和逆離散小波變換(inverse discrete wavelet transform,IDWT)代替了U-Net結(jié)構(gòu)中的下采樣和上采樣操作,以減少下采樣操作造成的高頻信息損失并增大感受野。此外,通過(guò)級(jí)聯(lián)DWT和卷積塊,將輸入圖像分解成多尺度頻帶,其中低頻子帶包含了原始圖像的主要信息,而高頻子帶包含了水平、垂直和對(duì)角線細(xì)節(jié)信息。在子網(wǎng)絡(luò)階段,本文設(shè)計(jì)了多頻帶特征增強(qiáng)(Mb-FE)模塊、多頻帶分解注意力(Mb-DA)模塊和多頻帶選擇特征融合(Mb-SFF)模塊。首先,將不同尺度下的頻帶信息輸入Mb-FE模塊,以提取不同頻帶的全局和局部特征。然后,Mb-DA模塊對(duì)不同尺度下各頻帶的特征進(jìn)行注意力加權(quán),提高空間特征的冗余度和豐富度,并增強(qiáng)每個(gè)子帶的鑒別信息,從而有效地保留重要的圖像細(xì)節(jié)和抑制噪聲。Mb-SFF模塊由粗到精融合級(jí)間多尺度多頻帶特征和單一尺度下的多頻帶特征,同時(shí)保持了高頻帶與低頻帶信息的互補(bǔ)特性。最終,將多頻帶特征信息通過(guò)IDWT操作轉(zhuǎn)換為線性結(jié)構(gòu)信息,重構(gòu)出高質(zhì)量的圖像。實(shí)驗(yàn)結(jié)果表明,在合成噪聲和真實(shí)噪聲圖像數(shù)據(jù)集上,本文去噪方法的性能優(yōu)于目前主流的去噪方法。

    1 提出方法

    本章提出了一種級(jí)聯(lián)離散小波多頻帶分解注意力(CDW-MDA)圖像去噪網(wǎng)絡(luò)。首先,整體介紹了網(wǎng)絡(luò)結(jié)構(gòu)的數(shù)學(xué)模型和使用的損失函數(shù),然后詳細(xì)描述了所提出的網(wǎng)絡(luò)中的多尺度級(jí)聯(lián)離散小波變換(MC-DWT)結(jié)構(gòu)、多頻帶特征增強(qiáng)(Mb-FE)模塊、多頻帶分解注意力(Mb-DA)模塊以及多頻帶選擇特征融合(Mb-SFF)模塊。

    1.1 CDW-MDA圖像去噪網(wǎng)絡(luò)結(jié)構(gòu)

    如圖1所示,CDW-MDA網(wǎng)絡(luò)采用編碼器-子網(wǎng)絡(luò)-解碼器的結(jié)構(gòu)。在編碼器階段,將輸入的噪聲圖像進(jìn)行級(jí)聯(lián)DWT和卷積塊操作,獲取四個(gè)尺度下的高低頻帶特征。本文采用DWT和IDWT代替U-Net中下采樣和上采樣操作,以減少下采樣操作造成的高頻信息損失。整個(gè)編碼器過(guò)程中的數(shù)學(xué)模型表達(dá)式如式(1)~(3)所示。

    P1=F1Con(F1DWT(Iin))(1)

    P2=F2Con(F2DWT(F1Con(F1DWT(Iin))))=F2Con(F2DWT(P1))(2)

    Pn=FnCon(FnDWT(Pn-1)) n=1,…,4(3)

    其中:Pn表示提取的第n級(jí)高頻子帶和低頻子帶特征圖;Iin∈RApH×W×C是輸入的噪聲圖像;H、W和C分別代表輸入圖像的高、寬和通道數(shù);FnDWT(·)和FnCon(·)分別表示第n級(jí)DWT輸出和卷積塊輸出,根據(jù)實(shí)驗(yàn)經(jīng)驗(yàn),本文中n取4。

    然后,將編碼器中提取到的不同尺度頻帶特征P1、P2 、P3 和P4分別送入子網(wǎng)絡(luò)中每一級(jí)的多頻帶特征增強(qiáng)(Mb-FE)模塊,增強(qiáng)全局-局部高低頻關(guān)鍵特征信息,抑制噪聲影響。隨后將增強(qiáng)的高頻子帶和低頻子帶特征圖送入多頻帶分解注意力(Mb-DA)模塊,捕捉分解的高低頻子帶中的關(guān)鍵細(xì)節(jié),以充分提高空間域特征的冗余度和豐富度,從而有效地保留重要的圖像邊緣細(xì)節(jié)特征。Mb-FE的低噪聲特性可以使Mb-DA更好地捕捉圖像高低頻特征,Mb-DA的高低頻特征注意力可以幫助Mb-FE更好地區(qū)分噪聲和邊緣細(xì)節(jié)。本文在每一級(jí)的Mb-DA后疊加一個(gè)Mb-FE來(lái)構(gòu)建子網(wǎng)絡(luò),生成特征圖L1、L2、L3和L4。最后,將L1、L2、L3和L4送入多頻帶選擇特征融合(Mb-SFF)模塊融合多尺度高低頻帶特征,得到特征圖Of。整個(gè)子網(wǎng)絡(luò)的數(shù)學(xué)模型表達(dá)式如式(4)~(7)所示。

    L1=F″Mb-FE(F1Mb-DA(F′Mb-FE(P1)))(4)

    L2=F″Mb-FE(F2Mb-DA(F′Mb-FE(P2)))(5)

    Ln=F″Mb-FE(FnMb-DA(F′Mb-FE(Pn)))(6)

    Of=FMb-SFF(L1,…,L4)(7)

    其中:F′Mb-FE(·)和F″Mb-FE(·)分別表示每一級(jí)的第一和第二次Mb-FE的輸出;FnMb-DA(·)表示第n級(jí)的Mb-DA的輸出;FMb-SFF(·)表示Mb-SFF操作;Of為輸出的特征圖。

    在解碼器中,Of通過(guò)卷積塊和IDWT輸出得到預(yù)測(cè)殘差圖像Ires,將Ires和Iin相加就得到去噪后的圖像Iout。整個(gè)解碼器的數(shù)學(xué)模型表達(dá)如式(8)(9)所示。

    Ires=F1IDWT(F1Con…(FnIDWT(FnCon(Of))))(8)

    Iout=Ires+Iin(9)

    其中:FnCon和FnIDWT分別表示第n級(jí)的卷積塊和IDWT操作;Ires是級(jí)聯(lián)卷積和IDWT后得到的殘差圖像;Iout為去噪后的輸出圖像。

    為了提高CDW-MDA網(wǎng)絡(luò)在圖像去噪任務(wù)中的有效性,本文選擇L2損失來(lái)優(yōu)化整個(gè)網(wǎng)絡(luò)。給定訓(xùn)練集{Inoisy,Iclean}N包含N對(duì)噪聲圖像和相應(yīng)的干凈圖像,CDW-MDA可以通過(guò)Adam[25]優(yōu)化得到合適的參數(shù),計(jì)算過(guò)程為式(10)

    其中:L和Θ分別表示網(wǎng)絡(luò)的損失函數(shù)和參數(shù)集;HCDW-MDA(Inoisy)是CDW-MDA去噪網(wǎng)絡(luò)的數(shù)學(xué)表達(dá)式;Iclean為干凈圖像。

    1.2 多尺度級(jí)聯(lián)離散小波變換(MC-DWT)結(jié)構(gòu)

    二維DWT可以將原始圖像Y分解為低頻子帶、水平高頻子帶 、垂直高頻子帶和對(duì)角線高頻子帶的組合,四個(gè)子帶圖像的像素尺寸是輸入圖像尺寸的一半,如圖2所示。本文使用由低通濾波器和高通濾波器組成的Haar小波[18]分解輸入圖像Y,如式(11)所示。

    其中: fLL為低通濾波器; fLH、 fHL和fHH為三個(gè)高通濾波器。

    由于四種濾波器的正交性,在下采樣過(guò)程中不會(huì)出現(xiàn)信息損失,這意味著利用IDWT可以完全重建目標(biāo)圖像。二維DWT和IDWT的計(jì)算步驟如式(12)(13)所示。

    FDWT(Y)=[fLL*Y)↓2,(fLH*Y)↓2,(fHL*Y)↓2,(fHH*Y)↓2]=

    [YLL,YLH,YHL,YHH](12)

    Y=FIDWT(YLL,YLH,YHL,YHH)(13)

    其中:FDWT(·)表示DWT計(jì)算;FIDWT(·)表示IDWT計(jì)算;*為卷積運(yùn)算;↓2為二分降頻采樣。

    本文使用Haar小波分解,將一個(gè)復(fù)雜的CNN訓(xùn)練圖像去噪問(wèn)題轉(zhuǎn)換為一個(gè)簡(jiǎn)單的CNN訓(xùn)練多個(gè)尺度小波子帶的問(wèn)題。圖1展示了在每一級(jí)小波變換后插入一個(gè)3×3 conv+ReLU卷積塊,可以減少特征映射的通道數(shù),并提高特征映射的帶間獨(dú)立性。每個(gè)卷積塊右側(cè)標(biāo)注了通道數(shù),且沒有池化。對(duì)于最后一個(gè)卷積塊的最后一層,僅采用3×3 conv對(duì)殘差結(jié)果進(jìn)行預(yù)測(cè)。總之,MC-DWT結(jié)構(gòu)取代了傳統(tǒng)U-Net中的上采樣和下采樣,從而避免了信息損失。DWT的時(shí)頻域逐步細(xì)分特性還有助于保留圖像細(xì)節(jié)和紋理信息。

    1.3 多頻帶特征增強(qiáng)(Mb-FE)模塊

    針對(duì)直接混合高低頻信息導(dǎo)致去噪效果不佳的問(wèn)題,本文提出了一種多頻帶特征增強(qiáng)(Mb-FE)模塊,用于增強(qiáng)全局和局部的高低頻關(guān)鍵特征信息,并抑制噪聲影響。在CDW-MDA的每一級(jí)子網(wǎng)絡(luò)階段,重復(fù)使用兩次Mb-FE模塊。具體來(lái)說(shuō),Mb-FE模塊可以看作是一個(gè)雙支路四層殘差密集塊(residual dense block,RDB),前面每層的輸出使用跳躍連接與當(dāng)前層的輸出相連,并輸入到下一層,以提高網(wǎng)絡(luò)的表達(dá)能力和性能。在Mb-FE高頻子帶支路中,采用小的3×3卷積核以更好地保留圖像細(xì)節(jié)信息,而在Mb-FE低頻子帶支路中,采用較大的5×5卷積核以獲取更多的上下文信息,從而更好地增強(qiáng)低頻特征。此外,每個(gè)卷積層都去除了批次歸一化 (batch normalization,BN)和池化,只保留了ReLU,以更好地保留細(xì)節(jié)特征。

    如圖3所示,令Mb-FE模塊中高頻子帶和低頻子帶的特征輸入分別為P0H和P0L,高頻子帶特征圖在經(jīng)過(guò)三層3×3 conv和ReLU運(yùn)算后的特征圖分別為P1H、P2H和P3H,融合P1H后的局部特征圖為P4H,如式(14)所示。

    P4H=conv[concat(P0H,P1H,P2H,P3H)](14)

    其中:concat(P0H,P1H,P2H,P3H)表示將特征圖P0H、P1H、P2H、P3H進(jìn)行通道拼接;conv表示1×1卷積運(yùn)算,用于融合局部特征。最終的輸出PoutH為融合后的局部特征圖P4H和高頻子帶輸入特征P0H進(jìn)行逐像素相加,如式(15)所示。

    PoutH=P0H+P4H(15)

    同理,低頻子帶特征圖在經(jīng)過(guò)三層5×5 conv和ReLU運(yùn)算后的特征圖分別為P1L、P2L和P3L,融合P3L后的局部特征圖為P4L,如式(16)所示。

    P4L=conv[concat(P0L,P1L,P2L,P3L)](16)

    其中:concat(P0L,P1L,P2L,P3L)表示將特征圖P0L、P1L、P2L、P3L進(jìn)行通道拼接;conv表示1×1卷積運(yùn)算,用于融合局部特征。最終的輸出PoutL為融合后的局部特征圖P4L和低頻子帶輸入特征P0L進(jìn)行逐像素相加,如式(17)所示。

    PoutL=P0L+P4L(17)

    1.4 多頻帶分解注意力(Mb-DA)模塊

    X=softmax([FC(GAP(M[i,:,:,:]))]) i=1,2,3(19)

    顯然,X是對(duì)M的注意力權(quán)重。最終的紋理特征如式(20)所示。

    其中:⊙為點(diǎn)乘運(yùn)算;c為向量的維度。

    最終,通過(guò)將原始特征LL和生成的紋理特征拼接起來(lái),以獲得更全面、更具區(qū)分性的輸出特征表示,如式(21)所示。

    output features=concat(textural features,LL)(21)

    1.5 多頻帶選擇特征融合(Mb-SFF)模塊

    受文獻(xiàn)[13]的啟發(fā),本文引入了一個(gè)非線性過(guò)程來(lái)融合多尺度特征,即多頻帶選擇特征融合(Mb-SFF)模塊,如圖5所示。與文獻(xiàn)[13]不同的是,本文是針對(duì)DWT分解的四個(gè)尺度下的子帶特征圖進(jìn)行融合。Mb-SFF接收來(lái)自四個(gè)攜帶不同尺度子帶信息的輸入。首先將這些多尺度特征用一個(gè)元素級(jí)和組合表示,如式(22)所示。

    L=L1+L2+L3+L4(22)

    然后,在L的空間維度上進(jìn)行全局平均池化(GAP),得到通道元素特征向量S。S經(jīng)過(guò)一個(gè)1×1 conv和ReLU的卷積層生成一個(gè)緊湊的特征向量Z。Z通過(guò)四個(gè)并行的通道放大卷積層(每個(gè)尺度一個(gè))得到四個(gè)特征描述子V1、V2、V3和V4,每個(gè)描述子的維度為1×1×C。應(yīng)用softmax函數(shù)產(chǎn)生V1、V2、V3和V4對(duì)應(yīng)的注意力激活算子S1、S2、S3和S4,這些激活算子用來(lái)自適應(yīng)地重新校準(zhǔn)多尺度特征L1、L2、L3和L4。特征重新校準(zhǔn)和聚集以獲得輸出特征Of的計(jì)算過(guò)程,如式(23)所示。

    Of=S1·L1+S2·L2+S3·L3+S4·L4(23)

    2 實(shí)驗(yàn)

    2.1 訓(xùn)練集與測(cè)試集

    對(duì)于合成噪聲去噪任務(wù),本文使用一個(gè)大型數(shù)據(jù)集DIV2K[26]作為訓(xùn)練數(shù)據(jù)集,該數(shù)據(jù)集由800幅高分辨率圖像組成。在訓(xùn)練過(guò)程中,大小為256×256的圖像補(bǔ)丁從其原始完整版本中隨機(jī)裁剪,并在圖像上添加特定噪聲水平(σ=15,25,50)的加性高斯白噪聲(AWGN)進(jìn)行合成噪聲去噪評(píng)價(jià)。使用SeT12[6]和BSD68[27]數(shù)據(jù)集對(duì)灰度圖像進(jìn)行去噪評(píng)價(jià);選擇CBSD68[27]和McMaster[28]數(shù)據(jù)集對(duì)彩色圖像進(jìn)行去噪評(píng)價(jià)。

    對(duì)于真實(shí)圖像去噪任務(wù),本文使用SIDD數(shù)據(jù)集[29]進(jìn)行訓(xùn)練,該數(shù)據(jù)集是由五部智能手機(jī)在室內(nèi)捕捉不同的噪聲水平場(chǎng)景下采集的,包含320對(duì)圖像用于訓(xùn)練,1 280對(duì)圖像用于測(cè)試。本文使用SIDD和DND數(shù)據(jù)集[30]對(duì)真實(shí)圖像去噪進(jìn)行評(píng)價(jià)。在訓(xùn)練和測(cè)試中,所有裁剪得到的補(bǔ)丁大小都是256×256。

    2.2 實(shí)驗(yàn)細(xì)節(jié)

    CDW-MDA網(wǎng)絡(luò)使用的深度學(xué)習(xí)框架為PyTorch 1.8和CUDA 11.1,所有的實(shí)驗(yàn)都是在Ubuntu 18.04.5版本,兩張NVIDIA GTX3080 GPU的環(huán)境下進(jìn)行。真實(shí)噪聲訓(xùn)練和合成噪聲訓(xùn)練的批次大小為16,補(bǔ)丁大小為256。在訓(xùn)練過(guò)程中,學(xué)習(xí)速率初始設(shè)置為1E-4,使用余弦退火策略[31]來(lái)穩(wěn)定降低學(xué)習(xí)速率,并用L2損失和Adam優(yōu)化器(β1=0.9,β2=0.999)來(lái)優(yōu)化網(wǎng)絡(luò)參數(shù)。CDW-MDA網(wǎng)絡(luò)使用了四個(gè)不同的特征尺度,通道數(shù)分別為64、128、256和512,DWT分解級(jí)別為4,每一級(jí)別下的Mb-FE和Mb-DA數(shù)量分別為2和1。

    2.3 評(píng)價(jià)指標(biāo)

    本文用峰值信噪比(peak signal-to-noise ratio,PSNR)和結(jié)構(gòu)相似性(structural similarity,SSIM)[32]兩個(gè)指標(biāo)來(lái)定量分析模型的去噪性能。PSNR越高,SSIM越接近1,表明去噪后的圖像更接近ground truth,模型去噪效果更好。PSNR和SSIM的公式為式(24)(25)

    其中:W表示寬度;H表示高度;P(i, j)表示去噪圖像(i, j)位置處的像素值;K(i,j)表示ground truth圖像(i,j)位置處的像素值;μ1和μ2分別表示圖像K和P的均值;σ1和σ2分別表示圖像K和P的方差;σ1,2表示圖像K和P的協(xié)方差,且c1=0.01和c2=0.02為常數(shù)。

    2.4 實(shí)驗(yàn)結(jié)果與分析

    2.4.1 灰度圖像去噪

    為了進(jìn)行客觀評(píng)價(jià),將具有不同噪聲水平σ=15,25,50的相同噪聲AWGN添加到ground truth圖像中以獲得噪聲圖像。對(duì)于灰度圖像去噪,本文將CDW-MDA的實(shí)驗(yàn)結(jié)果與一些最新的去噪方法進(jìn)行了比較,包括BM3D[3]、WNNM[33]、DnCNN[6]、FFDNet[7]、DudeNet[34]、DeamNet[35]、APDNet[36]和 MACFNet[37]。表1展示了這些方法在Set12和BSD68數(shù)據(jù)集上平均PSNR結(jié)果。各表中加粗代表所列方法中的最優(yōu)指標(biāo)??梢钥闯?,本文方法的定量結(jié)果多為最優(yōu)或次優(yōu)。在復(fù)雜噪聲下,本文模型優(yōu)于所列圖像去噪方法,主要是因?yàn)镃DW-MDA網(wǎng)絡(luò)架構(gòu)能更深入地挖掘高頻信息。

    圖6展示了來(lái)自Set12數(shù)據(jù)集中的圖像Barbara在σ=50下不同方法的視覺去噪結(jié)果對(duì)比,子圖題中數(shù)字表示PSNR。BM3D和WNNM在一定程度上保留了圖像的結(jié)構(gòu),但不能很好地去除噪聲。DnCNN和FFDNet使邊緣過(guò)于平滑,混淆了前景和背景。DeamNet和APDNet雖然去噪效果很好,但在去噪過(guò)程中紋理和細(xì)節(jié)保留的效果較差。相比之下,本文方法可以產(chǎn)生更清晰的桌布紋理細(xì)節(jié),而且沒有產(chǎn)生模糊,恢復(fù)后的圖像保留了更多的紋理細(xì)節(jié)信息。

    2.4.2 彩色圖像去噪

    對(duì)于彩色圖像去噪,本文將CDW-MDA的實(shí)驗(yàn)結(jié)果與一些最新的去噪方法進(jìn)行了比較,包括CBM3D[3]、DnCNN、FFDNet、ADNet[38]、DudeNet、DeamNet、APDNet和MACFNet。表2展示了這些方法在CBSD68和McMaster數(shù)據(jù)集上的平均PSNR結(jié)果。可以看出,本文方法在McMaster數(shù)據(jù)集上取得了最好的結(jié)果,在三種不同的噪聲水平下,相較于DeamNet的PSNR增益分別為0.06 dB、0.09 dB和0.05 dB。總的來(lái)說(shuō),本文方法可以在大多數(shù)情況下獲得最高的PSNR,這是因?yàn)镃DW-MDA網(wǎng)絡(luò)架構(gòu)同時(shí)關(guān)注了圖像的全局和局部信息。

    圖7展示了來(lái)自CBSD68數(shù)據(jù)集中的圖像在σ=50下不同方法的視覺去噪結(jié)果對(duì)比,從去噪圖像和放大局部圖可以看出,本文方法能夠在保持圖像特征紋理的同時(shí)降低噪聲。

    2.4.3 真實(shí)噪聲圖像去噪

    真實(shí)噪聲圖像的去噪是一個(gè)極具挑戰(zhàn)性的問(wèn)題,因?yàn)檎鎸?shí)噪聲通常具有信號(hào)依賴性,并且在空間上隨相機(jī)的特性而變化。為了評(píng)估本文方法對(duì)真實(shí)噪聲圖像的去噪性能,采用SIDD驗(yàn)證數(shù)據(jù)集和DND基準(zhǔn)數(shù)據(jù)集作為測(cè)試數(shù)據(jù)集。由于DND不提供可訓(xùn)練的數(shù)據(jù)集,ground truth圖像也不公開,去噪后的圖像和結(jié)果只能通過(guò)在線系統(tǒng)獲得,所以本文將去噪圖像提交到DND官方網(wǎng)站以獲得結(jié)果。

    本文將實(shí)驗(yàn)結(jié)果與一些最新的去噪方法進(jìn)行了比較,包括BM3D[4]、DnCNN[6]、FFDNet[7]、CBDNet[8]、RIDNet[9]、HI-GAN[39]、COLA-Net[40]、MHCNN[41]和VDIR[42]。在實(shí)驗(yàn)中,本文使用相應(yīng)原文提供的預(yù)訓(xùn)練模型,并參考其在線系統(tǒng)和論文中報(bào)告的結(jié)果。表3顯示了SIDD驗(yàn)證數(shù)據(jù)集上的定量結(jié)果,可以看出,本文方法在現(xiàn)有方法上獲得了最高的PSNR和SSIM值,與目前最好的方法相比,PSNR增益為0.06 dB,SSIM值提高了0.004。表4顯示了DND基準(zhǔn)數(shù)據(jù)集上的定量結(jié)果,本文方法同樣獲得了最高的PSNR和SSIM值,與目前最好的方法相比,PSNR增益為0.09 dB,SSIM值提高了0.002。定量實(shí)驗(yàn)結(jié)果表明,與其他七種去噪方法相比,本文CDW-MDA對(duì)于真實(shí)噪聲圖像具有更好的去噪性能。

    圖8、9展示了來(lái)自SIDD數(shù)據(jù)集中不同方法的視覺去噪結(jié)果對(duì)比。傳統(tǒng)算法BM3D的視覺效果稍微優(yōu)于DnCNN,但是兩者的去噪效果和邊緣信息保留能力有限。CBDNet和RIDNet的去噪效果有所提升,但是有殘余噪聲和偽影。相比之下,本文方法能在去除噪聲的同時(shí)保留更多的文字和白色條紋細(xì)節(jié),因此具有更好的視覺效果。

    圖10展示了來(lái)自DND數(shù)據(jù)集中不同方法的視覺去噪結(jié)果對(duì)比,由于石柱表面的雕刻凹凸不平,使圖像中的噪聲很難去除,上述方法都不能在去除噪聲和保留邊緣結(jié)構(gòu)的問(wèn)題上保持平衡。而本文方法可以更巧妙地恢復(fù)紋理和結(jié)構(gòu),并獲得更清晰的圖像。綜合實(shí)驗(yàn)指標(biāo)結(jié)果和視覺對(duì)比效果來(lái)看,本文方法在實(shí)際圖像去噪中具有一定優(yōu)勢(shì)。

    2.4.4 消融實(shí)驗(yàn)

    本文在McMaster數(shù)據(jù)集(σ=25)上進(jìn)行消融實(shí)驗(yàn)來(lái)驗(yàn)證所提出模塊的有效性,結(jié)果如表5所示。首先,使用傳統(tǒng)的具有跳連接的編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu)(encoder-decoder,ED)作為基準(zhǔn)網(wǎng)絡(luò),即不將圖像分解為不同頻率的特征,而是從整個(gè)圖像中提取特征。MC-DWT是CDW-MDA中的關(guān)鍵結(jié)構(gòu),如果沒有此結(jié)構(gòu),專為高頻和低頻特征設(shè)計(jì)的Mb-FE和Mb-DA模塊就會(huì)失效。由實(shí)驗(yàn)1可知,基準(zhǔn)網(wǎng)絡(luò)結(jié)果最差,實(shí)驗(yàn)2在實(shí)驗(yàn)1的基礎(chǔ)上加入MC-DWT結(jié)構(gòu),整體性能有所提升,獲得了0.11 dB增益。對(duì)比實(shí)驗(yàn)3~6可知,Mb-FE、Mb-DA、Mb-SFF分別獲得了0.25 dB、0.32 dB、0.16 dB的增益,說(shuō)明這三個(gè)模塊都可以提高去噪性能。由實(shí)驗(yàn)6可得,組合Mb-FE、Mb-DA和Mb-SFF相較于基準(zhǔn)網(wǎng)絡(luò)獲得了1.4 dB的增益,并且達(dá)到了最佳的去噪效果。

    為了驗(yàn)證網(wǎng)絡(luò)結(jié)構(gòu)中DWT分解級(jí)別參數(shù)n和有無(wú)BN層情況下模型的去噪性能,本文在Set12數(shù)據(jù)集(σ=25)進(jìn)行組合消融實(shí)驗(yàn),結(jié)果如表6所示。由表6可得,當(dāng)網(wǎng)絡(luò)結(jié)構(gòu)中無(wú)BN層且n為4時(shí),取得了最高的PSNR和SSIM值。在n取值相同下,無(wú)BN層的PSNR和SIMM值比有BN層平均分別高出0.026 dB、0.002,這是因?yàn)锽N通常對(duì)每個(gè)通道進(jìn)行歸一化,會(huì)導(dǎo)致去噪模型過(guò)度平滑圖像,從而損失一些邊緣細(xì)節(jié)信息。在無(wú)BN層的情況下,n=4時(shí)的PSNR和SSIM值比n=3和n=5分別高出0.06 dB/0.002、0.14 dB/0.003,而在有BN層的情況下,n=4時(shí)的PSNR和SSIM值比n=3和n=5分別高出0.05 dB/0.003、0.14 dB/0.005。從以上消融實(shí)驗(yàn)結(jié)果可知,參數(shù)n的選取對(duì)于模型的去噪性能影響更大,n越大時(shí)導(dǎo)致圖像的低頻信息更多地參與重構(gòu),產(chǎn)生過(guò)度平滑的結(jié)果,從而導(dǎo)致模型的去噪性能下降。同時(shí),較大的分解級(jí)數(shù)也會(huì)增加模型的復(fù)雜度和計(jì)算開銷。因此,實(shí)驗(yàn)中選擇參數(shù)n=4且無(wú)BN層作為模型的初始設(shè)置。

    3 結(jié)束語(yǔ)

    本文基于DWT在圖像去噪中的應(yīng)用,提出了一種用于圖像去噪的級(jí)聯(lián)離散小波多頻帶分解注意力(CDW-MDA)網(wǎng)絡(luò)。由于MC-DWT的結(jié)構(gòu)設(shè)計(jì)引入DWT,能減少一般下采樣造成的頻率信息損失,Mb-FE用于增強(qiáng)高頻和低頻的關(guān)鍵特征信息,Mb-DA關(guān)注不同頻帶分量的特征,可以在強(qiáng)噪聲下的復(fù)雜場(chǎng)景中還原更豐富的紋理細(xì)節(jié),Mb-SFF的融合機(jī)制充分利用了級(jí)間的多尺度高低頻特征,提高了模型對(duì)于不同尺度噪聲的去除能力。實(shí)驗(yàn)結(jié)果表明,CDW-MDA 在PSNR/SSIM性能指標(biāo)以及視覺效果方面相比現(xiàn)有的方法更優(yōu),在去噪效果和細(xì)節(jié)保留之間有著更好的平衡。未來(lái)的研究將致力于模型泛化能力更強(qiáng)、更輕量級(jí)的網(wǎng)絡(luò)以提高模型的實(shí)際應(yīng)用價(jià)值,并拓展到其他圖像去模糊和圖像超分辨等低級(jí)視覺任務(wù)中。

    參考文獻(xiàn):

    [1]張繪娟,張達(dá)敏,閆威,等.基于改進(jìn)閾值函數(shù)的小波變換圖像去噪算法[J].計(jì)算機(jī)應(yīng)用研究,2020,37(5):1545-1548,1552.(Zhang Huijuan, Zhang Damin, Yan Wei, et al. Wavelet transform image denoising algorithm based on improved threshold function[J].Application Research of Computers,2020,37(5):1545-1548,1552.)

    [2]王科俊,熊新炎,任楨.高效均值濾波算法[J].計(jì)算機(jī)應(yīng)用研究,2010,27(2):434-438.(Wang Kejun, Xiong Xinyan, Ren Zhen. Highly efficient mean filtering algorithm[J].Application Research of Computers,2010,27(2):434-438.)

    [3]Dabov K, Foi A, Katkovnik V, et al. Image denoising by sparse 3D transform-domain collaborative filtering[J].IEEE Trans on Image Processing,2007,16(8):2080-2095.

    [4]邢遠(yuǎn)秀,李軍賢,王文波,等.基于非局部自相似序列集的一類視頻圖像盲去噪算法[J].電子學(xué)報(bào),2021,49(8):1498-1506.(Xing Yuanxiu, Li Junxian, Wang Wenbo, et al. Blind video image denoising based on nonlocal self-similarity series sets[J].Acta Electronica Sinica,2021,49(8):1498-1506.)

    [5]李小利,楊曉梅,陳代斌.基于塊和低秩張量恢復(fù)的視頻去噪方法[J].計(jì)算機(jī)應(yīng)用研究,2017,34(4):1273-1276,1280.(Li Xiaoli, Yang Xiaomei, Chen Daibin. Patch-based video denoising using low-rank tensor recovery[J].Application Research of Computers,2017,34(4):1273-1276,1280.)

    [6]Zhang Kai, Zuo Wangmeng, Chen Yunjin, et al. Beyond a Gaussian denoiser: residual learning of deep CNN for image denoising[J].IEEE Trans on Image Processing,2017,26(7):3142-3155.

    [7]Zhang Kai, Zuo Wangmeng, Zhang Lei. FFDNet: toward a fast and flexible solution for CNN-based image denoising[J].IEEE Trans on Image Processing,2018,27(9):4608-4622.

    [8]Guo Shi, Yan Zifei, Zhang Kai, et al. Toward convolutional blind denoising of real photographs[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:1712-1722.

    [9]Anwar S, Barnes N. Real image denoising with feature attention[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:3155-3164.

    [10]Liu Yang, Qin Zhenyue, Anwar S, et al. Invertible denoising network:a light solution for real noise removal[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:13365-13374.

    [11]Neshatavar R, Yavartanoo M, Son S, et al. CVF-SID:cyclic multi-variate function for self-supervised image denoising by disentangling noise from image[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:17583-17591.

    [12]Chen Haoyu, Gu Jinjin, Liu Yihao, et al. Masked image training for generalizable deep image denoising[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2023:1692-1703.

    [13]Zamir S W, Arora A, Khan S, et al. Learning enriched features for fast image restoration and enhancement[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2022,45(2):1934-1948.

    [14]Hu Jie, Shen Li, Sun Gang. Squeeze-and-excitation networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:7132-7141.

    [15]Woo S, Park J, Lee J Y, et al. CBAM: convolutional block attention module[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2018:3-19.

    [16]尹海濤,鄧皓.基于混合注意力的對(duì)偶?xì)埐钊ピ刖W(wǎng)絡(luò)[J].激光與光電子學(xué)進(jìn)展,2021,58(14):139-148.(Yin Haitao, Deng Hao. Dual residual denoising network based on hybrid attention[J].Laser & Optoelectronics Progress,2021,58(14):139-148.)

    [17]Qin Zequn, Zhang Pengyi, Wu Fei, et al. FcaNet: frequency channel attention networks[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2021:783-792.

    [18]Shensa M J. The discrete wavelet transform: wedding the a trous and Mallat algorithms[J].IEEE Trans on Signal Processing,1992,40(10):2464-2482.

    [19]Sun Jieqi, Li Yafeng, Zhao Qijun, et al. Cascade wavelet transform based convolutional neural networks with application to image classification[J].Neurocomputing,2022,514:285-295.

    [20]Liu Pengju, Zhang Hongzhi, Zhang Kai, et al. Multi-level wavelet-CNN for image restoration[C]//Proc of IEEE Conference on Compu-ter Vision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Press,2018:773-782.

    [21]Ronneberger O, Fischer P, Brox T. U-Net:convolutional networks for biomedical image segmentation[C]//Proc of International Conference on Medical Image Computing and Computer-Assisted Intervention.Berlin:Springer,2015:234-241.

    [22]徐景秀,張青.改進(jìn)小波軟閾值函數(shù)在圖像去噪中的研究應(yīng)用[J].計(jì)算機(jī)工程與科學(xué),2022,44(1):92-101.(Xu Jingxiu, Zhang Qing. Research and application of an improved wavelet soft threshold function in image denoising[J].Computer Engineering & Science,2022,44(1):92-101.)

    [23]陳清江,石小涵,柴昱洲.基于小波變換與卷積神經(jīng)網(wǎng)絡(luò)的圖像去噪算法[J].應(yīng)用光學(xué),2020,41(2):288-295.(Chen Qingjiang, Shi Xiaohan, Chai Yuzhou. Image denoising algorithm based on wavelet transform and convolutional neural network[J].Journal of Applied Optics,2020,41(2):288-295.)

    [24]Duan Yiping, Liu Fang, Jiao Licheng, et al. SAR image segmentation based on convolutional-wavelet neural network and Markov random field[J].Pattern Recognition,2017,64:255-267.

    [25]Kingma D P, Ba J. Adam:a method for stochastic optimization[EB/OL].(2014-12-22).https://arxiv.org/pdf/1412.6980.pdf.

    [26]Agustsson E, Timofte R. Ntire 2017 challenge on single image super-resolution: dataset and study[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Press,2017:126-135.

    [27]Martin D, Fowlkes C, Tal D, et al. A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2001:416-423.

    [28]Zhang Lei, Wu Xiaolin, Buades A, et al. Color demosaicking by local directional interpolation and nonlocal adaptive thresholding[J].Journal of Electronic Imaging,2011,20(2):023016.

    [29]Abdelhamed A, Lin S, Brown M S. A high-quality denoising dataset for smartphone cameras[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:1692-1700.

    [30]Plotz T, Roth S. Benchmarking denoising algorithms with real photographs[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:1586-1595.

    [31]Loshchilov I, Hutter F. SGDR: stochastic gradient descent with warm restarts[EB/OL].(2016-08-13).https://arxiv.org/pdf/1608.03983.pdf.

    [32]Setiadi D R I M. PSNR vs SSIM:imperceptibility quality assessment for image steganography[J].Multimedia Tools and Applications,2021,80(6):8423-8444.

    [33]Gu Shuhang, Zhang Lei, Zuo Wangmeng, et al. Weighted nuclear norm minimization with application to image denoising[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Pisca-taway,NJ:IEEE Press,2014:2862-2869.

    [34]Tian Cunwei, Xu Yong, Zuo Wangmeng, et al. Designing and trai-ning of a dual CNN for image denoising[J].Knowledge-Based Systems,2021,226:106949.

    [35]Ren Chao, He Xiaohai, Wang Chuncheng, et al. Adaptive consistency prior based deep network for image denoising[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscata-way,NJ:IEEE Press,2021:8596-8606.

    [36]Jiang Bo, Lu Yao, Wang Jiahuan, et al. Deep image denoising with adaptive priors[J].IEEE Trans on Circuits and Systems for Vi-deo Technology,2022,32(8):5124-5136.

    [37]Yu Jiaolong, Zhang Juan, Gao Yongbin. MACFNet: multi-attention complementary fusion network for image denoising[J].Applied Intelligence,2023,53:16747-16761.

    [38]Tian Chunwei, Xu Yong, Li Zuoyong, et al. Attention-guided CNN for image denoising[J].Neural Networks,2020,124:117-129.

    [39]Vo D M, Nguyen D M, Le T P, et al. HI-GAN:a hierarchical gene-rative adversarial network for blind denoising of real photographs[J].Information Sciences,2021,570:225-240.

    [40]Mou Chong, Zhang Jian, Fan Xiaopeng, et al. COLA-Net:collaborative attention network for image restoration[J].IEEE Trans on Multimedia,2021,24:1366-1377.

    [41]Zhang Jiahong, Qu Meijun, Wang Ye, et al. A multi-head convolutional neural network with multi-path attention improves image denoi-sing[C]//Proc of Pacific Rim International Conference on Artificial Intelligence.Berlin:Springer,2022:338-351.

    [42]Soh J W, Cho N I. Variational deep image restoration[J].IEEE Trans on Image Processing,2022,31:4363-4376.

    猜你喜歡
    圖像去噪
    基于稀疏表示的圖像去噪和超分辨率重建
    基于FastICA的電子顯微鏡圖像去噪研究
    基于字典學(xué)習(xí)和結(jié)構(gòu)聚類的圖像去噪算法研究
    基于NSCT改進(jìn)核函數(shù)的非局部均值圖像去噪
    基于稀疏表示的人臉識(shí)別方法研究
    壓縮感知的人臉圖像去噪
    基于非局部均值的儲(chǔ)糧害蟲圖像去噪
    關(guān)于醫(yī)學(xué)圖像去噪的方法研究
    科技視界(2015年29期)2015-10-19 12:35:04
    基于非局部平均濾波的MRI去噪算法研究
    一種改進(jìn)的雙變量收縮模型圖像去噪
    男女边摸边吃奶| 国产免费视频播放在线视频| 午夜日韩欧美国产| 色网站视频免费| 不卡视频在线观看欧美| 精品一品国产午夜福利视频| 三上悠亚av全集在线观看| 国产在线一区二区三区精| 亚洲国产精品国产精品| 久久国产精品男人的天堂亚洲| 一级爰片在线观看| 精品国产一区二区三区四区第35| 少妇猛男粗大的猛烈进出视频| 国产1区2区3区精品| 天美传媒精品一区二区| 黄片播放在线免费| 亚洲情色 制服丝袜| 夫妻午夜视频| 欧美另类一区| 在线观看三级黄色| 国产成人91sexporn| 亚洲美女视频黄频| 精品一区二区免费观看| 少妇被粗大猛烈的视频| av免费观看日本| 亚洲欧洲国产日韩| 欧美另类一区| 精品第一国产精品| 99热网站在线观看| 国产欧美日韩综合在线一区二区| av在线观看视频网站免费| 国产极品天堂在线| 国产精品 国内视频| 中文字幕人妻丝袜制服| 美女脱内裤让男人舔精品视频| 国产精品av久久久久免费| 免费观看人在逋| 不卡视频在线观看欧美| 捣出白浆h1v1| 99国产精品免费福利视频| 黑人欧美特级aaaaaa片| 男女边吃奶边做爰视频| 国产男人的电影天堂91| av网站在线播放免费| 国产男女内射视频| 日韩大片免费观看网站| 色综合欧美亚洲国产小说| 久久这里只有精品19| 国产成人91sexporn| 国产97色在线日韩免费| 色吧在线观看| 中文字幕色久视频| 日本vs欧美在线观看视频| av片东京热男人的天堂| 日日撸夜夜添| 爱豆传媒免费全集在线观看| 精品一区二区三区四区五区乱码 | 啦啦啦啦在线视频资源| 三上悠亚av全集在线观看| 一区二区三区激情视频| 国产亚洲一区二区精品| 成人国产av品久久久| 亚洲精品久久久久久婷婷小说| 日韩av在线免费看完整版不卡| 一区二区三区精品91| 成人手机av| 69精品国产乱码久久久| 久久这里只有精品19| 亚洲精品乱久久久久久| 美女扒开内裤让男人捅视频| 伦理电影免费视频| 在线观看国产h片| 最近中文字幕高清免费大全6| 在线观看免费高清a一片| 男男h啪啪无遮挡| 咕卡用的链子| 中文乱码字字幕精品一区二区三区| 老司机亚洲免费影院| 免费日韩欧美在线观看| 国产精品嫩草影院av在线观看| 一级a爱视频在线免费观看| 久久久久精品性色| 久热爱精品视频在线9| 一边摸一边做爽爽视频免费| 亚洲欧美激情在线| 建设人人有责人人尽责人人享有的| 亚洲精品国产av蜜桃| 国产亚洲精品第一综合不卡| 久久毛片免费看一区二区三区| 成年人免费黄色播放视频| 成人亚洲欧美一区二区av| 日韩av不卡免费在线播放| 一级片免费观看大全| 两性夫妻黄色片| av免费观看日本| 最近最新中文字幕免费大全7| 国产一区亚洲一区在线观看| 日本猛色少妇xxxxx猛交久久| 天堂8中文在线网| 最近中文字幕高清免费大全6| 两性夫妻黄色片| 1024视频免费在线观看| 国产熟女午夜一区二区三区| 女人精品久久久久毛片| 国产亚洲最大av| www.熟女人妻精品国产| 亚洲色图综合在线观看| 欧美乱码精品一区二区三区| 亚洲精品成人av观看孕妇| av线在线观看网站| 精品视频人人做人人爽| 宅男免费午夜| 99re6热这里在线精品视频| 色网站视频免费| 亚洲色图 男人天堂 中文字幕| 日本色播在线视频| 精品国产乱码久久久久久小说| 精品午夜福利在线看| 人人妻人人添人人爽欧美一区卜| 一本大道久久a久久精品| 秋霞在线观看毛片| 亚洲欧美激情在线| 自线自在国产av| 亚洲精品久久成人aⅴ小说| 亚洲久久久国产精品| 欧美日韩综合久久久久久| 国产成人精品无人区| 欧美精品一区二区免费开放| 欧美日韩福利视频一区二区| 成人国语在线视频| 1024视频免费在线观看| 国产精品无大码| 亚洲伊人久久精品综合| 欧美中文综合在线视频| 国产免费视频播放在线视频| 黄色视频在线播放观看不卡| 中文字幕制服av| 久久国产精品男人的天堂亚洲| 亚洲人成网站在线观看播放| videosex国产| 国产女主播在线喷水免费视频网站| 制服诱惑二区| 色综合欧美亚洲国产小说| 国精品久久久久久国模美| 不卡av一区二区三区| 韩国高清视频一区二区三区| 亚洲少妇的诱惑av| 国产一卡二卡三卡精品 | 如日韩欧美国产精品一区二区三区| 桃花免费在线播放| 欧美国产精品一级二级三级| av卡一久久| 国产精品免费视频内射| 亚洲国产欧美日韩在线播放| 波多野结衣av一区二区av| 1024香蕉在线观看| 满18在线观看网站| 99热国产这里只有精品6| 日韩大片免费观看网站| 欧美日韩视频高清一区二区三区二| 亚洲精品国产av成人精品| 蜜桃国产av成人99| 高清在线视频一区二区三区| 亚洲精华国产精华液的使用体验| 久久国产精品大桥未久av| 十八禁人妻一区二区| 99久久精品国产亚洲精品| 久久综合国产亚洲精品| 美国免费a级毛片| 另类精品久久| 亚洲第一av免费看| 日韩熟女老妇一区二区性免费视频| 视频在线观看一区二区三区| 久久这里只有精品19| 综合色丁香网| 亚洲精品第二区| 无遮挡黄片免费观看| 亚洲国产日韩一区二区| 18在线观看网站| 日本wwww免费看| av国产精品久久久久影院| 下体分泌物呈黄色| 日本91视频免费播放| 亚洲久久久国产精品| 老鸭窝网址在线观看| 日韩大片免费观看网站| 国产av国产精品国产| 97人妻天天添夜夜摸| 天天躁狠狠躁夜夜躁狠狠躁| 精品酒店卫生间| 欧美日韩视频精品一区| 亚洲综合色网址| 一区二区三区乱码不卡18| 天天躁夜夜躁狠狠躁躁| 在线精品无人区一区二区三| 伊人亚洲综合成人网| 亚洲国产av影院在线观看| av片东京热男人的天堂| av天堂久久9| 人人澡人人妻人| 夜夜骑夜夜射夜夜干| 亚洲精品国产av蜜桃| 亚洲国产精品999| a级毛片在线看网站| 视频在线观看一区二区三区| 精品久久蜜臀av无| 毛片一级片免费看久久久久| 国产亚洲一区二区精品| 国产成人午夜福利电影在线观看| 久久久久久久久久久免费av| 波多野结衣一区麻豆| √禁漫天堂资源中文www| 99九九在线精品视频| 婷婷成人精品国产| 另类亚洲欧美激情| 国产精品久久久久久人妻精品电影 | 国产精品一区二区精品视频观看| 亚洲精品一区蜜桃| 五月开心婷婷网| 欧美精品一区二区免费开放| 午夜激情久久久久久久| 日韩免费高清中文字幕av| 建设人人有责人人尽责人人享有的| 天天影视国产精品| 夫妻性生交免费视频一级片| 欧美日韩一级在线毛片| www.熟女人妻精品国产| 狂野欧美激情性bbbbbb| av线在线观看网站| 亚洲精品美女久久av网站| 最新的欧美精品一区二区| 亚洲欧洲日产国产| 美女国产高潮福利片在线看| 天天影视国产精品| 精品免费久久久久久久清纯 | 精品人妻在线不人妻| 99国产综合亚洲精品| 久久久久精品久久久久真实原创| 欧美少妇被猛烈插入视频| 曰老女人黄片| 波多野结衣av一区二区av| 国产男女超爽视频在线观看| 精品人妻一区二区三区麻豆| 尾随美女入室| 亚洲av国产av综合av卡| 久久久久国产一级毛片高清牌| 毛片一级片免费看久久久久| 久久久久久久国产电影| 国产在线免费精品| 在线观看免费日韩欧美大片| 亚洲一级一片aⅴ在线观看| 国产免费一区二区三区四区乱码| 狠狠精品人妻久久久久久综合| 一本一本久久a久久精品综合妖精| 国产精品久久久久久人妻精品电影 | 国产免费福利视频在线观看| 国产97色在线日韩免费| 亚洲国产最新在线播放| 亚洲图色成人| 国产精品一区二区在线观看99| 久久久久精品久久久久真实原创| 美女福利国产在线| 女的被弄到高潮叫床怎么办| 欧美黑人欧美精品刺激| 如日韩欧美国产精品一区二区三区| 在线观看国产h片| 亚洲欧美日韩另类电影网站| 久久婷婷青草| 欧美精品一区二区大全| 欧美中文综合在线视频| 老司机影院成人| 男女无遮挡免费网站观看| 欧美精品人与动牲交sv欧美| 国产视频首页在线观看| 免费日韩欧美在线观看| 美女中出高潮动态图| 纵有疾风起免费观看全集完整版| 在线观看国产h片| 久久人人爽人人片av| 啦啦啦 在线观看视频| 日本午夜av视频| 亚洲国产欧美网| 曰老女人黄片| av卡一久久| 亚洲三区欧美一区| 黑人欧美特级aaaaaa片| 日韩中文字幕视频在线看片| 久久久久久久精品精品| 久久青草综合色| 黄网站色视频无遮挡免费观看| av视频免费观看在线观看| 国产精品国产三级专区第一集| 久久影院123| 久久人人爽人人片av| 午夜免费男女啪啪视频观看| 国产精品av久久久久免费| 国产一区二区在线观看av| 91精品国产国语对白视频| 黑人巨大精品欧美一区二区蜜桃| 伦理电影大哥的女人| 日韩制服骚丝袜av| 中文字幕精品免费在线观看视频| 美女午夜性视频免费| 国产精品 国内视频| www.熟女人妻精品国产| 秋霞在线观看毛片| 十八禁网站网址无遮挡| 一区在线观看完整版| 中文字幕av电影在线播放| 黑人巨大精品欧美一区二区蜜桃| 免费高清在线观看日韩| 一本—道久久a久久精品蜜桃钙片| 无限看片的www在线观看| 亚洲国产精品成人久久小说| av线在线观看网站| 久久精品人人爽人人爽视色| 国产成人91sexporn| 精品卡一卡二卡四卡免费| 久久人人97超碰香蕉20202| 久久国产精品大桥未久av| 国产精品亚洲av一区麻豆 | 国产精品一二三区在线看| 精品少妇黑人巨大在线播放| 久久久精品国产亚洲av高清涩受| av电影中文网址| 精品人妻在线不人妻| 香蕉国产在线看| 91精品国产国语对白视频| 亚洲图色成人| 男女下面插进去视频免费观看| 色综合欧美亚洲国产小说| 99热全是精品| 亚洲,欧美,日韩| 亚洲av成人精品一二三区| 欧美乱码精品一区二区三区| 日本欧美视频一区| 美女大奶头黄色视频| 9色porny在线观看| 亚洲精品在线美女| 日韩熟女老妇一区二区性免费视频| av片东京热男人的天堂| 欧美人与性动交α欧美软件| 在线观看免费视频网站a站| 国产精品成人在线| 亚洲婷婷狠狠爱综合网| 精品国产国语对白av| 天堂中文最新版在线下载| 亚洲av福利一区| 男人爽女人下面视频在线观看| 久久天堂一区二区三区四区| 一区在线观看完整版| 青春草亚洲视频在线观看| www.自偷自拍.com| 母亲3免费完整高清在线观看| 日本av手机在线免费观看| 十八禁高潮呻吟视频| 国产精品一区二区在线观看99| 少妇的丰满在线观看| 亚洲国产精品成人久久小说| 蜜桃在线观看..| av福利片在线| 五月天丁香电影| 国产精品二区激情视频| 性少妇av在线| 少妇人妻精品综合一区二区| 啦啦啦 在线观看视频| 七月丁香在线播放| 国产日韩欧美视频二区| 国产免费现黄频在线看| 免费久久久久久久精品成人欧美视频| 国产精品嫩草影院av在线观看| 蜜桃在线观看..| 哪个播放器可以免费观看大片| 亚洲成人手机| 精品一区二区三卡| 大香蕉久久成人网| 9191精品国产免费久久| 搡老岳熟女国产| 一级,二级,三级黄色视频| 亚洲精品久久午夜乱码| 在线观看一区二区三区激情| 51午夜福利影视在线观看| svipshipincom国产片| 国产成人欧美| 国产伦人伦偷精品视频| 免费av中文字幕在线| 蜜桃国产av成人99| 久久久国产精品麻豆| 99热网站在线观看| 热99国产精品久久久久久7| 国产不卡av网站在线观看| 国产精品秋霞免费鲁丝片| 久久久久网色| 精品少妇黑人巨大在线播放| 亚洲伊人久久精品综合| 建设人人有责人人尽责人人享有的| 人体艺术视频欧美日本| 免费av中文字幕在线| 纯流量卡能插随身wifi吗| 中文字幕另类日韩欧美亚洲嫩草| 一级毛片电影观看| 三上悠亚av全集在线观看| 亚洲国产精品一区二区三区在线| 人人妻人人添人人爽欧美一区卜| 免费黄网站久久成人精品| 精品福利永久在线观看| 啦啦啦中文免费视频观看日本| 无遮挡黄片免费观看| 91aial.com中文字幕在线观看| 欧美乱码精品一区二区三区| 亚洲精品一二三| 日本vs欧美在线观看视频| 在线免费观看不下载黄p国产| 色94色欧美一区二区| xxx大片免费视频| 精品国产超薄肉色丝袜足j| 欧美激情高清一区二区三区 | 丝袜喷水一区| 亚洲精品视频女| 少妇猛男粗大的猛烈进出视频| 秋霞伦理黄片| 欧美日韩一级在线毛片| 不卡av一区二区三区| 亚洲,欧美,日韩| 国产男人的电影天堂91| 三上悠亚av全集在线观看| 国产伦人伦偷精品视频| 国产精品女同一区二区软件| 九九爱精品视频在线观看| 成人毛片60女人毛片免费| 啦啦啦中文免费视频观看日本| h视频一区二区三区| 成人手机av| 最近手机中文字幕大全| 精品少妇黑人巨大在线播放| svipshipincom国产片| 女人高潮潮喷娇喘18禁视频| 色精品久久人妻99蜜桃| 夜夜骑夜夜射夜夜干| 黄色视频不卡| 亚洲精品国产一区二区精华液| 精品午夜福利在线看| 久久久国产一区二区| 狠狠精品人妻久久久久久综合| 18在线观看网站| www日本在线高清视频| 人人妻人人澡人人爽人人夜夜| 国产视频首页在线观看| 天天影视国产精品| 久久久精品国产亚洲av高清涩受| 韩国高清视频一区二区三区| 国产伦人伦偷精品视频| 91精品伊人久久大香线蕉| 亚洲,欧美精品.| 成人三级做爰电影| 人人妻,人人澡人人爽秒播 | 19禁男女啪啪无遮挡网站| 欧美中文综合在线视频| www.自偷自拍.com| 久久性视频一级片| 97精品久久久久久久久久精品| 美女脱内裤让男人舔精品视频| 黑人猛操日本美女一级片| 精品亚洲乱码少妇综合久久| 亚洲一卡2卡3卡4卡5卡精品中文| 亚洲精品成人av观看孕妇| 永久免费av网站大全| 中文字幕精品免费在线观看视频| 欧美激情极品国产一区二区三区| 久久ye,这里只有精品| 国产又爽黄色视频| 日韩精品有码人妻一区| 蜜桃国产av成人99| 十八禁人妻一区二区| 欧美 亚洲 国产 日韩一| 国产精品一区二区在线观看99| 观看美女的网站| 亚洲成人国产一区在线观看 | 久久午夜综合久久蜜桃| 久久精品熟女亚洲av麻豆精品| 日本wwww免费看| 熟妇人妻不卡中文字幕| 欧美人与性动交α欧美精品济南到| 婷婷色av中文字幕| 9热在线视频观看99| 中文字幕另类日韩欧美亚洲嫩草| 男男h啪啪无遮挡| 岛国毛片在线播放| 亚洲 欧美一区二区三区| 久久久欧美国产精品| 亚洲国产欧美在线一区| 精品亚洲乱码少妇综合久久| 中文字幕人妻熟女乱码| 婷婷成人精品国产| 十八禁人妻一区二区| 日韩 亚洲 欧美在线| 满18在线观看网站| 亚洲综合精品二区| 国产一区二区激情短视频 | 欧美日韩亚洲综合一区二区三区_| 国精品久久久久久国模美| 免费看不卡的av| 国产成人啪精品午夜网站| 午夜福利视频在线观看免费| 亚洲av成人精品一二三区| 18禁动态无遮挡网站| 91国产中文字幕| 麻豆精品久久久久久蜜桃| 亚洲精品aⅴ在线观看| 中文乱码字字幕精品一区二区三区| 欧美最新免费一区二区三区| 久久韩国三级中文字幕| 久久天堂一区二区三区四区| 久久久精品94久久精品| 日韩一区二区视频免费看| av网站在线播放免费| 欧美97在线视频| 777米奇影视久久| 青春草视频在线免费观看| 大码成人一级视频| 在线观看一区二区三区激情| 国产精品亚洲av一区麻豆 | 婷婷色综合大香蕉| 亚洲国产欧美日韩在线播放| 婷婷色综合大香蕉| 蜜桃国产av成人99| 免费观看a级毛片全部| 欧美亚洲日本最大视频资源| 欧美日韩视频精品一区| 黄色 视频免费看| 日本av免费视频播放| 国产精品久久久久久精品古装| 亚洲一区二区三区欧美精品| 欧美人与性动交α欧美软件| 亚洲,欧美精品.| av片东京热男人的天堂| 一级黄片播放器| 捣出白浆h1v1| 免费在线观看黄色视频的| 超碰成人久久| 久久久欧美国产精品| 精品一区二区三区四区五区乱码 | 亚洲国产欧美一区二区综合| 在现免费观看毛片| 久久久亚洲精品成人影院| 一边摸一边抽搐一进一出视频| 国产伦人伦偷精品视频| 免费在线观看视频国产中文字幕亚洲 | 别揉我奶头~嗯~啊~动态视频 | 观看av在线不卡| 亚洲精品国产区一区二| 青草久久国产| 悠悠久久av| 日韩不卡一区二区三区视频在线| 99久久人妻综合| 亚洲av成人精品一二三区| 午夜精品国产一区二区电影| 一区二区av电影网| 丁香六月天网| 2018国产大陆天天弄谢| 成人午夜精彩视频在线观看| 欧美国产精品一级二级三级| 国产午夜精品一二区理论片| 一级毛片电影观看| 国产伦理片在线播放av一区| 日本av手机在线免费观看| 国产精品.久久久| 男男h啪啪无遮挡| 国产免费现黄频在线看| 精品国产国语对白av| 最近最新中文字幕大全免费视频 | 欧美成人午夜精品| 午夜av观看不卡| 久久久久久人妻| 七月丁香在线播放| 一级爰片在线观看| 午夜久久久在线观看| 1024香蕉在线观看| 校园人妻丝袜中文字幕| 美女高潮到喷水免费观看| 午夜91福利影院| 国产成人精品久久久久久| a级毛片黄视频| 男女边摸边吃奶| 建设人人有责人人尽责人人享有的| 亚洲天堂av无毛| 乱人伦中国视频| xxx大片免费视频| 午夜免费男女啪啪视频观看| 日韩成人av中文字幕在线观看| 亚洲av日韩精品久久久久久密 | 国产精品 欧美亚洲| 宅男免费午夜| 亚洲 欧美一区二区三区| 天天添夜夜摸| 男人爽女人下面视频在线观看| 国产极品天堂在线| 免费看av在线观看网站| 国产精品秋霞免费鲁丝片| 国产免费又黄又爽又色| 国产人伦9x9x在线观看| 捣出白浆h1v1| 一级毛片我不卡| 精品福利永久在线观看| 妹子高潮喷水视频| 久久这里只有精品19| 天天影视国产精品| 欧美另类一区| 捣出白浆h1v1| av电影中文网址| 一级,二级,三级黄色视频| 亚洲国产欧美日韩在线播放| 性少妇av在线| 午夜免费观看性视频| 久久久久久久精品精品|