王力 李小霞 秦佳敏 朱賀 周穎玥
摘 要:針對(duì)圖像去噪網(wǎng)絡(luò)中下采樣導(dǎo)致高頻信息損失和細(xì)節(jié)保留能力差的問(wèn)題,設(shè)計(jì)了一種級(jí)聯(lián)離散小波多頻帶分解注意力圖像去噪網(wǎng)絡(luò)。其中多尺度級(jí)聯(lián)離散小波變換結(jié)構(gòu)將原始圖像分解為多個(gè)尺度下的高低頻子帶來(lái)代替?zhèn)鹘y(tǒng)下采樣,能減少高頻信息損失。多頻帶特征增強(qiáng)模塊使用不同尺度的卷積核并行處理高低頻特征,在子網(wǎng)絡(luò)每一級(jí)下重復(fù)使用兩次,可增強(qiáng)全局和局部的關(guān)鍵特征信息。多頻帶分解注意力模塊通過(guò)注意力評(píng)估紋理細(xì)節(jié)成分的重要性并加權(quán)不同頻帶的細(xì)節(jié)特征,有助于多頻帶特征增強(qiáng)模塊更好地區(qū)分噪聲和邊緣細(xì)節(jié)。多頻帶選擇特征融合模塊融合多尺度多頻帶特征增強(qiáng)選擇性特征,提高模型對(duì)于不同尺度噪聲的去除能力。在SIDD和DND數(shù)據(jù)集上,所提方法的PSNR/SSIM指標(biāo)分別達(dá)到了39.35 dB/0.918、39.72 dB/0.955。實(shí)驗(yàn)結(jié)果表明,該方法的性能優(yōu)于主流去噪方法,同時(shí)具有更清晰的紋理細(xì)節(jié)和邊緣等視覺效果。
關(guān)鍵詞:圖像去噪; 高頻信息; 級(jí)聯(lián)離散小波變換; 多頻帶特征增強(qiáng); 多頻帶分解注意力
中圖分類號(hào):TP391.4?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號(hào):1001-3695(2024)01-046-0288-08
doi:10.19734/j.issn.1001-3695.2023.06.0245
Cascade discrete wavelet multi-band decomposition attention image denoising method
Abstract:To address the issue of high-frequency information loss and poor detail preservation ability in image denoising networks caused by downsampling, this paper proposed a cascade discrete wavelet multi-band decomposition attention image denoising network. The multi-scale cascade discrete wavelet transform structure decomposed the original image into high and low-frequency sub-bands at multiple scales, replacing traditional downsampling and reducing high-frequency information loss. The multi-band feature enhancement module employed convolutional kernels of different scales to process high and low-frequency features in parallel. By repeating this process twice at each level of the subnetwork, it effectively enhanced both global and local key feature information. The multi-band decomposition attention module evaluated the importance of texture detail components through attention and weighted the detail features of different bands, which helped the multi-band feature enhancement module better distinguish between noise and edge details. The multi-band selective feature fusion module fused multi-scale multi-band features to enhance selective features, improving the models ability to remove noise at different scales. The proposed method achieves PSNR/SSIM values of 39.35 dB/0.918 and 39.72 dB/0.955 on the SIDD and DND datasets, respectively. The experimental results demonstrate that the proposed method outperforms mainstream denoising methods and produces clearer visual effects, such as texture details and edges.
Key words:image denoising; high-frequency information; cascade discrete wavelet transform; multi-band feature enhancement; multi-band decomposition attention
0 引言
圖像噪聲會(huì)顯著降低圖像質(zhì)量,因此消除圖像噪聲對(duì)于提高圖像的視覺質(zhì)量至關(guān)重要。圖像去噪是一個(gè)不適定問(wèn)題,具有很大的挑戰(zhàn)性。在高級(jí)計(jì)算機(jī)視覺任務(wù)的預(yù)處理步驟中,如目標(biāo)檢測(cè)和圖像分割,圖像去噪扮演著重要角色。為了解決這個(gè)問(wèn)題,研究人員開發(fā)了基于模型和學(xué)習(xí)的圖像去噪方法。
基于模型的方法采用基于明確定義的圖像先驗(yàn)信息或噪聲統(tǒng)計(jì)模型的優(yōu)化策略,這些方法具有良好的可解釋性和強(qiáng)大的泛化能力。典型的先驗(yàn)信息包括圖像域的平滑性、變換域的稀疏性[1,2]、斑塊域的非局部自相似性[3,4]和低秩[5]。雖然這些方法都取得了不錯(cuò)的效果,但它們?nèi)源嬖谝韵滤膫€(gè)缺點(diǎn):a)需要人工調(diào)整參數(shù);b)需要復(fù)雜的優(yōu)化算法才能達(dá)到理想的去噪效果;c)保留圖像邊緣細(xì)節(jié)特征的能力差;d)無(wú)法去除復(fù)雜的真實(shí)噪聲。
在過(guò)去十余年,深度學(xué)習(xí)方法促進(jìn)了圖像處理領(lǐng)域快速發(fā)展。相較于傳統(tǒng)的圖像去噪方法,基于深度學(xué)習(xí)的方法有很多優(yōu)點(diǎn)。首先,這些方法通常不需要人工設(shè)置超參數(shù)或依賴于人類知識(shí)的圖像先驗(yàn)。其次,它們?cè)谌コ铣稍肼暫驼鎸?shí)噪聲方面都表現(xiàn)得更好。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)的結(jié)構(gòu)非常適合于同時(shí)捕捉淺層和深層圖像特征,并且能夠從大規(guī)模的圖像訓(xùn)練集中獲得強(qiáng)大的數(shù)據(jù)推理能力,從而表現(xiàn)出更優(yōu)的性能。已有的一些方法,例如DnCNN[6]和FFDNet[7],通過(guò)引入殘差學(xué)習(xí)和人工設(shè)置噪聲級(jí)別來(lái)去除圖像中的噪聲。然而,這些方法在處理真實(shí)噪聲方面表現(xiàn)不佳。為了應(yīng)對(duì)這個(gè)問(wèn)題,CBDNet[8]通過(guò)使用噪聲估計(jì)子網(wǎng)絡(luò)來(lái)預(yù)測(cè)噪聲圖像作為先驗(yàn)知識(shí),從而去除真實(shí)場(chǎng)景中圖像的真實(shí)噪聲。RIDNet[9]則使用了注意力機(jī)制來(lái)增強(qiáng)高頻信息的流動(dòng),并使用殘差結(jié)構(gòu)減少低頻信息的傳遞,以重建去噪圖像中的詳細(xì)信息。然而,這些方法的計(jì)算復(fù)雜度較高。InvDN[10]是一種輕量級(jí)且可逆的真實(shí)圖像去噪網(wǎng)絡(luò),該網(wǎng)絡(luò)將噪聲圖像轉(zhuǎn)換為低分辨率的干凈圖像和包含噪聲的潛在表示,從而實(shí)現(xiàn)干凈圖像的恢復(fù)和新噪聲圖像的生成。CVF-SID[11]中提出了一種關(guān)于真實(shí)噪聲自監(jiān)督訓(xùn)練去噪方法,能將噪聲圖像分解成干凈圖像、信號(hào)相關(guān)和無(wú)關(guān)的噪聲;同時(shí)還引入一種自監(jiān)督的數(shù)據(jù)增強(qiáng)策略,以有效地增加訓(xùn)練樣本的數(shù)量。MaskedTraining[12]引入輸入掩碼和注意力掩碼兩種掩碼訓(xùn)練方法,通過(guò)對(duì)輸入圖像進(jìn)行隨機(jī)像素掩蓋,并在訓(xùn)練過(guò)程中重建缺失信息,有效提高了去噪模型的泛化能力。MIRNetv2[13]通過(guò)使用多尺度殘差塊、結(jié)合密集連接塊和全局殘差學(xué)習(xí)來(lái)保留圖像細(xì)節(jié)。但是,以上這些方法無(wú)法在具有復(fù)雜紋理和結(jié)構(gòu)的區(qū)域中精細(xì)地保留圖像邊緣細(xì)節(jié)特征。引入注意力機(jī)制可以幫助網(wǎng)絡(luò)更準(zhǔn)確地區(qū)分信號(hào)和噪聲,并更好地恢復(fù)圖像的細(xì)節(jié)和紋理信息。目前,許多研究已經(jīng)在這方面作出了重要的貢獻(xiàn)。例如,Hu等人[14]將注意力機(jī)制引入到圖像分類任務(wù)中,提出了顯式建模通道間相互依賴關(guān)系的網(wǎng)絡(luò),提高了網(wǎng)絡(luò)性能。Woo等人[15]提出了即插即用的卷積塊注意力模塊(convolutional block attention module,CBAM),通過(guò)最大池化和平均池化分別在信道空間維度提取全局圖像特征。尹海濤等人[16]提出了局部和非局部的混合注意力機(jī)制的去噪模型,能自適應(yīng)調(diào)整特征通道并有效刻畫圖像中的局部和非局部特征。Qin等人[17]提出了多頻譜通道注意力框架,是一種融合頻域分析和注意力機(jī)制的嘗試。
目前通用的圖像去噪任務(wù)架構(gòu)使用噪聲圖像和干凈的目標(biāo)圖像對(duì)進(jìn)行訓(xùn)練,并對(duì)加性高斯白噪聲(additive white Gaus-sian noise,AWGN)等合成噪聲圖像進(jìn)行處理,獲得了良好的視覺質(zhì)量。然而,真實(shí)圖像去噪仍然是一個(gè)具有挑戰(zhàn)性的任務(wù),真實(shí)圖像噪聲來(lái)源于相機(jī)系統(tǒng)中的處理步驟,如馬賽克、伽馬校正和壓縮多樣化。近年來(lái),研究人員試圖通過(guò)對(duì)真實(shí)噪聲進(jìn)行建模,構(gòu)建基于CNN的去噪模型來(lái)處理真實(shí)世界的噪聲圖像。典型的CNN真實(shí)圖像去噪方法采用編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu),然而編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu)中重復(fù)的下采樣操作會(huì)對(duì)圖像高頻信息造成嚴(yán)重的破壞,無(wú)法重構(gòu)出高質(zhì)量的圖像。圖像信息主要分為低頻信息和高頻信息兩部分。低頻信息包含了原始圖像的主要內(nèi)容,而高頻信息則包含了水平、垂直和對(duì)角線細(xì)節(jié),能夠清晰地表現(xiàn)圖像的紋理特征。這些信息不僅對(duì)于圖像去噪至關(guān)重要,也是其他視覺任務(wù)的關(guān)鍵。引入小波變換(wavelet transform,WT)[18]可以進(jìn)一步提高圖像去噪的性能。小波變換具有多分辨率分析和時(shí)頻域逐步細(xì)分的功能,可以將特征映射分解為不同頻率以作進(jìn)一步處理。通過(guò)將圖像中的高頻信息從低頻信息中分離出來(lái),小波變換可以大大減少CNN中下采樣造成的信息損失。此外,小波變換是可逆的,在圖像處理中也得到了廣泛的應(yīng)用。Sun等人[19]提出級(jí)聯(lián)離散小波變換模塊,該模塊充分利用了不同的頻率分量,通過(guò)替換現(xiàn)有的池化操作,提高了圖像分類任務(wù)的準(zhǔn)確率。Liu等人[20]通過(guò)使用小波變換代替U-Net[21]中下采樣操作,利用正交化方法保留更多的信息。徐景秀等人[22]提出一種改進(jìn)小波軟閾值函數(shù)方法,通過(guò)對(duì)閾值的選取方式和閾值函數(shù)進(jìn)行改進(jìn)來(lái)提升去噪后的圖像質(zhì)量。陳清江等人[23]基于小波變換和CNN的優(yōu)勢(shì)將圖像進(jìn)行尺度為1的小波分解,得到高頻分量和低頻分量分別輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,能有效去除噪聲。Duan等人[24]應(yīng)用雙樹復(fù)小波變換設(shè)計(jì)了一種卷積小波神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)具有抑制特定噪聲和保持特征結(jié)構(gòu)的能力。盡管基于小波的去噪方法取得了成功,但仍存在一些局限性:a)固定的小波濾波器選擇和有限的分解級(jí)別可能無(wú)法捕捉到所有尺度上的信號(hào)特征;b)當(dāng)噪聲水平較高時(shí)或處理復(fù)雜的真實(shí)噪聲時(shí),去噪性能可能會(huì)惡化,因?yàn)樵肼曉谛〔ǚ纸膺^(guò)程中可能會(huì)通過(guò)不同的子帶傳播;c)現(xiàn)有方法將所有頻率信息直接混合,或直接丟棄高頻信息,導(dǎo)致不同頻率信息相互作用產(chǎn)生偽影和失真,以及無(wú)法保留圖像邊緣細(xì)節(jié)特征等問(wèn)題,特別是在具有復(fù)雜紋理和結(jié)構(gòu)的區(qū)域。
針對(duì)以上問(wèn)題,本文提出了一種級(jí)聯(lián)離散小波多頻帶分解注意力(cascaded discrete wavelet multi-band decomposition attention,CDW-MDA)圖像去噪網(wǎng)絡(luò),該網(wǎng)絡(luò)結(jié)合了模型可解釋性強(qiáng)和CNN學(xué)習(xí)能力強(qiáng)的優(yōu)點(diǎn),采用編碼器-子網(wǎng)絡(luò)-解碼器結(jié)構(gòu),包括多尺度級(jí)聯(lián)離散小波變換(multi-scale cascaded discrete wavelet transform,MC-DWT)結(jié)構(gòu)、多頻帶特征增強(qiáng)(multi-band feature enhancement,Mb-FE)模塊、多頻帶分解注意力(multi-band decomposition attention,Mb-DA)模塊以及多頻帶選擇特征融合(multi-band selective feature fusion,Mb-SFF)模塊。
具體來(lái)說(shuō),本文在編碼器和解碼器階段采用離散小波變換(discrete wavelet transform,DWT)和逆離散小波變換(inverse discrete wavelet transform,IDWT)代替了U-Net結(jié)構(gòu)中的下采樣和上采樣操作,以減少下采樣操作造成的高頻信息損失并增大感受野。此外,通過(guò)級(jí)聯(lián)DWT和卷積塊,將輸入圖像分解成多尺度頻帶,其中低頻子帶包含了原始圖像的主要信息,而高頻子帶包含了水平、垂直和對(duì)角線細(xì)節(jié)信息。在子網(wǎng)絡(luò)階段,本文設(shè)計(jì)了多頻帶特征增強(qiáng)(Mb-FE)模塊、多頻帶分解注意力(Mb-DA)模塊和多頻帶選擇特征融合(Mb-SFF)模塊。首先,將不同尺度下的頻帶信息輸入Mb-FE模塊,以提取不同頻帶的全局和局部特征。然后,Mb-DA模塊對(duì)不同尺度下各頻帶的特征進(jìn)行注意力加權(quán),提高空間特征的冗余度和豐富度,并增強(qiáng)每個(gè)子帶的鑒別信息,從而有效地保留重要的圖像細(xì)節(jié)和抑制噪聲。Mb-SFF模塊由粗到精融合級(jí)間多尺度多頻帶特征和單一尺度下的多頻帶特征,同時(shí)保持了高頻帶與低頻帶信息的互補(bǔ)特性。最終,將多頻帶特征信息通過(guò)IDWT操作轉(zhuǎn)換為線性結(jié)構(gòu)信息,重構(gòu)出高質(zhì)量的圖像。實(shí)驗(yàn)結(jié)果表明,在合成噪聲和真實(shí)噪聲圖像數(shù)據(jù)集上,本文去噪方法的性能優(yōu)于目前主流的去噪方法。
1 提出方法
本章提出了一種級(jí)聯(lián)離散小波多頻帶分解注意力(CDW-MDA)圖像去噪網(wǎng)絡(luò)。首先,整體介紹了網(wǎng)絡(luò)結(jié)構(gòu)的數(shù)學(xué)模型和使用的損失函數(shù),然后詳細(xì)描述了所提出的網(wǎng)絡(luò)中的多尺度級(jí)聯(lián)離散小波變換(MC-DWT)結(jié)構(gòu)、多頻帶特征增強(qiáng)(Mb-FE)模塊、多頻帶分解注意力(Mb-DA)模塊以及多頻帶選擇特征融合(Mb-SFF)模塊。
1.1 CDW-MDA圖像去噪網(wǎng)絡(luò)結(jié)構(gòu)
如圖1所示,CDW-MDA網(wǎng)絡(luò)采用編碼器-子網(wǎng)絡(luò)-解碼器的結(jié)構(gòu)。在編碼器階段,將輸入的噪聲圖像進(jìn)行級(jí)聯(lián)DWT和卷積塊操作,獲取四個(gè)尺度下的高低頻帶特征。本文采用DWT和IDWT代替U-Net中下采樣和上采樣操作,以減少下采樣操作造成的高頻信息損失。整個(gè)編碼器過(guò)程中的數(shù)學(xué)模型表達(dá)式如式(1)~(3)所示。
P1=F1Con(F1DWT(Iin))(1)
P2=F2Con(F2DWT(F1Con(F1DWT(Iin))))=F2Con(F2DWT(P1))(2)
Pn=FnCon(FnDWT(Pn-1)) n=1,…,4(3)
其中:Pn表示提取的第n級(jí)高頻子帶和低頻子帶特征圖;Iin∈RApH×W×C是輸入的噪聲圖像;H、W和C分別代表輸入圖像的高、寬和通道數(shù);FnDWT(·)和FnCon(·)分別表示第n級(jí)DWT輸出和卷積塊輸出,根據(jù)實(shí)驗(yàn)經(jīng)驗(yàn),本文中n取4。
然后,將編碼器中提取到的不同尺度頻帶特征P1、P2 、P3 和P4分別送入子網(wǎng)絡(luò)中每一級(jí)的多頻帶特征增強(qiáng)(Mb-FE)模塊,增強(qiáng)全局-局部高低頻關(guān)鍵特征信息,抑制噪聲影響。隨后將增強(qiáng)的高頻子帶和低頻子帶特征圖送入多頻帶分解注意力(Mb-DA)模塊,捕捉分解的高低頻子帶中的關(guān)鍵細(xì)節(jié),以充分提高空間域特征的冗余度和豐富度,從而有效地保留重要的圖像邊緣細(xì)節(jié)特征。Mb-FE的低噪聲特性可以使Mb-DA更好地捕捉圖像高低頻特征,Mb-DA的高低頻特征注意力可以幫助Mb-FE更好地區(qū)分噪聲和邊緣細(xì)節(jié)。本文在每一級(jí)的Mb-DA后疊加一個(gè)Mb-FE來(lái)構(gòu)建子網(wǎng)絡(luò),生成特征圖L1、L2、L3和L4。最后,將L1、L2、L3和L4送入多頻帶選擇特征融合(Mb-SFF)模塊融合多尺度高低頻帶特征,得到特征圖Of。整個(gè)子網(wǎng)絡(luò)的數(shù)學(xué)模型表達(dá)式如式(4)~(7)所示。
L1=F″Mb-FE(F1Mb-DA(F′Mb-FE(P1)))(4)
L2=F″Mb-FE(F2Mb-DA(F′Mb-FE(P2)))(5)
Ln=F″Mb-FE(FnMb-DA(F′Mb-FE(Pn)))(6)
Of=FMb-SFF(L1,…,L4)(7)
其中:F′Mb-FE(·)和F″Mb-FE(·)分別表示每一級(jí)的第一和第二次Mb-FE的輸出;FnMb-DA(·)表示第n級(jí)的Mb-DA的輸出;FMb-SFF(·)表示Mb-SFF操作;Of為輸出的特征圖。
在解碼器中,Of通過(guò)卷積塊和IDWT輸出得到預(yù)測(cè)殘差圖像Ires,將Ires和Iin相加就得到去噪后的圖像Iout。整個(gè)解碼器的數(shù)學(xué)模型表達(dá)如式(8)(9)所示。
Ires=F1IDWT(F1Con…(FnIDWT(FnCon(Of))))(8)
Iout=Ires+Iin(9)
其中:FnCon和FnIDWT分別表示第n級(jí)的卷積塊和IDWT操作;Ires是級(jí)聯(lián)卷積和IDWT后得到的殘差圖像;Iout為去噪后的輸出圖像。
為了提高CDW-MDA網(wǎng)絡(luò)在圖像去噪任務(wù)中的有效性,本文選擇L2損失來(lái)優(yōu)化整個(gè)網(wǎng)絡(luò)。給定訓(xùn)練集{Inoisy,Iclean}N包含N對(duì)噪聲圖像和相應(yīng)的干凈圖像,CDW-MDA可以通過(guò)Adam[25]優(yōu)化得到合適的參數(shù),計(jì)算過(guò)程為式(10)
其中:L和Θ分別表示網(wǎng)絡(luò)的損失函數(shù)和參數(shù)集;HCDW-MDA(Inoisy)是CDW-MDA去噪網(wǎng)絡(luò)的數(shù)學(xué)表達(dá)式;Iclean為干凈圖像。
1.2 多尺度級(jí)聯(lián)離散小波變換(MC-DWT)結(jié)構(gòu)
二維DWT可以將原始圖像Y分解為低頻子帶、水平高頻子帶 、垂直高頻子帶和對(duì)角線高頻子帶的組合,四個(gè)子帶圖像的像素尺寸是輸入圖像尺寸的一半,如圖2所示。本文使用由低通濾波器和高通濾波器組成的Haar小波[18]分解輸入圖像Y,如式(11)所示。
其中: fLL為低通濾波器; fLH、 fHL和fHH為三個(gè)高通濾波器。
由于四種濾波器的正交性,在下采樣過(guò)程中不會(huì)出現(xiàn)信息損失,這意味著利用IDWT可以完全重建目標(biāo)圖像。二維DWT和IDWT的計(jì)算步驟如式(12)(13)所示。
FDWT(Y)=[fLL*Y)↓2,(fLH*Y)↓2,(fHL*Y)↓2,(fHH*Y)↓2]=
[YLL,YLH,YHL,YHH](12)
Y=FIDWT(YLL,YLH,YHL,YHH)(13)
其中:FDWT(·)表示DWT計(jì)算;FIDWT(·)表示IDWT計(jì)算;*為卷積運(yùn)算;↓2為二分降頻采樣。
本文使用Haar小波分解,將一個(gè)復(fù)雜的CNN訓(xùn)練圖像去噪問(wèn)題轉(zhuǎn)換為一個(gè)簡(jiǎn)單的CNN訓(xùn)練多個(gè)尺度小波子帶的問(wèn)題。圖1展示了在每一級(jí)小波變換后插入一個(gè)3×3 conv+ReLU卷積塊,可以減少特征映射的通道數(shù),并提高特征映射的帶間獨(dú)立性。每個(gè)卷積塊右側(cè)標(biāo)注了通道數(shù),且沒有池化。對(duì)于最后一個(gè)卷積塊的最后一層,僅采用3×3 conv對(duì)殘差結(jié)果進(jìn)行預(yù)測(cè)。總之,MC-DWT結(jié)構(gòu)取代了傳統(tǒng)U-Net中的上采樣和下采樣,從而避免了信息損失。DWT的時(shí)頻域逐步細(xì)分特性還有助于保留圖像細(xì)節(jié)和紋理信息。
1.3 多頻帶特征增強(qiáng)(Mb-FE)模塊
針對(duì)直接混合高低頻信息導(dǎo)致去噪效果不佳的問(wèn)題,本文提出了一種多頻帶特征增強(qiáng)(Mb-FE)模塊,用于增強(qiáng)全局和局部的高低頻關(guān)鍵特征信息,并抑制噪聲影響。在CDW-MDA的每一級(jí)子網(wǎng)絡(luò)階段,重復(fù)使用兩次Mb-FE模塊。具體來(lái)說(shuō),Mb-FE模塊可以看作是一個(gè)雙支路四層殘差密集塊(residual dense block,RDB),前面每層的輸出使用跳躍連接與當(dāng)前層的輸出相連,并輸入到下一層,以提高網(wǎng)絡(luò)的表達(dá)能力和性能。在Mb-FE高頻子帶支路中,采用小的3×3卷積核以更好地保留圖像細(xì)節(jié)信息,而在Mb-FE低頻子帶支路中,采用較大的5×5卷積核以獲取更多的上下文信息,從而更好地增強(qiáng)低頻特征。此外,每個(gè)卷積層都去除了批次歸一化 (batch normalization,BN)和池化,只保留了ReLU,以更好地保留細(xì)節(jié)特征。
如圖3所示,令Mb-FE模塊中高頻子帶和低頻子帶的特征輸入分別為P0H和P0L,高頻子帶特征圖在經(jīng)過(guò)三層3×3 conv和ReLU運(yùn)算后的特征圖分別為P1H、P2H和P3H,融合P1H后的局部特征圖為P4H,如式(14)所示。
P4H=conv[concat(P0H,P1H,P2H,P3H)](14)
其中:concat(P0H,P1H,P2H,P3H)表示將特征圖P0H、P1H、P2H、P3H進(jìn)行通道拼接;conv表示1×1卷積運(yùn)算,用于融合局部特征。最終的輸出PoutH為融合后的局部特征圖P4H和高頻子帶輸入特征P0H進(jìn)行逐像素相加,如式(15)所示。
PoutH=P0H+P4H(15)
同理,低頻子帶特征圖在經(jīng)過(guò)三層5×5 conv和ReLU運(yùn)算后的特征圖分別為P1L、P2L和P3L,融合P3L后的局部特征圖為P4L,如式(16)所示。
P4L=conv[concat(P0L,P1L,P2L,P3L)](16)
其中:concat(P0L,P1L,P2L,P3L)表示將特征圖P0L、P1L、P2L、P3L進(jìn)行通道拼接;conv表示1×1卷積運(yùn)算,用于融合局部特征。最終的輸出PoutL為融合后的局部特征圖P4L和低頻子帶輸入特征P0L進(jìn)行逐像素相加,如式(17)所示。
PoutL=P0L+P4L(17)
1.4 多頻帶分解注意力(Mb-DA)模塊
X=softmax([FC(GAP(M[i,:,:,:]))]) i=1,2,3(19)
顯然,X是對(duì)M的注意力權(quán)重。最終的紋理特征如式(20)所示。
其中:⊙為點(diǎn)乘運(yùn)算;c為向量的維度。
最終,通過(guò)將原始特征LL和生成的紋理特征拼接起來(lái),以獲得更全面、更具區(qū)分性的輸出特征表示,如式(21)所示。
output features=concat(textural features,LL)(21)
1.5 多頻帶選擇特征融合(Mb-SFF)模塊
受文獻(xiàn)[13]的啟發(fā),本文引入了一個(gè)非線性過(guò)程來(lái)融合多尺度特征,即多頻帶選擇特征融合(Mb-SFF)模塊,如圖5所示。與文獻(xiàn)[13]不同的是,本文是針對(duì)DWT分解的四個(gè)尺度下的子帶特征圖進(jìn)行融合。Mb-SFF接收來(lái)自四個(gè)攜帶不同尺度子帶信息的輸入。首先將這些多尺度特征用一個(gè)元素級(jí)和組合表示,如式(22)所示。
L=L1+L2+L3+L4(22)
然后,在L的空間維度上進(jìn)行全局平均池化(GAP),得到通道元素特征向量S。S經(jīng)過(guò)一個(gè)1×1 conv和ReLU的卷積層生成一個(gè)緊湊的特征向量Z。Z通過(guò)四個(gè)并行的通道放大卷積層(每個(gè)尺度一個(gè))得到四個(gè)特征描述子V1、V2、V3和V4,每個(gè)描述子的維度為1×1×C。應(yīng)用softmax函數(shù)產(chǎn)生V1、V2、V3和V4對(duì)應(yīng)的注意力激活算子S1、S2、S3和S4,這些激活算子用來(lái)自適應(yīng)地重新校準(zhǔn)多尺度特征L1、L2、L3和L4。特征重新校準(zhǔn)和聚集以獲得輸出特征Of的計(jì)算過(guò)程,如式(23)所示。
Of=S1·L1+S2·L2+S3·L3+S4·L4(23)
2 實(shí)驗(yàn)
2.1 訓(xùn)練集與測(cè)試集
對(duì)于合成噪聲去噪任務(wù),本文使用一個(gè)大型數(shù)據(jù)集DIV2K[26]作為訓(xùn)練數(shù)據(jù)集,該數(shù)據(jù)集由800幅高分辨率圖像組成。在訓(xùn)練過(guò)程中,大小為256×256的圖像補(bǔ)丁從其原始完整版本中隨機(jī)裁剪,并在圖像上添加特定噪聲水平(σ=15,25,50)的加性高斯白噪聲(AWGN)進(jìn)行合成噪聲去噪評(píng)價(jià)。使用SeT12[6]和BSD68[27]數(shù)據(jù)集對(duì)灰度圖像進(jìn)行去噪評(píng)價(jià);選擇CBSD68[27]和McMaster[28]數(shù)據(jù)集對(duì)彩色圖像進(jìn)行去噪評(píng)價(jià)。
對(duì)于真實(shí)圖像去噪任務(wù),本文使用SIDD數(shù)據(jù)集[29]進(jìn)行訓(xùn)練,該數(shù)據(jù)集是由五部智能手機(jī)在室內(nèi)捕捉不同的噪聲水平場(chǎng)景下采集的,包含320對(duì)圖像用于訓(xùn)練,1 280對(duì)圖像用于測(cè)試。本文使用SIDD和DND數(shù)據(jù)集[30]對(duì)真實(shí)圖像去噪進(jìn)行評(píng)價(jià)。在訓(xùn)練和測(cè)試中,所有裁剪得到的補(bǔ)丁大小都是256×256。
2.2 實(shí)驗(yàn)細(xì)節(jié)
CDW-MDA網(wǎng)絡(luò)使用的深度學(xué)習(xí)框架為PyTorch 1.8和CUDA 11.1,所有的實(shí)驗(yàn)都是在Ubuntu 18.04.5版本,兩張NVIDIA GTX3080 GPU的環(huán)境下進(jìn)行。真實(shí)噪聲訓(xùn)練和合成噪聲訓(xùn)練的批次大小為16,補(bǔ)丁大小為256。在訓(xùn)練過(guò)程中,學(xué)習(xí)速率初始設(shè)置為1E-4,使用余弦退火策略[31]來(lái)穩(wěn)定降低學(xué)習(xí)速率,并用L2損失和Adam優(yōu)化器(β1=0.9,β2=0.999)來(lái)優(yōu)化網(wǎng)絡(luò)參數(shù)。CDW-MDA網(wǎng)絡(luò)使用了四個(gè)不同的特征尺度,通道數(shù)分別為64、128、256和512,DWT分解級(jí)別為4,每一級(jí)別下的Mb-FE和Mb-DA數(shù)量分別為2和1。
2.3 評(píng)價(jià)指標(biāo)
本文用峰值信噪比(peak signal-to-noise ratio,PSNR)和結(jié)構(gòu)相似性(structural similarity,SSIM)[32]兩個(gè)指標(biāo)來(lái)定量分析模型的去噪性能。PSNR越高,SSIM越接近1,表明去噪后的圖像更接近ground truth,模型去噪效果更好。PSNR和SSIM的公式為式(24)(25)
其中:W表示寬度;H表示高度;P(i, j)表示去噪圖像(i, j)位置處的像素值;K(i,j)表示ground truth圖像(i,j)位置處的像素值;μ1和μ2分別表示圖像K和P的均值;σ1和σ2分別表示圖像K和P的方差;σ1,2表示圖像K和P的協(xié)方差,且c1=0.01和c2=0.02為常數(shù)。
2.4 實(shí)驗(yàn)結(jié)果與分析
2.4.1 灰度圖像去噪
為了進(jìn)行客觀評(píng)價(jià),將具有不同噪聲水平σ=15,25,50的相同噪聲AWGN添加到ground truth圖像中以獲得噪聲圖像。對(duì)于灰度圖像去噪,本文將CDW-MDA的實(shí)驗(yàn)結(jié)果與一些最新的去噪方法進(jìn)行了比較,包括BM3D[3]、WNNM[33]、DnCNN[6]、FFDNet[7]、DudeNet[34]、DeamNet[35]、APDNet[36]和 MACFNet[37]。表1展示了這些方法在Set12和BSD68數(shù)據(jù)集上平均PSNR結(jié)果。各表中加粗代表所列方法中的最優(yōu)指標(biāo)??梢钥闯?,本文方法的定量結(jié)果多為最優(yōu)或次優(yōu)。在復(fù)雜噪聲下,本文模型優(yōu)于所列圖像去噪方法,主要是因?yàn)镃DW-MDA網(wǎng)絡(luò)架構(gòu)能更深入地挖掘高頻信息。
圖6展示了來(lái)自Set12數(shù)據(jù)集中的圖像Barbara在σ=50下不同方法的視覺去噪結(jié)果對(duì)比,子圖題中數(shù)字表示PSNR。BM3D和WNNM在一定程度上保留了圖像的結(jié)構(gòu),但不能很好地去除噪聲。DnCNN和FFDNet使邊緣過(guò)于平滑,混淆了前景和背景。DeamNet和APDNet雖然去噪效果很好,但在去噪過(guò)程中紋理和細(xì)節(jié)保留的效果較差。相比之下,本文方法可以產(chǎn)生更清晰的桌布紋理細(xì)節(jié),而且沒有產(chǎn)生模糊,恢復(fù)后的圖像保留了更多的紋理細(xì)節(jié)信息。
2.4.2 彩色圖像去噪
對(duì)于彩色圖像去噪,本文將CDW-MDA的實(shí)驗(yàn)結(jié)果與一些最新的去噪方法進(jìn)行了比較,包括CBM3D[3]、DnCNN、FFDNet、ADNet[38]、DudeNet、DeamNet、APDNet和MACFNet。表2展示了這些方法在CBSD68和McMaster數(shù)據(jù)集上的平均PSNR結(jié)果。可以看出,本文方法在McMaster數(shù)據(jù)集上取得了最好的結(jié)果,在三種不同的噪聲水平下,相較于DeamNet的PSNR增益分別為0.06 dB、0.09 dB和0.05 dB。總的來(lái)說(shuō),本文方法可以在大多數(shù)情況下獲得最高的PSNR,這是因?yàn)镃DW-MDA網(wǎng)絡(luò)架構(gòu)同時(shí)關(guān)注了圖像的全局和局部信息。
圖7展示了來(lái)自CBSD68數(shù)據(jù)集中的圖像在σ=50下不同方法的視覺去噪結(jié)果對(duì)比,從去噪圖像和放大局部圖可以看出,本文方法能夠在保持圖像特征紋理的同時(shí)降低噪聲。
2.4.3 真實(shí)噪聲圖像去噪
真實(shí)噪聲圖像的去噪是一個(gè)極具挑戰(zhàn)性的問(wèn)題,因?yàn)檎鎸?shí)噪聲通常具有信號(hào)依賴性,并且在空間上隨相機(jī)的特性而變化。為了評(píng)估本文方法對(duì)真實(shí)噪聲圖像的去噪性能,采用SIDD驗(yàn)證數(shù)據(jù)集和DND基準(zhǔn)數(shù)據(jù)集作為測(cè)試數(shù)據(jù)集。由于DND不提供可訓(xùn)練的數(shù)據(jù)集,ground truth圖像也不公開,去噪后的圖像和結(jié)果只能通過(guò)在線系統(tǒng)獲得,所以本文將去噪圖像提交到DND官方網(wǎng)站以獲得結(jié)果。
本文將實(shí)驗(yàn)結(jié)果與一些最新的去噪方法進(jìn)行了比較,包括BM3D[4]、DnCNN[6]、FFDNet[7]、CBDNet[8]、RIDNet[9]、HI-GAN[39]、COLA-Net[40]、MHCNN[41]和VDIR[42]。在實(shí)驗(yàn)中,本文使用相應(yīng)原文提供的預(yù)訓(xùn)練模型,并參考其在線系統(tǒng)和論文中報(bào)告的結(jié)果。表3顯示了SIDD驗(yàn)證數(shù)據(jù)集上的定量結(jié)果,可以看出,本文方法在現(xiàn)有方法上獲得了最高的PSNR和SSIM值,與目前最好的方法相比,PSNR增益為0.06 dB,SSIM值提高了0.004。表4顯示了DND基準(zhǔn)數(shù)據(jù)集上的定量結(jié)果,本文方法同樣獲得了最高的PSNR和SSIM值,與目前最好的方法相比,PSNR增益為0.09 dB,SSIM值提高了0.002。定量實(shí)驗(yàn)結(jié)果表明,與其他七種去噪方法相比,本文CDW-MDA對(duì)于真實(shí)噪聲圖像具有更好的去噪性能。
圖8、9展示了來(lái)自SIDD數(shù)據(jù)集中不同方法的視覺去噪結(jié)果對(duì)比。傳統(tǒng)算法BM3D的視覺效果稍微優(yōu)于DnCNN,但是兩者的去噪效果和邊緣信息保留能力有限。CBDNet和RIDNet的去噪效果有所提升,但是有殘余噪聲和偽影。相比之下,本文方法能在去除噪聲的同時(shí)保留更多的文字和白色條紋細(xì)節(jié),因此具有更好的視覺效果。
圖10展示了來(lái)自DND數(shù)據(jù)集中不同方法的視覺去噪結(jié)果對(duì)比,由于石柱表面的雕刻凹凸不平,使圖像中的噪聲很難去除,上述方法都不能在去除噪聲和保留邊緣結(jié)構(gòu)的問(wèn)題上保持平衡。而本文方法可以更巧妙地恢復(fù)紋理和結(jié)構(gòu),并獲得更清晰的圖像。綜合實(shí)驗(yàn)指標(biāo)結(jié)果和視覺對(duì)比效果來(lái)看,本文方法在實(shí)際圖像去噪中具有一定優(yōu)勢(shì)。
2.4.4 消融實(shí)驗(yàn)
本文在McMaster數(shù)據(jù)集(σ=25)上進(jìn)行消融實(shí)驗(yàn)來(lái)驗(yàn)證所提出模塊的有效性,結(jié)果如表5所示。首先,使用傳統(tǒng)的具有跳連接的編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu)(encoder-decoder,ED)作為基準(zhǔn)網(wǎng)絡(luò),即不將圖像分解為不同頻率的特征,而是從整個(gè)圖像中提取特征。MC-DWT是CDW-MDA中的關(guān)鍵結(jié)構(gòu),如果沒有此結(jié)構(gòu),專為高頻和低頻特征設(shè)計(jì)的Mb-FE和Mb-DA模塊就會(huì)失效。由實(shí)驗(yàn)1可知,基準(zhǔn)網(wǎng)絡(luò)結(jié)果最差,實(shí)驗(yàn)2在實(shí)驗(yàn)1的基礎(chǔ)上加入MC-DWT結(jié)構(gòu),整體性能有所提升,獲得了0.11 dB增益。對(duì)比實(shí)驗(yàn)3~6可知,Mb-FE、Mb-DA、Mb-SFF分別獲得了0.25 dB、0.32 dB、0.16 dB的增益,說(shuō)明這三個(gè)模塊都可以提高去噪性能。由實(shí)驗(yàn)6可得,組合Mb-FE、Mb-DA和Mb-SFF相較于基準(zhǔn)網(wǎng)絡(luò)獲得了1.4 dB的增益,并且達(dá)到了最佳的去噪效果。
為了驗(yàn)證網(wǎng)絡(luò)結(jié)構(gòu)中DWT分解級(jí)別參數(shù)n和有無(wú)BN層情況下模型的去噪性能,本文在Set12數(shù)據(jù)集(σ=25)進(jìn)行組合消融實(shí)驗(yàn),結(jié)果如表6所示。由表6可得,當(dāng)網(wǎng)絡(luò)結(jié)構(gòu)中無(wú)BN層且n為4時(shí),取得了最高的PSNR和SSIM值。在n取值相同下,無(wú)BN層的PSNR和SIMM值比有BN層平均分別高出0.026 dB、0.002,這是因?yàn)锽N通常對(duì)每個(gè)通道進(jìn)行歸一化,會(huì)導(dǎo)致去噪模型過(guò)度平滑圖像,從而損失一些邊緣細(xì)節(jié)信息。在無(wú)BN層的情況下,n=4時(shí)的PSNR和SSIM值比n=3和n=5分別高出0.06 dB/0.002、0.14 dB/0.003,而在有BN層的情況下,n=4時(shí)的PSNR和SSIM值比n=3和n=5分別高出0.05 dB/0.003、0.14 dB/0.005。從以上消融實(shí)驗(yàn)結(jié)果可知,參數(shù)n的選取對(duì)于模型的去噪性能影響更大,n越大時(shí)導(dǎo)致圖像的低頻信息更多地參與重構(gòu),產(chǎn)生過(guò)度平滑的結(jié)果,從而導(dǎo)致模型的去噪性能下降。同時(shí),較大的分解級(jí)數(shù)也會(huì)增加模型的復(fù)雜度和計(jì)算開銷。因此,實(shí)驗(yàn)中選擇參數(shù)n=4且無(wú)BN層作為模型的初始設(shè)置。
3 結(jié)束語(yǔ)
本文基于DWT在圖像去噪中的應(yīng)用,提出了一種用于圖像去噪的級(jí)聯(lián)離散小波多頻帶分解注意力(CDW-MDA)網(wǎng)絡(luò)。由于MC-DWT的結(jié)構(gòu)設(shè)計(jì)引入DWT,能減少一般下采樣造成的頻率信息損失,Mb-FE用于增強(qiáng)高頻和低頻的關(guān)鍵特征信息,Mb-DA關(guān)注不同頻帶分量的特征,可以在強(qiáng)噪聲下的復(fù)雜場(chǎng)景中還原更豐富的紋理細(xì)節(jié),Mb-SFF的融合機(jī)制充分利用了級(jí)間的多尺度高低頻特征,提高了模型對(duì)于不同尺度噪聲的去除能力。實(shí)驗(yàn)結(jié)果表明,CDW-MDA 在PSNR/SSIM性能指標(biāo)以及視覺效果方面相比現(xiàn)有的方法更優(yōu),在去噪效果和細(xì)節(jié)保留之間有著更好的平衡。未來(lái)的研究將致力于模型泛化能力更強(qiáng)、更輕量級(jí)的網(wǎng)絡(luò)以提高模型的實(shí)際應(yīng)用價(jià)值,并拓展到其他圖像去模糊和圖像超分辨等低級(jí)視覺任務(wù)中。
參考文獻(xiàn):
[1]張繪娟,張達(dá)敏,閆威,等.基于改進(jìn)閾值函數(shù)的小波變換圖像去噪算法[J].計(jì)算機(jī)應(yīng)用研究,2020,37(5):1545-1548,1552.(Zhang Huijuan, Zhang Damin, Yan Wei, et al. Wavelet transform image denoising algorithm based on improved threshold function[J].Application Research of Computers,2020,37(5):1545-1548,1552.)
[2]王科俊,熊新炎,任楨.高效均值濾波算法[J].計(jì)算機(jī)應(yīng)用研究,2010,27(2):434-438.(Wang Kejun, Xiong Xinyan, Ren Zhen. Highly efficient mean filtering algorithm[J].Application Research of Computers,2010,27(2):434-438.)
[3]Dabov K, Foi A, Katkovnik V, et al. Image denoising by sparse 3D transform-domain collaborative filtering[J].IEEE Trans on Image Processing,2007,16(8):2080-2095.
[4]邢遠(yuǎn)秀,李軍賢,王文波,等.基于非局部自相似序列集的一類視頻圖像盲去噪算法[J].電子學(xué)報(bào),2021,49(8):1498-1506.(Xing Yuanxiu, Li Junxian, Wang Wenbo, et al. Blind video image denoising based on nonlocal self-similarity series sets[J].Acta Electronica Sinica,2021,49(8):1498-1506.)
[5]李小利,楊曉梅,陳代斌.基于塊和低秩張量恢復(fù)的視頻去噪方法[J].計(jì)算機(jī)應(yīng)用研究,2017,34(4):1273-1276,1280.(Li Xiaoli, Yang Xiaomei, Chen Daibin. Patch-based video denoising using low-rank tensor recovery[J].Application Research of Computers,2017,34(4):1273-1276,1280.)
[6]Zhang Kai, Zuo Wangmeng, Chen Yunjin, et al. Beyond a Gaussian denoiser: residual learning of deep CNN for image denoising[J].IEEE Trans on Image Processing,2017,26(7):3142-3155.
[7]Zhang Kai, Zuo Wangmeng, Zhang Lei. FFDNet: toward a fast and flexible solution for CNN-based image denoising[J].IEEE Trans on Image Processing,2018,27(9):4608-4622.
[8]Guo Shi, Yan Zifei, Zhang Kai, et al. Toward convolutional blind denoising of real photographs[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:1712-1722.
[9]Anwar S, Barnes N. Real image denoising with feature attention[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2019:3155-3164.
[10]Liu Yang, Qin Zhenyue, Anwar S, et al. Invertible denoising network:a light solution for real noise removal[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:13365-13374.
[11]Neshatavar R, Yavartanoo M, Son S, et al. CVF-SID:cyclic multi-variate function for self-supervised image denoising by disentangling noise from image[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:17583-17591.
[12]Chen Haoyu, Gu Jinjin, Liu Yihao, et al. Masked image training for generalizable deep image denoising[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2023:1692-1703.
[13]Zamir S W, Arora A, Khan S, et al. Learning enriched features for fast image restoration and enhancement[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2022,45(2):1934-1948.
[14]Hu Jie, Shen Li, Sun Gang. Squeeze-and-excitation networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:7132-7141.
[15]Woo S, Park J, Lee J Y, et al. CBAM: convolutional block attention module[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2018:3-19.
[16]尹海濤,鄧皓.基于混合注意力的對(duì)偶?xì)埐钊ピ刖W(wǎng)絡(luò)[J].激光與光電子學(xué)進(jìn)展,2021,58(14):139-148.(Yin Haitao, Deng Hao. Dual residual denoising network based on hybrid attention[J].Laser & Optoelectronics Progress,2021,58(14):139-148.)
[17]Qin Zequn, Zhang Pengyi, Wu Fei, et al. FcaNet: frequency channel attention networks[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2021:783-792.
[18]Shensa M J. The discrete wavelet transform: wedding the a trous and Mallat algorithms[J].IEEE Trans on Signal Processing,1992,40(10):2464-2482.
[19]Sun Jieqi, Li Yafeng, Zhao Qijun, et al. Cascade wavelet transform based convolutional neural networks with application to image classification[J].Neurocomputing,2022,514:285-295.
[20]Liu Pengju, Zhang Hongzhi, Zhang Kai, et al. Multi-level wavelet-CNN for image restoration[C]//Proc of IEEE Conference on Compu-ter Vision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Press,2018:773-782.
[21]Ronneberger O, Fischer P, Brox T. U-Net:convolutional networks for biomedical image segmentation[C]//Proc of International Conference on Medical Image Computing and Computer-Assisted Intervention.Berlin:Springer,2015:234-241.
[22]徐景秀,張青.改進(jìn)小波軟閾值函數(shù)在圖像去噪中的研究應(yīng)用[J].計(jì)算機(jī)工程與科學(xué),2022,44(1):92-101.(Xu Jingxiu, Zhang Qing. Research and application of an improved wavelet soft threshold function in image denoising[J].Computer Engineering & Science,2022,44(1):92-101.)
[23]陳清江,石小涵,柴昱洲.基于小波變換與卷積神經(jīng)網(wǎng)絡(luò)的圖像去噪算法[J].應(yīng)用光學(xué),2020,41(2):288-295.(Chen Qingjiang, Shi Xiaohan, Chai Yuzhou. Image denoising algorithm based on wavelet transform and convolutional neural network[J].Journal of Applied Optics,2020,41(2):288-295.)
[24]Duan Yiping, Liu Fang, Jiao Licheng, et al. SAR image segmentation based on convolutional-wavelet neural network and Markov random field[J].Pattern Recognition,2017,64:255-267.
[25]Kingma D P, Ba J. Adam:a method for stochastic optimization[EB/OL].(2014-12-22).https://arxiv.org/pdf/1412.6980.pdf.
[26]Agustsson E, Timofte R. Ntire 2017 challenge on single image super-resolution: dataset and study[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Press,2017:126-135.
[27]Martin D, Fowlkes C, Tal D, et al. A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2001:416-423.
[28]Zhang Lei, Wu Xiaolin, Buades A, et al. Color demosaicking by local directional interpolation and nonlocal adaptive thresholding[J].Journal of Electronic Imaging,2011,20(2):023016.
[29]Abdelhamed A, Lin S, Brown M S. A high-quality denoising dataset for smartphone cameras[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:1692-1700.
[30]Plotz T, Roth S. Benchmarking denoising algorithms with real photographs[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:1586-1595.
[31]Loshchilov I, Hutter F. SGDR: stochastic gradient descent with warm restarts[EB/OL].(2016-08-13).https://arxiv.org/pdf/1608.03983.pdf.
[32]Setiadi D R I M. PSNR vs SSIM:imperceptibility quality assessment for image steganography[J].Multimedia Tools and Applications,2021,80(6):8423-8444.
[33]Gu Shuhang, Zhang Lei, Zuo Wangmeng, et al. Weighted nuclear norm minimization with application to image denoising[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Pisca-taway,NJ:IEEE Press,2014:2862-2869.
[34]Tian Cunwei, Xu Yong, Zuo Wangmeng, et al. Designing and trai-ning of a dual CNN for image denoising[J].Knowledge-Based Systems,2021,226:106949.
[35]Ren Chao, He Xiaohai, Wang Chuncheng, et al. Adaptive consistency prior based deep network for image denoising[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscata-way,NJ:IEEE Press,2021:8596-8606.
[36]Jiang Bo, Lu Yao, Wang Jiahuan, et al. Deep image denoising with adaptive priors[J].IEEE Trans on Circuits and Systems for Vi-deo Technology,2022,32(8):5124-5136.
[37]Yu Jiaolong, Zhang Juan, Gao Yongbin. MACFNet: multi-attention complementary fusion network for image denoising[J].Applied Intelligence,2023,53:16747-16761.
[38]Tian Chunwei, Xu Yong, Li Zuoyong, et al. Attention-guided CNN for image denoising[J].Neural Networks,2020,124:117-129.
[39]Vo D M, Nguyen D M, Le T P, et al. HI-GAN:a hierarchical gene-rative adversarial network for blind denoising of real photographs[J].Information Sciences,2021,570:225-240.
[40]Mou Chong, Zhang Jian, Fan Xiaopeng, et al. COLA-Net:collaborative attention network for image restoration[J].IEEE Trans on Multimedia,2021,24:1366-1377.
[41]Zhang Jiahong, Qu Meijun, Wang Ye, et al. A multi-head convolutional neural network with multi-path attention improves image denoi-sing[C]//Proc of Pacific Rim International Conference on Artificial Intelligence.Berlin:Springer,2022:338-351.
[42]Soh J W, Cho N I. Variational deep image restoration[J].IEEE Trans on Image Processing,2022,31:4363-4376.