姜 偉, 楊天旭, 張長(zhǎng)勝
(1.遼寧師范大學(xué) 數(shù)學(xué)學(xué)院,遼寧 大連 116029; 2.溫州大學(xué) 計(jì)算機(jī)與人工智能學(xué)院,浙江 溫州 325035)
隨著現(xiàn)代數(shù)字技術(shù)的高速發(fā)展,數(shù)字圖像獲取更加容易并得到了廣泛的應(yīng)用,但由于光照、傳播等各類(lèi)因素的影響,圖像通常會(huì)含有噪聲.例如,在人臉識(shí)別系統(tǒng)中,往往假設(shè)是在理想的光照情況下,然而,在諸如門(mén)禁安全系統(tǒng)、嫌疑人識(shí)別和安全監(jiān)控系統(tǒng)等實(shí)際應(yīng)用中,理想假設(shè)條件是不滿足的.Moses等[1]在實(shí)驗(yàn)中表明,不同光照條件下拍攝的同一個(gè)人的人臉圖像,在灰度上表現(xiàn)出來(lái)的差異遠(yuǎn)比在相同光照條件下拍攝的不同人的人臉圖像在灰度上表現(xiàn)出來(lái)的差異要來(lái)得大,這就造成了實(shí)際情況與數(shù)學(xué)模型之間的偏差.數(shù)字圖像的本質(zhì)是信號(hào),因此,在信息獲取過(guò)程中信號(hào)的噪聲也會(huì)同樣發(fā)生在圖像獲取中,這種噪聲可能來(lái)自采樣信道的高斯噪聲[2-6].對(duì)大規(guī)模的帶有噪聲的數(shù)字圖像進(jìn)行有效的處理,并充分挖掘數(shù)字圖像的本質(zhì),已經(jīng)成為學(xué)術(shù)界致力探索的一個(gè)新方向.
數(shù)字圖像主要包括灰度圖像與彩色圖像兩大類(lèi),灰度圖像去噪算法主要有加權(quán)核范數(shù)方法(Weight nuclear norm minimization,WNNM)[7]、加權(quán)Schatten-p范數(shù)方法(Weight Schatten-pnorm minimization,WSNM)[8]等.對(duì)于彩色圖像去噪算法,彩色三維塊匹配算法(Color block-matching and 3D filtering,CBM3D)[9]是一種代表性的算法,它首先將RGB圖像轉(zhuǎn)換到一個(gè)低維空間,然后在每個(gè)通道分別用基準(zhǔn)三維塊匹配算法 (Block-matching and 3D filtering,BM3D)[2]進(jìn)行去噪.Liu等[10]提出了“噪聲級(jí)函數(shù)”,用來(lái)評(píng)估并去除每個(gè)通道內(nèi)的噪聲.然而,單獨(dú)處理每個(gè)通道要比將彩色通道聯(lián)合起來(lái)進(jìn)行處理效果差很多,原因是忽略了各個(gè)通道的自相似性.文獻(xiàn)[11]提出了基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)的快速去噪算法,將輸入的圖像重塑為4個(gè)子圖像,并與噪聲等級(jí)一起輸入CNN,但沒(méi)有考慮到各個(gè)噪聲通道的噪聲等級(jí)不同,導(dǎo)致效果不盡如人意.隨后,Xu等[12]考慮了圖像的自相似性以及不同通道內(nèi)的噪聲統(tǒng)計(jì)量提出了多通道加權(quán)核范數(shù)最小化(Multi-channel weight nuclear norm minimization,MC-WNNM)算法,該算法利用圖像非局部自相似塊的低秩先驗(yàn),并引入了加權(quán)矩陣,根據(jù)不同的噪聲等級(jí)對(duì)各個(gè)通道進(jìn)行均衡.然而,在某些情況下,核范數(shù)并不是低秩的最優(yōu)凸逼近.文獻(xiàn)[13]提出了三邊加權(quán)稀疏編碼方法,但在求解時(shí)會(huì)需要高的計(jì)算代價(jià).
為了解決彩色數(shù)字圖像算法存在的問(wèn)題,提出了一個(gè)新的真彩色圖像去噪模型,即基于雙加權(quán)Schatten-p范數(shù)RGB彩色圖像去噪模型.由于Schatten-p范數(shù)[14]相比較于核范數(shù)在處理低秩問(wèn)題來(lái)說(shuō)更具靈活,當(dāng)p=1時(shí),Schatten-p范數(shù)即退化為核范數(shù).
灰度圖像的加權(quán)Schatten-p范數(shù)模型被表示為
(1)
(2)
目標(biāo)函數(shù)(1)有封閉解[14]:
(3)
其中,Y=UΣVT是Y的奇異值分解,且Sw(·)是帶有權(quán)重w的軟閾值算子.
加權(quán)Schatten-p范數(shù)在灰度圖像上展現(xiàn)出了極強(qiáng)的去噪性能,然而,如果直接將加權(quán)Schatten-p范數(shù)應(yīng)用于彩色圖像上,即分別在R,G,B 3個(gè)信號(hào)通道上分別去噪,就會(huì)忽略每個(gè)通道中噪聲等級(jí)不等情況,導(dǎo)致最后的結(jié)果不理想.所以提出一個(gè)雙加權(quán)Schatten-p范數(shù)最小化去噪模型用于彩色圖像去噪.
標(biāo)準(zhǔn)R,G,B空間的噪聲可以被近似地模擬為加性高斯白噪聲,但是在一般情況下,不同的通道內(nèi)的噪聲的方差是不同的.考慮在不同通道內(nèi)有不同的噪聲強(qiáng)度,引入一個(gè)加權(quán)矩陣去平衡R,G,B通道里的噪聲.由此提出如下雙加權(quán)Schatten-p范數(shù)最小化去噪模型:
(4)
其中,Ω是權(quán)矩陣.
(5)
對(duì)數(shù)似然項(xiàng)ln P(Y|X)是噪聲統(tǒng)計(jì)量,假設(shè)R,G,B通道內(nèi)的噪聲是獨(dú)立且同分布[15],滿足高斯分布和標(biāo)準(zhǔn)差{σr,σg,σb},有
(6)
對(duì)于加權(quán)Schatten-p范數(shù),采用概率分布表達(dá)為
(7)
由式(5)~式(7)得到:
(8)
其中,
(9)
其中,I是單位矩陣.權(quán)重矩陣Ω是對(duì)角矩陣,由每個(gè)通道內(nèi)的噪聲標(biāo)準(zhǔn)差定義,每個(gè)通道內(nèi)的噪聲強(qiáng)度越強(qiáng),在估計(jì)X時(shí)給予一個(gè)小的權(quán)重,使得在噪聲強(qiáng)度越小的通道可以給出X的較大的貢獻(xiàn).如果各個(gè)通道內(nèi)噪聲強(qiáng)度相同的話,只需要簡(jiǎn)單地對(duì)各個(gè)通道分別去噪再聚合即可,此時(shí)權(quán)重矩陣退化為單位矩陣.
在加權(quán)Schatten-p范數(shù)模型中,當(dāng)權(quán)重分配給奇異值時(shí)是非升序的,加權(quán)Schatten-p近端算子有一個(gè)最優(yōu)且是閉式解.由于權(quán)重矩陣Ω被分配給了X的行,這使得目標(biāo)函數(shù)是不可分,使所提出的去噪模型比加權(quán)Schatten-p范數(shù)模型難解.
用變量分裂方法[16]去解決上述問(wèn)題,通過(guò)輔助變量Z,可以轉(zhuǎn)化為含可分的2個(gè)變量的等式約束最優(yōu)化問(wèn)題,即
(10)
目標(biāo)函數(shù)(10)在交替乘子方向法(Alternating direction method of multipliers,ADMM)框架下進(jìn)行求解,其增廣拉格朗日函數(shù)為
.
(11)
其中,A是增廣拉格朗日乘子并且ρ>0,目標(biāo)函數(shù)(11)是一個(gè)具有3個(gè)未知變量的優(yōu)化問(wèn)題,采用固定其中2個(gè),求解另一個(gè)的方法進(jìn)行求解,具體如下:
(1)固定Z和A,更新X
(12)
這是一個(gè)最小二乘問(wèn)題,有一個(gè)封閉解,
(13)
(2)固定X和A,更新Z
.
(14)
.
(15)
(3)固定X和Z,更新A
Ak+1=Ak+ρk(Xk+1-Zk+1)
.
(16)
(4)更新ρk
ρk+1=μ×ρk.
(17)
交替更新步驟直到滿足收斂條件或者達(dá)到預(yù)設(shè)迭代次數(shù)停止.收斂條件為:‖Xk+1-Zk+1‖F(xiàn)≤Tol,‖Xk+1-Xk‖F(xiàn)≤Tol并且‖Zk+1-Zk‖F(xiàn)≤Tol,Tol是一個(gè)非常小的值.具體描述如算法1.
算法1:MCWSNM基于ADMM法迭代更新過(guò)程 輸入:矩陣Y和W,μ>1,Tol>0,K1;初始化:X0=Z0=A0=0,ρ0>0,T=False,k=0;While(T=False),do a)迭代更新Xk+1:Xk+1=ΩTΩ+ρk2I-1 ΩTΩY+ρk2Zk-12Ak ; b)通過(guò)求解如下問(wèn)題迭代更新Zk+1: argminZρk2‖Z-Xk+1+ρ-1kAk ‖2F+‖Z‖pw,Sp; c)迭代更新Ak+1: Ak+1=Ak+ρkXk+1-Zk+1 ; d)迭代更新ρk+1: ρk+1=μ×ρk; e)k=k+1; if(收斂條件滿足或者k≥K1) f)T=True; end ifend while輸出:矩陣X和Z.
算法2:基于MCWSNM的彩色圖像去噪算法輸入:噪聲圖像yc,噪聲級(jí)σr,σg,σb ,K2;初始化:x(0)c=yc,y(0)c=yc;for k=1:K2 do a)設(shè)置yk c=xc; b)提取局部塊yjj=1,…,N ; for eachyj do c)搜索非局部相似塊Yj; d)對(duì)Yj調(diào)用算法1得到Xj; end for e)聚合Xj為xc;end for輸出:去噪圖像xK2 c.
為了評(píng)價(jià)所提出的算法在處理不同的圖片去噪性能,選取了圖1中的4幅大小為512×512×3彩色圖片用來(lái)做對(duì)比實(shí)驗(yàn).在3種不同的通道上添加不同級(jí){σr,σg,σb}={40,20,30}與{σr,σg,σb}={65,55,50}的高斯噪聲,對(duì)每張圖片的各個(gè)通道加入了不同的噪聲.實(shí)驗(yàn)對(duì)比的算法包括:本文算法,MC-WNNM[11],CBM3D[9].
圖1 圖像去噪的4個(gè)測(cè)試圖像Fig.1 The 4 test images for image denoising
為了評(píng)估本文提出的算法的定量特性,通過(guò)比較峰值信噪比[17](PSNR),以及結(jié)構(gòu)相似度[17](SSIM)兩種被廣泛應(yīng)用于評(píng)估去噪性能來(lái)評(píng)估算法的定量特性.圖2表示在{σr,σg,σb}={40,20,30}噪聲級(jí)下的實(shí)驗(yàn)結(jié)果對(duì)比,圖3表示{σr,σg,σb}={65,55,50}噪聲級(jí)下的實(shí)驗(yàn)結(jié)果對(duì)比.表1顯示了在{σr,σg,σb}={40,20,30}噪聲級(jí)下平均定量指標(biāo)對(duì)比結(jié)果,表2顯示了在{σr,σg,σb}={65,55,50}噪聲級(jí)下平均定量指標(biāo)對(duì)比結(jié)果.
圖2 不同方法在4個(gè)圖像上去噪聲結(jié)果Fig.2 Denoising results on the 4 images by different methods
由圖2中可以看出,在低等級(jí)噪聲下各類(lèi)去噪算法的主觀去噪效果差別不大,但是在表1中可以明顯看到,在峰值信噪比方面,本文算法相較于其他兩種算法均有明顯提高,每張圖片的峰值信噪比都達(dá)到30 dB.相對(duì)于其他兩種算法,平均提升最高可達(dá)到2 dB,SSIM也明顯高于其他兩種算法.
圖3 不同方法在4個(gè)圖像上去噪聲結(jié)果Fig.3 Denoising results on the 4 images by different methods
在圖3中,由于噪聲級(jí)的增加,實(shí)驗(yàn)對(duì)比的效果更加明顯.在主觀視覺(jué)效果,MC-WNNM有很多未被完全去除的噪聲斑點(diǎn),在CBM3D中,去噪圖像稍顯模糊.本文所提出的雙加權(quán)Schatten-p范數(shù)最小化在未被去除的噪聲斑點(diǎn)的數(shù)量與圖像的清晰度,都有更好的效果.
表1 不同方法去噪結(jié)果(PSNR,SSIM)實(shí)驗(yàn)結(jié)果對(duì)比
表2顯示在{σr,σg,σb}={65,55,50}等級(jí)噪聲下PSNR和SSIM值,本文所提出的算法PSNR明顯高于另外兩種對(duì)比算法.平均峰值信噪比達(dá)到27 dB,相較于另兩種算法最高增益可達(dá)10 dB.在SSIM方面,本文所提出的算法總體上也高于MC-WNNM、CBM3D算法,并且最低提升0.01,在每張圖片的不同算法平均增益可達(dá)0.1.
表2 不同方法去噪結(jié)果(PSNR,SSIM)實(shí)驗(yàn)結(jié)果對(duì)比
從上述實(shí)驗(yàn)結(jié)果可以看到,相比于目前對(duì)于彩色圖像去噪效果較好的MC-WNNM、CBM3D算法,本文所提出的算法在圖像恢復(fù)問(wèn)題上,可以達(dá)到更高的PSNR和SSIM值和更好的視覺(jué)效果.
針對(duì)彩色圖像去噪,提出了以Schatten-p范數(shù)作為低秩懲罰項(xiàng)的多通道雙加權(quán)Schatten-p范數(shù)最小化算法,考慮聯(lián)合處理不同通道噪聲以及不同通道的噪聲統(tǒng)計(jì)量,保證了去噪效果的優(yōu)越性.在后續(xù)工作中,將對(duì)提升算法時(shí)間效率、引入新形式的對(duì)角加權(quán)矩陣以及擴(kuò)展到高光譜圖像分析領(lǐng)域進(jìn)行研究.