周 苑,周 巖,李慧敏
(1.河南工程學(xué)院 計(jì)算機(jī)學(xué)院,河南 鄭州451191;2.云南民族大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,云南 昆明650031)
現(xiàn)有的超分辨技術(shù)大致可分為3 類:基于插值的方法[1,2]、基 于 正 則 項(xiàng) 的 方 法[3,4]和 基 于 學(xué) 習(xí) 的 方 法?;?于 插值的方法重建的圖像容易產(chǎn)生過渡平滑現(xiàn)象,并且伴隨有振鈴和鋸齒瑕疵;基于正則項(xiàng)的方法則不能夠?qū)φ鎸?shí)圖像的復(fù)雜性進(jìn)行建模且在選擇合適的正則化參數(shù)上存在局限性;基于學(xué)習(xí)的方法與前兩類方法相比,能夠引入大量的先驗(yàn)知識(shí),很好地重建圖像的高頻細(xì)節(jié),正是由于這個(gè)原因,基于學(xué)習(xí)的方法已成為近幾年研究的焦點(diǎn)。
基于學(xué)習(xí)的方法一般通過學(xué)習(xí)得到低分辨率圖像塊及其對(duì)應(yīng)高分辨率圖像塊之間的關(guān)系,然后利用這種關(guān)系對(duì)低分辨率圖像中丟失的高頻信息進(jìn)行預(yù)測(cè)。Yang等[5]利用基于學(xué)習(xí)的方法,提出了一種稀疏表示的方法用于重建高分辨率圖像,這種方法假設(shè)高低分辨率圖像塊在對(duì)應(yīng)的過完備字典下有相同的稀疏表示;Jing等[6]提出了一種多空間的稀疏表示方法,該方法首先將圖像分解為結(jié)構(gòu)成分和紋理細(xì)節(jié),然后通過分別對(duì)結(jié)構(gòu)成分和紋理細(xì)節(jié)進(jìn)行編碼來得到高分辨率的圖像;Yang等[7]提出了一種基于多幾何字典的分簇的稀疏編碼策略,該方法首先訓(xùn)練幾何簇的幾何字典,然后高分辨率圖像塊在不同的幾何字典下進(jìn)行稀疏的編碼;文獻(xiàn)[8]對(duì)Yang的算法進(jìn)行進(jìn)一步研究,提出了局部正則化參數(shù)自適應(yīng)的方法。近來的研究表明,重建圖像的質(zhì)量很大程度上取決于圖像的幾何結(jié)構(gòu),在稀疏表示中利用潛在的幾何結(jié)構(gòu)信息去加強(qiáng)其穩(wěn)定性是很重要的[9]。通過將圖像結(jié)構(gòu)的非局部自相似性 (non-local self-similarity)引入到稀疏系數(shù)空間[10,11],很好地保護(hù)了圖像的幾何結(jié)構(gòu)。然而這種方法丟失圖像塊之間的差異性,使重建的圖像過渡平滑。為了解決這個(gè)問題,我們提出了一種非局部Laplacian稀疏表示方法,與之前的稀疏表示方法相比,提出的方法同時(shí)保護(hù)了圖像的幾何結(jié)構(gòu)和不同圖像塊之間的差異性,從視覺效果和客觀評(píng)價(jià)指標(biāo)上都取得了更好的效果。
在文獻(xiàn) [5]中,Yang等通過強(qiáng)迫對(duì)應(yīng)的高低分辨率圖像塊具有相同的稀疏表示,對(duì)大量對(duì)應(yīng)的高低分辨率圖像塊的學(xué)習(xí)建立高分辨率字典Dh和低分辨率字典Dl,計(jì)算待重建低分辨率圖像塊在Dl下的稀疏表示a,根據(jù)高低分辨率圖像塊具有相同的稀疏表示a,由稀疏表示a 選擇Dh中的原子塊進(jìn)行線性組合從而重建出高分辨率圖像塊。
計(jì)算低分辨率圖像塊y 在低分辨率字典Dl下的稀疏表示a 是重要的一步,其可以由式 (1)定義
其中,F(xiàn) 為特征提取算子,主要作用是保證稀疏系數(shù)α盡可能接近y。但是式 (1)的求解是NP-HARD問題,是非凸化問題。已經(jīng)有學(xué)者證明在在足夠稀疏的條件下,l1范問題是最接近零范數(shù)的凸優(yōu)化問題,所以大量的研究集中于如何利用l1范優(yōu)化來近似求解上述零范數(shù)問題,即轉(zhuǎn)化為解下式的問題
式 (2)可進(jìn)一步改寫為式 (3)
其中,參數(shù)λ是稀疏正則項(xiàng)參數(shù)。但是對(duì)于單獨(dú)的每個(gè)局部圖像塊解式 (3)并不能保證相鄰圖像塊之間的兼容性。為了保證鄰近圖像塊之間的兼容性,修改式 (3)使低分辨率圖像塊的重建圖像塊Dhα 與之前計(jì)算的相鄰圖像塊更接近,如式 (4)所示
其中,矩陣P 表示提取當(dāng)前目標(biāo)圖像塊與之前重建圖像塊之間的重疊區(qū)域,ω 為之前重建圖像重疊部分的值,式 (5)可以寫為
在上節(jié)中我們假設(shè)字典Dh、Dl是已經(jīng)訓(xùn)練得到的,那么這兩個(gè)字典是如何訓(xùn)練得到。在Yang提出雙字典訓(xùn)練之前,已有作者提出單個(gè)字典訓(xùn)練的模型,如下
其中,X =[x1,…,xn]∈Rm×n,xi為圖像塊,D =[d1,…,dn]∈Rm×k,S=[s1,…,sn]∈Rk×n,si為xi在字典D 下的稀疏表示。
在超分辨率重建中,對(duì)于高低分辨率樣本圖像庫(kù),我們從中提取大量高分辨率圖像塊集Xh={x1,x2,…,xn}和與其對(duì)應(yīng)的低分辨率圖像塊集Yh={y1,y2,…,yn},仿照式 (6)訓(xùn)練高分辨率字典Dh和低分辨率字典Dl
我們強(qiáng)迫高低分辨率圖像塊的稀疏表示相同,對(duì)式(7)、式 (8)進(jìn)行組合
其中,Xc=。
這樣就可以按照單字典學(xué)習(xí)策略來同時(shí)訓(xùn)練雙字典。
從上節(jié)中我們可以將傳統(tǒng)的稀疏表示模型總結(jié)為式(11)
其中,X =[x1,…,xn]∈Rm×n,xi為圖像塊,S =[s1,…,sn]∈Rk×n,si為xi在字典D 下的稀疏系數(shù)。
有關(guān)的研究結(jié)果表明,關(guān)于圖像幾何結(jié)構(gòu)的一個(gè)重要先驗(yàn)條件就是在自然圖像中往往包含相似的結(jié)構(gòu)塊,但是由于稀疏表示方法具有潛在的不穩(wěn)定性,具有相似幾何結(jié)構(gòu)的圖像塊經(jīng)常有不同的稀疏系數(shù),從而導(dǎo)致了重建出不準(zhǔn)確的幾何結(jié)構(gòu)[12]。因此很有必要利用圖像的非局部自相似性去穩(wěn)定稀疏表示。這種先驗(yàn)約束正則項(xiàng)已被引入到圖像重建中去[10,11],可以用式 (12)表示
將式 (12)引入傳統(tǒng)的稀疏表示模型式 (11)中得到式 (13)
這種稀疏表示模型利用稀疏系數(shù)的自相似性減少了稀疏表示的誤差,保護(hù)圖像的幾何結(jié)構(gòu)。值得注意的是,從式(12)可以看到這種非局部先驗(yàn)知識(shí)其實(shí)是一個(gè)融合的過程,它將非局部區(qū)域內(nèi)K個(gè)相似的圖像塊進(jìn)行加權(quán)融合,這樣雖然保護(hù)了圖像幾何結(jié)構(gòu),但是丟失了圖像塊中的一些細(xì)節(jié)信息。因此重建后的非局部塊之間是非常相似的,導(dǎo)致重建后的結(jié)果變得過度平滑。換句話說,在融合之后,圖像塊之間的差異性丟失了。為了保護(hù)這種差異性,引入了文獻(xiàn) [13]提出的Laplacian稀疏系數(shù)約束正則項(xiàng),如式(14)所示
其中,L=F*-W*為L(zhǎng)aplacian矩陣,W*為保護(hù)圖像塊之間差異性的權(quán)重矩陣,其元素為圖像塊xi和xj的相似權(quán)重。如果xi為xj的K′個(gè)最近鄰塊中一個(gè)或者xj為xi的K′個(gè)最近鄰塊中一個(gè)時(shí),,其它情況下,=0。F*為對(duì)角矩陣,其第i個(gè)元素為與xi相關(guān)的所有權(quán)重之和,即。
把式 (14)同時(shí)引入式 (13),提出了式 (15)所示的非局部Laplacian稀疏表示模型
式 (15)的l1范數(shù)最小化問題可以通過文獻(xiàn) [14]中的feature-sign search搜索算法和文獻(xiàn) [15]中的迭代最優(yōu)化算法求解。
如上節(jié)中提到的,仿照式 (7)和式 (8),利用提出的稀疏表示模型式 (15)訓(xùn)練高低分辨字典Dh、Dl
將式 (16)、式 (17)合并為式 (18)
通過式 (19)計(jì)算出si后,我們就可以通過=恢復(fù)高分辨率圖像塊,將多個(gè)高分辨率圖像塊進(jìn)行組合后得到高分辨率圖像X*。
在實(shí)驗(yàn)中,我們對(duì)測(cè)試圖像進(jìn)行3 倍放大重建,并與Bicubic插值、文獻(xiàn) [5]、文獻(xiàn) [11]等方法從主觀視覺和客觀評(píng)價(jià)指標(biāo)上進(jìn)行對(duì)比。客觀評(píng)價(jià)指標(biāo)為尖峰信噪比(peak signal to noise ratio,PSNR)和 結(jié)構(gòu)相似度 (structural similarity,SSIM),其計(jì)算方法分別如下
式中:M、N——重建圖像的尺度,f——原始的高分辨率圖像,——重建后的超分辨率圖像。
式中,l(f,g)——亮度變化,c(f,g)——差異變化,s(f,g)——結(jié)構(gòu)變化。其定義如式 (22)~式 (24)所示
其中,f 和g 表示兩幅圖像,μf 和μg 表示圖像的均值,σf和σg表示它們的方差,σfg表示它們的協(xié)方差。C1,C2,C3為比較小的常數(shù),用來確保分母不等于零。
實(shí)驗(yàn)測(cè)試庫(kù)圖像來源于文獻(xiàn) [5]和文獻(xiàn) [11],訓(xùn)練庫(kù)圖像 來 源 于Berkeley Segmentation Data Set and Benchmarks 500 (BSD500),并從中選取80幅自然圖像,包括植物、動(dòng)物、建筑、人類等,并隨機(jī)采取50 000對(duì)5×5圖像塊來訓(xùn)練大小為512原子的字典。最近鄰個(gè)數(shù)K =5,K’=5,正則項(xiàng)參數(shù)λ,λ1,λ2分別為0.1,0.2,0.02。
表1和表2分別列出了4幅不同圖像采用不同重建方法的PSNR 和SSIM。從表1、表2中可以看出本文提出的算法在幾種對(duì)比方法中PSNR 和SSIM 取得了最高值。
表1 不同方法重建圖像的PSNR
表2 不同方法重建圖像的SSIM
為了展示不同算法重建圖像的視覺效果,我們選取其中Boats重建結(jié)果進(jìn)行對(duì)比,如圖1和圖2的局部放大圖中可以看出,本文算法相對(duì)于其它算法取得更好的視覺效果。如圖1中 “650”以及圖2中鸚鵡眼睛周圍,Bicubic插值的邊緣模糊且存在鋸齒瑕疵,文獻(xiàn) [5]算法重建結(jié)構(gòu)不準(zhǔn)確,文獻(xiàn) [11]算法結(jié)構(gòu)較為準(zhǔn)確但存在過渡模糊的現(xiàn)象,而本文算法結(jié)構(gòu)準(zhǔn)確,邊緣清晰銳化,更加接近原始圖像。
圖1 Boats重建結(jié)果及其局部放大圖
圖2 Parrot重建結(jié)果及其局部放大圖
本文針對(duì)傳統(tǒng)的稀疏表示模型進(jìn)行了改進(jìn),提出了一種同時(shí)結(jié)合圖像的非局部自相似性和圖像塊之間一對(duì)一關(guān)系的稀疏表示重建方法。從主觀視覺和客觀評(píng)價(jià)兩個(gè)方面驗(yàn)證了本文算法的有效性。與其它的算法相比,本文算法能夠取得更高的PSNR 和SSIM,并且與傳統(tǒng)的稀疏表示相比,改善了圖像的視覺效果,是重建圖像的幾何結(jié)構(gòu)更加準(zhǔn)確,紋理更加清晰銳化。
[1]Li M,Nguyen TQ.Markov random field model-based edge-directed image interpolation [J].IEEE Transactions on Image Processing,2008,17 (7):1121-1128.
[2]Zhang X J,Wu X L.Image interpolation by adaptive 2Dautoregressive modeling and soft-decision estimation [J].IEEE Transactions on Image Processing,2008,17 (6):887-896.
[3]Zhang K B,Gao X B,Tao D C,et al.Single image super-resolution with non-local means and steering kernel regression[J].IEEE Transactions on Image Processing,2012,21 (11):4544-4556.
[4]Villena S,Vega M,Babacan S D,et al.Bayesian combination of sparse and non-sparse priors in image super resolution [J].Journal of Digital Signal Processing,2013,23 (2):530-541.
[5]Yang J C,Wright J,Huang T S,et al.Image super-resolution via sparse representation [J].IEEE Transactions on Image Processing,2010,19 (11):2861-2873.
[6]Jing G D,Shi Y H,Kong D H,et al.Image super-resolution based on multi-space sparse representation [C]//The Second International Conference on Internet Multimedia Computing and Service,2010:11-14.
[7]Yang S Y,Wang M,Chen Y G,et al.Single-image superresolution reconstruction via learned geometric dictionaries and clustered sparse coding [J].IEEE Transactions on Image Processing,2012,21 (9):4016-4028.
[8]ZHANG Yao,XU Bin,ZHOU Shangbo,et al.Image superresolution with adaptive regularization sparse representation[J].Application Research of Computers,2013,30 (3):938-941 (in Chinese).[張垚,徐斌,周尚波,等.基于稀疏表示的自適應(yīng)圖像超分辨率重建算法 [J].計(jì)算機(jī)應(yīng)用研究,2013,30 (3):938-941.]
[9]Lu XQ,Yuan HL,Yan PK,et al.Geometry constrained sparse codingfor single image super resolution [C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition,2012:1648-1655.
[10]Dong WS,Zhang L,Shi GM.Centralized sparse representation for image restoration [C]//Proc of IEEE International Conference on Computer Vision,2011:1259-1266.
[11]Dong W S,Zhang L,Lukac R,et al.Sparse representation based image interpolation with nonlocal autoregressive modeling[J].IEEE Trans Image Process,2013,22 (4):1382-1394.
[12]Zheng M,Bu J,Chen C,et al.Graph regularized sparse coding for image representation [J].IEEE Transactions on Image Processing,2011,20 (5):1327-1336.
[13]Gao SH,Tsang WH,Chia LT.Laplacian sparse coding,hypergraph Laplacian sparse coding,and applications[J].IEEE Trans Pattern Anal Mach Intell,2013,35 (1):92-104.
[14]Zheng M,Bu JJ,Chen C,et al.Graph regularized sparse coding for image representation [J].IEEE Trans Image Process,2011,20 (5):1327-1336.
[15]Setzer S,Steidl G,Teuber T.Deblurring poissonian images by split bregman techniques[J].Journal of Visual Communication and Image Representation,2010,21 (3):193-199.