陳垚佳,張永平
(1.寧波工程學(xué)院電子與信息工程學(xué)院,浙江 寧波 315211;2.太原理工大學(xué)信息工程學(xué)院,山西 太原 030024)
圖像表示問題是圖像處理任務(wù)中的重要組成部分。小波變換一直是圖像處理領(lǐng)域里應(yīng)用廣泛的變換分析工具與表示方法。但是小波變換只能表達(dá)奇異點(diǎn)位置等一維奇異特性,不能有效表示圖像的方向性、各向異性等特征。在處理高維信號的過程中,由一維小波基張成的高維小波基達(dá)不到最優(yōu)稀疏逼近,不能很好地表達(dá)圖像紋理和邊緣信息。
為了檢測、表示、處理高維奇異性,尋找圖像等高維信號的稀疏表示,研究者提出了多尺度幾何分析方法。它是基于脊波、曲波、輪廓波等完備基上的一種變換結(jié)果,能夠很好地提取線奇異特征,也一直是圖像處理領(lǐng)域的的研究熱點(diǎn)。
過完備稀疏表示方法采用過完備基來代替?zhèn)鹘y(tǒng)的正交基函數(shù),在過完備基里尋求少量元素來表示圖像的特征,由于其采用的基函數(shù)的冗余性,因此其具有更好的稀疏表達(dá)能力。近年來,過完備稀疏表示作為一種有效表示模型廣泛應(yīng)用于圖像去噪、圖像恢復(fù)等圖像處理領(lǐng)域以及圖像識別等任務(wù)中。首先介紹過完備稀疏表示的理論框架以及主要研究方向,然后分別從重構(gòu)性和區(qū)分性兩個方面對其在圖像處理及圖像分析領(lǐng)域的應(yīng)用進(jìn)行綜述。
過完備稀疏表示是針對不確定方程組的求解問題提出的。對于一個不確定性方程組Ax=b,A∈IRn×m,且n<m。在A滿秩的條件下,由于方程數(shù)目小于未知數(shù)的個數(shù),方程有無數(shù)組解。給定不同的正則約束函數(shù),不確定性方程組的解也會不同。過完備稀疏表示模型是從解的稀疏性來給不確定性方程組一種約束,使得方程組有唯一解。將其引入到信號表示理論中,信號的過完備稀疏表示即是從過完備字典里尋求最少原子的線性組合來表示信號[1-4]。
一般情況下自然圖像的數(shù)據(jù)信息也具有冗余性,因此可以在冗余字典上進(jìn)行稀疏表示。如果將圖像信號看作一維向量b,其稀疏表示是指信號b在冗余字典A下的低維投影,投影系數(shù)即為稀疏表示系數(shù)x。圖像稀疏表示問題可描述為式(1),由于式(1)是NP問題,所以往往通過式(2)來近似求解
式中:‖x‖0為x的l0范數(shù),即向量x中非零元素的個數(shù),x^為信號x在過完備字典A上的稀疏表示。
1.2.1 字典構(gòu)建方法
構(gòu)造合適的過完備字典有助于得到最優(yōu)稀疏表示。過完備字典的構(gòu)建方法可以劃分為兩類。一方面,可以通過數(shù)學(xué)模型來構(gòu)建字典。由于其模型較簡單,正交和雙正交變換的字典構(gòu)建方法一度占據(jù)主導(dǎo)地位。然而研究表明這種構(gòu)建方法得到的字典不能保證信號表示的稀疏性,進(jìn)而影響信號的重構(gòu)準(zhǔn)確度。文獻(xiàn)[5]提出利用適合刻畫圖像幾何邊緣的Bandlet基、適合刻畫紋理的Gabor基、適合刻畫輪廓的Curvelet基等不同形狀的基函數(shù)組合構(gòu)建字典。另一方面,可以通過訓(xùn)練圖像樣本來學(xué)習(xí)一組適合某一類信號特征的字典。字典學(xué)習(xí)的算法有MOD算法、組合正交基學(xué)習(xí)算法、廣義PCA算法、K-SVD算法等[6]。最常用的方法是ELAD于2006年提出的K-SVD學(xué)習(xí)算法[7]。該方法交替執(zhí)行信號在當(dāng)前字典的稀疏表示與原子的更新過程,來達(dá)到學(xué)習(xí)字典的目的。
1.2.2 稀疏分解算法
除字典構(gòu)建步驟外,設(shè)計(jì)快速有效的稀疏分解算法同樣是關(guān)系到信號表示是否最優(yōu)的關(guān)鍵步驟。文獻(xiàn)[8]將現(xiàn)有的稀疏分解算法歸納為貪婪追蹤算法、基于lp范數(shù)正則的算法、迭代收斂算法。貪婪追蹤算法包括有匹配追蹤算法(MP)以及在其基礎(chǔ)上改進(jìn)的正交匹配追蹤算法(OMP)。此類算法是以貪婪思想為核心,在每一步迭代過程中,從字典里選擇與殘差最匹配的原子來參與稀疏逼近?;趌p范數(shù)正則算法采用lp(0≤p<1)范數(shù)來代替非凸性的l0范數(shù)來對問題的解進(jìn)行稀疏約束,其中具有代表性的方法是基追蹤算法(BP)。該算法中,l1范數(shù)取代了l0范數(shù),利用l1范數(shù)能促使小系數(shù)收縮為零的特點(diǎn),將基函數(shù)選擇問題轉(zhuǎn)化成線性規(guī)劃問題。迭代收斂算法顧名思義是對稀疏系數(shù)初始化后,按照類似式(3)的迭代公式不斷進(jìn)行迭代直至收斂的過程,公式為
式中:Tθ()為收斂函數(shù)。
圖像處理是通過各種技術(shù)將源圖像處理成為視覺更能接受的圖像。圖像統(tǒng)計(jì)表明圖像碎片在過完備字典上能稀疏表示。稀疏表示理論表明信號稀疏表示能對信號進(jìn)行準(zhǔn)確的重構(gòu)?;谶^完備稀疏表示的圖像重構(gòu)是將源圖像進(jìn)行過完備稀疏表示后,再進(jìn)行圖像重構(gòu)的處理技術(shù)。下面就該技術(shù)在圖像去噪、圖像恢復(fù)、圖像融合、圖像超分辨力等圖像重構(gòu)應(yīng)用領(lǐng)域進(jìn)行綜述。
2.1.1 圖像去噪方面的應(yīng)用
圖像在傳輸過程中常受到成像設(shè)備和外部環(huán)境噪聲干擾等影響,成為含噪圖像。去噪處理是從被噪聲污染的圖像中去除噪聲恢復(fù)干凈圖像的處理過程。去噪過程要盡可能地保持原有信息的完整性,而去除信號中的無用信息。目前圖像去噪算法有空間域?yàn)V波、變換域?yàn)V波、基于偏微分方程、變分法、形態(tài)學(xué)噪聲濾除方法等?;谶^完備稀疏表示模型,研究者們提出不同的圖像去噪算法[9-14]。
文獻(xiàn)[9]提出一種全局過完備稀疏表示模型的去噪方法。該方法借助K-SVD字典學(xué)習(xí)算法的思想,給定過完備字典和所求的無噪圖像以及稀疏表示系數(shù)中的兩項(xiàng),求解第三項(xiàng),直至收斂得到所求的無噪圖像。通過對含零均值的均勻高斯白噪聲的灰度圖像進(jìn)行試驗(yàn),結(jié)果顯示在噪聲等級σ<50的情況下去噪效果良好且優(yōu)于當(dāng)前提出的其他算法。
另外,文獻(xiàn)[11-14]也均在文獻(xiàn)[9]的基礎(chǔ)上利用稀疏域模型提出新的圖像去噪算法。文獻(xiàn)[11]提出適用于彩色圖像的字典學(xué)習(xí)方法,并將文獻(xiàn)[9]中去噪算法應(yīng)用于彩色圖像去噪技術(shù)中。文獻(xiàn)[12]將文獻(xiàn)[9]中的模型在時(shí)間域擴(kuò)展應(yīng)用到圖像序列或者視頻去噪處理中,對football,tennis,garden,mobile 等圖像序列進(jìn)行實(shí)驗(yàn),結(jié)果表示與 VBM3D(28.9 dB)、NL(27.92 dB)、文獻(xiàn)[9]的去噪方法(27.08 dB)相比,本方法獲得更高的信噪比(29.23 dB)。文獻(xiàn)[13]中將過完備稀疏表示模型應(yīng)用到心電圖去噪算法中,去噪結(jié)果信噪比相比軟閾值法去噪后的圖像提高4 dB,相比平滑濾波方法處理后的圖像提高2 dB。文獻(xiàn)[14]將結(jié)構(gòu)相似度作為圖像最優(yōu)稀疏逼近的評價(jià)指標(biāo),提出了一種新的去噪方法。與文獻(xiàn)[9]中結(jié)果相比,其去噪處理后的圖像與源圖像的結(jié)構(gòu)相似度更高。
2.1.2 圖像修補(bǔ)方面的應(yīng)用
利用損壞圖像的已知信息,按照一定的規(guī)則對損壞區(qū)域進(jìn)行修補(bǔ),使修復(fù)后的圖像達(dá)到或接近源圖像的視覺效果。對破損區(qū)域進(jìn)行修補(bǔ),即是對破損區(qū)域的像素值進(jìn)行估計(jì)的過程。基于稀疏表示的圖像修補(bǔ)方法是通過對圖像破損邊緣碎片進(jìn)行稀疏表示,然后對破損部分像素進(jìn)行估計(jì)的一種方法[9,15-20]。
文獻(xiàn)[9]將過完備稀疏表示模型去噪算法應(yīng)用到彩色圖像修補(bǔ)技術(shù)中,但是該方法只能修補(bǔ)含較小損壞區(qū)域的圖像。文獻(xiàn)[15]提出一種適用于大區(qū)域修補(bǔ)的方法,該方法中,假定相似圖像區(qū)域的像素值形成子空間,使用稀疏表示尋找與破損區(qū)域相似的子空間,通過對相似子空間的像素信息進(jìn)行參數(shù)估計(jì),得到需要修補(bǔ)區(qū)域的像素值。修復(fù)后的圖像沒有模糊區(qū)域和塊特征,且被修復(fù)的區(qū)域在紋理與結(jié)構(gòu)上都符合視覺的需要。
文獻(xiàn)[16]也采用過完備稀疏表示模型研究出一種圖像修補(bǔ)算法。首先對破損邊緣區(qū)域的圖像塊進(jìn)行稀疏表示,由圖像中完整區(qū)域的像素值對應(yīng)的表示系數(shù)來計(jì)算被損壞的像素值,直到圖像完全修復(fù)。為了得到更優(yōu)稀疏表示,文獻(xiàn)[17]提出一種多尺度字典學(xué)習(xí)模型。將該模型應(yīng)用到彩色圖像和視頻修復(fù)處理中,取得較好的修復(fù)效果。
2.1.3 圖像超分辨力方面的應(yīng)用
由于圖像傳感器產(chǎn)生的圖像分辨力的限制,超分辨力問題已成為需解決的熱點(diǎn)問題。以前的超分辨力技術(shù)是通過多個圖像進(jìn)行融合得到高分辨力圖像,現(xiàn)在只通過處理一幅單圖像就可以獲取高分辨力圖像。已有的基于重構(gòu)的超分辨力方法很多,但是隨著放大系數(shù)的提高,這些方法得到的圖像已不能滿足實(shí)際需求。
基于稀疏表示的圖像超分辨力方法在文獻(xiàn)[21-24]中被提出。文獻(xiàn)[21-22]首先在稀疏表示系數(shù)相同的條件下,學(xué)習(xí)高分辨力和低分辨力兩組字典。將低分辨力圖像用低分辨力字典里的原子稀疏表示得到系數(shù),與高分辨力字典進(jìn)行重構(gòu)得到高分辨力圖像。文獻(xiàn)[23]提出不同的字典學(xué)習(xí)方法,在采用稀疏表示模型之前,對低分辨力圖像進(jìn)行預(yù)處理,這種改進(jìn)使整個計(jì)算框架得到簡化。
2.1.4 圖像壓縮方面的應(yīng)用
隨著數(shù)字化信息技術(shù)的發(fā)展,人們對數(shù)據(jù)信息的需求量日益增大。為了降低信號存儲以及傳輸成本,通常在采集信號的同時(shí)對其采取壓縮處理。
文獻(xiàn)[25]從自然信號的冗余性出發(fā),采用稀疏表示模型對數(shù)字全息圖像數(shù)據(jù)進(jìn)行壓縮,獲得壓縮系數(shù)為300的圖像數(shù)據(jù),節(jié)省了圖像存儲空間和數(shù)據(jù)采集時(shí)間。結(jié)果顯示重構(gòu)圖像與源圖像的相關(guān)度高達(dá)95%。
2.1.5 圖像融合方面的應(yīng)用
圖像融合是將多源信道所采集到的關(guān)于同一目標(biāo)的圖像經(jīng)過某種規(guī)則處理得到一幅高質(zhì)量的新圖像。大量有效的圖像融合算法都是在采用小波及多尺度分析的基礎(chǔ)上提出的。
文獻(xiàn)[26]提出基于稀疏表示的多聚焦圖像融合方法。該方法將待融合的源圖像塊在過完備字典上進(jìn)行稀疏表示,采用比較其模值絕對值大小的規(guī)則融合出一組新系數(shù),由新系數(shù)與冗余字典重構(gòu)融合圖像。實(shí)驗(yàn)表明,融合圖像很好地保留了源圖像的邊緣信息,且具有較高的清晰度。
圖像分類為目標(biāo)的識別提供了重要判斷依據(jù)。目前已經(jīng)有很多方法被提出來,例如PCA,ICA,LDA,Bayesian分類方法。對于缺損圖像的識別,部分已提出的方法卻顯得無能為力。過完備稀疏表示理論的發(fā)展,為圖像分類與識別,尤其是對缺損圖像的識別,引導(dǎo)了一種新的途徑。該模型不僅可以通過重構(gòu)得到更能被視覺所接受的圖像,而且從表示系數(shù)中可以獲得一些與被表示信號相關(guān)的語義信息,這種語義信息則可以為圖像提供分類的依據(jù)。
2.2.1 人臉識別方面的應(yīng)用
基于過完備稀疏表示的人臉識別是采用該模型進(jìn)行圖像分類的最典型應(yīng)用[28-32]。文獻(xiàn)[28]以該模型為基礎(chǔ)提出一種人臉識別算法。以人臉圖像庫中人臉圖像作為原子構(gòu)建過完備字典,計(jì)算被識別圖像在此字典上的稀疏表示系數(shù),根據(jù)系數(shù)中的非零項(xiàng)來判斷被識別圖像的身份。通過對人臉圖像庫的多項(xiàng)試驗(yàn),表明該方法是一種有效的識別方法,且對含有噪聲和閉塞的人臉圖像具有較強(qiáng)穩(wěn)健性。
文獻(xiàn)[30]提出了基于區(qū)域稀疏表示的人臉識別算法。將各個區(qū)域的表示結(jié)果進(jìn)行加權(quán),通過加權(quán)后的結(jié)果對人臉表情進(jìn)行識別。該算法正確識別率達(dá)到95.3%,并且能識別缺損范圍為25%的圖像。相比基于整體臉部識別的算法,對于同一缺損圖像,該算法識別率更高。
文獻(xiàn)[31]將稀疏表示分類算法推廣到時(shí)域人臉圖像識別中,通過試驗(yàn)得出,與SIFT算法的識別率93.83%相比,該算法識別率成功的提高到了94.45%。
2.2.2 其他識別領(lǐng)域的應(yīng)用
過完備稀疏表示在文字檢測、圖像分類等其他識別領(lǐng)域也得到了廣泛的應(yīng)用[33-38]。文獻(xiàn)[33]利用稀疏表示的稀疏度來衡量待認(rèn)證的藝術(shù)作品與真品的相似度,由相似度來區(qū)分珍品與模仿品,由試驗(yàn)結(jié)果得出該方法優(yōu)于基于小波分解的方法。
文獻(xiàn)[34-35]提出采用稀疏表示模型進(jìn)行文字檢測的方法。文字檢測是從帶有文字的圖片中將文字檢測出來。文獻(xiàn)[34]中首先對文字邊緣進(jìn)行采樣學(xué)習(xí)得到過完備字典,使用Canny算子檢測出圖片里的邊緣,將這些邊緣在學(xué)習(xí)到的字典上稀疏表示,根據(jù)稀疏表示模型得到的系數(shù)進(jìn)行判斷是否為文字邊緣,從而達(dá)到文字檢測的目的。文獻(xiàn)[35]的方法不同之處是該方法學(xué)習(xí)了兩類不同的字典——關(guān)于文字內(nèi)容的字典和關(guān)于背景內(nèi)容的字典,然后根據(jù)在兩組字典上進(jìn)行稀疏表示的重構(gòu)誤差大小來判斷待檢測圖像塊是文字還是為背景。采用該方法對不同類別的圖像試驗(yàn),結(jié)果表明可以從圖像中檢測出不同尺寸、顏色、字體的文字。
本文介紹了過完備稀疏表示模型理論框架,重點(diǎn)對其在圖像處理與分析領(lǐng)域的應(yīng)用進(jìn)行綜述。過完備稀疏表示模型進(jìn)一步豐富了圖像稀疏表示領(lǐng)域,它作為一種自適應(yīng)表示方法,在圖像去噪、圖像修復(fù)、圖像超分辨力、圖像融合、圖像壓縮、圖像分類與識別等領(lǐng)域都得到了有效的運(yùn)用。但是過完備稀疏表示問題屬于一種優(yōu)化問題,涉及到字典學(xué)習(xí)和稀疏求解的計(jì)算過程比較復(fù)雜,設(shè)計(jì)出更為簡單的稀疏求解算法和更適合特定類別信號的字典構(gòu)建方法在未來的研究中顯得尤其重要。
[1]BARANIUK R G,CANDES E,ELAD M,et al.Applications of sparse representation and compressive sensing[J].Proceedings of the IEEE,2010,98(6):906-909.
[2]WRIGHT J,YI M,MAIRAL J,et al.Sparse representation for computer vision and pattern recognition[J].Proceedings of the IEEE,2010,98(6):1031-1044.
[3]FADILI M J,STARCK J L,BOLIN J,et al.Image decomposition and separation using sparse representations:an overview[J].Proceedings of the IEEE,2010,98(6):983-994.
[4]ELAD M,F(xiàn)IGUEIREDO M A T,YI M.On the role of sparse and redundant representations in image processing[J].Proceedings of the IEEE,2010,98(6):972-982.
[5]PEYRE G.Best basis compressed sensing[J].Lecture Notes in Computer Science,2007,4485:80-91.
[6]RUBINSTEIN R,BRUCKSTEIN A M,ELAD M.Dictionaries for sparse representation modeling[J].Proceedings of the IEEE,2010,98(6):1045-1057.
[7]AHARON M,ELAD M,BRUCKSTEIN A M.The K-SVD:an algorithm for designing of overcomplete dictionaries for sparse representations[J].IEEE Trans.Image Process,2006,54(11):4311-4322.
[8]YANG Jingyu,PENG Yigang,XU Wenli,et al.Ways to sparse representation:an overview[J].Science in China Series F:Information Sciences,2009,52(4):695-703.
[9]ELAD M,AHARON M.Image denoising via sparse and redundant representation over learned dictionaries[J].IEEE Trans.Image Processing,2006,15(12):3736-3745.
[10]ELAD M,AHARON M.Image denoising via learned dictionaries and sparse representation[C]//Proc.Conf.Computer Vision and Pattern Recognition.New York:[s.n.],2006:17-22.
[11]MAIRAL J,ELAD M,SAPIRO G.Sparse representation for color image restoration[J].IEEE Trans.Image Process,2008,17(1):53-49.
[12]PROTTER M,ELAD M.Image sequence denoising via sparse and redundant representations[J].IEEE Trans.Image Process,2009,18(1):27-35.
[13]GHAFFARI A,PALANGI H,BABAIE-ZADEH M,et al.ECG denoising and compression by sparse 2D separable transform with overcomplete mixed dictionaries[C]//Proc.IEEE International Workshop on Machine Learning for Signal Processing.Grenoble:IEEE Press,2009:1-6.
[14]RWHMAN A,ZHOU W,BRUNEI D,et al.SSIM-inspired image denoising using sparse representations[C]//Proc.2011 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP).Prague:IEEE Press,2011:1121-1124.
[15]MOBAHI H,RAO S R,YI M.Data-driven image completion by image patch subspaces[C]//Proc.27th Conference on Picture Coding Symposium.Piscataway,NJ:[s.n.],2009:241-244.
[16]SHEN B,HU W,ZHANG YIMIN.Image inpainting via sparse representation[C]//Proc.2009 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP).Taipei:IEEE Press,2009:697-700.
[17]MARIAL J,SAPIRO G,ELAD M.Learning multiscale sparse representations for image and video restoration[J].SIAM Multiscale Modeling and Simulation,2008,7(1):214-241.
[18]MAIRAL J,BACH F,PONCE J,et al.Non-local sparse models for image restoration[C]//Proc.IEEE 12th International Conference on Computer Vision.Kyoto:IEEE Press,2009:2272-2279.
[19]FADILI M J,STARCK J L,MURTAGH F.Inpainting and zooming using sparse repressentations[J].The Computer Journal,2009,52(1):64-79.
[20]VALIOLLAHZADEH S M,NAZARI M,BABAIE-ZADEH M,et al.A new approach in decomposition over multiple-overcomplete dictionaries with application to image inpainting[C]//Proc.IEEE International Workshop on Machine Learning for Signal Processing.Grenoble:IEEE Press,2009:1-6.
[21]YANG J C,WRIGHT J,HUANG T,et al.Image super-resolution as sparse representation of raw image patches[C]//Proc.IEEE Conference on Computer Vision and Pattern Recognition.Anchorage,AK:IEEE Press,2008:1-8.
[22]YANG J C,WRIGHT J,HUANG T S,et al.Image super-resolution via sparse representation[J].IEEE Trans.Image Processing,2010,19(11):2861-2873.
[23]ROMAN Z,ELAD M,PROTTER M.On single image scale-up using sparse-representation[C]//Proc.7th International Conference on Curves Surfaces.Avignon,F(xiàn)rance:[s.n.],2010:711-730.
[24]WANG Jinjun,ZHU Shenghuo,GONG Yihong.Resolution enhancement based on learning the sparse association of image patches[J].Pattern Recognition Letters,2010,31(1):1-10.
[25]MEMMOLO P,PATURZO M,PELAGOTTI A.Compression of digital holograms via adaptive-sparse representations[J].Optics Letters,2010,35(23):3883-3885.
[26]YANG B,LI S T.Multifocus image fusion and restoration with sparse representation[J].IEEE Trans.Instrumentation and Measurement,2010,59(4):884-892.
[27]YANG B,LI S T.Pixel-level image fusion with simultaneous orthogonal matching pursuit[J].Information Fusion,2012,13(1):10-19.
[28]WRIGHT J,YANG A Y,GANESH A,et al.Robust face recognition via sparse representation[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2009,31(2):210-227.
[29]YI Chen,DO T T,TRAN T D.Robust face recognition using locally adaptive sparse representation[C]//Proc.17th IEEE International Conference on Image Processing(ICIP).Hong Kong:IEEE Press,2010:1657-1660.
[30]COTTER S F.Weighted voting of sparse representation classifiers for facial expression recognition[EB/OL].[2011-12-20].http://media.aau.dk/CRISSP/2010/09/paper-of-the-day-pod-weightedvoting-of-sparse-representation-classifiers-edition.html.
[31]NASEEM I,TOGNERI R,BENNAMOUN M.Sparse representation for video-based face recognition[J].Lecture Notes in Computer Science,2009,5558(2009):219-228.
[32]LI Xiaoxing,JIA Tao,ZHANG Hao.Expression-insensitive 3D face recognition using sparse representation[C]//Proc.IEEE Conference on Pattern Recognition.Miami,F(xiàn)L:IEEE Press,2009:2575-2582.
[33]HUGHES J M,GRAHAM D J,ROCKMORE D N.Quantification of artistic style through sparse coding analysis in the drawings of Pieter Bruegel the Elder[J].PNAS,2010,1079(4):1279-1283.
[34]PAN W,BUI T D,SUEN C Y.Text detection from scene image using sparse representation[C]//Proc.19th International Conference on Pattern Recognition.Tampa FL:IEEE Press,2008:1-5.
[35]ZHAO Ming,LI Shutao,KWOK J.Text detection in images using sparse representation with discriminative dictionaries[J].Image and Vision Computing,2010,28(12):1590-1599.
[36]PATEL V M,NASRABADI N M,CHELLAPPA R.Automatic target recognition based on simultaneous sparse representation[C]//Proc.17th IEEE International Conference on Image Processing.Hong Kong:IEEE Press,2010:1377-1380.
[37]CHEN Y,NASRABADI N M,TRAN T D.Sparsity-based classification of hyperspectral imagery[C]//Proc.2010 IEEE International Conference on Geoscience and Remote Sensing Symposium.Honolulu:IEEE Press,2010:2796-2799.
[38]MARTIN A,F(xiàn)UCHS J J,GUILLEMOT C,et al.Sparse representation for image prediction[EB/OL].[2011-12-20].http://www.irisa.fr/temics/publis/2007/SparseRepresentationForImagePrediction10_06.pdf.