• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      HCT變換與聯(lián)合稀疏模型相結(jié)合的遙感影像融合

      2016-05-16 08:39:43肖新耀尤紅建曹銀貴
      測繪學報 2016年4期

      許 寧,肖新耀,尤紅建,曹銀貴

      1. 中國科學院空間信息處理與應(yīng)用系統(tǒng)技術(shù)重點實驗室,北京 100190; 2. 中國科學院電子學研究所,北京 100190; 3. 中國科學院大學,北京 100049; 4. 中國地質(zhì)大學(北京)土地科學技術(shù)學院,北京 100083

      ?

      HCT變換與聯(lián)合稀疏模型相結(jié)合的遙感影像融合

      許寧1,2,3,肖新耀1,2,3,尤紅建1,2,曹銀貴4

      1. 中國科學院空間信息處理與應(yīng)用系統(tǒng)技術(shù)重點實驗室,北京 100190; 2. 中國科學院電子學研究所,北京 100190; 3. 中國科學院大學,北京 100049; 4. 中國地質(zhì)大學(北京)土地科學技術(shù)學院,北京 100083

      摘要:提出了一種基于HCT變換和聯(lián)合稀疏模型的遙感影像融合方法,可更有效地利用多光譜所需譜段的光譜信息,最終得到所需譜段的融合影像。該方法將所需譜段的多光譜影像進行HCT變換,獲取其亮度分量和角度分量;然后利用亮度分量和全色影像小波變換的低頻分量進行聯(lián)合稀疏模型的構(gòu)建、系數(shù)求解和融合,得到融合的全色低頻分量;最后將該低頻分量與前面步驟所得其他分量分別進行小波逆變換和HCT逆變換,得到高質(zhì)量的融合影像。試驗利用Pleiades-1和WorldView-2兩種衛(wèi)星數(shù)據(jù)進行驗證,并通過視覺效果和量化的融合評價指標進行對比和分析,驗證了本文算法的有效性。

      關(guān)鍵詞:影像融合;聯(lián)合稀疏模型;HCT變換;全色圖像;多光譜圖像

      全色和多光譜影像融合旨在結(jié)合全色影像的空間細節(jié)和多光譜影像的光譜信息,得到空間分辨率和光譜分辨率兼優(yōu)的高質(zhì)量多光譜影像,有利于遙感影像的分類和目標識別等后續(xù)處理[1]。迄今為止,學者們提出了很多方法,這些方法可概括為基于組分替換、多分辨率分析以及稀疏表示的融合方法。其中,經(jīng)典的組分替換融合方法有IHS變換[2]、PCA變換[3]算法,以及改進的組分替換算法GSA[4]、PRACS[5]等,這類算法在變換域內(nèi)用全色譜段代替多光譜的某一個分量,并通過逆變換得到融合影像,算法計算簡單,融合影像空間分辨率高,但是存在一定的光譜失真。而多分辨率分析方法,則是通過提取全色影像的高頻信息來彌補多光譜影像缺少的細節(jié),例如經(jīng)典的WT[6]、AWLP[7]、NSCT[8]、CBD[9]等,這類方法在光譜保持方面得到了提升,但會損失一定的全色高頻細節(jié)信息。另外,一種用于信號時-頻變換的EMD[10]方法在遙感影像融合領(lǐng)域得到了應(yīng)用,但也需結(jié)合IHS變換來獲得更好的效果[11]。近年來,基于稀疏表示的遙感影像融合方法[12-15]得到了快速的發(fā)展,其通過大量參考影像進行訓(xùn)練,得到的冗余字典往往具有自適應(yīng)性,更加符合人眼視覺特性,能夠充分地考慮到圖像本身的幾何正則性,用于彩色圖像融合具有較好的光譜特性保持特點。但這類方法通常需要在融合過程中進行冗余字典的訓(xùn)練、稀疏系數(shù)解算和數(shù)據(jù)的重構(gòu),計算復(fù)雜度高,實時性差。

      為了兼顧這3類方法的優(yōu)點,獲取更高質(zhì)量的融合影像,出現(xiàn)了IHS-WT[16]、DCT-IHS[17]、SVT-APCA[18]、IHS-CS[19]等一系列組合架構(gòu)的融合方法。這類方法所表現(xiàn)出的良好的融合影像質(zhì)量,確立了光譜和空間信息保持的遙感影像融合的一個重要研究方向。然而,這種組合架構(gòu)的融合方法通常需要進行組分替換類方法的參與(如IHS色彩空間變換),只有部分譜段(通常為3個譜段)用于變換處理,難以利用多光譜數(shù)據(jù)所有譜段的光譜信息,導(dǎo)致光譜畸變[20]仍然存在于融合影像中,使得這類遙感影像融合方法仍然需要進一步提升光譜信息的保持能力?;谙∈璞硎镜娜诤戏椒m然在光譜保持上體現(xiàn)了一定優(yōu)勢,但其需要對遙感數(shù)據(jù)進行逐波段的稀疏求解和重構(gòu),對多光譜數(shù)據(jù)的處理無疑會導(dǎo)致計算復(fù)雜度大量增加。針對這些問題,并綜合考慮到組合架構(gòu)融合方法的優(yōu)勢,本文提出了一種基于HCT變換[21]和聯(lián)合稀疏模型的遙感影像融合方法。HCT變換不僅能實現(xiàn)組分替換類融合方法的良好空間信息保持特性,同時能夠?qū)骖櫲我獠ǘ蔚亩喙庾V圖像進行處理,而聯(lián)合稀疏表示方法能夠更好地保持多光譜的光譜特性,進一步提升組合架構(gòu)下遙感影像的融合質(zhì)量。另外,由于只采用HCT變換的亮度分量參與稀疏表示求解和重構(gòu),無須逐波段進行處理,相較傳統(tǒng)的稀疏表示融合方法,計算復(fù)雜度得以簡化。

      1稀疏表示和HCT變換

      1.1稀疏表示模型

      稀疏表示是壓縮感知理論的基礎(chǔ)之一,其利用字典中少量原子的線性組合來描述信號,圖像信息越稀疏,稀疏表示就越準確。假設(shè)信號{xi,i=1,2,…,K},xi∈Rn,字典矩陣D∈Rn×T中的每一列都是一個原子,根據(jù)稀疏表示理論[22],信號可以表示為

      x=Dα

      (1)

      式中,α為對應(yīng)的稀疏系數(shù)。由于n≤T,該問題的求解是欠定的,稀疏表示就是尋找其中的最稀疏解,即稀疏系數(shù)α中非零元素個數(shù)最少的解。通過下面的優(yōu)化問題[23],可以實現(xiàn)此目的

      (2)

      基于稀疏表示模型和信號特點,文獻[25]提出了一種聯(lián)系多個信號的聯(lián)合稀疏表示模型(joint sparsity model-1,JSM-1)。該模型認為所有信號可由一個共有的公共成分(common component)和一個各自的差異成分組成(innovation component)。以兩個信號為例

      (3)

      (4)

      將上述公式級聯(lián)起來,用矩陣的形式表示為

      (5)

      (6)

      對此方程進行求解可以分別得到信號的公共稀疏成分和各自稀疏成分。針對全色和多光譜遙感圖像融合,通過聯(lián)合稀疏表示模型的分析,提出這種利用聯(lián)合稀疏模型有效提取兩類待融合圖像之間的冗余信息和互補信息的方法,通過對互補信息的融合,使得影像的融合結(jié)果包含更多的信息,以此獲得更全面信息量的融合圖像的方法。

      1.2HCT變換方法

      實際遙感衛(wèi)星在多光譜圖像獲取過程中,不僅采集RGB譜段數(shù)據(jù),還包括近紅外等其他波段。但常規(guī)的色彩空間變換融合方法只選擇RGB 3個譜段進行融合處理,難以有效利用其他譜段的光譜信息,導(dǎo)致融合結(jié)果光譜畸變大。超球面色彩變換(hyperspherical color transformation,HCT)[21]將圖像從原始笛卡爾空間變換到超球面空間。由于該變換可不限參與變換的波段,可以比對全色數(shù)據(jù)的光譜響應(yīng)范圍,選擇多光譜影像的R、G、B以及近紅外波段進行處理,這樣可以進一步減小常規(guī)三波段變換時近紅外波段光譜信息的缺失導(dǎo)致的融合結(jié)果的光譜畸變。

      對于一幅具有N波段的圖像{bandi}i=1:N,經(jīng)過該變換,可以得到在超球面空間中的亮度變量I和N-1個角度變量,即

      (7)

      (8)

      式中,bandi是輸入的第i個波段;I是亮度成分;φ1、φ2、…、φN-1是N-1個角度變量,表示顏色或者色度??梢钥吹?,亮度與色度完全獨立,這也是基于HCT變換的融合最重要的特征。

      對應(yīng)的HCT變換的逆變換可表示為

      (9)

      bandN=Isinφ1sinφ2…sinφN-2sinφN-1

      (10)

      與IHS[2]等彩色空間的變換相似,HCT變換參與的遙感圖像融合也是一種組分替代的融合方式,但同IHS等彩色空間變換相比,HCT可根據(jù)需要選擇部分或全部遙感圖像波段參與變換,這樣可以有針對性地利用所需波段的信息。

      2基于HCT和聯(lián)合稀疏表示模型的融合方法

      采用HCT變換可以克服IHS算法由于多光譜數(shù)據(jù)無近紅外譜段參與(全色通常包括近紅外光譜范圍),導(dǎo)致植被等地物存在較大光譜畸變的弱點。受到組合架構(gòu)融合方法的啟示,本文在HCT變換基礎(chǔ)上引入聯(lián)合稀疏表示模型,通過分解全色數(shù)據(jù)和多光譜數(shù)據(jù)的冗余和本征信息,從而更有效地利用兩類數(shù)據(jù)的差異信息,進一步減小HCT融合處理中光譜的畸變,實現(xiàn)融合影像光譜信息保持的優(yōu)化。在實際處理流程設(shè)計過程中,通過只對HCT變換亮度分量的聯(lián)合稀疏處理,減小傳統(tǒng)稀疏表示融合方法逐波段處理的計算復(fù)雜度。因此,本文提出的基于HCT和JSM-1模型的全色與多光譜影像融合方法,旨在綜合利用HCT變換和JSM-1模型的優(yōu)勢,實現(xiàn)任意波段的多光譜圖像和全色圖像的融合處理,以期獲得更好的融合效果。

      本方法可以分解為4個部分,如圖1所示。第1部分為原始數(shù)據(jù)的預(yù)處理,主要包括完成原始多光譜圖像的升采樣;第2部分為多光譜數(shù)據(jù)的HCT變換,得到亮度分量和角度分量;第3部分為小波變換處理,可以分解出低頻系數(shù)進行處理;第4部分為聯(lián)合稀疏表示處理,可以獲得更好的融合系數(shù)。假設(shè)全色圖像大小為G1×G2,基于HCT和JSM-1模型融合處理的具體實施步驟如下:

      (1) 多光譜升采樣。對N波段低分辨率多光譜圖像(M)升采樣,采用多項式插值方法進行插值,插值因子是4,得到升采樣多光譜圖像(M1)。

      (2) 多光譜HCT變換。對多光譜圖像進行HCT變換,分別得到亮度分量I、角度分量φ1、φ2、…、φN-1。

      (3) 多分辨率變換處理。對全色圖像(P)依據(jù)I進行直方圖調(diào)整,然后做兩層小波變換,得到低頻信息cp和高頻信息dp以及I分量的低頻信息cm和高頻信息dm。

      (5) 聯(lián)合稀疏求解。為了獲得更加緊致的稀疏表示,本文方法采用KSVD算法[26]進行聯(lián)合字典訓(xùn)練,得到字典D,所選擇的訓(xùn)練樣本為Y。

      (11)

      基于Y和D,采用聯(lián)合稀疏表示模型JSM-1式(11)進行求解,得到公共系數(shù)矩陣Ac和差異系數(shù)矩陣A1、A2。

      (6) 差異稀疏系數(shù)的融合。針對融合獨特系數(shù)矩陣A中的每一列α,本次根據(jù)A1、A2中的每一列α1、α2的l1范數(shù)權(quán)重大小進行融合。具體的計算公式為

      (12)

      則融合后的圖像塊Y=DAc+DA。

      圖1 基于HCT和JSM融合方法流程圖Fig.1 The flowchart of fusion method based on HCT and JSM

      3結(jié)果與分析

      針對本文提出的融合方法,采用法國Pleiades-1和美國WorldView-2兩種衛(wèi)星數(shù)據(jù)進行試驗分析(http:∥www.geosage.com/highview/download.html)。這兩型衛(wèi)星均提供空間分辨率為0.5 m的全色圖像和2 m的多光譜圖像,并已經(jīng)完成了影像數(shù)據(jù)的配準處理。為便于對試驗結(jié)果進行量化評估,以原始的多光譜圖像作為參考影像,而原始的全色數(shù)據(jù)進行了降采樣處理,使其與參考多光譜數(shù)據(jù)成一致分辨率。而將原始多光譜影像進行低通濾波處理和影像的降采樣(采樣因子為0.25),得到用于融合處理輸入的低分辨率多光譜影像。而在融合處理過程中,為得到與全色影像同分辨率的多光譜影像,采用多項式插值[27]對低分辨率多光譜進行上采樣(在下文用EXP來表示)。

      3.1Pleiades數(shù)據(jù)試驗

      Pleiades-1衛(wèi)星發(fā)射于2011年,可獲得幅寬達到20 km的0.5 m全色和2 m多光譜數(shù)據(jù)。為更充分地驗證本文方法的有效性,試驗采用兩幅Pleiades-1衛(wèi)星多光譜衛(wèi)星數(shù)據(jù)的B、G、R、NIR 4個波段和相應(yīng)的全色波段進行融合,選擇影像大小均為400×1000,進行分塊的窗口大小為8×8,同時兼顧計算量和試驗效果,選擇移動步長為4個像素,訓(xùn)練字典大小為64×256。本文采用了4種較新的、效果較好對比算法,即AWLP[7]、GSA[4]、Indusion[28]及PRACS[5]進行對比分析。其中,第1幅圖像(Ple-1)5種方法的處理結(jié)果如圖2所示。為了突出細節(jié),在圖2中還對影像的局部進行了放大顯示。

      圖2 Pleiades衛(wèi)星數(shù)據(jù)(Ple-1)融合結(jié)果及局部放大顯示Fig.2 Fusion results of Pleiades images (Ple-1) and partial enlarged views

      從Ple-1的試驗結(jié)果(圖2)可以看出,在分辨率優(yōu)化方面,文中采用的所有方法均得到了比參考圖像(reference)更好的效果,這是由于為了進行對比分析,采用的參考多光譜圖像是原始數(shù)據(jù),而與其分辨率相同的全色數(shù)據(jù)是降采樣4倍的數(shù)據(jù),因此全色圖像在細節(jié)方面更優(yōu),而這些細節(jié)最終通過融合獲得了比參考多光譜圖像更好結(jié)果。在光譜信息保持方面,從圖2中可看出除了Indusion算法有一定的光譜畸變外,其他算法均較接近,從左側(cè)局部放大圖的左下角綠色植被色調(diào)來看,PRACS算法和本文方法得到了更好的結(jié)果。

      為了對這5種不同的方法進行量化的比較和分析,本次采用4種量化指標來綜合評價這些融合算法,即空間相關(guān)系數(shù)(sCC)[29]、相對整體維數(shù)綜合誤差ERGAS[30-31]、光譜角制圖SAM[32]、全局質(zhì)量評價因子Q4[33]。其中,sCC表示融合圖像與全色圖像的空間相關(guān)量,其值越大,說明融合結(jié)果的空間細節(jié)越多,ERGAS和SAM表征光譜質(zhì)量,其值越小,表明光譜畸變也越少,Q4則是全局評價因子,其值越大,表明融合圖像效果越好。第1幅圖像5種算法的綜合評價值如表1所示??梢钥闯觯傮w上對于Ple-1場景數(shù)據(jù),PRACS算法獲得了更好的評價指標值,而本文算法只在SAM值上占優(yōu),與其他3種算法相比,本文算法與PRACS的其他指標值相差不大。

      表1第1幅Pleiades-1衛(wèi)星數(shù)據(jù)的各融合算法量化結(jié)果

      Tab.1Quantitative results of different fusion methods on Ple-1

      評價指標AWLPGSAIndusionPRACS本文算法sCC0.88520.87330.82520.90480.8930ERGAS5.59646.26357.26154.04684.5385SAM4.85837.12966.31444.17613.5846Q40.76080.68350.60750.82040.7974

      另一幅Pleiades-1衛(wèi)星數(shù)據(jù)(Ple-2)利用不同評價指標公式得到了定量化評價指標值如表2所示??梢钥闯?,與Ple-1相似,PRACS方法和本文方法獲得了更好的評價值。由于場景的差異,相較Ple-1圖像,本文方法在sCC指標上獲得了更理想的結(jié)果,但與PRACS方法和AWLP差異不大。

      表2第2幅Pleiades衛(wèi)星數(shù)據(jù)的各融合算法量化結(jié)果

      Tab.2Quantitative results of different fusion methods on Ple-2

      評價指標AWLPGSAIndusionPRACS本文算法sCC0.85410.83290.79450.85210.8553ERGAS6.89157.75278.44685.11725.7915SAM4.78837.77416.81274.56853.7107Q40.69260.61250.54820.76270.7359

      3.2WorldView-2數(shù)據(jù)試驗

      WorldView-2衛(wèi)星是一顆高分辨率商業(yè)化運行衛(wèi)星,由美國DigitalGlobe公司于2009年8月發(fā)射。衛(wèi)星上搭載一個譜段的全色和8個譜段的多光譜傳感器,其中全色分辨率達到0.46 m,而多光譜分辨率為1.84 m。試驗只采用多光譜衛(wèi)星數(shù)據(jù)的B、G、R、NIR 4個波段進行融合,同樣,選擇兩幅大小為400×1000的不同場景的影像數(shù)據(jù)進行處理。聯(lián)合稀疏處理時設(shè)置的分塊大小、移動步長以及訓(xùn)練字典大小與前面Pleiades-1數(shù)據(jù)試驗一致,第1幅影像的試驗結(jié)果如圖3所示,左右兩側(cè)各為一塊局部放大圖。

      圖3 WorldView-2衛(wèi)星數(shù)據(jù)(WV-1)融合結(jié)果Fig.3 Fusion results of WorldView-2 images (WV-1) and partial enlarged views

      從第1幅WorldView-2圖像(WV-1)的融合試驗整體結(jié)果來看,5種算法均在空間分辨率上取得了改進,從中部區(qū)域的植被來看,GSA和Indusion算法在植被色調(diào)方面差異較大,顯得有些突兀,而其他算法比較柔和。從左側(cè)局部放大圖中下部的小綠地可以看出,AWLP、PRACS和本文算法得到的結(jié)果較優(yōu),而右下部黑紅色地物只在PRACS和本文算法中有一定體現(xiàn)。從右側(cè)局部放大圖可以看出,右側(cè)紅色房頂只有AWLP、PRACS與本文算法和參考圖像相似,屋頂紅色分布比較平滑;在中下部的植被部分,只有PRACS與本文算法在綠色色調(diào)上保持較好。

      從WV-1融合結(jié)果的量化評價指標來看(表3),對于WorldView-2的該場景數(shù)據(jù),本文算法在4個指標上均獲得了更好的評價指標值,而AWLP算法在sCC指標上也取得了較高值,另外,PRACS算法在ERGAS、SAM以及Q4 3項指標上與本文算法相差不大,這與試驗結(jié)果在視覺效果上得出的結(jié)論一致。

      表3 第1幅WorldView-2衛(wèi)星數(shù)據(jù)的各融合算法量化結(jié)果

      相較WV-1融合圖像的評價指標(表3),本文算法在第2幅試驗數(shù)據(jù)(WV-2)的評價指標值(表4)上也取得了較好的結(jié)果,只有Q4結(jié)果稍遜于PRACS算法。

      表4 第2幅WorldView-2衛(wèi)星數(shù)據(jù)的各融合算法量化結(jié)果

      綜合兩顆衛(wèi)星Pleiades-1和WorldView-2的不同場景數(shù)據(jù)的試驗結(jié)果,從視覺上的比較來看(圖2和圖3),PRACS和本文算法都獲得了較好的融合圖像,空間細節(jié)突出,光譜畸變相對較小。從量化評價角度,即從表1—表4可以看到,與其他4種算法相比,本文算法在光譜畸變處理上具有一定優(yōu)勢,在第1幅Pleiades-1衛(wèi)星數(shù)據(jù)中,SAM值最小,其他3個指標只比PRACS算法稍差,第2幅在sCC和SAM上均最優(yōu);而在WorldView-2數(shù)據(jù)處理結(jié)果中,第1幅4個指標都取得了最優(yōu)值,第2幅只有Q4評價值稍遜于PRACS算法??傮w來看,本文提出的算法在Pleiades-1和WorldView-2數(shù)據(jù)的試驗中均得到了較高質(zhì)量的多波段融合影像。

      從表5中可看出,在融合方法的處理時間方面(運行環(huán)境:軟件-Matlab7;硬件-Intel(R) Core(TM) 2 Quad CPU (主頻2.33 GHz),4 GB內(nèi)存),Indusion方法所需的執(zhí)行時間最短,經(jīng)典的GSA方法次之,本文方法采用了組合架構(gòu)融合方式,處理過程包括HCT和小波變換,并且引入了聯(lián)合稀疏分解流程,比其他方法需要更長的處理時間。需要指出的是,本文方法由于只對HCT變換的亮度分量進行聯(lián)合稀疏分解,且分塊步長為4,因此在圖像大小接近的情況下,相較文獻[34]的方法和文獻[12]提出的直接稀疏表示融合方法,算法在執(zhí)行時間上仍然有一定的優(yōu)勢。

      表5 不同算法執(zhí)行時間的對比

      4結(jié)語

      全色和多光譜遙感影像融合的目的是得到空間分辨率高、光譜畸變小的多光譜影像,但光譜畸變一直是全色與多光譜影像融合的一個難點。本文結(jié)合近年來獲得良好光譜保持效果的稀疏表示融合方法,引入能支持任意波段處理的HCT變換,提出了一種基于HCT變換和聯(lián)合稀疏模型的遙感影像融合方法。相較傳統(tǒng)的稀疏表示方法,聯(lián)合稀疏模型充分利用了全色和多光譜的差異成分信息,而HCT則可利用所有的多光譜參與變換,不受傳統(tǒng)IHS處理3個譜段的限制,同時處理過程中只對HCT變換的I分量進行聯(lián)合稀疏處理,有效地提升了處理效率。驗證試驗分別選取Pleiades-1和WorldView-2兩種衛(wèi)星數(shù)據(jù)進行了試驗。結(jié)果表明,本文方法在增強空間細節(jié)的同時,更好地保持了多光譜數(shù)據(jù)的光譜信息,得到了融合質(zhì)量較好的融合影像。但在融合處理效率上,由于多種變換的參與以及聯(lián)合稀疏表示分解的引入,導(dǎo)致融合方法所需執(zhí)行時間長,這是后續(xù)需要進一步研究改進的地方。

      參考文獻:

      [1]THOMAS C, RANCHIN T, WALD L, et al. Synthesis of Multispectral Images to High Spatial Resolution: A Critical Review of Fusion Methods Based on Remote Sensing Physics[J]. IEEE Transactions on Geoscience and Remote Sensing, 2008, 46(5): 1301-1312.

      [2]CARPER W J, LILLESAND T M, KIEFER R W. The Use of Intensity-hue-saturation Transformations for Merging SPOT Panchromatic and Multispectral Image Data[J]. Photogrammetric Engineering & Remote Sensing, 1990, 56(4): 459-467.

      [3]CHAVEZ JR P S, KWARTENG A Y. Extracting Spectral Contrast in Landsat Thematic Mapper Image Data Using Selective Principal Component Analysis[J]. Photogrammetric Engineering & Remote Sensing, 1989, 55(3): 339-348.

      [4]AIAZZI B, BARONTI S, SELVA M. Improving Component Substitution Pansharpening through Multivariate Regression of MS+Pan Data[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(10): 3230-3239.

      [5]CHOI J, YU K, KIM Y. A New Adaptive Component-Substitution-based Satellite Image Fusion by Using Partial Replacement[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(1): 295-309.

      [6]GARGUET-DUPORT B,GIREL J,CHASSERY J M,et al. The Use of Multiresolution Analysis and Wavelets Transform for Merging SPOT Panchromatic and Multispectral Image Data[J]. Photogrammetric Engineering & Remote Sensing, 1996, 62(9): 1057-1066.

      [7]OTAZU X,GONZALEZ-AUDICANA M,FORS O, et al. Introduction of Sensor Spectral Response into Image Fusion Methods: Application to Wavelet-based Methods[J]. IEEE Transactions on Geoscience and Remote Sensing, 2005, 43(10): 2376-2385.

      [8]El-MEZOUAR M C, KPALMA K, TALEB N, et al. A Pan-sharpening Based on the Non-subsampled Contourlet Transform: Application to Worldview-2 Imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(5): 1806-1815.

      [9]AIAZZI B, ALPARONE L, BARONTI S, et al. Context-driven Fusion of High Spatial and Spectral Resolution Images Based on Oversampled Multiresolution Analysis[J]. IEEE Transactions on Geoscience and Remote Sensing, 2002, 40(10): 2300-2312.

      [10]WANG Jian, XU Changhui, ZHANG Jixian, et al. An EMD-IHS Model for High Resolution Image Fusion[C]∥JU Weimin, ZHAO Shuhe. Remotely Sensed Data and Information. Nanjing: [s.n.], 2007, 6752: 675209.

      [11]DONG Weihua, LI Xia’nen, LIN Xiangguo, et al. A Bidimensional Empirical Mode Decomposition Method for Fusion of Multispectral and Panchromatic Remote Sensing Images[J]. Remote Sensing, 2014, 6(9): 8446-8467.

      [12]LI Shutao, YANG Bin. A New Pan-sharpening Method Using a Compressed Sensing Technique[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(2): 738-746.

      [13]CHEN S S, DONOHO D L, SAUNDERS M A. Atomic Decomposition by Basis Pursuit[J]. SIAM Review, 2001, 43(1): 129-159.

      [14]ZHU Xiaoxiang, BAMLER R. A Sparse Image Fusion Algorithm with Application to Pan-sharpening[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(5): 2827-2836.

      [15]CHENG Ming, WANG Cheng, LI Jie, et al. Sparse Representation Based Pansharpening Using Trained Dictionary[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(1): 293-297.

      [16]ZHANG Yun, HONG Gang. An IHS and Wavelet Integrated Approach to Improve Pan-sharpening Visual Quality of Natural Colour IKONOS and QuickBird Images[J]. Information Fusion, 2005, 6(3): 225-234.

      [17]楚恒, 王汝言, 朱維樂. DCT域遙感影像融合算法[J]. 測繪學報, 2008, 37(1): 70-76.

      CHU Heng, WANG Ruyan, ZHU Weile. Remote Sensing Image Fusion Algorithm in the DCT Domain[J]. Acta Geodaetica et Cartographica Sinica, 2008, 37(1): 70-76.

      [18]YANG Shuyuan, WANG Min, JIAO Licheng. Fusion of Multispectral and Panchromatic Images Based on Support Value Transform and Adaptive Principal Component Analysis[J]. Information Fusion, 2012, 13(3): 177-184.

      [19]夏曉天, 王斌, 張立明. 基于推廣的IHS變換和壓縮傳感的遙感圖像融合[J]. 計算機輔助設(shè)計與圖形學學報, 2013, 25(9): 1399-1409.

      XIA Xiaotian, WANG Bin, ZHANG Liming. Remote Sensing Image Fusion Based on Generalized IHS Transformation and Compressive Sensing[J]. Journal of Computer-Aided Design & Computer Graphics, 2013, 25(9): 1399-1409.

      [20]吳連喜, 梁波, 劉曉梅, 等. 保持光譜信息的遙感圖像融合方法研究[J]. 測繪學報, 2005, 34(2): 118-122, 128.

      WU Lianxi, LIANG Bo, LIU Xiaomei, et al. A Spectral Preservation Fusion Technique for Remote Sensing Images[J]. Acta Geodaetica et Cartographica Sinica, 2005, 34(2): 118-122, 128.

      [21]PADWICK C, DESKEVICH M, PACIFICI F, et al. World View-2 Pan-sharpening[C]∥Proceedings of the ASPRS 2010 Annual Conference. San Diego: [s.n.], 2010: 26-30.

      [22]CANDES E J, ROMBERG J K, TAO T. Stable Signal Recovery from Incomplete and Inaccurate Measurements[J]. Communications on Pure and Applied Mathematics, 2005, 59(8): 1207-1233.

      [23]DONOHO D L.For Most Large Underdetermined Systems of Equations, the Minimal-norm Near-solution Approximates the Sparest Near-solution[J]. Communications on Pure and Applied Mathematics, 2006, 59(7): 907-934.

      [24]BRUCKSTEIN A M, ELAD M, ZIBULEVSKY M. On the Uniqueness of Nonnegative Sparse Solutions to Underdetermined Systems of Equations[J]. IEEE Transactions on Information Theory, 2008, 54(11): 4813-4820.

      [25]DUARTE M F, SARVOTHAM S, BARON D, et al. Distributed Compressed Sensing of Jointly Sparse Signals[C]∥Proceeding of Conference Record of the 39th Asilomar Conference on Signals, Systems and Computers. Pacific Grove: IEEE, 2005.

      [26]AHARON M, ELAD M, BRUCKSTEIN A. K-SVD: An Algorithm for Designing Overcomplete Dictionaries for Sparse Representation[J]. IEEE Transactions on Signal Processing, 2006, 54(11): 4311-4322.

      [27]AIAZZI B, BARONTI S, SELVA M, et al. Bi-cubic Interpolation for Shift-free Pan-sharpening[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 86: 65-76.

      [28]KHAN M M, CHANUSSOT J, CONDAT L, et al. Indusion: Fusion of Multispectral and Panchromatic Images Using the Induction Scaling Technique[J]. IEEE Geoscience and Remote Sensing Letters, 2008, 5(1): 98-102.

      [29]ZHOU J, CIVCO D L, SILANDER J A. A Wavelet Transform Method to Merge Landsat TM and SPOT Panchromatic Data[J]. International Journal of Remote Sensing, 1998, 19(4): 743-757.

      [30]KHAN M M, ALPARONE L, CHANUSSOT J. Pansharpening Quality Assessment Using the Modulation Transfer Functions of Instruments[J]. IEEE Transactions on Geoscience and Remote Sensing, 2009, 47(11): 3880-3891.

      [31]王慧賢, 江萬壽, 雷呈強, 等. 光譜與空間局部相關(guān)的SVR影像融合方法[J]. 測繪學報, 2013, 42(4): 508-515.

      WANG Huixian, JIANG Wanshou, LEI Chengqiang, et al. A Robust SVR Image Fusion Method Based on Local Spectral and Spatial Correlation[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(4): 508-515.

      [32]ALPARONE L, WALD L, CHANUSSOT J, et al. Comparison of Pansharpening Algorithms: Outcome of the 2006 GRS-S Data-fusion Contest[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(10): 3012-3021.

      [33]ALPARONE L, BARONTI S, GARZELLI A, et al. A Global Quality Measurement of Pan-sharpened Multispectral Imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2004, 1(4): 313-317.

      [34]劉婷, 程建. 小波變換和稀疏表示相結(jié)合的遙感圖像融合[J]. 中國圖象圖形學報, 2013, 18(8): 1045-1053.

      LIU Ting, CHENG Jian. Remote Sensing Image Fusion with Wavelet Transform and Sparse Representation[J]. Journal of Image and Graphics, 2013, 18(8): 1045-1053.

      (責任編輯:叢樹平)

      修回日期: 2015-12-16

      First author: XU Ning(1982—), male, PhD candidate,majors in image registration, fusion and processing of hyperspectral imagery.

      E-mail: x_ning@aliyun.com

      A Pansharpening Method Based on HCT and Joint Sparse Model

      XU Ning1,2,3,XIAO Xinyao1,2,3,YOU Hongjian1,2,CAO Yingui4

      1. Key Laboratory of Technology in Geo-spatial Information Processing and Application System, IECAS, Beijing 100190, China; 2. Institute of Electronics, Chinese Academy of Sciences, Beijing 100190, China; 3.University of Chinese Academy of Sciences, Beijing 100049, China; 4. School of Land Science and Technology, China University of Geosciences, Beijing 100083, China

      Abstract:A novel fusion method based on the hyperspherical color transformation (HCT) and joint sparsity model is proposed for decreasing the spectral distortion of fused image further. In the method, an intensity component and angles of each band of the multispectral image is obtained by HCT firstly, and then the intensity component is fused with the panchromatic image through wavelet transform and joint sparsity model. In the joint sparsity model, the redundant and complement information of the different images can be efficiently extracted and employed to yield the high quality results. Finally, the fused multi spectral image is obtained by inverse transforms of wavelet and HCT on the new lower frequency image and the angle components, respectively. Experimental results on Pleiades-1 and WorldView-2 satellites indicate that the proposed method achieves remarkable results.

      Key words:image fusion; joint sparsity model; HCT; panchromatic image; multispectral image

      第一作者簡介:許寧(1982—),男,博士生,研究方向為光學遙感影像配準、融合以及高光譜圖像處理。

      收稿日期:2015-07-14

      基金項目:中國地質(zhì)調(diào)查局地質(zhì)調(diào)查(1212011120226);國家863計劃(2012AA12A308);中國科學院科技服務(wù)網(wǎng)絡(luò)計劃(KFJ-EW-STS-046)

      中圖分類號:P237

      文獻標識碼:A

      文章編號:1001-1595(2016)04-0434-08

      Foundation support: The Geological Survey Program of China Geological Survey (No. 1212011120226); The National High-tech Research and Development Program of China (863 Program) (No. 2012AA12A308); The Science and Technology Services Network Program of Chinese Academy of Sciences (No. KFJ-EW-STS-046)

      引文格式:許寧,肖新耀,尤紅建,等.HCT變換與聯(lián)合稀疏模型相結(jié)合的遙感影像融合[J].測繪學報,2016,45(4):434-441. DOI:10.11947/j.AGCS.2016.20150372.

      XU Ning,XIAO Xinyao,YOU Hongjian,et al.A Pansharpening Method Based on HCT and Joint Sparse Model[J]. Acta Geodaetica et Cartographica Sinica,2016,45(4):434-441. DOI:10.11947/j.AGCS.2016.20150372.

      二连浩特市| 闽清县| 舞钢市| 辛集市| 平谷区| 游戏| 久治县| 布尔津县| 开平市| 依安县| 布尔津县| 南皮县| 招远市| 红桥区| 吉木乃县| 屏东市| 祁门县| 尉犁县| 辉县市| 凤山市| 玉屏| 绥滨县| 拜城县| 临猗县| 吴川市| 定南县| 淳安县| 莲花县| 凤城市| 巢湖市| 阳朔县| 织金县| 平顶山市| 仙桃市| 化州市| 怀仁县| 宣化县| 思南县| 凤庆县| 阜城县| 苏尼特左旗|