陳善學(xué) 王欣欣
(重慶郵電大學(xué)通信與信息工程學(xué)院,移動(dòng)通信教育部工程研究中心,移動(dòng)通信技術(shù)重慶市重點(diǎn)實(shí)驗(yàn)室, 重慶 400065)
隨著遙感技術(shù)的發(fā)展,高光譜圖像(Hyperspectral image,HSI)因其具有高光譜分辨率及豐富光譜信息的特點(diǎn)而廣泛應(yīng)用,如目標(biāo)檢測、環(huán)境監(jiān)測、農(nóng)林業(yè)、軍事等。分類是高光譜遙感圖像研究中的一個(gè)熱點(diǎn)內(nèi)容,學(xué)者提出了許多的分類方法,如隨機(jī)森林[1-2]、支持向量機(jī)[3- 4]、神經(jīng)網(wǎng)絡(luò)[5-7]、稀疏表示[8]等。
稀疏表示通過較少訓(xùn)練樣本的線性組合來表達(dá)大量的待測樣本,最后通過重構(gòu)殘差對待測樣本進(jìn)行分類判別,目前稀疏表示已經(jīng)廣泛應(yīng)用于HSI分類。文獻(xiàn)[9]將稀疏表示應(yīng)用于HSI分類,考慮到同質(zhì)區(qū)域的存在,相應(yīng)提出了聯(lián)合稀疏表示的方法,假設(shè)相鄰像元具有共同的稀疏模式,即位于同一鄰域內(nèi)的相鄰像元由相同的訓(xùn)練樣本稀疏表示,但稀疏向量不一定相同;文獻(xiàn)[10]根據(jù)待測中心像元與鄰域像元的結(jié)構(gòu)相似度給各個(gè)鄰域像元賦予相應(yīng)的權(quán)重,構(gòu)建加權(quán)聯(lián)合稀疏表示;固定的鄰域窗口存在一定的局限性,不能完全反映空間信息,文獻(xiàn)[11]采用核函數(shù)度量待測像元與鄰域像元間的相似性,使聯(lián)合稀疏表示的鄰域窗口自適應(yīng)。另外文獻(xiàn)[12-14]通過提取空間-光譜特征利用空間信息用于稀疏表示HSI分類。以上文獻(xiàn)都在一定程度上利用了空間信息提升分類精度,但是,基于稀疏表示的HSI分類精度一定程度上依賴于訓(xùn)練樣本的質(zhì)量和數(shù)量,訓(xùn)練樣本越多,字典包含的地物特征越豐富,訓(xùn)練樣本的獲取主要依靠專家人為標(biāo)記,成本昂貴,在實(shí)際分類中,存在因訓(xùn)練樣本量少而分類精度低的問題。
針對上述問題,本文提出了基于字典優(yōu)化的聯(lián)合稀疏表示高光譜圖像分類(joint sparse representation hyperspectral image classification based on dictionary optimization, DO-JSRC)算法。結(jié)合空間信息將HSI劃分為多個(gè)子集;利用已知標(biāo)簽信息的訓(xùn)練樣本標(biāo)記子集中可能成為訓(xùn)練樣本的像元,組成備選集;通過光譜相似性準(zhǔn)則篩選備選集形成優(yōu)化字典。通過優(yōu)化字典方式擴(kuò)大了訓(xùn)練樣本的數(shù)量,用于聯(lián)合稀疏表示提高HSI分類精度。此外,HSI的成像機(jī)制使它包含了數(shù)百個(gè)連續(xù)波段的光譜信息,高維數(shù)據(jù)在帶來豐富信息的同時(shí),也使得在處理數(shù)據(jù)時(shí)計(jì)算量大幅度增加;連續(xù)波段間的信息可能會(huì)造成數(shù)據(jù)冗余,降低數(shù)據(jù)分析效率。為了降低高光譜數(shù)據(jù)維度的同時(shí)保留有用的光譜信息,相應(yīng)的提出了許多基于特征提取[15]和波段選擇[16-17]的降維方法。由于噪聲波段與其他波段間的差異較大,基于聚類的波段選擇方法通常對噪聲波段比較敏感,容易使噪聲波段單獨(dú)聚類,影響選擇結(jié)果。因此,本文采取基于層次聚類的波段選擇方法,利用自適應(yīng)距離計(jì)算方式改善噪聲對波段選擇的影響。
本文的HSI分類是基于聯(lián)合稀疏表示的分類方法,聯(lián)合稀疏表示可以結(jié)合鄰域像元的空間信息,提升HSI分類精度,其過程如下:
X1=[x1x2...xl]=[Da1Da2...Dal]=DS
(1)
式(1)中的al表示對應(yīng)像元xl的稀疏向量,al中元素只有少數(shù)非0項(xiàng),S為稀疏向量組成的稀疏矩陣。
待測像元x1可以通過稀疏矩陣和字典進(jìn)行重建,聯(lián)合稀疏表示重建可表示為:
S=arg min ‖S‖row,0s.t.DS=X1
(2)
‖S‖row,0表示稀疏矩陣S的非零行行數(shù)。為了解決式(2)中非確定性多項(xiàng)式的問題,許多學(xué)者對此進(jìn)行了研究并提出解決方案,本文采用文獻(xiàn)[9]提出的同時(shí)正交匹配追蹤(simultaneous orthogonal matching pursuit, SOMP)算法。得到稀疏矩陣后重建待測像元可得到重構(gòu)殘差,則使用第c類字典得到稀疏重構(gòu)殘差可以表示為:
(3)
(4)
本文提出基于字典優(yōu)化的聯(lián)合稀疏表示高光譜圖像分類方法改善由于訓(xùn)練樣本少而分類精度低的問題??紤]到HSI數(shù)據(jù)維度高,存在冗余,在字典優(yōu)化前采用層次聚類的波段選擇對原始HSI數(shù)據(jù)降維。整體算法框架如圖1所示。
圖1 DO-JSRC算法框架Fig.1 DO-JSRC algorithm framework
本文利用層次聚類的方式實(shí)現(xiàn)波段選擇,用于HSI數(shù)據(jù)降維。層次聚類采用自下而上的方式構(gòu)建波段層次,可將HSI的波段劃分為簇?cái)?shù)量Ncluster∈(1, 2, ...,B)任意的多個(gè)波段簇,將相似度高的波段聚類成簇,各個(gè)簇之間的波段差異較大。在每個(gè)簇內(nèi)選取最具代表性的波段形成新的高光譜數(shù)據(jù),從而降低HSI維度。
本文基于層次聚類的波段選擇主要分為三個(gè)步驟:相互近鄰搜索、合并相鄰簇、選擇波段。對于原始HSI數(shù)據(jù)處理如下:
用無向圖G=(V,E)來表示HSI數(shù)據(jù),其中頂點(diǎn)V=[b1b2...bB]∈RN×B表示光譜波段,這里將每個(gè)波段看作一棵樹??紤]HSI光譜波段的連續(xù)性,相鄰波段間聯(lián)系緊密、相似性大的特點(diǎn),邊es表示第s個(gè)簇和第s+1個(gè)簇之間的相似度量,不計(jì)不相鄰簇之間的邊,所以,邊的集合可表示為E=[e1,e2, ...,es, ...,eS],S∈[1,B-1],第一個(gè)簇和最后一個(gè)簇形成的頂點(diǎn)只有一條與相鄰簇的邊,其他簇均有兩條邊,如圖2所示。
圖2 高光譜圖像的無向圖Fig.2 Undirected image of hyperspectral image
(1)相互近鄰搜索
在聚類過程中引入相互近鄰的概念,假設(shè)存在4個(gè)相鄰簇s-1、s、s+1、s+2之間的三條邊es-1、es、es+1,若同時(shí)滿足es (2)合并相鄰簇 在一次合并過程中,若存在相互近鄰簇,滿足合并條件則按照邊從小到大合并兩個(gè)相互近鄰簇;若不存在相互近鄰簇,滿足合并條件則合并邊最小的兩個(gè)簇。 將聚類過程中某次合并形成的S個(gè)簇表示為C=[C1C2...Cs...CS],其中CS中包含ns(1≤ns≤B)個(gè)波段,由式(5)更新第s個(gè)簇的聚類中心。歐式距離是度量兩個(gè)變量之間差異的基本度量,通過式(6)計(jì)算第s個(gè)簇和第s+1個(gè)簇之間的距離。 (5) (6) 考慮到波段中可能存在噪聲的情況,只利用歐式距離可能使噪聲波段單獨(dú)形成一個(gè)簇,因?yàn)樵肼暡ǘ瓮ǔEc相鄰波段差距較大,為此提出了一種自適應(yīng)距離計(jì)算方式。在第s個(gè)簇和第s+1個(gè)簇之間的距離計(jì)算過程中引入內(nèi)類散度矩陣,將Cs與Cs+1包含的波段視為同一個(gè)類,類中心可用式(7)得到,并通過式(8)計(jì)算類內(nèi)離散度,則第s個(gè)簇和第s+1個(gè)簇之間的自適應(yīng)距離定義為式(9)。類內(nèi)散度值越大,兩個(gè)簇形成的類越離散,波段間相似性越低,式(9)將簇包含的波段數(shù)加入計(jì)算是為了改善噪聲單獨(dú)成簇的問題。 (7) (8) es=ds,s+1×Ss,s+1×ns×ns+1 (9) 上述相互近鄰搜索和合并相鄰簇是基于層次聚類思想對HSI數(shù)據(jù)處理的過程,HSI層次聚類流程圖如圖3所示。 圖3 HSI層次聚類流程圖Fig.3 HSI Hierarchical clustering flowchart (3)選擇波段 經(jīng)過層次聚類將B個(gè)波段劃分為K個(gè)簇,每個(gè)簇內(nèi)的波段相似性較高,可能存在冗余,從每個(gè)簇中選擇最具代表性的波段組成期望波段子集,本文采取基于排序的方法從每個(gè)簇中選取信息量最大的波段。波段的信息量可以通過峰度度量,對于任意波段b: (10) 式(10)中Ku表示波段b的峰度,峰度越大,波段數(shù)據(jù)越偏離正態(tài)分布,波段包含的信息量越大。 基于層次聚類的波段選擇具體過程如表1所示。 表1 基于層次聚類的波段選擇 為了解決訓(xùn)練樣本量少的問題,本文提出了相應(yīng)的字典優(yōu)化方案,主要分為以下三個(gè)步驟: (1)第一步:通過聚類利用HSI中每個(gè)像元的光譜信息和像元間的空間信息,將波段選擇后的HSI數(shù)據(jù)集XBS拆分成多個(gè)子集,使每個(gè)子集自適應(yīng)的包含一定數(shù)量的像元。其中,每個(gè)像元與聚類中心間的距離計(jì)算公式(11)和聚類中心更新公式(12)如下: (11) 式(11)中,p用于平衡光譜角距離和歐式距離,γ用于平衡光譜信息和空間信息。 (12) 式(12)中,Xt表示第t個(gè)子集,NCt表示該子集包含的像元數(shù)量。 (2)第二步:利用已知標(biāo)簽信息的訓(xùn)練樣本標(biāo)記子集內(nèi)可能成為訓(xùn)練樣本的像元,形成訓(xùn)練樣本備選集。 (3)第三步:通過光譜相似性準(zhǔn)則篩選備選集形成優(yōu)化字典。具體實(shí)現(xiàn)方法如表2所示。 表2 結(jié)合聚類的字典優(yōu)化 為了減少HSI數(shù)據(jù)冗余,本文采用基于層次聚類進(jìn)行波段選擇降低數(shù)據(jù)維度,將處理后的HSI數(shù)據(jù)用于后續(xù)的分類;由于稀疏表示的分類方法依賴于訓(xùn)練樣本,本文提出字典優(yōu)化改善訓(xùn)練樣本少而分類精度低的問題;最后,將字典優(yōu)化后得到訓(xùn)練字典用于聯(lián)合稀疏表示,對HSI進(jìn)行稀疏重構(gòu),判斷HSI中每個(gè)像元所屬地物類別,得到分類結(jié)果。具體實(shí)現(xiàn)過程如表3所示。 表3 DO-JSRC算法 續(xù)表3 本次實(shí)驗(yàn)仿真條件:電腦的運(yùn)行內(nèi)存8 GB、主頻3 GHz、處理器為Inter(R)Core(TM)i5- 8500,仿真平臺(tái)為MATLAB R2014a。通過Indian Pines數(shù)據(jù)集和Pavia University數(shù)據(jù)集驗(yàn)證本文提出的基于字典更新的聯(lián)合稀疏表示高光譜圖像分類方法的分類效果,體現(xiàn)分類性能的評(píng)價(jià)指標(biāo)有:總體分類精度(Overall Accuracy, OA)、平均分類準(zhǔn)確率(Average accuracy,AA)和Kappa系數(shù)。將本文提出的算法DO-JSRC與SD-JSRC[18]、K-JSRC[11]、CODL[19]和cdSRC[20]四個(gè)算法進(jìn)行對比。 Indian Pines數(shù)據(jù)集:該HSI數(shù)據(jù)包含145×145個(gè)像元,200個(gè)波段,由16個(gè)類別的地物組成。本文主要選取其中9個(gè)類別的地物進(jìn)行實(shí)驗(yàn)仿真,它們分別為Buildings-Grass-Trees-Drives、Corn-Mintill、Grass-Pasture、Grass-Trees、Hay-Windrowed、Wheat、Soybean-Mintill、Soybean-Clean、Woods,總共包含7425個(gè)像元,該地物分布如圖4所示。 圖 4 Indian Pines地物分布Fig.4 Indian Pines feature distribution Pavia University數(shù)據(jù)集:該數(shù)據(jù)集包含610×340個(gè)像元,除去噪聲波段剩余103個(gè)波段,共包含9類地物,分別為Asphalt、Gravel、Bitumen、Meadows、Trees、Painted metal sheets、Bare Soil、Self-Blocking Bricks、Shadows。 圖5 Indian Pines數(shù)據(jù)集參數(shù)p、γ對總分類精度的影響Fig.5 The influence of Indian Pines data set parameters p and γ on the total classification accuracy 本文提出算法的相關(guān)參數(shù)設(shè)置:字典優(yōu)化中設(shè)置聚類迭代次數(shù)S=10。在Indian Pines數(shù)據(jù)集仿真實(shí)驗(yàn)時(shí),固定平衡空間信息與光譜信息的參數(shù)γ=1,如圖5所示,依據(jù)光譜角距離和歐式距離間的平衡參數(shù)p對總體分類精度影響,選定參數(shù)p=0.25;固定參數(shù)p=0.25,如圖5所示,依據(jù)參數(shù)γ對總體分類精度影響,選定參數(shù)γ=0.9,兩次實(shí)驗(yàn)中訓(xùn)練樣本數(shù)目均為30,子集個(gè)數(shù)設(shè)置為T=2500。 圖6展示了字典優(yōu)化中不同子集數(shù)量時(shí)的總分類精度,將后續(xù)仿真實(shí)驗(yàn)中Indian Pines數(shù)據(jù)集和Pavia University數(shù)據(jù)集的子集個(gè)數(shù)設(shè)置為T=2000和T=20000。在基于層次聚類的波段選擇方法中期望選取波段數(shù)目K對HSI分類的影響可通過總分類精度來驗(yàn)證,根據(jù)圖7(a)選定Indian Pines數(shù)據(jù)集中基于層次聚類的波段選擇中的波段數(shù)量為K=60,根據(jù)圖7(b)選定Pavia University數(shù)據(jù)集中期望波段數(shù)K=40,兩個(gè)數(shù)據(jù)集的訓(xùn)練樣本均為10。 圖6 字典優(yōu)化中子集數(shù)量對總分類精度的影響Fig.6 The impact of the number of subsets in dictionary optimization on the total classification accuracy 圖7 波段數(shù)量對分類效果的影響Fig.7 The influence of the number of bands in the Indian Pines data set on the classification effect 仿真實(shí)驗(yàn)中,通過選取不同數(shù)量的訓(xùn)練樣本組成字典對比幾個(gè)算法的分類效果,如表4所示,選取1、5、10、20、30、50、100、200八種不同原子個(gè)數(shù)的像元作為訓(xùn)練樣本,對應(yīng)剩余地物像元作為測試樣本,對比各個(gè)算法的分類效果。由于訓(xùn)練樣本的選取是隨機(jī)的,不同訓(xùn)練樣本的樣本質(zhì)量不同會(huì)影響分類效果,因此本文的實(shí)驗(yàn)結(jié)果均是重復(fù)10次實(shí)驗(yàn)并對結(jié)果取平均值。將表4中的數(shù)據(jù)繪制成圖8所示的折線圖,可以更加直觀地展示不同字典原子對各個(gè)分類算法的影響,以及對比各個(gè)算法間的分類效果。使用不同的灰度值表示各個(gè)地物類別,生成對應(yīng)的假色圖像,圖9是選取30個(gè)類字典原子時(shí)各個(gè)算法的分類結(jié)果。 從圖8可以清晰地看出每個(gè)算法的總分類精度均隨著字典原子個(gè)數(shù)的增加而提高,類字典原子個(gè)數(shù)從1個(gè)增加30個(gè)的過程中,各個(gè)算法的總分類精度的增幅較大,而后平緩。 圖8 Indian Pines 9類地物總分類精度Fig.8 The total classification accuracy ofIndian Pines 9 features 在類字典原子個(gè)數(shù)為1時(shí),本文算法的總分類精度可以達(dá)到68.58%,相較于SD-JSRC、K-JSRC、CODL、cdSRC算法分別高出15.07%、18.38%、17.34%、18.71%,當(dāng)類字典原子個(gè)數(shù)為5時(shí),相較于SD-JSRC、K-JSRC、CODL、cdSRC算法分別高出9.35%、10.91%、7.71%、17.35%,當(dāng)類字典原子個(gè)數(shù)達(dá)到10時(shí),本文算法的總分類精度達(dá)到86.47%。從表4實(shí)驗(yàn)仿真數(shù)據(jù)可以看出本文提出算法在已知地物類別的訓(xùn)練樣本數(shù)量較少時(shí)也能夠達(dá)到較好的分類效果。 圖9展示了類字典原子個(gè)數(shù)為30時(shí)各個(gè)算法的分類效果,從圖中可以看出cdSRC算法每個(gè)類都存在錯(cuò)分的現(xiàn)象,K-JSRC、CODL和SD-JSRC算法存在分類正確的類。而本文所提出算法能夠完全正確分類的地物類別相較于K-JSRC、CODL和SD-JSRC進(jìn)一步提升,這里完全正確分類的地物類別有3類,可以看到本文算法的分類效果與標(biāo)準(zhǔn)地物分類更加接近。 表4 Indian Pines總體分類精度(%) 圖9 Indian Pines數(shù)據(jù)集分類結(jié)果Fig.9 Classification results of Indian Pines dataset 本文選取類字典原子個(gè)數(shù)為30對各個(gè)分類算法進(jìn)行驗(yàn)證,如表5所示,通過平均分類準(zhǔn)確率、總體分類精度和Kappa對比本文算法和SD-JSRC、K-JSRC、CODL和cdSRC幾個(gè)算法間的分類效果。圖10是各個(gè)算法分類結(jié)果生成的假色圖像,直觀地展示了分類效果。由于訓(xùn)練樣本的選取是隨機(jī)的,實(shí)驗(yàn)過程中對10次實(shí)驗(yàn)結(jié)果取均值。 圖10 Pavia University數(shù)據(jù)集分類結(jié)果Fig.10 Classification results of Pavia University dataset 表5中可以看到相較于cdSRC算法和CODL算法,本文算法得到的Pavia University數(shù)據(jù)集的9種地物絕大部分的平均分類精度均有所提升,如:對于地物Gravel,本文算法的平均分類精度比SD-JSRC算法和K-JSRC算法、CODL算法、cdSRC算法分別提高1.86%、10.86%、2.87%、20.48%。本文算法的總分類精度達(dá)到93.04%,比SD-JSRC算法、K-JSRC算法、CODL算法、cdSRC算法分別提高了1.04%、3.77%、1.47%、15.18%,同樣Kappa也相應(yīng)提升了1.24%、4.69%、1.89%、18.44%。 圖10展示了類字典原子個(gè)數(shù)為30時(shí)各個(gè)算法的分類效果,從圖中可以看出cdSRC算法的分類效果較差。K-JSRC算法、CODL算法和SD-JSRC算法的分類效果較cdSRC提升較大,本文的DO-JSRC算法通過對訓(xùn)練樣本組成的字典進(jìn)行選擇優(yōu)化,進(jìn)一步提升了分類精度,分類效果更接近真實(shí)地物。 表5 Pavia University數(shù)據(jù)集總體分類精度(%) 本文提出了基于字典優(yōu)化的聯(lián)合稀疏表示高光譜圖像分類算法。一方面,由已知標(biāo)簽信息的訓(xùn)練樣本標(biāo)記可能加入訓(xùn)練樣本備選集的像元,通過光譜相似度準(zhǔn)則對備選集進(jìn)行篩選優(yōu)化字典;另一方面,為了降低高光譜數(shù)據(jù)維度,減少冗余,本文采取一種基于層次聚類的波段選擇方法,通過自適應(yīng)距離增加聚類可靠度,減少噪聲波段的影響。在Indian Pines數(shù)據(jù)集和Pavia University數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)仿真,驗(yàn)證本文提出的算法和幾個(gè)對比算法的分類效果,實(shí)驗(yàn)結(jié)果表明本文提出算法能夠有效地提高分類精度,并且在訓(xùn)練樣本較少的情況下也能獲得很好的分類效果。本文還有許多值得進(jìn)一步研究的地方,例如,如何進(jìn)一步增強(qiáng)算法的穩(wěn)定性,減少由訓(xùn)練樣本質(zhì)量差異帶來的影響等。3.2 字典優(yōu)化
3.3 基于字典優(yōu)化的聯(lián)合稀疏表示高光譜圖像分類
4 實(shí)驗(yàn)分析
4.1 數(shù)據(jù)集
4.2 參數(shù)設(shè)置
4.3 仿真分析4.3.1 Indian Pines數(shù)據(jù)集
4.3.2 Pavia University數(shù)據(jù)集
5 結(jié)論