劉 帥 李士進(jìn) 馮 鈞
(河海大學(xué)計(jì)算機(jī)與信息學(xué)院,南京,210098)
隨著遙感和信息技術(shù)的迅速發(fā)展,每天可獲取的遙感圖像數(shù)據(jù)量正以驚人的速度增長(zhǎng)。面對(duì)海量的遙感數(shù)據(jù),如何利用計(jì)算機(jī)自動(dòng)把圖像按照語(yǔ)義進(jìn)行分類(lèi)成為一個(gè)極具挑戰(zhàn)性的難題。傳統(tǒng)的遙感影像目視解譯方法不僅要求豐富的專(zhuān)業(yè)經(jīng)驗(yàn)和充足的野外實(shí)地調(diào)查資料,而且由于這種識(shí)別方法是建立在特定的先驗(yàn)知識(shí)基礎(chǔ)上,因此識(shí)別難度大,效率較低[1]。高分辨率遙感影像能夠提供豐富的地物細(xì)節(jié),但各種地物空間分布復(fù)雜,同類(lèi)物體呈現(xiàn)出很大的光譜異質(zhì)性,具體表現(xiàn)為特征類(lèi)內(nèi)方差變大、類(lèi)間方差減小、不同地物的光譜相互重疊,使得傳統(tǒng)的基于像元的分類(lèi)技術(shù)容易造成過(guò)多的錯(cuò)分、漏分,從而導(dǎo)致分類(lèi)精度較低。以往傳統(tǒng)方法主要依據(jù)光譜信息,沒(méi)有較好地利用高空間分辨率影像的對(duì)象特征。近年來(lái)出現(xiàn)了面向?qū)ο蟮姆诸?lèi)方法[2]。
根據(jù)描述圖像的方式不同,當(dāng)前面向?qū)ο蟮膱?chǎng)景分類(lèi)方法分為基于全局特征和基于局部特征的視覺(jué)詞袋模型兩大類(lèi)。早期的場(chǎng)景分類(lèi)方法是根據(jù)圖像的全局統(tǒng)計(jì)特征來(lái)描述場(chǎng)景內(nèi)容的,如顏色直方圖[3]、紋理[4]等。顏色直方圖具有較好的幾何變換不變性,并且計(jì)算效率高。但是由于其舍棄了圖像的空間信息,對(duì)于兩幅顏色分布相同,內(nèi)容具有顯著差別的圖像無(wú)法區(qū)分,因此魯棒性不好,識(shí)別率較低。近年來(lái),場(chǎng)景分類(lèi)的主流方法是基于詞袋模型[5](Bag of visual words,BOVW)的方法,它將圖像表示為一些局部圖像塊,每幅圖像像文本句子一樣被表示為不同頻率的單詞,所有單詞的集合組成詞典。詞袋模型具有計(jì)算簡(jiǎn)單,對(duì)噪聲、光照和局部遮擋更加魯棒等特點(diǎn)。但是由于遙感圖像紋理信息豐富,局部特征點(diǎn)較多,直接采用基于聚類(lèi)方法獲得視覺(jué)單詞不一定能反映場(chǎng)景特征,從而造成總體分類(lèi)精度也不高。并且對(duì)于高分辨率遙感圖像中的不同目標(biāo),各種特征的有效性不盡相同:如有些類(lèi)可能由于其顏色特征的顯著性,所以最適合采用顏色直方圖特征來(lái)進(jìn)行分類(lèi),而有些地物紋理比較豐富,局部特征更加顯著。顯然如果采用單一特征對(duì)不同類(lèi)別目標(biāo)進(jìn)行分類(lèi)不再適用。
針對(duì)上述問(wèn)題,本文從兩方面進(jìn)行了研究。首先對(duì)視覺(jué)詞袋模型進(jìn)行了改進(jìn),通過(guò)對(duì)不同場(chǎng)景類(lèi)的顯著單詞特征信息進(jìn)行加權(quán),從而提高了單一圖像與整體類(lèi)的相似程度。對(duì)一些個(gè)體差異比較明顯,但語(yǔ)義相似的圖像取得了很好的分類(lèi)正確率。其次考慮到每類(lèi)圖像所具有的顯著特征并不一致,并且不同特征錯(cuò)分的情況也不盡相同,提出了多特征融合的遙感圖像分類(lèi)方法,并根據(jù)每種特征的分類(lèi)結(jié)果進(jìn)行自適應(yīng)綜合,最終獲得多特征融合后的分類(lèi)結(jié)果。
圖像特征在模式分類(lèi)中具有極其重要的作用,本文基于改進(jìn)的圖像視覺(jué)詞袋模型、顏色直方圖和Gabor紋理特征進(jìn)行遙感影像分類(lèi)。
文獻(xiàn)[6]提出基于局部特征的生成模型用于圖像分類(lèi),Lazebnik[7]提出了基于幾何對(duì)應(yīng)的圖像分類(lèi)方法,但這些方法性能不穩(wěn)定而且計(jì)算復(fù)雜度非常高。為了更好利用這些局部特征,研究人員提出許多基于特征詞袋的方法進(jìn)行圖像目標(biāo)分類(lèi),并取得良好性能。視覺(jué)詞袋的生成算法主要包括局部特征的提取和圖像的高層語(yǔ)義表示兩個(gè)步驟。
圖像的局部特征是根據(jù)某種顯著性準(zhǔn)則定義的圖像局部模式,通常與一種或幾種圖像屬性的改變相關(guān)聯(lián),存在點(diǎn)、邊、圖像區(qū)塊等多種形式。它可以克服視角和光照變化、復(fù)雜背景、遮擋和類(lèi)內(nèi)差異等視覺(jué)表示的困難。近年Lowe提出的具有各種不變性的尺度不變轉(zhuǎn)換(Scale invariant feature transform,SIFT)特征[8]集特征檢測(cè)和描述于一體,對(duì)旋轉(zhuǎn)、尺度和亮度等變換保持不變,對(duì)視角變化和光照變化也具有一定的穩(wěn)定性。SIFT特征的構(gòu)造方法包括關(guān)鍵點(diǎn)的檢測(cè)和描述子的構(gòu)造兩部分。
將輸入圖像通過(guò)不同尺度的高斯核函數(shù)進(jìn)行連續(xù)濾波和下采樣,形成高斯金字塔圖像。再將相鄰尺度的兩個(gè)高斯圖像相減得到高分差(Difference of Gaussians,DoG),即金字塔多尺度空間表示。然后對(duì)金字塔多尺度空間上的每個(gè)點(diǎn)與相鄰尺度和相鄰位置的點(diǎn)逐個(gè)進(jìn)行比較,得到的局部極值位置即為關(guān)鍵點(diǎn)所處的位置和對(duì)應(yīng)的尺度。通過(guò)擬合三維二次函數(shù)對(duì)關(guān)鍵點(diǎn)進(jìn)行進(jìn)一步的精確定位,去除低對(duì)比度關(guān)鍵點(diǎn)和不穩(wěn)定的邊緣響應(yīng)點(diǎn),以增強(qiáng)匹配穩(wěn)定性和抗噪聲能力。
在構(gòu)造SIFT描述子之前要為每個(gè)關(guān)鍵點(diǎn)賦予一個(gè)主方向,使描述子具有旋轉(zhuǎn)不變性。然后以特征點(diǎn)為中心,取16像素×16像素的鄰域作為采樣窗口,再將此鄰域均勻地分為4×4個(gè)子區(qū)域,計(jì)算每個(gè)子區(qū)域的梯度方向直方圖,然后將子區(qū)域里的8方向直方圖根據(jù)位置順次排序,最后獲得4×4×8的128維特征描述子[9]。
提取局部特征描述子后,利用矢量量化方法(如K均值聚類(lèi))對(duì)局部特征點(diǎn)集進(jìn)行聚類(lèi),聚類(lèi)中心即為視覺(jué)單詞。K均值聚類(lèi)算法具有簡(jiǎn)單、高效等優(yōu)點(diǎn),常用于視覺(jué)詞袋模型中生成視覺(jué)詞典。得到視覺(jué)詞典后,采用硬分配方法將圖像特征向量分配到距離最近的視覺(jué)單詞,然后統(tǒng)計(jì)詞頻形成圖像表示。這樣一幅圖像就可以用一個(gè)高維的視覺(jué)單詞向量進(jìn)行表示[10]。
傳統(tǒng)的詞袋模型已經(jīng)廣泛應(yīng)用于物體識(shí)別和場(chǎng)景分類(lèi),但是也存在一些缺點(diǎn),因此出現(xiàn)很多改進(jìn)算法。如在視覺(jué)表示中加入空間信息[11-12],對(duì)聚類(lèi)算法的改進(jìn)[13-14]等,本文的改進(jìn)算法主要是采用軟權(quán)重的思想加強(qiáng)了圖像的顯著視覺(jué)特征表示。
原始的圖像詞袋表示僅包含了單幅圖像的特征。當(dāng)同一類(lèi)場(chǎng)景的各個(gè)圖像之間存在較大差異時(shí),圖像詞袋表示之間的差異也會(huì)較大。這些差異會(huì)影響圖像的分類(lèi)精度。并且,雖然同一類(lèi)中有些圖像與其他圖像之間存在著較大的差異,但是這些存在較大差異的圖像也包含了能夠代表這一類(lèi)圖像所共有的特征,這些特征是進(jìn)行分類(lèi)判斷的重要依據(jù)。如果充分考慮到同一類(lèi)圖像所共有的圖像特征,那么在分類(lèi)時(shí)就不僅考慮了圖像與圖像之間的相似,也考慮了圖像與整體類(lèi)之間的相似性,從而對(duì)分類(lèi)會(huì)有較大的幫助。一類(lèi)場(chǎng)景中所共有的這些特征往往出現(xiàn)在詞頻比較靠前的一些單詞上,這些單詞的組合構(gòu)成了類(lèi)與類(lèi)之間的鑒別特征。如果在詞袋生成的過(guò)程中對(duì)這些詞頻靠前的單詞進(jìn)行加權(quán)表示,那么單幅圖像就會(huì)加入了所屬類(lèi)的共有特征,從而能提高分類(lèi)精度。
本文據(jù)此對(duì)詞袋模型進(jìn)行了改進(jìn),提出了一種新的加權(quán)詞袋表示,具體步驟如下:
(1)類(lèi)總體詞袋表示:統(tǒng)計(jì)每一類(lèi)場(chǎng)景所有圖像的視覺(jué)詞袋表示中各個(gè)視覺(jué)單詞的詞頻,從而得到一類(lèi)場(chǎng)景的的總體詞袋表示。
(2)確定重要單詞的權(quán)重:從統(tǒng)計(jì)結(jié)果中取前N名單詞的詞頻,對(duì)這N個(gè)單詞的詞頻進(jìn)行歸一化,并通過(guò)其詞頻的倒數(shù)來(lái)表示單詞對(duì)應(yīng)的權(quán)重值,其值分別為wi(0<i<N+1,i為整數(shù))。將這些權(quán)重值進(jìn)行歸一化,使其權(quán)重值在0到1之間。然后對(duì)每一個(gè)權(quán)重值進(jìn)行加1的運(yùn)算,即wi=wi+1。這樣權(quán)重值就被量化到1和2之間,以此消除過(guò)大的權(quán)重所帶來(lái)的不利影響。
(3)挑選每類(lèi)重要的單詞進(jìn)行加權(quán):各個(gè)圖像的特征向量進(jìn)行詞袋分配后,將單幅圖像所屬類(lèi)的前N名單詞的權(quán)重值wi乘以單幅圖像中權(quán)重值wi所對(duì)應(yīng)的單詞詞頻。這樣就得到單幅圖像的加權(quán)視覺(jué)詞袋表示。
經(jīng)過(guò)上述處理,得到了加權(quán)圖像詞袋表示,它充分反映了每類(lèi)圖像的顯著特征,后面的實(shí)驗(yàn)證明能有效提高圖像的分類(lèi)精度。
顏色直方圖是在許多圖像檢索系統(tǒng)中被廣泛采用的一種全局特征,具有特征提取和相似度計(jì)算簡(jiǎn)便的優(yōu)點(diǎn)。Swain和Ballard[3]最早提出把直方圖應(yīng)用于圖像檢索。本文的直方圖特征提取基于亮度飽和度(Hue,lightness,saturation,HLS)色彩空間,相對(duì)于RGB色彩空間,其更符合人眼的視覺(jué)感知特性。具體提取方法如下:
對(duì)于圖像中的每一個(gè)像素,將其H,L,S分量分別量化為8等份,這樣HLS直方圖就有256個(gè)間隔(bin)。然后統(tǒng)計(jì)所有像素的直方圖,最后再進(jìn)行歸一化,以消除圖像大小變化的影響。
紋理是空間以一定的形式變化而產(chǎn)生的圖案,是一種不依賴(lài)于顏色或亮度反應(yīng)圖像中同質(zhì)現(xiàn)象的視覺(jué)特征?;诮y(tǒng)計(jì)信息的紋理特征提取是對(duì)圖像中顏色及強(qiáng)度的空間分布信息進(jìn)行統(tǒng)計(jì)得到相關(guān)紋理信息。使用Gabor濾波器獲得圖像紋理特征被證明是一種高效的遙感圖像分析方法[4],鑒于該方法的優(yōu)越性,它已經(jīng)在2002年的MPEG-7多媒體內(nèi)容描述接口中被標(biāo)準(zhǔn)化[15]。具體提取方法如下:使用5個(gè)尺度,6個(gè)方向的Gabor濾波器對(duì)原始圖像進(jìn)行Gabor變換,可以形成30幅圖像紋理表示,再計(jì)算這30幅圖像的均值和方差從而得到一個(gè)60維的特征向量。
一類(lèi)場(chǎng)景中圖像的顯著特征有些表現(xiàn)在局部特征點(diǎn)上,有些表現(xiàn)在顏色直方圖上,還有一些則表現(xiàn)在紋理上。如圖1中立交橋類(lèi)的紋理非常明顯,如果采用紋理進(jìn)行分類(lèi),將會(huì)有很好的效果。而圖2中的高爾夫球場(chǎng),由于顏色特征比較顯著,則使用顏色直方圖分類(lèi)效果較好。表1給出了這兩類(lèi)圖像采用不同特征的分類(lèi)結(jié)果。可見(jiàn)采用單一的特征對(duì)所有類(lèi)進(jìn)行分類(lèi)很容易造成一類(lèi)場(chǎng)景的顯著特征的丟失從而降低分類(lèi)精度。
圖1 立交橋(紋理特征非常明顯)Fig.1 Overpass(Texture feature is very obvious)
圖2 高爾夫球場(chǎng)(顏色特征非常明顯,總是一些綠色和一些白色的搭配)Fig.2 Golfcourse(Colour feature is very obvious,always be the mixture of green and white)
表1 立交橋類(lèi)和高爾夫球場(chǎng)類(lèi)采用不同特征的分類(lèi)結(jié)果(80幅訓(xùn)練樣本,20幅測(cè)試樣本) %Table 1 The classification accuracy of different features of overpass and golfcourse(80are training samples,20are testing samples)
不僅如此,同一類(lèi)場(chǎng)景的不同圖像的顯著特征也存在差異,如果只采用一種特征來(lái)對(duì)圖像進(jìn)行分類(lèi),則也很容易丟失單幅圖像的顯著特征,造成分類(lèi)精度不高。如飛機(jī)類(lèi)遙感圖像中,有些紋理較為顯著,而有些局部特征比較顯著,見(jiàn)圖3。如果只利用單一特征進(jìn)行識(shí)別,則不能較好的利用每幅圖像的顯著特征,從而造成分類(lèi)精度降低。多特征融合能夠改善這種情況,進(jìn)一步提高分類(lèi)精度[16]。
圖3 飛機(jī)(左邊圖像的紋理特征比較明顯,而右邊圖像的紋理特征不明顯,但是局部形狀特征較為明顯)Fig.3 Airplane(Texture feature of left images are obvious,while the right are not,but the local features are obvious)
本文的方法就是針對(duì)遙感圖像中復(fù)雜目標(biāo)的這些特點(diǎn),首先為不同場(chǎng)景類(lèi)各個(gè)樣本分別提取三種特征,然后采用多特征融合的方法,在圖像分類(lèi)中自適應(yīng)選擇不同特征的分類(lèi)結(jié)果進(jìn)行組合,從而極大提高了分類(lèi)精度。
本文算法步驟如下:
(1)訓(xùn)練過(guò)程。將已經(jīng)標(biāo)記好類(lèi)標(biāo)簽的訓(xùn)練樣本圖像提取局部特征,得到BOVW表示;再提取全局特征,得到HLS顏色直方圖表示和Gabor紋理表示。然后分別用支持向量機(jī)(Support vector machine,SVM)訓(xùn)練,得到3個(gè)不同的支持向量機(jī)分類(lèi)器,分別記為SVM1,SVM2,SVM3。
(2)測(cè)試過(guò)程。提取待測(cè)試圖像的BOVW表示,顏色直方圖特征以及Gabor紋理特征,將其分別采用SVM1,SVM2,SVM3進(jìn)行分類(lèi),得到該圖像的三組預(yù)測(cè)概率:分別為P1,P2,P3。
(3)判斷待檢測(cè)圖像的顯著特征,并求其對(duì)應(yīng)的最大概率值:計(jì)算P1,P2,P3中的最大值max,并得到該max所對(duì)應(yīng)的類(lèi)標(biāo)簽為L(zhǎng)abel1。同時(shí)記錄P1,P2,P3中的次大值以及第3大值,分別對(duì)應(yīng)次顯著特征和最不顯著特征,相應(yīng)的類(lèi)標(biāo)簽記為L(zhǎng)abel2和Label3。
(4)由于次顯著特征和最不顯著特征的組合可能要比顯著特征好,因此要比較這兩者的投票結(jié)果和最顯著特征概率的大?。喝绻鸏abel2和Label3相同,并且對(duì)應(yīng)的概率之和大于max,則最終的分類(lèi)結(jié)果為L(zhǎng)abel2或Label3。否則,輸出Label1作為最終的分類(lèi)結(jié)果。
具體測(cè)試流程如圖4所示。
圖4 本文算法測(cè)試過(guò)程的流程圖Fig.4 The flow chart of testing process of our proposed algorithm
鑒于支持向量機(jī)在解決高維特征空間中線性不可分問(wèn)題上的優(yōu)越性能,本文采用支持向量機(jī)作為基分類(lèi)器[17]。對(duì)于多類(lèi)分類(lèi)問(wèn)題,采用一組二類(lèi)分類(lèi)器來(lái)進(jìn)行最大值投票表決,并根據(jù)投票結(jié)果得到分類(lèi)結(jié)果和對(duì)應(yīng)的類(lèi)概率。本文支持向量機(jī)實(shí)現(xiàn)使用了LIBSVM軟件包[18],各個(gè)分類(lèi)器的最優(yōu)參數(shù)通過(guò)該軟件包附帶的網(wǎng)格搜索法獲得。
本文采用了與文獻(xiàn)[5]相同的圖像數(shù)據(jù)進(jìn)行實(shí)驗(yàn)。該圖像數(shù)據(jù)集是國(guó)際上第一個(gè)大型的遙感圖像分類(lèi)公共測(cè)試數(shù)據(jù)集,共21類(lèi),每類(lèi)100幅圖像,均為QuickBird高分辨率遙感圖像,大小為256×256。這些圖像是從美國(guó)地質(zhì)勘探局(United states geological survey,USGS)處下載的,包括美國(guó)多個(gè)州的各種場(chǎng)景:農(nóng)田、飛機(jī)、棒球內(nèi)場(chǎng)、海濱、建筑物、灌叢、稠密居住區(qū)、森林、高速公路、高爾夫球場(chǎng)、海港、十字路口、中等稠密居住區(qū)、活動(dòng)房區(qū)、立交橋、停車(chē)場(chǎng)、河流、機(jī)場(chǎng)跑道、稀疏居住區(qū)、儲(chǔ)油罐和網(wǎng)球場(chǎng)。這些圖像反映了每類(lèi)場(chǎng)景的典型情況,具有較好的代表性。
在下面分類(lèi)實(shí)驗(yàn)中,如無(wú)特別說(shuō)明,從每一類(lèi)中取出80幅圖像作為訓(xùn)練樣本,20幅圖像作為測(cè)試樣本。
首先比較了采用不同核函數(shù)時(shí)詞袋模型的分類(lèi)精度,并據(jù)此確定后續(xù)實(shí)驗(yàn)的核函數(shù)。圖5和圖6分別給出了改進(jìn)的BOVW方法和原始BOVW方法在采用不同的SVM核函數(shù)和碼本個(gè)數(shù)時(shí)的平均分類(lèi)精度值。從圖5和圖6可以看出,直方圖相交核(Histogram Inter SVM)要優(yōu)于線性核函數(shù)(Linear SVM)和徑向基核(RBF SVM),并且當(dāng)碼本的個(gè)數(shù)為1 000時(shí),分類(lèi)效果最好。圖5,6中,碼本個(gè)數(shù)分別為200,500,1 000,2 000,5 000。
圖5 采用不同的核函數(shù)和碼本個(gè)數(shù),改進(jìn)的BOVW方法的總體平均分類(lèi)精度Fig.5 The overall average classification accuracy of our improved BOVW method which use the different kernel function or codebook number
圖6 采用不同的核函數(shù)和碼本個(gè)數(shù),原始的BOVW方法的總體平均分類(lèi)精度Fig.6 The overall average classification accuracy of our original BOVW method which use the different kernel function or codebook number
圖7 本文改進(jìn)后的BOVW生成算法和原始BOVW的各類(lèi)分類(lèi)精度和總的平均分類(lèi)精度Fig.7 The average classification accuracy of each class which used our improved BOVW algorithm or the original algorithm,the overall average classification accuracy which use our improved BOVW algorithm or the original algorithm
采用本文改進(jìn)的BOVW詞袋生成算法,算法步驟2中的參數(shù)N為20時(shí)效果最佳。與普通的BOVW算法進(jìn)行比較,結(jié)果如圖7所示。從圖7看出,本文改進(jìn)的BOVW詞袋生成算法比原始的BOVW詞袋生成算法的總體平均分類(lèi)精度約有4%的提高(78.33%vs 74.52%)。
根據(jù)上一節(jié)實(shí)驗(yàn)分析,采用直方圖相交核作為BOVW特征和顏色直方圖特征的核函數(shù)。RBF核函數(shù)作為Gabor紋理特征的的核函數(shù)。BOVW特征中,參數(shù)C的值設(shè)為8時(shí)分類(lèi)結(jié)果最優(yōu),顏色直方圖特征中,參數(shù)C的值設(shè)為32時(shí)最優(yōu)。Gabor特征中,參數(shù)C的值設(shè)為128,參數(shù)g的值設(shè)為0.003 906 25時(shí)最優(yōu)。
如前所述,從每一類(lèi)中選取80幅圖像作為訓(xùn)練樣本,利用支持向量機(jī)進(jìn)行訓(xùn)練,其余20幅圖像作為測(cè)試樣本。各個(gè)特征對(duì)應(yīng)分類(lèi)器使用的參數(shù)如下:詞袋模型中,碼本個(gè)數(shù)為1 000;顏色直方圖特征中,向量維數(shù)為512;Gabor紋理中,尺度數(shù)為5,方向數(shù)為6,向量維數(shù)為60。分類(lèi)結(jié)果統(tǒng)計(jì)如圖8所示。
從圖8可以看出,對(duì) AGRI,AIR,BUILD,CHAP,F(xiàn)OR,HARB,INTER,MHP,PARK,SRE,TENN 類(lèi),BOVW 的 分 類(lèi) 效 果 較 好,對(duì)BASE,BEACH,DRE,GOLF,MRE,RIV,STOR類(lèi),顏色直方圖的效果較好,對(duì)FREE,OVER,RUN類(lèi),Gabor紋理特征的分類(lèi)較高。雖然每一種特征都有表現(xiàn)較好的幾類(lèi),但是總體平均分類(lèi)精度都不高,不能滿足實(shí)際分類(lèi)精度的要求。3種單一特征BOVW,顏色直方圖,Gabor紋理的總體平均分類(lèi)精度分別為78.33%,78.33%,71.19%。
采用本文自適應(yīng)融合算法的分類(lèi)結(jié)果的統(tǒng)計(jì)如圖8所示。從圖8可以看出,除了BASE,BEACH,GOLF,RIV,SRE類(lèi),其他類(lèi)的分類(lèi)精度都要比單一特征的最大分類(lèi)精度要高,這說(shuō)明對(duì)每一種特征,其錯(cuò)分的圖像不同,并且有交叉。采用多特征融合的方法可以根據(jù)圖像的顯著特征自適應(yīng)得到較可靠的分類(lèi)結(jié)果。而B(niǎo)ASE,BEACH,GOLF,RIV,SRE類(lèi),由于個(gè)別圖像的顯著特征將其錯(cuò)分了,從而導(dǎo)致最終的分類(lèi)錯(cuò)誤,降低了總的分類(lèi)精度。但這些降低是建立在其他大多數(shù)類(lèi)的分類(lèi)精度的明顯提升基礎(chǔ)上的,所以這種折中平衡是可以接受的。從圖像的總體平均分類(lèi)精度上看,達(dá)到了89.05%,比單一特征分類(lèi)精度的最高值78.33%要高出約10%。這樣好的分類(lèi)精度表明本文算法具有較大優(yōu)越性。
在文獻(xiàn)[19,20]中,研究人員提出幾種常見(jiàn)的多分類(lèi)器組合方法用于遙感圖像分類(lèi),有投票表決法,最大概率類(lèi)別法及模糊積分判別法等,本文選擇對(duì)加權(quán)綜合法,多數(shù)票法和完全一致法3種多分類(lèi)器組合方法進(jìn)行比較。加權(quán)綜合法計(jì)算每種特征所對(duì)應(yīng)分類(lèi)器的總體精度,作為其權(quán)重值,然后分別求出待識(shí)別圖像的每種特征所對(duì)應(yīng)的類(lèi)概率值,并乘以其權(quán)重。最后對(duì)相同類(lèi)的概率值相加,并根據(jù)最大概率作為最終的輸出。多數(shù)票法計(jì)算每種特征所對(duì)應(yīng)的類(lèi)標(biāo)簽輸出,只有至少兩個(gè)輸出標(biāo)簽相同時(shí)才給出識(shí)別結(jié)果,否則拒識(shí)。完全一致法要求更嚴(yán)格,只有在3個(gè)分類(lèi)器輸出一致的情況下才輸出結(jié)果,否則拒識(shí)。圖9給出了上述3種組合方法對(duì)各類(lèi)的具體識(shí)別結(jié)果。表2給出了各種方法的平均分類(lèi)精度對(duì)比。
表2 各種方法平均分類(lèi)精度對(duì)比 %Table 2 The comparison of the overall average classification accuracy of different functions
圖8 單一特征和多特征融合方法的各類(lèi)分類(lèi)精度和總的平均分類(lèi)精度Fig.8 The average classification accuracy of each class which is based on the single feature or the fusion of multiple features
圖9 加權(quán)綜合法、多數(shù)票法和完全一致法各類(lèi)分類(lèi)精度和總的平均分類(lèi)精確度Fig.9 The average classification accuracy of each class which used weighted comprehensive assessment method or the majority vote method or the complete unification method,the overall average classification accuracy which used weighted comprehensive assessment method or the majority vote method or the complete unification method
為了說(shuō)明本文方法的有效性,采用遙感圖像分類(lèi)中常用的非參數(shù) McNemar檢驗(yàn)[21]進(jìn)行統(tǒng)計(jì)顯著性分析。該方法基于標(biāo)準(zhǔn)正態(tài)檢驗(yàn)公式
式中:f12表示方法1錯(cuò)分類(lèi)而方法2正確分類(lèi)的樣本數(shù),f21表示方法2錯(cuò)分類(lèi)而方法1正確分類(lèi)的樣本數(shù)。本文方法和其他方法的顯著性檢驗(yàn)結(jié)果見(jiàn)表3。
表3 本文方法與其他各種方法的非參數(shù)McNemar檢驗(yàn)結(jié)果Table 3 The result comparison of non-parameter of our proposed method and other methods
對(duì)于5%的顯著性水平,對(duì)應(yīng)的|z|值為1.96。本文方法和加權(quán)綜合法處于相同水平,而顯著優(yōu)于多數(shù)票法與完全一致法。加權(quán)綜合法平均分類(lèi)精度與本文算法的結(jié)果比較接近,但是由于該方法要求首先根據(jù)訓(xùn)練樣本集測(cè)試精度確定每個(gè)分類(lèi)器的權(quán)重,考慮的是所有訓(xùn)練樣本的總體平均精度,而本文方法根據(jù)每個(gè)測(cè)試樣本的具體情況自適應(yīng)確定其多特征的融合,因此本文方法平均精度更高。多數(shù)票法和完全一致法明顯低于本文方法,分別只有81.43%和52.86%。
本文采用基于支持向量機(jī)的多特征融合的方法對(duì)高分辨率遙感圖像進(jìn)行分類(lèi),對(duì)各單一特征的分類(lèi)結(jié)果進(jìn)行自適應(yīng)綜合,提高了分類(lèi)精度。并且改進(jìn)了傳統(tǒng)的BOVW生成算法,對(duì)每類(lèi)的總體視覺(jué)單詞特征進(jìn)行了加權(quán),提高了分類(lèi)精度。與當(dāng)前流行的幾種融合方法進(jìn)行比較,在一個(gè)大型遙感圖像公共測(cè)試數(shù)據(jù)集上進(jìn)行的對(duì)比實(shí)驗(yàn)證明了本文方法較有效,具有更高的分類(lèi)精度。每類(lèi)遙感目標(biāo)都有各自的顯著性特征,如果采用視覺(jué)注意模型,對(duì)遙感圖像中代表一類(lèi)場(chǎng)景的顯著信息進(jìn)行提取,并且去除冗余信息,分類(lèi)精度應(yīng)該會(huì)有更大的提高。
[1]張錦水,何春陽(yáng),潘耀忠,等.基于SVM的多源信息復(fù)合的高空間分辨率遙感數(shù)據(jù)分類(lèi)研究[J].遙感學(xué)報(bào).2006,10(1):49-57.
Zhang Jinshui,He Chunyang,Pan Yaozhong,et al.The high spatial resolution RS image classification based on SVM method with the multi-source data[J].Journal of Remote Sensing,2006,10(1):49-57.
[2]黎新亮,趙書(shū)河,芮一康,等.面向?qū)ο蟾叻直孢b感影像分類(lèi)研究[J].遙感信息,2007,6:58-61.
Li Xinliang,Zhao Shuhe,Rui Yikan,et al.Study on object-oriented approach to classification of high resolution remote sensed image[J].Remote Sensing Information,2007,6:58-61.
[3]Swain M J,Ballard D H.Color indexing[J].International Journal of Computer Vision,1991,7(1):11-32.
[4]Lee Tai Sing.Image representation using 2Dgabor wavelets[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1996,18(10):1-13.
[5]Yang Yi,Shawn N.Bag of visual words and spatial extensions for land-use classification[C]//ACM International Conference on Advances in Geographic In-formation Systems.New York,USA:[s.n.],2010:270-279.
[6]Li Feifei,Perona P.A Bayesian hierarchical model for learning natural scene categories[C]//IEEE International Conference on Computer Vision and Pattern Recognition.San Diego,CA,USA:[s.n.],2005:524-531.
[7]Lazebnik S,Schmid C,Ponce J.A maximum entropy framework for part-based texture and object recognition[C]//IEEE International Conference on Computer Vision and Pattern Recognition.Beijing,China:[s.n.],2005:832-838.
[8]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-100.
[9]李曉明,鄭鏈,胡占義.基于SIFT特征的遙感影像自動(dòng)配準(zhǔn)[J].遙感學(xué)報(bào),2006,10(6):885-892.
Li Xiaoming,Zheng Lian,Hu Zhanyi.SIFT based automatic registration of remotely-sensed imagery[J].Journal of Remote Sensing,2006,10(6):885-892.
[10]王傳旭,董晨晨.基于時(shí)空特征點(diǎn)的群體異常行為檢測(cè)算法[J].數(shù)據(jù)采集與處理,2012,27(4):422-428.
Wang Chuanxu,Dong Chenchen.Abnormal crowded behavior detection algorithm based on spatial temporal interesting points[J].Journal of Data Acquisition and Processing,2012,27(4):422-428.
[11]Yang Yi,Shawn N.Spatial pyramid co-occurrence for image classification[C]//IEEE International Conference on Computer Vision.Barcelona,Spain:[s.n.],2011:1465-1472.
[12]Wu J,Rehg J M.Beyond the euclidean distance:Creating effective visual codebooks using the histogram intersection kernel[C]//IEEE International Conference on Computer Vision.Kyoto,Japan:[s.n.],2009:630-637.
[13]劉巍,賀廣南,楊育彬.結(jié)構(gòu)上下文:一種新的物體類(lèi)別描述符[J].計(jì)算機(jī)科學(xué)與探索,2010,4(04):304-311.
Liu Wei,He Guangnan,Yang Yubing.Structural context:A new descriptor for object categorization[J].Journal of Frontiers of Computer Sci & Tech,2010,(04):304-311.
[14]楊丹,李博,趙紅.魯棒視覺(jué)詞匯本的自適應(yīng)構(gòu)造與自然場(chǎng)景分類(lèi)應(yīng)用[J].電子與信息學(xué)報(bào),2010,32(9):2139-2144.
Yang Dan,Li Bo,Zhao Hong.An adaptive algorithm for robust visual codebook generation and its natural scene categorization application[J].Journal of Electronics &Information Technology,2010,32(9):2139-2144.
[15]Li Shijin,Tao Jian,Wan Dingsheng,et al.Contentbased remote sensing image retrieval using co-training of multiple classifiers[J].Journal of Remote Sensing,2010,14(3):493-506.
[16]羅曉清,吳小俊,王士同,等.基于二次融合多特征的多聚焦圖像融合[J].數(shù)據(jù)采集與處理,2010,25(4):430-436.
Luo Xiaoqing,Wu Xiaojun,Wang Shitong,et al.Multi-focus image fusion based on second fusion and multi-feature[J].Journal of Data Acquisition and Processing,2010,25(4):430-436.
[17]程娟,平西建,周冠瑋.基于多特征和SVM的文本圖像版面分類(lèi)方法[J].數(shù)據(jù)采集與處理,2008,23(5):569-574.
Cheng Juan,Ping Xijian,Zhou Guanwei.Layout analysis based on multi-feature and SVM[J].Journal of Data Acquisition and Processing,2008,23(5):569-574.
[18]Chang C C,Lin C J.LIBSVM:A library for support vector machines[J].ACM Transactions on Intelligent Systems and Technology,2011,2:1-27.
[19]彭正林,毛先成,劉文毅,等.基于多分類(lèi)器組合的遙感影像分類(lèi)方法研究[J].國(guó)土資源遙感,2011,89(2):19-25.
Peng Zhenglin,Mao Xiancheng,Liu Wenyi,et al.Method for classification of remote sensing images based on multiple classifiers combination[J].Remote Sensing for Land & Resources,2011,89(2):19-25.
[20]孫灝,杜培軍,趙衛(wèi)常.基于多分類(lèi)器組合的高分辨率遙感影像目標(biāo)識(shí)別[J].地理與地理信息科學(xué),2009,25(1):32-35.
Sun Hao,Du Peijun,Zhao Weichang.Target identification from high resolution remote sensing image based on multiple classifier combination[J].Geography and Geo-Information Science,2009,25(1):32-35.
[21]Foody G M.Thematic map comparison:Evaluating the statistical significance of differences in classification accuracy[J].Photogrammetric Engineering &Remote Sensing,2004,70(5):627-633.