(滁州學(xué)院地理信息與旅游學(xué)院,安徽 滁州239000)
城市綠地是城市生態(tài)系統(tǒng)中必不可少的組成部分,為城市提供諸多生態(tài)服務(wù),發(fā)揮著重要的生態(tài)作用,快速并準(zhǔn)確地獲取城市綠地信息是綠地格局分析、規(guī)劃建設(shè)與管理的基礎(chǔ)[1-2]。因此,為實(shí)現(xiàn)城市綠地的合理規(guī)劃和有效管理需要精確、高效地城市綠地提取方法。
相對(duì)于中低空間分辨率的遙感影像,高空間分辨率的遙感影像具有更為豐富的空間幾何結(jié)構(gòu)、紋理、形狀等信息,這些信息對(duì)提升地方分類(lèi)精度大有裨益。近年來(lái),以Worldview-2、IKONOS等為主的國(guó)外高空間分辨率遙感影像已在城市綠地信息提取中被廣泛應(yīng)用[3-5]。而國(guó)產(chǎn)衛(wèi)星的不斷發(fā)展也使我國(guó)高空間分辨率遙感影像的自主供給能力得到提升,“高分二號(hào)”(GF-2)衛(wèi)星是迄今為止中國(guó)自主研制的空間分辨率最高的民用遙感衛(wèi)星,GF-2影像已廣泛地應(yīng)用于礦山資源監(jiān)測(cè)、土地利用現(xiàn)狀解譯、城市規(guī)劃?rùn)z測(cè)評(píng)價(jià)、交通規(guī)劃等行業(yè)和領(lǐng)域,但在城市綠地提取方面研究還不夠深入[6-9]。
目前,利用遙感影像進(jìn)行地物提取的主要方法可分為目視解譯和計(jì)算機(jī)自動(dòng)分類(lèi)方法兩種。其中目視解譯方法雖然精度高,但過(guò)程繁瑣復(fù)雜且效率低,工作量大成本高;而相對(duì)于目視解疑,利用計(jì)算機(jī)自動(dòng)分類(lèi)的方法不僅可以避免目視解疑中因主觀因素造成的錯(cuò)誤,同時(shí)其還具有快速、大量、高效提取地物信息的優(yōu)點(diǎn)[10]。在計(jì)算機(jī)自動(dòng)分類(lèi)方法中,又可進(jìn)一步分為基于像元的分類(lèi)方法和面向?qū)ο蟮姆诸?lèi)方法,其中基于像元的分類(lèi)方法應(yīng)用較為廣泛,且發(fā)展較為成熟,其代表之一就是最大似然法(Maximum Likelihood, ML)[11-12]; 但隨著遙感影像空間分辨率的不斷提升,傳統(tǒng)的基于像元光譜信息的分類(lèi)方法很難滿足高空間分辨率遙感影像的信息提取需求,因此一種面向?qū)ο笥跋穹治?Object-based Image Analysis, OBIA)技術(shù)得以提出,其在一定程度上降低了“椒鹽現(xiàn)象”,彌補(bǔ)了基于像元分類(lèi)的不足,并逐漸在遙感影像分類(lèi)中占據(jù)了主導(dǎo)地位[13-16]。目前常用的主流面向?qū)ο蠓诸?lèi)算法有決策樹(shù)(Decision Tree, DT)[17]、支持向量機(jī)(Support Vector Machines, SVM)[18]、隨機(jī)森林(Random Forest, RF)[19]、貝葉斯(Bayes)[20]、K最近鄰法(K-Nearest Neighbor, KNN)[21]等。為驗(yàn)證面向?qū)ο蠓诸?lèi)方法在高分辨率遙感影像分類(lèi)中的優(yōu)勢(shì),并系統(tǒng)地比較基于GF-2影像提取城市綠地信息時(shí)幾種面向?qū)ο蠓椒ǖ谋憩F(xiàn)效果和精度差異,文章以滁州市城區(qū)為例,選取了兩個(gè)范圍大小相同的實(shí)驗(yàn)樣區(qū),在綜合視覺(jué)效果和精度結(jié)果下對(duì)這幾種分類(lèi)方法進(jìn)行了比較分析,旨在探索適用、可靠的城市綠地信息提取方法,為精確、高效地提取城市綠地提供參考。
滁州市位于安徽省東部,總面積13398平方千米,為安徽省面積第三大地級(jí)市,地處江淮丘陵?yáng)|北部,北接淮北平原,南近沿江平原,地形以丘陵為主,丘陵面積約占全市總面積的64.9%。市內(nèi)有瑯琊山國(guó)家級(jí)風(fēng)景名勝及明皇陵、龍興寺等歷史文化景點(diǎn),旅游資源優(yōu)異;市境地跨長(zhǎng)江、淮河兩大流域,水資源充沛,此外市內(nèi)礦產(chǎn)資源豐富且植被覆蓋多樣。文章選取滁州市城區(qū)中心部位開(kāi)發(fā)較早,常年沒(méi)有明顯地物變化且城市綠地豐富的兩個(gè)范圍為1.0km×0.8km的矩形區(qū)域作為研究區(qū),如圖1所示。
圖1 GF-2研究區(qū)概況圖
文章以滁州市中心城區(qū)一景GF-2影像為遙感影像數(shù)據(jù)源,該影像的獲取時(shí)間為2015年7月29日,其多光譜波段和全色波段分辨率分別為4m和1m;此外研究區(qū)域30m的ASTER GDEM數(shù)據(jù)和2018年獲得的兩個(gè)研究區(qū)實(shí)地調(diào)查樣本各300(綠地200個(gè),非綠地100個(gè))個(gè)作為輔助數(shù)據(jù)也參與到本研究中。在影像預(yù)處理過(guò)程中,先以中國(guó)資源衛(wèi)星應(yīng)用中心提供的GF-2絕對(duì)輻射定標(biāo)系數(shù)將多光譜數(shù)據(jù)定標(biāo)為輻射亮度,將全色數(shù)據(jù)定標(biāo)為表觀反射率,并利用ENVI 5.3中的FLAASH模塊對(duì)多光譜輻射定標(biāo)之后的輻亮度圖像進(jìn)行大氣校正;然后利用GDEM數(shù)據(jù)對(duì)影像進(jìn)行正射校正,因研究區(qū)域地形變化不明顯,所以未對(duì)影像進(jìn)行進(jìn)一步的地形校正;最后將正射校正后的影像進(jìn)行融合、裁剪,完成了影像的預(yù)處理[10]。
利用經(jīng)過(guò)預(yù)處理后的GF-2研究區(qū)影像分別利用傳統(tǒng)基于像元的ML方法和面向?qū)ο蟮姆椒▽?duì)研究區(qū)綠地進(jìn)行提取。其中面向?qū)ο蟮姆椒ㄏ韧ㄟ^(guò)多尺度分割(Multiresolution Segmentation, MRS)生成影像對(duì)象層,然后構(gòu)建并選取特征參數(shù)作為分類(lèi)的預(yù)測(cè)變量,再利用5種不同的面向?qū)ο蠓诸?lèi)方法實(shí)現(xiàn)綠地的提取。最后,將6種分類(lèi)方法的結(jié)果進(jìn)行對(duì)比分析。研究的技術(shù)流程如圖2所示。
圖2 技術(shù)流程圖
影像分割的目的是將影像中類(lèi)似的像元集合并成對(duì)象單元,是面向?qū)ο蠓诸?lèi)的基礎(chǔ),因此影像分割結(jié)果將直接影響到分類(lèi)的精度。本文采用Cognition Developer中集成的MRS方法實(shí)現(xiàn)了影像的分割和對(duì)象的獲取。在利用MRS方法獲取對(duì)象時(shí)需要對(duì)形狀因子、緊致度因子、分割尺度參數(shù)等進(jìn)行設(shè)定,其中形狀因子、緊致度因子等對(duì)分割結(jié)果影響較小,通過(guò)試錯(cuò)法獲得;而分割尺度的選擇是多尺度分割中的核心問(wèn)題[22],若分割尺度過(guò)大(如圖3a),會(huì)導(dǎo)致單個(gè)對(duì)象包含多種地物,易形成欠分割現(xiàn)象;若尺度過(guò)小(如圖3b),使得地物對(duì)象過(guò)于零碎而對(duì)象紋理和結(jié)構(gòu)信息不足。由于研究區(qū)綠地破碎且零散,經(jīng)過(guò)多次分割實(shí)驗(yàn)并結(jié)合ESP(estimation of scale parameters)尺度評(píng)價(jià)工具[22-23],最終選擇效果最好的分割尺度為30,光譜因子權(quán)重為0.9,形狀因子權(quán)重0.1,緊致度為0.5,光滑度0.5,分割結(jié)果如圖3c。
a.分割尺度:100 b.分割尺度:10 c.分割尺度:30圖3 尺度為30的分割結(jié)果
2.2.1 光譜特征
光譜特征是利用不同地物反射的光譜信息作為影像分類(lèi)的重要依據(jù),研究選取光譜特征包括預(yù)處理后GF-2影像的4個(gè)波段(Blue、Green、Red、NIR)的均值(Mean)、標(biāo)準(zhǔn)差(Standard deviation)、歸一化植被指數(shù)(NDVI)、亮度(Brightness)、最大差分(Max diff)[24](表1)。
表1 特征變量統(tǒng)計(jì)表
2.2.2 紋理特征
紋理特征可以充分利用高分辨率影像地物豐富的紋理信息進(jìn)行輔助分類(lèi),合理的利用紋理特征能夠給影像分類(lèi)精度帶來(lái)很大提高[24]。1973年Haralick等提出的基于灰度共生矩陣(Gray Level Co-occurrence Matrix, GLCM)提取的均值(Mean)、標(biāo)準(zhǔn)差(Standard Deviation)、同質(zhì)性(Homogeneity)、對(duì)比度(Contrast)、相異性(Dissimilarity)、熵(Entropy)、角二階矩(Second Moment)和相關(guān)性(Correlation)是目前研究中常用到的紋理特征[25]。但是紋理特征通常存在著嚴(yán)重的冗余現(xiàn)象,而利用主成分分析(Principal Components Analysis, PCA)法可以減少信息冗余提高運(yùn)行效率。本研究通過(guò)主成分變換所得的PCA1、PCA2波段包含了原始影像99.17%的信息量,因此,本研究選取PCA1、PCA2波段信息替代原始影像構(gòu)建共生矩陣(表1)。
研究從兩個(gè)研究區(qū)實(shí)地調(diào)查樣本中各選分布較為均勻地180個(gè)樣本作為訓(xùn)練樣本(綠地120個(gè),非綠地60個(gè)),而后對(duì)單個(gè)研究區(qū)使用相同訓(xùn)練樣本,并結(jié)合光譜和紋理特征變量分別采用DT、SVM、KNN、Bayes、RF共5種面向?qū)ο蟮姆诸?lèi)方法進(jìn)行影像分類(lèi),同時(shí)作為對(duì)比,使用基于像元的ML進(jìn)行分類(lèi)。
根據(jù)實(shí)驗(yàn)得到的研究區(qū)分類(lèi)結(jié)果,將每種分類(lèi)結(jié)果制作成綠地分布專(zhuān)題圖,如圖4和圖5所示。
a.DT分類(lèi)圖
b.SVM分類(lèi)圖
c.KNN分類(lèi)
d.Bayes分類(lèi)
e.RT分類(lèi)
f.ML分類(lèi)
a.DT分類(lèi)圖
b.SVM分類(lèi)圖
c.KNN分類(lèi)
d.Bayes分類(lèi)
e.RT分類(lèi)
f.ML分類(lèi)
通過(guò)對(duì)比分類(lèi)結(jié)果圖明顯可以看出,研究區(qū)城市綠地分布相當(dāng)破碎零散。就直觀分類(lèi)效果而言,圖4中DT、SVM、RT分類(lèi)效果較好,圖5中DT、SVM、Bayes、RT分類(lèi)效果較好?;谙裨腗L結(jié)果中出現(xiàn)了比較嚴(yán)重的“椒鹽”現(xiàn)象,而在面向?qū)ο蟮姆诸?lèi)結(jié)果中也存在著不同程度的“錯(cuò)分、漏分”現(xiàn)象,其中KNN方法效果較差。
從兩個(gè)研究區(qū)實(shí)地調(diào)查樣本中分別以除去訓(xùn)練樣本后的120個(gè)樣本作為驗(yàn)證樣本(綠地80個(gè),非綠地40個(gè))進(jìn)行精度評(píng)價(jià),驗(yàn)證樣本點(diǎn)分布如圖5所示。研究利用驗(yàn)證樣本對(duì)分類(lèi)結(jié)果構(gòu)建混淆矩陣[26],得出每種分類(lèi)結(jié)果的總體精度和Kappa系數(shù),最終獲得研究區(qū)一和研究區(qū)二的精度評(píng)價(jià)結(jié)果如表2所示。
a.研究區(qū)一
b.研究區(qū)二
從精度評(píng)價(jià)表2可得知,5種面向?qū)ο蠓诸?lèi)的總體精度和Kappa系數(shù)相比基于像元的ML均有明顯地提升,其中RT在兩個(gè)研究區(qū)中均取得了最好的結(jié)果,分類(lèi)精度為88.37%和91.17%,Kappa系數(shù)為0.80和0.87,DT和SVM的分類(lèi)精度略次于RF且二者相差不明顯,而B(niǎo)ayes和KNN的表現(xiàn)較差。
本研究以滁州市城區(qū)GF-2影像數(shù)據(jù)為數(shù)據(jù)源,對(duì)原始影像進(jìn)行輻射定標(biāo)、大氣校正、正射校正、影像融合等預(yù)處理,采用5種不同面向?qū)ο蟮姆诸?lèi)方法和1種基于像元的分類(lèi)方法分別對(duì)研究區(qū)綠地信息進(jìn)行提取,并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比分析,得到如下結(jié)論。
表2 研究區(qū)精度評(píng)價(jià)結(jié)果
在影像分割時(shí)選取不同的分割尺度會(huì)直接影響到分類(lèi)的精度,分割尺度的確定需要反復(fù)的實(shí)驗(yàn),分割的目標(biāo)對(duì)象應(yīng)盡量完整且不冗余,最佳的分割尺度能夠減少分類(lèi)結(jié)果的“錯(cuò)分、漏分”現(xiàn)象,有效地提高分類(lèi)精度。
基于GF-2影像數(shù)據(jù)的面向?qū)ο蠓椒ㄌ崛〕菂^(qū)綠地結(jié)果總體表現(xiàn)較好,從分類(lèi)效果來(lái)看,相比基于像元的ML而言,面向?qū)ο蠓诸?lèi)結(jié)果“椒鹽”現(xiàn)象減少,整體目視效果較好;從精度評(píng)價(jià)結(jié)果來(lái)看,RT的分類(lèi)結(jié)果最優(yōu),相比ML總體精度從77.5%提高到91.17%,Kappa系數(shù)從0.74提高到0.87,DT、SVM、RT分類(lèi)精度都達(dá)到80%以上,兩個(gè)研究區(qū)分類(lèi)精度排序分別為:RT>DT> SVM>Bayes>KNN>ML,RT>SVM>DT>Bayes>KNN>ML。