支俊俊,董 婭,魯李燦,施金輝,駱文慧,周 悅,耿 濤,夏敬霞,賈 蔡
?農(nóng)業(yè)航空工程?
基于無(wú)人機(jī)RGB影像的玉米種植信息高精度提取方法
支俊俊1,2,董 婭3,魯李燦4,施金輝1,駱文慧1,周 悅1,耿 濤1,夏敬霞1,賈 蔡1※
(1. 安徽師范大學(xué)地理與旅游學(xué)院,蕪湖 241002;2. 江淮流域地表過(guò)程與區(qū)域響應(yīng)安徽省重點(diǎn)實(shí)驗(yàn)室,蕪湖 241002;3. 浙江農(nóng)林大學(xué)環(huán)境與資源學(xué)院,杭州 311300;4. 安徽省太湖縣自然資源和規(guī)劃局,安慶 246400)
為探究易獲取且成本低的超高分辨率無(wú)人機(jī)(Unmanned Aerial Vehicle,UAV)航拍“紅-綠-藍(lán)”(Red-Green-Blue,RGB)彩色影像提取作物種植信息的方法,該研究選取植被指數(shù)、“色度-色飽和度-亮度”(Hue-Saturation-Intensity,HSI)色彩特征和紋理特征等3種特征,通過(guò)比較貝葉斯(Bayes)、K最鄰近分類(K-Nearest Neighbor,KNN)、支持向量機(jī)(Support Vector Machine,SVM)、決策樹(shù)(Decision Tree,DT)和隨機(jī)森林(Random Forest,RF)共5種監(jiān)督分類算法及不同特征組合的分類效果,以實(shí)現(xiàn)玉米種植信息的高精度提取。結(jié)果表明,使用單一種類特征或使用全部3種特征均不能獲得最優(yōu)的分類精度;將植被指數(shù)與HSI色彩特征或與紋理特征進(jìn)行組合獲得的總體分類精度(5種算法平均值)比僅使用植被指數(shù)獲得的總體分類精度分別提高了4.2%和8.3%;在所有特征組合中,HSI色彩特征和紋理特征組合為最優(yōu)選擇,基于該特征空間的RF算法獲得了最高的分類精度,總精度為86.2%,Kappa系數(shù)為0.793;基于RF算法進(jìn)行降維并不能顯著提高或降低分類精度(SVM除外),但所保留的特征因子可給出符合實(shí)際背景和意義的解釋,并可提高分類結(jié)果的穩(wěn)定性。研究結(jié)果可為基于無(wú)人機(jī)RGB影像的作物種植信息高精度提取提供方法參考。
模型;遙感;無(wú)人機(jī);玉米;植被指數(shù);紋理特征;機(jī)器學(xué)習(xí)
玉米(L.)作為一種重要的糧食作物,其精確、及時(shí)的空間分布信息對(duì)于制定農(nóng)產(chǎn)品進(jìn)出口計(jì)劃、指導(dǎo)和調(diào)控農(nóng)業(yè)種植結(jié)構(gòu)、推進(jìn)政策性農(nóng)業(yè)保險(xiǎn),以及確保國(guó)家糧食安全等都具有重要的現(xiàn)實(shí)意義[1-2]。利用衛(wèi)星遙感影像監(jiān)測(cè)和提取農(nóng)作物信息是解決較大區(qū)域尺度上農(nóng)業(yè)空間布局問(wèn)題的常用方法[3]。但是在較小地域尺度上(如田塊或農(nóng)場(chǎng)),衛(wèi)星遙感影像往往存在著空間分辨率較低、時(shí)間滯后以及易受云層覆蓋影響等缺陷,難以適用[4]。
近年來(lái),無(wú)人機(jī)遙感的興起,使得高精度獲取小區(qū)域作物種植信息技術(shù)邁向一個(gè)新臺(tái)階,其已在作物長(zhǎng)勢(shì)監(jiān)測(cè)、作物估產(chǎn)、作物災(zāi)害評(píng)估、農(nóng)業(yè)生產(chǎn)管理決策等領(lǐng)域得到了廣泛的應(yīng)用,并且與衛(wèi)星遙感技術(shù)相互補(bǔ)充[5-7]。然而,當(dāng)前有關(guān)利用無(wú)人機(jī)遙感提取作物種植信息的研究多集中于多光譜、高光譜影像的分類領(lǐng)域,該類無(wú)人機(jī)及其搭載的多光譜或高光譜相機(jī)設(shè)備普遍較為昂貴,限制了其在實(shí)際生產(chǎn)中的應(yīng)用。近幾年來(lái),低成本、易獲取的無(wú)人機(jī)“紅-綠-藍(lán)”(Red-Green-Blue,RGB)彩色影像越來(lái)越多地應(yīng)用于作物分類識(shí)別領(lǐng)域。與多光譜或高光譜影像所通常使用的對(duì)植被信息較敏感的近紅外波段和紅邊波段計(jì)算植被指數(shù)不同,無(wú)人機(jī)RGB影像應(yīng)用的一大難點(diǎn)在于其僅包含紅、綠、藍(lán)3個(gè)波段,因此需要盡可能挖掘影像中各種可用的特征信息。
基于遙感影像進(jìn)行地物分類所通常采用的特征可歸納為植被指數(shù)、色彩特征和紋理特征等3大類[8-9]。目前,學(xué)者已提出了面向RGB影像的多種植被指數(shù),并將其應(yīng)用于作物種類識(shí)別及農(nóng)學(xué)參數(shù)反演等相關(guān)研究中。Randjelovic等[10]利用基于無(wú)人機(jī)RGB影像提取的歸一化綠紅差異指數(shù)和過(guò)綠紅植被指數(shù)等8種植被指數(shù)提取大豆種植密度信息,模型驗(yàn)證相關(guān)系數(shù)為0.87。高林等[11]利用基于無(wú)人機(jī)RGB影像的綠紅植被指數(shù)等4種植被指數(shù)提取冬小麥葉面積指數(shù),該研究證明了將無(wú)人機(jī)RGB影像應(yīng)用于冬小麥葉面積指數(shù)反演具有可行性。為了提高基于無(wú)人機(jī)RGB影像的模型性能,陳晨等[12-14]在使用RGB影像植被指數(shù)的基礎(chǔ)上,進(jìn)一步從顏色、紋理、空間位置等方面挖掘RGB影像中的有價(jià)值信息。然而,在遙感影像分類實(shí)際應(yīng)用中,為了獲得較高的分類精度,研究者經(jīng)常使用大量的特征因子,造成算法復(fù)雜、處理過(guò)程較困難、分類效率較低等問(wèn)題。為解決該問(wèn)題,學(xué)者往往在進(jìn)行分類前使用主成分分析法進(jìn)行特征降維,通過(guò)減少冗余信息來(lái)提高分類效率。但是每個(gè)主成分因子可能空有信息量而無(wú)實(shí)際含義,難以給出符合實(shí)際背景和意義的解釋。因此,在基于無(wú)人機(jī)RGB影像的農(nóng)作物分類識(shí)別研究中,需要提高農(nóng)作物分類的精度,并科學(xué)有效地選取具有實(shí)際意義的特征因子。
綜上,本研究基于易獲取且成本低的無(wú)人機(jī)航拍高分辨率RGB影像,針對(duì)其影像中通常存在的陰影、裸地等干擾信息影響分類精度以及當(dāng)前研究中存在的特征因子選取存在主觀性等問(wèn)題,從植被指數(shù)、色彩和紋理等方面選取分類特征,利用機(jī)器學(xué)習(xí)等算法進(jìn)行分類,量化特征因子選取方法對(duì)分類精度的影響,以期為無(wú)人機(jī)遙感監(jiān)測(cè)農(nóng)作物提供參考。
研究區(qū)位于非洲東南部馬拉維(9°48′S~17°30′S,32°40′E~35°55′E)中部的一個(gè)玉米試驗(yàn)農(nóng)場(chǎng)(圖1)。馬拉維境內(nèi)地形起伏較大,北部多山,中部主要為高原,南部主要為低地。作為一個(gè)熱帶草原氣候國(guó)家,馬拉維水資源豐富,水域面積2.4萬(wàn)km2,約占全國(guó)土地總面積的1/5,有眾多的河流和湖泊,其中較為重要的河流和湖泊分別是希雷河與馬拉維湖(非洲第三大湖)。年均氣溫在20 ℃左右,大部分地區(qū)年平均降雨量介于760~1 015 mm,約90%的降水集中在11—4月,為該地區(qū)的農(nóng)業(yè)發(fā)展提供了基本條件。農(nóng)業(yè)對(duì)于推動(dòng)馬拉維的經(jīng)濟(jì)發(fā)展起著至關(guān)重要的作用,其1/3以上的國(guó)內(nèi)生產(chǎn)總值來(lái)自于農(nóng)業(yè)。耕地面積占馬拉維土地總面積的38%,玉米是主要糧食作物之一。
本研究試驗(yàn)田的土壤為黏壤土。試驗(yàn)田劃分為3列(圖1),共有27個(gè)試驗(yàn)小區(qū),每個(gè)試驗(yàn)小區(qū)有6排單作玉米。試驗(yàn)田總面積約為770 m2,平均每個(gè)試驗(yàn)小區(qū)面積為28.5 m2。
航拍影像采集時(shí)間為2018年2月20日10:00—14:00。采用農(nóng)業(yè)固定翼無(wú)人機(jī)(eBee Ag,SenseFly公司,瑞士),搭載多光譜相機(jī)(Sequoia,派諾特公司,法國(guó)),無(wú)人機(jī)平臺(tái)具體參數(shù)如表1所示。利用e-Motion無(wú)人機(jī)飛行與數(shù)據(jù)管理軟件進(jìn)行航線規(guī)劃,使用Airinov輻射板校準(zhǔn)相機(jī),使用拓普康 HIPER SR全球定位系統(tǒng)基站接收機(jī)測(cè)量地面控制點(diǎn)。使用PhotoScan攝影測(cè)量軟件對(duì)航測(cè)數(shù)據(jù)進(jìn)行鑲嵌、地理參照設(shè)置、幾何校正等處理,并進(jìn)行數(shù)據(jù)質(zhì)量評(píng)價(jià)[15],通過(guò)構(gòu)建高等級(jí)密集點(diǎn)云(將“質(zhì)量”參數(shù)設(shè)置為“極高”)、構(gòu)建精細(xì)網(wǎng)格(將“多邊形計(jì)數(shù)”參數(shù)設(shè)置為“高”以獲得更精細(xì)的曲面)、生成紋理(有助于精確標(biāo)記)等處理獲得質(zhì)量較高的原始圖像。本研究采用分辨率為1.8 cm/像素的RGB正射影像。
表1 無(wú)人機(jī)平臺(tái)主要參數(shù)
本研究從植被指數(shù)、色彩和紋理3個(gè)方面構(gòu)建分類特征。首先利用面向?qū)ο蟮倪b感信息分類與提取軟件eCognition9.0提取影像的植被指數(shù)和紋理特征,并進(jìn)行色彩空間變換,將RGB圖像轉(zhuǎn)化為“色度-色飽和度-亮度”(Hue-Saturation-Intensity,HSI)圖像,進(jìn)行色彩增強(qiáng)。其次,在植被指數(shù)、HSI色彩變換特征和紋理3種特征的基礎(chǔ)上建立3類特征空間。然后,在地理信息系統(tǒng)軟件ArcMap10.3中建立訓(xùn)練樣本,將樣本導(dǎo)入eCognition9.0軟件,并分別采用K最近鄰(K-Nearest Neighbor,KNN)算法、支持向量機(jī)(Support Vector Machine,SVM)算法、貝葉斯(Bayes)算法、隨機(jī)森林(Random Forest,RF)算法、決策樹(shù)(Decision Tree,DT)算法共5種機(jī)器學(xué)習(xí)算法構(gòu)建模型進(jìn)行影像分類,最后通過(guò)比較不同特征空間及不同分類算法對(duì)分類精度的影響,最終得出利用無(wú)人機(jī)RGB影像提取玉米種植信息的高精度分類算法和最優(yōu)特征因子組合。
1.3.1 特征處理
首先,提取無(wú)人機(jī)RGB影像所通常采用的5種植被指數(shù),包括過(guò)綠指數(shù)(Excess Green Index,EXI)[16]、可見(jiàn)光波段差異植被指數(shù)[17]、歸一化綠紅差異指數(shù)(Normalized Green-Red Difference Index,NGRDI)[18]、紅綠比值指數(shù)[19]、植被色彩驗(yàn)證指數(shù)[20];其次,使用SPSS軟件對(duì)5種植被指數(shù)進(jìn)行相關(guān)性分析,以皮爾遜相關(guān)系數(shù)絕對(duì)值大于等于0.8且達(dá)到顯著(≤0.05)作為標(biāo)準(zhǔn)[21]對(duì)存在高度相關(guān)性的植被指數(shù)進(jìn)行剔除;最后,保留EXI和NGRDI兩個(gè)不存在高度相關(guān)性的植被指數(shù)用于特征空間構(gòu)建及影像分類,其計(jì)算如式(1)和式(2)所示。
EXI = 2--(1)
NGRDI=(-)/(+)(2)
式中、、分別指RGB影像中的紅光(630~680 nm)、綠光(525~600 nm)、藍(lán)光(450~515 nm)波段的反射率或像元值。
利用eCognition9.0軟件將RGB圖像轉(zhuǎn)化為HSI圖像,計(jì)算玉米、陰影和裸地等3類樣本(共800個(gè)樣點(diǎn),其中玉米286個(gè)樣點(diǎn),陰影257個(gè)樣點(diǎn),裸地257個(gè)樣點(diǎn))的HSI特征值(表2)。
表2 地物類型的HSI色彩特征值
基于eCongtion9.0軟件,采用灰度共生矩陣方法[22]提取RGB影像的紋理特征。首先,提取玉米、裸地、陰影等3類地物的8項(xiàng)紋理特征值(均值、標(biāo)準(zhǔn)差、協(xié)同性、對(duì)比度、相異性、熵、二階矩、相關(guān)性);然后使用SPSS軟件對(duì)8項(xiàng)紋理特征值進(jìn)行相關(guān)性分析,對(duì)存在高度相關(guān)性的紋理特征進(jìn)行剔除[21];最終保留均值、對(duì)比度、相異性、二階矩和相關(guān)性5項(xiàng)不存在高度相關(guān)性的紋理特征用于特征空間構(gòu)建及影像分類。
1.3.2 特征空間構(gòu)建
基于植被指數(shù)、HSI色彩和紋理3種特征構(gòu)建3類特征空間(包含8個(gè)子類)。第一類使用3種特征中的某一特征,得到3個(gè)子類;第二類是將3種特征進(jìn)行兩兩組合或使用全部3種特征,得到4個(gè)子類;第三類是在使用全部3種特征的基礎(chǔ)上再利用基于隨機(jī)森林模型的逐步特征因子篩選方法[22]進(jìn)行特征降維分析,以篩選出最佳因子組合。具體做法為:1)利用ArcMap10.3在研究區(qū)范圍內(nèi)生成隨機(jī)點(diǎn),用隨機(jī)點(diǎn)提取每一個(gè)特征的屬性值;2)采用開(kāi)源R Studio軟件(R語(yǔ)言版本4.0.2,https://www.r-project.org/)的隨機(jī)森林randomForest軟件包(版本4.6-14)計(jì)算各因子的相對(duì)重要性,由大到小依次為均值、NGRDI、EXI、、、二階矩、相異性、對(duì)比度、相關(guān)性;3)逐次剔除RF算法中重要性最小的因子,構(gòu)建新的隨機(jī)森林模型并重新計(jì)算模型性能和每個(gè)步驟所保留的各因子相對(duì)重要性,使用袋外(Out-Of-Bag,OOB)誤差比較各模型的分類精度[23],OOB誤差即分類錯(cuò)誤率,數(shù)值越小代表分類精度越高,以O(shè)OB誤差達(dá)到最小時(shí)的因子作為最佳因子;4)根據(jù)逐步篩選過(guò)程結(jié)果(圖2),將OOB誤差最小的隨機(jī)森林模型所使用的因子(NGRDI、EXI、、、和均值)作為最佳因子組合,組成第三類特征空間。
注:箱形圖代表運(yùn)行100次隨機(jī)森林模型得出的結(jié)果,主要包含6個(gè)數(shù)據(jù)節(jié)點(diǎn),從上到下依次是最大值、上四分位數(shù)、中位數(shù)(以實(shí)線表示)或平均值(以虛線表示)、下四分位數(shù)、最小值和異常值。
1.3.3 分類算法
將ArcMap10.3中生成的隨機(jī)點(diǎn)作為訓(xùn)練樣本,利用eCognition9.0將矢量文件轉(zhuǎn)換為樣本,然后分別在3類特征空間下利用各分類算法對(duì)樣本進(jìn)行訓(xùn)練和分類。在eCognition9.0軟件中根據(jù)前人研究經(jīng)驗(yàn)[24-25]對(duì)本研究所采用的5種分類算法(Bayes、KNN、SVM、DT、RF)進(jìn)行參數(shù)設(shè)置:KNN算法的鄰近值數(shù)量設(shè)為15;SVM算法的函數(shù)選擇徑向基函數(shù);其余算法的參數(shù)均為默認(rèn)值。
1.3.4 精度評(píng)價(jià)指標(biāo)
基于eCognition9.0軟件,采用基于對(duì)象樣本(共500個(gè)樣點(diǎn),其中玉米180個(gè)樣點(diǎn),陰影160個(gè)樣點(diǎn),裸地160個(gè)樣點(diǎn))的混淆矩陣方法[26]進(jìn)行分類精度評(píng)價(jià)。該方法可充分考慮影像尺度分割結(jié)果中各對(duì)象的數(shù)量和面積等信息,減少基于像元的混淆矩陣方法中驗(yàn)證樣本選取可能存在的不均衡性造成的影響(精度評(píng)價(jià)結(jié)果偏高或偏低)。本研究選擇總體分類精度(Overall Accuracy,OA,%)和Kappa系數(shù)作為主要評(píng)價(jià)指標(biāo),生產(chǎn)者精度(Producer’s Accuracy,PA,%)和用戶精度(User’s Accuracy,UA,%)作為輔助指標(biāo)來(lái)對(duì)分類結(jié)果進(jìn)行精度評(píng)價(jià),各指標(biāo)計(jì)算如式(3)~式(6)所示。
式中為總像元個(gè)數(shù),X為混淆矩陣第行第列上像元數(shù)量,X、X分別為混淆矩陣各行、各列元素之和,為總的分類類別數(shù)。其中,總精度是指分類結(jié)果中能夠被正確地分類的樣本與全部樣本的比值;Kappa系數(shù)(介于0~1之間)表示的是整個(gè)樣本的分類效果,是集合誤差矩陣的整體信息得出的精度,0~0.2為極差一致性,0.2~0.4為普通一致性,0.4~0.6為中等一致性,0.6~0.8為較佳一致性,0.8~1.0則為極佳一致性[27]。
使用5種分類算法基于不同特征空間的分類結(jié)果如表3所示。在使用單一特征時(shí),分類精度最高的是基于紋理特征的RF算法分類結(jié)果,其總精度為84.4%,Kappa系數(shù)為0.766。對(duì)于所有算法而言,使用植被指數(shù)獲得的分類精度普遍較低,其原因在于RGB影像不含對(duì)植被信息較敏感的近紅外波段和紅邊波段,基于RGB波段計(jì)算的植被指數(shù)對(duì)影像分類結(jié)果的貢獻(xiàn)有限。使用單一特征時(shí),SVM算法獲得的總體分類精度均低于65.0%,Kappa系數(shù)均低于0.500,2個(gè)指標(biāo)均為最低,可見(jiàn)SVM算法不適用于采用單一特征進(jìn)行分類,原因在于SVM算法主要基于松弛變量和核函數(shù)技術(shù)來(lái)處理樣本數(shù)據(jù)線性不可分的情況,更適用于高維分類[28]。
表3 不同特征空間下不同算法的分類總體精度和Kappa系數(shù)
與使用單一特征的分類結(jié)果相比,使用兩兩特征組合進(jìn)行分類時(shí),將植被指數(shù)與HSI色彩特征或與紋理特征進(jìn)行組合獲得的總體分類精度(5種算法平均值)比僅使用植被指數(shù)分別提高了4.2%和8.3%。此結(jié)果表明,對(duì)于RGB影像而言,不適宜單純采用植被指數(shù)進(jìn)行分類,將植被指數(shù)與HSI色彩特征或與紋理特征等組合使用可獲得更高的分類精度。在將兩兩特征進(jìn)行組合時(shí),分類精度最高的是基于HSI色彩特征和紋理特征組合的RF算法分類結(jié)果,總體分類精度為86.2%,Kappa系數(shù)為0.793。在HSI色彩特征和紋理特征組合特征空間下有兩類算法的總精度達(dá)到82.0%,Kappa系數(shù)達(dá)到0.730,在所有分類特征的結(jié)果中,該組合特征空間下使用5種算法獲得的總精度和Kappa系數(shù)均沒(méi)有出現(xiàn)極低值的情況,同時(shí)最佳分類結(jié)果也是由該特征空間下的RF算法獲得,表明該特征空間下既可獲得較高的分類精度,又可保證分類結(jié)果的穩(wěn)定性。
相比于采用單一特征和兩兩特征組合,Bayes算法在采用全部特征組合進(jìn)行分類時(shí)獲得最佳的分類精度,總精度為84.0%,Kappa系數(shù)為0.759,同時(shí)也是該分類特征下5種方法中最優(yōu)。對(duì)于KNN、SVM、DT和RF算法,采用全部特征組合獲得的分類精度并非最高。此結(jié)果表明,分類特征并非越多越好,分類特征之間可能會(huì)存在信息冗余對(duì)分類精度產(chǎn)生負(fù)面影響,從而降低分類精度。
為檢驗(yàn)降低冗余信息對(duì)分類精度和效率的影響,對(duì)全部特征進(jìn)行特征降維分析。由表3可知,與采用全部特征進(jìn)行分類的結(jié)果相比,SVM算法采用降維特征獲得的分類總精度提升了約20%。其原因在于盡管SVM算法更適用于高維分類,但高維特征中存在的干擾信息可能會(huì)降低分類精度。本研究結(jié)果表明,消除高維特征中的干擾信息可顯著提升SVM算法的分類精度,與Naboureh等的研究結(jié)果一致[29]。采用除SVM外的4種分類算法進(jìn)行特征降維獲得的分類精度與采用全部特征組合獲得的分類精度基本一致,其總精度偏差均在2.0%以內(nèi),Kappa系數(shù)偏差均在0.030以內(nèi)。此結(jié)果表明,盡管特征降維并不能顯著提高或降低Bayes、KNN、DT和RF算法的分類精度,但降維后保留的特征因子可以直接給出符合實(shí)際背景和意義的解釋,同時(shí)也可以提高分類效率,并且該特征空間下所有算法的分類結(jié)果較穩(wěn)定。
在8個(gè)子特征空間中,有5個(gè)子特征空間(植被指數(shù)、HSI色彩特征、HSI色彩特征與植被指數(shù)組合、全部特征組合、特征降維)最高分類精度是由Bayes算法獲得的,并且該算法在8個(gè)子特征空間下獲得的分類精度變異性較?。偩确秶鸀?7.4%~84.0%,Kappa系數(shù)范圍為0.660~0.759),表明Bayes算法性能穩(wěn)定,分類精度對(duì)所采用的特征因子并不敏感。這與本研究中使用的數(shù)據(jù)規(guī)模及特征因子數(shù)量均較小且已將相關(guān)性較高的特征因子剔除有關(guān),在此情況下基于最小誤差率理論的Bayes算法往往可以獲得穩(wěn)定、較好的分類效果及分類效率[30]。因此,從均衡分類精度和分類穩(wěn)定性的角度而言,Bayes算法是較為理想的分類算法之一。但是,分類總體精度最高的結(jié)果是由采用HSI色彩特征和紋理特征組合的RF算法獲得,該算法在8個(gè)子特征空間下獲得的總精度為74.2%~86.2%,Kappa系數(shù)為0.612~0.793,表明盡管RF算法在分類穩(wěn)定性方面不如Bayes算法,但可以通過(guò)選取合適的特征因子獲得理想的分類精度。因此,從獲取更高分類精度的角度考慮,RF算法是比Bayes算法更優(yōu)的選擇。
基于HSI色彩特征和紋理特征組合的RF算法獲得了最高的分類精度,其混淆矩陣如表4所示。裸地的160個(gè)驗(yàn)證樣本中僅有4個(gè)被錯(cuò)分為玉米,并且沒(méi)有樣本被錯(cuò)分為陰影,裸地的用戶精度和生產(chǎn)者精度分別達(dá)到了94.0%和97.5%。說(shuō)明該方法可以將裸地與玉米及陰影較好地區(qū)分,為玉米枝葉尚未完全生長(zhǎng)出來(lái)時(shí)田間有較多裸地尚未被枝葉覆蓋的玉米生長(zhǎng)早期階段提供了較好的分類方法。而在玉米的180個(gè)驗(yàn)證樣本中,有34個(gè)被分為陰影,其用戶精度為84.5%,生產(chǎn)者精度為75.6%,這是由于陰影和玉米兩者的光譜特征較為相似,區(qū)分難度相對(duì)較大,同時(shí)1.8 cm/像素分辨率的影像中在區(qū)分玉米葉片和陰影時(shí)存在較多混合像元。
表4 基于HSI與紋理特征組合的混淆矩陣和分類精度結(jié)果
為了對(duì)比不同算法的分類效果,繪制了HSI色彩特征和紋理特征組合下各個(gè)算法的分類效果圖以及基于全部特征獲得最高精度的分類效果圖(圖3)。與HSI色彩特征和紋理特征組合下的其他分類算法相比,RF算法可以更精確地將玉米、陰影和裸地區(qū)分開(kāi),特別是準(zhǔn)確地將裸地和玉米進(jìn)行了區(qū)分,并且位于田塊邊緣地帶的裸地較少被錯(cuò)分為陰影或玉米,田塊內(nèi)部的陰影可以被更加細(xì)致地區(qū)分。
本研究通過(guò)充分挖掘無(wú)人機(jī)RGB影像中的植被指數(shù)、色彩和紋理特征信息,獲得了較高的分類精度,明確了基于無(wú)人機(jī)RGB影像的特征因子對(duì)玉米種植信息提取精度的影響。結(jié)論如下:
1)使用單一種類特征難以獲得最優(yōu)的分類精度,而基于特征組合的分類方法通常能獲得更高的分類精度。
2)采用全部特征組合獲得的分類精度并非最高,分類特征之間可能會(huì)存在信息冗余對(duì)分類精度產(chǎn)生負(fù)面影響,從而降低分類精度。
3)基于隨機(jī)森林模型的逐步特征因子篩選方法進(jìn)行特征降維并不能顯著提高或降低分類精度(支持向量機(jī)(Support Vector Machine,SVM)算法除外),但降維后保留的特征因子可給出符合實(shí)際背景和意義的解釋,并可在提高分類效率的同時(shí)保證分類結(jié)果的穩(wěn)定性。
4)在所有特征組合中,基于“色度-色飽和度-亮度”(Hue-Saturation-Intensity,HSI)色彩特征和紋理特征組合的隨機(jī)森林(Random Forest,RF)算法獲得了最高的分類精度,其總精度為86.2%,Kappa系數(shù)為0.793。RF算法在分類穩(wěn)定性方面不如貝葉斯(Bayes)算法,但可以通過(guò)選取合適的特征因子從而獲得理想的分類精度。
影像中存在的混合像元對(duì)玉米和陰影的區(qū)分造成了較大影響,因此需要進(jìn)一步探究在小區(qū)域尺度上(如田塊或農(nóng)場(chǎng))用于分類的RGB影像的最適宜分辨率。本研究使用的是單一時(shí)相航拍影像,玉米在出苗后不同生長(zhǎng)發(fā)育階段的葉面積指數(shù)變化極大,會(huì)直接影響RGB影像中陰影和裸地的數(shù)量、空間分布以及特征因子的選取,因此需要深入研究這些因素對(duì)玉米不同關(guān)鍵生育時(shí)期進(jìn)行分類的影響機(jī)制,并從空間位置(特別是地形起伏較大地區(qū))和長(zhǎng)時(shí)間序列等角度進(jìn)一步挖掘RGB影像中的有效信息。
[1] Su W, Zhang C, Yang J Y, et al. Analysis of wavelet packet and statistical textures for object-oriented classification of forest-agriculture ecotones using SPOT 5 imagery[J]. International Journal of Remote Sensing, 2012, 33(11): 3557-3579.
[2] 陳仲新,任建強(qiáng),唐華俊,等. 農(nóng)業(yè)遙感研究應(yīng)用進(jìn)展與展望[J]. 遙感學(xué)報(bào),2016,20(5):748-767.
Chen Zhongxin, Ren Jianqiang, Tang Huajun, et al. Progress and prospective on agricultural remote sensing research and applications in China[J]. Journal of Remote Sensing, 2016, 20(5): 748-767. (in Chinese with English abstract)
[3] Bastiaanssen W G M, Molden D J, Makin I W. Remote sensing for irrigated agriculture: Examples from research and possible applications[J]. Agricultural Water Management, 2000, 46(2): 137-155.
[4] 陳曉凱,李粉玲,王玉娜,等. 無(wú)人機(jī)高光譜遙感估算冬小麥葉面積指數(shù)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2020,36(22):40-49.
Chen Xiaokai, Li Fenling, Wang Yuna, et al. Estimation of winter wheat leaf area index based on UAV hyperspectral remote sensing[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(22): 40-49. (in Chinese with English abstract)
[5] 王晶晶,史云,劉含海. 無(wú)人機(jī)載框幅式高光譜影像的波段配準(zhǔn)研究[J]. 中國(guó)農(nóng)業(yè)資源與區(qū)劃,2017,38(9):63-71.
Wang Jingjing, Shi Yun, Liu Hanhai. Study on band registration of UAV borne frame hyperspectral images[J]. Journal of China Agricultural Resources and Regional Planning, 2017, 38(9): 63-71. (in Chinese with English abstract)
[6] 劉斌,史云,吳文斌,等. 基于無(wú)人機(jī)遙感可見(jiàn)光影像的農(nóng)作物分類[J]. 中國(guó)農(nóng)業(yè)資源與區(qū)劃,2019,40(8):55-63.
Liu Bin, Shi Yun, Wu Wenbin, et al. Crop classification based on UAV remote sensing image[J]. Journal of China Agricultural Resources and Regional Planning, 2019, 40(8): 55-63. (in Chinese with English abstract)
[7] Susana D P, Rodríguez-Gonzálvez P, Hernández-López D, et al. Vicarious radiometric calibration of a multispectral camera on board an unmanned aerial system[J]. Remote Sensing, 2014, 6(3): 1918-1937.
[8] 戴建國(guó),張國(guó)順,郭鵬,等. 基于無(wú)人機(jī)遙感可見(jiàn)光影像的北疆主要農(nóng)作物分類方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(18):122-129.
Dai Jianguo, Zhang Guoshun, Guo Peng, et al. Classification method of main crops in northern Xinjiang based on UAV visible waveband images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(18): 122-129. (in Chinese with English abstract)
[9] Myint S W, Cober P, Brazel A, et al. Per-pixels vs object-based classification of urban land covers extraction using high spatial resolution imagery[J]. Remote Sensing of Environment, 2011, 115(5): 1145-1161.
[10] Randjelovic P, Djordjevic V, Mili? S, et al. Prediction of soybean plant density using a machine learning model and vegetation indices extracted from RGB images taken with a UAV[J]. Agronomy, 2020, 10(8): 1108.
[11] 高林,楊貴軍,李紅軍,等. 基于無(wú)人機(jī)數(shù)碼影像的冬小麥葉面積指數(shù)探測(cè)研究[J]. 中國(guó)生態(tài)農(nóng)業(yè)學(xué)報(bào),2016,24(9):1254-1264.
Gao Lin, Yang Guijun, Li Hongjun, et al. Winter wheat LAI estimation using unmanned aerial vehicle RGB-imaging[J]. Chinese Journal of Eco-Agriculture, 2016, 24(9): 1254-1264. (in Chinese with English abstract)
[12] 陳晨. 基于無(wú)人機(jī)圖像的小麥生物量與產(chǎn)量的估測(cè)研究[D]. 揚(yáng)州:揚(yáng)州大學(xué),2019.
Chen Chen. Estimation of Wheat Biomass and Yield Based on UAV Images[D]. Yangzhou: Yangzhou University, 2019. (in Chinese with English abstract)
[13] 劉斌,史云,吳文斌,等. 基于無(wú)人機(jī)遙感可見(jiàn)光影像的農(nóng)作物分類[J]. 中國(guó)農(nóng)業(yè)資源與區(qū)劃,2019,40(8):55-63.
Liu Bin, Shi Yun, Wu Wenbin, et al. Crop classification based on UAV remote sensing images[J]. Chinese Journal of Agricultural Resources and Regional Planning, 2019, 40(8): 55-63. (in Chinese with English abstract)
[14] Senthilnath J, Dokania A, Kandukuri M, et al. Detection of tomatoes using spectral-spatial methods in remotely sensed RGB images captured by UAV[J]. Biosystems Engineering, 2016, 146: 16-32.
[15] 王玉娜,李粉玲,王偉東,等. 基于無(wú)人機(jī)高光譜的冬小麥氮素營(yíng)養(yǎng)監(jiān)測(cè)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2020,36(22):31-39.
Wang Yuna, Li Fenling, Wang Weidong, et al. Monitoring of winter wheat nitrogen nutrition based on UAV hyperspectral images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(22): 31-39. (in Chinese with English abstract)
[16] Torres-Sánchez J, Pe?a J M, de Castro A I, et al. Multi-temporal mapping of the vegetation fraction in early-season wheat fields using images from UAV[J]. Computers and Electronics in Agriculture, 2014, 103: 104-113.
[17] 韓文霆,郭聰聰,張立元,等. 基于無(wú)人機(jī)遙感的灌區(qū)土地利用與覆被分類方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(11):270-277.
Han Wenting, Guo Congcong, Zhang Liyuan, et al. Classification method of land cover and irrigated farm land use based on UAV remote sensing in irrigation[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(11): 270-277. (in Chinese with English abstract)
[18] Gitelson A A, Kaufman Y J, Stark R, et al. Novel algorithms for remote estimation of vegetation fraction[J]. Remote Sensing of Environment, 2002, 80(1): 76-87.
[19] 汪小欽,王苗苗,王紹強(qiáng),等. 基于可見(jiàn)光波段無(wú)人機(jī)遙感的植被信息提取[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(5):152-159.
Wang Xiaoqin, Wang Miaomiao, Wang Shaoqiang, et al. Extraction of vegetation information from visible unmanned aerial vehicle images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(5): 152-159. (in Chinese with English abstract)
[20] Meyer G E, Neto J C. Verification of color vegetation indices for automated crop imaging applications[J]. Computers and Electronics in Agriculture, 2008, 63(2): 282-293.
[21] Zhi J J, Zhang G L, Yang F, et al. Predicting mattic epipedons in the northeastern Qinghai-Tibetan Plateau using Random Forest[J]. Geoderma Regional, 2017, 10: 1-10.
[22] 鄭淑丹,鄭江華,石明輝,等. 基于分形和灰度共生矩陣紋理特征的種植型藥用植物遙感分類[J]. 遙感學(xué)報(bào),2014,18(4):868-886.
Zheng Shudan, Zheng Jianghua, Shi Minghui, et al. Classification of cultivated Chinese medicinal plants based on fractal theory and gray level co-occurrence matrix textures[J]. Journal of Remote Sensing, 2014, 18(4): 868-886. (in Chinese with English abstract)
[23] Breiman L. Random forests[J]. Machine Learning, 2001, 45: 5-32.
[24] 李娜,包妮沙,吳立新,等. 面向?qū)ο蟮V區(qū)復(fù)墾植被分類最優(yōu)分割尺度研究[J]. 測(cè)繪科學(xué),2016,41(4):66-71.
Li Na, Bao Nisha, Wu Lixin, et al. Study of optimal segmentation scale in object-based classification for rehabilitated vegetation in coal mining site[J]. Science of Surveying and Mapping, 2016, 41(4): 66-71. (in Chinese with English abstract)
[25] 陳蕊,張繼超. 基于eCognition的遙感圖像面向?qū)ο蠓诸惙椒ㄑ芯縖J]. 測(cè)繪與空間地理信息,2020,43(2):91-95.
Chen Rui, Zhang Jichao. Study on object-oriented classification method of remote sensing image based on eCognition[J]. Geomatics & Spatial Information Technology, 2020, 43(2): 91-95. (in Chinese with English abstract)
[26] Sch?pfer E, Lang S, Albrecht F. Object-Fate Analysis-Spatial Relationships for The Assessment of Object Transition and Correspondence[M]. Berlin: Springer, 2008.
[27] 楊凱歌,馮學(xué)智,肖鵬峰,等. 優(yōu)化子空間SVM集成的高光譜圖像分類[J]. 遙感學(xué)報(bào),2016,20(3):409-419.
Yang Kaige, Feng Xuezhi, Xiao Pengfeng, et al. Hyperspectral image classification based on optimized subspace SVM ensemble[J]. Journal of Remote Sensing, 2016, 20(3): 409-419. (in Chinese with English abstract)
[28] 鄧曾,李丹,柯櫻海,等. 基于改進(jìn)SVM算法的高分辨率遙感影像分類[J]. 國(guó)土資源遙感,2016,28(3):12-18.
Deng Zeng, Li Dan, Ke Yinghai, et al. An improved SVM algorithm for high spatial resolution remote sensing image classification[J]. Remote Sensing for Land & Resources, 2016, 28(3): 12-18. (in Chinese with English abstract)
[29] Naboureh A, Naboureh H, Azadbakht M, et al. RUESVMs: an ensemble method to handle the class imbalance problem in land cover mapping using Google Earth Engine[J]. Remote Sensing, 2020, 12: 3484.
[30] 賴?yán)^文,唐健林. 面向?qū)ο蟮倪b感影像變化檢測(cè)方法[J]. 測(cè)繪科學(xué),2017,42(8):111-115.
Lai Jiwen, Tang Jianlin. Object-based change detection method of remote sensing images[J]. Science of Surveying and Mapping, 2017, 42(8): 111-115. (in Chinese with English abstract)
High-precision extraction method for maize planting information based on UAV RGB images
Zhi Junjun1,2, Dong Ya3, Lu Lican4, Shi Jinhui1, Luo Wenhui1, Zhou Yue1, Geng Tao1, Xia Jingxia1, Jia Cai1※
(1.,,241002,;2.-,241002,; 3.,,311300,; 4.,,246400,)
Ultra-high-resolution aerial images obtained from Unmanned Aerial Vehicles (UAVs) have widely been used to extract crop planting information in recent years. However, some high-resolution multispectral or hyperspectral images were usually costly and time-consuming for data processing. Therefore, it is very necessary to effectively use easily accessible and low-cost high-resolution RGB images, particularly to eliminate the common noises (e.g., shadows and bare land) for a better extraction accuracy of crop planting. In this study, a high-precision extraction method was proposed to obtain the maize planting information using 1.8 cm resolution UAV aerial orthophotos (i.e., RGB images). The experimental maize farm was located in Southeast Africa, where images were taken at noon during the maize growing season. The classification features were also selected from the aspects of the spectrum, color space, and image texture. Then, five types of classification were selected to extract maize planting information, including Bayes, K-Nearest Neighbor (KNN), Support Vector Machine (SVM), Decision Tree (DT), and Random Forest (RF)algorithms). Firstly, an object-oriented interpreting platform (eCognition9.0 software) was selected to calculate the space transform of Hue, Saturation, and Intensity (HSI) color, eight types of RGB texture, and five vegetation indices, including the normalized green-red difference index, red-green ratio index, vegetation color verification index, visible-band difference vegetation index, and excess green vegetation index. Then, three types of feature space were constructed: 1) The first feature space was composed of three sub-feature spaces, i.e., vegetation indices, HSI color space features, and RGB image texture features; 2) The second feature space was composed of four sub-feature spaces, where three types of features were combined (i.e., vegetation indices, HSI color space, and RGB image texture) in pairs or total; 3) The third feature space was composed of the most optimal factors, where the dimension reduction was performed on the combination of all three types of features using RF. Subsequently, the RGB images were classified into three land-use types, including maize, bare land, and shadow. Bayes, KNN, SVM, DT, and RFs models were finally selected for the supervised classification with error matrix. The results showed that the optimal classification accuracy was obtained using neither a single feature nor all three types of features in total. More importantly, a combination of features was usually achieved higher accuracy than that of a single feature. Specifically, the best choice was the combination of HSI color and RGB image texture features using the RF, particularly with the total highest accuracy of 86.2% and a Kappa coefficient of 0.793. Additionally, the dimension reduction of features using RF models was neither significantly improved nor reduced classification accuracy (except for the SVM). However, the factors retained from the feature dimension reduction were easily explained suitable for the actual background and meaning. Furthermore, both classification efficiency and stability were improved greatly during this time. The finding can provide a specific solution for the high-precision extraction of crop planting information using UAV RGB images.
models; remote sensing; unmanned aerial vehicle; maize; vegetation index; texture feature; machine learning
支俊俊,董婭,魯李燦,等. 基于無(wú)人機(jī)RGB影像的玉米種植信息高精度提取方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(18):48-54.doi:10.11975/j.issn.1002-6819.2021.18.006 http://www.tcsae.org
Zhi Junjun, Dong Ya, Lu Lican, et al. High-precision extraction method for maize planting information based on UAV RGB images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(18): 48-54. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2021.18.006 http://www.tcsae.org
2020-09-21
2021-08-13
國(guó)家自然科學(xué)基金項(xiàng)目(41801154,41501229);教育部人文社會(huì)科學(xué)研究青年基金項(xiàng)目(21YJCZH243);安徽師范大學(xué)博士科研啟動(dòng)金項(xiàng)目(2018xjj45);安徽師范大學(xué)大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(202010370185,S202010370405,S202110370393)
支俊俊,博士,副教授,研究方向?yàn)檗r(nóng)業(yè)遙感與信息技術(shù)。Email:zhijunjun@ahnu.edu.cn
賈蔡,博士,講師,研究方向?yàn)閿?shù)學(xué)地質(zhì)、定量農(nóng)業(yè)遙感。Email:jc1986@ahnu.edu.cn
10.11975/j.issn.1002-6819.2021.18.006
S127
A
1002-6819(2021)-18-0048-07