任鴻杰,劉 萍,岱 超,史俊才
太原理工大學(xué) 大數(shù)據(jù)學(xué)院,山西 晉中 030600
農(nóng)作物種植面積估計(jì)是農(nóng)業(yè)監(jiān)測的一個(gè)重要部分[1]。傳統(tǒng)的農(nóng)作物種植面積估計(jì)是通過統(tǒng)計(jì)方法來獲得,主要有兩種方法:一是層層上報(bào),按照縣、地區(qū)、省和國家為單位逐級(jí)進(jìn)行統(tǒng)計(jì)并最后上報(bào);二是通過抽樣調(diào)查,設(shè)置有代表性的樣本,根據(jù)抽樣統(tǒng)計(jì)原理來估算大區(qū)域內(nèi)的農(nóng)作物種植面積[2]。傳統(tǒng)方法耗費(fèi)了大量的人力物力,統(tǒng)計(jì)速度慢,結(jié)果不夠客觀,并且不能時(shí)空動(dòng)態(tài)監(jiān)測。
遙感技術(shù)由于其具有監(jiān)測范圍廣、獲取資料速度快、獲取的信息量大以及能夠時(shí)空動(dòng)態(tài)監(jiān)測等特點(diǎn),逐漸取代了傳統(tǒng)的人工區(qū)域調(diào)查方法,被廣泛應(yīng)用于農(nóng)業(yè)遙感監(jiān)測的各個(gè)方面[3-4]。
傳統(tǒng)的農(nóng)業(yè)遙感檢測常使用人工目視解譯的方法,但是人工目視解譯對(duì)于解譯人員的技術(shù)要求高,并且其效率不能滿足海量的遙感數(shù)據(jù)處理。近幾年來,深度學(xué)習(xí)在圖像處理、自然語言處理、數(shù)據(jù)分析等領(lǐng)域取得了大量關(guān)鍵性突破,成為當(dāng)今最受關(guān)注的科學(xué)研究之一[5]。隨著深度學(xué)習(xí)的快速發(fā)展與廣泛應(yīng)用,基于卷積神經(jīng)網(wǎng)絡(luò)的分割算法在分割技術(shù)上取得了突破性進(jìn)步[6]。當(dāng)前廣泛使用的語義分割網(wǎng)絡(luò)以Long等[7]提出全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional network,F(xiàn)CN)為代表,通過使用卷積層替換全連接層,輸出保留上下文空間特征的圖像,實(shí)現(xiàn)圖像像素級(jí)別端到端的預(yù)測。基于FCN架構(gòu),鄭二功等[8]利用無人機(jī)影像實(shí)現(xiàn)了對(duì)玉米倒伏區(qū)域自動(dòng)提??;黃云等[9]以Sentinel-2衛(wèi)星遙感影像為數(shù)據(jù)基礎(chǔ),利用Segnet網(wǎng)絡(luò)對(duì)河南省新蔡縣花生種植區(qū)域提取,Segnet網(wǎng)絡(luò)基于FCN網(wǎng)絡(luò)進(jìn)行了一些改進(jìn),添加了編碼解碼(encoder-decoder,ED)結(jié)構(gòu),每個(gè)編碼層對(duì)應(yīng)一個(gè)解碼層,使得反卷積的結(jié)果更加精細(xì),分類精度與總體效率都有所提升。雖然以上研究為農(nóng)作物自動(dòng)提取做出了一定貢獻(xiàn),但是在精度和邊緣識(shí)別效果等方面仍有較大的改進(jìn)空間。DeepLab語義分割系列模型提出空洞空間金字塔池化(atrous spatial pyramid pooling,ASPP)[10],在不改變分辨率的條件下擴(kuò)大感受野,同時(shí)對(duì)不同層級(jí)的特征進(jìn)行融合,對(duì)物體的邊界劃分效果較好。DeepLabV3+結(jié)合了ED結(jié)構(gòu)和ASPP模塊的優(yōu)點(diǎn),成為當(dāng)前綜合性能優(yōu)異的語義分割算法。Zhu等[11]采用DeepLabV3+對(duì)高分辨率遙感甘蔗田進(jìn)行提取,提取精度較高;楊蜀秦等[12]基于DeepLabV3+網(wǎng)絡(luò),利用無人機(jī)多光譜遙感影像對(duì)向日葵、玉米等多類農(nóng)作物提取,農(nóng)作物邊緣分割效果較好。
以上研究表明,DeepLabV3+相對(duì)于常用于農(nóng)作物提取的FCN、Segnet等分割模型具有更好的分割效果,但是由于其本身網(wǎng)絡(luò)結(jié)構(gòu)較為復(fù)雜,上采樣幅度過大導(dǎo)致特征圖中重要像素信息丟失,對(duì)于當(dāng)前遙感影像農(nóng)作物提取仍存在識(shí)別精度較低、邊緣識(shí)別效果較差、提取速度慢等問題。為改善農(nóng)作物分割效果,更加高效準(zhǔn)確獲取農(nóng)作物的種植信息,本文提出了一種改進(jìn)Deep-LabV3+網(wǎng)絡(luò)的遙感影像農(nóng)作物分割方法。首先,將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception[13]網(wǎng)絡(luò)改為更輕量級(jí)的MobileNetV2[14]網(wǎng)絡(luò),大幅減少了模型的參數(shù)計(jì)算量,降低內(nèi)存占用;其次,將ASPP模塊中普通卷積改為深度可分離卷積(deep separable convolution,DSC),進(jìn)一步減少模型參數(shù),提高模型計(jì)算速度;最后,在特征提取模塊以及ASPP模塊加入雙注意力機(jī)制(double attention mechanism,DAM)[15],從而訓(xùn)練出更準(zhǔn)確的分割模型。此外針對(duì)農(nóng)作物數(shù)據(jù)集類別不平衡問題,引入加權(quán)損失函數(shù),給予玉米、薏米與背景類不同的權(quán)重,提高模型對(duì)農(nóng)作物區(qū)域分割精度。以2019年某地區(qū)的無人機(jī)遙感影像為研究對(duì)象,對(duì)玉米、薏米兩種農(nóng)作物進(jìn)行分割,實(shí)驗(yàn)結(jié)果表明,本文提出的方法能夠兼顧準(zhǔn)確率、平均召回率、平均交并比、檢測速度、網(wǎng)絡(luò)大小等各方面的要求,對(duì)農(nóng)作物具有更好的分割效果。
本文數(shù)據(jù)來源于阿里云天池大賽提供的某地區(qū)無人機(jī)遙感影像,影像大小為44 647×32 881像素,影像分辨率為1 m,原圖格式為RGBA的四通道影像。本文為便于研究,采用RGB三通道數(shù)據(jù)合成新的影像作為研究對(duì)象,標(biāo)注分為玉米、薏米以及背景值三類。背景區(qū)域主要包括人造建筑和道路、裸地、草地等非人造建筑。對(duì)影像進(jìn)行無重疊滑動(dòng)切割,由于影像中存在mask無效區(qū)域,為了避免無效樣本對(duì)實(shí)驗(yàn)的干擾,滑動(dòng)切割完之后剔除掉影像中含有mask無效區(qū)域的樣本,最終裁剪出無重疊的9 538張256×256像素的RGB影像作為實(shí)驗(yàn)數(shù)據(jù),并按7∶1∶2的比例將圖像隨機(jī)劃分成訓(xùn)練集、驗(yàn)證集和測試集,其樣本數(shù)量分別為6 671幅、953幅和1 914幅。部分?jǐn)?shù)據(jù)集影像示例如圖1所示,對(duì)應(yīng)標(biāo)簽示例如圖2所示,其中橙色為薏米,黃色為玉米,黑色為背景。
圖1 部分?jǐn)?shù)據(jù)集影像示例Fig.1 Partial dataset image example
圖2 對(duì)應(yīng)標(biāo)簽示例Fig.2 Corresponding label example
DeepLabV3+是一種用于語義分割的典型網(wǎng)絡(luò),該網(wǎng)絡(luò)是對(duì)DeepLabV3網(wǎng)絡(luò)的改進(jìn),以殘差網(wǎng)絡(luò)為底層網(wǎng)絡(luò),添加了ED結(jié)構(gòu),通過恢復(fù)空間信息獲得清晰的對(duì)象邊界,從而優(yōu)化邊界分割。編碼端利用Xception網(wǎng)絡(luò)對(duì)輸入圖像作特征提取,之后利用ASPP模塊將圖像特征進(jìn)行融合,避免信息損失。其中Xception為含輸入流、中間流和輸出流的深度卷積神經(jīng)網(wǎng)絡(luò),ASPP則為含多個(gè)空洞卷積擴(kuò)張率的多尺度金字塔特征提取模塊。解碼端融合Xception輸入流模塊輸出低層特征和編碼端輸出高層特征再進(jìn)行雙線性插值上采樣,輸出分割結(jié)果,最終提高了網(wǎng)絡(luò)分割的精度。網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
圖3 傳統(tǒng)DeepLabV3+模型結(jié)構(gòu)圖Fig.3 Structure diagram of traditional DeepLabV3+model
DeepLabV3+網(wǎng)絡(luò)是目前最為優(yōu)秀的語義分割模型之一,其在VOC數(shù)據(jù)集上取得優(yōu)異成績[16]。但Deep-LabV3+模型也存在一些不足。首先,編碼端特征提取過程中逐漸縮減輸入數(shù)據(jù)的空間維度導(dǎo)致有用信息丟失,在解碼時(shí)不能很好地實(shí)現(xiàn)細(xì)節(jié)恢復(fù);其次,ASPP模塊的引入雖然可以提高模型對(duì)目標(biāo)的邊界提取能力,但是不能完整地模擬出目標(biāo)局部特征間的聯(lián)系,使目標(biāo)分割存在空洞現(xiàn)象,導(dǎo)致對(duì)目標(biāo)分割的準(zhǔn)確率降低;最后,為了追求分割精度,選擇網(wǎng)絡(luò)層數(shù)較多、參數(shù)量較大的Xception作為特征提取網(wǎng)絡(luò),并且ASPP模塊中卷積方式為普通卷積,進(jìn)一步增加了參數(shù)量,模型深度的加深以及參數(shù)量的增加,導(dǎo)致模型的復(fù)雜度增加,對(duì)硬件的要求更高,增加了網(wǎng)絡(luò)訓(xùn)練難度,網(wǎng)絡(luò)訓(xùn)練速度更慢、收斂更慢。為了提高網(wǎng)絡(luò)分割性能,改善以上不足,本文在傳統(tǒng)DeeplabV3+網(wǎng)絡(luò)結(jié)構(gòu)上做了以下改進(jìn):
首先,將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception網(wǎng)絡(luò)改為更輕量級(jí)的MobileNetV2網(wǎng)絡(luò),大幅地減少了模型的參數(shù)計(jì)算量,降低內(nèi)存占用,提高模型的計(jì)算速度;其次,將ASPP模塊中的普通卷積改為DSC,進(jìn)一步減少模型參數(shù),提高模型計(jì)算速度;最后,在特征提取模塊以及ASPP模塊加入DAM,減少精度損失,從而訓(xùn)練出更準(zhǔn)確的分割模型。此外針對(duì)農(nóng)作物數(shù)據(jù)集類別不平衡問題,引入加權(quán)損失函數(shù),給予玉米、薏米與背景類不同的權(quán)重,提高模型對(duì)農(nóng)作物區(qū)域分割精度。網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。
圖4 改進(jìn)DeepLabV3+模型結(jié)構(gòu)圖Fig.4 Structure diagram of improved DeepLabV3+model
2.2.1 特征提取模塊
在編碼層,將DeepLabV3+特征提取模塊Xception網(wǎng)絡(luò)改為更輕量級(jí)的MobileNetV2網(wǎng)絡(luò)。該網(wǎng)絡(luò)的提出是為了解決在圖像模型訓(xùn)練過程中出現(xiàn)的卷積神經(jīng)網(wǎng)絡(luò)龐大、硬件訓(xùn)練不足等問題,相較于Xception網(wǎng)絡(luò),該網(wǎng)絡(luò)網(wǎng)絡(luò)層數(shù)更淺,參數(shù)量更少,模型復(fù)雜度更低,網(wǎng)絡(luò)訓(xùn)練速度更快,收斂更快。MobileNetV2網(wǎng)絡(luò)主要分為3個(gè)部分。第一部分為一個(gè)3×3的卷積塊,用于提取特征;中間部分是多個(gè)含有DSC層的網(wǎng)絡(luò)結(jié)構(gòu),由多個(gè)1×1和3×3的卷積塊組成;最后一部分由兩個(gè)1×1的卷積塊和一個(gè)7×7的平均池化塊組成。結(jié)合DeepLabV3+網(wǎng)絡(luò)結(jié)構(gòu),本文用到了該網(wǎng)絡(luò)的前兩個(gè)部分,具體網(wǎng)絡(luò)結(jié)構(gòu)如表1所示,其中t是輸入通道的倍增系數(shù)(即擴(kuò)張倍數(shù)),c是輸出通道數(shù),n是該模塊的重復(fù)次數(shù),s是stride。
表1 MobileNetV2網(wǎng)絡(luò)結(jié)構(gòu)Table 1 MobileNetV2 network structure
2.2.2 DAM模塊
注意力在人類感知中起著重要作用,人類利用一系列局部觀察,并選擇性地專注于顯著部分,以便更好地捕捉視覺結(jié)構(gòu)[17]。近年來,許多研究人員[18-20]通過添加注意力機(jī)制來改善卷積神經(jīng)網(wǎng)絡(luò)在大規(guī)模分類任務(wù)中的性能。本文在特征提取模塊以及ASPP模塊加入DAM。具體操作為:首先分別在特征的空間維度和通道維度抓取特征之間的全局依賴關(guān)系,捕獲上下文特征信息,增強(qiáng)特征的表達(dá)能力;然后將兩個(gè)注意力模塊的輸出相加,以進(jìn)一步改進(jìn)特征表示;最后獲得更精確的分割結(jié)果。該模塊的結(jié)構(gòu)如圖5所示。
圖5 DAM模塊Fig.5 DAM module
通道注意力機(jī)制。通道注意力機(jī)制通過整合所有通道圖中的相關(guān)特征,有選擇地強(qiáng)調(diào)相互關(guān)聯(lián)的通道圖。因此,本文通過增加通道注意力機(jī)制模塊來顯式地建模通道之間的相互依賴關(guān)系。具體操作為:給定輸入特征圖F∈RC×W×H,其中C表示輸入特征圖的通道數(shù),W和H分別表示特征圖的寬度和高度。首先采用并行的全局最大池化和全局平均池化兩種池化方式對(duì)輸入特征圖F進(jìn)行空間維度壓縮分別得到背景描述然后經(jīng)多層感知機(jī)MLP組成的共享網(wǎng)絡(luò)計(jì)算相加進(jìn)行Sigmoid函數(shù)最終獲得通道注意力機(jī)制映射特征圖Mc∈RC×1×1;最后,將生成的特征圖進(jìn)行特征映射,使其大小變?yōu)镃×W×H,并將原始輸入特征圖逐元素相乘,從而得到通道注意力加權(quán)圖F Cout∈RC×W×H。具體計(jì)算過程如下所示:
其中,σ表示Sigmoid激活函數(shù),?表示元素間的乘法,F(xiàn) c表示將Mc沿著空間維度進(jìn)行復(fù)制得到C×W×H的特征向量。
通道注意力機(jī)制模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。
圖6 通道注意力機(jī)制模塊Fig.6 Channel attention mechanism module
空間注意力機(jī)制??臻g注意力機(jī)制通過所有位置的特征加權(quán)總和選擇性地聚集每個(gè)位置的特征。無論距離遠(yuǎn)近,相似的特征都會(huì)相互關(guān)聯(lián)。因此為了建立更豐富的局部特征間的上下文關(guān)系,引入空間注意力機(jī)制模塊。具體操作為:給定輸入特征圖F∈RC×W×H,其中C表示輸入特征圖的通道數(shù),W和H分別表示特征圖的寬度和高度。首先采用并行的全局最大池化和全局平均池化兩種池化方式對(duì)輸入特征圖F進(jìn)行通道壓縮分別得到背景描述并將兩個(gè)特征圖合并,經(jīng)一個(gè)7×7卷積操作降維到1通道;然后經(jīng)Sigmoid函數(shù)獲得空間注意力機(jī)制映射特征圖M s∈R1×W×H;最后,將生成的特征圖進(jìn)行特征映射,使其大小變?yōu)镃×W×H,并將原始輸入特征圖逐元素相乘,得到空間注意力加權(quán)圖F Sout∈RC×W×H。具體計(jì)算過程如下所示:
其中,σ表示Sigmoid激活函數(shù),f7×7表示卷積操作,卷積核大小為7×7,?表示元素間的乘法,F(xiàn) s表示將M s沿著通道方向進(jìn)行復(fù)制得到C×W×H的特征向量。
空間注意力機(jī)制模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。
圖7 空間注意力機(jī)制模塊Fig.7 Spatial attention mechanism module
2.2.3 加權(quán)損失函數(shù)
對(duì)于一個(gè)輸入樣本,模型的輸出值與該樣本真實(shí)值之間的差異稱為損失。損失函數(shù)是描述這種差異的函數(shù)。對(duì)于一個(gè)深度學(xué)習(xí)模型,模型中的神經(jīng)網(wǎng)絡(luò)權(quán)重通過損失反向傳播來完成訓(xùn)練[21]。因此,損失函數(shù)決定了深度學(xué)習(xí)模型的訓(xùn)練效果,至關(guān)重要。本研究農(nóng)作物數(shù)據(jù)集標(biāo)注分為玉米、薏米以及背景值三類,所以使用多類別交叉熵作為損失函數(shù)。但由于數(shù)據(jù)集中背景類別占比大,導(dǎo)致網(wǎng)絡(luò)在訓(xùn)練時(shí)偏向于對(duì)背景類特征的學(xué)習(xí),不能有效地提取農(nóng)作物區(qū)域的特征,從而造成農(nóng)作物區(qū)域分割精度低的問題。為了解決農(nóng)作物數(shù)據(jù)集類別不平衡導(dǎo)致對(duì)農(nóng)作物區(qū)域分割精度低的問題,引入了一種加權(quán)損失函數(shù),在原始多分類交叉熵?fù)p失函數(shù)的基礎(chǔ)上,給予玉米、薏米與背景類不同的權(quán)重,具體計(jì)算公式如下所示:
本文實(shí)驗(yàn)所使用的CPU為AMD A10-7300,內(nèi)存為8 GB,GPU為Telas V100,內(nèi)存為16 GB,開發(fā)環(huán)境為TensorFlow1.14.0、keras2.3.1、cuda9.0、python3.5。
本研究針對(duì)農(nóng)作物數(shù)據(jù)集進(jìn)行分割性能評(píng)估,實(shí)驗(yàn)選取像素準(zhǔn)確率(PA)、平均交并比(mIou)、平均召回率(mRecall)指標(biāo)評(píng)價(jià)網(wǎng)絡(luò)分割性能。
其中PA為預(yù)測正確的像素點(diǎn)與總像素點(diǎn)的比值,計(jì)算公式如下:
mIou為語義分割實(shí)驗(yàn)中最常用的度量指標(biāo),其取值為先計(jì)算每類上真實(shí)值和預(yù)測值兩個(gè)集合交集與并集的比值,再求所有類別交并比的平均值,即均交并比,計(jì)算公式如下:
mRecall為每一類分類正確的像素點(diǎn)數(shù)與預(yù)測為該類的所有像素點(diǎn)數(shù)的比值之和的平均值,計(jì)算公式如下:
式中,k表示總的類別數(shù),P ij表示本屬于i類但被預(yù)測為j類的像素?cái)?shù)量,P ii表示預(yù)測正確的數(shù)量,P ij和P ji分別稱為假正和假負(fù)。
3.3.1 實(shí)驗(yàn)過程
模型訓(xùn)練超參數(shù)的確定。文獻(xiàn)[16]中提出原始DeeplabV3+模型,在初始學(xué)習(xí)率為0.007,batch-size為16的前提下,模型在pascalVOC2012和城市景觀數(shù)據(jù)集上的平均交并比分別為89.0%和82.1%,取得了良好的分割效果。在此基礎(chǔ)上,查閱相關(guān)文獻(xiàn),獲取到網(wǎng)絡(luò)訓(xùn)練超參數(shù)常用經(jīng)驗(yàn)值,經(jīng)過反復(fù)實(shí)驗(yàn),最終確定原始DeeplabV3+網(wǎng)絡(luò)的最優(yōu)學(xué)習(xí)率為0.007,最優(yōu)batch-size為32,改進(jìn)DeeplabV3+網(wǎng)絡(luò)的最優(yōu)學(xué)習(xí)率為0.000 1,最優(yōu)batch-size為32。
本文模型訓(xùn)練細(xì)節(jié)。實(shí)驗(yàn)階段,按7∶1∶2的比例將圖像隨機(jī)劃分成訓(xùn)練集、驗(yàn)證集和測試集。初始學(xué)習(xí)率設(shè)置為0.000 1,batch-size設(shè)置為32,為了提高模型精度,在模型訓(xùn)練之前加載MobileNetV2預(yù)訓(xùn)練權(quán)重參數(shù),使用加權(quán)損失函數(shù)作為分割模型的損失函數(shù),給予玉米、薏米與背景類不同的權(quán)重,提高模型對(duì)農(nóng)作物區(qū)域分割精度。
模型訓(xùn)練結(jié)果比較。傳統(tǒng)DeepLabV3+網(wǎng)絡(luò)和改進(jìn)DeepLabV3+網(wǎng)絡(luò)的訓(xùn)練過程如圖8所示,其中紅色為傳統(tǒng)DeepLabV3+網(wǎng)絡(luò)訓(xùn)練過程,藍(lán)色為改進(jìn)Deep-LabV3+網(wǎng)絡(luò)訓(xùn)練過程。由圖可知,當(dāng)訓(xùn)練迭代次數(shù)超過100時(shí),損失值和精度趨于穩(wěn)定??傮w來看二者的損失值隨迭代次數(shù)的增加而減少,精度隨迭代次數(shù)的增加而增加,最終逐漸趨于穩(wěn)定。但相較于傳統(tǒng)的Deep-LabV3+網(wǎng)絡(luò)來看,改進(jìn)的DeepLabV3+網(wǎng)絡(luò)收斂速度更快,后期波動(dòng)更小。這是由于DAM模塊有效結(jié)合空間通道維度,抓取特征之間的全局依賴關(guān)系,捕獲上下文特征信息,增強(qiáng)了特征的表達(dá)能力,使網(wǎng)絡(luò)學(xué)習(xí)能力和排除干擾信息的能力得到加強(qiáng),且改進(jìn)DeepLabV3+網(wǎng)絡(luò)參數(shù)量更少,進(jìn)一步加快了收斂速度。
圖8 網(wǎng)絡(luò)訓(xùn)練結(jié)果曲線Fig.8 Network training result curve
3.3.2 消融實(shí)驗(yàn)
為了驗(yàn)證將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception網(wǎng)絡(luò)改為更輕量級(jí)的MobileNetV2網(wǎng)絡(luò)、ASPP模塊中的普通卷積改為DSC的必要性,以及同時(shí)在特征提取模塊以及ASPP模塊加入DAM的有效性,利用語義分割常用評(píng)價(jià)指標(biāo),設(shè)置了四組不同的改進(jìn)方案進(jìn)行消融實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表2所示。
表2 消融實(shí)驗(yàn)結(jié)果Table 2 Results of ablation experiment
(1)方案一:在傳統(tǒng)DeepLabV3+網(wǎng)絡(luò)的基礎(chǔ)上,將特征提取網(wǎng)絡(luò)改為更輕量級(jí)的MobileNetV2網(wǎng)絡(luò),將ASPP模塊中的普通卷積改為DSC。
(2)方案二:在方案一的基礎(chǔ)上,在特征提取模塊加入DAM。
(3)方案三:在方案一的基礎(chǔ)上,在ASPP模塊加入
DAM。
(4)方案四:在方案一的基礎(chǔ)上,在特征提取模塊及ASPP模塊分別加入DAM。
由表2消融實(shí)驗(yàn)結(jié)果可得,相對(duì)于傳統(tǒng)DeepLabV3+,方案一模型參數(shù)量、訓(xùn)練時(shí)間以及單圖預(yù)測時(shí)間明顯減少,表明將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception網(wǎng)絡(luò)改為更輕量級(jí)的MobileNetV2網(wǎng)絡(luò)、將ASPP模塊中的普通卷積改為DSC可極大減少模型的參數(shù)量,明顯提高模型訓(xùn)練時(shí)間以及預(yù)測速度。相對(duì)于方案一,方案二、方案三與方案四在像素準(zhǔn)確率(PA)、平均召回率(mRecall)、平均交并比(mIou)方面均有所提升,但方案四提升幅度更大一些,表明在特征提取模塊或者ASPP模塊加入DAM都可以一定程度上提高模型分割精度,但是同時(shí)在特征提取模塊以及ASPP模塊加入DAM模型分割精度提升更明顯。
為了進(jìn)一步驗(yàn)證加權(quán)損失函數(shù)對(duì)提高農(nóng)作物區(qū)域分割精度的有效性,對(duì)方案四和本文方法在農(nóng)作物分割數(shù)據(jù)集上的分割精度進(jìn)行了詳細(xì)對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示。
由表3分割精度詳細(xì)對(duì)比結(jié)果可得,相對(duì)于方案四,本文方法在玉米和薏米的召回率(Recall)上有所提升,但在背景的召回率(Recall)上略有下降,在玉米、薏米以及背景的交并比(Iou)上均有所提升。從整體來看,本文方法的像素準(zhǔn)確率(PA)、平均召回率(mRecall)以及平均交并比(mIou)相較于實(shí)驗(yàn)四均有所提升。實(shí)驗(yàn)數(shù)據(jù)證明,加權(quán)損失函數(shù)的引入能夠提高模型對(duì)農(nóng)作物區(qū)域的分割精度,從而進(jìn)一步提升模型整體分割精度。
表3 分割精度詳細(xì)對(duì)比結(jié)果Table 3 Detailed comparison results of segmentation accuracy %
3.3.3 不同分割方法性能分析
為了進(jìn)一步驗(yàn)證改進(jìn)DeepLabV3+模型的分割性能,將本文方法與傳統(tǒng)DeepLabV3+、Unet、Segnet等常用于農(nóng)作物語義分割的模型進(jìn)行對(duì)比,對(duì)比結(jié)果如表4所示。
從表4可以看出,在像素準(zhǔn)確率(PA)方面,傳統(tǒng)DeepLabv3+算法的像素準(zhǔn)確率為92.5%,Unet的像素準(zhǔn)確率為92.9%,Segnet算法的像素準(zhǔn)確率為92.3%,本文改進(jìn)方法的像素準(zhǔn)確率為94.0%,較傳統(tǒng)DeepLabV3+算法、Unet算法和Segnet算法分別提高了1.5、1.1和1.7個(gè)百分點(diǎn);在平均召回率(mRecall)方面,傳統(tǒng)DeepLabv3+算法的平均召回率為88.4%,Unet的平均召回率為87.9%,Segnet算法的平均召回率為86.4%,本文改進(jìn)方法的平均召回率為91.1%,較傳統(tǒng)DeepLabV3+算法、Unet算法和Segnet算法分別提高了2.7、3.2和4.7個(gè)百分點(diǎn);在平均交并比(mIou)方面,傳統(tǒng)DeepLabv3+算法的平均交并比為80.6%,Unet的平均交并比為81.1%,Segnet算法的平均交并比為80.0%,本文改進(jìn)方法平均交并比為84.2%,較傳統(tǒng)DeepLabV3+算法、Unet算法和Segnet算法分別提高了3.6、3.1和4.2個(gè)百分點(diǎn)。實(shí)驗(yàn)數(shù)據(jù)證明,在本文方法中加入DAM以及加權(quán)損失函數(shù)的引入提高了模型的特征提取能力,對(duì)農(nóng)作物遙感影像分割精度更高。
在常見的神經(jīng)網(wǎng)絡(luò)模型中,模型層數(shù)越多,模型涉及參數(shù)量越大,模型越復(fù)雜,訓(xùn)練難度也就越大。由表4可得,相較于傳統(tǒng)DeepLabV3+以及Unet模型,本文方法參數(shù)量有明顯的減少,并且模型訓(xùn)練時(shí)間以及單圖預(yù)測時(shí)間更快;相較于Segnet模型,本文方法參數(shù)量有明顯的減少,但模型訓(xùn)練時(shí)間以及單圖預(yù)測時(shí)間略有增加,這是由于Segnet模型雖然參數(shù)量較多,但是本身模型結(jié)構(gòu)較為簡單,減少了模型訓(xùn)練時(shí)間以及單圖預(yù)測時(shí)間,但檢測精度不及本文方法??傮w來說,本文方法中選擇更輕量級(jí)的MobileNetV2作為特征提取網(wǎng)絡(luò)以及將ASPP模塊中的普通卷積改為DSC,極大減少了參數(shù)量,提高了模型計(jì)算速度。
表4 作物分割方法對(duì)比Table 4 Comparison of crop segmentation methods
為了更全面地評(píng)估本文方法,對(duì)本文方法及其他對(duì)比模型在玉米、薏米以及背景上的分割精度進(jìn)行了對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表5所示。
表5 各類別目標(biāo)分割結(jié)果Table 5 Segmentation results of various targets %
對(duì)比表5中玉米、薏米以及背景在各個(gè)方法上的召回率(Recall)及交并比(Iou)可以看出,背景的交并比及召回率最高,玉米次之,薏米最低。是因?yàn)檎麖堖b感圖像中背景占比最大,玉米次之,薏米占比最少。從整體來看,本文方法在玉米、薏米以及背景上的召回率、交并比均高于其他對(duì)比模型,說明了本文方法對(duì)提升各個(gè)類別的分割精度都有一定的效果。
實(shí)驗(yàn)選擇了4種算法在2019年某地區(qū)無人機(jī)遙感影像部分測試集上的分割結(jié)果進(jìn)行可視化展示,如圖9所示。其中橙色代表薏米,黃色代表玉米,黑色代表背景。
圖9 4種分割算法分類效果比較Fig.9 Comparison of classification effect of four segmentation algorithms
由不同模型的分割效果圖對(duì)比可知,傳統(tǒng)Deep-LabV3+方法與本文方法相較于Segnet、Unet方法來說,對(duì)玉米、薏米種植區(qū)域邊緣的識(shí)別程度更高,這是由于DeepLabv3+模型本身最大的優(yōu)勢就是在編碼部分加入了含多個(gè)空洞卷積擴(kuò)張率的多尺度ASPP特征提取模塊,該模塊增強(qiáng)模型識(shí)別不同尺寸的同一物體的能力,捕獲多尺度特征,可以更好恢復(fù)物體的邊緣信息。除此之外,本文方法相較于傳統(tǒng)DeepLabV3+方法,邊緣識(shí)別效果略有提升,存在的漏分和錯(cuò)分現(xiàn)象更少,相較于Segnet、Unet方法,對(duì)玉米和薏米的分割效果更好,進(jìn)一步證明了加入DAM以及引入加權(quán)損失函數(shù)的必要性。
為更加高效準(zhǔn)確獲取農(nóng)作物的種植信息以滿足農(nóng)業(yè)精細(xì)化管理需求,本文提出了一種改進(jìn)DeepLabV3+網(wǎng)絡(luò)的遙感影像農(nóng)作物分割方法。模型本身含有ASPP模塊,可以更好恢復(fù)物體的邊緣信息;加入DAM提高了模型的特征提取能力,存在的漏分和錯(cuò)分現(xiàn)象更少,對(duì)玉米、薏米種植區(qū)域邊緣的識(shí)別效果更好,分割精度更高;修改特征提取網(wǎng)絡(luò)為輕量級(jí)神經(jīng)網(wǎng)絡(luò)MobileNetV2,將ASPP模塊中普通的卷積改為DSC,有效地減少了模型參數(shù)量,提高了模型計(jì)算速度。此外針對(duì)農(nóng)作物數(shù)據(jù)集類別不平衡問題,引入加權(quán)損失函數(shù),提高了模型對(duì)農(nóng)作物區(qū)域分割精度。實(shí)驗(yàn)結(jié)果表明,該方法能夠有效提取農(nóng)作物種植區(qū)域,實(shí)現(xiàn)對(duì)農(nóng)作物更加高效準(zhǔn)確的分割。