胡 敏,周 波
(1.宣城職業(yè)技術(shù)學(xué)院,安徽 宣城 242000;2.合肥工業(yè)大學(xué),安徽 合肥 230009)
無人機飛行存在復(fù)雜、高速、多變等特點,使其遙感圖像的成像條件也有特殊性,分辨率比一般遙感圖像高,并含有更多的信息和細(xì)節(jié),但又容易受到各種因素影響而退化,利用計算機視覺技術(shù)對其遙感圖像進(jìn)行分析和提取目標(biāo)物體的輪廓是一項艱巨的任務(wù)[1]。通常的遙感圖像處理軟件和攝影測量軟件都不會對無人機圖像處理模塊進(jìn)行定制,這給無人機遙感圖像信息提取帶來了困難[2]。在此基礎(chǔ)上,提出了一種基于深度學(xué)習(xí)的深度監(jiān)測方法,檢測拍攝到的端到端邊緣,該方法雖然能夠快速提取邊緣信息,但受光照影響,提取結(jié)果并不精準(zhǔn);用Canny算子計算出像素的梯度值和方向,不均勻光反射區(qū)的梯度值遠(yuǎn)遠(yuǎn)大于真實輪廓上的像素值,該算法將噪聲標(biāo)記為邊界,將像素標(biāo)記為零,導(dǎo)致邊緣檢測失敗。為此,提出了基于圖像分割的無人機遙感影像目標(biāo)提取技術(shù)。圖像分割是計算機視覺領(lǐng)域中的一個重要問題,它是圖像處理分析的關(guān)鍵環(huán)節(jié),在圖像工程中占有重要地位,也是進(jìn)一步理解圖像的基礎(chǔ)。
無人機遙感影像中色彩平面為紅、綠、藍(lán)(red,green,blue,RGB)平面,用于圖像顯示,通常以R、G、B分量作為色彩影像分值,依據(jù)該值分割圖像[3]。
1.1.1 彩色空間轉(zhuǎn)換
在分割圖像時,應(yīng)先選擇彩色空間HIS,設(shè)H表示顏色名稱,用來區(qū)分顏色種類;S表示顏色純度,用來區(qū)分顏色深度;I表示光亮程度,用來區(qū)分顏色亮度,HIS彩色空間直觀示意圖如圖1所示。
圖1 HIS彩色空間
由圖1可知,H分量值在0到2π之間;S分量值在0%到100%之間;I分量值用百分比量表示,從黑到白的變化范圍為0%到100%之間。HIS彩色空間中圓柱體底上的點均為黑色,I分量值最小,在0~10%范圍內(nèi);圓柱體頂上的點均為白色,I分量值最大,在90%~100%范圍內(nèi)[4]。
以R、G、B分量為色彩影像分值,將RGB平面轉(zhuǎn)換成HIS彩色空間,轉(zhuǎn)換公式如式(1)所示。
(1)
公式(1)中,R、G、B分量變化范圍在[0,255]之間。
1.1.2 圖像分割流程
根據(jù)彩色空間轉(zhuǎn)換結(jié)果,設(shè)計圖像分割流程,如圖2所示。
圖2 圖像分割流程
由圖2可知,將圖像分割正常模式與分割畸變動態(tài)信息相結(jié)合,用于分割無人機遙感影像獲取的不同子影像[5]。將顏色和紋理特征結(jié)合在一起,根據(jù)特征融合原理對隱藏層進(jìn)行處理,由此提取顏色和紋理特征。為了實現(xiàn)對目標(biāo)分割,結(jié)合圖像灰度和梯度信息,對圖像進(jìn)行閾值分割[6]。詳細(xì)分割內(nèi)容如下所示。
(1)對待分割的圖像輪廓邊緣進(jìn)行疊加處理。
(2)采用區(qū)域增長法對輪廓邊緣疊加處理后的圖像進(jìn)行最大輪廓法融合。
(3)以圖像的左上角為出發(fā)點,以此作為搜索區(qū)域種子點,進(jìn)行全局搜索,得到首個非零灰度值像素點。全局搜索規(guī)則為以搜索到的種子點為起始點,按照從上到下順序開始搜索,設(shè)定搜索補償閾值后,尋找下一個非零像素點,當(dāng)找到符合該條件的區(qū)域時,判斷該區(qū)域范圍內(nèi)是否有種子點出現(xiàn)[7]。如果該區(qū)域內(nèi)有種子點,則繼續(xù)搜索,直到不再出現(xiàn)種子點為止[8]。
(4)填補空洞目標(biāo),使該目標(biāo)具備完整目標(biāo)輪廓。
(5)對完整目標(biāo)輪廓進(jìn)行腐蝕處理,處理邊緣多余信息,結(jié)合形態(tài)學(xué)濾波對該輪廓進(jìn)行膨脹處理后,可得到完整分割圖像[9]。
因為無人機攜帶的相機是普通的單反非測量相機,其圖像存在著邊緣失真問題,所以需要對邊緣失真進(jìn)行修正處理,由相機標(biāo)定獲得相機主點、焦距、畸變參數(shù)以及修正、采集圖像主要點變形參數(shù)[10]。無人機遙感影像受到天氣狀況影響,相鄰空間鄰域圖像亮度和色彩存在較大差異。因此,對分割后圖像進(jìn)行色彩及亮度統(tǒng)一處理是具有必要性的[11]。采用統(tǒng)一的色彩處理無人機遙感影像,使圖像在顏色、紋理和形狀上保持一致。當(dāng)對整個光線進(jìn)行均勻處理時,應(yīng)選擇參考影像,參考影像可以從光照均勻的圖片上切下一個小區(qū)域,然后調(diào)整到所需的色調(diào)。參考影像的選擇應(yīng)包括在均勻光照下的典型地物特征,盡量不要含有過多的水分,單光拍攝時不需要參考圖像[12]。
觀察原始圖像,根據(jù)目標(biāo)物體的尺寸和特征分布情況,將多尺度分割成兩個層次,并確定兩個不同層次的權(quán)重。
目標(biāo)層次結(jié)構(gòu)如表1所示。
表1 目標(biāo)層次結(jié)構(gòu)
由表1可確定目標(biāo)層次結(jié)構(gòu),以此對目標(biāo)特征分類。
在確定目標(biāo)權(quán)重后,使用Hough變換技術(shù)提取目標(biāo)輪廓信息,該方法中的量化變換程度決定了不同角度變化復(fù)雜性,若量化后過于粗糙,則無法變換為精確值;反之,若量化后過于精細(xì),那么將會增加計算量。因此,將線的正確性和有效性結(jié)合起來,用積累的邊點數(shù)來表示正確性,所以可以用五元組來表示線的正確性。
對一條邊緣點線進(jìn)行統(tǒng)計的算法是:首先統(tǒng)計邊緣點數(shù)量,然后根據(jù)公式(2)計算終點與起始點距離。
L=((x,y),(x′,y′),E,θ,N)
(2)
公式(2)中:五元組分別為(x,y)、(x′,y′)、E、θ、N,分別表示起始點坐標(biāo)、終點坐標(biāo)、Hough變換結(jié)果、法線對橫軸角度、有效邊緣數(shù)量。
在提取邊緣線時,需要刪除一些短的線段,因為線段會使算法更加復(fù)雜,它不能作為劃分區(qū)域的依據(jù),所以需要刪除,以有效值為基礎(chǔ)選取線段,刪除低于某閾值的線段,將線段向下延伸,作為圖中焦點區(qū)域輪廓。
1.4.1 林地目標(biāo)提取
林地覆蓋程度與裸地或建筑區(qū)之間有明顯差異,林帶分布范圍廣,且相對完整相連,林地和耕地一般為深綠,其它為黃褐色或其它顏色。
設(shè)林地目標(biāo)特征為F,其數(shù)學(xué)計算公式如式(3)所示。
(3)
1.4.2 建筑提取
對于其余未分類的圖像對象,如果紅色通道的平均值大于等于180,則判斷該目標(biāo)為高反射對象,由此進(jìn)行精細(xì)提取,根據(jù)建筑物光譜特征,構(gòu)建特征公式如式(4)所示。
(4)
公式(4)中:如果建筑物光譜特征B值在區(qū)間之間,則判別為建筑用地。
為提高分割精度,采用模糊C均值聚類方法平滑處理噪聲圖像。利用灰度聚類隸屬矩陣對圖像平面上的隸屬張量進(jìn)行變換處理,詳細(xì)過程如下。
step1,在確定迭代誤差、最大迭代次數(shù)和聚類類別數(shù)后,獲取一個分割后的初始隸屬度D={vi};
step2,根據(jù)該隸屬度計算其標(biāo)記值如式(5)所示;
(5)
step3,依據(jù)該標(biāo)記值進(jìn)行第t步迭代處理,并更新隸屬度標(biāo)記值;
step5,依據(jù)標(biāo)記的最大隸屬度原則,判斷迭代誤差,計算公式如式(6)所示。
(6)
在此基礎(chǔ)上,將得到的灰度聚類隸屬度轉(zhuǎn)化為圖像RGB平面對應(yīng)的隸屬度張量,對隸屬度進(jìn)行均值(或中值)濾波處理后,輸出標(biāo)注值。
實驗數(shù)據(jù)獲取時間是2020年3月4日,使用SONY航拍相機獲取的,斜拍鏡頭為40MM,拍攝區(qū)域位于江西省贛州市管轄范圍內(nèi)。
在實驗研究過程中,分析無人機遙感影像中所含有的紋理數(shù)值,得到300mm*400mm圖像,以此反映出影像視覺效果和紋理情況,如表2所示。
表2 紋理數(shù)值變化/3385×3385(px)
由表2可知,如果對角線上元素值較大,則說明該方向存在距離為d的相同灰度像素對,如果d為1,那么說明有兩個灰度相同像素對,紋理變化頻率較低;如果d為0,那么說明不存在兩個灰度相同像素對,紋理變化頻率高。
正確提取占總提取總數(shù)的百分比就是總體提取精度,其反映總體全部特征提取正確程度,計算公式如式(7)所示。
(7)
公式(7)中,mii表示每一種提取種i類的正確提取數(shù),M表示提取總數(shù)。
分別使用基于深度學(xué)習(xí)方法、基于Canny算子方法和基于圖像分割技術(shù)提取裸地、建筑物、植被相關(guān)特征信息,通過特征提取精度分析所使用方法的有效性。
3.3.1 建筑物特征提取
分別使用三種方法提取建筑物特征信息,提取精度對比結(jié)果如表3所示。
表3 三種方法建筑物特征信息提取精度對比分析
由表3可知,使用基于深度學(xué)習(xí)方法在單層橫跨度下的最大提取誤差為0.7m,雙層高度下的最大提取誤差為1.5m;使用Canny算子在單層橫跨度下的最大提取誤差為1.5m,雙層高度下的最大提取誤差為2.0m;使用圖像分割技術(shù)在單層橫跨度下的提取誤差為0,雙層高度下的最大提取誤差為1.0m。因此,使用該方法建筑物特征信息提取精度較高。
3.3.2 植被特征提取
分別使用三種方法提取植被特征信息,樹高提取精度對比結(jié)果如表4所示。
表4 三種方法植被高度特征信息提取精度對比分析/m
由表4可知,使用基于深度學(xué)習(xí)方法在樹徑為9.5~10.5cm時,與實測值相差最大為1.3m。在樹徑為6.5~7.5cm、7.5~8.5cm時,與實測值相差最小為0.4m;使用Canny算子提取技術(shù)在樹徑為5.0~5.5cm時,與實測值相差最大為1.6m。在樹徑為10.5~11.5cm時,與實測值相差最小為0.9m;使用圖像分割提取技術(shù)在樹徑為5.0~5.5cm、6.5~7.5cm、10.5~11.5cm時,與實測值相差最大為0.1m,與實測值相差最小為0m。因此,使用該方法植被樹高特征信息提取精度較高。
無人機遙感技術(shù)的迅速發(fā)展,使其在遙感圖像目標(biāo)提取中得到廣泛應(yīng)用。無人機遙感圖像目標(biāo)提取技術(shù)以圖像分割為基礎(chǔ),獲得了較高的提取精度,在很大程度上可以取代基于深度學(xué)習(xí)方法、使用基于Canny算子方法的提取方法,具有一定的推廣價值。該方法在實現(xiàn)無人機遙感影像目標(biāo)自動提取的同時,滿足了無人機遙感影像目標(biāo)參數(shù)統(tǒng)計的要求。但由于測試數(shù)據(jù)一般不具有代表性,在以后的研究過程中,還需要收集實驗數(shù)據(jù)進(jìn)行進(jìn)一步驗證和分析。由于外部環(huán)境的影響,目標(biāo)提取過程中,提取結(jié)果參數(shù)不完全。部分目標(biāo)圖像中心點參數(shù)無法提取,導(dǎo)致提取結(jié)果存在一定誤差。為提高目標(biāo)提取的準(zhǔn)確度,在今后的研究中,需要根據(jù)不同的圖像參數(shù),實現(xiàn)目標(biāo)的自動提取。