胡翔云,鞏曉雅,張 覓
武漢大學(xué)遙感信息工程學(xué)院,湖北 武漢 430079
目標(biāo)提取是數(shù)字?jǐn)z影測量中矢量地圖測繪的基本問題之一,人工地物(道路、建筑物、橋梁、機(jī)場等)是興趣目標(biāo)的重要組成部分,在遙感影像中對其進(jìn)行提取有著廣泛的應(yīng)用,如城市地圖制作與更新[1]、災(zāi)害預(yù)警與評估[2]、變化檢測[3]及軍事目標(biāo)檢測[4-5]等。隨著光學(xué)遙感影像空間分辨率不斷提高,影像細(xì)節(jié)更為豐富,場景與目標(biāo)也更為復(fù)雜多樣,人工地物的提取與檢測有了更多可用信息,也面臨著更多的問題與挑戰(zhàn)。
傳統(tǒng)的人工選取特征的檢測算法主要分為兩類:①基于特征描述的影像分割算法;②基于模型構(gòu)建的目標(biāo)檢測算法?;谔卣髅枋龅挠跋穹指钏惴▽⑦b感影像分為前景(人工地物)和背景兩部分,通過恰當(dāng)?shù)奶卣髅枋龊头指钏惴ǎ瑢⑷斯さ匚飶谋尘爸蟹指畛鰜?。文獻(xiàn)[6]采用一個基于分形誤差和紋理邊緣約束的簡化Mumford-Shah模型對航空影像進(jìn)行分割得到人工地物區(qū)域。文獻(xiàn)[7]通過提取分形特征及閾值分割的方法對紅外影像中的人工地物進(jìn)行檢測,并對多種分形特征進(jìn)行試驗(yàn),最終得出多尺度分形特征(multi-scale fractal feature related with K,MFFK)精度較高的結(jié)論。文獻(xiàn)[8]針對傳統(tǒng)水平集演化方法調(diào)參復(fù)雜、計(jì)算量大的問題,提出將傳統(tǒng)的平均曲率正則項(xiàng)替換成高斯核的改進(jìn)水平集演化方法,并在高分辨率遙感影像中對人工地物進(jìn)行提取,在保證精度的同時(shí)提高了運(yùn)算速度?;谔卣鞯姆指钏惴茌^完整地提取遙感影像中的人工地物,但由于影像細(xì)節(jié)豐富,不可避免地會出現(xiàn)邊緣破碎的現(xiàn)象,使用超像素替代像素作為影像分割的基本單位可以有效改善此現(xiàn)象。文獻(xiàn)[9]就對此進(jìn)行了嘗試,首先通過多尺度NSCT(nonsubsampled contourlet)變換獲取影像的特征,然后采用一種改進(jìn)的分水嶺算法對影像進(jìn)行過分割,最后以分割的超像素為單位采用分形布朗運(yùn)動(fractional Brownian motion,fBm)模型對影像進(jìn)行分割得到人工地物區(qū)域。而基于模型構(gòu)建的目標(biāo)檢測算法則是對人工地物進(jìn)行建模,然后進(jìn)行全圖搜索尋找符合模型描述的人工地物區(qū)域。文獻(xiàn)[10]使用神經(jīng)網(wǎng)絡(luò)對人工地物進(jìn)行建模,結(jié)合人工地物的幾何特征如形狀、鄰接關(guān)系、尺度及主方向等進(jìn)行監(jiān)督訓(xùn)練,最終用SVM分類器對影像進(jìn)行分類,得到包含人工地物的矩形區(qū)域。文獻(xiàn)[11]采用最小二乘SVM訓(xùn)練器對包含人工地物樣本的SAR影像進(jìn)行訓(xùn)練,并通過交叉驗(yàn)證和網(wǎng)格搜索的方法對訓(xùn)練參數(shù)進(jìn)行優(yōu)化,得到人工地物的預(yù)測模型,最終使用該預(yù)測模型對影像進(jìn)行分類得到人工地物區(qū)域。文獻(xiàn)[12]依據(jù)圖像的平滑性及4種目標(biāo)特征進(jìn)行訓(xùn)練得到人工地物的預(yù)測模型,然后使用滑動窗口遍歷圖像得到包含人造目標(biāo)的矩形窗口。基于模型的檢測算法能較為緊湊地提取包含人工地物的矩形區(qū)域,適用于人工地物稀疏、特征明顯的影像,但無法獲取人工地物的邊緣信息,且對于背景復(fù)雜、人工地物繁多的影像適用性較差。
近年來,深度學(xué)習(xí)理論知識得到不斷發(fā)展,深度學(xué)習(xí)的概念最早由文獻(xiàn)[13]提出,是指通過深度網(wǎng)絡(luò)對復(fù)雜函數(shù)進(jìn)行逼近的學(xué)習(xí)過程。深度學(xué)習(xí)方法通過深度網(wǎng)絡(luò)自動化學(xué)習(xí)特征,減少了人為設(shè)計(jì)特征的不完備性,在很多應(yīng)用中具有優(yōu)異的識別或分類性能。一些學(xué)者將深度學(xué)習(xí)方法應(yīng)用到遙感影像人工地物檢測中,并取得了不錯的效果[14-15]。但深度學(xué)習(xí)方法需要大量的訓(xùn)練數(shù)據(jù)和計(jì)算開銷,對樣本分布也有一定的要求,因此在很多應(yīng)用中受到限制。此外,使用深度學(xué)習(xí)生成的模型較為復(fù)雜,難以解釋和分析,也難以直接進(jìn)行改進(jìn),這些都是有待解決的問題。
本文致力于從遙感影像中提取邊界光滑、區(qū)域完整的人工地物目標(biāo),提出了一種基于人工選定特征的變分泛函優(yōu)化方法。變分泛函優(yōu)化方法是計(jì)算機(jī)視覺中的一類經(jīng)典的方法,其中泛函數(shù)是以函數(shù)為自變量的一類函數(shù),對泛函數(shù)求極值的問題稱為變分問題。本文算法受Chan-Vese圖像分割模型[15]的啟發(fā),根據(jù)人工地物在影像中顯著度和紋理與背景差異較大的特點(diǎn),構(gòu)建了一個包含顯著性約束、面積和邊界約束、紋理約束以及灰度方差約束的能量泛函數(shù)。采用變分法迭代求取局部極值,得到前景部分,即為人工地物區(qū)域。該能量函數(shù)同時(shí)包含超像素優(yōu)化項(xiàng)和像素優(yōu)化項(xiàng),一定程度上解決了傳統(tǒng)的圖像分割算法在遙感影像中易產(chǎn)生破碎邊緣的問題。
自文獻(xiàn)[16]提出活動輪廓模型(active contour model,ACM)以來,基于曲線演化的圖像分割算法得到了極大的發(fā)展[17-18]。該類算法的基本思想是在圖像感興趣區(qū)域內(nèi)初始化一條曲線,同時(shí)構(gòu)造能量泛函數(shù)驅(qū)動該曲線運(yùn)動,在能量泛函數(shù)取得極小值時(shí)使得演化曲線逼近目標(biāo)邊緣,從而得到分割結(jié)果[19]。本文算法首先基于超像素對遙感影像進(jìn)行顯著性計(jì)算,將計(jì)算得到的顯著性圖進(jìn)行閾值分割,并將其邊緣作為曲線演化的初值,然后構(gòu)建驅(qū)動曲線演化的能量泛函,分別包含基于超像素的顯著性約束項(xiàng)和基于像素的邊界、面積、紋理和灰度方差約束項(xiàng),最后通過變分法迭代求取曲線演化的結(jié)果,得到分割的前景即人工地物部分。算法流程如圖1所示。
傳統(tǒng)的Chan-Vese模型(以下簡稱C-V模型)用一條封閉曲線C將待分割圖像I分為外部區(qū)域outside(C)和內(nèi)部區(qū)域inside(C)兩部分,并通過極小化如式(1)所示的能量泛函數(shù),使得曲線演化到目標(biāo)邊界處完成圖像分割。
EC-V(C,c1,c2)=μLengh(C)+
(1)
式中,μ≥0、λ1>0、λ2>0是權(quán)重參數(shù);c1為內(nèi)部區(qū)域的灰度均值;c2為外部區(qū)域的灰度均值;I(x,y)為圖像坐標(biāo)為(x,y)處的像素灰度值。
C-V模型的能量泛函數(shù)共有3項(xiàng):使得曲線C趨于平滑的長度項(xiàng),目標(biāo)區(qū)域的灰度方差能量偏差項(xiàng),以及背景區(qū)域的灰度方差能量偏差項(xiàng)。隨著能量泛函數(shù)EC-V的取值不斷減小直至趨近于全局最小值,曲線C不斷演化,最終移動到目標(biāo)區(qū)域的邊界處。Chan-Vese模型基于目標(biāo)與背景灰度的均一性,適用于紋理簡單或匱乏的影像,而高分辨率遙感影像細(xì)節(jié)豐富,紋理復(fù)雜,傳統(tǒng)的C-V模型并不適用。
人工地物在遙感影像中一般具有顯著性和紋理與背景差異較大的特點(diǎn)。本文算法借鑒曲線演化思想,將人工地物提取轉(zhuǎn)化為圖像分割及能量泛函數(shù)極小化的問題。對于待提取的遙感影像Ω,分割曲線C將其分為人工地物區(qū)域Ωo及背景區(qū)域Ωb兩部分,驅(qū)動曲線C運(yùn)動的能量函數(shù)設(shè)計(jì)如下
Emanmade-object(C)=ES+ELA+ET+EDEV
(2)
能量函數(shù)共包含4項(xiàng),其中第一項(xiàng)ES為基于超像素的顯著性約束項(xiàng);后3項(xiàng)則為基于像素的約束項(xiàng),其中ELA為邊界和面積約束項(xiàng),使得分割邊界盡可能緊湊平滑,ET為紋理約束項(xiàng),EDEV為灰度方差約束項(xiàng)。下文將對4個約束項(xiàng)進(jìn)行詳細(xì)介紹。
1.1.1 顯著性約束
大部分現(xiàn)有的自底向上的顯著性檢測算法都是基于像素或超像素塊與局部或全局特征的對比度計(jì)算的[20],許多學(xué)者對計(jì)算對比度的方法做出了改進(jìn)[21],而文獻(xiàn)[22]提出一種基于圖的流形排序算法計(jì)算圖像的顯著性,在結(jié)構(gòu)與紋理較為復(fù)雜的圖像中取得了較好的結(jié)果。本文結(jié)合兩種方法,根據(jù)傳統(tǒng)的對比度計(jì)算方法計(jì)算圖像的顯著性,并對其進(jìn)行閾值分割,將得到的前景部分作為種子點(diǎn),構(gòu)建無向有權(quán)圖并采用流行排序的方法得到最終的顯著性圖。為提高運(yùn)算效率,并有效減少分割結(jié)果邊緣破碎的問題,本文采用分水嶺算法[23]對圖像進(jìn)行過分割,以產(chǎn)生的超像素塊為處理單位進(jìn)行顯著性檢測。顯著性計(jì)算方法如下。
將圖像表示為超像素?cái)?shù)據(jù)集X={x1,x2,…,xn}∈Rm×n的形式,超像素xi的特征向量vi表示為
vi=[rigibiditi]
(3)
式中,ri、gi、bi分別是超像素的三波段顏色均值;di為超像素的梯度主方向;ti為超像素的CS-LBP[25]紋理統(tǒng)計(jì)平均量。則超像素xi的顯著性值定義為
(4)
式中,xj為所有與xi相鄰的超像素,0≤λ<1是權(quán)重參數(shù),試驗(yàn)時(shí)取0.4~0.6。對得到的顯著性圖進(jìn)行閾值分割,得到前景部分,稱為標(biāo)記點(diǎn)。
構(gòu)建圖G=(V,E),其中V為超像素節(jié)點(diǎn),E為每對相鄰超像素的邊,其權(quán)重由矩陣W=[ωij]決定,其中
(5)
定義排序函數(shù)f:X→Rn,對于每一個超像素xi,都有一個排序值f(xi)與之對應(yīng)。f可記為向量形式f=[f1f2…fn]T。定義標(biāo)記向量y=[y1y2…yn]T,當(dāng)超像素xi為標(biāo)記點(diǎn)時(shí),yi=1,否則yi=0。則可通過最小化如式(6)所示的代價(jià)函數(shù),求得排序向量f。
(6)
經(jīng)過推演,f的閉合(close form)解為
(7)
根據(jù)標(biāo)記點(diǎn)計(jì)算初始標(biāo)記向量y,再由超像素特征向量計(jì)算權(quán)值矩陣W,即可通過式(7)求得每個超像素的排序值,也即顯著性。圖2顯示了標(biāo)記點(diǎn)和計(jì)算得到的顯著性圖。
圖2 顯著性計(jì)算方法Fig.2 Saliency map calculation
使用得到的顯著性圖作為能量泛函數(shù)的顯著性約束條件,一般來說顯著值高的區(qū)域?qū)儆谌斯さ匚飬^(qū)域的可能性較大,反之則屬于背景的可能性較大;并且同屬于人工地物區(qū)域的超像素之間的顯著性差異較小,而分別屬于前景/背景的超像素之間的顯著性差異較大。對于得到的人工地物分割結(jié)果Ωo,希望其顯著性強(qiáng)且分布均勻,顯著性約束項(xiàng)設(shè)計(jì)如下
(8)
式中,xc為圖像的平均顯著值;si為超像素的顯著性值;sj為與si相鄰的超像素的顯著性值。
該約束項(xiàng)是基于超像素的。試驗(yàn)表明,加入超像素顯著性優(yōu)化項(xiàng)后,能較好地改善人工地物提取噪聲較多的情況,且對于顯著性較低的非人工地物區(qū)域有很好的剔除作用。
1.1.2 邊界和面積約束
對于分割得到的人工地物區(qū)域,筆者希望其邊界完整、形狀圓滑,因此設(shè)計(jì)邊界和面積約束項(xiàng),如下
ELA=μ1length(C)+μ2area(C)
(9)
式中,μ1>0,μ2>0為正值參數(shù),試驗(yàn)時(shí)應(yīng)選取略大于0的微小正值,以求在保證邊緣平滑性的同時(shí),不影響演化曲線與目標(biāo)邊緣的切合性。
1.1.3 紋理約束
紋理特征是遙感影像的重要特征之一,因此是人工地物提取中不可忽視的一部分。局部二值模式(LBP)[24]是目前二維圖像簡單高效的局部紋理描述子之一,本文采用改進(jìn)的CS-LBP特征[25]統(tǒng)計(jì)圖像的紋理特征,紋理約束項(xiàng)設(shè)計(jì)如下
(10)
式中,λ1,λ2∈[0.8,1.2]為經(jīng)驗(yàn)權(quán)重參數(shù);T(x,y)為圖像坐標(biāo)為(x,y)處的CS-LBP計(jì)算值;to、tb分別為人工地物區(qū)域和背景的CS-LBP紋理均值。
1.1.4 灰度方差約束
本文算法能量泛函數(shù)的灰度方差約束項(xiàng)與C-V模型的灰度方差約束項(xiàng)相同,定義為
(11)
式中,λ1,λ2∈[0.8,1.2]為經(jīng)驗(yàn)權(quán)重參數(shù);cio、cib分別為各波段人工地物區(qū)域和背景的灰度均值。
首先介紹二維泛函數(shù)的極值求解過程,設(shè)
為二維泛函表達(dá)式,則E[f(x,y)]取得極值的條件是滿足E-L方程[26]
(12)
求解能量泛函的極值問題可以轉(zhuǎn)化為求解相應(yīng)的E-L方程,但由于E-L方程一般為非線性偏微分方程,數(shù)值計(jì)算上比較困難。水平集方法是用E-L方程求解泛函數(shù)極值的一種具體實(shí)現(xiàn)方法,下面對水平集方法進(jìn)行概述。
定義水平集函數(shù)φ(x,y)如下
(13)
重寫本文算法的能量泛函
Emanmade-object(C)=
μ1length(C)+μ2area(C)+
(14)
式中,v(x,y)=[Ii(x,y),T(x,y)](i=1,2,3)為圖像坐標(biāo)為(x,y)處的灰度、紋理組合特征;vo、vb分別為人工地物區(qū)域和背景的平均組合特征。
將此能量函數(shù)用水平集函數(shù)φ(x,y)表達(dá),如下所示
Emanmade-object(φ,vo,vb)=
(15)
通過變分后,可以獲得以φ表達(dá)的偏微分方程,如下所示
(16)
本文設(shè)計(jì)了兩組試驗(yàn),用來評估本文算法在高分辨率遙感影像中提取人工地物的性能。其中試驗(yàn)1進(jìn)行本文算法與傳統(tǒng)的人工地物提取算法的對比,試驗(yàn)2進(jìn)行本文算法與深度學(xué)習(xí)方法的對比。試驗(yàn)1選取多樣的人工地物場景,包括城區(qū)結(jié)構(gòu)復(fù)雜的高大建筑、鄉(xiāng)村低矮建筑、城區(qū)立交橋、鄉(xiāng)村土路等,用于驗(yàn)證本文算法在多種復(fù)雜的場景中均有較為良好的表現(xiàn)。試驗(yàn)2則選取高分辨率的樣本數(shù)據(jù)并對其進(jìn)行降采樣,用于驗(yàn)證本文算法在不同的分辨率下均有較好的普適性。兩組試驗(yàn)均選取重慶和廣東某地的航拍影像為試驗(yàn)數(shù)據(jù),影像分辨率均在1 m以內(nèi),(試驗(yàn)數(shù)據(jù)可從http:∥earthvisionlab.whu.edu.cn/MSOD/index.html下載)。
2.2.1 與傳統(tǒng)算法的對比
為了驗(yàn)證本文提出的超像素優(yōu)化項(xiàng)能極大改善人工地物提取的結(jié)果,本文使用去除超像素優(yōu)化項(xiàng)的算法進(jìn)行試驗(yàn),與加入超像素優(yōu)化項(xiàng)的試驗(yàn)結(jié)果進(jìn)行對比,部分試驗(yàn)結(jié)果如圖3所示。從圖3可以看出,加入超像素顯著性優(yōu)化項(xiàng)后,能剔除夾雜在人工地物中的大塊植被等低顯著性區(qū)域。為了進(jìn)一步說明超像素約束項(xiàng)對人工地物檢測結(jié)果的優(yōu)化作用,采取精確度、虛警率及漏檢率3種評價(jià)指標(biāo)定量描述有/無超像素約束項(xiàng)情況下算法的檢測精度。試驗(yàn)數(shù)據(jù)集共包含像素363 587個,其中人工地物所占的像素個數(shù)為188 485個(參考真值為人工勾繪),背景所占的像素個數(shù)為175 102個。3種評價(jià)指標(biāo)定義如式(17)所示。有無超像素優(yōu)化項(xiàng)檢測結(jié)果的定量評價(jià)如表1 所示。
圖3 超像素約束項(xiàng)優(yōu)化結(jié)果Fig.3 Man-made object detection results with and without superpixel constrain
超像素約束項(xiàng)正確提取錯誤提取漏提取精確度/(%)虛警率/(%)漏檢率/(%)無18163956346639676.3223.683.39有170485112201755093.836.179.31
(17)
從表1可以看出,沒有超像素約束項(xiàng)時(shí),人工地物檢測的精度較低,而且存在大量的誤檢。這是由于沒有顯著性約束,算法容易將顯著性較低的部分背景誤檢為人工地物。加入超像素約束項(xiàng)后,算法的精確度和虛警率都有了明顯的改善。此外,雖然表1顯示沒有超像素約束項(xiàng)時(shí)算法的漏檢率較低,但這是建立在大量的誤檢之上的。綜合來說,加入超像素約束項(xiàng)后,算法的穩(wěn)定性得到了較大的提升,不僅能夠保證較高的檢測精度,誤檢現(xiàn)象也大為減少。
選取傳統(tǒng)Chan-Vese模型及基于馬爾科夫隨機(jī)場的分割算法[27]對相同區(qū)域進(jìn)行人工地物提取,部分提取結(jié)果如圖4所示。提取結(jié)果以二值圖的形式展示,其中白色區(qū)域?yàn)樘崛〉娜斯さ匚?,黑色區(qū)域?yàn)榉侨斯さ匚?本文算法的可執(zhí)行程序可從http:∥earthvisionlab.whu.edu.cn/MSOD/code.rar下載)。其中C-V模型的演化曲線初始化為圖像正中心的圓。
由圖4可以看出,本文算法可以較為完整地提取出建筑物、道路等人工地物,由于加入了超像素優(yōu)化項(xiàng),零碎的噪聲點(diǎn)和大片人工地物中間的孔洞現(xiàn)象也較其他兩種方法大為減少,人工地物的邊緣也較為平滑和明顯,對于多樣的人工地物類型,都能較為準(zhǔn)確地提取其輪廓。而由于沒有先驗(yàn)知識,C-V模型隨機(jī)初始化,對于紋理復(fù)雜的遙感影像,得到的分割結(jié)果較為零碎,且由于C-V模型完全基于前景與背景的灰度差異性,以及前景與背景內(nèi)部的灰度均一性,對于人工地物與背景灰度相似的影像,分割結(jié)果完全錯誤,表明C-V模型對演化曲線初始位置敏感、不適用于紋理復(fù)雜的遙感影像目標(biāo)提取?;隈R爾可夫隨機(jī)場的分割算法雖然能較為完整地提取人工地物部分,但由于遙感影像紋理復(fù)雜,容易產(chǎn)生較多的噪聲點(diǎn),虛警率較高,而且由于沒有超像素優(yōu)化項(xiàng),分割結(jié)果較為零碎,人工地物內(nèi)部的空洞現(xiàn)象也較為明顯。同樣采取精確度、虛警率及漏檢率3種指標(biāo)評價(jià)3種算法的檢測精度,結(jié)果如表2所示。
圖4 人工地物提取結(jié)果方法對比Fig.4 Results of man-made object detection by different approaches
從表2可以看出,本文提出的算法在多樣的試驗(yàn)數(shù)據(jù)中均具有較好的檢測結(jié)果,檢測精度達(dá)93.83%。在保證檢測精度的同時(shí),虛警率和漏檢率也較低。C-V模型檢測精度較低,且出現(xiàn)較嚴(yán)重的漏檢情況。而基于馬爾可夫隨機(jī)場的分割算法雖然檢測精度尚可,但由于未加入超像素顯著性優(yōu)化項(xiàng),存在大量的噪聲及內(nèi)部空洞等細(xì)碎的檢測結(jié)果,使得虛警率和漏檢率都偏高。綜合3種精度評定指標(biāo),本文算法能夠較為完整地提取人工地物區(qū)域,漏檢的人工地物區(qū)域較少,虛警現(xiàn)象也較少,在人工選定特征的人工地物提取算法中取得了良好的表現(xiàn)。
表2 傳統(tǒng)人工地物檢測算法評價(jià)結(jié)果
2.2.2 與深度學(xué)習(xí)方法的對比
選取文獻(xiàn)[28]提出的深度學(xué)習(xí)方法與本文算法進(jìn)行對比。為驗(yàn)證兩種算法在不同分辨率下的性能,選取原始大小為512×512的試驗(yàn)數(shù)據(jù),并將其降采樣至256×256,分別對兩種分辨率不同的數(shù)據(jù)進(jìn)行試驗(yàn),試驗(yàn)結(jié)果如圖5—圖8所示。其中圖5為較高分辨率下本文算法與深度學(xué)習(xí)方法的對比,圖6為較低分辨率下二者的對比,而圖7和圖8則分別展示了不同分辨率下本文算法和深度學(xué)習(xí)方法的提取結(jié)果。
從圖5及圖7可以看出,深度學(xué)習(xí)算法在較高分辨率下具有良好的表現(xiàn),對人工地物的分類極為準(zhǔn)確,且對陰影下的人工地物具有優(yōu)異的識別性能,細(xì)碎的邊緣和人工地物內(nèi)部的空洞現(xiàn)象也極少。而通過分析圖6和圖7可知,降低分辨率后深度學(xué)習(xí)方法的提取精度有所下降,而且出現(xiàn)一些難以解釋的提取錯誤,如明顯的房屋未被提取等,這是由于訓(xùn)練樣本過少, 導(dǎo)致訓(xùn)練得到的模型普適性較差。
而從圖8可以看出,本文方法在不同分辨率下提取結(jié)果相差較小,高分辨率下能提取更多細(xì)小的支路等人工地物細(xì)節(jié),但也會產(chǎn)生更多的細(xì)碎噪聲,反之低分辨率下噪聲較少,但部分面積較小的地物細(xì)節(jié)會由于超像素優(yōu)化而丟失。
圖5 較高分辨率提取結(jié)果Fig.5 Extraction results in higher resolution images
圖6 較低分辨率提取結(jié)果Fig.6 Extraction results in lower resolution images
圖7 深度學(xué)習(xí)方法不同分辨率對比Fig.7 Results in different resolution using deep learning method
圖8 本文方法不同分辨率對比Fig.8 Results in different resolution using method proposed in this paper
綜合圖5—8,在較高分辨率下,深度學(xué)習(xí)方法由于能夠?qū)W習(xí)到豐富的特征,人工地物提取準(zhǔn)確,且對陰影抗性極好,提取精度優(yōu)于本文算法。而較低分辨率下深度學(xué)習(xí)方法的檢測精度有所下降,且存在大量漏檢,而本文算法提取結(jié)果相差較小,本文算法總體精度更優(yōu)。試驗(yàn)2共有圖像像素3 932 160個,其中人工地物像素1 317 542個,降采樣后共有像素983 040個,其中人工地物像素
329 386個。表3展示了兩種算法的提取精度,同樣以精確度、虛警率及漏檢率3種評價(jià)指標(biāo)定量評價(jià)兩者的精度。從表3可以得出結(jié)論,本文算法在高分辨率下檢測精度略遜于深度學(xué)習(xí)方法,但對不同分辨率都具有普適性,且不需要大量的訓(xùn)練數(shù)據(jù)即可完成自動化檢測,是一種較為有效的人工地物檢測算法。
表3 與深度學(xué)習(xí)方法對比評價(jià)結(jié)果
本文采用能量泛函變分求解的算法,通過提取特征及構(gòu)建合理的能量泛函數(shù),實(shí)現(xiàn)了高分辨率遙感影像人工地物區(qū)域的分割提取。該算法以流形排序計(jì)算得到的顯著性圖為初值,綜合利用影像的顯著性、紋理及灰度等多項(xiàng)特征構(gòu)建能量泛函數(shù),使得人工地物提取的結(jié)果更為準(zhǔn)確可靠。試驗(yàn)選取了多幅包含不同人工地物類型的高分辨率航拍影像作為試驗(yàn)數(shù)據(jù)對本文算法進(jìn)行驗(yàn)證,并與其他傳統(tǒng)的人工選擇特征的提取算法及深度學(xué)習(xí)方法進(jìn)行對比,結(jié)果表明本文算法具有優(yōu)異的表現(xiàn)。對人工地物這樣的有比較明顯的、易于用比較緊致的特征來進(jìn)行描述的目標(biāo),總體來說并不比深度學(xué)習(xí)方法效果差,且無須進(jìn)行樣本的學(xué)習(xí)。
本文算法仍需改進(jìn),如難以區(qū)分顯著性較高(比較規(guī)則)的裸地與人工地物,以及被陰影遮擋的人工地物區(qū)域等。對于難以人工設(shè)計(jì)特征進(jìn)行描述的高度復(fù)雜目標(biāo),深度學(xué)習(xí)方法(例如深度卷積網(wǎng)絡(luò))往往可以通過大數(shù)據(jù)的訓(xùn)練較好地抽取一些高層次的、抽象的特征。人的先驗(yàn)知識、人工設(shè)計(jì)的特征和深度學(xué)習(xí)框架進(jìn)行結(jié)合,從而克服深度學(xué)習(xí)對大數(shù)據(jù)樣本的依賴等問題,并運(yùn)用于遙感影像的自動解譯,是繼續(xù)探索的方向。
參考文獻(xiàn):
[1] 曹兵. 城市基本比例尺地形圖動態(tài)聯(lián)動更新機(jī)制[J]. 測繪工程, 2016, 25(5): 78-80.
CAO Bing. A Dynamic Linkage Updating Mechanism of the Basic Scale Topographic Map[J]. Engineering of Surveying and Mapping, 2016, 25(5): 78-80.
[2] CHEN Kunshan, CRAWFORD M M, GAMBA P, et al. Introduction for the Special Issue on Remote Sensing for Major Disaster Prevention, Monitoring, and Assessment[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(6): 1515-1518.
[3] PHALKE S, COULOIGNER I. Change Detection of Man-made Objects Using High Resolution Imagery and GIS Data[C]∥New Strategies for European Remote Sensing. Rotterdam: Millpress, 2005: 191-198.
[4] GROENWALL C A, CHEVALIER T R, ELMQVIST M, et al. Methods for Recognition of Natural and Man-made Objects Using Laser Radar Data[C]∥Proceedings Volume 5412, Laser Radar Technology and Applications IX. Orlando, Florida: SPIE, 2004, 5412: 310-320.
[5] PHAM I, POLASEK M. Algorithm for Military Object Detection Using Image Data[C]∥IEEE/AIAA 33rd Digital Avionics Systems Conference. Colorado Springs, CO: IEEE, 2014: 3D3-1-3D3-15.
[6] CAO Guo, YANG Xin, ZHOU Dake. Mumford-Shah Model Based Man-made Objects Detection from Aerial Images[C]∥Proceedings of the 5th International Conference on Scale Space and PDE Methods in Computer Vision. Heidelberg: Springer-Verlag, 2005: 386-395.
[7] LIU Jun, WEI Hong. Optimal Selection of Fractal Features for Man-made Object Detection from Infrared Images[C]∥2ndInternational Asia Conference on Informatics in Control, Automation and Robotics. Wuhan, China: IEEE, 2010: 177-180.
[8] LI Zhongbin, SHI Wenzhong, WANG Qunming, et al. Extracting Man-made Objects From High Spatial Resolution Remote Sensing Images via Fast Level Set Evolutions[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 53(2): 883-899.
[9] WEI Wang, XIN Yang. Rapid, Man-made Object Morphological Segmentation for Aerial Images Using a Multi-scaled, Geometric Image Analysis[J]. Image and Vision Computing, 2010, 28(4): 626-633.
[10] INGLADA J. Use of Pre-conscious Vision and Geometric Characterizations for Automatic Man-made Object Recognition[C]∥IEEE International Geoscience and Remote Sensing Symposium. Seoul, South Korea: IEEE, 2005: 180-182.
[11] YANG Zhaohui, SU Qun, CHEN Yingying. Automatic Recognition of Man-made Objects in SAR Images Using Support Vector Machines[C]∥ Urban Remote Sensing Event. Shanghai, China: IEEE, 2009: 1-5.
[12] 李玲玲, 劉永進(jìn), 王自樺, 等. 基于滑動窗口的遙感圖像人造目標(biāo)檢測算法[J]. 廈門大學(xué)學(xué)報(bào)(自然科學(xué)版), 2014, 53(6): 792-796.
LI Lingling, LIU Yongjin, WANG Zihua, et al. Man-made Object Extraction from the Remote Sensing Image Based on Sliding Windows[J]. Journal of Xiamen University (Natural Science), 2014, 53(6): 792-796.
[13] HINTON G E, OSINDER O S, TEH Y W. A Fast Learning Algorithm for Deep Belief Nets[J]. Neural Computation, 2006, 18(7): 1527-1554.
[14] MAKANTASIS K, KARANTZALOS K, DOULAMIS A, et al. Deep Learning-based Man-made Object Detection from Hyperspectral Data[M]∥BEBIS G. Advances in Visual Computing. Cham: Springer, 2015: 717-727.
[15] VAKALOPOULOU M, KARANTZALOS K, KOMODAKIS N, et al. Building Detection in Very High Resolution Multispectral Data with Deep Learning Features[C]∥IEEE International Geoscience and Remote Sensing Symposium. Milan, Italy: IEEE, 2015: 1873-1876.
[16] KASS M, WITKIN A, TERZOPOULOS D. Snakes: Active Contour Models[J]. International Journal of Computer Vision, 1988, 1(4): 321-331.
[17] CHAN T F, VESE L A. Active Contour Without Edges[J]. IEEE Transactions on Image Processing, 2001, 10(2): 266-277.
[18] ZHOU Dongguo, ZHOU Hong, SHAO Yanhua. An Improved Chan-Vese Model by Regional Fitting for Infrared Image Segmentation[J]. Infrared Physics & Technology, 2016, 74: 81-88.
[19] 王相海, 方玲玲. 活動輪廓模型的圖像分割方法綜述[J]. 模式識別與人工智能, 2013, 26(8): 751-760.
WANG Xianghai, FANG Lingling. Survey of Image Segmentation Based on Active Contour Model[J]. Pattern Recognition & Artificial Intelligence, 2013, 26(8): 751-760.
[20] 李京衛(wèi), 董水龍, 張朝立. 自底向上的圖像顯著性檢測綜述[J]. 數(shù)字技術(shù)與應(yīng)用, 2014(12): 220-221.
LI Jingwei, DONG Shuilong, ZHANG Chaoli. Review of Bottom-up Saliency Detection Methods of Images[J]. Digital Technology & Application, 2014(12): 220-221.
[21] CHENG Mingming, ZHANG Guoxin, MITRA N J, et al. Global Contrast Based Salient Region Detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI: IEEE, 2011: 409-416.
[22] YANG Chuan, ZHANG Lihe, LU Huchuan, et al. Saliency Detection via Graph-based Manifold Ranking[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR: IEEE, 2013: 3166-3173.
[23] DE SMET P, PIRES R L V P M. Implementation and Analysis of an Optimized Rainfalling Watershed Algorithm[C]∥Proceedings Volume 3974, Image and Video Communications and Processing 2000. San Diego, CA, USA: SPIE, 2000: 759-766.
[24] AHONEN T, HADID A, PIETIKAINEN M. Face Description with Local Binary Patterns: Application to Face Recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(12): 2037-2041.
[26] MOREL J M, SOLIMINI S. Variational Methods in Image Segmentation[M]. Boston: Birkh?user Boston, 1995: 83-91.
[27] ZONG Kaibin, SOWMYA A, TRINDER J. Building Change Detection Based on Markov Random Field: Exploiting Both Pixel and Corner Features[C]∥International Conference on Digital Image Computing: Techniques and Applications. Adelaide, SA, Australia: IEEE, 2015: 1-7.
[28] ZHANG Mi, HU Xiangyun, ZHAO Like, et al. Learning Dual Multi-scale Manifold Ranking for Semantic Segmentation of High-Resolution Images[J]. Remote Sensing, 2017, 9(5): 500.