李湘眷,王彩玲,李 宇,孫 皓
(1.西安石油大學,陜西 西安 710065;2.中國科學院 遙感與數字地球研究所,北京 100942;3.中國科學院 空間信息處理與應用系統(tǒng)技術重點實驗室,北京 100190;4.中國科學院 電子學研究所,北京 100190)
?
窗口融合特征對比度的光學遙感目標檢測
李湘眷1*,王彩玲1,李宇2,孫皓3,4
(1.西安石油大學,陜西 西安 710065;2.中國科學院 遙感與數字地球研究所,北京 100942;3.中國科學院 空間信息處理與應用系統(tǒng)技術重點實驗室,北京 100190;4.中國科學院 電子學研究所,北京 100190)
提出了一種基于窗口融合特征對比度的光學遙感目標檢測方法。首先,在訓練圖像上生成大量不同尺寸的滑動窗,計算了各窗口的多尺度顯著度、仿射協(xié)變區(qū)域對比度、邊緣密度對比度以及超像素完整度4項特征分值,在確認集上基于窗口重合度和后驗概率最大化學習各個特征的閾值參數。然后,采用Naive Bayes框架進行特征融合,并訓練分類器。 在目標檢測階段首先計算測試圖像中各窗口的多尺度顯著度分值,初步篩選出顯著度高且符合待檢測目標尺寸比例的部分窗口。然后計算初選窗口集的其余3項特征,再根據訓練好的分類模型計算各個窗口的后驗概率。最后,挑選出局部高分值的候選區(qū)域并進行判斷合并,得到最終目標檢測結果。針對飛機、油罐、艦船等3類遙感目標的檢測結果顯示:4類特征在單獨描述3類目標時表現出的性能各有差異,最高檢測準確率為74.21%~80.32%,而融合方案能夠綜合考慮目標自身特點,準確率提高至80.78~87.30%。與固定數量滑動窗方法相比,準確率從約80%提高到約85%,虛警率從20%左右降低為3%左右。最終高分值區(qū)域數降低約90%,測試時間減少約25%。得到的結果顯示該方法大大提高了目標檢測精度和算法效率。
光學遙感;目標檢測;融合特征對比度;窗口;顯著度;仿射協(xié)變;邊緣密度
*Correspondingauthor,E-mail:xiangjuan_li@126.com
近年來,遙感圖像的數據來源不斷擴展,數據量不斷增加,波譜、空間和時間分辨率不斷提高,使得遙感傳感器采集并傳輸到地面的圖像數據量急劇增加。大量遙感圖像數據為數據的解譯分析提供了良好的條件,但也對高分辨率圖像信息的有效利用提出了挑戰(zhàn)。在傳統(tǒng)中低分辨率圖像上,看到的大多是大尺度下的自然景觀,小尺度人造目標則不能清楚地觀測到。而在近年來軍事與民用的一些領域中所使用的高分辨率圖像中,地物景觀的結構、紋理和細節(jié)等信息表現的更加清楚,在獲得豐富的地物光譜信息的同時還可以獲取更多的地物結構、形狀和紋理信息,使得人造目標達到了可以利用的程度。人造目標一般具有較規(guī)則的幾何外形、清晰的閉合輪廓線以及與周圍環(huán)境差別較大的表觀特征,通常在圖像中具有明顯的顯著性。這些特點使得它們更容易用規(guī)則性的特征進行描述。
近年來目標檢測新方法層出不窮,很多性能卓越的目標檢測算法仍然是基于滑動窗理論的[1-5]。基本步驟為:首先訓練一個能夠從訓練圖像所有窗口中識別出目標窗口的分類器,然后使用該分類器在測試圖像中給每個子窗口評分,取得局部最大分值的窗口被認為可能包含目標的窗口。一個“理想”的滑動窗分類器應該使得恰好包含目標的窗口得分最高,覆蓋部分目標的窗口得分相對較低,而覆蓋背景的窗口得分最低。然而遙感圖像數據量龐大,采用傳統(tǒng)滑動窗檢測方法會產生大量子窗口,從而降低目標檢測效率。另外,特征提取環(huán)節(jié)的差異也會對目標檢測性能產生影響。一個好的特征描述方案可以增大相似類別的匹配分值,同時拉大不同類別之間的距離。特征描述的一類方法是主要利用目標的顏色、紋理或幾何特征進行描述[6-11],該類方法簡單直觀,但是不同目標通常會表現出不同特征,例如飛機具有較明顯的角點,而油罐表面灰度分布均勻,因此在復雜遙感環(huán)境中使用單一特征描述目標往往不可靠。另一類方法則是綜合利用目標的顏色、紋理、形狀、位置等多類特征,通過自適應的概率學習融合處理[12-19],然而遙感目標通常具有不同尺寸,在不同尺度上表現出的顯著程度也不同。另外,由于受到傳感器高度、搭載平臺姿態(tài)變化、地球自轉、地形地貌、光照變化等客觀因素的影響,遙感圖像在實際成像過程中會發(fā)生變形,表現在圖像發(fā)生尺度與視角變化、旋轉、模糊、亮度變化等。即使考慮同一幅遙感圖像,其中的多個目標也可能處于不同的角度,這些因素都給人造目標的檢測增加了難度。
本文提出了一種基于窗口融合特征對比度的光學遙感目標檢測方法。該方法可分為特征提取、模型訓練和模型測試,在特征提取階段:提出了一種基于仿射協(xié)變興趣點檢測子的特征,即仿射協(xié)變區(qū)域對比度(Affine Contrast,AC),用于衡量某窗口內部特征區(qū)域與周圍區(qū)域的平均特征差異;改進了邊緣密度(Edge Density,ED)特征,提出了基于四通道梯度圖像最大值(Maximum of OE channels,MOE)的MOE-ED特征,用于衡量某窗口邊界區(qū)域包含閉合輪廓的可能性。在模型訓練階段:首先在訓練圖像上生成大量不同尺寸的滑動窗,計算各窗口的多尺度顯著度(Multi-scale Saliency,MS)分值、AC分值和MOE-ED分值;為了考慮窗口包含目標的完整度,同時采用基于窗口與超像素之間的跨越關系(Superpixels Straddling,SS)計算窗口的SS分值,其中特征閾值參數是基于窗口重合度以及后驗概率最大化過程學習得出的;然后,采用Naive Bayes模型進行特征融合,從訓練窗口中確定正負樣本、估計先驗概率以及各特征的獨立似然概率。在模型測試階段:首先按照與訓練過程一致的流程計算各窗口的MS分值,初步篩選出顯著度高且符合待檢測目標尺寸比例的部分窗口;然后計算初選窗口的AC、MOE-ED和SS分值,根據訓練好的分類模型計算各個窗口的后驗概率,即屬于目標的可能性;最后挑選出局部高分值的候選區(qū)域并進行合并,得到最終的檢測結果。最后,針對典型遙感目標進行檢測實驗。
2.1基于譜殘差的多尺度顯著特征
(1)
由于不同圖像數據部分log譜的分布特點相似。因此,不同的log譜中的差異部分對應原始圖像中變化劇烈的區(qū)域,即顯著區(qū)域。
(2)
(3)
(4)
(5)
其中θs表示特定尺度的閾值,|·|表示求面積。
圖1 多尺度顯著性示意圖Fig.1 Multi-scale saliency
圖1所示為包含油罐和兩架飛機的光學遙感圖像,可見油罐在粗尺度顯著度圖上表現出高亮度,而兩架飛機目標則在細尺度體現為顯著區(qū)域。由此可見,在多尺度上檢測顯著性對于多目標檢測具有重要意義。
2.2仿射協(xié)變區(qū)域對比度
Hessian-Affine 檢測子[21]常用于計算仿射協(xié)變區(qū)域對比度,其首先在高斯尺度空間使用Hessian矩陣及其行列式DoH檢測出初始的特征點,然后搜索DoH局部極值來選擇特征點的位置和特征尺度,最后使用迭代算法不斷調整特征點的空間位置、尺度以及鄰域的形狀,找到收斂后的仿射協(xié)變區(qū)域。Hessian-Affine檢測子對于明顯的尺度變化和視角變化等具有較強適應性,可以降低特征的誤配率,從而更準確地識別出不同仿射變換和不同光照變化圖像中對應的相似特征區(qū)域。
本文首先提取圖像的Hessian-Affine橢圓仿射協(xié)變區(qū)域,然后用SIFT(Scale Invariant Feature Transform)描述子進行描述,形成特征點對應的特征向量X。為了描述某特征區(qū)域R的獨特性,將當前區(qū)域按照參數θAC向外擴大得到區(qū)域R(θAC),二者之間的關系如式(6)所示。
(6)
接下來,重新計算擴大區(qū)域的SIFT特征向量,并將二者的χ2距離作為該區(qū)域形狀對比度的度量。
(a) AC分值 (b)特征點 (c)特征區(qū)域 (a) AC scores (b) Feature points (c) Feature regions圖2 仿射協(xié)變區(qū)域對比度示意圖Fig.2 Affine invariant region contrast
圖2(a)所示為光學遙感圖像的典型目標,圖(b)所示為圖像的部分Hessian-Affine特征點,圖(c)所示為擴大前后的某橢圓仿射協(xié)變區(qū)域示意圖(實線為原始區(qū)域,虛線為擴大區(qū)域)。由于檢測窗口可能覆蓋多個特征點,為了描述當前檢測窗口w的形狀獨特性,本文將窗口覆蓋的所有特征點對應的特征區(qū)域AC之和作為度量指標,如公式(7)所示:
(7)
2.3邊緣密度對比度
由于遙感圖像中的典型目標均具有明顯的規(guī)律性閉合輪廓,與諸如海面、跑道等背景地物具有較明顯的區(qū)別,因此本文采用邊緣密度對比度(Edge Density, ED)來描述目標的輪廓特征。ED特征描述的是窗口邊界邊緣處的密度特征。首先對圖像進行邊緣檢測,提取圖像的輪廓信息。與文獻[22]中采用Canny算子不同,本文采用四通道梯度算子(Oriented Edge,OE)來提取原圖像4個方向上的邊緣,然后通過非極大值抑制方法[23]去掉次要的細小輪廓,保留最大輪廓。最終的輪廓圖像由四通道梯度圖像中的最大值(Maximum of OE channels,MOE)組合而成。提取出輪廓之后,對當前窗口w按照參數θED進行縮小,得到一個內部環(huán)形區(qū)域Inn,在此環(huán)形區(qū)域內計算ED特征。如式(8)所示:
(a) ED分值 (b)Canny邊緣圖 (c) MOE邊緣圖(a) ED score (b) Canny edge map (c) MOE edge map圖3 Canny-ED與MOE-ED比較Fig.3 Comparison of Canny-ED and MOE-ED
MOE-ED特征描述的是窗口邊緣附近目標的閉合邊界特性。圖3所示為特征提取結果。圖3(b)和圖3(c)分別表示Canny算子和MOE算子的輪廓提取結果,可見MOE邊緣檢測子能夠更好地保留主要輪廓,去除細小、次要的其他輪廓。針對包含目標和不包含目標的兩個窗口計算出的特征分值圖為圖3(a),可以看出,MOE-ED更能拉大不同目標之間的距離,具有更好的區(qū)分性。
2.4超像素完整度
由于AC和MOE-ED特征描述的是目標的邊界信息,而遙感圖像中諸如油罐等目標表面沒有明顯的拐點,表面灰度分布均勻,邊緣信息不豐富。因此還需要對目標的成塊區(qū)域進行描述。超像素[24]分割就是把一幅圖像分割成具有均勻顏色或紋理的子區(qū)域。超像素的重要特性是可以保留目標的邊界,即一個超像素內的像素均屬于同一個目標。因此,一個目標有可能被過分割成多個超像素,但是一個超像素不會跨越目標之間的邊界。因此,本文采用窗口與超像素之間的SS來計算窗口分值。
(9)
(a) 原始圖像 (b)分割圖(a) Original Image (b) Segmentation image圖4 SS特征示意圖Fig.4 Schematic of SS feature
3.1特征參數的訓練
(10)
(11)
3.2分類模型的訓練與測試
MS可以根據顯著度圖粗略給出目標的大致位置,AC側重的是判斷目標是否具有明顯拐點,對于沒有明顯拐點的目標可能會失效,而MOE-ED統(tǒng)計的是目標的閉合輪廓特性,但有時候也會出現大量紋理區(qū)域的虛警。SS特征能夠考察窗口內超像素的完整度,但不同的超像素有可能屬于不同目標。因此,有必要將各種特征結合起來使用,以更全面地描述目標,使目標和背景區(qū)分的更好。
(12)
本文基于以下原則進行候選窗口合并:
(1)分值高于一定閾值的區(qū)域選做候選區(qū)域。分值越高,該子區(qū)域包含目標的可能性越大;
(2)屬于同一類別的區(qū)域彼此重疊超過70%的采用K均值聚類的方法進行合并;
(3)相鄰的重疊區(qū)域應該被合并,但是發(fā)生在不同尺度上的重疊或屬于不同類別的區(qū)域不應被合并。
圖5 目標檢測流程Fig.5 Object detection process
4.1使用的數據集
為了驗證本文提出的方法在復雜場景下目標檢測的有效性,選用從QuickBird-2遙感圖像上截取的圖像作為數據集,主要場景為機場、港口和海面,如圖6所示。需要檢測的目標為飛機、油罐、艦船3類。數據集由人工截取的圖像片組成,這些圖像都是分辨率約為0.6 m的高分辨率遙感圖像,每幅圖像大小約從300 pixel×300 pixel到1 000 pixel×1 000 pixel,每幅圖像包含一個或多個目標。實驗中使用了300幅/類圖像,其中150幅/類用于作為訓練樣本,150幅/類用于作為測試樣本。訓練特征閾值參數θ時隨機從訓練集中分出來的一小部分確認集,數量為50幅/類。數據集上事先人工標注出真實目標所在范圍,并記錄外接矩形框的位置,用于特征參數和貝葉斯分類模型的計算。
圖6 訓練數據集Fig.6 Training datasets
4.2參數設置
4.3目標檢測結果分析
圖7(彩圖見期刊電子版)給出了一些測試圖像的窗口分值分布結果,圖7(a)表示一些包含目標的測試圖像,7(b)表示得分最高的5個窗口,紅色越明亮,表示分值越高,顏色越暗,表示分值越低。圖7(c)表示統(tǒng)計分值靠前的150個窗口之后得到的能量分布圖,可以看到,能量在目標范圍內較為集中,越靠近目標中心點,分值越高,而背景區(qū)域得分較低,證明了本文所提出方法的有效性。
(a) 測試圖像 (b)前五個檢測窗口 (c) 總體分值分布(a)Test images (b) The first five det- (c) Total scores ection windows distribution圖7 窗口分值分布Fig.7 Distribution of window scores
圖8為包含更多目標的測試圖像的最終檢測結果??梢钥闯觯疚奶岢龅乃惴軌蛟趶碗s的場景下,有效地將不同角度、不同尺度的目標同時檢測出來。觀察圖8可以發(fā)現,存在檢測框與目標略有套合不夠準確的現象,分析原因主要有3點:(1)受目標陰影影響。例如油罐的檢測框會略偏向陰影區(qū)域的方向,原因是由于陰影區(qū)域與背景對比更強,且輪廓更為清晰,可能會取得更高的窗口分值。(2)滑動窗是按照一定步長移動的;(3)最后的檢測框是由多個候選區(qū)域合并的結果。從圖中還可以看出,對于特別微小的目標也存在漏檢的可能性。例如第2行第4列中包含的小艦船目標),這是因為目標過小有可能導致其顯著度不明顯且閉合長輪廓較少,從而窗口得分較低。
圖8 目標檢測結果Fig.8 Detection results
表1所示為針對飛機、油罐、艦船3類典型遙感目標,利用本文提出的算法、其他單獨特征窗口方法以及其他融合方法進行檢測,統(tǒng)計出的平均準確率??梢钥闯觯瑢τ谟凸弈繕?,4種單特征方案中MOE-ED特征的準確率最低,這是因為油罐頂部灰度分布較為平坦,除了外部輪廓以外,內部邊緣較少,因此MOE-ED分值會較低。MS特征檢測的準確率在單特征方案中最高,這是由于油罐區(qū)域像素值較高,通常和背景形成強烈對比,顯著性較為明顯,因此MS分值得分較高。對于飛機目標而言,MOE-ED特征性能較油罐而言明顯上升,而MS準確率有所下降,這是由于飛機顏色和機場背景區(qū)分性遠不如油罐,導致顯著性明顯下降。得分最高的單特征方案是AC特征,這是因為飛機目標具有較多明顯的角點,目標附近的仿射協(xié)變區(qū)域數量大大增加。對于艦船目標而言,大部分單獨特征方案準確率均有所提高,這是由于作為背景的海面灰度分布較為均勻,因此艦船檢測率較高。取得最佳結果的單獨特征方案是SS特征,這是由于在圖像分割階段,由于背景和目標對比明顯,出現過分割的可能性降低,能夠獲得較為完整的目標區(qū)域,因此SS分值區(qū)分度更強。綜上所述,不同特征在描述不同目標時,描述能力也會發(fā)生變化,因此在檢測多種目標時,需要結合多種特征。表1中所示的3種特征融合方案中,MS+MOE-ED+AC+SS方案由于綜合考慮了目標在顯著性、閉合輪廓、紋理、角點等方面的特點,均能取得最佳的檢測結果。
表1 不同特征描述方案目標檢測性能比較(%)
從數據集中挑選出3幅不同尺寸的圖像,計算在各種特征描述方案下每幅圖像的平均檢測時間。實驗的硬件環(huán)境為:Intel(R) Core(TM) i7-5500U(2.4GHz)處理器和8.0G內存,操作系統(tǒng)為基于Linux系統(tǒng)的Fedora 22。表2為檢測不同尺寸圖像所需的時間??梢钥闯?,影響測試時間的主要因素有2個:(1)圖像大??;(2)圖像紋理的豐富程度。一般情況下,隨著圖像尺寸的加大,耗時也會相應增加。但是如果圖像內容比較單一,那么檢測出的角點、邊緣等特征數則會相應降低,所需時間也會減少。在各種單獨特征方案中,AC特征所需的時間最長,這是因為Hessian-Affine復雜度較高,其中涉及到初始點檢測、自動尺度選擇和形狀適應迭代。在特征融合方案中,由于本文算法需要提取的特征類別最多,因此耗時較長。
表2 不同特征描述方案檢測時間比較
為了進一步評價算法的綜合性能,采用固定窗口數量的傳統(tǒng)滑動窗方法[25]和本文方法進行比較(為了便于比較,窗口分值采用相同方式進行計算),并在測試集上進行目標檢測,其中固定滑動窗方法采用在圖像上生成100 000個均勻分布的大小不同的子窗口進行檢測。3類目標的檢測準確率和虛警率如表3所示。本文方法由于在檢測中間階段利用顯著度提取出顯著區(qū)域,并且及時篩選出符合目標特性的候選窗口,使得最終的平均準確率從約80%提高到約85%,平均虛警率從約20%降低為約3%。虛警的產生主要有幾種情況:(1)塊狀目標或背景上的格狀區(qū)域容易被誤檢為油罐;(2)條狀碼頭等地物容易被誤檢為艦船;(3)機場背景中的房屋較多處可能檢測為飛機。整體來說,海面艦船虛警最低,這是由于海面背景和艦船具有較大差異。另外,本文還對3類目標的平均候選區(qū)域數和平均檢測時間進行了統(tǒng)計,結果如表4所示??梢姳疚姆椒ㄆ骄蜻x區(qū)域數減少約90%以上,平均測試時間降低大約25%左右。
表3 準確率與虛警率比較
表4 區(qū)域數與檢測時間比較
本文提出一種基于窗口融合特征對比度的目標檢測方法。首先在訓練圖像上生成滑動窗,計算各窗口的MS、AC、MOE-ED以及SS 4項特征分值,在確認集上基于窗口重合度和后驗概率最大化學習各個特征的閾值參數,然后采用Naive Bayes框架進行特征融合,并訓練分類器。目標檢測階段首先計算各個窗口的MS分值,初步篩選出顯著度高且符合待檢測目標尺寸比例的部分窗口,然后計算其余3項特征分值,再根據分類器計算各窗口的后驗概率,通過挑選出局部高分值的候選區(qū)域并進行合并,得到最終目標檢測結果。實驗結果表明:單一特征的檢測準確率最高為74.21%~80.32%,而融合方案由于能夠綜合考慮目標在顯著度、角點、閉合輪廓以及分割完整度等方面,準確率提高至80.78%~87.30%。與固定數量滑動窗方法相比,由于本文方法及時篩選出候選窗口,準確率從約80%提高到約85%,虛警率從約20%降低為約3%。最終高分值區(qū)域數降低約90%,測試時間減少約25%。
本文方法提高了算法效率,更適用于遙感相關的實際應用中。然而,滑動窗由于形狀較為固定,從而具有一定程度的不靈活性,無法完全避免小目標漏檢和大目標殘缺的情況,結合圖像分割的方法自適應地分割出完整目標,是本文進一步的研究方向。
[1]DESAI C, RAMANNAN D, FOLKESS C. Discriminative models for multi-class object layout [J].InternationalJournalofComputerVision, 2011, 95(1):1-12.
[2]FELZENSZWALB P F, GIRSHICK R B, DAVID M A,etal.. Object detection with discriminatively trained part-based models [J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2010,32(9):1627-1645.
[3]LONG C, WANG X, HUA G,etal.. Accurate object detection with location relaxation and regionlets relocalization [C].AsianConferenceonComputerVision,Singapore, Nov 1-5, 2014: 260-275.
[4]LAMPERT C H, BLASCHKO M B, HOFMANN T. Beyond sliding windows: Object localization by efficient subwindow search [C]. 2008IEEEConferenceonComputerVision&PatternRecognition,USA,June24-26, 2008: 1-8.
[5]ZHANG S,XIE M. Beyond sliding windows: Object detection based on hierarchical segmentation model [C].IEEEInternationalConferenceonCommunications,Hungary, Jun 9-13, 2013:263-266.
[6]張志龍, 楊衛(wèi)平, 張淼, 等. 基于頻譜殘留變換的紅外遙感圖像艦船目標檢測方法[J]. 電子與信息學報, 2015,37(9): 2144-2150.
ZHANG ZH L, YANG W P, ZHANG M,etal.. Ship detection in infrared remote sensing images based on spectral residual transform [J].JournalofElectronics&InformationTechnology, 2015, 37(9): 2144-2150. (in Chinese)
[7]高立寧, 畢福昆, 龍騰, 等. 一種光學遙感圖像海面艦船檢測算法[J]. 清華大學學報(自然科學版), 2011, 51(1):105-110.
GAO L N, BI F K, LONG T,etal.. Ship detection algorithm for optical remote sensing images [J].JTsinghuaUniv(Sci&Tech), 2011, 51(1):105-110. (in Chinese)
[8]MOHAMMAD A, HOSSEIN E. Accurate object detection using local shape descriptors [J].PatternAnalysisandApplication, 2015,18(2): 277-295.
[9]WANG X, LV Q, WANG B,etal.. Airport detection in remote sensing images: a method based on saliency map [J].CognitiveNeurodynamics, 2013, 7(2):143-154.
[10]聶海濤,龍科慧,馬軍,等.采用改進尺度不變特征變換在多變背景下實現快速目標識別[J].光學 精密工程, 2015, 23(8): 2349-2355.
NIE H T, LONG K H, MA J,etal.. Fast object recognition under multiple varying background using improved SIFT method [J].Opt.PrecisionEng., 2015, 23(8): 2349-2355. (in Chinese)
[11]周姣, 辛云宏. 基于顯著性與尺度空間的紅外弱小目標檢測[J]. 激光與紅外, 2015, 45(4): 452-456.
ZHOU J, XIN Y H. Infrared dim small target detection based on saliency and scale-space [J].Laser&Infrared, 2015, 45(4): 452-456. (in Chinese)
[12]張宇, 何楚, 石博, 等. 逐層特征選擇的多層部件模型用于遙感圖像飛機目標檢測[J]. 武漢大學學報(信息科學版), 2014, 39(12): 1406-1411.
ZHANG Y, HE CH, SHI B,etal.. Multi-layer feature selection based hierarchal component model for aero-plane detection on remote sensing image [J].GeomaticsandInformationScienceofWuhanUniversity, 2014, 39(12): 1406-1411. (in Chinese)
[13]安彧, 王小非, 夏學知, 等. 海戰(zhàn)場光學遙感圖像艦船目標檢測[J]. 武漢大學學報(工學版), 2015, 48(4): 568-573.
AN H, WANG X F, XIA X ZH,etal.. Detection of sea battlefield’s ship targets in optical remote sensing images [J].EngineeringJournalofWuhanUniversity, 2015, 48(4): 568-573. (in Chinese)
[14]LI Y, WANG S, TIAN Q,etal.. Learning cascaded shared-boost classifiers for part-based object detection [J].IEEETransactionsonImageProcessing, 2014, 23(4): 1858-1871.
[15]LEIBE B, LEONARDIS A, SCHIELE B. Robust object detection with interleaved categorization and segmentation [J].InternationalJournalofComputerVision,2015,77(1-3):259-289.
[16]李平,魏仲慧,何昕,等. 采用多形狀特征融合的多視點目標識別[J]. 光學 精密工程,2014, 22(12): 3368-3376.
LI P, WEI ZH H,HE X,etal.. Object recognition based on shape fearure fusion under multi-views [J].Opt.PrecisionEng., 2014, 22(12): 3368-3376. (in Chinese)
[17]譚熊,余旭初,張鵬強,等.基于多核支持向量機的高光譜影像非線性混合像元分解[J].光學 精密工程, 2014, 22(7): 1912-1920.
TAN X, YU X CH, ZHANG P Q,etal.. NonLinear mixed pixel decomposition of hyperspectral imagery based on multiple kernel SVM [J].Opt.PrecisionEng., 2014, 22(7): 1912-1920. (in Chinese)
[18]杜杰, 吳謹, 朱磊. 基于區(qū)域特征融合的RGBD顯著目標檢測[J].液晶與顯示, 2016, 31(1):117-123.
DU J, WU J, ZHU L, RGBD salient object detection based on regional feature integration[J].ChineseJournalofLiquidCrystalsandDisplays, 2016, 31(1):117-123. (in Chinese)
[19]鄧丹, 吳謹, 朱磊, 等. 基于紋理抑制和連續(xù)分布估計的顯著性目標檢測方法[J].液晶與顯示, 2015, 30(1): 120-125.
DENG D, WU J, ZHU L,etal.. Significant target detection method based on texture inhibition and continuous distribution estimation [J].ChineseJournalofLiquidCrystalsandDisplays, 2015, 30(1): 120-125. (in Chinese)
[20]HOU X, ZHANG L. Saliency detection: A spectral residual approach[C].IEEEConferenceonComputerVisionandPatternRecognition, 2007: 1-8.
[21]MIKOLAJCZYK K, SEHMID C. Scale & affine invariant interest point detectors [J].InternationalJournalonComputerVision, 2004, 60(1):63-86.
[22]ALEXE B, DESELAERS T, FERRARI V. Measuring the objectness of image windows [J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2012, 34(11): 2189-2202.
[23]MARTIN D, FOWLKES C, MALIK J. Learning to detect natual image boundaries using local brightness, color, and textures cues[J].PAMI, 2004, 26(5): 530-549.
[24]FELZENSZWALB P F, HUTTENLOCHER D P. Efficient graph-based image segmentation[J].InternationalJournalonComputerVision, 2004, 59(2):167-181.
[25]孫顯,王宏琦,楊志峰. 基于形狀統(tǒng)計模型的多類目標自動識別方法[J]. 電子與信息學報, 2009, 31(11): 2626-2631.
SUN X, WANG H Q, YANG ZH F. Automatic multi-categorical objects recognition using shape statistical models[J].JournalofElectronics&InformationTechnology, 2009, 31(11): 2626-2631. (in Chinese)
李湘眷(1984-),女,陜西西安人,博士,講師,2006年于西安電子科技大學獲得學士學位,2012年于北京中國科學院電子學研究所獲得博士學位,主要從事遙感圖像處理與模式識別方面的科研和教學工作。E-mail: xiangjuan_li@126.com
王彩玲(1984-),女,寧夏吳忠人,博士,講師,2006年于天津大學獲得學士學位,2011年于中國科學院西安光學精密機械研究所獲得博士學位,主要從事遙感影像數據處理技術方面的科研和教學工作。E-mail:azering@163.com
(版權所有未經許可不得轉載)
Optical remote sensing object detection based on fused feature contrast of subwindows
LI Xiang-juan1*, WANG Cai-ling1, LI Yu2, SUN Hao3,4
(1.Xi′anShiyouUniversity,Xi′an710065,China;2.InstituteofRemoteSensingandDigitalEarth,ChineseAcademyofSciences,Beijing100942,China; 3.KeyLaboratoryofTechnologyinGeospatialInformationProcessingandApplicationSystem,InstituteofElectronics,ChineseAcademyofSciences,Beijing100190,China; 4.InstituteofElectronics,ChineseAcademyofSciences,Beijing100190,China)
A detection algorithm for optical remote sensing targets was proposed based on the fused features contrast of subwindows. Firstly, a large number of varisized sliding windows were generated in a training image, and four types of scores related to multi-scale saliency, affine invariant region contrast, edge density and superpixel straddling were computed within each window. The feature parameters were learned on validation sets by maximizing localization accuracy and posterior probability. Then, all the features were combined in a Naive Bayesian framework and a classifier was trained. In the target detection step, the multi-scale saliency score was firstly computed within all the windows of test images, and partial windows with higher saliency and proper sizes matching to the objects to be detected were selected preliminarily. Furthermore, other scores were computed within the selected windows, and the posterior probability of each window was computed by using the trained classifier. Finally, windows with high local scores were selected and merged and the final detection results were obtained. The detection experiments were performed on three types of remote targets including planes, oilcans and ships, and the results show that each type of feature appears different properties for targets described, the highest accuracy is 74.21% to 80.32%. The proposed method outperforms all the single feature methods and the accuracy is improved to 80.87% to 87.30%. By compared with the fixed number sliding window algorithm, the accuracy rate is improved from about 80% to 85% and the false alarm rate is reduced from about 20% to 3%. Furthermore, the proposed method shows a 90% reduction in the number of windows and 25% reduction in the detection time due to the selection in the intermediary stage. It concludes that the method improves detection accuracy and algorithm efficiency greatly.
optical remote sensing; object detection; fused feature contrast; subwindow; saliency; affine invariant; edge density
2016-03-21;
2016-07-03.
國家自然科學基金資助項目(No. 41301480,No. 41301382);陜西省自然科學基礎研究計劃資助項目(No. 2014JQ5181);陜西省教育廳專項科研計劃資助項目(No.14JK1573)
1004-924X(2016)08-2067-11
TP751
A
10.3788/OPE.20162408.2067