陳 婕,潘 潔,楊小英,陳海媚,廖志平
(桂林信息科技學院 機電工程系,廣西 桂林 541004)
合成孔徑雷達(Synthetic Aperture Radar,SAR)可獲取高分辨率圖像,用于地表觀測、地質勘測、情報解譯等應用[1-2]。傳統(tǒng)的SAR目標識別主要針對單一視角的圖像,通過特征提取和分類器的結合進行分類確認。文獻[3-5]分別采用主成分分析(Principal Component Analysis,PCA)、單演信號以及屬性散射中心作為基礎特征設計目標識別方法,文獻[6-7]則是基于深度學習模型即卷積神經網絡(Convolutional Neural Network,CNN)進行SAR目標識別。
與單視角方法相比,多視角SAR目標識別方法基于同一目標的不同視角圖像,通過它們之間的互補提高識別性能。從現有文獻來看,多視角方法主要采用兩種思路。一種是“獨立分類+決策融合”。這類方法將每個視角視為獨立的信息源,按照單視角決策的過程獲得分類結果,然后采用決策融合綜合不同視角的結果獲得最終的決策[8-9]。例如,文獻[8]采用支持向量機(Support Vector Machine,SVM)分別對不同視角SAR圖像進行分類,然后根據投票機制獲得融合決策結果。文獻[9]同樣采用SVM作為基礎分類器,但對不同視角的決策結果進行了可靠性篩選,只有通過篩選的視角進入后續(xù)的貝葉斯融合決策。另一種是“聯合表征+分類”。得益于多任務學習算法的提出,可在統(tǒng)一表征框架下對不同視角的SAR圖像進行分析,然后進行決策[10-13]。文獻[10]首次將聯合稀疏表示模型引入SAR圖像多視角分類并驗證其有效性。文獻[11]在此基礎上增加了視角篩選,認為只有鑒別力強的視角才能參加聯合表征。文獻[12]將多視角與多特征聯合運用,對不同視角提取不同的特征并通過聯合稀疏表示進行分類。文獻[13]對多視角SAR圖像進行聚類分析,分別在各個視角子集中進行聯合稀疏表示,最后對不同視角集的決策結果進行線性加權融合。
本文根據現有多視角SAR圖像目標識別方法進行優(yōu)化設計,主要在文獻[13]方法的基礎上引入多重集典型相關(Multiset Canonical Correlations Analysis,MCCA)[14-15]特征融合算法。本文在繼承多視角聚類算法的基礎上,相比文獻[13]對后續(xù)的處理過程進行了優(yōu)化處理,可有效提高多視角SAR圖像的利用率。特別地,對于只包含一幅SAR圖像的視角集,則直接采用其特征矢量,無需進行MCCA操作。在MSTAR數據集上開展的實驗結果表明,本文方法具有更好的識別性能。
對于同一目標的多視角SAR圖像,由于獲得的隨機性,其中部分相近視角的相關性更強,而相差較大的視角則相關性較弱。為此,對多視角的相關性進行分析十分必要。本文以傳統(tǒng)的圖像相關性為多視角聚類的準則,定義如下:
(1)
式中:I1和I2分別代表兩幅不同圖像,m1和m2為它們的灰度均值;Δk和Δl指橫縱坐標的偏置,實現滑動匹配的過程。
以式(1)的相關性準則為依據,對多視角SAR圖像V={I1,I2,…,IN}進行聚類。首先,分別計算不同視角兩兩之間的相關性,記錄如表1所示。后續(xù)算法描述如下:
表1 不同視角的相關矩陣
Step1 設置相關性門限Tc,初始化t=1。
Step2 設置I1為初始聚類中心,記St={1},執(zhí)行以下循環(huán)判斷:
forj={1,2,…,N}
ifc1St≥Tc
St=St∪j
end
end
Step3 得到一組視角集St。
Step4 更新V=VSt,t=t+1;重復Step 1~3,直到所有視角均獲得聚類。
上述步驟中,“”表示余集操作,c1St≥Tc指的是I1與St中每個視角的相關系數均高于門限Tc。門限值的選取一般可采用經驗分析加部分測試。在歸一化相似度的條件下,門限取值一般趨于區(qū)間的中間值,保證聚類相關性和視角獨立性的平衡。同時,結合部分合作訓練和測試集進行測試,觀察不同門限條件下的識別精度,可獲取較為理想的相似度門限。經過上述聚類算法,原始的N個視角被重新劃分為若干個子集。對于包含多幅SAR圖像的子集,其中各個視角具有較高的內在相關性。
MCCA[14-15]是典型相關分析(Canonical Correlation Analysis,CCA)的擴展,具備對多個隨機變量的處理能力,主要用于分析它們之間的內在相關性[15-16]。對于n個經過中心化后的隨機變量X1,X2,…,Xn,維數分別為pi(i=1,2,…,n)。設定p1最小,MCCA定義如式(2)所示的準則函數:
(2)
(3)
通過Lagrange乘子法進行求解,構造如下:
(4)
獲得上式的求解結果,獲得變換矩陣A=[α1,α2,…,αn]T,其中:
(5)
式中獲得的是不同Xi最佳的投影方向,采用線性疊加的形式即可對它們進行融合處理,如下式所示:
(6)
本文采用MCCA對不同視角子集進行處理。對于同一視角子集中的若干SAR圖像特征矢量,按照MCCA的過程進行融合,獲得單一的特征矢量。融合后的結果在保持不同視角獨立鑒別力的基礎上,保留了它們之間的內在關聯特性,因此具有更強的鑒別力。
聯合稀疏表示是一種多任務學習算法,主要針對多個具有關聯性的稀疏表示問題[10-13]。對于多個視角子集融合得到的特征矢量,本文采用聯合稀疏表示進行表征和分類。記所有SAR圖像經過聚類獲得M個視角子集,經過融合后對應的特征矢量分別為y=[y(1),y(2),…,y(M)],它們獨立的稀疏表示問題如下:
y(k)=D(k)α(k)+ε(k),k=1,2,…,M。
(7)
式中:D(k)、α(k)、ε(k)分別對應第k個融合特征的字典、稀疏系數矢量以及表征誤差。
對M個視角子集的稀疏表示問題進行共同考察,獲得聯合表征模型如下:
(8)
式中:β=[α(1),α(2),…,α(M)]為所有稀疏系數矢量的矩陣表達式。
式(8)所示的聯合表征模型僅僅在形式上進行了統(tǒng)一,并沒有利用不同視角子集之間的關聯性。具有關聯性約束的聯合稀疏表示模型通過對稀疏矩陣β進行適當約束,提高整體求解精度,表達如下:
(9)
式中:‖·‖2,1為1/2范數。根據式(9)獲得的稀疏系數矩陣,可分別計算不同類別的重構誤差,進而生成目標所屬類別的決策結果。
(10)
本文方法的實施流程如圖1所示,主要過程分為多視角的聚類、視角子集的特征融合以及多視角子集特征的聯合表征。具體過程中,對于每一個視角的SAR圖像均采用主成分分析作為基本特征提取及降維手段,后續(xù)的特征融合及聯合表征均在此特征基礎上進行。
圖1 方法實施流程圖
采用MSTAR數據集開展實驗,對方法的性能進行測試分析。該數據集包含圖2所示的10類目標,它們對應SAR圖像相關信息如表2所列。表3設置了本文實驗中使用的訓練和測試集,包含了10類目標的類別、型號、樣本數、俯仰角等。
表2 MSTAR數據集相關信息
表3 10類目標識別的訓練和測試集
圖2 MSTAR數據集目標光學圖像
實驗中,重點將所提方法與來自文獻[8,11-13]的多視角SAR目標識別方法進行對比分析,分別記為“對比方法1”“對比方法2”“對比方法3”“對比方法4”。其中,對比方法1屬于“獨立分類+決策融合”類別,后三種對比方法都屬于“聯合表征+分類”類別。各類方法均在相同硬件平臺上運行,主頻3.4 GHz,8 GB RAM英特爾i7處理器。采用識別率作為方法性能的評價準則,定義為正確識別樣本數占全部測試樣本的比例。
3.2.1 標準操作條件
按照表3的設置,采用MSTAR數據集中的原始樣本進行識別實驗。此時,可認為實驗場景為標準操作條件,即測試樣本與訓練樣本整體相似度較高。當前實驗設置當設置視角數目為5,相關門限為0.4。圖3顯示了本文方法和四類對比方法的識別結果,各個混淆矩陣中對角線元素即為對應目標的正確識別率。從表3可見,BMP2和T72的測試子型號多于訓練子型號,這導致它們的識別率在10類目標中相對較低。綜合10類目標識別結果,表4對比了不同方法在當前場景下的平均識別率和識別單個測試樣本的平均時間消耗。在識別精度方面,本文方法在當前條件下的性能更優(yōu),體現了其有效性。相對采用“獨立分類+決策融合”的對比方法1,后三類基于“聯合表征+分類”的多視角方法的整體識別率更高,體現了不同視角之間內在相關性的作用。與對比方法3相比,本文通過引入基于MCCA的多視角融合提高了平均識別精度,說明了所提策略的有效性??梢?,所提方法在標準操作條件的場景下具有更強有效性。在識別效率方面,本文方法同樣具有優(yōu)勢。與對比方法4相比,本文方法的效率進一步提高,主要是對比方法4需要在各個視角集中進行聯合稀疏表示,導致整體運算量增加。本文對于各個視角集采用MCCA進行高效融合,最終只需要進行一次聯合稀疏表示,因此效率上更具優(yōu)勢。
表4 標準操作條件下的平均識別率
圖3 標準操作條件下各類方法的混淆矩陣
根據視角聚類算法,門限Tc對最終的聚類結果有著重要影響。因此,選取合適的聚類門限十分重要。表5給出了不同門限條件下所提方法的平均識別率,其在Tc=0.45時效果最佳。門限過小時,對于不同視角之間的相關性約束過弱,即導致存在較大差異的視角聚入一類;反之,當門限過大時,則對不同視角之間的相關性約束過強,則單個視角都傾向于自稱一類,失去了聚類分析的價值。根據這一結果,本文在后續(xù)實驗確定聚類相關門限為Tc=0.45。
表5 不同聚類相關門限條件下的平均識別率
3.2.2 噪聲干擾
無論是光學圖像還是雷達圖像,其在獲取過程中不可避免地受到噪聲污染。在實際應用的識別系統(tǒng)中,訓練樣本往往經過精心挑選和預處理,具有較高的圖像質量和信噪比(Signal-to-Noise Ratio,SNR)。然而,測試樣本則來自相對隨機的獲取條件,存在圖像質量差、信噪比低的情形。為此,識別算法的噪聲穩(wěn)健性十分重要。本實驗在表3訓練和測試集的基礎上,對10類目標的測試樣本進行噪聲添加,獲得多個不同信噪比的測試集[5],然后分別對各類方法進行測試。表6統(tǒng)計了當前實驗場景下的識別率結果。與標準操作條件下的結果相比,噪聲干擾下各類方法的性能都出現了下降。觀察每個信噪比下的結果,可見在每個噪聲水平下本文方法均可以取得最高的平均識別率,體現了其噪聲穩(wěn)健性。
表6 噪聲干擾的識別率統(tǒng)計結果
根據文獻[10-13],稀疏表示對于噪聲干擾具有一定的穩(wěn)健性,這也反映在表6中后三類對比方法的性能優(yōu)于基于SVM的對比方法1。本文方法在使用聯合稀疏表示模型的基礎上,對各個視角集采用MCCA進行了融合處理。根據MCCA的基本原理,其主要是分析和利用不同輸入之間的相關性,對于噪聲和其他干擾因素,則可以在融合過程中進行有效剔除。因此,本文方法在特征和分類器兩個步驟均考慮了噪聲可能的影響,因此最終對于噪聲干擾的穩(wěn)健性更強。
4.2.3 目標遮擋
與噪聲干擾的情形類似,實際獲取的待識別樣本也可能存在目標部分遮擋的情形。此時,只有部分目標特性能夠體現在測試樣本中并用于分類決策。按照文獻[5]描述的算法,在表3測試集的基礎上,采用目標區(qū)域部分遮擋的方式獲得不同遮擋比例下的測試集,進而測試各類方法的性能。圖4顯示了各方法的識別率曲線,直觀可見本文方法在此實驗場景下的穩(wěn)健性更強。與噪聲干擾的情形類似,基于聯合稀疏表示的方法相比采用SVM的對比方法1整體穩(wěn)健性更強。本文方法在采用MCCA進行多視角融合時,同樣只會保留不同遮擋圖像之間的相關部分,而對由于遮擋噪聲的樣本差異進行剔除。因此,在后續(xù)的決策階段,基于MCCA融合后的特征對于目標遮擋具有更好的適應性。
圖4 目標遮擋的識別率統(tǒng)計結果
本文提出了一種多視角SAR目標識別方法。該方法首先基于相關性準則對多視角進行聚類,然后通過MCCA分別對各個視角子集進行融合處理。最終,基于聯合稀疏表示對多特征進行表征和聚類,獲得目標類別。通過多視角聚類、融合以及聯合表征實現對多視角SAR圖像獨立鑒別力和內在相關性的運用,提高了最終決策的可靠性。目前,該方法在多視角聚類的門限自適應確定方面主要是依靠經驗和部分測試結果,還存在一定的不足,后續(xù)要重點進行改進。未來,將針對實測多視角SAR圖像數據開展應用研究,為智能識別決策提供支撐。