趙飛翔,杜 軍,劉 恒,馬子龍
(中國(guó)華陰兵器試驗(yàn)中心,陜西 華陰 714200)
雷達(dá)目標(biāo)識(shí)別在國(guó)防和經(jīng)濟(jì)建設(shè)中發(fā)揮著重要作用[1]。常用的識(shí)別方法可分為以下兩種類(lèi)型:一種是基于合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)圖像和逆合成孔徑雷達(dá)(Inverse Synthetic Aperture Radar,ISAR)圖像的目標(biāo)分類(lèi)識(shí)別;另一種是基于高分辨一維距離像(High-resolution Range Profile,HRRP)的目標(biāo)分類(lèi)識(shí)別。比起SAR/ISAR圖像,HRRP因其獲取和處理相對(duì)容易,在雷達(dá)目標(biāo)識(shí)別中得到了廣泛關(guān)注[2]。
HRRP[3]可以看作是利用寬帶雷達(dá)信號(hào)獲得的目標(biāo)散射點(diǎn)子回波沿雷達(dá)視線(xiàn)方向上投影的矢量和,它包含有目標(biāo)的重要信息,例如目標(biāo)的大小、散射中心的分布等。當(dāng)使用HRRP進(jìn)行目標(biāo)識(shí)別時(shí),傳統(tǒng)方法僅使用其幅度信息,而丟失其相位信息[4],這樣勢(shì)必造成目標(biāo)信息不完備,使得算法識(shí)別效果受限。為解決此問(wèn)題,文獻(xiàn)[5]提出一種基于主成分分析(Principal Component Analysis,PCA)的投影重構(gòu)的分類(lèi)方法,能有效克服初相敏感性的問(wèn)題;文獻(xiàn)[6]利用復(fù)值獨(dú)立分量分析方法提取復(fù)HRRP特征,然后結(jié)合隱馬爾科夫模型(Hidden Markov Model,HMM)方法進(jìn)行識(shí)別;文獻(xiàn)[7]為充分利用相位信息,提出一種多任務(wù)復(fù)數(shù)因子分析的算法,能較好地處理小樣本條件下的識(shí)別問(wèn)題。這些方法雖然都能較好地處理復(fù)數(shù)HRRP,但其淺層結(jié)構(gòu)很難挖掘目標(biāo)深層結(jié)構(gòu)信息,且算法依賴(lài)于研究者的經(jīng)驗(yàn)和專(zhuān)業(yè)知識(shí),如果沒(méi)有相關(guān)領(lǐng)域的充足先驗(yàn)知識(shí),所提取的特征往往是不完備的。因此,自動(dòng)提取目標(biāo)深層特征顯得尤為重要。
深度學(xué)習(xí)[8-9]算法通過(guò)構(gòu)建一個(gè)包含多個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò),映射輸入數(shù)據(jù)到各個(gè)隱藏層,從而獲得輸入數(shù)據(jù)的各層特征表示。因?yàn)槠鋸?qiáng)大的特征表示能力,深度學(xué)習(xí)近幾年在機(jī)器學(xué)習(xí)、模式識(shí)別等領(lǐng)域得到了廣泛關(guān)注和成功應(yīng)用[10]。深度學(xué)習(xí)模型的訓(xùn)練過(guò)程包括無(wú)監(jiān)督的預(yù)訓(xùn)練和監(jiān)督的微調(diào),其中預(yù)訓(xùn)練過(guò)程采用的是逐層貪婪訓(xùn)練算法,微調(diào)階段采用的是梯度優(yōu)化方法。目前得到廣泛應(yīng)用的深度學(xué)習(xí)模型主要有棧式自動(dòng)編碼器(Stacked Autoencoder,SAE)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)和深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)。這些模型雖然在目標(biāo)跟蹤[11]、流量預(yù)測(cè)[12]和字符識(shí)別[13]中有好的效果,但模型的微調(diào)過(guò)程需耗費(fèi)大量時(shí)間,降低了網(wǎng)絡(luò)的訓(xùn)練速度。
為解決此問(wèn)題,Huang等人[14-15]提出了極限學(xué)習(xí)機(jī)(Extreme Learning Machine,ELM)算法。文獻(xiàn)[14]證明了ELM輸入層連接權(quán)值和隱藏層的偏置可隨機(jī)賦值,只需通過(guò)計(jì)算輸出層權(quán)值的最小二乘范數(shù)解即可完成網(wǎng)絡(luò)的訓(xùn)練。雖然隱藏層參數(shù)不需要調(diào)整,但ELM依舊保持了良好的通用逼近能力,并且和基于梯度的方法相比,ELM具有學(xué)習(xí)速率快、泛化能力強(qiáng)的優(yōu)點(diǎn),但網(wǎng)絡(luò)的淺層結(jié)構(gòu)制約了其提取數(shù)據(jù)深層信息的能力。文獻(xiàn)[16-18]提出了深度極限學(xué)習(xí)機(jī)的算法模型,但這些模型只應(yīng)用在實(shí)數(shù)域。
為充分利用HRRP的相位信息,本文將深度極限學(xué)習(xí)機(jī)從實(shí)數(shù)域擴(kuò)展到復(fù)數(shù)域,提出一種深度復(fù)極限學(xué)習(xí)機(jī)(Deep Complex Extreme Learning Machine,DCELM)。同時(shí),為了在模型訓(xùn)練過(guò)程中有效保持?jǐn)?shù)據(jù)間的鄰域信息,將流形正則化(Manifold Regularization,MR)框架應(yīng)用到DCELM的監(jiān)督和無(wú)監(jiān)督訓(xùn)練過(guò)程中,提出一種基于流形正則深度復(fù)極限學(xué)習(xí)機(jī)(MR-DCELM)的雷達(dá)HRRP目標(biāo)識(shí)別算法。
復(fù)極限學(xué)習(xí)機(jī)可以對(duì)復(fù)數(shù)輸入數(shù)據(jù)進(jìn)行處理,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。它包括輸入層、隱藏層和輸出層,其中輸入層連接權(quán)值和隱藏層的偏置可隨機(jī)賦值,只需通過(guò)計(jì)算輸出層權(quán)值的最小二乘范數(shù)解即可完成網(wǎng)絡(luò)的訓(xùn)練。
圖1 復(fù)極限學(xué)習(xí)機(jī)網(wǎng)絡(luò)結(jié)構(gòu)
給定一個(gè)復(fù)數(shù)訓(xùn)練樣本(xi,ti),i=1,2,…,N,其中xi∈Cn,ti∈Cm,若模型隱層節(jié)點(diǎn)數(shù)為L(zhǎng),復(fù)激活函數(shù)為gc(x),則網(wǎng)絡(luò)的輸出可表示為
(1)
式中:wk∈Cn為輸入層的節(jié)點(diǎn)與第k個(gè)隱藏層的節(jié)點(diǎn)連接的復(fù)數(shù)權(quán)值向量,βk=[βk1,βk2,…,βkm]T∈Cm為第k個(gè)隱藏層的節(jié)點(diǎn)與輸出節(jié)點(diǎn)連接的復(fù)數(shù)輸出權(quán)值向量,bk∈C為第k個(gè)隱藏層節(jié)點(diǎn)的復(fù)數(shù)偏置。
式(1)可簡(jiǎn)化為
Hβ=O。
(2)
如果具有L個(gè)隱藏層節(jié)點(diǎn)的復(fù)極限學(xué)習(xí)機(jī)能夠無(wú)限逼近給定的N個(gè)訓(xùn)練樣本,式(2)可轉(zhuǎn)化為
Hβ=T,
(3)
(4)
(5)
因此,通過(guò)計(jì)算式(3)的最小二乘范數(shù)解,可完成CELM的訓(xùn)練:
(6)
式中:H+為H的Moore-Penrose廣義逆。
式(6)可化為
(7)
式中:I為單位陣,C為嶺參數(shù)。
復(fù)極限學(xué)習(xí)機(jī)-自動(dòng)編碼器(Complex Extreme Learning Machine-Autoencoder,CELM-AE)借鑒自動(dòng)編碼器(Autoencoder,AE)的思想[10],通過(guò)對(duì)輸入編碼再解碼,從而重構(gòu)輸入數(shù)據(jù)。對(duì)于有N個(gè)樣本的數(shù)據(jù)集xi(i=1,2,…,N),xi∈C,CELM-AE的隱藏層輸出和網(wǎng)絡(luò)輸出可分別用公式(8)和公式(9)表示為
h=gc(wx+b),wTw=I,bTb=I;
(8)
(9)
則根據(jù)1.1節(jié)介紹可通過(guò)下式計(jì)算模型的輸出權(quán)重:
(10)
流形正則化是一種通過(guò)構(gòu)建無(wú)向加權(quán)圖和拉普拉斯算子的學(xué)習(xí)方法。該方法是建立在如下假設(shè)之上:如果點(diǎn)x1和x2在相同的局部鄰域內(nèi),也即它們相距很近,則它們的條件概率P(y|x1)和P(y|x2)也應(yīng)該很相近。流形正則化可通過(guò)最小化下式代價(jià)函數(shù)進(jìn)行表達(dá);
(11)
式中:wij表示樣本xi和xj的相似性,可通過(guò)下式求解:
(12)
式中:KNN(xj)表示樣本點(diǎn)xj的最近鄰點(diǎn)集。
由于條件概率不容易求得,式(11)可化為
(13)
根據(jù)圖譜理論,式(13)可用下式表達(dá):
(14)
式中:tr(·)為矩陣的跡;L為圖拉普拉斯矩陣,且L=D-W,D是對(duì)角陣,其元素為Dii=∑jwij。
圖2 DCELM訓(xùn)練過(guò)程
本小節(jié)將提出流形正則深度復(fù)極限學(xué)習(xí)機(jī)算法(MR-DCELM),并給出其主要的學(xué)習(xí)步驟。MR-DCELM能夠捕獲數(shù)據(jù)的深層潛在信息,該模型是一個(gè)堆疊的多層神經(jīng)網(wǎng)絡(luò),其基本學(xué)習(xí)單元為MCELM-AE。在執(zhí)行分類(lèi)任務(wù)時(shí),其訓(xùn)練過(guò)程也分為兩個(gè)階段:無(wú)監(jiān)督特征學(xué)習(xí)和有監(jiān)督目標(biāo)分類(lèi)。
(1)無(wú)監(jiān)督學(xué)習(xí)階段
給定一個(gè)復(fù)數(shù)訓(xùn)練樣本(xi,ti),i=1,2,…,N,MCELM-AE的目標(biāo)函數(shù)為
(15)
式中:k為隱層數(shù),βτ為第τ個(gè)MCELM-AE模型的輸出權(quán)重,Lτ為在第τ個(gè)MCELM-AE模型特征空間上的圖拉普拉斯,λ為正則化參數(shù)。將約束條件代入目標(biāo)函數(shù)中,式(15)可寫(xiě)為
(16)
式中:Hτ為第τ個(gè)MCELM-AE模型的隱層輸出。
然后將目標(biāo)函數(shù)對(duì)β求導(dǎo)可得
(17)
令?=0,可以得到式(15)的解為
(18)
式中:ILτ為維數(shù)是Lτ的單位陣,Lτ是第τ個(gè)MCELM-AE模型隱藏層的節(jié)點(diǎn)個(gè)數(shù)。
(2)監(jiān)督學(xué)習(xí)階段
MCELM的目標(biāo)函數(shù)為
(19)
式中:βk+1為第k個(gè)隱藏層和模型輸出層的連接權(quán)值;Hk為第k個(gè)隱藏層的輸出,Hk=gc((βk)THk-1);η為正則化參數(shù)。
類(lèi)比無(wú)監(jiān)督學(xué)習(xí)過(guò)程求取權(quán)值的方法,模型輸出權(quán)值可表示為
(20)
本節(jié)使用暗室測(cè)量的5類(lèi)飛機(jī)目標(biāo)數(shù)據(jù)驗(yàn)證所提方法的可行性。其中目標(biāo)采用的是縮比模型,雷達(dá)工作頻段為34.7~35.7 GHz,信號(hào)形式為階梯變頻,頻率間隔2 MHz;雷達(dá)方位角范圍為0°~30°,步長(zhǎng)1°。則每個(gè)目標(biāo)的樣本個(gè)數(shù)為31,維數(shù)為500。每個(gè)飛機(jī)目標(biāo)的HRRP序列在圖3中給出。將每個(gè)目標(biāo)樣本集中奇數(shù)位樣本抽出作為訓(xùn)練樣本,將樣本集中其他樣本作為實(shí)驗(yàn)樣本??紤]到隱藏層節(jié)點(diǎn)個(gè)數(shù)、嶺參數(shù)設(shè)置和流形正則化參數(shù)決定著模型的識(shí)別性能,將對(duì)這些參數(shù)進(jìn)行研究。實(shí)驗(yàn)運(yùn)行軟件環(huán)境為Matlab R2013a,硬件環(huán)境為Intel(R) Pentium(R)、3.30 GHz CPU、4 GB內(nèi)存的PC機(jī)。
圖3 每一個(gè)飛機(jī)目標(biāo)HRRP序列
已知HRRP樣本為500維,因此實(shí)驗(yàn)中將模型輸入層的節(jié)點(diǎn)個(gè)數(shù)設(shè)為500。雖然增加網(wǎng)絡(luò)隱層數(shù)可以獲得目標(biāo)更深層次的抽象信息,但層數(shù)越多,網(wǎng)絡(luò)訓(xùn)練難度越大,需要訓(xùn)練的參數(shù)也越多。因此,不能一味地增加模型的深度,應(yīng)依據(jù)實(shí)驗(yàn)任務(wù)及樣本數(shù)據(jù)量確定合理的隱層數(shù)。通過(guò)分析,將模型隱層數(shù)量設(shè)置為2即可滿(mǎn)足任務(wù)需求。圖4顯示了第一及第二隱層不同的節(jié)點(diǎn)個(gè)數(shù)對(duì)識(shí)別效果的影響,由圖可知,當(dāng)網(wǎng)絡(luò)第一個(gè)隱層節(jié)點(diǎn)個(gè)數(shù)為300,網(wǎng)絡(luò)第二個(gè)隱層節(jié)點(diǎn)個(gè)數(shù)為1 150時(shí),模型取得最優(yōu)的識(shí)別效果。
圖4 模型不同隱藏層節(jié)點(diǎn)個(gè)數(shù)對(duì)識(shí)別效果的影響
在3.1節(jié)中確定了網(wǎng)絡(luò)隱層數(shù)和隱層節(jié)點(diǎn)數(shù),接下來(lái)需要分析嶺參數(shù)C=[C1,C2,C3]對(duì)網(wǎng)絡(luò)性能的影響。在{10-8,10-7,…,107,108}范圍內(nèi)進(jìn)行網(wǎng)格搜索,并遵循以下規(guī)則:先保持C2和C3不變,從{10-8,108}范圍內(nèi)選取能夠獲得最優(yōu)識(shí)別效果的C1的值,然后以此方法確定C2和C3的取值。C=[C1,C2,C3]對(duì)識(shí)別效果的影響在圖5中給出。由圖可知,最優(yōu)的C=[C1,C2,C3]取值為C1=10-3,C2=104,C3=107。
圖5 嶺參數(shù)C=[C1,C2,C3]對(duì)模型識(shí)別效果的影響
本節(jié)討論流行正則化參數(shù)λ和η對(duì)所提算法識(shí)別效果的影響。由圖6可知,參數(shù)λ和η對(duì)算法模型影響較大。如果λ和η的值太大,將使得模型中其他的參數(shù)值變得很小,從而會(huì)造成模型欠擬合;如果λ和η的值太小,則流形正則化對(duì)網(wǎng)絡(luò)訓(xùn)練的影響很小,不能很好地保持樣本間的鄰域信息。因此,設(shè)置合適的參數(shù)值顯得尤為重要。通過(guò)分析圖6可知,當(dāng)λ=10-3、η=10-1時(shí),所提方法可取得最好的識(shí)別效果。
圖6 流形正則參數(shù)λ和η對(duì)模型識(shí)別效果的影響
為驗(yàn)證所提算法模型的可行性,將所提算法模型的識(shí)別效果和常用的深度學(xué)習(xí)模型棧式自動(dòng)編碼器(SAE)、深度信念網(wǎng)絡(luò)(DBN)以及深度極限學(xué)習(xí)機(jī)(DELM)的識(shí)別效果相比較。已知HRRP樣本為500維,因此實(shí)驗(yàn)中,將四種模型可見(jiàn)層的節(jié)點(diǎn)個(gè)數(shù)設(shè)為500,隱藏層的數(shù)量為2,隱藏層節(jié)點(diǎn)個(gè)數(shù)分別為300和1 150,訓(xùn)練的迭代次數(shù)取30。四種算法模型均運(yùn)行10次,其識(shí)別結(jié)果的平均值在表1中給出。
表1 所提算法和其他算法識(shí)別準(zhǔn)確率比較
由表1可知,所提算法模型的識(shí)別效果相比DELM高出5.46%,相比SAE高出2.55%,相比DBN高出3.48%,表明所提算法利用復(fù)HRRP進(jìn)行識(shí)別時(shí),利用了目標(biāo)更全面的數(shù)據(jù)信息,獲得了更完備的特征表達(dá),從而使得識(shí)別效果更好。同時(shí)也注意到,所提算法模型的訓(xùn)練速度是SAE訓(xùn)練速度的7倍,是DBN訓(xùn)練速度的8倍,表明所提算法相比常用深度學(xué)習(xí)模型具有更快的訓(xùn)練速度。
本文將深度極限學(xué)習(xí)機(jī)從實(shí)數(shù)域擴(kuò)展到復(fù)數(shù)域,提出深度復(fù)極限學(xué)習(xí)機(jī),并將其應(yīng)用于雷達(dá)目標(biāo)識(shí)別中,用以解決傳統(tǒng)識(shí)別方法在利用HRRP時(shí)只利用其幅度信息而丟失相位信息,使得目標(biāo)信息不完備,制約其識(shí)別效果的問(wèn)題。同時(shí)將流形正則化引入到模型中,使其在訓(xùn)練過(guò)程中有效保持?jǐn)?shù)據(jù)間的鄰域信息。在暗室測(cè)量數(shù)據(jù)上的實(shí)驗(yàn)結(jié)果驗(yàn)證了所提算法模型的可行性。但需要說(shuō)明的是,該實(shí)驗(yàn)過(guò)程中并未考慮噪聲的影響,算法模型對(duì)噪聲的魯棒性將是下一步算法改進(jìn)完善的重點(diǎn)。