• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      深度復(fù)極限學(xué)習(xí)機(jī)在雷達(dá)HRRP目標(biāo)識(shí)別中的應(yīng)用*

      2021-04-25 03:06:04趙飛翔馬子龍
      電訊技術(shù) 2021年3期
      關(guān)鍵詞:學(xué)習(xí)機(jī)流形正則

      趙飛翔,杜 軍,劉 恒,馬子龍

      (中國(guó)華陰兵器試驗(yàn)中心,陜西 華陰 714200)

      0 引 言

      雷達(dá)目標(biāo)識(shí)別在國(guó)防和經(jīng)濟(jì)建設(shè)中發(fā)揮著重要作用[1]。常用的識(shí)別方法可分為以下兩種類(lèi)型:一種是基于合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)圖像和逆合成孔徑雷達(dá)(Inverse Synthetic Aperture Radar,ISAR)圖像的目標(biāo)分類(lèi)識(shí)別;另一種是基于高分辨一維距離像(High-resolution Range Profile,HRRP)的目標(biāo)分類(lèi)識(shí)別。比起SAR/ISAR圖像,HRRP因其獲取和處理相對(duì)容易,在雷達(dá)目標(biāo)識(shí)別中得到了廣泛關(guān)注[2]。

      HRRP[3]可以看作是利用寬帶雷達(dá)信號(hào)獲得的目標(biāo)散射點(diǎn)子回波沿雷達(dá)視線(xiàn)方向上投影的矢量和,它包含有目標(biāo)的重要信息,例如目標(biāo)的大小、散射中心的分布等。當(dāng)使用HRRP進(jìn)行目標(biāo)識(shí)別時(shí),傳統(tǒng)方法僅使用其幅度信息,而丟失其相位信息[4],這樣勢(shì)必造成目標(biāo)信息不完備,使得算法識(shí)別效果受限。為解決此問(wèn)題,文獻(xiàn)[5]提出一種基于主成分分析(Principal Component Analysis,PCA)的投影重構(gòu)的分類(lèi)方法,能有效克服初相敏感性的問(wèn)題;文獻(xiàn)[6]利用復(fù)值獨(dú)立分量分析方法提取復(fù)HRRP特征,然后結(jié)合隱馬爾科夫模型(Hidden Markov Model,HMM)方法進(jìn)行識(shí)別;文獻(xiàn)[7]為充分利用相位信息,提出一種多任務(wù)復(fù)數(shù)因子分析的算法,能較好地處理小樣本條件下的識(shí)別問(wèn)題。這些方法雖然都能較好地處理復(fù)數(shù)HRRP,但其淺層結(jié)構(gòu)很難挖掘目標(biāo)深層結(jié)構(gòu)信息,且算法依賴(lài)于研究者的經(jīng)驗(yàn)和專(zhuān)業(yè)知識(shí),如果沒(méi)有相關(guān)領(lǐng)域的充足先驗(yàn)知識(shí),所提取的特征往往是不完備的。因此,自動(dòng)提取目標(biāo)深層特征顯得尤為重要。

      深度學(xué)習(xí)[8-9]算法通過(guò)構(gòu)建一個(gè)包含多個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò),映射輸入數(shù)據(jù)到各個(gè)隱藏層,從而獲得輸入數(shù)據(jù)的各層特征表示。因?yàn)槠鋸?qiáng)大的特征表示能力,深度學(xué)習(xí)近幾年在機(jī)器學(xué)習(xí)、模式識(shí)別等領(lǐng)域得到了廣泛關(guān)注和成功應(yīng)用[10]。深度學(xué)習(xí)模型的訓(xùn)練過(guò)程包括無(wú)監(jiān)督的預(yù)訓(xùn)練和監(jiān)督的微調(diào),其中預(yù)訓(xùn)練過(guò)程采用的是逐層貪婪訓(xùn)練算法,微調(diào)階段采用的是梯度優(yōu)化方法。目前得到廣泛應(yīng)用的深度學(xué)習(xí)模型主要有棧式自動(dòng)編碼器(Stacked Autoencoder,SAE)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)和深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)。這些模型雖然在目標(biāo)跟蹤[11]、流量預(yù)測(cè)[12]和字符識(shí)別[13]中有好的效果,但模型的微調(diào)過(guò)程需耗費(fèi)大量時(shí)間,降低了網(wǎng)絡(luò)的訓(xùn)練速度。

      為解決此問(wèn)題,Huang等人[14-15]提出了極限學(xué)習(xí)機(jī)(Extreme Learning Machine,ELM)算法。文獻(xiàn)[14]證明了ELM輸入層連接權(quán)值和隱藏層的偏置可隨機(jī)賦值,只需通過(guò)計(jì)算輸出層權(quán)值的最小二乘范數(shù)解即可完成網(wǎng)絡(luò)的訓(xùn)練。雖然隱藏層參數(shù)不需要調(diào)整,但ELM依舊保持了良好的通用逼近能力,并且和基于梯度的方法相比,ELM具有學(xué)習(xí)速率快、泛化能力強(qiáng)的優(yōu)點(diǎn),但網(wǎng)絡(luò)的淺層結(jié)構(gòu)制約了其提取數(shù)據(jù)深層信息的能力。文獻(xiàn)[16-18]提出了深度極限學(xué)習(xí)機(jī)的算法模型,但這些模型只應(yīng)用在實(shí)數(shù)域。

      為充分利用HRRP的相位信息,本文將深度極限學(xué)習(xí)機(jī)從實(shí)數(shù)域擴(kuò)展到復(fù)數(shù)域,提出一種深度復(fù)極限學(xué)習(xí)機(jī)(Deep Complex Extreme Learning Machine,DCELM)。同時(shí),為了在模型訓(xùn)練過(guò)程中有效保持?jǐn)?shù)據(jù)間的鄰域信息,將流形正則化(Manifold Regularization,MR)框架應(yīng)用到DCELM的監(jiān)督和無(wú)監(jiān)督訓(xùn)練過(guò)程中,提出一種基于流形正則深度復(fù)極限學(xué)習(xí)機(jī)(MR-DCELM)的雷達(dá)HRRP目標(biāo)識(shí)別算法。

      1 理論背景

      1.1 復(fù)極限學(xué)習(xí)機(jī)

      復(fù)極限學(xué)習(xí)機(jī)可以對(duì)復(fù)數(shù)輸入數(shù)據(jù)進(jìn)行處理,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。它包括輸入層、隱藏層和輸出層,其中輸入層連接權(quán)值和隱藏層的偏置可隨機(jī)賦值,只需通過(guò)計(jì)算輸出層權(quán)值的最小二乘范數(shù)解即可完成網(wǎng)絡(luò)的訓(xùn)練。

      圖1 復(fù)極限學(xué)習(xí)機(jī)網(wǎng)絡(luò)結(jié)構(gòu)

      給定一個(gè)復(fù)數(shù)訓(xùn)練樣本(xi,ti),i=1,2,…,N,其中xi∈Cn,ti∈Cm,若模型隱層節(jié)點(diǎn)數(shù)為L(zhǎng),復(fù)激活函數(shù)為gc(x),則網(wǎng)絡(luò)的輸出可表示為

      (1)

      式中:wk∈Cn為輸入層的節(jié)點(diǎn)與第k個(gè)隱藏層的節(jié)點(diǎn)連接的復(fù)數(shù)權(quán)值向量,βk=[βk1,βk2,…,βkm]T∈Cm為第k個(gè)隱藏層的節(jié)點(diǎn)與輸出節(jié)點(diǎn)連接的復(fù)數(shù)輸出權(quán)值向量,bk∈C為第k個(gè)隱藏層節(jié)點(diǎn)的復(fù)數(shù)偏置。

      式(1)可簡(jiǎn)化為

      Hβ=O。

      (2)

      如果具有L個(gè)隱藏層節(jié)點(diǎn)的復(fù)極限學(xué)習(xí)機(jī)能夠無(wú)限逼近給定的N個(gè)訓(xùn)練樣本,式(2)可轉(zhuǎn)化為

      Hβ=T,

      (3)

      (4)

      (5)

      因此,通過(guò)計(jì)算式(3)的最小二乘范數(shù)解,可完成CELM的訓(xùn)練:

      (6)

      式中:H+為H的Moore-Penrose廣義逆。

      式(6)可化為

      (7)

      式中:I為單位陣,C為嶺參數(shù)。

      1.2 復(fù)極限學(xué)習(xí)機(jī)-自動(dòng)編碼器

      復(fù)極限學(xué)習(xí)機(jī)-自動(dòng)編碼器(Complex Extreme Learning Machine-Autoencoder,CELM-AE)借鑒自動(dòng)編碼器(Autoencoder,AE)的思想[10],通過(guò)對(duì)輸入編碼再解碼,從而重構(gòu)輸入數(shù)據(jù)。對(duì)于有N個(gè)樣本的數(shù)據(jù)集xi(i=1,2,…,N),xi∈C,CELM-AE的隱藏層輸出和網(wǎng)絡(luò)輸出可分別用公式(8)和公式(9)表示為

      h=gc(wx+b),wTw=I,bTb=I;

      (8)

      (9)

      則根據(jù)1.1節(jié)介紹可通過(guò)下式計(jì)算模型的輸出權(quán)重:

      (10)

      1.3 流形正則化框架

      流形正則化是一種通過(guò)構(gòu)建無(wú)向加權(quán)圖和拉普拉斯算子的學(xué)習(xí)方法。該方法是建立在如下假設(shè)之上:如果點(diǎn)x1和x2在相同的局部鄰域內(nèi),也即它們相距很近,則它們的條件概率P(y|x1)和P(y|x2)也應(yīng)該很相近。流形正則化可通過(guò)最小化下式代價(jià)函數(shù)進(jìn)行表達(dá);

      (11)

      式中:wij表示樣本xi和xj的相似性,可通過(guò)下式求解:

      (12)

      式中:KNN(xj)表示樣本點(diǎn)xj的最近鄰點(diǎn)集。

      由于條件概率不容易求得,式(11)可化為

      (13)

      根據(jù)圖譜理論,式(13)可用下式表達(dá):

      (14)

      式中:tr(·)為矩陣的跡;L為圖拉普拉斯矩陣,且L=D-W,D是對(duì)角陣,其元素為Dii=∑jwij。

      2 流形正則深度復(fù)極限學(xué)習(xí)機(jī)

      2.1 深度復(fù)極限學(xué)習(xí)機(jī)

      圖2 DCELM訓(xùn)練過(guò)程

      2.2 流形正則深度復(fù)極限學(xué)習(xí)機(jī)

      本小節(jié)將提出流形正則深度復(fù)極限學(xué)習(xí)機(jī)算法(MR-DCELM),并給出其主要的學(xué)習(xí)步驟。MR-DCELM能夠捕獲數(shù)據(jù)的深層潛在信息,該模型是一個(gè)堆疊的多層神經(jīng)網(wǎng)絡(luò),其基本學(xué)習(xí)單元為MCELM-AE。在執(zhí)行分類(lèi)任務(wù)時(shí),其訓(xùn)練過(guò)程也分為兩個(gè)階段:無(wú)監(jiān)督特征學(xué)習(xí)和有監(jiān)督目標(biāo)分類(lèi)。

      (1)無(wú)監(jiān)督學(xué)習(xí)階段

      給定一個(gè)復(fù)數(shù)訓(xùn)練樣本(xi,ti),i=1,2,…,N,MCELM-AE的目標(biāo)函數(shù)為

      (15)

      式中:k為隱層數(shù),βτ為第τ個(gè)MCELM-AE模型的輸出權(quán)重,Lτ為在第τ個(gè)MCELM-AE模型特征空間上的圖拉普拉斯,λ為正則化參數(shù)。將約束條件代入目標(biāo)函數(shù)中,式(15)可寫(xiě)為

      (16)

      式中:Hτ為第τ個(gè)MCELM-AE模型的隱層輸出。

      然后將目標(biāo)函數(shù)對(duì)β求導(dǎo)可得

      (17)

      令?=0,可以得到式(15)的解為

      (18)

      式中:ILτ為維數(shù)是Lτ的單位陣,Lτ是第τ個(gè)MCELM-AE模型隱藏層的節(jié)點(diǎn)個(gè)數(shù)。

      (2)監(jiān)督學(xué)習(xí)階段

      MCELM的目標(biāo)函數(shù)為

      (19)

      式中:βk+1為第k個(gè)隱藏層和模型輸出層的連接權(quán)值;Hk為第k個(gè)隱藏層的輸出,Hk=gc((βk)THk-1);η為正則化參數(shù)。

      類(lèi)比無(wú)監(jiān)督學(xué)習(xí)過(guò)程求取權(quán)值的方法,模型輸出權(quán)值可表示為

      (20)

      3 實(shí)驗(yàn)結(jié)果與討論

      本節(jié)使用暗室測(cè)量的5類(lèi)飛機(jī)目標(biāo)數(shù)據(jù)驗(yàn)證所提方法的可行性。其中目標(biāo)采用的是縮比模型,雷達(dá)工作頻段為34.7~35.7 GHz,信號(hào)形式為階梯變頻,頻率間隔2 MHz;雷達(dá)方位角范圍為0°~30°,步長(zhǎng)1°。則每個(gè)目標(biāo)的樣本個(gè)數(shù)為31,維數(shù)為500。每個(gè)飛機(jī)目標(biāo)的HRRP序列在圖3中給出。將每個(gè)目標(biāo)樣本集中奇數(shù)位樣本抽出作為訓(xùn)練樣本,將樣本集中其他樣本作為實(shí)驗(yàn)樣本??紤]到隱藏層節(jié)點(diǎn)個(gè)數(shù)、嶺參數(shù)設(shè)置和流形正則化參數(shù)決定著模型的識(shí)別性能,將對(duì)這些參數(shù)進(jìn)行研究。實(shí)驗(yàn)運(yùn)行軟件環(huán)境為Matlab R2013a,硬件環(huán)境為Intel(R) Pentium(R)、3.30 GHz CPU、4 GB內(nèi)存的PC機(jī)。

      圖3 每一個(gè)飛機(jī)目標(biāo)HRRP序列

      3.1 隱藏層節(jié)點(diǎn)個(gè)數(shù)對(duì)模型識(shí)別效果的影響

      已知HRRP樣本為500維,因此實(shí)驗(yàn)中將模型輸入層的節(jié)點(diǎn)個(gè)數(shù)設(shè)為500。雖然增加網(wǎng)絡(luò)隱層數(shù)可以獲得目標(biāo)更深層次的抽象信息,但層數(shù)越多,網(wǎng)絡(luò)訓(xùn)練難度越大,需要訓(xùn)練的參數(shù)也越多。因此,不能一味地增加模型的深度,應(yīng)依據(jù)實(shí)驗(yàn)任務(wù)及樣本數(shù)據(jù)量確定合理的隱層數(shù)。通過(guò)分析,將模型隱層數(shù)量設(shè)置為2即可滿(mǎn)足任務(wù)需求。圖4顯示了第一及第二隱層不同的節(jié)點(diǎn)個(gè)數(shù)對(duì)識(shí)別效果的影響,由圖可知,當(dāng)網(wǎng)絡(luò)第一個(gè)隱層節(jié)點(diǎn)個(gè)數(shù)為300,網(wǎng)絡(luò)第二個(gè)隱層節(jié)點(diǎn)個(gè)數(shù)為1 150時(shí),模型取得最優(yōu)的識(shí)別效果。

      圖4 模型不同隱藏層節(jié)點(diǎn)個(gè)數(shù)對(duì)識(shí)別效果的影響

      3.2 嶺參數(shù)對(duì)模型識(shí)別效果的影響

      在3.1節(jié)中確定了網(wǎng)絡(luò)隱層數(shù)和隱層節(jié)點(diǎn)數(shù),接下來(lái)需要分析嶺參數(shù)C=[C1,C2,C3]對(duì)網(wǎng)絡(luò)性能的影響。在{10-8,10-7,…,107,108}范圍內(nèi)進(jìn)行網(wǎng)格搜索,并遵循以下規(guī)則:先保持C2和C3不變,從{10-8,108}范圍內(nèi)選取能夠獲得最優(yōu)識(shí)別效果的C1的值,然后以此方法確定C2和C3的取值。C=[C1,C2,C3]對(duì)識(shí)別效果的影響在圖5中給出。由圖可知,最優(yōu)的C=[C1,C2,C3]取值為C1=10-3,C2=104,C3=107。

      圖5 嶺參數(shù)C=[C1,C2,C3]對(duì)模型識(shí)別效果的影響

      3.3 流形正則化參數(shù)對(duì)模型識(shí)別效果的影響

      本節(jié)討論流行正則化參數(shù)λ和η對(duì)所提算法識(shí)別效果的影響。由圖6可知,參數(shù)λ和η對(duì)算法模型影響較大。如果λ和η的值太大,將使得模型中其他的參數(shù)值變得很小,從而會(huì)造成模型欠擬合;如果λ和η的值太小,則流形正則化對(duì)網(wǎng)絡(luò)訓(xùn)練的影響很小,不能很好地保持樣本間的鄰域信息。因此,設(shè)置合適的參數(shù)值顯得尤為重要。通過(guò)分析圖6可知,當(dāng)λ=10-3、η=10-1時(shí),所提方法可取得最好的識(shí)別效果。

      圖6 流形正則參數(shù)λ和η對(duì)模型識(shí)別效果的影響

      3.4 所提算法模型和其他模型識(shí)別效果比較

      為驗(yàn)證所提算法模型的可行性,將所提算法模型的識(shí)別效果和常用的深度學(xué)習(xí)模型棧式自動(dòng)編碼器(SAE)、深度信念網(wǎng)絡(luò)(DBN)以及深度極限學(xué)習(xí)機(jī)(DELM)的識(shí)別效果相比較。已知HRRP樣本為500維,因此實(shí)驗(yàn)中,將四種模型可見(jiàn)層的節(jié)點(diǎn)個(gè)數(shù)設(shè)為500,隱藏層的數(shù)量為2,隱藏層節(jié)點(diǎn)個(gè)數(shù)分別為300和1 150,訓(xùn)練的迭代次數(shù)取30。四種算法模型均運(yùn)行10次,其識(shí)別結(jié)果的平均值在表1中給出。

      表1 所提算法和其他算法識(shí)別準(zhǔn)確率比較

      由表1可知,所提算法模型的識(shí)別效果相比DELM高出5.46%,相比SAE高出2.55%,相比DBN高出3.48%,表明所提算法利用復(fù)HRRP進(jìn)行識(shí)別時(shí),利用了目標(biāo)更全面的數(shù)據(jù)信息,獲得了更完備的特征表達(dá),從而使得識(shí)別效果更好。同時(shí)也注意到,所提算法模型的訓(xùn)練速度是SAE訓(xùn)練速度的7倍,是DBN訓(xùn)練速度的8倍,表明所提算法相比常用深度學(xué)習(xí)模型具有更快的訓(xùn)練速度。

      4 結(jié)束語(yǔ)

      本文將深度極限學(xué)習(xí)機(jī)從實(shí)數(shù)域擴(kuò)展到復(fù)數(shù)域,提出深度復(fù)極限學(xué)習(xí)機(jī),并將其應(yīng)用于雷達(dá)目標(biāo)識(shí)別中,用以解決傳統(tǒng)識(shí)別方法在利用HRRP時(shí)只利用其幅度信息而丟失相位信息,使得目標(biāo)信息不完備,制約其識(shí)別效果的問(wèn)題。同時(shí)將流形正則化引入到模型中,使其在訓(xùn)練過(guò)程中有效保持?jǐn)?shù)據(jù)間的鄰域信息。在暗室測(cè)量數(shù)據(jù)上的實(shí)驗(yàn)結(jié)果驗(yàn)證了所提算法模型的可行性。但需要說(shuō)明的是,該實(shí)驗(yàn)過(guò)程中并未考慮噪聲的影響,算法模型對(duì)噪聲的魯棒性將是下一步算法改進(jìn)完善的重點(diǎn)。

      猜你喜歡
      學(xué)習(xí)機(jī)流形正則
      緊流形上的Schr?dinger算子的譜間隙估計(jì)
      迷向表示分為6個(gè)不可約直和的旗流形上不變愛(ài)因斯坦度量
      Nearly Kaehler流形S3×S3上的切觸拉格朗日子流形
      剩余有限Minimax可解群的4階正則自同構(gòu)
      極限學(xué)習(xí)機(jī)綜述
      類(lèi)似于VNL環(huán)的環(huán)
      基于極限學(xué)習(xí)機(jī)參數(shù)遷移的域適應(yīng)算法
      分層極限學(xué)習(xí)機(jī)在滾動(dòng)軸承故障診斷中的應(yīng)用
      基于多故障流形的旋轉(zhuǎn)機(jī)械故障診斷
      有限秩的可解群的正則自同構(gòu)
      金湖县| 南漳县| 昔阳县| 富民县| 乳源| 张掖市| 饶阳县| 当阳市| 斗六市| 平乡县| 屯留县| 曲周县| 阳泉市| 柳河县| 沭阳县| 吉安市| 莱芜市| 武鸣县| 兖州市| 南丹县| 合阳县| 巫山县| 旺苍县| 汝南县| 新兴县| 肥乡县| 玛沁县| 永州市| 增城市| 封开县| 保靖县| 石门县| 玉山县| 商都县| 平利县| 南平市| 塔河县| 晴隆县| 太仆寺旗| 苍溪县| 临城县|