• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于LGBM和深度神經(jīng)網(wǎng)絡(luò)的HRRP目標(biāo)識(shí)別方法

      2022-05-13 04:59:16張紅莉李月琴齊英杰
      關(guān)鍵詞:特征選擇神經(jīng)網(wǎng)絡(luò)深度

      張紅莉,李月琴,韓 磊,齊英杰,張 維

      (1.北京聯(lián)合大學(xué)智慧城市學(xué)院,北京 100101;2.北京理工大學(xué)機(jī)電學(xué)院,北京 100081)

      0 引言

      高分辨距離像(high resolution range profile, HRRP)是雷達(dá)各距離單元目標(biāo)散射回波的矢量和,反映了目標(biāo)散射點(diǎn)沿雷達(dá)徑向距離方向上的分布情況,包含豐富的目標(biāo)結(jié)構(gòu)、尺寸和形狀信息[1]。相對(duì)于SAR/ISAR圖像,HRRP具有易于獲取和計(jì)算簡(jiǎn)單等優(yōu)勢(shì)[2],因此,基于HRRP的目標(biāo)識(shí)別成為雷達(dá)自動(dòng)目標(biāo)識(shí)別領(lǐng)域的研究熱點(diǎn)。目前基于HRRP的識(shí)別主要有:字典學(xué)習(xí)[3]、模板匹配、統(tǒng)計(jì)識(shí)別、K近鄰法、支持向量機(jī)(SVM)[4]、決策樹等方法[5],但由于這些方法主要是基于雷達(dá)數(shù)據(jù)的淺層特征進(jìn)行識(shí)別,難免會(huì)造成有效信息的損失,從而使得目標(biāo)泛化能力低,識(shí)別準(zhǔn)確率有待進(jìn)一步提升[6]。而與傳統(tǒng)識(shí)別方法相比,深度神經(jīng)網(wǎng)絡(luò)模型能自主學(xué)習(xí)更高層次的結(jié)構(gòu)信息[7-8],完成不同目標(biāo)的分類與識(shí)別,獲得比傳統(tǒng)識(shí)別方法更好的識(shí)別性能,在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。

      本文針對(duì)傳統(tǒng)的HRRP目標(biāo)識(shí)別方法識(shí)別率低、模型泛化能力不足等問(wèn)題,提出基于LGBM和深度神經(jīng)網(wǎng)絡(luò)的HRRP目標(biāo)識(shí)別方法。該方法使用LGBM特征選擇算法對(duì)提取的HRRP特征進(jìn)行二次選擇,減少樣本維度以提升速度;利用基于Dropout約束的深度神經(jīng)網(wǎng)絡(luò)對(duì)選擇的最優(yōu)目標(biāo)特征進(jìn)行分類。

      1 算法模型的基本結(jié)構(gòu)

      基于HRRP的數(shù)據(jù)特點(diǎn),搭建了適用于HRRP目標(biāo)識(shí)別的LGBM及深度神經(jīng)網(wǎng)絡(luò)算法模型,如圖1所示。LGBM是一種改進(jìn)的梯度提升樹(GBDT)算法,其主要思想是利用決策樹迭代訓(xùn)練以提升學(xué)習(xí)器性能,支持高效的并行訓(xùn)練,具有準(zhǔn)確率高、內(nèi)存消耗低、訓(xùn)練速度快等優(yōu)點(diǎn)。本文利用LGBM進(jìn)行二次特征選擇,將獲得的HRRP目標(biāo)最優(yōu)特征樣本數(shù)據(jù)送入深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練學(xué)習(xí),達(dá)到優(yōu)化分類器識(shí)別效果的目的。

      圖1 基于LGBM及深度神經(jīng)網(wǎng)絡(luò)的HRRP目標(biāo)識(shí)別基本框架圖Fig.1 Basic frame diagram of HRRP target recognition based on LGBM and deep neural network

      目標(biāo)識(shí)別過(guò)程分為訓(xùn)練階段和識(shí)別階段。在訓(xùn)練階段,通過(guò)雷達(dá)對(duì)目標(biāo)的探測(cè),得到不同目標(biāo)的雷達(dá)HRRP原始信號(hào);經(jīng)預(yù)處理降低HRRP信號(hào)的幅度敏感性后,再基于HRRP的物理和統(tǒng)計(jì)等特性提取可以反映目標(biāo)本質(zhì)的諸多特征;然后采用LGBM對(duì)提取的特征進(jìn)行選擇,計(jì)算每個(gè)特征的重要程度并篩選出有利于分類的最優(yōu)特征,生成目標(biāo)模板庫(kù);最后將最優(yōu)特征樣本數(shù)據(jù)送入Dropout約束的深度神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。在識(shí)別階段,對(duì)待識(shí)別的HRRP信號(hào)進(jìn)行同樣的預(yù)處理、特征提取操作后,通過(guò)LGBM進(jìn)行特征選擇得到待識(shí)別模板,送入訓(xùn)練好的網(wǎng)絡(luò)模型,實(shí)現(xiàn)對(duì)未知目標(biāo)的自動(dòng)識(shí)別。

      2 基于LGBM與深度神經(jīng)網(wǎng)絡(luò)的HRRP 目標(biāo)識(shí)別方法

      2.1 HRRP目標(biāo)特征提取

      作為一種高分辨率雷達(dá)信號(hào),HRRP信號(hào)的維數(shù)通常在數(shù)百維以上,如果直接使用目標(biāo)原始HRRP信號(hào)進(jìn)行識(shí)別,不僅會(huì)消耗大量的計(jì)算機(jī)內(nèi)存資源,而且會(huì)因?yàn)槭褂昧舜罅康娜哂嘈畔⒍档屠走_(dá)目標(biāo)識(shí)別的速度[9]。因此,如何從HRRP中提取出能夠反映目標(biāo)本質(zhì)特性的特征,對(duì)雷達(dá)HRRP目標(biāo)識(shí)別效果有著決定性的影響,是模型成敗的關(guān)鍵[10]。

      由于不同的特征側(cè)重表達(dá)距離像不同維度的統(tǒng)計(jì)特性,多個(gè)特征之間互有補(bǔ)充,因此相較于利用單一特征識(shí)別目標(biāo),提取多個(gè)特征能更有效地提高目標(biāo)的識(shí)別精度。HRRP信號(hào)中包含了豐富的目標(biāo)幾何結(jié)構(gòu)、峰值數(shù)量、組成材料等信息,因此,雷達(dá)HRRP目標(biāo)識(shí)別技術(shù)中最經(jīng)典的特征提取方法是直接從原始HRRP信號(hào)中提取出具有明確物理意義的可以反映目標(biāo)幾何結(jié)構(gòu)等信息的特征,如目標(biāo)的長(zhǎng)度、目標(biāo)強(qiáng)散射點(diǎn)的數(shù)目、強(qiáng)散射點(diǎn)之間的距離、HRRP徑向能量[11]、散射中心分布熵等;一維距離像的平均值、均方差、對(duì)稱性與分散性程度等其他特征,可以從數(shù)學(xué)分析的角度反映出目標(biāo)的統(tǒng)計(jì)特性;為了有效對(duì)抗一維距離像的平移敏感性,可以提取頻譜及功率譜等平移不變特征。

      經(jīng)過(guò)上述分析,本文從HRRP信號(hào)中提取了13個(gè)具有代表性,能較好反映目標(biāo)本質(zhì)特性的特征,分別是功率譜特征、目標(biāo)徑向長(zhǎng)度、強(qiáng)散射中心數(shù)目[12]、二階中心矩、三階中心矩、散射中心分布熵、平均值與方差[13]、目標(biāo)平均起伏特性、對(duì)稱性與分散性、去尺度結(jié)構(gòu)特征以及目標(biāo)徑向能量。

      2.2 LGBM算法二次特征選擇

      由于各特征之間并非是完全不相關(guān)的,而且不同特征對(duì)目標(biāo)分類的貢獻(xiàn)度也有優(yōu)劣之分,所以隨著提取特征的數(shù)目增加,重復(fù)的冗余量會(huì)增大,噪聲和誤差也隨之增大,不但導(dǎo)致算法的計(jì)算量增大,也會(huì)降低目標(biāo)的識(shí)別率,因此,需要選出有利于目標(biāo)分類的特征。這里使用LGBM算法對(duì)特征進(jìn)行選擇,將訓(xùn)練樣本放入LGBM中進(jìn)行訓(xùn)練,計(jì)算每個(gè)特征的重要程度,根據(jù)特征重要性篩選關(guān)鍵特征來(lái)減少分類所需的特征數(shù)量,從而達(dá)到保證分類性能的同時(shí)降低識(shí)別時(shí)間。

      LGBM根據(jù)特征在所有決策樹中被分割后所帶來(lái)的總信息增益來(lái)度量特征屬性的重要性,數(shù)值越高代表該特征對(duì)模型的重要性越大,更有利于模型的分類識(shí)別。按重要性對(duì)特征元素進(jìn)行降序排列,依次刪除重要性最低的特征,根據(jù)測(cè)試集在新特征子集下的準(zhǔn)確率判斷是否剔除當(dāng)前重要性程度最低的特征,如此循環(huán),從而實(shí)現(xiàn)特征選擇。具體流程如下:

      輸入數(shù)據(jù)集D,特征集F={Tj|j=1,2,…,d},假設(shè)訓(xùn)練集I含有n個(gè)樣本{X1,X2,…,Xn},每個(gè)樣本含有d維特征,即Xi=[T1,T2,…,Td,]。

      輸出最優(yōu)特征子集Fbest

      1) 對(duì)包含所有特征的訓(xùn)練集進(jìn)行LGBM建模,分別計(jì)算樣本特征元素Tj的重要性程度Vj。假設(shè)訓(xùn)練集I每次迭代損失函數(shù)的負(fù)梯度為{g,g2,…,gn},將樣本按梯度的絕對(duì)值降序排序;取前a×100%個(gè)樣本,構(gòu)成大梯度樣本子集A;從剩余樣本集合隨機(jī)選取b×100%個(gè)樣本,構(gòu)成小梯度樣本子集B;在樣本子集(A∪B)學(xué)習(xí)一棵新的決策樹,并引入常量系數(shù),抵消采樣對(duì)數(shù)據(jù)分布的影響,則分裂特征j的分割點(diǎn)k的增益表示為:

      (1)

      式(1)中,

      2) 根據(jù)第一步得到的Vj對(duì)特征元素Tj進(jìn)行降序排列。

      3) 使用LGBM算法進(jìn)行評(píng)估,根據(jù)混淆矩陣計(jì)算測(cè)試集在全部特征下的準(zhǔn)確率aj=t/n,其中t是所有被正確分類的樣本數(shù)量,n是樣本總數(shù)。

      4) 對(duì)于步驟2)中排序后的特征全集進(jìn)行搜索,每次在特征集合F中刪除具有最小重要度的特征元素Tj,并使用LGBM計(jì)算測(cè)試集在新特征子集下的準(zhǔn)確率abest。

      5) 根據(jù)準(zhǔn)確率判斷是否刪除當(dāng)前重要性最低的特征:如果aj

      6) 如此循環(huán)計(jì)算,當(dāng)所有特征元素Tj被遍歷完,最終得到一個(gè)分類準(zhǔn)確率較高且特征數(shù)目較少的最優(yōu)特征子集Fbest。

      可見(jiàn),LGBM算法根據(jù)特征的重要度進(jìn)行特征選擇,而且對(duì)模型的結(jié)果進(jìn)行了初步評(píng)估,大大降低了特征的波動(dòng)性;同時(shí)由于重要性比較小的特征被刪除,使得特征的冗余量下降。因此,不但降低了目標(biāo)識(shí)別的時(shí)間,而且有利于后期目標(biāo)分類精度的提高。

      2.3 深度神經(jīng)網(wǎng)絡(luò)分類器的設(shè)計(jì)

      在提取目標(biāo)HRRP特征之后,目標(biāo)識(shí)別的效果主要取決于分類器的性能。針對(duì)HRRP數(shù)據(jù)特點(diǎn),在復(fù)雜情況下如果使用傳統(tǒng)的目標(biāo)識(shí)別方法會(huì)導(dǎo)致識(shí)別精度低、模型泛化能力不足等問(wèn)題。而深度神經(jīng)網(wǎng)絡(luò)模型能自主學(xué)習(xí)更高層次的結(jié)構(gòu)信息,完成不同目標(biāo)的分類與識(shí)別,獲得比傳統(tǒng)識(shí)別方法更好的識(shí)別性能,且在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。基于以上考慮,本文設(shè)計(jì)并應(yīng)用含有多個(gè)隱含層的多層感知器——深度神經(jīng)網(wǎng)絡(luò)(DNN)作為HRRP目標(biāo)識(shí)別的分類器。考慮在不影響分類性能的前提下,算法運(yùn)算量應(yīng)盡可能小[14],因此設(shè)計(jì)了包含三個(gè)隱含層的DNN模型,為提升識(shí)別率和訓(xùn)練速度,采用ReLU函數(shù)進(jìn)行非線性變換和Adam算法進(jìn)行參數(shù)優(yōu)化;為了增強(qiáng)模型泛化能力,在DNN的訓(xùn)練過(guò)程引入Dropout方法,防止過(guò)擬合。通過(guò)利用LGBM特征選擇算法獲得的最優(yōu)特征樣本數(shù)據(jù)訓(xùn)練DNN,得到網(wǎng)絡(luò)的連接權(quán)值,建立HRRP目標(biāo)識(shí)別的網(wǎng)絡(luò)模型;對(duì)待識(shí)別目標(biāo)進(jìn)行同樣的特征提取、LGBM特征選擇后,輸入訓(xùn)練好的DNN,最終輸出預(yù)測(cè)結(jié)果,實(shí)現(xiàn)對(duì)目標(biāo)的分類。

      2.3.1深度神經(jīng)網(wǎng)絡(luò)模型的基本結(jié)構(gòu)

      根據(jù)HRRP特征數(shù)據(jù)大小和目標(biāo)識(shí)別要求,本文采用的深度神經(jīng)網(wǎng)絡(luò)模型由一個(gè)5層的全連接神經(jīng)網(wǎng)絡(luò)構(gòu)成,包含一個(gè)輸入層、三個(gè)隱藏層和一個(gè)輸出層,如圖2所示。圖中W1∈Rn1×n0,W2∈Rn2×n1,W3∈Rn3×n2和W4∈Rn4×n3為權(quán)重矩陣;b1,b2,b3和b4代表偏置向量;其中n0為輸入層維數(shù),n1,n2,n3分別對(duì)應(yīng)三個(gè)隱藏層神經(jīng)元個(gè)數(shù),輸出層結(jié)點(diǎn)數(shù)為4。

      圖2 基于HRRP目標(biāo)識(shí)別的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.2 Deep neural network structure diagram based on HRRP target recognition

      同層的神經(jīng)元是相互獨(dú)立的,而相鄰層的神經(jīng)元之間相互連接。輸入層的數(shù)據(jù)是經(jīng)過(guò)LGBM選擇出來(lái)的最優(yōu)特征子集。神經(jīng)網(wǎng)絡(luò)輸出結(jié)果經(jīng)Softmax函數(shù)處理轉(zhuǎn)變?yōu)楦怕史植?,根?jù)最大概率準(zhǔn)則輸出最終的識(shí)別結(jié)果。另外,由于在訓(xùn)練樣本較少的情況下DNN容易發(fā)生過(guò)擬合問(wèn)題,為此將Dropout方法引入網(wǎng)絡(luò)模型,在訓(xùn)練網(wǎng)絡(luò)時(shí)以一定概率隨機(jī)丟棄部分神經(jīng)元,以提升模型的泛化能力。

      2.3.2分類器實(shí)現(xiàn)的關(guān)鍵技術(shù)

      利用該深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行HRRP目標(biāo)識(shí)別時(shí),由于在訓(xùn)練過(guò)程中,數(shù)據(jù)是前向傳播的,誤差是反向傳播的,需要依次調(diào)節(jié)各隱藏層和輸出層的權(quán)重參數(shù)和偏置向量。因此,在具體的實(shí)現(xiàn)過(guò)程中需要應(yīng)用以下關(guān)鍵技術(shù)。

      1) 前向傳播中數(shù)據(jù)的非線性變換

      模型的輸入數(shù)據(jù)從輸入層開(kāi)始,經(jīng)過(guò)網(wǎng)絡(luò)參數(shù)和激活函數(shù)的作用,逐層計(jì)算并順序向后傳播。整個(gè)模型中,前一層網(wǎng)絡(luò)的輸出作為下一層網(wǎng)絡(luò)的輸入,直到模型的輸出層。在HRRP目標(biāo)識(shí)別中,由于樣本數(shù)據(jù)不全是線性可分的,在傳播過(guò)程中會(huì)出現(xiàn)數(shù)據(jù)發(fā)散和網(wǎng)絡(luò)梯度消失等問(wèn)題,因此在雙方的具體實(shí)現(xiàn)過(guò)程中需要在隱含層引入激活函數(shù)對(duì)數(shù)據(jù)進(jìn)行非線性變換。這里應(yīng)用修正線性單元(rectified linear unit, ReLU)函數(shù)來(lái)完成數(shù)據(jù)的非線性變換。

      如圖2所示,模型中輸入層數(shù)據(jù)X=[x1,x2,…,xM]T為經(jīng)過(guò)LGBM特征選擇后的HRRP目標(biāo)特征數(shù)據(jù),其數(shù)據(jù)維數(shù)為M;將三個(gè)隱藏層的激活函數(shù)選擇為ReLU,記為f(x)=max(0,x),三個(gè)隱藏層的輸出矢量分別記為H1,H2和H3,數(shù)據(jù)維度分別為n1,n2,n3,則

      (2)

      由于ReLU函數(shù)求導(dǎo)簡(jiǎn)單,在非負(fù)區(qū)間的一階導(dǎo)數(shù)恒為1,可以使網(wǎng)絡(luò)梯度保持在一個(gè)穩(wěn)定的狀態(tài),能夠避免梯度消失問(wèn)題,加快收斂速度,從而更好地訓(xùn)練網(wǎng)絡(luò)參數(shù);而且相比其他的激活函數(shù),ReLU函數(shù)計(jì)算高效,因此在HRRP目標(biāo)識(shí)別中具有更好的表現(xiàn)。

      2) 反向傳播損失函數(shù)的優(yōu)化

      將前向傳播計(jì)算得到的模型輸出預(yù)測(cè)值與目標(biāo)真實(shí)類別進(jìn)行比較,即可得到模型的輸出誤差。在訓(xùn)練模型時(shí),我們采用交叉熵(cross entropy loss)作為損失函數(shù),用于描述模型預(yù)測(cè)值與已知真實(shí)值之間的這種誤差,記為:

      (3)

      式(3)中,N為訓(xùn)練樣本數(shù);C為類別個(gè)數(shù);yi=[yi1,yi2,yi3,yi4]T代表第i個(gè)樣本的期望輸出矢量,即樣本的真實(shí)標(biāo)簽。

      在進(jìn)行HRRP目標(biāo)識(shí)別時(shí),通過(guò)不斷減小損失函數(shù)而使得訓(xùn)練時(shí)達(dá)到更高的識(shí)別率。但是利用傳統(tǒng)隨機(jī)梯度下降法(stochastic gradient decent, SGD)進(jìn)行損失函數(shù)的減小,使得優(yōu)化后的DNN收斂速度慢,容易陷入局部最優(yōu)解。為此采用自適應(yīng)時(shí)刻估計(jì)方法(adaptive moment estimation, Adam)算法替代傳統(tǒng)SGD方法來(lái)更新模型參數(shù)。將所得到的模型訓(xùn)練誤差,利用反向傳播算法計(jì)算權(quán)重和偏置向量的更新值,根據(jù)所得結(jié)果重新調(diào)整網(wǎng)絡(luò)模型的權(quán)重參數(shù)和偏置向量。假設(shè)第t輪訓(xùn)練中,參數(shù)θ的小批量隨機(jī)梯度為gt,mt是梯度的一階矩估計(jì),υt是梯度的二階矩估計(jì),β1,β2對(duì)應(yīng)mt,υt的指數(shù)衰減率,則

      mt=β1mt-1+(1-β1)gt,

      (4)

      (5)

      然后對(duì)mt,υt作偏差校正,記為:

      (6)

      (7)

      Adam算法能基于HRRP訓(xùn)練樣本數(shù)據(jù)迭代更新神經(jīng)網(wǎng)絡(luò)權(quán)重,學(xué)習(xí)效果更為有效,且在訓(xùn)練過(guò)程中可以糾正學(xué)習(xí)率消失、損失函數(shù)波動(dòng)較大等問(wèn)題[15]。從而實(shí)現(xiàn)了在最大程度地最小化損失函數(shù)的同時(shí),加速收斂并正確學(xué)習(xí),達(dá)到了更高的識(shí)別率。

      3) 利用Dropout防止過(guò)擬合

      對(duì)于深度神經(jīng)網(wǎng)絡(luò)模型而言,隨著網(wǎng)絡(luò)深度的增加,網(wǎng)絡(luò)的訓(xùn)練難度也逐漸增加,且在HRRP目標(biāo)特征訓(xùn)練樣本較少的情況下,容易發(fā)生過(guò)擬合問(wèn)題[16]。因此,本文在所提出的基于HRRP目標(biāo)識(shí)別的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中引入了Dropout方法,在緩解模型過(guò)擬合問(wèn)題的同時(shí)提高了模型的泛化能力。

      圖3所示分別為含有兩個(gè)隱含層的標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)和應(yīng)用Dropout產(chǎn)生的神經(jīng)網(wǎng)絡(luò)??梢?jiàn)引入Dropout方法后,在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,通過(guò)設(shè)置不同的舍棄概率,部分神經(jīng)元將以一定的概率被丟棄,如圖3(b)所示。通過(guò)這一操作,使得神經(jīng)網(wǎng)絡(luò)經(jīng)過(guò)足夠多次的迭代之后,模型的泛化性能得到了有效的提升,而且有效減少了模型在訓(xùn)練過(guò)程中陷入過(guò)擬合的狀態(tài)的風(fēng)險(xiǎn)[17]。在測(cè)試階段,Dropout恢復(fù)所有神經(jīng)元之間的連接,保證模型測(cè)試時(shí)獲得最好的識(shí)別性能。

      圖3 Dropout約束的神經(jīng)網(wǎng)絡(luò)Fig.3 Dropout constrained neural networks

      4) 網(wǎng)絡(luò)節(jié)點(diǎn)數(shù)設(shè)置

      如何確定隱含層神經(jīng)元數(shù)目是網(wǎng)絡(luò)模型設(shè)計(jì)中的重要環(huán)節(jié)。如果隱含層神經(jīng)元數(shù)目過(guò)少,則網(wǎng)絡(luò)的學(xué)習(xí)能力較弱,無(wú)法實(shí)現(xiàn)較高的識(shí)別率;而神經(jīng)元個(gè)數(shù)過(guò)多,網(wǎng)絡(luò)的學(xué)習(xí)能力變慢,且在反向傳播時(shí)容易陷入局部極小值,還可能出現(xiàn)過(guò)擬合問(wèn)題[18]。

      隱含層個(gè)數(shù)及其對(duì)應(yīng)神經(jīng)元個(gè)數(shù)沒(méi)有一定的選取準(zhǔn)則,一般先設(shè)計(jì)一個(gè)隱含層,增加節(jié)點(diǎn)數(shù)進(jìn)行測(cè)試,當(dāng)增加節(jié)點(diǎn)數(shù)無(wú)法提升網(wǎng)絡(luò)識(shí)別性能時(shí)再考慮增加隱含層。然而太多的隱含層會(huì)使得網(wǎng)絡(luò)難以有效訓(xùn)練,并帶來(lái)更多的參數(shù)需要學(xué)習(xí)。根據(jù)HRRP數(shù)據(jù)大小和識(shí)別任務(wù)要求,采用滿足識(shí)別需求的三個(gè)隱含層網(wǎng)絡(luò)。通過(guò)實(shí)驗(yàn)分別對(duì)各個(gè)隱含層在節(jié)點(diǎn)數(shù)取不同值時(shí)的識(shí)別率進(jìn)行測(cè)試,選擇識(shí)別率最好時(shí)對(duì)應(yīng)的節(jié)點(diǎn)數(shù)作為該隱含層的節(jié)點(diǎn)數(shù),從而確定各隱含層節(jié)點(diǎn)數(shù),使得整個(gè)神經(jīng)網(wǎng)絡(luò)模型所對(duì)應(yīng)的識(shí)別率最高。

      3 實(shí)驗(yàn)驗(yàn)證與分析

      3.1 實(shí)驗(yàn)數(shù)據(jù)

      為了驗(yàn)證本文所提算法的有效性,基于目標(biāo)散射中心模型對(duì)HRRP數(shù)據(jù)進(jìn)行了仿真,用于仿真的目標(biāo)有4種,分別是立方體、長(zhǎng)方體、四棱錐和六棱柱。選用調(diào)頻連續(xù)波雷達(dá)作為探測(cè)器,其仿真參數(shù)的設(shè)置如表1所示。

      表1 探測(cè)器的基本參數(shù)Tab.1 Basic parameters of the detector

      利用調(diào)頻連續(xù)波探測(cè)器對(duì)目標(biāo)進(jìn)行探測(cè),將發(fā)射信號(hào)與回波信號(hào)進(jìn)行混頻得到差拍信號(hào),差拍信號(hào)包含目標(biāo)距離、目標(biāo)形狀等豐富的信息,然后將差拍信號(hào)進(jìn)行FFT處理就得到了目標(biāo)的HRRP信號(hào),它是目標(biāo)散射點(diǎn)的子回波在探測(cè)距離方向上的矢量和。為了減小姿態(tài)敏感的影響,探測(cè)角度0°~360°被平均分為72個(gè)角域,角域大小為5°,依次采集每個(gè)角域內(nèi)四類目標(biāo)的10個(gè)雷達(dá)HRRP信號(hào),并對(duì)每一個(gè)HRRP依次提取其13個(gè)特征分量,該13個(gè)數(shù)字特征作為訓(xùn)練數(shù)據(jù)集的一個(gè)樣本,故訓(xùn)練樣本個(gè)數(shù)為72×10×4,數(shù)據(jù)維度為13。同樣的方法,再對(duì)每類目標(biāo)另取72×100個(gè)識(shí)別樣本,用于檢驗(yàn)?zāi)繕?biāo)識(shí)別效果。

      3.2 二次特征選擇結(jié)果對(duì)比實(shí)驗(yàn)

      根據(jù)2.2節(jié)的算法流程,使用LGBM算法計(jì)算各特征對(duì)模型的重要程度,并進(jìn)行降序排列,其計(jì)算結(jié)果如圖4所示,圖中橫坐標(biāo)數(shù)值越高代表該特征對(duì)模型的重要性越大,更有利于模型的分類識(shí)別。因此,根據(jù)特征重要度,得到冗余少且不損失分類精度的包含6個(gè)特征值的最優(yōu)特征子集Fbest:目標(biāo)徑向長(zhǎng)度、目標(biāo)強(qiáng)散射中心數(shù)目、三階中心矩、散射中心分布熵、目標(biāo)平均起伏特性和目標(biāo)徑向能量。

      為了驗(yàn)證LGBM二次特征選擇算法所選特征值的代表性,本文分別基于傳統(tǒng)的識(shí)別方法(SVM、GBDT、KNN和貝葉斯),對(duì)利用LGBM二次特征選擇前和選擇后的數(shù)據(jù)進(jìn)行了目標(biāo)識(shí)別測(cè)試,識(shí)別結(jié)果如圖5所示。由圖可見(jiàn),在應(yīng)用LGBM特征選擇后,SVM、GBDT、KNN和樸素貝葉斯算法的目標(biāo)識(shí)別率都有提升,說(shuō)明LGBM特征選擇算法能選出最利于目標(biāo)識(shí)別的特征值。

      圖4 各個(gè)特征對(duì)模型的重要程度Fig.4 Importance of each feature to the model

      圖5 LGBM特征選擇前后各算法識(shí)別效果Fig.5 Recognition effects of different algorithms before and after LGBM feature selection

      表2是經(jīng)LGBM二次特征選擇前后不同識(shí)別方法的測(cè)試時(shí)間對(duì)比結(jié)果,與特征選擇前相比,應(yīng)用LGBM特征選擇算法后,SVM和KNN的測(cè)試時(shí)間分別縮短了約0.14 s和0.18 s,GBDT和樸素貝葉斯的識(shí)別速度也有明顯提升。綜上,運(yùn)用LGBM算法進(jìn)行二次特征選擇在提高識(shí)別率的同時(shí),也有效提升了識(shí)別速度。

      表2 LGBM特征選擇前后各算法測(cè)試時(shí)間Tab.2 Testing time of different algorithms before and after LGBM feature selection

      3.3 所提算法目標(biāo)識(shí)別效果對(duì)比結(jié)果

      為了驗(yàn)證所提出的基于LGBM和深度神經(jīng)網(wǎng)絡(luò)的HRRP目標(biāo)識(shí)別的性能優(yōu)勢(shì),使用HRRP數(shù)據(jù)進(jìn)行了兩個(gè)對(duì)比實(shí)驗(yàn):一是在相同訓(xùn)練樣本量的條件下,對(duì)比不同識(shí)別方法的識(shí)別準(zhǔn)確率和時(shí)間;二是對(duì)比不同識(shí)別方法隨著訓(xùn)練樣本量變化的識(shí)別率。

      1) 相同訓(xùn)練樣本量下各識(shí)別方法對(duì)比結(jié)果

      為了證明所提出的HRRP目標(biāo)識(shí)別算法的優(yōu)越性,使用經(jīng)過(guò)LGBM二次選擇后的HRRP目標(biāo)特征數(shù)據(jù)進(jìn)行目標(biāo)識(shí)別實(shí)驗(yàn),由圖4可知,傳統(tǒng)模式識(shí)別方法SVM、GBDT具有較好的分類性能和識(shí)別速度,因此分別采用SVM、GBDT與不同結(jié)構(gòu)網(wǎng)絡(luò)模型進(jìn)行比較實(shí)驗(yàn)。根據(jù)前面所提的網(wǎng)絡(luò)節(jié)點(diǎn)數(shù)設(shè)置原則,利用實(shí)驗(yàn)數(shù)據(jù)對(duì)不同網(wǎng)絡(luò)隱含層的最佳網(wǎng)絡(luò)節(jié)點(diǎn)數(shù)進(jìn)行了計(jì)算和選擇,其中Dropout參數(shù)設(shè)置為0.25,單隱層網(wǎng)絡(luò)隱含層節(jié)點(diǎn)數(shù)設(shè)置為48,深度神經(jīng)網(wǎng)絡(luò)模型三個(gè)隱含層節(jié)點(diǎn)數(shù)分別設(shè)置為48、24和36。在每角域提取10個(gè)訓(xùn)練樣本的條件下,各方法的識(shí)別結(jié)果如表3所示。

      表3 各方法識(shí)別效果對(duì)比Tab.3 Comparison of recognition effect of each method

      從表3可見(jiàn),提出的深度神經(jīng)網(wǎng)絡(luò)分類識(shí)別率明顯高于單隱層神經(jīng)網(wǎng)絡(luò)和傳統(tǒng)識(shí)別方法SVM、GBDT。深度神經(jīng)網(wǎng)絡(luò)雖然訓(xùn)練耗時(shí)長(zhǎng),但在實(shí)際使用時(shí)是利用訓(xùn)練好的模型進(jìn)行目標(biāo)識(shí)別時(shí),所用時(shí)間大大縮減。因?yàn)樯疃壬窠?jīng)網(wǎng)絡(luò)模型能學(xué)習(xí)更高層次的結(jié)構(gòu)信息,另外將Dropout引入網(wǎng)絡(luò)模型的訓(xùn)練過(guò)程,也有效增強(qiáng)了模型的泛化能力。

      2) 不同訓(xùn)練樣本量下各識(shí)別方法對(duì)比結(jié)果

      為了進(jìn)一步說(shuō)明所提HRRP目標(biāo)識(shí)別算法的穩(wěn)定性,在相同的條件下,對(duì)于每類目標(biāo),每隔5°劃分為一個(gè)角域,每個(gè)角域用于訓(xùn)練的樣本數(shù)目從1~10逐漸遞增,對(duì)所有識(shí)別樣本進(jìn)行深度神經(jīng)網(wǎng)絡(luò)、單隱層網(wǎng)絡(luò)、SVM和GBDT目標(biāo)識(shí)別,并統(tǒng)計(jì)其識(shí)別精度,結(jié)果如圖6所示。可以看出,無(wú)論樣本量多少,深度神經(jīng)網(wǎng)絡(luò)型的識(shí)別性能始終優(yōu)于其他方法,且在訓(xùn)練數(shù)據(jù)集較少的情況下也能保持相當(dāng)穩(wěn)定的識(shí)別性能。說(shuō)明本文所提的HRRP目標(biāo)識(shí)別算法,在處理目標(biāo)分類問(wèn)題時(shí)具備高精度識(shí)別的能力。

      圖6 不同訓(xùn)練樣本量下各識(shí)別方法的識(shí)別效果Fig.6 Identification effect of each recognition method under different training samples

      4 結(jié)論

      本文提出基于LGBM和深度神經(jīng)網(wǎng)絡(luò)的HRRP目標(biāo)識(shí)別方法。該方法采用LGBM特征選擇算法對(duì)提取的HRRP的具有明確物理意義、統(tǒng)計(jì)特性和平移不變性的特征分量進(jìn)行二次特征選擇,得到最優(yōu)特征子集,以減少特征冗余和樣本維度;搭建深度神經(jīng)網(wǎng)絡(luò)時(shí),為了有效解決過(guò)擬合問(wèn)題,引入了Dropout約束,把獲得的HRRP目標(biāo)最優(yōu)特征樣本數(shù)據(jù)送入深度神經(jīng)網(wǎng)絡(luò)分類器進(jìn)行訓(xùn)練學(xué)習(xí)和測(cè)試,有效提高了模型的泛化能力。仿真實(shí)驗(yàn)驗(yàn)證結(jié)果表明,在4類雷達(dá)目標(biāo)的分類實(shí)驗(yàn)中,所提出的基于LGBM和深度神經(jīng)網(wǎng)絡(luò)的HRRP雷達(dá)目標(biāo)識(shí)別方法在降低訓(xùn)練時(shí)間的同時(shí)有效提高了識(shí)別精度,為雷達(dá)目標(biāo)識(shí)別方法提供了新的思路,具有一定的應(yīng)用前景和具有較好的應(yīng)用價(jià)值。

      猜你喜歡
      特征選擇神經(jīng)網(wǎng)絡(luò)深度
      深度理解一元一次方程
      神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      深度觀察
      深度觀察
      深度觀察
      Kmeans 應(yīng)用與特征選擇
      電子制作(2017年23期)2017-02-02 07:17:06
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
      聯(lián)合互信息水下目標(biāo)特征選擇算法
      復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
      基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
      昆山市| 吴江市| 阜宁县| 古蔺县| 淅川县| 兴国县| 英山县| 武隆县| 曲阳县| 遵化市| 益阳市| 浦城县| 白山市| 开原市| 巩义市| 怀化市| 会宁县| 四会市| 麻栗坡县| 富平县| 长沙市| 安龙县| 卫辉市| 乐昌市| 台东市| 资阳市| 漳平市| 广汉市| 车险| 小金县| 亳州市| 武川县| 兴宁市| 茌平县| 武平县| 邵阳市| 宁德市| 安多县| 庆安县| 康定县| 开阳县|