• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度殘差收縮注意力網(wǎng)絡(luò)的雷達(dá)信號(hào)識(shí)別方法

      2023-03-09 03:33:40曹鵬宇楊承志陳澤盛石禮盟
      關(guān)鍵詞:殘差損失準(zhǔn)確率

      曹鵬宇, 楊承志, 陳澤盛, 王 露, 石禮盟

      (1. 空軍航空大學(xué)航空作戰(zhàn)勤務(wù)學(xué)院, 吉林 長(zhǎng)春 130022; 2. 空軍航空大學(xué)航空基礎(chǔ)學(xué)院, 吉林 長(zhǎng)春 130022; 3. 中國(guó)人民解放軍93671部隊(duì), 河南 南陽 474350)

      0 引 言

      隨著電磁環(huán)境日益復(fù)雜,雷達(dá)偵察感知敵方態(tài)勢(shì)的能力也愈發(fā)凸顯[1-2]。傳統(tǒng)基于脈沖描述字的分選識(shí)別方法難以適應(yīng)現(xiàn)代軍事的發(fā)展,脈內(nèi)數(shù)據(jù)包含的特征更為豐富,因此,以脈內(nèi)數(shù)據(jù)作為研究對(duì)象是現(xiàn)如今雷達(dá)偵察領(lǐng)域研究的重點(diǎn)之一[3-7]。

      深度學(xué)習(xí)由數(shù)據(jù)驅(qū)動(dòng),不需要人工設(shè)計(jì)特征,具備強(qiáng)大的特征學(xué)習(xí)能力[8-13]。不少專家將其應(yīng)用于雷達(dá)偵察領(lǐng)域,并取得了極大的成功。文獻(xiàn)[14]針對(duì)低信噪比條件下特征提取困難的問題,提出一種基于時(shí)頻分析和擴(kuò)張殘差網(wǎng)絡(luò)的雷達(dá)信號(hào)識(shí)別方法。文獻(xiàn)[15]首先采用稀疏自編碼器提取特征進(jìn)行離線訓(xùn)練,訓(xùn)練好的模型后將特征輸入到Softmax分類器進(jìn)行分類,實(shí)現(xiàn)低信噪比條件下雷達(dá)信號(hào)的分類識(shí)別。文獻(xiàn)[16]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)和深度Q學(xué)習(xí)的雷達(dá)信號(hào)識(shí)別方法。在實(shí)際戰(zhàn)場(chǎng)環(huán)境中,往往伴隨著大量的噪聲或者干擾信息,針對(duì)低信噪比環(huán)境下的雷達(dá)信號(hào)分類識(shí)別就顯得格外重要,也對(duì)網(wǎng)絡(luò)能否提取到魯棒性好、可區(qū)分程度高的特征提出了更高的挑戰(zhàn)。并且,以上研究都是在訓(xùn)練集與測(cè)試集是閉集的前提下開展的,也就是說,網(wǎng)絡(luò)模型訓(xùn)練好之后所能識(shí)別的信號(hào)種類就已固定。當(dāng)新信號(hào)擴(kuò)充到樣本庫后,使用這些新信號(hào)對(duì)模型進(jìn)行測(cè)試時(shí),模型仍會(huì)將新信號(hào)錯(cuò)誤識(shí)別成擴(kuò)充前樣本庫中的某一種信號(hào),不但不具備擴(kuò)展性,反而提供錯(cuò)誤的識(shí)別信息,這就促使研究人員尋找策略來解決這個(gè)問題。

      經(jīng)過本課題組的研究,應(yīng)用于行人重識(shí)別、人臉識(shí)別等領(lǐng)域的度量學(xué)習(xí)可以解決上述的問題。文獻(xiàn)[17]提出將人臉識(shí)別領(lǐng)域的三元組損失函數(shù)應(yīng)用于雷達(dá)信號(hào)識(shí)別,使其具有一定的擴(kuò)展性,但其網(wǎng)絡(luò)提取信號(hào)特征的能力以及損失函數(shù)等方面仍具有很大的提升空間。近年來,借鑒人類接收處理信息的過程發(fā)展起來的注意力機(jī)制,能夠作為一種通用的輕量級(jí)模塊,可以集成到任何網(wǎng)絡(luò)中實(shí)現(xiàn)端到端的訓(xùn)練。文獻(xiàn)[18]將軟閾值化與注意力機(jī)制相結(jié)合,構(gòu)建深度殘差收縮網(wǎng)絡(luò)用于振動(dòng)信號(hào)故障檢測(cè),對(duì)噪聲具有一定的魯棒性。文獻(xiàn)[19]構(gòu)建融合前饋掃描和反饋的掩碼分支作為側(cè)分支加入到主干中,充當(dāng)主干分支的特征選擇器,增強(qiáng)有用特征,抑制無用特征。文獻(xiàn)[20]提出壓縮-激勵(lì)網(wǎng)絡(luò)(squeeze and excitation networks, SENet)進(jìn)行圖像識(shí)別,獲得每個(gè)特征通道的重要程度,據(jù)此對(duì)特征進(jìn)行加權(quán),對(duì)網(wǎng)絡(luò)性能的提升有明顯的效果?;谝陨涎芯?本文提出了一種深度殘差收縮注意力網(wǎng)絡(luò)用于雷達(dá)信號(hào)識(shí)別方法,主要工作如下:

      (1) 以深度殘差網(wǎng)絡(luò)為基礎(chǔ),構(gòu)建掩碼支路充當(dāng)主干支路的“特征選擇器”,同時(shí)為了消除過程中的冗余信息或者噪聲,將軟閾值化的操作融入其中。注意力機(jī)制不僅幫助調(diào)整特征的權(quán)重,同時(shí)也能自適應(yīng)地為網(wǎng)絡(luò)選取合適的閾值。除此之外,將主干支路以短連接的方式加入到網(wǎng)絡(luò)中,既能夠發(fā)揮出注意力機(jī)制的優(yōu)勢(shì),也不會(huì)出現(xiàn)因網(wǎng)絡(luò)特征響應(yīng)值變?nèi)醵鴮?dǎo)致性能下降的問題。

      (2) 將度量學(xué)習(xí)的排序表損失(ranked list loss, RLL)引入雷達(dá)信號(hào)識(shí)別領(lǐng)域,使得識(shí)別方法具有擴(kuò)展性,并且RLL損失函數(shù)在最大程度保留了信號(hào)的類內(nèi)特征的同時(shí),彌補(bǔ)了其他度量損失函數(shù)只采用部分樣本進(jìn)行相似性度量的缺陷。

      (3) 為了使不同類別信號(hào)的“分界面”更加明確,提高信號(hào)識(shí)別準(zhǔn)確率,聯(lián)合分類損失函數(shù)與RLL損失函數(shù)共同指導(dǎo)網(wǎng)絡(luò)訓(xùn)練。

      1 相關(guān)知識(shí)

      1.1 深度殘差網(wǎng)絡(luò)

      在深度學(xué)習(xí)中,為提高網(wǎng)絡(luò)性能,往往通過增加網(wǎng)絡(luò)層數(shù)來提高網(wǎng)絡(luò)提取特征的能力。然而,當(dāng)層數(shù)過多時(shí),梯度消失、梯度爆炸等問題的出現(xiàn)會(huì)導(dǎo)致網(wǎng)絡(luò)難以訓(xùn)練。He等[21]在卷積層和后面對(duì)不上中引入跳躍連接搭建了深度殘差網(wǎng)絡(luò),能夠很好地解決層數(shù)過深與性能下降之間的矛盾。因此,殘差網(wǎng)絡(luò)的提出在深度學(xué)習(xí)領(lǐng)域產(chǎn)生深遠(yuǎn)的影響,不少專家學(xué)者以此為基礎(chǔ)進(jìn)行架構(gòu)優(yōu)化。

      1.2 注意力機(jī)制

      深度學(xué)習(xí)中的注意力機(jī)制是通過借鑒人類接收處理信息的過程發(fā)展起來的[19]。當(dāng)人類接收信息時(shí),不會(huì)同時(shí)處理所有信息,而是有傾向性地處理更感興趣或者與當(dāng)前任務(wù)關(guān)聯(lián)程度更高的一些信息,濾除不重要或者冗余的特征,能夠有效提高信號(hào)處理的準(zhǔn)確率及速度。同理,在深度學(xué)習(xí)領(lǐng)域,通過對(duì)重要特征進(jìn)行加權(quán)處理,能夠獲得更高的“注意力”,來近似人類接收處理信息的過程。

      1.3 軟閾值化

      現(xiàn)實(shí)生活中,噪聲信息或者與標(biāo)簽無關(guān)的信息的存在,嚴(yán)重降低了信號(hào)識(shí)別等工作的準(zhǔn)確率。軟閾值化,是很多信號(hào)去噪算法中的關(guān)鍵步驟。一般需要先將原始信號(hào)變換到某個(gè)域中,這個(gè)域需要滿足特征值越接近0代表特征越不重要的要求,之后“收縮”信號(hào)特征?!笆湛s”信號(hào)特征的具體操作是先設(shè)置一個(gè)閾值,之后比較特征的絕對(duì)值與閾值的大小,低于閾值則將特征值設(shè)為0,高于閾值則向0方向調(diào)整[18]。具體公式如下所示:

      (1)

      式中:x為信號(hào)特征;T為閾值;soft(x,T)為軟閾值化輸出的結(jié)果。

      另外,閾值的設(shè)立需要滿足以下3個(gè)條件:① 必須為正值;② 設(shè)置需合理,閾值過大會(huì)導(dǎo)致有用特征被濾除掉,過小則難以消除噪聲特征;③ 每個(gè)樣本所含噪聲分量不同,需要分別設(shè)置不同的閾值。在經(jīng)典的信號(hào)去噪算法中,閾值需要人工提前設(shè)置,要求具備信號(hào)處理領(lǐng)域的專業(yè)知識(shí)。即便如此,通常也很難找到合適的值, 并且不同場(chǎng)景下的最優(yōu)閾值一般不同。注意力機(jī)制的發(fā)展為閾值的設(shè)立提供了新的思路。

      1.4 度量學(xué)習(xí)

      度量學(xué)習(xí)是對(duì)樣本進(jìn)行相似度度量,在分類、檢索、認(rèn)證等場(chǎng)景中應(yīng)用廣泛。度量學(xué)習(xí)重點(diǎn)關(guān)注樣本類間與類內(nèi)的樣本分布,旨在設(shè)計(jì)一個(gè)合理有效的相似度度量方法,在訓(xùn)練過程中拉大不同類別樣本之間的距離(降低相似度),減小相同類別下樣本的距離(增大相似度),最終使得樣本在類內(nèi)緊密在類間分離。這與分類問題在本質(zhì)上有所差別,差別示意圖如圖1所示。

      圖1 分類問題與度量學(xué)習(xí)差別示意圖Fig.1 Schematic diagram of the difference between classification problem and metric learning

      每個(gè)圖形代表不同的樣本,形狀不同代表樣本的類別不同,圖中共有兩類不同的樣本。度量學(xué)習(xí)旨在讓樣本類內(nèi)相似度(橙色箭頭所示)小于樣本類間相似度(紅色箭頭所示)。而分類問題更關(guān)注樣本的類別信息,旨在找到不同類別之間的分界面(綠色虛線所示)。從圖1中也能看出,應(yīng)用于分類場(chǎng)景下時(shí),單純采用度量學(xué)習(xí)對(duì)樣本的類別間隔關(guān)注程度不夠。更重要的是,當(dāng)測(cè)試數(shù)據(jù)的類別在訓(xùn)練的樣本庫中并未出現(xiàn)時(shí),傳統(tǒng)的分類模型會(huì)從樣本庫中選擇其中一種作為識(shí)別出的種類,此時(shí)傳統(tǒng)分類模型失效。而度量學(xué)習(xí)衡量的是樣本間的相似度,當(dāng)測(cè)試數(shù)據(jù)與樣本庫數(shù)據(jù)相似度差異較大時(shí),能夠判別出測(cè)試數(shù)據(jù)的類別在樣本庫中沒有存檔,能夠正確識(shí)別。

      在度量學(xué)習(xí)中,損失函數(shù)的選擇決定網(wǎng)絡(luò)優(yōu)化的方向,是至關(guān)重要的環(huán)節(jié)。文獻(xiàn)[22]提出三元組損失函數(shù)并將其應(yīng)用于人臉識(shí)別領(lǐng)域。之后有學(xué)者又相繼提出改進(jìn)的三元組、四元組損失函數(shù)等。但上述所提損失函數(shù)都存在以下兩個(gè)問題:第一,雖然都提出了通過增加負(fù)樣本獲取更多的信息,但使用的負(fù)樣本僅是其中一小部分;第二,都追求于將同一類樣本集中到一個(gè)點(diǎn)上,忽略了樣本的類內(nèi)分布。RLL損失函數(shù)對(duì)上述損失函數(shù)存在的局限性進(jìn)行了改進(jìn)。

      2 本文方法

      2.1 方法概述

      本文網(wǎng)絡(luò)以殘差網(wǎng)絡(luò)為基礎(chǔ),融合注意力機(jī)制、軟閾值化的思想于其中,搭建了殘差收縮注意力模塊,以堆疊模塊的形式實(shí)現(xiàn)特征提取。這些模塊產(chǎn)生注意力感知特征。來自不同模塊的注意力感知特征隨著層的加深而適應(yīng)性地改變。最終,將輸入信號(hào)映射到一個(gè)32維的向量空間,得到一個(gè)特征向量。本文的識(shí)別方法在訓(xùn)練階段和測(cè)試階段有所差異,在訓(xùn)練階段,將樣本庫中信號(hào)輸入到深度殘差收縮注意力網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,在分類損失函數(shù)和度量學(xué)習(xí)中的RLL損失函數(shù)共同指導(dǎo)下控制網(wǎng)絡(luò)優(yōu)化的方向。使得網(wǎng)絡(luò)模型向著同種信號(hào)相似度增大異種信號(hào)相似度減小的方向調(diào)參。訓(xùn)練完成后在測(cè)試階段,將樣本庫信號(hào)和待識(shí)別信號(hào)同時(shí)輸入到網(wǎng)絡(luò)得到各自的特征向量,通過對(duì)樣本庫信號(hào)與待識(shí)別信號(hào)的特征向量采用基于閾值的判斷算法進(jìn)行相似度識(shí)別,低于閾值的認(rèn)為是原樣本庫中的已知信號(hào),并輸出其信號(hào)標(biāo)簽,高于閾值的則被認(rèn)為是樣本庫中不存在的未知信號(hào)。

      2.2 網(wǎng)絡(luò)結(jié)構(gòu)

      深度殘差收縮注意力網(wǎng)絡(luò)由模塊堆疊而成,每個(gè)模塊主要由主干支路和掩碼支路兩部分組成。網(wǎng)絡(luò)總體網(wǎng)絡(luò)及模塊2中掩碼分支的結(jié)構(gòu)如圖2所示。

      圖2 深度殘差收縮注意力網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Deep residual shrinkage attention network structure

      2.2.1 殘差收縮單元

      在實(shí)際戰(zhàn)場(chǎng)環(huán)境下,噪聲或者冗余信息大量存在,為了消除這些信息,構(gòu)建殘差收縮單元,融合恒等映射、軟閾值化和注意力機(jī)制的思想于其中。首先,利用注意力機(jī)制的思想搭建了一個(gè)子網(wǎng)絡(luò)自適應(yīng)地找到閾值,之后進(jìn)行軟閾值化的操作。網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

      圖3 殘差收縮單元結(jié)構(gòu)Fig.3 Residual shrinkage unit structure

      由圖3可知,與殘差單元相比,殘差收縮單元增加了選取閾值的子網(wǎng)絡(luò)和進(jìn)行軟閾值化的操作。兩個(gè)卷積單元提取特征后,通過一個(gè)子網(wǎng)絡(luò)自動(dòng)選擇合適的閾值。具體來說,子網(wǎng)絡(luò)首先獲得特征圖絕對(duì)值的平均值,之后獲得一個(gè)縮放系數(shù),二者相乘的結(jié)果就是子網(wǎng)絡(luò)選擇出來的閾值,之后進(jìn)行軟閾值化的操作。取絕對(duì)值的操作保證找到的閾值為正數(shù),縮放系數(shù)的獲取保證值不會(huì)太大,同時(shí)每個(gè)閾值都是依據(jù)自己的特征圖所得到的。這種獲得閾值的方式既保證了閾值的唯一性和適用性,也滿足閾值設(shè)立的3個(gè)條件。

      2.2.2 主干支路和掩碼支路

      主干支路以殘差收縮單元作為基本單元,實(shí)現(xiàn)對(duì)特征的提取和對(duì)過程中的噪聲分量進(jìn)行抑制。掩碼支路采用聚焦式注意力與顯著性注意力相結(jié)合的方式,包括了自下而上的前饋掃描和自上而下的反饋操作。前饋掃描用于快速收集輸入信號(hào)的全局信息,反饋操作用于將原始特征圖與全局信息相結(jié)合。同時(shí),在前饋掃描和反饋操作中添加了跳躍連接,來捕獲不同階段不同比例的信息。在掩碼支路中,首先通過殘差收縮單元減少過程中的噪聲,之后通過兩個(gè)最大池化層操作快速增大感受野,獲得全局信息。達(dá)到最低分辨率以后,通過對(duì)稱的殘差收縮單元和雙線性插值操作將特征放大回去。其中,雙線性插值的數(shù)量與最大池化層的數(shù)量一致,本文是兩個(gè),以確保此時(shí)輸出與掩碼支路輸入大小一致。之后,通過兩個(gè)1×1的卷積層之后,使用Sigmoid層將輸出進(jìn)行歸一化,作為主干支路的權(quán)重值。

      假設(shè)輸入為x,主干支路輸出結(jié)果記為Ti,c(x)。掩碼支路輸出結(jié)果為Mi,c(x),形狀與Ti,c(x)相同。將掩碼分支輸出的結(jié)果Mi,c(x)作為主干支路輸出特征圖的權(quán)重,點(diǎn)乘后輸出Hi,c=Mi,c(x)*Ti,c(x)。如果直接將這個(gè)結(jié)果作為輸出,會(huì)導(dǎo)致網(wǎng)絡(luò)性能明顯下降。原因是主干支路的權(quán)重經(jīng)過了歸一化,點(diǎn)乘后直接輸出會(huì)導(dǎo)致網(wǎng)絡(luò)整體的特征響應(yīng)值變?nèi)酢?/p>

      因此,將主干支路作為短連接加入,輸出變?yōu)镠i,c=(1+Mi,c(x))*Ti,c(x)。這樣,既能保留了原有的特征提取的優(yōu)勢(shì),經(jīng)過多層傳輸之后,感興趣的信號(hào)特征被增強(qiáng),不重要的特征相對(duì)來說占比減少,又解決了輸出特征值整體下降的問題。此外,也給了主干網(wǎng)絡(luò)繞過掩碼支路直接前進(jìn)到頂層的能力,削弱了掩碼支路特征選擇的能力。同時(shí),還具有優(yōu)異的梯度回傳特性。

      2.3 損失函數(shù)

      2.3.1 RLL

      給定一個(gè)錨點(diǎn),對(duì)樣本空間剩余的所有樣本進(jìn)行相似度排序后得到一個(gè)列表。理想狀態(tài)下,所有的正樣本都應(yīng)在所有的負(fù)樣本之前。RLL優(yōu)化的目標(biāo)不僅要滿足這個(gè)條件,在正負(fù)樣本之間還至少要存在一個(gè)距離余量m,同時(shí)為了避免像其他損失函數(shù)一樣將錨點(diǎn)與正樣本無限接近,嚴(yán)重破壞樣本類內(nèi)的樣本分布,RLL將錨點(diǎn)與正樣本約束在樣本空間的一個(gè)超球面內(nèi),能夠最大程度保留了樣本的類內(nèi)特征。具體來說,RLL優(yōu)化的最終結(jié)果是:以錨點(diǎn)(待查詢樣本)為圓心,所有的正樣本分布在小于α-m的超球面內(nèi),所有的負(fù)樣本分布在大于α的超球面之外。優(yōu)化目標(biāo)如圖4所示。

      圖4 RLL優(yōu)化結(jié)果示意圖Fig.4 Schematic diagram of RLL optimization results

      以成對(duì)余量損失作為基本成對(duì)約束來構(gòu)建基于集合的相似性結(jié)構(gòu),表達(dá)式如下所示:

      Lm(xi,xj;f)=(1-yij)[α-dij]++yij[dij-(α-m)]+

      (2)

      式中:α為設(shè)置的距離參數(shù)。若yi=yj,則yij=1;否則yij=0。dij=‖f(xi)-f(xj)‖2表示兩樣本在特征空間的歐式距離差。

      在度量學(xué)習(xí)損失函數(shù)中,選取到合適的樣本能夠加快模型的收斂速度和提高模型性能。分析優(yōu)化目標(biāo),確定采樣策略是選取損失函數(shù)不為0的樣本。正樣本的損失函數(shù)表達(dá)式如下所示:

      (3)

      由于選取的負(fù)樣本一般數(shù)量較大,并且損失值幅度變化區(qū)間也很大,為了提高利用效率,對(duì)負(fù)樣本采取加權(quán)的策略。加權(quán)的權(quán)重取決于樣本距離錨點(diǎn)的距離。表達(dá)式如下所示:

      (4)

      因此,負(fù)樣本的損失函數(shù)如下所示:

      (5)

      整體的損失函數(shù)如下所示:

      (6)

      2.3.2 分類損失函數(shù)

      分類損失函數(shù)采用基于Softmax的交叉熵?fù)p失函數(shù)來訓(xùn)練。交叉熵?fù)p失函數(shù)是衡量實(shí)際概率與期望概率之間的距離,損失函數(shù)值越小表示預(yù)測(cè)與期望越接近。表達(dá)式為

      (7)

      2.3.3 聯(lián)合損失函數(shù)

      在訓(xùn)練過程中通過分類損失函數(shù)與RLL損失函數(shù)共同指導(dǎo)訓(xùn)練來提高模型識(shí)別的準(zhǔn)確率。

      (8)

      式中:w表示分類損失函數(shù)的權(quán)重,經(jīng)測(cè)試w=0.25時(shí)效果最好。

      2.4 識(shí)別方法

      訓(xùn)練階段具體流程如下。

      步驟 1樣本庫構(gòu)建:在訓(xùn)練樣本中從每種雷達(dá)信號(hào)中挑選數(shù)量為n=32的樣本組成雷達(dá)信號(hào)樣本庫,并找到對(duì)應(yīng)的標(biāo)簽。

      步驟 2樣本庫信號(hào)預(yù)處理:樣本庫信號(hào)輸入網(wǎng)絡(luò)前進(jìn)行最值歸一化預(yù)處理。

      步驟 3獲取訓(xùn)練前信號(hào)特征向量:將樣本庫信號(hào)輸入到深度殘差收縮注意力網(wǎng)絡(luò)中,獲取訓(xùn)練前的32維空間特征向量。

      步驟 4網(wǎng)絡(luò)訓(xùn)練:在訓(xùn)練過程中,首先將標(biāo)簽轉(zhuǎn)為獨(dú)熱碼的形式,之后進(jìn)行平滑處理,提高模型的泛化能力。聯(lián)合RLL損失函數(shù)和分類損失函數(shù)共同優(yōu)化網(wǎng)絡(luò)訓(xùn)練的方向,使得同類信號(hào)特征向量距離減小,不同類信號(hào)特征向量距離增大。待訓(xùn)練完成后保存模型。

      測(cè)試階段具體流程如下。

      步驟 1待識(shí)別信號(hào)預(yù)處理:將待識(shí)別信號(hào)進(jìn)行預(yù)處理,一維信號(hào)長(zhǎng)度統(tǒng)一設(shè)置為1 024。

      步驟 2提取保存好的模型,將預(yù)處理后的信號(hào)輸入到此模型中,獲得特征向量fx。

      步驟 3將樣本庫信號(hào)輸入到訓(xùn)練好的模型中,獲取訓(xùn)練優(yōu)化后的32維特征向量fs。

      步驟 4相似度衡量:計(jì)算fx與fs之間N個(gè)向量的距離,并將其存放到相似度數(shù)組中。

      步驟 5計(jì)算識(shí)別數(shù)組:在相似度數(shù)組中找到最小的3個(gè)值,從樣本庫中找到對(duì)應(yīng)的標(biāo)簽后存放到識(shí)別數(shù)組。

      步驟 6與閾值比較大小:計(jì)算相似度數(shù)組的均值后將其與設(shè)定好的閾值進(jìn)行比較,若均值大于閾值,則判定其為樣本庫中不存在的信號(hào),執(zhí)行步驟7。反之,執(zhí)行步驟8。

      步驟 7將待識(shí)別信號(hào)的判別為未知信號(hào),將其類別設(shè)置為-1(代表樣本庫中并未存儲(chǔ)過此信號(hào)類型),并存入未知雷達(dá)信號(hào)庫。

      步驟 8當(dāng)均值小于閾值,以識(shí)別數(shù)組出現(xiàn)次數(shù)最多的標(biāo)簽作為待識(shí)別信號(hào)的識(shí)別結(jié)果。

      3 實(shí)驗(yàn)與分析

      3.1 數(shù)據(jù)集與實(shí)驗(yàn)設(shè)置

      使用Matlab生成數(shù)據(jù),采樣頻率為600 MHz,脈寬為2 μs,信噪比為-20~10 dB,每隔2 dB產(chǎn)生1 000個(gè)樣本,其余參數(shù)設(shè)置如表1所示。調(diào)制方式有連續(xù)波(continuous wave, CW)、線性調(diào)頻(linear frequency modulation,LFM)、二進(jìn)制相移鍵控(binary phase shift keying,BPSK)、正支相移鍵控(quadrature phase shift keying,QPSK)。生成已知雷達(dá)信號(hào)數(shù)據(jù)以后,每個(gè)樣本信號(hào)長(zhǎng)度設(shè)置為1 024(過長(zhǎng)的信號(hào)進(jìn)行截?cái)嗵幚?過短的信號(hào)在末尾補(bǔ)零),之后對(duì)應(yīng)標(biāo)簽組成數(shù)據(jù)集,以8∶2的比例分為訓(xùn)練集和測(cè)試集。

      由于本識(shí)別方法除測(cè)試對(duì)已知雷達(dá)信號(hào)識(shí)別的準(zhǔn)確率以外,也需要測(cè)試當(dāng)出現(xiàn)樣本庫中不存在的信號(hào)類型時(shí)模型能否識(shí)別出其為未知信號(hào)。因此,需要生成原數(shù)據(jù)集中不存在的新信號(hào)作為未知雷達(dá)信號(hào),同測(cè)試集一同對(duì)網(wǎng)絡(luò)性能進(jìn)行測(cè)試。為了與樣本庫中的已知信號(hào)區(qū)分開,未知信號(hào)的標(biāo)簽統(tǒng)一設(shè)置為-1,未知雷達(dá)下信號(hào)數(shù)據(jù)其余參數(shù)設(shè)置如表2所示。

      表1 已知雷達(dá)信號(hào)參數(shù)設(shè)置

      表2 未知雷達(dá)信號(hào)參數(shù)設(shè)置

      仿真配置如下:CPU為Inter(R)Core(TM) i7-10750H,GPU為NVIDIA GeForce RTX 2060;內(nèi)存為32G;深度學(xué)習(xí)框架為tensorflow2.1.0。訓(xùn)練初始設(shè)置為:epochs為1 000,batchsize為64。選用RMSProp優(yōu)化器,衰減為0.9,動(dòng)量為0.9;批量規(guī)范動(dòng)量參數(shù)為0.99;初始學(xué)習(xí)率設(shè)置為0.256,每10個(gè)epoch下降0.97倍。

      3.2 測(cè)試閾值參數(shù)設(shè)置對(duì)識(shí)別方法的影響

      本文采用基于閾值的判斷方法來判斷待識(shí)別信號(hào)是否存在于樣本庫中。本節(jié)旨在選出合適的閾值參數(shù)δ。由于需要同時(shí)測(cè)試網(wǎng)絡(luò)模型對(duì)已知雷達(dá)信號(hào)和未知雷達(dá)信號(hào)識(shí)別的能力,因此本節(jié)使用已知雷達(dá)信號(hào)測(cè)試集和未知雷達(dá)信號(hào)數(shù)據(jù)共同進(jìn)行測(cè)試,并且,本節(jié)識(shí)別的準(zhǔn)確率稱為綜合準(zhǔn)確率P,由已知雷達(dá)(標(biāo)簽非負(fù))的準(zhǔn)確率Pkno和未知雷達(dá)(標(biāo)簽為-1)的準(zhǔn)確率Punk兩部分組成,具體計(jì)算如下:

      P=0.5·Pkno+0.5·Punk

      (9)

      δ范圍為0.005~0.05,步進(jìn)0.005。信噪比為0 dB時(shí),不同閾值下準(zhǔn)確率對(duì)比如圖5所示。

      圖5 不同閾值設(shè)置下準(zhǔn)確率對(duì)比Fig.5 Comparison of accuracy rates under different threshold settings

      由圖5可知,當(dāng)δ值較小時(shí),Punk較高,Pkno較低,并且隨著δ值逐漸增大,Punk有明顯的下降趨勢(shì),Pkno有明顯的上升趨勢(shì)。原因在于當(dāng)δ較小時(shí),相似度數(shù)組的均值一般都高于閾值δ,模型會(huì)將其直接歸為不屬于樣本庫的未知雷達(dá)信號(hào),同理,當(dāng)δ較大時(shí),相似度數(shù)組的均值一般都低于閾值δ,模型會(huì)將其認(rèn)為是屬于樣本庫的已知雷達(dá)信號(hào)。本文將Pkno和Punk視為同等重要,在此基礎(chǔ)上分析綜合準(zhǔn)確率P,δ=0.015最為合適,因此基于閾值的識(shí)別方法中閾值設(shè)置為0.015。需要說明的是,在不同的場(chǎng)景下,需要重新討論閾值設(shè)置的最優(yōu)解。

      3.3 消融實(shí)驗(yàn)

      消融實(shí)驗(yàn)是為了研究各部分對(duì)性能的影響,因此本節(jié)進(jìn)行的實(shí)驗(yàn)都是使用訓(xùn)練集數(shù)據(jù)進(jìn)行訓(xùn)練,穩(wěn)定后保存模型,統(tǒng)一以識(shí)別準(zhǔn)確率作為評(píng)價(jià)指標(biāo)對(duì)網(wǎng)絡(luò)特征提取能力進(jìn)行對(duì)比分析,使用已知雷達(dá)信號(hào)測(cè)試數(shù)據(jù)進(jìn)行網(wǎng)絡(luò)性能的測(cè)試。

      實(shí)驗(yàn) 1為了測(cè)試軟閾值化、掩碼分支的加入對(duì)網(wǎng)絡(luò)識(shí)別率的影響,統(tǒng)一采用分類損失函數(shù)。將本文網(wǎng)絡(luò)去除掩碼分支,并把殘差收縮單元全部替換為殘差單元之后的網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò)記為網(wǎng)絡(luò)1,基礎(chǔ)網(wǎng)絡(luò)添加掩碼分支后記為網(wǎng)絡(luò)2,將基礎(chǔ)網(wǎng)絡(luò)中的殘差單元替換為殘差收縮單元后記為網(wǎng)絡(luò)3,本文網(wǎng)絡(luò)記為網(wǎng)絡(luò)4。不同信噪比條件下識(shí)別準(zhǔn)確率如圖6所示。由圖6可知,與網(wǎng)絡(luò)1相比,其他網(wǎng)絡(luò)在性能上都有明顯提高。具體來說,與網(wǎng)絡(luò)1相比,網(wǎng)絡(luò)2在-20~-10 dB范圍內(nèi)準(zhǔn)確率提高約13.9%,說明掩碼支路的添加調(diào)整了主干支路的權(quán)重,使得網(wǎng)絡(luò)能夠更關(guān)注與任務(wù)相關(guān)的特征信息,在低信噪比條件下能提取到有用的信息。網(wǎng)絡(luò)3在-20~-8 dB準(zhǔn)確率也提高了近10.3%。由于殘差收縮單元構(gòu)建了一個(gè)子網(wǎng)絡(luò)自適應(yīng)地尋找到合適的閾值進(jìn)行軟閾值化,減少了與任務(wù)無關(guān)的特征分量。網(wǎng)絡(luò)4既添加了掩碼分支又采用了殘差收縮單元進(jìn)行軟閾值化的操作,整體性能最佳,在-20~-10 dB范圍內(nèi)準(zhǔn)確率提高約16.8%。并且,本文網(wǎng)絡(luò)在-4 dB時(shí)準(zhǔn)確率就已經(jīng)達(dá)到了99.9%以上。

      圖6 不同網(wǎng)絡(luò)的準(zhǔn)確率對(duì)比Fig.6 Accuracy comparison of different networks

      實(shí)驗(yàn) 2為了分析損失函數(shù)對(duì)網(wǎng)絡(luò)性能的影響,以深度殘差收縮注意力網(wǎng)絡(luò)為基礎(chǔ),使用分類損失函數(shù)的網(wǎng)絡(luò)記為分類網(wǎng)絡(luò),采用RLL損失函數(shù)的網(wǎng)絡(luò)記為度量網(wǎng)絡(luò),使用聯(lián)合損失函數(shù)的網(wǎng)絡(luò)記為聯(lián)合網(wǎng)絡(luò)。不同信噪比條件下識(shí)別準(zhǔn)確率如圖7所示。

      圖7 3種網(wǎng)絡(luò)的準(zhǔn)確率對(duì)比Fig.7 Accuracy comparison of the three networks

      由圖7可知,高于-8 dB分類網(wǎng)絡(luò)和度量網(wǎng)絡(luò)性能相近,都在98%以上。而低于-6 dB時(shí)分類網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率總體略高于度量網(wǎng)絡(luò),準(zhǔn)確率平均提升幅度約1%。這是由于分類網(wǎng)絡(luò)更關(guān)注數(shù)據(jù)中的類別信息,而度量網(wǎng)絡(luò)著眼的是數(shù)據(jù)的相似度衡量,對(duì)數(shù)據(jù)中的分界面關(guān)注度不如分類網(wǎng)絡(luò),因此在分類任務(wù)中度量網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率略低于分類網(wǎng)絡(luò)。聯(lián)合網(wǎng)絡(luò)中分類損失函數(shù)與RLL損失函數(shù)共同指導(dǎo)網(wǎng)絡(luò)訓(xùn)練,在-20~-12 dB信噪比范圍內(nèi)識(shí)別準(zhǔn)確率較分類網(wǎng)絡(luò)和度量網(wǎng)絡(luò)的平均提升幅度在5%左右。說明共同指導(dǎo)能夠提高網(wǎng)絡(luò)的性能。

      3.4 與其他分類網(wǎng)絡(luò)對(duì)比

      本節(jié)測(cè)試本文方法與其他網(wǎng)絡(luò)在準(zhǔn)確率和擴(kuò)展性上的差異。選取文獻(xiàn)[14]、文獻(xiàn)[15]和文獻(xiàn)[16]與本文方法進(jìn)行對(duì)比分析。

      3.4.1 準(zhǔn)確率測(cè)試

      使用已知雷達(dá)型號(hào)測(cè)試集數(shù)據(jù)進(jìn)行準(zhǔn)確率的測(cè)試,在不同信噪比環(huán)境下各個(gè)模型的識(shí)別準(zhǔn)確率如圖8所示。

      圖8 使用已知雷達(dá)型號(hào)測(cè)試數(shù)據(jù)的準(zhǔn)確率對(duì)比Fig.8 Accuracy comparison of test set data using known radar models

      由圖8可知,文獻(xiàn)[17]整體性能最差,原因是文獻(xiàn)[17]重點(diǎn)關(guān)注識(shí)別方法的擴(kuò)展性,搭建的網(wǎng)絡(luò)較為簡(jiǎn)單,網(wǎng)絡(luò)層數(shù)較少,特征提取能力比較弱。其余網(wǎng)絡(luò)相較于文獻(xiàn)[17]準(zhǔn)確率都有明顯提高,在-20~-8 dB準(zhǔn)確率都提高了近13%。文獻(xiàn)[15]和文獻(xiàn)[16]在-20~-10 dB低信噪比條件下識(shí)別能力相近,文獻(xiàn)[14]在二者的基礎(chǔ)上又提高了約5.9%,本文方法識(shí)別能力最強(qiáng),-20~-8 dB信噪比條件下較文獻(xiàn)[14]的準(zhǔn)備率提高了近6.2%。并且,本文識(shí)別方法在-6 dB時(shí)準(zhǔn)確率就已經(jīng)達(dá)到了99%以上,體現(xiàn)出本文具備很強(qiáng)的特征提取能力。

      3.4.2 擴(kuò)展性測(cè)試

      使用未知雷達(dá)信號(hào)數(shù)據(jù)測(cè)試各識(shí)別方法的擴(kuò)展性,從每種雷達(dá)信號(hào)數(shù)據(jù)中選取32個(gè)樣本擴(kuò)充雷達(dá)信號(hào)樣本庫,在樣本庫中新添加雷達(dá)信號(hào)的標(biāo)簽對(duì)應(yīng)情況如下所示:雷達(dá)10對(duì)應(yīng)樣本庫標(biāo)簽9,雷達(dá)11對(duì)應(yīng)樣本庫標(biāo)簽10,雷達(dá)12對(duì)對(duì)應(yīng)一樣本庫標(biāo)簽11,雷達(dá)13對(duì)應(yīng)樣本庫標(biāo)簽12,雷達(dá)14對(duì)應(yīng)樣本庫標(biāo)簽13。

      之后,選取1~5種未知雷達(dá)信號(hào)對(duì)模型進(jìn)行測(cè)試。當(dāng)信噪比為0 dB時(shí),模型識(shí)別準(zhǔn)確率與加入新信號(hào)的種類數(shù)之間的關(guān)系如圖9所示。其中,當(dāng)選取雷達(dá)10和雷達(dá)12的信號(hào)進(jìn)行測(cè)試時(shí),五種模型的部分混淆矩陣如圖10所示。從圖9和圖10看出,文獻(xiàn)[14]、文獻(xiàn)[15]和文獻(xiàn)[16]這3種傳統(tǒng)的分類網(wǎng)絡(luò)對(duì)新加入到樣本庫的信號(hào)完全沒有識(shí)別能力,識(shí)別的準(zhǔn)確率一直為0。由于之前沒有訓(xùn)練過這兩種新信號(hào),并且受輸出層神經(jīng)元個(gè)數(shù)固定的限制,會(huì)將未知信號(hào)誤判為原來樣本庫中存在的信號(hào),表明分類網(wǎng)絡(luò)不具備識(shí)別新信號(hào)的能力。而文獻(xiàn)[17]與本文方法通過相似度對(duì)信號(hào)進(jìn)行衡量,即便之前的訓(xùn)練中從未“見過”新信號(hào),也具備將新信號(hào)與樣本庫原始信號(hào)區(qū)分的能力。雖然文獻(xiàn)[17]與本文方法都具備對(duì)新加入到樣本庫中信號(hào)的識(shí)別能力,但能夠看出本文的識(shí)別能力明顯優(yōu)于文獻(xiàn)[17],原因在于本文使用的網(wǎng)絡(luò)對(duì)特征的提取能力更強(qiáng),聯(lián)合損失函數(shù)共同指導(dǎo)下對(duì)信號(hào)特征向量調(diào)整的能力更強(qiáng),更能滿足任務(wù)需求。

      圖9 模型準(zhǔn)確率隨種類數(shù)增加的變化情況Fig.9 Model accuracy with the increase of the number of species changes

      圖10 不同模型的混淆矩陣Fig.10 Confusion matrix of different models

      4 結(jié) 論

      本文提出了一種基于深度殘差收縮注意力網(wǎng)絡(luò)的雷達(dá)信號(hào)識(shí)別方法。實(shí)驗(yàn)表明,識(shí)別方法具備優(yōu)異的準(zhǔn)確率的同時(shí),可識(shí)別雷達(dá)信號(hào)的數(shù)量不受模型輸出神經(jīng)元個(gè)數(shù)的限制,具備分類網(wǎng)絡(luò)不具備的擴(kuò)展性。不過,當(dāng)待識(shí)別雷達(dá)信號(hào)在樣本庫中并未記錄時(shí),本文的識(shí)別方法識(shí)別出其不屬于樣本庫的未知信號(hào),將其標(biāo)簽設(shè)置為-1并存放于未知雷達(dá)庫后,需要人工從未知雷達(dá)庫提取出可信樣本擴(kuò)充到雷達(dá)信號(hào)樣本庫中,重新分配標(biāo)簽。當(dāng)網(wǎng)絡(luò)模型下次再遇到這種型號(hào)雷達(dá)時(shí),就可以按照已知信號(hào)的識(shí)別方法進(jìn)行識(shí)別。

      猜你喜歡
      殘差損失準(zhǔn)確率
      基于雙向GRU與殘差擬合的車輛跟馳建模
      少問一句,損失千金
      胖胖損失了多少元
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      基于殘差學(xué)習(xí)的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法
      基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      怀安县| 许昌市| 宁城县| 上虞市| 青阳县| 汕头市| 屏东县| 卓尼县| 邳州市| 抚州市| 常宁市| 涪陵区| 洱源县| 天水市| 马公市| 兴山县| 怀集县| 长葛市| 台东县| 广东省| 辽中县| 历史| 康马县| 拉萨市| 永福县| 黑山县| 汉川市| 进贤县| 阿坝| 开阳县| 崇义县| 乌鲁木齐县| 宜兰市| 昌黎县| 宜昌市| 廊坊市| 从化市| 万山特区| 高青县| 绥德县| 榆树市|