• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進(jìn)EfficientNet的雷達(dá)信號(hào)調(diào)制方式識(shí)別*

      2023-01-18 02:55:46蘇琮智王美玲楊承志吳宏超
      電訊技術(shù) 2023年1期
      關(guān)鍵詞:時(shí)頻信噪比卷積

      蘇琮智,王美玲,楊承志,吳宏超

      (空軍航空大學(xué) 航空作戰(zhàn)勤務(wù)學(xué)院,長(zhǎng)春 130022)

      0 引 言

      近年來(lái),深度學(xué)習(xí)算法在雷達(dá)輻射源信號(hào)識(shí)別領(lǐng)域獲得了廣泛應(yīng)用,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是最經(jīng)典的模型之一。CNN利用權(quán)值共享、局部感知的思想大大降低了網(wǎng)絡(luò)的復(fù)雜度和計(jì)算成本,可以高效地處理多維圖像,特別是在二維圖像處理上優(yōu)勢(shì)巨大[1]。因此,可以直接將對(duì)雷達(dá)輻射源信號(hào)進(jìn)行一定的變換后提取到的二維圖像輸入CNN網(wǎng)絡(luò),網(wǎng)絡(luò)將自動(dòng)提取雷達(dá)輻射源信號(hào)的深層隱藏特征并進(jìn)行分類識(shí)別。

      當(dāng)訓(xùn)練數(shù)據(jù)充足時(shí),利用深度學(xué)習(xí)進(jìn)行雷達(dá)輻射源識(shí)別可以達(dá)到較高的正確率并具有較強(qiáng)的魯棒性,相比傳統(tǒng)的算法有較大的提升,但同時(shí)也存在不足之處:在低信噪比下網(wǎng)絡(luò)提取深層次特征更加困難,對(duì)輻射源的識(shí)別準(zhǔn)確率還有待提高;許多用于識(shí)別的神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)層數(shù)較深、參數(shù)過(guò)多,網(wǎng)絡(luò)的時(shí)間復(fù)雜度和空間復(fù)雜度較大,因此訓(xùn)練速度慢、計(jì)算量龐大。

      EfficientNet[2]是用一種新的模型縮放方法構(gòu)建的網(wǎng)絡(luò),相比以前的卷積神經(jīng)網(wǎng)絡(luò)在準(zhǔn)確性和效率方面更優(yōu)秀。本文以EfficientNet-B0為基礎(chǔ)框架,通過(guò)使用卷積注意力模塊(Convolutional Block Attention Module,CBAM)替換壓縮和激勵(lì)(Squeeze and Excitation,SE)模塊改進(jìn)網(wǎng)絡(luò)中的移動(dòng)倒置瓶頸卷積(Mobile inverted Bottleneck Convolution,MBConv)模塊,增強(qiáng)了網(wǎng)絡(luò)提取多種特征的能力;分析了ReLU和h-Swish相比于Swish激活函數(shù)的優(yōu)勢(shì),在網(wǎng)絡(luò)不同深度使用不同的激活函數(shù)以兼顧網(wǎng)絡(luò)的訓(xùn)練速度和識(shí)別精度,添加了標(biāo)簽平滑機(jī)制并對(duì)時(shí)頻圖進(jìn)行CutMix數(shù)據(jù)增強(qiáng),防止網(wǎng)絡(luò)產(chǎn)生過(guò)擬合,能夠?qū)?種不同調(diào)制信號(hào)進(jìn)行有效識(shí)別,整體平均識(shí)別率達(dá)到了99.25%。

      1 雷達(dá)輻射源信號(hào)處理

      1.1 Choi-Williams分布

      時(shí)頻分析方法結(jié)合分析非平穩(wěn)信號(hào)的時(shí)域和頻域兩個(gè)維度,可以直接反映信號(hào)在這兩個(gè)維度的映射關(guān)系,從而得到信號(hào)的相關(guān)調(diào)制信息,能夠更加直觀地分析和處理信號(hào)。Choi-Williams分布(Choi-Williams Distribution,CWD)[3]是一種典型的二次型時(shí)頻分布,可以有效抑制交叉項(xiàng),也能保持良好的時(shí)頻分辨率。

      本文采用CWD對(duì)輻射源信號(hào)進(jìn)行時(shí)頻變換獲取時(shí)頻圖,其核函數(shù)是指數(shù)核函數(shù),即

      (1)

      式中:v表示頻偏;τ表示時(shí)移。由核函數(shù)得到CWD的數(shù)學(xué)表達(dá)式為

      (2)

      式中:t表示時(shí)間變量;ω表示角頻率變量;s(u)表示時(shí)間信號(hào);*表示復(fù)數(shù)共軛;σ表示衰減系數(shù),通常設(shè)置σ∈[0.1,10],選擇合適的數(shù)值能夠增強(qiáng)時(shí)頻性能。

      1.2 CutMix數(shù)據(jù)增強(qiáng)學(xué)習(xí)

      CutMix[4]是一種數(shù)據(jù)增強(qiáng)策略,具體做法是通過(guò)對(duì)訓(xùn)練圖像A進(jìn)行剪切和粘貼補(bǔ)丁,將一部分區(qū)域剪切但不像Cutout[5]方法填充0像素,而是隨機(jī)選擇訓(xùn)練集中的另一張B圖像,并以B圖像的區(qū)域像素值對(duì)A圖剪裁區(qū)域進(jìn)行填充,其中真實(shí)標(biāo)簽的混合與補(bǔ)丁的面積成正比,即兩個(gè)樣本隨機(jī)加權(quán)求和,樣本的標(biāo)簽對(duì)應(yīng)加權(quán)求和。

      圖1所示為CutMix方法處理效果。

      (a)處理前

      在對(duì)圖像做歸一化處理以后,在訓(xùn)練集中抽選出的一張調(diào)制方式為P2的CWD時(shí)頻圖a,其未經(jīng)過(guò)CutMix方法處理,然后隨機(jī)選取樣本中另一張圖像截取對(duì)應(yīng)的剪裁區(qū)域?qū)圖剪裁區(qū)域進(jìn)行填充得到b圖,隨機(jī)選取的是一張調(diào)制方式為2FSK的圖像,可以明顯看出b圖中的“補(bǔ)丁”,使用該方法時(shí)“補(bǔ)丁”面積大小隨機(jī)生成。

      該方法對(duì)比于其他數(shù)據(jù)增強(qiáng)方法如Cutout和Mixup training[6],Cutmix相當(dāng)于更換某個(gè)零件,模型更容易區(qū)分樣本中的異類,能夠增強(qiáng)網(wǎng)絡(luò)學(xué)習(xí)局部特征從而增強(qiáng)模型泛化能力,提高訓(xùn)練效率,并且能夠保持訓(xùn)練代價(jià)不變。

      2 基于EfficientNet的改進(jìn)

      2.1 基礎(chǔ)網(wǎng)絡(luò)EfficientNetB0網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)通常通過(guò)增加深度、寬度和圖像分辨率中的一個(gè)來(lái)獲得更高的精度,然而這一般也意味這消耗更多資源。EfficientNet提出了一種原則性的復(fù)合縮放方法即使用一組固定的縮放系數(shù)來(lái)均勻地縮放網(wǎng)絡(luò)的寬度、深度和分辨率來(lái)擴(kuò)大網(wǎng)絡(luò)的規(guī)模,使用一個(gè)新的baseline網(wǎng)絡(luò)并擴(kuò)展獲得EfficientNetB0-B7系列網(wǎng)絡(luò),最簡(jiǎn)單的B0網(wǎng)絡(luò)的識(shí)別效果在ImageNet數(shù)據(jù)集上也超過(guò)了ResNet50、InceptionV2等網(wǎng)絡(luò),在5個(gè)常用的傳輸學(xué)習(xí)數(shù)據(jù)集上達(dá)到了最先進(jìn)的精度,并且網(wǎng)絡(luò)的參數(shù)擁有數(shù)量級(jí)的減少。EfficientNet-B0為基線網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

      表1 EfficientNet-B0基線網(wǎng)絡(luò)結(jié)構(gòu)

      EfficientNet-B0的網(wǎng)絡(luò)結(jié)構(gòu)分為9個(gè)階段,第一個(gè)階段為3×3的普通卷積,步長(zhǎng)為2,連接批量歸一化(Batch Normalization,BN)層和Swish激活函數(shù);第2~8個(gè)階段都是移動(dòng)倒置瓶頸卷積(Mobile inverted Bottleneck Convolution,MBConv),在每個(gè)階段該模塊重復(fù)的次數(shù)對(duì)應(yīng)層數(shù)Li;最后一個(gè)階段為1×1卷積、全局平均池化和全連接層可添加Softmax激活函數(shù)進(jìn)行分類。

      原MBConv模塊是EfficientNet的核心模塊,該模塊來(lái)源于MobileNetV2[7]中的移動(dòng)倒置瓶頸模塊,并添加了壓縮和激勵(lì)模塊[8]進(jìn)行優(yōu)化,激活函數(shù)選擇Swish,其結(jié)構(gòu)如圖2所示。

      圖2 MBConv結(jié)構(gòu)

      2.2 卷積注意力模塊

      SE模塊在應(yīng)用中通過(guò)對(duì)卷積中的特征圖進(jìn)行處理,只對(duì)卷積中不同的通道進(jìn)行關(guān)注,相比之下,卷積注意力模塊(Convolutional Block Attention Module,CBAM)[9]依次應(yīng)用了通道注意力模塊(Channel Attention Module,CAM)和空間注意力模塊(Spatial Attention Module,SAM),通過(guò)給予需要強(qiáng)調(diào)或抑制的信息不同權(quán)重有助于網(wǎng)絡(luò)內(nèi)的信息流動(dòng),在卷積中有更好的效果,其中CAM和SAM結(jié)構(gòu)如圖3和圖4所示。CAM模塊生成的通道注意力和輸入的特征圖相乘得到的特征圖將作為SAM模塊的輸入,SAM模塊輸出的空間注意力和該模塊輸入的特征圖做乘操作,從而得到最終的特征圖。

      圖3 CAM結(jié)構(gòu)

      圖4 SAM結(jié)構(gòu)

      2.3 h-Swish激活函數(shù)

      在EfficientNet原始網(wǎng)絡(luò)中,網(wǎng)絡(luò)第1個(gè)和第9個(gè)卷積模塊以及網(wǎng)絡(luò)2~8模塊對(duì)應(yīng)的MBConv結(jié)構(gòu)中使用的都是Swish激活函數(shù)[10]。Swish激活函數(shù)在深度神經(jīng)網(wǎng)絡(luò)中的效果比ReLU激活函數(shù)好,但是計(jì)算時(shí)間更慢,其函數(shù)的表達(dá)式如下:

      f(x)=x·sigmoid(βx)。

      (3)

      公式(3)中的β是可訓(xùn)練的參數(shù)。Swish激活函數(shù)無(wú)上界、有下界、平滑、非單調(diào),可以豐富神經(jīng)網(wǎng)絡(luò)層的表現(xiàn)能力,但該激活函數(shù)計(jì)算量比較大,計(jì)算和求導(dǎo)時(shí)間復(fù)雜。

      相比于Swish激活函數(shù),h-Swish激活函數(shù)求導(dǎo)過(guò)程更加簡(jiǎn)單,在效果影響不大的情況下能夠使計(jì)算量大大降低。h-Swish激活函數(shù)其實(shí)就是來(lái)自h-Sigmoid激活函數(shù),該函數(shù)的表達(dá)式如下:

      f(x)=x·ReLU6(x+3)/6。

      (4)

      式中:

      ReLU6=min(ReLU,6)。

      (5)

      在MobileNetV3[11]中,Swish的大多數(shù)好處是在更深的層實(shí)現(xiàn)的,因此只在網(wǎng)絡(luò)的后半部分采用了h-Swish激活函數(shù)。

      2.4 改進(jìn)的EfficientNet網(wǎng)絡(luò)

      首先,對(duì)EfficientNet-B0網(wǎng)絡(luò)中的MBConv模塊進(jìn)行改進(jìn),用CBAM模塊將網(wǎng)絡(luò)中的原MBConv模塊中的SE模塊替換,使網(wǎng)絡(luò)同時(shí)關(guān)注兩個(gè)維度上的特征信息,抑制不重要的特征信息,加強(qiáng)對(duì)圖像深層特征的提取得到改進(jìn)的MBConv模塊。改進(jìn)后的結(jié)構(gòu)如圖5所示。

      圖5 改進(jìn)的MBConv結(jié)構(gòu)

      改進(jìn)的MBConv包含CBAM模塊,CBAM模塊的輸入是深度卷積后得到的特征圖,其中的通道注意力和空間注意力由圖3和圖4所示的CAM、SAM結(jié)構(gòu)輸出得到;分別關(guān)注卷積中的通道和空間信息,輸出的新特征圖經(jīng)過(guò)卷積后若形狀不變則添加短連接并使用DropOut正則化,針對(duì)原始EfficientNet-B0網(wǎng)絡(luò),替換階段2~8的所有MBConv模塊,保持網(wǎng)絡(luò)的其他結(jié)構(gòu)不變。

      其次,考慮到隨著網(wǎng)絡(luò)的加深,特征圖分辨率減小,為了減弱應(yīng)用非線性函數(shù)的成本,兼顧不同激活函數(shù)對(duì)于識(shí)別效果和識(shí)別速度的影響,而且h-Swish激活函數(shù)計(jì)算量小于Swish激活函數(shù),在深層表現(xiàn)明顯,可以彌補(bǔ)只用ReLU產(chǎn)生的精度損失,在網(wǎng)絡(luò)前端選擇采用ReLU,在網(wǎng)絡(luò)后端采用h-Swish,通過(guò)在不同位置選擇不同的激活函數(shù)得到多種組合,進(jìn)行實(shí)驗(yàn)和分析以后選擇綜合效果最好的一組。

      通過(guò)改進(jìn)MBConv模塊和調(diào)整網(wǎng)絡(luò)的激活函數(shù)得到了改進(jìn)后的EfficientNet網(wǎng)絡(luò)。

      2.5 標(biāo)簽平滑機(jī)制

      標(biāo)簽平滑[12](Label Smoothing)是一種正則化方法,主要用于分類問(wèn)題,作用是擾動(dòng)目標(biāo)變量,防止網(wǎng)絡(luò)太過(guò)于相信真實(shí)標(biāo)簽即網(wǎng)絡(luò)過(guò)度自信,可以將正確類的概率值更接近其他類的概率值,能夠改善模型的泛化能力,其公式如下:

      (6)

      (7)

      式中:ce(x)表示x的標(biāo)準(zhǔn)交叉熵?fù)p失,例如-lb(p(x));i是正確的類;N是類的數(shù)量。標(biāo)簽平滑鼓勵(lì)網(wǎng)絡(luò)的輸出接近帶權(quán)重比例的正確類,同時(shí)讓輸出與不正確的帶權(quán)重比例的錯(cuò)誤類保持等距。

      2.6 基于改進(jìn)EfficientNet的信號(hào)調(diào)制方式識(shí)別流程

      Step1 建立改進(jìn)后的EfficientNet網(wǎng)絡(luò)。

      Step2 獲取信號(hào)時(shí)頻圖像并進(jìn)行預(yù)處理:對(duì)雷達(dá)信號(hào)的仿真數(shù)據(jù)進(jìn)行CWD變換得到時(shí)頻圖像,用雙線性插值法將圖像大小設(shè)置為224×224,對(duì)圖像進(jìn)行歸一化處理,將其像素范圍壓縮至[0,1],處理后時(shí)頻圖像的維度將變?yōu)閇224,224,3]。

      Step3 為時(shí)頻圖像添加標(biāo)簽,把標(biāo)簽轉(zhuǎn)換為one-hot編碼形式。

      Step4 數(shù)據(jù)集制作:將時(shí)頻圖像與標(biāo)簽一起組成數(shù)據(jù)集,將生成的數(shù)據(jù)集按照6∶2∶2的比例分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。對(duì)訓(xùn)練樣本圖像做CutMix增強(qiáng)處理,對(duì)樣本標(biāo)簽做標(biāo)簽平滑處理。訓(xùn)練集用于訓(xùn)練網(wǎng)絡(luò)、優(yōu)化參數(shù);驗(yàn)證集在訓(xùn)練集迭代訓(xùn)練時(shí)驗(yàn)證模型的泛化能力,以此來(lái)調(diào)整訓(xùn)練選擇的各項(xiàng)參數(shù);測(cè)試集用來(lái)評(píng)估模型最終的泛化能力即模型識(shí)別能力。

      Step5 模型訓(xùn)練:將訓(xùn)練樣本輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練。

      Step6 信號(hào)識(shí)別:加載模型參數(shù),輸入測(cè)試集的樣本,對(duì)信號(hào)調(diào)制方式進(jìn)行識(shí)別預(yù)測(cè)。

      3 實(shí)驗(yàn)和分析

      3.1 實(shí)驗(yàn)環(huán)境

      本文實(shí)驗(yàn)遠(yuǎn)程連接服務(wù)器進(jìn)行訓(xùn)練,服務(wù)器的操作系統(tǒng)為Ubuntu20.04.1,GPU的型號(hào)為NVIDIA Tesla V100,顯存16 GB。實(shí)驗(yàn)使用python3.6編程語(yǔ)言,選擇深度學(xué)習(xí)模型框架tensorflow2.0.0-gpu。

      3.2 數(shù)據(jù)集

      本文按照不同調(diào)制信號(hào)的信號(hào)模型并參考文獻(xiàn)[13]的參數(shù)設(shè)置,使用Matlab生成了雷達(dá)輻射源信號(hào)的9種不同脈內(nèi)調(diào)制方式(2FSK、4FSK、2PSK、4PSK、LFM、P1、P2、P3、P4)的數(shù)據(jù)集,實(shí)驗(yàn)數(shù)據(jù)集的結(jié)構(gòu)組成如下:

      樣本長(zhǎng)度:時(shí)域信號(hào)為2 048個(gè)采樣點(diǎn);

      信號(hào)形式為CWD時(shí)頻圖;

      信號(hào)維度為[224,224,3];

      信噪比范圍為-10~8 dB,間隔步長(zhǎng)2 dB;

      單一信噪比單一調(diào)制類型的樣本個(gè)數(shù)為1 024個(gè)。

      3.3 網(wǎng)絡(luò)訓(xùn)練

      針對(duì)本文數(shù)據(jù)集,設(shè)置網(wǎng)絡(luò)訓(xùn)練各項(xiàng)參數(shù),batchsize設(shè)置為32,損失函數(shù)選擇交叉熵?fù)p失函數(shù),優(yōu)化器選擇Adam,因網(wǎng)絡(luò)收斂快,總的訓(xùn)練輪數(shù)設(shè)置為50輪次,驗(yàn)證頻率設(shè)置為1,每訓(xùn)練一輪驗(yàn)證模型一次。初始學(xué)習(xí)率設(shè)置為1×10-3,并設(shè)置學(xué)習(xí)率下降機(jī)制,若驗(yàn)證集損失保持3輪不下降則縮小學(xué)習(xí)率為原來(lái)的一半。為節(jié)省時(shí)間,防止網(wǎng)絡(luò)過(guò)擬合,設(shè)置早停機(jī)制,當(dāng)驗(yàn)證集的損失在訓(xùn)練5輪沒(méi)有下降時(shí)認(rèn)為網(wǎng)絡(luò)收斂則結(jié)束訓(xùn)練,保存模型的最優(yōu)參數(shù)。

      3.4 實(shí)驗(yàn)結(jié)果和分析

      實(shí)驗(yàn)1為了探究用CBAM注意力機(jī)制改進(jìn)模型的效果,對(duì)比分析采用CBAM改進(jìn)后的EfficientNet-B0網(wǎng)絡(luò)和原始EfficientNet-B0網(wǎng)絡(luò)的識(shí)別效果,輸入數(shù)據(jù)不采用CutMix數(shù)據(jù)增強(qiáng),樣本標(biāo)簽都不使用標(biāo)簽平滑只是將其變換為one-hot編碼,用不同信噪比的所有調(diào)制類型的數(shù)據(jù)進(jìn)行測(cè)試,兩種模型的識(shí)別效果如圖6所示。

      圖6 改進(jìn)前后網(wǎng)絡(luò)性能對(duì)比

      由圖6可知,兩個(gè)模型在信噪比高于0 dB時(shí)識(shí)別準(zhǔn)確率都能夠達(dá)到100%。這是因?yàn)樾旁氡容^高時(shí),圖像特征信息強(qiáng),不同調(diào)制信號(hào)的時(shí)頻圖差別大,更加容易提取特征進(jìn)行識(shí)別。改進(jìn)后的EfficientNet-B0網(wǎng)絡(luò)在信噪比-8 dB時(shí)識(shí)別準(zhǔn)確率達(dá)到了96.40%,明顯高于原始MBConv模塊組成的網(wǎng)絡(luò),說(shuō)明本文改進(jìn)的模型有更好的識(shí)別能力。

      激活函數(shù)作為CNN的重要單元,能夠給網(wǎng)絡(luò)帶來(lái)非線性的特征,激活函數(shù)的大量使用對(duì)模型效果影響較大。實(shí)驗(yàn)2為了選擇適合的激活函數(shù),進(jìn)行不同組合和實(shí)驗(yàn),其中的1~9階段如表1所示對(duì)應(yīng)改進(jìn)型EfficientNet-B0的網(wǎng)絡(luò)結(jié)構(gòu),其中的MBConv模塊都添加了CBAM后的改進(jìn)模塊,根據(jù)激活函數(shù)的特點(diǎn),固定第一層卷積層使用ReLU,最后一層卷積層使用h-Swish,通過(guò)改變2~8階段所有MBConv模塊使用的激活函數(shù),得到8個(gè)不同組合,網(wǎng)絡(luò)原始的激活函數(shù)全部都是Swish,組合0就是用沒(méi)有改變激活函數(shù)的改進(jìn)型網(wǎng)絡(luò),激活函數(shù)應(yīng)用于對(duì)應(yīng)的整個(gè)階段i,在卷積層和BN層以后使用,對(duì)8個(gè)不同組合所對(duì)應(yīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,然后對(duì)測(cè)試集進(jìn)行測(cè)試。每個(gè)組合使用的激活函數(shù)以及測(cè)試結(jié)果可掃描本文OSID碼查看。

      由實(shí)驗(yàn)結(jié)果可知,使用h-Swish激活函數(shù)能夠保持網(wǎng)絡(luò)的識(shí)別精度但比Swish計(jì)算更快,使用ReLU激活函數(shù)能夠加快網(wǎng)絡(luò)訓(xùn)練速度,但是一定程度上會(huì)帶來(lái)精度損失。組合4網(wǎng)絡(luò)在第5階段之后才使用h-Swish激活函數(shù),此時(shí)特征圖大小為14×14,應(yīng)用非線性函數(shù)的成本減弱,對(duì)比于ReLU提高了網(wǎng)絡(luò)精度。實(shí)驗(yàn)結(jié)果表明,組合4網(wǎng)絡(luò)對(duì)比于僅用CBAM改進(jìn)后的網(wǎng)絡(luò)能夠保持識(shí)別精度并且很大程度上加快了網(wǎng)絡(luò)的訓(xùn)練速度,因此選擇組合4對(duì)應(yīng)的網(wǎng)絡(luò)作為本文最終的改進(jìn)EfficientNet模型。

      模型改進(jìn)前后的參數(shù)和識(shí)別準(zhǔn)確率如表2所示。由表2可知,改進(jìn)后的網(wǎng)絡(luò)參數(shù)增加很少,這是因?yàn)橐肓薈BAM模塊帶了少量的參數(shù)增加。改進(jìn)后的模型在不斷訓(xùn)練時(shí)能夠同時(shí)關(guān)注通道和空間兩個(gè)維度上的特征信息,訓(xùn)練速度比原始MBConv組成的B0網(wǎng)絡(luò)略慢,但是識(shí)別效果提升顯著,在-10 dB時(shí),改進(jìn)后的網(wǎng)絡(luò)識(shí)別準(zhǔn)確率提高了7.97%;通過(guò)改變網(wǎng)絡(luò)的激活函數(shù),與單獨(dú)改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)相比網(wǎng)絡(luò)訓(xùn)練速度加快62 ms/step,訓(xùn)練效率提升了23.7%,在一輪迭代訓(xùn)練中,可以減少107.1 s時(shí)間,并且不會(huì)影響識(shí)別準(zhǔn)確率,證明通過(guò)改變激活函數(shù),網(wǎng)絡(luò)得到了有效的改進(jìn)。

      表2 改進(jìn)前后模型的對(duì)比

      實(shí)驗(yàn)3為了進(jìn)一步了解標(biāo)簽平滑機(jī)制、CutMix數(shù)據(jù)增強(qiáng)對(duì)對(duì)模型泛化能力的影響,以測(cè)試集的正確率和損失為評(píng)價(jià)標(biāo)準(zhǔn)進(jìn)行多次消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示。由表3可知,模型在添加了標(biāo)簽平滑機(jī)制和使用CutMix數(shù)據(jù)增強(qiáng)以后,識(shí)別準(zhǔn)確率都得到了提高,加入了標(biāo)簽平滑機(jī)制以后識(shí)別率提升了0.2%,加入了CutMix數(shù)據(jù)增強(qiáng)識(shí)別準(zhǔn)確率提升了0.54%,同時(shí)加入兩種方法識(shí)別率提升了0.62%,最終整體的識(shí)別率達(dá)到了99.25%。

      表3 不同方法對(duì)模型識(shí)別率的影響

      為進(jìn)一步分析模型的識(shí)別效果,利用訓(xùn)練保存的最終模型在信噪比-10 dB的測(cè)試集進(jìn)行測(cè)試識(shí)別,識(shí)別率達(dá)到了94.24%,其混淆矩陣如圖7所示,可以看出識(shí)別錯(cuò)誤主要發(fā)生在多相碼調(diào)制類型中,特別是P1和P4碼;P1、P2碼信號(hào)是對(duì)線性調(diào)頻波形的階梯型近似,當(dāng)信噪比降低時(shí)時(shí)頻圖像中的階梯型特征會(huì)逐漸消失,因此會(huì)影響識(shí)別效果。

      圖7 -10 dB條件模型識(shí)別結(jié)果混淆矩陣

      實(shí)驗(yàn)4為了驗(yàn)證本文提出的改進(jìn)EfficientNet網(wǎng)絡(luò)模型性能,選取了在圖像分類識(shí)別中常用的網(wǎng)絡(luò)模型AlexNet、InceptionV3、SE-Resnet50、DenseNet121、VGG19進(jìn)行對(duì)比,除InceptionV3網(wǎng)絡(luò)數(shù)據(jù)輸入大小為299×299外,其余網(wǎng)絡(luò)輸入均為224×224。數(shù)據(jù)集預(yù)處理和訓(xùn)練設(shè)置相同,用混合信噪比的數(shù)據(jù)進(jìn)行測(cè)試,測(cè)試結(jié)果如表4所示。

      表4 網(wǎng)絡(luò)對(duì)比

      表4中顯示了各個(gè)網(wǎng)絡(luò)空間復(fù)雜度和模型識(shí)別準(zhǔn)確率的對(duì)比,網(wǎng)絡(luò)的空間復(fù)雜度一般指模型的參數(shù)數(shù)量,體現(xiàn)為模型本身的體積,模型參數(shù)越多,訓(xùn)練該模型時(shí)就需要更多的數(shù)據(jù)。本文構(gòu)建的改進(jìn)EfficientNet網(wǎng)絡(luò)模型空間復(fù)雜度很小,模型參數(shù)量相比于其他網(wǎng)絡(luò)呈倍數(shù)減少;VGG19的參數(shù)量達(dá)到了改進(jìn)EfficientNet的31倍之多,所選取的6個(gè)網(wǎng)絡(luò)的整體準(zhǔn)確率都達(dá)到了96%以上。這是由于本文構(gòu)建的數(shù)據(jù)集數(shù)量充足,參數(shù)量大的模型擁有足夠的數(shù)據(jù)進(jìn)行訓(xùn)練,并且進(jìn)行了數(shù)據(jù)增強(qiáng),識(shí)別性能有所提高。相比于SE-Resnet50,改進(jìn)EfficientNet參數(shù)約為SE-Resnet50的1/4,SE-Resnet50的識(shí)別準(zhǔn)確率也達(dá)到98.47%,是因?yàn)樵赗esnet50的基礎(chǔ)上添加了SE模塊,殘差連接和通道注意力增強(qiáng)了模型的泛化能力??偟膩?lái)說(shuō),本文改進(jìn)EfficientNet模型參數(shù)更少,識(shí)別準(zhǔn)確率也更高,能夠更好地識(shí)別雷達(dá)輻射源信號(hào)。

      實(shí)驗(yàn)5對(duì)本文提出的方法和其他識(shí)別雷達(dá)信號(hào)的深度學(xué)習(xí)方法進(jìn)行了比較,選取了近兩年來(lái)的文獻(xiàn)采用的識(shí)別方法。文獻(xiàn)[14]構(gòu)建了改進(jìn)型AlexNet網(wǎng)絡(luò),調(diào)整了卷積核的大小和全連接層的節(jié)點(diǎn)數(shù),網(wǎng)絡(luò)參數(shù)量相比于原始AlexNet網(wǎng)絡(luò)有所減少,但同樣較多達(dá)到了3.365×107;文獻(xiàn)[15]構(gòu)建了擴(kuò)張殘差網(wǎng)絡(luò)DRN,減少了原始?xì)埐罹W(wǎng)絡(luò)的每一組卷積的通道數(shù),但設(shè)置每層的殘差單元數(shù)只為1,網(wǎng)絡(luò)層數(shù)較少,因此參數(shù)量為1.24×106;文獻(xiàn)[16]構(gòu)建了SE-ResNeXt網(wǎng)絡(luò),在殘差結(jié)構(gòu)中用分組卷積替換分支結(jié)構(gòu),同時(shí)添加了SE模塊,并對(duì)每層的殘差單元數(shù)進(jìn)行調(diào)整,參數(shù)量達(dá)到了3.951×107。三篇文獻(xiàn)中都使用了CWD時(shí)頻分析方法,網(wǎng)絡(luò)最后都使用Softmax分類器輸出。在相同實(shí)驗(yàn)條件下進(jìn)行訓(xùn)練,圖8顯示了三篇文獻(xiàn)中的方法和本文方法對(duì)9類雷達(dá)輻射源信號(hào)在不同信噪比條件下的識(shí)別準(zhǔn)確率。

      如圖8所示,四種方法在信噪比大于-4 dB時(shí)識(shí)別準(zhǔn)確率都到了98%,但是隨著信噪比的降低,文獻(xiàn)[14]和文獻(xiàn)[15]的識(shí)別效果降低較多,特別是文獻(xiàn)[15]識(shí)別效果最差。因?yàn)槠淠P虳NR雖然參數(shù)量較少,但是模型設(shè)計(jì)過(guò)于簡(jiǎn)單,僅包含9個(gè)卷積層,特征提取能力低于其他三個(gè)模型,總體識(shí)別率也最低。本文提出的方法識(shí)別效果好于其他三種方法,在信噪比-10 dB時(shí),對(duì)9種調(diào)制信號(hào)的綜合識(shí)別率達(dá)到了94.24%,比文獻(xiàn)[14]和文獻(xiàn)[15]的方法分別高出了7.65%和9.59%。文獻(xiàn)[16]提出的方法識(shí)別效果略低于本文方法,體現(xiàn)了SE-ResNeXt網(wǎng)絡(luò)在低信噪比條件下同樣可以有效識(shí)別雷達(dá)信號(hào),但是網(wǎng)絡(luò)參數(shù)多,達(dá)到了本文模型參數(shù)的8.9倍。總體來(lái)說(shuō),對(duì)雷達(dá)輻射源信號(hào)調(diào)制方式進(jìn)行識(shí)別中,本文提出的方法相比于其他深度學(xué)習(xí)方法參數(shù)量少,識(shí)別效果好,具有一定的優(yōu)越性。

      4 結(jié)束語(yǔ)

      本文針對(duì)雷達(dá)信號(hào)調(diào)制方式的在低信噪比條件下的識(shí)別問(wèn)題,搭建了基于EfficientNet的改進(jìn)網(wǎng)絡(luò)模型,使用卷積注意力模塊改進(jìn)模型加強(qiáng)模型對(duì)雷達(dá)信號(hào)時(shí)頻圖的通道、空間有用特征的關(guān)注,通過(guò)對(duì)非線性激活函數(shù)的效果分析優(yōu)化網(wǎng)絡(luò)訓(xùn)練,采用CWD分布進(jìn)行時(shí)頻分析,對(duì)得到的時(shí)頻圖做CutMix數(shù)據(jù)增強(qiáng)處理以增強(qiáng)模型對(duì)困難樣本的識(shí)別能力。經(jīng)實(shí)驗(yàn)證實(shí),本文提出的方法網(wǎng)絡(luò)空間復(fù)雜度低,參數(shù)量大大低于經(jīng)典圖像識(shí)別網(wǎng)絡(luò),與現(xiàn)有的利用深度學(xué)習(xí)的方法相比,在低信噪比條件下對(duì)信號(hào)的多種調(diào)制方式具有更高的識(shí)別準(zhǔn)確率。在模型的時(shí)間復(fù)雜度的優(yōu)化方面,還可以繼續(xù)研究。

      猜你喜歡
      時(shí)頻信噪比卷積
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      基于深度學(xué)習(xí)的無(wú)人機(jī)數(shù)據(jù)鏈信噪比估計(jì)算法
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      低信噪比下LFMCW信號(hào)調(diào)頻參數(shù)估計(jì)
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
      保持信噪比的相位分解反褶積方法研究
      基于時(shí)頻分析的逆合成孔徑雷達(dá)成像技術(shù)
      對(duì)采樣數(shù)據(jù)序列進(jìn)行時(shí)頻分解法的改進(jìn)
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
      城口县| 郑州市| 祁东县| 广灵县| 进贤县| 西和县| 家居| 阿荣旗| 常宁市| 黑山县| 平远县| 周宁县| 台州市| 丹棱县| 新巴尔虎左旗| 石城县| 远安县| 舞阳县| 瓦房店市| 松潘县| 怀宁县| 徐州市| 柳江县| 柳州市| 南岸区| 新干县| 乌苏市| 正镶白旗| 浪卡子县| 溆浦县| 平乡县| 宁陕县| 景德镇市| 河东区| 许昌县| 琼海市| 宜兰市| 临湘市| 丰原市| 建瓯市| 赤壁市|