• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于DropBlock 雙模態(tài)混合神經(jīng)網(wǎng)絡(luò)的無線通信調(diào)制識別

      2022-07-12 10:42:48高巖石堅馬圣雨馬柏林樂光學(xué)
      電信科學(xué) 2022年5期
      關(guān)鍵詞:正則信噪比準(zhǔn)確率

      高巖,石堅,,馬圣雨,,馬柏林,樂光學(xué)

      (1. 河南理工大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院,河南 焦作 454003;2. 嘉興學(xué)院信息科學(xué)與工程學(xué)院,浙江 嘉興 314000;3. 嘉興學(xué)院數(shù)據(jù)科學(xué)學(xué)院,浙江 嘉興 314000)

      0 引言

      現(xiàn)代無線通信中的自動調(diào)制識別已被廣泛應(yīng)用于商業(yè)和軍事領(lǐng)域[1-4],調(diào)制識別算法通常分為似然估計、特征估計和深度學(xué)習(xí)?;谒迫还烙嫷淖R別算法利用似然函數(shù)進(jìn)行決策實現(xiàn)信號的分類[5-6];基于特征估計的識別方法[7-8]將調(diào)制特性與理論特征進(jìn)行比較。這兩種方法存在需要先驗概率信息、對信噪比要求高[9]、識別類型少以及魯棒性差等缺點。隨著人工智能技術(shù)的發(fā)展,深度學(xué)習(xí)為無線通信信號調(diào)制識別提供了一種有效途徑[10],深度神經(jīng)網(wǎng)絡(luò)通常在過度參數(shù)化、訓(xùn)練大量噪聲和正則化時表現(xiàn)良好,成為該領(lǐng)域的研究熱點。文獻(xiàn)[11]研究卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于調(diào)制識別領(lǐng)域,其調(diào)制識別類型達(dá)到11 種,實現(xiàn)低信噪比的高精度識別。文獻(xiàn)[12]基于ResNet 模型對24 種調(diào)制信號進(jìn)行識別,精度有大幅提高。文獻(xiàn)[13]提出了一種結(jié)構(gòu)化DropBlock,通過全連接層正則化和卷積層中激活單元在空間上相關(guān)性,抑制卷積層特征信息丟失問題,實現(xiàn)對未被丟棄的特征圖歸一化和卷積層的正則化。

      為解決無線通信調(diào)制識別精度低的問題,提出了一種改進(jìn)的雙模態(tài)混合神經(jīng)網(wǎng)絡(luò)(bimodal hybrid neural network,BHNN)模型,該模型由殘差網(wǎng)絡(luò)(residual network,ResNet)和雙向門控循環(huán)單元神經(jīng)網(wǎng)絡(luò)(bidirectional gated recurrent unit,BiGRU)構(gòu)成。ResNet 因為網(wǎng)絡(luò)層數(shù)多,模型復(fù)雜度高,訓(xùn)練時往往容易出現(xiàn)梯度消失與梯度爆炸等問題,因此本文在BHNN 架構(gòu)中引入DropBlock 正則化,希望通過正則化提高網(wǎng)絡(luò)的泛化能力,并允許對采集的信號進(jìn)行輕微的干擾。

      通過在公開數(shù)據(jù)集RadioML2016.10a[14]和RadioML2016.10b[11]上的仿真實驗,驗證了所提出的基于DropBlock 正則化的BHNN 模型的自動調(diào)制識別方法。

      1 模型設(shè)計

      1.1 網(wǎng)絡(luò)模型結(jié)構(gòu)

      1.1.1 ResNet 模型

      BHNN 模型中第一個分支為ResNet。殘差網(wǎng)絡(luò)可以構(gòu)建更深層次的網(wǎng)絡(luò),解決深度網(wǎng)絡(luò)中精度下降的問題,其中大量使用跳躍連接概念,允許特征在網(wǎng)絡(luò)的多個尺度和深度運(yùn)行。殘差單元(Residual unit)與殘差塊(Residual stack)結(jié)構(gòu)如圖1 所示。

      本文使用殘差塊提取特征,每個殘差塊包含一個卷積層、兩個殘差單元和一個最大池化層。殘差單元中使用濾波器大小為5 的一維卷積,ReLU 作為激活函數(shù),并采用填充操作使得輸入卷積層的張量大小與卷積后大小相同。每個卷積層后添加DropBlock 正則化層以防止過擬合,再將殘差單元的輸入與最后一個DropBlock 層的輸出相加形成跳躍連接。ResNet 的模型結(jié)構(gòu)見表1。

      表1 ResNet 的模型結(jié)構(gòu)

      1.1.2 BiGRU 模型

      為使每個循環(huán)單元可以自適應(yīng)地捕捉不同時間尺度的依賴性,文獻(xiàn)[15]提出了由復(fù)位門和更新門組成的GRU 模型,與長短期記憶(long short-term memory,LSTM)循環(huán)神經(jīng)網(wǎng)絡(luò)相比,結(jié)構(gòu)簡單,計算量少,更容易收斂。其中,更新門控制前一時刻隱藏層對當(dāng)前隱藏層的影響程度,更新門值的大小正比影響當(dāng)前隱藏狀態(tài);復(fù)位門控制先前隱藏層信息被忽略程度,復(fù)位門值越小,忽略的越多。GRU[15]模型的更新方式如下:

      其中,r j和zj分別表示j時刻的復(fù)位門和更新門,σ(?)表示sigmoid 函數(shù),[?]j代表向量的第j個元素,x是輸入,Wr和Ur為權(quán)重矩陣。hj和h~j分別代表j時刻的激活狀態(tài)與候選激活狀態(tài)。

      隱藏單元通過單獨的復(fù)位門和更新門學(xué)習(xí)捕獲不同時間尺度上的依賴關(guān)系,學(xué)習(xí)捕捉長期與短期依賴關(guān)系的單元分別具有經(jīng)常處于活動狀態(tài)的更新門與復(fù)位門。

      BHNN 中的另一個分支為BiGRU 模型,BiGRU 模型網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。BiGRU 利用了兩個方向的信息流,其基本單元由一個前向傳播的GRU 單元與一個反向傳播的GRU 單元組成,n個成對的GRU 單元構(gòu)成BiGRU 模型。任一時刻的輸出會同時提供兩個方向相反的GRU單元,這兩個單元共同決定了輸出,這種設(shè)計有利于提取深層特征。BiGRU 模型結(jié)構(gòu)見表2。

      圖2 BiGRU 模型網(wǎng)絡(luò)結(jié)構(gòu)[15]

      表2 BiGRU 模型結(jié)構(gòu)[15]

      1.1.3 雙模態(tài)混合神經(jīng)網(wǎng)絡(luò)

      采用多模態(tài)融合的方式關(guān)聯(lián)數(shù)據(jù)特征,其特征表示比單一模態(tài)表示更具鑒別性,且有助于提高模型的魯棒性,使模型在某些模態(tài)缺失時仍能有效工作,已成為調(diào)制識別的有效方法之一。文獻(xiàn)[16]使用信號的3 種模態(tài),分別輸入ResNet 模型中,使得不同模態(tài)數(shù)據(jù)包含的豐富信息可以相互補(bǔ)充[16],但是ResNet 忽略了信息在序列中的傳遞,會導(dǎo)致較早時間步長信息的丟失。為解決這一問題,將同相和正交(in-phase and quadrature,IQ)分量與信號的極坐標(biāo)形式兩種模態(tài)并行輸入所構(gòu)建的BHNN 模型,通過ResNet 與BiGRU 分別提取信號的空間特征和時序特征,使得較早時間步長的信息傳遞下去。BHNN 模型總體框架如圖3 所示。

      圖3 BHNN 模型總體框架

      ResNet 模型可以避免梯度消失和梯度爆炸,BiGRU 模型能夠減少過擬合的發(fā)生。文獻(xiàn)[17]中提出,在循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中使用極坐標(biāo)形式表示的輸入數(shù)據(jù)可以為QAM 調(diào)制類型帶來更優(yōu)異的分類性能,因此BiGRU 以極坐標(biāo)形式接收輸入樣本,而非ResNet 結(jié)構(gòu)所使用的矩形形式。

      文獻(xiàn)[18]對IQ 數(shù)據(jù)表示為:

      其中,A表示幅值,φ表示相位。極坐標(biāo)形式[18]通過計算輸入IQ 采樣在每個時間步長的幅值和相位獲得,表示為:

      數(shù)據(jù)輸入ResNet 與BiGRU 模型提取特征后,通過Flatten 操作分別將空間特征和時序特征轉(zhuǎn)換為一維特征,Concatenate 操作將一維特征拼接融合。最后以全連接層作為網(wǎng)絡(luò)的結(jié)束,全連接層的結(jié)果輸入Softmax 分類器中,將提取的特征分類。選用Adam 優(yōu)化算法使網(wǎng)絡(luò)更易于訓(xùn)練,初始學(xué)習(xí)率設(shè)置為0.001,使用交叉熵函數(shù)計算網(wǎng)絡(luò)訓(xùn)練的損失,并采用Early Stopping 策略,當(dāng)驗證損失在15 個epoch 內(nèi)沒有改善時,停止訓(xùn)練并保存模型。BHNN 模型隱藏層詳細(xì)參數(shù)見表3。

      表3 BHNN 模型隱藏層詳細(xì)參數(shù)

      1.2 DropBlock 正則化

      基于文獻(xiàn)[13]提出的DropBlock 正則化方法,為使其適應(yīng)無線信號分類任務(wù),將特征圖的分塊調(diào)整為矩形,改善卷積層正則化效果不理想的問題。DropBlock 從圖層的特征映射中刪除連續(xù)的區(qū)域,主要參數(shù)為block_size 和keep_prob,其中block_size 控制刪除塊的大小,keep_prob 控制刪除的激活單元數(shù)量。

      DropBlock 算法中不考慮特征映射的分辨率,為所有特征映射設(shè)置了一個常量block_size。當(dāng)block_size=1 時,DropBlock 與Dropout[19]相似;當(dāng)block_size 覆蓋整個特征圖時,DropBlock 與SpatialDropout[20]相似。

      keep_prob 的設(shè)置隨著參數(shù)改變。DropBlock掩碼中每個零條目均由block_size2展開,塊完全包含在特征映射中,無法使用平均值為1-keep_prob 的伯努利分布對二進(jìn)制掩碼采樣,需相應(yīng)地調(diào)整keep_prob。

      文獻(xiàn)[13]關(guān)于keep_prob 的計算式為:

      其中,(feat_size-block_size+1)2為有效種子區(qū)域的大小,feat_size 代表特征圖的大小,feat_size =w_size×h_size,w_size 為特征圖的長,h_size 為特征圖的寬。DropBlock 的主要誤差在于丟棄的塊中會有一些重疊,因此式(7)只是一個近似值。

      2 實驗與性能分析

      2.1 數(shù)據(jù)集與實驗環(huán)境

      為驗證BHNN 結(jié)構(gòu)的有效性,實驗分別采用文獻(xiàn)[14]與文獻(xiàn)[11]中的公開數(shù)據(jù)集 RadioML 2016.10a 和RadioML2016.10b 測試。

      RadioML2016.10a 數(shù)據(jù)集有22 萬個樣本、11 種調(diào)制方式,其中包括8 種數(shù)字調(diào)制方式和3 種模擬調(diào)制方式。每種調(diào)制類型包括20 種不同的信噪比,范圍從-20 dB 到18 dB 步長為2 dB。3 種模擬調(diào)制包括AM-DSB、AM-SSB 和WBFM,8 種數(shù)字調(diào)制方式包括GFSK、CPFSK、PAM4、BPSK、QPSK、8PSK、16QAM 和64QAM。RadioML2016.10a 數(shù)據(jù)集詳細(xì)參數(shù)見表4。為模擬真實的信道環(huán)境,數(shù)據(jù)集中添加了由采樣率偏移、中心頻率偏移、選擇性衰落和加性高斯白噪聲組成的信道模塊[21]。數(shù)據(jù)集中的每個樣本由128 個采樣點組成,2×128 個向量輸入模型,其中實部和虛部分別代表I 信號和Q 信號。數(shù)據(jù)集的標(biāo)簽由信噪比和調(diào)制類型組成。

      表4 RadioML2016.10a 數(shù)據(jù)集詳細(xì)參數(shù)

      與RadioML2016.10a 相比,RadioML2016.10b缺少模擬調(diào)制方法中的AM-SSB,并且數(shù)據(jù)量有所擴(kuò)充,數(shù)據(jù)樣本量為120 萬。RadioML2016.10b數(shù)據(jù)集詳細(xì)參數(shù)見表5。

      表5 RadioML2016.10b 數(shù)據(jù)集詳細(xì)參數(shù)

      實驗硬件配備Intel Xeon Gold 6230 CPU、NVIDIA Quadro RTX 8000 顯卡,所有網(wǎng)絡(luò)模型均在單一GPU 環(huán)境中訓(xùn)練。使用Keras 和Tensorflow作為后端,Python3.8 進(jìn)行編譯。在數(shù)據(jù)預(yù)處理部分,對數(shù)據(jù)集進(jìn)行均勻分布分割,將70%的數(shù)據(jù)分配給訓(xùn)練集,30%的數(shù)據(jù)分配給測試集。

      2.2 不同激活函數(shù)下模型的識別精度分析

      為評價BHNN 模型對激活函數(shù)的適應(yīng)性,以GeLU、ReLU、Linear、LeakyReLU、Softmax、ELU 6 種激活函數(shù)測試,BHNN 在不同激活函數(shù)下分類精度對比如圖4 所示,即其在RadioML2016.10a和RadioML2016.10b 數(shù)據(jù)集上的測試結(jié)果。

      圖4 BHNN 在不同激活函數(shù)下分類精度對比

      (1)RadioML2016.10a 數(shù)據(jù)集測試,ReLU 函數(shù)的分類性能明顯優(yōu)于其他激活函數(shù),信噪比為0 dB 時分類準(zhǔn)確率達(dá)到80%以上,其他激活函數(shù)均未達(dá)80%。信噪比大于4 dB 時分類性能趨于穩(wěn)定,ReLU 函數(shù)分類準(zhǔn)確率最高為89%;ReLU、GeLU、LeakyReLU 以及ELU 函數(shù)分類準(zhǔn)確率穩(wěn)定在80%~85%;Softmax 和Linear 函數(shù)分類效果較差,準(zhǔn)確率低于75%。

      (2)RadioML2016.10b 數(shù)據(jù)集測試,高信噪比下ReLU、GeLU、SeLU、LeakyReLU 以及ELU 5 種激活函數(shù)分類性能相似;當(dāng)信噪比大于-8 dB且小于4 dB 時,SeLU 函數(shù)的分類效果明顯低于其他4 種激活函數(shù)。與小數(shù)據(jù)集情況相似,Softmax 和Linear 函數(shù)在大數(shù)據(jù)集分類效果最差,高信噪比下分類準(zhǔn)確率低于85%。

      經(jīng)對比分析,ReLU 在兩數(shù)據(jù)集的分類效果均較好,因此最終在模型中選用ReLU 激活函數(shù)。

      2.3 不同DropBlock 參數(shù)下模型的識別精度分析

      keep_prob 和block_size 是DropBlock 正則化中的兩個重要參數(shù),兩者的改變影響著DropBlock 的效果,為使DropBlock 對BHNN模型正則化效果達(dá)到最佳,使用 RadioML 2016.10a 和RadioML2016.10b 數(shù)據(jù)集分別測試兩個參數(shù)。

      據(jù)文獻(xiàn)[12]假設(shè)keep_prob=0.7 為最佳值,對比不同的 block_size 值。DropBlock 在不同block_size 值下的分類精度如圖5 所示,基于RadioML2016.10a 和RadioML2016.10b 數(shù)據(jù)集測試時,隨著block_size 值的減小,分類效果逐漸提高,當(dāng)block_size=2 時,模型的分類性能最優(yōu)異。

      圖5 DropBlock 在不同block_size 值下的分類精度

      將block_size值設(shè)為2,比較不同的keep_prob值。DropBlock 在不同keep_prob 值下的分類精度如圖6 所示,隨著keep_prob 值的增大,分類精度逐漸升高,keep_prob=0.7 時性能最佳,繼續(xù)增大后性能反而下降,基于RadioML 2016.10a 測試時,keep_prob=0.4 時模型喪失分類能力,分類精度穩(wěn)定在10%。

      圖6 DropBlock 在不同keep_prob 值下的分類精度

      經(jīng)對比分析,DropBlock 正則化中最終選用block_size=2、keep_prob=0.7 的參數(shù)組合。

      為避免網(wǎng)絡(luò)出現(xiàn)梯度消失和過擬合等問題,在BHNN 模型中引入DropBlock 正則化,BHNN加與不加DropBlock 的分類精度對比如圖7所示。

      圖7 BHNN 加與不加DropBlock 的分類精度對比

      (1)RadioML2016.10a 數(shù)據(jù)集測試,信噪比小于-5 dB 時,加入DropBlock 的模型分類效果較好;在-5~-1 dB 區(qū)間內(nèi),兩模型分類效果相似;信噪比大于-1 dB 時,加入DropBlock 的模型分類效果較好,分類準(zhǔn)確率最高為89%。

      (2)RadioML2016.10b 數(shù)據(jù)集測試,當(dāng)信噪比低于-10 dB,不加入DropBlock 的模型效果較好;信噪比高于-10 dB 時,加入DropBlock 的模型分類效果明顯優(yōu)于不加DropBlock,并在0 dB時分類準(zhǔn)確率達(dá)到90%。高信噪比下分類精度最高可達(dá)93.6%。

      正則化能夠防止過擬合,在模型中添加正則化可以限制模型的復(fù)雜度,為驗證DropBlock 正則化對模型的適應(yīng)性,以L1、L2、L1L2、L1_L2正則化對比測試,以上4 種正則化均從Tensorflow庫中直接調(diào)用,不同正則化方法的參數(shù)設(shè)置見表6。

      表6 不同正則化方法的參數(shù)設(shè)置

      模型在不同正則化下的分類精度如圖8 所示,即不同正則化在 RadioML2016.10a 和RadioML2016.10b 數(shù)據(jù)集上的測試結(jié)果。

      圖8 模型在不同正則化下的分類精度

      (1)RadioML2016.10a 數(shù)據(jù)集測試,在低信噪比下5 種正則化分類準(zhǔn)確率大致相同,因為低信噪比下,大量干擾信息淹沒了大部分信號特征,導(dǎo)致大多調(diào)制方式的識別精度較低,從而降低了整體識別精度;當(dāng)信噪比大于-6 dB 時,DropBlock 的分類效果明顯高于其他4 種正則化。

      (2)RadioML2016.10b 數(shù)據(jù)集測試,當(dāng)信噪比大于-8 dB 且小于2 dB 時,DropBlock 分類效果明顯高于其他4 種正則化;當(dāng)信噪比小于-8 dB和大于2 dB 時,5 種正則化的分類精度相似。

      實驗結(jié)果表明,加入DropBlock 正則化后模型避免了過擬合等問題,分類效果在兩個數(shù)據(jù)集上均有明顯提升,且DropBlock 正則化更適用于卷積層的正則化,其對模型過擬合問題的抑制能力優(yōu)于其他正則化方法。

      2.4 不同神經(jīng)網(wǎng)絡(luò)的識別精度對比分析

      混淆矩陣是分類問題的一個衡量指標(biāo)。樣例根據(jù)真實情況與預(yù)測類別的組合被劃分為4 種情形,顯然可得真正例數(shù)+假正例數(shù)+真反例數(shù)+假反例數(shù)=樣例總數(shù),分類結(jié)果的混淆矩陣見表7。

      表7 分類結(jié)果混淆矩陣

      混淆矩陣也稱誤差矩陣,能夠直觀反映識別結(jié)果的分布情況,對于多分類問題通常使用M×M的矩陣,其中對角線的分類是正確的,對角線之外均為錯誤的。BHNN 在RadioML 2016.10a 數(shù)據(jù)集上的混淆矩陣如圖 9 所示,BHNN 在RadioML2016.10b 數(shù)據(jù)集上的混淆矩陣如圖10 所示,即BHNN 模型對信號分類后的混淆矩陣,對角線上的單元格表示預(yù)測與真實標(biāo)簽一致,顏色越深,預(yù)測精度越高。

      圖9 BHNN 在RadioML2016.10a 數(shù)據(jù)集上的混淆矩陣

      圖10 BHNN 在RadioML2016.10b 數(shù)據(jù)集上的混淆矩陣

      由于RadioML2016.10a 數(shù)據(jù)樣本量小,模型泛化能力較差,在該數(shù)據(jù)集上對信號分類識別時效果并不理想。識別的誤差主要發(fā)生在16QAM與64QAM 之間,WBFM 主要預(yù)測為AM-DSB,兩者都屬于連續(xù)調(diào)制,它們之間的變化在復(fù)雜信道下受到限制,并且采樣的模擬信號包含沉默間隔,加劇了WBFM 與AM-DSB 之間的混淆。RadioML2016.10b 數(shù)據(jù)樣本量更大,分類效果相對較好,在該數(shù)據(jù)集上對信號分類識別時改善了16QAM 與64QAM 間的混淆,誤差主要發(fā)生在WBFM 與AM-DSB 間。

      為驗證BHNN 模型的有效性,本節(jié)基于RadioML2016.10a 與RadioML2016.10b 數(shù)據(jù)集進(jìn)行對比實驗,將CNN[11]、ResNet[11]、LSTM、BiGRU與BHNN 模型對比,結(jié)果如圖11 所示。

      圖11 各模型分類精度對比

      (1)RadioML2016.10a 數(shù)據(jù)集測試,當(dāng)信噪比小于-4 dB 時,5 種網(wǎng)絡(luò)模型的分類效果相似;隨著信噪比的增大,模型性能趨于穩(wěn)定,在高信噪比下,BHNN 模型的分類準(zhǔn)確率可達(dá)88.5%;ResNet、BiGRU 和LSTM 模型分類性能相似,分類精度穩(wěn)定在82%左右;CNN 模型分類性能較差,分類準(zhǔn)確率低于75%。

      (2)RadioML2016.10b 數(shù)據(jù)集測試,當(dāng)信噪比小于-6 dB 時,5 種網(wǎng)絡(luò)模型的分類效果相似;當(dāng)信噪比大于-6 dB 時,CNN 模型的分類性能明顯低于其他4 種模型,分類準(zhǔn)確率最高為81.1%;BHNN 模型與ResNet、BiGRU 和LSTM 網(wǎng)絡(luò)模型相比分類性能差距較小,略微領(lǐng)先于另外3 個模型,最高分類準(zhǔn)確率為93.63%。

      為進(jìn)一步研究DropBlock 正則化對提高模型精度的有效性,分別在CNN[11]、ResNet[11]、LSTM、BiGRU 模型中加入DropBlock 正則化,并與BHNN 模型對比,各模型加DropBlock 后的分類精度對比如圖12 所示。

      圖12 各模型加DropBlock 后的分類精度對比

      (1)RadioML2016.10a 數(shù)據(jù)集測試,除ResNet模型外,BHNN 的分類準(zhǔn)確率明顯優(yōu)于其他3 個模型;當(dāng)信噪比大于3 dB 時,BHNN 模型的分類準(zhǔn)確率超過85%,在3~18 dB 范圍內(nèi)的平均分類準(zhǔn)確率比其他3 種模型高6%~9%;但在低信噪比情況下,所有模型的分類準(zhǔn)確率基本一致。

      (2)RadioML2016.10b 數(shù)據(jù)集測試,除CNN模型外,信噪比大于-5 dB 且小于0 dB 情況下,BHNN 的分類準(zhǔn)確率略優(yōu)于除CNN 外的其他3 種模型;在信噪比大于0 dB 時,BHNN 與3 種模型分類準(zhǔn)確率基本相同,因為數(shù)據(jù)集樣本量越大,模型訓(xùn)練充足,泛化能力強(qiáng)。

      仿真結(jié)果表明,BHNN模型在RadioML2016.10b數(shù)據(jù)集上分類性能優(yōu)于RadioML2016.10a 數(shù)據(jù)集,說明數(shù)據(jù)樣本量越大,模型訓(xùn)練越充足,泛化能力越強(qiáng);模型加入DropBlock 后分類效果均有提升,說明DropBlock 能夠有效防止模型產(chǎn)生過擬合。下一步工作將聚焦于優(yōu)化模型在小數(shù)據(jù)集上的分類性能。

      3 結(jié)束語

      深度神經(jīng)網(wǎng)絡(luò)在提高無線電信號識別的準(zhǔn)確性和靈敏度方面展示出巨大的潛力。本文提出了一種雙模態(tài)混合神經(jīng)網(wǎng)絡(luò)模型,該模型結(jié)合ResNet模型可以避免梯度消失或梯度爆炸、BiGRU 模型能減少過擬合的優(yōu)點。仿真結(jié)果表明,基于RadioML2016.10a 測試時,BHNN 的最高分類準(zhǔn)確率為89%;基于RadioML2016.10b 測試時,BHNN的最高分類準(zhǔn)確率為93.63%,相同仿真條件下分類性能均優(yōu)于CNN、LSTM、BiGRU 和ResNet 模型。為避免模型訓(xùn)練時出現(xiàn)過擬合現(xiàn)象,模型中引入DropBlock 正則化,并與L1、L2、L1L2、L1_L2 4 種正則化方法對比,仿真結(jié)果表明,BHNN 模型引入DropBlock 正則化后分類效果有明顯提升。

      猜你喜歡
      正則信噪比準(zhǔn)確率
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
      基于深度學(xué)習(xí)的無人機(jī)數(shù)據(jù)鏈信噪比估計算法
      剩余有限Minimax可解群的4階正則自同構(gòu)
      類似于VNL環(huán)的環(huán)
      高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
      低信噪比下LFMCW信號調(diào)頻參數(shù)估計
      電子測試(2018年11期)2018-06-26 05:56:02
      低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
      保持信噪比的相位分解反褶積方法研究
      彭水| 红桥区| 漳州市| 黔江区| 米脂县| 乌拉特后旗| 雷波县| 葵青区| 永吉县| 鹤峰县| 潮州市| 隆子县| 长白| 专栏| 邢台市| 博野县| 鄂伦春自治旗| 高淳县| 通山县| 汉源县| 晋中市| 门源| 治多县| 洱源县| 东方市| 大埔县| 瑞金市| 长海县| 永昌县| 桂平市| 崇明县| 阿图什市| 涞水县| 宜川县| 清新县| 如东县| 湟中县| 宜春市| 和静县| 甘洛县| 祥云县|