• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      樣本不平衡下的空中群組意圖識別方法

      2022-11-19 06:53:32馬鈺棠張杰勇閆云飛
      關(guān)鍵詞:群組意圖準(zhǔn)確率

      馬鈺棠, 孫 鵬, 張杰勇, 王 鵬, 閆云飛, 趙 亮

      (空軍工程大學(xué)信息與導(dǎo)航學(xué)院, 陜西 西安 710077)

      0 引 言

      二戰(zhàn)以來,隨著軍事信息化的推進(jìn)和科學(xué)技術(shù)的發(fā)展,以預(yù)警機(jī)為核心樞紐的信息化作戰(zhàn)體系逐漸成型??罩凶鲬?zhàn)形式也從單一作戰(zhàn)單元間的對抗轉(zhuǎn)變?yōu)轱w行群組間的對抗,空中群組的作戰(zhàn)行動是影響戰(zhàn)場態(tài)勢的關(guān)鍵。然而,戰(zhàn)場環(huán)境也隨之復(fù)雜化,指揮員很難依靠經(jīng)驗(yàn)實(shí)時(shí)準(zhǔn)確地判斷出對方群組的真實(shí)意圖。因此,需要一種智能化的方法來快速準(zhǔn)確地識別對方群組的意圖,以輔助指揮員做出決策。

      對于識別戰(zhàn)場目標(biāo)意圖問題,傳統(tǒng)的方法主要有模板匹配[1-2]、專家系統(tǒng)[3-4]、灰色關(guān)聯(lián)[5-6]、貝葉斯網(wǎng)絡(luò)[7-9]等,總體思路是先根據(jù)領(lǐng)域?qū)<业南闰?yàn)知識構(gòu)建知識規(guī)則庫或貝葉斯網(wǎng)絡(luò),然后通過目標(biāo)的狀態(tài)特征進(jìn)行意圖識別,但傳統(tǒng)方法過度依賴于先驗(yàn)知識,不適用于復(fù)雜多變的戰(zhàn)場環(huán)境。而隨著人工智能的發(fā)展和深度學(xué)習(xí)的應(yīng)用,機(jī)器能更快速處理大量復(fù)雜的數(shù)據(jù)。近年來,神經(jīng)網(wǎng)絡(luò)方法[10-13]被證明能夠有效提升目標(biāo)意圖識別準(zhǔn)確率,文獻(xiàn)[10]提出了一種基于棧式自編碼器(stacked autoencoder,SAE)的目標(biāo)戰(zhàn)術(shù)意圖識別模型,通過無監(jiān)督學(xué)習(xí)方法訓(xùn)練模型參數(shù),將多個時(shí)刻的目標(biāo)狀態(tài)信息和戰(zhàn)場環(huán)境作為輸入,來識別目標(biāo)意圖。文獻(xiàn)[11]針對神經(jīng)網(wǎng)絡(luò)模型收斂速度慢、易陷入局部最優(yōu)的問題,在深度神經(jīng)網(wǎng)絡(luò)(deep neural networks,DNN)模型中引入ReLU激活函數(shù)和Adam優(yōu)化算法,提高了模型的識別率。文獻(xiàn)[12]提出了一種基于模糊神經(jīng)網(wǎng)絡(luò)的目標(biāo)意圖識別模型,利用目標(biāo)屬性和意圖訓(xùn)練網(wǎng)絡(luò)得到模糊隸屬度和輸出函數(shù),以此識別意圖。但以上方法在時(shí)間特征學(xué)習(xí)和知識表征方面仍存在不足。文獻(xiàn)[13]為深層次提取目標(biāo)的時(shí)序特征信息,利用全景卷積長短期記憶(long short term memory, LSTM)網(wǎng)絡(luò)深度挖掘能力,提高了模型意圖識別的準(zhǔn)確率。但是,其僅使用歷史時(shí)刻信息對當(dāng)前做出推斷,無法有效利用未來時(shí)刻的信息。

      以上研究都是在訓(xùn)練數(shù)據(jù)集中各個類別的樣本數(shù)量相對平衡的情況下進(jìn)行的,多數(shù)類樣本和少數(shù)類樣本的數(shù)量相差不大[14]。然而在軍事指控領(lǐng)域中,真實(shí)戰(zhàn)場數(shù)據(jù)往往存在著樣本間的不平衡,比如對方佯攻的樣本通常比攻擊的多。樣本集的不平衡會導(dǎo)致模型很難從少數(shù)類樣本中提取到有用的信息,使模型的訓(xùn)練過擬合,識別結(jié)果偏向樣本量較多的一方。目前,對于不平衡樣本情況下的目標(biāo)意圖識別的研究還較少,所以針對不平衡樣本下的空中群組意圖識別的研究具有實(shí)際意義。

      目前,解決樣本不平衡問題方法大致可分為3類:欠采樣[15]、過采樣[16]和混合方法[17-19]。在這3種方法中,由于欠采樣會減少多數(shù)類樣本的數(shù)量,導(dǎo)致重要信息丟失,混合方法中也存在同樣的問題,因此過采樣的使用頻率更高。文獻(xiàn)[20]通過比較受試者工作特性曲線(receiver operating characteristic curve, ROC)下的面積(area under the curve of ROC,AUC),證明了過采樣方法比欠采樣表現(xiàn)更好,其中合成少數(shù)過采樣技術(shù)(synthetic minority oversampling technique,SMOTE)被認(rèn)為是處理不平衡問題較好的數(shù)據(jù)預(yù)處理方法[21]。基本思想是通過在相鄰少數(shù)類樣本間進(jìn)行插值來平衡原始訓(xùn)練數(shù)據(jù),增加少數(shù)類樣本的數(shù)量,提高了分類器的性能[22]。但是對于較復(fù)雜的樣本集,SMOTE通過簡單增加少數(shù)類樣本但無法體現(xiàn)少數(shù)類特征信息,所以很難得到較好的結(jié)果[23-24]。

      基于以上分析,為解決空中群組樣本不平衡以及大多數(shù)意圖識別模型準(zhǔn)確率不高、訓(xùn)練效率低等問題,本文提出了一種面向無序分類變量和連續(xù)變量的自適應(yīng)邊界SMOTE (adaptive borderline-SMOTE-nominal continuous, ABSMOTE-NC)算法,研究了基于注意力機(jī)制的雙向門控循環(huán)單元(bidirectional gated recurrent unit based on attention mechanism, BiGRU-Attention)網(wǎng)絡(luò)的意圖識別模型[25-27]。首先,對于不平衡的樣本采用ABSMOTE-NC的方法對少數(shù)類樣本進(jìn)行擴(kuò)充;其次,將擴(kuò)充后的數(shù)據(jù)集輸入到BiGRU層,綜合前后時(shí)刻信息提取特征;然后,輸入到注意力層,對多維特征進(jìn)行深層次提取,提高對關(guān)鍵特征的關(guān)注度;最后,通過softmax函數(shù)層輸出判斷的意圖。將本文方法與多種方法進(jìn)行對比,以準(zhǔn)確率、精確率、召回率、AUC、F1-score及其算數(shù)平均marco-F1值作為評估指標(biāo),證明本文提出的方法能有效提升空中群組意圖識別的效果。

      1 空中群組意圖識別問題

      空中群組意圖識別是在實(shí)時(shí)動態(tài)、對抗的戰(zhàn)場環(huán)境中,通過傳感器采集到的空中群組的狀態(tài)信息,依靠軍事領(lǐng)域知識進(jìn)行分析識別其意圖的過程[28]。對方群組的作戰(zhàn)意圖通常表現(xiàn)在作戰(zhàn)行動上,而機(jī)群在執(zhí)行作戰(zhàn)任務(wù)過程中會在目標(biāo)速度、加速度、機(jī)動類型、雷達(dá)信號等狀態(tài)特征上呈現(xiàn)出一定的規(guī)律,由此可以通過各種傳感器獲得的狀態(tài)數(shù)據(jù)識別出對方的意圖。

      在真實(shí)戰(zhàn)場中,由于雙方都有豐富的軍事經(jīng)驗(yàn),對方機(jī)群可能會采取一些欺騙性的行動以隱藏真實(shí)意圖,因此僅通過單一時(shí)刻的群組狀態(tài)識別其意圖會影響識別結(jié)果的準(zhǔn)確性[11]。但群組級作戰(zhàn)行動是一個時(shí)序的過程,對方群組為達(dá)到其戰(zhàn)術(shù)意圖通常需要完成一系列作戰(zhàn)行動,根據(jù)連續(xù)時(shí)刻的目標(biāo)狀態(tài)識別比單一時(shí)刻具有更高的可靠性。本文通過空中群組特征數(shù)據(jù)集訓(xùn)練BiGRU-Attention網(wǎng)絡(luò),使網(wǎng)絡(luò)能利用群組的時(shí)序特征狀態(tài)識別出群組意圖。完整的群組意圖識別流程如圖1所示。

      圖1 空中群組意圖識別流程

      在識別空中群組的意圖過程中,首先將帶有標(biāo)簽的戰(zhàn)場歷史數(shù)據(jù)庫經(jīng)過數(shù)據(jù)預(yù)處理后進(jìn)行劃分訓(xùn)練集和測試集,在不平衡的訓(xùn)練集中用ABSMOTE-NC擴(kuò)充少數(shù)類樣本,再用擴(kuò)充后的數(shù)據(jù)集訓(xùn)練BiGRU-Attention網(wǎng)絡(luò)。在實(shí)際的戰(zhàn)場環(huán)境中,通過各類傳感器采集時(shí)序性的目標(biāo)特征向量,經(jīng)預(yù)處理后輸入到訓(xùn)練好的模型中就能識別出對方意圖。

      1.1 群組意圖空間描述

      意圖空間的選取與作戰(zhàn)形式、地點(diǎn)、規(guī)模等因素密切相關(guān),在不同的戰(zhàn)場背景下通常有不同的作戰(zhàn)意圖。對方群組會根據(jù)目標(biāo)的重要程度選擇不同的作戰(zhàn)意圖,同時(shí)也會隨戰(zhàn)場情況實(shí)時(shí)調(diào)整行動意圖。因此,需要根據(jù)實(shí)際作戰(zhàn)背景選取意圖空間。本文針對空中群組目標(biāo),依據(jù)領(lǐng)域?qū)<医?jīng)驗(yàn),選取的意圖空間為{攻擊、佯攻、撤退、偵察、監(jiān)視、電子干擾}。

      1.2 群組意圖識別特征描述

      空中群組的意圖通常與其作戰(zhàn)任務(wù)有關(guān),而群組為執(zhí)行特定的作戰(zhàn)任務(wù),通常會受限于飛機(jī)性能和任務(wù)需要,在某些特征信息上表現(xiàn)出來。比如偵察群組為了躲避地面雷達(dá)探測,往往根據(jù)戰(zhàn)場情況針對性選擇飛行高度;攻擊意圖的群組也會根據(jù)武器掛載情況適時(shí)調(diào)整飛行速度。因此,將空中群組的飛行速度、飛行加速度、高度、距離、雷達(dá)反射面積等作為其意圖識別的特征,而且群組的意圖與目標(biāo)雷達(dá)狀態(tài)也有關(guān)。例如,執(zhí)行轟炸任務(wù)的飛機(jī)只在轟炸時(shí)開啟對空或?qū)@走_(dá)。

      群組在作戰(zhàn)行動中通常需要一系列戰(zhàn)術(shù)機(jī)動動作,因此群組的機(jī)動類型也與其意圖有關(guān)。本文以空中群組為研究對象,實(shí)現(xiàn)高機(jī)動的難度較大,所以本文選取11種基本操縱動作作為群組的機(jī)動類型,具體為{勻速前飛、加速前飛、減速前飛、左轉(zhuǎn)、右轉(zhuǎn)、爬升、左爬升、右爬升、俯沖、左俯沖、右俯沖}[29]。

      綜上,本文對于空中群組意圖識別問題建立的特征空間為{飛行速度、飛行加速度、高度、距離、航向角、方位角、雷達(dá)反射面積、機(jī)動類型、干擾狀態(tài)、對空雷達(dá)狀態(tài)、對海雷達(dá)狀態(tài)}。將特征空間分為數(shù)值型和非數(shù)值型,如圖2所示。

      圖2 群組意圖識別的特征空間

      2 樣本數(shù)據(jù)處理

      2.1 少數(shù)類樣本集擴(kuò)充

      由于戰(zhàn)場中戰(zhàn)術(shù)安排的需要,不同意圖的戰(zhàn)術(shù)群組在數(shù)量上存在較大差異,因此真實(shí)戰(zhàn)場的樣本存在不平衡性,而利用不平衡的樣本訓(xùn)練時(shí)會導(dǎo)致模型對少數(shù)類樣本的識別準(zhǔn)確率較低。為了模型能更準(zhǔn)確識別各個意圖,本文首先對少數(shù)類樣本不足的情況進(jìn)行新樣本合成。

      邊界SMOTE針對少數(shù)類樣本邊界合成新樣本,但對于樣本邊界而言,也存在分類難易問題,且樣本合成數(shù)量也難以確定,無法處理非數(shù)值型數(shù)據(jù)。因此,本文提出ABSMOTE-NC擴(kuò)充少數(shù)類樣本集。在原方法的基礎(chǔ)上引入自適應(yīng)的思想以確定邊界樣本合成數(shù)量,根據(jù)樣本間交叉程度以及多數(shù)類樣本數(shù)量確定需要合成的少數(shù)類樣本數(shù)目。

      假設(shè)少數(shù)類樣本集為P={p1,p2,…,ppnum}(pnum為少數(shù)類樣本數(shù)),多數(shù)類共有S類,且第s類樣本數(shù)目為Ms。ABSMOTE-NC算法具體步驟如下。

      步驟 1對P中每個pi計(jì)算其在訓(xùn)練集中的m近鄰,將m近鄰中屬于多數(shù)類樣本的個數(shù)定義為m′,若pi的m近鄰中m/2≤m′

      (1)

      步驟 3計(jì)算比率ri并正則化;

      (2)

      (3)

      (4)

      步驟 6對于樣本中的非數(shù)值型的特征值,選擇K近鄰中出現(xiàn)頻率最高的值作為pnew的值。

      2.2 數(shù)據(jù)降維及處理

      空中群組為了實(shí)現(xiàn)某一作戰(zhàn)意圖,在作戰(zhàn)行動中各架飛機(jī)狀態(tài)特征大多保持相同或相似。但將所有特征數(shù)據(jù)都作為神經(jīng)網(wǎng)絡(luò)輸入會影響網(wǎng)絡(luò)收斂效率,增加模型訓(xùn)練時(shí)間和存儲空間。因此,先將群組中m架飛機(jī)的n維特征向量降維,再輸入到模型中。

      假設(shè)單個群組中有m架飛機(jī),其中單機(jī)的n維特征向量為vi=[vi1,vi2,…,vin],i=1,2,…,m。對vin中數(shù)值型數(shù)據(jù)求平均值,對非數(shù)值型數(shù)據(jù)取m架飛機(jī)中出現(xiàn)頻率最高的值,當(dāng)m架飛機(jī)出現(xiàn)頻率相等時(shí),選擇對己方威脅程度大的特征值,以提高己方警惕性。

      數(shù)據(jù)歸一化能夠消除量綱的影響,使數(shù)據(jù)處于同一數(shù)量級,同時(shí)能提高模型收斂效率和精度。本文對速度、加速度、高度、距離、航向角、方位角、雷達(dá)反射面積共7種數(shù)值型數(shù)據(jù)進(jìn)行歸一化處理。對于第k種數(shù)值型特征數(shù)據(jù)Nk={nk1,nk2,…,nkj,…,nkl},k=1,2,…,7;l為數(shù)據(jù)總數(shù)。將第j個原始數(shù)據(jù)值nkj映射到區(qū)間為[0,1]的范圍內(nèi),結(jié)果為

      (5)

      式中:minNk為第k種特征數(shù)據(jù)Nk的最小值;maxNk為第k種特征數(shù)據(jù)Nk的最大值。

      對于目標(biāo)機(jī)動類型、干擾狀態(tài)、對空雷達(dá)狀態(tài)、對海雷達(dá)狀態(tài)共4種非數(shù)值型分類數(shù)據(jù),神經(jīng)網(wǎng)絡(luò)無法直接處理,所以需要將其數(shù)值化處理,轉(zhuǎn)變到[0,1]區(qū)間內(nèi)。對于第r種非數(shù)值型數(shù)據(jù)Br={br1,br2,…,brh,…,brw}(r=1,2,3,4);w為分類空間的大小。將第h個分類數(shù)值brh映射到區(qū)間為[0,1]的范圍內(nèi),結(jié)果為

      (6)

      2.3 意圖編碼

      本文以空中群組作為研究對象,將意圖空間定義為{攻擊、佯攻、撤退、偵察、監(jiān)視、電子干擾}6種。由于群組的作戰(zhàn)意圖為分類數(shù)據(jù),不能直接被神經(jīng)網(wǎng)絡(luò)接收,因此需要將意圖空間中的6種模式進(jìn)行編碼,與{0,1,2,3,4,5}標(biāo)簽值相對應(yīng)。將編碼后的標(biāo)簽值輸入到模型中訓(xùn)練,得到的模型運(yùn)用到實(shí)際戰(zhàn)場中時(shí),通過輸出的標(biāo)簽值與意圖空間的對應(yīng)關(guān)系,就可以得到識別出的群組意圖。

      3 基于BiGRU-Attention的空中群組意圖識別模型

      為提高意圖識別模型對歷史時(shí)刻和未來時(shí)刻狀態(tài)信息的利用率,在門控循環(huán)單元(gated recurrent unit, GRU)基礎(chǔ)上引入雙向循環(huán)機(jī)制,同時(shí)利用注意力機(jī)制為各個深層信息分配權(quán)重,以提高模型捕捉更具區(qū)分度特征的能力。BiGRU-Attention模型結(jié)構(gòu)如圖3所示,模型共分為3部分,群組特征向量輸入層、隱含層和輸出層。其中,隱含層由BiGRU層、注意力層和全連接層組成[30]。

      3.1 輸入層

      群組特征向量輸入層主要是對不平衡的群組特征數(shù)據(jù)集進(jìn)行數(shù)據(jù)預(yù)處理,使原始數(shù)據(jù)轉(zhuǎn)換成隱含層能夠處理的序列向量。首先讀取空中群組特征數(shù)據(jù)集并進(jìn)行數(shù)據(jù)清洗,對群組的特征向量進(jìn)行降維及歸一化處理,而后將處理后的數(shù)據(jù)隨機(jī)初始化,按8∶2劃分為訓(xùn)練集和測試集,最后對訓(xùn)練集中的少數(shù)類樣本采用ABSMOTE-NC方法擴(kuò)充少數(shù)類樣本集。

      3.2 隱含層

      3.2.1 BiGRU層

      圖4 GRU的循環(huán)單元結(jié)構(gòu)

      GRU的更新方式如下:

      rt=σ(Wr[ht-1,xt]+br)

      (7)

      zt=σ(Wz[ht-1,xt]+bz)

      (8)

      (9)

      (10)

      式中:Wr、Wz、W和br、bz、bh為各部分相應(yīng)的權(quán)重系數(shù)矩陣和偏置向量;*為哈達(dá)瑪積。

      由于單向的GRU只能提取當(dāng)前時(shí)刻之前的信息,無法學(xué)習(xí)之后的信息與當(dāng)前時(shí)刻的關(guān)系。為了從空中群組的時(shí)序特征中提取深層次的信息,引入雙向循環(huán)機(jī)制,使BiGRU網(wǎng)絡(luò)在意圖識別上獲得更高的準(zhǔn)確率。其按時(shí)間展開的模型如圖5所示。

      圖5 BiGRU結(jié)構(gòu)

      (11)

      (12)

      (13)

      3.2.2 注意力層

      為使網(wǎng)絡(luò)能更關(guān)注空中群組特征中的關(guān)鍵信息,提高識別準(zhǔn)確率,本文在BiGRU層后引入注意力機(jī)制。將BiGRU層輸出的每個隱藏層狀態(tài)作為注意力層的輸入,注意力打分函數(shù)采用加性模型,得到注意力分布,最后用加權(quán)平均的方式進(jìn)行匯總,得到注意力值作為輸出的狀態(tài)向量。注意力機(jī)制的模型結(jié)構(gòu)如圖6所示。

      圖6 注意力機(jī)制模型結(jié)構(gòu)

      計(jì)算公式如下:

      st=tanh(Wtyt+bt)

      (14)

      (15)

      (16)

      式中:st是注意力打分函數(shù),表示t時(shí)刻隱含層狀態(tài)的信息量;αt表示各個隱含層狀態(tài)的權(quán)重;Wt和bt分別是權(quán)重向量和偏置向量;Y是注意力層最終的輸出向量。

      3.3 輸出層

      輸出層通過softmax函數(shù)將注意力機(jī)制的輸出轉(zhuǎn)變成分類的概率,從而對群組特征數(shù)據(jù)進(jìn)行意圖識別。具體公式為

      ck=softmax(WcY+bc)

      (17)

      式中:Wc和bc為需要訓(xùn)練的網(wǎng)絡(luò)參數(shù);ck為輸出的意圖標(biāo)簽。

      4 仿真實(shí)驗(yàn)分析

      4.1 實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置

      實(shí)驗(yàn)以某空域群組為研究目標(biāo),實(shí)驗(yàn)數(shù)據(jù)從某作戰(zhàn)仿真平臺獲得。通過多次運(yùn)行仿真系統(tǒng),得到多種意圖下的空中群組樣本,從中選取8 000個空中群組意圖樣本,每個樣本中包含一個群組(每個群組包含2~5架飛機(jī))連續(xù)12幀的狀態(tài)信息(每幀信息包括方位角、航向角、飛行速度、飛行加速度等11維特征數(shù)據(jù))。由于樣本集數(shù)據(jù)量過大,先由領(lǐng)域?qū)<乙罁?jù)經(jīng)驗(yàn)知識編寫群組意圖識別的相關(guān)規(guī)則,再通過計(jì)算機(jī)對樣本集進(jìn)行分類,最后由領(lǐng)域?qū)<覟樽R別出的意圖與認(rèn)知經(jīng)驗(yàn)存在歧義的樣本進(jìn)行修訂。為了模擬樣本間的不平衡,選取的樣本集中各意圖占比為偵察意圖50.00%、電子干擾意圖25.18%、佯攻意圖12.91%、撤退意圖8.26%、監(jiān)視意圖2.48%、攻擊意圖1.18%。樣本規(guī)模為8 000,其中偵察意圖與攻擊意圖樣本數(shù)之比超過40。

      本實(shí)驗(yàn)采用Python語言,學(xué)習(xí)框架為Keras,運(yùn)行環(huán)境為Pycharm2021軟件、Win10系統(tǒng)、RTX2060顯卡、16 GB內(nèi)存。模型評估指標(biāo)選用機(jī)器學(xué)習(xí)常用的精確率、召回率、F1-score(模型精確率和召回率的調(diào)和平均)及其算數(shù)平均macro-F1。由于本文針對的是不平衡樣本下的意圖識別問題,而且更關(guān)注少數(shù)類的攻擊、監(jiān)視意圖的樣本,因此將ROC下方的面積AUC也作為評估指標(biāo)。ROC曲線是以假正例率(意圖識別錯誤的負(fù)樣本數(shù)占實(shí)際的負(fù)樣本數(shù)的比例)為坐標(biāo)橫軸、以真正例率(意圖識別正確的正樣本數(shù)占實(shí)際的正樣本數(shù)的比例)為坐標(biāo)縱軸繪制的曲線。AUC取值在[0,1],AUC值越大,說明模型的分類效果越好。實(shí)驗(yàn)中需要設(shè)置并調(diào)整超參數(shù),因此根據(jù)模型的macro-F1和AUC值,經(jīng)過多次運(yùn)行迭代,設(shè)置實(shí)驗(yàn)超參數(shù)如表1所示。

      表1 模型主要參數(shù)

      4.2 仿真實(shí)驗(yàn)分析

      4.2.1 ABSMOTE-NC效果評估

      (1) 方法合理性驗(yàn)證實(shí)驗(yàn)

      為保證ABSMOTE-NC生成樣本的合理性,需驗(yàn)證合成樣本和原始樣本的相似性。對原始樣本集中訓(xùn)練集和測試集分別使用ABSMOTE-NC擴(kuò)充少數(shù)類樣本,利用擴(kuò)充后的訓(xùn)練集訓(xùn)練模型,將訓(xùn)練后的模型對擴(kuò)充測試集中原始少數(shù)類樣本和合成的少數(shù)類樣本進(jìn)行識別,具體結(jié)果如表2所示。

      表2 原始樣本和合成樣本比較

      由表2可以看出模型對于原始樣本和合成樣本的識別準(zhǔn)確率相近,說明合成樣本與原始樣本的相似性較高,驗(yàn)證了ABSMOTE-NC方法的合理性。

      (2) 識別結(jié)果對比

      將空中群組樣本集劃分訓(xùn)練集后直接輸入模型訓(xùn)練,訓(xùn)練完成后對測試集樣本進(jìn)行測試,得到結(jié)果表明模型的準(zhǔn)確率達(dá)到97.94%。但通過分析表3中的各意圖間的混淆矩陣,可以看出模型對佯攻、偵察意圖等多數(shù)類樣本的識別率達(dá)到了100%,但對于攻擊和監(jiān)視意圖樣本的召回率較低,分別為60%和32.5%。經(jīng)分析,撤退和電子干擾意圖的樣本特征對比較明顯,和樣本比例關(guān)系不大;而對于特征狀態(tài)相似的意圖,攻擊與佯攻、偵察與監(jiān)視的樣本不均衡使模型在訓(xùn)練過程中對少數(shù)類樣本欠擬合,從而導(dǎo)致模型不能準(zhǔn)確識別意圖間的邊界。

      表3 原始樣本的意圖識別混淆矩陣

      然而,在真實(shí)戰(zhàn)場中攻擊和監(jiān)視的群組對己方重要程度通常更大,因此為了使模型能更合理地確定少數(shù)類意圖的邊界,使用第2.1節(jié)中ABSMOTE-NC的方法對訓(xùn)練集中的少數(shù)類樣本進(jìn)行擴(kuò)充,再對模型進(jìn)行訓(xùn)練,得到的意圖識別混淆矩陣如表4所示。由表可知,模型對攻擊和監(jiān)視意圖的樣本的召回率有了明顯的提升,分別達(dá)到了86.67%和77.5%。

      表4 擴(kuò)充樣本后的意圖識別混淆矩陣

      (3) 與其他過采樣算法對比

      為了能更準(zhǔn)確分辨模型的分類效果,除了使用準(zhǔn)確率外,還引入macro-F1、AUC作為評估指標(biāo),以驗(yàn)證ABSMOTE-NC的優(yōu)越性。將其與Random Oversampling、Borderline-SMOTE-NC、面向無序分類變量和連續(xù)變量的SMOTE-最近鄰規(guī)則(SMOTE-nominal continuous-edited nearest neighbor, SMOTENC-ENN)、SMOTE-NC過采樣算法進(jìn)行比較,具體結(jié)果如圖7所示。

      圖7 不同過采樣算法的評估指標(biāo)對比

      由圖7可知,通過過采樣算法,ABSMOTE-NC在macro-F1和AUC值均有明顯提升,分類效果有所改善。雖然SMOTENC-ENN和SMOTE-NC在準(zhǔn)確率上不如原始數(shù)據(jù),分析后應(yīng)是合成新樣本后意圖邊界靠近少數(shù)類中心而導(dǎo)致多數(shù)類樣本識別率降低,但總體的分類效果還是優(yōu)于原始數(shù)據(jù)。本文中ABSMOTE-NC方法得到的macro-F1和AUC值分別達(dá)到了0.931 7和0.981 4,相比原始模型分別提高了7.33%和8.61%,說明模型能較準(zhǔn)確地劃分邊界區(qū)域,證明了算法的有效性和優(yōu)越性。

      4.2.2 BiGRU-Attention模型對比分析

      (1) 與DNN、SAE、LSTM模型對比

      為驗(yàn)證本文模型的優(yōu)越性,將本文BiGRU-Attention模型與文獻(xiàn)[10]中基于SAE的目標(biāo)戰(zhàn)術(shù)意圖識別模型、文獻(xiàn)[11]中基于DNN的作戰(zhàn)意圖識別模型、文獻(xiàn)[29]中LSTM+Adam空戰(zhàn)意圖識別模型進(jìn)行對比實(shí)驗(yàn)。設(shè)置模型參數(shù)如表5所示,在對少數(shù)類樣本集擴(kuò)充后再利用各模型進(jìn)行意圖識別,實(shí)驗(yàn)結(jié)果如圖8所示。

      表5 模型參數(shù)設(shè)置

      圖8 模型的評估指標(biāo)對比

      由圖8可知本文中BiGRU-Attention模型在macro-F1和AUC兩個評估指標(biāo)上明顯高于其余模型,在意圖識別上有更好的分類效果,驗(yàn)證了模型的優(yōu)越性。

      (2) 消融實(shí)驗(yàn)

      第4.2.1節(jié)實(shí)驗(yàn)證明了相比LSTM、SAE、DNN等網(wǎng)絡(luò),BiGRU-Attention的分類效果更優(yōu)越,但這些網(wǎng)絡(luò)不屬于同一類型且參數(shù)設(shè)置也不盡相同,導(dǎo)致實(shí)驗(yàn)缺乏一定的說服力。因此,將本文BiGRU-Attention模型與GRU、BiGRU、GRU-Attention模型進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖9、圖10和表6所示。

      圖9 模型準(zhǔn)確率變化

      圖10 消融實(shí)驗(yàn)?zāi)P驮u估指標(biāo)對比

      表6 消融實(shí)驗(yàn)各模型評估指標(biāo)值

      由圖9可知,本文所提BiGRU-Attention模型在訓(xùn)練過程中準(zhǔn)確率始終優(yōu)于GRU、BiGRU、GRU-Attention 3種模型,能夠有效提升意圖識別效果,而BiGRU、GRU-Attention在訓(xùn)練中準(zhǔn)確率均高于GRU模型,經(jīng)分析后認(rèn)為是模型中的雙向循環(huán)機(jī)制和注意力機(jī)制能有效提升訓(xùn)練效果與學(xué)習(xí)效率。

      由表6可以看出,由于攻擊和監(jiān)視意圖的樣本數(shù)較少,合成樣本不能完全代替真實(shí)樣本,且攻擊與佯攻、監(jiān)視與偵察的特征相似度又較高,導(dǎo)致攻擊和監(jiān)視意圖樣本的識別率不高。而BiGRU-Attention模型在大部分樣本的精確率、召回率、F1-score上均高于其余3種模型,證明了本文模型能有效提升意圖識別效果。由圖10可知,本文模型與其他模型相比,在macro-F1和AUC值上都有明顯的優(yōu)勢,也驗(yàn)證了模型在意圖識別效果上的優(yōu)越性。

      5 結(jié) 論

      本文針對空中群組的真實(shí)樣本不平衡而導(dǎo)致模型識別效果不佳的問題,提出了先擴(kuò)充樣本集訓(xùn)練后識別的方法。該方法先采用ABSMOTE-NC對訓(xùn)練集中少數(shù)類樣本集進(jìn)行擴(kuò)充,增加樣本空間中少數(shù)類意圖的邊界樣本,再利用BiGRU-Attention模型對樣本信息進(jìn)行深層次特征提取,以提升模型意圖識別的效果。最終通過仿真實(shí)驗(yàn)表明ABSMOTE-NC方法能有效提升樣本不平衡情況下的空中群組意圖識別效果,且BiGRU-Attention模型在意圖識別上有更高的識別率。

      猜你喜歡
      群組意圖準(zhǔn)確率
      原始意圖、對抗主義和非解釋主義
      法律方法(2022年2期)2022-10-20 06:42:20
      陸游詩寫意圖(國畫)
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      制定法解釋與立法意圖的反事實(shí)檢驗(yàn)
      法律方法(2021年3期)2021-03-16 05:56:58
      關(guān)系圖特征在敏感群組挖掘中的應(yīng)用研究
      電子測試(2018年14期)2018-09-26 06:04:10
      高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
      基于統(tǒng)計(jì)模型的空間群組目標(biāo)空間位置計(jì)算研究
      燕山秋意圖
      府谷县| 柏乡县| 甘洛县| 新郑市| 庆安县| 芜湖市| 平乐县| 柘荣县| 增城市| 志丹县| 松阳县| 临湘市| 新乡市| 宜城市| 南投县| 营口市| 无棣县| 阜宁县| 集贤县| 长汀县| 武城县| 兴安盟| 上栗县| 苍溪县| 富民县| 靖远县| 岱山县| 孝义市| 多伦县| 凤冈县| 吴旗县| 绥中县| 闻喜县| 乐都县| 江孜县| 佛冈县| 河间市| 通海县| 宿州市| 木兰县| 滦平县|