陳濤 李君 汪向陽 黃湘松
摘 要:針對復(fù)雜背景下, 無法有效識別雷達有源干擾信號的問題, 提出一種基于注意力機制的雷達有源干擾信號識別算法。 首先將干擾信號的時頻圖輸入到特征提取網(wǎng)絡(luò)中, 得到時頻圖的深度特征; 然后引入注意力機制, 通過RPN網(wǎng)絡(luò), 定位干擾信號的位置, 得到受關(guān)注區(qū)域; 最后對受關(guān)注的區(qū)域進行干擾信號類型識別。 仿真結(jié)果表明, 該算法可在復(fù)雜背景下完成對干擾信號的定位、 識別以及分離。 相比于卷積神經(jīng)網(wǎng)絡(luò), 減少了一半的訓練樣本, 提高了訓練效率, 同時總體識別正確率提高了10%, 可以達到95%。
關(guān)鍵詞: 注意力機制; 特征提取; 干擾識別; 有源干擾; RPN; 雷達信號
中圖分類號: TJ765; TN972+.1 文獻標識碼:??? A 文章編號: 1673-5048(2021)05-0086-06
0 引? 言
空間中的干擾信號和雷達信號是并存的,? 雷達想要適應(yīng)干擾信號, 首先要了解干擾信號的類別, 根據(jù)類別調(diào)整發(fā)射信號, 因此對干擾信號識別的研究具有重要意義。 雷達干擾信號分為有源干擾和無源干擾, 本文主要對雷達有源干擾信號進行識別。
目前, 國內(nèi)外學者對雷達有源干擾識別開展了大量研究。 王桂勝等[1]針對變換域干擾識別的問題, 提出從信號空間理論角度對干擾信號進行特征提取, 采用支持向量機對干擾信號進行識別的算法, 但該算法運算量較大, 而且在高干噪比下才有較高的識別正確率。 方芳等[2]針對基于高階累積量和信號特征空間提取特征參數(shù)的識別算法復(fù)雜繁瑣的問題, 提出從時域、 頻域、 變換域等多維域提取特征參數(shù), 采用決策樹進行識別,? 該算法簡單, 但是在低干噪比下識別正確率較低。 隨著深度學習的發(fā)展, 深度學習網(wǎng)絡(luò)在干擾識別的應(yīng)用越來越多, 相比于經(jīng)典的支持向量機和決策樹機器學習算法, 深度學習網(wǎng)絡(luò)降低了手工提取信號特征參數(shù)的復(fù)雜性, 并且有更高的識別正確率。 Wang[3]等針對傳統(tǒng)識別方法效率低和精度低的問題, 通過采用卷積神經(jīng)網(wǎng)絡(luò)的方法對雷達有源干擾信號進行了識別, 雖然該算法有較高的識別正確率, 但是針對的只是單個干擾信號的識別, 在雷達環(huán)境日益復(fù)雜的背景下, 一個雷達脈沖中可能夾雜著多個干擾信號, 僅對單個干擾信號識別缺乏實際意義。 池添放[4]將線性調(diào)頻干擾和噪聲調(diào)頻干擾疊加在一起的時頻圖用來訓練, 利用訓練好的網(wǎng)絡(luò)模型完成對疊加干擾信號的識別, 但是信號的組合類型非常多, 采用這種識別方式的訓練樣本過大, 識別效率低。
基于卷積神經(jīng)網(wǎng)絡(luò)的干擾識別算法是對整張時頻圖的識別, 對圖片的全部特征是等價處理的, 然而圖片中目標信號部分是重要信息, 其他部分是無關(guān)信息。 無關(guān)信息不僅會影響識別的效率, 還會影響識別的結(jié)果。 當圖片中頻譜彌散干擾與噪聲調(diào)頻干擾同時存在, 且頻譜彌散干擾部分占更大的比例時, 卷積神經(jīng)網(wǎng)絡(luò)會將圖片識別成頻譜彌散干擾, 而無法識別噪聲調(diào)頻干擾。
針對以上問題, 引入注意力機制, 使網(wǎng)絡(luò)只關(guān)注重點信息, 忽略無關(guān)信息。 通過軟注意力類型的RPN網(wǎng)絡(luò)得到受關(guān)注的區(qū)域, 將受關(guān)注區(qū)域輸入到分類網(wǎng)絡(luò)里進行干擾信號類型識別。
本文采用帶有RPN網(wǎng)絡(luò)的Faster R-CNN網(wǎng)絡(luò)模型對干擾信號進行識別。 Faster R-CNN作為經(jīng)典的目標檢測網(wǎng)絡(luò), 用來檢測圖片中要識別的目標,首先得到目標的位置,? 再進行識別,? 相比于YOLO和SSD具有更高的檢測精度; 整個檢測網(wǎng)絡(luò)共享全圖的卷積特征, 相比于R-CNN和Fast R-CNN具有更快的檢測速度[5-7]。 針對Faster R-CNN模型里RPN網(wǎng)絡(luò)對干擾信號定位不準確的問題, 對候選框進行修改, 使候選框的大小比例與目標信號更加契合, 得到更加精確的受關(guān)注區(qū)域。 在干擾信號定位精確的前提下, 采用單信號的時頻圖訓練, 利用訓練好的模型可完成對時頻圖中多個干擾信號的識別及分離, 提高訓練效率的同時保證了識別的正確率。
1 識別過程
基于注意力機制的雷達有源干擾信號識別過程如圖1所示, 將輸入的有源干擾信號的時頻圖進行尺寸歸一化, 并輸入至Faster R-CNN網(wǎng)絡(luò)中, 通過CNN特征圖提取網(wǎng)絡(luò)得到特征圖, 通過RPN網(wǎng)絡(luò)定位干擾信號的位置, 最后輸入到分類網(wǎng)絡(luò)中, 對干擾信號的類型進行識別[8-9]。
1.1 CNN特征提取網(wǎng)絡(luò)
本文訓練時輸入的時頻圖像尺寸為677×535, 首先將尺寸調(diào)整為800×600輸入到CNN特征提取網(wǎng)絡(luò)中。
CNN特征提取網(wǎng)絡(luò)包含13個卷積層, 13個激活層和4個池化層, 所有的卷積層的卷積核大小為3×3, 步長為1, pad為1, 卷積層不改變圖片的大小。 所有池化層的卷積核大小為2×2, 步長為2, pad為0, 每經(jīng)過一次池化, 圖片的長寬都會變成池化之前圖片長寬的1/2。 一個 M×N 大小的圖片經(jīng)過CNN特征提取網(wǎng)絡(luò)得到 (M/16)×(N/16) 大小的特征圖。
1.2 RPN網(wǎng)絡(luò)
RPN網(wǎng)絡(luò)分為三個部分, 第一部分是候選框回歸層, 用于計算候選框的位置回歸偏移量; 第二部分是分類層, 通過softmax分類獲得候選框是正樣本還是負樣本, 是一個二分類; 第三部分負責綜合正樣本和對應(yīng)的位置回歸偏移量獲取目標建議框, 得到受關(guān)注的區(qū)域。
1.2.1 候選框
滑動窗口實質(zhì)上是一個3×3的卷積核, 以特征圖上每個點為中心, 以步長為1在特征圖上進行滑動。 將滑動窗口的中心點映射到原圖片上, 由于特征圖是經(jīng)過原圖片16倍放大得來的, 所以特征圖上的每個點對應(yīng)原圖片上的16×16區(qū)域, 以該區(qū)域為基礎(chǔ)框, 對其進行長寬分別2∶1, 1∶1和1∶2的變換, 得到23×12,? 16×16和11×22共3種框。 這3種框相比于目標信號的區(qū)域太小, 分別將其放大8倍、 16倍和32倍, 得到184×96, 128×128, 88×176, 368×192, 256×256, 176×352, 736×384, 512×512和352×704共9種框, 作為候選[10]。
滑動窗口會遍歷特征圖上的每個點, 滑動窗口每滑過一個點, 對應(yīng)原圖片上的區(qū)域移動16個點, 其對應(yīng)候選框的中心點移動了16個點。 原圖片經(jīng)過CNN網(wǎng)絡(luò)生成特征圖的大小為50×38, 滑動窗口遍歷完所有的點, 一共生成17 100個候選框。 候選框的數(shù)量過多, 通過非極大值抑制的方法分別選取128個正樣本和128個負樣本, 與真實目標框(人為標記的矩形框)有最大Iou(候選框與真實目標框的并集與交集的比例)的128個候選框作為正樣本, 與真實目標框有最小Iou的128個候選框作為負樣本。 對正樣本和負樣本計算分類損失, 對正樣本計算回歸損失, 并進行位置回歸[11]。
1.2.2 候選框回歸
圖2為候選框與真實目標框圖, 圖中綠色框為線性掃頻干擾的真實目標框(手工標注), 紅色為提取的候選框, 需采取一種方法對紅色框進行微調(diào), 使得候選框與真實目標框更加接近。
將一個窗口用四維向量 (x,? y,? w,? h) 表示, 尋找一種關(guān)系, 使得候選框經(jīng)過映射得到一個與真實目標框更加接近的回歸窗口,? 如圖3所示。 圖中, A為候選框窗口, G為真實目標框, H為回歸窗口。
由候選窗口到回歸窗口, 一種簡單的變換是先進行平移, 后進行縮放。
平移時, 候選窗口的中心坐標 (Ax, Ay) 分別加上平移量(Δ x, ?Δ y) , 得到回歸窗口的中心坐標 (Hx, Hy) :
Hx= Δ x+AxHy= Δ y+Ay (1)
式中:? Δ x=Aw·dx(A); ?Δ y=Ah·dy(A) 。
縮放時, 將候選窗口的長寬 (Aw, Ah) 進行相應(yīng)倍數(shù)縮放得到候選窗口的長寬 (Hw, Hh) :
Hw=Aw· exp dw(A)Hh=Ah· exp dh(A)) ?(2)
4個系數(shù)做回歸的候選框離真實目標框很近, 可以看作是一種線性變換, 可以采用線性回歸獲得 dx(A) , ?dy(A) , ?dw(A) , ?dh(A) 這4個比例系數(shù)。
線性回歸是給定輸入的特征向量, 學習一組參數(shù), 使得線性回歸后的值和真實值非常接近。 對于該問題, 經(jīng)過特征提取網(wǎng)絡(luò)輸出的特征圖是 50×38×512 , 特征圖上每個像素點是512維的, 輸入為每個像素點對應(yīng)的512維特征向量, 因為在一個點上生成9個候選框, 輸出的是這9個候選框分別對應(yīng)的預(yù)測值( dx(A) , ?dy(A) , ?dw(A) , ?dh(A) ), 即輸出是36維的。 目標函數(shù)定義為
d(A)=WX (3)
式中: X為特征圖上一個點對應(yīng)的特征向量; W為需要學習的參數(shù); ?d(A) 為得到的預(yù)測值。
得到的預(yù)測值與真實值的變換系數(shù)之間仍然有差距, 需要讓其差距更小, 定義損失函數(shù)[12-13]:
Loss=∑i∈x, y, w, h smoothL1(ti-di(A)) (4)
式中: ?ti 為候選框到真實目標框之間的變換系數(shù);? ?smoothL1 損失函數(shù)為
smoothL1=0.5x2 ?if x<1
x-0.5 ???otherwise (5)
候選框到真實目標框之間的變換如下:
tx=Gx-AxAwty=Gy-AyAh
tw= lg (Gw/Aw)
th= lg (Gh/Ah) ?(6)
1.2.3 候選框的修改
本文訓練使用的時頻圖中, 信號所占區(qū)域的長寬比例在3∶1以上, 原始網(wǎng)絡(luò)中生成的9種候選框與目標信號差距過大, 不利于候選框做回歸, 會造成目標建議框定位不準確。 對9種候選框的長寬比例做修改, 改為2∶1, 4∶1和8∶1, 放大比例改為8倍、 16倍和20倍, 不會造成倍數(shù)過大產(chǎn)生所有比例的框超出邊界, 也不會造成倍數(shù)小產(chǎn)生候選框與目標差距過大。 經(jīng)過尺寸調(diào)整后, 得到184×96, 256×64, 384×48, 368×176, 512×128, 768×96, 460×120, 640×160和960×120共9種框。
1.3 分類網(wǎng)絡(luò)
通過RPN網(wǎng)絡(luò)得到的目標建議框是生成在原圖片上的, 需要將其映射到特征圖上。 不同大小的目標建議框?qū)?yīng)特征圖的大小也不同, 在輸入到全連接層之前需要將其變換至固定大小。 感興趣區(qū)域池化實現(xiàn)了這兩個過程。 池化原理: 將大小不同的特征圖的長寬分別分為7份, 對每一份進行最大值池化, 輸出7×7的大小。
將感興趣區(qū)域池化后的特征圖輸入到兩個全連接層里, 之后分別送入到分類層和邊框回歸層, 分類層輸出干擾信號的類別, 邊框回歸層對建議框進行位置精修, 輸出更加精確的目標框。
2 實驗流程及仿真結(jié)果
2.1 實驗環(huán)境
實驗過程在Windows 10系統(tǒng)下調(diào)試運行, 深度學習框架使用的是tensorflow 1.13.1, 編程語言是python, 深度學習網(wǎng)絡(luò)的訓練過程是在CPU的環(huán)境下。
2.2 干擾信號數(shù)據(jù)集的建立
本文所用到的干擾信號類型有單音干擾、 線性掃頻干擾、 頻譜彌散干擾、 切片干擾、 噪聲調(diào)幅干擾和噪聲調(diào)頻干擾[14-15]。 所有干擾信號的采樣頻率為1 GHz, 采樣點數(shù)為5 000, 中心頻率在85~250 MHz隨機取值, 信號帶寬在65~125 MHz隨機取值, 參數(shù)設(shè)置見表1。
在干噪比為-6~8 dB,? 每間隔2 dB產(chǎn)生一組樣本, 每類干擾在每種干噪比下產(chǎn)生100幅時頻圖, 時頻分析方法采用SPWVD分布[16]。 每個干擾總共產(chǎn)生100×8=800幅時頻圖, 6種干擾總共產(chǎn)生4 800幅時頻圖。
按照VOC2007數(shù)據(jù)集的格式對干擾信號的時頻圖進行手工標注目標框和標簽。 制作完成數(shù)據(jù)集, 并用此數(shù)據(jù)集進行訓練。
2.3 仿真結(jié)果
2.3.1 噪聲背景下仿真結(jié)果
建立測試集, 每類干擾在每種干噪比下生成100個樣本, 共5 600組樣本用來測試, 測試結(jié)果如圖4所示。? 由圖可知, 時頻圖經(jīng)過Faster R-CNN網(wǎng)絡(luò), 完成了干擾信號的定位以及識別, 紅色框表示干擾信號的位置, 紅色框左上角顯示了干擾信號的類別以及概率。
單信號的識別正確率和總體識別正確率對比如圖5所示。
由圖5(b)可知, 當干噪比在-4 dB以上時, 本文算法對每類干擾的識別正確率達到100%; 基于信號空間理論提取干擾信號的空間頻譜帶寬、 空間時域峰均比和空間功率譜平坦度等特征參數(shù), 采用支持向量機的干擾識別算法在干噪比為-2 dB時, 對每類干擾的識別正確率達到100%; 基于時域、 頻域以及變換域提取干擾信號的幅度峰均比、 歸一化帶寬和單頻因子系數(shù)等特征參數(shù), 采用決策樹的識別算法在干噪比為6 dB時, 對每類干擾的識別正確率才達到100%, 而且該算法在低干噪比下識別正確率很低。 由此可見, 與經(jīng)典的支持向量機和決策樹算法相比, 本文的總體識別正確率更高。
2.3.2 復(fù)雜背景下仿真結(jié)果
在單音干擾、 線性掃頻干擾、 頻譜彌散干擾和切片干擾中摻入其他信號, 兩兩進行復(fù)合, 時域交疊而頻域不重合。 在每種干噪比下建立200組混合信號的測試集, 進行測試。 識別結(jié)果如圖6~8所示。
復(fù)雜背景下每種干噪比的識別正確率如圖9所示。? 由圖9(a)可以看出, 本文算法對線性掃頻干擾的識別效果不佳, 對切片干擾和頻譜彌散干擾的識別效果更好。
由圖9(b)可以看出, 本文算法在同時出現(xiàn)兩個干擾的情況下, 在每種干噪比下的識別正確率都達到93%以上。 采用卷積神經(jīng)網(wǎng)絡(luò)識別的算法正確率在干噪比大于0 dB時, 不高于90%, 且隨著干噪比增加, 識別正確率逐漸降低。 由此可以看出, 相比于卷積神經(jīng)網(wǎng)絡(luò), 本文算法的性能更好。
2.3.3 候選框修改前后識別結(jié)果對比
Faster R-CNN網(wǎng)絡(luò)中原本生成的候選框的大小與真實目標信號的差距過大, 會造成當兩個信號距離近的時候, 無法定位目標信號的問題。 經(jīng)過候選框修改后的網(wǎng)絡(luò)解決了這個問題, 如圖10所示。
3 結(jié)? 論
本文提出了基于注意力機制的雷達有源干擾信號識別算法。 引入注意力機制, 修改候選框, 定位干擾信號的位置, 當出現(xiàn)其他信號影響待識別的干擾信號時, 實現(xiàn)了干擾信號的定位以及識別; 使用單信號的樣本進行訓練, 提高了訓練效率又保證了識別的準確率。 仿真實驗表明, 在復(fù)雜背景下, 該算法對單信號的識別正確率較高, 對多個干擾信號同時識別也有著不錯的正確率。
參考文獻:
[1] 王桂勝,? 任清華,? 姜志剛,? 等. 基于信號特征空間的TDCS干擾分類識別[J]. 系統(tǒng)工程與電子技術(shù),? 2017,? 39(9): 1950-1958.
Wang Guisheng,? Ren Qinghua,? Jiang Zhigang,? et al. Jamming Classification and Recognition in Transform Domain Communication System Based on Signal Feature Space[J]. Systems Engineering and Electronics,? 2017,? 39(9): 1950-1958.(in Chinese)
[2] 方芳,? 李永貴,? 牛英滔,? 等. 基于決策樹算法的干擾信號識別[J]. 通信技術(shù),? 2019,? 52(11): 2617-2623.
Fang Fang,? Li Yonggui,? Niu Yingtao,? et al. Jamming Signal Reco-gnition Based on Decision Tree Algorithm[J]. Communications Technology,? 2019,? 52(11): 2617-2623.(in Chinese)
[3] Wang Y F,? Sun B Y,? Wang N. Recognition of Radar Active-Jamming through Convolutional Neural Networks[J]. The Journal of Engineering,? 2019,? 2019(21): 7695-7697.
[4] 池添放. 基于CNN的四類干擾信號識別算法[D]. 武漢: 華中科技大學,? 2019.
Chi Tianfang. Recognition Algorithm for the Four Kinds of Interference Signals[D]. Wuhan: Huazhong University of Science and Technology,? 2019. (in Chinese)
[5] Ren S Q,? He K M,? Girshick R,? et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2017,? 39(6): 1137-1149.
[6] Liu B,? Zhao W C,? Sun Q Q. Study of Object Detection Based on Faster R-CNN[C]∥Chinese Automation Congress (CAC),?? 2017: 6233-6236.
[7] 鄭渝,? 沈永健,? 周云生. Faster R-CNN實現(xiàn)交疊雷達信號的調(diào)制識別與參數(shù)提取[J]. 遙測遙控,? 2019,? 40(3): 32-40.
Zheng Yu,? Shen Yongjian,? Zhou Yunsheng. Radar Signal Modulation Identification Based on Multilayer Bidirectional LSTM[J]. Journal of Telemetry, Tracking and Command,? 2019,? 40(3): 32-40.(in Chinese)
[8] Basri H,? Syarif I,? Sukaridhoto S. Faster R-CNN Implementation Method for Multi-Fruit Detection Using Tensorflow Platform[C]∥2018 International Electronics Symposium on Knowledge Creation and Intelligent Computing (IES-KCIC),? 2018: 337-340.
[9] Abbas S M,? Singh D S N. Region-Based Object Detection and Classification Using Faster R-CNN[C]∥4th International Conference on Computational Intelligence & Communication Technology (CICT),? 2018: 1-6.
[10] Cai W D,? Li J D,? Xie Z Z,? et al. Street Object Detection Based on Faster R-CNN[C]∥37th Chinese Control Conference (CCC),? 2018: 9500-9503.
[11] Zhu B B,? Wu X Y,? Yang L,? et al. Automatic Detection of Books Based on Faster R-CNN[C]∥Third International Conference on Digital Information Processing,? Data Mining,? and Wireless Communications (DIPDMWC), 2016: 8-12.
[12] Tang J H,? Mao Y C,? Wang J,? et al. Multi-Task Enhanced Dam Crack Image Detection Based on Faster R-CNN[C]∥ IEEE 4th International Conference on Image,? Vision and Computing (ICIVC), 2019: 336-340.
[13] Yang J Q,? Ren P,? Kong X X. Handwriting Text Recognition Based on Faster R-CNN[C]∥Chinese Automation Congress (CAC),? 2019: 2450-2454.
[14] 陳玉絨,? 閆澤林,? 吳若妤,? 等. 雷達有源壓制式干擾信號建模與仿真[J]. 智能計算機與應(yīng)用,? 2019,? 9(5): 220-222.
Chen Yurong,? Yan Zelin,? Wu Ruoyu,? et al. Modeling and Simulation of Radar Active Suppression Jamming Signal[J]. Intelligent Computer and Applications,? 2019,? 9(5): 220-222.(in Chinese)
[15] 羅彬珅,? 劉利民,? 劉璟麒,? 等. 噪聲調(diào)制類有源干擾信號識別技術(shù)研究[J]. 雷達科學與技術(shù),? 2019,? 17(6): 597-602.
Luo Binshen,? Liu Limin,? Liu Jingqi,? et al. Research on Noise Modulated Active Jamming Signal Recognition Technology[J]. Radar Science and Technology,? 2019,? 17(6): 597-602.(in Chinese)
[16] 李秀梅,? 楊國青. 幾種時頻分析方法的性能比較[J]. 計算機仿真,? 2015,? 32(3): 220-224.
Li Xiumei,? Yang Guoqing. Performance Comparisons among Time-Frequency Representations[J]. Computer Simulation,? 2015,? 32(3): 220-224.(in Chinese)
Recognition of Radar Active Jamming Signal
Based on Attention Mechanism
Chen Tao1, 2, Li Jun1, 2*, Wang Xiangyang3, Huang Xiangsong1, 2
(1.College of Information and Communication Engineering,? Harbin Engineering University, Harbin 15001, China;
2.Key Laboratory of Advanced Marine Communication and Information Technology, Ministry of Industry and Information
Technology, Harbin 150001, China; 3.Unit 63861 of PLA, Jilin 137001, China)
Abstract: Aiming at the problem that radar active jamming signal cannot be recognized effectively in complex background,? a recognition algorithm of radar active jamming signal based on attention mechanism is proposed. Firstly,? the time-frequency map of the interference signal is input into the feature extraction network to obtain the depth feature.? Then,? the attention mechanism is introduced to locate the location of? interference signal through RPN network to get the region of interest. Finally,? the type of interference signal is identified for the region of interest. The simulation results show that the algorithm can locate,? recognize and separate jamming signals in complex background. Compared with convolution neural network,? the training sample is reduced by half,? and the training efficiency is improved. At the same time,? the overall recognition accuracy is? improved by 10%,? which can reach 95%.
Key words: attention mechanism; feature extraction; recognition of jamming;? active jamming; RPN; radar signal