張 良, 楊 威, 李瑋杰, 楊小琪, 劉永祥
(國防科學(xué)技術(shù)大學(xué)電子科學(xué)學(xué)院, 湖南 長沙 410073)
自然環(huán)境的雷達(dá)回波是雷達(dá)目標(biāo)檢測中的雜波。對不同的雜波,雷達(dá)接收端的信號處理策略也不同[1]。雜波背景下的高精度目標(biāo)檢測需要對雜波幅度統(tǒng)計模型進(jìn)行分類,再根據(jù)雜波類型采用最優(yōu)的雜波抑制策略。因此,雜波幅度統(tǒng)計模型分類成為雜波背景下檢測目標(biāo)的重要步驟。
當(dāng)前,雜波分類主要包括雜波屬性分類和雜波幅度統(tǒng)計模型分類。Simon[2]首次研究了雜波屬性分類問題。他將空中交通管制雷達(dá)雜波分為鳥、天氣以及地雜波,在研究中提出利用分類器對提取的雜波特征進(jìn)行學(xué)習(xí)實現(xiàn)雜波分類,取得了較高的分類準(zhǔn)確率[2-3]。受此方法啟發(fā),眾多學(xué)者在后續(xù)研究中將重點聚焦于兩方面,一是雜波特征提取,二是分類器的設(shè)計和選擇。在雜波特征提取方面,學(xué)者們根據(jù)雜波類型和性質(zhì)提取了雜波的時域統(tǒng)計特征[4-5]、頻域頻譜特征[6-7]、圖像特征[8-9]、空間方位特征[10-11]等特征。在分類器設(shè)計和選擇方面,主要針對分類器的特征學(xué)習(xí)算法進(jìn)行研究,通過提高特征學(xué)習(xí)精度提高雜波分類準(zhǔn)確率,現(xiàn)有的分類器主要有淺層人工神經(jīng)網(wǎng)絡(luò)[2]、支持向量機(jī)[5]、反向傳播(back propagation, BP)神經(jīng)網(wǎng)絡(luò)[12]等。利用分類器學(xué)習(xí)特征進(jìn)行雜波屬性分類的優(yōu)點是可以利用少量特征實現(xiàn)較高的分類準(zhǔn)確率,缺點是提取的大多是低階特征,難以提取高階特征,且需要人工提取特征,費(fèi)時費(fèi)力耗資源。
相比于對雜波屬性分類研究,對雜波幅度統(tǒng)計模型分類的研究報道較少。雜波幅度統(tǒng)計模型是描述雜波幅度起伏的概率分布模型,現(xiàn)已提出了高斯分布、瑞利分布、韋布爾分布、對數(shù)正態(tài)分布、K分布、伽瑪分布等諸多類型。雜波幅度統(tǒng)計模型分類是雜波背景下檢測目標(biāo)的重要步驟,為此學(xué)者們提出了諸多分類方法:如直方圖分析法[13],該方法根據(jù)雜波的幅值統(tǒng)計分布擬合的直方圖曲線形狀進(jìn)行判別,沒有客觀精確的判別參量,精度不高;如KS(Kolmogorov Smirnov)假設(shè)檢驗法[14]和歸一似然比假設(shè)檢驗法[15],假設(shè)檢驗法需根據(jù)觀測序列估計樣本概率密度或樣本累積分布函數(shù),受樣本區(qū)間劃分影響大,對參數(shù)估計的精度要求高,計算復(fù)雜;如卷積神經(jīng)網(wǎng)絡(luò)分類法[16],該方法具有特征自主深度學(xué)習(xí)的特點,可直接對雜波數(shù)據(jù)進(jìn)行有監(jiān)督特征自學(xué)習(xí),實現(xiàn)雜波分類,但由于受制于實數(shù)數(shù)據(jù),分類效果也受限。
雷達(dá)回波數(shù)據(jù)通常是復(fù)數(shù)數(shù)據(jù)。復(fù)數(shù)數(shù)據(jù)包含實部和虛部,若將這兩部分看成獨(dú)立的兩個通道,兩個通道所包含的數(shù)據(jù)量之和就是復(fù)數(shù)數(shù)據(jù)的數(shù)據(jù)量,這是實數(shù)數(shù)據(jù)量的兩倍,且復(fù)數(shù)數(shù)據(jù)包含的信息量也比實數(shù)數(shù)據(jù)更豐富,因為這兩部分之間還具有相位信息,這是實數(shù)數(shù)據(jù)沒有的,而不同的雜波,實部和虛部之間的相位信息也不同。利用數(shù)據(jù)特征進(jìn)行分類時,數(shù)據(jù)信息越豐富,包含的特征就越多,分類精度也會越高,因此復(fù)數(shù)數(shù)據(jù)比實數(shù)數(shù)據(jù)更適用于雜波分類。Nitta[17]指出,復(fù)數(shù)數(shù)據(jù)具有更容易優(yōu)化、更好的泛化特性、更快的學(xué)習(xí)效率、更好的魯棒性等特性。Arjovsky[18]和Wisdom[19]等人的研究表明,復(fù)數(shù)具有更豐富的表征能力。但是,現(xiàn)有雜波幅度統(tǒng)計模型分類研究都是在實數(shù)數(shù)據(jù)上進(jìn)行的,不僅舍棄了雜波虛部數(shù)據(jù)的信息量,還舍棄了雜波的相位信息,使數(shù)據(jù)特征的完整性和有效性遭到損壞,導(dǎo)致分類性能并不理想。
隨著研究的不斷深入,神經(jīng)網(wǎng)絡(luò)在雷達(dá)領(lǐng)域的應(yīng)用越來越廣,但復(fù)數(shù)網(wǎng)絡(luò)的應(yīng)用還較少。對復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)的研究可追溯到上世紀(jì)九十年代。1990年Kim[20]將反向傳播網(wǎng)絡(luò)算法從實數(shù)域推廣到復(fù)數(shù)域,同年,Clarke[21]提出了復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)的算法。后來Ronny[22]給出了復(fù)數(shù)反向傳播算法的一般推導(dǎo),并通過PolSAR圖像中不同土地類型的分類實驗,驗證了復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)(complex-valued neural networks,CVNNs)的性能優(yōu)于實數(shù)多層感知機(jī)(multilayer perceptrons,MLPs)。文獻(xiàn)[23]介紹了從實數(shù)卷積神經(jīng)網(wǎng)絡(luò)(real-valued convolutional neural networks,RV-CNN)擴(kuò)展到復(fù)數(shù)卷積神經(jīng)網(wǎng)絡(luò)(complex-valued convolutional neural network,CV-CNN)的前向傳播算法和后向傳播算法的推導(dǎo),并通過合成孔徑雷達(dá)(synthetic aperture radar, SAR)圖像分類實驗證明CV-CNN能獲得優(yōu)于RV-CNN的分類性能。文獻(xiàn)[24]分析了常用的復(fù)數(shù)激活函數(shù)的性能,并提出了復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)中復(fù)數(shù)數(shù)據(jù)的批歸一化(batch normalization,BN)算法和復(fù)數(shù)權(quán)重初始化方法,并分別利用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)和卷積長短期記憶網(wǎng)絡(luò)(convolutional long short-term memory,Conv-LSTM)進(jìn)行SAR圖像分類和自動音樂轉(zhuǎn)錄實驗,實驗結(jié)果表明復(fù)數(shù)網(wǎng)絡(luò)的性能比實數(shù)網(wǎng)絡(luò)的更好。但是,復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)的應(yīng)用也面臨諸多困難,主要是因為復(fù)數(shù)在神經(jīng)網(wǎng)絡(luò)中的運(yùn)算方式復(fù)雜,導(dǎo)致復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)的功能模塊構(gòu)建困難[24],以池化算法實現(xiàn)為例,復(fù)數(shù)平均池化算法可以根據(jù)實數(shù)平均池化算法的定義直接在復(fù)數(shù)域擴(kuò)展得到,但復(fù)數(shù)最大池化算法卻不行。
本文引入復(fù)數(shù)神經(jīng)網(wǎng)絡(luò),利用仿真雜波高分辨距離像(high resolution range profile,HRRP)復(fù)數(shù)數(shù)據(jù),對雷達(dá)雜波幅度統(tǒng)計模型分類問題進(jìn)行研究,完成了以下工作:
(1)為構(gòu)建復(fù)數(shù)最大池化層,定義并改進(jìn)了復(fù)數(shù)最大池化算法,通過CV-CNN對雜波幅度統(tǒng)計模型的分類實驗,對比了兩種復(fù)數(shù)最大池化算法和復(fù)數(shù)平均池化算法的分類效果,實驗結(jié)果表明復(fù)數(shù)最大池化算法的分類效果更好,分類準(zhǔn)確率為97.29%;
(2)為進(jìn)一步提高分類準(zhǔn)確率,構(gòu)建了復(fù)數(shù)卷積-殘差網(wǎng)絡(luò)(complex-valued convolution-ResNet,CV-CRN),通過實驗對比分析了CV-CRN采用不同池化組合的分類效果以及網(wǎng)絡(luò)的魯棒性,實驗結(jié)果表明,CV-CRN的分類性能優(yōu)于CV-CNN,且當(dāng)CV-CRN中的復(fù)數(shù)卷積-池化模塊和改進(jìn)的復(fù)數(shù)殘差塊分別采用復(fù)數(shù)平均池化和正常復(fù)數(shù)最大池化時能獲得更好的分類效果,分類準(zhǔn)確率達(dá)到98.84%,且對雜噪比(雜波與噪聲的功率比)為0 dB的雜波數(shù)據(jù)的分類準(zhǔn)確率達(dá)到93.42%,具有較好的魯棒性。
神經(jīng)網(wǎng)絡(luò)中的運(yùn)算主要包括卷積運(yùn)算和乘積運(yùn)算,分別在卷積層和全連接層中完成。一維神經(jīng)網(wǎng)絡(luò)中的復(fù)數(shù)輸入數(shù)據(jù)和復(fù)數(shù)權(quán)重向量分別表示為d=a+ib和W=A+iB,其中a、b、A和B都是實數(shù)向量。
卷積層中,復(fù)數(shù)權(quán)重W與復(fù)數(shù)數(shù)據(jù)d的卷積運(yùn)算為
W*d=(A*a-B*b)+i(B*a+A*b)
(1)
也可用矩陣表示為
(2)
其中,R和S分別表示實部和虛部。若復(fù)數(shù)卷積層的輸入數(shù)據(jù)為I∈CW1×H1×M1,該卷積層的復(fù)數(shù)權(quán)重矩陣為w∈CF×F×M1×N1,復(fù)數(shù)偏置為b∈CN1,輸出數(shù)據(jù)為O∈CW2×H2×M2。復(fù)數(shù)卷積層的具體運(yùn)算如下:
R(Vn)+iS(Vn)+bn
(3)
On=f(R(Vn))+if(S(Vn))
(4)
式中:Vn表示第n個神經(jīng)元的復(fù)數(shù)卷積加權(quán)和;wmn表示第n個神經(jīng)元與第m個通道的輸入數(shù)據(jù)進(jìn)行卷積的復(fù)數(shù)權(quán)重矩陣;符號*表示卷積運(yùn)算;Im表示第m個通道的輸入數(shù)據(jù);f(·)表示非線性激活函數(shù);On表示第n個神經(jīng)元的輸出數(shù)據(jù)。
全連接層中,復(fù)數(shù)權(quán)重W與復(fù)數(shù)數(shù)據(jù)d的乘積運(yùn)算為
Wd=(Aa-Bb)+i(Ba+Ab)
(5)
用矩陣表示為
(6)
若復(fù)數(shù)全連接層的輸入數(shù)據(jù)為I∈CW3×H3×M3,該卷積層的復(fù)數(shù)權(quán)重矩陣為w∈CW3×H3×M3×N2,復(fù)數(shù)偏置為b∈CN2,輸出數(shù)據(jù)為O∈CW4×H4×M4。復(fù)數(shù)全連接層的具體運(yùn)算如下:
R(VFn)+iS(VFn)+bn
(7)
On=f(R(VFn))+if(S(VFn))
(8)
其中,VFn表示全連接層中第n個神經(jīng)元的復(fù)數(shù)乘積加權(quán)和。
神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程就是參數(shù)迭代優(yōu)化的過程,而參數(shù)的迭代優(yōu)化是通過誤差反向傳播實現(xiàn)的,即通過計算損失函數(shù)L對參數(shù)w的導(dǎo)數(shù)?L/?w(即誤差梯度),利用優(yōu)化規(guī)則w′=w-ε·(?L/?w)實現(xiàn)參數(shù)的優(yōu)化,ε是學(xué)習(xí)速率。實現(xiàn)誤差反向傳播的必要條件是損失函數(shù)對網(wǎng)絡(luò)中的變量可導(dǎo),而在復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)中,這個必要條件則是損失函數(shù)對網(wǎng)絡(luò)中變量的實部和虛部都可導(dǎo)。
1.2.1 復(fù)數(shù)鏈規(guī)則
基于損失函數(shù)對網(wǎng)絡(luò)中變量的實部和虛部都可導(dǎo)這一必要條件推導(dǎo)復(fù)數(shù)的鏈規(guī)則。
損失函數(shù)L對復(fù)數(shù)變量z=x+iy(x,y∈R)的誤差為
R(ΔL(z))+iS(ΔL(z))
(9)
若可由復(fù)數(shù)變量t=u+iv(u,v∈R)表示,則可得到復(fù)數(shù)鏈:
(10)
1.2.2 復(fù)數(shù)誤差反向傳播
(S(Lek[n])-S(Ok[n]))2]
(11)
其中,Ok[n]表示第k個輸出神經(jīng)元對第n個輸入數(shù)據(jù)的預(yù)測標(biāo)簽。
根據(jù)復(fù)數(shù)鏈規(guī)則可得到權(quán)重和偏置的迭代公式:
(12)
(13)
(14)
為了簡化式(14),定義一個中間量“誤差項”:
(15)
根據(jù)式(3)、式(4)、式(11)和式(15),式(14)可化簡為
(16)
在神經(jīng)網(wǎng)絡(luò)中,池化層通常接在卷積層后面,對卷積層輸出的特征進(jìn)行下采樣,實現(xiàn)特征的降維壓縮,這樣不僅能去除冗余信息,還能降低網(wǎng)絡(luò)復(fù)雜度、較小計算量。另外,池化層中的運(yùn)算是非線性的,這也增加了網(wǎng)絡(luò)的非線性。隨著研究的深入,池化方式越來越多,平均池化和最大池化是最常用的兩種。本節(jié)基于實數(shù)神經(jīng)網(wǎng)絡(luò)中的平均池化和最大池化算法的定義,基于python編程語言實現(xiàn),定義了復(fù)數(shù)平均池化和復(fù)數(shù)最大池化算法,并對復(fù)數(shù)最大池化算法做了改進(jìn)。
實數(shù)神經(jīng)網(wǎng)絡(luò)中平均池化是對池域內(nèi)的數(shù)據(jù)做算術(shù)平均運(yùn)算,算法的定義為
(17)
式中:I表示輸入特征數(shù)據(jù);Oavg(x,y)表示在輸入數(shù)據(jù)I的坐標(biāo)平面內(nèi),以坐標(biāo)(x,y)為起點的池域內(nèi)數(shù)據(jù)的均值,k和s2分別為池的尺寸和步長,池域的大小為1≤X≤k, 1≤Y≤k。
復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)處理的是包含實部和虛部的復(fù)數(shù)數(shù)據(jù),池化運(yùn)算需要同時處理復(fù)數(shù)的實部和虛部。平均池化是對池域內(nèi)的數(shù)據(jù)做算術(shù)平均運(yùn)算,對復(fù)數(shù)數(shù)據(jù)就是分別對實部和虛部同時做算術(shù)平均,因此可以得到復(fù)數(shù)平均池化算法的定義為
(18)
其中輸入數(shù)據(jù)I∈CW3×H3×M2和輸出數(shù)據(jù)為O∈CW4×H4×M2均為復(fù)數(shù)。
實數(shù)神經(jīng)網(wǎng)絡(luò)中最大池化是對池域內(nèi)的數(shù)據(jù)進(jìn)行比較并提取最大值的運(yùn)算,算法的定義為
(19)
式(19)篩選的最大值Omax(x,y)可看成是池域內(nèi)的最顯著特征,值的大小表示特征顯著性的強(qiáng)度。
但是,對于復(fù)數(shù)而言,由于沒有比較大小的準(zhǔn)則,要定義復(fù)數(shù)最大池化算法,首先就要確定比較復(fù)數(shù)大小準(zhǔn)則。復(fù)數(shù)包含幅度和相位信息的特質(zhì)使我們可以在時域和頻域?qū)?fù)數(shù)進(jìn)行處理和分析,考慮到本文研究的是雜波幅度統(tǒng)計模型分類問題,所以本文考慮將復(fù)數(shù)數(shù)據(jù)轉(zhuǎn)換到時域,通過比較復(fù)數(shù)幅值的大小確定最大復(fù)數(shù)。
復(fù)數(shù)最大池化算法的定義為
(20)
式(20)運(yùn)算過程復(fù)雜繁瑣,且運(yùn)算量大且難以實現(xiàn)。為簡化運(yùn)算過程、減少運(yùn)算量,且使其更易于實現(xiàn),參考復(fù)數(shù)平均池化算法的定義,將復(fù)數(shù)最大池化算法改進(jìn)為
(21)
本文構(gòu)建了CV-CNN對上一節(jié)中定義的3種復(fù)數(shù)池化算法的分類效果進(jìn)行了實驗對比,實驗結(jié)果表明,采用復(fù)數(shù)最大池化的分類效果更好,分類準(zhǔn)確率為97.29%,具體見第4.2.1節(jié)。為進(jìn)一步提高分類準(zhǔn)確率,本文受文獻(xiàn)[25]和文獻(xiàn)[26]的啟發(fā),構(gòu)建一維CV-CRN對雷達(dá)雜波幅度統(tǒng)計模型分類問題進(jìn)行研究。CV-CRN的結(jié)構(gòu)示意圖如圖1所示。
圖1 CV-CRN結(jié)構(gòu)示意圖
輸入層接收一維或多維的單通道或多通道復(fù)數(shù)數(shù)據(jù)。復(fù)數(shù)數(shù)據(jù)輸入復(fù)數(shù)網(wǎng)絡(luò)時,輸入層可將復(fù)數(shù)數(shù)據(jù)作為單通道數(shù)據(jù)[23],也可將復(fù)數(shù)的實部和虛部提取成單獨(dú)的通道,作為雙通道數(shù)據(jù)[27]。
全連接層將卷積模塊和殘差模塊的輸出拼接,并進(jìn)一步提取特征進(jìn)行分類。
輸出層接收最后一個全連接層輸出的分類向量,在分類問題中,通常使用softmax或log_softmax輸出分類標(biāo)簽。復(fù)數(shù)網(wǎng)絡(luò)的輸出層從全連接層接收的分類向量是復(fù)數(shù),在執(zhí)行softmax操作前需根據(jù)設(shè)置的標(biāo)簽的形式對其采取相應(yīng)的處理方式。文獻(xiàn)[23]設(shè)置的是實數(shù)標(biāo)簽,在執(zhí)行softmax操作前先對復(fù)數(shù)分類向量進(jìn)行取模處理;文獻(xiàn)[24]設(shè)置的是復(fù)數(shù)標(biāo)簽,處理方式是分別對實部和虛部執(zhí)行softmax操作,然后求平方根。本文設(shè)置的是實數(shù)標(biāo)簽,采取與文獻(xiàn)[23]相同的處理方式。
CNN是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)代表結(jié)構(gòu)之一,目前已廣泛應(yīng)用于圖片識別分類、圖像分割和自然語言處理等領(lǐng)域,具有稀疏交互、參數(shù)共享、等變表示的特性[28],能夠分層學(xué)習(xí)數(shù)據(jù)特征。
本文構(gòu)建的復(fù)數(shù)卷積-池化模塊如圖2所示。第一個卷積層使用尺寸為5的卷積核,因為大尺寸卷積核具有更大的視野,可以提取數(shù)據(jù)較大視野的整體特征[29]。其余卷積層的卷積核尺寸為3,步長為1。Zeiler等人的研究[30]表明,使用小尺寸卷積核和步長1進(jìn)行卷積能獲得更好的性能。結(jié)合小尺寸卷積核的卷積層和池化層,網(wǎng)絡(luò)能更充分的提取數(shù)據(jù)特征。因此,復(fù)數(shù)卷積-池化模塊使用大尺寸卷積核與小尺寸卷積核的卷積層組合,以增強(qiáng)對數(shù)據(jù)特征尺度的適應(yīng)性。
圖2 復(fù)數(shù)卷積-池化模塊結(jié)構(gòu)示意圖
殘差網(wǎng)絡(luò)[25](residual network,ResNet)由一系列殘差塊組成,殘差塊的結(jié)構(gòu)如圖3所示。殘差塊包含兩個以上的卷積層,其數(shù)據(jù)流向有兩條,一條經(jīng)過卷積層,另一條不經(jīng)過卷積層。殘差塊的結(jié)構(gòu)使能夠在提升網(wǎng)絡(luò)深度的同時,保證網(wǎng)絡(luò)不會發(fā)生梯度消失或梯度爆炸現(xiàn)象,而網(wǎng)絡(luò)深度的增加能夠提取數(shù)據(jù)更深層次的特征,這種特征具有更好的魯棒性。
圖3 殘差塊結(jié)構(gòu)示意圖
基于殘差塊的優(yōu)點,本文考慮將殘差塊結(jié)構(gòu)與CV-CNN結(jié)合,以構(gòu)建新的復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)。考慮到本文采用的雜波HRRP復(fù)數(shù)數(shù)據(jù)是一維數(shù)據(jù),而復(fù)數(shù)卷積層輸出的是二維數(shù)據(jù),要使復(fù)數(shù)殘差塊得到輸出H(x)=F(x)+x,就需要對特征數(shù)據(jù)F(x)降維,并將其尺寸變換成輸入數(shù)據(jù)x的尺寸,因此本文對殘差塊結(jié)構(gòu)進(jìn)行了改進(jìn),構(gòu)建了如圖4所示的復(fù)數(shù)殘差塊。
圖4 改進(jìn)的殘差塊結(jié)構(gòu)示意圖
改進(jìn)的復(fù)數(shù)殘差塊包含5個復(fù)數(shù)卷積層、3個復(fù)數(shù)池化層和1個尺寸變換層。數(shù)據(jù)輸入后,復(fù)數(shù)卷積層對數(shù)據(jù)進(jìn)行特征提取,復(fù)數(shù)池化層對數(shù)據(jù)進(jìn)行特征提取并降維,尺寸變換層對數(shù)據(jù)進(jìn)行尺寸變換,得到與輸入數(shù)據(jù)尺寸一致的特征數(shù)據(jù),將其與輸入數(shù)據(jù)相加得到復(fù)數(shù)殘差塊的輸出。
GoogLeNet團(tuán)隊提出了inception結(jié)構(gòu)[26],通過此結(jié)構(gòu)搭建了具有稀疏性和高計算性能的神經(jīng)網(wǎng)絡(luò)。受inception結(jié)構(gòu)的啟發(fā),本文將復(fù)數(shù)卷積-池化模塊和改進(jìn)的復(fù)數(shù)殘差模塊并聯(lián),構(gòu)建了如圖5所示的CV-CRN。復(fù)數(shù)卷積模塊使用尺寸為5和3的卷積核,可以增加網(wǎng)絡(luò)對數(shù)據(jù)特征尺度的適應(yīng)性,能夠更充分提取數(shù)據(jù)特征。與復(fù)數(shù)殘差模塊并聯(lián),可以增加網(wǎng)絡(luò)寬度和稀疏性,提高網(wǎng)絡(luò)計算性能,并能更好的學(xué)習(xí)數(shù)據(jù)特征。
圖5 CV-CRN結(jié)構(gòu)示意圖
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)的作用是對卷積層、全連接層等的輸出做非線性運(yùn)算,給神經(jīng)網(wǎng)絡(luò)加入一些非線性因素,防止多層神經(jīng)網(wǎng)絡(luò)退化為一個多層的線性回歸模型,使神經(jīng)網(wǎng)絡(luò)可以更好地解決較為復(fù)雜的問題。文獻(xiàn)[24]對modReLU、復(fù)數(shù)ReLU(或ReLU)和zReLU這3種復(fù)數(shù)激活函數(shù)進(jìn)行了分析和對比,得出的結(jié)論是:復(fù)數(shù)ReLU的性能優(yōu)于modReLU和zReLU。因此,本文采用復(fù)數(shù)ReLU(或ReLU)作為CV-CRN的激活函數(shù)。3種復(fù)數(shù)激活函數(shù)的定義如下:
(1)modReLU
modReLU=ReLU(|z|+b)eiθz=
(22)
其中z∈C;θz是z的相位;b∈R是可學(xué)習(xí)參數(shù)。
(2)復(fù)數(shù)ReLU(CReLU)
CReLU=ReLU(R(z))+iReLU(S(z))
(23)
復(fù)數(shù)ReLU的本質(zhì)是在數(shù)據(jù)的實部和虛部上單獨(dú)使用ReLU進(jìn)行激活。
(3)zReLU
(24)
其中z∈C,θz是z的相位。
另外,由于雜波幅度統(tǒng)計模型是概率分布模型,而交叉熵是度量兩個概率分布之間差異性的重要指標(biāo),因此在網(wǎng)絡(luò)訓(xùn)練階段,本文采用交叉熵作為CV-CRN的損失函數(shù)。交叉熵公式為
L=-∑yilog(pi)
(25)
其中yi是第i個樣本的真實類別標(biāo)簽,是pi網(wǎng)絡(luò)對第i個樣本預(yù)測的類別標(biāo)簽。
需要說明的是,自然環(huán)境雷達(dá)回波的幅度統(tǒng)計概率分布受環(huán)境類型、環(huán)境當(dāng)前氣候條件等因素的影響而變化不定,不同環(huán)境類型的雷達(dá)回波可能服從不同的分布,也可能服從相同的分布,而在不同的天候條件下同一環(huán)境的雷達(dá)回波可能服從不同的分布,這導(dǎo)致服從不同分布的自然環(huán)境雷達(dá)回波實測數(shù)據(jù)采集非常困難。
另一方面,類似于沙地、草地等自然環(huán)境的屬性標(biāo)簽,瑞利分布、K分布等是雜波幅度模型的類型標(biāo)簽。雜波幅度統(tǒng)計模型研究需要用精確標(biāo)注的數(shù)據(jù)對分類方法進(jìn)行驗證,由于沒有精確的標(biāo)注方法,因此對實測數(shù)據(jù)標(biāo)注非常困難。綜上兩個方面的原因,本文實驗主要基于仿真數(shù)據(jù)進(jìn)行。
本文利用Matlab仿真雷達(dá)雜波復(fù)數(shù)HRRP數(shù)據(jù)。目前,產(chǎn)生具有一定概率分布的相干隨機(jī)序列有兩種典型方法:零記憶非線性變換(zero memory non-linearity,ZMNL)法和球不變隨機(jī)過程(spherically lnvariant random process,SIRP)法。本文參考文獻(xiàn)[31]和文獻(xiàn)[32]中的方法仿真相干瑞利分布、相干韋布爾分布、相干對數(shù)正態(tài)分布和相干K分布4類雜波數(shù)據(jù),仿真原理框圖如圖6所示。四類雜波的概率密度函數(shù)(probability density function,PDF)和實驗數(shù)據(jù)獲取流程如表1和表2所示,雜波仿真數(shù)據(jù)的相位統(tǒng)一為均勻分布隨機(jī)值。
表1 4類雜波的概率密度函數(shù)
圖6 雷達(dá)雜波復(fù)數(shù)HRRP仿真原理框圖
雜波數(shù)據(jù)集獲取流程為:
步驟 1利用SIRP法根據(jù)表2中的參數(shù)仿真得到4類無噪聲雜波數(shù)據(jù)集A;
表2 仿真參數(shù)
步驟 2分別瑞利分布、韋布爾分布、對數(shù)正態(tài)分布和K分布雜波的標(biāo)簽設(shè)置為0、1、2和3,并與數(shù)據(jù)集A對應(yīng)拼接,得到帶標(biāo)簽數(shù)據(jù)集A′;
步驟 3給數(shù)據(jù)集A′分別添加雜噪比為0 dB、5 dB和10 dB的噪聲模擬雷達(dá)電器件熱噪聲,得到數(shù)據(jù)集B0、B5和B10;
步驟 4將數(shù)據(jù)集A′、B0、B5和B10按5∶1的比例劃分為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集。
訓(xùn)練數(shù)據(jù)集每類分布10 000個樣本,測試數(shù)據(jù)集每類2 000個樣本,每個樣本包含256個距離單元的復(fù)數(shù)數(shù)據(jù)點,并對4類數(shù)據(jù)標(biāo)注實數(shù)標(biāo)簽。加噪聲的數(shù)據(jù)集用于檢驗CV-CRN的魯棒性。對上述無噪和加噪數(shù)據(jù)取模得到對應(yīng)的實數(shù)HRRP數(shù)據(jù),用于實數(shù)卷積神經(jīng)網(wǎng)絡(luò)分類對比實驗。4類分布數(shù)據(jù)及其概率分布曲線隨參數(shù)變化情況如圖7和圖8所示。
圖7 4類分布取模后的實數(shù)HRRP數(shù)據(jù)圖
圖8 4類分布曲線隨參數(shù)變化情況
實驗流程為:
步驟 1構(gòu)建神經(jīng)網(wǎng)絡(luò)RV-CNN、CV-CNN和CV-CRN;
步驟 2設(shè)置網(wǎng)絡(luò)超參數(shù),包括小批量訓(xùn)練樣本集batchsize、學(xué)習(xí)速率lr和網(wǎng)絡(luò)訓(xùn)練次數(shù)epoch;
步驟 3這只網(wǎng)絡(luò)訓(xùn)練參數(shù)優(yōu)化器;
步驟 4設(shè)置分類器;
步驟 5執(zhí)行實驗:實驗一,池化算法分類效果對比實驗,將無噪聲帶標(biāo)簽數(shù)據(jù)集A′輸入神經(jīng)網(wǎng)絡(luò)RV-CNN和CV-CNN,RV-CNN分別設(shè)置平均池化算法和最大池化算法,CV-CNN分別設(shè)置復(fù)數(shù)平均池化算法、復(fù)數(shù)最大池化算法和改進(jìn)的復(fù)數(shù)最大池化算法,根據(jù)實驗結(jié)果對比得到分類效果最佳的實數(shù)和復(fù)數(shù)池化算法;實驗二,CV-CRN雜波分類實驗,將無噪聲帶標(biāo)簽數(shù)據(jù)集A′輸入CV-CRN中,CV-CRN的卷積模塊和殘差模塊都分別設(shè)置復(fù)數(shù)均池化算法、復(fù)數(shù)最大池化算法和改進(jìn)的復(fù)數(shù)最大池化算法,根據(jù)實驗結(jié)果對比得到分類效果最優(yōu)的池化算法組合;實驗三,CV-CRN魯棒性分析實驗,將有噪聲帶標(biāo)簽數(shù)據(jù)集B0、B5和B10分別輸入RV-CNN、CV-CNN和CV-CRN,RV-CNN和CV-CNN均采用分類性能最優(yōu)的池化算法,CV-CRN采用分類性能最優(yōu)的池化算法組合,根據(jù)實驗結(jié)果對比分析CV-CRN的魯棒性。
實驗平臺為64位Window10系統(tǒng),計算機(jī)配置為Intel(R)Core(TM)i7-8700K CPU@3.70 GHz,采用Pytorch框架GPU版本實現(xiàn)。訓(xùn)練神經(jīng)網(wǎng)絡(luò)需要提前設(shè)置網(wǎng)絡(luò)的非更新參數(shù),也稱超參數(shù),主要包含:小批量訓(xùn)練樣本集batchsize,是指一次迭代訓(xùn)練輸入網(wǎng)絡(luò)中的樣本數(shù);學(xué)習(xí)速率learningrate(lr),是指網(wǎng)絡(luò)可優(yōu)化參數(shù)的迭代優(yōu)化量;網(wǎng)絡(luò)訓(xùn)練次數(shù)epoch,是指訓(xùn)練樣本集完全訓(xùn)練的次數(shù)。網(wǎng)絡(luò)超參數(shù)設(shè)置如下:batchsize為10,lr為0.000 1,epoch為100。網(wǎng)絡(luò)訓(xùn)練參數(shù)優(yōu)化器使用Adam算法,分類器使用log_softmax函數(shù)。
4.2.1 不同池化算法及網(wǎng)絡(luò)的分類性能對比實驗
為檢驗正常復(fù)數(shù)最大池化算法、改進(jìn)的復(fù)數(shù)最大池化算法和復(fù)數(shù)平均池化算法對雜波幅度統(tǒng)計模型分類的效果,構(gòu)建如圖9所示CV-CNN對4類無噪聲的雜波仿真HRRP復(fù)數(shù)數(shù)據(jù)進(jìn)行分類實驗。同時構(gòu)建RV-CNN進(jìn)行實驗,對比實數(shù)網(wǎng)絡(luò)和復(fù)數(shù)網(wǎng)絡(luò)的分類性能,RV-CNN的結(jié)構(gòu)與CV-CNN一致。RV-CNN分別采用平均和最大池化方式,兩種網(wǎng)絡(luò)模型分別記為RV-CNN-A和RV-CNN-M;CV-CNN分別采用復(fù)數(shù)平均池化、正常復(fù)數(shù)最大池化(式(20))和改進(jìn)復(fù)數(shù)最大池化(式(21)),分別記為CV-CNN-A、CV-CNN-M1和CV-CNN-M2。實驗結(jié)果如表3所示。
圖9 CV-CNN結(jié)構(gòu)示意圖
表3 卷積神經(jīng)網(wǎng)絡(luò)雜波分類實驗結(jié)果
對表3中的結(jié)果對比分析可知:
(1)CV-CNN-M1和CV-CNN-M2的平均分類準(zhǔn)確率比CV-CNN-A的平均分類準(zhǔn)確率分別高出0.51%和1%,說明復(fù)數(shù)最大池化算法的分類效果優(yōu)于復(fù)數(shù)平均池化算法;另外,RV-CNN-M的平分類準(zhǔn)確率比RV-CNN-A的平均分類準(zhǔn)確率高出3.19%,說明最大池化算法的分類效果優(yōu)于平池化算法。原因是:平均池化算法是計算池域內(nèi)特征數(shù)據(jù)的均值,得到模糊化后的特征,這會導(dǎo)致突出有用的特征被弱化,弱化冗余的特征被加強(qiáng),使可用于分類的特征的差異性減弱;最大池化是尋找并輸出池域內(nèi)最突出的特征,使可用于分類的特征的差異性增強(qiáng),而差異性更強(qiáng)的特征更有助于分類,因此分類效果會更好。
(2)CV-CNN-M2的平均分類準(zhǔn)確率比CV-CNN-M1的平均分類準(zhǔn)確率低0.49%,說明改進(jìn)的復(fù)數(shù)最大池化算法的分類效果不如正常復(fù)數(shù)最大池化算法,但差距不大,差距主要來自于對韋布爾雜波和瑞利雜波的分類,前者的準(zhǔn)確率比后者分別低1.35%和0.55%,說明式(21)得到的新的特征O′(x,y)是有效的分類特征,但其對這兩種雜波的分類效果不如式(20)輸出的最大特征O(x,y)。新特征O′(x,y)的特性及其對雜波分類的影響待下一步研究。
(3)CV-CNN-M1的平均分類準(zhǔn)確率比RV-CNN-M的平均分類準(zhǔn)確率高1.91%,CV-CNN-A的平均分類準(zhǔn)確率比RV-CNN-A的平均分類準(zhǔn)確率高4.1%,說明CV-CNN能夠從復(fù)數(shù)數(shù)據(jù)中提取到更充分的特征進(jìn)行分類,而CV-CNN學(xué)到了哪些有效特征用于分類待下一步研究。
4.2.2 復(fù)數(shù)卷積-殘差網(wǎng)絡(luò)雜波幅度統(tǒng)計模型分類實驗
平均池化能夠保留所有特征信息,但會導(dǎo)致可用于分類的特征的差異性減小,使分類準(zhǔn)確率相對降低。最大池化是尋找并輸出池域內(nèi)最突出的特征,這會導(dǎo)致部分次重要特征被丟棄,使分類準(zhǔn)確率受限。為充分利用兩種池化算法的優(yōu)勢,同時降低兩者的不利影響,本文以圖5所示CV-CRN進(jìn)行雜波幅度統(tǒng)計模型分類實驗,探究兩種池化算法的最優(yōu)組合方式。CV-CRN中的復(fù)數(shù)卷積-池化模塊和改進(jìn)的復(fù)數(shù)殘差塊分別采用平均池化、正常復(fù)數(shù)最大池化和改進(jìn)復(fù)數(shù)最大池化進(jìn)行分類效果對比,分別記為CA、CM1、CM2和RA、RM1、RM2,形如CA-RM1表示復(fù)數(shù)卷積-池化模塊采用復(fù)數(shù)平均池化、改進(jìn)的復(fù)數(shù)殘差塊采用正常復(fù)數(shù)最大池化的組合方式,其他以此類推。分類實驗結(jié)果如表4所示。
表4 復(fù)數(shù)卷積-殘差網(wǎng)絡(luò)雜波幅度統(tǒng)計模型分類實驗結(jié)果
對表4中的結(jié)果對比分析可知:
(1)當(dāng)復(fù)數(shù)卷積-池化模塊采用復(fù)數(shù)平均池化算法(CA)、改進(jìn)的復(fù)數(shù)殘差塊采用正常復(fù)數(shù)最大池化算法(RM1)時,CV-CRN獲得的分類效果最好,準(zhǔn)確率達(dá)到98.84%,說明結(jié)合使用復(fù)數(shù)卷積-池化模塊學(xué)習(xí)到的模糊特征和改進(jìn)的復(fù)數(shù)殘差塊學(xué)習(xí)到的突出特征進(jìn)行分類可獲得更好的分類效果。
(2)對比CM1-RM1與CA-RA的平均分類準(zhǔn)確率可知,最大池化的分類效果優(yōu)于平均池化算法,這與第4.2.1節(jié)的第(1)點分析一致。
(3)CM2-RM2的分類準(zhǔn)確率為98.17%,這與CM1-RM1和CA-RM1的分類準(zhǔn)確率差不大,再對比CA-RM2與CA-RM1和CM1-RM2與CM1-RM2的分類準(zhǔn)確率可知,改進(jìn)的復(fù)數(shù)最大池化算法輸出的新的特征O′(x,y)是有效的分類特征,用這種特征進(jìn)行雜波分類可獲得較好的分類效果,但其對瑞利雜波和韋布爾雜波的分類效果比式(20)輸出的最大特征O(x,y)差,這與第4.2.1節(jié)的第(2)點分析一致。
4.2.3 復(fù)數(shù)卷積-殘差網(wǎng)絡(luò)魯棒性分析實驗
本實驗對添加不同雜噪比噪聲的4類雜波數(shù)據(jù)進(jìn)行分類,以分析CV-CRN的魯棒性,添加CV-CNN和RV-CNN作為對比。CV-CRN采用CA-RM1的池化組合,CV-CNN采用正常復(fù)數(shù)最大池化,RV-CNN采用最大池化。實驗結(jié)果如表5所示。
表5 復(fù)數(shù)卷積-殘差網(wǎng)絡(luò)魯棒性分析實驗結(jié)果
對表5中的結(jié)果對比分析可知:
(1)噪聲對雜波分類性能的影響較大,噪聲強(qiáng)度越大,分類效果越差;
(2)復(fù)數(shù)網(wǎng)絡(luò)具有比實數(shù)網(wǎng)絡(luò)更好的魯棒性,說明復(fù)數(shù)網(wǎng)絡(luò)抗噪能力更強(qiáng);
(3)與CV-CNN相比,CV-CRN對噪聲更敏感,但隨著噪聲增強(qiáng),CV-CRN的抗噪能力比CV-CNN更強(qiáng),說明CV-CRN的網(wǎng)絡(luò)結(jié)構(gòu)具有更好的魯棒性。
本文引入復(fù)數(shù)神經(jīng)網(wǎng)絡(luò),利用仿真雜波HRRP復(fù)數(shù)數(shù)據(jù),對雷達(dá)雜波幅度統(tǒng)計模型分類問題進(jìn)行研究,完成了以下工作:一是為構(gòu)建復(fù)數(shù)最大池化層,定義并改進(jìn)了復(fù)數(shù)最大池化算法,通過CV-CNN對雜波幅度統(tǒng)計模型的分類實驗,對比了兩種復(fù)數(shù)最大池化算法和復(fù)數(shù)平均池化算法的分類效果;二是為進(jìn)一步提高分類準(zhǔn)確率,構(gòu)建了CV-CRN,通過實驗對比分析了CV-CRN采用不同池化組合的分類效果以及網(wǎng)絡(luò)的魯棒性。根據(jù)實驗結(jié)果得到以下結(jié)論:
(1)本文定義的復(fù)數(shù)最大池化算法和改進(jìn)的復(fù)數(shù)最大池化算法都比復(fù)數(shù)平均池化算法具有更好的分類效果,且改進(jìn)的復(fù)數(shù)最大池化算法輸出的新特征是有效的分類特征,但其分類效果不如正常復(fù)數(shù)最大池化算法輸出的特征,其合理性和物理意義還需進(jìn)一步研究。
(2)復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)比實數(shù)神經(jīng)網(wǎng)絡(luò)具有更好的分類效果和魯棒性,本文構(gòu)建的復(fù)數(shù)卷積-殘差網(wǎng)絡(luò)比復(fù)數(shù)卷積神經(jīng)網(wǎng)絡(luò)的分類效果和魯棒性更好,并且當(dāng)網(wǎng)絡(luò)結(jié)合使用復(fù)數(shù)平均池化算法和復(fù)數(shù)最大池化算法時能獲得更好分類性能。
另外,本文的實驗結(jié)果也表明,相比于實數(shù)數(shù)據(jù),復(fù)數(shù)數(shù)據(jù)更有利于雷達(dá)雜波幅度統(tǒng)計模型分類,對于復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)通過利用復(fù)數(shù)數(shù)據(jù)進(jìn)行訓(xùn)練的過程中是否利用了相位信息,以及學(xué)習(xí)到哪些特征進(jìn)行分類有待進(jìn)一步研究。