• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于損失加權(quán)修正的艦船目標(biāo)HRRP小樣本元學(xué)習(xí)識(shí)別方法

      2022-02-10 12:06:02王哲昊王海鵬魏廣芬
      信號(hào)處理 2022年12期
      關(guān)鍵詞:損失卷積經(jīng)驗(yàn)

      簡(jiǎn) 濤 王哲昊 王海鵬 劉 瑜 魏廣芬

      (1.海軍航空大學(xué)信息融合研究所,山東煙臺(tái) 264001;2.山東工商學(xué)院信息與電子工程學(xué)院,山東煙臺(tái) 264005)

      1 引言

      高分辨距離像(High Resolution Range Profile,HRRP)是目標(biāo)主要散射點(diǎn)在雷達(dá)照射方向上的投影,反映了目標(biāo)散射點(diǎn)的相對(duì)位置信息,一定程度上體現(xiàn)了目標(biāo)的部分結(jié)構(gòu)信息[1]。在實(shí)際對(duì)抗環(huán)境中,雷達(dá)所針對(duì)的目標(biāo)往往是非合作目標(biāo),由于艦船機(jī)動(dòng)性以及作戰(zhàn)環(huán)境等因素的影響,獲取數(shù)量足夠的非合作目標(biāo)HRRP 數(shù)據(jù)的難度較大。因此,小樣本條件[2]下艦船目標(biāo)HRRP 分類(lèi)識(shí)別成為了雷達(dá)目標(biāo)識(shí)別領(lǐng)域的研究熱點(diǎn)之一。

      早期小樣本識(shí)別技術(shù)主要以HRRP的統(tǒng)計(jì)建模方法為主,如線性動(dòng)態(tài)模型、因子分析模型以及自適應(yīng)高斯分類(lèi)器模型[3]等,隨后學(xué)者們利用多任務(wù)學(xué)習(xí)理念和類(lèi)別標(biāo)簽信息進(jìn)行改進(jìn),相繼提出了多任務(wù)因子分析模型[4]、標(biāo)簽輔助因子分析模型[5]以及多任務(wù)標(biāo)簽約束卷積因子分析模型[6]等,但統(tǒng)計(jì)建模方法需要對(duì)模型的變量進(jìn)行先驗(yàn)假設(shè)。

      近年來(lái),深度學(xué)習(xí)方法在雷達(dá)目標(biāo)識(shí)別領(lǐng)域得到了越來(lái)越多的重視[7]。在實(shí)際對(duì)抗環(huán)境中,目標(biāo)往往是非合作的,能獲取的實(shí)測(cè)數(shù)據(jù)量極為有限,而對(duì)于小樣本數(shù)據(jù),深度學(xué)習(xí)過(guò)深的網(wǎng)絡(luò)結(jié)構(gòu)會(huì)導(dǎo)致模型過(guò)擬合[8]。針對(duì)這一問(wèn)題,相關(guān)學(xué)者一方面從數(shù)據(jù)的角度出發(fā),通過(guò)生成對(duì)抗網(wǎng)絡(luò)[9]等方法進(jìn)行數(shù)據(jù)增強(qiáng);另一方面則開(kāi)展基于模型遷移的學(xué)習(xí)方法研究[10],將源域?qū)W習(xí)到的模型參數(shù)遷移至目標(biāo)域中,但當(dāng)源域與目標(biāo)域差異較大時(shí),所建立的模型難以適用于不同的識(shí)別問(wèn)題。作為遷移學(xué)習(xí)方法的拓展,元學(xué)習(xí)是一種針對(duì)不同任務(wù)設(shè)計(jì)不同特性學(xué)習(xí)器的機(jī)制[11],可利用以往不同任務(wù)上的經(jīng)驗(yàn),來(lái)指導(dǎo)新任務(wù)的學(xué)習(xí)。FINN等人提出了一種模型不可知的元學(xué)習(xí)算法[12],但在不同類(lèi)別的小樣本分類(lèi)中,由于不同任務(wù)間的偏差影響,分類(lèi)精度受限。TIAN 等人利用元學(xué)習(xí)網(wǎng)絡(luò)[13],基于目標(biāo)已有方位的識(shí)別經(jīng)驗(yàn),來(lái)指導(dǎo)方位信息缺失時(shí)同一目標(biāo)的識(shí)別。值得注意的是,現(xiàn)有元學(xué)習(xí)方法往往對(duì)所有任務(wù)的學(xué)習(xí)經(jīng)驗(yàn)進(jìn)行無(wú)差別借鑒,忽視了不同任務(wù)經(jīng)驗(yàn)對(duì)新任務(wù)的差異性影響,易造成對(duì)低相關(guān)度經(jīng)驗(yàn)的過(guò)度借鑒,從而影響后續(xù)分類(lèi)識(shí)別精度。如何對(duì)不同任務(wù)學(xué)習(xí)經(jīng)驗(yàn)進(jìn)行針對(duì)性借鑒,指導(dǎo)新類(lèi)別目標(biāo)進(jìn)行小樣本識(shí)別,進(jìn)而提高后續(xù)目標(biāo)識(shí)別精度,是艦船目標(biāo)小樣本識(shí)別領(lǐng)域的難點(diǎn)之一。

      為此,本文提出了一種基于損失加權(quán)修正的艦船目標(biāo)HRRP 小樣本元學(xué)習(xí)識(shí)別方法,其預(yù)訓(xùn)練模型設(shè)計(jì)為基礎(chǔ)學(xué)習(xí)器與元學(xué)習(xí)器的組合形式。所提方法利用仿真目標(biāo)識(shí)別任務(wù)的學(xué)習(xí)經(jīng)驗(yàn),來(lái)指導(dǎo)實(shí)測(cè)目標(biāo)的分類(lèi)識(shí)別。首先針對(duì)不同任務(wù)的特性,利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN),建立了一個(gè)基礎(chǔ)學(xué)習(xí)器。其次,針對(duì)不同任務(wù)間的特性差異,以均方差損失函數(shù)為基礎(chǔ)構(gòu)建元學(xué)習(xí)器,利用不同任務(wù)特性損失的倒數(shù)對(duì)均方誤差損失函數(shù)進(jìn)行加權(quán),減輕不同任務(wù)間偏差的影響。最后,將元學(xué)習(xí)器的學(xué)習(xí)經(jīng)驗(yàn)遷移到新任務(wù)上,實(shí)現(xiàn)小樣本條件的艦船目標(biāo)實(shí)測(cè)HRRP識(shí)別。實(shí)驗(yàn)結(jié)果表明,該方法與從頭訓(xùn)練的CNN 模型、現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)模型相比,可在更少樣本條件下提升艦船目標(biāo)HRRP的識(shí)別正確率。

      2 基于損失加權(quán)修正的HRRP 元學(xué)習(xí)識(shí)別方法設(shè)計(jì)

      元學(xué)習(xí)的方法具體包含神經(jīng)網(wǎng)絡(luò)適應(yīng)法、度量學(xué)習(xí)適應(yīng)法、基礎(chǔ)學(xué)習(xí)器和元學(xué)習(xí)器適應(yīng)法以及貝葉斯元學(xué)習(xí)適應(yīng)法等。其中,基礎(chǔ)學(xué)習(xí)器和元學(xué)習(xí)器相結(jié)合可將任務(wù)特性建模與任務(wù)間共性建模進(jìn)行解耦,通過(guò)二者間的互相交流,使得模型在任務(wù)特性和共性兩方面均可達(dá)到最優(yōu),從而在保持模型精度的基礎(chǔ)上,提升模型的泛化能力。傳統(tǒng)機(jī)器學(xué)習(xí)的數(shù)據(jù)結(jié)構(gòu)一般分為訓(xùn)練集和測(cè)試集,無(wú)論是訓(xùn)練集還是測(cè)試集,均需包含大量樣本數(shù)據(jù)[14]。元學(xué)習(xí)模型的數(shù)據(jù)結(jié)構(gòu)如圖1 所示,與傳統(tǒng)機(jī)器學(xué)習(xí)相類(lèi)似,同樣分為元訓(xùn)練集和元測(cè)試集,不同之處在于元訓(xùn)練集和元測(cè)試集中不是樣本數(shù)據(jù),而是各個(gè)任務(wù)的集合,而在各個(gè)任務(wù)中又分為訓(xùn)練集和測(cè)試集。

      圖1 元學(xué)習(xí)的數(shù)據(jù)結(jié)構(gòu)示意圖Fig.1 Data structure diagram of meta-learning

      2.1 模型總體結(jié)構(gòu)設(shè)計(jì)

      本文模型在結(jié)構(gòu)上包含一個(gè)基礎(chǔ)學(xué)習(xí)器和一個(gè)元學(xué)習(xí)器,模型的輸入為任務(wù)集合,輸出為更新后的模型參數(shù),總體結(jié)構(gòu)如圖2所示。

      圖2 本文模型的總體結(jié)構(gòu)示意圖Fig.2 The overall structure diagram of the model in this paper

      其中,任務(wù)集是元訓(xùn)練集,每個(gè)任務(wù)均包含一個(gè)數(shù)據(jù)訓(xùn)練集和一個(gè)數(shù)據(jù)測(cè)試集?;A(chǔ)學(xué)習(xí)器是一個(gè)學(xué)習(xí)訓(xùn)練模型,每個(gè)任務(wù)的訓(xùn)練集在基礎(chǔ)學(xué)習(xí)器上進(jìn)行訓(xùn)練,經(jīng)過(guò)多次迭代更新后,利用每個(gè)任務(wù)的測(cè)試集進(jìn)行驗(yàn)證,并將蘊(yùn)含任務(wù)特性的參數(shù)或損失函數(shù)的梯度正向傳遞給元學(xué)習(xí)器。元學(xué)習(xí)器則綜合所有任務(wù)在基礎(chǔ)學(xué)習(xí)器上的訓(xùn)練結(jié)果,通過(guò)總結(jié)歸納尋求任務(wù)間的共性,具體表現(xiàn)形式為對(duì)基礎(chǔ)學(xué)習(xí)器傳遞的梯度或者參數(shù)進(jìn)行元更新,然后將更新后的參數(shù)反饋給基礎(chǔ)學(xué)習(xí)器,使基礎(chǔ)學(xué)習(xí)器在新的模型參數(shù)上重新進(jìn)行每個(gè)任務(wù)的訓(xùn)練。如此循環(huán)往復(fù),直至完成迭代次數(shù),最終獲得迭代更新后的模型參數(shù),用于元測(cè)試集的訓(xùn)練和測(cè)試。

      2.2 基礎(chǔ)學(xué)習(xí)器設(shè)計(jì)

      基礎(chǔ)學(xué)習(xí)器對(duì)任務(wù)特性進(jìn)行建模,要求基礎(chǔ)學(xué)習(xí)器能夠發(fā)現(xiàn)每個(gè)任務(wù)數(shù)據(jù)集的內(nèi)在規(guī)律。深度學(xué)習(xí)模型依賴于強(qiáng)大的表示能力,可以提取目標(biāo)深層次的特征,且對(duì)數(shù)據(jù)的擬合程度較好。因此,依據(jù)HRRP 的維度特性,本節(jié)設(shè)計(jì)一維卷積神經(jīng)網(wǎng)絡(luò)作為基礎(chǔ)學(xué)習(xí)器的學(xué)習(xí)訓(xùn)練模型,具體結(jié)構(gòu)如圖3所示。

      圖3 基礎(chǔ)學(xué)習(xí)器的結(jié)構(gòu)示意圖Fig.3 Schematic diagram of the basic learner

      基礎(chǔ)學(xué)習(xí)器包含一個(gè)輸入層、三個(gè)卷積層(Conv)、三個(gè)池化層(POOL)、一個(gè)批歸一化層(BN)、兩個(gè)全連接層(FC)以及一個(gè)輸出層。其中,輸入層導(dǎo)入的是每個(gè)任務(wù)的訓(xùn)練集中一小批次的HRRP數(shù)據(jù);第三個(gè)卷積層為標(biāo)準(zhǔn)化卷積層,在卷積層的基礎(chǔ)上添加了一個(gè)批歸一化層,用于加強(qiáng)損失函數(shù)的梯度變化,三個(gè)卷積層均采用一維卷積核,大小均為9×1,個(gè)數(shù)分別為8、16 和32,步長(zhǎng)為1,填充方式均為相同填充。池化層為平均池化層,步長(zhǎng)為2;第一層全連接層的神經(jīng)元個(gè)數(shù)為100,第二層全連接層的神經(jīng)元個(gè)數(shù)與目標(biāo)類(lèi)別數(shù)一致。輸出層利用softmax函數(shù)計(jì)算每個(gè)樣本的類(lèi)別概率,根據(jù)計(jì)算結(jié)果計(jì)算每個(gè)任務(wù)的損失函數(shù)值Lk,其中,Lk為第k個(gè)任務(wù)的特性損失值。因?yàn)榛A(chǔ)學(xué)習(xí)器進(jìn)行的是目標(biāo)識(shí)別分類(lèi)任務(wù),故選用交叉熵?fù)p失函數(shù),然后利用Adam 優(yōu)化器對(duì)基礎(chǔ)學(xué)習(xí)器的初始化參數(shù)θB進(jìn)行優(yōu)化更新,得到更新后的參數(shù)集={θB1,θB2,…,θBk,…,θBK},其中,θBk為第k個(gè)任務(wù)的特性參數(shù),最終將每個(gè)任務(wù)的特性參數(shù)θBk和損失值Lk都傳遞給元學(xué)習(xí)器。

      2.3 基于損失加權(quán)修正的元學(xué)習(xí)器設(shè)計(jì)

      元學(xué)習(xí)器實(shí)現(xiàn)對(duì)任務(wù)間共性的建模,功能是在每次基礎(chǔ)學(xué)習(xí)器訓(xùn)練完成之后,對(duì)所有任務(wù)上的訓(xùn)練經(jīng)驗(yàn)進(jìn)行總結(jié)歸納,綜合出新的經(jīng)驗(yàn),反饋給基礎(chǔ)學(xué)習(xí)器。元學(xué)習(xí)器的形式多樣,可以是任意一種基于隨機(jī)梯度下降的模型[15],也可以是一種參數(shù)更新算法[16]。為簡(jiǎn)化運(yùn)算過(guò)程,減輕不同任務(wù)偏差的影響,本節(jié)設(shè)計(jì)了一種基于損失加權(quán)修正的參數(shù)更新算法,使元學(xué)習(xí)器的初始化模型參數(shù)θM向所有任務(wù)的共性方向更新靠近。

      元學(xué)習(xí)的最終目的是尋找所有任務(wù)的共性方向,使得元學(xué)習(xí)器的初始化模型參數(shù)θM可以向基礎(chǔ)學(xué)習(xí)器每個(gè)任務(wù)的特性參數(shù)θBk靠近,即使得參數(shù)θM與特性參數(shù)θBk之間的距離越來(lái)越小。因此,可利用均方誤差損失函數(shù)作為元學(xué)習(xí)器的損失函數(shù):

      其中,Dk為特性參數(shù)與元學(xué)習(xí)器參數(shù)θM之間的均方誤差,具體表示如下:

      其中,‖?‖表示歐氏范數(shù);為了方便后續(xù)求導(dǎo),上式系數(shù)取1/2。元學(xué)習(xí)器的學(xué)習(xí)目標(biāo)變?yōu)樽钚』瘍蓚€(gè)學(xué)習(xí)器參數(shù)間的均方誤差。根據(jù)拉格朗日定理,可計(jì)算Dk在參數(shù)θM處的梯度來(lái)最小化Dk,因此對(duì)距離Dk進(jìn)行求導(dǎo)可得:

      其中,參數(shù)θM的更新方向就是目標(biāo)函數(shù)梯度下降的方向,即?k=。假設(shè)每個(gè)任務(wù)對(duì)元學(xué)習(xí)器參數(shù)θM的影響程度相同,將各項(xiàng)任務(wù)對(duì)元學(xué)習(xí)器參數(shù)θM的影響進(jìn)行疊加,可得最終所有任務(wù)的共性方向?M為:

      然而,考慮到不同任務(wù)經(jīng)驗(yàn)對(duì)新任務(wù)的差異性影響,任務(wù)損失值Lk可在一定程度上反映出學(xué)習(xí)經(jīng)驗(yàn)的差異程度,損失值越低,訓(xùn)練效果越好,說(shuō)明該任務(wù)的學(xué)習(xí)經(jīng)驗(yàn)更值得借鑒。因此,為避免對(duì)低相關(guān)度經(jīng)驗(yàn)的過(guò)度借鑒,減輕任務(wù)間偏差對(duì)元學(xué)習(xí)器參數(shù)更新的影響,本文利用基礎(chǔ)學(xué)習(xí)器所得的任務(wù)損失值Lk的倒數(shù),對(duì)元學(xué)習(xí)器進(jìn)行加權(quán)修正處理。損失值Lk越小,其倒數(shù)越大,表示該任務(wù)的學(xué)習(xí)效果越好,學(xué)習(xí)經(jīng)驗(yàn)更值得借鑒;反之則表示該任務(wù)的學(xué)習(xí)效果越差,學(xué)習(xí)經(jīng)驗(yàn)可借鑒度低。因此,利用Lk的倒數(shù)對(duì)元學(xué)習(xí)器更新過(guò)程進(jìn)行修正,可使得元學(xué)習(xí)器有針對(duì)性地借鑒每個(gè)任務(wù)的經(jīng)驗(yàn),減輕任務(wù)間偏差的不利影響。元學(xué)習(xí)器的參數(shù)更新方程可表示如下:

      其中,ε為元學(xué)習(xí)器的更新步長(zhǎng),ιk為損失的加權(quán)系數(shù)。最終將元學(xué)習(xí)器更新后的參數(shù)反饋給基礎(chǔ)學(xué)習(xí)器,并以此作為基礎(chǔ)學(xué)習(xí)器的新初始化模型參數(shù),進(jìn)行各項(xiàng)任務(wù)新一輪的優(yōu)化訓(xùn)練,即設(shè)置θB=。

      2.4 模型識(shí)別流程

      基于損失加權(quán)修正的HRRP元學(xué)習(xí)識(shí)別方法的流程,主要分為訓(xùn)練階段和測(cè)試階段。訓(xùn)練階段主要利用元訓(xùn)練集進(jìn)行循環(huán)更新,獲得最優(yōu)的模型參數(shù),結(jié)構(gòu)上分為內(nèi)、外兩個(gè)循環(huán),內(nèi)循環(huán)是指基礎(chǔ)學(xué)習(xí)器和元學(xué)習(xí)器之間參數(shù)的循環(huán)更新,外循環(huán)則是指內(nèi)循環(huán)的訓(xùn)練輪次;測(cè)試階段是利用訓(xùn)練階段的模型訓(xùn)練參數(shù)對(duì)元測(cè)試集進(jìn)行分類(lèi)識(shí)別,驗(yàn)證方法的性能。識(shí)別流程圖如圖4所示。

      圖4 識(shí)別流程圖Fig.4 Diagram of recognition

      具體的模型識(shí)別方法流程如算法1所示。

      3 實(shí)驗(yàn)結(jié)果與分析

      3.1 數(shù)據(jù)集構(gòu)建及模型參數(shù)設(shè)置

      訓(xùn)練階段所用數(shù)據(jù)為10類(lèi)艦船目標(biāo)仿真HRRP數(shù)據(jù),仿真參數(shù)設(shè)置如下:雷達(dá)中心頻率10 GHz,帶寬80 MHz,方位角范圍為0~360度,間隔1度。每類(lèi)艦船目標(biāo)360 個(gè)方位角的HRRP 數(shù)據(jù),每個(gè)方位角的HRRP數(shù)據(jù)長(zhǎng)度為200。針對(duì)小樣本識(shí)別,從10類(lèi)仿真目標(biāo)中抽取5 類(lèi)目標(biāo)組成一個(gè)分類(lèi)識(shí)別任務(wù);針對(duì)每個(gè)任務(wù)的5 類(lèi)目標(biāo),對(duì)每類(lèi)目標(biāo)分別隨機(jī)抽取5 個(gè)、10 個(gè)、20 個(gè)、50 個(gè)和100 個(gè)HRRP 樣本組成五組元訓(xùn)練數(shù)據(jù)集。

      測(cè)試階段所用數(shù)據(jù)為某X 波段雷達(dá)的5類(lèi)艦船目標(biāo)實(shí)測(cè)HRRP 數(shù)據(jù),雷達(dá)中心頻率為10 GHz,帶寬為100 MHz,受試驗(yàn)條件限制,目標(biāo)HRRP 的方位角范圍較小。在元學(xué)習(xí)理論中,其所指導(dǎo)新任務(wù)的元測(cè)試數(shù)據(jù)集,本文利用實(shí)測(cè)數(shù)據(jù)構(gòu)建。其中元測(cè)試數(shù)據(jù)集中的訓(xùn)練集,針對(duì)5 類(lèi)艦船目標(biāo)中的每類(lèi)目標(biāo),分別隨機(jī)抽取5個(gè)、10個(gè)、20個(gè)、50個(gè)和100個(gè)HRRP 樣本,構(gòu)成樣本總數(shù)分別為25、50、100、250和500的小樣本集。由每類(lèi)目標(biāo)隨機(jī)抽取不同于訓(xùn)練集的500 個(gè)HRRP 樣本,構(gòu)成2500 個(gè)實(shí)測(cè)數(shù)據(jù)HRRP測(cè)試樣本集。

      本節(jié)共進(jìn)行了四種識(shí)別模型的對(duì)比實(shí)驗(yàn),分別為卷積神經(jīng)網(wǎng)絡(luò)模型(CNN)、深度遷移學(xué)習(xí)模型(DTL)[10]、無(wú)偏元學(xué)習(xí)模型(UBML)[12]以及基于損失修正的元學(xué)習(xí)模型(LCML)。其中,CNN模型利用數(shù)據(jù)集從頭開(kāi)始訓(xùn)練模型;DTL 模型先利用一個(gè)識(shí)別任務(wù)的仿真數(shù)據(jù)集,訓(xùn)練一個(gè)開(kāi)源網(wǎng)絡(luò)模型,再將實(shí)測(cè)的測(cè)試數(shù)據(jù)集在該遷移網(wǎng)絡(luò)上進(jìn)行訓(xùn)練;UBML模型和LCML模型則利用多個(gè)艦船目標(biāo)任務(wù)的仿真數(shù)據(jù)集進(jìn)行訓(xùn)練,然后遷移多個(gè)任務(wù)的學(xué)習(xí)經(jīng)驗(yàn),指導(dǎo)新任務(wù)訓(xùn)練。四個(gè)模型均采用基本的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類(lèi)識(shí)別,網(wǎng)絡(luò)層結(jié)構(gòu)相同,如圖3所示。

      各模型的相關(guān)參數(shù)設(shè)置如表1 所示。由于DTL、UBML和本文的LCML模型均利用學(xué)習(xí)經(jīng)驗(yàn)的遷移,需要利用以往的知識(shí)重新訓(xùn)練進(jìn)行測(cè)試,所以其分為訓(xùn)練集的訓(xùn)練輪次和測(cè)試集的訓(xùn)練輪次,兩次訓(xùn)練所用的HRRP 樣本數(shù)據(jù)并不相同,而CNN模型則是從頭到尾直接進(jìn)行訓(xùn)練測(cè)試,測(cè)試時(shí)并不需要重新訓(xùn)練,因此其僅有訓(xùn)練輪次。

      表1 模型實(shí)驗(yàn)的相關(guān)參數(shù)設(shè)置Tab.1 Parameter Settings of model experiment

      3.2 訓(xùn)練過(guò)程分析

      CNN 模型直接導(dǎo)入元測(cè)試集進(jìn)行實(shí)驗(yàn);DTL 模型則從元訓(xùn)練集中隨機(jī)抽取某一個(gè)任務(wù)作為模型的源域,目標(biāo)域?yàn)樵獪y(cè)試集中的任務(wù);UBML模型和本文的LCML模型則導(dǎo)入元訓(xùn)練集和元測(cè)試集進(jìn)行實(shí)驗(yàn)。在五組樣本總數(shù)不同的小樣本條件下的元訓(xùn)練集和元測(cè)試集上,對(duì)各模型進(jìn)行仿真實(shí)驗(yàn)分析。

      在不同小樣本條件下,圖5 展示了四種模型在實(shí)測(cè)數(shù)據(jù)訓(xùn)練過(guò)程中損失函數(shù)(loss)的變化曲線??梢钥闯觯姆N模型的損失函數(shù)值均隨迭代輪次的增加呈下降趨勢(shì),說(shuō)明模型適用于分類(lèi)識(shí)別任務(wù),驗(yàn)證了模型的有效性。由于經(jīng)驗(yàn)遷移的作用,DTL、UBML 和本文的LCML 模型的損失函數(shù)值均低于CNN 模型,且隨著樣本數(shù)目的逐漸增多,其最終收斂的loss 值更低,而與CNN 模型之間的差距也逐漸減少。損失函數(shù)值越低說(shuō)明模型的識(shí)別準(zhǔn)確度越高,表示模型的識(shí)別性能隨樣本數(shù)目的增多而逐漸攀升,但模型性能之間的差異性也隨之逐漸減小。

      圖5 不同小樣本條件下?lián)p失函數(shù)loss的變化曲線Fig.5 The loss function curves for different small sample cases

      3.3 識(shí)別性能分析

      在樣本總數(shù)為25 和50 的典型小樣本情況下,圖6 和圖7 分別展示了DTL 模型、UBML 模型和LCML 模型的分類(lèi)混淆矩陣。由圖可知,隨著樣本總數(shù)的增加,DTL 模型的分類(lèi)效果逐漸提升。在樣本總數(shù)為25的小樣本條件下,DTL 模型的分類(lèi)效果欠佳,幾乎無(wú)法對(duì)第三類(lèi)目標(biāo)進(jìn)行識(shí)別。在樣本總數(shù)為50的小樣本條件下,DTL 模型總體識(shí)別效果雖然有所提升,但對(duì)第三類(lèi)目標(biāo)的識(shí)別效果仍欠佳。圖6 中,UBML 模型雖然對(duì)第三類(lèi)目標(biāo)仍然無(wú)法進(jìn)行準(zhǔn)確的分類(lèi)識(shí)別,但總體識(shí)別效果仍優(yōu)于同等條件下的DTL 模型。隨著樣本數(shù)目的增多,UBML 模型的識(shí)別效果也逐步提升,當(dāng)樣本總數(shù)為50 時(shí),UBML 模型利用對(duì)任務(wù)共性經(jīng)驗(yàn)的遷移,已可進(jìn)行較準(zhǔn)確的分類(lèi)識(shí)別,識(shí)別效果明顯優(yōu)于DTL模型。

      圖6 樣本總數(shù)為25時(shí)不同模型的分類(lèi)混淆矩陣Fig.6 When the total sample number is 25,the classification confusion matrixes of different models

      圖7 樣本總數(shù)為50時(shí),不同模型的分類(lèi)混淆矩陣Fig.7 When the total sample number is 50,the classification confusion matrixes of different models

      從圖6和圖7綜合來(lái)看,本文設(shè)計(jì)的LCML模型通過(guò)損失加權(quán)修正,改善了小樣本下的識(shí)別性能。在樣本總數(shù)為25 條件下,LCML 模型可對(duì)第三類(lèi)目標(biāo)進(jìn)行準(zhǔn)確的分類(lèi)識(shí)別,且隨著樣本數(shù)目的增多,LCML 模型的識(shí)別效果也逐步提升。當(dāng)樣本總數(shù)為50 時(shí),LCML 模型的識(shí)別效果明顯優(yōu)于DTL 模型和UBML模型。

      圖8進(jìn)一步展示了各模型的分類(lèi)識(shí)別率隨樣本總數(shù)的變化情況,由圖可知,隨著樣本數(shù)的增多,四個(gè)模型的識(shí)別性能均有所提高。其中,本文設(shè)計(jì)的LCML 模型識(shí)別性能整體最佳,可保持平均90%以上的分類(lèi)識(shí)別率,CNN 模型的識(shí)別性能整體最差,DTL 模型較UBML 模型稍有不足,但仍然優(yōu)于CNN模型。此外,在較少樣本條件下,UBML 模型和LCML 模型通過(guò)對(duì)任務(wù)共性經(jīng)驗(yàn)的遷移利用,可提升小樣本條件下的識(shí)別性能,且遠(yuǎn)遠(yuǎn)優(yōu)于CNN 模型。但隨著樣本數(shù)目的逐漸增多,這種提升效果越來(lái)越小,四個(gè)模型在識(shí)別性能上的差異越來(lái)越小,并逐漸趨同。

      圖8 不同模型的分類(lèi)識(shí)別率隨樣本總數(shù)的變化曲線Fig.8 The curves of classification recognition rates versus total sample numbers for different models

      表2 給出了不同樣本總數(shù)下各模型識(shí)別率值。從表中可以看出,在單類(lèi)樣本數(shù)為100、樣本總數(shù)為500 的較大樣本數(shù)條件下,四個(gè)模型的分類(lèi)識(shí)別率幾乎相等,識(shí)別性能之間無(wú)明顯差異。原因在于,四個(gè)模型均基于卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建分類(lèi)識(shí)別模型,且模型網(wǎng)絡(luò)結(jié)構(gòu)保持一致,當(dāng)樣本數(shù)足夠大時(shí),不同模型在識(shí)別性能方面差異不大。但隨著樣本數(shù)的減少,在樣本總數(shù)分別25、50、100 和250 的條件下,不同模型間的識(shí)別性能出現(xiàn)較明顯差異。在樣本總數(shù)為25 和50 的小樣本條件下,CNN 模型由于數(shù)據(jù)的減少,網(wǎng)絡(luò)出現(xiàn)過(guò)擬合,模型的識(shí)別準(zhǔn)確度僅為20%,幾乎無(wú)法對(duì)目標(biāo)進(jìn)行有效識(shí)別,而UBML和LCML 模型通過(guò)對(duì)任務(wù)共性經(jīng)驗(yàn)的遷移,可有效提升小樣本條件下的識(shí)別準(zhǔn)確度,相比CNN 的提升效果分別約為47%、57%和66%、74%。

      表2 不同小樣本條件下各模型的分類(lèi)識(shí)別率Tab.2 The classification and recognition rate of each model under different small sample conditions

      綜上所述,對(duì)于小樣本情況,利用以往經(jīng)驗(yàn)進(jìn)行分類(lèi)識(shí)別,其識(shí)別效果明顯優(yōu)于從頭到尾直接進(jìn)行分類(lèi)識(shí)別的模型。本文設(shè)計(jì)的LCML方法將任務(wù)特性和任務(wù)間共性相結(jié)合,在小樣本條件下的識(shí)別率明顯優(yōu)于基于單任務(wù)特性遷移的DTL 方法,同時(shí)通過(guò)損失的加權(quán)修正,避免了對(duì)低相關(guān)度經(jīng)驗(yàn)的過(guò)度借鑒,降低了不同任務(wù)間偏差的不利影響。

      4 結(jié)論

      本文針對(duì)小樣本條件下艦船目標(biāo)的分類(lèi)識(shí)別,提出了基于損失加權(quán)修正的艦船目標(biāo)HRRP小樣本元學(xué)習(xí)識(shí)別方法。借鑒元學(xué)習(xí)的思想,將基礎(chǔ)學(xué)習(xí)器與元學(xué)習(xí)器相結(jié)合,分別對(duì)單個(gè)任務(wù)特性與任務(wù)間共性進(jìn)行解耦并建模,設(shè)計(jì)了基于卷積神經(jīng)網(wǎng)絡(luò)的深度元學(xué)習(xí)模型。利用不同元訓(xùn)練任務(wù)特性損失的差異性,對(duì)元學(xué)習(xí)器損失進(jìn)行加權(quán)修正,減輕了不同任務(wù)間偏差的不利影響。實(shí)驗(yàn)結(jié)果表明,本文所提方法在樣本總數(shù)小于250 的條件下,與從頭訓(xùn)練的模型相比,可以有效提升多類(lèi)海面目標(biāo)的分類(lèi)識(shí)別率。與現(xiàn)有遷移學(xué)習(xí)方法相比,當(dāng)樣本總數(shù)小于100 時(shí),本文所設(shè)計(jì)的LCML 模型可有效提升分類(lèi)識(shí)別率,即其在更少的樣本條件下可獲得較好的識(shí)別效果。為了全面驗(yàn)證本文模型的性能,下一步將在不同分辨率數(shù)據(jù)和極端小樣本等條件下,開(kāi)展目標(biāo)識(shí)別方法研究,注重實(shí)測(cè)數(shù)據(jù)的角度完善性及方法實(shí)測(cè)驗(yàn)證。

      猜你喜歡
      損失卷積經(jīng)驗(yàn)
      少問(wèn)一句,損失千金
      2021年第20期“最值得推廣的經(jīng)驗(yàn)”評(píng)選
      黨課參考(2021年20期)2021-11-04 09:39:46
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      胖胖損失了多少元
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      經(jīng)驗(yàn)
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      2018年第20期“最值得推廣的經(jīng)驗(yàn)”評(píng)選
      黨課參考(2018年20期)2018-11-09 08:52:36
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      一般自由碰撞的最大動(dòng)能損失
      镇原县| 武邑县| 伽师县| 贞丰县| 信阳市| 革吉县| 高阳县| 安福县| 公主岭市| 邓州市| 泾源县| 河西区| 化德县| 安泽县| 丰县| 石嘴山市| 汉沽区| 凤山市| 天津市| 犍为县| 遵义县| 县级市| 永城市| 老河口市| 三原县| 宜宾市| 瑞金市| 香河县| 小金县| 福安市| 外汇| 独山县| 即墨市| 巍山| 海南省| 通城县| 将乐县| 英吉沙县| 广州市| 武义县| 天等县|