• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      采用深度學(xué)習(xí)的多方位角SAR圖像目標(biāo)識(shí)別研究

      2018-08-20 06:15:46
      信號(hào)處理 2018年5期
      關(guān)鍵詞:彩色圖像方位角識(shí)別率

      鄒 浩 林 赟 洪 文

      (1. 中國(guó)科學(xué)院空間信息處理與應(yīng)用系統(tǒng)技術(shù)重點(diǎn)實(shí)驗(yàn)室,北京 100190;2. 中國(guó)科學(xué)院電子學(xué)研究所,北京 100190;3. 中國(guó)科學(xué)院大學(xué),北京 100049)

      1 引言

      合成孔徑雷達(dá)是一種主動(dòng)式微波遙感設(shè)備,它通過(guò)發(fā)射電磁波并接收回波對(duì)目標(biāo)進(jìn)行成像,其特殊的成像機(jī)理使其不受光照和氣候的影響,能夠全天時(shí)、全天候地對(duì)地面觀測(cè)目標(biāo)進(jìn)行高分辨地成像,因此適用于軍事偵查、遙感測(cè)繪、地球科學(xué)、水文地礦等領(lǐng)域,具有很高的軍用價(jià)值和民用價(jià)值[1-3]。與光學(xué)圖像不同,SAR圖像中含有大量的相干斑噪聲[4],嚴(yán)重影響了圖像質(zhì)量,對(duì)目標(biāo)的檢測(cè)和識(shí)別有較大的影響。此外,由于透視伸縮、陰影、疊掩等SAR影像固有的變形現(xiàn)象,SAR圖像對(duì)目標(biāo)觀測(cè)方位角的變化十分敏感[5],即便觀測(cè)方位角間隔不大,目標(biāo)在SAR圖像中的形態(tài)也不盡相同。這給SAR圖像解譯和地物目標(biāo)識(shí)別帶來(lái)了特殊的難題。

      近年來(lái),深度學(xué)習(xí)(Deep Learning,DL)在自然語(yǔ)言處理、語(yǔ)音識(shí)別、目標(biāo)檢測(cè)、圖像分類、人機(jī)博弈、自動(dòng)駕駛等模式識(shí)別領(lǐng)域取得了長(zhǎng)足的發(fā)展和輝煌的成績(jī),各行各業(yè)對(duì)深度學(xué)習(xí)方面的人才需求大增[6]。常用的深度學(xué)習(xí)算法有卷積神經(jīng)網(wǎng)絡(luò)[7]、深度置信網(wǎng)絡(luò)(Deep Belief Network,BDN)[8]、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)[9],等等,其中,在目標(biāo)檢測(cè)、目標(biāo)識(shí)別等計(jì)算機(jī)視覺(jué)領(lǐng)域使用最為廣泛的算法則是卷積神經(jīng)網(wǎng)絡(luò)。計(jì)算機(jī)計(jì)算性能的指數(shù)級(jí)別提升和互聯(lián)網(wǎng)海量數(shù)據(jù)的便捷獲取將深度學(xué)習(xí)推向新的高潮。2012年,在ImageNet舉辦的大規(guī)模圖像分類競(jìng)賽(ImageNet Large Scale Visual Recognition Challenge,ILSVRC)中,Krizhevsky等人[10]設(shè)計(jì)了一個(gè)具有8層網(wǎng)絡(luò)結(jié)構(gòu)的AlexNet深度學(xué)習(xí)網(wǎng)絡(luò),以15.3%的Top5錯(cuò)誤率奪得冠軍,該錯(cuò)誤率遠(yuǎn)低于之前26%的最低錯(cuò)誤率。Szegedy等人[11]于2014年設(shè)計(jì)了一個(gè)擁有22層網(wǎng)絡(luò)結(jié)構(gòu)的Google Inception網(wǎng)絡(luò),在降低參數(shù)量和計(jì)算量的同時(shí),以6.67%的Top5錯(cuò)誤率獲得冠軍。在2015年,He等人[12]將網(wǎng)絡(luò)層次繼續(xù)加深,提出的152層的殘差網(wǎng)絡(luò)(Residual Network,ResNet)將錯(cuò)誤率繼續(xù)降低至3.57%,超越了人工標(biāo)注的5%的錯(cuò)誤率。

      目前,基于深度學(xué)習(xí)的光學(xué)圖像目標(biāo)識(shí)別算法已被廣泛應(yīng)用到SAR圖像目標(biāo)識(shí)別中,并取得了不錯(cuò)的正確識(shí)別率(Probability of Correct Cognition,PCC)。2014年,Chen等人[13]設(shè)計(jì)了一個(gè)單隱層卷積神經(jīng)網(wǎng)絡(luò)對(duì)SAR圖像目標(biāo)進(jìn)行識(shí)別,在經(jīng)典的10大類軍事目標(biāo)數(shù)據(jù)集上獲得了84.7%的正確識(shí)別率。2016年,田壯壯等人[14]將類別可分性度量正則化項(xiàng)添加到了損失函數(shù)中,并利用支持向量機(jī)(Support Vector Machine,SVM)對(duì)卷積神經(jīng)網(wǎng)絡(luò)提取出的特征圖(Feature map)進(jìn)行分類,提高了網(wǎng)絡(luò)的類別區(qū)分能力。同樣在2016年,Chen等人[15]針對(duì)目前SAR圖像數(shù)據(jù)規(guī)模比較小、對(duì)觀測(cè)條件敏感等客觀條件,設(shè)計(jì)了一個(gè)擁有5個(gè)卷積層(Convolutional layer)和3個(gè)池化層(Pooling layer)的卷積神經(jīng)網(wǎng)絡(luò),他們用卷積層替換了全連接層,并取得了99.13%的識(shí)別率。不過(guò)他們通過(guò)在數(shù)據(jù)集上對(duì)圖像進(jìn)行隨機(jī)裁剪和翻轉(zhuǎn)的方法增強(qiáng)訓(xùn)練數(shù)據(jù)集,將圖像訓(xùn)練樣本數(shù)量擴(kuò)大到了原來(lái)的10倍,這將導(dǎo)致訓(xùn)練時(shí)間的增加。2017年,F(xiàn)urukawa等人[16]借鑒了殘差網(wǎng)絡(luò)的設(shè)計(jì)思想,針對(duì)SAR圖像目標(biāo)識(shí)別設(shè)計(jì)出一個(gè)擁有18個(gè)卷積層的網(wǎng)絡(luò)結(jié)構(gòu),并通過(guò)隨機(jī)裁剪等數(shù)據(jù)增強(qiáng)方法取得了極高的識(shí)別率。不過(guò)該網(wǎng)絡(luò)擁有高達(dá)百萬(wàn)數(shù)量級(jí)別的龐大參數(shù),訓(xùn)練網(wǎng)絡(luò)時(shí)將占用巨大的計(jì)算資源以及耗費(fèi)大量的時(shí)間,參數(shù)數(shù)量存在冗余,尚有待優(yōu)化。

      上述這些SAR目標(biāo)識(shí)別方法都只是利用了目標(biāo)的單一方位角觀測(cè)圖像,并沒(méi)有考慮到SAR圖像數(shù)據(jù)的獲取特點(diǎn),即雷達(dá)可以從多個(gè)方位角對(duì)目標(biāo)進(jìn)行成像,這些圖像中目標(biāo)的信息存在一定的冗余。而且,這些方法(除文獻(xiàn)[15]外)只對(duì)形態(tài)差異較大的目標(biāo)數(shù)據(jù)集的識(shí)別率情況進(jìn)行了討論,而沒(méi)有考慮形態(tài)差異很小的目標(biāo)數(shù)據(jù)集的識(shí)別率情況。本文設(shè)計(jì)了一個(gè)利用同一目標(biāo)的多方位角SAR圖像進(jìn)行目標(biāo)識(shí)別的卷積神經(jīng)網(wǎng)絡(luò),選取的3幅同目標(biāo)SAR圖像在方位角上是連續(xù)獲取的,它們被分別當(dāng)作彩色圖像的R、G、B三個(gè)通道的圖像輸入到網(wǎng)絡(luò)中。此外,在本文設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)中,每次卷積運(yùn)算后緊接著一次批歸一化(Batch Normalization,BN)處理[17],以提升網(wǎng)絡(luò)的容納能力,最后一個(gè)池化層通過(guò)尺度壓縮將特征圖展平(Flatten)。該網(wǎng)絡(luò)一共有4個(gè)卷積層和4個(gè)池化層,以及一個(gè)全連接層(Fully connected layer),具有參數(shù)規(guī)模小和正確識(shí)別率高的特點(diǎn)。

      2 網(wǎng)絡(luò)結(jié)構(gòu)

      卷積神經(jīng)網(wǎng)絡(luò)的前幾層一般由卷積層和池化層交替構(gòu)成,后面則是若干全連接層,最后接入Softmax回歸進(jìn)行分類識(shí)別。其中卷積層用來(lái)學(xué)習(xí)圖像中不同的特征,池化層是為了在尺度空間上保證特征的層次性,全連接層則可以被看作是高維空間的一個(gè)分類器,Softmax回歸將識(shí)別結(jié)果以歸于各個(gè)類別的概率輸出。本文設(shè)計(jì)的網(wǎng)絡(luò)共有4個(gè)卷積層和4個(gè)池化層,以及1個(gè)全連接層,其整體結(jié)構(gòu)如圖1所示,其中卷積層用“Conv”表示,“15@5×5”表示該卷積層共有15個(gè)尺寸為5×5的卷積核,激活函數(shù)(Activation function)選用修正線性單元(Rectified Linear Unit,ReLU),池化層選用最大池化(Max pooling),“2×2”表示該池化層的下采樣窗口的尺寸為2×2。所有卷積核的步長(zhǎng)(Stride)均設(shè)置為1,特征圖四周無(wú)補(bǔ)0操作,所有下采樣窗口的滑動(dòng)步長(zhǎng)均設(shè)置為2。

      圖1 網(wǎng)絡(luò)整體架構(gòu)Fig.1 Network architecture

      單幅SAR圖像的尺寸被裁剪成80×80,一共輸入3幅,即輸入的偽彩色圖像的尺寸為80×80×3。第1個(gè)卷積層共有15個(gè)尺寸為5×5的卷積核,輸出是15個(gè)尺寸為76×76的特征圖,經(jīng)過(guò)第1個(gè)池化層后特征圖的尺寸變?yōu)?8×38。第2個(gè)卷積層共有30個(gè)尺寸為5×5的卷積核,輸出是30個(gè)尺寸為34×34的特征圖,經(jīng)過(guò)第2個(gè)池化層后特征圖的尺寸變?yōu)?7×17。第3個(gè)卷積層共有60個(gè)尺寸為6×6的卷積核,輸出是60個(gè)尺寸為12×12的特征圖,經(jīng)過(guò)第3個(gè)池化層后特征圖的尺寸變?yōu)?×6。第4個(gè)卷積層共有120個(gè)尺寸為5×5的卷積核,輸出是120個(gè)尺寸為2×2的特征圖,經(jīng)過(guò)第4個(gè)池化層后特征圖的尺寸變?yōu)?×1,該池化層通過(guò)尺度壓縮實(shí)現(xiàn)了特征圖的展平操作。120個(gè)1×1的特征圖即一個(gè)120維的向量,經(jīng)過(guò)1個(gè)全連接層后輸出到N個(gè)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)經(jīng)過(guò)Softmax處理后輸出該目標(biāo)歸于各個(gè)類別的概率,這里N表示目標(biāo)的類別數(shù)量。

      2.1 網(wǎng)絡(luò)的輸入

      卷積網(wǎng)絡(luò)的輸入為一幅偽彩色圖像,它的R、G、B三個(gè)通道的圖像分別是在連續(xù)方位角上獲取的同一目標(biāo)的三幅SAR圖像。不妨設(shè)這三幅圖像分別為Aθ1、Aθ2和Aθ3,其中θi(i=1,2,3)為飛行平臺(tái)獲取圖像Aθi時(shí)的方位角角度,那么偽彩色圖像的三個(gè)通道可以表示為

      (1)

      這里,rotate(X,φ)表示將圖像X逆時(shí)針旋轉(zhuǎn)了φ度。因此,偽彩色圖像可以表示為

      A=cat(R,G,B)

      (2)

      其中cat(·)表示圖像疊加操作。

      圖2是在不同方位角獲取的同一目標(biāo)的SAR圖像及其偽彩色圖像,其中圖2(a)~(f)分別是在方位角為73.8°、74.8°、75.8°、78.8°、82.8°和83.8°處獲取的,它們?cè)诜轿唤巧鲜沁B續(xù)的。觀測(cè)方位角的差異使得SAR圖像中目標(biāo)具有不同的形態(tài),即便方位角角度差很小,但是由此而引起的圖像變化卻不容忽視。圖2(g)~(j)是圖2(a)~(f)中連續(xù)的三幅圖像合成的偽彩色圖像,圖2(g)對(duì)應(yīng)著圖2(a)~(c),圖2(h)對(duì)應(yīng)著圖2(b)~(d),以此類推。彩色信息賦予了目標(biāo)更豐富的內(nèi)容,彩色信息的差異則是觀測(cè)方位角差異在目標(biāo)成像上的體現(xiàn)。

      在真實(shí)場(chǎng)景中,我們可能無(wú)法提前獲取目標(biāo)的具體朝向,也就無(wú)法直接獲取目標(biāo)的地面真實(shí)信息,

      圖2 同一目標(biāo)的SAR圖像(a)~(f)和偽彩色圖像(g)~(j)Fig.2 SAR images (a)~(f) and pseudo-color images (g)~(j) of the same target

      也即無(wú)法預(yù)知θ1、θ2和θ3的值,但是飛行平臺(tái)在獲取圖像數(shù)據(jù)的過(guò)程中可以獲取到相鄰兩個(gè)觀測(cè)方位角的角度差,即θ2-θ3和θ2-θ1是可以計(jì)算出來(lái)的。因此,飛行平臺(tái)只需在連續(xù)的3個(gè)方位角獲取目標(biāo)的SAR圖像即可滿足本文設(shè)計(jì)的卷積網(wǎng)絡(luò)的要求。

      2.2 引入批歸一化

      批歸一化本質(zhì)上是為了解決網(wǎng)絡(luò)在反向傳播(Back Propagation,BP)過(guò)程中的梯度不穩(wěn)定問(wèn)題,以加快網(wǎng)絡(luò)的收斂速度。若令

      (3)

      表示網(wǎng)絡(luò)從第l-1層傳播到第l層,即網(wǎng)絡(luò)的前向傳播,其中ωl為第l層的權(quán)重參數(shù)矩陣,hl為第l層的節(jié)點(diǎn)。那么從第l層傳播到第l-1層,即網(wǎng)絡(luò)的反向傳播可以表示為

      (4)

      其中Δl為反向傳播過(guò)程中第l層的差值。

      當(dāng)網(wǎng)絡(luò)從第l層反向傳播到第k(k

      (5)

      (6)

      (7)

      接著對(duì)其作白化處理,即

      (8)

      批歸一化會(huì)改變?cè)紨?shù)據(jù)的分布,會(huì)使得大部分?jǐn)?shù)據(jù)被拉至激活函數(shù)中間的線性部分,而在深層網(wǎng)絡(luò)中非線性變換是至關(guān)重要的。因此,為了在非線性和梯度之間做個(gè)權(quán)衡,引入兩個(gè)參數(shù)γ和β進(jìn)行對(duì)數(shù)據(jù)自動(dòng)調(diào)整:

      (9)

      參數(shù)γ和β分別對(duì)數(shù)據(jù)做尺度變換和平移變換,是需要網(wǎng)絡(luò)自己去權(quán)衡和學(xué)習(xí)的。

      2.3 學(xué)習(xí)率的設(shè)計(jì)

      本文采用小批量隨機(jī)梯度下降法(Mini-batch Stochastic Gradient Decent,MSGD)[18]對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并使用參數(shù)為0.9的動(dòng)量(Momentum)來(lái)保持梯度下降的慣性方向,以增強(qiáng)網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性。在初始訓(xùn)練時(shí)給定一個(gè)稍大的初始學(xué)習(xí)率υ0,每當(dāng)訓(xùn)練完d輪訓(xùn)練數(shù)據(jù)集后,使學(xué)習(xí)率下降到之前的α倍,即

      (10)

      其中i(i≥1)為訓(xùn)練輪數(shù)。本文中,υ0取0.001,d取5,α取0.5。

      3 實(shí)驗(yàn)結(jié)果與分析

      本文使用了由Sandia National Laboratory提供的SAR圖像數(shù)據(jù)集——靜止目標(biāo)獲取與識(shí)別(Moving and Stationary Target Acquisition and Recognition,MSTAR)數(shù)據(jù)集。在該數(shù)據(jù)集中,所有圖像的分辨率為0.3 m×0.3 m,方位向從0°到360°覆蓋了每個(gè)目標(biāo),涵蓋了不同類別、不同型號(hào)、不同方位角、不同俯視角的軍事目標(biāo),其中公開可用的只有小部分。本文分別在經(jīng)典的10大類目標(biāo)數(shù)據(jù)集和8種T72坦克目標(biāo)數(shù)據(jù)集上各自做了實(shí)驗(yàn),以驗(yàn)證本文提出的利用目標(biāo)多方位角SAR圖像進(jìn)行目標(biāo)識(shí)別的方法的可行性和有效性,并與其他卷積神經(jīng)網(wǎng)絡(luò)方法在識(shí)別精度和網(wǎng)絡(luò)參數(shù)數(shù)量上作了對(duì)比分析。在訓(xùn)練網(wǎng)絡(luò)和測(cè)試網(wǎng)絡(luò)的時(shí)候,輸入的均是在連續(xù)方位角上獲取的同一目標(biāo)的3幅SAR圖像。

      3.1 實(shí)驗(yàn)一

      實(shí)驗(yàn)一用到的SAR圖像數(shù)據(jù)為經(jīng)典的10大類目標(biāo)(分別為T62,T72,BMP2,BRDM2,BTR60,BTR70,D7,ZIL131,ZSU23/4,2S1)圖像,它們各自的光學(xué)圖像和同一方位向下的SAR圖像如圖3所示,從圖中可以看出,不同目標(biāo)的光學(xué)圖像具有很大的差異,對(duì)應(yīng)的SAR圖像也存在人眼可辨的差別。表1是實(shí)驗(yàn)一用到的訓(xùn)練樣本和測(cè)試樣本的型號(hào)及其數(shù)量,其中在17°俯視角下獲取的SAR圖像用于訓(xùn)練,在15°俯視角下獲取的SAR圖像用于測(cè)試。

      表2是實(shí)驗(yàn)一的正確識(shí)別率混淆矩陣,混淆矩陣中每一行表示目標(biāo)所屬的真實(shí)類別,每一列表示卷積網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果。從表中可以發(fā)現(xiàn),除了目標(biāo)BTR60未達(dá)到百分之百的識(shí)別外,其他9類目標(biāo)均得到了完全的識(shí)別,整體識(shí)別率達(dá)到99.92%,這說(shuō)明本文搭建的卷積網(wǎng)絡(luò)能夠有效地對(duì)SAR目標(biāo)進(jìn)行識(shí)別。利用多幅同目標(biāo)SAR圖像作為輸入的策略增加了目標(biāo)的信息,網(wǎng)絡(luò)通過(guò)反向傳播能夠捕獲到這些重要的信息,從而提高目標(biāo)識(shí)別正確率。

      表3是本文方法與其他方法的對(duì)比,分別從網(wǎng)絡(luò)參數(shù)數(shù)量和正確識(shí)別率兩個(gè)方面進(jìn)行了對(duì)比分析。從文獻(xiàn)[15-16][19-20]可以看出,目標(biāo)的正確識(shí)別率與網(wǎng)絡(luò)參數(shù)數(shù)量有關(guān),隨著參數(shù)數(shù)量的增加正確識(shí)別率也隨之升高,說(shuō)明針對(duì)含有大量相干斑噪聲的SAR圖像而言,過(guò)少的參數(shù)不足以挖掘出不同類別目標(biāo)之間的特征,會(huì)導(dǎo)致較低的識(shí)別率。為了達(dá)到99.56%的識(shí)別率,文獻(xiàn)[16]使用了上百萬(wàn)數(shù)量級(jí)別的參數(shù),這在訓(xùn)練網(wǎng)絡(luò)和測(cè)試網(wǎng)絡(luò)時(shí)會(huì)占

      圖3 實(shí)驗(yàn)一中目標(biāo)的光學(xué)圖像和SAR圖像Fig.3 Optical images and SAR images of targets in experiment ONE

      目標(biāo)型號(hào)2S1BMP2BRDM2BTR60BTR70D7T62T72ZIL131ZSU234訓(xùn)練集(17°)299233298256233299299232299299測(cè)試集(15°)274195274195196274273196274274

      表2 實(shí)驗(yàn)一的混淆矩陣

      用大量的計(jì)算資源,效率也會(huì)很低。在具有99%以上識(shí)別率的方法中,本文方法用最少的參數(shù),卻獲得了最高的識(shí)別率,這一方面得益于本文使用多幅同目標(biāo)圖像作為網(wǎng)絡(luò)訓(xùn)練和測(cè)試的輸入,另一方面和網(wǎng)絡(luò)的設(shè)計(jì)也分不開。在該數(shù)據(jù)集上,本文方法具有高達(dá)99.92%的識(shí)別精度,說(shuō)明本文利用多方位角SAR圖像在卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行目標(biāo)識(shí)別的方法是一種有效的SAR圖像目標(biāo)識(shí)別方法。

      表3 與其他方法的比較

      3.2 實(shí)驗(yàn)二

      實(shí)驗(yàn)二同樣用到了MSTAR數(shù)據(jù),不過(guò)此次的目標(biāo)均為T72坦克,只是它們的具體型號(hào)不同,分別為A04、A05、A07、A10、A32、A62、A63和A64,共計(jì)8種目標(biāo)。圖4是實(shí)驗(yàn)二用到的8種不同型號(hào)的T72坦克的光學(xué)圖像和在同一方位向下SAR圖像,從它們的光學(xué)圖像中可以看出,這8種T72坦克具有相似的外形,難以區(qū)分,而人眼幾乎無(wú)法從它們的SAR圖像中判別出它們的所屬型號(hào),這給SAR圖像目標(biāo)識(shí)別帶來(lái)了挑戰(zhàn)性的難題。表4是實(shí)驗(yàn)二用到的訓(xùn)練樣本和測(cè)試樣本的型號(hào)及其數(shù)量,其中在17°俯視角下獲取的SAR圖像用于訓(xùn)練,在15°俯視角下獲取的SAR圖像用于測(cè)試。

      表5和表6是實(shí)驗(yàn)二的正確識(shí)別率混淆矩陣,其中表5是輸入為單幅目標(biāo)圖像得到的識(shí)別結(jié)果,表6是輸入為3幅同目標(biāo)圖像(作為1幅偽彩色圖像)得到的識(shí)別結(jié)果,我們并未改變網(wǎng)絡(luò)的結(jié)構(gòu)和超參數(shù),只是對(duì)輸入做了修改。從表中可以發(fā)現(xiàn),利用3幅圖像作為輸入時(shí)的整體正確識(shí)別率較單幅圖像相比提高了7.58%,各個(gè)目標(biāo)的識(shí)別率也都有所提升,其中目標(biāo)A63從84.56%的識(shí)別率提升到98.18%,足足提升了13.62%,這說(shuō)明多幅圖像能夠攜帶目標(biāo)更多的信息,卷積網(wǎng)絡(luò)正是捕獲了這些信息,提高目標(biāo)正確識(shí)別率。在同類別不同型號(hào)目標(biāo)的識(shí)別問(wèn)題上,本文方法能夠獲得98.49%的識(shí)別率,說(shuō)明本文方法在同類別不同型號(hào)的目標(biāo)識(shí)別問(wèn)題上具有較強(qiáng)的魯棒性。

      圖4 實(shí)驗(yàn)二中8種不同型號(hào)的T72坦克的光學(xué)圖像和SAR圖像Fig.4 Optical images and SAR images of 8 different types of T72 tank in experiment TWO

      表4 實(shí)驗(yàn)二的數(shù)據(jù)集

      當(dāng)卷積網(wǎng)絡(luò)的輸入為單幅SAR圖像和3幅SAR圖像時(shí),第1、第2個(gè)卷積層分別得到的特征圖如圖5所示,其中第1個(gè)卷積層共得到15張?zhí)卣鲌D,尺寸為76×76,第2個(gè)卷積層共得到30張?zhí)卣鲌D,尺寸為34×34。圖5(a)和圖5(c)是輸入分別為單幅圖像和3幅圖像時(shí)第1個(gè)卷積層獲取的特征圖,從圖中可以看出,圖5(a)中的特征圖受原始SAR圖像中相干斑噪聲的影響十分嚴(yán)重,目標(biāo)及其陰影在特征圖中表現(xiàn)得并不明顯,甚至在有些特征圖中幾乎難以辨別出目標(biāo),目標(biāo)周圍的環(huán)境噪聲被放大。而圖5(c)中的特征圖幾乎不受到相干斑的影響,目標(biāo)所在位置清晰可見,目標(biāo)及其陰影的輪廓也十分明顯,目標(biāo)周圍的環(huán)境噪聲得到抑制,這說(shuō)明將3幅圖像作為1幅偽彩色圖像輸入到卷積網(wǎng)絡(luò)中增加了目標(biāo)的信息,卷積網(wǎng)絡(luò)通過(guò)反向傳播優(yōu)化參數(shù),能夠捕獲到這些有用的信息。圖5(b)和圖5(d)是輸入分別為單幅圖像和3幅圖像時(shí)第2個(gè)卷積層獲取的特征圖,從圖中可以發(fā)現(xiàn),圖5(b)中的特征圖開始變得紊亂,而圖5(d)中的特征圖依舊十分清晰,即圖5(d)提取出的特征要比圖5(b)好很多,而更好的特征則意味著更高的正確識(shí)別率。

      表5 實(shí)驗(yàn)二的混淆矩陣(單幅圖像)

      表6 實(shí)驗(yàn)二的混淆矩陣(3幅圖像)

      圖5 輸入分別為單幅圖像和3幅圖像時(shí),不同卷積層中的特征圖Fig.5 Feature maps of different conv. layers, when input is a single image or three images

      一方面卷積核提取出的特征圖的質(zhì)量好壞影響著整體識(shí)別性能,另一方面,卷積核的個(gè)數(shù)同樣對(duì)識(shí)別性能有所影響。在用深度學(xué)習(xí)做圖像識(shí)別領(lǐng)域中,一般地,后一層卷積層中卷積核的數(shù)量是前一層的兩倍,也就是說(shuō),如果第1個(gè)卷積層有s個(gè)卷積核,那么第k(k≥2)層卷積層則有2k-1·s個(gè)卷積核,本文的網(wǎng)絡(luò)亦采用了這樣的設(shè)計(jì)策略。圖6展示了目標(biāo)整體識(shí)別率隨卷積核的數(shù)量變化的示意圖,可以看出,識(shí)別率受卷積核的數(shù)量的影響頗大。當(dāng)卷積核較少時(shí),隨著其數(shù)量的增加,正確識(shí)別率急速上升;但當(dāng)卷積核較多時(shí),隨著其數(shù)量的增加,正確識(shí)別率上升緩慢,甚至幾乎不再上升。卷積核的多少?zèng)Q定著特征圖的數(shù)量,太少的卷積核不利于獲得可觀的目標(biāo)識(shí)別率,而過(guò)多的卷積核不但對(duì)提高目標(biāo)識(shí)別率幫助不大,還會(huì)在訓(xùn)練階段占用大量的計(jì)算資源和訓(xùn)練時(shí)間。

      圖6 正確識(shí)別率與卷積核的數(shù)量的關(guān)系Fig.6 Relationship of PCC and the number ofconvolution kernels

      4 結(jié)論

      本文提出了一種利用多方位角SAR圖像在卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行目標(biāo)識(shí)別的方法,并設(shè)計(jì)了一個(gè)用于SAR圖像目標(biāo)識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),通過(guò)將3幅同目標(biāo)圖像作為一幅偽彩色圖像輸入到網(wǎng)絡(luò)中,降低了目標(biāo)方位敏感性,提高了目標(biāo)識(shí)別率。在經(jīng)典的10大類目標(biāo)識(shí)別數(shù)據(jù)集上,本文方法用少量的網(wǎng)絡(luò)參數(shù)取得了最高的識(shí)別率,在同類別不同型號(hào)的目標(biāo)識(shí)別問(wèn)題上,本文方法也達(dá)到了98.49%的識(shí)別率,這得益于良好的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)和在網(wǎng)絡(luò)輸入方式上的改進(jìn)。實(shí)驗(yàn)結(jié)果表明,即便在小規(guī)模的數(shù)據(jù)集上,利用多方位角SAR圖像能夠顯著提高目標(biāo)識(shí)別率,在同類別不同型號(hào)的目標(biāo)識(shí)別問(wèn)題上有著可觀的識(shí)別率,本文方法是一種有效的合成孔徑雷達(dá)目標(biāo)識(shí)別方法。

      [1] 蓋旭剛, 陳晉汶, 韓俊,等. 合成孔徑雷達(dá)的現(xiàn)狀與發(fā)展趨勢(shì)[J]. 飛航導(dǎo)彈, 2011(3):82- 86.

      Gai Xugang, Chen Jinwen, Han Jun, et al. Present Situation and Development Trend of Synthetic Aperture Radar[J]. Aerodynamic Missile Journal, 2011(3):82- 86.(in Chinese)

      [2] 張紅, 王超, 張波,等. 高分辨率SAR圖像目標(biāo)識(shí)別[M]. 北京:科學(xué)出版社, 2009:4-7.

      Zhang Hong, Wang Chao, Zhang Bo, et al. High Resolution SAR Image Target Recognition[M]. Beijing: Science Press, 2009:4-7.(in Chinese)

      [3] Moreira A, Prats-Iraola P, Younis M, et al. A Tutorial on Synthetic Aperture Radar[J]. IEEE Geoscience and Remote Sensing Magazine, 2013, 1(1):6- 43.

      [4] 王瑞霞,林偉,毛軍.基于小波變換和PCA的SAR圖像相干斑抑制[J].計(jì)算機(jī)工程,2008,34(20):235-237.

      Wang Ruixia, Lin Wei, Mao Jun. Speckle Suppression for SAR Image Based on Wavelet Transform and PCA[J]. Computer Engineering,2008,34(20):235-237.(in Chinese)

      [5] O’Sullivan J A, Devore M D,Kedia V, et al. SAR ATR Performance Using a Conditionally Gaussian Model[J]. IEEE Transactions on Aerospace and Electronic Systems, 2001, 37(1):91-108.

      [6] 徐豐,王海鵬,金亞秋.深度學(xué)習(xí)在SAR目標(biāo)識(shí)別與地物分類中的應(yīng)用[J].雷達(dá)學(xué)報(bào),2017,6(2):136-148.

      Xu Feng, Wang Haipeng, Jin Yaqiu. Deep Learning as Applied in SAR Target Recognition and Terrain Classification[J]. Journal of Radars, 2017, 6(2):136-148.(in Chinese)

      [7] LEcun Y, Bottou L, Bengio Y, et al. Gradient-Based Learning Applied to Document Recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.

      [8] Hinton G E,Osindero S, Teh Y W. A Fast Learning Algorithm for Deep Belief Nets[J]. Neural Computation, 2014, 18(7):1527-1554.

      [9] Williams R J,Zipser D. A Learning Algorithm for Continually Running Fully Recurrent Neural Networks[J]. Neural Computation. 1989, 1(2): 270-280.

      [10] Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[C]∥International Conference on Neural Information Processing Systems. Nevada, USA: Curran Associates Inc, 2012: 1097-1105.

      [11] Szegedy C, Liu W, Jia Y, et al. Going Deeper with Convolutions[C]∥Computer Vision and Pattern Recognition. Boston, USA: IEEE, 2015: 1-9.

      [12] He K, Zhang X, Ren S, et al. Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification[C]∥IEEE International Conference on Computer Vision, Washington DC, USA: IEEE, 2015:1026-1034.

      [13] Chen S, Wang H. SAR Target Recognition Based on Deep Learning[C]∥International Conference on Data Science and Advanced Analytics. Shanghai, China: IEEE, 2015:541-547.

      [14] 田壯壯, 占榮輝, 胡杰民,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識(shí)別研究[J]. 雷達(dá)學(xué)報(bào), 2016, 5(3):320-325.

      Tian Zhuangzhuang, Zhan Ronghui, Hu Jiemin, et al. SAR ATR Based on Convolutional Neural Network[J]. Journal of Radars, 2016, 5(3): 320-325.(in Chinese)

      [15] Chen S, Wang H, Xu F, et al. Target Classification Using the Deep Convolutional Networks for SAR Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4806- 4817.

      [16] Furukawa H. Deep Learning for Target Classification from SAR Imagery: Data Augmentation and Translation Invariance[J].IEICE Technical Report, 2017, 117(182):11-17.

      [17] Loffe S, Szegedy C. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift[C]∥International Conference on Machine Learning. Lille, France: JMLR.org, 2015:448- 456.

      [18] Qian Q, Jin R, Yi J, et al. Efficient Distance Metric Learning by Adaptive Sampling and Mini-Batch Stochastic Gradient Descent[J]. Machine Learning, 2015, 99(3):353-372.

      [19] Morgan D A E. Deep Convolutional Neural Networks for ATR from SAR Imagery[C]∥Algorithms for Synthetic Aperture Radar Imagery XII. Maryland, USA: SPIE Defense and Security, 2015:94750F.

      [20] 劉寒穎, 張耀天, 張玉璽,等. 基于深度學(xué)習(xí)的SAR目標(biāo)識(shí)別及FPGA實(shí)現(xiàn)[C]∥第十一屆全國(guó)信號(hào)和智能信息處理與應(yīng)用學(xué)術(shù)年會(huì)會(huì)議. 貴陽(yáng), 中國(guó): 計(jì)算機(jī)工程應(yīng)用, 2017:371-375.

      Liu Hanying, Zhang Yaotian, Zhang Yuxi, et al. SAR Target Recognition and FPGA Implementation Based on Deep Learning[C]∥Eleventh Annual National Conference on Signal and Intelligent Information Processing and Application. Guiyang, China: Computer Engineering and Applications, 2017:371-375.(in Chinese)

      猜你喜歡
      彩色圖像方位角識(shí)別率
      探究無(wú)線電方位在無(wú)線電領(lǐng)航教學(xué)中的作用和意義
      卷宗(2021年2期)2021-03-09 07:57:24
      近地磁尾方位角流期間的場(chǎng)向電流增強(qiáng)
      基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
      基于FPGA的實(shí)時(shí)彩色圖像邊緣檢測(cè)
      電子制作(2019年16期)2019-09-27 09:34:46
      基于真耳分析的助聽器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
      提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
      基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
      高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
      向量?jī)?nèi)外積在直線坐標(biāo)方位角反算中的應(yīng)用研究
      河南科技(2015年18期)2015-11-25 08:50:14
      基于顏色恒常性的彩色圖像分割方法
      崇信县| 河曲县| 米泉市| 宣汉县| 通州市| 长治县| 上栗县| 金乡县| 南宁市| 闽侯县| 兴文县| 拉孜县| 平江县| 海口市| 泸溪县| 鹤庆县| 会理县| 化州市| 葫芦岛市| 富裕县| 扎赉特旗| 城口县| 丰宁| 武平县| 安化县| 云梦县| 新竹县| 敖汉旗| 无锡市| 左云县| 天峨县| 马龙县| 长宁县| 临洮县| 巴林右旗| 涪陵区| 电白县| 岑溪市| 昌邑市| 东乌珠穆沁旗| 梓潼县|