王靖宇, 王霰禹, 張科, 蔡宜倫, 劉越
(1.航天飛行動(dòng)力學(xué)技術(shù)重點(diǎn)實(shí)驗(yàn)室, 陜西 西安 710072; 2.西北工業(yè)大學(xué) 航天學(xué)院, 陜西 西安 710072)
隨著無(wú)人機(jī)使用門檻的不斷降低,由于缺乏統(tǒng)一的行業(yè)標(biāo)準(zhǔn)和規(guī)范,導(dǎo)致無(wú)人機(jī)的“黑飛”問題日益突出,使得無(wú)人機(jī)被濫用的可能性在顯著增加,低空空域內(nèi)無(wú)人機(jī)的非合作入侵飛行事件在國(guó)內(nèi)外已屢見不鮮,不僅對(duì)公民隱私和生命財(cái)產(chǎn)安全造成了危害,嚴(yán)重制約了無(wú)人機(jī)產(chǎn)業(yè)化的發(fā)展,更是對(duì)公共安全和國(guó)家安全帶來(lái)了十分巨大的威脅[1-2]。因此,需要采用視頻圖像信息對(duì)低空無(wú)人機(jī)目標(biāo)進(jìn)行有效檢測(cè),以實(shí)現(xiàn)后續(xù)的防護(hù)壓制。
近年來(lái),隨著以深度學(xué)習(xí)為代表的人工智能方法在圖像處理領(lǐng)域的不斷發(fā)展,大量目標(biāo)檢測(cè)方法都采用深度神經(jīng)網(wǎng)絡(luò)來(lái)完成任務(wù)。文獻(xiàn)[3]針對(duì)利用圖像數(shù)據(jù)與深度信息進(jìn)行目標(biāo)識(shí)別時(shí),存在信息融合不一致、特征設(shè)計(jì)不統(tǒng)一等問題,研究了基于卷積神經(jīng)網(wǎng)絡(luò)的多模信息融合識(shí)別方法,使得特征學(xué)習(xí)可以根據(jù)目標(biāo)特性自動(dòng)進(jìn)行。然而,無(wú)人機(jī)在遠(yuǎn)距離上的視覺特性較弱、尺寸較小,是較為典型的弱小視覺目標(biāo)。目前,基于深度神經(jīng)網(wǎng)絡(luò)的弱小目標(biāo)檢測(cè)方法研究主要針對(duì)交通標(biāo)志、空中飛鳥等弱小目標(biāo)。其中,文獻(xiàn)[4]提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的小尺寸道路標(biāo)示識(shí)別框架,通過采用全卷積網(wǎng)絡(luò)來(lái)提供道路標(biāo)識(shí)的位置線索,并采用深度卷積神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)對(duì)標(biāo)識(shí)的檢測(cè)。文獻(xiàn)[5]針對(duì)圖像中鳥類弱小目標(biāo)的檢測(cè)問題,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)和全卷積網(wǎng)絡(luò)的檢測(cè)識(shí)別方法,通過提取多尺度特征來(lái)有效區(qū)分鳥和背景區(qū)域,從而實(shí)現(xiàn)對(duì)鳥類弱小目標(biāo)的檢測(cè)與識(shí)別。
此外,蔣兆軍等人[6]針對(duì)基于深度學(xué)習(xí)的無(wú)人機(jī)檢測(cè)方法進(jìn)行了研究,提出通過訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)對(duì)無(wú)人機(jī)的識(shí)別。文獻(xiàn)[7]則將無(wú)人機(jī)目標(biāo)的檢測(cè)任務(wù)簡(jiǎn)化為檢測(cè)問題,通過對(duì)背景圖像和前景運(yùn)動(dòng)區(qū)域進(jìn)行建模,利用幀間差分原理實(shí)現(xiàn)了對(duì)弱小無(wú)人機(jī)目標(biāo)的檢測(cè)和識(shí)別。然而,上述研究工作只采用了不包含其他運(yùn)動(dòng)目標(biāo)的視頻和圖像數(shù)據(jù)進(jìn)行測(cè)試實(shí)驗(yàn),并且訓(xùn)練樣本所覆蓋的目標(biāo)尺度較為固定,基本沒有考慮無(wú)人機(jī)的尺度變化問題,使得上述方法在用于實(shí)際弱小無(wú)人機(jī)目標(biāo)檢測(cè)時(shí)具有較大局限性。與此同時(shí),由于采用深度學(xué)習(xí)方法進(jìn)行目標(biāo)檢測(cè)時(shí),訓(xùn)練數(shù)據(jù)的數(shù)量與質(zhì)量對(duì)提高檢測(cè)模型的精度和泛化能力來(lái)說較為關(guān)鍵。但由于無(wú)人機(jī)目標(biāo)較為特殊,當(dāng)前還尚未有較為成熟的大型圖像數(shù)據(jù)庫(kù)可以用來(lái)進(jìn)行模型訓(xùn)練,使得現(xiàn)有研究工作受到了一定限制。針對(duì)上述問題,本文首先建立了由15 000張無(wú)人機(jī)圖像組成的低空無(wú)人機(jī)目標(biāo)圖像數(shù)據(jù)庫(kù),其中包含了不同大小、角度、顏色、紋理和背景的無(wú)人機(jī)目標(biāo)。其次,建立了由多個(gè)隱含層組成的深度神經(jīng)網(wǎng)絡(luò)模型,通過對(duì)輸入無(wú)人機(jī)圖像進(jìn)行卷積、池化等操作,分析目標(biāo)圖像各像素間的空間關(guān)系,并有效提取目標(biāo)的圖像特征信息,同時(shí),通過將較大尺寸的二維的圖像信息轉(zhuǎn)換為較小尺寸下的多通道特征圖,以克服目標(biāo)變尺度檢測(cè)問題。最后,利用云臺(tái)式光電探測(cè)系統(tǒng)在室外采集的無(wú)人機(jī)目標(biāo)飛行視頻進(jìn)行了實(shí)驗(yàn)驗(yàn)證。結(jié)果表明,本文提出的深度神經(jīng)網(wǎng)絡(luò)模型能夠有效檢測(cè)空中弱小無(wú)人機(jī)目標(biāo),并在視場(chǎng)內(nèi)有其他干擾物存在時(shí)具有較好的魯棒性。
由于現(xiàn)有研究工作中還尚未有較為成熟的無(wú)人機(jī)目標(biāo)圖像數(shù)據(jù)庫(kù),會(huì)對(duì)面向無(wú)人機(jī)目標(biāo)檢測(cè)的深度神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練帶來(lái)較大困難。文獻(xiàn)[6]在深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中雖然建立并使用了一個(gè)具有3 560張圖像的無(wú)人機(jī)目標(biāo)圖像數(shù)據(jù)庫(kù),但其訓(xùn)練樣本的數(shù)量仍較小,難以保證深度神經(jīng)網(wǎng)絡(luò)模型在訓(xùn)練過程中能夠快速收斂。為了提高深度神經(jīng)網(wǎng)絡(luò)模型的檢測(cè)精度和泛化能力,本文首先建立了一個(gè)由15 000張無(wú)人機(jī)目標(biāo)圖像組成的訓(xùn)練數(shù)據(jù)庫(kù)。
圖1 無(wú)人機(jī)目標(biāo)圖像數(shù)據(jù)庫(kù)中的樣本示例
具體而言,先是通過在大型網(wǎng)絡(luò)圖像數(shù)據(jù)庫(kù)中進(jìn)行搜索和在包含無(wú)人機(jī)目標(biāo)的視頻中截取圖像幀,采集了約20 000張、包含約30種無(wú)人機(jī)目標(biāo)的圖像樣本。隨后,采用圖像去噪、尺寸歸一化等手段對(duì)圖像進(jìn)行預(yù)處理,得到約16 000張質(zhì)量較好的無(wú)人機(jī)目標(biāo)圖像。最后,利用人工在圖像中對(duì)目標(biāo)進(jìn)行標(biāo)注,并去除目標(biāo)特性較差的圖像,得到15 000張含有無(wú)人機(jī)目標(biāo)的圖像樣本來(lái)組成訓(xùn)練數(shù)據(jù)庫(kù)。本文所建立的無(wú)人機(jī)目標(biāo)圖像數(shù)據(jù)庫(kù)中的樣本示例如圖1所示,可以看出數(shù)據(jù)庫(kù)中的樣本圖像包含了藍(lán)天、草地、陰天、樹林等不同環(huán)境背景,并且無(wú)人機(jī)目標(biāo)的形狀、大小和顏色均各不相同,從而提高訓(xùn)練數(shù)據(jù)庫(kù)的樣本質(zhì)量。
深度神經(jīng)網(wǎng)絡(luò)在圖像目標(biāo)檢測(cè)領(lǐng)域已有廣泛應(yīng)用,并有著非常優(yōu)異的效果[8]。但現(xiàn)有研究較少考慮待檢測(cè)目標(biāo)尺寸,現(xiàn)有用于目標(biāo)檢測(cè)的深度神經(jīng)網(wǎng)絡(luò)的輸入尺寸都大于100×100像素,而待檢測(cè)的原圖像尺寸更是大于神經(jīng)網(wǎng)絡(luò)的輸入尺寸,使得神經(jīng)網(wǎng)絡(luò)有充足的數(shù)據(jù)進(jìn)行檢測(cè)。在無(wú)人機(jī)目標(biāo)檢測(cè)過程中,捕捉到的無(wú)人機(jī)圖像通常只有不到40×40像素,可用于檢測(cè)的數(shù)據(jù)非常有限,因此現(xiàn)有研究提出的深度神經(jīng)網(wǎng)絡(luò)并不適用于這類問題。
圖2 多隱含層深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
本文提出并建立的深度神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)如圖2所示,神經(jīng)網(wǎng)絡(luò)包括共23層,其中21層為隱含層,包含5層卷積層,3層全連接層,7層ReLU層,3層歸一化層和3個(gè)池化層;深度神經(jīng)網(wǎng)絡(luò)的輸入層接受的數(shù)據(jù)為65×65像素的RGB彩色圖像,第一層卷積層的卷積核尺寸為5×5×3,共64個(gè),進(jìn)行步長(zhǎng)為2的卷積操作,隨后經(jīng)過步長(zhǎng)為2、尺寸為3×3像素的池化層和一個(gè)正則化層后,輸出一組尺寸為17×17×64的數(shù)據(jù)。利用小尺度卷積核對(duì)數(shù)據(jù)進(jìn)行細(xì)致的濾波處理,充分提取輸入圖像中弱小無(wú)人機(jī)目標(biāo)的多層次視覺特征。從而使得所建立的深度神經(jīng)網(wǎng)絡(luò)能夠較好地適應(yīng)弱小尺度視覺目標(biāo),
第二層卷積層由128個(gè)尺寸為3×3×64的卷積核構(gòu)成,對(duì)第一層輸出的數(shù)據(jù)進(jìn)行步長(zhǎng)為1的卷積運(yùn)算, 通過提高卷積核個(gè)數(shù)來(lái)增加圖像通道數(shù)量,從而為后續(xù)的特征提取和檢測(cè)提供更多數(shù)據(jù)支持,在經(jīng)過一次正則化操作后輸入第三層卷積層,包含64個(gè)尺寸為3×3×128的卷積核,僅進(jìn)行一次步長(zhǎng)為1的卷積操作,輸出尺寸為17×17×64的數(shù)據(jù)。在這2次卷積后未進(jìn)行最大池化操作,從而使得本文所提出的深度神經(jīng)網(wǎng)絡(luò)能夠充分地保留輸入目標(biāo)的圖像細(xì)節(jié)信息。
第四層卷積層包含128個(gè)尺寸為3×3×64個(gè)卷積核,對(duì)第三層的輸出數(shù)據(jù)進(jìn)行步長(zhǎng)為2的卷積操作,隨后進(jìn)行尺寸為3×3像素的池化操作并再一次對(duì)所得數(shù)據(jù)進(jìn)行一次卷積操作,卷積核尺寸為3×3×128,共128個(gè),最后對(duì)數(shù)據(jù)進(jìn)行一次步長(zhǎng)為2、尺寸為3×3的池化操作,將數(shù)據(jù)尺寸縮減為5×5×128。通過對(duì)圖像進(jìn)行5次卷積操作,將其視覺特征抽象成多通道的小尺度特征圖,包含了原圖像中不同尺度下的信息,從而能實(shí)現(xiàn)對(duì)不同尺度目標(biāo)的準(zhǔn)確檢測(cè)。將這組數(shù)據(jù)輸入由2組512個(gè)神經(jīng)元構(gòu)成的全連接層,輸出層為2個(gè)神經(jīng)元,分別代表“是”和“不是”2個(gè)判斷結(jié)果。
深度神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練采用的是傳統(tǒng)的反向傳播算法,模型的參數(shù)通過隨機(jī)數(shù)進(jìn)行初始化。利用建立的無(wú)人機(jī)圖像數(shù)據(jù)庫(kù)作為訓(xùn)練數(shù)據(jù),對(duì)圖像進(jìn)行判斷,通過將判斷結(jié)果與標(biāo)準(zhǔn)結(jié)果的差反饋到各參數(shù),對(duì)參數(shù)數(shù)值進(jìn)行微調(diào)使其逐漸逼近最佳值。
首先將訓(xùn)練數(shù)據(jù)通過網(wǎng)絡(luò)輸入層輸入深度神經(jīng)網(wǎng)絡(luò),經(jīng)過每一層的前向傳播最終得到判斷結(jié)果,對(duì)于l層的前向傳播公式為:
z(l)=w(l)a(l-1)+b(l)
a(l)=f(z(l))
J(w,b)=1m∑mi=1J(w,b;x(i),y(i))
J(w,b;x(i),y(i))=12(y(i)-hw,b(x(i)))2
式中,hw,b(x(i))為第i個(gè)分類的計(jì)算值;y(i)表示第i個(gè)分類的真實(shí)值;m表示類別數(shù)。此處我們要得到最佳的w和b,以使代價(jià)值J(w,b)最小,即達(dá)到分類的目的。
通過反向傳播算法計(jì)算誤差相對(duì)各參數(shù)的梯度,并通過梯度下降法對(duì)各參數(shù)進(jìn)行微調(diào)
在本文所建立的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,網(wǎng)絡(luò)各參數(shù)經(jīng)過反復(fù)微調(diào),逐漸逼近提取和描述無(wú)人機(jī)目標(biāo)圖像的最佳模型參數(shù),利用上節(jié)中所建立的大樣本目標(biāo)圖像數(shù)據(jù)庫(kù)進(jìn)行訓(xùn)練,采用較小的學(xué)習(xí)速度可以使參數(shù)更精準(zhǔn)擬合多尺度無(wú)人機(jī)目標(biāo)的視覺表征模型,使所建立的深度神經(jīng)網(wǎng)絡(luò)模型能夠更加準(zhǔn)確地適用于對(duì)不同無(wú)人機(jī)目標(biāo)的檢測(cè)。
但深度神經(jīng)網(wǎng)絡(luò)仍存在算法時(shí)間復(fù)雜度較高的不足,直接利用深度神經(jīng)網(wǎng)絡(luò)在視頻中進(jìn)行無(wú)人機(jī)目標(biāo)的檢測(cè)無(wú)法滿足實(shí)時(shí)性的需求。深度神經(jīng)網(wǎng)絡(luò)時(shí)間復(fù)雜度的計(jì)算公式為:
式中,D為神經(jīng)網(wǎng)絡(luò)中卷積層數(shù),Ml為第l層輸出特征圖的邊長(zhǎng),Kl為第l層卷積核的邊長(zhǎng),Cl為卷積層的輸出通道數(shù)。經(jīng)計(jì)算,本文提出的神經(jīng)網(wǎng)絡(luò)完成一次識(shí)別需要進(jìn)行超過6.5×107次運(yùn)算。
因此本文利用一種時(shí)間復(fù)雜度較低的運(yùn)動(dòng)目標(biāo)檢測(cè)算法提取可能存在的無(wú)人機(jī)目標(biāo),本方法通過對(duì)傳統(tǒng)Haar特征進(jìn)行隨機(jī)投影降維,描述圖像中的局部信息,可以快速準(zhǔn)確地表征圖像中的弱小目標(biāo),通過對(duì)比臨近幀間的局部信息相似性,提取圖像中產(chǎn)生明顯變化的區(qū)域,實(shí)現(xiàn)快速的運(yùn)動(dòng)目標(biāo)檢測(cè)。深度神經(jīng)網(wǎng)絡(luò)僅對(duì)圖中的運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè),從而減少深度神經(jīng)網(wǎng)絡(luò)的計(jì)算量,提高算法的整體檢測(cè)速度。
為了驗(yàn)證本文所提出無(wú)人機(jī)目標(biāo)檢測(cè)模型在實(shí)際場(chǎng)景中的有效性和準(zhǔn)確率,本文建立了一套基于云臺(tái)式可見光攝像頭的低空光電探測(cè)系統(tǒng),其系統(tǒng)組成如圖3所示。
圖3 云臺(tái)式可見光攝像頭(左)及視頻畫面(右)
其中,圖3左側(cè)為低空光電探測(cè)系統(tǒng)所采用的云臺(tái)式可見光攝像頭,圖3右側(cè)圖像為該系統(tǒng)在實(shí)驗(yàn)環(huán)境下所獲取的原始視頻畫面。同時(shí),在測(cè)試實(shí)驗(yàn)中采用了2款國(guó)內(nèi)消費(fèi)級(jí)無(wú)人機(jī)市場(chǎng)上的主流機(jī)型作為無(wú)人機(jī)目標(biāo),其外觀如圖4所示。
圖4 測(cè)試飛行無(wú)人機(jī)示例
如圖4所示,實(shí)驗(yàn)采用了2款國(guó)內(nèi)消費(fèi)級(jí)無(wú)人機(jī)市場(chǎng)上的主流機(jī)型作為低空無(wú)人機(jī)目標(biāo),其實(shí)際尺寸分別為438 mm×451 mm×301 mm(左)和221 mm×205 mm×117mm(右)。在實(shí)驗(yàn)測(cè)試過程中,選擇攝像頭的視場(chǎng)場(chǎng)景(見圖3右)為飛行測(cè)試環(huán)境并保持當(dāng)前視場(chǎng)不變,當(dāng)攝像頭實(shí)際成像焦距設(shè)置為近焦端(f=100 mm)且視頻圖像分辨率為1 920×1 080時(shí),圖4中的2種無(wú)人機(jī)目標(biāo)在水平方向600 m距離處的成像尺寸約為15×15像素。
同時(shí),根據(jù)低空光電探測(cè)系統(tǒng)的可能部署區(qū)域,選擇了城區(qū)和郊區(qū)2種環(huán)境進(jìn)行低空無(wú)人機(jī)目標(biāo)的探測(cè)檢測(cè)實(shí)驗(yàn)。其中,城區(qū)環(huán)境位于城市的中心區(qū)域,高層建筑較多,且攝像頭視場(chǎng)中時(shí)常出現(xiàn)飛鳥、雜物等其他干擾物體。郊區(qū)環(huán)境則位于城區(qū)和山區(qū)相鄰交界處的野外區(qū)域,無(wú)高層建筑但存在較多飛鳥、蚊蟲等飛行干擾物體。為了避免無(wú)人機(jī)飛行對(duì)周圍環(huán)境產(chǎn)生負(fù)面影響,實(shí)驗(yàn)中無(wú)人機(jī)目標(biāo)的飛行高度不低于50 m但未超過150 m,城區(qū)環(huán)境下水平最遠(yuǎn)飛行距離約為800 m,郊區(qū)環(huán)境下水平最遠(yuǎn)飛行距離約為2 200 m,2架無(wú)人機(jī)的最大橫向機(jī)動(dòng)飛行速度約為10 m/s。
在城區(qū)環(huán)境實(shí)驗(yàn)中,為了使飛行中的無(wú)人機(jī)目標(biāo)能夠位于攝像頭的視場(chǎng)中央,調(diào)整云臺(tái)在垂直方向上抬高了約15°視角并帶有約2倍左右的光學(xué)變焦。在實(shí)驗(yàn)中,我們采用了移動(dòng)計(jì)算終端對(duì)光電攝像頭的視頻流進(jìn)行獲取和處理,其處理器為i7-7700HQ,內(nèi)存為16G,圖形計(jì)算卡為GeForce GTX1050,對(duì)視頻中每一幀輸入圖像的處理時(shí)間約為250 ms。需要注意的是,受拍攝時(shí)間、太陽(yáng)位置、空氣質(zhì)量等實(shí)驗(yàn)條件變化的影響,圖3右側(cè)中視頻圖像的畫質(zhì)與實(shí)驗(yàn)結(jié)果(見圖5~圖9)中所采集到圖像的畫質(zhì)存在視覺上的差異。
圖5至圖9為采用本文所建立的深度神經(jīng)網(wǎng)絡(luò)對(duì)低空無(wú)人機(jī)目標(biāo)進(jìn)行檢測(cè)的結(jié)果。其中,圖5和圖6分別為視頻畫面的第50幀和第150幀,圖中左側(cè)無(wú)人機(jī)目標(biāo)為懸停狀態(tài),右側(cè)無(wú)人機(jī)為飛行運(yùn)動(dòng)狀態(tài)。從圖中可以看出,綠色方框顯示本文算法對(duì)2個(gè)無(wú)人機(jī)目標(biāo)都能進(jìn)行準(zhǔn)確檢測(cè),并且當(dāng)右側(cè)無(wú)人機(jī)進(jìn)行機(jī)動(dòng)飛行時(shí)仍然能夠準(zhǔn)確地對(duì)運(yùn)動(dòng)中的無(wú)人機(jī)目標(biāo)進(jìn)行正確檢測(cè)。
圖5 實(shí)驗(yàn)視頻圖像第50幀結(jié)果(2個(gè)目標(biāo)懸停) 圖6 實(shí)驗(yàn)視頻圖像第150幀結(jié)果(左側(cè)無(wú)人機(jī)目標(biāo)懸停,右側(cè)無(wú)人機(jī)目標(biāo)機(jī)動(dòng)) 圖7 實(shí)驗(yàn)視頻圖像第300幀結(jié)果(2個(gè)目標(biāo)同時(shí)機(jī)動(dòng))
圖7給出了2個(gè)無(wú)人機(jī)目標(biāo)同時(shí)進(jìn)行機(jī)動(dòng)時(shí)的檢測(cè)結(jié)果,為原視頻圖像的第300幀。可以看出,本文算法所產(chǎn)生的綠色滑動(dòng)窗口具有99%的檢測(cè)概率,能夠準(zhǔn)確地定位無(wú)人機(jī)目標(biāo)的圖像所在區(qū)域。在圖5至圖7中,雖然視頻中無(wú)人機(jī)目標(biāo)所在區(qū)域的背景圖像是僅有天空和云層的簡(jiǎn)單背景,但由于攝像頭成像質(zhì)量較差,實(shí)際采集到的視頻圖像在上述區(qū)域仍有大量的圖像噪點(diǎn)和毛刺,是較為明顯的干擾。
圖7中右側(cè)無(wú)人機(jī)目標(biāo)處的藍(lán)色窗口即為算法產(chǎn)生的其他滑動(dòng)窗口,但通過采用本文所建立的深度神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(cè),實(shí)現(xiàn)了對(duì)右側(cè)飛行無(wú)人機(jī)的正確檢測(cè)(綠色框)。
圖8 郊區(qū)實(shí)驗(yàn)視頻圖像第50幀結(jié)果
圖9 郊區(qū)實(shí)驗(yàn)視頻圖像第200幀結(jié)果
圖8和圖9顯示了在郊區(qū)環(huán)境下,利用本文所建立深度神經(jīng)網(wǎng)絡(luò)檢測(cè)模型得到實(shí)驗(yàn)結(jié)果的第50幀和第200幀。其中,無(wú)人機(jī)在視頻中正進(jìn)行由左向右的快速飛行機(jī)動(dòng)。在該實(shí)驗(yàn)環(huán)境條件下,無(wú)人機(jī)目標(biāo)距離攝像頭最遠(yuǎn)約為2 200 m,攝像頭為25倍光學(xué)變焦,藍(lán)色和綠色框均為本文算法所產(chǎn)生的檢測(cè)滑動(dòng)窗口。可以看出,雖然攝像頭已經(jīng)為25倍光學(xué)變焦,但由于無(wú)人機(jī)目標(biāo)距離較遠(yuǎn),其視覺尺寸僅有約20×20像素,利用傳統(tǒng)算法已經(jīng)無(wú)法將其與其他干擾目標(biāo)區(qū)分。受實(shí)驗(yàn)采用的移動(dòng)計(jì)算終端計(jì)算能力限制,本文算法的檢測(cè)結(jié)果由綠色窗口表示,但其檢測(cè)概率為99%,說明本文所建立的深度神經(jīng)網(wǎng)絡(luò)檢測(cè)模型能夠有效實(shí)現(xiàn)對(duì)遠(yuǎn)距離弱小無(wú)人機(jī)目標(biāo)的檢測(cè)。
此外,為了充分驗(yàn)證本文所建立深度神經(jīng)網(wǎng)絡(luò)模型的檢測(cè)精度,還采用基于特征和分類器組合的經(jīng)典檢測(cè)方法對(duì)靜態(tài)圖片中的無(wú)人機(jī)目標(biāo)檢測(cè)進(jìn)行了對(duì)比實(shí)驗(yàn)。其中,采用了基于Dense-SIFT的強(qiáng)特征對(duì)局部圖像塊進(jìn)行描述,通過結(jié)合3種不同的編碼策略:詞袋(bag of visual words,BoVW),費(fèi)舍爾向量(Fisher vector,FV)和局部特征聚合描述符(vector of locally aggregated descriptors,VLAD),并利用支持向量機(jī)(support vector machine,SVM)作為分類器來(lái)得到最終的結(jié)果。同時(shí),為了有效驗(yàn)證深度神經(jīng)網(wǎng)絡(luò)在處理含噪聲數(shù)據(jù)時(shí)的魯棒性,實(shí)驗(yàn)數(shù)據(jù)不僅含有無(wú)噪聲的樣本,還含有添加了10 dB和20 dB高斯噪聲的圖像樣本,其實(shí)驗(yàn)結(jié)果如表1所示。
表1 對(duì)比實(shí)驗(yàn)的檢測(cè)結(jié)果
其中,ACC表示精度(accuracy),而mAP則表示平均正確率均值(mean average accuracy)??梢钥闯?采用本文提出的深度神經(jīng)網(wǎng)絡(luò)進(jìn)行分類檢測(cè)時(shí),其ACC和mAP指標(biāo)都要優(yōu)于采用特征和分類器組合的傳統(tǒng)方法。同時(shí),在處理含有不同強(qiáng)度噪聲的圖像數(shù)據(jù)時(shí),本文所建立的深度神經(jīng)網(wǎng)絡(luò)模型仍能取得較高的總體精度和平均精度,顯示出本文方法具有較好的魯棒性。
本文針對(duì)低空弱小無(wú)人機(jī)目標(biāo)存在機(jī)動(dòng)飛行和其他視覺干擾物體情況下的檢測(cè)問題,提出了一種基于多隱含層深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)模型。在建立無(wú)人機(jī)目標(biāo)大樣本數(shù)據(jù)庫(kù)的基礎(chǔ)上,提出并設(shè)計(jì)了一個(gè)具有多隱含層的無(wú)人機(jī)深度神經(jīng)網(wǎng)絡(luò)檢測(cè)模型,通過對(duì)無(wú)人機(jī)目標(biāo)多尺度視覺特性的深度表征與抽取,有效提高了檢測(cè)模型的泛化能力,實(shí)現(xiàn)了對(duì)遠(yuǎn)距離弱小無(wú)人機(jī)目標(biāo)的準(zhǔn)確檢測(cè)。實(shí)驗(yàn)結(jié)果表明,本文所設(shè)計(jì)的深度檢測(cè)模型具有較好的變尺度檢測(cè)能力和抗干擾效果,能夠完成對(duì)多個(gè)無(wú)人機(jī)目標(biāo)的實(shí)時(shí)檢測(cè),在工程應(yīng)用上具有一定參考價(jià)值。
參考文獻(xiàn):
[1] 蔡亞梅,姜宇航,趙霜. 國(guó)外反無(wú)人機(jī)系統(tǒng)發(fā)展動(dòng)態(tài)與趨勢(shì)分析[J]. 航天電子對(duì)抗,2017,33(2):59-64
Cai Yamei, Jiang Yuhang, Zhao Shuang. Development Status and Trend Analysis of Counter UAV Systems[J]. Aerospace Electronic Warfare, 2017,33(2): 59-64 (in Chinese)
[2] 李國(guó)軍. 民用無(wú)人機(jī)恐怖襲擊風(fēng)險(xiǎn)評(píng)估與防御策略研究[J]. 中國(guó)人民公安大學(xué)學(xué)報(bào):社會(huì)科學(xué)版,2017,33(3):9-14
Li Guojun. Study on Risk Assessment and Defensive Strategy of Terrorist Attacks on Civil UAV [J]. Journal of People′s Public Security University of China, Social Sciences Edition, 2017, 33(3):9-14 (in Chinese)
[3] Wang A, Lu J, Cai J, et al, Large-Margin Multi-Modal Deep Learning for RGB-D Object Recognition[J]. IEEE Trans on Multimedia, 2015, 17(11): 1887-1898
[4] Zhu Yingying, Zhang Chengquan, Zhou Duoyou, et al. Traffic Sign Detection and Recognition Using Fully Convolutional Network Guided Proposals[J]. Neurocomputing, 2016, 214 (suppl C): 758-766
[5] Takeki, Akito, Tu Tuan Trinh, Ryota Yoshihashi, et al. Combining Deep Features for Object Detection at Various Scales: Finding Small Birds in Landscape Images[J]. IPSJ Trans on Computer Vision and Applications 2016 8(1):5
[6] 蔣兆軍,成孝剛,彭雅琴,等. 基于深度學(xué)習(xí)的無(wú)人機(jī)識(shí)別算法研究[J]. 電子技術(shù)應(yīng)用,2017,43(7):84-87
Jiang Zhaojun, Cheng Xiaogang, Peng Yaqin, et al. A Novel UAV Recognition Algorithm Based on Deep Learning Approach[J]. Application of Electronic Technique, 2017,43(7): 84-87 (in Chinese)
[7] Rozantsev, Artem, Vincent Lepetit, Pascal Fua. Detecting Flying Objects Using a Single Moving Camera.[J]. IEEE Trans on Pattern Analysis and Machine Intelligence 2017, 39(5): 879-92
[8] Rawat W, Wang Z. Deep Convolutional Neural Networks for Image Classification: A Comprehensive Review[J]. Neural Computation, 2017, 29(9): 2352-2449