• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于多尺度融合的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法

      2023-01-31 13:52:48薛遠(yuǎn)亮金國棟譚力寧許劍錕
      航空學(xué)報 2023年1期
      關(guān)鍵詞:跟蹤目標(biāo)尺度注意力

      薛遠(yuǎn)亮,金國棟,譚力寧,許劍錕

      火箭軍工程大學(xué) 核工程學(xué)院,西安 710025

      無人機(jī)(Unmanned Aerial Vehicle,UAV)因其操作簡單、體積小和成本低等優(yōu)勢,在民用和軍用領(lǐng)域都有著廣泛的應(yīng)用。特別是在智能化趨勢的大背景下,目標(biāo)跟蹤成為了無人機(jī)應(yīng)用的關(guān)鍵技術(shù),也是其他后續(xù)任務(wù)(如:目標(biāo)定位、目標(biāo)精確打擊等)的基礎(chǔ)工作。視覺目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域中一個具有挑戰(zhàn)性的問題,用于估計(jì)視頻序列中每一幀跟蹤目標(biāo)的狀態(tài),而這跟蹤目標(biāo)的位置只在第一幀中給出。隨著無人機(jī)執(zhí)行任務(wù)的難度不斷加大,研究準(zhǔn)確高效且穩(wěn)健的目標(biāo)跟蹤算法對于無人機(jī)的應(yīng)用有著廣泛的意義。

      與地面平臺相比,無人機(jī)視角下的目標(biāo)主要有尺寸小、像素點(diǎn)少、尺度變化大、背景干擾嚴(yán)重、相似目標(biāo)較多等特點(diǎn),并且無人機(jī)飛行過程中容易出現(xiàn)相機(jī)抖動和飛行速度變化,造成目標(biāo)出現(xiàn)模糊和形變等情況,都對無人機(jī)上的目標(biāo)跟蹤算法提出了更高的要求。目前主流目標(biāo)跟蹤算法分為基于相關(guān)濾波的跟蹤算法(簡稱為:相關(guān)濾波跟蹤算法)和基于孿生神經(jīng)網(wǎng)絡(luò)的跟蹤算法(簡稱為:孿生跟蹤算法)。相關(guān)濾波跟蹤算法:利用信號處理領(lǐng)域的相關(guān)濾波用來計(jì)算目標(biāo)模板與后續(xù)搜索區(qū)域的相關(guān)性,實(shí)現(xiàn)對目標(biāo)的持續(xù)跟蹤。因?yàn)橄嚓P(guān)濾波的計(jì)算是頻域中完成的,所以運(yùn)算量大大減少,提高了運(yùn)算速度。但是大多數(shù)相關(guān)濾波算法都是使用傳統(tǒng)特征提取算法來表征跟蹤目標(biāo),魯棒性和準(zhǔn)確性不夠[1],不能有效應(yīng)對無人機(jī)場景下的目標(biāo)跟蹤任務(wù)。

      近年來,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neu?ral Networks, CNN)提取的深度特征魯棒性好、表征能力強(qiáng),在目標(biāo)跟蹤領(lǐng)域中漸漸取代了傳統(tǒng)手工設(shè)計(jì)的特征。孿生實(shí)例搜索算法(Siamese Instance Search Tracker, SINT)[2]創(chuàng) 造 性 地 將孿生神經(jīng)網(wǎng)絡(luò)用于度量模板圖像與搜索圖像的相似度,為目標(biāo)跟蹤領(lǐng)域提供了新思路??紤]到SINT的全連接層對圖片尺寸的限制,全卷積孿生跟蹤算法(Fully-Convolutional Siamese Net?works, SiamFC)[3]設(shè)計(jì)的全卷積孿生神經(jīng)網(wǎng)絡(luò),避免了候選圖像塊的多次輸入,提高了跟蹤速度。同時提出的互相關(guān)運(yùn)算,將模板圖像作為卷積核與搜索圖像進(jìn)行卷積,進(jìn)一步精確目標(biāo)位置。語義外觀雙分支跟蹤算法SA-Siam[4]發(fā)現(xiàn)SiamFC淺層神經(jīng)網(wǎng)絡(luò)提取的特征缺乏語義信息,又加入一條卷積神經(jīng)網(wǎng)絡(luò)作為語義分支,獨(dú)立訓(xùn)練的2條分支提取的特征信息是相互補(bǔ)充的,能提升SiamFC的魯棒性。孿生區(qū)域建議跟蹤 算 法SiamRPN (Siamese Region Proposal Network)[5]拋棄了耗時的多尺度搜索策略,引入?yún)^(qū) 域 建 議 網(wǎng) 絡(luò)[6](Region Proposal Network,RPN)完成對目標(biāo)的尺度估計(jì)和目標(biāo)定位,實(shí)現(xiàn)了精度與跟蹤速度的平衡,性能已超過絕大部分相關(guān)濾波算法且跟蹤速度高達(dá)160 frame/s(Frames Per Second, FPS),證明了孿生跟蹤算法的巨大潛力,從此成為了目標(biāo)跟蹤的主流算法。RPN模塊中預(yù)定義一組大小、尺寸不同的錨框(Anchor),快速有效地估計(jì)出目標(biāo)的尺度變化。級聯(lián)孿生區(qū)域建議算法C-RPN[7]認(rèn)為單個RPN模塊的估計(jì)能力是有限,于是級聯(lián)多個RPN模塊用于精確目標(biāo)的尺度估計(jì)。Siam?RPN++[8]同樣在深層網(wǎng)絡(luò)ResNet-50[9]上使用多個RPN模塊,利用不同層的特征信息來提高尺度估計(jì)的能力,在多個數(shù)據(jù)集上取得第一。

      針對無人機(jī)平臺的目標(biāo)跟蹤算法主要有:劉芳等[10]使用自適應(yīng)分塊策略,通過計(jì)算前后兩幀分塊的收縮系數(shù)來應(yīng)對目標(biāo)的尺度變化。同樣針對無人機(jī)過程中的尺度變化、遮擋等特點(diǎn),劉貞報等[11]通過旋轉(zhuǎn)不變約束改進(jìn)深度置信網(wǎng)絡(luò),使得模型能夠自動適應(yīng)目標(biāo)的形態(tài)變化,但跟蹤速度僅為12.6 frame/s,不滿足實(shí)時性要求(≥30 frame/s)。為了解決目標(biāo)的外觀變化,文獻(xiàn)[12]利用高斯混合模型建立模板庫并更新匹配模板,模板庫有效提高了準(zhǔn)確率但降低了跟蹤速度,不能滿足實(shí)時性要求。

      綜上所述,基于錨框的跟蹤算法需要跟蹤過程中的目標(biāo)信息作為先驗(yàn)信息,而無人機(jī)過程中的目標(biāo)有著尺寸小、尺度變化大、相似物體多、運(yùn)動模糊等特點(diǎn),這些特點(diǎn)是隨機(jī)出現(xiàn)的,不可能提前預(yù)知。因此提出一種基于多尺度注意力模塊和特征融合的自適應(yīng)無人機(jī)航拍目標(biāo)跟蹤算法。首先,在ResNet-50網(wǎng)絡(luò)中平行堆疊具有相同拓?fù)浣Y(jié)構(gòu)的卷積塊以提取目標(biāo)的多樣化特征,在不增加網(wǎng)絡(luò)深度的情況下增強(qiáng)對跟蹤目標(biāo)的表征能力;其次,設(shè)計(jì)多尺度注意力模塊,全局、局部注意力的結(jié)合使用既抑制了干擾信息又提高了對大、小目標(biāo)的感知能力;然后使用注意力特征融合模塊整合淺層的細(xì)節(jié)信息和深層語義信息;最后,級聯(lián)使用基于無錨框策略的RPN模塊,逐像素預(yù)測目標(biāo)并將預(yù)測結(jié)果加權(quán)融合,精確、自適應(yīng)地感知目標(biāo)的尺度變化。實(shí)驗(yàn)證明:提出的算法能更有效地感知無人機(jī)跟蹤過程中目標(biāo)的尺度變化、外觀變化,同時對小目標(biāo)識別能力和抗干擾能力也有所增強(qiáng),并且速度達(dá)到40.5 frame/s,足以勝任無人機(jī)實(shí)時跟蹤任務(wù)。

      1 相關(guān)工作

      1.1 殘差模塊

      He等[9]通過堆疊殘差模塊(ResBlock)來構(gòu)建深層網(wǎng)絡(luò)ResNet,為了避免網(wǎng)絡(luò)加深而導(dǎo)致產(chǎn)生的梯度爆炸或消失,在ResBlock中設(shè)計(jì)映射連接(Identity)以確保信息的有效傳遞,避免網(wǎng)絡(luò)出現(xiàn)退化現(xiàn)象。殘差模塊ResBlock如圖1所示,由殘差部分和映射連接組成,其中分別為第l層殘差模塊的輸入和輸出;conv1*1,256,64代表大小為1,輸入、輸出通道數(shù)為256和64的卷積層,conv1*1完成對特征圖的通道升維和降維,conv3*3主要提取特征圖的特征信息。

      式(1)為殘差模塊的具體原理,映射連接將網(wǎng)絡(luò)學(xué)習(xí)x[l]到x[l+1]映射的過程巧妙地轉(zhuǎn)化為學(xué)習(xí)殘差部分的映射。隨著網(wǎng)絡(luò)層數(shù)的加深,相比于學(xué)習(xí)整個映射過程,網(wǎng)絡(luò)更容易學(xué)習(xí)殘差部分的映射,有效提升網(wǎng)絡(luò)的訓(xùn)練效果。

      圖1 殘差模塊Fig. 1 ResBlock

      1.2 注意力機(jī)制

      人類形成的視覺往往不是一次性處理整個場景得到的,而是通過一系列的局部觀察將注意力放在感興趣的目標(biāo)上[13]。神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制類似于人類的視覺過程,通過一系列操作為特征圖進(jìn)行權(quán)重分配,感興趣的目標(biāo)區(qū)域獲得更大的關(guān)注度,實(shí)現(xiàn)特征信息的篩選,抑制無關(guān)信息的干擾,將神經(jīng)網(wǎng)絡(luò)的注意力時刻保持在感興趣的目標(biāo)上。注意力主要分為空間注意力和通道注意力,分別從空間和通道維度篩選特征信息。

      空間注意力幫助網(wǎng)絡(luò)關(guān)注目標(biāo)在哪里(Where):非局部注意力[14](Non-local attention)是受到圖像處理中非局部均值濾波的啟發(fā),為神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的自注意力機(jī)制,能幫助捕獲時空長程依賴。Non-local即自注意力機(jī)制,其核心思想如式(2)所示:首先考慮特征圖的所有位置xj與當(dāng)前位置xi之間的關(guān)系f(xi,xj),再對所有位置的關(guān)系進(jìn)行加權(quán)求和得到當(dāng)前位置的值yi。但是非局部注意力的計(jì)算量大,限制其廣泛使用。

      式中:f(xi,xj)用于計(jì)算兩點(diǎn)之間的相似性;g(xj)是一個一元函數(shù),用于信息變換;C(x)是歸一化函數(shù),保持變換前后的信息整體不變。

      通道注意力更多的是幫助網(wǎng)絡(luò)關(guān)注目標(biāo)是什么(What):SE[15](Squeeze-and-Excitation)模塊原理如式(3)所示,首先使用全局平均池化(Global Average Pooling, GAP)壓縮空間維度的特征信息,獲得每個通道的全局空間表示zc,兩層全連接層再利用這個空間表示學(xué)習(xí)到通道權(quán)重s。SE模塊使網(wǎng)絡(luò)有效學(xué)習(xí)到不同通道的重要程度,同時因其計(jì)算量小,至今仍廣泛應(yīng)用在計(jì)算機(jī)視覺的各個領(lǐng)域。

      式中:uc(i,j)為每個通道c上的特征圖,其中i,j為特征圖上像素點(diǎn)坐標(biāo),c∈C;H、W是特征圖的高度和寬度;Fsq、Fex分別代表對特征圖的壓縮(Squeeze)操作、激勵(Excitation)操作;zc為壓縮后的全局空間表示,其中每個通道上的空間表示為zi;F1、F2是全連接層操作;σ(?)為激活函數(shù)。

      2 基于多尺度融合的自適應(yīng)孿生跟蹤算法

      基于孿生神經(jīng)網(wǎng)絡(luò)的跟蹤算法將跟蹤任務(wù)看作目標(biāo)模板與搜索圖像的相似度度量問題,如式(5)所示,主要由3個部分組成:以孿生神經(jīng)網(wǎng)絡(luò)?(?)為主的特征提取部分、以深度互相關(guān)運(yùn)算“*”為主的相似度度量部分和區(qū)域建議網(wǎng)絡(luò)(RPN)模塊構(gòu)成的跟蹤結(jié)果生成部分。特征提取部分由模板分支與搜索分支組成,模板分支輸入視頻序列第一幀z,提取目標(biāo)特征作為模板特征?(z),搜索分支輸入視頻后續(xù)幀x,提取搜索區(qū)域的特征作為搜索特征?(x);互相關(guān)運(yùn)算用于整合兩條分支的特征信息,計(jì)算搜索特征圖與模板特征圖的相似度,生成相似度響應(yīng)圖f(z,x);跟蹤結(jié)果生成部分根據(jù)響應(yīng)圖來預(yù)測搜索圖像上的目標(biāo)位置,一般認(rèn)為最大響應(yīng)位置即為目標(biāo)預(yù)測位置,RPN模塊然后在預(yù)測位置進(jìn)行目標(biāo)尺度估計(jì)和邊界框回歸。

      式中:b為響應(yīng)圖每個位置上的偏差值;I為單位矩陣。

      算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,首先使用平行堆疊了多個卷積的ResNet-50,以提取多樣化特征 信 息(Diverse Feature ResNet-50, DFResNet);其次設(shè)計(jì)多尺度注意力模塊(Multi Scale Attention Module, MS-AM),有效保留了不同尺度的目標(biāo)特征,提升對大、小目標(biāo)的識別能力;然后在多尺度特征信息的基礎(chǔ)上提出注意力特征融合模塊(Attention Feature Fusion Mod?ule, AFFM),整合不同層的注意力特征信息,保留了豐富的語義信息和細(xì)節(jié)信息;最后級聯(lián)使用基于無錨框策略的RPN模塊(Anchor-Free Re?gion Proposal Network module, AF-RPN)完成跟蹤目標(biāo)的分類、回歸,提高對目標(biāo)的自適應(yīng)感知能力。

      圖2 網(wǎng)絡(luò)結(jié)構(gòu)Fig. 2 Architecture of network

      2.1 多樣化特征提取網(wǎng)絡(luò)DF-ResNet

      淺 層 特 征 網(wǎng) 絡(luò)Alexnet[16]和VGG[17]通 常 提取物體的外觀特征和細(xì)節(jié)信息(顏色、紋理和輪廓等),而缺少物體的語義特征信息。相比于形象的外觀特征信息,抽象的語義特征信息表征物體能力更強(qiáng)、魯棒性更好。特別是無人機(jī)視角下的場景復(fù)雜,含有較多的背景干擾和相似物體,淺層特征信息難以應(yīng)對上述情況,限制了SiamFC[3]、SiamRPN[5]等算法的性能提升。提取語義信息的通常做法是增加網(wǎng)絡(luò)的深度或者寬度(ResNet-101),但是這樣大幅增加網(wǎng)絡(luò)參數(shù)會嚴(yán)重影響運(yùn)算速度,不適合無人機(jī)目標(biāo)跟蹤任務(wù)。而文獻(xiàn)[18]指出:相比于增加網(wǎng)絡(luò)層數(shù),增加網(wǎng)絡(luò)的基數(shù)(Cardinality)更能有效地提高網(wǎng)絡(luò)的特征描述能力,同時還不會增加網(wǎng)絡(luò)參數(shù)量。因此本文選擇在網(wǎng)絡(luò)層數(shù)較深的ResNet-50上增加基數(shù)來提高網(wǎng)絡(luò)性能。

      借鑒文獻(xiàn)[18-19]的分組-轉(zhuǎn)換-融合(Split-Transform-Merge)的設(shè)計(jì)思想,如圖3所示:考慮到殘差模塊中的conv3*3才是特征信息的主要提取部分,因此將殘差模塊中的conv3*3替換成平行堆疊多個相同拓?fù)浣Y(jié)構(gòu)的卷積層組。圖4(a)為普通卷積的卷積過程,可以看出:輸出特征圖的一個通道需要輸入特征圖的所有通道參與計(jì)算。圖4(b)為平行堆疊操作的實(shí)現(xiàn)過程,通過分組卷積(Group convolution)將通道數(shù)為64的conv3*3分為32組通道數(shù)為4的conv3*3。不同的卷積層組可以看作是不同的子空間(Subspace),每個子空間學(xué)習(xí)到的特征信息是各有側(cè)重、互不相同的,即提取了目標(biāo)的多樣化特征信息。

      圖3 DF-ResNet的ResBlockFig. 3 ResBlock of DF-ResNet

      圖4 卷積過程Fig. 4 Convolution process

      圖5為部分卷積層組的可視化結(jié)果,每個卷積組代表著一種特征,有的傾向于直線特征、而有的則傾向于圓形特征,并且相鄰?fù)ǖ赖木矸e層組的特征類似。若圖像中的某塊區(qū)域越像該卷積層組,則該區(qū)域的卷積結(jié)果就越大。證明了子空間學(xué)習(xí)思想是合理的,每個子空間代表著不同的特征信息并且這些特征信息很多都是不相關(guān)的,不需要組合所有通道進(jìn)行學(xué)習(xí),只需要相鄰?fù)ǖ赖淖涌臻g來學(xué)習(xí)相關(guān)的特征。因此DFResNet的特征描述能力得到有效增強(qiáng),相當(dāng)于間接增加了網(wǎng)絡(luò)深度并且還不會降低跟蹤速度,能夠有效地應(yīng)對無人機(jī)跟蹤過程中的外觀變化、復(fù)雜背景和相似物體干擾等挑戰(zhàn)。

      圖5 卷積層組可視化Fig. 5 Convolutional group visualization

      2.2 多尺度注意力模塊MS-AM

      由于無人機(jī)的視角范圍廣、場景大,視野中容易包含許多與跟蹤目標(biāo)相似的干擾目標(biāo)。改進(jìn)的DF-ResNet提取了跟蹤目標(biāo)的多樣化特征信息,能增強(qiáng)對目標(biāo)的表征能力。而DF-ResNet的不足之處在于:①對特征圖上每個空間位置給予相同的重視程度,不能有效區(qū)分跟蹤目標(biāo)與其他目標(biāo);②文獻(xiàn)[8]發(fā)現(xiàn)特征圖是具有正交特性的,即不同通道上的特征圖代表了不同語義信息的物體。而DF-ResNet特征圖的各個通道對于后續(xù)相似度計(jì)算的貢獻(xiàn)度都是一樣的,不適用于跟蹤特定目標(biāo)的跟蹤任務(wù)。對于跟蹤任務(wù)來說,空間和通道維度上的特征圖都需要有選擇性地分配權(quán)重和篩選。DF-ResNet提取了許多干擾目標(biāo)的特征信息,跟蹤算法如果未能有效區(qū)分跟蹤目標(biāo)與干擾目標(biāo)的特征信息,容易將干擾目標(biāo)錯認(rèn)為跟蹤目標(biāo),從而產(chǎn)生跟蹤漂移現(xiàn)象。

      注意力模塊因其能自適應(yīng)分配權(quán)重、有選擇性地篩選特征圖信息,從而幫助網(wǎng)絡(luò)更好地關(guān)注感興趣的目標(biāo),能有效彌補(bǔ)DF-ResNet的不足。以SE[15]模塊為代表的全局通道注意力模塊,因其全局平均池化(Global Average Pooling,GAP)會造成空間上特征信息的丟失,不利于感知小目標(biāo)[20]。文獻(xiàn)[21-22]都選擇級聯(lián)使用通道、空間注意力來提高算法對目標(biāo)的多尺度感知能力,但是會過多地增加算法的計(jì)算負(fù)擔(dān)。考慮到無人機(jī)視角下目標(biāo)尺寸小、特征信息少以及計(jì)算能力有限的特點(diǎn),借鑒文獻(xiàn)[20]設(shè)計(jì)了一種輕量化多尺度注意力模塊(Multi-Scale Attention Module,MS-AM),提高對目標(biāo)的多尺度感知能力。多尺度注意力模塊的結(jié)構(gòu)如圖6所示,包括全局通道注意力(Global Attention)和局部空間注意力(Local Attention)。

      圖6 多尺度注意力模塊Fig. 6 Multi-scale attention module

      全局注意力主要由全局平均池化(GAP)和conv1*1組成:式(6)為通過全局平均池化來壓縮輸入特征圖u的空間信息,得到全局特征向量zc,而后式(7)通過2層1*1卷積conv1*1,學(xué)習(xí)特征向量之間的非線性關(guān)系,生成全局通道注意力權(quán)重SGlobal;如式(8)所示,局部注意力使用2層conv1*1對輸入u進(jìn)行通道的降維和升維,壓縮通道上的特征信息,生成局部空間注意力特征圖vLocal。

      式中:uc(i,j)為每個通道c上的特征圖,其中i、j為特征圖上像素點(diǎn)坐標(biāo),c∈C;F1、F2是conv1*1;σ(?)為ReLU激活函數(shù)。

      式(9)將全局通道注意力權(quán)重SGlobal與局部空間注意力特征圖vLocal相加,得到多尺度注意力權(quán)重v,并通過式(10)將注意力權(quán)重v與輸入u加權(quán)相乘,得到多尺度注意力特征圖V。全局通道注意力和局部空間注意力的結(jié)合使用,在通道上抑制其他類別的目標(biāo)特征信息、空間上抑制相似目標(biāo)的特征信息和盡可能地保留小尺寸跟蹤目標(biāo)的特征信息,增強(qiáng)了對跟蹤目標(biāo)的辨別能力、多尺度感知能力和抗干擾能力。

      2.3 注意力特征融合模塊AFFM

      孿生跟蹤算法的核心思想是模板匹配,簡單高效地從搜索圖像中找到跟蹤目標(biāo),但跟蹤過程中目標(biāo)會出現(xiàn)運(yùn)動模糊、外觀變化和光照變化等情況導(dǎo)致目標(biāo)后續(xù)狀態(tài)與初始模板存在較大差異。考慮到深層特征中具有抽象的高級語義信息,能魯棒地表征物體,保證算法在各種場景下的泛化能力。以及淺層特征中包含形象的細(xì)節(jié)信息,如形狀、顏色等信息,有助于目標(biāo)的精準(zhǔn)定位[23]。因此在多尺度注意力模塊的基礎(chǔ)上進(jìn)行深淺層特征融合,有效整合淺層的細(xì)節(jié)信息合深層的語義信息,提高跟蹤算法的魯棒性與定位準(zhǔn)確性[20]。注意力特征融合模塊(Attention Fea?ture Fusion Module,AFFM)如圖7所示。

      首先式(11)將殘差模塊的輸入x[l]和輸出x[l+1]相加并作為多尺度注意力模塊的輸入,使得生成的注意力特征圖能同時具有語義信息和細(xì)節(jié)信息,式(12)然后將注意力權(quán)重vAFFM分別作用于x[l]、x[l+1],篩選不同層的特征圖上的有用信息,最后將深淺層的注意力特征圖進(jìn)行相加,得到注意力特征融合模塊的輸出VAFFM。

      圖7 注意力特征融合模塊Fig. 7 Attention feature fusion module

      相比于直接融合不同層特征信息的特征金字塔[24],注意力特征融合模塊不僅能融合多層特征信息,而且在注意力模塊的幫助下能夠靈活地分配融合特征圖的權(quán)重,在融合階段對無關(guān)特征信息進(jìn)行抑制、更多地保留了跟蹤目標(biāo)的語義信息和細(xì)節(jié)信息,算法能有效應(yīng)對運(yùn)動模糊、外觀變化等挑戰(zhàn),同時對目標(biāo)的精確定位能力也得到增強(qiáng)。

      2.4 基于無錨框策略的RPN模塊AF-RPN

      文獻(xiàn)[25]指出通用目標(biāo)跟蹤任務(wù)的出發(fā)點(diǎn)應(yīng)該是跟蹤算法能依靠的先驗(yàn)信息只有初始幀的目標(biāo)信息,而RPN模塊中預(yù)先定義了一組尺度(Scale)、比例(Ratio)不同的錨框(Anchor)進(jìn)行尺度估計(jì),這些錨框的先驗(yàn)信息都是從視頻中分析得到的,是違背了跟蹤任務(wù)的出發(fā)點(diǎn),并且跟蹤性能對錨框的這些參數(shù)很敏感,需要人工精心設(shè)置。因此為了跟蹤算法能擺脫對目標(biāo)先驗(yàn)信息的過多依賴,在RPN模塊中使用文獻(xiàn)[26]的無錨框策略完成目標(biāo)尺度的自適應(yīng)估計(jì)。

      如圖8、式(13)和式(14)所示,基于無錨框策略的RPN模塊(AF-RPN),其邊界框回歸分支不再對錨框的尺寸(長、寬、中心點(diǎn)位置)進(jìn)行回歸,而是預(yù)測目標(biāo)像素點(diǎn)與真實(shí)框(Ground-truth)之間的偏移量l,t,b,r;之前的分類分支是通過計(jì)算錨框與真實(shí)框的面積交并比(Intersection over Union, IOU)來判斷錨框內(nèi)的目標(biāo)是否為正樣本,因此無錨框策略需要一種新的正負(fù)樣本判別方法:式(15)將相似度響應(yīng)圖的像素點(diǎn)(i,j)映射回搜索圖像,映射坐標(biāo)為(pi,pj)。然后對(pi,pj)進(jìn)行分類:如圖9所示,落在橢圓E1之外為負(fù)樣本;落在橢圓E2內(nèi)則為正樣本;落在橢圓E1和橢圓E2之間則忽略該點(diǎn)。如式(16)所示:橢圓E1的中心點(diǎn)坐標(biāo)為(gxc,gyc)、短半軸和長半軸的長分別為橢圓E2的中心點(diǎn)坐標(biāo)為(gxc,gyc)、短半軸和長半軸的長分別為最后,式(17)對屬于正樣本的點(diǎn)(pi,pj)進(jìn)行回歸,從而計(jì)算得到與真實(shí)值的偏移量l,t,b,r。式中為分類結(jié)果和回歸結(jié)果,其 中w、h、4k分 別 為 特 征 圖 的 寬 度、高 度、通道數(shù)。

      圖8 AF-RPN模塊Fig. 8 AF-RPN module

      圖9 正負(fù)樣本分類與邊界框回歸Fig. 9 Positive-negative classification and bounding box regression

      式 中:映 射 坐 標(biāo) 為(pi,pj);響 應(yīng) 圖 坐 標(biāo) 為(i,j);w、h為響應(yīng)圖的寬度和高度;wim、him為搜索圖像的寬度和高度;s為網(wǎng)絡(luò)的總步長。

      其中:gw、gh,(gx1,gy1)、(gxc,gyc)和(gx2,gy2)分別為真實(shí)框的寬、高,左上角坐標(biāo)、中心點(diǎn)坐標(biāo)和右下角坐標(biāo)。則有:

      跟蹤過程中目標(biāo)的尺度變化情況是隨機(jī)、未知的,跟蹤算法難以通過預(yù)先定義的錨框準(zhǔn)確估計(jì)出目標(biāo)的尺度。因此AF-RPN模塊避免了錨框的使用,而是直接在搜索圖像上逐像素地區(qū)分正負(fù)樣本和預(yù)測目標(biāo)位置,能夠自適應(yīng)地感知目標(biāo)的尺度變化。同時避免引入過多超參數(shù),算法能靈活、通用地跟蹤未知場景下的目標(biāo)。

      同時為了充分利用注意力特征融合模塊AFFM整合的語義信息和細(xì)節(jié)信息,如圖2、式(18)和 式(19)所 示,在DF-ResNet的Layer2、Layer3和Layer4上級聯(lián)使用多個AF-RPN模塊并將結(jié)果進(jìn)行加權(quán)融合,同時利用淺層特征中的細(xì)節(jié)信息對目標(biāo)精確定位和深層特征中的語義信息穩(wěn)定地表征跟蹤目標(biāo),有效應(yīng)對跟蹤過程中的小目標(biāo)、運(yùn)動模糊等情況。參考文獻(xiàn)[8],本文加權(quán)融合的權(quán)重是相同的,從而給予了各層相同的重視程度,充分和平衡地利用了語義信息和細(xì)節(jié)信息。

      式 中:Si、Bi和αi為 第i層AF-RPN的 分 類 輸 出、回歸輸出和融合權(quán)重;S、B為網(wǎng)絡(luò)輸出的最終結(jié)果。

      2.5 跟蹤算法流程

      算法流程如圖10所示,主要步驟如下:

      1) 輸入視頻序列。

      2) DF-ResNet提 取視頻序 列 第1幀中目 標(biāo)特征,作為模板特征。

      3) DF-ResNet提取后續(xù)幀中的搜索區(qū)域特征,作為搜索特征。

      4) 多尺度注意力模塊(MS-AM)為特征圖重新分配權(quán)重,得到加權(quán)特征圖。

      5) 注意力特征融合模塊(AFFM)將不同層的加權(quán)特征圖進(jìn)行融合,整合細(xì)節(jié)信息與語義信息。

      圖10 算法流程Fig. 10 Flowchart of algorithm

      6) 級聯(lián)多個基于無錨框策略的RPN模塊(AF-RPN)逐步完成對目標(biāo)位置、邊界框大小的精確評估。

      7) 輸出目標(biāo)的預(yù)測結(jié)果。

      8) 重復(fù)步驟3)~7),直至視頻結(jié)束。

      3 實(shí)驗(yàn)與分析

      3.1 網(wǎng)絡(luò)分析

      3.1.1 有效性

      首先通過對比實(shí)驗(yàn)來分析各個模塊對于網(wǎng)絡(luò)的提升效果,驗(yàn)證各個模塊的有效性。表1為各模塊在數(shù)據(jù)集UAV123[27]上的跟蹤成功率:①使用AlexNet網(wǎng)絡(luò)、RPN模塊的標(biāo)準(zhǔn)方法Sia?mRPN[5],成功率為55.7%;②在SiamRPN上使用多樣化特征提取網(wǎng)絡(luò)DF-ResNet替換原來的AlexNet網(wǎng)絡(luò),成功率為58.6%,提高了2.9%,說明DF-ResNet能更有效地表征目標(biāo),從而提高了跟蹤效果;③在提取的多樣化特征信息基礎(chǔ)上使用多尺度注意力模塊,保留不同尺度的目標(biāo)特征信息、抑制干擾信息,將跟蹤率提高至60.9%;④沒有了多尺度注意力模塊的特征融合模塊AFFM,直接將細(xì)節(jié)信息和語義信息相加,跟蹤成功率為60.5%,證明了語義信息和細(xì)節(jié)信息的融合能有效地增強(qiáng)跟蹤魯棒性和定位準(zhǔn)確性;⑤基于無錨框策略的RPN模塊能夠逐像素地預(yù)測目標(biāo),自適應(yīng)感知目標(biāo)變化,跟蹤成功率比標(biāo)準(zhǔn)方法增加了4.6%、為60.3%;⑥本文組合各個模塊將成功率提升至61.7%、最大幅度地提升了跟蹤效果,證明各個模塊能夠協(xié)同配合、發(fā)揮各自優(yōu)勢,互補(bǔ)地構(gòu)建一個高效的無人機(jī)跟蹤算法。

      表1 對比實(shí)驗(yàn)結(jié)果Table 1 Comparison of results of ablation experiments

      3.1.2 輕量化

      為了進(jìn)一步驗(yàn)證MS-AM中全局通道注意力(Global Attention,GA)和局部空間注意力(Lo?cal Attention,LA)對網(wǎng)絡(luò)的提升作用,本文以ResNet-50為基礎(chǔ)測試2個子模塊在數(shù)據(jù)集Ima?geNet[28]上的分類準(zhǔn)確度。如表2所示:添加全局通道注意力之后的網(wǎng)絡(luò)分類準(zhǔn)確率為76.8%,比直接增加了網(wǎng)絡(luò)層數(shù)的ResNet-101的準(zhǔn)確率更高;添加局部空間注意力之后的網(wǎng)絡(luò)性能進(jìn)一步提升,準(zhǔn)確率為77.7%,比ResNet-50高2.3%、比ResNet-101高1.1%。參數(shù)為29.9 M(1 M=1×106)、遠(yuǎn) 遠(yuǎn) 小 于ResNet-101的44.55 M,比ResNet-50增加了4.34 M??梢钥闯觯喝趾途植孔⒁饬Χ寄芴嵘W(wǎng)絡(luò)性能,且二者結(jié)合使用的效果最好。因此相比于增加網(wǎng)絡(luò)層數(shù),多尺度注意力模塊更能有效地提升網(wǎng)絡(luò)性能,并且參數(shù)量更少,適合無人機(jī)的目標(biāo)跟蹤任務(wù)。

      表2 輕量化分析Table 2 Lightweight analysis

      3.1.3 可視化

      為了直觀展示和驗(yàn)證多尺度注意力模塊MS-AM和注意力特征融合模塊AFFM的有效性,將 其 加 入DF-ResNet中,使 用Grad-CAM++[29]展 示DF-ResNet的 分 類 準(zhǔn) 確 度。Grad-CAM++是一種模型分類結(jié)果可視化方法,通過計(jì)算特征圖中空間位置上的梯度的像素加權(quán),度量每個像素對模型分類結(jié)果的重要程度,生成的類激活熱力圖(Class Activation Map,CAM)能直觀展示CNN模型認(rèn)為與類別標(biāo)簽對應(yīng)的圖像區(qū)域。熱力圖中某個區(qū)域的溫度越高,則類別激活值就越大,代表著該區(qū)域是該類別的可能性更大。

      圖11為ResNet-50和DF-ResNet的類激 活熱力圖。圖11(a)中有狗和貓2個類別的物體,有MS-AM和AFFM模 塊存在的DF-ResNet對 感興趣目標(biāo)(貓)的辨別能力得到增強(qiáng),干擾目標(biāo)(狗)的激活值明顯降低。圖11(e)和圖11(f)表明DF-ResNet由于有能夠提供細(xì)節(jié)信息的AFFM模塊的存在,分類結(jié)果更加準(zhǔn)確。因此MS-AM和AFFM能夠有效篩選目標(biāo)特征,從而增強(qiáng)網(wǎng)絡(luò)對目標(biāo)的辨別能力、抑制干擾目標(biāo),應(yīng)用于跟蹤算法中能提升跟蹤準(zhǔn)確度。

      圖11 類激活熱力圖Fig. 11 Class activation map

      3.2 實(shí)驗(yàn)平臺及參數(shù)設(shè)置

      實(shí)驗(yàn)平臺:①操作系統(tǒng)為 Ubuntu18.04;②CPU為Intel Core i7-9700 @3.6 GHz;③GPU:2張NVIDIA GeForce RTX 2080Ti,內(nèi)存11 G。

      訓(xùn)練數(shù)據(jù)集:中科院專門為目標(biāo)跟蹤設(shè)計(jì)的GOT-10k[25]數(shù) 據(jù) 集,由10 000個 視 頻 片 段 和150萬個人工標(biāo)注的邊界框組成,包含現(xiàn)實(shí)世界中560多個類別的運(yùn)動目標(biāo)和80多種運(yùn)動模式;包含38萬個視頻片段,560萬個人工標(biāo)注的邊界框,23個類別的日常物體的YouTube-BoundingBoxes[28];有30個 基 本 級 別 的 類 別,200個 子 集 的ImageNet VID和ImageNet DET[29];包含91個對象類型,328千張圖像,總共有250萬個標(biāo)注的COCO[30]。訓(xùn)練時會從相同的視頻序列里隨機(jī)選取一個搜索圖像和模板圖像,組成圖像對輸入到網(wǎng)絡(luò)中訓(xùn)練,模板圖像的大小為127 pixel×127 pixel,搜索分支圖像大小為255 pixel×255 pixel。

      研究區(qū)出露地層為長城系星星峽巖群、下泥盆統(tǒng)阿爾彼什麥布拉克組、中泥盆統(tǒng)阿拉塔格組、下石炭統(tǒng)甘草湖組和第四系[9](圖1b)。侵入巖主要為華力西中期晚石炭世花崗巖[10]。區(qū)內(nèi)斷裂構(gòu)造極為發(fā)育,主要斷裂阿其克庫都克斷裂、卡瓦布拉克斷裂為NW—SE向,次級斷裂多為NE—SW向分布。

      參數(shù)設(shè)置:多個AF-RPN的融合權(quán)重為α3=α4=α5=0.333;使用隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)訓(xùn)練網(wǎng)絡(luò),epoch=20、其中每個epoch訓(xùn)練圖片數(shù)量為800 000對,batch size=22即 每批次處 理圖像11對;前10個epoch訓(xùn) 練AF-RPN、后10個epoch對整個網(wǎng)絡(luò)進(jìn)行端對端訓(xùn)練;前5個epoch的學(xué)習(xí)率從0.001預(yù)熱至0.005,后15個epoch的學(xué)習(xí)率從0.005指 數(shù) 衰 減到0.000 05,衰減權(quán)重為0.00 01,動量為0.9。損失函數(shù)是分類的交叉熵?fù)p失(Cross entropy loss)和回歸的IoU損失函數(shù)的總和。

      3.3 在UAV123上的實(shí)驗(yàn)結(jié)果與分析

      UAV123[31]數(shù)據(jù)集為測試無人機(jī)航拍目標(biāo)跟蹤算法的基準(zhǔn)數(shù)據(jù)集,由無人機(jī)拍攝的123個高分辨率視頻序列組成,包含9個目標(biāo)類別、12種常見挑戰(zhàn),視頻平均長度為915幀。包含場景有城市景觀、道路、建筑、田野、海灘、港口和碼頭等;包含目標(biāo):汽車、卡車、船只、人員、團(tuán)體和空中交通工具等;目標(biāo)的活動模式有:步行、騎自行車、滑水、駕駛、游泳和飛行等。拍攝場景復(fù)雜多變、跟蹤目標(biāo)類別廣泛、運(yùn)動模式復(fù)雜多元,能整體評估跟蹤算法。

      3.3.1 定性分析

      首先在UAV123中選取具有代表性的5個視頻序列(如表3所示),然后在這基礎(chǔ)上定性分析本文算法(Ours)與8種主流跟蹤算法的跟蹤結(jié)果,8種算法分別為:①額外訓(xùn)練一個濾波器進(jìn)行尺度估計(jì)的判別式尺度空間跟蹤算法[32](Dis?criminative Scale Space Tracker, DSST);②多專 家 魯 棒 跟 蹤 算 法[33](Multiple Experts using Entropy Minimization, MEEM);③使用多尺度搜索策略跟蹤的尺度自適應(yīng)與多特征跟蹤算法[34](Scale Adaptive with Multiple Features tracker, SAMF);④空間正則化相關(guān)濾波算法[35](Spatially Regularized Discriminative Correla?tion Filters, SRDCF);⑤全卷積孿生跟蹤算法的SiamFC[3];⑥孿 生 跟 蹤 區(qū) 域 建 議 算 法Siam?RPN[5];⑦結(jié)構(gòu)化支持向量機(jī)(SVM)進(jìn)行自適應(yīng)跟蹤的Struck[36];⑧干擾物感知的孿生區(qū)域建議算法DaSiamRPN[37]。使用的對比算法結(jié)果均來自數(shù)據(jù)集官方公布結(jié)果和算法作者提供結(jié)果。跟蹤結(jié)果如圖12所示。

      表3 5個代表性序列Table 3 Five representative sequences

      圖12(a)序列car7:跟蹤目標(biāo)為運(yùn)動的汽車,第369幀時無人機(jī)由于視角變換不及時,出現(xiàn)跟蹤目標(biāo)被障礙物遮擋的情況,只有SRDCF、Da?SiamRPN和本文算法能成功跟蹤上重新出現(xiàn)的目標(biāo),其余算法均將遮擋物當(dāng)作跟蹤目標(biāo)。第766幀時,隨著車輛的轉(zhuǎn)彎,邊界框的縱橫比變換大,只有本文算法能準(zhǔn)確地標(biāo)注出跟蹤目標(biāo)。本文算法因?yàn)镈F-ResNet使用多個子空間來學(xué)習(xí)目標(biāo)的多樣化特征,能更有效地表征目標(biāo),因此提高了對跟蹤目標(biāo)的辨別能力。

      圖12 算法在數(shù)據(jù)集UAV123的跟蹤結(jié)果展示Fig. 12 Tracking results of algorithms in UAV123 dataset

      圖12(c)序列car18:目標(biāo)由遠(yuǎn)至近地快速運(yùn)動,導(dǎo)致跟蹤過程中目標(biāo)的尺度變化大且迅速。使用多尺度搜索策略的相關(guān)濾波算法和孿生跟蹤算法的尺度適應(yīng)能力明顯不足,尺度變換過大時不能完全標(biāo)注出跟蹤目標(biāo),第105幀和144幀時只有本文算法準(zhǔn)確地標(biāo)注出跟蹤目標(biāo)。相比于基于多尺度搜索策略和錨框的尺度估計(jì)算法,本文算法使用的無錨框策略能夠逐像素預(yù)測目標(biāo),從而提高算法對目標(biāo)尺度變化的自適應(yīng)感知能力。

      圖12(d)序列car15:無人機(jī)從高空跟蹤行駛中的車輛,目標(biāo)尺寸小且相似目標(biāo)多。第230幀時相似目標(biāo)與跟蹤目標(biāo)重合之后,由于二者的特征信息少且相似,SiamFC、DSST、SAMF算法出現(xiàn)跟蹤失敗的情況,第425幀的遮擋情況也未能干擾本文算法的持續(xù)跟蹤。本文算法的多尺度注意力模塊中局部空間注意力在抑制干擾信息的同時更多地保留了小目標(biāo)的空間信息,提高對小目標(biāo)的識別能力和對相似干擾的抑制能力

      圖12(e)序列wakeboard6:該場景中包含的背景信息容易影響算法的跟蹤性能,第65幀SAMF已經(jīng)出現(xiàn)跟蹤失敗的情況。第507幀時隨著相機(jī)視角的突然變化,大部分算法丟失了跟蹤目標(biāo),只有SiamFC和本文算法能準(zhǔn)確找到跟蹤目標(biāo)。到了第1 081幀時目標(biāo)在空中的翻轉(zhuǎn)動作造成尺度快速變化,SiamRPN和SiamFC未能及時跟上變化,只框出了部分目標(biāo)。結(jié)合了全局和局部注意力的本文算法能有效抑制背景信息的干擾,因此識別復(fù)雜背景下的跟蹤目標(biāo)性能更加穩(wěn)定。

      3.3.2 定量分析

      為了進(jìn)一步驗(yàn)證算法的整體性能,采用一次通過評估模式(One-Pass-Evaluation, OPE),通過成功率(Success)和準(zhǔn)確率(Precision)對算法進(jìn)行評估[38]。成功率是指成功率曲線與坐標(biāo)軸圍成的面積(Area Under Curve, AUC),其中成功率曲線上的每個點(diǎn)代表著重疊率(Intersection Over Union, IOU)大于某個閾值的幀數(shù)百分比;準(zhǔn)確率,即 中 心 定 位 誤 差(Center Location Error,CLE)。計(jì)算被跟蹤目標(biāo)中心位置與真實(shí)中心位置之間的平均歐氏距離,當(dāng)距離小于閾值(一般為20個像素)時,被視為跟蹤成功。準(zhǔn)確率由成功跟蹤的圖片數(shù)量和視頻序列數(shù)量的百分比得到。

      1)整體性能評估:9種算法的整體評估結(jié)果如圖13所示。本文算法(Ours)的成功率和準(zhǔn)確率分別為61.7%和81.5%,比第2名DaSiamRPN分別提高4.8%、3.4%,比SiamRPN分別提高6.0%、4.7%??梢园l(fā)現(xiàn):當(dāng)成功率閾值變高和準(zhǔn)確率閾值變低時,本文算法明顯優(yōu)于其他算法,說明即使在跟蹤任務(wù)的要求變高時,本文算法也能展現(xiàn)出良好的跟蹤效果。證明多樣化特征信息提取網(wǎng)絡(luò)(DF-ResNet)、多尺度注意力模塊(MS-AM)、注意力特征融合模塊(AFFM)和基于無錨框策略的RPN模塊(AF-RPN)能夠協(xié)同配合,互補(bǔ)地構(gòu)建一個高效的無人機(jī)航拍目標(biāo)跟蹤算法。同時速度達(dá)到40.5 frame/s,滿足實(shí)時性要求(≥30 frame/s),足以勝任無人機(jī)實(shí)時跟蹤任務(wù)。

      圖13 算法在數(shù)據(jù)集UAV123的整體性能評估Fig. 13 Overall performance evaluation of algorithms in UAV123 dataset

      圖14 算法在UAV123數(shù)據(jù)集上不同屬性的評估結(jié)果Fig. 14 Evaluation results of different attributes of UAV123 with algorithms

      2)各個屬性評估:UAV123數(shù)據(jù)集提供了各個視頻序列的挑戰(zhàn)屬性,更加全面地評價算法的性能。UAV123數(shù)據(jù)集中出現(xiàn)次數(shù)最多的挑戰(zhàn)為目標(biāo)的尺度變化和部分遮擋,分別為89%和59%,符合無人機(jī)目標(biāo)跟蹤的實(shí)際情況。如圖14所示:本文算法在尺度變化挑戰(zhàn)上的成功率和準(zhǔn)確率為59.7%、79.3%,在部分遮擋挑戰(zhàn)上的成功率和準(zhǔn)確率為52.3%、73.4%,在9種算法中排名第一,證明本文算法更加適合無人機(jī)目標(biāo)跟蹤任務(wù)。此外在縱橫比變化、快速運(yùn)動、低分辨率等挑戰(zhàn)上也取得了較好的效果,證明本文設(shè)計(jì)的各個模塊能夠有效應(yīng)對無人機(jī)跟蹤過程中的多種挑戰(zhàn),從而提高算法的整體性能。

      3.4 在無人機(jī)航拍視頻上的測試與分析

      為了驗(yàn)證本文算法在實(shí)際無人機(jī)場景中的跟蹤效果,本文算法應(yīng)用于無人機(jī)航拍視頻中進(jìn)行測試,其中視頻分辨率為3 840 pixel×2 160 pixel,幀速為30 frame/s,拍攝高度為120 m。部分跟蹤結(jié)果如圖15所示。

      序列1 跟蹤目標(biāo)為在道路上滑行的人。目標(biāo)的快速運(yùn)動、特征點(diǎn)少且存在背景干擾,未能影響算法的跟蹤效果??梢姳疚乃惴ㄔ趯?shí)際應(yīng)用中也有著良好的小目標(biāo)識別和抗干擾能力。

      圖15 算法在無人機(jī)航拍視頻的跟蹤結(jié)果展示Fig. 15 Tracking results of algorithms in UAV aerial video

      序列2 跟蹤目標(biāo)的快速運(yùn)動導(dǎo)致其尺度變化大且迅速,本文算法能及時感知出目標(biāo)的尺度變化并準(zhǔn)確標(biāo)注出跟蹤目標(biāo)。在696幀無人機(jī)隨著跟蹤目標(biāo)的運(yùn)動而調(diào)整飛行姿態(tài),拍攝視角迅速變化,本文算法仍未產(chǎn)生跟蹤漂移現(xiàn)象。第1 571幀時算法準(zhǔn)確判斷出跟蹤目標(biāo)與相似目標(biāo)。

      序列3 由于無人機(jī)位置調(diào)整不及時,導(dǎo)致第93和第181幀跟蹤都出現(xiàn)了不同程度的遮擋情況,算法仍根據(jù)部分目標(biāo)信息準(zhǔn)確判斷出跟蹤目標(biāo)的位置,并在第220幀時目標(biāo)重新出現(xiàn)之后,準(zhǔn)確識別出整個目標(biāo)。

      4 結(jié) 論

      提出了一種基于多尺度注意力和特征融合的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法,主要工作為:

      1)利用分組-轉(zhuǎn)換-融合的子空間學(xué)習(xí)思想,設(shè)計(jì)了多樣化特征提取網(wǎng)絡(luò)DF-ResNet,能夠提取目標(biāo)的深層語義特征和多樣化特征,增強(qiáng)對目標(biāo)的表征能力,有效應(yīng)對目標(biāo)的外觀變化、運(yùn)動模糊等挑戰(zhàn)。

      2)提出了一種多尺度注意力模塊MS-AM和注意力特征融合模塊AFFM,結(jié)合全局、局部注意力的MS-AM在篩選特征的同時保留對大、小目標(biāo)的尺度感知能力,在此基礎(chǔ)上AFFM融合了不同層的特征,有效整合淺層細(xì)節(jié)信息和深層語義信息,有利于目標(biāo)的精確定位與分類。

      3)提出了一種基于無錨框策略的區(qū)域建議模塊AF-RPN,代替預(yù)先定義的錨框,逐像素的區(qū)分目標(biāo)與背景,實(shí)現(xiàn)對目標(biāo)尺度的自適應(yīng)感知能力。并在AFFM模塊的基礎(chǔ)上級聯(lián)多個AFRPN,有效利用了互補(bǔ)的細(xì)節(jié)信息和語義信息來實(shí)現(xiàn)對跟蹤目標(biāo)的魯棒跟蹤和精確定位。

      猜你喜歡
      跟蹤目標(biāo)尺度注意力
      讓注意力“飛”回來
      核相關(guān)濾波與孿生網(wǎng)絡(luò)相結(jié)合的目標(biāo)跟蹤算法
      財產(chǎn)的五大尺度和五重應(yīng)對
      基于圖割理論的尺度自適應(yīng)人臉跟蹤算法
      “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
      傳媒評論(2017年3期)2017-06-13 09:18:10
      連續(xù)同色調(diào)背景下運(yùn)動目標(biāo)自適應(yīng)跟蹤
      A Beautiful Way Of Looking At Things
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      基于卡爾曼和圖像信息量的Mean Shift改進(jìn)跟蹤算法
      9
      临安市| 乌鲁木齐市| 罗平县| 永定县| 手游| 云林县| 洞头县| 北川| 井研县| 论坛| 微山县| 金乡县| 塔城市| 黔西| 平塘县| 鄂温| 剑川县| 新乡市| 金乡县| 古田县| 靖西县| 南丹县| 元朗区| 高唐县| 苏尼特左旗| 沐川县| 新乡县| 十堰市| 乡宁县| 都昌县| 怀远县| 乌兰察布市| 遂川县| 景谷| 珲春市| 永州市| 牟定县| 黑龙江省| 丰镇市| 信阳市| 永仁县|