• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      目標跟蹤頻率特征補償網(wǎng)絡(luò)

      2022-07-17 09:45:18董美辰楊大偉
      大連民族大學(xué)學(xué)報 2022年3期
      關(guān)鍵詞:分量卷積補償

      董美辰,楊大偉,毛 琳

      (大連民族大學(xué) 機電工程學(xué)院,遼寧 大連 116605)

      現(xiàn)有跟蹤算法的特征提取方式在應(yīng)對相機抖動、目標持續(xù)變化、周圍物體干擾等復(fù)雜多變的環(huán)境因素時,會出現(xiàn)目標特征表達不清晰而導(dǎo)致的跟蹤漂移問題。以相關(guān)濾波和孿生網(wǎng)絡(luò)為主要框架的判別式跟蹤方法[1],將跟蹤問題轉(zhuǎn)化為區(qū)分目標與背景的二分類問題,特征提取[2]作為分類問題的關(guān)鍵,提取深度學(xué)習(xí)特征相較傳統(tǒng)圖像特征應(yīng)用效果更好[3]?;谙嚓P(guān)濾波框架的DeepSRDCF[4]使用CNN淺層特征替換算法中常見的方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征,跟蹤精度有效提高,但深度特征的引入也帶來了較高的計算復(fù)雜度。Bhat等[5]提出將深層特征與淺層特征融合,深層特征負責(zé)魯棒性,淺層特征負責(zé)準確性,但數(shù)據(jù)增強在提升深層特征效果的同時會在淺層特征上出現(xiàn)反作用,兩部分模型需獨立訓(xùn)練,且忽視了因數(shù)據(jù)增強擴展樣本反向傳播在速度方面的影響。全卷積孿生網(wǎng)絡(luò)(Siamese Fully Convolutional,SiamFc)[6]采用AlexNet[7]網(wǎng)絡(luò)進行特征提取,經(jīng)過互相關(guān)操作生成響應(yīng)圖,算法整體簡單高效但缺少細節(jié)特征,導(dǎo)致跟蹤器遇到較為復(fù)雜的背景信息時會出現(xiàn)錯誤。SA-Siam[8]在SiamFc基礎(chǔ)上引入語義特征,與表征特征結(jié)合,提高應(yīng)對目標形變、旋轉(zhuǎn)的能力。SiamRPN++[9]消除了由于填充帶來的空間偏差問題,將ResNet-50[10]作為主干網(wǎng)絡(luò),在深度孿生網(wǎng)絡(luò)上實現(xiàn)端到端學(xué)習(xí)。SiamMask[11]算法同時實現(xiàn)視頻目標跟蹤和視頻目標分割兩個任務(wù),但跟蹤模型無法提供分割需要的精細特征,在目標模糊的情況下極大程度上會發(fā)生跟蹤失效。D3S[12]提出視頻分割與跟蹤互補框架,但分割模塊提取的特征信息表達欠佳,是造成跟蹤失誤的主要原因之一。

      為解決特征提取問題,本文提出目標跟蹤頻率特征補償網(wǎng)絡(luò)(Discriminative Frequency Feature Compensation Network for Object Tracking,F(xiàn)CNet),采用調(diào)節(jié)圖像高低頻信息比例的方式獲得不同頻率的特征分量,通過特征補償模塊篩選合理的頻率區(qū)間,為基礎(chǔ)卷積提取的特征結(jié)果進行補償,從而獲得邊界清晰、結(jié)構(gòu)完整的特征表達。

      1 目標跟蹤頻率特征補償網(wǎng)絡(luò)

      1.1 跟蹤問題分析

      目標跟蹤基準算法網(wǎng)絡(luò)結(jié)構(gòu)如圖1。搜索幀與模板幀圖像分別經(jīng)過特征提取后,進行模板比對,若目標信息G中出現(xiàn)邊界模糊,只依靠位置信息L無法回歸準確的目標框。因此,跟蹤準確的關(guān)鍵是獲得清晰完整的特征表達[13],對于跟蹤過程中相機移動、光照變化等問題,邊緣、紋理特征作為高頻信息具有良好的不變性,調(diào)節(jié)圖像中的頻率信息并篩選合理的頻率區(qū)間進行特征信息補償,可以有效提高特征信息質(zhì)量。

      圖1 基準算法網(wǎng)絡(luò)結(jié)構(gòu)

      1.2 圖像特征頻率調(diào)節(jié)單元

      由于圖像具有頻率屬性,為獲得圖像中不同頻率區(qū)間的特征信息[14],本文構(gòu)建圖像特征頻率調(diào)節(jié)單元Ε(下文簡稱“調(diào)節(jié)單元”),該單元通過改變頻率分量通道分配系數(shù)調(diào)節(jié)不同分量之間的比例關(guān)系。

      假設(shè)將視頻幀中的特征分量分解為高頻特征XH、低頻特征XL,輸入調(diào)節(jié)單元Ε,引入八度卷積[15]Y對特征張量進行計算,降低計算復(fù)雜度的同時實現(xiàn)高效的頻間通信。輸出融合后的高頻信息SH、低頻信息SL,圖像特征頻率調(diào)節(jié)單元結(jié)構(gòu)如圖2。

      圖2 圖像特征頻率調(diào)節(jié)單元結(jié)構(gòu)圖

      定義:設(shè)X∈c×h×w為輸入特征張量,h×w表示空間維度,c表示通道個數(shù)。Y∈c×k×k為k×k的卷積核。圖像特征X={XH,XL},其中高頻映射為XH∈(1-η) c×h×w,低頻映射為融合輸出S={SL,SH},SL表示低頻特征,SH表示高頻特征。八度卷積將卷積核Y分為處理高頻信息處理和低頻信息兩部分,包含四個分量,Y={YL,YH},YL負責(zé)低頻部分,YH負責(zé)高頻部分的分量計算,YL={YL→L,YL→H},YH={YH→L,YH→H}。

      (1)

      (2)

      SH=(XH?YH→H)+U(XL?YL→H) ;

      (3)

      SL=(XL?YL→L)+P(XH?YH→L) ;

      (4)

      S=[ηXL+(1-η)XH]·D。

      (5)

      式中:?為卷積操作;P為平均池化操作;U為上采樣操作;D為幅值系數(shù);η∈[0,1]表示頻率分量通道分配系數(shù)。通過改變頻率分量通道分配系數(shù)η,控制輸出圖像中的高低頻信息占比。頻率分量通道分配系數(shù)η可依據(jù)圖像處理過程中的需求進行選擇,為平衡高低頻信息之間的比重,本文算法設(shè)置分配系數(shù)η為0.5。將經(jīng)過D3S[12]算法中基礎(chǔ)卷積提取的特征信息,與經(jīng)過調(diào)節(jié)單元Ε處理輸出的高頻分量結(jié)果作可視化對比,如圖3。

      圖3 調(diào)節(jié)單元輸出高頻分量與普通卷積特征提取可視化對比

      圖3中,第(1)行是單一目標的特征提取效果,目標是一只塑料袋,在簡單地面背景下,高頻分量中目標細節(jié)紋理清晰度顯著提高,降低了目標與背景之間的相似度。第(2)行展現(xiàn)的是日常復(fù)雜場景,目標包括三名過街行人,與D3S算法中的基礎(chǔ)卷積相比,處理后的高頻分量提取更多全局信息,特征表達能力增強。由此可見,通過調(diào)節(jié)圖像高頻信息分量的權(quán)重,可以凸顯目標輪廓信息,達到區(qū)分目標與背景的作用。

      1.3 特征補償模塊

      增大高頻信息權(quán)重,為圖像提供高頻區(qū)間信息補償有助于提高邊緣、細節(jié)部分的特征表達能力,但如果完全專注于增強高頻區(qū)間特征而放棄低頻部分,會導(dǎo)致圖像整體信息不夠完善,對圖像的特征表達產(chǎn)生反作用。為尋找合理的特征補償圖像,級聯(lián)調(diào)節(jié)單元Ε,結(jié)構(gòu)圖如圖4,Φ(n)表示級聯(lián)n個調(diào)節(jié)單元。

      圖4 特征補償模塊結(jié)構(gòu)圖

      特征補償模塊級聯(lián)層數(shù)為n,選擇參數(shù)r可以決定每一級輸出的特征分量,模塊Φ數(shù)學(xué)表達為:

      (6)

      模塊Φ在調(diào)節(jié)高、低頻分量的基礎(chǔ)上,改變每一級輸入的特征分量比例,篩選合理的頻率區(qū)間段特征,既突出了高頻特征的細節(jié)優(yōu)勢,又保證了低頻信息對整體的完善作用。模塊Φ填補了圖像特征中邊緣紋理信息缺失的部分,使目標與背景之間具有較高的區(qū)分度,提高整體算法的精度和穩(wěn)定性。

      1.4 目標跟蹤頻率特征補償網(wǎng)絡(luò)

      目標跟蹤頻率特征補償網(wǎng)絡(luò)整體結(jié)構(gòu)如圖5。

      圖5 目標跟蹤頻率特征補償網(wǎng)絡(luò)

      搜索幀特征Xn和模板幀特征X01分別經(jīng)過兩條支路處理,基礎(chǔ)卷積支路包含1×1卷積和3×3卷積,提取圖像通用特征,特征補償模塊Φ篩選所需頻率區(qū)間特征補償,彌補圖像邊緣特征的識別能力,通過特征融合,得到清晰完善的特征表達F(X01)、F(Xn):

      F(X01)=c3?(c1?X01)+Φ(X01) ;

      (7)

      F(Xn)=c3?(c1?Xn)+Φ(Xn) 。

      (8)

      式中:c1為1×1卷積;c3為3×3卷積;?為卷積操作;F(X)為經(jīng)過高頻補償后的圖像特征。輸入模板匹配模塊進行相似度計算:

      G01={F(X01)i:i∈g(F(X01)*)} ;

      (9)

      G=Hsimilarity(F(Xn),G01) 。

      (10)

      式中:F(X01)*為模板幀真值;g(F(X01)*)為目標像素集合;F(X01)i表示F(X01)中第i個位置的特征向量;Hsimilarity為余弦相似度計算函數(shù)。搜索幀與模板幀的目標像素集合相似度計算后輸出目標信息G。

      頻率特征補償網(wǎng)絡(luò)在保證圖像完整性的同時,突顯了目標邊緣特征,達到降低目標、背景之間相似度的效果,使特征表達在目標外觀變化或背景干擾等情況中具有更強的適應(yīng)性,進行模板比對時可以更加準確的在搜索幀中分割出目標輪廓。

      2 實驗結(jié)果與分析

      實驗使用NVIDIA GeForce 1080Ti顯卡,基于Python3.7和PyTorch1.1.0框架實現(xiàn)。

      2.1 實驗設(shè)置

      骨干網(wǎng)絡(luò)由ResNet50前四層組成,在YouTube-VOS[16]的3 471個訓(xùn)練分割序列上進行預(yù)訓(xùn)練。訓(xùn)練過程使用ADAM(Adaptive Moment Estimation)[17]優(yōu)化器,學(xué)習(xí)速率為10-3,每15個epoch衰減0.2次,用64對圖像對批量進行40個epoch訓(xùn)練,每個epoch迭代1 000次。計算分割預(yù)測和真值之間的交叉熵,作為訓(xùn)練誤差。

      評估主要基于兩個短時跟蹤數(shù)據(jù)集:VOT2016[18]、VOT2018[19]。為保證實驗公平性,實驗中涉及跟蹤算法數(shù)據(jù)結(jié)果均來源于對應(yīng)論文或使用其開源代碼和給定參數(shù)實際運行所得。

      2.2 評價指標

      通過比對精度(Average Overlap over Successfully Tracked Frames,Acc)、魯棒性(Failure Rate,Rob)和期望覆蓋率(Expected Average Overlap,EAO)[18]衡量跟蹤器性能。

      2.3 實驗結(jié)果

      在VOT2016和VOT2018數(shù)據(jù)集上與現(xiàn)階段較為優(yōu)秀的跟蹤算法進行對比試驗,實驗結(jié)果見表1。

      表1 VOT數(shù)據(jù)集評估比較結(jié)果

      從表1可以看出,本文算法在VOT2016和VOT2018上三項指標均優(yōu)于全部測試跟蹤器,取得了非常具有競爭力的表現(xiàn)。VOT2016中,與原算法D3S相比,EAO、Acc和Rob分別提升1.68%、0.29%和0.32%。在VOT2018中FCNet較D3S算法EAO、Acc和Rob分別提升1.16%、0.30%和0.59%。在不同視覺屬性下跟蹤器精度比對見表2,魯棒性比對見表3。

      表2 不同視覺屬性下Acc對比

      表3 不同視覺屬性下Rob對比

      如表2所示,F(xiàn)CNet雖然在遮擋、運動變形情況下精度略微下降,但在其他挑戰(zhàn)下均有改善。為更好展示算法性能,本文在VOT2016、VOT2018兩個數(shù)據(jù)集中選擇了四組具有代表性的視頻序列,將本文算法與基準算法D3S實際表現(xiàn)進行對比,部分視頻幀可視化如圖6。

      圖6 FCNet與D3S[12]跟蹤實際表現(xiàn)對比

      圖6第(1)行處于實際交通場景中,由于相機運動,造成前方目標模糊、變形,D3S無法準確框定目標,在第57幀和第419幀中只能捕捉到目標局部,而本文算法可以準確鎖定目標輪廓。第(2)行中足球作為目標快速移動,D3S跟蹤器在第14幀出現(xiàn)跟蹤漂移,直到視頻序列結(jié)束。FCNet與之相比定位目標更準確,沒有出現(xiàn)目標丟失的現(xiàn)象。第(3)行所示目標為河面上飛行的鳥,目標在運動過程中尺度變化較大,在第142幀和第217幀中,D3S沒有完全捕獲目標,而FCNet可以很好應(yīng)對目標變形情況。第(4)行中白色兔子在雪地中奔跑,目標與背景相似度極高,第66幀中,D3S出現(xiàn)無法準確框定目標,到第99幀時,給出目標框的范圍過大,不夠準確,第114幀又出現(xiàn)目標丟失的狀況。FCNet表現(xiàn)足以證明算法可以更好應(yīng)對相似背景下的挑戰(zhàn)。

      2.4 消融實驗

      為驗證特征補償模塊中模塊級數(shù)差異、不同頻率特征融合方式的有效性,在VOT2018上對不同級聯(lián)方式進行消融實驗,三項指標對比見表4。若模塊Φ采用第一級融合輸出高頻信息SH作為第二級的特征輸入,第二級輸出低頻信息SH作為第三級輸入,最后一級輸出處理得到的低頻信息SL,調(diào)節(jié)模塊表示為ΦHHL。

      表4 不同級聯(lián)方式在VOT2018數(shù)據(jù)集上的實驗結(jié)果

      從實驗結(jié)果可以看出,ΦHLL采用三級級聯(lián),提取高頻段中相對低頻,更趨向于中頻特征信息,這部分區(qū)間可以更好地提供補償特征。相比融合純高頻的部分,摒棄更多細節(jié)信息,專注中間信息,可以使目標背景區(qū)分更明顯。ΦHLH在精度上略有影響,但在魯棒性上有明顯改善。因此,選取恰當(dāng)?shù)募壜?lián)方式,調(diào)節(jié)頻率信息融合比例,可提高圖像特征的表達能力,實現(xiàn)魯棒跟蹤,其中ΦHLL模塊的級聯(lián)方式效果最佳。

      3 結(jié) 論

      本文提出一種目標跟蹤頻率特征補償網(wǎng)絡(luò),采用頻率調(diào)節(jié)單元改變圖像中的頻率信息比例,通過級聯(lián)調(diào)節(jié)單元的方式為網(wǎng)絡(luò)提供指定頻率區(qū)間的特征補償。突出邊緣紋理等高頻特征并保留用于完善圖像的低頻特征,使特征圖兼具區(qū)分性和完整性。經(jīng)實驗驗證,本文算法可以有效提高模型的特征提取能力,改善了目標出現(xiàn)非剛性變形、相機快速移動等情況下的跟蹤效果,具有良好的魯棒性。

      猜你喜歡
      分量卷積補償
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      帽子的分量
      無功補償電容器的應(yīng)用
      山東冶金(2019年5期)2019-11-16 09:09:38
      一物千斤
      智族GQ(2019年9期)2019-10-28 08:16:21
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      論《哈姆雷特》中良心的分量
      基于傅里葉域卷積表示的目標跟蹤算法
      分量
      解讀補償心理
      植物補償和超補償作用
      华亭县| 沽源县| 襄汾县| 滨海县| 逊克县| 越西县| 崇信县| 开封县| 乌兰浩特市| 荃湾区| 大同县| 黄石市| 宣威市| 永州市| 邯郸市| 西昌市| 永福县| 信阳市| 都兰县| 乡城县| 新邵县| 冷水江市| 湘乡市| 方山县| 泰兴市| 彰武县| 扎赉特旗| 文安县| 云南省| 永清县| 东乡县| 邢台市| 缙云县| 延边| 万年县| 尼木县| 花垣县| 扶风县| 南康市| 宁河县| 手机|