孫佳男,孫 俊
(江南大學(xué) 物聯(lián)網(wǎng)工程學(xué)院,江蘇 無錫 214122)
視頻目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域的重要組成部分,其主要任務(wù)是獲取視頻序列中感興趣目標(biāo)的位置信息及運(yùn)動(dòng)狀態(tài),為進(jìn)一步提取語義信息建立基礎(chǔ).在視頻監(jiān)控,車輛導(dǎo)航,精確制導(dǎo),無人機(jī)等領(lǐng)域有著重要的研究意義和應(yīng)用價(jià)值.在視頻目標(biāo)跟蹤過程中,由于光照,尺度變化,目標(biāo)形變,遮擋,復(fù)雜背景等因素的影響,設(shè)計(jì)一種魯棒的跟蹤算法是一件具有挑戰(zhàn)性的工作[1-3].
目標(biāo)特征表達(dá)是目標(biāo)跟蹤中較為重要的部分.傳統(tǒng)特征大多是基于人工設(shè)計(jì)的特征,如histogram of oriented gradient (HOG),scale-invariant feature transform(SIFT)等,在處理不同的問題時(shí),人工特征有一個(gè)較為明顯的缺陷是設(shè)計(jì)者需要較多的專業(yè)領(lǐng)域知識(shí).隨著深度神經(jīng)網(wǎng)絡(luò)理論被逐步引入到目標(biāo)跟蹤框架中[4-10],利用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)目標(biāo)特征成為突破人工特征局限性的有效途徑,深度神經(jīng)網(wǎng)絡(luò)能夠挖掘出目標(biāo)的多層表征,而高層級(jí)的表征被認(rèn)為更能夠反映目標(biāo)的語義信息,這是人工特征所不能實(shí)現(xiàn)的.Wang等人[6]最早將深度學(xué)習(xí)技術(shù)引入跟蹤中,利用無監(jiān)督特征學(xué)習(xí)得到的深度去噪自編碼器提取目標(biāo)特征,以表達(dá)目標(biāo)的本質(zhì)信息,該方法在一定程度下取得了成功,但是在目標(biāo)部分重疊場(chǎng)景下,跟蹤效果不甚理想.Hong等人[7]利用離線訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò),獲取若干幀目標(biāo)顯著性圖構(gòu)建目標(biāo)外觀模型,并使用相關(guān)匹配算法實(shí)現(xiàn)目標(biāo)定位,一定程度上解決了網(wǎng)絡(luò)誤分類引起的跟蹤漂移及目標(biāo)重疊問題.雖然卷積神經(jīng)網(wǎng)絡(luò)的池化操作針對(duì)目標(biāo)尺度變化具有一定的魯棒性,但是由于跟蹤過程中變化較復(fù)雜,單純依靠池化操作并不能有效地估計(jì)尺寸信息.
本文的算法是基于文獻(xiàn)[8]的,與其不同的是:本文利用深度特征進(jìn)行跟蹤的同時(shí),將似物性采樣視為另一條獨(dú)立的跟蹤線索,目的是有效處理尺度變化問題,即利用目標(biāo)檢測(cè)方法中的似物性采樣Edgeboxes算法[11],設(shè)計(jì)不確定性度量的目標(biāo)確認(rèn)機(jī)制及模板更新策略,自適應(yīng)地調(diào)節(jié)跟蹤目標(biāo)的尺度值,實(shí)現(xiàn)跟蹤過程中深度特征表示與似物性采樣之間的有效信息互補(bǔ),從而維持對(duì)目標(biāo)的準(zhǔn)確跟蹤.在數(shù)據(jù)集OTB[1]上對(duì)文中算法進(jìn)行測(cè)試,并與近些年提出的8種跟蹤算法進(jìn)行比較.定性與定量分析顯示,本文提出的算法具有更好的跟蹤性能.
本文提出的算法以KCF[12]跟蹤算法為基礎(chǔ),KCF算法通過循環(huán)偏移將樣本矩陣變化成循環(huán)矩陣,避免求解逆矩陣,并將解空間轉(zhuǎn)換至傅里葉域,有效降低算法復(fù)雜度.
KCF跟蹤算法以目標(biāo)為中心,選取目標(biāo)及其周圍一定范圍內(nèi)的矩形區(qū)域圖像塊x來訓(xùn)練分類器.假設(shè)圖像區(qū)域大小為M×N,訓(xùn)練樣本由圖像塊x循環(huán)移位構(gòu)成,記為xi,對(duì)應(yīng)的標(biāo)簽數(shù)據(jù)yi用高斯函數(shù)表達(dá).在最小均方條件下,線性分類器f(Xi)的目標(biāo)表達(dá)式為一個(gè)嶺回歸:
(1)
其中,w為分類器參數(shù);λ≥0為正則化系數(shù).
(2)
其中,⊙代表點(diǎn)積;F為離散傅里葉變換;F-1為離散傅里葉反變換.轉(zhuǎn)換后,問題求解從尋找最優(yōu)w變?yōu)閷ふ易顑?yōu)α,設(shè)訓(xùn)練樣本組成核矩陣Ki,j=κ(xi,xj),則α的解為:
α=(K+λI)-1y
(3)
借助核矩陣的循環(huán)性質(zhì),式(3)可進(jìn)一步寫成:
(4)
KCF在下一幀中以M×N的窗口來搜索候選圖像塊z,計(jì)算得到響應(yīng)值為:
(5)
最終,響應(yīng)值最大的位置即為目標(biāo)在當(dāng)前幀中的位置.由于引入了傅里葉變換,式(1)的求解僅需計(jì)算點(diǎn)積和模值,大大節(jié)省了計(jì)算時(shí)間,提高了計(jì)算效率.除此之外,文獻(xiàn)[3]提出將多通道的圖像特征融入KCF中,即式(2)修改為:
κ(x,x′)=
(6)
由于引入多通道信息如顏色,HOG等特征,可以更好地描述目標(biāo)外觀模型,進(jìn)而提高跟蹤性能.
因?yàn)槟繕?biāo)的外觀是實(shí)時(shí)變化的,濾波模板α和外觀模型x需要?jiǎng)討B(tài)更新,更新方法為:
(7)
其中,ρ表示學(xué)習(xí)參數(shù).
Edgeboxes[11]作為一種似物性檢測(cè)算法,通過結(jié)構(gòu)化邊緣檢測(cè)算法計(jì)算得到每個(gè)像素點(diǎn)作為物體邊緣的可信度,統(tǒng)計(jì)這些邊緣信息并設(shè)計(jì)物體位置預(yù)測(cè)函數(shù),對(duì)生成的目標(biāo)框打分,分?jǐn)?shù)代表物體框能夠框住一個(gè)物體的可能性,分?jǐn)?shù)越高,目標(biāo)框?qū)δ繕?biāo)的定位越準(zhǔn)確.
通常,我們可以通過改變位置,大小和長(zhǎng)寬比來控制物體框的生成.當(dāng)按照步長(zhǎng)分別改變位置,大小,長(zhǎng)寬比三個(gè)變量時(shí),定義所產(chǎn)生的相鄰兩個(gè)物體框的重合度(Intersection Over Union,IoU)為β1,即參數(shù)β1控制步長(zhǎng).根據(jù)文獻(xiàn)[11],對(duì)于寬為bw、高為bh的物體框b,其打分函數(shù)定義為:
(8)
其中,i表示b中的每一個(gè)像素點(diǎn),像素點(diǎn)的平均梯度強(qiáng)度為m,bin代表b中大小為bw/2×bh/2的中間區(qū)域,wi∈[0,1]是一個(gè)權(quán)重值,用來衡量像素值是否完全屬于b,wi越大,置信度越高,η是懲罰項(xiàng),其值設(shè)為1.5.
在獲得物體框集合B后,進(jìn)行兩個(gè)重要的后處理操作:框體微調(diào)和非極大值抑制(NMS).非極大值抑制是用來過濾掉冗余物體框,由參數(shù)β2控制,當(dāng)物體框bi和bj的重合度大于閾值β2,且框體bi包含物體的可能性大于bj時(shí),框體bj就會(huì)被去除.
在目標(biāo)跟蹤問題中,確定目標(biāo)的位置比獲取目標(biāo)語義更為重要,本文利用低層網(wǎng)絡(luò)提取目標(biāo)的外觀特征,高層網(wǎng)絡(luò)獲取目標(biāo)語義,在精確地定位目標(biāo)位置的同時(shí),有效地處理目標(biāo)外形變化.
由于池化操作會(huì)導(dǎo)致特征圖尺寸不一,影響目標(biāo)分辨率,文中首先使用雙線性插值算法改變目標(biāo)特征圖大小,使其為定值,減小長(zhǎng)寬比對(duì)分辨率的影響:
(9)
其中,h代表原始特征圖,x是上采樣后的特征圖,μ是由相鄰特征向量計(jì)算得到的插值系數(shù).
由2.1節(jié)可知,多通道的相關(guān)濾波映射結(jié)果可通過公式(5)與公式(6)得到:
(10)
利用不同卷基層反映不同的特征映射,特征映射可以作為相關(guān)濾波在不同通道上的輸入這一特點(diǎn).式(10)可寫作:
(11)
其中,rl表示在卷基層l上的濾波響應(yīng)值.在得到濾波響應(yīng)值集合{rl}后,充分利用網(wǎng)絡(luò)層級(jí)特征,層次化地構(gòu)造濾波響應(yīng)表達(dá)式Φc:
(12)
其中,ω是一個(gè)權(quán)重常量,由交叉驗(yàn)證選取.目標(biāo)最優(yōu)位置坐標(biāo)可通過式(13)得到:
(13)
在不同卷積層上做相關(guān)濾波處理,加權(quán)組合不同層的響應(yīng)值,求解獲得跟蹤信息估計(jì)值Gc=(pc,hc,wc).
考慮到跟蹤過程中較為難處理的尺度變化問題,受到文獻(xiàn)[11]的啟發(fā),本文將檢測(cè)方法中的似物性采樣融入目標(biāo)跟蹤框架中.在目標(biāo)特征表達(dá)方面,卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的特征優(yōu)于人工提取的特征,因此,文中選擇使用卷積層萃取得到的特征作為似物性采樣的輸入值.
在低層卷積層上,選取以pt-1為中心點(diǎn)的特征圖像塊ze.利用EdgeBoxes檢測(cè)機(jī)制在特征圖像塊ze進(jìn)行似物性采樣,在非極大值抑制處理后,得到一系列按scoreb排序的物體框.根據(jù)文獻(xiàn)[11]中的結(jié)論,當(dāng)采樣數(shù)目較小時(shí),EdgeBoxes有著不錯(cuò)的實(shí)驗(yàn)效果,所以本文挑選scoreb靠前的200個(gè)采樣結(jié)果,定義為B′.為了進(jìn)一步篩選集合B′中的采樣結(jié)果,進(jìn)行拒絕采樣,計(jì)算集合B′中元素與Gc檢測(cè)框之間的IoU值,保留IoU在[θ1,θ2]范圍內(nèi)的采樣結(jié)果,剔除此范圍外的結(jié)果,文中θ1=0.55,θ2=0.85.篩選后得到最優(yōu)目標(biāo)集合B″,為了計(jì)算似物性采樣下的跟蹤信息Ge,設(shè)計(jì)一個(gè)指標(biāo)函數(shù)Φ去評(píng)價(jià)集合B″中的元素,將Ge與3.1節(jié)得到的跟蹤信息Gc進(jìn)行對(duì)比,確定最終的目標(biāo)中心位置,長(zhǎng)與寬.針對(duì)集合B″中的物體框,首先將檢測(cè)框be的大小調(diào)整為與KCF中目標(biāo)搜索框相同,指標(biāo)函數(shù)Φ定義為:
Φ(be)=sum(kxbe·α)
(14)
其中,sum(·)表示矩陣中所有元素的和;核函數(shù)kxbe反映目標(biāo)外觀x與物體框be之間的相似度;α通過式(3)得到;此處不需要做傅里葉變換處理.選取Φ(be)中最大值Φmax,它所對(duì)應(yīng)的中心位置為pe,長(zhǎng)he和寬we.如果Φmax小于Φc,即似物性采樣得到的物體框不能準(zhǔn)確反映目標(biāo)的位置尺度信息,目標(biāo)信息仍由Gc=(pc,hc,wc)表示.如果Φmax>Φc,則利用下式計(jì)算并更新目標(biāo)信息Gfinal=(p,h,w):
p=pc+γ(pe-pc),(w,h)=(wc,hc)+γ((we,he)-(wc,hc))
(15)
其中,γ作為一個(gè)阻尼系數(shù)防止位置與尺寸變化過于突然.
本文實(shí)驗(yàn)中的測(cè)試視頻和實(shí)驗(yàn)參數(shù)的設(shè)置均保持不變,所有的實(shí)驗(yàn)基于Matlab2015平臺(tái),在CPU為Intel Core I7,顯卡Nvidia Titan X,內(nèi)存容量32GB的PC機(jī)上運(yùn)行.
樣本區(qū)域設(shè)置為初始目標(biāo)框區(qū)域的1.8倍,EdgeBoxes框體微調(diào)尺寸為目標(biāo)區(qū)域1.4倍.正則化系數(shù)λ為0.001,高斯核的標(biāo)準(zhǔn)差σ取0.1,式(7)中學(xué)習(xí)參數(shù)ρ為0.075.EdgeBoxes窗口重疊率β1為0.65,非極大值抑制系數(shù)β2取0.75.采用VGG-19深度卷積網(wǎng)絡(luò)提取目標(biāo)特征映射,選取卷基層conv3(4),conv4(4)和conv5(4)計(jì)算響應(yīng)值集合{rl},權(quán)重常量ω={1,0.5,0.01},且EdgeBoxes在conv3(4)上計(jì)算檢測(cè)框.式(15)中阻尼系數(shù)γ取0.7.
為了評(píng)估引入深度特征及似物性采樣對(duì)跟蹤性能的影響,本文選取OTB中28個(gè)具有尺度變換特征的跟蹤序列,進(jìn)行分模塊的實(shí)驗(yàn).DPCT為融合深度特征提取與似物性采樣的跟蹤算法,即本文算法;在核相關(guān)濾波算法框架下,比較實(shí)驗(yàn)按組成模塊分為三組:
a)CT為利用深度特征信息但未引入似物性采樣的算法;
b)DPT為引入似物性采樣但未利用深度特征信息的算法;
c)KCF為原始基準(zhǔn)算法.
表1 分模塊與DPCT比較
Table 1 Comparisons between DPCT and building blocks
評(píng)價(jià)指標(biāo)DPCTCTDPTKCFCLE(像素)16.819.625.939.1DP(%)89.488.074.467.9OP(%)65.260.463.847.9
分析表1,文中的三種算法相對(duì)于KCF算法,在CLE,DP,OP等指標(biāo)值上都有明顯的性能提升.以DPT及KCF為例,在KCF基礎(chǔ)上,引入以深度特征為基礎(chǔ)的似物性采樣后,DP提高6.5%,OP增幅達(dá)15.9%,CLE從39.1像素減少到25.9像素.同樣,比較DPCT與CT,似物性采樣的引入同樣使DP與OP指標(biāo)得到提升,CLE值降低,這些都證明了文中引入的似物性檢測(cè)可以有效地處理尺度變化問題.此外,對(duì)比DPCT、DPT發(fā)現(xiàn),利用卷積神經(jīng)網(wǎng)絡(luò)得到的深度特征表達(dá),大大地提升了跟蹤性能,尤其是DP增加了14.4%,CLE降低了9.1個(gè)像素.分模塊化的實(shí)驗(yàn)結(jié)果較好地驗(yàn)證了文中算法的有效性與魯棒性.
為了評(píng)估本文算法的性能,本文在KCF[12]的基礎(chǔ)上又選取了近年來出現(xiàn)的7種跟蹤算法:CSK[13]、DSST[14]、samf[15]、SCM[16]、Struck[17]、ASLA[18]、MEEM[19],使用文獻(xiàn)作者公布的原始代碼在相同的實(shí)驗(yàn)條件下和本文算法做對(duì)比,分別記錄平均CLE、DP、OP和每秒處理幀數(shù)FPS.表2列出了每種算法的整體跟蹤性能,跟蹤結(jié)果用51段視頻跟蹤結(jié)果的平均值來表示,每個(gè)指標(biāo)最好和次好的結(jié)果進(jìn)行了加粗和下劃線處理.
從下頁表2可以得到,本文提出的算法(DPCT)在平均CLE、平均DP,平均OP三個(gè)指標(biāo)值上都位列第一.在平均DP及CLE上,本文算法比第二名MEEM分別提升6.9%的準(zhǔn)確率和減少6.6像素值.在平均OP上,比第二名samf增加3.4%的準(zhǔn)確率.由于文中算法使用了深度卷積網(wǎng)絡(luò),該過程需要將卷積核與圖像的每個(gè)像素進(jìn)行卷積運(yùn)算,復(fù)雜度為O(n2),該前向特征提取步驟導(dǎo)致算法的平均FPS值并不理想,同時(shí)根據(jù)統(tǒng)計(jì),針對(duì)每一幀進(jìn)行的似物性采樣操作,平均時(shí)間花費(fèi)0.2s.
除此之外,跟蹤性能比較還可以通過成功率曲線和距離精度曲線體現(xiàn),具體結(jié)果如圖1.圖1左側(cè)子圖為成功率曲線,數(shù)值通過計(jì)算每種算法成功率曲線與坐標(biāo)軸圍成的區(qū)域面積(Area-under-the-curve,AUC)獲得,本文算法成功率為0.622,相比于第二名samf提高了7.4%,同KCF算法相比提高了21%;右側(cè)子圖為距離精度曲線,記錄了算法對(duì)目標(biāo)中心的定位精度,本文算法排名第一,精確度為0.898,相比于第二名MEEM和基礎(chǔ)算法KCF分別提高了8.3%和21.3%.從圖1可以看出,本文跟蹤算法優(yōu)于其它算法.
表2 本文算法與其它跟蹤算法性能對(duì)比圖
Table 2 Comparisons between DPCT and other trackers
評(píng)價(jià)指標(biāo)本文算法CSKDSSTsamfSCMStruckASLAKCFMEEM平均CLE(像素)14.340.388.834.454.150.659.335.520.9平均DP(%)89.854.574.078.564.965.653.274.082.9平均OP(%)76.644.367.073.261.655.951.162.369.3平均FPS10.226941.757656149.624520.8
圖1 不同算法的成功率曲線與距離精度曲線Fig.1 Success plots and distance precision plots of different trackers
圖2列出了表2中取得最好效果的5個(gè)算法在10段視頻序列上的跟蹤結(jié)果(a)~(j),分別對(duì)應(yīng) CarScale、David、Shaking、Car4、Trellis、Jogging-1、Jogging-2、Tiger-2、MotorRolling和Soccer,每個(gè)視頻選取3幀.這些視頻序列中包含有尺度變化(a~e,i,j),遮擋(a,b,j,f~h)、光照變化(b~e,h~j)、目標(biāo)變形(b,f~h)和運(yùn)動(dòng)模糊(b,i,j)等影響因素.觀察跟蹤序列,本文的算法均取得了較好的跟蹤效果.依靠深度卷積神經(jīng)網(wǎng)絡(luò)和似物性采樣后,文中算法不僅能有效地處理尺度變化問題,同時(shí)在運(yùn)動(dòng)模糊、目標(biāo)變形等方面均有較強(qiáng)的魯棒性.
圖2 5個(gè)跟蹤算法在10個(gè)視頻中的跟蹤效果Fig.2 Tracking results of 5 trackers on different challenging image sequences
然而,文中的算法仍存在一些不足,圖3中列出了兩個(gè)跟蹤失敗的視頻序列singer2和Lemming,其中目標(biāo)真實(shí)位置由黑色框體標(biāo)出,文中算法跟蹤位置由框體標(biāo)出.對(duì)于singer2,由于存在較快的平面內(nèi)外旋轉(zhuǎn),目標(biāo)模板更新速度無法滿足其外觀的快速改變,導(dǎo)致在第15幀就丟失目標(biāo).Lemming視頻序列屬于長(zhǎng)時(shí)跟蹤且存在較大面積的目標(biāo)遮擋,依舊按照公式(7)得到的目標(biāo)模板x和濾波系數(shù)α?xí)?dǎo)致目標(biāo)逐漸被背景替代,當(dāng)目標(biāo)再次出現(xiàn)時(shí)將無法正確定位.面對(duì)這類問題,需要?jiǎng)討B(tài)的調(diào)整公式(7)的學(xué)習(xí)率或重新設(shè)計(jì)更新策略來改善跟蹤性能.
本文提出一種在核相關(guān)濾波跟蹤框架下,融合深度卷積神經(jīng)網(wǎng)絡(luò)與似物性估計(jì)的混合跟蹤算法,該算法利用離線訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)提取目標(biāo)特征映射,層次化地構(gòu)造目標(biāo)外觀模型;同時(shí)在提取好的深度特征圖上,結(jié)合似物性采樣Edgeboxes算法,設(shè)計(jì)了一種不確定度量的目標(biāo)確認(rèn)與模板更新策略,實(shí)現(xiàn)了對(duì)目標(biāo)中心位置、尺寸信息的進(jìn)一步精確.在目標(biāo)跟蹤公開數(shù)據(jù)集上,通過定量與定性的分析本文算法與多種跟蹤算法比較的結(jié)果表明:本文在處理尺度變化、運(yùn)動(dòng)模糊等問題上具有較強(qiáng)的魯棒性和更好的性能;但是它在處理長(zhǎng)時(shí)跟蹤、面積較大的遮擋問題上效果一般,下一步的研究目標(biāo)是在有效處理尺度問題的同時(shí),可以兼顧其它跟蹤難點(diǎn).
圖3 跟蹤丟失情況Fig.3 Losses of the tracking
[1] Wu Yi,Lim J,Yang M.-H.Online object tracking:a benchmark [C].In IEEE Conference on Computer Vision and Pattern Recognition,2013:2411-2418.
[2] Guan Hao,Xue Xiang-yang,An Zhi-yong.Advances on application of deep learning for video object tracking [J].Journal of Automa tica Sinica,2016,42(6):834-847.
[3] Guan Hao,Xue Xiang-yang,An Zhi-yong.Video object tracking via visual prior and context information [J].Journal of Chinese Computer Systems,2016,37(9):2074-2078.
[4] Li Han-xi,Li Yi,Porikli F.DeepTrack:learning discriminative feature representations online for robust visual tracking [J].IEEE Transactions on Image Processing,2016,25(4):1834-1848.
[5] Li Han-xi,Li Yi,Porikli F.Robust online visual tracking with a single convolutional neural network [C].In the Asian Conference on Computer Vision,2015:194-209.
[6] Wang Nai-yan,D-Y.Yeung.Online robust nonnegative dictionary learning for visual tracking [C].In the International Conference on Computer Vision,2013:657-664.
[7] Hong S,You T,Kwak S,et al.Online tracking by learning discriminative saliency map with convolutional neural network [C].In the International Conference on Machine Learning,2015:597-606.
[8] Ma Chao,Huang Jia-bin,Yang Xiao-kang,et al.Hierarchical convolutional features for visual tracking [C].In IEEE Conference on Computer Vision and Pattern Recognition,2015:3074-3082.
[9] Szegedy C,Liu Wei,Jia Yang-qing,et al.Going deeper with convolutions[C].In IEEE Conference on Computer Vision and Pattern Recognition,2015:1-9.
[10] Li Han-xi,Li Yi,Porikli F.Robust online visual tracking with a single convolutional neural network[C].In the Asian Conference on Computer Vision,2015:194-209.
[11] Lawrence Zitnick C.,Piotr Dollár.Edgeboxes:locating object proposals from edges[C].In the European Conference on Computer Vision,2014:391-405.
[12] Henriques J F,Caseiro R,Martins P,et al.High-speed tracking with kernelized correlation filters [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(3):583-596.
[13] Henriques J F,Caseiro R,Martins P,et al.Exploiting the circulant structure of tracking-by-detection with kernels [C].In the European Conference on Computer Vision,2012:702-715.
[14] Danelljan M,H?ger G,Khan F S,et al.Accurate scale estimation for robust visual tracking [C].In the British Machine Vision Conference,2014:1-5.
[15] Li Yang,Zhu Jian-kang.A scale adaptive kernel correlation filter tracker with feature integration [C].In the European Conference on Computer Vision,2014:254-265.
[16] Zhong Wei,Lu Hu-chuan,Yang M.-H.Robust object tracking via sparsity-based collaborative model [C].In IEEE Conference on Computer Vision and Pattern Recognition,2012:1838-1845.
[17] Hare S,Saffari A,Torr P.Struck:structured output tracking with kernels[C].In IEEE International Conference on Computer Vision and Pattern Recognition,2013:2411-2418.
[18] Xu Jia,Lu Hu-chuan,Yang M.-H.Visual tracking via adaptive structural local sparse appearance model [C].In IEEE Conference on Computer Vision and Pattern Recognition,2012:1822-1829.
[19] Zhang Jian-ming,Ma Shu-gao,Sclaroff S.MEEM:robust tracking via multiple experts using entropy minimization [C].In the European Conference on Computer Vision,2014:266-278.
附中文參考文獻(xiàn):
[2] 管 皓,薛向陽,安志勇.深度學(xué)習(xí)在視頻目標(biāo)跟蹤中的應(yīng)用進(jìn)展與展望[J].自動(dòng)化學(xué)報(bào),2016,42(6):834-847.
[3] 管 皓,薛向陽,安志勇.融合視覺先驗(yàn)與背景信息的視頻目標(biāo)跟蹤算法[J].小型微型計(jì)算機(jī)系統(tǒng),2016,37(9):2074-2078.