• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合深度特征表達(dá)與似物性采樣的目標(biāo)跟蹤算法

    2018-03-28 06:50:53孫佳男
    關(guān)鍵詞:物性濾波物體

    孫佳男,孫 俊

    (江南大學(xué) 物聯(lián)網(wǎng)工程學(xué)院,江蘇 無錫 214122)

    1 引 言

    視頻目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域的重要組成部分,其主要任務(wù)是獲取視頻序列中感興趣目標(biāo)的位置信息及運(yùn)動(dòng)狀態(tài),為進(jìn)一步提取語義信息建立基礎(chǔ).在視頻監(jiān)控,車輛導(dǎo)航,精確制導(dǎo),無人機(jī)等領(lǐng)域有著重要的研究意義和應(yīng)用價(jià)值.在視頻目標(biāo)跟蹤過程中,由于光照,尺度變化,目標(biāo)形變,遮擋,復(fù)雜背景等因素的影響,設(shè)計(jì)一種魯棒的跟蹤算法是一件具有挑戰(zhàn)性的工作[1-3].

    目標(biāo)特征表達(dá)是目標(biāo)跟蹤中較為重要的部分.傳統(tǒng)特征大多是基于人工設(shè)計(jì)的特征,如histogram of oriented gradient (HOG),scale-invariant feature transform(SIFT)等,在處理不同的問題時(shí),人工特征有一個(gè)較為明顯的缺陷是設(shè)計(jì)者需要較多的專業(yè)領(lǐng)域知識(shí).隨著深度神經(jīng)網(wǎng)絡(luò)理論被逐步引入到目標(biāo)跟蹤框架中[4-10],利用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)目標(biāo)特征成為突破人工特征局限性的有效途徑,深度神經(jīng)網(wǎng)絡(luò)能夠挖掘出目標(biāo)的多層表征,而高層級(jí)的表征被認(rèn)為更能夠反映目標(biāo)的語義信息,這是人工特征所不能實(shí)現(xiàn)的.Wang等人[6]最早將深度學(xué)習(xí)技術(shù)引入跟蹤中,利用無監(jiān)督特征學(xué)習(xí)得到的深度去噪自編碼器提取目標(biāo)特征,以表達(dá)目標(biāo)的本質(zhì)信息,該方法在一定程度下取得了成功,但是在目標(biāo)部分重疊場(chǎng)景下,跟蹤效果不甚理想.Hong等人[7]利用離線訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò),獲取若干幀目標(biāo)顯著性圖構(gòu)建目標(biāo)外觀模型,并使用相關(guān)匹配算法實(shí)現(xiàn)目標(biāo)定位,一定程度上解決了網(wǎng)絡(luò)誤分類引起的跟蹤漂移及目標(biāo)重疊問題.雖然卷積神經(jīng)網(wǎng)絡(luò)的池化操作針對(duì)目標(biāo)尺度變化具有一定的魯棒性,但是由于跟蹤過程中變化較復(fù)雜,單純依靠池化操作并不能有效地估計(jì)尺寸信息.

    本文的算法是基于文獻(xiàn)[8]的,與其不同的是:本文利用深度特征進(jìn)行跟蹤的同時(shí),將似物性采樣視為另一條獨(dú)立的跟蹤線索,目的是有效處理尺度變化問題,即利用目標(biāo)檢測(cè)方法中的似物性采樣Edgeboxes算法[11],設(shè)計(jì)不確定性度量的目標(biāo)確認(rèn)機(jī)制及模板更新策略,自適應(yīng)地調(diào)節(jié)跟蹤目標(biāo)的尺度值,實(shí)現(xiàn)跟蹤過程中深度特征表示與似物性采樣之間的有效信息互補(bǔ),從而維持對(duì)目標(biāo)的準(zhǔn)確跟蹤.在數(shù)據(jù)集OTB[1]上對(duì)文中算法進(jìn)行測(cè)試,并與近些年提出的8種跟蹤算法進(jìn)行比較.定性與定量分析顯示,本文提出的算法具有更好的跟蹤性能.

    2 組成模塊

    2.1 核相關(guān)濾波器

    本文提出的算法以KCF[12]跟蹤算法為基礎(chǔ),KCF算法通過循環(huán)偏移將樣本矩陣變化成循環(huán)矩陣,避免求解逆矩陣,并將解空間轉(zhuǎn)換至傅里葉域,有效降低算法復(fù)雜度.

    KCF跟蹤算法以目標(biāo)為中心,選取目標(biāo)及其周圍一定范圍內(nèi)的矩形區(qū)域圖像塊x來訓(xùn)練分類器.假設(shè)圖像區(qū)域大小為M×N,訓(xùn)練樣本由圖像塊x循環(huán)移位構(gòu)成,記為xi,對(duì)應(yīng)的標(biāo)簽數(shù)據(jù)yi用高斯函數(shù)表達(dá).在最小均方條件下,線性分類器f(Xi)的目標(biāo)表達(dá)式為一個(gè)嶺回歸:

    (1)

    其中,w為分類器參數(shù);λ≥0為正則化系數(shù).

    (2)

    其中,⊙代表點(diǎn)積;F為離散傅里葉變換;F-1為離散傅里葉反變換.轉(zhuǎn)換后,問題求解從尋找最優(yōu)w變?yōu)閷ふ易顑?yōu)α,設(shè)訓(xùn)練樣本組成核矩陣Ki,j=κ(xi,xj),則α的解為:

    α=(K+λI)-1y

    (3)

    借助核矩陣的循環(huán)性質(zhì),式(3)可進(jìn)一步寫成:

    (4)

    KCF在下一幀中以M×N的窗口來搜索候選圖像塊z,計(jì)算得到響應(yīng)值為:

    (5)

    最終,響應(yīng)值最大的位置即為目標(biāo)在當(dāng)前幀中的位置.由于引入了傅里葉變換,式(1)的求解僅需計(jì)算點(diǎn)積和模值,大大節(jié)省了計(jì)算時(shí)間,提高了計(jì)算效率.除此之外,文獻(xiàn)[3]提出將多通道的圖像特征融入KCF中,即式(2)修改為:

    κ(x,x′)=

    (6)

    由于引入多通道信息如顏色,HOG等特征,可以更好地描述目標(biāo)外觀模型,進(jìn)而提高跟蹤性能.

    因?yàn)槟繕?biāo)的外觀是實(shí)時(shí)變化的,濾波模板α和外觀模型x需要?jiǎng)討B(tài)更新,更新方法為:

    (7)

    其中,ρ表示學(xué)習(xí)參數(shù).

    2.2 EdgeBoxes

    Edgeboxes[11]作為一種似物性檢測(cè)算法,通過結(jié)構(gòu)化邊緣檢測(cè)算法計(jì)算得到每個(gè)像素點(diǎn)作為物體邊緣的可信度,統(tǒng)計(jì)這些邊緣信息并設(shè)計(jì)物體位置預(yù)測(cè)函數(shù),對(duì)生成的目標(biāo)框打分,分?jǐn)?shù)代表物體框能夠框住一個(gè)物體的可能性,分?jǐn)?shù)越高,目標(biāo)框?qū)δ繕?biāo)的定位越準(zhǔn)確.

    通常,我們可以通過改變位置,大小和長(zhǎng)寬比來控制物體框的生成.當(dāng)按照步長(zhǎng)分別改變位置,大小,長(zhǎng)寬比三個(gè)變量時(shí),定義所產(chǎn)生的相鄰兩個(gè)物體框的重合度(Intersection Over Union,IoU)為β1,即參數(shù)β1控制步長(zhǎng).根據(jù)文獻(xiàn)[11],對(duì)于寬為bw、高為bh的物體框b,其打分函數(shù)定義為:

    (8)

    其中,i表示b中的每一個(gè)像素點(diǎn),像素點(diǎn)的平均梯度強(qiáng)度為m,bin代表b中大小為bw/2×bh/2的中間區(qū)域,wi∈[0,1]是一個(gè)權(quán)重值,用來衡量像素值是否完全屬于b,wi越大,置信度越高,η是懲罰項(xiàng),其值設(shè)為1.5.

    在獲得物體框集合B后,進(jìn)行兩個(gè)重要的后處理操作:框體微調(diào)和非極大值抑制(NMS).非極大值抑制是用來過濾掉冗余物體框,由參數(shù)β2控制,當(dāng)物體框bi和bj的重合度大于閾值β2,且框體bi包含物體的可能性大于bj時(shí),框體bj就會(huì)被去除.

    3 深度特征表達(dá)與似物性采樣

    3.1 深度特征表達(dá)

    在目標(biāo)跟蹤問題中,確定目標(biāo)的位置比獲取目標(biāo)語義更為重要,本文利用低層網(wǎng)絡(luò)提取目標(biāo)的外觀特征,高層網(wǎng)絡(luò)獲取目標(biāo)語義,在精確地定位目標(biāo)位置的同時(shí),有效地處理目標(biāo)外形變化.

    由于池化操作會(huì)導(dǎo)致特征圖尺寸不一,影響目標(biāo)分辨率,文中首先使用雙線性插值算法改變目標(biāo)特征圖大小,使其為定值,減小長(zhǎng)寬比對(duì)分辨率的影響:

    (9)

    其中,h代表原始特征圖,x是上采樣后的特征圖,μ是由相鄰特征向量計(jì)算得到的插值系數(shù).

    由2.1節(jié)可知,多通道的相關(guān)濾波映射結(jié)果可通過公式(5)與公式(6)得到:

    (10)

    利用不同卷基層反映不同的特征映射,特征映射可以作為相關(guān)濾波在不同通道上的輸入這一特點(diǎn).式(10)可寫作:

    (11)

    其中,rl表示在卷基層l上的濾波響應(yīng)值.在得到濾波響應(yīng)值集合{rl}后,充分利用網(wǎng)絡(luò)層級(jí)特征,層次化地構(gòu)造濾波響應(yīng)表達(dá)式Φc:

    (12)

    其中,ω是一個(gè)權(quán)重常量,由交叉驗(yàn)證選取.目標(biāo)最優(yōu)位置坐標(biāo)可通過式(13)得到:

    (13)

    在不同卷積層上做相關(guān)濾波處理,加權(quán)組合不同層的響應(yīng)值,求解獲得跟蹤信息估計(jì)值Gc=(pc,hc,wc).

    3.2 似物性采樣

    考慮到跟蹤過程中較為難處理的尺度變化問題,受到文獻(xiàn)[11]的啟發(fā),本文將檢測(cè)方法中的似物性采樣融入目標(biāo)跟蹤框架中.在目標(biāo)特征表達(dá)方面,卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的特征優(yōu)于人工提取的特征,因此,文中選擇使用卷積層萃取得到的特征作為似物性采樣的輸入值.

    在低層卷積層上,選取以pt-1為中心點(diǎn)的特征圖像塊ze.利用EdgeBoxes檢測(cè)機(jī)制在特征圖像塊ze進(jìn)行似物性采樣,在非極大值抑制處理后,得到一系列按scoreb排序的物體框.根據(jù)文獻(xiàn)[11]中的結(jié)論,當(dāng)采樣數(shù)目較小時(shí),EdgeBoxes有著不錯(cuò)的實(shí)驗(yàn)效果,所以本文挑選scoreb靠前的200個(gè)采樣結(jié)果,定義為B′.為了進(jìn)一步篩選集合B′中的采樣結(jié)果,進(jìn)行拒絕采樣,計(jì)算集合B′中元素與Gc檢測(cè)框之間的IoU值,保留IoU在[θ1,θ2]范圍內(nèi)的采樣結(jié)果,剔除此范圍外的結(jié)果,文中θ1=0.55,θ2=0.85.篩選后得到最優(yōu)目標(biāo)集合B″,為了計(jì)算似物性采樣下的跟蹤信息Ge,設(shè)計(jì)一個(gè)指標(biāo)函數(shù)Φ去評(píng)價(jià)集合B″中的元素,將Ge與3.1節(jié)得到的跟蹤信息Gc進(jìn)行對(duì)比,確定最終的目標(biāo)中心位置,長(zhǎng)與寬.針對(duì)集合B″中的物體框,首先將檢測(cè)框be的大小調(diào)整為與KCF中目標(biāo)搜索框相同,指標(biāo)函數(shù)Φ定義為:

    Φ(be)=sum(kxbe·α)

    (14)

    其中,sum(·)表示矩陣中所有元素的和;核函數(shù)kxbe反映目標(biāo)外觀x與物體框be之間的相似度;α通過式(3)得到;此處不需要做傅里葉變換處理.選取Φ(be)中最大值Φmax,它所對(duì)應(yīng)的中心位置為pe,長(zhǎng)he和寬we.如果Φmax小于Φc,即似物性采樣得到的物體框不能準(zhǔn)確反映目標(biāo)的位置尺度信息,目標(biāo)信息仍由Gc=(pc,hc,wc)表示.如果Φmax>Φc,則利用下式計(jì)算并更新目標(biāo)信息Gfinal=(p,h,w):

    p=pc+γ(pe-pc),(w,h)=(wc,hc)+γ((we,he)-(wc,hc))

    (15)

    其中,γ作為一個(gè)阻尼系數(shù)防止位置與尺寸變化過于突然.

    4 實(shí)驗(yàn)結(jié)果

    4.1 參數(shù)設(shè)置

    本文實(shí)驗(yàn)中的測(cè)試視頻和實(shí)驗(yàn)參數(shù)的設(shè)置均保持不變,所有的實(shí)驗(yàn)基于Matlab2015平臺(tái),在CPU為Intel Core I7,顯卡Nvidia Titan X,內(nèi)存容量32GB的PC機(jī)上運(yùn)行.

    樣本區(qū)域設(shè)置為初始目標(biāo)框區(qū)域的1.8倍,EdgeBoxes框體微調(diào)尺寸為目標(biāo)區(qū)域1.4倍.正則化系數(shù)λ為0.001,高斯核的標(biāo)準(zhǔn)差σ取0.1,式(7)中學(xué)習(xí)參數(shù)ρ為0.075.EdgeBoxes窗口重疊率β1為0.65,非極大值抑制系數(shù)β2取0.75.采用VGG-19深度卷積網(wǎng)絡(luò)提取目標(biāo)特征映射,選取卷基層conv3(4),conv4(4)和conv5(4)計(jì)算響應(yīng)值集合{rl},權(quán)重常量ω={1,0.5,0.01},且EdgeBoxes在conv3(4)上計(jì)算檢測(cè)框.式(15)中阻尼系數(shù)γ取0.7.

    4.2 數(shù)據(jù)集與評(píng)價(jià)指標(biāo)

    4.3 模塊分析

    為了評(píng)估引入深度特征及似物性采樣對(duì)跟蹤性能的影響,本文選取OTB中28個(gè)具有尺度變換特征的跟蹤序列,進(jìn)行分模塊的實(shí)驗(yàn).DPCT為融合深度特征提取與似物性采樣的跟蹤算法,即本文算法;在核相關(guān)濾波算法框架下,比較實(shí)驗(yàn)按組成模塊分為三組:

    a)CT為利用深度特征信息但未引入似物性采樣的算法;

    b)DPT為引入似物性采樣但未利用深度特征信息的算法;

    c)KCF為原始基準(zhǔn)算法.

    表1 分模塊與DPCT比較
    Table 1 Comparisons between DPCT and building blocks

    評(píng)價(jià)指標(biāo)DPCTCTDPTKCFCLE(像素)16.819.625.939.1DP(%)89.488.074.467.9OP(%)65.260.463.847.9

    分析表1,文中的三種算法相對(duì)于KCF算法,在CLE,DP,OP等指標(biāo)值上都有明顯的性能提升.以DPT及KCF為例,在KCF基礎(chǔ)上,引入以深度特征為基礎(chǔ)的似物性采樣后,DP提高6.5%,OP增幅達(dá)15.9%,CLE從39.1像素減少到25.9像素.同樣,比較DPCT與CT,似物性采樣的引入同樣使DP與OP指標(biāo)得到提升,CLE值降低,這些都證明了文中引入的似物性檢測(cè)可以有效地處理尺度變化問題.此外,對(duì)比DPCT、DPT發(fā)現(xiàn),利用卷積神經(jīng)網(wǎng)絡(luò)得到的深度特征表達(dá),大大地提升了跟蹤性能,尤其是DP增加了14.4%,CLE降低了9.1個(gè)像素.分模塊化的實(shí)驗(yàn)結(jié)果較好地驗(yàn)證了文中算法的有效性與魯棒性.

    4.4 算法對(duì)比

    為了評(píng)估本文算法的性能,本文在KCF[12]的基礎(chǔ)上又選取了近年來出現(xiàn)的7種跟蹤算法:CSK[13]、DSST[14]、samf[15]、SCM[16]、Struck[17]、ASLA[18]、MEEM[19],使用文獻(xiàn)作者公布的原始代碼在相同的實(shí)驗(yàn)條件下和本文算法做對(duì)比,分別記錄平均CLE、DP、OP和每秒處理幀數(shù)FPS.表2列出了每種算法的整體跟蹤性能,跟蹤結(jié)果用51段視頻跟蹤結(jié)果的平均值來表示,每個(gè)指標(biāo)最好和次好的結(jié)果進(jìn)行了加粗和下劃線處理.

    從下頁表2可以得到,本文提出的算法(DPCT)在平均CLE、平均DP,平均OP三個(gè)指標(biāo)值上都位列第一.在平均DP及CLE上,本文算法比第二名MEEM分別提升6.9%的準(zhǔn)確率和減少6.6像素值.在平均OP上,比第二名samf增加3.4%的準(zhǔn)確率.由于文中算法使用了深度卷積網(wǎng)絡(luò),該過程需要將卷積核與圖像的每個(gè)像素進(jìn)行卷積運(yùn)算,復(fù)雜度為O(n2),該前向特征提取步驟導(dǎo)致算法的平均FPS值并不理想,同時(shí)根據(jù)統(tǒng)計(jì),針對(duì)每一幀進(jìn)行的似物性采樣操作,平均時(shí)間花費(fèi)0.2s.

    除此之外,跟蹤性能比較還可以通過成功率曲線和距離精度曲線體現(xiàn),具體結(jié)果如圖1.圖1左側(cè)子圖為成功率曲線,數(shù)值通過計(jì)算每種算法成功率曲線與坐標(biāo)軸圍成的區(qū)域面積(Area-under-the-curve,AUC)獲得,本文算法成功率為0.622,相比于第二名samf提高了7.4%,同KCF算法相比提高了21%;右側(cè)子圖為距離精度曲線,記錄了算法對(duì)目標(biāo)中心的定位精度,本文算法排名第一,精確度為0.898,相比于第二名MEEM和基礎(chǔ)算法KCF分別提高了8.3%和21.3%.從圖1可以看出,本文跟蹤算法優(yōu)于其它算法.

    表2 本文算法與其它跟蹤算法性能對(duì)比圖
    Table 2 Comparisons between DPCT and other trackers

    評(píng)價(jià)指標(biāo)本文算法CSKDSSTsamfSCMStruckASLAKCFMEEM平均CLE(像素)14.340.388.834.454.150.659.335.520.9平均DP(%)89.854.574.078.564.965.653.274.082.9平均OP(%)76.644.367.073.261.655.951.162.369.3平均FPS10.226941.757656149.624520.8

    圖1 不同算法的成功率曲線與距離精度曲線Fig.1 Success plots and distance precision plots of different trackers

    4.5 定性分析

    圖2列出了表2中取得最好效果的5個(gè)算法在10段視頻序列上的跟蹤結(jié)果(a)~(j),分別對(duì)應(yīng) CarScale、David、Shaking、Car4、Trellis、Jogging-1、Jogging-2、Tiger-2、MotorRolling和Soccer,每個(gè)視頻選取3幀.這些視頻序列中包含有尺度變化(a~e,i,j),遮擋(a,b,j,f~h)、光照變化(b~e,h~j)、目標(biāo)變形(b,f~h)和運(yùn)動(dòng)模糊(b,i,j)等影響因素.觀察跟蹤序列,本文的算法均取得了較好的跟蹤效果.依靠深度卷積神經(jīng)網(wǎng)絡(luò)和似物性采樣后,文中算法不僅能有效地處理尺度變化問題,同時(shí)在運(yùn)動(dòng)模糊、目標(biāo)變形等方面均有較強(qiáng)的魯棒性.

    圖2 5個(gè)跟蹤算法在10個(gè)視頻中的跟蹤效果Fig.2 Tracking results of 5 trackers on different challenging image sequences

    然而,文中的算法仍存在一些不足,圖3中列出了兩個(gè)跟蹤失敗的視頻序列singer2和Lemming,其中目標(biāo)真實(shí)位置由黑色框體標(biāo)出,文中算法跟蹤位置由框體標(biāo)出.對(duì)于singer2,由于存在較快的平面內(nèi)外旋轉(zhuǎn),目標(biāo)模板更新速度無法滿足其外觀的快速改變,導(dǎo)致在第15幀就丟失目標(biāo).Lemming視頻序列屬于長(zhǎng)時(shí)跟蹤且存在較大面積的目標(biāo)遮擋,依舊按照公式(7)得到的目標(biāo)模板x和濾波系數(shù)α?xí)?dǎo)致目標(biāo)逐漸被背景替代,當(dāng)目標(biāo)再次出現(xiàn)時(shí)將無法正確定位.面對(duì)這類問題,需要?jiǎng)討B(tài)的調(diào)整公式(7)的學(xué)習(xí)率或重新設(shè)計(jì)更新策略來改善跟蹤性能.

    5 結(jié)束語

    本文提出一種在核相關(guān)濾波跟蹤框架下,融合深度卷積神經(jīng)網(wǎng)絡(luò)與似物性估計(jì)的混合跟蹤算法,該算法利用離線訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)提取目標(biāo)特征映射,層次化地構(gòu)造目標(biāo)外觀模型;同時(shí)在提取好的深度特征圖上,結(jié)合似物性采樣Edgeboxes算法,設(shè)計(jì)了一種不確定度量的目標(biāo)確認(rèn)與模板更新策略,實(shí)現(xiàn)了對(duì)目標(biāo)中心位置、尺寸信息的進(jìn)一步精確.在目標(biāo)跟蹤公開數(shù)據(jù)集上,通過定量與定性的分析本文算法與多種跟蹤算法比較的結(jié)果表明:本文在處理尺度變化、運(yùn)動(dòng)模糊等問題上具有較強(qiáng)的魯棒性和更好的性能;但是它在處理長(zhǎng)時(shí)跟蹤、面積較大的遮擋問題上效果一般,下一步的研究目標(biāo)是在有效處理尺度問題的同時(shí),可以兼顧其它跟蹤難點(diǎn).

    圖3 跟蹤丟失情況Fig.3 Losses of the tracking

    [1] Wu Yi,Lim J,Yang M.-H.Online object tracking:a benchmark [C].In IEEE Conference on Computer Vision and Pattern Recognition,2013:2411-2418.

    [2] Guan Hao,Xue Xiang-yang,An Zhi-yong.Advances on application of deep learning for video object tracking [J].Journal of Automa tica Sinica,2016,42(6):834-847.

    [3] Guan Hao,Xue Xiang-yang,An Zhi-yong.Video object tracking via visual prior and context information [J].Journal of Chinese Computer Systems,2016,37(9):2074-2078.

    [4] Li Han-xi,Li Yi,Porikli F.DeepTrack:learning discriminative feature representations online for robust visual tracking [J].IEEE Transactions on Image Processing,2016,25(4):1834-1848.

    [5] Li Han-xi,Li Yi,Porikli F.Robust online visual tracking with a single convolutional neural network [C].In the Asian Conference on Computer Vision,2015:194-209.

    [6] Wang Nai-yan,D-Y.Yeung.Online robust nonnegative dictionary learning for visual tracking [C].In the International Conference on Computer Vision,2013:657-664.

    [7] Hong S,You T,Kwak S,et al.Online tracking by learning discriminative saliency map with convolutional neural network [C].In the International Conference on Machine Learning,2015:597-606.

    [8] Ma Chao,Huang Jia-bin,Yang Xiao-kang,et al.Hierarchical convolutional features for visual tracking [C].In IEEE Conference on Computer Vision and Pattern Recognition,2015:3074-3082.

    [9] Szegedy C,Liu Wei,Jia Yang-qing,et al.Going deeper with convolutions[C].In IEEE Conference on Computer Vision and Pattern Recognition,2015:1-9.

    [10] Li Han-xi,Li Yi,Porikli F.Robust online visual tracking with a single convolutional neural network[C].In the Asian Conference on Computer Vision,2015:194-209.

    [11] Lawrence Zitnick C.,Piotr Dollár.Edgeboxes:locating object proposals from edges[C].In the European Conference on Computer Vision,2014:391-405.

    [12] Henriques J F,Caseiro R,Martins P,et al.High-speed tracking with kernelized correlation filters [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(3):583-596.

    [13] Henriques J F,Caseiro R,Martins P,et al.Exploiting the circulant structure of tracking-by-detection with kernels [C].In the European Conference on Computer Vision,2012:702-715.

    [14] Danelljan M,H?ger G,Khan F S,et al.Accurate scale estimation for robust visual tracking [C].In the British Machine Vision Conference,2014:1-5.

    [15] Li Yang,Zhu Jian-kang.A scale adaptive kernel correlation filter tracker with feature integration [C].In the European Conference on Computer Vision,2014:254-265.

    [16] Zhong Wei,Lu Hu-chuan,Yang M.-H.Robust object tracking via sparsity-based collaborative model [C].In IEEE Conference on Computer Vision and Pattern Recognition,2012:1838-1845.

    [17] Hare S,Saffari A,Torr P.Struck:structured output tracking with kernels[C].In IEEE International Conference on Computer Vision and Pattern Recognition,2013:2411-2418.

    [18] Xu Jia,Lu Hu-chuan,Yang M.-H.Visual tracking via adaptive structural local sparse appearance model [C].In IEEE Conference on Computer Vision and Pattern Recognition,2012:1822-1829.

    [19] Zhang Jian-ming,Ma Shu-gao,Sclaroff S.MEEM:robust tracking via multiple experts using entropy minimization [C].In the European Conference on Computer Vision,2014:266-278.

    附中文參考文獻(xiàn):

    [2] 管 皓,薛向陽,安志勇.深度學(xué)習(xí)在視頻目標(biāo)跟蹤中的應(yīng)用進(jìn)展與展望[J].自動(dòng)化學(xué)報(bào),2016,42(6):834-847.

    [3] 管 皓,薛向陽,安志勇.融合視覺先驗(yàn)與背景信息的視頻目標(biāo)跟蹤算法[J].小型微型計(jì)算機(jī)系統(tǒng),2016,37(9):2074-2078.

    猜你喜歡
    物性濾波物體
    R1234ze PVTx熱物性模擬計(jì)算
    能源工程(2022年1期)2022-03-29 01:06:26
    中韓天氣預(yù)報(bào)語篇的及物性分析
    LKP狀態(tài)方程在天然氣熱物性參數(shù)計(jì)算的應(yīng)用
    煤氣與熱力(2021年6期)2021-07-28 07:21:30
    深刻理解物體的平衡
    我們是怎樣看到物體的
    低孔低滲儲(chǔ)層物性下限確定方法及其適用性
    RTS平滑濾波在事后姿態(tài)確定中的應(yīng)用
    為什么同一物體在世界各地重量不一樣?
    基于線性正則變換的 LMS 自適應(yīng)濾波
    基于隨機(jī)加權(quán)估計(jì)的Sage自適應(yīng)濾波及其在導(dǎo)航中的應(yīng)用
    新蔡县| 嘉义县| 丰台区| 泗水县| 唐海县| 临武县| 兴海县| 乐清市| 石楼县| 公安县| 乐清市| 安龙县| 浏阳市| 墨玉县| 县级市| 安多县| 共和县| 襄樊市| 屯昌县| 平凉市| 渝中区| 拉孜县| 聊城市| 剑阁县| 莆田市| 嘉义市| 新干县| 澎湖县| 高尔夫| 灵武市| 临江市| 通城县| 南部县| 资兴市| 博白县| 林州市| 民丰县| 禹城市| 连山| 通州区| 永和县|