• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      利用二值描述符的實(shí)時(shí)目標(biāo)跟蹤算法

      2015-07-24 17:49:28查宇飛張立朝黃宏圖
      關(guān)鍵詞:漢明描述符二值

      覃 兵,田 軍,查宇飛,張立朝,黃宏圖

      (空軍工程大學(xué)航空航天工程學(xué)院,陜西西安 710038)

      利用二值描述符的實(shí)時(shí)目標(biāo)跟蹤算法

      覃 兵,田 軍,查宇飛,張立朝,黃宏圖

      (空軍工程大學(xué)航空航天工程學(xué)院,陜西西安 710038)

      針對目標(biāo)跟蹤過程中的速率低和存儲(chǔ)量大的問題,提出了一種新的利用二值描述符特征的快速穩(wěn)定的目標(biāo)跟蹤算法.該算法首先在保持目標(biāo)結(jié)構(gòu)信息的情況下,通過尋找最優(yōu)正交矩陣對樣本進(jìn)行旋轉(zhuǎn)聚類,將樣本從歐式空間投影到漢明空間,生成二值描述符.然后在粒子濾波采樣的框架下,通過計(jì)算目標(biāo)與候選樣本的漢明距離確定目標(biāo)跟蹤位置.實(shí)驗(yàn)結(jié)果表明,當(dāng)發(fā)生光照、姿態(tài)變化和快速移動(dòng)時(shí),該算法跟蹤速度較快,并且能夠?qū)崿F(xiàn)穩(wěn)定跟蹤.

      目標(biāo)跟蹤;二值描述符;粒子濾波;漢明距離

      如何利用特征描述符高效地建立目標(biāo)的表示模型,是實(shí)現(xiàn)以目標(biāo)檢測、跟蹤與識(shí)別為基礎(chǔ)的視覺任務(wù)系統(tǒng)的關(guān)鍵問題[1-4].在特征描述符發(fā)展初期,研究人員注重提高描述符的區(qū)分度,為獲得較高區(qū)分度的描述符,用一組實(shí)數(shù)向量對目標(biāo)的各個(gè)關(guān)鍵點(diǎn)進(jìn)行描述,稱這種特征描述符為實(shí)值描述符.尺度不變特征轉(zhuǎn)換(Scale Invariant Feature Transform,SIFT)特征[5]是實(shí)值描述符的典型代表,其對尺度、旋轉(zhuǎn)以及一定視角和光照變化等圖像的變化都具有不變性,并且SIFT具有很強(qiáng)的可區(qū)分性.但是,SIFT算法利用特征匹配的方法進(jìn)行跟蹤時(shí),由于需要對整幅圖片進(jìn)行處理來提取特征,當(dāng)圖像尺寸較大時(shí),處理速度比較慢,無法達(dá)到實(shí)時(shí)性要求.

      為了提高描述符生成和匹配的速度以及減小描述符所占存儲(chǔ)空間,產(chǎn)生了二值描述符[6].這類特征描述符用一組二值向量對目標(biāo)進(jìn)行描述,一般采用邏輯比較或者線性投影的方法生成,而匹配過程則用易于計(jì)算的漢明距離作為相似性度量.因此,這類特征描述符不僅所占存儲(chǔ)空間小,而且匹配速度快.

      文獻(xiàn)[7]提出魯棒且獨(dú)立的二進(jìn)制基本特征(Binary Robust Independent Elementary Features, BRIEF)二值描述符.它由128或256或512對比較組成,采樣點(diǎn)是按照中心位于特征位置的等方差高斯分布隨機(jī)選取的.BRIEF的計(jì)算量和存儲(chǔ)量低,但不具有尺度不變性和旋轉(zhuǎn)不變性.文獻(xiàn)[8]提出定向二進(jìn)制特征(ORiented Brief,ORB)描述符,它解決了BRIEF缺少旋轉(zhuǎn)不變性的問題,并通過使用亮度質(zhì)心ORB計(jì)算局部的方向.2013年,文獻(xiàn)[9]提出關(guān)鍵點(diǎn)二進(jìn)制特征(BinBoost),設(shè)計(jì)了一個(gè)比較大的局部區(qū)域的二值描述符,通過構(gòu)造二值哈希代價(jià)函數(shù),利用推進(jìn)方法(Boosting)獲得弱分類器集合及其權(quán)值,尋找最優(yōu)的二值描述符.但是,上述算法都沒有考慮目標(biāo)的整體結(jié)構(gòu)信息,從而不能保持原來特征描述符在歐式空間的結(jié)構(gòu)性.

      基于以上考慮,筆者運(yùn)用一種新的二值描述符生成算法,通過迭代量化的方法尋找最優(yōu)正交矩陣對目標(biāo)進(jìn)行旋轉(zhuǎn)聚類,得到保持目標(biāo)結(jié)構(gòu)信息的哈希變換;將目標(biāo)從歐式空間投影到漢明空間,且投影后的數(shù)據(jù)與歐式空間中的數(shù)據(jù)的相關(guān)性最大;降低了特征描述符的存儲(chǔ)空間,實(shí)現(xiàn)了快速匹配,充分利用速度和存儲(chǔ)優(yōu)勢擴(kuò)大了探索空間,提高了精度.

      1 二值描述符的生成

      新的二值描述符生成算法借鑒了文獻(xiàn)[10]的想法,通過迭代量化的方法尋找到最優(yōu)的正交矩陣,將相似的樣本聚為一類,從而生成相同的二值描述符.該方法稱為迭代量化(ITerative Quantization,ITQ).

      1.1 二值描述符的生成原理

      如圖1所示,圖中每個(gè)點(diǎn)代表著一個(gè)樣本,假設(shè)這些樣本是通過主成分分析(Principal Component Analysis,PCA)降到二維后的顯示結(jié)果.當(dāng)對這些樣本進(jìn)行二值量化時(shí),由圖1(a)可知,相似的樣本可能會(huì)量化到不同的二值描述符.如圖1(b)所示,通過樣本數(shù)據(jù)與一個(gè)隨機(jī)正交矩陣相乘可以使樣本發(fā)生一定的旋轉(zhuǎn).因此,存在最優(yōu)的正交矩陣,使得相似的樣本旋轉(zhuǎn)聚為一類,得到同樣的二值描述符,如圖1(c)所示.為此,文中將根據(jù)此想法生成目標(biāo)的二值描述符,并運(yùn)用到目標(biāo)跟蹤中,充分發(fā)揮其準(zhǔn)確性和有效性,將目標(biāo)從歐式空間投影到漢明空間,保證投影后的數(shù)據(jù)與歐式空間中的數(shù)據(jù)的相關(guān)性最大.

      圖1 樣本二值量化效果示意圖

      1.2 二值描述符的生成方法

      設(shè)有n個(gè)圖像樣本,每個(gè)樣本圖像維度為a×b,將每個(gè)圖像樣本數(shù)據(jù)作為一行,得到n個(gè)樣本對應(yīng)的矩陣Xn×d,其中,n為樣本個(gè)數(shù),d為每個(gè)樣本的維數(shù),即d=a×b.要保證n個(gè)樣本的均值為0,即通過量化得到樣本的二值矩陣B∈{-1,1}n×k,其中,k為降維的維數(shù).

      首先,需要對上述n個(gè)樣本減少特征數(shù),避免過度擬合,并最終降低存儲(chǔ)量.運(yùn)用主成分分析(Principal Component Analysis,PCA)[11]的方法對樣本數(shù)據(jù)進(jìn)行降維,設(shè)降維后樣本數(shù)據(jù)為Xn×k.

      接下來,引入k×k維正交矩陣R,對Xn×k進(jìn)行正交轉(zhuǎn)換,使得降維數(shù)據(jù)量化后的誤差最小,即

      初始化隨機(jī)正交矩陣R,采用類似k均值[12]迭代量化方法尋找最小誤差.在每次迭代過程中,每個(gè)樣本通過符號(hào)函數(shù)的方法賦予二值矩陣B,然后更新正交矩陣R,不斷地使公式量化誤差最小,交替進(jìn)行的步驟如下:

      (1)固定R,更新B.根據(jù)式(1),得到

      (2)固定B,更新R[10].對k×k矩陣BTV進(jìn)行奇異值分解,即

      其中,SVD代表奇異值分解.接著,得到正交矩陣

      交替地更新B和R,是為了尋找最優(yōu)的正交矩陣,從而使得量化的誤差越小.圖2顯示了隨著迭代次數(shù)的增加,量化誤差變化的過程.實(shí)驗(yàn)結(jié)果表明,只要迭代80次就可以使得量化誤差趨于最小.

      由以上步驟就能得到樣本的二值描述符.相對于實(shí)值描述符,生成二值描述符的方法不僅存儲(chǔ)量小,而且準(zhǔn)確度高.

      圖2 不同的迭代次數(shù)得到的量化誤差示意圖

      2 利用二值描述符的實(shí)時(shí)目標(biāo)跟蹤算法

      基于上述新的二值描述符生成算法,文中的主要工作是將此新的方法運(yùn)用到目標(biāo)跟蹤上,在粒子濾波采樣框架下實(shí)現(xiàn)對目標(biāo)的跟蹤.粒子濾波算法[13]是由當(dāng)前幀的跟蹤結(jié)果在下一幀中得到對應(yīng)的候選點(diǎn),從而實(shí)現(xiàn)樣本的概率分布隨著時(shí)間的推移得到傳遞.

      2.1 初始化

      首先,在跟蹤圖像{Ii}i=1,2,…,N的第1幀I1中確定跟蹤目標(biāo),并由上述新的二值描述符生成算法計(jì)算目標(biāo)的二值描述符.文中采用的是矩形框表示目標(biāo),設(shè)目標(biāo)的初始位置P1=[x,y,w,h,θ],其中,(x,y)為跟蹤框的左上角坐標(biāo),(w,h)為跟蹤框的寬度和高度,θ為跟蹤框的旋轉(zhuǎn)角度.由此,可得到初始幀的跟蹤目標(biāo)為

      接著,生成目標(biāo)的二值描述符.由上述新的二值描述符生成算法可知,單是由初始幀的跟蹤目標(biāo)是無法得到二值描述符的,因此,需要在目標(biāo)初始位置P1附近高斯采樣r個(gè)樣本,其中,r值過大或過小都會(huì)導(dǎo)致采樣的正負(fù)樣本個(gè)數(shù)不均衡,會(huì)對計(jì)算最優(yōu)正交矩陣R產(chǎn)生影響,從而使得正負(fù)樣本無法映射得到不同的二值描述符,實(shí)驗(yàn)結(jié)果表明,取r=300時(shí)效果最佳.高斯采樣參數(shù)Σ=[x′,y′,w′,h′,θ′],其中,(x′,y′)為跟蹤框x方向和y方向的移動(dòng)范圍,(w′,h′)為跟蹤框的寬度和高度的收縮范圍,θ′為高斯采樣的旋轉(zhuǎn)角度.得到r個(gè)樣本如下:

      其中,ITQ代表利用節(jié)1.2的迭代量化方法求解,k為下降的維數(shù),m為迭代量化時(shí)的循環(huán)次數(shù).得到了新的矩陣的二值描述符B(1+r)×k,取其第1行,也就得到了初始目標(biāo)的二值描述符,即

      同時(shí),也得到了對數(shù)據(jù)降維的特征向量U,以及迭代量化m次后得到的最優(yōu)正交矩陣R.這兩個(gè)參數(shù)將在接下來的跟蹤過程中使用.

      圖3 利用二值描述符的實(shí)時(shí)目標(biāo)跟蹤示意圖

      2.2 跟蹤過程

      算法流程如圖3所示.傳統(tǒng)的跟蹤算法由于其算法復(fù)雜度的影響,在采樣空間上范圍較小,如圖3第t+1幀采樣所示,這就可能會(huì)因目標(biāo)的突然快速移動(dòng)或姿態(tài)變化大而丟失目標(biāo).文中算法可以充分利用速度和存儲(chǔ)優(yōu)勢,擴(kuò)大搜索空間,增加候選采樣個(gè)數(shù),進(jìn)而能夠提高跟蹤精度.由上文得到了當(dāng)前跟蹤目標(biāo)的二值描述符,在下一幀中,通過粒子濾波的方法去采樣來得到候選樣本.設(shè)候選樣本個(gè)數(shù)為n,因此,可得到n個(gè)候選樣本為

      其中,sampling表示采樣.Ii為第i幀跟蹤圖像;Pi-1為第i-1幀跟蹤位置;Wi為粒子濾波采樣權(quán)值,并且設(shè)W2=Σ,即在第2幀時(shí)是通過高斯采樣得到候選樣本的.

      得到了n個(gè)候選樣本后,通過新的二值描述符的生成算法計(jì)算出每個(gè)候選樣本的二值描述符.在此過程中,需要運(yùn)用求初始目標(biāo)二值描述符時(shí)得到的特征向量U和正交矩陣R,具體計(jì)算如下:

      由此可以看出,目標(biāo)跟蹤過程中候選樣本的二值描述符僅僅通過兩次乘法運(yùn)算就可以得到,算法實(shí)現(xiàn)的速度較快,達(dá)到了目標(biāo)跟蹤的實(shí)時(shí)性.

      目標(biāo)跟蹤中粒子的似然概率是通過計(jì)算粒子與目標(biāo)模型之間的相似度或距離得到的,文中利用二值描述符和漢明距離度量方法來求取粒子的似然概率.由上述可知,目標(biāo)的二值描述符為B0,n個(gè)候選樣本的二值描述符為Bn×k,則目標(biāo)與候選樣本之間的漢明距離為

      在文中,目標(biāo)在下一幀的最終狀態(tài)由權(quán)重最大的粒子決定.所以,由Dn找出權(quán)重最大的粒子為

      其中,Lindex表示權(quán)重最大的粒子位置,find表示找到權(quán)重最大的粒子.

      2.3 更 新

      在上述跟蹤過程中,最終得到了權(quán)值最大的候選樣本,進(jìn)而可以得到此候選樣本對應(yīng)的位置,作為跟蹤目標(biāo)的位置更新可表示為

      粒子濾波的核心思想是,用一組具有權(quán)值的粒子來完全表示后驗(yàn)概率分布,即每個(gè)粒子的權(quán)重完全正比于其本身的似然概率.因此,得到上述n個(gè)候選樣本的權(quán)值為

      其中,σ是觀測噪聲的標(biāo)準(zhǔn)方差.

      最后,對目標(biāo)的二值描述符進(jìn)行更新,即

      3 實(shí)驗(yàn)結(jié)果及分析

      文中所有實(shí)驗(yàn)是在3.06 GHz,6 GB內(nèi)存的64位計(jì)算機(jī)環(huán)境下,通過MATLAB 2013a軟件平臺(tái)仿真實(shí)現(xiàn)的.根據(jù)實(shí)驗(yàn)跟蹤過程中的精確度和實(shí)時(shí)性考慮,樣本數(shù)據(jù)降維的維數(shù)k=64,候選樣本的個(gè)數(shù)n=500,高斯采樣參數(shù)Σ=[10,10,0.1,0.1,0.2],所有的3個(gè)測試視頻的參數(shù)及其描述如表1所示.

      表1 視頻序列及其描述

      3.1 實(shí)驗(yàn)結(jié)果

      為驗(yàn)證文中算法,在對大量視頻序列進(jìn)行跟蹤仿真實(shí)驗(yàn)的基礎(chǔ)上,對基于領(lǐng)域分配法的目標(biāo)跟蹤(Distribution Fields for Tracking,Track DF)[14]、基于魯棒且獨(dú)立二進(jìn)制基本特征的目標(biāo)跟蹤(Binary Robust Independent Elementary Features,BRIEF)以及文中算法(Proposed)的實(shí)驗(yàn)結(jié)果和跟蹤性能進(jìn)行分析,比較算法各自的復(fù)雜度.

      圖4第1行是“Sylvester”部分結(jié)果.視頻中,背景比較相似、目標(biāo)玩具姿態(tài)和移動(dòng)速度不停變化.BRIEF的跟蹤結(jié)果與真實(shí)目標(biāo)存在一定的位置偏差,尤其是目標(biāo)發(fā)生姿態(tài)變化時(shí),偏差也越大,如第596幀. Track DF能夠適應(yīng)一定程度的姿態(tài)變化,但當(dāng)姿態(tài)變化較大并且快速移動(dòng)時(shí),其跟蹤精度也隨之降低,如第996幀;而文中算法能夠至始至終對目標(biāo)進(jìn)行跟蹤.

      圖4 “Sylvester”、“David”和“Dollar”跟蹤結(jié)果示意圖

      圖4第2行是“David”部分結(jié)果.對其頭部跟蹤,主要有姿態(tài)、旋轉(zhuǎn)以及光照等變化,BRIEF的跟蹤結(jié)果在目標(biāo)側(cè)身和取下眼鏡時(shí)存在較大的偏差,如第176幀和第346幀;Track DF在目標(biāo)取下眼鏡時(shí),也就是目標(biāo)姿態(tài)發(fā)生較大變化時(shí),丟失目標(biāo),如第346幀;文中算法雖然在目標(biāo)側(cè)身過后存在一定的誤差,如第246幀,但偏差較小,能夠?qū)崿F(xiàn)準(zhǔn)確跟蹤.

      圖4第3行是“Dollar”部分結(jié)果.可以看出,3種算法基本都能對目標(biāo)至始至終的跟蹤.在目標(biāo)產(chǎn)生折疊或者目標(biāo)快速移動(dòng)時(shí),BRIEF產(chǎn)生的偏差相對于其他兩個(gè)算法較大,如第96幀、第176幀和第296幀.

      3.2 性能分析

      文中對照實(shí)驗(yàn)所涉及的算法均按照原文獻(xiàn)所介紹的思路編寫,未進(jìn)行任何形式的額外優(yōu)化處理.下面對各算法的跟蹤性能以及算法復(fù)雜度進(jìn)行簡要分析.

      3.2.1 跟蹤性能

      中心位置誤差[15]的計(jì)算表達(dá)式為

      其中,O和Ot分別為算法得到的跟蹤框中心位置和目標(biāo)真實(shí)中心點(diǎn),中心位置誤差表示目標(biāo)中心與真實(shí)目標(biāo)中心的誤差,其值越小,表明跟蹤的精度越高.視頻中每幀的中心位置誤差如圖5所示,其中橫軸表示圖像幀數(shù),縱軸表示均方根誤差.由圖5可知,文中算法要比其他兩種算法對目標(biāo)有更準(zhǔn)確的定位.

      圖5 3種算法跟蹤結(jié)果的中心位置誤差比較示意圖

      3.2.2 算法復(fù)雜度

      Track DF算法首先對目標(biāo)圖像按照灰度值區(qū)間進(jìn)行分層;然后,對分層后的圖像分別進(jìn)行空域和值域?yàn)V波,得到分布場特征;最后,用梯度下降法選取與目標(biāo)圖像分布場特征之間歐式距離最小的候選位置為目標(biāo)的跟蹤位置.因此,Track DF算法比BRIEF算法復(fù)雜,這里僅分析BRIEF算法與文中算法的復(fù)雜度.在BRIEF算法中,其構(gòu)建二值描述符時(shí),每個(gè)候選樣本都要經(jīng)過nd次邏輯比較以及nd次加減運(yùn)算,因此,BRIEF算法處理每一幀的算法復(fù)雜度為O(Nnd2).文中算法的復(fù)雜度主要在于式(10),因此,文中算法處理每一幀的復(fù)雜度為O(Ndk).表2給出了各算法平均每幀的處理時(shí)間.綜上可知,文中算法的處理速度最佳.

      表2 3種算法的處理速度 s/幀

      4 結(jié)束語

      視覺跟蹤中如何利用特征描述符高效地建立目標(biāo)的表示模型,一直是研究的熱點(diǎn)和難點(diǎn).筆者通過對樣本二值描述符生成算法的研究,將一種新的二值描述符生成算法與粒子濾波相結(jié)合,提出了利用二值描述符的實(shí)時(shí)目標(biāo)跟蹤算法.該算法通過迭代量化的方法尋找一個(gè)最優(yōu)的正交矩陣,從而將樣本的數(shù)據(jù)進(jìn)行旋轉(zhuǎn)聚類,使得相似的樣本能夠生成相似的二值描述符,尋找保持目標(biāo)結(jié)構(gòu)信息的哈希變換,使投影后的數(shù)據(jù)與歐式空間中的數(shù)據(jù)的相關(guān)性最大.并且文中充分利用速度和存儲(chǔ)優(yōu)勢擴(kuò)大探索空間,提高精度,因此新特征具有魯棒性的特點(diǎn).通過粒子濾波算法,運(yùn)用異或運(yùn)算計(jì)算漢明距離,得到下一幀目標(biāo)的位置以及后驗(yàn)概率,提升了算法的速度和效率.將文中算法應(yīng)用于視覺跟蹤領(lǐng)域,在跟蹤效果和跟蹤速度上都比其他跟蹤算法有所提高.

      不足之處是,文中算法雖然在一定程度上解決了特征描述符表征特征的快速性和魯棒性的問題,但是降維時(shí)的特征向量和量化時(shí)的正交矩陣未能實(shí)時(shí)更新,因此,對于復(fù)雜背景的目標(biāo)跟蹤效果仍不是十分理想.研究如何有效地在線更新特征向量以及正交矩陣,將大大增強(qiáng)文中算法的魯棒性,這將是下一步的工作.

      [1]Li Xi,Hu W M,Shen C H,et al.A Survey of Appearance Models in Visual Object Tracking[J].ACM Transactions on Intelligent Systems and Technology,2013,4(4):58-72.

      [2]李遠(yuǎn)征,盧朝陽,李靜.一種基于多特征融合的視頻目標(biāo)跟蹤方法[J].西安電子科技大學(xué)學(xué)報(bào),2012,39(4):1-6. Li Yuanzheng,Lu Zhaoyang,Li Jing.Robust Video Object Tracking Algorithm Based on Multi-feature Fusion[J]. Journal of Xidian University,2012,39(4):1-6.

      [3]孫浩,王程,王潤生.局部不變特征綜述[J].中國圖象圖形學(xué)報(bào),2011,16(2):141-151. Sun Hao,Wang Cheng,Wang Runsheng.A Review of Local Invariant Features[J].Journal of Image and Graphics, 2011,16(2):141-151.

      [4]高晶,畢篤彥,趙曉林.融合邊緣片斷與水平集分割的目標(biāo)跟蹤算法[J].西安電子科技大學(xué)學(xué)報(bào),2011,38(6):146-151. Gao Jing,Bi Duyan,Zhao Xiaolin.Non-rigid Object Tracking Based on the Boundary Fragment Feature and Level Set Segmentation[J].Journal of Xidian University,2011,38(6):146-151.

      [5]Lowe D G.Object Recognition from Local Scale-invariant Features[C]//Proceedings of the Seventh IEEE International Conference on Computer Vision.Piscataway:IEEE,1999:1150-1157.

      [6]Heinly J,Dunn E,Frahm J M.Comparative Evaluation of Binary Features[C]//Proceedings of the 12th European Conference on Computer Vision.Berlin:Springer,2012:759-773.

      [7]Calonder M,Lepetit V,Strecha C,et al.BRIEF:Binary Robust Independent Elementary Features[C]//Lecture Notes in Computer Science:6314.Heidelberg:Springer Verlag,2010:778-792.

      [8]Rublee E,Rabaud V,Konolige K,et al.ORB:an Efficient Alternative to SIFT or SURF[C]//Proceedings of the IEEE International Conference on Computer Vision.Piscataway:IEEE,2011:2564-2571.

      [9]Trzcinski T,Christoudias M,Lepetit V,et al.Boosting Binary Keypoint Descriptors[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Washington:IEEE Computer Society,2013:2874-2881.

      [10]Gong Y C,Lazebnik S.Iterative Quantization:a Procrustean Approach to Learning Binary Codes[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE,2011:817-824.

      [11]Lauro N C,Verde R,Irpino A.Principal Component Analysis[J].Business Research Methods,2005,23(2):41-64.

      [12]Huang Z.Extensions to the K-means Algorithm for Clustering Large Data Sets with Categorical Values[J].Data Mining and Knowledge Discovery,1998,2(3):283-304.

      [13]張俊根,姬紅兵.采用粒子濾波和模糊聚類法的非線性多目標(biāo)跟蹤[J].西安電子科技大學(xué)學(xué)報(bào),2010,37(4):636-641. Zhang Jungen,Ji Hongbing.Passive Multi-target Tracking Based on Independent Particle Filtering and Fuzzy Clustering [J].Journal of Xidian University,2010,37(4):636-641.

      [14]Sevilla-Lara L,Learned-Miller E G.Distribution Fields for Tracking[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Washington:IEEE Computer Society,2012:1910-1917.

      [15]Everingham M,Van Gool L,Williams C K,et al.The Pascal Visual Object Classes(VOC)Challenge[J].Interational Journal of Computer Vision,2010,88(2):303-338.

      (編輯:齊淑娟)

      Real-time visual object tracking based on binary descriptors

      QIN Bing,TIAN Jun,ZH A Yufei,ZHANG Lichao,HUANG Hongtu
      (Inst.of Aeronautics and Astronautics Eng.,Air Force Eng.Univ.,Xi’an 710038,China)

      Object tracking often has the problems of low rate and high storage.Therefore,a tracking algorithm based on binary descriptors is proposed.The algorithm retains the original construction information on the samples and projects the samples from Euclidean space to Hamming space in order to generate binary descriptors by searching the optimal orthogonal matrix for rotating cluster.Then under the frame of particle filtering,it is necessary to determine the tracking position by computing the hamming distance.Analysis and experiment show that the proposed tracking algorithm performs rapidly and favorably when the target objects undergo large illumination,pose changes and fast movement.

      object tracking;binary descriptors;particle filtering;hamming distance

      TP391

      A

      1001-2400(2015)05-0168-07

      2014-05-08< class="emphasis_bold">網(wǎng)絡(luò)出版時(shí)間:

      時(shí)間:2014-12-23

      國家自然科學(xué)基金資助項(xiàng)目(61472442);航空科學(xué)基金資助項(xiàng)目(20131996013)

      覃 兵(1991-),男,空軍工程大學(xué)碩士研究生,E-mail:qinbingzaixian@163.com.

      http://www.cnki.net/kcms/detail/61.1076.TN.20141223.0946.028.html

      10.3969/j.issn.1001-2400.2015.05.028

      猜你喜歡
      漢明描述符二值
      基于結(jié)構(gòu)信息的異源遙感圖像局部特征描述符研究
      混沌偽隨機(jī)二值序列的性能分析方法研究綜述
      支持CNN與LSTM的二值權(quán)重神經(jīng)網(wǎng)絡(luò)芯片
      基于二值形態(tài)學(xué)算子的軌道圖像分割新算法
      Linux單線程并發(fā)服務(wù)器探索
      視頻圖像文字的二值化
      利用CNN的無人機(jī)遙感影像特征描述符學(xué)習(xí)
      媳婦管錢
      中年研究
      漢明距離矩陣的研究
      旬阳县| 永嘉县| 富蕴县| 文安县| 闽侯县| 重庆市| 黑河市| 玉山县| 蒲城县| 靖边县| 博乐市| 佛坪县| 绥江县| 惠水县| 江川县| 大余县| 绥芬河市| 大庆市| 偏关县| 精河县| 大埔县| 邹平县| 盐城市| 固镇县| 清水河县| 安国市| 金阳县| 厦门市| 新营市| 湘乡市| 盐山县| 普定县| 曲阜市| 清苑县| 建水县| 繁昌县| 汝城县| 台北市| 福鼎市| 鲁甸县| 故城县|