• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      跟蹤窗自適應(yīng)的捷聯(lián)導(dǎo)引系統(tǒng)目標(biāo)跟蹤算法

      2014-06-27 05:41:50郭曉冉崔少輝曹歡楊鎖昌方丹
      兵工學(xué)報 2014年10期
      關(guān)鍵詞:協(xié)方差權(quán)值尺度

      郭曉冉,崔少輝,曹歡,楊鎖昌,方丹

      (1.軍械工程學(xué)院導(dǎo)彈工程系,河北石家莊 050003; 2.北京航天嘉誠精密科技發(fā)展有限公司,北京 102600)

      跟蹤窗自適應(yīng)的捷聯(lián)導(dǎo)引系統(tǒng)目標(biāo)跟蹤算法

      郭曉冉1,崔少輝1,曹歡2,楊鎖昌1,方丹1

      (1.軍械工程學(xué)院導(dǎo)彈工程系,河北石家莊 050003; 2.北京航天嘉誠精密科技發(fā)展有限公司,北京 102600)

      捷聯(lián)圖像末制導(dǎo)導(dǎo)彈在跟蹤的后期階段,彈目距離和成像視角的變化會引起圖像尺度和旋轉(zhuǎn)變化,目標(biāo)區(qū)域?qū)⒂尚∽兇笾敝脸錆M整個視場。針對經(jīng)典的Mean Shift算法在圖像制導(dǎo)目標(biāo)跟蹤過程中不能自適應(yīng)目標(biāo)的尺度和旋轉(zhuǎn)變化這一問題,研究了一種跟蹤窗自適應(yīng)的Mean Shift目標(biāo)跟蹤算法。對初始選定的橢圓目標(biāo)跟蹤區(qū)域和候選區(qū)域進行加權(quán)操作,并利用權(quán)值圖像的零階矩和Bhattacharyya系數(shù),對真實目標(biāo)面積進行精確估計。利用估計出的目標(biāo)真實面積,并結(jié)合權(quán)值圖像的2階中心矩進一步構(gòu)建可表達目標(biāo)窗口內(nèi)圖像特征的協(xié)方差矩陣,再通過奇異值分解建立橢圓面積與協(xié)方差矩陣特征值之間的關(guān)系,從而計算出橢圓目標(biāo)區(qū)域?qū)嶋H的主軸長度和方向,實現(xiàn)跟蹤窗的自適應(yīng)變化。仿真實驗結(jié)果表明,該方法既具有Mean Shift算法精度高、實時性好的特點,同時又?jǐn)U展了Mean Shift算法在目標(biāo)發(fā)生尺度和旋轉(zhuǎn)變化時的自適應(yīng)能力。

      兵器科學(xué)與技術(shù);圖像制導(dǎo);捷聯(lián);Mean Shift算法;矩特征;自適應(yīng)

      0 引言

      在圖像制導(dǎo)系統(tǒng)中,隨著彈目距離和成像視角的變化會引起目標(biāo)的尺度和旋轉(zhuǎn)變化,如何有效應(yīng)對整個跟蹤過程中目標(biāo)在成像平面上的變化是實現(xiàn)穩(wěn)定跟蹤的關(guān)鍵所在。捷聯(lián)圖像末制導(dǎo)導(dǎo)彈在向下攻擊時有個點火的過程,這一過程會導(dǎo)致彈體發(fā)生劇烈抖動,使得成像視角發(fā)生一定量的變化,同時隨著彈目距離的逐漸減小,目標(biāo)的面積會由小到大不斷變化,這就要求跟蹤窗的大小也需要隨著目標(biāo)區(qū)域的增大而不斷擴展,以使目標(biāo)能夠全部或絕大部分包含于跟蹤窗口內(nèi)。因此,在導(dǎo)彈末制導(dǎo)階段跟蹤算法除了要具有很好的實時性和精確性外,還需要能夠應(yīng)對目標(biāo)的尺度和旋轉(zhuǎn)變化。

      Mean Shift算法具有嚴(yán)謹(jǐn)?shù)睦碚撝?、較強的實時性和較高的跟蹤精度,同時對目標(biāo)的遮擋和噪聲等不敏感,一直以來被廣泛應(yīng)用于目標(biāo)跟蹤中[1-3]。但是經(jīng)典的Mean Shift跟蹤算法[4-5]只適合估計目標(biāo)的位置變化,并不能估計目標(biāo)的尺度和旋轉(zhuǎn)變化,因此當(dāng)目標(biāo)發(fā)生尺度和旋轉(zhuǎn)變化時,經(jīng)典的Mean Shift跟蹤性能將會大幅度下降甚至失效。CAMSHIFT算法是一種尺度和方向自適應(yīng)的方法[6],但是該算法沒有嚴(yán)格的數(shù)學(xué)理論支撐,同時跟蹤效果也不是十分理想,只能應(yīng)用于相對簡單的視頻跟蹤中。Comaniciu等[7]為解決目標(biāo)發(fā)生形變時的尺度估計問題提出了一種尺度自適應(yīng)的算法,該算法在3種不同的帶寬下分別運行Mean Shift算法,取Bhattacharyya系數(shù)最大時所對應(yīng)的帶寬作為目標(biāo)的尺度。然而,由于目標(biāo)的方向變化和噪聲的影響,實際在Bhattacharyya系數(shù)最大時的帶寬并不一定能夠代表目標(biāo)的真實尺度。文獻[8]中提出了一種EMShift目標(biāo)跟蹤算法,該算法通過實時估計目標(biāo)的位置并利用協(xié)方差矩陣近似描述目標(biāo)的外形,它在一定程度上能夠適應(yīng)目標(biāo)的外形和尺度變化,并且具有較好的實時性。然而,該算法在計算過程中利用了高斯核,它的每一次迭代運算都需要估計2階矩,導(dǎo)致其計算復(fù)雜度較高,并且在利用協(xié)方差矩陣確定目標(biāo)尺度的執(zhí)行方式上并沒有做詳細(xì)的闡述[9]。

      文獻[10]提出的跟蹤方法是將Mean Shift算法與仿射變換相結(jié)合,利用角點匹配算法計算仿射參數(shù),并通過Mean Shift算法定位目標(biāo)。該方法計算量較大,且在目標(biāo)特征點較少和目標(biāo)為非剛性物體時并不適用。文獻[11]將圖像制導(dǎo)系統(tǒng)中的距離信息應(yīng)用于目標(biāo)跟蹤,以動態(tài)調(diào)整跟蹤窗口的尺度,并利用Bhattacharyya系數(shù)度量目標(biāo)特征與待搜索區(qū)域的相關(guān)程度,同時利用非線性方法在每一幀跟蹤收斂后更新目標(biāo)特征。該算法與傳統(tǒng)Mean Shift算法基本具有相同的時間及計算復(fù)雜度,能夠滿足圖像制導(dǎo)系統(tǒng)對實時性的要求,但是該方法并未說明是否具備在目標(biāo)發(fā)生旋轉(zhuǎn)變化時的自適應(yīng)能力。

      本文引入了權(quán)值圖像的矩特征,并結(jié)合Bhattacharyya系數(shù)研究了一種跟蹤窗自適應(yīng)的Mean Shift目標(biāo)跟蹤算法。首先利用權(quán)值圖像的零階矩和Bhattacharyya系數(shù)估計橢圓形目標(biāo)區(qū)域的面積,然后利用已估計的目標(biāo)面積,結(jié)合權(quán)值圖像的2階中心矩構(gòu)建可表達目標(biāo)窗口內(nèi)圖像特征的協(xié)方差矩陣,進而得到目標(biāo)的實際主軸長度和方向,實現(xiàn)跟蹤窗的自適應(yīng)變化。

      1 跟蹤窗自適應(yīng)的Mean Shift算法

      1.1 目標(biāo)模型和候選模型的建立

      首先利用橢圓形跟蹤窗對目標(biāo)區(qū)域進行近似,然后利用顏色直方圖建立區(qū)域內(nèi)目標(biāo)模型^q.表示目標(biāo)區(qū)域上規(guī)范化的像素位置,用一個各向同性核給區(qū)域中的每一個像素點進行加權(quán),離中心點越遠(yuǎn)則表示該點為目標(biāo)點的概率越小,對應(yīng)的其權(quán)值就較低;而離中心點越近則表示該點為目標(biāo)點的概率越大,所以其權(quán)值也就較高。函數(shù)映射到相應(yīng)的特征空間的概率定義為

      在隨后的圖像序列中得到目標(biāo)的候選區(qū)域,計算其相應(yīng)的顏色直方圖,即為目標(biāo)候選模型^p(y),y表示候選區(qū)域的中心點,所以,以y為中心的候選區(qū)域目標(biāo)候選模型定義為

      式中:{xi}i=1,…,nh表示候選區(qū)域中的像素位置集合;(y)表示候選模型(y)中第u個特征向量的概率密度;Ch是規(guī)范化常數(shù);h是窗口寬度,也稱帶寬。

      1.2 目標(biāo)區(qū)域質(zhì)心位置的確定

      以上一幀坐標(biāo)中心位置y0作為當(dāng)前幀中目標(biāo)的中心,并以該點為搜索起點,在其鄰域內(nèi)進行目標(biāo)搜索,直到目標(biāo)模型與候選模型之間的Bhattacharyya系數(shù)達到最大值。假設(shè)當(dāng)前幀中目標(biāo)的中心為y,對(6)式在(y0)處進行1階泰勒展開,

      得到目標(biāo)模型和候選模型后,再用表示m維特征向量之間夾角余弦的Bhattacharyya系數(shù)定義目標(biāo)模型和候選模型之間的距離。

      (7)式右邊第一項是常數(shù)項,其不隨y的變化而變化,而第二項是一個關(guān)于y的函數(shù)。因此,要使達到最大,只需(7)式右邊的第二項最大即可。所以將(3)式帶入(7)式,得

      式中:nh表示候選區(qū)域中像素點的個數(shù);wi為候選區(qū)域中像素點i所對應(yīng)的權(quán)值,其表示候選區(qū)域中像素點xi屬于目標(biāo)的可能性,wi越大,表明其屬于目標(biāo)的可能性越高,

      (8)式的右邊第二項表示在當(dāng)前幀y處,基于各向同性核k(x)的密度估計,應(yīng)取其密度的局部極大值,所以利用Mean Shift向量[5,7]可以得到候選區(qū)域中心y0到目標(biāo)中心新位置y1的表達式(10)式。

      通過不斷的迭代,候選區(qū)域的質(zhì)心將會落在權(quán)值最大的區(qū)域,最終收斂到目標(biāo)位置。

      本文選擇k(x)為Epanechnikov核,此時(10)式簡化為

      1.3 估計目標(biāo)面積以及矩特征的引入

      利用權(quán)值圖像的0階矩及目標(biāo)模型和候選模型之間的Bhattacharyya系數(shù)估計目標(biāo)的面積。權(quán)值圖像的0階矩M00即為(11)式的分母,定義為

      Bhattacharyya系數(shù)可以用來度量跟蹤結(jié)果與目標(biāo)的相似性。跟蹤區(qū)域與目標(biāo)區(qū)域的相似性越高,則跟蹤結(jié)果與目標(biāo)的Bhattacharyya系數(shù)值就越大,但是只利用Bhattacharyya相關(guān)系數(shù)來估計目標(biāo)的面積,其結(jié)果的準(zhǔn)確度是難以保證的。

      通常在跟蹤窗內(nèi),除包含目標(biāo)外,還可能存在一定的背景信息,為了實現(xiàn)有效的跟蹤,候選區(qū)域尺寸一般都略大于目標(biāo)的實際尺寸,所以目標(biāo)只是候選區(qū)域的一部分,而不是整個候選區(qū)域。因此,目標(biāo)模型中屬于目標(biāo)部分的概率密度將大于其在候選模型中的概率。根據(jù)(11)式,屬于目標(biāo)的點在候選區(qū)域中的權(quán)值wi將大于1,那么表示權(quán)值之和的零階矩M00也將大于目標(biāo)的實際面積。如果候選區(qū)域與目標(biāo)的實際面積越接近,那么用M00估計目標(biāo)的面積也就越可靠。如果候選區(qū)域中出現(xiàn)了更多的背景信息,那么用M00估計面積的可靠性將隨之降低。

      通過上面的分析發(fā)現(xiàn),Bhattacharyya系數(shù)或權(quán)值圖像的零階矩M00都可以在一定程度上反映目標(biāo)的面積信息,但是單獨使用都不能較為準(zhǔn)確地估計出目標(biāo)的面積,因此如果能建立二者之間一定的函數(shù)關(guān)系,結(jié)合二者各自的信息,就有可能可以準(zhǔn)確地對目標(biāo)面積進行估計。經(jīng)過大量的仿真實驗,本文提出了如下的函數(shù)關(guān)系,綜合利用Bhattacharyya系數(shù)和權(quán)值圖像的0階矩M00來估計目標(biāo)面積的實際值,

      式中:S代表目標(biāo)的實際面積;ρ是候選模型與目標(biāo)模型的之間的Bhattacharyya相關(guān)系數(shù)。利用ρ的余弦關(guān)系函數(shù)與0階矩M00的乘積來表示目標(biāo)面積。

      目標(biāo)模型與候選模型越相似,則ρ越接近1,由(13)式可以看出,S就越接近M00.隨著目標(biāo)模型與候選模型相似度的降低,ρ隨之減小,M00愈加大于目標(biāo)實際面積,但是通過上面的函數(shù)關(guān)系,又可以使S逼近目標(biāo)的真實面積。如果目標(biāo)模型與候選模型幾乎沒有相似度時,則ρ接近于0,目標(biāo)丟失,S也逼近0.

      利用估計出的目標(biāo)面積S,再通過矩特征分析權(quán)值圖像,進一步估計橢圓目標(biāo)區(qū)域?qū)嶋H的主軸長度及方向?;跈?quán)值圖像計算出以下矩特征:

      式中:xi,1和xi,2分別表示候選區(qū)域中點i的橫、縱坐標(biāo);y1表示目標(biāo)候選區(qū)域的質(zhì)心。通過1階矩和0階矩之比獲得

      2階中心矩能夠描述目標(biāo)的方向以及目標(biāo)區(qū)域的形狀,可用來確定橢圓目標(biāo)區(qū)域的主軸信息,因此將2階矩轉(zhuǎn)換成以下的2階中心矩:

      1.4 目標(biāo)區(qū)域尺度及方向的自適應(yīng)調(diào)整

      由于上面的協(xié)方差矩陣Cov為2階正定的Hermite矩陣,所以協(xié)方差矩陣的奇異值等于其特征值,對協(xié)方差矩陣進行奇異值分解,

      為了估計目標(biāo)的主軸長度和方向,將(17)式寫為協(xié)方差矩陣的表達形式:

      式中:λ1和λ2是協(xié)方差矩陣Cov的特征值。在橢圓目標(biāo)區(qū)域中,向量(u11,u21)T和(u12,u22)T分別表示在候選區(qū)域中實際目標(biāo)的兩個主軸方向。

      所以,

      因此,反映實際目標(biāo)主軸長度和方向的協(xié)方差矩陣校正為

      求得當(dāng)前幀目標(biāo)的位置、主軸長度和方向之后,接下來需要確定下一幀中目標(biāo)候選區(qū)域的位置。根據(jù)(23)式,下一幀的目標(biāo)候選區(qū)域用如下協(xié)方差矩陣來表示,Γl表示下一幀中候選區(qū)域的增量。

      1.5 算法實現(xiàn)步驟

      通過上面的分析,現(xiàn)整理完整的算法步驟如下:

      3)令d←‖y1-y0‖,y0←y1,設(shè)誤差閾值為ε,最大迭代次數(shù)為N.

      如果d<ε或者T≥N,停止,執(zhí)行步驟 4;否則T←T+1,執(zhí)行步驟2.

      4)用(23)式估計目標(biāo)候選區(qū)域兩個主軸的實際長度和方向,并通過跟蹤結(jié)果估計下一幀的目標(biāo)候選區(qū)域尺寸,同時用(25)式確定下一幀中目標(biāo)的初始位置。

      該算法的前3步是對經(jīng)典的Mean Shift算法的一個整合,只是在步驟4增加了目標(biāo)候選區(qū)域兩個主軸的實際長度和方向的估計,而這些估計是在當(dāng)前幀跟蹤結(jié)束后,利用候選區(qū)域中的信息實現(xiàn)的,所以該算法的復(fù)雜度與經(jīng)典的Mean Shift算法相比幾乎沒有增加。

      2 仿真實驗結(jié)果及分析

      該部分對經(jīng)典的Mean Shift算法、EM-Shift算法以及本文提出的算法進行測試,比較它們的性能。在主頻2.5 GHz的64位Win7操作系統(tǒng)下,利用Matlab2013a對所有方法進行測試。測試部分由3個實驗組成。實驗1用一段帶有尺度和方向變化的標(biāo)準(zhǔn)橢圓運動序列進行測試,圖像大小為352× 240像素,共72幀。實驗2為一段汽車由遠(yuǎn)及近并帶有方向變化的視頻測試序列,圖像的大小為768× 576像素,視頻長度為300幀。實驗3是一段模擬末制導(dǎo)階段彈目運動的視頻測試序列,圖像大小為480×320像素,共250幀。

      2.1 標(biāo)準(zhǔn)橢圓運動序列

      測試序列的第一幀用于定義目標(biāo)模型,接下來進行跟蹤,分別選用視頻序列的第1、11、21、31、41、51、61和71幀作為實驗結(jié)果。由圖1(a)可以看出, Mean Shift的跟蹤窗的大小和方向沒有跟隨目標(biāo)尺度及方向的變化而變化,當(dāng)目標(biāo)面積變大時,跟蹤窗不能全部包含目標(biāo),同樣當(dāng)目標(biāo)面積變小時,目標(biāo)框內(nèi)將會包含進一些甚至大量的背景區(qū)域,這將會降低跟蹤精度,甚至出現(xiàn)丟失目標(biāo)的情況。在圖1(b)中,跟蹤窗雖然能隨著目標(biāo)區(qū)域的尺度和方向變化而自動調(diào)整,但是可以明顯地看出,其自動調(diào)整能力較弱,跟蹤過程中容易出現(xiàn)跟蹤窗內(nèi)包含大量背景信息以及跟蹤窗內(nèi)只包含部分目標(biāo)區(qū)域的情況。而由圖1(c)可以看出跟蹤窗口始終跟隨目標(biāo)的尺度和方向的變化而變化。

      2.2 尺度及方向變化的汽車運動序列

      圖2所示,目標(biāo)尺度由小變大的運動過程中,經(jīng)典的Mean Shift算法在起始階段,跟蹤窗內(nèi)幾乎完全包含目標(biāo),而在跟蹤的后期階段,跟蹤窗內(nèi)只包含了目標(biāo)的部分區(qū)域,大大增加了目標(biāo)丟失的可能性。如圖2(a)所示,從左至右依次為視頻序列的第1、61、121、181、241和300幀。在圖2(b)中,隨著目標(biāo)尺度的逐漸增大,EM-Shift算法的跟蹤窗內(nèi)充斥了大量的背景信息,增加了目標(biāo)誤跟蹤的可能性以及算法的計算量。本文提出算法的跟蹤窗在整個跟蹤過程中都完全和絕大部分包含目標(biāo)區(qū)域,并且?guī)缀醪话尘皡^(qū)域,保證了較好的跟蹤精度,如圖2(c)所示。

      圖1 標(biāo)準(zhǔn)橢圓運動序列的實驗結(jié)果Fig.1 Experimental result of standard elliptic motion sequences

      圖2 目標(biāo)尺度由小到大運動序列的實驗結(jié)果Fig.2 Experimental results of target scale changes from small to large motion sequences

      圖3給出了對尺度及方向變化的汽車運動序列跟蹤過程中3種算法跟蹤誤差的對比曲線圖,跟蹤誤差的計算公式為

      式中:(xj,yj)為計算出的第j幀圖像目標(biāo)中心點位置坐標(biāo);(xjr,yjr)為目標(biāo)的實際中心點坐標(biāo)。從圖3可以看出本文所提出的算法在目標(biāo)尺度及方向發(fā)生變化時其跟蹤準(zhǔn)確度要高于經(jīng)典的Mean Shift跟蹤算法和EM-Shift跟蹤算法。

      2.3 模擬彈目運動的測試序列

      圖3 3種算法跟蹤誤差對比Fig.3 Comparison of tracking errors of three algorithms

      圖4為一段模擬導(dǎo)彈末制導(dǎo)階段的視頻序列對3種算法的測試結(jié)果。由圖4(a)可以看出,經(jīng)典的Mean Shift算法的跟蹤窗自始至終都保持原始的大小,導(dǎo)致在跟蹤的末段跟蹤窗內(nèi)只包含很少的目標(biāo)區(qū)域,極易導(dǎo)致目標(biāo)丟失。圖4(b)中,EM-Shift算法的跟蹤窗雖然能夠隨目標(biāo)的尺度變化而變化,但是并不能保證較高的跟蹤精度。而本文提出的算法在整個跟蹤過程中,跟蹤窗始終隨目標(biāo)區(qū)域的變化而變化,實現(xiàn)了高精度的跟蹤,如圖4(c)所示。

      圖4 模擬彈目運動序列的實驗結(jié)果Fig.4 Experimental result of missile and target simulation motion sequences

      圖5為模擬彈目運動序列跟蹤過程中3種算法跟蹤誤差的對比曲線圖。從圖中可以明顯地看出,在后期階段,本文提出的算法跟蹤精度要明顯高于另外兩種方法。

      圖5 3種算法跟蹤誤差對比Fig.5 Comparison of tracking errors of three algorithms

      為了比較和證明算法的實時性,表1給出了在本文的計算機配置和開發(fā)環(huán)境下,3種方法在運行以上3段視頻序列時的單幀平均運算時間比較。從表中可以看出,EM-Shift算法和本文提出的算法在單幀平均計算耗時上都高于經(jīng)典的Mean Shift,但是本文提出的算法較接近經(jīng)典的Mean Shift算法,且遠(yuǎn)遠(yuǎn)低于EM-Shift算法的運算時間。

      因此,本文提出的算法在提升了Mean Shift算法跟蹤精度的同時,并沒有大幅增加算法的計算復(fù)雜度和運算耗時。

      表1 平均運算時間比較Tab.1 The comparison of average calculating timess

      3 結(jié)論

      針對圖像末制導(dǎo)系統(tǒng)的后期跟蹤階段,由于彈目距離及成像視角的迅速變化而引起的目標(biāo)尺度和方向變化的問題,本文通過分析Mean Shift算法權(quán)值圖像的矩特征和Bhattacharyya系數(shù),研究了一種尺度和旋轉(zhuǎn)變化自適應(yīng)的目標(biāo)跟蹤算法。利用權(quán)值圖像的0階矩和Bhattacharyya相關(guān)系數(shù),推導(dǎo)出了一種有效的目標(biāo)真實面積估計方案。并通過結(jié)合估計出的目標(biāo)面積校正可表達目標(biāo)窗口內(nèi)圖像特征的協(xié)方差矩陣,從而計算出目標(biāo)的真實主軸長度和方向,實現(xiàn)跟蹤窗的自適應(yīng)變化。該方法解決了經(jīng)典Mean Shift算法跟蹤窗不能適應(yīng)目標(biāo)發(fā)生尺度和旋轉(zhuǎn)變化的問題,具有很高的實際應(yīng)用價值,并且該算法的計算復(fù)雜度和單幀平均運行時間與經(jīng)典的Mean Shift算法相比并沒有大幅增加,能夠滿足圖像制導(dǎo)目標(biāo)跟蹤系統(tǒng)對精度和實時性的要求。

      (References)

      [1] Peihua Li.An adaptive binning color model for mean shift tracking[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2008,18(9):1293-1299.

      [2] Heechul H,Kwanghoon S.Automatic illumination and color compensation using mean shift and sigma filter[J].IEEE Transactions on Consumer Electronics,2009,55(3):978-986.

      [3] Li Z,Tang Q L,Sang N.Improved mean shift algorithm for occlusion pedestrian tracking[J].Electronics Letters,2008,44(10): 622-623.

      [4] Comaniciu D,Ramesh V,Meer P.Real-time tracking of non-rigid objects using mean shift[C]∥2000 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.South Carolina:IEEE,2000:142-149.

      [5] Comaniciu D,Meer P.Mean shift:a robust approach toward feature space analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):603-619.

      [6] Bradski G R.Computer vision face tracking for use in a perceptual user interface[J].Intel Technology Journal,1998,2(2).1-15.

      [7] Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking[J]. IEEE transactions on Pattern Analysis and Machine Intelligence. 2003,25(4):564-575.

      [8] Zivkovic Z,Krose B.An EM-like algorithm for color-histogrambased object tracking[C]//2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE,2004:798-803.

      [9] Hu J,Juan C,Wang J.A spatial-color mean-shift object tracking algorithm with scale and orientation estimation[J].Pattern Recognition Letters,2008,29(8):2165-2173.

      [10] 康一梅,謝晚冬,胡江,等.目標(biāo)尺度自適應(yīng)的Mean-Shift跟蹤算法[J].兵工學(xué)報,2011,32(2):210-216.

      KANG Yi-mei,XIE Wan-dong,HU Jiang,et al.Target scale adaptive Mean-Shift tracking algorithm[J].Acta Armamentarii, 2011,32(2):210-216.(in Chinese)

      [11] 冉歡歡,黃自立.基于距離信息的Mean-Shift跟蹤算法[J].兵工學(xué)報,2013,34(1):82-86.

      RAN Huan-huan,HUANG Zi-li.Mean-Shift tracking algorithm based on distance information[J].Acta Armamentarii,2013, 34(1):82-86.(in Chinese)

      [12] 王耀明.圖像的矩函數(shù)—原理、算法及應(yīng)用[M].上海:華東理工大學(xué)出版社,2002:6-8.

      WANG Yao-ming.Image moment functions—theory,algorithm and applications[M].Shanghai:East China University of Science and Technology Press,2002:6-8.(in Chinese)

      Target Tracking Algorithm of Strapdown Homing System Based on Adaptive Tracking Window

      GUO Xiao-ran1,CUI Shao-hui1,CAO Huan2,YANG Suo-chang1,FANG Dan1
      (1.Department of Missile Engineering,Ordnance Engineering College,Shijiazhuang 050003,Hebei,China; 2.Beijing Aerospace Jiacheng Precision Technology Development Co.,Ltd,Beijing 102600,China)

      In strapdown imaging homing guidance system,the change of the distance between missile and target and the change of imaging visual angle may cause the rotation and scaling changes of image.The classical mean shift tracking algorithms can not robustly track a target which is under rotation and scaling. A scaling and rotation changing adaptive mean shift target tracking algorithm is proposed.The selected elliptic tracking region model and candidate tracking region model are weighted.Meanwhile,the moment characteristic and Bhattacharyya coefficient of weighted image are used to precisely estimate the actual area of target.Then a covariance matrix which can express the characteristic of image in tracking window is constructed using the estimated area and the second order center moment of weighted image.The relationship between the ellipse area and the eigenvalues of covariance matrix is established by singular value de-composition,the length and orientation of principal axis of ellipse are figured out,and the adaptive change of tracking window is realized.Test results indicate that this algorithm retains the high accuracy and real time of the classical mean shift algorithm,and at the same time,extends the adaptive ability of mean shift algorithm for the changes in scale and rotation of target.

      ordnance science and technology;image guidance;strap-down;mean shift algorithms;moment feature;adaptation

      TP391

      A

      1000-1093(2014)10-1604-08

      10.3969/j.issn.1000-1093.2014.10.013

      2013-12-25

      軍內(nèi)科技創(chuàng)新項目(裝司字[2012]665)

      郭曉冉(1985—),男,博士研究生。E-mail:vip850522@163.com;崔少輝(1965—),男,教授,博士生導(dǎo)師。E-mail:cuish@163.com

      猜你喜歡
      協(xié)方差權(quán)值尺度
      一種融合時間權(quán)值和用戶行為序列的電影推薦模型
      CONTENTS
      財產(chǎn)的五大尺度和五重應(yīng)對
      基于權(quán)值動量的RBM加速學(xué)習(xí)算法研究
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      不確定系統(tǒng)改進的魯棒協(xié)方差交叉融合穩(wěn)態(tài)Kalman預(yù)報器
      一種基于廣義協(xié)方差矩陣的欠定盲辨識方法
      9
      縱向數(shù)據(jù)分析中使用滑動平均Cholesky分解對回歸均值和協(xié)方差矩陣進行同時半?yún)?shù)建模
      關(guān)于協(xié)方差的U統(tǒng)計量檢驗法
      南澳县| 南汇区| 六枝特区| 廉江市| 鸡东县| 海南省| 曲靖市| 岑巩县| 昔阳县| 修水县| 山东省| 柯坪县| 札达县| 龙州县| 灵丘县| 佳木斯市| 宜阳县| 长寿区| 镇远县| 永春县| 民县| 阳泉市| 喀什市| 绩溪县| 和田市| 特克斯县| 丰宁| 金湖县| 敦煌市| 左权县| 西峡县| 高青县| 堆龙德庆县| 布尔津县| 和田县| 宁德市| 寻甸| 德庆县| 迁安市| 女性| 灵石县|