• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      一種紅外和可見(jiàn)光雙通道視頻目標(biāo)跟蹤方法

      2012-09-19 11:30:14趙高鵬薄煜明尹明鋒
      電子與信息學(xué)報(bào) 2012年3期
      關(guān)鍵詞:輪廓均值尺度

      趙高鵬 薄煜明 尹明鋒

      (南京理工大學(xué)自動(dòng)化學(xué)院 南京 210094)

      1 引言

      視頻目標(biāo)跟蹤的任務(wù)是在連續(xù)兩幀中找到同一目標(biāo)在空間位置的對(duì)應(yīng)關(guān)系,在智能視頻監(jiān)控、軍事偵察、目標(biāo)識(shí)別等領(lǐng)域有著廣泛的應(yīng)用。在室外復(fù)雜環(huán)境下,受光照變化、陰影、地面背景物體干擾、圖像噪聲等多種因素的影響,單一視頻傳感器由于成像原理的限制,難以有效處理場(chǎng)景環(huán)境變化影響,許多研究人員利用紅外和可見(jiàn)光雙傳感器提高系統(tǒng)的目標(biāo)檢測(cè)跟蹤性能[1-6]。

      均值漂移(Mean Shift,MS)跟蹤算法[7]將跟蹤問(wèn)題當(dāng)作最優(yōu)化問(wèn)題來(lái)處理,采用核函數(shù)直方圖進(jìn)行建模和匹配,通過(guò)MS算法迭代實(shí)現(xiàn),具有特征穩(wěn)定、實(shí)時(shí)性好、魯棒性強(qiáng)等優(yōu)勢(shì),自從其提出后就成為視頻跟蹤領(lǐng)域的重要方法。然而該算法也存在不足之處,例如,目標(biāo)尺度估計(jì)困難[8,9],尺度定位的準(zhǔn)確性一定程度上會(huì)影響空間定位的準(zhǔn)確性;大多改進(jìn)算法單一的圖像特征,在目標(biāo)外觀變化較大或非目標(biāo)干擾時(shí),容易導(dǎo)致跟蹤失敗,采用多個(gè)特征能夠改善跟蹤性能,但多特征跟蹤算法[10,11]存在特征加權(quán)權(quán)值計(jì)算困難、計(jì)算量大的缺點(diǎn)。視頻多目標(biāo)跟蹤中遮擋問(wèn)題是視頻跟蹤的難點(diǎn)之一,本文討論多目標(biāo)之間的相互遮擋問(wèn)題,其關(guān)鍵在于如何判斷多目標(biāo)合并和分離,以及遮擋時(shí)如何定位目標(biāo)。

      在已有研究的基礎(chǔ)上,本文利用紅外和可見(jiàn)光雙通道視頻進(jìn)行目標(biāo)跟蹤,利用目標(biāo)的顏色特征和輪廓特征,通過(guò)將均值漂移算法與水平集曲線演化算法有效結(jié)合,實(shí)現(xiàn)了室外復(fù)雜場(chǎng)景下的視頻目標(biāo)穩(wěn)定跟蹤。采用實(shí)際場(chǎng)景下的視頻實(shí)驗(yàn)表明了本文方法的有效性。

      2 目標(biāo)跟蹤方法

      本文目標(biāo)跟蹤方法使用顏色特征和輪廓特征,總體框架如圖1所示,包括5個(gè)部分:(1)基于顏色特征的均值漂移迭代定位;(2)基于水平集的目標(biāo)輪廓提取;(3)目標(biāo)合并與分離判斷;(4)遮擋處理;(5)目標(biāo)尺度和模型更新。

      單目標(biāo)跟蹤時(shí),算法不進(jìn)行第(3)和第(4)部分的處理;多目標(biāo)跟蹤時(shí),則每一幀都執(zhí)行第(3)部分判斷,如果發(fā)生目標(biāo)合并(遮擋),則執(zhí)行第(4)部分處理,否則,算法相當(dāng)于進(jìn)行多個(gè)單目標(biāo)跟蹤。

      2.1 均值漂移定位分析

      均值漂移算法采用核函數(shù)加權(quán)的特征直方圖描述目標(biāo),在每幀中對(duì)目標(biāo)模板模型和候選目標(biāo)模型進(jìn)行相似性度量,并沿著核直方圖相似性的梯度方向迭代搜索目標(biāo)位置。

      式中m表示特征直方圖的量化級(jí)數(shù);qu,pu分別表示目標(biāo)模板和候選目標(biāo)核直方圖各級(jí)概率密度;C,Ch為歸一化系數(shù),使得n,nh分別表示目標(biāo)模板和候選目標(biāo)的像素個(gè)數(shù);k為核函數(shù),一般取為Epanechnikov核函數(shù);δ為Kronecker delta函數(shù);b為像素在直方圖中的索引值;為目標(biāo)模板區(qū)域像素的歸一化位置,xi為候選目標(biāo)像素當(dāng)前幀的位置,h為目標(biāo)尺度,即為核窗寬,通常取目標(biāo)跟蹤窗寬的一半。

      在獲得目標(biāo)模板和候選目標(biāo)的核直方圖模型后,MS采用Bhattacharyya系數(shù)度量?jī)蓚€(gè)模型之間的相似性,即計(jì)算兩個(gè)離散概率分布q和p(y)之間的相似性,如式(3):

      目標(biāo)定位就是在當(dāng)前幀中,根據(jù)目標(biāo)的初始位置y0尋找使相似性系數(shù)ρ取最大的位置y1。將ρ(y)在y0處泰勒展開(kāi),求其最大值,可得位置y1的計(jì)算如式(4):

      通過(guò)反復(fù)迭代式(4),使候選目標(biāo)不斷沿著相似性度量的梯度方向移動(dòng)到新的位置y1,直到相似性系數(shù)ρ達(dá)到最大,從而得到目標(biāo)最優(yōu)位置y1。

      由于顏色特征對(duì)平移、尺度變化和部分遮擋具有較好的魯棒性,為了對(duì)光照變化不敏感,本文方法將可見(jiàn)光圖像轉(zhuǎn)化到HSV顏色空間,計(jì)算目標(biāo)的HSV顏色特征直方圖,直方圖量化級(jí)數(shù)為16×4×4,然后進(jìn)行均值漂移迭代定位,根據(jù)目標(biāo)的初始位置y0計(jì)算可得到當(dāng)前幀的目標(biāo)最優(yōu)位置y1。

      2.2 基于水平集的輪廓提取

      在均值漂移迭代定位的基礎(chǔ)上,本文方法進(jìn)一步提取目標(biāo)輪廓,估計(jì)出目標(biāo)尺度和精確位置。由于紅外圖像不受光照和陰影變化的影響,因此在紅外圖像中提取目標(biāo)輪廓?;谒郊妮喞崛》椒╗12,13]的基本思想是將輪廓隱含地表達(dá)為2維曲面函數(shù)φ的零水平集,通過(guò)建立關(guān)于輪廓的能量函數(shù),采用變分方法最小化該能量函數(shù),最終得到輪廓的進(jìn)化方程。文獻(xiàn)[13]提出了一種新的水平集曲線演化方法,優(yōu)點(diǎn)在于對(duì)輪廓的初始化位置不敏感,不需要重新初始化,計(jì)算速度快,定位精度高。

      能量函數(shù)定義為

      式中Ω為圖像定義域;右側(cè)第1項(xiàng)為規(guī)則化距離項(xiàng),第2項(xiàng)表示零水平集曲線的長(zhǎng)度,第3項(xiàng)表示零水平集曲線內(nèi)部區(qū)域的面積,μ,λ,α為各項(xiàng)的加權(quán)系數(shù);p為距離規(guī)則化函數(shù);δ為Dirac delta函數(shù);H為Heaviside函數(shù);為邊緣指示函數(shù)。

      通過(guò)變分法,從而推出水平集函數(shù)演化方程為

      圖1 本文視頻目標(biāo)跟蹤方法框圖

      本文基于水平集的輪廓提取采用式(6)給出的模型,通過(guò)給定輪廓初始位置φ0,進(jìn)行曲線演化,從而得到目標(biāo)的最終輪廓,根據(jù)目標(biāo)輪廓可計(jì)算得到目標(biāo)位置、寬和高,即目標(biāo)尺度。

      2.3 本文跟蹤方法

      如圖1所述,跟蹤單個(gè)目標(biāo)時(shí),本文方法包括第(1),第(2),第(3)3個(gè)部分,第(1),第(2)部分分別如2.1節(jié)和2.2節(jié)所述。為了保持長(zhǎng)時(shí)間跟蹤的穩(wěn)定性,必須對(duì)目標(biāo)尺度和模型進(jìn)行更新,以適應(yīng)目標(biāo)自身變化和背景環(huán)境的變化。本文尺度更新方法利用水平集輪廓提取的結(jié)果來(lái)估計(jì)目標(biāo)尺度,如式(7),尺度更新結(jié)果用于下一幀的均值漂移定位。

      式中h表示可見(jiàn)光當(dāng)前幀用于均值漂移定位的目標(biāo)尺度;hcontour表示紅外當(dāng)前幀根據(jù)水平集輪廓提取結(jié)果得到的目標(biāo)尺度;hnew表示尺度更新結(jié)果,用于下一幀跟蹤;α為尺度更新速度因子,表示輪廓提取結(jié)果權(quán)重,其取值范圍為α∈[0,1]。

      經(jīng)典均值漂移跟蹤算法是基于目標(biāo)模型基本不發(fā)生改變這一假設(shè)的,跟蹤過(guò)程中一直采用初始目標(biāo)模型;大多數(shù)改進(jìn)方法都采用整體模型更新策略,即用當(dāng)前幀跟蹤結(jié)果和目標(biāo)模型進(jìn)行加權(quán)折中,從而獲取下一幀的目標(biāo)模型。當(dāng)目標(biāo)跟蹤結(jié)果定位不準(zhǔn)確時(shí),這種更新方法容易使目標(biāo)模型偏離真實(shí)目標(biāo),導(dǎo)致跟蹤進(jìn)一步惡化。文獻(xiàn)[14]提出了一種選擇性子模型更新策略,通過(guò)計(jì)算目標(biāo)模型每個(gè)分量的匹配貢獻(xiàn)度MCDu,根據(jù)MCDu值的大小對(duì)目標(biāo)模型進(jìn)行有選擇的更新,如式(8),式(9)。

      本文目標(biāo)模型更新方法為:在得到可見(jiàn)光圖像均值漂移迭代定位,不采用當(dāng)前幀該位置處的目標(biāo)模型進(jìn)行更新,而是在紅外圖像中進(jìn)行輪廓提取后,根據(jù)輪廓定位結(jié)果和尺度更新結(jié)果,在可見(jiàn)光圖像中計(jì)算該定位位置處的目標(biāo)模型,表示為p,采用式(8),式(9)進(jìn)行選擇性目標(biāo)模型更新。

      根據(jù)前文所述,本文方法單目標(biāo)跟蹤步驟可以概括為

      步驟1 目標(biāo)初始化,給定初始目標(biāo)位置y0和尺度h,根據(jù)式(1)在可見(jiàn)光圖像計(jì)算目標(biāo)模板模型q。

      步驟2 設(shè)當(dāng)前幀為第t幀,按式(2)-式(4)進(jìn)行均值漂移迭代,得到可見(jiàn)光圖像第t幀的目標(biāo)最優(yōu)位置y1。

      步驟3 在紅外圖像第t幀中,根據(jù)y1和尺度h計(jì)算輪廓初始位置φ0,按式(5),式(6)輪廓模型進(jìn)行水平集曲線演化,提取得到目標(biāo)輪廓φ;根據(jù)輪廓φ計(jì)算目標(biāo)精確位置y2和尺度hcontour。

      步驟4 根據(jù)式(7)更新目標(biāo)尺度,得到尺度更新結(jié)果hnew;在可見(jiàn)光圖像第t幀位置y2處,計(jì)算目標(biāo)模型p,按式(8),式(9)更新目標(biāo)模板模型q。

      步驟5 更新目標(biāo)位置和尺度參數(shù),令y0=y2,h=hnew。

      步驟6 令t=t+1,返回步驟2進(jìn)行下一幀跟蹤。

      如圖1所述,跟蹤多個(gè)目標(biāo)時(shí),本文方法每一幀都執(zhí)行第(3)部分目標(biāo)合并與分離判斷,如果發(fā)生目標(biāo)合并(遮擋),則執(zhí)行第(4)部分處理,否則,算法相當(dāng)于進(jìn)行多個(gè)單目標(biāo)跟蹤。多個(gè)目標(biāo)運(yùn)動(dòng)過(guò)程中相互遮擋過(guò)程可以描述為:多目標(biāo)接近,多目標(biāo)合并,合并目標(biāo)運(yùn)動(dòng),多目標(biāo)分離。

      本文方法根據(jù)目標(biāo)間距離和目標(biāo)尺度來(lái)判斷多目標(biāo)是否發(fā)生目標(biāo)合并,根據(jù)水平集輪廓提取的結(jié)果判斷多目標(biāo)是否分離,以兩個(gè)運(yùn)動(dòng)目標(biāo)相互遮擋為例進(jìn)行說(shuō)明,假定在遮擋過(guò)程中被遮擋目標(biāo)的顏色特征保持不變。

      令y1,k表示第k個(gè)目標(biāo)在進(jìn)行均值漂移迭代定位后得到的位置,hk表示第k個(gè)目標(biāo)當(dāng)前幀的尺度,k取值為1或2。根據(jù)式(10)在行和列兩個(gè)方向進(jìn)行判斷,若兩個(gè)方向上式(10)同時(shí)成立,則認(rèn)為發(fā)生目標(biāo)合并(遮擋)。

      此時(shí),根據(jù)顏色特征的匹配程度將兩個(gè)目標(biāo)分為前景目標(biāo)和被遮擋目標(biāo),根據(jù)式(3)計(jì)算顏色特征相似度系數(shù)表示匹配程度,取相似度系數(shù)值較大者為前景目標(biāo),相似度系數(shù)值較小者為被遮擋目標(biāo),圖1中第(4)部分目標(biāo)遮擋處理對(duì)這兩類目標(biāo)分別進(jìn)行處理。

      對(duì)于前景目標(biāo),當(dāng)前幀均值漂移迭代定位結(jié)果認(rèn)為是目標(biāo)最優(yōu)位置,用于下一幀目標(biāo)跟蹤的起始位置;由于發(fā)生目標(biāo)合并,根據(jù)兩個(gè)目標(biāo)均值漂移迭代定位的位置初始化輪廓初始位置φ0,進(jìn)行水平集曲線演化可得到合并目標(biāo)的輪廓和位置,因此,對(duì)于被遮擋目標(biāo),根據(jù)輪廓提取結(jié)果和前景目標(biāo)位置估計(jì)出被遮擋目標(biāo)位置,如式(11);假定在目標(biāo)遮擋過(guò)程中,兩個(gè)目標(biāo)尺度不發(fā)生改變,不更新目標(biāo)尺度參數(shù)。

      式中y2表示輪廓提取得到的合并目標(biāo)位置;y1,1表示前景目標(biāo)位置,y1,2表示被遮擋目標(biāo)位置。

      由于水平集曲線模型能夠收斂到任意輪廓拓?fù)浣Y(jié)構(gòu),當(dāng)目標(biāo)合并時(shí),輪廓提取結(jié)果數(shù)量為1,當(dāng)目標(biāo)分裂時(shí),輪廓曲線演化結(jié)果收斂于兩個(gè)獨(dú)立目標(biāo),因此,可根據(jù)水平集輪廓提取結(jié)果判斷目標(biāo)是否分離。多目標(biāo)分離后,根據(jù)顏色特征計(jì)算相似度系數(shù)完成目標(biāo)關(guān)聯(lián),此后,算法對(duì)兩個(gè)目標(biāo)跟蹤相當(dāng)于進(jìn)行兩個(gè)單目標(biāo)跟蹤。

      根據(jù)前文所述,本文方法多目標(biāo)跟蹤步驟可以概括為:

      步驟1 多個(gè)目標(biāo)初始化,給定初始目標(biāo)位置y0,k和尺度hk,根據(jù)式(1)在可見(jiàn)光圖像分別計(jì)算每個(gè)目標(biāo)的目標(biāo)模板模型q。

      步驟2 設(shè)當(dāng)前幀為第t幀,對(duì)每個(gè)目標(biāo)按式(2)-式(4)進(jìn)行均值漂移迭代,得到可見(jiàn)光圖像第t幀每個(gè)目標(biāo)最優(yōu)位置y1,k。

      步驟3 按式(10)進(jìn)行目標(biāo)合并判斷,如果發(fā)生目標(biāo)合并,執(zhí)行步驟4,步驟5;否則,跳轉(zhuǎn)到步驟6繼續(xù)執(zhí)行。

      步驟4 按式(3)計(jì)算顏色特征匹配程度,區(qū)分前景目標(biāo)和被遮擋目標(biāo);在紅外圖像第t幀中按式(5),式(6)輪廓模型進(jìn)行水平集曲線演化,根據(jù)輪廓提取結(jié)果φ計(jì)算合并目標(biāo)位置y2;按式(11)計(jì)算被遮擋目標(biāo)位置。

      步驟5 根據(jù)輪廓提取結(jié)果φ判斷目標(biāo)是否分離,如果目標(biāo)合并沒(méi)有分離,更新目標(biāo)位置參數(shù),令y0,k=y1,k,跳轉(zhuǎn)到步驟9;如果目標(biāo)分離,根據(jù)輪廓φk計(jì)算每個(gè)目標(biāo)的精確位置y2,k和尺度hcontour,k,根據(jù)顏色特征計(jì)算相似度系數(shù)完成目標(biāo)關(guān)聯(lián),跳轉(zhuǎn)到步驟7。

      步驟6 在紅外圖像第t幀中,對(duì)每個(gè)目標(biāo)根據(jù)y1,k和尺度hk計(jì)算輪廓初始位置φ0,k,按式(5),式(6)輪廓模型進(jìn)行水平集曲線演化,提取得到目標(biāo)輪廓φk;根據(jù)輪廓φk計(jì)算目標(biāo)精確位置y2,k和尺度hcontour,k。

      步驟7 根據(jù)式(7)更新目標(biāo)尺度,得到尺度更新結(jié)果hnew,k;在可見(jiàn)光圖像第t幀位置y2,k處,計(jì)算目標(biāo)模型pk,按式(8),式(9)更新每個(gè)目標(biāo)的目標(biāo)模板模型q。

      步驟8 更新每個(gè)目標(biāo)的位置和尺度參數(shù),令y0,k=y2,k,hk=hnew,k。

      步驟9 令t=t+1,返回步驟2進(jìn)行下一幀跟蹤。

      3 實(shí)驗(yàn)結(jié)果與分析

      為了驗(yàn)證本文方法的有效性,本文在 Matlab 2009環(huán)境下進(jìn)行了仿真。硬件采用 Intel Core 2 CPU 2.9 GHz處理器,內(nèi)存 2 G。測(cè)試視頻采用OTCBVS數(shù)據(jù)庫(kù)中的可見(jiàn)光和紅外視頻。具體參數(shù)為:紅外傳感器為Raytheon PalmIR 250D,可見(jiàn)光傳感器為Sony TRV87 Handycam;紅外視頻為8位灰度表示,大小為 320像素×240像素;可見(jiàn)光視頻為24位彩色表示,大小為320像素×240像素。

      實(shí)驗(yàn)1 對(duì)單個(gè)目標(biāo)進(jìn)行跟蹤,視頻特點(diǎn)為跟蹤過(guò)程中存在光照變化,陰影。實(shí)驗(yàn)中對(duì)比了文獻(xiàn)[14]方法,該方法采用可見(jiàn)光視頻,目標(biāo)特征采用HSV顏色特征,目標(biāo)尺度采用±10%縮放。圖2給出了跟蹤結(jié)果的部分視頻幀,本文方法在可見(jiàn)光和紅外視頻幀用外接矩形框同時(shí)標(biāo)記目標(biāo)跟蹤結(jié)果,并在紅外視頻幀中用閉合曲線標(biāo)出了輪廓提取結(jié)果。

      由圖2可見(jiàn):跟蹤初始時(shí)兩種方法都能正確跟蹤目標(biāo);當(dāng)發(fā)生光照變化時(shí),由于HSV顏色特征對(duì)光照有一定的魯棒性,兩種方法仍能跟蹤到目標(biāo);隨著跟蹤進(jìn)行,目標(biāo)進(jìn)入陰影區(qū)域,文獻(xiàn)[14]方法發(fā)生較大偏差,跟蹤丟失(170幀),而本文方法始終能夠穩(wěn)定地跟蹤目標(biāo)。

      圖3給出了兩種方法跟蹤結(jié)果目標(biāo)中心點(diǎn)坐標(biāo)與目標(biāo)真實(shí)中心點(diǎn)坐標(biāo)的距離誤差,真實(shí)值采用手工逐幀標(biāo)定。由圖3可見(jiàn):在整個(gè)跟蹤過(guò)程中,本文方法的距離誤差相對(duì)較小,行和列的坐標(biāo)距離誤差最大不超過(guò)5個(gè)像素。此外,本文方法對(duì)該視頻的平均處理速度達(dá)到10幀/s。

      實(shí)驗(yàn)2 對(duì)多個(gè)目標(biāo)進(jìn)行跟蹤。視頻特點(diǎn)為跟蹤過(guò)程中發(fā)生兩個(gè)目標(biāo)相互遮擋。圖4給出了本文方法跟蹤結(jié)果的部分視頻幀,在可見(jiàn)光和紅外視頻幀用外接矩形框同時(shí)標(biāo)記目標(biāo)定位結(jié)果,并在紅外視頻幀中用閉合曲線標(biāo)出了輪廓提取結(jié)果。圖5給出了目標(biāo)跟蹤結(jié)果與目標(biāo)真實(shí)位置兩點(diǎn)間的距離誤差曲線圖,真實(shí)值采用手工逐幀標(biāo)定。

      圖4視頻中兩個(gè)目標(biāo)在運(yùn)動(dòng)過(guò)程中發(fā)生相互遮擋,在發(fā)生遮擋前(15幀)和兩個(gè)目標(biāo)分離后(72幀),本文方法相當(dāng)于對(duì)兩個(gè)目標(biāo)分別進(jìn)行單目標(biāo)跟蹤,在遮擋過(guò)程中(50幀,57幀),本文方法綜合利用顏色和輪廓特征能夠準(zhǔn)確定位目標(biāo),由于在發(fā)生遮擋時(shí)將合并目標(biāo)作為整體進(jìn)行輪廓提取,因而對(duì)目標(biāo)的遮擋程度不敏感(57幀)。由圖5可見(jiàn),在第45幀~第70幀中,目標(biāo)發(fā)生互相遮擋導(dǎo)致某些幀的跟蹤誤差相對(duì)較大,但仍能夠跟蹤到目標(biāo)。

      圖2 跟蹤結(jié)果部分視頻幀(1~3行分別為文獻(xiàn)[14]方法,本文方法可見(jiàn)光視頻幀,本文方法紅外視頻幀;1~4列分別為第40,100,170,198幀)

      圖3 跟蹤結(jié)果中心點(diǎn)位置誤差曲線比較

      圖4 跟蹤結(jié)果部分視頻幀(1~2行分別為本文方法可見(jiàn)光視頻幀,本文方法紅外視頻幀;1~4列分別為第15,50,57,72幀)

      實(shí)驗(yàn)1中本文方法利用紅外和可見(jiàn)光圖像的互補(bǔ)特性能夠有效處理復(fù)雜場(chǎng)景下光照、陰影等變化,提高跟蹤的穩(wěn)定性;實(shí)驗(yàn)2中本文方法對(duì)兩個(gè)目標(biāo)跟蹤中的互遮擋現(xiàn)象能夠有效處理,準(zhǔn)確定位目標(biāo)。

      圖5 跟蹤結(jié)果距離誤差曲線

      4 結(jié)束語(yǔ)

      本文提出了一種紅外和可見(jiàn)光圖像目標(biāo)跟蹤方法,利用雙感器的互補(bǔ)性,提高室外場(chǎng)景下目標(biāo)跟蹤的穩(wěn)定性。采用可見(jiàn)光圖像顏色和紅外圖像輪廓特征,將均值漂移算法與水平集曲線演化結(jié)合實(shí)現(xiàn)目標(biāo)定位,克服了光照和陰影的影響;通過(guò)判斷目標(biāo)合并與分離,解決了多目標(biāo)互相遮擋時(shí)的定位問(wèn)題。采用紅外和可見(jiàn)光雙傳感器視頻進(jìn)行實(shí)驗(yàn),結(jié)果表明本文方法的有效性。需要說(shuō)明的是,本文方法要求紅外和可見(jiàn)光圖像序列在跟蹤處理前已經(jīng)過(guò)圖像配準(zhǔn),配準(zhǔn)屬于另一個(gè)研究方向,在此不做討論,本文選用的測(cè)試視頻已經(jīng)過(guò)配準(zhǔn)。在進(jìn)一步研究中,考慮引入目標(biāo)運(yùn)動(dòng)狀態(tài),對(duì)發(fā)生遮擋的目標(biāo)數(shù)量大于2的情況,以及目標(biāo)發(fā)生不規(guī)則運(yùn)動(dòng)和目標(biāo)與背景物體發(fā)生遮擋等情況進(jìn)行研究。

      [1]Bondzulic B and Petrovic V.Multisensor background extraction and updating for moving target detection[C].Proceedings of 2008 11th International Conference on Information Fusion,Cologne,Germany,2008:1-8.

      [2]Han J and Bhanu B.Fusion of color and infrared video for moving human detection[J].Pattern Recognition,2007,40(6):1771-1784.

      [3]Davis J W and Sharma V.Background-subtraction using contour-based fusion of thermal and visible imagery[J].Computer Vision and Image Understanding,2007,106(2,3):162-182.

      [4]Leykin A and Ran Y.Thermal-visible video fusion for moving target tracking and pedestrian classification[C].Object Tracking and Classification in and Beyond the Visible Spectrum Workshop at the International Conference on Computer Vision and Pattern Recognition,Minneapolis,USA,2007:1-8.

      [5]Conaire C and Connor N.Thermo-visual feature fusion for object tracking using multiple spatiogram trackers[J].Machine Vision and Applications,2008,19(5,6):483-494.

      [6]程詠梅,王進(jìn)行,魏坤,等.基于加權(quán)mean-shift可見(jiàn)光/紅外雙通道目標(biāo)跟蹤[J].光子學(xué)報(bào),2010,39(2):357-363.Cheng Yong-mei,Wang Jin-xing,Wei Kun,et al..Visible/infrared dual-channel target tracking based on weighted mean-shift[J].Acta Photonica Sinica,2010,39(2):357-363.

      [7]Comaniciu D,Ramesh V,and Meer P.Kernel-based object tracking[J].IEEE Transactions on Patten Analysis and Machine Intelligence,2003,25(5):564-575.

      [8]左軍毅,梁彥,趙春暉,等.Mean Shift跟蹤算法中尺度自適應(yīng)策略的研究[J].中國(guó)圖象圖形學(xué)報(bào),2008,13(9):1750-1757.Zuo Jun-yi,Liang Yan,Zhao Chun-hui,et al..Researches on scale adaptation strategy in mean shift tracking algorithm[J].Journal of Image and Graphics,2008,13(9):1750-1757.

      [9]錢(qián)惠敏,茅耀斌,王執(zhí)銓.自動(dòng)選擇跟蹤窗尺度的Mean-Shift算法[J].中國(guó)圖象圖形學(xué)報(bào),2007,12(2):245-249.Qian Hui-min,Mao Yao-bin,and Wang Zhi-quan.Mean shift tracking with self-updating tracking window[J].Journal of Image and Graphics,2007,12(2):245-249.

      [10]李遠(yuǎn)征,盧朝陽(yáng),高全學(xué),等.基于多特征融合的均值遷移粒子濾波跟蹤算法[J].電子與信息學(xué)報(bào),2010,32(2):411-415.Li Yuan-zheng,Lu Zhao-yang,Gao Quan-xue,et al..Particle filter and mean shift tracking method based on multi-feature fusion[J].Journal of Electronics&Information Technology,2010,32(2):411-415.

      [11]Han Z J,Ye Q X,and Jiao J B.Combined feature evaluation for adaptive visual object tracking[J].Computer Vision and Image Understanding,2011,115(1):69-80.

      [12]Osher S and Shthian J.Fronts propagating with curvaturedependent speed:algorithms based on Hamilton-Jacobi formulations[J].Journal of Computer and Physics,1988,79(1):12-49.

      [13]Li C M and Xu C Y.Distance regularized level set evolution and its application to image segmentation[J].IEEE Transactions on Image Processing,2010,19(12):3243-3254.

      [14]沈志熙,楊欣,黃席樾.均值漂移算法中的目標(biāo)模型更新方法研究[J].自動(dòng)化學(xué)報(bào),2009,35(5):478-483.Shen Zhi-xi,Yang Xin,and Huang Xi-yue.Study on target model update method in mean shift algorithm[J].Acta Automatica Sinica,2009,35(5):478-483.

      猜你喜歡
      輪廓均值尺度
      OPENCV輪廓識(shí)別研究與實(shí)踐
      財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
      基于實(shí)時(shí)輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      均值不等式失效時(shí)的解決方法
      均值與方差在生活中的應(yīng)用
      在線學(xué)習(xí)機(jī)制下的Snake輪廓跟蹤
      關(guān)于均值有界變差函數(shù)的重要不等式
      對(duì)偶均值積分的Marcus-Lopes不等式
      9
      成武县| 宜宾县| 琼结县| 交口县| 那坡县| 敦化市| 恩平市| 南澳县| 遂昌县| 本溪市| 万安县| 甘孜县| 高淳县| 怀柔区| 隆德县| 巴塘县| 漠河县| 互助| 都江堰市| 永定县| 托克逊县| 当雄县| 成都市| 潞西市| 东乡县| 安阳市| 仙桃市| 梧州市| 务川| 曲麻莱县| 涿鹿县| 井陉县| 云梦县| 全椒县| 玉树县| 且末县| 大化| 海晏县| 天镇县| 莎车县| 都安|