趙高鵬 薄煜明 尹明鋒
(南京理工大學(xué)自動(dòng)化學(xué)院 南京 210094)
視頻目標(biāo)跟蹤的任務(wù)是在連續(xù)兩幀中找到同一目標(biāo)在空間位置的對(duì)應(yīng)關(guān)系,在智能視頻監(jiān)控、軍事偵察、目標(biāo)識(shí)別等領(lǐng)域有著廣泛的應(yīng)用。在室外復(fù)雜環(huán)境下,受光照變化、陰影、地面背景物體干擾、圖像噪聲等多種因素的影響,單一視頻傳感器由于成像原理的限制,難以有效處理場(chǎng)景環(huán)境變化影響,許多研究人員利用紅外和可見(jiàn)光雙傳感器提高系統(tǒng)的目標(biāo)檢測(cè)跟蹤性能[1-6]。
均值漂移(Mean Shift,MS)跟蹤算法[7]將跟蹤問(wèn)題當(dāng)作最優(yōu)化問(wèn)題來(lái)處理,采用核函數(shù)直方圖進(jìn)行建模和匹配,通過(guò)MS算法迭代實(shí)現(xiàn),具有特征穩(wěn)定、實(shí)時(shí)性好、魯棒性強(qiáng)等優(yōu)勢(shì),自從其提出后就成為視頻跟蹤領(lǐng)域的重要方法。然而該算法也存在不足之處,例如,目標(biāo)尺度估計(jì)困難[8,9],尺度定位的準(zhǔn)確性一定程度上會(huì)影響空間定位的準(zhǔn)確性;大多改進(jìn)算法單一的圖像特征,在目標(biāo)外觀變化較大或非目標(biāo)干擾時(shí),容易導(dǎo)致跟蹤失敗,采用多個(gè)特征能夠改善跟蹤性能,但多特征跟蹤算法[10,11]存在特征加權(quán)權(quán)值計(jì)算困難、計(jì)算量大的缺點(diǎn)。視頻多目標(biāo)跟蹤中遮擋問(wèn)題是視頻跟蹤的難點(diǎn)之一,本文討論多目標(biāo)之間的相互遮擋問(wèn)題,其關(guān)鍵在于如何判斷多目標(biāo)合并和分離,以及遮擋時(shí)如何定位目標(biāo)。
在已有研究的基礎(chǔ)上,本文利用紅外和可見(jiàn)光雙通道視頻進(jìn)行目標(biāo)跟蹤,利用目標(biāo)的顏色特征和輪廓特征,通過(guò)將均值漂移算法與水平集曲線演化算法有效結(jié)合,實(shí)現(xiàn)了室外復(fù)雜場(chǎng)景下的視頻目標(biāo)穩(wěn)定跟蹤。采用實(shí)際場(chǎng)景下的視頻實(shí)驗(yàn)表明了本文方法的有效性。
本文目標(biāo)跟蹤方法使用顏色特征和輪廓特征,總體框架如圖1所示,包括5個(gè)部分:(1)基于顏色特征的均值漂移迭代定位;(2)基于水平集的目標(biāo)輪廓提取;(3)目標(biāo)合并與分離判斷;(4)遮擋處理;(5)目標(biāo)尺度和模型更新。
單目標(biāo)跟蹤時(shí),算法不進(jìn)行第(3)和第(4)部分的處理;多目標(biāo)跟蹤時(shí),則每一幀都執(zhí)行第(3)部分判斷,如果發(fā)生目標(biāo)合并(遮擋),則執(zhí)行第(4)部分處理,否則,算法相當(dāng)于進(jìn)行多個(gè)單目標(biāo)跟蹤。
均值漂移算法采用核函數(shù)加權(quán)的特征直方圖描述目標(biāo),在每幀中對(duì)目標(biāo)模板模型和候選目標(biāo)模型進(jìn)行相似性度量,并沿著核直方圖相似性的梯度方向迭代搜索目標(biāo)位置。
式中m表示特征直方圖的量化級(jí)數(shù);qu,pu分別表示目標(biāo)模板和候選目標(biāo)核直方圖各級(jí)概率密度;C,Ch為歸一化系數(shù),使得n,nh分別表示目標(biāo)模板和候選目標(biāo)的像素個(gè)數(shù);k為核函數(shù),一般取為Epanechnikov核函數(shù);δ為Kronecker delta函數(shù);b為像素在直方圖中的索引值;為目標(biāo)模板區(qū)域像素的歸一化位置,xi為候選目標(biāo)像素當(dāng)前幀的位置,h為目標(biāo)尺度,即為核窗寬,通常取目標(biāo)跟蹤窗寬的一半。
在獲得目標(biāo)模板和候選目標(biāo)的核直方圖模型后,MS采用Bhattacharyya系數(shù)度量?jī)蓚€(gè)模型之間的相似性,即計(jì)算兩個(gè)離散概率分布q和p(y)之間的相似性,如式(3):
目標(biāo)定位就是在當(dāng)前幀中,根據(jù)目標(biāo)的初始位置y0尋找使相似性系數(shù)ρ取最大的位置y1。將ρ(y)在y0處泰勒展開(kāi),求其最大值,可得位置y1的計(jì)算如式(4):
通過(guò)反復(fù)迭代式(4),使候選目標(biāo)不斷沿著相似性度量的梯度方向移動(dòng)到新的位置y1,直到相似性系數(shù)ρ達(dá)到最大,從而得到目標(biāo)最優(yōu)位置y1。
由于顏色特征對(duì)平移、尺度變化和部分遮擋具有較好的魯棒性,為了對(duì)光照變化不敏感,本文方法將可見(jiàn)光圖像轉(zhuǎn)化到HSV顏色空間,計(jì)算目標(biāo)的HSV顏色特征直方圖,直方圖量化級(jí)數(shù)為16×4×4,然后進(jìn)行均值漂移迭代定位,根據(jù)目標(biāo)的初始位置y0計(jì)算可得到當(dāng)前幀的目標(biāo)最優(yōu)位置y1。
在均值漂移迭代定位的基礎(chǔ)上,本文方法進(jìn)一步提取目標(biāo)輪廓,估計(jì)出目標(biāo)尺度和精確位置。由于紅外圖像不受光照和陰影變化的影響,因此在紅外圖像中提取目標(biāo)輪廓?;谒郊妮喞崛》椒╗12,13]的基本思想是將輪廓隱含地表達(dá)為2維曲面函數(shù)φ的零水平集,通過(guò)建立關(guān)于輪廓的能量函數(shù),采用變分方法最小化該能量函數(shù),最終得到輪廓的進(jìn)化方程。文獻(xiàn)[13]提出了一種新的水平集曲線演化方法,優(yōu)點(diǎn)在于對(duì)輪廓的初始化位置不敏感,不需要重新初始化,計(jì)算速度快,定位精度高。
能量函數(shù)定義為
式中Ω為圖像定義域;右側(cè)第1項(xiàng)為規(guī)則化距離項(xiàng),第2項(xiàng)表示零水平集曲線的長(zhǎng)度,第3項(xiàng)表示零水平集曲線內(nèi)部區(qū)域的面積,μ,λ,α為各項(xiàng)的加權(quán)系數(shù);p為距離規(guī)則化函數(shù);δ為Dirac delta函數(shù);H為Heaviside函數(shù);為邊緣指示函數(shù)。
通過(guò)變分法,從而推出水平集函數(shù)演化方程為
圖1 本文視頻目標(biāo)跟蹤方法框圖
本文基于水平集的輪廓提取采用式(6)給出的模型,通過(guò)給定輪廓初始位置φ0,進(jìn)行曲線演化,從而得到目標(biāo)的最終輪廓,根據(jù)目標(biāo)輪廓可計(jì)算得到目標(biāo)位置、寬和高,即目標(biāo)尺度。
如圖1所述,跟蹤單個(gè)目標(biāo)時(shí),本文方法包括第(1),第(2),第(3)3個(gè)部分,第(1),第(2)部分分別如2.1節(jié)和2.2節(jié)所述。為了保持長(zhǎng)時(shí)間跟蹤的穩(wěn)定性,必須對(duì)目標(biāo)尺度和模型進(jìn)行更新,以適應(yīng)目標(biāo)自身變化和背景環(huán)境的變化。本文尺度更新方法利用水平集輪廓提取的結(jié)果來(lái)估計(jì)目標(biāo)尺度,如式(7),尺度更新結(jié)果用于下一幀的均值漂移定位。
式中h表示可見(jiàn)光當(dāng)前幀用于均值漂移定位的目標(biāo)尺度;hcontour表示紅外當(dāng)前幀根據(jù)水平集輪廓提取結(jié)果得到的目標(biāo)尺度;hnew表示尺度更新結(jié)果,用于下一幀跟蹤;α為尺度更新速度因子,表示輪廓提取結(jié)果權(quán)重,其取值范圍為α∈[0,1]。
經(jīng)典均值漂移跟蹤算法是基于目標(biāo)模型基本不發(fā)生改變這一假設(shè)的,跟蹤過(guò)程中一直采用初始目標(biāo)模型;大多數(shù)改進(jìn)方法都采用整體模型更新策略,即用當(dāng)前幀跟蹤結(jié)果和目標(biāo)模型進(jìn)行加權(quán)折中,從而獲取下一幀的目標(biāo)模型。當(dāng)目標(biāo)跟蹤結(jié)果定位不準(zhǔn)確時(shí),這種更新方法容易使目標(biāo)模型偏離真實(shí)目標(biāo),導(dǎo)致跟蹤進(jìn)一步惡化。文獻(xiàn)[14]提出了一種選擇性子模型更新策略,通過(guò)計(jì)算目標(biāo)模型每個(gè)分量的匹配貢獻(xiàn)度MCDu,根據(jù)MCDu值的大小對(duì)目標(biāo)模型進(jìn)行有選擇的更新,如式(8),式(9)。
本文目標(biāo)模型更新方法為:在得到可見(jiàn)光圖像均值漂移迭代定位,不采用當(dāng)前幀該位置處的目標(biāo)模型進(jìn)行更新,而是在紅外圖像中進(jìn)行輪廓提取后,根據(jù)輪廓定位結(jié)果和尺度更新結(jié)果,在可見(jiàn)光圖像中計(jì)算該定位位置處的目標(biāo)模型,表示為p,采用式(8),式(9)進(jìn)行選擇性目標(biāo)模型更新。
根據(jù)前文所述,本文方法單目標(biāo)跟蹤步驟可以概括為
步驟1 目標(biāo)初始化,給定初始目標(biāo)位置y0和尺度h,根據(jù)式(1)在可見(jiàn)光圖像計(jì)算目標(biāo)模板模型q。
步驟2 設(shè)當(dāng)前幀為第t幀,按式(2)-式(4)進(jìn)行均值漂移迭代,得到可見(jiàn)光圖像第t幀的目標(biāo)最優(yōu)位置y1。
步驟3 在紅外圖像第t幀中,根據(jù)y1和尺度h計(jì)算輪廓初始位置φ0,按式(5),式(6)輪廓模型進(jìn)行水平集曲線演化,提取得到目標(biāo)輪廓φ;根據(jù)輪廓φ計(jì)算目標(biāo)精確位置y2和尺度hcontour。
步驟4 根據(jù)式(7)更新目標(biāo)尺度,得到尺度更新結(jié)果hnew;在可見(jiàn)光圖像第t幀位置y2處,計(jì)算目標(biāo)模型p,按式(8),式(9)更新目標(biāo)模板模型q。
步驟5 更新目標(biāo)位置和尺度參數(shù),令y0=y2,h=hnew。
步驟6 令t=t+1,返回步驟2進(jìn)行下一幀跟蹤。
如圖1所述,跟蹤多個(gè)目標(biāo)時(shí),本文方法每一幀都執(zhí)行第(3)部分目標(biāo)合并與分離判斷,如果發(fā)生目標(biāo)合并(遮擋),則執(zhí)行第(4)部分處理,否則,算法相當(dāng)于進(jìn)行多個(gè)單目標(biāo)跟蹤。多個(gè)目標(biāo)運(yùn)動(dòng)過(guò)程中相互遮擋過(guò)程可以描述為:多目標(biāo)接近,多目標(biāo)合并,合并目標(biāo)運(yùn)動(dòng),多目標(biāo)分離。
本文方法根據(jù)目標(biāo)間距離和目標(biāo)尺度來(lái)判斷多目標(biāo)是否發(fā)生目標(biāo)合并,根據(jù)水平集輪廓提取的結(jié)果判斷多目標(biāo)是否分離,以兩個(gè)運(yùn)動(dòng)目標(biāo)相互遮擋為例進(jìn)行說(shuō)明,假定在遮擋過(guò)程中被遮擋目標(biāo)的顏色特征保持不變。
令y1,k表示第k個(gè)目標(biāo)在進(jìn)行均值漂移迭代定位后得到的位置,hk表示第k個(gè)目標(biāo)當(dāng)前幀的尺度,k取值為1或2。根據(jù)式(10)在行和列兩個(gè)方向進(jìn)行判斷,若兩個(gè)方向上式(10)同時(shí)成立,則認(rèn)為發(fā)生目標(biāo)合并(遮擋)。
此時(shí),根據(jù)顏色特征的匹配程度將兩個(gè)目標(biāo)分為前景目標(biāo)和被遮擋目標(biāo),根據(jù)式(3)計(jì)算顏色特征相似度系數(shù)表示匹配程度,取相似度系數(shù)值較大者為前景目標(biāo),相似度系數(shù)值較小者為被遮擋目標(biāo),圖1中第(4)部分目標(biāo)遮擋處理對(duì)這兩類目標(biāo)分別進(jìn)行處理。
對(duì)于前景目標(biāo),當(dāng)前幀均值漂移迭代定位結(jié)果認(rèn)為是目標(biāo)最優(yōu)位置,用于下一幀目標(biāo)跟蹤的起始位置;由于發(fā)生目標(biāo)合并,根據(jù)兩個(gè)目標(biāo)均值漂移迭代定位的位置初始化輪廓初始位置φ0,進(jìn)行水平集曲線演化可得到合并目標(biāo)的輪廓和位置,因此,對(duì)于被遮擋目標(biāo),根據(jù)輪廓提取結(jié)果和前景目標(biāo)位置估計(jì)出被遮擋目標(biāo)位置,如式(11);假定在目標(biāo)遮擋過(guò)程中,兩個(gè)目標(biāo)尺度不發(fā)生改變,不更新目標(biāo)尺度參數(shù)。
式中y2表示輪廓提取得到的合并目標(biāo)位置;y1,1表示前景目標(biāo)位置,y1,2表示被遮擋目標(biāo)位置。
由于水平集曲線模型能夠收斂到任意輪廓拓?fù)浣Y(jié)構(gòu),當(dāng)目標(biāo)合并時(shí),輪廓提取結(jié)果數(shù)量為1,當(dāng)目標(biāo)分裂時(shí),輪廓曲線演化結(jié)果收斂于兩個(gè)獨(dú)立目標(biāo),因此,可根據(jù)水平集輪廓提取結(jié)果判斷目標(biāo)是否分離。多目標(biāo)分離后,根據(jù)顏色特征計(jì)算相似度系數(shù)完成目標(biāo)關(guān)聯(lián),此后,算法對(duì)兩個(gè)目標(biāo)跟蹤相當(dāng)于進(jìn)行兩個(gè)單目標(biāo)跟蹤。
根據(jù)前文所述,本文方法多目標(biāo)跟蹤步驟可以概括為:
步驟1 多個(gè)目標(biāo)初始化,給定初始目標(biāo)位置y0,k和尺度hk,根據(jù)式(1)在可見(jiàn)光圖像分別計(jì)算每個(gè)目標(biāo)的目標(biāo)模板模型q。
步驟2 設(shè)當(dāng)前幀為第t幀,對(duì)每個(gè)目標(biāo)按式(2)-式(4)進(jìn)行均值漂移迭代,得到可見(jiàn)光圖像第t幀每個(gè)目標(biāo)最優(yōu)位置y1,k。
步驟3 按式(10)進(jìn)行目標(biāo)合并判斷,如果發(fā)生目標(biāo)合并,執(zhí)行步驟4,步驟5;否則,跳轉(zhuǎn)到步驟6繼續(xù)執(zhí)行。
步驟4 按式(3)計(jì)算顏色特征匹配程度,區(qū)分前景目標(biāo)和被遮擋目標(biāo);在紅外圖像第t幀中按式(5),式(6)輪廓模型進(jìn)行水平集曲線演化,根據(jù)輪廓提取結(jié)果φ計(jì)算合并目標(biāo)位置y2;按式(11)計(jì)算被遮擋目標(biāo)位置。
步驟5 根據(jù)輪廓提取結(jié)果φ判斷目標(biāo)是否分離,如果目標(biāo)合并沒(méi)有分離,更新目標(biāo)位置參數(shù),令y0,k=y1,k,跳轉(zhuǎn)到步驟9;如果目標(biāo)分離,根據(jù)輪廓φk計(jì)算每個(gè)目標(biāo)的精確位置y2,k和尺度hcontour,k,根據(jù)顏色特征計(jì)算相似度系數(shù)完成目標(biāo)關(guān)聯(lián),跳轉(zhuǎn)到步驟7。
步驟6 在紅外圖像第t幀中,對(duì)每個(gè)目標(biāo)根據(jù)y1,k和尺度hk計(jì)算輪廓初始位置φ0,k,按式(5),式(6)輪廓模型進(jìn)行水平集曲線演化,提取得到目標(biāo)輪廓φk;根據(jù)輪廓φk計(jì)算目標(biāo)精確位置y2,k和尺度hcontour,k。
步驟7 根據(jù)式(7)更新目標(biāo)尺度,得到尺度更新結(jié)果hnew,k;在可見(jiàn)光圖像第t幀位置y2,k處,計(jì)算目標(biāo)模型pk,按式(8),式(9)更新每個(gè)目標(biāo)的目標(biāo)模板模型q。
步驟8 更新每個(gè)目標(biāo)的位置和尺度參數(shù),令y0,k=y2,k,hk=hnew,k。
步驟9 令t=t+1,返回步驟2進(jìn)行下一幀跟蹤。
為了驗(yàn)證本文方法的有效性,本文在 Matlab 2009環(huán)境下進(jìn)行了仿真。硬件采用 Intel Core 2 CPU 2.9 GHz處理器,內(nèi)存 2 G。測(cè)試視頻采用OTCBVS數(shù)據(jù)庫(kù)中的可見(jiàn)光和紅外視頻。具體參數(shù)為:紅外傳感器為Raytheon PalmIR 250D,可見(jiàn)光傳感器為Sony TRV87 Handycam;紅外視頻為8位灰度表示,大小為 320像素×240像素;可見(jiàn)光視頻為24位彩色表示,大小為320像素×240像素。
實(shí)驗(yàn)1 對(duì)單個(gè)目標(biāo)進(jìn)行跟蹤,視頻特點(diǎn)為跟蹤過(guò)程中存在光照變化,陰影。實(shí)驗(yàn)中對(duì)比了文獻(xiàn)[14]方法,該方法采用可見(jiàn)光視頻,目標(biāo)特征采用HSV顏色特征,目標(biāo)尺度采用±10%縮放。圖2給出了跟蹤結(jié)果的部分視頻幀,本文方法在可見(jiàn)光和紅外視頻幀用外接矩形框同時(shí)標(biāo)記目標(biāo)跟蹤結(jié)果,并在紅外視頻幀中用閉合曲線標(biāo)出了輪廓提取結(jié)果。
由圖2可見(jiàn):跟蹤初始時(shí)兩種方法都能正確跟蹤目標(biāo);當(dāng)發(fā)生光照變化時(shí),由于HSV顏色特征對(duì)光照有一定的魯棒性,兩種方法仍能跟蹤到目標(biāo);隨著跟蹤進(jìn)行,目標(biāo)進(jìn)入陰影區(qū)域,文獻(xiàn)[14]方法發(fā)生較大偏差,跟蹤丟失(170幀),而本文方法始終能夠穩(wěn)定地跟蹤目標(biāo)。
圖3給出了兩種方法跟蹤結(jié)果目標(biāo)中心點(diǎn)坐標(biāo)與目標(biāo)真實(shí)中心點(diǎn)坐標(biāo)的距離誤差,真實(shí)值采用手工逐幀標(biāo)定。由圖3可見(jiàn):在整個(gè)跟蹤過(guò)程中,本文方法的距離誤差相對(duì)較小,行和列的坐標(biāo)距離誤差最大不超過(guò)5個(gè)像素。此外,本文方法對(duì)該視頻的平均處理速度達(dá)到10幀/s。
實(shí)驗(yàn)2 對(duì)多個(gè)目標(biāo)進(jìn)行跟蹤。視頻特點(diǎn)為跟蹤過(guò)程中發(fā)生兩個(gè)目標(biāo)相互遮擋。圖4給出了本文方法跟蹤結(jié)果的部分視頻幀,在可見(jiàn)光和紅外視頻幀用外接矩形框同時(shí)標(biāo)記目標(biāo)定位結(jié)果,并在紅外視頻幀中用閉合曲線標(biāo)出了輪廓提取結(jié)果。圖5給出了目標(biāo)跟蹤結(jié)果與目標(biāo)真實(shí)位置兩點(diǎn)間的距離誤差曲線圖,真實(shí)值采用手工逐幀標(biāo)定。
圖4視頻中兩個(gè)目標(biāo)在運(yùn)動(dòng)過(guò)程中發(fā)生相互遮擋,在發(fā)生遮擋前(15幀)和兩個(gè)目標(biāo)分離后(72幀),本文方法相當(dāng)于對(duì)兩個(gè)目標(biāo)分別進(jìn)行單目標(biāo)跟蹤,在遮擋過(guò)程中(50幀,57幀),本文方法綜合利用顏色和輪廓特征能夠準(zhǔn)確定位目標(biāo),由于在發(fā)生遮擋時(shí)將合并目標(biāo)作為整體進(jìn)行輪廓提取,因而對(duì)目標(biāo)的遮擋程度不敏感(57幀)。由圖5可見(jiàn),在第45幀~第70幀中,目標(biāo)發(fā)生互相遮擋導(dǎo)致某些幀的跟蹤誤差相對(duì)較大,但仍能夠跟蹤到目標(biāo)。
圖2 跟蹤結(jié)果部分視頻幀(1~3行分別為文獻(xiàn)[14]方法,本文方法可見(jiàn)光視頻幀,本文方法紅外視頻幀;1~4列分別為第40,100,170,198幀)
圖3 跟蹤結(jié)果中心點(diǎn)位置誤差曲線比較
圖4 跟蹤結(jié)果部分視頻幀(1~2行分別為本文方法可見(jiàn)光視頻幀,本文方法紅外視頻幀;1~4列分別為第15,50,57,72幀)
實(shí)驗(yàn)1中本文方法利用紅外和可見(jiàn)光圖像的互補(bǔ)特性能夠有效處理復(fù)雜場(chǎng)景下光照、陰影等變化,提高跟蹤的穩(wěn)定性;實(shí)驗(yàn)2中本文方法對(duì)兩個(gè)目標(biāo)跟蹤中的互遮擋現(xiàn)象能夠有效處理,準(zhǔn)確定位目標(biāo)。
圖5 跟蹤結(jié)果距離誤差曲線
本文提出了一種紅外和可見(jiàn)光圖像目標(biāo)跟蹤方法,利用雙感器的互補(bǔ)性,提高室外場(chǎng)景下目標(biāo)跟蹤的穩(wěn)定性。采用可見(jiàn)光圖像顏色和紅外圖像輪廓特征,將均值漂移算法與水平集曲線演化結(jié)合實(shí)現(xiàn)目標(biāo)定位,克服了光照和陰影的影響;通過(guò)判斷目標(biāo)合并與分離,解決了多目標(biāo)互相遮擋時(shí)的定位問(wèn)題。采用紅外和可見(jiàn)光雙傳感器視頻進(jìn)行實(shí)驗(yàn),結(jié)果表明本文方法的有效性。需要說(shuō)明的是,本文方法要求紅外和可見(jiàn)光圖像序列在跟蹤處理前已經(jīng)過(guò)圖像配準(zhǔn),配準(zhǔn)屬于另一個(gè)研究方向,在此不做討論,本文選用的測(cè)試視頻已經(jīng)過(guò)配準(zhǔn)。在進(jìn)一步研究中,考慮引入目標(biāo)運(yùn)動(dòng)狀態(tài),對(duì)發(fā)生遮擋的目標(biāo)數(shù)量大于2的情況,以及目標(biāo)發(fā)生不規(guī)則運(yùn)動(dòng)和目標(biāo)與背景物體發(fā)生遮擋等情況進(jìn)行研究。
[1]Bondzulic B and Petrovic V.Multisensor background extraction and updating for moving target detection[C].Proceedings of 2008 11th International Conference on Information Fusion,Cologne,Germany,2008:1-8.
[2]Han J and Bhanu B.Fusion of color and infrared video for moving human detection[J].Pattern Recognition,2007,40(6):1771-1784.
[3]Davis J W and Sharma V.Background-subtraction using contour-based fusion of thermal and visible imagery[J].Computer Vision and Image Understanding,2007,106(2,3):162-182.
[4]Leykin A and Ran Y.Thermal-visible video fusion for moving target tracking and pedestrian classification[C].Object Tracking and Classification in and Beyond the Visible Spectrum Workshop at the International Conference on Computer Vision and Pattern Recognition,Minneapolis,USA,2007:1-8.
[5]Conaire C and Connor N.Thermo-visual feature fusion for object tracking using multiple spatiogram trackers[J].Machine Vision and Applications,2008,19(5,6):483-494.
[6]程詠梅,王進(jìn)行,魏坤,等.基于加權(quán)mean-shift可見(jiàn)光/紅外雙通道目標(biāo)跟蹤[J].光子學(xué)報(bào),2010,39(2):357-363.Cheng Yong-mei,Wang Jin-xing,Wei Kun,et al..Visible/infrared dual-channel target tracking based on weighted mean-shift[J].Acta Photonica Sinica,2010,39(2):357-363.
[7]Comaniciu D,Ramesh V,and Meer P.Kernel-based object tracking[J].IEEE Transactions on Patten Analysis and Machine Intelligence,2003,25(5):564-575.
[8]左軍毅,梁彥,趙春暉,等.Mean Shift跟蹤算法中尺度自適應(yīng)策略的研究[J].中國(guó)圖象圖形學(xué)報(bào),2008,13(9):1750-1757.Zuo Jun-yi,Liang Yan,Zhao Chun-hui,et al..Researches on scale adaptation strategy in mean shift tracking algorithm[J].Journal of Image and Graphics,2008,13(9):1750-1757.
[9]錢(qián)惠敏,茅耀斌,王執(zhí)銓.自動(dòng)選擇跟蹤窗尺度的Mean-Shift算法[J].中國(guó)圖象圖形學(xué)報(bào),2007,12(2):245-249.Qian Hui-min,Mao Yao-bin,and Wang Zhi-quan.Mean shift tracking with self-updating tracking window[J].Journal of Image and Graphics,2007,12(2):245-249.
[10]李遠(yuǎn)征,盧朝陽(yáng),高全學(xué),等.基于多特征融合的均值遷移粒子濾波跟蹤算法[J].電子與信息學(xué)報(bào),2010,32(2):411-415.Li Yuan-zheng,Lu Zhao-yang,Gao Quan-xue,et al..Particle filter and mean shift tracking method based on multi-feature fusion[J].Journal of Electronics&Information Technology,2010,32(2):411-415.
[11]Han Z J,Ye Q X,and Jiao J B.Combined feature evaluation for adaptive visual object tracking[J].Computer Vision and Image Understanding,2011,115(1):69-80.
[12]Osher S and Shthian J.Fronts propagating with curvaturedependent speed:algorithms based on Hamilton-Jacobi formulations[J].Journal of Computer and Physics,1988,79(1):12-49.
[13]Li C M and Xu C Y.Distance regularized level set evolution and its application to image segmentation[J].IEEE Transactions on Image Processing,2010,19(12):3243-3254.
[14]沈志熙,楊欣,黃席樾.均值漂移算法中的目標(biāo)模型更新方法研究[J].自動(dòng)化學(xué)報(bào),2009,35(5):478-483.Shen Zhi-xi,Yang Xin,and Huang Xi-yue.Study on target model update method in mean shift algorithm[J].Acta Automatica Sinica,2009,35(5):478-483.