王進花 曹潔
(蘭州理工大學(xué) 電氣工程與信息工程學(xué)院,甘肅 蘭州 730050)
在視覺目標(biāo)跟蹤算法中,實時性和準確性是衡量算法好壞的兩個重要指標(biāo),已有的跟蹤算法歸納起來主要有[1][2]:基于 3D立方體模型的跟蹤算法,基于變形模型的跟蹤算法,基于區(qū)域的跟蹤算法,基于光流的跟蹤方法以及基于特征的跟蹤算法等。這些算法都有各自優(yōu)勢,但是在復(fù)雜背景中,目標(biāo)存在遮擋或陰影干擾時,要實現(xiàn)對運動目標(biāo)準確、實時地跟蹤,是目前目標(biāo)跟蹤中需要解決的難點問題。
本文采用特征點結(jié)合自適應(yīng)卡爾曼濾波(AKF)算法實現(xiàn)運動汽車跟蹤??紤]到跟蹤的實時性,首先,在目標(biāo)定位時通過卡爾曼濾波算法估計目標(biāo)在下一幀圖像中的位置,減小搜索范圍,提高運算速度;然后,在預(yù)測位置范圍內(nèi)提取車輛特征點,將目標(biāo)當(dāng)前候選特征點與模板特征點進行匹配,確定目標(biāo)的精確位置,提高跟蹤的準確性。通過交通視頻仿真實驗,證明該算法在快速跟蹤機動目標(biāo)時效果較好。
近年來,國內(nèi)外學(xué)者專家對目標(biāo)運動模型做了大量的研究并取得了諸多成果,其中“當(dāng)前”統(tǒng)計模型[3,4]得到了越來越廣泛的應(yīng)用。此模型的思想是:當(dāng)目標(biāo)正在以某一加速度機動時,加速度在下一時刻的取值是有限的,并且只能在“當(dāng)前”加速度的鄰域內(nèi)。其本質(zhì)上是非零均值時間相關(guān)模型,加速度的“當(dāng)前”概率密度符合瑞利分布,均值為“當(dāng)前”加速度預(yù)測值,隨機加速度符合一階時間相關(guān)過程,即
1.2.1狀態(tài)方程
設(shè)采樣周期為T,可得到(3)式的離散化狀態(tài)方程為:
其中,狀態(tài)向量
設(shè)當(dāng)前加速度均值為
則可得到預(yù)測表達式為
式(4)中W(k)是離散時間白噪聲序列,其協(xié)方差矩陣為
其中,
qij(i,j=1,2,3)可參考文獻[5]。分別為x,y方向的加速度方差;αx,αy分別為x,y方向的目標(biāo)機動頻率。
由文獻[6]k時刻加速度最大值和方差分別可表示為式(8)和(9)。
1.2.2觀測方程
其中,
VZ(k)是均值為零,方差為R(k)的高斯白噪聲。
1.2.3自適應(yīng)卡爾曼濾波算法
根據(jù)狀態(tài)方程和觀測方程,可以得到自適應(yīng)Kalman濾波方程為
現(xiàn)有的角點檢測算法可分為兩類[7]:1)灰度級圖像數(shù)據(jù)檢測法;2)目標(biāo)邊緣信息檢測法。本文采用基于圖像灰度的角點檢測算法,其中Harris角點檢測算法[8,9],其計算簡單、提取的特征點均勻合理、可靠性高,因而在圖像處理領(lǐng)域得到了非常廣泛的應(yīng)用。
圖像的自相關(guān)函數(shù)描述了局部灰度的變化程度,因此,角點與自相關(guān)函數(shù)的曲率特性有關(guān),圖像自相關(guān)函數(shù)表示為:
式中,Ix+u,y+v,Iu,v分別為圖像中點 (x+u,y+v)和(u,v)對應(yīng)的灰度值。對(16)式在點(u,v)進行二元函數(shù)的泰勒展開,可得到自相關(guān)函數(shù)E(x,y)的近似泰勒多項式
其中
w為高斯函數(shù)
則Harris角點檢測器為
令k=0.04,即經(jīng)驗值,R取合理的閾值即可得所求角點。閾值取決于實際圖像的屬性,如尺寸、紋理等,也可以通過確定圖像中可能的特征點的數(shù)量,并取其R值較大的像素點作為特征點。考慮到運算速度和目標(biāo)表示的準確性,需要合理確定特征點的數(shù)目。本文提取特征點數(shù)目設(shè)定為5~15。
2.2.1建立目標(biāo)模板
根據(jù)目標(biāo)檢測結(jié)果計算初始幀中目標(biāo)形心坐標(biāo),設(shè)為(x0,y0),并計算每個特征點(xi,yi)相對于目標(biāo)形心的偏移量(Δxi,Δyi)及灰度值 f(xi,yi),由偏移量和灰度值構(gòu)成模板特征點像素集合:
在汽車運動過程中會由于轉(zhuǎn)彎、遮擋而發(fā)生形變,此時特征點模板與實際目標(biāo)不符,需要更新,則以當(dāng)前圖像為首幀重新建立目標(biāo)模板。
2.2.2特征點匹配
根 據(jù)2.2 的濾波算法預(yù)測車輛在下一幀中的形心坐標(biāo)以及區(qū)域,并在此區(qū)域提取當(dāng)前幀中車輛特征點,從而得到候選特征點的坐標(biāo)集合。
設(shè) 當(dāng)前幀形心坐標(biāo)的預(yù)測值為(xt,yt),則目標(biāo)模板的第i個特征點(xi,yi)坐標(biāo)的預(yù)測值是(xt+ Δxi,yt+Δyi),在當(dāng)前幀中以此坐標(biāo)為中心的5*5的區(qū)域內(nèi)計算特征點(xi,yi)與候選特征點的匹配值R(i,j),R最小的候選特征點即為模板第i個特征點的匹配點。計算公式如下
圖1 跟蹤算法流程
圖2 跟蹤仿真結(jié)果
其中,I0(xi,yi),I(mj,nj)分別為模板第 i個特征點和當(dāng)前圖像第j個特征點的灰度值。在特征提取時,設(shè)定提取特征點數(shù)是5~15,特征分布較為稀疏并且均勻,在5*5的范圍內(nèi)基本只有1~2個候選特征點,因此匹配計算量小,而且克服了由于預(yù)測誤差而引起的誤匹配及漏匹配,匹配正確率高。
圖1是算法流程圖,首先初始化背景和濾波器,對輸入圖像進行檢測處理,得到目標(biāo)中心坐標(biāo),并提取目標(biāo)特征點,建立目標(biāo)模板;其次,采用AKF濾波算法預(yù)測目標(biāo)中心在下一幀圖像中的位置,在此區(qū)域提取當(dāng)前幀目標(biāo)特征點,進行特征點的匹配,依據(jù)匹配結(jié)果更新目標(biāo)當(dāng)前位置;最后,根據(jù)相關(guān)準則判斷是否需要更新模板,若不更新則處理下一幀圖像,循環(huán)工作。否則由當(dāng)前幀重新建立模板,然后轉(zhuǎn)到下一幀圖像進行循環(huán)處理。
仿真試驗采用蘭州市某路口的監(jiān)控視頻圖像,通過格式轉(zhuǎn)換得到640×480bmp的序列圖像。實驗設(shè)備采用臺式PC機(Pentium Ⅳ,1.70 GHz,512 M 內(nèi)存),利用 Matlab7.1仿真軟件進行仿真驗證。采樣周期為0.04 s。
采用本算法跟蹤圖2所示視頻場景中的紅色小汽車。圖2(a)~(d)是隨機截取的四幀不同圖像的跟蹤仿真結(jié)果,圖中虛線框是濾波估計位置,‘+’是在當(dāng)前幀圖像中提取的車輛特征點,‘O’為正確匹配特征點。由圖可見,特征點正確匹配率較高,只有個別特征點是在車輛轉(zhuǎn)彎形變情況下出現(xiàn)的新增特征點,沒有找到匹配點。這種情況可通過模板更新來解決,當(dāng)特征點的正確匹配率小于設(shè)定閾值時更新模板。試驗結(jié)果驗證了該算法的有效性。
本文通過對跟蹤過程中方法算法的分析,提出了一種基于特征點和自適應(yīng)kalman濾波相結(jié)合的跟蹤方法,通過仿真實驗證明該算法的跟蹤性能良好。因受外界環(huán)境干擾,實際采集到的視頻圖像質(zhì)量較差,不利于目標(biāo)檢測及特征提取,因此,首先要對原始圖像進行相關(guān)的處理。另外,在實際應(yīng)用中,考慮到目標(biāo)運動的隨機性,能夠?qū)崟r自適應(yīng)調(diào)整目標(biāo)機動頻率因子,使其隨目標(biāo)運動狀態(tài)的變化而變化,從而得到更佳的跟蹤效果,需要合理建立目標(biāo)機動判別函數(shù)。
[1]侯志強,韓崇昭.視覺跟蹤技術(shù)綜述[J].自動化學(xué)報,2006,32(4):603-617.
[2]馬安國,羅德林,等.基于“當(dāng)前”統(tǒng)計模型的目標(biāo)狀態(tài)估計[J].自動化技術(shù)與應(yīng)用,2006,25(7):5-8.
[3]劉海燕,趙宗貴,等.“當(dāng)前”統(tǒng)計模型機動目標(biāo)跟蹤的改進算法[J].軍事運籌與系統(tǒng)工程,2007,1(1):51-54.
[4]方青,梅曉春.用于機動目標(biāo)跟蹤的Kalman濾波器的設(shè)計[J].雷達科學(xué)與技術(shù),2006(1):50-55.
[5]楊萬海.多傳感器數(shù)據(jù)融合及其應(yīng)用[M].西安:西安電子科技大學(xué)出版社,2004:50-51.
[6]王進花,曹潔.基于改進“當(dāng)前”統(tǒng)計模型和AKF的機動目標(biāo)跟蹤[J].蘭州理工大學(xué)學(xué)報,2010(4):98-101.
[7]王向軍,王研,等.基于特征角點的目標(biāo)跟蹤和快速識別算法研究[J].光學(xué)學(xué)報,2007(2):360-364.
[8]劉荊橋,戴光明.角點檢測在車輛特征提取中的應(yīng)用[J].軟件導(dǎo)刊,2008(4):91-92.
[9]鄭林,劉泉.一種基于特征點的跟蹤算法[J].武漢理工大學(xué)學(xué)報,2006(3):398-400,462.