李金奎 姜明新
(大連民族學院信息與通信工程學院,遼寧 大連 116600)
視覺追蹤在計算機視覺領域一直是一個重要的課題,尤其對于監(jiān)測應用、車輛導航和人機界面研究。比如有人在文獻[1-4]中已經提出了很多追蹤方法,但仍然是一個具有挑戰(zhàn)性的問題,由于像局部遮擋,光照變化,姿勢變化,背景混亂和視角變化等因素的影響。在本文中,基于結構局部稀疏表達模型和自適應模板更新策略提出了一種有效的跟蹤算法。
在此介紹基于自適應結構局部稀疏外觀模型法的視覺跟蹤,以下是基于Matlab的系統(tǒng)流程。
圖1 運動目標檢測和跟蹤系統(tǒng)流程圖
給出一組目標模板視頻圖像序列T=[T1,T2,…,Tn],在目標區(qū)域對一組重疊的局部圖像塊抽樣。利用這些局部塊作為詞典來給在可能的候選區(qū)域局部塊編碼,即 D=[d1,d2,…,d(n×N)]∈Rd×(n×N),其中 d 是圖像塊向量的尺度,n是目標模板的數量,N是在目標區(qū)域局部塊的數量。矩陣D中的每一列都是從矩陣T中矢量化的局部圖像塊中通過?1歸一化方法獲取的。每個局部塊代表固定目標對象的一部分,因此所有的局部塊就能表達目標的完整結構,由于局部塊是從許多模板收集的,所以這個詞典收集了不同模板的共同點并能表達他們的各種形式。對于一個候選目標區(qū)域,可以表示成Y=[y1,y2,…,yN]∈Rd×N。如圖2所示。
圖2 目標候選區(qū)域示意圖
假設具有稀疏性的情況下,在目標區(qū)域的局部塊都能夠表示為只有幾個基本數組元素的線性組合,通過求解此公式:
這里yi指的是第i個量化的局部圖像塊,bi∈R(n)N是局部塊相應的稀疏編碼,bi≥0意思是bi所有的元素非負。記B=[b1,b2,…,bN],表示一個候選區(qū)域的稀疏代碼矩陣。每個局部塊的稀疏系數都被分成若干段,根據每個向量元素對應的模板,即,其中∈RN表示系數向量bi的K階分塊。對這些分段系數加權,獲得第i個局部塊向量Vi,
這里向量Vi對應第i個局部塊,C是一個標準術語。然后在候選區(qū)確定位置的每個局部塊都可以用在不同模板位置的局部塊表示。采取的平方矩陣V的對角線元素作為混合特征值,即:
其中f是混合特征值的向量,對齊的跟蹤結果也便于使用增量子空間訓練方法進行碼本更新。在集中遍歷這些局部塊之后,異常值的影響降低了并且結構信息扔被保存在表達數據中以此更好地定位目標。
在目標跟蹤方法中,生成累積概率序列:
根據均勻分布定理產生一個在單位區(qū)間[0,1]的隨機數r。通過選取哪一本部分的隨機數,可以選擇被更換的模板。這能使舊模板緩慢地更新和新模板的快速更新,從而減小漂移的問題。
利用稀疏表達和子空間學習方法給更新的模板建模。這種增量式法不但可以適應外觀改變,而且也可以保護收集到的目標物體的相同視角的共同信息。目標估計可以通過主成分分析的基向量的線性組合建模和在文獻[4]中使用的瑣碎模板法。
其中:p表示觀測向量矩陣,矩陣U由特征向量組成,q是特征向量系數矩陣,e表示在p被損壞或遮擋的矩陣中的像素。由于遮擋和噪聲引起的誤差是任意的并且稀疏的,用?1正規(guī)化最小二乘法解決此問題。
其中:H=[U I],c=[q e]T,λ是正則化參數?,嵥槟0逑禂当粦玫浇鉀Q噪聲或遮擋問題和避免太多的遮擋塊被更新到模板集。然后重建的圖像被用于更新將被替換的模板。這個過程可以看作是引入稀疏子空間表達方法。
本文使用的目標跟蹤算法是在貝葉斯定理框架下實現的。給出目標觀察數據集z1:t=[z1,…,zt]到第t幀,目標狀態(tài)變量xt可以由最大的后驗概率估計計算
其中p(xt|xt-1)表示動態(tài)模型和p(zt|xt)指的是觀測模型。動態(tài)模板p(xt|xt-1)描述連續(xù)幀之間的目標狀態(tài)的時間相關性。把六參數仿射轉換模型運用到給連續(xù)兩幀之間的目標模板進行建模。狀態(tài)轉換作為p(zt|xt-1)=N(xt;xt-1,Σ),Σ是對角協(xié)方差矩陣,它的元素是仿射參數各個方差。
觀察模型p(zt|xt)表示zt觀察在狀態(tài)xt的可能性。它對于穩(wěn)健的跟蹤起著重要的作用。在此方法中,觀測模型由
在等式的右邊表示候選區(qū)域和基于混合特征f目標之間的相似性。隨著模板的逐漸更新,觀察模型能夠適應目標的外觀改變。
該算法在MATLAB軟件中實現。?1最小化問題可以用文獻[5]中的SPAMS package方法來解決,在所有的實驗中正規(guī)化常數的λ被設置為0.01,對于每一個視頻序列,目標對象的位置在第一幀需要手動標記。 文獻[6]增量視覺跟蹤(IVT)方法,文獻[7]基于片段(fragtrack)跟蹤方法,文獻[8]?1指數法,文獻[9]多實例學習(MIL)跟蹤器法。實驗結果表明,本文的跟蹤方法比其他的方法更好。
圖3 實驗跟蹤結果
本文所提出的方法利用跟蹤目標的空間和局部信息通過使用隊列池方法遍歷空間布局的局部塊。這有助于更準確地定位目標,在被遮擋時更可靠。但有時會出現誤差,導致跟蹤出錯,所以本系統(tǒng)的跟蹤算法也有待改進。
[1]姜明新,王洪玉,劉曉凱.基于多相機的多目標跟蹤算法[J].自動化學報,2012,38(4):497-506.
[2]姜明新,王洪玉,等.基于ML和L2范數的視頻目標跟蹤算法[J].電子學報,2013,41(11):2307-2313.
[3]姜明新,王洪玉.基于多層定位的多目標跟蹤算法[J].大連理工大學學報,2012,52(5):767-771.
[4]姜明新,王洪玉.基于特征分組的在線目標跟蹤算法[J].大連理工大學學報,2013,53(5):755-759.
[5]B.Liu,L.Yang, J.Huang,P.Meer, L.Gong,and C.A.Kulikowski.Robust and fast collaborative tracking with two stage sparse optimization[C]//ECCV.2010.
[6]J.Mairal,F.Bach,J.Ponce,and G.Sapiro.Online learning for matrix factorization and sparse coding[J].Journal of Machine Learning Research,2010,11:19-60.
[7]D.Ross,J.Lim, R.-S.Lin,and M.-H.Yang.Incremental learning for robust visual tracking[J].IJCV,2008,77(1):125-141.
[8]A.Adam,E.Rivlin,and I.Shimshoni.Robust fragments-based tracking using the integral histogram[C]//CVPR.2006.