摘 要:目標(biāo)檢測算法是智能監(jiān)控系統(tǒng)研究領(lǐng)域中的一個重要課題,基于混合高斯模型的背景差分方法是其中一種廣泛使用的目標(biāo)檢測方法,但是,在當(dāng)場景本身發(fā)生變化,如當(dāng)靜止的物體開始移動時,存在背景模型對背景的變化的不能快速、及時地響應(yīng)等問題。本論文針對運動目標(biāo)的檢測,提出了一種新的混合高斯模型自適應(yīng)更新算法,它能夠快速準(zhǔn)確地初始化背景模型,加強模型適應(yīng)場景變化的能力。仿真實驗結(jié)果表明,該算法準(zhǔn)確性高,運算速度快,能夠較快適應(yīng)背景的變化,可以滿足實時檢測的需要。
關(guān)鍵詞:運動檢測;背景差分;混合高斯模型
中圖分類號:TP391.41
在智能監(jiān)控系統(tǒng)研究領(lǐng)域中,目標(biāo)檢測算法是其中的一個重要研究課題,是目標(biāo)識別、行為理解等各種后續(xù)高級處理基礎(chǔ),也是智能監(jiān)控技術(shù)自動化和實時應(yīng)用的關(guān)鍵。如何從視頻流中準(zhǔn)確地提取出運動目標(biāo),是很多智能監(jiān)控系統(tǒng),如:安全監(jiān)控,交通自動監(jiān)控,人體檢測與跟蹤等的基礎(chǔ)部分[1]。
運動目標(biāo)檢測的方法有很多種,其中在視頻監(jiān)測系統(tǒng)中被廣泛應(yīng)用的是背景差分法。背景差分法將新得到的每一幀圖像和一個背景表示進行比較,從而確定出每幀圖像中屬于運動目標(biāo)像素點的位置。背景差分的方法也很多,如Ahmed[2]提出的非參數(shù)法,Stauffer等人[3,4]提出的高斯混合模型法等等。本文提出了一種改進的多高斯混合模型的目標(biāo)檢測算法。它能夠在視頻序列存在運動目標(biāo)的情況下,快速建立背景模型,還可以迅速適應(yīng)背景的變化。
1 改進的目標(biāo)檢測算法
在攝像機固定、視頻中背景完全靜止的情況下,背景圖像中的每一個象素點,都可以用一個高斯分布來描述。然而,在絕大多數(shù)實際場景中,由于一些噪聲的干擾,如樹枝的搖擺、或是窗簾的晃動等,導(dǎo)致背景場景不是絕對靜止的。這就使得背景圖像上的某些象素點在不同時刻會表現(xiàn)出不同的顏色值。因此,用一個高斯模型來描述的背景跟實際背景會有偏差。本文中采用一種混合高斯分布來描述實際場景的背景模型。假設(shè)有K個高斯分布用來描述每個象素點Xt顏色,K的取值區(qū)間為3~5,則象素點Xt的概率函數(shù)可用公式(1)來表示:
(1)
在公式(1)中:μi,t∑i,t是第i個高斯分布在t時刻的均值及協(xié)方差矩陣,ωi,t是第i個高斯分布在t時刻的權(quán)值,令∑i,t=σ2iI。高斯概率密度函數(shù)η用公式(2)來表示:
(2)
當(dāng)有新的一幀圖像時,背景模型就需要進行更新。將高斯分布按照優(yōu)先級 由高到低進行排序,設(shè)一全局閾值T,將前B個高斯分布的權(quán)值求和,如果剛好大于該閾值,則將前B個分布認(rèn)定為背景分布。全局閾值T決定了背景分布模型的數(shù)量,T越大,則背景分布模型個數(shù)就越多。
對t時刻任意的像素點Xt,將其與B個高斯分布進行匹配,定義:
(3)
如果Mi,t=1,則判斷該像素點為背景點,并對第i個高斯模型參數(shù)進行更新,更新方程如下:
1)更新權(quán)重
ωi,t=(1-α)ωi,t-1+α(Mi,t) (4)
2)更新均值和方差
對于匹配不成功的高斯分布,不予更新均值和方差。對于匹配成功的第i個高斯分布如下:
μi,t=(1-ρ)μi,t-1+ρXt (5)
σ2t=(1-ρ)σ2t-1+ρ(Xt-μt)T(Xt-μt) (6)
其中,ρ=αη(Xt|μi,σi) (7)
其中,α為權(quán)值更新率,ρ為參數(shù)更新率。如果該像素點與多個高斯分布匹配,則選擇優(yōu)先級最高的高斯分布進行更新。如果在混合模型中沒有高斯分布匹配Xt,則去除掉權(quán)值最低的高斯分布,并用一個新的高斯分布來代替,同時將該像素點認(rèn)定為前景點。在Stauffer[2,3]描述的模型更新方法中,權(quán)值更新率α是一個固定數(shù)值。如果α過小,模型的建立時間會較長。如果α過大,模型對噪聲的抑制作用就會降低。
為解決上述問題,本文提出了一種新的模型更新方法,僅使用最新的N幀圖像更新背景模型。在建立背景模型的初始階段,由于可用來建立模型的幀數(shù)小于N,因此為了快速建立背景模型,我們選取了時變的權(quán)值更新率α和參數(shù)更新率ρ,使初始階段的α值和ρ值較高,增大了開始若干幀在建立背景模型中的權(quán)重。α和ρ定義如下:
(8)
隨著視頻中幀數(shù)的增加,當(dāng)穩(wěn)定像素點(即連續(xù)多幀都能與背景分布相匹配的像素點)的參數(shù)更新率ρ逐漸穩(wěn)定之后,背景模型也趨于穩(wěn)定。
當(dāng)t0≥N時,基本建立起背景模型,令 ,利用最新的N幀數(shù)據(jù)更新背景模型。
另外,對于場景本身的變化,如場景中原本靜止的物體發(fā)生了運動,本文采取了如下的更新方法:
對于每一個象素點Xt,統(tǒng)計它被連續(xù)檢測為前景的次數(shù)F(Xt),即Mi,t=0的次數(shù)。如果F(Xt)大于閾值THF,則將該點的背景替代成當(dāng)前的前景值。THF的取值不宜過小,否則將會把在場景內(nèi)做短暫停留的對象更新到背景中,影響后續(xù)檢測的準(zhǔn)確性。
統(tǒng)計場景中被檢測為前景點的象素個數(shù),如果大部分的象素點被檢測為前景(如大于80%),則放棄繼續(xù)更新,并且重新開始學(xué)習(xí)新的模型,方法如前文所述。
2 實驗結(jié)果及分析
利用上述方法,我們對一段320×240視頻序列進行實驗,實驗證明該算法在普通PC機上的處理速度達到了每秒約27幀,能夠滿足實時處理的要求,實驗結(jié)果如下圖所示:
(a) (b) (c) (d)
(e) (f) (g) (h)
(i) (j) (k)
圖1 改進背景模型算法與Stauffer算法的比較
上圖是基于本文算法的實驗結(jié)果,其中圖(a)~(d)是原始視頻的155、310、375、465幀。(e)~(h)是采用Stauffer等人的方法所得結(jié)果。初始的時候柜門是關(guān)閉的??梢钥闯?,采用Stauffer等人的方法,當(dāng)實驗者把柜門推開后,背景模型便將柜門也認(rèn)為是前景目標(biāo),直到465幀時,被推開的柜門仍然被誤檢測為前景。說明背景模型仍然不能完全更新。圖(i)~(k)為本文提出的改進算法的檢測結(jié)果的第155、310、375幀,可以看到,在375幀時,圖(k)中移動后的柜門就已經(jīng)被認(rèn)定成了背景。這說明該算法能夠增強背景模型適應(yīng)場景變化的能力,加快了背景與前景轉(zhuǎn)換的響應(yīng)速度,增強了算法處理的實時性。
3 結(jié)束語
本文提出了一種新的混合模型自適應(yīng)更新算法,提高背景模型的初始化速度,使背景模型能更快地適應(yīng)背景的變化。為進一步目標(biāo)檢測、標(biāo)識和跟蹤提供準(zhǔn)確的目標(biāo)區(qū)域信息。實驗結(jié)果表明,該方法準(zhǔn)確、快速,具有一定的實用價值。
參考文獻:
[1]S-C.S.Cheung,C Kamath.Robust techniques for background subtraction in urban traffic video[J].IST/SPIE’S Symposium on Electronic Imaging,2003.
[2]Ahmed Elgammal,Ramani Duraiswami,and David Harwood.“Background and foreground modeling using nonparametric kernel density estimation for visual surveillance.”[J].Proceedings of the IEEE,2002(07):1151-1164.
[3]Grimson Wel,Stauffer C.Romano R.Lee L.“Using adaptive tracking to classify and monitor activities in a site.”in Proceeding[J].1998 IEEE Computer Society Conference on Computer Vision and Pattern Recognition IEEE Comput.Soc,1998.
[4]C Stauffer,W E L Grimson.“Learning Patterns of Activity Using Real-Time Tracking”[J].IEEE Trans.PAM I,2000(22):747-757.
作者簡介:唐宜清(1980-),男,湖南永州人,講師,碩士研究生,研究方向:計算機視覺、計算機網(wǎng)絡(luò)、數(shù)字校園。
作者單位:長沙師范學(xué)院,長沙 410100
基金項目:湖南省教育廳資助科研項目(項目編號:12C0954);湖南省自然科學(xué)基金資助項目(項目編號:2015JJ6007)。