張永,劉巧玲
ZHANG Yong, LIU Qiao-ling
蘭州理工大學 計算機與通信學院,蘭州 730050
School of Computer and Communication,Lanzhou University of Technology,Lanzhou 730050,China
運動目標檢測是指從視頻序列圖像中將變化區(qū)域從背景圖像中提取出來,由于后續(xù)的處理,如目標跟蹤、目標識別與分類、目標特征的提取等,只考慮圖像中運動區(qū)域的像素。因此,獲得精確的運動目標是非常重要的。
背景減除法[1,2]是目前運動目標檢測中最常用的一種方法,其核心是背景模型的建立。目前已經(jīng)提出了很多的自適應(yīng)背景模型方法。其中,Stauffer等人[3]提出利用多個高斯分布構(gòu)建背景模型的方法得到了廣泛的應(yīng)用,但該方法收斂速度比較慢,計算量大,易受光照變化和噪聲的影響。近年來,許多學者對其進行了大量的研究。例如,文獻[4]提出對均值和方差采用不同的學習速率;文獻[5]用混合高斯模型對前景進行粗分割,然后采用結(jié)構(gòu)梯度互相關(guān)系數(shù)對粗分割結(jié)果進行校正,以提高目標檢測的精度;文獻[6]提出對 混合高斯模型檢測出的前景和背景,采用不同的更新策略,以實現(xiàn)背景模型的實時更新;文獻[7]針對傳統(tǒng)混合高斯背景僅對單個像素建模,而忽略了視頻序列在時間和空間上的相關(guān)性,提出利用背景時間統(tǒng)計特征和空間區(qū)域特征建立模型;文獻[8]通過對混合高斯背景模型進行改進,使其適應(yīng)局部的光照變化,并且對模型引入幀間處理使其適應(yīng)全局的光照變化。但是,效果仍不是很理想。
針對上述不足,本文對高斯模型的背景學習方法進行了深入的分析,并提出了一種自適應(yīng)的方法。為了提高模型對不同噪聲的自適應(yīng)性,改進方法對不同高斯分布提出了自適應(yīng)的閾值,以排除由于噪聲或光照引起的誤判問題;為提高在靜態(tài)場景下,背景模型的自適應(yīng)性,對模型的學習采用不同的速率,建立實時的背景模型。
混合高斯模型是對背景圖像中的每個像素點,利用k個高斯分布對其進行模擬,用其概率密度函數(shù)的加權(quán)和表示該像素點的概率密度函數(shù)。則在t時刻,背景圖像中某點(x,y)的概率密度為:
其中,It為t時刻的像素值,文中從實時性方面考慮,僅采用YUV顏色空間中的亮度信息;ωt,i為t時刻混合高斯模型中第i個高斯分布的權(quán)重;σt,i和μt,i為t時刻第i個高斯分布的方差和均值;ηi(It,μt,i,σt,i)為第i個高斯分布的概率密度函數(shù),其定義如下:
則認為當前像素與第 j個高斯分布匹配成功,并中止與后續(xù)模型的匹配。其中匹配閾值γ一般取2.5。
對與當前像素匹配成功的第 j個高斯分布,采用(4)式和(5)式對其均值和方差進
行更新。式中ρ為學習速率,其反映了當前像素融入背景的速率。
對未匹配上的高斯分布,其方差和均值都保持不變。如果k個高斯分布均與當前像素值不匹配,則取當前像素值為均值,給定一個較大的值為方差,建立一個新的高斯分布,代替最小的高斯分布。
對k個高斯分布的權(quán)值采用下式進行修正:
式中,當i=j時,Mt,i取值為 1,否則,取值為0。
高斯模型的匹配由均值、方差和匹配閾值γ這三個參數(shù)完全決定,對均值和方差的修正通過模型的實時更新來實現(xiàn),模型匹配閾值一般采用固定的數(shù)值,而沒有考慮場景中像素值隨噪聲和光照所發(fā)生的變化,因此會產(chǎn)生大量的誤檢測點。不同的匹配閾值將直接影響模型的精確性、穩(wěn)定性。
如果噪聲和光照使得像素值與匹配模型的均值距離較小,那么采用固定的閾值肯定會將該像素判為背景像素,反之,該像素會被誤判為前景像素點。因此,為了處理不同的噪聲對檢測結(jié)果的影響,引入自適應(yīng)的模型匹配閾值γ。
式中,γ主要依賴于當前所匹配模型的方差。
由高斯分布函數(shù)的特性可知,如果方差越大,則說明概率密度函數(shù)越扁平,即像素值的分布較為平緩,此時,若采用固定的匹配閾值,將會使大量的前景像素點被誤判為背景。若采用本文提出的自適應(yīng)匹配閾值,當方差越大時,γ值越小,因此可以有效地降低誤檢測率。反之,如果方差越小,則概率密度函數(shù)越陡峭,即像素值的分布較為集中,若采用傳統(tǒng)混合高斯模型的匹配閾值,必定會使大量的背景像素點被誤判為前景。而采用文中提出的自適應(yīng)匹配閾值,可以有效地緩解該現(xiàn)象。
注意到視頻監(jiān)控場景中通常只有運動目標區(qū)域是比較混亂的,而大部分區(qū)域是靜止的,靜止區(qū)域的像素點通常具有相同的像素值,而且該像素值總是和同一個高斯分布相匹配的,則與其相對應(yīng)的高斯分布出現(xiàn)的概率就越大。經(jīng)過學習后,該高斯分布應(yīng)該具有較大的權(quán)重。但是,傳統(tǒng)的混合高斯模型并沒有考慮到這種情況,僅僅關(guān)注的是像素點均值的變化情況。因此,為了有效地檢測靜態(tài)背景區(qū)域,并提高模型的穩(wěn)定性和自適應(yīng)性,引入?yún)?shù)ζ,統(tǒng)計連續(xù)幀中每個像素與同一個高斯分布相匹配的次數(shù)。
式中,kt為t時刻與該像素匹配的高斯分布,kt-1為t-1時刻與該像素匹配的高斯分布。如果tζ超過閾值ζmin,則利用下式更新權(quán)重學習速率。
式中,m是大于 1的常量;α是初始的權(quán)重學習速率。
通過統(tǒng)計某點像素與同一個高斯分布連續(xù)匹配次數(shù),針對不同的情況,采用不同的權(quán)重學習速率,使靜態(tài)區(qū)域具有較大的權(quán)重學習速率,可以有效地改善檢測的性能,并且提高模型的穩(wěn)定性。
為了驗證改進算法的有效性,進行了大量的實驗測試,文中列舉了兩段視頻中的部分結(jié)果并進行分析。在普通 PC機(CPU為Core(TM) i3 M 2.13 GHz,內(nèi)存為4 GB,操作系統(tǒng)為 Windows 7)上的 Matlab R2009a平臺上進行仿真實驗。其中算法所涉及的參數(shù):k=3,α=0.001,m=10,ζmin=10。實驗結(jié)果如圖1和圖2所示。
圖1 室內(nèi)場景下,本文算法與傳統(tǒng)混合高斯模型的檢測結(jié)果比較
圖1是室內(nèi)場景下,改進后算法與傳統(tǒng)混合高斯模型的檢測結(jié)果對比圖。采用的視頻序列是從網(wǎng)上(http://groups.inf.ed.ac.uk/vision/CAVIAR/CAVIARDATA1/)獲取的,共有599幀,分辨率為384×288,幀率為25幀/s。其中,圖1(a)為視頻序列中的檢測圖像,圖1(b)和(c)為采用傳統(tǒng)混合高斯模型和改進方法構(gòu)建的背景,圖1(d)和(e)分別是利用傳統(tǒng)混合高斯模型和本文方法所分割的前景圖像。由于場景中存在光線的變化,以及前景目標和背景顏色相一致的現(xiàn)象,導致圖1(d)中有大量的前景被誤檢為背景,而觀察本文方法檢測的結(jié)果可知,改進的算法能夠很好的克服光線變化對檢測結(jié)果的影響,而且在室內(nèi)場景中能夠獲得更加穩(wěn)定的背景。
圖2 室外場景第462幀的檢測結(jié)果
圖2是選自一段典型的室外場景視頻,分辨率為384×288,幀率為30幀/s,特點是運動物體速度快,場景中存在全局的光照變化以及樹枝的搖擺。文中采用的是視頻序列的第462幀,其中圖2(a)是原始圖像,(b)和(c)分別為采用傳統(tǒng)混合高斯模型和改進算法檢測得到的背景圖像,比較兩個背景圖像,可以發(fā)現(xiàn)在室外場景中,傳統(tǒng)的混合高斯模型不能獲得完整的背景模型,而利用本文算法構(gòu)建的背景模型更加精確,更加接近真實的背景,因此獲得的檢測結(jié)果也更加的精確。
最后,為了更加直觀的反映本文算法的有效性,將上述視頻序列正確檢測出的前景像素點比例 CFP(Correct Foreground Propotion)和背景像素點比例CBP(Correct Background Propotion)的平均值列于表 1中。其中,是檢測到的正確目標像素點,P1是實際的目標像素點,P21是檢測到的正確背景像素點,P2是實際的背景像素點。
表1 算法檢測結(jié)果對比表
實驗表明,不論是在室內(nèi)場景還是室外場景,還是相對于傳統(tǒng)的混合高斯模型算法,本文方法都能有效地克服將前景像素點誤判為背景的現(xiàn)象,并且構(gòu)建出更為穩(wěn)定的背景,很好地克服了光照以及噪聲對檢測結(jié)果的影響。
通過研究傳統(tǒng)的混合高斯模型算法,文中提出了一種新的改進方法。該方法對不同的高斯分布采用自適應(yīng)的匹配閾值,克服了由噪聲和光照引起的誤檢測點;并在此基礎(chǔ)上,對靜態(tài)場景中特定像素滿足同一高斯分布的次數(shù)進行統(tǒng)計,根據(jù)其是否超過一定的閾值,對權(quán)重學習速率進行不同的更新,從而提高算法的精確性,獲得更加穩(wěn)定的背景模型。實驗表明,改進的算法不僅能夠有效地抑制光照和噪聲對檢測結(jié)果的影響,而且在不同的場景中能夠建立精確的背景模型。進一步要做的工作是研究如何在不降低精度的前提下,提高算法的實時性。
[1]Olivier Barnich,Marc Van Droogenbroeck.ViBe:A universal background subtraction algorithm for video sequences[J].IEEE Transactions on Image Processing,2011,20(6):1709-1724.
[2]Haritaoglu I, Harwood D, Davis L S.W4:real-time surveillance of people and their activities[J].IEEE Transactions on Pattern Analysis and Machine Intelligence.2000,22(8):809-830.
[3]Zha Ye-fei,Bi Du-yan.Adaptive learning algorithm based on mixture Gaussian background [J].Journal of Systems Engineering and Electronics, 2007,18(2):369-373.
[4]馬義德,朱望飛,安世霞,等。改進的基于高斯混合模型的運動目標檢測方法[J].計算機應(yīng)用.2007,27(10):2244-2246.
[5]原春鋒,王傳旭,張祥光,等。光照突變環(huán)境下基于高斯混合模型和梯度信息的視頻分割[J].中國圖象圖形學報,2007,12(11):2068-2072.
[6]Gang Chen, Zhezhou Yu, Qing Wen, et al.Improved Gaussian Mixture Model for Moving Object Detection.Springer Verlag Berlin Heidelberg 2011:179-186.
[7]陳明生,梁光明,孫即祥,等.利用時空背景模型的快速運動目標檢測方法[J].中國圖象圖形學報,2011,16(6):1002-1007.
[8]李亞玲,徐榮青,聶桂軍,等.適應(yīng)場景光照變化的運動目標檢測算法[J].計算機技術(shù)與發(fā)展,2011,21(2):140-142.