莊哲民章聰友*楊金耀李芬蘭
①(汕頭大學(xué)電子工程系 汕頭 515063)
②(汕頭市超聲儀器研究所有限公司 汕頭 515000)
基于灰度特征和自適應(yīng)閾值的虛擬背景提取研究
莊哲民①章聰友*①楊金耀②李芬蘭①
①(汕頭大學(xué)電子工程系 汕頭 515063)
②(汕頭市超聲儀器研究所有限公司 汕頭 515000)
針對(duì)虛擬背景提取(Visual Background extractor,ViBe)算法在目標(biāo)檢測(cè)時(shí)容易出現(xiàn)鬼影和運(yùn)動(dòng)目標(biāo)陰影的缺點(diǎn),該文提出了一種基于灰度特征和自適應(yīng)閾值的ViBe背景建模改進(jìn)方法。該算法首先利用ViBe算法進(jìn)行背景建模,得到前景目標(biāo),然后對(duì)前景目標(biāo)進(jìn)行灰度特征判斷和自適應(yīng)閾值比較,得到?jīng)]有鬼影和運(yùn)動(dòng)目標(biāo)陰影的運(yùn)動(dòng)目標(biāo)。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的算法可以很好地彌補(bǔ)ViBe算法的不足,提高ViBe算法的識(shí)別準(zhǔn)確率。
計(jì)算機(jī)視覺(jué);運(yùn)動(dòng)目標(biāo)檢測(cè);背景建模;虛擬背景提取(ViBe);自適應(yīng)閾值;灰度化特征
運(yùn)動(dòng)目標(biāo)的檢測(cè)是計(jì)算機(jī)視覺(jué)和數(shù)字圖像處理領(lǐng)域的一個(gè)重要研究?jī)?nèi)容,在智能視頻監(jiān)控等許多領(lǐng)域有著廣泛的應(yīng)用。它處于整個(gè)視頻處理系統(tǒng)的最底層,是各種后續(xù)高級(jí)處理如目標(biāo)跟蹤、目標(biāo)分類、行為識(shí)別、場(chǎng)景理解等的基礎(chǔ)。
目前最常用的運(yùn)動(dòng)目標(biāo)檢測(cè)方法是背景建模法,主要分為兩大類,一類是基于參數(shù)的背景模型,該類方法為每個(gè)像素點(diǎn)建立一個(gè)參數(shù)模型用以表示背景,其中最為典型的是混合高斯模型[1,2],可用于復(fù)雜運(yùn)動(dòng)的背景建模,但是模型計(jì)算復(fù)雜度高;另一類是基于像素樣本的背景模型,這類方法的背景模型可以及時(shí)初始化,具有較好的抗噪能力,且算法的復(fù)雜度低[3],此外,還有基于顏色信息的背景建模方法[4]和基于自組織神經(jīng)網(wǎng)絡(luò)的背景建模方法[5]等方法,其中,基于顏色信息的算法將像素點(diǎn)的差異分解成Chromaticity差異和Brightness差異來(lái)對(duì)背景進(jìn)行建模,對(duì)光照具有很強(qiáng)的魯棒性;而基于自組織神經(jīng)網(wǎng)絡(luò)的算法則利用神經(jīng)網(wǎng)絡(luò)特性對(duì)背景進(jìn)行建模,不僅對(duì)光照具有較強(qiáng)的魯棒性,而且具有較強(qiáng)的實(shí)用性。
虛擬背景提取(Visual Background extractor, ViBe)算法[6,7]是基于像素樣本背景模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法,該算法具有計(jì)算量小、內(nèi)存占用少、處理速度快、檢測(cè)效果好和應(yīng)對(duì)噪聲穩(wěn)定可靠的特點(diǎn),非常適合嵌入照相機(jī)等小型設(shè)備中。但是這種算法的初始化容易出現(xiàn)鬼影和運(yùn)動(dòng)目標(biāo)陰影,它會(huì)影響背景的建模和更新速度,也會(huì)對(duì)后續(xù)的運(yùn)動(dòng)物體跟蹤、分類和識(shí)別等操作造成不利的影響。
目前已經(jīng)發(fā)表的一些文獻(xiàn)提到了解決鬼影和運(yùn)動(dòng)目標(biāo)陰影的問(wèn)題。如文獻(xiàn)[8]等利用背景差分方法獲得前景目標(biāo)塊,再把它分為運(yùn)動(dòng)目標(biāo)、鬼影和陰影3類,利用時(shí)空差分方程近似計(jì)算前景的光流以區(qū)別運(yùn)動(dòng)目標(biāo)和鬼影;文獻(xiàn)[9,10]等利用幀差法判斷前景區(qū)域像素在當(dāng)前幀和前幀圖像之間的差異,記錄它們的運(yùn)動(dòng)或靜止?fàn)顟B(tài),從而確定屬于運(yùn)動(dòng)目標(biāo)還是鬼影;文獻(xiàn)[11]等通過(guò)分析陰影與背景顏色空間中的特性,在測(cè)到運(yùn)動(dòng)目標(biāo)的同時(shí)消除陰影。文獻(xiàn)[12]等通過(guò)紋理檢測(cè)獲取陰影紋理信息,來(lái)進(jìn)行陰影消除。但是這些方法都存在計(jì)算復(fù)雜度高或者當(dāng)車輛與陰影顏色相似時(shí)造成誤檢的問(wèn)題,削弱了ViBe算法檢測(cè)速度快、準(zhǔn)確率高的特點(diǎn)。
由于當(dāng)前圖像鬼影塊位置的灰度特征和對(duì)應(yīng)位置前幀圖像之間的分布非常相近,但是因?yàn)檫\(yùn)動(dòng)目標(biāo)會(huì)發(fā)生移動(dòng),因此運(yùn)動(dòng)目標(biāo)的灰度特征和對(duì)應(yīng)位置前幀圖像之間的分布則相差較遠(yuǎn),本文將利用這一特性可以對(duì)鬼影進(jìn)行檢測(cè);在目標(biāo)陰影檢測(cè)中,雖然RGB顏色空間檢測(cè)運(yùn)動(dòng)物體陰影的效果比HSV顏色空間好[13,14],但其閾值需要人為地設(shè)置,不是自適應(yīng)的,只可以用來(lái)解決固定場(chǎng)景下的運(yùn)動(dòng)物體陰影檢測(cè),為此,本文將引入Ostu[15,16]算法對(duì)閾值進(jìn)行自動(dòng)尋找。對(duì)此,本文結(jié)合ViBe算法本身的特點(diǎn),提出了一種新的基于灰度特征統(tǒng)計(jì)和自適應(yīng)閾值RGB顏色空間的ViBe改進(jìn)算法。通過(guò)實(shí)驗(yàn)仿真證明,改進(jìn)后的算法可以有效地消除鬼影和運(yùn)動(dòng)物體陰影,提高算法的識(shí)別率和正確率。
文獻(xiàn)[6,7]等人提出的ViBe背景建模法是一種基于概率統(tǒng)計(jì)的運(yùn)動(dòng)目標(biāo)檢測(cè)算法,適用于任何場(chǎng)景,而且采用隨機(jī)選擇的更新機(jī)制,使得一個(gè)像素只需要作1次比較、占用1個(gè)字節(jié)的內(nèi)存,從而有效地提高了檢測(cè)的精度和減少了計(jì)算的負(fù)載。ViBe算法主要由3部分組成:ViBe背景模型的工作原理、模型的初始化方法和模型的更新策略。
2.1 ViBe背景模型的工作原理
在ViBe模型中,背景模型為每個(gè)背景點(diǎn)存儲(chǔ)了一個(gè)樣本集,并將每一個(gè)新的像素值和樣本集進(jìn)行比較來(lái)判斷是否屬于背景點(diǎn)。因此,如果一個(gè)新像素值屬于背景點(diǎn),則它應(yīng)該和樣本集中的采樣值比較接近。通常,定義vx為x點(diǎn)處的像素值,vi是一個(gè)含有指數(shù)i的背景樣本值,每一個(gè)背景像素x的模型M(x)是由N個(gè)隨機(jī)背景樣本值構(gòu)成的集合,即
通過(guò)對(duì)M(x)的判定,可以確定像素值v(x)是否為背景像素值,其中這個(gè)模型是通過(guò)前幀獲取的。如圖1所示。
圖1中SR(v(x))表示以x為中心,以R為半徑的區(qū)域,用U表示SR(v(x))與M隨機(jī)背景樣本集合的交集來(lái)判斷相似度,即
圖1 ViBe背景模型
當(dāng)U大于一個(gè)給定的閾值#min時(shí),便就認(rèn)為x點(diǎn)屬于背景點(diǎn)。
2.2 模型的初始化方法
ViBe背景模型的初始化可以看做是填充像素的背景樣本集的過(guò)程。由于在一幀圖像中不可能包含視頻全部的時(shí)空分布信息,所以ViBe算法利用了相近像素點(diǎn)具有相近的時(shí)空分布的特性,即:對(duì)于一個(gè)像素點(diǎn),隨機(jī)地選擇它的鄰居點(diǎn)的像素值作為它的模型樣本值。我們將第1幀的背景模型集合作為其初始化的背景模型,即其中,Mt=0(x)為第1幀的背景模型集合,NG(x)為像素點(diǎn)x在時(shí)空分布上相近的鄰居集合,y是根據(jù)統(tǒng)一性原則從NG(x)中隨機(jī)選擇的像素點(diǎn),vt=0(y)為第1幀所選取的像素點(diǎn)的像素值。
這種初始化方法的優(yōu)點(diǎn)是對(duì)噪聲的反應(yīng)比較靈敏,計(jì)算量小,速度快,可以很快地進(jìn)行運(yùn)動(dòng)物體的檢測(cè),缺點(diǎn)是容易引入鬼影區(qū)域。
2.3 模型的更新策略
背景模型的更新目的就是使得背景模型能夠適應(yīng)背景的不斷變化,比如光照的變化,背景物體的變更等。其方法是從背景樣本模型中隨機(jī)選取一個(gè)樣本,用已確定背景點(diǎn)對(duì)其進(jìn)行替換,每一個(gè)背景點(diǎn)有1/φ的概率去更新其對(duì)應(yīng)的模型樣本值和其鄰居點(diǎn)的模型樣本值。對(duì)背景點(diǎn)的鄰居點(diǎn)進(jìn)行更新時(shí),隨機(jī)選取該背景點(diǎn)8領(lǐng)域中的一個(gè)像素值替換隨機(jī)選取的鄰居像素值,如果背景模型樣本集取N=6,則會(huì)存在有6種可能的背景更新模型。以圖1的背景模型為例,假設(shè)像素點(diǎn)x已判斷為背景點(diǎn),圖2為其中的3種更新背景模型結(jié)果,其中圖2(a)為背景點(diǎn)x替換原背景集合樣本v3,圖2(b)為背景點(diǎn)x替換原背景集合樣本v1,圖2(c)為背景點(diǎn)x替換原背景集合樣本v5。
3.1 基于灰度特征直方圖統(tǒng)計(jì)的鬼影消除
圖2 背景模型更新后其中3個(gè)可能的模型
目前檢測(cè)鬼影的算法大概可以分為兩大類:一是判斷獲得的前景目標(biāo)的運(yùn)動(dòng)屬性,二是利用自適應(yīng)的背景維護(hù)和更新,從而來(lái)區(qū)分運(yùn)動(dòng)目標(biāo)和鬼影,前者不能解決顏色和場(chǎng)景相近的運(yùn)動(dòng)目標(biāo)檢測(cè)為鬼影的問(wèn)題[9],而后者是ViBe[6,7]算法中鬼影消除的常用方法,雖然這種方法最終能夠消除鬼影,但算法非常耗時(shí)。
為此,基于鬼影與前景運(yùn)動(dòng)目標(biāo)在統(tǒng)計(jì)學(xué)上的差異,本文提出對(duì)前景目標(biāo)采用灰度特征直方圖處理,完成對(duì)鬼影的識(shí)別,其具體方法為:
首先,利用ViBe算法式(3)對(duì)背景進(jìn)行建模,然后利用式(2)獲得前景目標(biāo),并把彼此相連的前景目標(biāo)像素點(diǎn)通過(guò)形態(tài)學(xué)處理連接成前景塊,得到相應(yīng)幀的前景,記為Fi,接著,采用非線性灰度變換技術(shù)將Fi轉(zhuǎn)換為灰度圖像。以指數(shù)函數(shù)作為映射函數(shù)進(jìn)行灰度變換,即
其中f(x,y)為原圖像(x,y)像素值,g(x,y)為變換后的像素灰度值,a,b,c為可調(diào)參數(shù)。
然后,對(duì)得到的灰度圖像進(jìn)行直方圖統(tǒng)計(jì)得到H,同時(shí)求出前第k幀(這里k可取5)相應(yīng)位置圖
iF像的灰度特征統(tǒng)計(jì)直方圖kH,然后用交集表示iFH和kH的直方圖匹配,匹配公式為
其中M表示iFH和kH的匹配程度。鬼影的判斷式如下:
其中T為閾值(一般取0.9)。通常,鬼影塊的匹配程度很高,而運(yùn)動(dòng)目標(biāo)塊的匹配程度則很低。在判斷出鬼影之后,可以及時(shí)地更新ViBe的背景模型,消除鬼影所帶來(lái)的干擾。
總之,雖然當(dāng)前圖像鬼影塊位置的灰度特征和前幀圖像對(duì)應(yīng)位置之間的分布非常相近。但由于運(yùn)動(dòng)目標(biāo)會(huì)發(fā)生移動(dòng),當(dāng)運(yùn)動(dòng)目標(biāo)會(huì)發(fā)生快速移動(dòng)且移動(dòng)距離較遠(yuǎn)時(shí),運(yùn)動(dòng)目標(biāo)灰度特征和前幀圖像對(duì)應(yīng)位置之間的統(tǒng)計(jì)分布相差較大,因此可以將當(dāng)前前景目標(biāo)的灰度特征統(tǒng)計(jì)直方圖與前幀圖像相對(duì)應(yīng)位置的灰度特征統(tǒng)計(jì)直方圖進(jìn)行比較,從而判斷出前景目標(biāo)是否為鬼影。
3.2 基于自適應(yīng)閾值的RGB顏色空間的陰影檢測(cè)
在視頻跟蹤中,常用的陰影檢測(cè)[17]算法主要分為兩大類:一類是基于模型[18,19],另一類是基于陰影性質(zhì)[20,21]。基于模型類別的是通過(guò)利用場(chǎng)景、目標(biāo)的3維幾何結(jié)構(gòu)和光源等已知信息來(lái)識(shí)別運(yùn)動(dòng)目標(biāo)陰影,基于陰影性質(zhì)類別的主要就是利用陰影的亮度、顏色、紋理和模式等特征來(lái)識(shí)別的。以上兩種陰影檢測(cè)算法無(wú)法在復(fù)雜背景下使用,因此將傳統(tǒng)的陰影檢測(cè)算法與ViBe算法相結(jié)合,在使用上具有一定的局限性。
因此,為了使ViBe算法能夠進(jìn)行陰影檢測(cè)并適用于任何場(chǎng)景。本文提出基于自適應(yīng)閾值RGB顏色空間對(duì)陰影檢測(cè)算法進(jìn)行改進(jìn),雖然通過(guò)實(shí)驗(yàn)發(fā)現(xiàn)RGB顏色空間特征的陰影檢測(cè)效果比HSV顏色空間好,但是只限于固定的場(chǎng)景,沒(méi)有普遍性,其主要原因是閾值的設(shè)定問(wèn)題。因此,本文提出利用Ostu[15,16]對(duì)閾值進(jìn)行自適應(yīng)計(jì)算。實(shí)驗(yàn)仿真表明,該方法提高了RGB顏色空間特征陰影檢測(cè)算法的準(zhǔn)確率和自適應(yīng)性。
首先,我們把圖像總像素?cái)?shù)N定義為其中,圖像的灰度值為1~m級(jí),灰度值i的像素?cái)?shù)為ni。
各灰度值的概率pi定義為
然后用k將灰度級(jí)分成兩組,即C0={1,2,…,k}和C1={k+1,k+2,…,m},C0的概率w0定義為
C1的概率w1定義為
C0的平均值0μ定義為
C1的平均值1μ定義為
兩組灰度級(jí)總的方差2σ定義為
因此,把得到的前景目標(biāo)圖像設(shè)為F,對(duì)應(yīng)的背景圖像為b,F對(duì)應(yīng)的RGB分量為FR,FG,FB,b對(duì)應(yīng)的RGB分量為bR,bG,bB。陰影像素必須同時(shí)滿足式(15)的3個(gè)條件。
TR,TG,TB分別表示R,G,B 3個(gè)顏色通道上的前景像素與對(duì)應(yīng)背景點(diǎn)的差值門限。
為了對(duì)3個(gè)閾值TR,TG,TB進(jìn)行自適應(yīng)設(shè)置。首先設(shè)置3個(gè)分量的量級(jí)為mR,mG,mB, 3個(gè)分量第i級(jí)的像素?cái)?shù)分別為nRi,nGi,nBi,由于各個(gè)分量總像素?cái)?shù)相等為,各分量的量級(jí)的概率分別為pRi=nRi/N,pGi=nGi/N,pBi=nBi/N,同時(shí)把各分量灰度級(jí)在某一閾值處分割成兩組,然后把這些值代入式(9)~式(14)進(jìn)行迭代計(jì)算,當(dāng)被分成的兩組間方差為最大時(shí),就可以得到各個(gè)顏色分量的自適應(yīng)閾值。
通過(guò)引入這個(gè)計(jì)算閾值的方法,使基于RGB顏色空間特征的陰影檢測(cè)方法的閾值可以自適應(yīng)計(jì)算,從而避免人為主觀的設(shè)置,可以適合各種場(chǎng)景。
3.3 改進(jìn)的ViBe算法的實(shí)現(xiàn)
改進(jìn)的ViBe算法的實(shí)現(xiàn)流程如圖3所示。
圖3給出ViBe改進(jìn)算法的整體流程圖,該算法的完整步驟如下所示,通過(guò)對(duì)獲取的前景目標(biāo)進(jìn)行判斷,得到完整的運(yùn)動(dòng)目標(biāo):
圖3 改進(jìn)的ViBe算法實(shí)現(xiàn)流程圖
首先當(dāng)獲取到視頻的第1幀時(shí),為每個(gè)像素建立一個(gè)ViBe背景模型,并用式(3)對(duì)其進(jìn)行初始化;接著,從視頻第2幀開(kāi)始,每個(gè)像素和對(duì)應(yīng)的ViBe背景模型通過(guò)式(2)進(jìn)行比較,判斷該像素是否屬于背景點(diǎn)。如果屬于背景點(diǎn),則用該背景點(diǎn)對(duì)通過(guò)8鄰域隨機(jī)選取的背景模型中的某個(gè)樣本進(jìn)行替換以達(dá)到對(duì)像素的背景模型進(jìn)行更新的目的。同時(shí)可以得到本幀視頻的前景目標(biāo);對(duì)獲得的前景目標(biāo)進(jìn)行形態(tài)學(xué)去噪,主要是去除一些小的前景目標(biāo),形態(tài)學(xué)的去噪方式主要是對(duì)前景目標(biāo)進(jìn)行腐蝕和膨脹操作;然后,對(duì)形態(tài)學(xué)去噪之后的前景目標(biāo)進(jìn)行連通域標(biāo)號(hào)。連通域標(biāo)號(hào)是指將不同的連通域用唯一的號(hào)碼來(lái)表示該連通域,用來(lái)區(qū)分一個(gè)像素是否在某個(gè)連通域內(nèi);對(duì)每個(gè)連通域標(biāo)號(hào)之后,分別對(duì)各個(gè)連通域和前幀對(duì)應(yīng)的區(qū)域灰度化并進(jìn)行灰度直方圖統(tǒng)計(jì),通過(guò)式(5)進(jìn)行直方圖匹配計(jì)算得到匹配度,將匹配度代入式(6)判斷連通域是否為鬼影,如果是則更新背景模型,不是,則對(duì)前景目標(biāo)進(jìn)行去陰影操作。對(duì)得到的前景目標(biāo)獲取它們的RGB顏色分量,分別代入式(7)~式(14)獲取RGB分量各自的閾值并代入式(15)得到?jīng)]有陰影的運(yùn)動(dòng)目標(biāo);最后,對(duì)得到的運(yùn)動(dòng)目標(biāo)進(jìn)行形態(tài)學(xué)操作得到完整的運(yùn)動(dòng)目標(biāo)。
本實(shí)驗(yàn)在VS2010+OpenCV2.4.3平臺(tái)上編程實(shí)現(xiàn),所用電腦配置為Pentium(R) Dual-Core CPU E6700 3.2 GHz,內(nèi)存為2.00 GB。選擇一段標(biāo)準(zhǔn)視頻作為測(cè)試樣本,視頻的大小為720×480。
利用本文算法對(duì)視頻序列Highway進(jìn)行檢測(cè),在第5幀,視頻中汽車由于運(yùn)動(dòng)在背景中產(chǎn)生鬼影(用方框標(biāo)示),如圖4(b)所示;在第9幀分別得到汽車前景和鬼影,其灰度特征直方圖分別如圖4(g)和圖4(h)所示,同時(shí)得到汽車前景和鬼影對(duì)應(yīng)位置第5幀圖像的灰度特征直方圖,分別如圖4(e)和圖4(f)所示??梢钥闯觯瑢?duì)于汽車前景塊,圖4(e)和圖4(g)二者的灰度特征直方圖具有較大的差異,而對(duì)于鬼影塊,圖4(f)和圖4(h)二者的灰度特征直方圖差異則較小。通過(guò)這個(gè)依據(jù),可以判斷出哪個(gè)是鬼影,并消除鬼影,如圖4(d)所示。
在這個(gè)實(shí)驗(yàn)中,基于灰度特征統(tǒng)計(jì)直方圖的算法,在第5幀出現(xiàn)鬼影之后,經(jīng)過(guò)4幀左右就可以檢測(cè)并消除鬼影,比原ViBe算法要大于50幀才能識(shí)別并消除速度快。
在得到運(yùn)動(dòng)目標(biāo)之后,開(kāi)始對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行去陰影處理。圖5(a)為第9幀前景運(yùn)動(dòng)目標(biāo)(用方框標(biāo)示),可以看到,方框包含著運(yùn)動(dòng)目標(biāo)和陰影塊。圖5(b)為對(duì)應(yīng)第9幀的背景圖像。分別求出運(yùn)動(dòng)目標(biāo)像素點(diǎn)和其對(duì)應(yīng)位置背景點(diǎn)的3個(gè)R,G,B分量,由于式(15)的3個(gè)閾值需要人為主觀地去設(shè)置,對(duì)RGB顏色空間檢測(cè)陰影的實(shí)用性產(chǎn)生了不利影響。本文提出利用Ostu算法,使式(15)中的閾值可以隨場(chǎng)景光照情況的不同而自適應(yīng)改變。
如圖5(c)所示,通過(guò)自適應(yīng)閾值的RGB顏色空間可以比較理想地去掉陰影,圖5(d)為改進(jìn)的ViBe算法分割出來(lái)的運(yùn)動(dòng)目標(biāo)。
為了說(shuō)明本文算法的性能,將本文算法、混合高斯模型算法(OpenCV自帶算法)和原ViBe算法,在處理速度、算法正確率(算法正確率=識(shí)別出的運(yùn)動(dòng)目標(biāo)數(shù)/實(shí)際的運(yùn)動(dòng)目標(biāo)數(shù))、鬼影檢測(cè)正確率(鬼影檢測(cè)正確率=識(shí)別出的鬼影數(shù)量/實(shí)際的鬼影數(shù)量)、鬼影識(shí)別時(shí)間和陰影檢測(cè)正確率(陰影檢測(cè)正確率=識(shí)別出的陰影面積/實(shí)際的陰影面積)等方面做了對(duì)比分析,如表1所示。
圖4 Highway實(shí)驗(yàn)結(jié)果
圖5 陰影檢測(cè)實(shí)驗(yàn)結(jié)果
表1 算法性能比較
從表1可以看出,本文算法的處理速度處于原ViBe算法和混合高斯模型算法之間,能滿足實(shí)時(shí)處理視頻幀的要求;算法正確率、鬼影檢測(cè)正確率和鬼影識(shí)別時(shí)間均好于原ViBe算法和混合高斯模型算法,并且能夠?qū)崿F(xiàn)陰影檢測(cè),大大降低對(duì)后續(xù)視頻幀操作的不利影響。
總之,在本文中,通過(guò)利用灰度直方圖的統(tǒng)計(jì)識(shí)別出鬼影與運(yùn)動(dòng)目標(biāo),是因?yàn)榘碛皩?duì)應(yīng)位置的幀圖像在后幀圖像中的對(duì)應(yīng)位置并沒(méi)有任何改變,而由于運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)性,其后幀圖像的對(duì)應(yīng)位置會(huì)不斷地發(fā)生變化,而灰度圖像的描述可以反映整幅圖像的整體和局部的色度和亮度等級(jí)的分布和特征,而且圖像的灰度化并不會(huì)給ViBe算法的運(yùn)行速度帶來(lái)明顯的影響;而在本文算法中提出利用基于Ostu的RGB陰影檢測(cè)算法,是因?yàn)閂iBe算法適用于任何的場(chǎng)景,但基于RGB的陰影檢測(cè)算法只能針對(duì)特定的場(chǎng)景設(shè)定特定的閾值,并不適用于ViBe算法。而Ostu算法可以針對(duì)特定的場(chǎng)景把直方圖在某一閾值處分割成兩組,不斷進(jìn)行迭代計(jì)算,當(dāng)被分成的兩組間方差為最大時(shí),便得到閾值,從而實(shí)現(xiàn)自動(dòng)尋找閾值。通過(guò)自適應(yīng)閾值的計(jì)算,可以使陰影檢測(cè)算法適用于任何場(chǎng)景,在不同的場(chǎng)景自動(dòng)設(shè)置不同的閾值,適用于ViBe算法,并且提高了ViBe算法的計(jì)算效率。
針對(duì)ViBe算法無(wú)法消除鬼影和運(yùn)動(dòng)陰影的不足,本文提出了一種基于灰度特征和自適應(yīng)閾值的ViBe改進(jìn)算法。利用該算法對(duì)背景進(jìn)行建模,得到預(yù)前景目標(biāo),并對(duì)預(yù)前景目標(biāo)進(jìn)行灰度特征判斷和自適應(yīng)RGB顏色空間閾值比較,得到?jīng)]有鬼影和運(yùn)動(dòng)目標(biāo)陰影的運(yùn)動(dòng)目標(biāo)。實(shí)驗(yàn)結(jié)果表明,該算法可以很好地消除前景目標(biāo)的噪點(diǎn),抑制運(yùn)動(dòng)目標(biāo)的陰影,而且在前景目標(biāo)出現(xiàn)鬼影的時(shí)候可以快速地識(shí)別并且及時(shí)地更新背景模型。
[1] Stauffer C and Grimson W E L. Adaptive background mixture models for real-time tracking[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Ft. Collins, CO, USA, 1999, 2: 246-252.
[2] Zivkovic Z. Improved adaptive Gaussian mixture model for background subtraction[C]. Proceedings of the 17th IEEE International Conference on Pattern Recognition, Cambridge, UK, 2004: 28-31.
[3] Wang H and Suter D. A consensus-based method for tracking: modeling background scenario and foreground appearance[J]. Pattern Recognition, 2007, 40(3): 1091-1105.
[4] Horprasert T, Harwood D, and Davis L S. A statistical approach for real-time robust background subtraction and shadow detection[C]. IEEE International Conference on Computer Vision (ICCV), Kerkyra (Corfu), Greece, 1999: 1-19.
[5] Maddalena L and Petrosino A. A self-organizing approach to background subtraction for visual surveillance applications[J]. IEEE Transactions on Image Processing, 2008, 17(7): 1168-1177.
[6] Barnich O and Van Droogenbroeck M. ViBe: a powerful random technique to estimate the background in video sequences[C]. IEEE International Conference on Acoustics, Speech and Signal Processing, Taipei, China, 2009: 945-948.
[7] Barnich O and Van Droogenbroeck M. ViBe: a universal background subtraction algorithm for video sequences[J]. IEEE Transactions on Image Processing, 2011, 20(6): 1709-1724.
[8] Cucchiara R, Grana C, Piccardi M, et al.. Detecting moving objects, ghosts, and shadows in video streams[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(10): 1337-1342.
[9] Calderara S, Melli R, Prati A, et al.. Reliable background suppression for complex scenes[C]. Proceedings of the 4th ACM international Workshop on Video Surveillance and Sensor Networks, New York, 2006: 211-214.
[10] Piccinini P, Calderara S, and Cucchiara R. Reliable smoke detection in the domains of image energy and color[C]. 15th IEEE International Conference on Image Processing, San Diego, CA, USA, 2008: 1376-1379.
[11] Yuan J, Wu J, and Cheng Y. Shadow detecting algorithms research for moving objects base on self-adaptive background[C]. IEEE International Conference on Modeling, Identification & Control (ICMIC), Wuhan, China, 2012: 197-200.
[12] McFeely R, Glavin M, and Jones E. Shadow identification for digital imagery using color and texture cues[J]. IET ImageProcessing, 2012, 6(2): 148-159.
[13] Salvador E, Cavallaro A, and Ebrahimi T. Cast shadow segmentation using invariant color features[J]. Computer Vision and Image Understanding, 2004, 95(2): 238-259.
[14] Xiao M, Han C Z, and Zhang L. Moving shadow detection and removal for traffic sequences[J]. International Journal of Automation and Computing, 2007, 4(1): 38-46.
[15] Yoshikawa F, Toraichi K, Wada K, et al.. On a grading system for beef marbling[J]. Pattern Recognition Letters, 2000, 21(12): 1037-1050.
[16] Feng B, Wang Z, and Sun J. Image threshold segmentation with Ostu based on quantum-behaved particle swarm algorithm[J]. Computer Engineering and Design, 2008, 29(13): 3429-3434.
[17] Sanin A, Sanderson C, and Lovell B C. Shadow detection: a survey and comparative evaluation of recent methods[J]. Pattern Recognition, 2012, 45(4): 1684-1695.
[18] Jeong S, Kang S, and Kim J. Vehicle detection based on the use of shadow region and edge[C]. Fifth International Conference on Digital Image Processing. International Society for Optics and Photonics, Beijing, China, 2013: 88782Y-88782Y-4.
[19] Xu Z and Pan J. Fast detect shadow from single outdoor image[C]. 2011 Seventh IEEE International Conference on Natural Computation (ICNC), Shanghai, 2011, 4: 1827-1831.
[20] Jiang K, Li A, Cui Z, et al.. Adaptive shadow detection using global texture and sampling deduction[J]. IET Computer Vision, 2013, 7(2): 115-122.
[21] Shi W and Li J. Shadow detection in color aerial images based on HSI space and color attenuation relationship[J]. EURASIP Journal on Advances in Signal Processing, 2012, 2012(1): 1-13.
莊哲民: 男,1965年生,博士,教授,研究方向?yàn)橹悄苄盘?hào)處理.
章聰友: 男,1987年生,碩士,研究方向?yàn)閿?shù)字圖像處理.
楊金耀: 男,1962年生,碩士,高級(jí)工程師,研究方向?yàn)閮x器研發(fā).
李芬蘭: 女,1964年生,博士,教授,研究方向?yàn)橹悄苄盘?hào)處理.
Investigation on Visual Background Extractor Based on Gray Feature and Adaptive Threshold
Zhuang Zhe-min①Zhang Cong-you①Yang Jin-yao②Li Fen-lan①
①(Department of Electronic Engineering, Shantou University, Shantou 515063, China)
②(Shantou Institute of Ultrasonic Instruments Limited Corporation, Shantou 515000, China)
In order to solve the problem of the ghost and the shadow of moving object, an improved Visual Background extractor (ViBe) algorithm is proposed based on gray feature and adaptive threshold. The new method firstly applies the ViBe algorithm to obtain the foreground object, and then uses the gray feature judgment, as well as the adaptive threshold comparison in the foreground object to get the moving object without the ghost and the shadow. Experiments show that the improved algorithm results in better recognition accuracy.
Computer vision; Moving object detection; Background modeling; Visual Background extractor (ViBe); Adaptive threshold; Gray feature
TP391.4
A
1009-5896(2015)02-0346-07
10.11999/JEIT140317
2014-03-10收到,2014-05-30改回
國(guó)家自然科學(xué)基金(61070152)資助課題
*通信作者:章聰友 11cyzhang1@stu.edu.cn