• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于YCbCr的自適應(yīng)混合高斯模型背景建模*

      2015-03-19 01:28:02殷萇茗周書(shū)仁
      關(guān)鍵詞:高斯分布高斯背景

      黃 玉,殷萇茗,周書(shū)仁

      (長(zhǎng)沙理工大學(xué)計(jì)算機(jī)與通信工程學(xué)院,湖南 長(zhǎng)沙410004)

      1 引言

      運(yùn)動(dòng)目標(biāo)檢測(cè),即檢測(cè)當(dāng)前圖像和背景圖像中對(duì)應(yīng)像素點(diǎn)的差異,選擇合適閾值判定該像素為前景運(yùn)動(dòng)目標(biāo)。它是運(yùn)動(dòng)分析、視頻監(jiān)控的關(guān)鍵步驟,也是最基礎(chǔ)和底層的步驟,其檢測(cè)結(jié)果的好壞直接關(guān)系到后續(xù)分析處理的優(yōu)劣和實(shí)用性。目前,常用的運(yùn)動(dòng)目標(biāo)檢測(cè)算法主要有幀差法[1]、光流法、背景差分法。背景建模是背景差分法的核心環(huán)節(jié)。

      Stauffer C 與Grimson W[2]提出了混合高斯MoG(Mixture of Gaussians)背景模型方法,利用在線估計(jì)更新模型,能較好地處理光照變化和背景混亂運(yùn)動(dòng)的干擾等產(chǎn)生的影響,但它所耗費(fèi)的龐大計(jì)算量限制了這種模型在實(shí)時(shí)性很強(qiáng)的系統(tǒng)中的應(yīng)用。文獻(xiàn)[3]用實(shí)驗(yàn)證明該經(jīng)典MoG 方法對(duì)噪聲情況的處理效果很一般。Kaewtrakulpong P等[4]對(duì)MoG 方法進(jìn)行改進(jìn),使用兩個(gè)階段的學(xué)習(xí)方案對(duì)參數(shù)進(jìn)行更新,但由于檢測(cè)階段的更新速度較小且恒定,模型仍不能很好地適應(yīng)背景變化。Zivkovic Z[5]提出了一種自適應(yīng)選擇高斯成分個(gè)數(shù)的方法對(duì)MoG 進(jìn)行改進(jìn),較大地提高了計(jì)算時(shí)間和性能,但其對(duì)收斂速度沒(méi)有明顯改進(jìn)。Lee D S[6]引入另一變量對(duì)學(xué)習(xí)速率進(jìn)行計(jì)算,提高了收斂速度和精確率,但容易將運(yùn)動(dòng)較慢、面積較大的目標(biāo)學(xué)習(xí)為背景,導(dǎo)致目標(biāo)檢測(cè)不完整。王永忠等[7]提出了一種新的混合高斯模型高斯成分個(gè)數(shù)的自適應(yīng)選擇策略,能夠加快建模速度,實(shí)現(xiàn)實(shí)時(shí)效果。

      本文對(duì)MoG 進(jìn)行改進(jìn),提出一種基于YCbCr的自適應(yīng)混合高斯模型背景建模方法:將建模顏色空間從RGB轉(zhuǎn)換到Y(jié)CbCr,采用自適應(yīng)選擇策略來(lái)確定混合高斯模型的高斯成分個(gè)數(shù),按照新的關(guān)鍵字變量的值對(duì)高斯成分進(jìn)行排序。將提出的建模方法應(yīng)用于運(yùn)動(dòng)目標(biāo)檢測(cè),實(shí)驗(yàn)結(jié)果表明,相較于MoG 方法,本文提出的方法應(yīng)用于運(yùn)動(dòng)目標(biāo)檢測(cè)中能取得更準(zhǔn)確的檢測(cè)結(jié)果,能更好地處理噪聲的影響,耗時(shí)更少。

      2 混合高斯背景建模

      文獻(xiàn)[2]提出的混合高斯背景模型的基本思想是,用K(一般取3~5)個(gè)高斯分布的混合對(duì)每個(gè)像素建模,并對(duì)高斯分布的均值和方差進(jìn)行在線更新。在前景檢測(cè)過(guò)程中,如果圖像像素點(diǎn)與被選為背景模型的高斯成分相匹配,則該像素點(diǎn)歸類為背景點(diǎn),相反地,則被認(rèn)為是前景點(diǎn)。t時(shí)刻視頻序列中第i個(gè)像素點(diǎn)Xi,t的概率可以用K個(gè)高斯分布表示:

      其中,η(Xi,t,μi,k,t,Σi,k,t)是高斯分布函數(shù),μi,k,t為均值,Σi,k,t為協(xié)方差矩陣,ωi,k,t為權(quán)重。

      當(dāng)有新的圖像幀到來(lái)時(shí),將其中的每個(gè)像素與該像素處已存在的K個(gè)高斯分布逐一匹配檢驗(yàn),若滿足:

      則說(shuō)明當(dāng)前像素點(diǎn)Xt與混合高斯模型中第k個(gè)高斯分布相匹配,反之則不匹配。其中,λ為一常量,通常取2.5~3.5,σk,t為標(biāo)準(zhǔn)差。對(duì)匹配的第k個(gè)高斯分布的參數(shù)按下式更新:

      其中,α為自定義的學(xué)習(xí)速率(通常取0.005),ρ為參數(shù)學(xué)習(xí)速率。匹配時(shí),Mk,t+1取1,否則取0。不匹配的高斯分布的權(quán)值更新依舊為式(3)所示,但其均值和方差不變。

      若構(gòu)建該像素的所有高斯分布中不存在與Xt相匹配的高斯分布,則將Xt作為均值賦給權(quán)重最小的高斯分布,并對(duì)該高斯分布重新賦以較小的權(quán)重和較大的方差。

      按照ωk,t/σk,t從大到 小對(duì)K個(gè) 高 斯 分 布 進(jìn) 行排序,滿足:

      的前Bt個(gè)分布選為背景模型,T為權(quán)重閾值。將每個(gè)像素值與背景模型進(jìn)行匹配測(cè)試,若匹配,則該像素點(diǎn)為背景點(diǎn),否則該像素點(diǎn)為前景點(diǎn)。

      3 基于YCbCr的自適應(yīng)混合高斯模型

      YCbCr空間有極其穩(wěn)定和獨(dú)立的亮度通道,最適合用于處理噪聲。改進(jìn)的混合高斯模型高斯成分個(gè)數(shù)的自適應(yīng)選擇策略和對(duì)前景檢測(cè)中排序關(guān)鍵字的計(jì)算的改進(jìn)能夠提升效率,改善算法實(shí)時(shí)性。初始化模型時(shí),一般用采集到的第一幀圖像中各像素點(diǎn)的彩色向量值初始化構(gòu)建該像素的K個(gè)高斯分布的均值,并對(duì)每個(gè)高斯分布指定較大的標(biāo)準(zhǔn)差σinit(通常為30)和較小的權(quán)重winit(0.05)。因?yàn)?,初始化的高斯模型是一個(gè)并不準(zhǔn)確的模型,需要不停地縮小它的范圍,更新它的參數(shù)值,從而得到最可能的高斯模型。將方差設(shè)置大些,則能將盡可能多的像素包含到一個(gè)模型之中,從而獲得最有可能的模型。

      3.1 轉(zhuǎn)換至YCbCr顏色空間建模

      MoG 中采用RGB 顏色空間進(jìn)行背景建模,RGB顏色空間的分量與亮度密切相關(guān),只要亮度改變,三個(gè)分量都會(huì)隨之改變,且三個(gè)分量不是獨(dú)立的。所以,RGB顏色空間適合于顯示系統(tǒng),卻并不適合于圖像處理。因此,很多作者使用其他顏色空間建模,以獲得更魯棒的效果,類似的有:文獻(xiàn)[8]使用YUV 顏色空間,文獻(xiàn)[9]使用HSV 顏色空間等。

      本文方法采用YCbCr顏色空間進(jìn)行背景建模。在YCbCr顏色空間中,Y分量表示圖像的亮度信息,Cb和Cr分量分別表示藍(lán)色和紅色分量。亮度信息和色度信息相互獨(dú)立,Cb和Cr分量不受亮度的影響。文獻(xiàn)[10]指出YCbCr顏色空間是最適合用于分割算法的顏色空間,它對(duì)噪聲最不敏感,因?yàn)樗哂袕?qiáng)穩(wěn)定性和更獨(dú)立的顏色通道。因此,選擇YCbCr顏色空間作為運(yùn)動(dòng)目標(biāo)顏色特征,能更好地處理噪聲。

      采用公式(8)將顏色空間由RGB 轉(zhuǎn)換為YCbCr:

      3.2 自適應(yīng)選擇策略

      在MoG 中,混合高斯模型高斯成分個(gè)數(shù)K是一個(gè)固定的常量,每個(gè)像素?fù)碛邢嗤瑪?shù)目的高斯成分。但是,在背景場(chǎng)景中,大部分像素的模態(tài)是不一樣的。文獻(xiàn)[6]通過(guò)實(shí)驗(yàn)得出結(jié)論:動(dòng)態(tài)區(qū)域建模需要使用更多的高斯成分,即:相同的室外場(chǎng)景,包含了樹(shù)枝和灌木隨風(fēng)晃動(dòng)的像素的高斯成分?jǐn)?shù)目比其他不是表示這些晃動(dòng)的像素的高斯成分?jǐn)?shù)目多。所以,設(shè)置一個(gè)固定大小的高斯成分個(gè)數(shù)來(lái)表示場(chǎng)景背景是不合理的,不能確切地描述實(shí)際場(chǎng)景狀態(tài)。若每個(gè)像素使用自適應(yīng)的高斯成分個(gè)數(shù),就會(huì)減少計(jì)算量,加快建模速度,從而提升檢測(cè)速度。

      文獻(xiàn)[7]中提出的自適應(yīng)策略采用的原理是:隨著參數(shù)的不斷更新,混合高斯模型中長(zhǎng)時(shí)間與場(chǎng)景匹配的高斯成分的權(quán)重會(huì)越來(lái)越大,不匹配的高斯成分的權(quán)重會(huì)越來(lái)越小。在選擇背景模型時(shí),由于會(huì)選擇權(quán)重與標(biāo)準(zhǔn)差之比較大的幾個(gè)高斯成分作為表示背景的分布,所以權(quán)重逐漸變小的高斯成分會(huì)逐漸成為前景模型。當(dāng)某個(gè)高斯分布的權(quán)重小于初始權(quán)值,且該高斯成分的權(quán)重與方差之比小于初始化時(shí)的權(quán)重與方差之比時(shí),該高斯成分將會(huì)被排在新的初始化的高斯成分之后,將這樣的高斯成分稱為過(guò)期高斯成分,在背景模型更新時(shí)刪除它們。

      此自適應(yīng)策略方法可以顯著地提高背景建模的速度,有效地節(jié)約運(yùn)算資源,但是它仍然有缺陷。當(dāng)某一高斯分布的權(quán)值和權(quán)值與方差的比都小于其對(duì)應(yīng)的初始值時(shí),該高斯分布會(huì)被刪除,但有可能下一幀圖像該高斯分布又被增加進(jìn)來(lái),這樣會(huì)影響正常的背景建模,降低系統(tǒng)的魯棒性。所以,本文對(duì)此自適應(yīng)策略進(jìn)行改進(jìn),修改其高斯分布丟棄制度,對(duì)過(guò)期高斯分布的判別公式如下所示:

      其中,cIE為某一高斯分布的最新匹配幀距當(dāng)前幀的幀數(shù);N為預(yù)先設(shè)定的閾值(通常N≥1),表示該高斯分布在連續(xù)N幀中都沒(méi)有匹配的像素點(diǎn)。

      改進(jìn)的自適應(yīng)策略的步驟如下:

      步驟1 初始化時(shí),給場(chǎng)景中每個(gè)像素的混合高斯模型都只設(shè)置一個(gè)高斯成分,將每個(gè)像素點(diǎn)的所有高斯成分的cIE初始化為0。

      步驟2 增加新的高斯成分:隨著場(chǎng)景的變化,當(dāng)某個(gè)像素的混合高斯模型不能與當(dāng)前像素匹配時(shí),為該像素的所有高斯成分的cIE加1。如果該像素混合高斯模型中的高斯成分個(gè)數(shù)沒(méi)有達(dá)到設(shè)定的最大值Kmax(一般設(shè)置為3),則自動(dòng)地增加一個(gè)以當(dāng)前像素值為均值的初始高斯成分;否則用以當(dāng)前像素值為均值的新的高斯成分代替該像素混合高斯模型中排在最后的高斯成分。

      步驟3 刪除過(guò)期的高斯成分:在每次模型更新完成后,根據(jù)式(9)判斷每個(gè)像素混合高斯模型中的最后一個(gè)高斯成分是否過(guò)期,如果過(guò)期則刪除。

      3.3 前景檢測(cè)方法

      利用混合高斯模型進(jìn)行前景檢測(cè)包括三個(gè)階段:(1)排序:原始MoG 中,一般設(shè)置排序關(guān)鍵字變量為sortkey,令它等于ωk,t/σk,t,根據(jù)它對(duì)K個(gè)分布進(jìn)行排序;(2)通過(guò)背景閾值T標(biāo)記高斯成分;(3)使用匹配測(cè)試將當(dāng)前像素分類。

      由于混合高斯模型中長(zhǎng)時(shí)間與場(chǎng)景匹配的高斯成分的權(quán)重會(huì)越來(lái)越大,不匹配的高斯成分的權(quán)重會(huì)越來(lái)越小,而權(quán)值越大的高斯成分,其為背景模型的概率越大,反之亦然。各高斯成分的方差的大小表示該高斯成分的穩(wěn)定性程度,方差越小越穩(wěn)定,反之亦然。所以,本文對(duì)前景檢測(cè)中的排序方法中的排序關(guān)鍵字變量sortkey的值設(shè)置如下:

      這樣便能在排序之時(shí)確保權(quán)值大的高斯分布定會(huì)被選為背景模型,從而獲得最可能的高斯模型,減少sortkey的計(jì)算量,節(jié)約計(jì)算成本。

      4 實(shí)驗(yàn)結(jié)果與分析

      為驗(yàn)證本文方法的性能,實(shí)驗(yàn)在Pentium(R)Dual CPU T3200 2GHz、內(nèi)存為2GB的PC機(jī)上運(yùn)行,在Windows XP Professional SP3操作系統(tǒng)中VS2010環(huán)境下結(jié)合OpenCV 編程,采用多個(gè)視頻序列[11~13]進(jìn)行測(cè)試,并與經(jīng)典MoG[2]比較。實(shí)驗(yàn)中所使用的參數(shù)為:Kmax=3;ωinit=0.05;σinit=30;α=0.005;T=0.7;λ=3.5;N=5。

      4.1 室內(nèi)場(chǎng)景檢測(cè)分析

      一般室內(nèi)環(huán)境的背景相對(duì)比較簡(jiǎn)單和穩(wěn)定,除燈光照射條件劇烈變化和窗口陽(yáng)光照射變化影響外,像素值不會(huì)發(fā)生很大的波動(dòng),所以室內(nèi)背景的獲取相對(duì)較容易。

      此處室內(nèi)場(chǎng)景測(cè)試用了兩個(gè)視頻序列。序列1為IPPR Dataset[11]中的data1 序列,長(zhǎng)300 幀,圖像大小為320×240像素,包含多個(gè)運(yùn)動(dòng)目標(biāo),目標(biāo)有交錯(cuò)及遮蔽現(xiàn)象;序列2為ATON Dataset[12]中的智能屋視頻,長(zhǎng)298幀,圖像大小為320×240像素,它是一室內(nèi)測(cè)試視頻,噪聲水平中等,人的運(yùn)動(dòng)陰影很難辨別。

      圖1顯示了本文方法與MoG 方法對(duì)室內(nèi)場(chǎng)景進(jìn)行運(yùn)動(dòng)目標(biāo)檢測(cè)的比較,其中,測(cè)試幀分別為data1序列的第113幀、智能屋視頻中的第108幀,所有檢測(cè)結(jié)果均未做后處理。從圖1中可以看出,MoG 方法能夠?qū)崿F(xiàn)目標(biāo)檢測(cè),但其效果不佳,獲得的運(yùn)動(dòng)目標(biāo)輪廓很稀疏,有許多空洞。相比之下,本文方法能抑制噪聲的影響,更好地將前景與背景分割,獲得更完整的運(yùn)動(dòng)目標(biāo)。

      4.2 室外場(chǎng)景檢測(cè)分析

      室外場(chǎng)景一般較室內(nèi)場(chǎng)景復(fù)雜許多,很多時(shí)候包含了許多其他運(yùn)動(dòng)的背景,如樹(shù)枝或灌木隨風(fēng)搖擺。為驗(yàn)證本文方法對(duì)室外場(chǎng)景的良好檢測(cè)性能,此處選擇了兩個(gè)視頻序列進(jìn)行實(shí)驗(yàn)。

      序列1 為Wallflower Dataset[13]中 的Wavetrees序列,長(zhǎng)286幀,圖像大小為160×120像素,包含動(dòng)態(tài)變化的背景;序列2 為IPPR Dataset[11]中的data3序列,長(zhǎng)300幀,圖像大小為320×240像素,包含多個(gè)運(yùn)動(dòng)目標(biāo),目標(biāo)有交錯(cuò)及遮蔽現(xiàn)象,且傍晚時(shí)分環(huán)境光線有變化。

      圖2顯示MoG 方法與本文方法對(duì)室外場(chǎng)景進(jìn)行檢測(cè)的比較。圖中的測(cè)試幀分別為Wavetrees序列中的第247幀和data3 序列的第39幀??梢钥闯觯琈oG 方法會(huì)將搖晃的樹(shù)枝誤檢為前景目標(biāo),且其檢測(cè)出的前景目標(biāo)有較多空洞;本文方法的檢測(cè)結(jié)果更準(zhǔn)確,更能適應(yīng)背景的輕微運(yùn)動(dòng),可獲得更清晰完整的前景目標(biāo)。

      Figure 1 Moving targets detection results of indoor scenes圖1 室內(nèi)場(chǎng)景運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果

      Figure 2 Moving targets detection results of outdoor scenes圖2 室外場(chǎng)景運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果

      4.3 時(shí)間耗費(fèi)分析

      本文方法最大的特點(diǎn)在于提升了背景建模的速度,表1列出了采用本文方法與MoG 方法對(duì)四個(gè)視頻序列進(jìn)行運(yùn)動(dòng)目標(biāo)檢測(cè)的耗時(shí)??梢钥闯?,不論場(chǎng)景的復(fù)雜與簡(jiǎn)單,不論視頻序列是大還是小,本文方法的耗時(shí)都比MoG 方法的少許多。

      Table 1 Time-consuming comparison of two kinds of detect methods表1 兩種方法檢測(cè)耗時(shí)比較 s

      5 結(jié)束語(yǔ)

      本文方法是針對(duì)經(jīng)典MoG 方法以耗時(shí)計(jì)算為代價(jià)獲取可觀的效果而提出來(lái)的。實(shí)驗(yàn)結(jié)果表明,本文方法顯著提高了建模效率和目標(biāo)檢測(cè)的速度,能夠達(dá)到實(shí)時(shí)要求。同時(shí),本文方法沒(méi)有以犧牲檢測(cè)效果為代價(jià)來(lái)獲取速度的提升,除不能很好地處理突然的光照變化和陰影之外,它能夠更好地抑制噪聲和背景中的動(dòng)態(tài)變化的影響,且檢測(cè)到的運(yùn)動(dòng)目標(biāo)信息更完整,空洞現(xiàn)象更少。

      [1] Meier T,Ngun K N.Video segmentation for content-based coding[J].IEEE Transactions on Circuits and Systems for Video Technology,1999,9(8):1190-1203.

      [2] Stauffer C,Grimson W.Adaptive background mixture models for real-time tracking[C]∥Proc of Computer Vision and Pattern Recognition(CVPR),1999:246-252.

      [3] Brutzer S,H?ferlin B,Heidemann G.Evaluation of background subtraction techniques for video surveillance[C]∥Proc of Computer Vision and Pattern Recognition(CVPR),2011:1937-1944.

      [4] Kaewtrakulpong P,Bowden R.An improved adaptive background mixture model for real-time tracking with shadow detection[C]∥Proc of the 2nd European Workshop on Advanced Video Based Surveillance Systems,2001:1-5.

      [5] Zivkovic Z.Improved adaptive Gaussian mixture model for background subtraction[C]∥Proc of International Conference on Pattern Recognition,2004:28-31.

      [6] Lee D S.Effective Gaussian mixture learning for video background subtraction[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(5):827-832.

      [7] Wang Yong-zhong,Liang Yan,Pan Quan,et al.Spatiotemporal background modeling based on adaptive mixture of Gaussians[J].ACTA Automatica SINICA,2009,35(4):371-378.(in Chinese)

      [8] Fang X,Xiong W,Hu B,et al.A moving object detection algorithm based on color information[C]∥Proc of International Symposium on Instrumentation Science and Technology,2006:384-387.

      [9] Sun Y,Li B,Yuan B,et al.Better foreground segmentation for static cameras via new energy form and dynamic graph-cut[C]∥Proc of the 18th International Conference on Pattern Recognition(ICPR 2006),2006:49-52.

      [10] Kristensen F,Nilsson P,?wall V.Background segmentation beyond RGB[C]∥Proc of ACCV’06,2006:602-612.

      [11] IPPR Dataset[EB/OL].[2013-02-16].http://archer.ee.nctu.edu.tw/contest/.

      [12] ATON Dataset[EB/OL].[2013-02-13].http://cvrr.ucsd.edu/aton/shadow/.

      [13] Wallflower Dataset[EB/OL].[2013-02-13].http://research.microsoft.com/users/jckrumm/WallFlower/TestImages.htm.

      附中文參考文獻(xiàn):

      [7] 王永忠,梁彥,潘泉,等.基于自適應(yīng)混合高斯模型的時(shí)空背景建模[J].自動(dòng)化學(xué)報(bào),2009,35(4):371-378.

      猜你喜歡
      高斯分布高斯背景
      小高斯的大發(fā)現(xiàn)
      “新四化”背景下汽車NVH的發(fā)展趨勢(shì)
      利用Box-Cox變換對(duì)移動(dòng)通信中小區(qū)級(jí)業(yè)務(wù)流量分布的研究
      《論持久戰(zhàn)》的寫(xiě)作背景
      2種非對(duì)稱廣義高斯分布模型的構(gòu)造
      天才數(shù)學(xué)家——高斯
      一種基于改進(jìn)混合高斯模型的前景檢測(cè)
      晚清外語(yǔ)翻譯人才培養(yǎng)的背景
      有限域上高斯正規(guī)基的一個(gè)注記
      一種改進(jìn)的混合高斯模型背景估計(jì)方法*
      禹州市| 淄博市| 行唐县| 浦江县| 宝兴县| 屯昌县| 榆林市| 若羌县| 三穗县| 旬阳县| 张掖市| 靖边县| 东方市| 东乡县| 衡南县| 崇阳县| 中山市| 淮滨县| 闸北区| 吴江市| 彰武县| 涿鹿县| 清原| 贞丰县| 仙居县| 沽源县| 云龙县| 武鸣县| 呼玛县| 保亭| 宁远县| 敖汉旗| 攀枝花市| 岳西县| 布尔津县| 镇平县| 于田县| 南靖县| 岚皋县| 石河子市| 芜湖市|