王宏偉,李 超
(遼寧工程技術(shù)大學(xué) 電氣與控制工程學(xué)院,遼寧 葫蘆島125105)
目前,主流的運(yùn)動(dòng)目標(biāo)檢測方法有光流法[1]、幀差法[2]和背景差分法[3]等。光流法計(jì)算較為復(fù)雜,需多次迭代運(yùn)算,難以實(shí)現(xiàn)實(shí)時(shí)檢測,且對(duì)噪聲較為敏感,實(shí)際應(yīng)用較少采用;幀差法雖然適合動(dòng)態(tài)變化的場景,且運(yùn)算速度快,但對(duì)運(yùn)動(dòng)速度緩慢和靜止的物體,不能完整地檢測出運(yùn)動(dòng)目標(biāo),易產(chǎn)生空洞,檢測效果不理想。背景差分法利用當(dāng)前幀圖像與背景模型相減捕獲運(yùn)動(dòng)目標(biāo),方法簡單易實(shí)現(xiàn),只需建立良好的背景模型,就能較完整地對(duì)監(jiān)控場景的運(yùn)動(dòng)目標(biāo)進(jìn)行有效檢測,運(yùn)算量較小,可以滿足實(shí)時(shí)性要求。近年來相關(guān)學(xué)者也提出一些新的目標(biāo)檢測與跟蹤方法,例如基于軟特征目標(biāo)跟蹤方法[4]、高斯混合概率假設(shè)密度濾波器多目標(biāo)跟蹤方法[5]和基于曲量場空間的車牌定位與識(shí)別方法[6]。Kan等[7]將高斯背景模型的更新過程分為若干階段,并采用不同的策略進(jìn)行更新;Tang 等[8]利用重新對(duì)背景模型初始化的方法應(yīng)對(duì)突發(fā)光變的情況;李剛等[9]引入更新和消退控制因子改進(jìn)參數(shù)更新模型,提高了背景形成速度及對(duì)背景和光照變化的抗干擾能力;劉鑫等[10]融合GMM 和幀差法,并將圖像分為3種區(qū)域,對(duì)運(yùn)動(dòng)區(qū)不新建高斯分布,減弱了慢速運(yùn)動(dòng)物體對(duì)背景的影響;張琨等[11]提出一種基于切比雪夫不等式的自適應(yīng)閾值背景建模算法,提高了背景圖像提取速度,降低了背景分割誤差。
本文針對(duì)傳統(tǒng)混合高斯模型的學(xué)習(xí)速率和背景模型閾值為固定值,不能有效適應(yīng)變化復(fù)雜場景的問題,根據(jù)一段時(shí)間內(nèi)背景模型與像素點(diǎn)的連續(xù)匹配情況,對(duì)背景模型閾值進(jìn)行動(dòng)態(tài)調(diào)整,穩(wěn)定背景區(qū)域采用較小的閾值,活躍區(qū)域取較大的閾值,并按照不同匹配情況對(duì)學(xué)習(xí)速率進(jìn)行反饋調(diào)節(jié),從而達(dá)到選取最優(yōu)模型個(gè)數(shù)以及快速適應(yīng)復(fù)雜變化場景的目的。
混合高斯背景建模算法[4]為視頻序列中每個(gè)像素點(diǎn)建立一組由多個(gè)高斯分布混合疊加的背景模型。將視頻序列作為算法的輸入,對(duì)于某一點(diǎn) (x,y)其時(shí)間序列 {X1,……,Xt}可以用K (一般為3 到5)個(gè)高斯模型疊加描述,其中Xt為t時(shí)刻像素點(diǎn) (x,y)的像素值。Xt的概率密度函數(shù)為
需要注意的是,Xt通常為一個(gè)d 維向量 (d=1時(shí),對(duì)應(yīng)灰度圖像中的像素點(diǎn);d=3時(shí),對(duì)應(yīng)RGB 三通道彩色圖像中的像素點(diǎn))。為了減少計(jì)算量,式 (2)中的協(xié)方差矩陣通常轉(zhuǎn)化為
式中:I——單位矩陣。式 (3)假設(shè)Xt各維間相互獨(dú)立,這樣可以避免矩陣求逆時(shí)的大量計(jì)算。
如上所述,K 個(gè)高斯分布可以描述點(diǎn) (x,y)在最近一段時(shí)間的像素值變化。而新觀察值可被用來更新背景模型,并可能成為背景模型的一個(gè)分量。背景模型的詳細(xì)處理步驟如下:
(1)背景模型初始化:將第一幀圖像的像素值作為高斯模型均值,自定義一個(gè)較大方差σ0和一個(gè)較小權(quán)值ω0。
(2)觀察值匹配:將新一幀像素點(diǎn)的觀察值Xt與該點(diǎn)K 個(gè)高斯分布依次比對(duì)。若滿足式 (4),則稱Xt與第i 個(gè)分布匹配,即被視為背景點(diǎn),反之則為前景點(diǎn)
式中:D——置信參數(shù),一般取2~3;μi,t-1 和σi,t-1——第i個(gè)高斯分布在t-1時(shí)刻的均值和標(biāo)準(zhǔn)差。
當(dāng)發(fā)生匹配時(shí),更新與之匹配的高斯模型;若當(dāng)前觀察值與所有K 個(gè)分布皆不匹配,將權(quán)值最低的高斯模型用一個(gè)新模型替換。新模型的均值即為當(dāng)前觀察值,并將其初始化一個(gè)較大的方差和一個(gè)較小的權(quán)值。
(3)參數(shù)更新:對(duì)t時(shí)刻的K 個(gè)高斯分布的權(quán)值ωi,t進(jìn)行更新,即
式中:α——權(quán)值的學(xué)習(xí)速率,一般取0.005。Mi,t——偏置,當(dāng)觀察值與第i個(gè)分布匹配時(shí)取1,當(dāng)觀察值沒有與第i個(gè)分布匹配取0。更新完畢后,需要將K 個(gè)權(quán)值歸一化。未匹配到的分布參數(shù)μ和σ維持不變,匹配到的分布參數(shù)按下式更新
式中:ρ——均值與方差的學(xué)習(xí)速率,即
(4)分布排序:將K 個(gè)分布按照ω/σ的優(yōu)先權(quán)值從大到小排序,保證最有可能是高斯分布在前而最沒可能的排在最后,最終會(huì)被新的分布所取代。
(5)生成新背景模型:選取前B 個(gè)分布構(gòu)成新背景模型,B 的取值為
式中:B——滿足括號(hào)中不等式成立的最小b 值。混合高斯模型的閾值T (一般取0.7~0.8)的選取影響構(gòu)成背景模型高斯分布個(gè)數(shù),若T 較小,背景模型高斯分布數(shù)較少,甚至可能退化成單高斯模型;若T 較大,高斯分布數(shù)較多,背景模型可較好地描述復(fù)雜變化的場景,但增加了計(jì)算量。
執(zhí)行完畢以上步驟即完成點(diǎn) (x,y)的前景提取和背景更新過程,對(duì)視頻幀中的每個(gè)像素點(diǎn)重復(fù)執(zhí)行以上步驟即完成一幀圖像的前景提取和背景更新過程。
通過對(duì)傳統(tǒng)混合高斯模型的研究,發(fā)現(xiàn)該模型在實(shí)際場景中有以下不足之處:
(1)傳統(tǒng)方法中,模型閾值T 是固定值,圖像中像素點(diǎn)用相對(duì)恒定的K 個(gè)高斯模型來描述。但監(jiān)控場景中存在相對(duì)穩(wěn)定區(qū)域和相對(duì)活躍區(qū)域,對(duì)不同區(qū)域采用相同模型個(gè)數(shù),會(huì)造成匹配時(shí)間的浪費(fèi)。
(2)固定的學(xué)習(xí)速率α不能滿足復(fù)雜變化場景的模型參數(shù)更新。當(dāng)場景活躍時(shí),若學(xué)習(xí)速率取值過小則背景模型更新速率慢,滯后于場景的變化;當(dāng)場景穩(wěn)定時(shí),若學(xué)習(xí)速率取值過大則導(dǎo)致背景模型更新速率快,易對(duì)背景模型造成 “污染”。
(1)閾值T 自適應(yīng)調(diào)整:根據(jù)實(shí)際情況對(duì)不同區(qū)域像素點(diǎn)疊加不同高斯分布個(gè)數(shù),減少穩(wěn)定區(qū)域高斯分布個(gè)數(shù)來降低程序運(yùn)算量,增大活躍區(qū)域高斯分布個(gè)數(shù)以提高對(duì)監(jiān)控場景的適應(yīng)能力。
當(dāng)Δt時(shí)間內(nèi)連續(xù)匹配次數(shù)PY≥TG時(shí),對(duì)閾值T 動(dòng)態(tài)調(diào)整方法如下
當(dāng)Δt時(shí)間內(nèi)連續(xù)不匹配次數(shù)PN≥TF時(shí),對(duì)閾值T動(dòng)態(tài)調(diào)整方法如下
式 (10)、式 (11)中,Ti+1為新閾值,Ti為原閾值,ωk+1為連續(xù)不匹配時(shí)新增高斯模型權(quán)重,k當(dāng)前高斯模型個(gè)數(shù),K 為傳統(tǒng)高斯模型限制的最大模型個(gè)數(shù),m 為模型個(gè)數(shù)控制因子,K+m 為新最大模型個(gè)數(shù),K-m 為模型最小個(gè)數(shù),TG為匹配次數(shù)閾值,TF為不匹配次數(shù)閾值。當(dāng)PY≥TG且k= (K-m)時(shí),說明當(dāng)前模型個(gè)數(shù)達(dá)到最小值,閾值保持不變;當(dāng)PY≥TG且k> (K-m)時(shí),刪除第k 個(gè)高斯分布,并對(duì)權(quán)值進(jìn)行歸一化處理,閾值Ti+1為前k-1個(gè)高斯分布權(quán)值之和減去10-4。當(dāng)PN≥TF且k= (K+m)時(shí),模型個(gè)數(shù)達(dá)到最大值,閾值不變;當(dāng)PN≥TF且k< (K+m)時(shí),說明像素點(diǎn)長期不能與背景模型匹配,這時(shí)需新增一個(gè)高斯分布,并設(shè)定一個(gè)較大權(quán)值,均值為當(dāng)前像素值,并初始化一個(gè)較大的方差。
(2)學(xué)習(xí)速率反饋調(diào)節(jié):根據(jù)每個(gè)像素點(diǎn)與其對(duì)應(yīng)的混合高斯模型在Δt時(shí)間內(nèi)的匹配和不匹配次數(shù)作為反饋量的修整信息,不斷更新模型的學(xué)習(xí)速率。方法如下
式 (12)和式 (13)中:α為原學(xué)習(xí)速率,α1為更新后學(xué)習(xí)速率,ΔF 為反饋量,cntN和cntY分別為像素點(diǎn)不匹配和匹配次數(shù),初始值均為0。學(xué)習(xí)率更新后,cntN和cntY重置為0,λ為強(qiáng)化系數(shù)。當(dāng)cntN>β (cntN+cntY)時(shí)(0<β<1),說明場景中可能出現(xiàn)運(yùn)動(dòng)目標(biāo)或是背景擾動(dòng)較大,此時(shí)應(yīng)增大學(xué)習(xí)速率,ΔF>0。當(dāng)cntN<<cntY(即cntN≤β (cntN+cntY))時(shí),說明背景趨于穩(wěn)定狀態(tài),此時(shí)應(yīng)減小學(xué)習(xí)速率,ΔF<0。λ取值方式如下
式中:當(dāng)cntN>β (cntN+cntY)時(shí),若cntN與cntY差值越大,λ取值越大,學(xué)習(xí)率增加越多;cntN與cntY差值越小,λ取值相對(duì)減小,學(xué)習(xí)率增加量也相對(duì)減少。當(dāng)cntN≤β (cntN+cntY)時(shí),匹配數(shù)量遠(yuǎn)大于不匹配數(shù)量,cntY與cntN差值越大,說明現(xiàn)有背景模型建模效果越好,學(xué)習(xí)率減少越多;相反,減少越少。
內(nèi)存為4.00GB的筆記本電腦為實(shí)驗(yàn)平臺(tái), 以O(shè)penCV2.4.4開源計(jì)算機(jī)視覺庫和微軟Microsoft Visual Studio 2010 為測試工具,在網(wǎng)站上選取相關(guān)視頻作為測試數(shù)據(jù),視頻幀率為25 幀/秒,大小為320×240,與C.Stauffer等提出的傳統(tǒng)混合高斯背景建模方法做比較實(shí)驗(yàn)。傳統(tǒng)混合高斯模型最大模型個(gè)數(shù)K 設(shè)為5,學(xué)習(xí)速率α為0.005,高斯模型均值初始化為第一幀輸入圖像像素值,自定義其方差σ 為6,置信參數(shù)D 為2.5,模型比例參數(shù)T為0.75。本文方法檢測時(shí)間間隔Δt為100幀、連續(xù)匹配次數(shù)閾值TG為75、連續(xù)不匹配次數(shù)閾值TF為30、模型個(gè)數(shù)控制因子m 為3,β為0.1,其它參數(shù)與傳統(tǒng)方法相同。實(shí)驗(yàn)分別對(duì)車輛和行人視頻第50、140、230、375 幀檢測結(jié)果進(jìn)行比對(duì),結(jié)果如圖1、圖2 所示。從圖1 可以看出,本文方法在第50幀時(shí),由于仍在首次檢測時(shí)間間隔內(nèi),所以檢測效果與傳統(tǒng)方法相同,當(dāng)?shù)?00幀以后,參數(shù)得到更新,在第140、230、375 幀均沒有之前車輛殘留,并且目標(biāo)個(gè)數(shù)檢測準(zhǔn)確。傳統(tǒng)方法在第375幀時(shí),之前殘留車輛才基本消除,較本文方法含有更多的噪聲。圖2原圖黑色方框中人物位置不變,但有些許晃動(dòng),應(yīng)算為背景,從檢測結(jié)果來看,本文方法對(duì)背景輕微變動(dòng)不敏感,且檢測輪廓比傳統(tǒng)方法清晰,能夠盡快地消除之前運(yùn)動(dòng)目標(biāo)殘留。
檢測結(jié)果查全率 (recall rate)、查準(zhǔn)率 (precision rate)見表1,計(jì)算方法如下
式中:ff 代表錯(cuò)誤的前景點(diǎn)數(shù);tf 代表正確的前景點(diǎn)數(shù);fb代表錯(cuò)誤的背景點(diǎn)數(shù);(tf+fb)表示真實(shí)前景圖像中的前景點(diǎn)總數(shù)。(tf+ff)表示檢測出的前景點(diǎn)總數(shù),兩項(xiàng)指標(biāo)均越大越好,且構(gòu)成的坐標(biāo)點(diǎn)離點(diǎn) (1,1)越近越好,這里用四組兩點(diǎn)間的平均歐式距離來衡量。從表1可以看出,本文方法針對(duì)車輛和行人兩種場景的平均歐式距離均小于傳統(tǒng)方法,所以本文方法更優(yōu)。
混合高斯模型中學(xué)習(xí)速率α和背景模型閾值T 是模型中兩個(gè)重要參數(shù),對(duì)兩個(gè)參數(shù)采取不同的自適應(yīng)調(diào)節(jié)機(jī)制,直接影響模型的穩(wěn)定性、精確性和收斂性。根據(jù)像素點(diǎn)的匹配情況,將監(jiān)控場景分別在時(shí)間和空間上進(jìn)行劃分。根據(jù)場景活躍與穩(wěn)定的不同情況,實(shí)現(xiàn)閾值T 和學(xué)習(xí)速率α的自適應(yīng)調(diào)節(jié)。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的混合高斯模型彌補(bǔ)了傳統(tǒng)混合高斯模型的不足,增強(qiáng)了模型對(duì)復(fù)雜的監(jiān)控場景的適應(yīng)能力。
圖1 車輛視頻前景檢測
圖2 行人視頻前景檢測
表1 查準(zhǔn)率與查全率統(tǒng)計(jì)
表1 (續(xù))
[1]ZHANG Jiawei,ZHI Ruifeng.Comparative analysis of optical flow algorithms [J].Modern Electronics Technique,2013,36 (13):39-42 (in Chinese).[張佳威,支瑞峰.光流算法比較分析研究 [J].現(xiàn)代電子技術(shù),2013,36 (13):39-42.]
[2]XU Jing,ZHANG He,ZHANG Xiangjin.IR motive detection using image subtraction and optical flow [J].Computer Simulation,2012,29 (6):248-252 (in Chinese).[許敬,張合,張祥金.基于幀間差分和光流法的紅外圖像運(yùn)動(dòng)檢測[J].計(jì)算機(jī)仿真,2012,29 (6):248-252.]
[3]HAO Haogang,CHEN Jiaqi.Moving object detection algorithm based on five frame difference and background difference[J].Computer Engineering,2012,38 (4):146-148 (in Chinese).[郝毫剛,陳家琪.基于五幀差分和背景差分的運(yùn)動(dòng)目標(biāo)檢測算法 [J].計(jì)算機(jī)工程,2012,38 (4):146-148.]
[4]Jiang Wentao,Liu Wanjun,Yuan Heng.Research of object tracking based on soft feature [J].International Journal for Light and Electron Optics,2013,124 (20):4292-4295.
[5]LV Xuebin,ZHOU Qunbiao,CHEN Zhengmao,et al.The Gaussian mixture probability hypothesis density filter and its application to multi-target tracking [J].Chinese Journal of Computers,2012,35 (2):397-403 (in Chinese). [呂學(xué)斌,周群彪,陳正茂,等.高斯混合概率假設(shè)密度濾波器在多目標(biāo)跟蹤中的應(yīng)用 [J].計(jì)算機(jī)學(xué)報(bào),2012,35 (2):397-403.]
[6]JIANG Wentao,LIU Wanjun,YUAN Heng.Vehicle license plate locating and identifying based on the curved field space[J].Chinese of Journal Electronics,2011,39 (11):2554-2560 (in Chinese). [姜文濤,劉萬軍,袁姮.基于曲量場空間的車牌定位與識(shí)別[J].電子學(xué)報(bào),2011,39 (11):2554-2560.]
[7]Liu Zhou,Huang Kaiqi,Tan Tieniu.Foreground object detection using top-down information based on EM framework[J].IEEE Ttransactions on Image Processing,2012,21 (9):4204-4217.
[8]Li Keyi,Tang Jun,Du Xiaofeng.Background modeling method based on improved multi-Gaussian distribution [C]//Proceedings of IEEE lnternational Conference on Computer Application and System Modeling.Taiyuan:IEEE,2010:214-218.
[9]LI Gang,HE Xiaohai,ZHANG Shengjun,et al.Improved moving objects detection method based on GMM [J].Application Research of Computers,2011,28 (12):4738-4741 (in Chinese).[李剛,何小海,張生軍,等.改進(jìn)的基于GMM 的運(yùn)動(dòng)目標(biāo)檢測方法[J].計(jì)算機(jī)應(yīng)用研究,2011,28 (12):4738-4741.]
[10]LIU Xin,LIU Hui,QIANG Zhenping,et al.Adaptive background modeling based on mixture Gaussian model and frame subtraction [J].Journal of Image and Graphics,2008,13(4):729-734 (in Chinese).[劉鑫,劉輝,強(qiáng)振平,等.混合高斯模型和幀間差分相融合的自適應(yīng)背景模型 [J].中國圖象圖形學(xué)報(bào),2008,13 (4):729-734.]
[11]ZHANG Kun, WANG Guirong, WAN Cong.Adaptive threshold background modeling algorithm based onchebyshev inequality [J].Computer Science,2013,40 (4):287-291(in Chinese).[張琨,王翠榮,萬聰.一種基于切比雪夫不等式的自適應(yīng)閾值背景建模算法 [J].計(jì)算機(jī)科學(xué),2013,40 (4):287-291.]