• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于紋理特征的混合高斯背景建模算法研究

      2016-02-24 05:06:38李玉恵游旭晨
      關(guān)鍵詞:高斯紋理背景

      馮 璞,李玉恵,李 勃,游旭晨

      (昆明理工大學(xué) 信息工程與自動(dòng)化學(xué)院,云南 昆明 650500)

      圖2 像素局部5*5圖像塊

      基于紋理特征的混合高斯背景建模算法研究

      馮 璞,李玉恵,李 勃,游旭晨

      (昆明理工大學(xué) 信息工程與自動(dòng)化學(xué)院,云南 昆明 650500)

      在智能交通系統(tǒng)中,運(yùn)動(dòng)目標(biāo)的檢測是一個(gè)基本而又關(guān)鍵的問題。而傳統(tǒng)高斯混合模型能較好地檢測出運(yùn)動(dòng)目標(biāo),但由于其沒有考慮像素的局部特征,使得運(yùn)動(dòng)目標(biāo)區(qū)域的錯(cuò)誤檢測率有所增加。為了更好地在高速交通視頻中檢測出完整且準(zhǔn)確的運(yùn)動(dòng)目標(biāo)前景區(qū)域,文中在子空間的思想基礎(chǔ)上,提出一種基于像素局部紋理特征的高斯混合模型改進(jìn)算法,即以像素周圍5*5圖像塊的均值、標(biāo)準(zhǔn)差、最大值、最小值和當(dāng)前像素值5個(gè)特征作為局部紋理特征,建立高斯混合背景模型,進(jìn)行運(yùn)動(dòng)目標(biāo)檢測。經(jīng)過大量實(shí)驗(yàn),結(jié)果表明該算法能更準(zhǔn)確、完整地檢測出運(yùn)動(dòng)目標(biāo)并具有很好的環(huán)境適應(yīng)性,特別是在運(yùn)動(dòng)目標(biāo)區(qū)域與相應(yīng)的背景區(qū)域顏色較為相似時(shí),運(yùn)動(dòng)目標(biāo)檢測效果改善較為明顯。

      運(yùn)動(dòng)目標(biāo)檢測;混合高斯模型;局部紋理特征;背景模型

      0 引 言

      運(yùn)動(dòng)目標(biāo)檢測即從視頻序列圖像中獲取運(yùn)動(dòng)目標(biāo)區(qū)域,目前常用的運(yùn)動(dòng)目標(biāo)檢測方法有:光流法、幀差法、基于統(tǒng)計(jì)模型法、背景差法。光流法[1]的檢測精度很高,特別是在背景較為復(fù)雜時(shí),檢測效果較好,但其計(jì)算復(fù)雜度太高,難以做到實(shí)時(shí)檢測。幀差法[2-3]操作簡單、實(shí)時(shí)性強(qiáng),并對動(dòng)態(tài)的環(huán)境適應(yīng)性強(qiáng),但其提取的前景不完整,內(nèi)部容易出現(xiàn)空洞。基于統(tǒng)計(jì)模型法[4-6]抗干擾能力較強(qiáng),但算法難以采用統(tǒng)一的模型描述目標(biāo)的運(yùn)動(dòng)特征,且計(jì)算復(fù)雜。背景差法通過將當(dāng)前圖像和背景圖像進(jìn)行差分來檢測運(yùn)動(dòng)目標(biāo)。由于高速中的背景是不斷變化的,因此如何獲取到實(shí)時(shí)有效的背景是背景差法的關(guān)鍵所在,現(xiàn)在常用的背景獲取方法是混合高斯模型法。

      高斯混合背景模型算法最早由文獻(xiàn)[7]提出。該算法采用多個(gè)高斯模型分布的加權(quán)來表示背景圖像,能夠很好地適應(yīng)復(fù)雜環(huán)境,在運(yùn)動(dòng)目標(biāo)的檢測與提取方面有較為明顯的優(yōu)勢;文獻(xiàn)[8]提出運(yùn)用K-均值聚類算法對高斯混合模型進(jìn)行初始化,很大程度上提高了模型的收斂速度;文獻(xiàn)[9]提出了一種融合相鄰幀差法和背景減法的高斯混合模型算法,該改進(jìn)算法解決了背景模型對光線變化敏感以及容易產(chǎn)生虛影等問題;文獻(xiàn)[10]提出在建模過程中加入圖像的空間信息,在提高了模型的自適應(yīng)性的同時(shí)也提高了該算法的抗干擾能力。

      然而,以上方法的提出并沒有很好地解決混合高斯背景模型中出現(xiàn)的運(yùn)動(dòng)目標(biāo)檢測的準(zhǔn)確性和完整性低的問題。針對這一問題,文中在子空間的思想基礎(chǔ)上[11],提出一種基于像素紋理特征的高斯混合背景模型改進(jìn)算法。

      1 高斯混合模型

      基于混合高斯背景模型的運(yùn)動(dòng)目標(biāo)檢測算法的核心內(nèi)容主要包括兩部分:一是高斯混合模型的建立與初始化過程;二是高斯混合模型的實(shí)時(shí)更新策略。

      1.1 高斯混合背景建模

      圖1 高斯概率分布示意圖

      (1)

      (2)

      (3)

      采用上述模型對圖像序列中的背景區(qū)域進(jìn)行描述之后,背景區(qū)域的每個(gè)像素就轉(zhuǎn)化為K個(gè)高斯模型,高斯模型的權(quán)重為ωi。將K個(gè)高斯模型按照ωi/σi進(jìn)行降序排列,取前B個(gè)高斯分布作為背景像素的最佳描述:

      (4)

      式中,T為B個(gè)高斯分布的權(quán)重閾值。

      1.2 高斯混合背景的更新

      實(shí)際應(yīng)用中視頻序列中的背景不是一成不變的,為保證背景的準(zhǔn)確性,需要帶背景進(jìn)行實(shí)時(shí)更新[13-14]。在以上背景建?;A(chǔ)上,當(dāng)有新的幀圖像時(shí),獲取圖像的各個(gè)像素分別與相對應(yīng)的K個(gè)高斯模型依次進(jìn)行匹配,匹配條件為:

      (5)

      式中,c是經(jīng)驗(yàn)常數(shù),一般取2.0~2.5較合適。

      如果有匹配的高斯模型,對匹配成功的高斯模型中的參數(shù)進(jìn)行更新,方法如下:

      (6)

      (7)

      (8)

      其中,θ為模型學(xué)習(xí)速率,且0≤θ≤1,θ值決定了背景更新的速度。

      如果沒有匹配的高斯模型,需要初始化一個(gè)新的高斯模型,新高斯模型以當(dāng)前像數(shù)的灰度值作為模型的均值參數(shù),并采用一個(gè)較大值作為方差參數(shù),權(quán)重設(shè)置為一個(gè)較小的值。當(dāng)k=K時(shí),采用該高斯分布代替優(yōu)先級ωi/σi最低的高斯模型;當(dāng)k

      2 改進(jìn)后的算法

      由于傳統(tǒng)的高斯混合模型在進(jìn)行背景建模時(shí),一般采用的是單像素方法,即以像素的灰度差異作為分類依據(jù)。這種方法在前景目標(biāo)與背景像素灰度值差異有一定差距時(shí)效果較好,但當(dāng)前景與背景的像素灰度值差異較小時(shí),易將部分前景誤判為背景,致使提取的前景不完整。主要是易將白色前景車輛的部分誤以為是車道線、將深色前景車輛的部分誤以為是道路背景,而且提取的前景車輛存在很多空洞。

      雖然前景與背景的像素灰度值可能比較相似,但一般道路背景的紋理比較單一,前景車輛的紋理要比背景復(fù)雜得多。因此,基于以上問題,在子空間的思想基礎(chǔ)上[11],提出以像素的局部紋理特征作為建模和分割依據(jù)。紋理是反映在一定的區(qū)域內(nèi)像素值的組合,即其在空間分布上滿足一定的規(guī)律。

      要運(yùn)用紋理特征對圖像進(jìn)行建模和分割,就必須考慮像素及其周圍像素關(guān)系。文中選取像素周圍5*5范圍的圖像塊來進(jìn)行計(jì)算。以像素塊的均值、標(biāo)準(zhǔn)差、最大值、最小值、當(dāng)前值5個(gè)特征表示像數(shù)的局部紋理特征。

      如圖2所示,g12表示當(dāng)前像素值,g0~g24為以當(dāng)前像素為中心5*5圖像塊的像素值。

      g0g1g2g3g4g5g6g7g8g9g10g11g12g13g14g15g16g17g18g19g20g21g22g23g24

      圖2 像素局部5*5圖像塊

      紋理算子如下:

      (9)

      其中,gμ,gσ,gmax,gmin,gc分別表示圖像塊的均值、標(biāo)準(zhǔn)差、最大值、最小值、當(dāng)前值。

      2.1 改進(jìn)高斯混合模型的參數(shù)初始化

      改進(jìn)后的高斯模型,以圖像的紋理特征為建模單位,每個(gè)像素的高斯模型個(gè)數(shù)為K個(gè),每個(gè)模型包括11個(gè)參數(shù),分別為μμ,μσ,μmax,μmin,μc,σμ,σσ,σmax,σmin,σc,ω。

      用視頻的第一幀圖像來初始化各像素的第一個(gè)高斯模型,運(yùn)用式(9)計(jì)算各個(gè)像素的紋理特征值,賦值給模型的均值,標(biāo)準(zhǔn)差取較大的值為50,權(quán)重為1.0。公式如下:

      (10)

      2.2 改進(jìn)高斯混合模型參數(shù)的更新

      當(dāng)t時(shí)刻,有新的幀圖像時(shí),用式(9)計(jì)算圖像幀中各個(gè)像素的紋理特征值并與相對應(yīng)的K個(gè)高斯模型依次進(jìn)行匹配,改進(jìn)后的高斯混合模型的匹配條件為:

      (11)

      如果匹配成功,對匹配的第i個(gè)高斯模型的參數(shù)進(jìn)行更新,方法如下:

      (12)

      (13)

      式中,θ為學(xué)習(xí)速率,且0≤θ≤1,θ值決定了背景更新的速度。

      (14)

      式(14)為各高斯模型的優(yōu)先級參數(shù)。

      3 改進(jìn)高斯混合模型的算法流程

      結(jié)合推導(dǎo)的公式,具體的算法流程如下:

      (1)為圖像中的每一個(gè)像素分配K個(gè)高斯模型,但有效高斯模型的個(gè)數(shù)為0。

      (2)讀取視頻的第一幀圖像,運(yùn)用式(9)、(10)對圖像中的各個(gè)像素的第一個(gè)高斯模型進(jìn)行初始化。

      (3)在t時(shí)刻,讀取下一幀,運(yùn)用式(11)與對應(yīng)的模型進(jìn)行順序匹配,查找第一個(gè)匹配的高斯模型k,如果匹配成功執(zhí)行(4),如匹配失敗執(zhí)行(5)。

      (4)使用式(12)和式(13)對匹配的第i個(gè)高斯模型的參數(shù)進(jìn)行更新。

      (5)當(dāng)k

      (6)對圖像中各個(gè)像素的K個(gè)高斯模型進(jìn)行降序排列,依照式(11)。

      (7)取前B個(gè)高斯分布作為背景像素的最佳描述,使用式(4)。如k

      (8)循環(huán)執(zhí)行(2)~(7),直到視頻讀完。

      4 實(shí)驗(yàn)結(jié)果及分析

      為了驗(yàn)證文中所提算法的有效性,選用兩段有代表性的高速交通視頻。實(shí)驗(yàn)條件:VisualStudio2010平臺,并運(yùn)用OpenCV2進(jìn)行編程。為了保證視頻的保密性,視頻中有關(guān)地點(diǎn)、車牌、時(shí)間等信息已被抹去。每段視頻都分別采用傳統(tǒng)GMM、文中改進(jìn)的GMM和手工提取前景方法進(jìn)行比較。實(shí)驗(yàn)參數(shù)設(shè)置見表1。

      第一段視頻為高清高速交通視頻,分辨率為1 600*1 200;第二段為標(biāo)清高速交通視頻,分辨率為704*576。算法沒有進(jìn)行陰影消除處理,因此前景為帶陰影的車輛區(qū)域。為了更好地驗(yàn)證文中算法的有效性,分別在兩段視頻中選用2輛白小車和2輛黑小車作為實(shí)驗(yàn)對象。

      實(shí)驗(yàn)對比結(jié)果如圖3和圖4所示。

      圖3 實(shí)驗(yàn)1中運(yùn)動(dòng)目標(biāo)檢測結(jié)果對比圖

      圖4 實(shí)驗(yàn)2中運(yùn)動(dòng)目標(biāo)檢測結(jié)果對比圖

      參數(shù)數(shù)值混合高斯模型的模型個(gè)數(shù)K3混合高斯模型的背景學(xué)習(xí)率θ0.02與模型匹配的標(biāo)準(zhǔn)差系數(shù)C2.5B個(gè)背景模型的權(quán)重閾值T0.7

      通過兩次實(shí)驗(yàn)可以看出,與傳統(tǒng)GMM相比,文中提出的GMM改進(jìn)算法可以有效地減少噪聲的干擾并提高運(yùn)動(dòng)目標(biāo)檢測的完整性。

      為了更直觀地描述該算法的準(zhǔn)確性與完整性,采用以下兩個(gè)量化指標(biāo)來對實(shí)驗(yàn)結(jié)果進(jìn)行分析[15]:檢測準(zhǔn)確率(DR)和誤檢率(FAR)。

      (15)

      式中:TP表示檢測出屬于前景區(qū)域的像素點(diǎn)個(gè)數(shù);FN表示屬于前景區(qū)域但未被檢測出的像素點(diǎn)個(gè)數(shù);FP為屬于前景區(qū)域但被誤檢為前景的像素點(diǎn)個(gè)數(shù)。

      真實(shí)運(yùn)動(dòng)區(qū)域由手工畫出,從各實(shí)驗(yàn)中隨機(jī)抽取100幀圖像來進(jìn)行統(tǒng)計(jì)分析,結(jié)果如表2所示。

      表2 兩個(gè)實(shí)驗(yàn)中運(yùn)動(dòng)目標(biāo)檢測的DR和FAR對比 %

      通過表中數(shù)據(jù)可見,傳統(tǒng)GMM的平均檢測準(zhǔn)確率為88%,而文中提出的改進(jìn)方法在誤檢率較低的同時(shí),平均檢測準(zhǔn)確率接近95%。

      5 結(jié)束語

      在傳統(tǒng)混合高斯背景模型算法的基礎(chǔ)上,文中提出一種基于像素紋理特征的混合高斯背景模型的運(yùn)動(dòng)目標(biāo)檢測算法。實(shí)驗(yàn)結(jié)果表明,運(yùn)用該算法能夠較完整、準(zhǔn)確地提取出運(yùn)動(dòng)目標(biāo),特別是在外部環(huán)境比較復(fù)雜時(shí)效果改善較大。然而由于在高斯混合建模過程中要提取像素周圍5*5圖像塊的均值、標(biāo)準(zhǔn)差、最大值、最小值和當(dāng)前像素值,因此增加了算法的運(yùn)算量。在以后的研究工作中,將重點(diǎn)考慮該算法的計(jì)算復(fù)雜性,降低該算法的計(jì)算開銷。

      [1] 劉 榮,金國偉.基于背景差分和光流法的運(yùn)動(dòng)目標(biāo)檢測與跟蹤[J].現(xiàn)代制造技術(shù)與裝備,2015(2):8-11.

      [2] 裴巧娜.基于光流法的運(yùn)動(dòng)目標(biāo)檢測與跟蹤技術(shù)[D].北京:北方工業(yè)大學(xué),2009.

      [3] 鄭 佳,李江勇.基于背景差分和信息熵的運(yùn)動(dòng)目標(biāo)檢測算法[J].激光與紅外,2014,44(5):563-566.

      [4] 林洪文,涂 丹,李國輝.基于統(tǒng)計(jì)背景模型的運(yùn)動(dòng)目標(biāo)檢測方法[J].計(jì)算機(jī)工程,2003,29(16):97-99.

      [5] 劉 偉,劉 寧.一種基于無味濾波的當(dāng)前統(tǒng)計(jì)模型跟蹤算法[J].數(shù)字技術(shù)與應(yīng)用,2015(3):119-120.

      [6] 霍電廣.基于視頻的時(shí)空融合特征提取算法研究[D].上海:華東理工大學(xué),2015.

      [7]StaufferC,GrimsonW.Adaptivebackgroundmixturemodelsforreal-timetracking[C]//Proceedingsofthe1999IEEEconferenceoncomputervisionandpatternrecognition.Piscataway:IEEE,1999:246-252.

      [8]ZhangYunchu,LiangZize,HouZengguang,etal.AnadaptivemixtureGaussianbackgroundmodelwithonlinebackgroundreconstructionandadjustableforegroundmergeneetimeformotionsegmentation[C]//ProcofIEEEinternationalconferenceonindustrialtechnology.[s.l.]:IEEE,2005:23-27.

      [9] 宋雪樺,陳 瑜,耿劍鋒,等.基于改進(jìn)的混合高斯背景模型的運(yùn)動(dòng)目標(biāo)檢測[J].計(jì)算機(jī)工程與設(shè)計(jì),2010,31(21):4646-4649.

      [10]DickinsonP,HunterA,AppiahK.Aspatiallydistributedmodelforforegroundsegmentation[J].ImageandVisionComputing,2009,27(9):1326-1335.

      [11] 周建英,吳小培,張 超,等.基于滑動(dòng)窗的混合高斯模型運(yùn)動(dòng)目標(biāo)檢測方法[J].電子與信息學(xué)報(bào),2013,35(7):1650-1656.

      [12]KohonenT,KaskiS,LappalainenH.Self-organizedformationofvariousinvariantfeaturefiltersintheadaptivesubspaceSOM[J].NeuralComputation,1997,9(6):1321-1344.

      [13] 符 笛,尹 東,孫 濤.一種基于分裂高斯混合模型的背景建模算法[J].計(jì)算機(jī)工程,2015,41(4):190-194.

      [14] 李亞南,周 勇,田瑞娟.基于混合高斯模型和三幀差法的背景建模[J].兵工自動(dòng)化,2015,34(4):33-35.

      [15]FakharianA,HosseiniS,GustafssonT.Hybridobjectdetectionusingimprovedgaussianmixturemodel[C]//Procofinternationalconferenceoncontrol,automationandsystems.Gyeonggido:[s.n.],2011:1475-1479.

      Research on Gaussian Mixture Background Modeling Algorithm Based on Texture Feature

      FENG Pu,LI Yu-hui,LI Bo,YOU Xu-chen

      (Faculty of Information Engineering and Automation,Kunming University of Science and Technology,Kunming 650500,China)

      Moving target detection in the intelligent transportation system is a fundamentaland key issue.Traditional Gaussian mixture model can better detect moving targets,but without considering the local characteristics of pixels,resulting in the error detection rate increases of moving target.To solve these problem,on the basis of idea of subspace,an improved Gaussian mixture model algorithm based on local texture features for pixel is put forward.It uses the average,standard deviation,maximum,minimum,and current pixel values around pixel 5*5 image block as local texture features,and establishes Gaussian mixture background model for moving object detection.After extensive comparison of experimental results,it shows that the algorithm can more accurately and completely detect moving targets and has good environmental adaptability.When the color of moving target area is similar with corresponding background area,the detection results improved is obvious.

      moving target detection;Gaussian mixture model;local texture feature;background model

      2015-07-15

      2015-10-02

      時(shí)間:2016-03-22

      國家自然科學(xué)基金資助項(xiàng)目(61363043)

      馮 璞(1990-),男,碩士研究生,研究方向?yàn)閿?shù)字圖像處理。

      http://www.cnki.net/kcms/detail/61.1450.TP.20160322.1521.078.html

      TP391.4

      A

      1673-629X(2016)05-0022-05

      10.3969/j.issn.1673-629X.2016.05.005

      猜你喜歡
      高斯紋理背景
      小高斯的大發(fā)現(xiàn)
      “新四化”背景下汽車NVH的發(fā)展趨勢
      《論持久戰(zhàn)》的寫作背景
      基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
      軟件(2020年3期)2020-04-20 01:45:18
      天才數(shù)學(xué)家——高斯
      使用紋理疊加添加藝術(shù)畫特效
      TEXTURE ON TEXTURE質(zhì)地上的紋理
      Coco薇(2017年8期)2017-08-03 15:23:38
      晚清外語翻譯人才培養(yǎng)的背景
      消除凹凸紋理有妙招!
      Coco薇(2015年5期)2016-03-29 23:22:15
      有限域上高斯正規(guī)基的一個(gè)注記
      博乐市| 郑州市| 博白县| 文山县| 手游| 德州市| 巨野县| 五寨县| 台前县| 洛浦县| 北京市| 盐山县| 柘城县| 柯坪县| 安宁市| 唐海县| 涿鹿县| 奇台县| 尼木县| 安康市| 洪泽县| 望都县| 莒南县| 黔江区| 盐亭县| 南汇区| 阿克陶县| 宁陵县| 赫章县| 南和县| 静乐县| 邯郸市| 东丽区| 陇西县| 库伦旗| 盘山县| 安化县| 北辰区| 焦作市| 五家渠市| 霍城县|