• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      一種基于歸一化前景和角點(diǎn)信息的復(fù)雜場(chǎng)景人數(shù)統(tǒng)計(jì)方法

      2014-05-29 10:00:28常慶龍夏洪山
      電子與信息學(xué)報(bào) 2014年2期
      關(guān)鍵詞:角點(diǎn)前景人群

      常慶龍 夏洪山 黎 寧

      ?

      一種基于歸一化前景和角點(diǎn)信息的復(fù)雜場(chǎng)景人數(shù)統(tǒng)計(jì)方法

      常慶龍*①夏洪山①黎 寧②

      ①(南京航空航天大學(xué)民航學(xué)院 南京 210016)②(南京航空航天大學(xué)電子信息工程學(xué)院 南京 210016)

      針對(duì)智能視頻監(jiān)控領(lǐng)域的人數(shù)統(tǒng)計(jì)問題,該文提出了一種基于歸一化前景和角點(diǎn)信息的復(fù)雜場(chǎng)景人數(shù)統(tǒng)計(jì)方法。首先在提取的前景二值圖基礎(chǔ)上,計(jì)算透視校正后的歸一化前景面積。然后在提取前景區(qū)域有效角點(diǎn)信息的基礎(chǔ)上,計(jì)算能夠反映人群遮擋程度的遮擋因子。最后,將上述兩種特征輸入后向傳播(BP)網(wǎng)絡(luò)完成人數(shù)統(tǒng)計(jì)算法的訓(xùn)練與測(cè)試。實(shí)驗(yàn)表明,該方法可以有效地實(shí)現(xiàn)對(duì)復(fù)雜場(chǎng)景的人數(shù)統(tǒng)計(jì)。

      視頻監(jiān)控;人數(shù)統(tǒng)計(jì);歸一化前景;角點(diǎn)信息;BP神經(jīng)網(wǎng)絡(luò)

      1 引言

      隨著計(jì)算機(jī)硬件性能的不斷提高,基于數(shù)字圖像處理技術(shù)的智能化視頻監(jiān)控成為當(dāng)前的熱點(diǎn)研究領(lǐng)域。人數(shù)統(tǒng)計(jì)作為其中的關(guān)鍵技術(shù),在公共場(chǎng)所的安全監(jiān)控和大型商場(chǎng)的客流分析等方面有著重要的應(yīng)用價(jià)值,也成為研究的熱點(diǎn)。

      為了能夠更加高效準(zhǔn)確地統(tǒng)計(jì)出復(fù)雜場(chǎng)景中的人數(shù),本文提出了一種基于歸一化前景和角點(diǎn)信息的復(fù)雜場(chǎng)景人數(shù)統(tǒng)計(jì)方法。該方法具有較高的準(zhǔn)確性和較好的魯棒性,在對(duì)機(jī)場(chǎng)候機(jī)樓監(jiān)控視頻的人數(shù)統(tǒng)計(jì)實(shí)驗(yàn)中取得了較好的效果。

      2 算法

      本文方法在提取出人群前景的基礎(chǔ)上,計(jì)算出透視校正后的歸一化前景面積,然后在提取出前景區(qū)域有效角點(diǎn)信息的基礎(chǔ)上,計(jì)算出能夠反映場(chǎng)景人群平均遮擋程度的遮擋因子,最后將上述兩個(gè)特征輸入后向傳播(BP)網(wǎng)絡(luò)回歸模型,實(shí)現(xiàn)了對(duì)復(fù)雜場(chǎng)景的人數(shù)統(tǒng)計(jì),具體流程如圖1所示。

      圖1 算法流程圖

      2.1 前景提取

      本文采用高斯混合模型算法[11]完成了場(chǎng)景的背景建模。考慮到本文的實(shí)驗(yàn)場(chǎng)景為機(jī)場(chǎng)候機(jī)大廳,如圖2(a)所示,光線變化較弱且行人的運(yùn)動(dòng)幅度與速率較低,因此,不同于傳統(tǒng)高斯混合模型算法由像素點(diǎn)灰度值的條件概率來決定更新速率。本文將更新速率設(shè)為一個(gè)固定的值,從而降低了背景模型的敏感度,提高了模型生成的效率。在所構(gòu)建的背景模型基礎(chǔ)上,通過背景減除,即可獲得初步的前景圖,如圖2(b)所示。

      受光線影響,監(jiān)控場(chǎng)景中的目標(biāo)倒影是必須要解決的問題。本文基于傳統(tǒng)的HSV陰影去除算法[12],總結(jié)出一組簡(jiǎn)化閾值過濾條件完成了陰影去除。

      在完成背景減除操作后,將獲得的前景圖由RGB色彩空間轉(zhuǎn)換至HSV色彩空間。利用式(1)和式(2),對(duì)前景區(qū)域逐像素判別濾除,最終得到過濾了陰影區(qū)域的前景圖,如圖2(c)所示。

      陰影去除后的前景圖,需要通過形態(tài)學(xué)濾波得到低噪聲,輪廓更為完整的人群前景圖。本文通過一組形態(tài)學(xué)開閉運(yùn)算得到更好的前景二值圖,如圖2(d)所示。

      2.2 歸一化前景計(jì)算

      本文通過對(duì)同一場(chǎng)景中同一行人處于不同縱向位置時(shí)的尺寸和縱向坐標(biāo)值進(jìn)行采樣,并對(duì)尺寸和縱向坐標(biāo)值進(jìn)行如圖3所示的線性擬合。由圖3所示,行人的寬和高與其所處的縱向坐標(biāo)值之間呈現(xiàn)明顯的線性關(guān)系,基于此,得到如式(3)和式(4)的擬合公式。

      圖3 行人尺寸擬合曲線

      由式(3)和式(4)可知,已知場(chǎng)景中某個(gè)目標(biāo)的尺寸和對(duì)應(yīng)的縱向坐標(biāo)后,可由上述兩個(gè)擬合公式推導(dǎo)出該目標(biāo)位移至場(chǎng)景中任意其它位置時(shí)的尺寸,具體見式(5)和式(6)。

      傳統(tǒng)的前景面積計(jì)算公式如式(7):

      為了校正透視效應(yīng),需要對(duì)原有前景面積公式進(jìn)行歸一化修正。根據(jù)式(3)和式(4),可將每行前景像素點(diǎn)面積修正為其投影至場(chǎng)景底邊時(shí)的小矩形區(qū)域面積,因此歸一化后的前景面積統(tǒng)計(jì)式如式(8)。

      2.3 遮擋因子提取

      對(duì)于人群密度較高的場(chǎng)景,必需考慮行人之間的遮擋問題。一般而言,人群越聚集,遮擋越嚴(yán)重的區(qū)域,對(duì)應(yīng)的邊緣紋理圖像也越復(fù)雜。本文基于前景區(qū)域的有效角點(diǎn)信息,提取了一種遮擋因子來表征對(duì)前景區(qū)域的人群遮擋程度。

      本文首先采用經(jīng)典的Harris角點(diǎn)算法[13]提取候選角點(diǎn)信息,具體步驟如下:

      上述候選角點(diǎn)需要經(jīng)過進(jìn)一步的濾除處理得到最終的有效角點(diǎn)??紤]到遮擋邊緣一般處于前景區(qū)域內(nèi)部,為了使得角點(diǎn)能夠更好地體現(xiàn)場(chǎng)景中行人之間的遮擋程度,這里將處于前景區(qū)域邊緣的角點(diǎn)濾除。這樣得到的有效角點(diǎn)更準(zhǔn)確地反映了前景區(qū)域內(nèi)部紋理的復(fù)雜程度,并且可以濾除一些噪聲角點(diǎn),角點(diǎn)濾除效果如圖4所示。提取有效角點(diǎn)的具體步驟如下:

      圖4 角點(diǎn)濾除結(jié)果圖

      2.4 回歸模型建立

      統(tǒng)計(jì)回歸是人數(shù)統(tǒng)計(jì)算法的重要步驟。場(chǎng)景的歸一化前景和人數(shù)之間存在著一定的線性關(guān)系,但為了解決人群中的遮擋問題,本文引入了人群密度特征,使得一般的線性回歸模型并不適用。因此,這里選用經(jīng)典的BP網(wǎng)絡(luò)[15]作為回歸模型。

      3 實(shí)驗(yàn)

      實(shí)驗(yàn)在2.67 GHz主頻,4 G內(nèi)存下的Matlab 2007b平臺(tái)上進(jìn)行,分別對(duì)一段機(jī)場(chǎng)候機(jī)樓值機(jī)柜臺(tái)區(qū)域的視頻和一段校園路口的自拍視頻進(jìn)行人數(shù)統(tǒng)計(jì)。其中,候機(jī)樓場(chǎng)景的圖像尺寸為704×576,測(cè)試樣本長(zhǎng)度為600幀;校園場(chǎng)景的圖像尺寸為320×240,測(cè)試樣本長(zhǎng)度也為600幀,各場(chǎng)景樣本示例如圖5所示。實(shí)驗(yàn)中BP網(wǎng)絡(luò)的隱含層設(shè)為1,訓(xùn)練次數(shù)設(shè)為1000,學(xué)習(xí)率設(shè)為0.1,訓(xùn)練目標(biāo)設(shè)為0.0001。

      圖5 實(shí)驗(yàn)樣本示例

      文獻(xiàn)[8]中的GLCM算法是人數(shù)統(tǒng)計(jì)中的經(jīng)典算法,本節(jié)對(duì)該方法和本文方法進(jìn)行對(duì)比實(shí)驗(yàn),回歸模型都采用BP網(wǎng)絡(luò)。候機(jī)樓場(chǎng)景和校園場(chǎng)景的實(shí)驗(yàn)對(duì)比結(jié)果分別如圖6(a)和圖6(b)所示。

      從圖6(a)可以明顯看出,對(duì)于機(jī)場(chǎng)候機(jī)大廳這類場(chǎng)景范圍較大的復(fù)雜場(chǎng)景,本文方法能夠比較準(zhǔn)確地統(tǒng)計(jì)出其各種密度狀況下的人數(shù),而GLCM算法對(duì)中低密度狀況下的人數(shù)統(tǒng)計(jì)不夠理想。對(duì)如圖6(b)所示的校園路口這類場(chǎng)景范圍較小的情況,本文方法依然能夠有效地實(shí)現(xiàn)人數(shù)統(tǒng)計(jì),而GLCM算法的誤差明顯高于本文方法。

      圖6 算法實(shí)驗(yàn)結(jié)果對(duì)比圖

      為了定量衡量本文方法和GLCM算法的性能差異,這里采用平均絕對(duì)誤差(MAE)和平均相對(duì)誤差(MRE)作為算法性能的評(píng)估標(biāo)準(zhǔn),具體如式(16)和式(17)所示。

      同時(shí),為了驗(yàn)證本文歸一化前景提取方法的有效性,這里將未考慮陰影和透視影響的傳統(tǒng)前景提取方法[11]與本文的角點(diǎn)信息和遮擋因子相結(jié)合進(jìn)行人數(shù)統(tǒng)計(jì)對(duì)比實(shí)驗(yàn)。每種方法采用BP網(wǎng)絡(luò)運(yùn)算10次,以10次實(shí)驗(yàn)的平均值作為最終結(jié)果,實(shí)驗(yàn)結(jié)果如表1所示。

      表1 歸一化前景提取方法有效性對(duì)比

      由表1可知,本文方法與GLCM算法相比,在候機(jī)樓場(chǎng)景中的MAE和MRE分別降低了35.1%和44.0%,在校園場(chǎng)景中的MAE和MRE分別降低了46.7%和54.6%,整體性能提升明顯,這與圖6中反映的情況也是一致的。另外,本文方法相比于基于傳統(tǒng)前景提取方法的人數(shù)估計(jì)方法,整體性能也有一定提升,證明了本文的歸一化前景提取方法的有效性。需要說明的是,盡管本文方法的單幀處理速度略低于GLCM算法,但足以滿足智能監(jiān)控系統(tǒng)的實(shí)時(shí)處理需求。

      4 結(jié)束語

      針對(duì)復(fù)雜場(chǎng)景下的人數(shù)統(tǒng)計(jì)問題,本文提出了一種基于歸一化前景和角點(diǎn)信息的人數(shù)統(tǒng)計(jì)方法。該方法首先利用混合高斯模型提取圖像背景,并通過背景減除得到初步前景圖。再結(jié)合陰影濾除和形態(tài)學(xué)濾波得到前景二值圖,接著計(jì)算出了透視校正后的歸一化前景面積。然后,利用Harris算法提取出前景區(qū)域的候選角點(diǎn)信息,并通過濾除前景邊緣角點(diǎn)得到有效的角點(diǎn)信息,接著結(jié)合原始前景面積計(jì)算出反映場(chǎng)景人群平均遮擋程度的遮擋因子。最后,將上述兩種特征輸入BP神經(jīng)網(wǎng)絡(luò)回歸模型完成人數(shù)統(tǒng)計(jì)算法的訓(xùn)練與測(cè)試。實(shí)驗(yàn)證明,相比傳統(tǒng)的GLCM算法,本文算法可以更準(zhǔn)確地統(tǒng)計(jì)出類似機(jī)場(chǎng)候機(jī)大廳這類復(fù)雜場(chǎng)景的人數(shù)。

      未來可根據(jù)場(chǎng)景需要進(jìn)一步改進(jìn)有效角點(diǎn)信息的提取算法和遮擋因子的計(jì)算模型,使其更加準(zhǔn)確地表征場(chǎng)景中人群區(qū)域的遮擋程度,從而獲得更高的計(jì)算準(zhǔn)確性。

      [1] Zeng Cheng-bin and Ma Hua-dong. Robust head-shoulder detection by PCA-based multilevel HOG-LBP detector for people counting[C]. 20th International Conference on Pattern Recognition, Istanbul, 2010: 2069-2072.

      [2] Zhang Zui, Gunes H, and Piccardi M. Head detection for video surveillance based on categorical hair and skin colour models[C]. 2009 IEEE International Conference on Image Processing, Cairo, 2009: 1137-1140.

      [3] Conde C, Moctezuma D, Martin D D,.. HoGG: Gabor and HoG-based human detection for surveillance in non-controlled environments[J]., 2013 (Special issue: Behaviours in video), 100: 19-30.

      [4] Gao Cong-wen, Huang Kai-qi, and Tan Tie-niu. People counting using combined feature[C]. 2011 3rd Chinese Conference on Intelligent Visual Surveillance, Beijing, 2011: 81-84.

      [5] Chan A B and Vasconceloos N. Counting people with low-level features and bayesian regression[J]., 2012, 21(4): 2160-2177.

      [6] 覃勛輝, 王修飛, 周曦, 等. 多種人群密度下的人群計(jì)數(shù)[J]. 中國(guó)圖象圖形學(xué)報(bào), 2013, 18(4): 392-398.

      Qin Xun-hui, Wang Xiu-fei, Zhou Xi,.. Counting people in various crowed density scenes using support vector regression[J]., 2013, 18(4): 392-398.

      [7] Wu Xin-yu, Liang Guo-yuan, Lee K K,.. Crowd density estimation using texture analysis and learning[C]. 2006 IEEE International Conference on Robotics and Biomimetics, Kunming, 2006: 214-219.

      [8] Guo Sen, Liu Wei, and Yan He-ping. Counting people in crowd open scene based on grey level dependence matrix[C]. 2009 IEEE International Conference on Information and Automation, Zhuhai, 2009: 228-231.

      [9] Albiol A, Silla M J, Albiol A,.. Video analysis using corner motion statistics[C]. Proceedings of 12th IEEE International workshop on Performance, Miami, 2009: 31-37.

      [10] Hajer F and Jean-Luc D. People counting system in crowded scenes based on feature regression[C]. Proceedings of the 20th European Signal Processing Conference, Bucharest, 2012: 136-140.

      [11] Wan Qin and Wang Yao-nan. Background subtraction based on adaptive non-parametric model[C]. 7th World Congress on Intelligent Control and Automation, Chongqing, 2008: 5960-5965.

      [12] Cucchiara R, Grana C, Piccardi M,.. Improving shadow suppression in moving object detection with HSV color information[C]. 2001 IEEE Intelligent Transportation Systems Proceedings, Oakland, 2001: 334-339.

      [13] Harris C and Stephens M. A combined corner and edge detector[C]. Proceedings of 4th Alvey Vision Conference, Manchester, UK, 1988: 147-151.

      [14] Gonzalez R C and Woods R E. Digital Image Processing[M]. Massachusetts: Addison-Welsey, 2007: 726-735.

      [15] Hecht-Nielsen R. Theory of the backpropagation neural network[C]. International Joint Conference on Neural Networks, Washington, 1989: 593-605.

      常慶龍: 男,1986年生,博士生,研究方向?yàn)閳D像處理和模式識(shí)別.

      夏洪山: 男,1952年生,教授,博士生導(dǎo)師,研究方向?yàn)楹娇者\(yùn)輸系統(tǒng)建模仿真與智能化.

      黎 寧: 女,1967年生,副教授,碩士生導(dǎo)師,研究方向?yàn)閳D像處理和機(jī)器視覺.

      A Method for People Counting in Complex Scenes Based on Normalized Foreground and Corner Information

      Chang Qing-long①Xia Hong-shan①Li Ning②

      ①(,,210016,)②(,,210016,)

      For the problem of people counting in intelligent video surveillance, a method of people counting in complex scenes based on the normalized foreground and corner information is proposed. First, based on the binary foreground, the area of normalized foreground after perspective correction is calculated. Second, the optimized corner information of foreground is extracted to compute the occlusion coefficient of crowd. Finally, the above two features are used as the inputs of the Back Propagation (BP) neural network to train and test the people counting. Experiments results show that, the proposed method exhibits good performance in complex scenes.

      Video surveillance; People counting; Normalized foreground; Corner information; Back Propagation (BP) neural network

      TP391.4

      A

      1009-5896(2014)02-0312-06

      10.3724/SP.J.1146.2013.00620

      常慶龍 hacql2004@126.com

      2013-05-06收到,2013-08-26改回

      中國(guó)民用航空局科技項(xiàng)目(MHRD2009211)和民航大重點(diǎn)實(shí)驗(yàn)室項(xiàng)目(1004-ZBA12016)資助課題

      猜你喜歡
      角點(diǎn)前景人群
      在逃犯
      我國(guó)旅游房地產(chǎn)開發(fā)前景的探討
      四種作物 北方種植有前景
      糖尿病早預(yù)防、早控制
      離岸央票:需求與前景
      基于FAST角點(diǎn)檢測(cè)算法上對(duì)Y型與X型角點(diǎn)的檢測(cè)
      我走進(jìn)人群
      百花洲(2018年1期)2018-02-07 16:34:52
      財(cái)富焦慮人群
      基于邊緣的角點(diǎn)分類和描述算法
      電子科技(2016年12期)2016-12-26 02:25:49
      基于圓環(huán)模板的改進(jìn)Harris角點(diǎn)檢測(cè)算法
      罗定市| 彭泽县| 集贤县| 营山县| 哈巴河县| 大化| 滦南县| 海淀区| 乌兰察布市| 固原市| 西贡区| 区。| 崇州市| 廉江市| 会同县| 邵阳县| 兴业县| 高青县| 舒城县| 潞城市| 棋牌| 乐都县| 金阳县| 闵行区| 平遥县| 周宁县| 鸡西市| 鹤峰县| 怀宁县| 牙克石市| 天水市| 化德县| 堆龙德庆县| 柘城县| 乌鲁木齐市| 新野县| 旬阳县| 吉安县| 石泉县| 康马县| 富阳市|