禹明娟,張英烈,陳臨強(qiáng)
(杭州電子科技大學(xué) 計(jì)算機(jī)學(xué)院,浙江 杭州 310018)
?
醫(yī)院監(jiān)控場(chǎng)景下的人群密度估計(jì)方法
禹明娟,張英烈,陳臨強(qiáng)
(杭州電子科技大學(xué) 計(jì)算機(jī)學(xué)院,浙江 杭州310018)
摘要人群密度估計(jì)是智能化人群監(jiān)控中的重要內(nèi)容,在公共安防、管理控制和商業(yè)決策等方面起著重要作用。文中針對(duì)醫(yī)院應(yīng)用場(chǎng)景,采用一種基于分塊的方法,對(duì)每一個(gè)子圖像分別利用基于像素特征與最小二乘直線擬合方法進(jìn)行人數(shù)定量分析和基于灰度共生矩陣與支持向量機(jī)的方法進(jìn)行密度定性分析,得到整幅圖像中不同子圖及整幅圖像的人數(shù)和密度分布圖。實(shí)驗(yàn)表明,該方法能有效的提高人群密度估計(jì)的準(zhǔn)確率,且還能對(duì)局部的密度異常精準(zhǔn)定位。
關(guān)鍵詞人群密度估計(jì);醫(yī)院;最小二乘法;灰度共生矩陣;支持向量機(jī)
Crowd Density Estimation Method for Hospital Surveillance
YU Mingjuan,ZHANG Yinglie,CHEN Linqiang
(School of Computer Science,Hangzhou Dianzi University,Hanghzhou 310018,China)
AbstractCrowd density estimation,with increasing attention,is the primary content of intelligent crowd surveillance.It plays an important role in the public security,management control as well as business decision.In this paper,we apply it in the situation of hospital with partition methods.We firstly divide the crowd image to sub images.Then for every sub image,we conduct quantitative analysis to the number of people with the function based on pixel feature and least-square line regression respectively.We also conduct a qualitative analysis of the density of people with the function based on gray level co-occurrence matrix (GLCM) and support vector machine (SVM).The number and density distribution of different sub images included in the whole image are obtained for real-time monitoring of the number of people in hospital with accurate location of the local density abnormity.
Keywordscrowd density estimation;the situation of hospital;least squares method;GLCM;SVM
近年來(lái),隨著我國(guó)醫(yī)院就診人數(shù)的不斷增長(zhǎng),各類大型綜合性醫(yī)院一號(hào)難求、人滿為患的現(xiàn)象突出,對(duì)醫(yī)院的就醫(yī)環(huán)境和醫(yī)療秩序產(chǎn)生隱患[1]。因此,結(jié)合先進(jìn)的圖像處理和機(jī)器學(xué)習(xí)技術(shù),對(duì)醫(yī)院內(nèi)的人群密度進(jìn)行實(shí)時(shí)監(jiān)測(cè),對(duì)密度異常區(qū)域進(jìn)行及時(shí)預(yù)警并及時(shí)采取措施疏散人群,合理分配醫(yī)療服務(wù)資源,維護(hù)就醫(yī)秩序,保障就醫(yī)環(huán)境是必要的。
根據(jù)人群密度特征的表征方式不同,人群密度估計(jì)方法[2]通常分為基于像素統(tǒng)計(jì)、基于紋理分析和基于目標(biāo)分析3類方法。文獻(xiàn)[3]提出基于像素統(tǒng)計(jì)方法,而文獻(xiàn)[4]改進(jìn)了這種方法,引入神經(jīng)網(wǎng)絡(luò)估計(jì)人群密度。該方法能獲得準(zhǔn)確度較高的密度估計(jì)結(jié)果。但由于高密度人群之間存在較為嚴(yán)重的遮擋現(xiàn)象,密度估計(jì)誤差較大。文獻(xiàn)[5]提出基于紋理分析的方法,但該方法主要適用于人群密度較高的場(chǎng)景,因低密度人群的紋理特征區(qū)分度較低,在進(jìn)行分類時(shí)誤差較大。文獻(xiàn)[6]提出基于目標(biāo)分析的方法對(duì)于分割技術(shù)要求較高,但實(shí)際應(yīng)用中的人群圖像通常難以用現(xiàn)有技術(shù)進(jìn)行有效分割,誤差較大。針對(duì)這些相關(guān)方法存在的問(wèn)題,本文提出一種基于醫(yī)院監(jiān)控場(chǎng)景下的人群密度估計(jì)方法。
1方法整體框架
在醫(yī)院的實(shí)際監(jiān)控場(chǎng)景中,通常會(huì)出現(xiàn)整幅圖像的人群數(shù)量較少,但局部人群過(guò)密的情況,無(wú)論采用基于像素特征與最小二乘直線擬合的低人群密度估計(jì)方法,還是采用基于灰度共生矩陣與支持向量機(jī)的高人群密度估計(jì)方法,均無(wú)法準(zhǔn)確有效地估計(jì)人群密度。本文在醫(yī)院實(shí)際場(chǎng)景下,采用一種基于分塊的人群密度估計(jì)方法對(duì)醫(yī)院人群進(jìn)行實(shí)時(shí)監(jiān)測(cè)。該方法通過(guò)攝像頭采集醫(yī)院場(chǎng)景圖像,然后劃分子塊,對(duì)每一個(gè)子圖像進(jìn)行人數(shù)和密度估計(jì)。該方法主要有以下創(chuàng)新:(1)引入分塊思想,根據(jù)攝像頭的透視模型將圖像劃分為若干子圖像,不僅可提高人群密度估計(jì)準(zhǔn)確度,而且還能得到局部圖像的人群密度分布圖;(2)對(duì)每個(gè)子圖像分別采用基于像素特征與最小二乘法的方法和基于灰度共生矩陣與支持向量機(jī)的方法,進(jìn)行人數(shù)的定量和定性估計(jì),從兩方面確定了人數(shù)和密度,進(jìn)一步提高人群密度估計(jì)精度。
圖1 系統(tǒng)流程圖
2方法設(shè)計(jì)與實(shí)現(xiàn)
2.1子圖像的劃分
在醫(yī)院的實(shí)際監(jiān)控場(chǎng)景中,視頻監(jiān)控區(qū)域面積較大,出現(xiàn)人群密度分布不均勻,采用傳統(tǒng)方法無(wú)法發(fā)現(xiàn)局部密度異常,因此需要估計(jì)局部人群密度。本文采用一種分塊的方法,分別估計(jì)子圖像的人群數(shù)量,累加后得到整幅圖像的人群數(shù)量,在提高人群密度估計(jì)準(zhǔn)確度的同時(shí),還能估計(jì)局部人群密度。由于攝像頭成像存在一定的透視效應(yīng),同一場(chǎng)景下的同一物體在不同的位置外,成像大小不一致。因此,本文利用攝像頭的透視模型進(jìn)行子圖像劃分。
首先對(duì)視頻圖像進(jìn)行縱向上的劃分,子區(qū)域的劃分比例可根據(jù)攝像頭成像在縱向上的模型來(lái)確定,如圖2所示。根據(jù)圖2模型,可得
(1)
其中,c=Hcotα,a=d/3,b表示攝像頭與最近拍攝點(diǎn)A在水平方向上的距離。由于醫(yī)院監(jiān)控場(chǎng)景中攝像頭處于45°方向,根據(jù)和式(1)求出比例系數(shù),3個(gè)實(shí)際監(jiān)控區(qū)域大小基本相等,如圖3所示。
圖2 攝像頭成像在縱向上的模型
圖3 視頻圖像縱向上的劃分
通過(guò)縱向劃分保證子區(qū)域內(nèi)圖像對(duì)應(yīng)的場(chǎng)景高度一致,為劃分出面積基本一致的子圖像,還需要對(duì)子區(qū)域在橫向上進(jìn)行劃分。子區(qū)域的橫向劃分比例可根據(jù)攝像頭成像在橫向上的模型來(lái)確定,攝像頭成像在橫向上的模型如圖4所示。
圖4 攝像頭成像在橫向上的模型
根據(jù)圖4模型,可得
(2)
其劃分結(jié)果如圖5所示,然后按順序?qū)γ總€(gè)子圖編號(hào)。
圖5 視頻圖像橫向上的劃分
經(jīng)過(guò)劃分處理,視頻圖像就被劃分為若干個(gè)子圖像,每個(gè)子圖像對(duì)應(yīng)的實(shí)際監(jiān)控區(qū)域面積基本相等。值得注意的是,分塊后會(huì)出現(xiàn)人體目標(biāo)被分散到幾個(gè)子圖像中的情況,由于本文估計(jì)的是人群密度而不是人群人數(shù),個(gè)體目標(biāo)的分散對(duì)子圖像中的像素特征和紋理特征影響基本可忽略,不影響人群密度估計(jì)結(jié)果。
2.2擬合的人數(shù)定量估計(jì)
在低密度人群情況下,人數(shù)與人群前景目標(biāo)的像素特征之間有著較強(qiáng)的線性關(guān)系。因此,本文采用前景目標(biāo)的像素面積特征和邊緣像素特征這兩個(gè)像素特征來(lái)表征前景圖像,并利用最小二乘法分別建立人數(shù)與這兩個(gè)特征之間的線性模型,并利用該線性模型對(duì)人群圖像進(jìn)行人群密度估計(jì),其算法流程如圖6所示。
圖6 算法流程圖
其主要過(guò)程如下:(1)人群圖像的前景目標(biāo)提取。由于醫(yī)院場(chǎng)景是室內(nèi)環(huán)境,背景單一。所以,本文一種結(jié)合平均背景[7]和幀間差分的方法。相鄰幀進(jìn)行差分處理,對(duì)背景部分的像素灰度值求平均值,即可得到背景圖像;(2)計(jì)算前景像素面積。統(tǒng)計(jì)1中提取的前景像素個(gè)數(shù),由于前景像素面積受前景目標(biāo)距離攝像頭的遠(yuǎn)近影響不同,故需進(jìn)行歸一化處理。提取前景面積像素后再除以整幅圖像的像素,得到前景像素面積比特征;(3)統(tǒng)計(jì)前景邊緣像素。使用基于二值圖像的邊緣檢測(cè)方對(duì)圖像進(jìn)行邊緣提取對(duì)樣本圖像進(jìn)行二值化,以1為前景點(diǎn),0為背景點(diǎn),若某一非零點(diǎn)的4鄰域內(nèi)任一點(diǎn)為0,則為邊緣點(diǎn),否則為內(nèi)點(diǎn)。通過(guò)該方法得到高精確的人群前景邊緣,實(shí)時(shí)性高,然后統(tǒng)計(jì)邊緣像素?cái)?shù)量;(4)像素特征與人數(shù)的直線擬合。從監(jiān)控視頻中抽取80幅樣本圖像,并人工統(tǒng)計(jì)實(shí)際人數(shù)及其對(duì)應(yīng)的前景像素面積比和前景邊緣像素?cái)?shù)量。利用最小二乘擬合法[8]便可分別計(jì)算出這兩個(gè)像素特征與人數(shù)的線性方程。根據(jù)具體實(shí)驗(yàn)數(shù)據(jù)擬合得到的直線方程函數(shù)表達(dá)式為
(3)
由于采用單一的像素特征對(duì)人群人數(shù)進(jìn)行估計(jì)存在一定的誤差。因此,本文利用加權(quán)平均的方法使前景面積和邊緣相結(jié)合,得到準(zhǔn)確度更高的估算值。根據(jù)不同特征對(duì)人數(shù)估計(jì)影響的不同來(lái)確定相應(yīng)的估算系數(shù),改進(jìn)后的人數(shù)估算公式如下
y=ay1+(1-a)y2=a(0.921x1+1.836)+(1-a)(0.006x2-0.162)
(4)
式中,y1表示基于前景像素面積估算的人數(shù);y2表示基于前景邊緣數(shù)量估算的人數(shù);x1和x2分別表示前景像素面積比和前景邊緣數(shù)量;a表示基于前景像素面積估算方法的估算系數(shù)。通過(guò)實(shí)驗(yàn)確定的估算系數(shù)a的最佳值為0.35。
2.3人群密度定性估計(jì)
在高密度人群情況下,由于人群之中相互遮擋現(xiàn)象比較嚴(yán)重,導(dǎo)致部分有效人群前景像素特征丟失,無(wú)法準(zhǔn)確地描述人群密度,密度估計(jì)誤差較大。但高密度人群圖像的紋理特征顯著,而且灰度共生矩陣[9]能有效地描述紋理信息。同時(shí),由于支持向量機(jī)[10]擁有較強(qiáng)的泛化能力,并能夠較好地解決局部最優(yōu)和非線性等問(wèn)題,且訓(xùn)練性能高,分類效果顯著,因此本文結(jié)合紋理分析法的思路,采用一種基于灰度共生矩陣與支持向量機(jī)(SVM)的人群密度估計(jì)方法,其算法流程,如圖7所示。
圖7基于灰度共生矩陣與支持向量機(jī)方法的算法流程圖
其具體過(guò)程如下:
(1)特征提取?;叶裙采仃囀窍袼貙?duì)的聯(lián)合概率密度P(i,j,d,q)組成的矩陣,其數(shù)學(xué)表達(dá)式定義為
[P(i,j,d,θ)]N×N
(5)
從上式可看出,灰度共生矩陣由灰度等級(jí)、方向和距離這3個(gè)參數(shù)決定。其中N表示灰度等級(jí),即圖像中像素對(duì)的灰度值范圍,一般可取為8、16、32等;θ表示方向,即像素對(duì)之間的相對(duì)角度,一般只取4個(gè)角度0°、45°、90°和135°,需要選取恰當(dāng)?shù)臉?gòu)造參數(shù)來(lái)計(jì)算灰度共生矩陣,本文根據(jù)實(shí)際場(chǎng)景,選取θ=0°、90°以及d=10來(lái)計(jì)算灰度共生矩陣。
由于灰度共生矩陣直接作為紋理特征計(jì)算復(fù)雜度過(guò)高。因此,一般需在其基礎(chǔ)上提取有效統(tǒng)計(jì)量作為紋理特征。本文使用以下5個(gè)紋理特征統(tǒng)計(jì)量作為人群密度特征:
能量統(tǒng)計(jì)量(Energy)
(6)
對(duì)比度統(tǒng)計(jì)量(Contrast)
(7)
相關(guān)性統(tǒng)計(jì)量(Correlation)
(8)
式中,μ1,μ2,σ1,σ2分別定義為
(9)
(10)
熵統(tǒng)計(jì)量(Entropy)
(11)
逆差矩統(tǒng)計(jì)量(Homogeneity)
(12)
(2)支持向量機(jī)分類訓(xùn)練。選取訓(xùn)練樣本圖像,從同一監(jiān)控環(huán)境的不同時(shí)間段的實(shí)驗(yàn)視頻中抽取了4種密度等級(jí)共800幅樣本圖像,其中每種密度等級(jí)的樣本圖像各200幅;提取圖像紋理特征,計(jì)算5個(gè)紋理特征量,其中0°和90°方向的灰度共生矩陣各有5個(gè)特征量,每幅樣本圖像組成一個(gè)10維特征向量;建立分類器,利用支持向量機(jī)的機(jī)器學(xué)習(xí)方法,采用RBF核函數(shù),并利用一對(duì)一的多類分類方法,樣本圖像的特征向量進(jìn)行分類訓(xùn)練。由于樣本圖像中的密度等級(jí)有4種,其分類類別共4個(gè),所以一共訓(xùn)練出6個(gè)SVM密度分類器。根據(jù)得到的支持向量機(jī)密度分類器便可對(duì)人群圖像進(jìn)行密度分類。
3實(shí)驗(yàn)結(jié)果與分析
實(shí)驗(yàn)環(huán)境:主機(jī)為處理器為i3 2.0 GHz,內(nèi)存為2 GB的PC機(jī),開(kāi)發(fā)工具為Visual C++ 6.0和OpenCV1.0。實(shí)驗(yàn)視頻由PC機(jī)自帶攝像頭采集,視頻圖像尺寸為320×240。經(jīng)過(guò)上述處理過(guò)程可得到人群密度分布圖,如圖8所示,每個(gè)子圖像的左上角表示其編號(hào),右下角表示該子圖像的估計(jì)人數(shù)與密度等級(jí)。
圖8 人群密度分布圖
圖中每個(gè)子圖像的左上角表示其編號(hào),右下角表示該子圖像的估計(jì)人數(shù)與密度等級(jí)。根據(jù)得到的人群密度分布圖,文中不僅可得到整個(gè)監(jiān)控區(qū)域的人群總?cè)藬?shù),還可了解人群的分布情況和運(yùn)動(dòng)規(guī)律,對(duì)于圖像局部的密度異常能有及時(shí)發(fā)現(xiàn)并準(zhǔn)確定位。對(duì)所有子圖像中的人群數(shù)量進(jìn)行累加統(tǒng)計(jì)便可得到整幅圖像的總?cè)藬?shù),其實(shí)驗(yàn)結(jié)果如圖9所示。
圖9 整幅監(jiān)控圖像的估計(jì)總?cè)藬?shù)
圖9中橫坐標(biāo)表示視頻幀數(shù),縱坐標(biāo)表示人數(shù),其中與縱坐標(biāo)垂直的3條直線分別表示較高密度、高密度和中密度的對(duì)應(yīng)人數(shù)。圖9中細(xì)線表示估計(jì)人數(shù),粗線表示實(shí)際人數(shù),可看出估計(jì)人數(shù)的變化曲線與實(shí)際人數(shù)基本一致,只是在密度較高的時(shí)候估計(jì)人數(shù)比實(shí)際人數(shù)少,存在一定的誤差,而在對(duì)于低密度情況,準(zhǔn)確度較高。實(shí)驗(yàn)過(guò)程中處理每幀圖像的平均耗時(shí)為0.197 s,每秒抽取兩幀圖像進(jìn)行處理,基本可以滿足醫(yī)院實(shí)時(shí)監(jiān)測(cè)的需求。
4結(jié)束語(yǔ)
針對(duì)醫(yī)院場(chǎng)景實(shí)時(shí)人數(shù)監(jiān)測(cè)的應(yīng)用要求,采用一種基于分塊的方法得到監(jiān)控區(qū)域的密度分布圖。通過(guò)對(duì)某醫(yī)院門(mén)診大廳內(nèi)采集的一段視頻進(jìn)行人群密度估計(jì),實(shí)驗(yàn)表明,該方法能有效地估計(jì)人群數(shù)量和密度,準(zhǔn)確度較高,能滿足實(shí)時(shí)性的需求。
參考文獻(xiàn)
[1]曹杰,楊曉光,汪壽陽(yáng).突發(fā)公共事件應(yīng)急管理研究中的重要科學(xué)問(wèn)題[J].公共管理學(xué)報(bào),2007(2):84-93,126-127.
[2]Davies A C,Yin J H,Velastin S A,et al.Measurement of crowd density using image processing[C].Edinburgh,UK:Proceedings of the VII.European Signal Processing Conference (EUSIPCO-94),1994.
[3]Ma R,Li L,Huang W,et al.On pixel count based crowd density estimation for visual surveillance[C].London:2004 IEEE Conference on Cybernetics and Intelligent Systems,IEEE,2004.
[4]Hussain N,Yatim H S M,Hussain N L,et al.CDES:A pixel-based crowd density estimation system for Masjid al-Haram[J].Safety Science,2011,49(6):824-833.
[5]Wang B,Bao H,Yang S,et al.Crowd density estimation based on texture feature extraction[J].Journal of Multimedia,2013,8(4):331-337.
[6]Lin S F,Chen J Y,Chao H X.Estimation of number of people in crowded scenes using perspective transformation[J].IEEE Transactions on Systems,Man and Cybernetics,Part A:Systems and Humans,2001,31(6):645-654.
[7]Monnet A,Mittal A,Paragios N,et al.Background modeling and subtraction of dynamic scenes[C].Shanghai:Ninth IEEE International Conference on Computer Vision,IEEE,2003.
[8]Chan A B,Vasconcelos N.Counting people with low-level features and Bayesian regression[J].IEEE Transactions on Image Processing,2012,21(4):2160-2177.
[9]Chen Y,Yang F Y.Research on characteristic properties of gray level co-occurrence matrix[J].Applied Mechanics and Materials,2012(204):4755-4759.
[10]Adankon M M,Cheriet M.Support vector machine[M].Springer US:Encyclopedia of Biometrics,2009.
中圖分類號(hào)TP391.41
文獻(xiàn)標(biāo)識(shí)碼A
文章編號(hào)1007-7820(2016)03-075-05
doi:10.16180/j.cnki.issn1007-7820.2016.03.019
作者簡(jiǎn)介:禹明娟(1990—),女,碩士研究生。研究方向:視頻圖像處理。
收稿日期:2015- 07- 12