張起貴,張 妮
(太原理工大學(xué)信息工程學(xué)院,山西太原 030024)
近幾年,由于中國城市人口數(shù)量的快速增長,加快地鐵建設(shè)迫在眉睫,但伴隨而來的是在地鐵公共場所下乘客的安全隱患,如何快速辨識乘客異常行為,克服客觀環(huán)境因素造成的影響,成為視頻分析研究領(lǐng)域面臨的一大挑戰(zhàn)。目前,行為識別大多沒有針對某一種特定場景,而且檢測精度不夠。常用的行為辨識法主要有模板匹配法、基于規(guī)則識別法及狀態(tài)轉(zhuǎn)移圖模型法等,不僅計(jì)算量大,且需花大量時(shí)間訓(xùn)練樣本庫,不具有對特定場景下異常行為檢測的針對性。
本文通過攝像機(jī)快速標(biāo)定和魯棒性背景建模,基于軌跡關(guān)聯(lián)區(qū)域特征點(diǎn)的時(shí)空特性對異常行為進(jìn)行表征,結(jié)合時(shí)空特性與形狀特性的方法來描述這一異常行為,提出了針對暈倒這一異常行為檢測模型,降低了計(jì)算量。
針對地鐵復(fù)雜場景下乘客的多變性行為,采用自適應(yīng)混合高斯背景建模減少環(huán)境因素影響,為得到監(jiān)控畫面的精確度量,采用攝像機(jī)快速定標(biāo)。如圖1所示,利用camshift算法實(shí)時(shí)跟蹤“軌跡關(guān)聯(lián)”區(qū)域的特征點(diǎn),“軌跡”即為在連續(xù)視頻序列場景下軌跡關(guān)聯(lián)區(qū)域的特征點(diǎn)在時(shí)間序列上的點(diǎn)集,反映了個(gè)體特征點(diǎn)在時(shí)間序列上的時(shí)空位置及運(yùn)動趨勢?!瓣P(guān)聯(lián)”則是針對于同一運(yùn)動個(gè)體由于遮擋等問題產(chǎn)生的軌跡間斷,根據(jù)時(shí)空模板上的時(shí)空相關(guān)性,“關(guān)聯(lián)區(qū)域”即為同一運(yùn)動個(gè)體在二維圖像像素坐標(biāo)系中提取的時(shí)空興趣區(qū)域(輪廓、面積等),根據(jù)實(shí)際需求,選取軌跡關(guān)聯(lián)區(qū)域的特征像素點(diǎn)對異常個(gè)體行為進(jìn)行表征。
圖1 異常行為辨識系統(tǒng)框圖
通過統(tǒng)計(jì)計(jì)算運(yùn)動個(gè)體軌跡集合Ti,得到地鐵復(fù)雜場景下的運(yùn)動軌跡區(qū)間,以此來建立上下文場景模型(見圖2)。空間上下文指在地鐵特定場景下某些靜態(tài)設(shè)施,如地鐵站進(jìn)口、出口、警戒黃線、場景內(nèi)遮擋物等(結(jié)合半監(jiān)督方式標(biāo)注)。時(shí)間上下文指在地鐵正常運(yùn)行時(shí)間段內(nèi),視頻監(jiān)控與事件相關(guān)聯(lián)的各種時(shí)間約束,如列車的???、出發(fā)等。對象上下文指個(gè)體在運(yùn)動軌跡區(qū)間,被表征的特征屬性集,如速度、運(yùn)動方向等。約束參數(shù)上下文指約束監(jiān)測個(gè)體產(chǎn)生軌跡屬性集中所包含的特殊參數(shù)信息。
圖2 異常行為辨識系統(tǒng)框圖
為得到真實(shí)世界個(gè)體位移信息,及時(shí)得到監(jiān)控個(gè)體在軌跡區(qū)域的坐標(biāo)[1],相機(jī)坐標(biāo)建立如下:選定實(shí)際監(jiān)控的運(yùn)動軌跡區(qū)域后,其與世界坐標(biāo)系完全重合,H為相機(jī)高度,β為其繞X軸角度,X軸平行于XwYw平面,Zw軸垂直于XwYw平面,兩者坐標(biāo)系關(guān)系為
在實(shí)際運(yùn)動軌跡區(qū)間,利用真實(shí)世界坐標(biāo)系的通道標(biāo)記線等參考物由上式可自動獲取相機(jī)內(nèi)部參數(shù)a與b,設(shè)2條長度為l,l'的運(yùn)動軌跡區(qū)間的標(biāo)記線,其兩端在像素坐標(biāo)下的坐標(biāo)為 (x1,y1),(x2,y2),(x3,y3),(x4,y4),世界坐標(biāo)為(xw1,yw1),(xw2,yw2),(xw3,yw3),(xw4,yw4)。
在現(xiàn)實(shí)世界中,任何個(gè)體的運(yùn)動都是時(shí)空關(guān)聯(lián)的,如圖3所示,設(shè)監(jiān)控畫面大小為m×n,視頻長度為t0,在t1與t2時(shí)刻,pi與p'i分別是軌跡關(guān)聯(lián)區(qū)域l×s的2個(gè)特征像素點(diǎn)。在連續(xù)跟蹤視頻幀中,若2個(gè)像素點(diǎn)經(jīng)二值化后像素為1,則2個(gè)特征像素點(diǎn)是時(shí)空關(guān)聯(lián)[2]。
在此基礎(chǔ)上,將個(gè)體軌跡用Ti表征,Ti表示在軌跡關(guān)聯(lián)區(qū)域各像素點(diǎn)特征屬性集,根據(jù)實(shí)際需要,可選取其中部分特征像素點(diǎn)(輪廓質(zhì)心等)來表征運(yùn)動個(gè)體軌跡,其軌跡特征屬性集為
圖3 軌跡關(guān)聯(lián)的camshift跟蹤
式中:pi為特征像素點(diǎn);pisf和pief分別為特征像素點(diǎn)的起始幀與終止幀;pix和piy為特征像素點(diǎn)的坐標(biāo);pivx和pivy分別是特征像素點(diǎn)在監(jiān)測過程中x軸與y軸的速度分量;在某時(shí)刻ti,pisa為特征像素點(diǎn)在輪廓區(qū)域累積的面積;pih是特征像素點(diǎn)在不同色彩模式下的顏色分量;pia為各像素點(diǎn)時(shí)空特性在像素坐標(biāo)系間的歐式距離。
在地鐵監(jiān)控場景下,由于建筑物的遮擋或目標(biāo)運(yùn)動速度過快,造成軌跡間斷,如圖3中的虛線,系統(tǒng)無法自動恢復(fù)跟蹤。為提高跟蹤效果,采用改進(jìn)camshift算法[3-4]:
1)選取軌跡關(guān)聯(lián)區(qū)域pisa為tk-1時(shí)刻運(yùn)動個(gè)體輪廓面積,經(jīng)過實(shí)驗(yàn),在380×240視頻圖像中,pisa≈3 000,在tk時(shí)刻,若pisa<thresholdarea,判定目標(biāo)由于遮擋丟失,此時(shí)進(jìn)行全局搜索,結(jié)合相比下的聯(lián)合多特征,利用幀間差分法進(jìn)行軌跡填補(bǔ)。
可得到個(gè)體運(yùn)動速度過快,需要重新調(diào)整搜索窗位置并實(shí)時(shí)跟蹤,在第k+1幀時(shí),令
任何復(fù)雜異常個(gè)體行為是基本個(gè)體行為模型單元的集合,即底層目標(biāo)檢測與跟蹤不可再細(xì)分的軌跡特征點(diǎn)。針對地鐵特定的場景下,常見異常行為主要包括:暈倒,可疑物品(超長超寬物品)攜帶入車站,跳躍刷卡器,乘客大量擁堵進(jìn)、出口等。
本文針對因身體特殊原因或其他原因突然暈倒的異常行為進(jìn)行檢測,以防引起踩踏事件,及時(shí)通知管理人員采取緊急措施。通過軌跡間斷、人體幾何形狀特征長寬比、形狀復(fù)雜度及輪廓匹配度對暈倒行為進(jìn)行建模[5-6],建立其軌跡屬性集
1)在380×240圖像像素坐標(biāo)系下,對視頻幀進(jìn)行標(biāo)定,如圖4所示,采用camshift算法搜索窗中心標(biāo)定運(yùn)動個(gè)體軌跡關(guān)聯(lián)區(qū)域特征像素點(diǎn)輪廓質(zhì)心(picx,picy),當(dāng)人體暈倒,質(zhì)心發(fā)生變化,產(chǎn)生軌跡間斷pih=null。在連續(xù)視頻幀中,當(dāng)監(jiān)控個(gè)體的運(yùn)動方向滿足pic(x+i)<picx,pic(y+i)>picy或pic(x+i)>picx,pic(y+i)>picy,如圖5所示,在第114,128,145,172,185 幀中,Picc值逐漸增大且 ∑picc>threshold=60時(shí),如表1所示,則判定人體重心連續(xù)下降,其中定義人體輪廓質(zhì)心picc為
圖4 目標(biāo)軌跡區(qū)域
圖5 camshift算法連續(xù)跟蹤
表1 監(jiān)控個(gè)體檢測數(shù)據(jù)表 像素
2)人在突然暈倒時(shí),人體姿態(tài)發(fā)生劇烈變化,采用piawh與piscs分別度量人體幾何形狀特征長寬比與形狀復(fù)雜度。利用Snake[7]算法提取人體輪廓,pisa與pisc分別為其輪廓面積及周長。在第k+i幀時(shí),設(shè)hk+i與wk+i分別為該時(shí)刻人體跟蹤外接矩形的高與寬,在第k幀時(shí),其高與寬分別為hk與wk,則人體姿態(tài)變化程度為
經(jīng)實(shí)驗(yàn)驗(yàn)證,如圖6所示,在第114~185幀中,piscs較正常行走時(shí)姿態(tài)變化曲線出現(xiàn)較大波動,檢測數(shù)據(jù)如表1所示,在第128幀后,piawh<threshold=1。
圖6 連續(xù)視頻幀piscs值
3)為排除因跌倒或其他因素干擾,提高檢測準(zhǔn)確度,通過Hausdorff算法獲得人體暈倒輪廓在連續(xù)時(shí)間段內(nèi)匹配度。其中Hausdorff距離[8-10]是點(diǎn)集間相似量度,設(shè)有2 組點(diǎn)集 pia={pia1,pia2,pia3,…,piam},pib={pib1,pib2,pib3,…,pibn},其定義為
圖7 所示為人體暈倒原圖,取pif=185,190,195,200,205,連續(xù)提取人體輪廓邊緣(見圖8),本實(shí)驗(yàn)設(shè)定匹配閾值為10,經(jīng) Hausdorff計(jì)算獲得其匹配度分別為0,2,4,1,說明此人長時(shí)間處于靜止?fàn)顟B(tài),判斷暈倒行為已發(fā)生。經(jīng)實(shí)驗(yàn)驗(yàn)證,本文對20個(gè)不同個(gè)體的暈倒行為樣本進(jìn)行檢測,檢測率為89.9%。
針對地鐵場景下的異常行為,本文詳述了視頻分析系統(tǒng)設(shè)計(jì)方案,選取軌跡關(guān)聯(lián)區(qū)域的特征像素點(diǎn)對運(yùn)動個(gè)體行為進(jìn)行表征,針對地鐵場景下的暈倒行為,通過軌跡屬性集對暈倒個(gè)體行為進(jìn)行建模與檢測,經(jīng)實(shí)驗(yàn)驗(yàn)證,本文所提出的算法較為實(shí)用。但在暈倒行為檢測率方面還有待進(jìn)一步提高。
圖7 人體暈倒原圖
圖8 經(jīng)snake處理后人體輪廓圖
:
[1]鐘志.基于異常行為辨識的智能監(jiān)控技術(shù)研究[D].上海:上海交通大學(xué),2008.
[2]SALIGRAMA V,KONRAD J,JODOIN P M.Video anomaly identificationa statistical approach[J].IEEE Signal Processing,2010,27(5):18-33.
[3]YANG Bo,ZHOU Hongjun,WANG Xue.Target tracking using predict Camshift[C]//Proc.the World Congress on Intelligent Control and Automation.Chongqing:IEEE Press,2008:8501-8505.
[4]ZHANG Qigui,LI Bo.Research on tracking algorithm of moving target in complex background[C]//Proc.Third International Conference on Lecture Notes in Artificial Intelligence.Taiyuan:[s.n.],2011:433-439.