張行健
(上海電力學(xué)院 電子與信息工程學(xué)院, 上海 200090)
?
人體行為的識(shí)別及發(fā)展
張行健
(上海電力學(xué)院 電子與信息工程學(xué)院, 上海 200090)
人的動(dòng)作行為識(shí)別是計(jì)算機(jī)視覺領(lǐng)域中的熱點(diǎn)研究課題之一,廣泛應(yīng)用于安防監(jiān)控系統(tǒng)、醫(yī)療診斷監(jiān)護(hù)、人機(jī)交互等方面.從運(yùn)動(dòng)對(duì)象檢測(cè)、行為特征提取和人體行為識(shí)別方法方面闡述了人體行為識(shí)別技術(shù)的現(xiàn)狀和相關(guān)難點(diǎn).與已有相關(guān)綜述性文章相比,結(jié)合了新的研究成果,介紹了基于軌跡能量擴(kuò)散圖的組行為識(shí)別方法以及基于稠密光流軌跡和稀疏編碼算法的行為識(shí)別算法.且指出了未來行為識(shí)別的發(fā)展趨勢(shì).
動(dòng)作行為識(shí)別; 運(yùn)動(dòng)對(duì)象檢測(cè); 特征提取; 識(shí)別方法
隨著科學(xué)技術(shù)的迅速發(fā)展,人工智能已經(jīng)逐漸從夢(mèng)想走進(jìn)現(xiàn)實(shí).計(jì)算機(jī)視覺技術(shù)是人工智能的重要組成部分,在人工智能的發(fā)展過程中發(fā)揮了重要作用.在獲取外部世界的信息中,視覺是人類了解事物本質(zhì)信息的重要途徑.計(jì)算機(jī)視覺技術(shù)就是研究如何讓計(jì)算機(jī)像人類一樣對(duì)通過攝像頭獲取到的外部信息進(jìn)行分析和識(shí)別.因此,靜態(tài)物體識(shí)別、目標(biāo)跟蹤和人體行為識(shí)別是計(jì)算機(jī)視覺研究的重要方向.
人體行為識(shí)別的目的是分析理解視頻中個(gè)人的動(dòng)作、多人之間的交互行為,作為計(jì)算機(jī)視覺研究的熱點(diǎn),人體行為識(shí)別研究具有重要的學(xué)術(shù)意義.同時(shí),人體行為識(shí)別技術(shù)在安防監(jiān)控系統(tǒng)[1-2]、醫(yī)療診斷監(jiān)護(hù)[3]、人機(jī)交互[4]等領(lǐng)域具有應(yīng)用價(jià)值.由于人體行為識(shí)別在許多方面都具有廣闊的應(yīng)用意義,國內(nèi)外科研者對(duì)該領(lǐng)域進(jìn)行了研究,如美國國防高級(jí)研究項(xiàng)目署[5]設(shè)立了視頻監(jiān)控重大項(xiàng)目用于戰(zhàn)爭(zhēng)和普通家庭的視頻動(dòng)作分析,先后投用了W4[6]和Pfinder[7]等監(jiān)控系統(tǒng);中國科學(xué)院開發(fā)了一套面向體育訓(xùn)練的三維人體運(yùn)動(dòng)模擬與視頻分析系統(tǒng)用于國家隊(duì)集訓(xùn)等[8].除此之外,一些國際權(quán)威期刊,如PAMI(IEEE Transactions on Pattern Analysis and Machine Intelligence),IVC(Image and Vision Computing)和CVIU(Computer Vision and Image Understanding)為研究者提供了交流機(jī)會(huì),大大促進(jìn)了行為識(shí)別技術(shù)的發(fā)展.
相比于靜態(tài)物體識(shí)別研究[9],行為識(shí)別更加重視如何發(fā)現(xiàn)運(yùn)動(dòng)目標(biāo)在圖像序列中的空時(shí)運(yùn)動(dòng)變化.動(dòng)作行為從二維空間到三維時(shí)空的轉(zhuǎn)化大大增加了行為描述及后續(xù)識(shí)別方式的復(fù)雜性,但也為研究者提供了更寬廣的空間來使用不同的技術(shù)方法.因此,對(duì)于人的行為識(shí)別研究在計(jì)算機(jī)視覺領(lǐng)域中成了熱門話題[10-12].人體行為識(shí)別的基本過程是通過計(jì)算機(jī)檢測(cè)行為動(dòng)作數(shù)據(jù),繼而從圖像序列中提取和理解動(dòng)作特征,以實(shí)現(xiàn)行為識(shí)別分類的過程.
本文將從運(yùn)動(dòng)對(duì)象檢測(cè)、行為特征提取和人體行為識(shí)別方法等方面綜述人體行為識(shí)別技術(shù)的現(xiàn)狀.同時(shí)結(jié)合新的研究成果,展望今后行為識(shí)別的研究方向.
對(duì)于樣本的預(yù)處理就是對(duì)運(yùn)動(dòng)對(duì)象的檢測(cè),即把視頻轉(zhuǎn)換成圖像幀,并檢測(cè)出目標(biāo)的動(dòng)作信息.有效的運(yùn)動(dòng)目標(biāo)檢測(cè)對(duì)行為特征提取、人體行為表示和行為識(shí)別理解等后續(xù)的研究十分重要.近年來,在檢測(cè)運(yùn)動(dòng)目標(biāo)的技術(shù)方面已有了很大的突破,目前主要的方法為光流法[13-14]、時(shí)間差分法[15]和背景減除法[16-17].同時(shí),預(yù)處理過程還包括使用形態(tài)學(xué)操作對(duì)獲取的運(yùn)動(dòng)目標(biāo)信息進(jìn)行處理來使結(jié)果更加精確.
1.1 光流法
光流法[18]的思想最先由GIBSON提出,光流是像素點(diǎn)運(yùn)動(dòng)產(chǎn)生的瞬時(shí)速度場(chǎng),光流法是通過計(jì)算光流場(chǎng)從靜態(tài)圖像中分割出場(chǎng)景,確定運(yùn)動(dòng)目標(biāo)的速度和方向等信息.首先,近似估計(jì)真實(shí)運(yùn)動(dòng)場(chǎng)景的速度.圖像中某點(diǎn)(x,y)在t時(shí)刻的灰度值用I(x,y,t)表示.讓圖像灰度值保持不變,即:
(1)
則可以得到光流約束方程:
Ixu+Iyv+It=0
(2)
式中:u,v——沿著x軸和y軸方向的分量.
接著通過設(shè)光流在整個(gè)圖像上的光滑性一致來求解光流約束的解.
該方法的優(yōu)點(diǎn)是在運(yùn)動(dòng)的攝像頭下,也能檢測(cè)出運(yùn)動(dòng)對(duì)象,且對(duì)于靜態(tài)或動(dòng)態(tài)背景都有很好的效果.缺點(diǎn)是當(dāng)運(yùn)動(dòng)對(duì)象和背景之間存在噪聲時(shí),由于復(fù)雜度很高,無法實(shí)時(shí)檢測(cè)運(yùn)動(dòng)目標(biāo).BARRONJ等人詳細(xì)給出了光流場(chǎng)計(jì)算的求解過程[18].黃士科等人用新的3D-Sobel算子計(jì)算像素間的時(shí)空梯度,提高了不同速度運(yùn)動(dòng)目標(biāo)檢測(cè)的有效性[14].
1.2 幀間差分法
幀間差分法(時(shí)間差分法)[19]是通過圖像序列中相鄰2幀或者3幀的差值,獲取變化區(qū)域來確定運(yùn)動(dòng)對(duì)象,如圖1所示.其優(yōu)點(diǎn)是在全局運(yùn)動(dòng)補(bǔ)償下,能適應(yīng)動(dòng)態(tài)變化的背景;缺點(diǎn)是存在空洞和重像現(xiàn)象,并受噪聲影響.COLLINS R等人通過對(duì)相鄰3幀中的像素進(jìn)行逐個(gè)差分運(yùn)算和背景減除,除去了幀之間差分所出現(xiàn)的空洞重像現(xiàn)象[5].
圖1 幀間差分檢測(cè)示意
1.3 背景減除法
背景減除法[20]是當(dāng)前應(yīng)用最為廣泛的一種算法,它適用于攝像機(jī)停止的狀況,其核心是對(duì)比背景圖像和當(dāng)前圖像進(jìn)行差分計(jì)算來確定運(yùn)動(dòng)目標(biāo)區(qū)域.它的關(guān)鍵是如何使背景圖像很好地適合當(dāng)下環(huán)境變化.目前常用的算法有隱馬爾可夫法,均值濾波法等.其優(yōu)點(diǎn)是能夠保證對(duì)運(yùn)動(dòng)目標(biāo)區(qū)域較完整的提取.但在實(shí)踐應(yīng)用中,會(huì)受外部環(huán)境和背景干擾的影響.因此,背景模型的準(zhǔn)確選取及實(shí)時(shí)更新對(duì)于準(zhǔn)確檢測(cè)出運(yùn)動(dòng)目標(biāo)有很大的影響,現(xiàn)在主要采用高斯模型、混合高斯模型、非參數(shù)化模型等方法.
背景減除法一般包括預(yù)處理、建立背景模型、比較輸入圖像和背景圖像的差異和后處理4個(gè)步驟[21].預(yù)處理是指對(duì)視頻數(shù)據(jù)進(jìn)行時(shí)空域的濾波,減少各種環(huán)境噪聲,與此同時(shí)要符合背景減除算法的要求,將原視頻的數(shù)據(jù)格式轉(zhuǎn)換;建立背景模型是指創(chuàng)建某背景模型來代表當(dāng)前背景,包括背景的初始化和實(shí)時(shí)更新,來消除光照條件的變化和環(huán)境(如樹枝的晃動(dòng)和其他物體運(yùn)動(dòng))帶來的影響;輸入圖像和背景圖像作比較是指減掉當(dāng)前視頻圖像與背景圖像之間的差異;后處理是指對(duì)上面步驟的前景區(qū)域作一些后處理,一般包括噪聲消除,減少其他場(chǎng)景中的干擾,通過后處理,讓所得的前景目標(biāo)更加明確.
人的行為特征的選擇及提取是行為識(shí)別中的重要一環(huán).其基本過程是從各種特征信息中找出符合研究階段的特征,并通過相關(guān)技術(shù)提取出來.但是一般提取出的特征的維數(shù)相對(duì)較高,因而要對(duì)特征進(jìn)行降維.根據(jù)人體行為的組成形式,目前人體行為特征提取方法可以劃分為整體表示和局部表示兩種方式.
2.1 整體表示方式
整體表示方式是把視頻幀數(shù)當(dāng)作一個(gè)全體,檢測(cè)出運(yùn)動(dòng)目標(biāo)的位置,然后通過自上而下的方法提取到全局特征.全局特征的提取通常是在視頻幀中采用背景減除法、時(shí)間差分法或者光流法檢測(cè)到人體行為感興趣區(qū)域(Region Of Interest,ROI),然后從中得到表示人體行為的特征,如輪廓信息、邊緣信息等.該方法描述能力強(qiáng),區(qū)分度好,包含了人體重心、長(zhǎng)寬比例等重要信息,可以大大提高識(shí)別的效果.但是該方法提取精度不高且含有噪聲,同時(shí)受攝像機(jī)角度和物體遮擋影響.WANG L等人[22]提出統(tǒng)計(jì)每塊輪廓圖的白色數(shù)目所占的比值作為特征模型,再利用隱馬爾科夫模型(HMM)進(jìn)行識(shí)別,如圖2所示.DAVIS J W和BOBICK A F[23]提出基于視頻的輪廓提取方法,利用背景剪除法獲取背景的輪廓特征,然后疊加所有幀的輪廓特征,對(duì)比前后幀之間輪廓的差異,建立了具有運(yùn)動(dòng)效果的運(yùn)動(dòng)能量圖像(Motion Energy Image,MEI),如圖3所示.文獻(xiàn)[24]也是利用視頻中的人體輪廓序列特征來表示人體行為,該方法與文獻(xiàn)[23]中提出的方法不同,是在人體輪廓特征上進(jìn)行傅里葉計(jì)算獲得傅里葉描述子,然后將其送入支持向量機(jī)(SVM)分類器訓(xùn)練并識(shí)別出姿態(tài)類別,最后將姿態(tài)標(biāo)簽序列一同交給HMM,使用HMM最終判斷出視頻中人體行為所屬的類別.
圖2 輪廓網(wǎng)格像素統(tǒng)計(jì)
圖3 人體行為模型
使用輪廓表示人體行為的方法雖然已經(jīng)獲得了很好的識(shí)別性能,但影響這一特征的兩個(gè)關(guān)鍵問題仍舊沒有得到很好的解決,即人體行為輪廓提取及幀序列中輪廓的跟蹤問題.為了使該特征能精準(zhǔn)地描述人體行為特性,研究者專門進(jìn)行了研究并取得了一些成果.為了解決視頻幀序列間的人體輪廓跟蹤問題,文獻(xiàn)[25]將相鄰幀輪廓的形狀及梯度像素點(diǎn)作為圖的節(jié)點(diǎn),并采用二分圖分割算法將相鄰幀之間輪廓點(diǎn)進(jìn)行匹配,該方法的優(yōu)點(diǎn)是精度好,缺點(diǎn)是需要人工干預(yù),且不能解決遮擋等問題.文獻(xiàn)[26]和文獻(xiàn)[27]結(jié)合顏色、紋理等特征來對(duì)人體行為區(qū)域進(jìn)行分割,文獻(xiàn)[7]利用人體運(yùn)動(dòng)的特性來實(shí)現(xiàn)分割,但是這些都只能在有條件限制的場(chǎng)景才能得到很好的分割效果,并且可能需要人工干預(yù)才可以實(shí)現(xiàn),因此在實(shí)際應(yīng)用中很難直接利用輪廓特征方法來對(duì)人體行為進(jìn)行識(shí)別.
2.2 局部表示方式
與整體表示對(duì)應(yīng)的是局部表示方式,它是將視頻段作為一個(gè)整體,通過自下而上的方法獲得局部特征.開始在整個(gè)時(shí)空域內(nèi)檢測(cè)興趣點(diǎn),然后計(jì)算出鄰域內(nèi)的特征點(diǎn),最后將所有視頻段整合在一起形成總特征.該表示方式與整體表示方式相比較,不需要前景檢測(cè)、ROI興趣區(qū)域的定位和分割,所以不受前景檢測(cè)、背景更新、以及ROI區(qū)域定位結(jié)果的影響,并且對(duì)互相遮擋及噪聲不敏感.但是需要在一段視頻中采集到關(guān)鍵的興趣點(diǎn),因此攝像機(jī)運(yùn)動(dòng)產(chǎn)生的誤差會(huì)對(duì)興趣點(diǎn)采集造成一定的影響.
3.1 基于軌跡能量擴(kuò)散圖的行為識(shí)別方法
目前,在提取組行為的特征過程中,多數(shù)方法忽視了軌跡的時(shí)間信息(如不能得出某一時(shí)刻檢測(cè)對(duì)象的位置),雖然一些算法,如隱馬爾克夫模型,可以保留軌跡的時(shí)間信息,但不能得到大量的訓(xùn)練信息[28].而且因?yàn)槿说倪\(yùn)動(dòng)變化產(chǎn)生了噪聲,對(duì)于識(shí)別效果有很大影響.同時(shí)一些算法采用高斯估計(jì)或?yàn)V波法來處理噪聲[29],但沒有考慮保存軌跡的時(shí)間信息.
因此,本文提出采用軌跡能量塊圖來保留組行為的軌跡時(shí)間信息,用軌跡能量擴(kuò)散圖來解決因運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)變化產(chǎn)生的噪聲.同時(shí),結(jié)合自適應(yīng)分層直方圖(AHDH)和模糊形狀模型(BSM)算法分別對(duì)軌跡能量等勢(shì)線圖像提取特征.最后,基于典型相關(guān)分析的特征融合法獲取融合特征向量,選擇最優(yōu)的特征,用支持向量機(jī)對(duì)特征分類,實(shí)現(xiàn)行為識(shí)別.采用軌跡能量擴(kuò)散圖的行為識(shí)別方法雖然解決了軌跡時(shí)間信息的丟失以及噪聲問題,但此方法只適合于簡(jiǎn)單的組行為分類識(shí)別,并不能應(yīng)用于更為復(fù)雜的組行為識(shí)別.對(duì)于更為復(fù)雜的組行為識(shí)別是我們要攻克的一個(gè)方向.
3.2 基于稠密光流軌跡和稀疏編碼的行為識(shí)別方法
為了解決現(xiàn)有特征提取發(fā)放識(shí)別低的問題,采用基于一種融合稠密光流軌跡和稀疏編碼的無監(jiān)督特征提取方法[30-31],然后利用詞袋模型[32]獲得行為特征表示,最后采用支持向量機(jī)進(jìn)行動(dòng)作特征分類,大大提高了識(shí)別的準(zhǔn)確率.其主要任務(wù)是基于稠密光流軌跡提取原圖像特征的情況下,采用系數(shù)編碼的無監(jiān)督學(xué)習(xí)方法,獲得行為特征表示,從而實(shí)現(xiàn)行為分類識(shí)別.該方法的優(yōu)點(diǎn):一是自動(dòng)提取檢測(cè)目標(biāo)的特征,避免了人工提取特征的復(fù)雜性;二是稀疏的特征表示減小了后續(xù)運(yùn)算的繁瑣度.但其也有不足之處:優(yōu)化稀疏編碼需要消耗大量的內(nèi)存和計(jì)算時(shí)間,對(duì)電腦CPU的性能和內(nèi)存有一定的要求.后續(xù)的研究方向是優(yōu)化系數(shù)編碼計(jì)算行為特征的迭代,以及采用并行算法加速迭代過程.
本文從對(duì)運(yùn)動(dòng)對(duì)象檢測(cè)、行為特征提取和人體行為識(shí)別方法等方面闡述了人體行為識(shí)別技術(shù)的現(xiàn)狀和相關(guān)難點(diǎn).
當(dāng)前研究對(duì)人體行為的檢測(cè)問題進(jìn)行了回避與簡(jiǎn)化,特別在對(duì)其中關(guān)鍵人體行為動(dòng)作及起始、終止時(shí)間的動(dòng)作發(fā)生不能精確檢測(cè),研究人員需要結(jié)合更多中高層的行為特征和底層特征,把行為識(shí)別用于更具挑戰(zhàn)性的真實(shí)場(chǎng)景中.另外,相比于其他視覺識(shí)別任務(wù),在人體行為識(shí)別上,由于時(shí)間維度的加入,行為特征的維度變得更高,所需樣本數(shù)量也更多,深度學(xué)習(xí)沒有完全取得顯著提高.因此,結(jié)合遞歸神經(jīng)網(wǎng)絡(luò)(RNN)和深度學(xué)習(xí)的方法在時(shí)序數(shù)據(jù)中的前景將成為研究熱點(diǎn).
[1] AYERS D,SHAH M.Monitoring human behavior from video taken in an office environment[J].Image and Vision Computing,2001,19(12):833-846.
[3] 杜友田,陳鋒,徐立文.基于視覺的人的運(yùn)動(dòng)識(shí)別綜述[J].電子學(xué)報(bào),2007,35(1):84-90.
[4] 黎洪松,李達(dá).人體運(yùn)動(dòng)分析研究的若干新進(jìn)展[J].模式識(shí)別與人工智能,2009,22(1):70-78.
[5] COLLINS R,LIPTON A,KANADE T,etal.A system for video surveillance and monitoring:VSAM final report[R].Carnegie Mellon University:CMU-R1-TR-00-12,2000.
[6] HARITAOGLU I,HARWOOD D,DAVIS L.W4:Real time surveillance of people and their activities[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2000,22(8):809-830.
[7] WREN C,AZARBAYEJANI A,DARRELL T,etal.Pfinder:Real time tracking of the human body[J].IEEE Trans on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.
[8] 王兆其,張勇東,夏時(shí)洪.體育訓(xùn)練三維人體動(dòng)作模擬與視頻分析系統(tǒng)[J].計(jì)算機(jī)研究與發(fā)展,2005,42(2):344-352.
[9] 黃凱奇,任偉強(qiáng),譚鐵牛.圖像物體分類與檢測(cè)算法綜述[J].計(jì)算機(jī)學(xué)報(bào),2014,37(6):1-18.
[10] TURAGA P,CHELLAPPA R,SUBRAHMANIAN V,etal.Machine recognition of human activities:a survey[J].IEEE Trans on Circuits and Systems for Video Technology,2008,18(11):1 473-1 488.
[11] POPPE R.A survey on vision-based human action recognition[J].Image and Vision Computing,2010,28(6):976-990.
[12] CANDAMO J,SHREVE M,GOLDGOF D,etal.Understanding transit scenes:a survey on human behavior recognition algorithms[J].IEEE Trans on Intelligent Transportation System,2010,11(1):206-224.
[13] ADIV G.Determining three-dimensional motion and structure from optical flow generated by several moving objects[J].IEEE Trans on Pattern Analysis and Machine Intelligence,1985,7(4):384-401.
[14] 黃士科,陶琳,張?zhí)煨?一種改進(jìn)的基于光流的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].華中科技大學(xué)學(xué)報(bào):自然科學(xué)版,2005,33(5):39-41.
[15] KIM M,CHOI J G,KIM D.Automatic segmentation of moving objects in image sequences based on spatio-temporal information[J].IEEE Trans on Circuits and Systems for Video Technology,1998,9(8):1 216-1 226.
[16] PAVLIDIS T,MORELLAS V,TSIAM P,etal.Urban surveillance systems from the laboratory to the commercial world[C]//Proceedings of the IEEE,2001:1 478-1 497.
[17] ELGAMMAL A M,HARWOOD D,DAVIS L.Non-parametric model for background subtraction[C]//Proceedings of the 6th European Conference on Computer Vision,2000:751-767.
[18] BARRON J,FLEET D,BEAUCHEMIN S.Performance of optical flow techniques[J].International Journal of Computer Vision,1994,12(1):42-77.
[19] LIPTON A J,FUJIYOSHI H,PATIL R S.Moving target classification and tracking from real-time video[C]//Proceedings of the IEEE Workshop Application of Computer Vision,1998:8-14.
[20] STAUFFER C,GRIMSON WEL.Learning patterns of activity using real-time tracking[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2000,22(8):747-757.
[21] 代科學(xué),李國輝,涂丹,等.監(jiān)控視頻運(yùn)動(dòng)目標(biāo)減背景技術(shù)及研究現(xiàn)狀和展望[J].中國圖像圖形學(xué)報(bào),2006(11):7-10.
[22] WANG L,SUTER D.Recognizing human activities from silhouettes:motion subspace and factorial discriminative graphical model[C]//IEEE Conference on In Computer Vision and Pattern Recognition,2007:1-8.
[23] DAVIS J W,BOBICK A F.The representation and recognition of human movement using temporal templates[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Puerto Rico:IEEE,1997:928-934.
[24] KELLOKUMPU V,PIETIKAINEN M,HEIKKILA J.Human activity recognition using sequences of postures[C]//Proceedings of the IAPR Conference on Machine Cision Applications.Japan:IEEE,2005:570-573.
[25] WINAWER J,HUK A C,BORODITSKY L.A motion aftereffect from still photographs depicting motion[J].Psychological Science,2008,19(3):276-283.
[26] XU G Y,HUANG F Y.Viewpoint insensitive action recognition using envelop shape[M].Computer Vision.Japan:Springer,2007:477-486.
[27] STEIN A,HOIEM D,HEBERT M.Learning to find object boundaries using motion cues[C]//IEEE 11th International Conference on Computer Vision.Brazil:IEEE,2007:1-8.
[28] LIU X H,CHUA C S.Multi-agent activity recognition using observation decomposed hidden Markov model[J].Image and Vision Computing,2005,24(2):166-175.
[29] CHENG Zhongwei,QIN Lei,HUANG Qingming,etal.Group activity recognition by Gaussian processes estimation[C]//Proc of Pattern Recognition.Istanbul:IEEE,2010:3 221-3 231.
[30] OLSHAUSEN B A,FIELD D J.Emergency of simple-cell receptive field properties by learning a sparse code for natural images[J].Nature,1996,381:607-609.
[31] OLSHAUSEN B A,FIELD D J.Sparse coding with an overcomplete basis set:a strategy employed by V1[J].Vision Research,1997,37(23):3 311-3 325.
[32] NIEBLES J C,WANG H,LI F.Unsupervised learning of human action categories using spatial-temporal words[J].International Journal of Computer Vision,2008,79(3):299-318.
(編輯 桂金星)
Human Body Motion Recognition and Development
ZHANG Xingjian
(SchoolofElectronicsandInformationEngineering,ShanghaiUniversityofElectricPower,Shanghai200090,China)
Human motion recognition is one of the hot topics in the field of computer vision,which is used widely in security monitoring system,medical diagnosis and monitoring,human-computer interaction,etc.The current state and related difficulties of human motion recognition technology is presented within the motion object detection,feature extraction and human motion recognition method.Compared with the existing relevant review articles,the new research results are combined,such as group behavior recognition method based on trajectory energy diffusion map and behavior recognition algorithm based on dense flow trajectory and sparse coding algorithm.Furthermore,some research direction of motion identification on future work is given.
action recognition; motion object detection; feature extraction; recognition method
10.3969/j.issn.1006-4729.2017.01.022
2016-03-16
張行健(1991-),男,在讀碩士,上海人.主要研究方向?yàn)樯疃葘W(xué)習(xí)和模式識(shí)別.E-mail:txhtxh1991@163.com.
TP391.41
A
1006-4729(2017)01-0102-05