祁家榕 張昌偉
摘要: 行為分析有著廣泛的應用前景,如智能視頻監(jiān)控、人機交互、自動識別報警、公共安全等方面,行為分析已成為相關(guān)領(lǐng)域的研究熱點并有其潛在的經(jīng)濟價值。在人工智能和自動化操控迅速發(fā)展的當下,行為分析作為人工智能發(fā)展的中流砥柱也成為了國內(nèi)外研究人員相繼探討的熱點,關(guān)于人體行為分析的研究方式、模型算法和描述方法都取得了切實有效的發(fā)展。根據(jù)采用不同識別技術(shù)人體行為識別目前主流要分為四大類:基于計算機視覺的行為識別、基于傳感器系統(tǒng)的行為識別、基于位置的行為識別和基于人物交互的行為識別。這篇文章主要探討研究了行為識別技術(shù)和應用這2個方面的問題,綜述了目前已有的技術(shù)情況,在探討該方向各類技術(shù)的發(fā)展情況和研究現(xiàn)狀的基礎上,總結(jié)了當前行為分析仍然存在的問題和未來可能的發(fā)展前景。
關(guān)鍵詞: 智能監(jiān)測; 行為識別; 位置服務; 人物交互
中圖分類號:TP391.41
文獻標志碼:A
文章編號:2095-2163(2017)04-0024-04
0引言
關(guān)于人類行為的識別研究最早始于19世紀70年代,Marey等科學家在動物行為方面展開了機械學研究[1],但是鑒于當時計算機硬件的整體發(fā)展水平較低,不能支持大量數(shù)據(jù)的科學計算,人體行為分析在科學界也并未得到恰如其分的應有重視。直到20世紀90年代,關(guān)于人體行為分析的研究成果也仍寥寥可數(shù),當時研究者通過采集大量實驗數(shù)據(jù)進行分析對比,訓練構(gòu)建人體模型,然后匹配模型和行為序列,最后獲得行為理解結(jié)果和實例應用。這些研究的缺陷可最終解析為堪稱巨大的計算量,因而只能分析簡單的運動行為。進入本世紀后,清華大學、美國加州理工學院、麻省理工大學 MIT、加州大學伯克利分校Berkeley、Google研究院、 Intel與微軟研究院、英國劍橋大學等[2]多家名校和科研機構(gòu)都在識別領(lǐng)域尤其是行為識別方面展開了深入探索。在工業(yè)產(chǎn)業(yè)方面,行為識別已占據(jù)了普及優(yōu)勢,如安全監(jiān)控、體感游戲、人員調(diào)度、行程規(guī)劃、用戶社交行為分析等多類研究領(lǐng)域中均已出現(xiàn)行為識別的應用。隨著人體行為和人工智能等其他領(lǐng)域的緊密結(jié)合,行為采集和分析得到的數(shù)據(jù)信息給科學研究帶來了可觀的高效便利,人體行為分析以及模式識別已成為相關(guān)領(lǐng)域位居熱門的研究話題之一。
1行為識別的分類
研究中,對于行為中信息表達的直觀呈現(xiàn)可見于圖1。并且,人類的行為模式識別也始終是作為自動化科學研究的重點而獲得學界的高度關(guān)注與各類投入,同時行為模式在探索時也廣泛借鑒并融合了認知科學、數(shù)據(jù)挖掘、機器學習、模式識別等諸多方面的研究成果。從辨別規(guī)模大小來看,行為識別有單用戶行為識別、多用戶行為識別、異常行為識別三種。其中,單用戶行為識別較為精細,廣泛用于智能家居中,對使用者的日常生活行為做出實時判斷,精確分析感知用戶生活需求,幫助居民日常生活,提高其生活品質(zhì)。多用戶行為識別則用于高密度人群行為的研究分析,主要對高密度人群本身固有的復雜度,對整個群體流、群體行為進行識別,這方面的成果演進對于人群密集的場所,如:火車站、商場、十字交叉路口等地方的人群疏導具有尤為重大的現(xiàn)實意義。另外,異常行為識別主要用于一些特殊的場所,例如監(jiān)獄、養(yǎng)老院、校園等涉及人身安全較多的場所,可及時啟動并有效發(fā)揮室內(nèi)監(jiān)督功能。
2行為識別技術(shù)
[BT5]2.1基于計算機視覺的行為識別
經(jīng)過多年的研究,國內(nèi)外學者利用計算機視覺在人體檢測領(lǐng)域已經(jīng)設計構(gòu)建了多種框架,主要分為基于視頻的方法和基于圖像的方法。其中,基于視頻記錄的研究方法,是指利用圖像序列或視頻中的活動信息來研究人體的檢測。這種方法通過對比不同圖像像素之間的差別來實現(xiàn)目標提取,優(yōu)點是運算速率比常規(guī)方法至少提高2~3倍,可以在安全系統(tǒng)的視頻監(jiān)控中實時監(jiān)測人物活動[3]?;趫D像特征提取,訓練分析得到相應的分類器實現(xiàn)人體檢測和目標活動指示。這種方法能夠直接提取圖像中的特征,并將這些識別特征通過改進的貝葉斯分類器等技術(shù)處理后,最終獲得預測模型。這種模式不僅能夠運用在單幀圖像分析中,還可以在圖像序列中得到拓展呈現(xiàn)“海量、高維”的特征,同時不受到攝像頭的運動、環(huán)境變化、目標長時間沒有顯著變化等特殊復雜情況的影響。利用攝像頭監(jiān)控系統(tǒng)獲取用戶的行為狀態(tài)信息,再利用模式識別算法,從視頻和圖像序列中分析可視目標,其典型的計算過程由4個步驟組成:目標檢測、行為追蹤、動作識別和高層的行為識別。計算機視覺技術(shù)在處理異常行為檢測中自有其特點與優(yōu)勢,如檢測用戶摔倒等異常行為。因為自然環(huán)境、不確定人為屬性等客觀存在的因素,圖像視頻采集的數(shù)據(jù)受客觀環(huán)境機制的影響嚴重;視頻數(shù)據(jù)存儲量巨大,綜合計算時間長、復雜度高,而且人的行為在環(huán)境中的隨意性等也會導致最終的回歸模型突顯較大偏差。在不同場合使用攝像頭監(jiān)控人物行為還涉及到隱私和公共安全方面的種種問題,長期以來一直存在著質(zhì)疑與爭議。
2.2基于傳感器的行為識別
在人工智能獲得強力推廣的當下,利用傳感器進行人體行為識別已然成為智能化的一個重要分支。這種識別方法主要利用傳感器和傳感網(wǎng)絡來捕捉用戶行為。該方法相比利用視覺進行人體行為識別的方式,前期投入少、設備復雜性小,具有更好的空間自由性。通常采用的方法是利用機器學習和數(shù)據(jù)挖掘的方法,根據(jù)傳感器獲取的數(shù)據(jù)信息來訓練構(gòu)建一個行為識別模型。該方法將被測人體和傳感器視作一個整體,并借由傳感器識別用戶。經(jīng)常使用的傳感器件有熱敏傳感器、力敏傳感器、放射線敏傳感器、加速度傳感器、磁力傳感器。通過傳感器監(jiān)測到被測物體的測量信息,按一定規(guī)律變換成電信號或其他所需形式的信息輸出,主要用來測試記錄運動模式和實時行為動作,如站立、行走、奔跑、跳躍等運動形態(tài)。通過授權(quán)的分布式配置的計算機和傳感器來監(jiān)控人的行為,使這些計算機能更好地在人們的行為上生成控制作用。研究中通過將傳感器分支節(jié)點分別綁定在人體需要觀察的部位進行分支數(shù)據(jù)采集。同時采用加速傳感器來展開運動過程中各部位加速度數(shù)據(jù)的測量,向基站提供持續(xù)穩(wěn)定的觀測數(shù)據(jù)。如圖2所示,傳感器網(wǎng)絡是由運動物體上分布的大量微小無線傳感器節(jié)點互聯(lián)建立而成,通過觀測用戶動作所產(chǎn)生的物理參數(shù)變化,實時監(jiān)控用戶行為,進而根據(jù)上下文信息自適應完成目標任務,從而貫徹實現(xiàn)了智能化環(huán)境的全新概念。當下智能傳感網(wǎng)絡已成為物聯(lián)網(wǎng)不可或缺的組成部分,在安全監(jiān)控、醫(yī)療保健、數(shù)據(jù)記錄等方面具有實際廣闊的應用前景。endprint
根據(jù)傳感器應用常見特征,應用于行為活動的傳感網(wǎng)絡分為3類:頻率特征傳感網(wǎng)、時域特征傳感網(wǎng)和用戶自定義特征傳感網(wǎng)。圍繞這3類特征網(wǎng)絡的研究,傳感器技術(shù)今后的發(fā)展內(nèi)容將重點立足于如下方向:
1)新型材料研制,使用集成工藝和多變量復合傳感器 ,改進生產(chǎn)技術(shù)提高傳感器靈敏度;
2)使用智能化技術(shù)和智能多變傳感器,結(jié)合邏輯判斷、無線探測和智能電量傳感器技術(shù);
3)采用網(wǎng)絡化傳感器,使傳感器具有網(wǎng)絡化的標準接口和協(xié)議功能。
2.3基于位置的行為識別
位置服務(Location Based Services,LBS)又稱定位服務,基于空間位置,以無線定位、GIS、互聯(lián)網(wǎng)、數(shù)據(jù)庫、無線通信等相關(guān)技術(shù)優(yōu)勢深度融合的一種無線位置服務。地理信息可以提供相應的位置服務信息,是挖掘數(shù)據(jù)源信息的根本。目前,主流的定位技術(shù)包括衛(wèi)星定位、感知定位和基于通訊基礎設施的定位。能夠為用戶提供的服務有緊急呼叫定位、車輛追蹤、智能交通、定位查詢。有很多大型公司已從不同的行業(yè)領(lǐng)域提出了各自專屬的一整套的位置服務解決方案,如Sun公司的Java Location Service平臺、ESRI公司的ARC Location Service方案,MapInfo公司設計的無線空間信息服務解決方案MLS[4],均為本行業(yè)發(fā)展奠定了良好重要的基礎?;谖恢玫男袨樽R別系統(tǒng)技術(shù)結(jié)構(gòu)則如圖3所示。
當下頗具主流研究價值的課題表述即是從WiFi信號強度推斷人體的位置和運動。在霧雨、深夜等一些特殊惡劣的氣候條件下,視頻監(jiān)控往往受到明顯干擾,在得不到清晰圖像的基礎上,很難運用現(xiàn)有的視頻處理技術(shù)對行為進行監(jiān)控和識別。而且,攝像頭存在范圍盲區(qū),也不可能覆蓋到每個角落,同時對一些不能公開拍攝的場所還存在一定的局限性?;诟鞣N無線技術(shù),如紅外、超聲波、RFID、無線局域網(wǎng)、藍牙、ZigBee等在靈活結(jié)合通信和計算機的先進工具成果條件下則可有效提供隨時隨地的行為識別服務。
2.4基于人物交互的行為識別
人物交互是指用戶與其所在環(huán)境狀況之間交互的相關(guān)信息。這一研究通?;谌缦录僭O:用戶執(zhí)行特定的行為狀態(tài)時會接觸到一系列物體,比如:手持牙刷刷牙、穿運動鞋跑步、用掃帚掃地等。在不失一般性的情況下,可以定義用戶的行為狀態(tài)與其所接觸的一系列目標物品有關(guān)。這主要是通過RFID無線射頻自動識別標簽來獲取目標對象的相關(guān)數(shù)據(jù)。交互反饋式的模型設計即如圖4所示。檢測器憑借目標物體上安裝的RFID標簽感應電流獲得的能量發(fā)送出某一頻率的信號,接收器讀取信息并進行解碼,最終用戶可以通過視覺系統(tǒng)檢測標簽的性能,并利用讀卡系統(tǒng)來測試判斷執(zhí)行的某項具體行為動作。
人物交互匯聚了多個計算領(lǐng)域的研究精華。首先是普適計算,由其研發(fā)了大量低成本的計算設備提供各種數(shù)據(jù)計算處理的可能;第二是智能系統(tǒng)的研究,這為人物交互研究設定了學習算法和匹配模式;第三是環(huán)境感知,可以有效追蹤和定位各種類型的對象,并適當表示對象與其所處環(huán)境的交互。 全球智能工業(yè)創(chuàng)新大會已然明確提出到2020年,人們將生活在一個人機互動的媒體時代,未來面對的將不僅只是人的社交,而且還將出現(xiàn)人機交互的社交。從工業(yè)1.0到工業(yè)4.0,通過人類使用的設備進行智能的交互,智能制造則使經(jīng)濟的發(fā)展更加趨近智能化,將智能物體融入到人的角色,從而形成一個友好的數(shù)字化生活鏈環(huán)。
3行為識別的應用和發(fā)展
目前與人體行為識別相關(guān)的人工智能正延展不斷地進入人們的生活,這些年一大批人工智能產(chǎn)品和公司亦呈現(xiàn)出可觀長足的發(fā)展勢頭。在行為識別研究中,作為人工智能的一種尤為重要的系統(tǒng)工具已然陸續(xù)推出了一系列的實體設備及功能設計。在移動健康看護與隨身運動監(jiān)測領(lǐng)域,有與手機相連的電子血壓計、B超儀等對家用醫(yī)療市場的指定匹配以及智能眼鏡、智能手環(huán)等等;在公共安全領(lǐng)域,異常行為識別在抓捕罪犯和各大超市、銀行的行為監(jiān)控中正在提供不可小覷的判別增強辨識作用;在體感游戲領(lǐng)域,行為分析在虛擬現(xiàn)實中可運用許多真實人體運動數(shù)據(jù)來實現(xiàn)動漫中的虛擬人物運動,如微軟Kinect體感游戲;在競技運動領(lǐng)域,踢足球機器人也是此類研究的典型代表。
4結(jié)束語
綜合各方面研究論述可知,當下學界在人體行為識別方面的分析將不僅停留在理論研究的層面,還將進一步深入貼近人的真實需求,并在感知、網(wǎng)絡、算法、軟件等各個層面展開更為充分廣泛的系統(tǒng)研究。
科技的不斷進步和發(fā)展,使得今后無論在科技研究領(lǐng)域還是工業(yè)制造領(lǐng)域,對于行為識別的設計上應該更加側(cè)重于優(yōu)先考慮可靠性強、適用范圍廣、操作便捷、便民實用的特征方式。行為分析的科學價值和經(jīng)濟價值可顯著改進信息技術(shù)對社會的服務能力,并對交通服務和預測人類社交相關(guān)領(lǐng)域起到有益的推動促進作用。
參考文獻:
[1] 谷軍霞,丁曉青,王生進. 行為分析算法綜述[J]. 中國圖象圖形學報,2009,14(3):377-387.
[2] SEO H J,MILANFAR P. Action recognition from one example[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011,33(5):867-882.
[3] 郭萍.基于視頻的人體行為分析[D]. 北京:北京交通大學,2012.
[4] 汪亮. 基于可穿戴傳感器網(wǎng)絡的人體行為識別技術(shù)研究[D]. 南京:南京大學,2014.
[5] [JP3]LIANG Yunji,ZHOU Xingshe,YU Zhiwen,et al. Energyefficient motion related activity recognition on mobile devices for pervasive healthcare[J]. Mobile Networks and Applications, 2014,19(3):303-317.[ZK)][JP]
[HT5”SS][ST5”BZ][WT5”BZ][JY](下轉(zhuǎn)第30頁)[FL)]
[WTBZ][ST6BZ][HT6SS]
[6] [ZK(#]陳昌紅,朱秀昌. 人群行為分析研究進展[J]. 計算機科學,2012,39(10):7-11.
[7] LAPTEV I, MARSZALEK M ,SCHMID C ,et al. Learning realistic human actions from movies[C]//Proceedings of the Conference on Computer Vision and Pattern Recognition (CVPR08) . Anchorage, AK, USA:IEEE,2008:1-8.
[8] AGGARWAL J K, RYOO M S. Human activity analysis: A review[J]. ACM Computing Surveys(CSUR), 2011,43(3):1-43.
[9] AGGARWAL J K,CAI Q. Human motion analysis: A review[J]. Computer Vision and Image Understanding ,1999,73(3):428-440.
[10]WANG Y, MORI G. Human action recognition by semilatent topic models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009,31(10):1762-1774.endprint