衡 霞, 王忠民
( 西安郵電大學(xué) 計算機學(xué)院, 陜西 西安 710121 )
基于手機加速度傳感器的人體行為識別
衡 霞, 王忠民
( 西安郵電大學(xué) 計算機學(xué)院, 陜西 西安 710121 )
提出一種依據(jù)手機內(nèi)置三維加速度傳感器采集的人體日常行為數(shù)據(jù)來進行識別分類的方法。該方法對采集的原始加速度數(shù)據(jù)進行預(yù)處理,從水平和垂直方向提取多種統(tǒng)計特征,包括標(biāo)準(zhǔn)差、四分位差、信號幅度、偏度、峰度和相關(guān)系數(shù)等,由支持向量機分類器進行分類識別,可識別手機攜帶者站立、走路、跑步、上樓和下樓5種動作。通過對比分析實驗結(jié)果,對不同實驗者的平均識別正確率達到87.17%,驗證了該方法的有效性。
人體行為識別;加速度傳感器;支持向量機
近年來隨著信息科學(xué)和傳感器技術(shù)的進步,基于傳感器的行為識別獲得了極大的發(fā)展,其中基于可穿戴傳感器的人體行為識別具有極其廣泛的應(yīng)用前景。例如在智能家居、老人或病人監(jiān)護等領(lǐng)域使用可穿戴式傳感器可以實時獲得用戶的行為數(shù)據(jù),從而快速準(zhǔn)確的判斷出當(dāng)前用戶的活動情況。
文[1]中使用在右腳踝和左大腿固定兩個加速度傳感器采集數(shù)據(jù)來研究人體行為識別方法;文[2]提出一種在人體不同位置固定多個加速度傳感器來進行老年人跌倒檢測;文[3]采用將兩個加速度傳感器分別佩戴在右手臂的前后來解決交互式游戲中的上肢動作識別問題。這些研究將多個傳感器固定在實驗者身上來進行行為感知,在實際應(yīng)用中將給用戶的生活帶來不便。
目前智能手機的多種內(nèi)置傳感器如加速度傳感器、陀螺儀、磁力計、方向傳感器等可以對不同的運動、方向和外部環(huán)境進行感知,特別在監(jiān)測設(shè)備的移動和位置變化時,能獲得較精確的原始三維數(shù)據(jù)[4]。鑒于手機傳感器的這種便攜性和高性能,本文提出一種基于智能手機采集用戶行為數(shù)據(jù)來進行行為識別與分析的方法。該方法通過對三維加速度信號進行處理及特征提取獲得特征矩陣,采用支持向量機分類器進行分類識別。
行為識別可以被概括為依據(jù)傳感器采集的原始數(shù)據(jù)來訓(xùn)練機器學(xué)習(xí)模型,從而對測試集數(shù)據(jù)進行分類識別[5]。這個處理過程主要包含數(shù)據(jù)采集、預(yù)處理、特征提取選擇和分類器識別4個模塊[5],如圖1所示。首先利用傳感器采集各種動作的原始加速度信號,并為了獲得較好的識別效果,需對這些信號進行濾波去噪等預(yù)處理;接下來針對識別目標(biāo)提取各種不同的特征[6],通常提取的加速度信號特征包括時域特征、頻域特征和時頻特征,優(yōu)選后的特征集表征了各種行為的突出特性;最后用特征矩陣訓(xùn)練出相應(yīng)的參考模型,分類器通過這個參考模型對測試集進行分類識別。
圖1 人體行為識別流程圖
1.1 數(shù)據(jù)采集
基于監(jiān)督式學(xué)習(xí)算法的行為識別方法在很大程度上取決于已標(biāo)簽的訓(xùn)練數(shù)據(jù)樣本集。通過一個自行開發(fā)并可安裝在手機上的應(yīng)用程序來采集數(shù)據(jù)。它的圖形操作界面簡單方便,用戶可以設(shè)置采集數(shù)據(jù)的頻率,控制數(shù)據(jù)采集的開始和結(jié)束,以及對所采集的數(shù)據(jù)設(shè)置標(biāo)簽,標(biāo)簽包括靜止、走路、跑步、上樓和下樓等,圖2顯示這個應(yīng)用程序的操作界面。
應(yīng)用程序默認(rèn)的采集頻率為100 Hz;采集數(shù)據(jù)時對手機放置的方向沒有刻意約定,完全取決于用戶個人的使用習(xí)慣。手機放置的位置分別選取手握、褲兜和提包這三個最常用的位置。對每一個行為的采集數(shù)據(jù)周期默認(rèn)設(shè)置為5 s,用戶在采集數(shù)據(jù)剛一開始因放置手機,前2 s采集的數(shù)據(jù)將舍棄不予考慮。而實際采集的加速度數(shù)據(jù)一般都含有噪聲,通常使用帶通濾波或者轉(zhuǎn)換原始加速度數(shù)據(jù)的方法來進行數(shù)據(jù)預(yù)處理。
圖2 手機采集數(shù)據(jù)應(yīng)用程序的操作界面
1.2 特征提取
av(t)=az(t);
水平方向的加速度為
圖3和圖4分別描述了某個實驗者在5種不同行為采集的x、y、z軸和水平垂直方向加速度數(shù)據(jù)。從圖中可以看到水平和垂直方向的加速度數(shù)據(jù)在各種行為中呈現(xiàn)出不同特點。
圖3 5種不同行為的x軸、y軸、z軸加速度數(shù)據(jù)
圖4 5種不同行為的水平和垂直方向加速度數(shù)據(jù)
在特征提取過程中采用了滑動窗技術(shù)。因手機內(nèi)置應(yīng)用程序的默認(rèn)采樣頻率為100 Hz,滑動窗的大小設(shè)定為1.5 s,相鄰窗口按50%進行交叉重疊。對每一個滑動窗口,依據(jù)采集的水平和垂直方向加速度數(shù)據(jù)提取時域和頻域上共33個特征,如均值(mean),標(biāo)準(zhǔn)差(standard deviation),信號幅度(signal magnitude area),四分位差 (inter quartile range),偏度(skewness),峰度(kurtosis),信息熵(entropy),相關(guān)系數(shù)(signal-pair correlation)等。
1.3 分類器
支持向量機(Support Vector Machine)對于線性不可分的情況,通過使用非線性映射算法,將低維輸入空間特性不可分的樣本轉(zhuǎn)化為高維特征空間使其線性可分,從而使得高維特征空間采用線性算法對樣本的非線性特征進行線性分析成為可能[8]。特別在解決小樣本、非線性及高維模式識別中表現(xiàn)出許多特有的優(yōu)勢[9],因此選取支持向量機作為分類器。
采用臺灣大學(xué)林智仁博士等開發(fā)設(shè)計的LIBSVM[10],這是一個操作簡單、快速有效的通用SVM軟件包,對于RBF徑向基核函數(shù)采用交叉驗證設(shè)置最優(yōu)參數(shù)為
C=1024, G=2。
實驗中選擇了5個年齡段在24至30歲之間的實驗者在自然環(huán)境中采集數(shù)據(jù)。每個實驗者都將手機分別握在手中、放在褲兜或放在手提包里對5種不同的行為采集數(shù)據(jù)。采集的數(shù)據(jù)隨機選取70%作為訓(xùn)練集,剩余30%作為測試集,確保訓(xùn)練集和測試集數(shù)據(jù)無交叉重疊。實驗中統(tǒng)一用三星Galaxy Note 2智能手機作為采集數(shù)據(jù)工具。采集的加速度數(shù)據(jù)先進行歸一化處理,然后分兩組實驗來對比驗證該行為識別方法的性能。
先對每一個實驗者采集的數(shù)據(jù)單獨測試,即將每個實驗者的手機放置在3個不同位置對5種行為采集數(shù)據(jù),從采集到的數(shù)據(jù)中任意選取70%作為訓(xùn)練集,剩余為測試集。表1羅列出對每個實驗者的5種不同行為的識別結(jié)果。因?qū)嶒炇轻槍唧w某一個人的行為進行識別,識別準(zhǔn)確率較高,平均識別率達到了87.17%。
表1 單個實驗者的5種行為識別率
再將5個實驗者采集的所有數(shù)據(jù)匯總作為一個整體,按照實驗一中同樣比例分配訓(xùn)練集和測試集,靜止、走路、跑步、上樓和下樓5種行為的識別率分別為100.00%,63.41%,92.50%,51.28%,30.77%。
因?qū)嶒炚邆€體行為存在差異,實驗總體的行為識別準(zhǔn)確率相對第一組實驗略有下降。5種行為的綜合識別率下降為67.51%,兩組實驗中靜止站立的識別率達到了100%,跑步的識別率大于92.50%,但對于上樓、下樓和走路這3種近似行為的識別分類還有待提高。
提出一種基于手機內(nèi)置加速度傳感器的人體行為識別方法,該方法采用滑動窗技術(shù),在單個時間窗基于水平和垂直方向的加速度提取信號幅度、四分位差、偏度、峰度、相關(guān)系數(shù)等作為特征,利用SVM分類器進行分類識別,識別了手機攜帶者站立、走路、跑步、上樓和下樓5種動作。通過兩組實驗驗證了這種方法的有效性,但對于上樓、下樓和走路這3種近似行為的識別分類還有待提高。
[1] Krishnan N C. A Computational Framework for Wearable Accelerometer Based Activity and Gesture Recognition[D]. USA: Arizona State University, 2010:14-25.
[2] Lustrek M, Kaluza B. Fall detection and activity recognition with machine learning[J]. Informatics (Ljubljana), 2009, 33(2):205-212.
[3] 王昌喜,楊先軍,徐強,等.基于三維加速度傳感器的上肢動作識別系統(tǒng)[J].傳感技術(shù)學(xué)報,2010,6(23):816-819.
[4] Sensors Overview _Android Developers.(2014-03-30) [2014-04-20].http://developer.android.com/guide/topics/sensors/sensors_verview.html.
[5] Incel O D, Kose M, ErsoyIncel C. A Review and Taxonomy of Activity Recognition on Mobile Phones[J].Springer BioNanoScience Journal, 2013, 3(2): 145-171.
[6] 王忠民,曹棟.基于蟻群算法的行為識別特征優(yōu)選方法[J].西安郵電大學(xué)學(xué)報,2014, 19(1): 73-77.
[7] Lane N D, Miluzzo E, Lu H, et al. A survey of mobile phone sensing[J]. Communications Magazine, IEEE, 2010, 48(9): 140-150.
[8] Hsu Chih-Wei, Chang Chih-Chung, Lin Chih-Jen. A practical guide to support vector classification[J]. Bioinformatics, 2010, 1(1):1-16.
[9] 吳青,趙雄.一類新樣條光滑支持向量機[J].西安郵電大學(xué)學(xué)報,2013,18(6):68-74.
[10] Chang Chih-Chung, Lin Jen. LIBSVM: A Library for Support Vector Machines. (2014-04-01)[2014-04-25].http://www.csie.ntu.edu.tw/~cjlin/libsvm.
[責(zé)任編輯:祝劍]
Human activity recognition based on accelerometer data from a mobile phone
HENG Xia, WANG Zhongmin
(School of Computer Science and Technology,Xi’an University of Posts and Telecommunications,Xi’an 710121,China)
A method of accurate analysis of basic activities with accelerometer data from a mobile phone is described in this paper. After sensor data are collected, preprocessing, vertical and horizontal feature extraction, classification steps are followed to build a training model. The system is trained to recognize five activities: staying, walking, running, ascending stairs, and descending stairs. Many statistical features are extracted such as standard deviation, signal magnitude areas, inter quartile range, skewness, kurtosis, entropy, and signal-pair correlation. For different subject, an average recognition accuracy of 87.17% is achieved. Results show the proposed method is effective.
human activity recognition, accelerometer data, support vector Machines (SVMs)
10.13682/j.issn.2095-6533.2014.06.015
2014-04-28
國家自然科學(xué)基金資助項目(61373116)
衡霞(1978- ),女,講師,從事多媒體通信,智能信息處理研究。E-mail:hx@xupt.edu.cn 王忠民(1967-),男,教授,從事嵌入式系統(tǒng),智能信息處理研究。E-mail: zmwang@xupt.edu.cn
TP3
A
2095-6533(2014)06-0076-04