官金安,楊建華,趙瑞娟
(1中南民族大學 生物醫(yī)學工程學院,認知科學國家民委重點實驗室, 武漢 430074;2 中南民族大學 醫(yī)學信息分析及腫瘤診療湖北省重點實驗室,武漢 430074)
近年來,我們對“模擬閱讀”腦-機接口(BCI)進行了持續(xù)的研究[1-4],其中,腦電信號的特征提取和模式分類是兩個重要研究內(nèi)容,對提高BCI的準確率起到至關重要的作用.
在特征提取方面,先后采用了張量時頻空模式[5]、共空間模式(CSP)[6]、最佳單通道[7]等方法, 均取得了較好的效果.但我們發(fā)現(xiàn),有些受試者可以高效地使用BCI,也有許多人因錯誤率太高而無法使用,存在所謂“金牌受試者”的問題.這表明,要使絕大多數(shù)人腦電信號的模式識別率都達到較高水平,在特征提取方面還需進行新的探索.事實上,可以把多道腦電信號的獨立成分看成大腦中若干個“等效源”,這些等效源的輸出傳播到不同的頭皮電極位置,就形成了所測得的多通道的腦電信號.此外,腦電信號還包含50Hz工頻干擾、眼電、肌電及心電等干擾信號.獨立分量分析(ICA)是近年來發(fā)展起來的一種基于無監(jiān)督統(tǒng)計學習的盲源分離方法,能夠將復雜的混合信號分解成獨立的信號分量.本文利用ICA方法分離其他干擾信號,達到消噪的效果,同時自動提取出混合在腦電信號中的N2-P3成分.實驗結果表明,ICA方法能夠有效地提出N2-P3成分[8],大幅提高分類正確率.
在EEG信號模式分類上,以支持向量機(SVM)[9]和人工神經(jīng)網(wǎng)絡(ANNs)[10]等最為常見,但是SVM和ANNs等分類器會有訓練速度慢、參數(shù)選擇難、易產(chǎn)生局部最優(yōu)解等缺點.Huang于2006年提出了基于前饋神經(jīng)網(wǎng)絡的ELM學習算法[11,12].近年來,該方法在大規(guī)模計算,高速信號處理,人工智能等領域應用越來越廣泛[13].與傳統(tǒng)的神經(jīng)網(wǎng)絡和支持向量機器相比,ELM擁有著顯著的優(yōu)勢,如學習速度快,易于實施,和最小的人為干預等等.因此,選擇ELM作為分類器來進行分類,在訓練前只需設置合適的隱含層節(jié)點數(shù)和激活函數(shù),然后為輸入權值和隱含層偏差量進行隨機賦值,最后引入矩陣廣義逆的思想且通過最小二乘法獲得輸出權值,整個訓練過程快速簡單,無需繁瑣地迭代和調(diào)整參數(shù).
本文在“模擬閱讀”實驗模式下,對7名健康受試者用ICA進行 EEG信號的盲源分離[13],提取出N2和P3成分作為靶特征,采用ELM對靶與非靶特征進行訓練和分類.為了驗證ICA方法的有效性,與采用最佳單通道時域信號作為特征的分類效果進行了比較.此外,在模型訓練所需的時間、分類準確率等方面,將ELM與SVM進行了對比.
本實驗采用中南民族大學提出的模擬閱讀(IR) 誘發(fā)電位模式,該模式能夠讓受試者在實驗中像平常閱讀書本文字一樣來獲得視覺刺激,從而產(chǎn)生基于視覺誘發(fā)事件相關電位的N2和P3成分.用此模式在屏幕上構建一個虛擬鍵盤,就能實現(xiàn)人機交互.“模擬閱讀”與通常閱讀書本不同的是,實驗過程中,受試者的視線相對視覺誘發(fā)界面保持靜止狀態(tài),刺激符號串相對于視線移動,以減少視線移動引起的眼電對腦電信號的污染.在這種刺激方式中,將一個靶標符號(圖1(a))隨機放到多個相似的非靶標符號(圖1(b))中,構成刺激符號串(圖1(c)).實驗時,符號串勻速移過小視窗的速度是5ms/pixel.一個試次(trial)的運行時間指的是符號串剛開始進入小視窗到符號串全部離開小視窗的時間間隔.圖(1(d))為一個試次的示意圖.一旦靶標通過小視窗就會產(chǎn)生穩(wěn)定的事件相關電位.其中,靶標符號、非靶標符號和小視窗的尺寸是30*30像素,靶標符號和非靶標符號具有相同的結構,兩種符號的差別在于中間豎線是否被染成紅色,靶標符號的中間豎線被染成紅色,非靶標符號沒有.
圖1 “模擬自然閱讀”模式下的誘發(fā)字符串Fig.1 Character String on the pattern of Imitating-Reading
實驗使用Biosemi Active II多導生理信號采集裝置,采樣頻率為2048Hz.實驗采集了7名健康受試者在“模擬閱讀”實驗范式下的腦電信號,編號S1-S7.每個受試者采集4組數(shù)據(jù),每組50個試次,一共200個試次,數(shù)據(jù)的存儲格式為:通道數(shù)×通道采樣點數(shù)×實驗試次數(shù).實驗采集的EEG會受到工頻和肌電等噪聲干擾,為了更加有效地提取出信號的特征,首先對EEG數(shù)據(jù)進行預處理.包括:去均值、20Hz低通濾波及歸一化.實驗流程如圖2所示.
圖2 實驗過程示意圖Fig.2 Diagram of the experimental process
本文分別對每個受試者的腦電數(shù)據(jù)進行ICA盲源分離,獨立分量分析是近年發(fā)展起來的一種盲源分離方法(BSS).ICA分離算法的關鍵在于如何度量分離結果的獨立性,以隨機變量的非高斯性和相互獨立為分析目標,最終是為了從多通道觀測數(shù)據(jù)中分離出相互獨立的信號源.不僅可以消除噪聲,而且可有效分離出相應的特征信號.ICA算法的數(shù)學模型為:
(1)
(2)
(3)
2.2.1單隱層前饋神經(jīng)網(wǎng)絡
設訓練集X有N個樣本,表示為X=[x1,x2,…,xN],輸出集為T,表示為T=[t1,t2,…,tN],激活函數(shù)為g(x)的標準單隱層前饋神經(jīng)網(wǎng)絡[14-16]的數(shù)學模型可以表示為:
(4)
式中,xj和tj表示第j個樣本的輸入和輸出,ai是連接第i個隱層節(jié)點與輸入神經(jīng)元的權重向量,bj為第i個隱層節(jié)點的偏置,βi是第i個隱層節(jié)點和輸出神經(jīng)元的連接權值,g(x)是無線可微的激勵函數(shù).
式(4)可以表示為:
Hβ=T,
(5)
H(a1,a2,…,aL,b1,ab,…,bL,x1,x2,…,xL)=
(6)
輸出權值矩陣β可以表示為:
(7)
2.2.2極限學習機理論
(8)
其中輸出yj=[y1jy2j…ymjT],j=1,2,…,n.
極限學習機的理論思想可以總結為:如果選擇的激活函數(shù)g(x)無限可微,可以不用設置單隱含層神經(jīng)網(wǎng)絡的輸出層偏置,同時.訓練前隨機產(chǎn)生連接權值a和隱含層神經(jīng)元閾值b,在訓練過程中不用調(diào)整.通過求解(9)式的最小二乘解可以得到輸出權值矩陣β:
min‖Hβ-T′‖s.t.min‖β‖,
(9)
其解為:β=H+T,其中H+為H的Moore-Penrose廣義逆.'
標準的ELM算法過程為:
(1)設定隱含層神經(jīng)元的個數(shù)L,給出連接權值α和隱含層神經(jīng)元閾值b;
(2)選擇合適的激活函數(shù),計算隱含層輸出矩陣H;
(3)根據(jù)公式β=H+T計算輸出權值β.
對實驗靶數(shù)據(jù)進行ICA分解,N2成分的提取是自動查詢150~250ms時間段的樣本方差的最大的分量,P3的提取是自動查詢250~450ms的樣本方差的最大的分量,ICA分離可能會造成波形倒相,所以要進行極性調(diào)整.把提取的分量直接作為靶特征,相對應的對非靶數(shù)據(jù)也進行上述特征提取,提取的對應分量作為非靶特征.對每個受試者200個trial的樣本進行上述特征提取過程,得到200個靶樣本集和200個非靶樣本集,拿出一半的數(shù)據(jù)集組成訓練樣本,另外一半作為測試樣本.
將訓練樣本和測試樣本導入ELM分類器進行訓練,根據(jù)標準的ELM算法過程,首先要設定隱含層神經(jīng)元個數(shù)L,隨機產(chǎn)生連接權值a和隱含層神經(jīng)元閾值.選擇合適的激活函數(shù),本文選擇的是“sigmoid”激活函數(shù).因為神經(jīng)元個數(shù)不同會對分類準確率有影響,所以在本文中對隱層神經(jīng)元數(shù)進行尋優(yōu),經(jīng)過多次訓練,選擇尋優(yōu)空間為L=[100,600],步長為10.找出最佳的分類器模型,然后對測試樣本分類,得到分類準確率.為了驗證ELM的分類效果,本文利用ICA+SVM分類器對比.
本實驗采集了7名受試者的腦電數(shù)據(jù).首先將所有受試者的腦電數(shù)據(jù)分別進行ICA,將經(jīng)ICA得到的N2和P3分別作為靶特征,與非靶特征一起用ELM和SVM進行分類,分別對分類準確率和訓練時間做了對比,同時還將比較最佳單通道與ICA兩種方式下的分類準確率.本文所有程序及實驗結果都是在MATLAB R2016a環(huán)境下運行得到.
表1記錄了最佳單通道和ICA在SVM和ELM兩種分類器的訓練準確率.從表中可以看出,SVM和ELM分別做最佳單通道的分類,兩者的分類準確率差別很小,平均分類準確率分別為82.4%和83.1%.經(jīng)過ICA之后的分類準確率相較傳統(tǒng)的最佳單通道有較大幅度的提升,平均準確率由82.4%和83.1%上升到94%和96%以上,除了S4和S7這兩名受試者原本準確率就很高,可見ICA的對那些準確率不高的受試者的效果非常明顯.其次是在以N2和P3分別作為靶特征時的準確率比較,從圖中可以看出,以N2成分和P3成分分別作為靶特征時,用ELM分類的準確率基本都比用SVM分類的準確率較高,ELM作為分類器達到了很好的效果.
表1 分類準確率Tab.1 The clasification accuracies
本文將ELM和SVM的訓練時間進行比較.在SVM分類器中,對懲罰因子C和RBF核函數(shù)exp(-gama*(u-v)2)的參數(shù)gama通過以下的網(wǎng)格C=[2-5,2-4,...,25]和gama= [2-5,2-4,...,25]進行訓練.在ELM分類器中選擇sigmoid激活函數(shù),對隱含層神經(jīng)元個數(shù)L=[100,600]步長為10進行訓練.兩種方法對應的訓練時間如表2所示.
表2 不同分類方法下的耗時Tab.2 The training time of different method
可以看出ELM的訓練時間明顯比SVM的訓練時間少.ELM平均訓練時間只需3.699s和3.587s,而SVM平均訓練時間需要35.789s和70.006s,兩者差異巨大.這是因為ELM只需要設置網(wǎng)絡的隱層節(jié)點個數(shù),在算法執(zhí)行過程中不需要調(diào)整網(wǎng)絡的輸入權值以及隱元的偏置,并且產(chǎn)生唯一的最優(yōu)解,因此學習速度快;SVM方法通過核函數(shù)把原空間映射到高維空間,使得非線性可分的問題轉化為在特征空間中的線性可分的問題,升維這個過程會增加計算的復雜度,導致分類耗時增加.
本文提出了一種將ICA與ELM結合的腦電信號特征分類方法,該方法使用ELM作為分類器,結合ICA作為特征選擇算法,對7名受試者在“模擬閱讀”范式下的電信號進行分析,同時對ELM隱含層的神經(jīng)元個數(shù)進行尋優(yōu),以訓練準確率為評價指標,確定最佳神經(jīng)元個數(shù).為了驗證該方法的有效性,與最佳單通道時域信號作為特征的分類正確率進行了比較.同時,還對SVM和ELM分類器進行了對比,以確定二者在我們的BCI應用上的效果.實驗結果表明,使用ICA特征提取后,分類準確率有較大幅度的提高;使用ELM作為分類器,訓練時間較SVM大幅度減少,平均準確率也有所提高.這一為構建在線BCI系統(tǒng)打下了良好的基礎.
[1]官金安. 腦-機接口及其信號的單次提取[D]. 武漢:華中科技大學, 2005.
[2]官金安, 陳亞光. 腦控雙頁虛擬鍵盤的設計與性能分析[J]. 中國臨床康復, 2006, 10(9):124-126.
[3]謝水清, 楊陽, 楊仲樂. 腦-機接口中高性能虛擬鍵盤的實現(xiàn)[J]. 中南民族大學學報(自然科學版), 2004, 23(2):38-40.
[4]李梅. 模擬閱讀BCI信號空時特征提取與模式識別[D]. 武漢:中南民族大學, 2013.
[5]邱靜雯, 官金安. 張量時頻空模式在腦電信號特征提取中的研究[J]. 計算機與數(shù)字工程, 2015, 43(5):797-800.
[6]官金安, 李梅, 荊漢娜等. 基于CSP的模擬閱讀腦-機接口信號分類[J]. 華中科技大學學報(自然科學版), 2013, 41(11):123-127.
[7]官金安, 陳亞光. 通道選擇對誘發(fā)腦電單次提取精度影響的研究[J]. 計算機應用, 2006, 26(8):1932-1934.
[8]Kachenoura A, Albera L, Senhadji L, et al. Ica: a potential tool for bci systems[J]. IEEE Signal Processing Magazine, 2007, 25(1):57-68.
[9]Gao J, Lu L, Yang Y, et al. A novel concealed information test method based on independent component analysis and support vector machine[J]. Clinical EEG and Neuroscience, 2012, 43(1):54.
[10]Wu T, Yang B, Sun H. EEG Classification Based on Artificial Neural Network in Brain Computer Interface[C]// Springer. Life System Modeling and Intelligent Computing. Berlin:Springer, 2010:154-162.
[11]Huang G B, Zhu Q Y, Siew C K. Extreme learning machine: Theory and applications[J]. Neurocomputing, 2006, 70(1-3):489-501.
[12]Huang G B, Zhu Q Y, Siew C K. Extreme learning machine: a new learning scheme of feedforward neural networks[C]// IEEE. International Joint Conference on Neural Networks, 2004. Proceedings. New Jersey:IEEE, 2005:985-990
[13]Huang G, Huang G B, Song S, et al. Trends in extreme learning machines: areview[J]. Neural Networks the Official Journal of the International Neural Network Society, 2015, 61(C):32.
[14]Zhang W J.Feedforward Neural Networks[J]. Comprehensive Chemometrics, 2009, 13(4):27-31.
[15]Zurada J M, Kang M J. Stationary points of single-layer feedback neural networks[C]// IEEE. International Symposium on Circuits and Systems, 1992. ISCAS '92. Proceedings. New Jersey:IEEE, 2002:57-60.
[16]Hagan M T,Menhaj M B. Training feedforward networks with the Marquardt algorithm[J]. IEEE Transactions on Neural Networks, 2002, 5(6):989-993.