王輝, 童麗峰,于立君,賁浩然, 游江
(哈爾濱工程大學(xué) 自動(dòng)化學(xué)院,黑龍江 哈爾濱 150001)
?
在線字典學(xué)習(xí)形變模型的疲勞狀態(tài)識(shí)別方法
王輝, 童麗峰,于立君,賁浩然, 游江
(哈爾濱工程大學(xué) 自動(dòng)化學(xué)院,黑龍江 哈爾濱 150001)
針對(duì)現(xiàn)有駕駛疲勞狀態(tài)識(shí)別算法中存在疲勞特征維數(shù)高、識(shí)別效率低下、計(jì)算量大等問題,本文提出一種基于在線字典學(xué)習(xí)形變模型的疲勞狀態(tài)識(shí)別方法。采用紅外疲勞人臉圖像中關(guān)鍵變形區(qū)域LBP特征構(gòu)建人臉形變模型;將在線字典學(xué)習(xí)算法引入到形變模型中,采用過完備基函數(shù)矩陣代替訓(xùn)練樣本整體對(duì)待測樣本進(jìn)行線性表示,利用其組合系數(shù)的稀疏性進(jìn)行人臉疲勞狀態(tài)識(shí)別;采用時(shí)間窗結(jié)合貝葉斯方法對(duì)識(shí)別算法進(jìn)行優(yōu)化。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)的識(shí)別方法相比,本文所提算法可以降低系統(tǒng)的運(yùn)算量,提高疲勞狀態(tài)識(shí)別的魯棒性和準(zhǔn)確率,在實(shí)際駕駛環(huán)境中能夠取得良好的識(shí)別效果。
疲勞狀態(tài)識(shí)別;變形區(qū)域;LBP特征;形變模型;在線字典學(xué)習(xí);過完備基函數(shù)矩陣;時(shí)間窗;貝葉斯方法
疲勞駕駛是指駕駛員在長時(shí)間的行車過程中,由于駕駛動(dòng)作的反復(fù)連續(xù),使其生理上、心理上發(fā)生某種變化,出現(xiàn)駕駛機(jī)能下降的現(xiàn)象。據(jù)公安部調(diào)查顯示,近幾年因交通事故造成的死亡人數(shù)高達(dá)7萬多人,其中由于疲勞駕駛造成的死亡人數(shù)占總死亡人數(shù)的65%[1]。因此,研究駕駛員在行車過程中的疲勞狀態(tài)識(shí)別方法對(duì)預(yù)防交通事故的發(fā)生有著重大的意義。
現(xiàn)階段,駕駛員疲勞狀態(tài)的識(shí)別方法主要有五類:1)基于生理信息的識(shí)別方法[2-3],有腦電圖信號(hào)監(jiān)測、眼電圖信號(hào)監(jiān)測、心電圖信號(hào)監(jiān)測等;2)基于行車參數(shù)的識(shí)別方法[4-5],有車速測量、運(yùn)動(dòng)軌跡監(jiān)測、橫向位移監(jiān)測等;3)基于操控行為的識(shí)別方法[6-7],有方向盤運(yùn)動(dòng)情況監(jiān)測、轉(zhuǎn)向角信號(hào)監(jiān)測等;4)基于計(jì)算機(jī)視覺的識(shí)別方法[8-10],有PERCLOS值檢測、眨眼頻率檢測、視線方向檢測等;5)融合多源信息的識(shí)別方法[11]。經(jīng)分析可知,基于生理測量的方法可以實(shí)時(shí)、準(zhǔn)確地對(duì)疲勞狀態(tài)進(jìn)行識(shí)別,但是監(jiān)控設(shè)備復(fù)雜,成本高,而且與駕駛員直接的接觸,不太適合擴(kuò)展應(yīng)用;基于操控行為和行車參數(shù)的識(shí)別方法可以具有很好地應(yīng)用前景,但是算法復(fù)雜,易受環(huán)境因素的影響,抗干擾能力差,識(shí)別率較低;融合多源信息的識(shí)別方法受限于實(shí)驗(yàn)條件,現(xiàn)階段研究較少,識(shí)別效果不一定優(yōu)于單一信息?;谟?jì)算機(jī)視覺的識(shí)別方法是目前應(yīng)用最廣泛的識(shí)別方法,具有非接觸的優(yōu)點(diǎn),且可以直接觀察到駕駛員疲勞時(shí)的面部變化特征。
針對(duì)現(xiàn)有識(shí)別方法對(duì)光照敏感、特征維數(shù)大和識(shí)別率較低等問題,本文提出一種在線字典學(xué)習(xí)形變模型的疲勞狀態(tài)識(shí)別算法。該算法首先提取紅外人臉圖像中與疲勞相關(guān)的變形區(qū)域LBP特征,并將其用于表征疲勞人臉圖像,構(gòu)建疲勞人臉圖像的形變模型;然后采用在線字典學(xué)習(xí)算法提取訓(xùn)練樣本整體的過完備基函數(shù),引入到形變模型中,建立在線字典學(xué)習(xí)形變模型并對(duì)圖像的疲勞狀態(tài)進(jìn)行分類識(shí)別;最后考慮不同時(shí)間階段對(duì)人臉圖像疲勞狀態(tài)的影響,采用時(shí)間窗的方式對(duì)識(shí)別算法進(jìn)行優(yōu)化。
1.1 疲勞特征提取
考慮到實(shí)際行車過程中駕駛員的頭部會(huì)發(fā)生擺動(dòng),且在自然光照下易受光照影響。為了保證后續(xù)疲勞狀態(tài)的正確識(shí)別,本文選用具有幾何結(jié)構(gòu)旋轉(zhuǎn)不變性和光照魯棒性的紋理檢測算子LBP對(duì)紅外人臉圖像中與疲勞相關(guān)的關(guān)鍵變形區(qū)域(眉毛、眼睛、嘴巴等)進(jìn)行特征提取[12-13]。
設(shè)疲勞時(shí)面部發(fā)生形變的區(qū)域有k(k=0,1,…,k-1)個(gè),根據(jù)變形區(qū)域在面部的比重將其對(duì)應(yīng)劃分不同的子區(qū)域塊,區(qū)域比重越大,子區(qū)域塊越多,反之越少。為保證后續(xù)人臉特征數(shù)量的一致性,所有子區(qū)域的大小相同。若子區(qū)域塊的中心像素為fc,p個(gè)鄰點(diǎn)的像素為fp(p=0,1,…,p-1),則該子區(qū)域內(nèi)(x,y)點(diǎn)的LBP值為
(1)
第k個(gè)變形區(qū)域中子區(qū)域的直方圖可表示為
(2)
式中:mk為第k個(gè)變形區(qū)域的子區(qū)域塊數(shù)量。
順序連接第k個(gè)變形區(qū)域中所有子區(qū)域直方圖獲得其特征向量,即
(3)
疲勞人臉圖像的特征向量可看作所有變形區(qū)域特征向量的串聯(lián),則
H={H0,H1,…,Hk-1}∈Rm
(4)
本文針對(duì)疲勞人臉的關(guān)鍵變形區(qū)域進(jìn)行LBP特征提取,一定程度上提高了疲勞特征的有效性,且提取的特征不受光照和頭部擺動(dòng)的影響,為后續(xù)疲勞狀態(tài)準(zhǔn)確識(shí)別奠定了基礎(chǔ)。
1.2 疲勞人臉圖像的形變模型表示
形變模型[14-15]是一種線性組合模型,將形變模型應(yīng)用于疲勞人臉圖像表示中,旨在通過疲勞人臉的關(guān)鍵變形區(qū)域特征建立疲勞人臉形變模型。根據(jù)行車過程中人臉可能出現(xiàn)的疲勞狀態(tài)將訓(xùn)練樣本圖像分為清醒狀態(tài)、輕度疲勞狀態(tài)、中度疲勞狀態(tài)和重度疲勞狀態(tài)四類。具體算法過程如下:
將訓(xùn)練樣本圖像中每個(gè)樣本圖像用其關(guān)鍵變形區(qū)域的LBP特征向量表示,則第i類訓(xùn)練樣本可表示為
(5)
則整個(gè)訓(xùn)練樣本可表示為
(6)
式中:m為樣本大小,p=4,為訓(xùn)練樣本類別數(shù),n為訓(xùn)練樣本總數(shù),則有n=n1+n2+…+np。
設(shè)y為某一待測樣本,則有:
(7)
傳統(tǒng)的疲勞人臉形變模型表示采用所有訓(xùn)練樣本圖像來對(duì)待測樣本進(jìn)行線性組合描述,此模型雖然能夠較好的表征疲勞人臉圖像,但由于特征維數(shù)的龐大使得系統(tǒng)運(yùn)行速度變慢,識(shí)別率降低。根據(jù)線性知識(shí),本文采用在線字典學(xué)習(xí)算法提取出能有效表達(dá)訓(xùn)練樣本整體的過完備基函數(shù)矩陣,并用其代替訓(xùn)練樣本整體對(duì)待測樣本進(jìn)行線性組合表示,最后利用組合系數(shù)的稀疏性進(jìn)行人臉疲勞狀態(tài)分類識(shí)別。該算法在一定程度上降低了特征的維數(shù),進(jìn)一步降低了算法的運(yùn)算量,提高了算法的識(shí)別率。
2.1 在線字典學(xué)習(xí)提取過完備基函數(shù)矩陣
在線字典學(xué)習(xí)算法(online dictionary learning, ODL)[16]是一種隨機(jī)逼近優(yōu)化算法。采用ODL算法提取形變模型的過完備基函數(shù)矩陣,主要是采用快速坐標(biāo)下降的方式迭代更新基函數(shù)矩陣,從而快速地得到能夠充分表示訓(xùn)練樣本集的過完備基函數(shù)矩陣,更好地實(shí)現(xiàn)待測圖像的形變模型表示。
(8)
(9)
4)更新矩陣A、B:
(10)
(11)
2.2 疲勞人臉圖像的在線字典學(xué)習(xí)形變模型表示
(12)
2.3 基于在線字典學(xué)習(xí)形變模型的疲勞狀態(tài)識(shí)別
(13)
(14)
定義ε>0,則當(dāng)identify(y)<ε時(shí),輸出識(shí)別結(jié)果,否則重新獲取重構(gòu)圖像。具體識(shí)別流程圖如圖1所示。
圖1 基于在線字典學(xué)習(xí)形變模型的疲勞狀態(tài)識(shí)別流程圖Fig.1 Flow chart of fatigue state recognition based on online dictionary learning deformation model
在識(shí)別過程中,由于基函數(shù)矩陣維數(shù)大大低于訓(xùn)練樣本整體,使得求解最優(yōu)稀疏系數(shù)的運(yùn)算量大幅度降低,減少了運(yùn)行時(shí)間,提高了對(duì)疲勞面部狀態(tài)的識(shí)別率和魯棒性。
由于疲勞駕駛是指持續(xù)一段時(shí)間內(nèi)駕駛員面部出現(xiàn)疲勞特征,一幀圖像的識(shí)別往往不能準(zhǔn)確判斷駕駛員是否真正處于疲勞狀態(tài)。而在一段時(shí)間內(nèi)駕駛員的疲勞狀態(tài)轉(zhuǎn)移具有一定的規(guī)律,一般會(huì)隨著行車時(shí)間的加長而變得越來越疲勞。因此在識(shí)別過程中加入時(shí)間窗[17-18],采用序貫信息的前后相關(guān)性對(duì)時(shí)間窗內(nèi)的幀圖像進(jìn)行分類識(shí)別。為了能夠有效利用時(shí)間窗內(nèi)的先驗(yàn)知識(shí),本文采用貝葉斯方法的進(jìn)行疲勞狀態(tài)識(shí)別。
(15)
式中:p(xj|wi)為疲勞狀態(tài)類別wi對(duì)幀圖像xj生成的概率,p(wi)為先驗(yàn)概率,即前段時(shí)間到當(dāng)前時(shí)刻疲勞狀態(tài)類別的轉(zhuǎn)移概率。p(wi)的選取是根據(jù)疲勞狀態(tài)轉(zhuǎn)移規(guī)律確定的,其值大小如表1所示。
圖2 時(shí)間窗的設(shè)置Fig.2 Time window setting
待測時(shí)刻前識(shí)別結(jié)果p(w1)p(w2)p(w3)p(w4)清醒狀態(tài)0.50.500輕度疲勞00.50.50中度疲勞000.50.5重度疲勞0001
為了驗(yàn)證本文所提算法的有效性,以車內(nèi)紅外攝像機(jī)CCD拍攝的連續(xù)視頻段圖像作為實(shí)驗(yàn)數(shù)據(jù)庫,其中有不同時(shí)間段和不同光照條件下包含40個(gè)人四種疲勞狀態(tài)的6 400張人臉圖像。根據(jù)文獻(xiàn)[18]將實(shí)驗(yàn)數(shù)據(jù)庫分為清醒階段的數(shù)據(jù)庫(A數(shù)據(jù)庫)和易疲勞階段的數(shù)據(jù)庫(B數(shù)據(jù)庫)。兩數(shù)據(jù)庫均包含20名測試者,每人包含四種疲勞狀態(tài)的20個(gè)視頻段,共3 200張人臉圖像。
A數(shù)據(jù)庫:在清醒階段,為保證疲勞狀態(tài)的一致性,每個(gè)視頻段設(shè)為15 s;為避免由于眨眼造成識(shí)別錯(cuò)誤,根據(jù)正常情況下眨眼頻率是12~15次/s設(shè)定每個(gè)時(shí)間段內(nèi)提取的圖像幀數(shù)為8幀。
B數(shù)據(jù)庫:易疲勞階段人的生理機(jī)能下降,如人的眨眼頻率加快等,為保證提取到的圖像幀數(shù)與A數(shù)據(jù)庫相同,每個(gè)視頻段設(shè)為10 s,獲取的圖像幀數(shù)為8幀。
本文提取實(shí)驗(yàn)數(shù)據(jù)庫中圖像的LBP特征,采用人臉形變模型識(shí)別方法(DM)和人臉在線字典學(xué)習(xí)形變模型識(shí)別方法(ODM)在數(shù)據(jù)庫A和數(shù)據(jù)庫B上進(jìn)行實(shí)驗(yàn),并與采用D-KSVD[19]和FDDL[20]字典學(xué)習(xí)的形變模型識(shí)別方法進(jìn)行比較。實(shí)驗(yàn)中,設(shè)定在線字典學(xué)習(xí)過程中的正則化因子λ=0.15。
圖3 部分?jǐn)?shù)據(jù)庫樣本Fig.3 Part samples of the collected database
4.1 單幀圖像疲勞狀態(tài)識(shí)別
采用四種算法分別在A數(shù)據(jù)庫和B 數(shù)據(jù)庫中進(jìn)行實(shí)驗(yàn),其中兩個(gè)數(shù)據(jù)庫均隨機(jī)選取2 000張包含四種疲勞狀態(tài)的圖像作為訓(xùn)練樣本,其余1 200張作為測試樣本,不同疲勞狀態(tài)的識(shí)別率如表2和表3所示。
表2 A數(shù)據(jù)庫中不同分類識(shí)別算法識(shí)別率
Table 2 Recognition rate of different classification recognition algorithms in A database %
表3 B數(shù)據(jù)庫中不同分類識(shí)別算法識(shí)別率
Table 3 Recognition rate of different classification recognition algorithms in B database %
由表2和表3可以看出, ODM算法、FDDL算法和D-KSVD算法的平均識(shí)別率均高于DM算法,充分說明字典學(xué)習(xí)算法可以有效提高形變模型識(shí)別方法對(duì)疲勞狀態(tài)的識(shí)別率;比較采用三種字典學(xué)習(xí)算法后的平均識(shí)別率,從高到低依次是ODM算法、FDDL算法和D-KSVD算法,這也驗(yàn)證了采用在線字典學(xué)習(xí)對(duì)形變模型進(jìn)行改進(jìn)可以進(jìn)一步提高識(shí)別率。
比較表2和表3,表2中的疲勞狀態(tài)識(shí)別率明顯高于表3,即清醒階段的疲勞狀態(tài)識(shí)別結(jié)果優(yōu)于易疲勞階段。分析四種算法對(duì)兩個(gè)數(shù)據(jù)庫的平均識(shí)別率,相比于A數(shù)據(jù)庫, DM、D-KSVD、FDDL和ODM算法在B中平均識(shí)別率分別降低了1.59%、0.41%、0.51%和0.32%。比較得知,ODM算法在A、B實(shí)驗(yàn)庫中平均識(shí)別率差距最小,進(jìn)而說明該算法對(duì)疲勞狀態(tài)識(shí)別的魯棒性能優(yōu)于其他兩種字典學(xué)習(xí)算法,可以更好的應(yīng)用于不同時(shí)間段的疲勞狀態(tài)識(shí)別。
算法計(jì)算量的大小影響著識(shí)別系統(tǒng)的實(shí)時(shí)性和準(zhǔn)確性,可以直接反映在系統(tǒng)運(yùn)行時(shí)間上。計(jì)算四種識(shí)別算法的運(yùn)行時(shí)間,如表4所示。從表中可以看出,ODM算法的運(yùn)行時(shí)間是最短的,即計(jì)算量最小,相比于DM、D-KSVD和FDDL算法分別減少了100.41、55.66和12.37 ms。更能滿足實(shí)際識(shí)別系統(tǒng)的需求。
表4 不同算法的運(yùn)行時(shí)間
4.2 基于時(shí)間窗的疲勞狀態(tài)識(shí)別
本實(shí)驗(yàn)將一個(gè)視頻段視為一個(gè)時(shí)間窗,分別在A數(shù)據(jù)庫和B數(shù)據(jù)庫中隨機(jī)選取350個(gè)包含四種疲勞狀態(tài)的視頻段作為訓(xùn)練樣本,剩余50個(gè)視頻段作為測試集?;跁r(shí)間窗的方法,采用四種算法對(duì)測試集進(jìn)行疲勞狀態(tài)識(shí)別,即每個(gè)測試集的疲勞狀態(tài)識(shí)別結(jié)果采用貝葉斯方法確定,其中閾值T=0.5。則不同算法下的平均識(shí)別率如圖4所示。
圖4 四種算法在時(shí)間窗內(nèi)的平均識(shí)別率Fig.4 Average recognition rate of four algorithms in time windows
由圖4知,基于時(shí)間窗的方法, DM、D-KSVD、FDDL和ODM四種算法在數(shù)據(jù)庫A上的平均識(shí)別率分別為92.94%、93.96%、95.20%和96.28%,在B數(shù)據(jù)庫中的平均識(shí)別率分別為92.17%、93.54%、94.65%和95.92%。與4.1節(jié)中的實(shí)驗(yàn)結(jié)果相比,經(jīng)時(shí)間窗優(yōu)化后,算法的平均識(shí)別率明顯有所提高,對(duì)實(shí)際駕駛環(huán)境更為有利。
1)采用過完備基函數(shù)矩陣代替整個(gè)訓(xùn)練樣本構(gòu)建在線字典學(xué)習(xí)形變模型,實(shí)現(xiàn)了用較少的稀疏系數(shù)對(duì)待測樣本進(jìn)行線性組合描述,一定程度上降低了疲勞特征的維數(shù)和分類識(shí)別時(shí)整體算法的計(jì)算量,提高了疲勞狀態(tài)識(shí)別的魯棒性。
2)采用基于貝葉斯方法的時(shí)間窗對(duì)疲勞狀態(tài)進(jìn)行優(yōu)化識(shí)別,有效利用了人的疲勞狀態(tài)轉(zhuǎn)移規(guī)律,提高了實(shí)際駕駛環(huán)境下疲勞狀態(tài)的識(shí)別率。
由于實(shí)驗(yàn)過程中數(shù)據(jù)庫圖像大多是無遮擋、無偽裝的人臉圖像,使得該算法在實(shí)際應(yīng)用中仍具有一定局限性。因此,如何增強(qiáng)在遮擋、偽裝和外界環(huán)境等因素下的算法魯棒性,是該算法后續(xù)的研究方向。
[1]牛清寧, 周志強(qiáng), 金立生,等. 基于眼動(dòng)特征的疲勞駕駛檢測方法[J].哈爾濱工程大學(xué)學(xué)報(bào), 2015, (3): 394-398.
NIU Qingning, ZHOU Zhiqiang, JIN Lisheng, et al. Fatigue driving detection method based on eye movement characteristics [J]. Journal of Harbin Engineering University, 2015, 36(3): 394-398.
[2]PATEL M, LAL S K L, KAVANAGH D, et al. Applying neural network analysis on heart rate variability data to assess driver fatigue[J]. Expert systems with applications, 2011, 38(6): 7235-7242.
[3]金純, 曾偉.基于腦電的實(shí)時(shí)疲勞監(jiān)測算法的研究[J].科學(xué)技術(shù)與工程, 2015, 15(34): 231-234.
JIN Chun, ZENG Wei. Fatigue monitor algorithm research based on EEG[J]. Science technology and engineering, 2015, 15(34): 231-234.
[4]SANDBERG D, WAHDE M. Particle swarm optimization of feedforward neural networks for the detection of drowsy driving[C]// IEEE International Joint Conference on Neural Networks. IEEE, 2008: 788-793.
[5]JIN L, NIU Q, HOU H, et al. Driver cognitive distraction detection using driving performance measures[J]. Discrete dynamics in nature & society, 2012, 30(2012): 1555-1565.
[6]TAKEI Y, FURUKAWA Y. Estimate of driver′s fatigue through steering motion[C]// IEEE International Conference on Systems, Man and Cybernetics, 2005: 1765-1770.
[7]張希波, 成波, 馮睿嘉. 基于方向盤操作的駕駛?cè)似跔顟B(tài)實(shí)時(shí)檢測方法[J]. 清華大學(xué)學(xué)報(bào):自然科學(xué)版, 2010(7): 1072-1076.
ZHANG Xibo, CHENG Bo, FENG Ruijia. Real-time detection of driver drowsiness based on steering performance [J]. Journal of Tsinghua University: science and technology, 2010, 50(7): 1072-1076.
[8]JIN L, NIU Q, JIANG Y, et al. Driver sleepiness detection system based on eye movements variables[J]. Advances in mechanical engineering, 2013(5): 1-7.
[9]AZIM T, JAFFAR M A, MIRZA A M. Fully automated real time fatigue detection of drivers through fuzzy expert systems[J]. Applied soft computing, 2014, 18(1): 25-38.
[10]何明山, 羅衛(wèi)東, 陳啟新,等. 基于DSP虹膜識(shí)別防疲勞駕駛報(bào)警系統(tǒng)的研究[J]. 中國安全生產(chǎn)科學(xué)技術(shù), 2016(1): 127-131.
HE Mingshan, LUO Weidong, CHEN Qixin, et al. Research on anti-fatigue driving alarm system based on DSP for iris recognition[J]. Journal of safety science and technology, 2016, 12(1): 127-131.
[11]牛清寧.基于信息融合的疲勞駕駛檢測方法研究[D].長春:吉林大學(xué),2014.
NIU Qingning. Research on driver fatigue detection based on hybrid measures[D]. Changchun:Jilin University, 2014.
[12]王輝, 于立君, 畢曉君,等. 自適應(yīng)熵疫苗算子的免疫圖像分割方法[J]. 哈爾濱工業(yè)大學(xué)學(xué)報(bào), 2014, 46(1): 72-76.
WANG Hui, YU Lijun, BI Xiaojun, et al. Immune image segmentation algorithm based on adaptive entropy vaccine operator[J]. Journal of Harbin Institute of Technology,2014, 46(1): 682-686.
[13]齊興, 蘇本躍. 基于區(qū)域塊LBP特征的人臉表情識(shí)別[J]. 安慶師范學(xué)院學(xué)報(bào):自然科學(xué)版, 2015, 21(4): 48-51.
QI Xing, SU Benyue. Human face recognition Based on the Regional Block LBP[J]. Journal of Anqing Teachers College: Natural Science Edition, 2015, 21(4): 48-51.
[14]廖海斌, 陳慶虎, 王宏勇.融合局部形變模型的魯棒性人臉識(shí)別[J]. 武漢大學(xué)學(xué)報(bào):信息科學(xué)版, 2011, 36(7): 877-881.
LIAO Haibin, CHEN Qinghu, WANG Gongyong. Robust face recognition based on local deformation model[J]. Geomatics and Information Science of Wuhan University, 2011, 36(7): 877-881.
[15]WANG Hui, TONG Lifeng, YU Lijun, et al. The research of facial features localization based on posterior probability deformable model[C]//[S.l.],International Conference on Mechatronics and Automation. IEEE, 2015: 2392-2396.
[16]MAIRAL J, BACH F, PONCE J, et al. Online dictionary learning for sparse coding[C]// International Conference on Machine Learning. [S.l.], 2009: 689-696.
[17]李都厚, 劉群, 袁偉,等.疲勞駕駛與交通事故關(guān)系[J].交通運(yùn)輸工程學(xué)報(bào), 2010, 10(2): 104-108.
LI Douhou, LIU Qun, YUAN Wei, et al. The Relationship between fatigue driving and traffic accidents[J]. Journal of traffic and transportation engineering, 2010, 10(2): 104-108.
[18]GASTALDI M, ROSSI R, GECCHELE G. Effects of Driver Task-related Fatigue on Driving Performance[J]. Procedia-social and behavioral sciences, 2014, 111: 955-964.
[19]ZHANG Q, LI B. Discriminative K-SVD for dictionary learning in face recognition[C]// IEEE Conference on Computer Vision & Pattern Recognition.[S.l.], 2010: 2691-2698.
[20]YANG M, ZHANG L, FENG X, et al. Fisher Discrimination Dictionary Learning for sparse representation[C]// International Conference on Computer Vision.[S.l.], 2011: 543-550.
本文引用格式:
王輝, 童麗峰,于立君,等.在線字典學(xué)習(xí)形變模型的疲勞狀態(tài)識(shí)別方法[J]. 哈爾濱工程大學(xué)學(xué)報(bào), 2017, 38(6): 892-897.
WANG Hui, TONG Lifeng, YU Lijun, et al. Fatigue state recognition method based on online dictionary learning deformation model[J]. Journal of Harbin Engineering University, 2017, 38(6): 892-897.
Fatigue state recognition method based on online dictionary learning deformation model
WANG Hui, TONG Lifeng, YU Lijun, BEN Haoran, YOU Jiang
(College of Automation, Harbin Engineering University, Harbin 150001, China)
Some problems such as high feature dimension, low recognition efficiency, and large amount of computation are drawbacks in existing driving fatigue state recognition algorithms. To tackle these problems, a new fatigue state recognition method based on the online dictionary learning deformation model was proposed. First, the LBP features of a key deformation region in infrared fatigue face image were applied to construct the deformation model. Second, the online dictionary learning algorithm was introduced into the deformation model, in which the over-complete base function matrix was employed instead of the whole training sample to express the test face images. The sparsity of linear combination coefficients was used to recognize the state of face. Finally, the time window and Bayesian theory were combined to optimize the recognition algorithm. Compared with traditional recognition methods, the proposed method improves the robustness and recognition rate of the system and reduces the computational complexity of the system. Therefore, the proposed method can obtain good recognition effects in an actual driving environment.
fatigue state recognition; deformation region; LBP features; deformation model; online dictionary learning; over-complete basis function matrix; time window; Bayesian theory
2016-04-30. 網(wǎng)絡(luò)出版日期:2017-04-05.
國家自然科學(xué)基金項(xiàng)目(51479042).
王輝(1976-), 女, 副教授,博士后; 于立君(1975-), 男, 副教授,博士后.
于立君,E-mail:yulijun@hrbeu.edu.cn.
10.11990/jheu.201604095
http://www.cnki.net/kcms/detail/23.1390.u.20170405.1558.010.html
TP18
A
1006-7043(2017)06-0892-06