• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      低光照環(huán)境下基于面部特征點(diǎn)的疲勞駕駛檢測(cè)技術(shù)

      2022-07-17 07:42:44謝忠志李曙生
      關(guān)鍵詞:嘴巴人臉光照

      朱 艷,謝忠志,于 雯,李曙生,張 遜

      (泰州職業(yè)技術(shù)學(xué)院 機(jī)電技術(shù)學(xué)院,泰州225300,中國(guó))

      造成交通事故的主要因素有酒后駕駛、超速駕駛、違章駕駛和疲勞駕駛等4 個(gè)方面。疲勞駕駛造成的交通事故占交通事故總數(shù)的比例超過20%,在特大交通事故中的占比超過45%。夜間開車比白天更容易疲勞,凌晨1 點(diǎn)到3 點(diǎn)是交通事故高發(fā)時(shí)間段,大多數(shù)特大交通事故發(fā)生在該時(shí)間段。因此如何有效地在低光照環(huán)境下監(jiān)控和預(yù)防疲勞駕駛一直是研究重點(diǎn)[1],對(duì)于減少交通事故具有重要的意義。

      從特征源來分,對(duì)于駕駛員疲勞狀態(tài)的檢測(cè)主要有:基于駕駛員生理參數(shù)的識(shí)別方法、基于車輛狀態(tài)信息的識(shí)別方法和基于駕駛員行為特征的識(shí)別方法。

      基于生理參數(shù)的識(shí)別方法屬于接觸式測(cè)量,通過穿戴在身上的各類傳感器獲取駕駛員腦電、心電和肌電信號(hào),從中提取出反映疲勞狀態(tài)的特征指標(biāo)[2-4]。N. S.Disa 等人[2]通過傳感器采集駕駛員肌電信號(hào)和呼吸信號(hào),采用近似熵方法對(duì)信號(hào)處理后,通過閾值判斷來檢測(cè)疲勞狀態(tài)。李江天等人[3]采用多信息融合的方式,將采集到的腦電、心電、肌電和血氧飽和度 4 種信號(hào)作為分析數(shù)據(jù)源,采用神經(jīng)網(wǎng)絡(luò)算法對(duì)駕駛員疲勞狀態(tài)進(jìn)行識(shí)別,實(shí)現(xiàn)了較好的檢測(cè)效果。此類方法具有較高的識(shí)別精度和可靠性,但是由于需要將各類傳感器穿戴在身上,從而造成駕駛?cè)藛T行動(dòng)不便,因此很難大規(guī)模推廣。

      基于車輛狀態(tài)信息的識(shí)別方法是通過角度、速度等傳感器采集車輛行駛狀況參數(shù),并從中提取出特征指標(biāo)來進(jìn)行疲勞狀態(tài)識(shí)別[5-8]。F. Friedrichs 等人[5]將采集到的方向盤轉(zhuǎn)角、車輛橫擺角、方向盤修正頻率等信息作為數(shù)據(jù)源,采用神經(jīng)網(wǎng)絡(luò)算法識(shí)別疲勞狀態(tài),識(shí)別精度達(dá)到了84%。劉軍[6]將采集到的方向盤轉(zhuǎn)角信息作為疲勞狀態(tài)檢測(cè)的數(shù)據(jù)源,提取出反映車輛運(yùn)行狀態(tài)的兩種有效指標(biāo),從而進(jìn)行疲勞狀態(tài)識(shí)別。由于車輛的運(yùn)行狀態(tài)受道路狀況和駕駛習(xí)慣等外界因素影響較大,因此該方法識(shí)別精度較低,適應(yīng)性較差。

      基于駕駛員行為特征的識(shí)別方法,主要通過圖像傳感器實(shí)時(shí)采集駕駛員面部表情、眼睛活動(dòng)、頭部運(yùn)動(dòng)和身體坐姿等行為特征來實(shí)現(xiàn)疲勞狀態(tài)識(shí)別[9-19]。W. Kim 等人[13]將采集到的嘴巴、頭部和眼睛特征數(shù)據(jù)輸入卷積神經(jīng)網(wǎng)絡(luò)模型來識(shí)別疲勞狀態(tài)。胡習(xí)之[14]從圖像中提取眼睛和面部特征點(diǎn)坐標(biāo),并通過機(jī)器學(xué)習(xí)算法進(jìn)行疲勞識(shí)別。由于三原色(red-green-blue,RGB)圖像傳感器受光線影響較大,并且疲勞特征提取和機(jī)器學(xué)習(xí)算法耗時(shí)較長(zhǎng),因此該方法實(shí)時(shí)性和適應(yīng)性較差。為適應(yīng)各種光照環(huán)境,LIU Weiwei 等人[19]基于虹膜對(duì)紅外光線反射率較高這一特性,通過紅外(infra-red, IR)攝像頭與窄帶濾光片定位虹膜,并提取眼部特征用于疲勞判斷取得了不錯(cuò)的效果,然而,窄帶濾光片幾乎濾除了所有的自然光線,無法提取其他面部疲勞特征,由于疲勞特征比較單一,因此識(shí)別精度相對(duì)較低。

      本文選用深度視覺傳感器Kinect V2 作為圖像采集設(shè)備,首先提取面部特征點(diǎn)和頭部轉(zhuǎn)角數(shù)據(jù),通過坐標(biāo)轉(zhuǎn)換將數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,然后對(duì)眼睛和嘴巴開合度進(jìn)行歸一化計(jì)算,并在此基礎(chǔ)上提取疲勞特征數(shù)據(jù)。最后采用基于數(shù)據(jù)統(tǒng)計(jì)序列的卷積神經(jīng)網(wǎng)絡(luò)算法建立檢測(cè)模型對(duì)疲勞狀態(tài)進(jìn)行識(shí)別,并通過Visual Studio 和MATLAB 混合編程的方式完成實(shí)驗(yàn)平臺(tái)的搭建,對(duì)本文方法進(jìn)行驗(yàn)證。

      1 特征點(diǎn)數(shù)據(jù)采集及標(biāo)準(zhǔn)化處理

      1.1 人臉跟蹤及面部特征點(diǎn)數(shù)據(jù)提取

      微軟提供了專門用于Kinect 傳感器的人臉跟蹤功能模塊(Face Tracking SDK),首先將改進(jìn)的人臉特征向量輸入Adaboost 分類器進(jìn)行人臉檢測(cè),之后采用AAM 算法對(duì)人臉進(jìn)行實(shí)時(shí)跟蹤并對(duì)121 個(gè)面部特征點(diǎn)進(jìn)行提取,其工作流程如圖1 所示。

      圖1 Face Tracking 人臉跟蹤流程圖

      FT_SENSOR_DATA 結(jié)構(gòu)用于存放人臉追蹤所需的輸入數(shù)據(jù),包括彩色圖像數(shù)據(jù)、深度圖像數(shù)據(jù)和頭頸骨骼坐標(biāo)數(shù)據(jù)三部分,其中的頭頸骨骼坐標(biāo)也是通過深度圖像數(shù)據(jù)計(jì)算得到。由此可知,該算法在人臉實(shí)時(shí)跟蹤中,深度圖像數(shù)據(jù)起到了至關(guān)重要的作用。相對(duì)于僅使用RGB 彩色圖像數(shù)據(jù)的人臉跟蹤算法,該算法跟蹤效果更好,跟蹤速度更快(一般可以保證在50 ms 之內(nèi)),且受光線影響較小,非常適用于低光照環(huán)境下的人臉實(shí)時(shí)跟蹤。

      圖2為Face Tracking SDK 提供的人臉跟蹤算法在低光照環(huán)境下的實(shí)時(shí)跟蹤效果。由圖2a 可見:低光照環(huán)境下的RGB 圖像清晰度非常低,基于該圖像的人臉跟蹤算法很難進(jìn)行實(shí)時(shí)跟蹤,面部特征點(diǎn)數(shù)據(jù)提取困難。圖2b 圖為基于深度圖像的人臉實(shí)時(shí)跟蹤。由于深度信息由紅外傳感器提供,受光線影響較小,所以采用深度圖像,可以在低光照環(huán)境下較好地實(shí)現(xiàn)人臉實(shí)時(shí)跟蹤,并精確地提取面部121 個(gè)特征點(diǎn)數(shù)據(jù)。

      圖2 低可見度下RGB 圖像和深度圖像人臉跟蹤效果

      疲勞識(shí)別所用到的面部特征點(diǎn)分布如圖3 所示。

      圖3 疲勞識(shí)別所用面部特征點(diǎn)分布

      由于駕駛員在疲勞狀態(tài)下眼部和嘴部特征點(diǎn)數(shù)據(jù)變化比較明顯,因此,本文選取眼部和嘴部的32 個(gè)特征點(diǎn)數(shù)據(jù)作為疲勞狀態(tài)識(shí)別的分析數(shù)據(jù)源,選取94 號(hào)特征點(diǎn)(鼻骨中下緣)作為坐標(biāo)轉(zhuǎn)換參考基準(zhǔn)點(diǎn),用于對(duì)特征數(shù)據(jù)標(biāo)準(zhǔn)化處理。

      1.2 面部轉(zhuǎn)角數(shù)據(jù)提取

      獲取人臉跟蹤結(jié)果后,除了可以得到面部特征點(diǎn)數(shù)據(jù),還可以通過Get3DPose 函數(shù)直接獲取面部轉(zhuǎn)角數(shù)據(jù),通過該數(shù)據(jù)對(duì)采集到的面部特征數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)處理。圖4 是面部轉(zhuǎn)角數(shù)據(jù)的定義:θP為低頭和抬頭角度,其角度識(shí)別范圍為-45°~ 45°,θR為左右偏頭角度,其角度識(shí)別范圍為-90°~ 90°,θS為左右搖頭角度,其角度識(shí)別范圍為-45°~ 45°。

      圖4 Kinect V2 頭部轉(zhuǎn)角識(shí)別示意圖

      1.3 面部特征點(diǎn)數(shù)據(jù)標(biāo)準(zhǔn)化處理

      在人臉跟蹤和面部特征點(diǎn)提取時(shí),由于采用的是Kinect 自身的坐標(biāo)系統(tǒng)來輸出三維跟蹤結(jié)果(x, y, z),坐標(biāo)原點(diǎn)(x= 0,y= 0,z= 0)位于kinect的紅外相機(jī)中心,X軸方向?yàn)轫樦鴎inect 照射方向的左方向,Y軸方向?yàn)轫樦鴎inect 照射方向的上方向,Z軸方向?yàn)轫樦鴎inect的照射方向,如圖5 所示。

      圖5 面部特征點(diǎn)數(shù)據(jù)坐標(biāo)系統(tǒng)

      由于Kinect 的拍攝角度和距離會(huì)隨著臉部的移動(dòng)不斷發(fā)生變化,因此實(shí)時(shí)提取到的面部特征數(shù)據(jù)也會(huì)變化,特別是在臉部轉(zhuǎn)角較大的情況下,坐標(biāo)數(shù)據(jù)差異更大。如果直接采用該坐標(biāo)系下的面部特征點(diǎn)數(shù)據(jù)進(jìn)行疲勞狀態(tài)分析,則會(huì)因?yàn)閿?shù)據(jù)沒有標(biāo)準(zhǔn)化而造成識(shí)別精度嚴(yán)重下降。

      通過坐標(biāo)變換,將采集到的面部特征數(shù)據(jù)轉(zhuǎn)換至Z軸和面部垂直且坐標(biāo)原點(diǎn)與面部等高的新坐標(biāo)系統(tǒng)中,完成特征數(shù)據(jù)的標(biāo)準(zhǔn)化處理,這樣可以最大程度的降低由于拍攝角度和拍攝距離不同而造成的數(shù)據(jù)偏差,從而大大提高識(shí)別精度。坐標(biāo)變換過程如圖6所示。

      圖6 面部特征坐標(biāo)變換過程

      坐標(biāo)變換的步驟如下。

      步驟1 選取94 號(hào)特征點(diǎn)(鼻骨中下緣)A(xA,yA,zA)作為坐標(biāo)轉(zhuǎn)換參考基準(zhǔn)點(diǎn),以點(diǎn)A為旋轉(zhuǎn)中心,以線段OA為母線,旋轉(zhuǎn)角度為θS,將Kinect 坐標(biāo)原點(diǎn)O(0, 0, 0)移動(dòng)至O1(x1, 0,z1),移動(dòng)過程中Y方向坐標(biāo)保持不變。

      A(xA,yA,zA)和O(0, 0, 0)的Euclid 距離為O1(x1, 0,z1)和O(0, 0, 0)之間的Euclid 距離d0可由式(2)得:

      式(3)和(4)聯(lián)立,得x1和z1。

      步驟2 將O1(x1, 0,z1)沿著豎直方向移動(dòng)到O2(x1,yA,z1),移動(dòng)距離為yA。移動(dòng)過程中保持X軸和Z軸坐標(biāo)不變。至此,O2(x1,yA,z1)被移動(dòng)到面部的正前方向且與面部中心(94 號(hào)特征點(diǎn))等高的位置。將O2(x1,yA,z1)作為新坐標(biāo)系的原點(diǎn)。

      步驟3 繞O2X軸旋轉(zhuǎn)θP角度,旋轉(zhuǎn)矩陣為

      步驟4 繞O2Y軸旋轉(zhuǎn)θS角度的旋轉(zhuǎn)矩陣為

      步驟5 繞O2Z軸旋轉(zhuǎn)θR角度,其相對(duì)應(yīng)的旋轉(zhuǎn)矩陣為

      步驟6 至此,生成新的坐標(biāo)系O2-X2Y2Z2,面部特征點(diǎn)數(shù)據(jù)在該坐標(biāo)系下的坐標(biāo)可由式(8)轉(zhuǎn)換得到,R0=R1(θP)R2(θS)R3(θR)。

      2 疲勞特征數(shù)據(jù)提取

      2.1 眼睛和嘴巴輪廓曲線擬合

      右眼輪廓曲線以53 號(hào)和56 號(hào)節(jié)點(diǎn)為界,可分成上下2 部分,左眼輪廓曲線以20 號(hào)和23 號(hào)節(jié)點(diǎn)為界可分成上下2 部分,嘴巴輪廓曲線以88 號(hào)和89 號(hào)節(jié)點(diǎn)為界可分成上下2 部分。上半部分輪廓曲線可由式 (9)中的F1(x)所示,下半部分輪廓曲線由式(9)中的F2(x)所示。

      分別將左眼、右眼和嘴巴的上下2 部分節(jié)點(diǎn)數(shù)據(jù)帶入F1(x)和F2(x),計(jì)算其誤差平方和,找到使誤差平方和最小的函數(shù)作為輪廓擬合曲線。圖7 中曲線1 為眼睛在閉合和睜開狀態(tài)下的輪廓擬合曲線,圖8 中曲線1為嘴巴在閉合和張開狀態(tài)下的輪廓擬合曲線。

      2.2 眼睛和嘴巴開合度歸一化計(jì)算

      駕駛員的疲勞狀態(tài)很容易通過眼睛和嘴巴的形態(tài)變化反映出來,因此如何對(duì)眼睛和嘴巴的開度大小進(jìn)行標(biāo)定至關(guān)重要。對(duì)于不同的駕駛員,眼睛和嘴巴的開合狀態(tài)差異較大,所以需要一種歸一化的指標(biāo)對(duì)眼睛和嘴巴開度大小進(jìn)行標(biāo)定,以提高檢測(cè)的準(zhǔn)確性和魯棒性。

      由式(10)計(jì)算眼睛和嘴巴開合程度,并將其作為開度大小標(biāo)定的歸一化指標(biāo)。A1為眼睛和嘴巴輪廓擬合曲線所圍成的面積,A2為其外接圓的面積大小。如圖7中曲線2 為眼睛在閉合和睜開狀態(tài)下各特征點(diǎn)的外接圓。圖8 中曲線2 為嘴巴在閉合和張開狀態(tài)下的外接圓。

      圖7 眼睛輪廓擬合曲線和外接圓

      圖8 嘴巴輪廓擬合曲線和外接圓

      眼睛開合度歸一化指標(biāo)ηNAE如圖9 所示。嘴巴開合度歸一化指標(biāo)ηNAM如圖10 所示。

      圖9 眼睛開合度歸一化指標(biāo)ηNAE 曲線圖

      由圖9 可知:眼睛在睜開狀態(tài)和閉合狀態(tài)下的ηNAE值差別明顯,眼睛在睜開狀態(tài)下ηNAE的值大于0.25,而在完全閉合狀態(tài)下ηNAE的值小于0.2。

      由圖10 可知:嘴巴在張開狀態(tài)和閉合狀態(tài)下的ηNAM值差別比較大,閉合狀態(tài)下的ηNAM值在0.3上下波動(dòng),而完全張開狀態(tài)下的ηNAM值均大于0.55。因此,選取ηNAE和ηNAM作為眼睛和嘴巴開度大小標(biāo)定的歸一化指標(biāo),具有較高的識(shí)別精度和較好的魯棒性。

      圖10 嘴巴開合度歸一化指標(biāo)ηNAM 曲線圖

      2.3 疲勞特征數(shù)據(jù)提取

      1)眨眼頻率fb。根據(jù)數(shù)據(jù)統(tǒng)計(jì)發(fā)現(xiàn),正常精神狀態(tài)下人的眨眼頻率為12~15 次/min,而在疲勞狀態(tài)下人的眨眼頻率會(huì)大大降低,在嚴(yán)重疲勞狀態(tài)下眨眼頻率會(huì)小于6 次/min。選取ηNAE= 0.25 作為眨眼識(shí)別閾值,由于Kinect 傳感器的幀率大約為30 幀/s,非疲勞狀態(tài)下,一次完整眨眼過程中ηNAE≤ 0.25 的持續(xù)幀數(shù)為5~8 幀,因此,如果連續(xù)5 幀以上的圖像ηNAE≤0.25,則判定完成了一次眨眼過程。將30 s 作為一個(gè)統(tǒng)計(jì)時(shí)長(zhǎng)Δt,計(jì)算眨眼頻率fb。

      2)眨眼平均時(shí)長(zhǎng)tb。根據(jù)統(tǒng)計(jì)發(fā)現(xiàn),正常精神狀況下人的眼睛從全部睜開到全部閉合完成一次眨眼過程的時(shí)間為0.25 ~0.35 s。但是在疲勞狀態(tài)下,完成一次眨眼的時(shí)長(zhǎng)要比正常精神狀態(tài)下的眨眼時(shí)長(zhǎng)大的多。眨眼平均時(shí)長(zhǎng)tb由式(11)計(jì)算,其中:ns為一個(gè)統(tǒng)計(jì)時(shí)長(zhǎng)內(nèi)眨眼過程持續(xù)圖像幀數(shù),nf為一個(gè)統(tǒng)計(jì)時(shí)長(zhǎng)內(nèi)的圖像幀數(shù),N表示一個(gè)統(tǒng)計(jì)時(shí)長(zhǎng)Δt 內(nèi)眨眼的次數(shù)。

      3)眼睛閉合總時(shí)長(zhǎng)tc。在正常精神狀態(tài)下,除了眨眼過程外人的眼睛都處于最大張開狀態(tài),而在疲勞狀態(tài)下人的眼睛會(huì)較長(zhǎng)時(shí)間處于完全閉合或半閉合狀態(tài)。選取ηNAE= 0.2 作為眼睛閉合狀態(tài)識(shí)別閾值,計(jì)算一個(gè)統(tǒng)計(jì)時(shí)長(zhǎng)Δt內(nèi)所有ηNAE≤0.2 的圖像總幀數(shù),從而得到眼睛閉合總時(shí)長(zhǎng)tc。

      4)打哈欠頻率fy。但在說話或吃東西時(shí),嘴巴也會(huì)表現(xiàn)出和打呵欠類似的特征,因此需要將它們區(qū)分開來。研究發(fā)現(xiàn),打哈欠時(shí)人的嘴巴打開的程度比較大,并且持續(xù)的時(shí)間相對(duì)較長(zhǎng)。選取ηNAM= 0.45 作為打呵欠狀態(tài)識(shí)別閾值,如果連續(xù)20 幀以上的圖像ηNAM≥0.45,則判定完成一次打哈欠過程,計(jì)算出打哈欠的頻率fy。

      5)打哈欠總時(shí)長(zhǎng)ty。在疲勞狀態(tài)下,打哈欠時(shí)嘴巴會(huì)張開到最大狀態(tài),其總時(shí)長(zhǎng)要遠(yuǎn)遠(yuǎn)大于其他狀態(tài)。選取ηNAM= 0.5 作為嘴巴最大張開狀態(tài)閾值。計(jì)算一個(gè)統(tǒng)計(jì)時(shí)長(zhǎng)Δt內(nèi)所有ηNAM≥0.5 的圖像總幀數(shù),從而計(jì)算得到嘴巴打哈欠總時(shí)長(zhǎng)ty。

      6)低抬頭頻率fh。駕駛員在疲勞狀態(tài)下,會(huì)出現(xiàn)頻繁低抬頭或長(zhǎng)時(shí)間低頭現(xiàn)象[20]。通過Kinect 人臉跟蹤功能模塊(Face Tracking SDK)獲取的面部轉(zhuǎn)角參數(shù)中的θP來確定低頭角度。實(shí)驗(yàn)研究發(fā)現(xiàn)θP≤30°時(shí),即可判定駕駛員處于低頭狀態(tài),計(jì)算一個(gè)統(tǒng)計(jì)時(shí)長(zhǎng)Δt內(nèi)的低頭頻率fh,如果低頭頻率大于8 min-1,則判定駕駛員已經(jīng)處于疲勞狀態(tài)。

      本文將疲勞狀態(tài)劃分為不疲勞、輕度疲勞、中度疲勞和嚴(yán)重疲勞4 個(gè)等級(jí),疲勞等級(jí)和識(shí)別特征數(shù)據(jù)之間的關(guān)系如表1 所示。

      表1 疲勞等級(jí)劃分和識(shí)別特征數(shù)據(jù)之間的關(guān)系

      3 疲勞狀態(tài)識(shí)別算法

      3.1 卷積神經(jīng)網(wǎng)絡(luò)疲勞識(shí)別模型的建立

      由表1可知,對(duì)眨眼頻率、眨眼平均時(shí)長(zhǎng)、眼睛閉合總時(shí)長(zhǎng)、打哈欠頻率、打哈欠總時(shí)長(zhǎng)和低抬頭頻率6個(gè)疲勞識(shí)別特征數(shù)據(jù)進(jìn)行閾值分析可以對(duì)駕駛員疲勞狀態(tài)進(jìn)行識(shí)別,由于閾值分析算法簡(jiǎn)單,因此識(shí)別速度快,對(duì)設(shè)備性能要求不高,系統(tǒng)實(shí)時(shí)性較好,但是由于不具備非線性處理和自學(xué)習(xí)能力,因此識(shí)別精度不高,魯棒性差。本文采用基于數(shù)據(jù)統(tǒng)計(jì)序列的卷積神經(jīng)網(wǎng)絡(luò)算法構(gòu)建駕駛員疲勞狀態(tài)識(shí)別模型,算法內(nèi)部采用多權(quán)值的加權(quán)運(yùn)算,具有更好的魯棒性和適應(yīng)性[21-22]。選取統(tǒng)計(jì)時(shí)長(zhǎng) Δt= 30 s,計(jì)算6 個(gè)識(shí)別特征數(shù)據(jù)的大小,將連續(xù)6 Δt(3 min)作為一個(gè)周期,構(gòu)建66 樣本數(shù)據(jù)如式(12)所示,將其作為卷積神經(jīng)網(wǎng)絡(luò)識(shí)別模型的輸入。

      由于樣本數(shù)據(jù)維度較小,因此構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)疲勞識(shí)別模型采用2 層結(jié)構(gòu),如圖11 所示。

      圖11 卷積神經(jīng)網(wǎng)絡(luò)疲勞識(shí)別模型結(jié)構(gòu)

      第1 個(gè)卷積層大小為3×3×4,用于對(duì)疲勞特征進(jìn)行初步提取。第2 個(gè)卷積層大小為3×3×8,用于對(duì)疲勞特征進(jìn)行精確提取。中間經(jīng)過2 個(gè)2×2×1 的池化層

      連接,可以有效降低特征維度,提高運(yùn)算效率。采用1×1×4 的全連接層將權(quán)重矩陣與輸入向量相乘再加上偏執(zhí),得到分類的得分,并將“分布式特征表示”映射到樣本標(biāo)記空間。最后采用Softmax 輸出層將4 個(gè)疲勞狀態(tài)的得分歸一化為(0,1)的概率,將概率最大的確定為當(dāng)前疲勞等級(jí)。

      3.2 疲勞狀態(tài)識(shí)別系統(tǒng)的實(shí)現(xiàn)

      安裝微軟的Kinect for Windows SDK 和Kinect for Windows Developer Toolkit,配置軟件Visual Studio 中的include 和lib 的路徑即可實(shí)現(xiàn)對(duì)Kinect V2 深度視覺傳感器的開發(fā)。卷積神經(jīng)網(wǎng)絡(luò)算法通過MATLAB軟件完成,基于其數(shù)據(jù)處理能力和復(fù)雜模型求解能力,可以完成疲勞狀態(tài)識(shí)別模型的構(gòu)建。

      圖12為由MATLAB 程序?qū)崿F(xiàn)的卷積神經(jīng)網(wǎng)絡(luò)疲勞識(shí)別模型訓(xùn)練結(jié)果。

      圖12 卷積神經(jīng)網(wǎng)絡(luò)疲勞識(shí)別模型訓(xùn)練過程

      由圖12 可知:當(dāng)訓(xùn)練次數(shù)在90 次左右時(shí),各隱含層參數(shù)基本收斂,訓(xùn)練準(zhǔn)確率達(dá)到100%。這表明了該卷積神經(jīng)網(wǎng)絡(luò)模型具有良好的學(xué)習(xí)能力。

      采用Visual Studio 和MATLAB 混合編程的方式實(shí)現(xiàn)疲勞識(shí)別系統(tǒng)實(shí)驗(yàn)平臺(tái)。Visual Studio 軟件安裝windows 10 SDK,對(duì)Visual Studio 和MATLAB 進(jìn)行路徑和屬性配置,即可實(shí)現(xiàn)2 個(gè)軟件之間的交互編程。

      4 實(shí)驗(yàn)結(jié)果和分析

      參加實(shí)驗(yàn)的人員在駕駛模擬器中進(jìn)行3~6 h 的連續(xù)駕駛,由視頻記錄下在不疲勞、輕度疲勞、中度疲勞和嚴(yán)重疲勞4 個(gè)狀態(tài)下駕駛?cè)说男袨?。選取20 個(gè)不同性別、身高、外貌、膚色的駕駛員作為實(shí)驗(yàn)對(duì)象,在不同光照條件下分別采集2 h 駕駛視頻,實(shí)驗(yàn)光照環(huán)境如圖13 所示。實(shí)驗(yàn)對(duì)象的年齡分布、男女比例以及不同疲勞狀態(tài)下的模擬視頻時(shí)長(zhǎng)如表2 所示。

      表2 實(shí)驗(yàn)對(duì)象年齡、性別、不同疲勞狀態(tài)下的模擬時(shí)長(zhǎng)

      圖13 疲勞駕駛實(shí)驗(yàn)所處的光照環(huán)境圖

      將其中10 人的駕駛視頻構(gòu)建得到的200 個(gè)樣本作為訓(xùn)練樣本,輸入到卷積神經(jīng)網(wǎng)絡(luò)疲勞識(shí)別模型(convolutional neural network,CNN)進(jìn)行學(xué)習(xí)。將另外10 人的駕駛視頻構(gòu)建得到的200 個(gè)樣本作為測(cè)試樣本,輸入到卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行疲勞識(shí)別。并將相同的實(shí)驗(yàn)數(shù)據(jù)輸入閾值分析(threshold value analysis,TVA)、支持向量機(jī)(support vector machine,SVM)、強(qiáng)分離器(Ada-Boost)、決策樹(decision tree,DT)和K 近鄰(k-nearest neighbor,KNN)算法模型進(jìn)行識(shí)別[23-25]。實(shí)驗(yàn)結(jié)果如表3 所示。

      表3 正常光照和低光照環(huán)境下各算法模型識(shí)別結(jié)果

      可以發(fā)現(xiàn),閾值分析方法具有最快的識(shí)別速度,但其識(shí)別精度比較低,僅有65%左右。本文設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)識(shí)別算法(CNN)在正常光照和低光照環(huán)境下的識(shí)別精度都超過了90%,并且識(shí)別時(shí)間僅130 ms左右,無論識(shí)別精度還是識(shí)別速度均優(yōu)于其它幾種機(jī)器學(xué)習(xí)識(shí)別模型。

      5 結(jié) 語

      本文采用深度視覺傳感器Kinect V2 作為圖像獲取設(shè)備,采用基于數(shù)據(jù)統(tǒng)計(jì)序列的卷積神經(jīng)網(wǎng)絡(luò)算法建立識(shí)別模型,并構(gòu)建疲勞狀態(tài)檢測(cè)實(shí)驗(yàn)平臺(tái),最后在正常光照和低光照環(huán)境下進(jìn)行了實(shí)驗(yàn)。結(jié)論如下:

      1) 采用深度視覺傳感器Kinect V2 進(jìn)行人臉跟蹤和面部特征數(shù)據(jù)提取,不論在正常光照還是低光照環(huán)境下,都可以實(shí)現(xiàn)實(shí)時(shí)精確地跟蹤,相比于RGB 視覺傳感器,具有更好的適應(yīng)性。

      2) 基于最小二乘法對(duì)眼睛和嘴巴輪廓進(jìn)行曲線擬合,并將擬合曲線和外接圓的面積比作為眼睛和嘴巴開合度歸一化指標(biāo),實(shí)驗(yàn)發(fā)現(xiàn),相對(duì)于其它特征指標(biāo),具有更好的魯棒性。

      3) 采用基于數(shù)據(jù)統(tǒng)計(jì)序列的卷積神經(jīng)網(wǎng)絡(luò)算法建立識(shí)別模型,相對(duì)于其它識(shí)別算法,具有更高的識(shí)別精度和更快的識(shí)別速度。

      4) 采用Visual Studio 和MATLAB 混合編程的方式實(shí)現(xiàn)駕駛員疲勞狀態(tài)檢測(cè)實(shí)驗(yàn)平臺(tái)構(gòu)建,系統(tǒng)開發(fā)方便靈活,運(yùn)行可靠。

      如何將系統(tǒng)更加小型化將是今后研究的重點(diǎn)。

      猜你喜歡
      嘴巴人臉光照
      節(jié)能環(huán)保 光照萬家(公益宣傳)
      有特點(diǎn)的人臉
      節(jié)能環(huán)保光照萬家(公益宣傳)
      嘴巴嘟嘟
      嘴巴不見了
      春光照瑤鄉(xiāng)
      好好的嘴巴
      文苑(2018年22期)2018-11-19 02:54:32
      三國(guó)漫——人臉解鎖
      馬面部與人臉相似度驚人
      我是“漏嘴巴”
      泸定县| 枣阳市| 池州市| 偃师市| 平南县| 台山市| 静宁县| 隆昌县| 淅川县| 铜山县| 辽源市| 新竹县| 梧州市| 眉山市| 仪征市| 江川县| 密山市| 资源县| 南部县| 江都市| 商洛市| 邹平县| 阿荣旗| 根河市| 县级市| 含山县| 鲁山县| 广宗县| 安国市| 许昌县| 博兴县| 开平市| 荔波县| 平果县| 钟山县| 金山区| 温州市| 西畴县| 百色市| 金山区| 剑河县|