劉延偉,黃志明,,高博麟,鐘 薇,陳嘉星,劉家熙
(1. 廣東工業(yè)大學(xué) 機電工程學(xué)院,廣州510006,中國;2. 清華大學(xué),汽車安全與節(jié)能國家重點實驗室,北京100084,中國;3. 國家智能網(wǎng)聯(lián)汽車創(chuàng)新中心,北京100084,中國)
自動駕駛汽車涉及的關(guān)鍵技術(shù)包括感知認知、決策規(guī)劃和控制執(zhí)行等環(huán)節(jié)。其中,實現(xiàn)對前方車輛的行為識別是自動駕駛環(huán)境感知認知的重要內(nèi)容,也是自動駕駛決策控制的重要基礎(chǔ)。
當(dāng)前關(guān)于車輛行為識別研究的主要路徑為:通過感知前方車輛目標的時空位置,將感知數(shù)據(jù)投影于鳥瞰視角(bird's eye view,BEV)下,基于大地坐標系下的歷史軌跡信息對前車進行行為識別,進而開展自車后續(xù)的決策規(guī)劃控制。然而,在將目標的感知數(shù)據(jù)轉(zhuǎn)化為大地坐標系下的歷史軌跡過程中,容易引入不容忽視的誤差造成數(shù)據(jù)質(zhì)量下降。因此直接利用車載視角下的視頻信息進行行為識別,將省去目標軌跡在大地坐標系下的轉(zhuǎn)換環(huán)節(jié),改善坐標轉(zhuǎn)換過程中數(shù)據(jù)質(zhì)量下降以及車輛行為識別的實時性問題,更有利于自動駕駛后續(xù)的決策規(guī)劃控制。因而開發(fā)車載視角下基于視頻信息的車輛行為識別具有重要意義。
目前,在車輛行為識別領(lǐng)域,眾多學(xué)者已經(jīng)進行一系列的研究,主要可分為傳統(tǒng)的機器學(xué)習(xí)和深度學(xué)習(xí)2 類。其中,基于傳統(tǒng)的機器學(xué)習(xí)方法有:隱Markov 模型(hidden Markov model,HMM)、 支持向量機(support vector machine,SVM)、Bayes 網(wǎng)絡(luò)(Bayesian network,BN)等。王相海等[1]對交通視頻車輛軌跡時序特征下的車輛行駛狀態(tài),提出一種基于HMM 的車輛行駛狀態(tài)實時判別方法,通過實時獲取車輛行駛軌跡與相應(yīng)模型的匹配,從而實現(xiàn)對車輛行駛狀態(tài)的實時判別。還有其他學(xué)者對HMM 進行了改進,有“層次HMM”(hierarchical HMM, HHMM)[2]、HMM-SVM[3]等模型,進一步提高了識別精度,但現(xiàn)有基于HMM 的車輛行為識別方法大多假設(shè)車輛未來的狀態(tài)獨立于一切過去的狀態(tài),忽略了上下文特征信息之間的關(guān)聯(lián)性,在車輛行為識別方面面臨瓶頸。黃慧玲等[4]提出了一種基于梯度方向直方圖特征和支持向量機的車輛行為識別方法,以識別前方車輛的行為,并結(jié)合Kalman 濾波進行車輛跟蹤。黨彤[5]基于節(jié)點序優(yōu)化建立了多特征Bayes 行為分類模型,計算不同以頻繁變道、違章變道等為代表的車輛異常行為概率。
近年來,深度學(xué)習(xí)在各個領(lǐng)域都取得了長足的進步,解決了許多傳統(tǒng)方法無法解決的難題。衛(wèi)星等[6]提出一種基于長短時記憶網(wǎng)絡(luò)(long short term memory,LSTM)的車輛行為動態(tài)識別深度學(xué)習(xí)算法,引入雙卷積網(wǎng)絡(luò)并行對視頻圖像幀的進行特征提取,利用LSTM 網(wǎng)絡(luò)對提取出的特征信息進行序列建模,最后輸出的預(yù)測得分來判斷出車輛行為類別。季學(xué)武等[7]設(shè)計了一種基于長短時記憶網(wǎng)絡(luò)的駕駛意圖識別模塊及車輛軌跡預(yù)測模塊,利用Softmax 函數(shù)計算出駕駛意圖分別為向左換道、直線行駛、向右換道的概率。蔡英鳳等[8]提出了一種SLSTMAT(Social-LSTMAttention)算法,創(chuàng)新性地引入目標車輛社交特征并通過卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)提取,建立了基于深度學(xué)習(xí)的車輛行為識別模型,應(yīng)用注意力機制來捕捉行為時窗中的多時步信息,實現(xiàn)了周邊車輛行為準確識別。除LSTM 網(wǎng)絡(luò)外, MOU Luntian等[9]基于時空卷積神經(jīng)網(wǎng)絡(luò)(spatial CNN,SCNN)模型,提出了一種對小樣本數(shù)據(jù)集具有較高魯棒性的車輛行為結(jié)構(gòu)分析模型,利用遷移學(xué)習(xí)來學(xué)習(xí)得到一個視覺特征提取器,利用金字塔架構(gòu)和再加權(quán),使DNN 模型能夠更好地處理結(jié)構(gòu)化標簽中的細粒度信息。
但是,上述的車輛行為方法大多基于鳥瞰視角下(BEV)的歷史軌跡進行行為識別,所用數(shù)據(jù)主要來源于無人機視角采集到車輛歷史軌跡信息,或者路口高位定點的路測設(shè)備采集的道路交通數(shù)據(jù)(如HighD[10]、NGSIM、Mirror-Traffic 數(shù)據(jù)集),這不利于基于自車坐標系下本車后續(xù)的決策規(guī)劃控制,且上述方法大多需要在車輛的完整行為結(jié)束后才能進行識別。而目前公開的車載視角下的車輛數(shù)據(jù)集,仍主要用于目標檢測、語義分割等其它任務(wù)(如KITTI[11]、BDD100K[12]、DAIR-V2X 數(shù)據(jù)集),缺乏對行為信息的標注,這極大地限制了車載視角下的行為識別的研究。
不同于以往車輛行為識別方法主要基于BEV 視角下的車輛歷史自然軌跡信息做行為識別研究,本文提出了一種車載視角下的基于視頻的前車行為識別方法。針對缺乏車輛行為數(shù)據(jù)集的問題,提出了一種基于車載視頻信息的車輛行為數(shù)據(jù)集標注方法,構(gòu)建了智能車車載視角下的行為識別數(shù)據(jù)集。搭建了以SlowFast 網(wǎng)絡(luò)為主體的行為識別算法模型,在行為識別算法網(wǎng)絡(luò)中引入非局部(non-local)操作模塊、用焦點損失(focal loss)函數(shù)來替換原有的交叉熵損失函數(shù),以便提高行為認知算法的識別精度。
基于視頻的車載視角下的行為識別屬于視頻理解任務(wù)中的時空動作檢測,時空動作檢測不僅需要識別出行為動作出現(xiàn)的區(qū)間和對應(yīng)的類別,還要在視頻幀中定位出車輛目標的邊界框。
SlowFast 網(wǎng)絡(luò)是由Facebook FAIR 何愷明團隊[13]提出的用于視頻識別的高效網(wǎng)絡(luò),該網(wǎng)絡(luò)通過2 條路徑以不同的幀率(快和慢)進行視頻識別,其中:
1) 慢速路徑,以低幀率運行,刷新速度較慢,用于捕捉圖像或稀疏幀提供空間語義信息,約占整體計算量的80%;
2) 快速路徑,以高幀率運行,以較好的時間分辨率捕捉時間運動信息。
通過降低通道數(shù)量,快速路徑分支可以變成輕量的網(wǎng)絡(luò),僅占整體計算量的20%,同時也能夠?qū)W到視頻中有用的時域信息。具體的SlowFast 網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,其中:C為通道數(shù)量,H為高,W為寬。
圖1 SlowFast 網(wǎng)絡(luò)模型結(jié)構(gòu)圖
慢速路徑可以是任意在視頻片段上做時空卷積的模型。慢速路徑在對視頻幀進行采樣時,時間步長τ較大,設(shè)慢速路徑采樣的幀數(shù)是T,則輸入到模型中的視頻片段長度為
快速路徑的時間步長τ/α較小,其中,α表示是慢速路徑和快速路徑之間幀率比,取值大于1。由于快慢速路徑對同一個視頻上進行操作,因此快速路徑采樣到的幀數(shù)為αT。快速路徑是一個與慢速路徑相似的卷積網(wǎng)絡(luò),但通道數(shù)只有慢速路徑的β倍,其中β<1 。
SlowFast 通過多次的橫向連接來融合雙流分支的特征信息。最后, 將2 條路徑的輸出進行全局平均池化,以池化后的慢速路徑特征向量最后一維與快速路徑特征向量的第一維前后拼接在一起后作為全連接分類器層的輸入。
在二維卷積神經(jīng)網(wǎng)絡(luò)(CNN)中,卷積操作應(yīng)用于2D 的特征圖,僅能從空間維度計算特征,如圖2 所示。而當(dāng)進行時空卷積時,其卷積操作方式見圖3,模型的輸入是多個連續(xù)幀組成的視頻片段,通過運用3D 卷積核進行操作,卷積層中的特征圖都會與上一層中的多個相鄰幀相連,從而可以捕獲運動信息。
圖2 二維卷積操作示意圖
圖3 三維卷積操作示意圖
由于3D 卷積比2D 卷積多了一個時間維度,純3D卷積網(wǎng)絡(luò)(C3D)參數(shù)更多,更難以訓(xùn)練。且從頭訓(xùn)練純3D 卷積網(wǎng)絡(luò),不能很好利用已經(jīng)成功預(yù)訓(xùn)練好的圖像分類模型。Carreira 等[14]提出I3D 模型,與C3D 不同,I3D 中的3D 網(wǎng)絡(luò)由圖像分類的2D 網(wǎng)絡(luò)“膨脹”(inflate)得來(即由二維的卷積核復(fù)制三份堆疊形成三維的卷積核),從而可以充分利用已有的圖像分類模型,I3D 的性能全面超越C3D,自此由2D 網(wǎng)絡(luò)“膨脹”而來的3D卷積網(wǎng)絡(luò)逐漸成為主流。
數(shù)據(jù)集推動車輛行為認知視覺任務(wù)的發(fā)展,要實現(xiàn)智能車車載視角下的行為識別的首要任務(wù)就是構(gòu)建車載視角下車輛行為時空標注的數(shù)據(jù)集。
2.1.1 車輛行為分析
通過觀察大量的真實交通環(huán)境場景,本文遵循3個原則來定義數(shù)據(jù)集的行為標簽:一般性、原子性和相關(guān)性。其中:一般性指的是需要標注車輛在日常行駛場景中的一般動作,而不是特定環(huán)境中的特定活動;原子性指的是車輛行為動作類別需要具有清晰的視覺特征,每個行為類別之間應(yīng)該相互獨立;相關(guān)性指前方車輛所發(fā)生行為會為自車的決策規(guī)劃造成一定的影響。最終本文定義出來5 類行為進行標注:左變道、右變道、左轉(zhuǎn)彎、右轉(zhuǎn)彎、橫行穿越。
2.1.2數(shù)據(jù)來源
本研究所使用的數(shù)據(jù)來源于車載智能攝像頭采集的真實交通場景數(shù)據(jù)。這些數(shù)據(jù)是從廣東和福建省內(nèi)多個城市采集的,包含了不同的天氣狀況(晴天、陰天和雨天)以及在不同時間(白天和夜間)下的情況。采集場景涵蓋了典型的高速路況和城市路況等交通場景。共采集了1 244 個時長為3 min 的高清視頻,幀率為30 s-1,總計數(shù)據(jù)量達62.2 h。為了便于后續(xù)的分析和處理,從原始視頻中截取了車輛行為片段,并將每個片段的時長統(tǒng)一為15 s,共450 幀。
2.1.3 標注規(guī)則
對有行為發(fā)生的關(guān)鍵幀,以3幀/s的頻率進行標注,如圖4 所示。
圖4 關(guān)鍵幀標注示意圖
以變道行為為例,從變道壓線前的車身姿態(tài)發(fā)生明顯變化處前約0.5 s 處開始標注,完成變道后不壓線且車身位于同一車道內(nèi)以車身姿態(tài)回正后0.5 s 作為結(jié)束標注的時刻。標注范圍為本車道、相鄰、相隔車道正前方第一排完整、無遮擋且能持續(xù)完整行為過程的車輛目標。標注內(nèi)容包括圖像幀中的車輛邊界框、行為類別、車輛ID,前后關(guān)鍵幀的車輛目標需要進行跟蹤匹配。車輛目標檢測框貼合度為3 像素,檢測框的準確率為98%的框準。需要標注的詳細信息(視頻名字2501、車輛ID 為1)如表1 所示,(X1,Y1)表示邊界框的左上角,(X2,Y2)表示邊界框的右下角。
表1 標注信息示例
2.2.1 數(shù)據(jù)集統(tǒng)計分析
基于車載視角的車輛行為數(shù)據(jù)集經(jīng)過標注,共包含3 110 個15 s 的車輛行為視頻片段,72 435 張關(guān)鍵圖像幀,行為標注量達6 239 個,車輛邊界框標注共100 463 個。各類別標注數(shù)量分布如圖5 所示。
圖5 數(shù)據(jù)集行為類別數(shù)量統(tǒng)計
車輛行為數(shù)據(jù)集訓(xùn)練、測試集在車輛行為視頻片段級別被劃分,因此一個15 s 的車輛行為視頻片段中的所有行為只會出現(xiàn)在訓(xùn)練集或測試集中,3 110 個車輛行為視頻片段分為2 488 個訓(xùn)練、622 個測試,訓(xùn)練集和測試集大致為4:1。
2.2.2 數(shù)據(jù)集特點
1) 多目標標注。當(dāng)一個視頻里有多個車輛目標同時執(zhí)行不同的行為時,每個行為都會進行標注,這使得數(shù)據(jù)集的復(fù)雜度增加。
2) 只對關(guān)鍵幀進行標注。同一車輛行為在車輛行駛過程中會持續(xù)數(shù)秒時間,只對關(guān)鍵幀進行標注既保證了行為的連貫性,也大大減少了標注的工作量,提高了標注效率,降低標注成本。
3) 標注內(nèi)容豐富。不同于基于圖片的車輛目標檢測數(shù)據(jù)集,車載視角下車輛行為識別數(shù)據(jù)集的標注基于時空信息進行,一個完整的行為需要在多幀關(guān)鍵幀上進行聯(lián)合標注,覆蓋從行為開始時刻到結(jié)束時刻的所有關(guān)鍵幀;同時需要標注車輛的ID,以便在前后多幀中進行匹配跟蹤。
車輛行為識別算法框架如圖6 所示。將車輛行為視頻解幀為視頻幀序列,依據(jù)SlowFast 行為識別模型參數(shù)選取快、慢速路徑的關(guān)鍵幀,然后使用時空卷積模型提取視頻序列的時空特征,將快慢速路徑的時空特征經(jīng)過全局平均池化后進行融合拼接,作為全連接層的輸入,最終得到視頻中車輛的行為識別結(jié)果。
圖6 車載視角行為識別算法框架
SlowFast 模型的思想是通用的,可以靈活使用不同主干網(wǎng)絡(luò)進行實現(xiàn)。表2 所示是本文SlowFast 的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計,采用“膨脹”而來的3D ResNet-50[15]作為主干網(wǎng)絡(luò)。
表2 SlowFast 網(wǎng)絡(luò)參數(shù)設(shè)計
3D ResNet 是一種深度神經(jīng)網(wǎng)絡(luò)架構(gòu),3D ResNet直接采用2D ResNet 的網(wǎng)絡(luò)架構(gòu)設(shè)計,通過用3D 卷積層代替2D 卷積層來擴展ResNet 塊,3D 卷積層可以從輸入視頻中捕獲空間和時間特征。內(nèi)核的維度由{T×S2,C}表示,T表示幀數(shù)量、S2表示特征圖尺寸、C表示通道數(shù)。此處速度比例是α=8,通道比例是β=1/8,時間步長τ=16,即輸入連續(xù)的64 幀的視頻片段,慢速路徑采樣4 幀關(guān)鍵幀,快速路徑采樣32幀關(guān)鍵幀。
在時空行為檢測行為分類任務(wù)中,通常采用的是交叉熵損失(cross entropy loss)作為多標簽分類的損失函數(shù),交叉熵損失函數(shù)表示為
式中,pt是模型給出的預(yù)測概率。但交叉熵損失函數(shù)沒有考慮車輛行為識別數(shù)據(jù)集類別樣本不均衡的問題,直接運用原始的交叉熵損失函數(shù),負樣本所占比例會非常大,成為主導(dǎo)梯度的優(yōu)化方向,從而導(dǎo)致模型訓(xùn)練的準確率較低。
焦點損失函數(shù)Focal Loss[16]在交叉熵損失函數(shù)的基礎(chǔ)上引入加權(quán)因子θ,可以在訓(xùn)練中讓小數(shù)量的目標類別增大權(quán)重,讓大數(shù)量的目標類別減小權(quán)重;通過引入γ聚焦參數(shù),讓分類錯誤的樣本增加權(quán)重,從而使模型在訓(xùn)練時更專注于困難分類的類別樣本,在整體上提高行為識別算法的識別準確率。Focal Loss 的函數(shù)表達式為
式中:θ是加權(quán)因子,其取值范圍在0~1,θ和(1-θ)是別用于控制正負樣本的比例;γ是聚焦參數(shù),其取值范圍為[0, +∞),γ越大,對易分類樣本的懲罰力度就越大。
為了提高模型對視頻長距離時空依賴性信息的提取能力,提高識別的準確率,在網(wǎng)絡(luò)模型結(jié)構(gòu)中引入Non-local[17]自注意力機制模塊。
在深度學(xué)習(xí)網(wǎng)絡(luò)中,卷積操作和循環(huán)神經(jīng)元操作都是在本地局部操作,是一個建立處理局部范圍信息的過程,通常需要堆疊許多層才能完成長距離的時空依賴關(guān)系的建模,然而過多的層數(shù)會帶來計算效率低、優(yōu)化困難的缺點。而Non-local 模塊把非局部感受野的信息提取操作做成一個簡單且通用的神經(jīng)網(wǎng)絡(luò)模塊。它的提出是基于計算機視覺中的非局部均值方法,非局部操作可以將輸入特征所有位置的信息進行加權(quán)求和,這些位置可以是基于空間域、時間域、甚至是頻域,可以快速捕獲長距離的時空依賴關(guān)系,這方便了端到端的視頻分析。Non-local 操作的定義為
式中:i是輸出位置的索引,j是需要枚舉的所有可能位置。f作為計算i和j相關(guān)因子的函數(shù),g作為輸入信號的表征。響應(yīng)通過C(x)進行了歸一化。因此,Nonlocal 操作可以將所有位置考慮到,獲取長程依賴,并應(yīng)用在各個尺寸的輸入上,輸出相同的尺寸。
結(jié)合Non-local 的公式,可以將Non-local 模塊的形式定義為
式中:xi是輸入,zi是輸出,Wz是權(quán)重參數(shù),yi是nonlocal 計算公式,Non-local 操作可以很好地使用矩陣進行計算。
車載視角下的行為識別算法基于Python3 語言開發(fā),實驗使用的云服務(wù)器基于Ubuntu 20.04 操作系統(tǒng)。硬件環(huán)境CPU 為Intel(R) Xeon(R) Platinum 8358P CPU@ 2.60 GHz;GPU 配備的是2 塊GeForce RTX 3 090,顯存24 GB。軟件環(huán)境使用的深度學(xué)習(xí)框架是Pytorch 1.10.0,CUDA 10.3。
為了驗證本文提出的車載視角下行為識別算法的有效性,從以下3 個方面開展網(wǎng)絡(luò)模型對比實驗:
1) 與原SlowFast 模型對比,使用焦點損失函數(shù)替換原有的交叉熵損失函數(shù)前后,模型的識別效果。
2) 對比Non-local 模塊加入SlowFast 網(wǎng)絡(luò)前后,模型的識別效果。
3) 對比損失函數(shù)重新設(shè)計、加入Non-local 模塊前后,模型的整體識別效果。
本文的模型訓(xùn)練采用隨機梯度下降優(yōu)化方法(stochastic gradient descent, SGD)來優(yōu)化網(wǎng)絡(luò)模型中的參數(shù),數(shù)據(jù)集訓(xùn)練輪數(shù)(epoch)設(shè)置為50,動量參數(shù)(momentum)取值為0.9,批量大小(batch size)設(shè)為8,權(quán)重衰減(weight decay)設(shè)置為10-5,學(xué)習(xí)率初始化設(shè)置為0.015,輸入到網(wǎng)絡(luò)模型中的每個關(guān)鍵幀都降采樣到224×224 大小。
本實驗將車輛行為數(shù)據(jù)集劃分為訓(xùn)練集和測試集,大致為4:1。將劃分出來的訓(xùn)練集用于訓(xùn)練模型,將訓(xùn)練好的模型在測試集上進行測試,識別測試集視頻中的車輛行為。具體的測試集各類別統(tǒng)計數(shù)量見圖7。
圖7 測試集行為類別數(shù)量統(tǒng)計
本文采用總體準確率-Accuracy (被識別為正確的行為個數(shù),占測試集的總行為數(shù)的比例)、精確率-Precision(被識別為正確的某類行為個數(shù),占算法判定為該類行為個數(shù)的比例)、召回率-Recall(識別正確的某類行為個數(shù)占測試集中該類行為標注個數(shù)的比例)作為評價指標。
車輛行為識別算法在測試集上的結(jié)果如表3 所示。
表3 總體正確率-行為識別結(jié)果
從表3 可知:引入Non-local 模塊和使用焦點損失函數(shù)替換原有的交叉熵損失函數(shù),能有效提高模型對各車輛行為類別的精確率和召回率。綜合考慮各車輛行為類別的精確率和召回率在方案4 的行為識別算法模型中的表現(xiàn),左變道行為識別效果較好,精確率和召回率都超過了78%;右變道行為識別精確率77.44%,召回率70.23%,橫行穿越行為精確率70.80%,召回率超過65%;上述3 種行為識別效果表現(xiàn)均高于左、右轉(zhuǎn)彎行為。
其可能存在的原因:1) 左右轉(zhuǎn)彎行為持續(xù)時長通常大于變道、橫行行為;2) 轉(zhuǎn)彎行為前半段車輛視覺特征與變道行為有一定的相似性,后半段車輛視覺特征與橫行穿越行為有一定的相似性,導(dǎo)致行為識別模型容易將轉(zhuǎn)彎誤判為其他3 類行為,從而降低轉(zhuǎn)彎行為準確率。
通過更改交叉熵損失函數(shù)為焦點損失函數(shù),方案2 相較于方案1 總體準確率提高了11.6%;通過添加Non-local 模塊提高模型對長距離時空依賴性信息提取能力,方案3 相較于方案1 提高了14.96%;通過比較方案2 和方案3,方案3 的行為總體準確率比方案2 高3.36%,說明提高模型的時空信息提取比增大對困難類別行為的識別權(quán)重更為有效。通過同時融合Non-local模塊和焦點損失函數(shù),行為識別算法模型識別的總體準確率得到進一步的提升,相較于SlowFast 原模型總體準確率提高了20.56%,達到68.12%。
本文提出了一種車載視角下的基于視覺信息的前方車輛行為識別方法,根據(jù)前方車輛行為特點,提出了基于車載視頻信息的車輛行為數(shù)據(jù)集標注方法;設(shè)計了以SlowFast 網(wǎng)絡(luò)為主體的行為識別算法模型,實現(xiàn)了車載視角下基于視覺信息的前方車輛行為識別。且在SlowFast 原模型的基礎(chǔ)上,做了以下2 點改進:
1) 為了解決數(shù)據(jù)集類別數(shù)量不均衡的問題,使用焦點損失函數(shù)替換原有的交叉熵損失函數(shù);
2) 引入Non-local 模塊提高了模型對視頻長距離時空依賴信息的提取,使模型能夠捕捉視頻中不同位置和時間的相關(guān)特征,增強模型對視頻動態(tài)變化的理解和判斷能力。
同時運用這2 點改進了原SlowFast 模型,改進后的模型總體準確率提高了20.56%,達到68.12%。研究工作對包括自動駕駛領(lǐng)域、智能交通系統(tǒng)、駕駛員行為分析等方面具有較為廣泛借鑒意義。
本文的行為識別算法模型對左、右轉(zhuǎn)彎行為的識別準確率還較低。今后工作研究的重點一是繼續(xù)擴充車輛行為識別數(shù)據(jù)集,平衡數(shù)據(jù)集中各類行為標簽的數(shù)量;二是提升左右轉(zhuǎn)彎行為的準確率,從整體上提高行為識別算法的實用性。