田 楓,姜文文,劉 芳,白欣宇
(東北石油大學 計算機與信息技術(shù)學院, 黑龍江 大慶 163318)
近年來,目標檢測由于深度學習的強大支撐已經(jīng)在二維計算機視覺方面取得了很大成就,但是在很多實際應(yīng)用中,僅靠二維視覺感知無法應(yīng)對真實場景中光照明暗、天氣影響、深度缺失等問題[1],因此由激光雷達設(shè)備獲取數(shù)據(jù)的三維目標檢測成為安全自動駕駛[2]、智能機器人[3]、視頻智能監(jiān)控等新興產(chǎn)業(yè)的突破口。
三維目標檢測通過搭載激光雷達設(shè)備[4]獲取點云數(shù)據(jù),不同于二維圖像,點云數(shù)據(jù)包含被檢測物體的三維坐標、反射強度等更多環(huán)境感知信息,其對光照變化與惡劣天氣具有良好的抗干擾性。對于三維目標檢測來說,準確、快速的目標檢測算法是非常必要的,然而囿于獲取到的點云數(shù)據(jù)本身的特性[5],包括無序性、稀疏性會為檢測帶來一定的難度;同時,在復雜的真實場景中無法避免出現(xiàn)互相遮擋、遠距離小目標、采集數(shù)據(jù)質(zhì)量低等共性問題,這些都導致現(xiàn)有三維目標檢測的精度與速度不足。
本文針對三維目標檢測精度與速度不足的問題,提出混合體素與原始點云的三維目標檢測算法。在特征提取部分加入雙通道注意力機制,利用通道注意力與空間注意力共同增強數(shù)據(jù)表征能力,提取數(shù)據(jù)的重要特征,生成更高質(zhì)量的初始建議,然后修改耗費計算資源的點云采樣方法,提高運算速度,之后設(shè)計實現(xiàn)類殘差點云融合模塊,精簡集合抽象模塊,有效融合多種點云表現(xiàn)形式,匯集點云的精確位置信息,體素的高效特征編碼,鳥瞰圖的廣泛信息接受域的優(yōu)點,提升建議細化效果,進而提高整體三維目標檢測精度。
注意力機制通過計算輸入數(shù)據(jù)的權(quán)重,提高某個重要因素對結(jié)果的影響力,抑制不重要因素的影響力[6]。隨后注意力機制經(jīng)過快速發(fā)展,被廣泛應(yīng)用于圖像檢測、自然語言處理、統(tǒng)計學習等領(lǐng)域[7]。
Vaswani等[8]設(shè)計實現(xiàn)了自注意力機制學習特征,代替神經(jīng)網(wǎng)絡(luò)必須結(jié)合CNN或者RNN編解碼的傳統(tǒng)模式,在保證檢測精度的情況下,降低計算成本。Woo等[9]提出了CBAM,認為卷積網(wǎng)絡(luò)中特征圖的通道和像素之間都包含豐富的注意力信息,因此構(gòu)建通道注意力模塊(channel attention module,CAM)和空間注意力模塊(spatial attention module,SAM),借此捕獲更多的特征信息并更加合理地分配算力資源。
由于注意力機制有效性與即插即用的便利性[10],注意力機制也引起了三維領(lǐng)域的關(guān)注。鐘誠等[11]提出了AttentionPointNet,一種基于注意力機制的三維點云物體識別方法,其使用自注意力機制,使每個點與點云剩余部分進行特征交互,實現(xiàn)局部與全局信息的匯總,提高了檢測準確率。陳其博等[12]提出基于多重注意力機制的立體匹配算法,包括使用位置通道注意力和多頭十字交叉注意力(multi-heads criss-cross attention,MCA),調(diào)整特征通道并有選擇性地綜合上下文信息,為后續(xù)計算提供更有效的特征,提高了整體檢測精度。這些工作都為本文算法設(shè)計引入雙通道注意力的三維目標檢測研究提供了指導思路。
考慮真實場景復雜,可以長距離探測的激光雷達獲取到的點云數(shù)據(jù)常數(shù)以萬計,如何從繁雜龐大的點云數(shù)據(jù)中高效準確地提取特征完成三維目標檢測一直是研究熱點。研究者通過設(shè)計多種基于點云的表現(xiàn)形式提高檢測精度或速度。
得益于快速發(fā)展且深入人心的二維目標檢測,基于多視角投影的三維目標檢測方法走入人們的視野,其一般通過將點云數(shù)據(jù)投影為鳥瞰圖、前視圖、深度圖等偽二維圖像,再通過經(jīng)典的二維神經(jīng)網(wǎng)絡(luò)進行檢測,得到檢測結(jié)果。Ali等[13]提出YOLO3D,將 YOLOv2擴展到三維目標檢測,首先將點云投影到鳥瞰視點﹐建立鳥瞰網(wǎng)格映射圖。根據(jù)鳥瞰網(wǎng)格圖,建立2張?zhí)卣鲌D,一張為高度圖,另一張為密度圖。通過在YOLOv2[14]框架中添加邊界框中心坐標和邊界框高度2個新的參數(shù),以此來返回三維目標邊界框。基于多視角投影的三維目標檢測可以使用較簡單且技術(shù)成熟的二維經(jīng)典神經(jīng)網(wǎng)絡(luò),在復雜度和實時性上有較好的表現(xiàn)。但都是將點云轉(zhuǎn)換為偽二維圖像,損失了原始點云的大量信息,精度都存在不足[15]。
由于基于多視角投影的三維目標檢測存在精度損失的問題,所以考慮基于原始點云的三維目標檢測。2017年,作為點云表征學習的早期成果,PointNet[16]與PointNet++誕生[17],前者輸入場景中全部原始點云數(shù)據(jù),考慮特定空間轉(zhuǎn)換的不變性,對點云數(shù)據(jù)進行特征提取,使用對稱函數(shù)進行最大池化操作得到最終的全局特征。PointNet網(wǎng)絡(luò)后續(xù)被作為基礎(chǔ)網(wǎng)絡(luò)模塊,廣泛應(yīng)用于很多點云處理網(wǎng)絡(luò)。由于PointNet無法獲取局部特征,限制了該方法在復雜場景下的表征能力。因此,PointNet++提出了最遠點采樣(furthest point sampling,F(xiàn)PS)和球狀查詢(ball query)分組操作對局部特征進行提取。
雖然基于原始點云的三維目標檢測可以獲取到真實場景中的特征,但是龐大數(shù)量級的點云數(shù)據(jù)使得整體檢測網(wǎng)絡(luò)結(jié)構(gòu)復雜且實時性差。因此,提出基于體素的三維目標檢測方法[18],先將點云劃分在均勻的網(wǎng)格中,對落于同一網(wǎng)格中的點云進行體素化,再用卷積神經(jīng)網(wǎng)絡(luò)進行特征提取,從而實現(xiàn)三維目標檢測。詹為欽等[19]設(shè)計實現(xiàn)PointPillers,將點云轉(zhuǎn)換為體素時,不再在Z軸上進行切割并用二維神經(jīng)網(wǎng)絡(luò)進行檢測,一定程度上提高了檢測的實時性,但是精度有所損失。
考慮基于點云不同表達方式的三維目標檢測都各有優(yōu)缺點,因此如何兼具不同點云表現(xiàn)形式的優(yōu)點而避免其缺點成為新的思路[20]。Shi等[21]設(shè)計實現(xiàn)PV-RCNN,將體素與點云結(jié)合,組成體素集合抽象模塊優(yōu)化體素經(jīng)過稀疏卷積網(wǎng)絡(luò)與RPN網(wǎng)絡(luò)得到的被檢測物體包圍框,兼顧了體素檢測效率較高與點云特征信息豐富的優(yōu)點。
本文算法主要由稀疏卷積網(wǎng)絡(luò)、雙通道注意力模塊、類殘差點云融合模塊、集合抽象模塊以及RPN與ROI網(wǎng)絡(luò)層等組成,具體神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
圖1 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
本文算法以PV-RCNN為基礎(chǔ)網(wǎng)絡(luò),開創(chuàng)性地融合了點云與體素進行三維目標檢測,同時兼具體素高效編碼多尺度特征與點云保存豐富準確信息的優(yōu)點。相較于使用單一點云表現(xiàn)形式的三維目標檢測網(wǎng)絡(luò),該網(wǎng)絡(luò)通過融合多種點云表現(xiàn)形式進行后續(xù)建議細化,可以達到更好的檢測效果。但是該網(wǎng)絡(luò)直接使用稀疏卷積網(wǎng)絡(luò)對已出現(xiàn)量化損失的體素進行特征提取,無疑會使特征產(chǎn)生進一步的損失,因此本文引入計算負擔小但特征增強好的雙通道注意力機制保證特征提取的有效性。然后通過得到的特征獲取鳥瞰圖,再傳入RPN網(wǎng)絡(luò)進行初始的三維目標分類與框回歸。
同時,雖然基礎(chǔ)網(wǎng)絡(luò)PV-RCNN融合點云與體素提升了目標檢測效果,但是點云采樣過程耗費了大量計算資源,而后續(xù)對點云的使用,只是作為體素集合抽象模塊中的一個子模塊(共6個子模塊)參與后續(xù)的建議細化,并未真正合理有效地利用點云的優(yōu)勢。因此本文修改了點云采樣方法,減少計算資源的使用,并設(shè)計實現(xiàn)類殘差點云融合模塊,精簡集合抽象模塊,增強點云在后續(xù)建議細化中的作用。
因此,本文算法整體網(wǎng)絡(luò)結(jié)構(gòu)首先對原始點云進行體素化獲取體素,然后將其輸入稀疏卷積網(wǎng)絡(luò),獲取多尺度語義體素特征,再輸入雙通道注意力模塊,提高體素特征提取質(zhì)量,之后獲取鳥瞰特征圖,以便輸入后續(xù)RPN網(wǎng)絡(luò),獲取初始目標分類與框回歸;同時,原始點云使用更加快速的隨機平行采樣獲取點云關(guān)鍵點,再將其輸入類殘差點云融合模塊,獲取混合點云與體素的特征,然后輸入精簡后的集合抽象模塊與鳥瞰圖進行融合,再與經(jīng)過RPN網(wǎng)絡(luò)得到的初始建議一起傳入ROI網(wǎng)格池化層,利用混合特征與ROI網(wǎng)格池化對初始建議進行細化,最后傳入全連接層獲取最終的三維目標檢測結(jié)果。
注意力機制與人類選擇性視覺注意力機制類似,旨在從大量信息中選擇出對當前任務(wù)目標更重要的信息[22]。具體而言,深度學習中注意力機制的作用是通過神經(jīng)網(wǎng)絡(luò)自主學習一組權(quán)重系數(shù),并以動態(tài)加權(quán)方式強化重要信息,抑制非重要信息,使神經(jīng)網(wǎng)絡(luò)聚焦于輸入信息的必要部分[23-24]。本文算法將原始點云體素化后,輸入三維稀疏卷積網(wǎng)絡(luò)編碼生成多尺度語義特征,每層網(wǎng)絡(luò)上的稀疏特征體可以看作是一組體素特征向量。將稀疏卷積網(wǎng)絡(luò)生成的最后一層體素特征向量輸入雙通道注意力模塊,增強數(shù)據(jù)表征能力,高效提取數(shù)據(jù)的重要特征及其依賴關(guān)系[19,25]。
本文算法借鑒CBAM的思想,在三維稀疏卷積網(wǎng)絡(luò)后引入雙通道注意力,即通道注意力與空間注意力協(xié)同作用。假設(shè)經(jīng)過三維稀疏卷積網(wǎng)絡(luò)得到體素特征向量f∈RC×L×W×H,雙通道注意力包括一維的通道注意力Mch∈Rc×1×1×1和三維的空間注意力Msp∈R1×L×W×H,整體雙通道注意力機制處理如式(1)(2)所示:
fch=Mch(f)?f
(1)
fsp=Msp(fch)?fch
(2)
其中:fch為經(jīng)過通道注意力計算后的特征向量;fsp為經(jīng)過空間注意力計算后的特征向量;?為逐元素相乘。
2.2.1通道注意力
該模塊是利用特征向量通道內(nèi)部間的特征來產(chǎn)生通道注意力,如圖2所示。通道注意力主要尋找輸入特征向量中“重要”的部分,為了提高計算通道注意力的效率,對輸入向量的空間維度進行壓縮,再分別采用最大池化和平均池化聚合特征向量的空間信息,分別用fchmax和fchavg表示,然后將信息輸入由多層感知機組成的共享網(wǎng)絡(luò)層,之后使用逐元素相加的方法,輸出合并后的特征向量,即通道注意力,具體計算如式(3)所示:
圖2 通道注意力
Mch(f)=σ{MLP[AvgPool(f)+MaxPool(f)]}=
σ{W1[W0(fchavg)]+W1[W0(fchmax)]}
(3)
其中,MLP為多層感知機;AvgPool為平均池化;MaxPool為最大池化;σ為sigmoid激活函數(shù);W0、W1為多層感知機的可學習參數(shù)。
2.2.2空間注意力
該模塊是利用通道注意力處理后的特征向量內(nèi)部空間關(guān)系產(chǎn)生空間注意力,如圖3所示??臻g注意力主要關(guān)注數(shù)據(jù)信息的具體位置,是對通道注意力的補充。經(jīng)過通道注意力處理后的特征向量依次進行最大池化和平均池化,生成2個三維特征向量fspmax和fspavg,然后輸入卷積層,生成Msp∈R1×L×W×H??臻g注意力具體計算如式(4)所示:
圖3 空間注意力
Msp(f)=σ{f3×3[AvgPool(f); MaxPool(f)]}=
σ{f3×3[fspavg;fspmax]}
(4)
其中,f3×3為3×3的卷積核卷積操作。
經(jīng)過稀疏卷積網(wǎng)絡(luò)與雙通道注意力模塊處理后的體素特征向量下采樣為二維鳥瞰圖,輸入RPN網(wǎng)絡(luò),生成初始的目標分類與邊界框。
混合點云表現(xiàn)形式的集合抽象模塊首先修改點云采樣策略,提升點云采樣速度;然后設(shè)計實現(xiàn)類殘差點云融合模塊,以類似殘差網(wǎng)絡(luò)的結(jié)構(gòu)組織采樣后的點云與經(jīng)過稀疏卷積網(wǎng)絡(luò)的體素特征,有效利用點云信息豐富與體素編碼高效的優(yōu)勢,最后將類殘差點云融合模塊與生成的特征鳥瞰圖進行融合,構(gòu)成精簡的集合抽象模塊,強化其后續(xù)建議細化效果,提高整體檢測精度。
2.3.1點云采樣策略
如何高效地從數(shù)量龐大的原始點云中提取出有效的關(guān)鍵點對整體檢測框架至關(guān)重要,基礎(chǔ)網(wǎng)絡(luò)PV-RCNN中使用的是最遠點采樣算法。該算法主要存在的缺點是其復雜度較高,會耗費大量的時間,拖慢整體訓練和推理速度,尤其是對于大規(guī)模點云的關(guān)鍵點采樣。為了減少這樣的負面影響,本文算法使用一種更有效的關(guān)鍵點采樣算法,隨機并行最遠點采樣。
隨機并行最遠點采樣首先將原始點隨機分成若干組,然后再使用最遠點采樣算法對這些組進行并行處理,實現(xiàn)更快的關(guān)鍵點采樣。考慮關(guān)鍵點采樣效果及設(shè)備能力,將原始點云隨機分組數(shù)量設(shè)置為4組。具體采樣流程如下,假設(shè)第g組共有n個點,該組點集為N={p1,p2,…,pn},選取nb個起始點做為下一步的中心點:
步驟1隨機選擇一個點pi做為起始點,并寫入起始點集B={pi};
步驟2選擇剩下n-1個點計算和pi點的距離,選擇最遠點pj寫入起始點集B={pi,pj};
步驟3再選擇剩下n-2個點計算和點集B中每個點的距離,將最短的那個距離作為該點到點集B的距離,在n-2點中選擇最遠的那個點寫入起始點集B={pi,pj,pk},此時剩下n-3個點,如果nb=3 則選擇完畢;
步驟4如果nb> 3則重復步驟2和3直至選到nb個起始點。
2.3.2類殘差點云融合模塊
本文設(shè)計的類殘差點云融合模塊旨在使用點云的多種表達形式有效地進行特征融合,提高后續(xù)建議細化質(zhì)量,進而提高檢測精度。不同于原始網(wǎng)絡(luò)側(cè)重體素特征向量并使用其與點云特征向量簡單加和的做法,本模塊更加側(cè)重具有豐富精準位置信息的點云,使用類似殘差網(wǎng)絡(luò)的結(jié)構(gòu),構(gòu)建類殘差點云融合模塊,提高點云特征的影響力,模塊主要包含原始點云生成的特征向量和經(jīng)過三維稀疏卷積網(wǎng)絡(luò)與關(guān)鍵點處理后的體素特征向量。
(5)
生成本模塊特有的體素特征向量,如式(6)所示:
(6)
對于已經(jīng)獲取到的點云特征向量Fp和體素特征向量F(vk),借鑒殘差網(wǎng)絡(luò)[26]的思想構(gòu)建類殘差點云融合模塊,結(jié)構(gòu)如圖1殘差點云融合模塊部分所示。第k層點云融合特征向量如式(7)所示:
(7)
其中,ωk是第k層的融合權(quán)重,由第k-1層稀疏網(wǎng)絡(luò)的下采樣程度決定。
2.3.3集合抽象模塊
集合抽象模塊是在已經(jīng)獲取到類殘差點云融合模塊的基礎(chǔ)上,將經(jīng)過下采樣獲取到的二維鳥瞰特征圖與之融合。其中,點云部分彌補了原始點云體素化的量化損失,而二維鳥瞰圖沿Z軸則具有更大的信息接受域。
(8)
如圖1所示,將RPN網(wǎng)絡(luò)獲取到的目標分類和邊界框回歸結(jié)果與本節(jié)最終獲得的集合抽象模塊輸入原始網(wǎng)絡(luò)的ROI網(wǎng)格池化層,使用集合抽象模塊進行邊界框細化,再傳入后續(xù)全連接等網(wǎng)絡(luò)層,獲取三維目標檢測結(jié)果。
本文提出的網(wǎng)絡(luò)結(jié)構(gòu)主要使用區(qū)域建議損失函數(shù)Lrpn、關(guān)鍵點損失函數(shù)Lkp和建議細化損失Lrcnn進行端到端的訓練。
區(qū)域建議損失函數(shù)Lrpn采用與[27]相同的損失函數(shù),如式(9)所示;
(9)
關(guān)鍵點損失函數(shù)Lkp也使用焦點損失函數(shù)。
建議細化損失函數(shù)Lrcnn包括IoU引導的置信度預測損失Liou和邊界框細化損失,如式(10)所示:
(10)
整體訓練損失函數(shù)是這3個損失函數(shù)的加和,各損失函數(shù)權(quán)重相同。因此,整體訓練損失函數(shù)如式(11)所示。
Ltotal=wLrpn+wLkp+wLrcnn
(11)
其中,w為損失函數(shù)權(quán)重。
本文使用大型公開數(shù)據(jù)集KITTI進行實驗評估。該數(shù)據(jù)集共有7 481個訓練樣本和7 518個測試樣本,根據(jù)被檢測目標被遮擋程度和成像大小分為簡單、中等和困難3個級別。
本文使用Pytorch框架實現(xiàn)網(wǎng)絡(luò)結(jié)構(gòu),使用NVIDIA GTX 3080 GPU 和 Intel i7 CPU 進行訓練和測試,使用Adam優(yōu)化器實現(xiàn)端到端的訓練,批大小為24,設(shè)置初始學習率為0.01,學習率衰減采用余弦退火策略,共迭代 80次。
數(shù)據(jù)增強對于提高檢測算法的通用性很重要。通過觀察KITTI數(shù)據(jù)集真實場景下的點云分布情況,發(fā)現(xiàn)點云數(shù)據(jù)受遮擋、距離、目標形狀多樣性而顯著變化。所以針對這種情況,本文隨機刪除點,模仿遮擋的實際情況;隨機交換輸入點,增加樣本多樣性;隨機稀疏采樣,模仿遠距離點云稀疏情況。除此之外,在進行上述點云數(shù)據(jù)增強之前,對點云進行全局變換,包括隨機翻轉(zhuǎn)、隨機比例縮放等。
本文算法實際檢測效果如圖4所示。各圖中上半部分為本文算法檢測的真實情況,下半部分為真實場景下的相機圖片。檢測時,綠色邊界框為檢測到的汽車,黃色邊界框為檢測到的自行車,藍色邊界框為檢測到的行人。邊界框立方體有交叉線的一面表示該目標前進方向。從圖4(a)(b)可以看出,目標種類較多,且目標之間較為密集,本文算法依舊可以進行較為準確的檢測,在圖4(c)中,目標種類較多,但目標之間較為稀疏,對較遠距離的目標也具有較好的檢測結(jié)果,因此本文算法面向真實場景時,具有較好的檢測能力。
圖4 本文算法三維目標檢測實例
為了評估本文算法性能,將本文算法與其他相關(guān)算法在KITTI數(shù)據(jù)集上進行測試。其中包括主要使用體素進行檢測的SECOND、PointPillars算法,直接使用原始點云進行目標檢測的PointRCNN、STD算法,修改了點云采樣方法的3DSSD算法,將點云場景編碼成圖結(jié)構(gòu)參與計算的Point-GNN算法以及本文基礎(chǔ)網(wǎng)絡(luò)PV-CNN,所有結(jié)果均通過平均精度進行評估,具體評估方法參考KITTI官方測試服務(wù)器上的40個召回位置,汽車的IoU閾值為設(shè)0.7,自行車設(shè)為0.5,詳細情況如表1所示。
表1 算法結(jié)果
由表1可知,本文算法較其他相關(guān)算法在KITTI數(shù)據(jù)集汽車、自行車的檢測類型上具有更好的檢測精度。即本文基于點云混合表現(xiàn)形式的三維目標檢測算法相較于單獨使用體素、點云或其他結(jié)構(gòu)以及簡單混合點云表現(xiàn)形式的三維目標檢測算法都具有更好的檢測效果,即使是自行車這類識別率較低的待檢測目標,也得到了較好的檢測精度。分別對汽車和自行車3種難度的檢測結(jié)果求均值,汽車達到了84.94 mAP,自行車達到了64.41 mAP,相較其他網(wǎng)絡(luò)和原始基礎(chǔ)網(wǎng)絡(luò)都有較好的提升。
同時,為了驗證本文算法各模塊的有效性,在KITTI數(shù)據(jù)集汽車類型上進行消融實驗,即分別驗證隨機并行FPS采樣的運行速度、雙通道注意力體素特征提取效果以及類殘差點云融合的建議優(yōu)化效果,詳細情況如表2所示。
由表2消融實驗結(jié)果可知,將PV-RCNN網(wǎng)絡(luò)中的點云采樣方法由FPS替換為隨機并行FPS采樣,雖然檢測精度有少量的損失,但是整體檢測速度提升了56%。引入雙通道注意力模塊后,檢測精度在使用隨機并行FPS采樣的基礎(chǔ)上有了一定程度的提升,因此雙通道注意力對體素特征有更好的提取效果。加入類殘差點云融合模塊后,隨之也精簡了后續(xù)的集合抽象模塊,實驗中將二者結(jié)合共同進行驗證,即構(gòu)成本文算法,從實驗數(shù)據(jù)可知,類殘差點云融合模塊提升點云特征的影響力后,其對建議優(yōu)化的效果也有了較為顯著的提升,因此整體檢測精度再次提升。
表2 消融實驗結(jié)果
然而結(jié)合實驗中各模塊的檢測時間可知,引入的雙通道注意力模塊與類殘差點云融合模塊對速度都有所影響。較為輕量的雙通道注意力模塊依然給整體網(wǎng)絡(luò)帶來了少量參數(shù),進而拖慢整體檢測速度;而類殘差融合模塊雖然后續(xù)傳入了精簡的集合抽象模塊,一定程度上減少了參數(shù),但是其進行點云與體素特征融合過程中,依然引進了部分參數(shù),也一定程度上影響了整體檢測速度。最后,本文算法在整體檢測速度上僅提升37%。因此,本文算法在檢測速度上的提升并未達到實時,如何在保證檢測精度的情況下,滿足實時性需求是作者的進一步研究方向。
提出了一種混合體素與原始點云的三維目標檢測網(wǎng)絡(luò)。通過在特征提取部分引入通道注意力和空間注意力,提高了特征提取的有效性,同時修改了計算資源耗費較多的點云采樣方法,使用并行隨機最遠點采樣,縮短檢測時間,最后提出類殘差點云融合模塊,精簡集合抽象模塊,融合點云、體素和鳥瞰圖特征,有效提升建議細化效果。通過在KITTI數(shù)據(jù)集上的實驗表明,本文算法相較于其他算法具有更高的精度,在運行速度上也具有更好的表現(xiàn)。