• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      農(nóng)業(yè)車(chē)輛雙目視覺(jué)障礙物感知系統(tǒng)設(shè)計(jì)與試驗(yàn)

      2021-08-04 05:48:18魏建勝潘樹(shù)國(guó)田光兆孫迎春
      關(guān)鍵詞:質(zhì)心障礙物拖拉機(jī)

      魏建勝,潘樹(shù)國(guó)※,田光兆,高 旺,孫迎春

      (1. 東南大學(xué)儀器科學(xué)與工程學(xué)院,南京 210096;2. 南京農(nóng)業(yè)大學(xué)工學(xué)院,南京 210031)

      0 引言

      由于農(nóng)業(yè)環(huán)境的復(fù)雜多樣性,農(nóng)業(yè)機(jī)械為實(shí)現(xiàn)其自主導(dǎo)航[1-5]需要可靠的障礙物感知系統(tǒng)。障礙物感知系統(tǒng)主要包括障礙物檢測(cè)[6-7]和深度估計(jì)[8-9]2部分。傳統(tǒng)的障礙物檢測(cè)是基于人為設(shè)計(jì)的淺層目標(biāo)特征[10-12],如SIFT特征、HOG特征、局部二值特征等。由于農(nóng)業(yè)環(huán)境結(jié)構(gòu)復(fù)雜,光照強(qiáng)度不均勻等,此類(lèi)特征的檢測(cè)效果不夠穩(wěn)定。隨著人工智能的發(fā)展,農(nóng)業(yè)機(jī)械的自主導(dǎo)航逐漸應(yīng)用深度卷積神經(jīng)網(wǎng)絡(luò)[13-16](Convolutional Neural Network,CNN)來(lái)完成檢測(cè)任務(wù)。相比于原有基于人為設(shè)計(jì)特征的檢測(cè)方式,深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)環(huán)境特征的檢測(cè)更加豐富和多層次,且能夠從大規(guī)模數(shù)據(jù)集中不斷學(xué)習(xí)當(dāng)前任務(wù)的特征表達(dá),從而獲得更優(yōu)的檢測(cè)效果。在障礙物的深度估計(jì)中,普遍采用激光雷達(dá)[17-18]、深度相機(jī)[19-20]和雙目相機(jī)[21-22]等作為測(cè)距傳感器。激光雷達(dá)測(cè)距范圍廣、精度高,但二維激光雷達(dá)無(wú)法檢測(cè)掃描線(xiàn)以外的障礙物,不能適應(yīng)農(nóng)田等顛簸路面的情況,而三維激光雷達(dá)造價(jià)昂貴,嚴(yán)重制約了其在農(nóng)業(yè)障礙物檢測(cè)中的應(yīng)用[23];深度相機(jī)能夠獲得圖像中每個(gè)像素的深度信息,但測(cè)量結(jié)果受外界環(huán)境干擾較大,難以在室外環(huán)境中應(yīng)用;雙目相機(jī)能夠獨(dú)立完成對(duì)目標(biāo)的深度估計(jì),但窄基線(xiàn)的雙目相機(jī)測(cè)距范圍有限,需不斷提高基線(xiàn)的寬度以適應(yīng)大規(guī)模的場(chǎng)景。

      為適應(yīng)農(nóng)業(yè)環(huán)境的復(fù)雜多樣性,選用雙目相機(jī)作為系統(tǒng)的視覺(jué)感知傳感器,并采用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行障礙物的檢測(cè)。由于深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像處理的計(jì)算量巨大,需要圖形處理器(Graphics Processing Unit,GPU)來(lái)加速處理,僅中央處理器(Central Processing Unit,CPU)配置的工控機(jī)已不能滿(mǎn)足計(jì)算要求,而工作站等高計(jì)算量設(shè)備體積和質(zhì)量過(guò)大,嚴(yán)重占用機(jī)械空間資源,因而本文選用NVIDIA Jetson TX2[24-27]型嵌入式人工智能(Intelligent Artificial,AI)計(jì)算機(jī)作為深度卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算載體。

      在傳統(tǒng)的障礙物感知中,通常將障礙物檢測(cè)和深度估計(jì)作為2個(gè)獨(dú)立的任務(wù)進(jìn)行處理,2個(gè)任務(wù)之間信息不能共享,造成了計(jì)算資源的浪費(fèi)?;诖耍疚奶岢鲆环N基于改進(jìn)YOLOv3的深度估計(jì)方法,將傳統(tǒng)障礙物感知任務(wù)中的障礙物檢測(cè)和深度估計(jì)2個(gè)任務(wù)進(jìn)行融合,利用障礙物檢測(cè)中的部分信息進(jìn)行深度估計(jì),實(shí)現(xiàn)系統(tǒng)對(duì)障礙物檢測(cè)和深度估計(jì)端到端處理。

      1 視覺(jué)感知系統(tǒng)設(shè)計(jì)

      1.1 硬件組成

      系統(tǒng)選用東方紅SG250型拖拉機(jī)作為移動(dòng)載體,Jetson TX2作為運(yùn)算核心,搭載本文所設(shè)計(jì)的障礙物視覺(jué)感知系統(tǒng)。系統(tǒng)硬件由拖拉機(jī)、導(dǎo)航控制模塊和視覺(jué)感知模塊組成。

      視覺(jué)傳感器選用MYNTAI公司S1030-120型雙目相機(jī),基線(xiàn)120 mm,焦距2.1 mm,分辨率752×480像素。主控制器Jetson Tx2的GPU配有256個(gè)NVIDIA CUDA核心,其CPU為雙核Denver 2 64位CPU和四核ARM A57 Complex的組合。視覺(jué)感知模塊如圖1所示。

      對(duì)拖拉機(jī)進(jìn)行并聯(lián)電控液壓油路改造,控制器選用STM32,與模擬量輸出模塊、電液比例控制器和比例換向閥等共同構(gòu)成系統(tǒng)的導(dǎo)航控制模塊,如圖2所示。

      1.2 技術(shù)流程

      障礙物視覺(jué)感知系統(tǒng)的運(yùn)行環(huán)境為Ubuntu16.04 LTS,基于ROS(Robot Operating System)完成信息的傳遞和通信,實(shí)現(xiàn)拖拉機(jī)對(duì)其導(dǎo)航控制路徑上障礙物的準(zhǔn)確識(shí)別、定位和深度估計(jì),并將結(jié)果傳給決策中心,系統(tǒng)的技術(shù)流程如圖3所示。

      拖拉機(jī)點(diǎn)火并切換至電控轉(zhuǎn)向狀態(tài),然后視覺(jué)感知模塊開(kāi)啟進(jìn)行左右相機(jī)的抓圖,接著將左右圖像分別輸入至改進(jìn)的障礙物檢測(cè)模型進(jìn)行檢測(cè)。檢測(cè)到障礙物類(lèi)別、定位信息后進(jìn)行目標(biāo)匹配和視差計(jì)算,并估計(jì)出深度值,若其超過(guò)預(yù)警深度值則會(huì)觸發(fā)電控轉(zhuǎn)向。

      2 基于改進(jìn)YOLOv3的深度估計(jì)

      為了準(zhǔn)確估計(jì)障礙物到拖拉機(jī)的實(shí)時(shí)深度,本文提出一種基于改進(jìn)YOLOv3的深度估計(jì)方法,將障礙物檢測(cè)和深度估計(jì)進(jìn)行融合,一次性完成對(duì)障礙物類(lèi)別、定位和深度信息的全部輸出。首先將雙目相機(jī)抓取的左右圖像分別輸入改進(jìn)的YOLOv3模型中進(jìn)行障礙物檢測(cè),輸出農(nóng)業(yè)環(huán)境下障礙物的類(lèi)別和定位信息并進(jìn)行目標(biāo)匹配,得到障礙物在左右圖像中的對(duì)應(yīng)關(guān)系。最后根據(jù)障礙物的對(duì)應(yīng)關(guān)系計(jì)算像素視差,并輸入至雙目成像模型進(jìn)行深度估計(jì),算法流程如圖4所示。

      2.1 改進(jìn)YOLOv3模型

      本文選用YOLOv3模型[28-30]作為深度估計(jì)的前端框架,并針對(duì)雙目成像模型和農(nóng)業(yè)環(huán)境目標(biāo)的特殊性進(jìn)行錨框聚類(lèi)和邊界框損失函數(shù)的改進(jìn)。

      2.1.1 YOLOv3

      YOLOv3是目前為止最先進(jìn)的目標(biāo)檢測(cè)算法之一,其在YOLOv2的基礎(chǔ)之上進(jìn)一步融合多尺度檢測(cè)和多尺度訓(xùn)練等改進(jìn)措施,使用更深的darkNet53作為特征提取網(wǎng)絡(luò),并加入殘差模塊解決深層網(wǎng)絡(luò)梯度問(wèn)題。圖5是YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu),它從3個(gè)不同的尺度(32×32、16×16和8×8)提取特征至YOLO層進(jìn)行檢測(cè)。

      2.1.2 數(shù)據(jù)集聚類(lèi)

      由于沒(méi)有公開(kāi)的農(nóng)業(yè)障礙物數(shù)據(jù)集,本文在農(nóng)業(yè)環(huán)境中設(shè)置人、農(nóng)具和樹(shù)樁等作為障礙物,從2020年開(kāi)始通過(guò)網(wǎng)絡(luò)爬蟲(chóng)和相機(jī)抓圖自建數(shù)據(jù)集開(kāi)展研究工作,并利用LabelImg進(jìn)行類(lèi)別和檢測(cè)框標(biāo)注,包括訓(xùn)練集2 400張和測(cè)試集270張。由于農(nóng)業(yè)環(huán)境中的障礙物形態(tài)多變,原COCO數(shù)據(jù)集中的先驗(yàn)框尺寸難以滿(mǎn)足該數(shù)據(jù)集。為獲得合適的先驗(yàn)框,本文采用K-means算法對(duì)農(nóng)業(yè)障礙物數(shù)據(jù)集進(jìn)行聚類(lèi)分析,并針對(duì)特征金字塔在52×52、26×26和13×13特征圖上分別應(yīng)用先驗(yàn)框(16,28)、(25,42)、(39,43),(69,75)、(99,80)、(88,113),(92,123)、(155,149)、(199,236)。

      2.1.3 lossD損失函數(shù)

      原始YOLOv3模型的損失函數(shù)中,針對(duì)檢測(cè)框x、y、w和h坐標(biāo)的誤差權(quán)值是相同的,但在雙目成像模型中深度估計(jì)的精度取決于視差,即左右圖像目標(biāo)檢測(cè)框質(zhì)心的u軸坐標(biāo)差,使得YOLOv3模型對(duì)檢測(cè)框的橫向偏差特別敏感。因此,在深度估計(jì)的邊界框損失函數(shù)lossD中獨(dú)立出x坐標(biāo)的誤差權(quán)值項(xiàng)并提高,同時(shí)降低其他3項(xiàng)的權(quán)值。

      針對(duì)大小目標(biāo)對(duì)目標(biāo)檢測(cè)框精度的影響不一致,YOLOv3原文采用反向賦權(quán)的方式來(lái)控制精度,即目標(biāo)越大x、y、w和h坐標(biāo)的誤差權(quán)值越小。針對(duì)機(jī)械在農(nóng)業(yè)環(huán)境下自主導(dǎo)航的需求,要求遠(yuǎn)處目標(biāo)深度估計(jì)誤差偏大而近處誤差偏小,在損失函數(shù)lossD中對(duì)x誤差項(xiàng)正向賦值,其余項(xiàng)固定賦值。改進(jìn)后的損失函數(shù)如式(1)所示。

      式中K為輸入層網(wǎng)格數(shù);M為單個(gè)網(wǎng)格預(yù)測(cè)的錨框數(shù);為目標(biāo)的判斷標(biāo)志;w、h、(x,y)和分別為目標(biāo)檢測(cè)框?qū)?、高、質(zhì)心坐標(biāo)的真值和預(yù)測(cè)值,像素;n目標(biāo)類(lèi)別數(shù);r為當(dāng)前類(lèi)別索引;truthclass、truthconf和predictclassr、predictconf分別為類(lèi)別和置信度的真值和預(yù)測(cè)值;(·)?1:0表示括號(hào)內(nèi)判斷條件為真則為1,反之為0。

      2.2 深度估計(jì)過(guò)程

      2.2.1 目標(biāo)匹配

      相機(jī)抓取的圖像中有些物體是拖拉機(jī)的作業(yè)目標(biāo),如:果實(shí)、莊稼和果蔬等;另一些物體是障礙物,如:行人、農(nóng)具、樹(shù)樁等。目標(biāo)匹配是改進(jìn)模型檢測(cè)出選定的障礙物后,進(jìn)一步在左右圖像中確定同一障礙物的對(duì)應(yīng)關(guān)系,具體過(guò)程如下:1)將左右相機(jī)圖像PL、PR輸入改進(jìn)YOLOv3模型,輸出各自的目標(biāo)檢測(cè)框BBOXL、BBOXR及其類(lèi)別CLASSL、CLASSR;2)計(jì)算目標(biāo)檢測(cè)框的像素面積SL、SR和目標(biāo)檢測(cè)框質(zhì)心的像素坐標(biāo)CL、CR;3)得到目標(biāo)檢測(cè)框的像素面積之差SE和目標(biāo)檢測(cè)框質(zhì)心的v軸坐標(biāo)之差VE;4)判斷CLASSL、CLASSR是否相同,且SE、VE是否小于閾值A(chǔ)、B;若同時(shí)滿(mǎn)足,則匹配成功,反之匹配失敗。

      2.2.2 像素視差計(jì)算

      若左右圖像中2個(gè)目標(biāo)檢測(cè)框匹配成功,即表示其為某一障礙物在左右相機(jī)的成像位置,反之則繼續(xù)抓圖進(jìn)行目標(biāo)匹配。如圖6所示,目標(biāo)檢測(cè)框BBOXL、BBOXR為某一障礙物在左右相機(jī)的像素平面成像位置,選用目標(biāo)檢測(cè)框的質(zhì)心代表障礙物,左右質(zhì)心的坐標(biāo)分別為(uL,vL)、(uR,vR),則障礙物在左右相機(jī)的像素視差D為

      式中uL、uR分別為像素平面上左右質(zhì)心的u軸坐標(biāo)。

      2.2.3 深度估計(jì)

      立體視覺(jué)中,記OL、OR為左右相機(jī)光圈中心;XL、XR為成像平面的坐標(biāo);f為焦距,m;z為深度,m;b為左右相機(jī)的基線(xiàn),m;空間點(diǎn)P在左右相機(jī)中各成一像,記PL、PR,左右圖像橫坐標(biāo)之差(XL-XR)為視差d,m;根據(jù)三角相似關(guān)系有:

      目標(biāo)邊界框質(zhì)心在左右視圖中的像素坐標(biāo)uL、uR分別為

      式中α為物理成像平面坐標(biāo)系的橫向縮放系數(shù),像素/m;cx為原點(diǎn)橫向平移量,像素。

      進(jìn)一步得視差d為

      將式(5)代入式(3)得深度z為

      3 視覺(jué)感知系統(tǒng)試驗(yàn)

      3.1 模型訓(xùn)練與測(cè)試試驗(yàn)

      針對(duì)訓(xùn)練集,本文選用DELL T7920型圖形工作站(12G內(nèi)存TITAN V型顯卡)對(duì)YOLOv3模型和改進(jìn)YOLOv3模型分別進(jìn)行相同的迭代訓(xùn)練,2種模型的訓(xùn)練損失函數(shù)如圖7所示。

      表1是YOLOv3模型和改進(jìn)YOLOv3模型結(jié)果。由表1可知,相較于YOLOv3模型,改進(jìn)YOLOv3模型的準(zhǔn)確率和召回率分別下降0.5%和0.4%。原因是本文對(duì)模型的改進(jìn)側(cè)重于目標(biāo)檢測(cè)框x軸上的精度,而適當(dāng)降低對(duì)y軸和寬高的精度,提高了目標(biāo)的深度估計(jì)精度。同時(shí),模型改進(jìn)前后在深度學(xué)習(xí)工作站和嵌入式終端TX2上的速度測(cè)試結(jié)果基本一致。

      表1 訓(xùn)練集測(cè)試結(jié)果 Table 1 Test results on training set

      3.2 深度估計(jì)試驗(yàn)

      3.2.1 參數(shù)標(biāo)定與評(píng)價(jià)指標(biāo)

      試驗(yàn)在南京農(nóng)業(yè)大學(xué)農(nóng)田試驗(yàn)場(chǎng)進(jìn)行,分別將Hog+SVM模型、YOLOv3模型和改進(jìn)YOLOv3模型部署至嵌入式終端并對(duì)點(diǎn)火駐車(chē)狀態(tài)下拖拉機(jī)前方1.6~3.4 m距離段上的靜止障礙物進(jìn)行深度估計(jì)。試驗(yàn)過(guò)程中,保持雙目相機(jī)與障礙物的圖像質(zhì)心在同一水平面上,且雙目相機(jī)左右光心的中點(diǎn)與圖像質(zhì)心的連線(xiàn)垂直于相機(jī)基線(xiàn)方向。對(duì)障礙物進(jìn)行多組深度估計(jì)試驗(yàn),獲得障礙物的深度估計(jì)值,并將UT393A型測(cè)距儀的測(cè)量值(精度±1.5 mm)作為距離真值進(jìn)行誤差分析。試驗(yàn)中采用誤差均值em和誤差比均值erm作為深度估計(jì)精度的指標(biāo),其定義分別如下:

      式(7)~(8)中zi為深度估計(jì)值,n為測(cè)量次數(shù),本文試驗(yàn)取n=3。

      利用MYNTAI相機(jī)自帶的軟件開(kāi)發(fā)工具包(Software Development Kit,SDK)對(duì)系統(tǒng)視覺(jué)感知模塊中的雙目相機(jī)參數(shù)進(jìn)行標(biāo)定,并獲得去畸變的雙目圖像,結(jié)果如表2所示。

      表2 雙目相機(jī)標(biāo)定結(jié)果 Table 2 Calibration result of binocular camera

      3.2.2 深度估計(jì)

      圖8是不同障礙物(人、農(nóng)具和樹(shù)樁)在不同1.6~3.4 m距離段上的檢測(cè)結(jié)果,其中像素面積差SE的閾值A(chǔ)和v軸坐標(biāo)差VE的閾值B分別設(shè)為經(jīng)驗(yàn)值60和4。圖8a障礙物目標(biāo)為人,目標(biāo)深度真值為2.8 m,檢測(cè)框質(zhì)心視差為15.47像素;圖8b障礙物目標(biāo)為農(nóng)具,目標(biāo)深度真值為2.6 m,檢測(cè)框質(zhì)心視差為16.66像素;圖8c障礙物目標(biāo)類(lèi)別為樹(shù)樁,目標(biāo)深度真值為2.9 m,檢測(cè)框質(zhì)心視差為14.94像素。由圖8可知,YOLOv3模型和改進(jìn)YOLOv3模型的檢測(cè)精度高且魯棒性強(qiáng),而Hog+SVM模型的檢測(cè)精度和魯棒性均較差。

      圖9為不同障礙物(人、農(nóng)具和樹(shù)樁)在其深度估計(jì)范圍內(nèi)1.6~3.4 m距離段內(nèi)的深度誤差結(jié)果。由圖9可知,3種障礙物應(yīng)用改進(jìn)YOLOv3模型的深度估計(jì)誤差均值em和誤差比均值erm相對(duì)于YOLOv3模型和Hog+SVM模型均有降低。改進(jìn)YOLOv3模型對(duì)行人的誤差均值em和誤差比均值erm相較于YOLOv3模型分別降低38.92%、37.23%,比Hog+SVM模型分別降低53.44%、53.14%;改進(jìn)YOLOv3模型對(duì)農(nóng)具的誤差均值em和誤差比均值erm相較于YOLOv3模型分別降低26.47%、26.12%,比Hog+SVM模型分別降低41.9%、41.73%;改進(jìn)YOLOv3模型對(duì)樹(shù)樁的誤差均值em和誤差比均值erm相較于YOLOv3模型分別降低25.69%、25.65%,比Hog+SVM模型分別降低43.14%、43.01%;隨著障礙物目標(biāo)與相機(jī)之間距離增大,3種模型的深度估計(jì)誤差均值em和誤差比均值erm均無(wú)明顯變化規(guī)律。

      3.3 動(dòng)態(tài)避障試驗(yàn)

      試驗(yàn)于2020年5月在南京農(nóng)業(yè)大學(xué)農(nóng)機(jī)試驗(yàn)場(chǎng)進(jìn)行,對(duì)動(dòng)態(tài)場(chǎng)景下視覺(jué)感知系統(tǒng)的深度估計(jì)精度和避障效果進(jìn)行測(cè)試。由于行駛中的拖拉機(jī)與障礙物行人之間的深度真值無(wú)法用測(cè)距儀實(shí)時(shí)測(cè)得,試驗(yàn)中在拖拉機(jī)車(chē)尾部署一個(gè)GPS接收機(jī),同時(shí)行人手持一個(gè)GPS接收機(jī),并用2個(gè)GPS定位坐標(biāo)之間的距離除去拖拉機(jī)GPS接收機(jī)至車(chē)頭的距離(289 cm)作為實(shí)時(shí)的深度真值,自主導(dǎo)航試驗(yàn)裝置如圖10所示。

      由于計(jì)算機(jī)處理有效數(shù)字長(zhǎng)度有限,將坐標(biāo)原點(diǎn)從117°E 與赤道的交點(diǎn)向東平移159 000 m,向北平移3 557 000 m,并以平移后的點(diǎn)為參考原點(diǎn)。試驗(yàn)中拖拉機(jī)按導(dǎo)航基線(xiàn)AB由A向B直線(xiàn)行駛,起點(diǎn)A坐標(biāo)(227.198 6,176.401 6),平均速度0.31 m/s,障礙物行人沿導(dǎo)航基線(xiàn)由B向A行走,起點(diǎn)B坐標(biāo)(227.173 9,182.225 8),平均速度0.18 m/s。為保證行人安全,將深度預(yù)警值設(shè)為2.4 m,相機(jī)抓圖的頻率設(shè)置為1 Hz,電控液壓轉(zhuǎn)向模塊轉(zhuǎn)角為18°。本次試驗(yàn)從拖拉機(jī)點(diǎn)火啟動(dòng)開(kāi)始,至拖拉機(jī)轉(zhuǎn)向避障后障礙物離開(kāi)相機(jī)視角結(jié)束,共耗時(shí)9 s。拖拉機(jī)啟動(dòng)時(shí)深度值為5.22 m,之后每秒輸出1次深度估計(jì)值,在行駛6 s后深度估計(jì)結(jié)果為2.14 m,小于試驗(yàn)設(shè)置的預(yù)警值并觸發(fā)電控液壓轉(zhuǎn)向模塊以固定右轉(zhuǎn)角18°進(jìn)行安全避障,執(zhí)行避障動(dòng)作3 s后障礙物離開(kāi)相機(jī)視角同時(shí)系統(tǒng)停止深度估計(jì),試驗(yàn)結(jié)果如圖11所示。

      表3為動(dòng)態(tài)試驗(yàn)中深度估計(jì)精度的誤差統(tǒng)計(jì),深度真值用GPS坐標(biāo)間的歐氏距離除去車(chē)載GPS到相機(jī)的距離289 cm進(jìn)行表示,深度估計(jì)值為本文基于改進(jìn)YOLOv3的深度估計(jì)結(jié)果。

      表3 動(dòng)態(tài)場(chǎng)景深度估計(jì) Table 3 Depth estimation in dynamic scene

      由表3可知,隨著自主導(dǎo)航時(shí)間的增加,拖拉機(jī)與障礙物之間的深度真值和深度估計(jì)值不斷減小且變化趨勢(shì)一致;同時(shí),誤差均值em從初始的27 cm不斷減少至5 cm,但平均誤差比均值erm為4.66%,無(wú)明顯變化規(guī)律,維持在6%以下,比靜態(tài)深度估計(jì)的誤差比均值降低7.19%,算法平均耗時(shí)為0.573 s。

      4 結(jié) 論

      1)本文設(shè)計(jì)了一套基于農(nóng)業(yè)機(jī)械的障礙物視覺(jué)感知系統(tǒng),系統(tǒng)將嵌入式AI計(jì)算機(jī)作為控制核心,極大節(jié)省了機(jī)械的空間資源,能夠?qū)φ系K物的類(lèi)別和深度信息進(jìn)行準(zhǔn)確檢測(cè)。

      2)本文提出一種基于改進(jìn)YOLOv3模型的深度估計(jì)方法,通過(guò)增大模型對(duì)圖像x軸的敏感程度來(lái)提高深度估計(jì)精度,相對(duì)于YOLOv3模型和傳統(tǒng)檢測(cè)方法Hog+SVM其深度估計(jì)的誤差均值、誤差比均值均有較大改善。動(dòng)態(tài)避障試驗(yàn)結(jié)果表明,隨著行駛過(guò)程的進(jìn)行,誤差均值從初始的27 cm不斷減少至5 cm,誤差比均值無(wú)明顯變化規(guī)律,但始終維持在6%以下,比靜態(tài)深度估計(jì)的誤差比均值降低7.19%,成功避障。

      由于YOLOv3模型的網(wǎng)絡(luò)結(jié)構(gòu)深參數(shù)量大,在嵌入式終端的實(shí)時(shí)推理速度有限。后續(xù)研究中將選用更加輕量級(jí)的YOLOv3-tiny模型和運(yùn)算力更高的終端xavier,進(jìn)行動(dòng)態(tài)障礙物的深度估計(jì)試驗(yàn),不斷提高平臺(tái)的實(shí)時(shí)推理幀率。

      猜你喜歡
      質(zhì)心障礙物拖拉機(jī)
      重型半掛汽車(chē)質(zhì)量與質(zhì)心位置估計(jì)
      飛上天的“拖拉機(jī)”
      基于GNSS測(cè)量的天宮二號(hào)質(zhì)心確定
      高低翻越
      SelTrac?CBTC系統(tǒng)中非通信障礙物的設(shè)計(jì)和處理
      牛哄哄的拖拉機(jī)
      拖拉機(jī)闖禍了
      小布老虎(2016年12期)2016-12-01 05:47:00
      冬季拖拉機(jī)的使用與維護(hù)
      一種海洋測(cè)高衛(wèi)星質(zhì)心在軌估計(jì)算法
      航天器工程(2014年5期)2014-03-11 16:35:53
      土釘墻在近障礙物的地下車(chē)行通道工程中的應(yīng)用
      龙泉市| 南召县| 山东| 阿巴嘎旗| 麟游县| 德令哈市| 景谷| 永安市| 历史| 黎川县| 西贡区| 漳浦县| 攀枝花市| 罗城| 邵东县| 昭苏县| 湾仔区| 阿荣旗| 福安市| 安仁县| 玉田县| 昌江| 苍南县| 大庆市| 共和县| 克山县| 华宁县| 舞阳县| 吴川市| 巴林右旗| 宜良县| 嘉黎县| 朔州市| 咸宁市| 嵊泗县| 乌什县| 广州市| 津市市| 金溪县| 额济纳旗| 尤溪县|