查榮瑞, 馬云華, 燕 翔, 鄭 霜
(華能瀾滄江水電股份有限公司糯扎渡水電廠,云南 普洱 665005)
移動機(jī)器人是一個集計(jì)算機(jī)科學(xué)、電子工程、傳感器技術(shù)、自動控制理論、人工智能等多個學(xué)科理論于一體的綜合系統(tǒng),代表著科學(xué)技術(shù)的最新進(jìn)展[1]。隨著《中國制造2025》戰(zhàn)略規(guī)劃的全面推進(jìn)下,移動機(jī)器人技術(shù)得到了迅速發(fā)展與應(yīng)用,在工業(yè)、農(nóng)業(yè)、交通、電力、醫(yī)療、服務(wù)等行業(yè)都占據(jù)著必不可少的地位[2]。對于移動機(jī)器人而言,如何有效實(shí)現(xiàn)自主避障是其體現(xiàn)性能的關(guān)鍵因素。目前,移動機(jī)器人主要利用測距傳感器和視覺傳感器結(jié)合避障算法完成避障[3]。測距傳感器主要利用激光雷達(dá)、超聲波等設(shè)備獲取障礙物信息,該方式的測距精度高,但傳感器成本也較高,同時,隨著機(jī)器人應(yīng)用場景日益復(fù)雜,僅靠障礙物距離信息開始逐漸無法滿足實(shí)際需求[4]。而基于視覺傳感器的避障方法由于成本較低,并且可以獲取豐富的環(huán)境信息,逐漸成為了當(dāng)前的研究熱點(diǎn)[5]。同時,隨著近幾年深度學(xué)習(xí)技術(shù)的不斷突破,逐漸彌補(bǔ)了傳統(tǒng)基于機(jī)器學(xué)習(xí)的視覺避障方法存在的局限,為移動機(jī)器人的避障提供了新的思路[6]。因此,研究一種基于深度學(xué)習(xí)的視覺避障方法不僅可以提高移動機(jī)器人在復(fù)雜環(huán)境中導(dǎo)航避障的泛化能力和可靠性,并且對于智能化機(jī)器人的發(fā)展也有較大的推動作用。
目前,已有不少研究者針對移動機(jī)器人視覺避障進(jìn)行了相應(yīng)研究,并取得了一系列成果。李娟等人[7]針對三輪全向移動機(jī)器人自主避障問題,利用OpenMV中目標(biāo)檢測算法對障礙物進(jìn)行識別和定位,再根據(jù)不同障礙物位置信息結(jié)合模糊控制算法來輔助機(jī)器人完成避障。劉明春[8]提出了一種基于深度學(xué)習(xí)的變電站巡檢機(jī)器人場景理解及避障方法,通過全卷積神經(jīng)網(wǎng)絡(luò)對圖像進(jìn)行語義分割,再根據(jù)分割結(jié)果判斷機(jī)器人可行道路區(qū)域,進(jìn)而實(shí)現(xiàn)機(jī)器人避障。Li等人[9]在ROS平臺上提出了一種基于機(jī)器視覺的動態(tài)障礙檢測避障方法。該方法采用改進(jìn)的YOLO-v3的目標(biāo)檢測算法實(shí)現(xiàn)實(shí)時檢測動態(tài)障礙物,并結(jié)合改進(jìn)的動態(tài)窗口法(DWA)局部路徑避障算法來提高移動機(jī)器人的局部避障性能。Saleem等人[10]針對移動機(jī)器人在室內(nèi)環(huán)境中的避障問題提出了一種深層卷積神經(jīng)網(wǎng)絡(luò)(CNN),利用慣性測量單元(IMU)獲得的機(jī)器人方向并結(jié)合深度圖像(RGBD)訓(xùn)練神經(jīng)網(wǎng)絡(luò),通過網(wǎng)絡(luò)生成機(jī)器人方向控制命令,指導(dǎo)機(jī)器人避障?,F(xiàn)有方法從不同角度、場景分析了移動機(jī)器人避障問題,并提出了相應(yīng)的避障思路,但大多數(shù)方法仍存在對場景理解不充分、避障策略局限性較大等問題。因此,對于移動機(jī)器人避障問題,仍有較大的探索空間和研究價值。
為提升移動機(jī)器人避障性能,本文在分析現(xiàn)有視覺避障策略存在的不足后,設(shè)計(jì)了一種融合深度學(xué)習(xí)技術(shù)和Bug算法的機(jī)器人自主避障方法。該方法首先以卷積核為核心設(shè)計(jì)特征提取單元,通過依次堆疊的方式構(gòu)建深層卷積神經(jīng)網(wǎng)絡(luò),用于提取道路場景特征;其次,利用提取的特征信息分別對機(jī)器人運(yùn)動方向預(yù)測和道路場景語義分割;最后,通過濾波、構(gòu)形空間變換等操作將語義分割結(jié)果轉(zhuǎn)化為柵格地圖,并基于柵格地圖結(jié)合機(jī)器人運(yùn)動方向與Bug算法,規(guī)劃出機(jī)器人避障路線,指導(dǎo)機(jī)器人實(shí)現(xiàn)避障。同時,為了降低該方法在實(shí)際場景中的冗余計(jì)算,引入了特征對比模塊,通過對比關(guān)鍵特征層在前后兩幀圖像中的道路信息變化情況來判斷機(jī)器人是否繼續(xù)執(zhí)行上一個動作,進(jìn)而保障實(shí)際運(yùn)行效率。通過實(shí)驗(yàn)表明,所提方法可以有效實(shí)現(xiàn)場景分割和行駛方向預(yù)測,并能準(zhǔn)確指導(dǎo)機(jī)器人避障。同時,在實(shí)際場景中,該方法也體現(xiàn)出較好的魯棒性,保障機(jī)器人高效完成自主避障。
本文所提的移動機(jī)器人視覺避障方法整體結(jié)構(gòu)如圖1所示。該方法主要由特征提取網(wǎng)絡(luò)、任務(wù)分支、改進(jìn)的Bug避障策略以及特征對比結(jié)構(gòu)4個部分組成。特征提取網(wǎng)絡(luò)主要以卷積、池化、激活等操作以密集連接的方式依次串聯(lián)堆疊構(gòu)成,對輸入圖像由淺到深的提取關(guān)鍵信息。任務(wù)分支分為語義分割和機(jī)器人行駛方向分類兩條支路,語義分割支路為機(jī)器人提供準(zhǔn)確的場景信息,方便機(jī)器人構(gòu)建柵格地圖;分類支路則從全局角度上為后續(xù)機(jī)器人避障提供指導(dǎo)信息。改進(jìn)的Bug避障策略則基于柵格地圖與分類支路結(jié)果,通過迭代搜索出最優(yōu)避障方向,指導(dǎo)機(jī)器人準(zhǔn)確避障。而特征對比結(jié)構(gòu)則是結(jié)合實(shí)際,對整個避障過程在計(jì)算效率上的優(yōu)化,通過計(jì)算特征提取網(wǎng)絡(luò)中關(guān)鍵特征層在前后兩幀圖像上的差異來降低冗余計(jì)算,從而保證所提方法的實(shí)際落地性和高效性。
圖1 整體框架結(jié)構(gòu)圖
基于深度學(xué)習(xí)的計(jì)算機(jī)視覺是當(dāng)前人工智能最熱門的研究領(lǐng)域,主要包含圖像分類、目標(biāo)定位、目標(biāo)檢測以及圖像分割四大基本任務(wù)[11],盡管各視覺任務(wù)內(nèi)容差異較大,但其首要目標(biāo)都是對圖像關(guān)鍵特征進(jìn)行提取。目前,經(jīng)典的特征提取網(wǎng)絡(luò)主要有LeNet、AlexNet、VGGNet、InceptionNet、ResNet等[12]。而隨著近幾年深度學(xué)習(xí)技術(shù)的不斷發(fā)展,特征提取網(wǎng)絡(luò)針對不同的視覺任務(wù)以及應(yīng)用場景也進(jìn)化出了一系列結(jié)構(gòu),如圖像分類網(wǎng)絡(luò)MobileNet[13]、EfficientNet[14]等;目標(biāo)檢測網(wǎng)絡(luò)YOLO[15]、MobileDets[16]等;語義分割網(wǎng)絡(luò)ShuffleSeg[17]、BiSeNet[18]、STDC[19]等。為有效提取圖像特征,同時考慮到對應(yīng)視覺任務(wù)以及實(shí)際應(yīng)用場景,本文在對比分析現(xiàn)有網(wǎng)絡(luò)結(jié)構(gòu)后,設(shè)計(jì)了適用于移動機(jī)器人的特征提取網(wǎng)絡(luò)。
所提特征提取網(wǎng)絡(luò)主要由特征預(yù)處理結(jié)構(gòu)和多個不同維度的特征提取模塊串聯(lián)組成,如圖2所示。圖2(a)為特征預(yù)處理結(jié)構(gòu)(Prep),主要由并列的3×3大小的標(biāo)準(zhǔn)卷積、深度可分離卷積、空洞卷積以及2×2大小的最大池化拼接后再進(jìn)行卷積融合,所有操作步長為2。該結(jié)構(gòu)主要目標(biāo)是在降維的同時從多個角度提取輸入圖像特征,減少噪聲干擾、保障有效特征的提取并降低后續(xù)提取高維特征的計(jì)算量。圖2(b)為特征提取模塊(Stage),通過對輸入特征先以降通道再降維度的方式逐層提取,并以密集連接的方式融合提取的特征信息,可以有效提供整體網(wǎng)絡(luò)的非線性表達(dá)能力。同時,降低每層通道數(shù)在一定程度上降低了信息冗余,保障了網(wǎng)絡(luò)計(jì)算效率;而降維度提取特征則提高了該特征模塊對多尺度目標(biāo)信息的獲取。圖2(c)為不同維度特征模塊之間的連接,通過步長為2的卷積和平均池化操作來降低維度,盡可能的避免有效信息的丟失。特征提取網(wǎng)絡(luò)中深層特征模塊相對淺層的特征,維度更低,特征通道數(shù)更多,包含的細(xì)節(jié)特征較少,而語義特征較多。網(wǎng)絡(luò)具體結(jié)構(gòu)如表1所示,其中Layer Structure為網(wǎng)絡(luò)層結(jié)構(gòu), stride為步長,Repetition為重復(fù)次數(shù),Output Size為輸出特征圖大小。
圖2 場景理解網(wǎng)絡(luò)模塊
表1 場景理解網(wǎng)絡(luò)結(jié)構(gòu)
任務(wù)分支是利用特征提取網(wǎng)絡(luò)獲取的圖像特征信息完成相應(yīng)的計(jì)算機(jī)視覺任務(wù)。為有效實(shí)現(xiàn)機(jī)器人導(dǎo)航避障,任務(wù)分支采用了圖像分類和圖像語義分割來共同輔助機(jī)器人避障。圖像分類分支主要從圖像全局角度對機(jī)器人下一步行駛方向進(jìn)行分類預(yù)測(直行、左偏、右偏、停止),保證機(jī)器人整體行駛方向準(zhǔn)確,避免機(jī)器人陷入局部“死胡同”之中。該分支相對簡單,只需要利用深層抽象特征進(jìn)行全連接后分類即可,結(jié)構(gòu)如圖3(a)所示。語義分割分支相對于分類更復(fù)雜,該分支需要將深層抽象信息和淺層細(xì)節(jié)信息結(jié)合,實(shí)現(xiàn)對輸入圖像中每個像素的識別分類,使機(jī)器人能理解所處環(huán)境,完成局部精確避障。為保證語義分割效果與效率,選擇特征提取模塊最后一層的輸出作為輸入,采用由深到淺逐步上采樣的方式進(jìn)行融合,如圖3(b)所示。同時,融合時引入注意力機(jī)制來提升有效信息的權(quán)重,降低無效特征干擾,從而提升語義分割準(zhǔn)確度,注意力結(jié)構(gòu)如圖3(c)所示。
圖3 任務(wù)分支結(jié)構(gòu)
深度網(wǎng)絡(luò)只是幫助移動機(jī)器人從全局的角度理解所處的環(huán)境,而為實(shí)現(xiàn)機(jī)器人安全準(zhǔn)確避障,需要進(jìn)一步將分類和分割結(jié)果與避障算法相結(jié)合。因此,本文首先根據(jù)語義分割結(jié)果將機(jī)器人所處場景轉(zhuǎn)化為柵格地圖,再基于柵格地圖將分類結(jié)果與Bug避障方法相結(jié)合,搜索出安全避障路徑,避障流程如圖4所示。
圖4 避障策略流程
該避障策略分為柵格地圖構(gòu)建和Bug避障規(guī)劃。柵格地圖構(gòu)建首先是對語義分割結(jié)果進(jìn)行二值化操作,提取出道路區(qū)域,并利用中值濾波、腐蝕再膨脹等圖像預(yù)處理操作剔除噪聲;其次,搜索出最大的道路連通區(qū)域,作為機(jī)器人可行道路區(qū)域;同時,考慮到機(jī)器人自身會占據(jù)一定道路區(qū)域,因此,需要對可行道路區(qū)域進(jìn)行構(gòu)形空間(C空間)轉(zhuǎn)化,即利用不同大小的卷積核腐蝕道路區(qū)域,模擬機(jī)器人由近到遠(yuǎn)所占道路面積;最后,將處理后的語義分割圖劃分成m×n維度的柵格,根據(jù)每個柵格中是否全為道路像素來判斷其是否可通行,最終將圖像轉(zhuǎn)為m×n的柵格地圖。柵格地圖構(gòu)建過程如圖5所示。
圖5 柵格地圖構(gòu)建
為保證機(jī)器人安全有效的完成避障,本文在傳統(tǒng)Bug算法基礎(chǔ)上進(jìn)行改進(jìn),基于柵格地圖并結(jié)合分類結(jié)果來為機(jī)器人提供準(zhǔn)確的避障方向。傳統(tǒng)的Bug算法中當(dāng)機(jī)器人遇到障礙物時將繞著障礙物行駛,而在實(shí)際應(yīng)用中,該方式效率較低且容易陷入“死胡同”。針對此,本文利用分類結(jié)果保障機(jī)器人全局方向的準(zhǔn)確性,并通過迭代分段尋路方式優(yōu)化Bug算法,保證機(jī)器人局部避障方向最優(yōu)性。具體避障偽代碼如表2所示,對應(yīng)分類結(jié)果為右偏時的路徑搜索如圖6所示。
表2 改進(jìn)的Bug算法偽代碼
圖6 改進(jìn)的Bug路徑搜索
特征對比結(jié)構(gòu)主要是結(jié)合移動機(jī)器人實(shí)際情況,從全局的角度對所提方法進(jìn)行優(yōu)化。通常,大多數(shù)移動機(jī)器人行駛時,速度相對較慢,有障礙物路段相對較少,因此,對于機(jī)器人而言,行駛過程中相鄰圖像幀之間可行道路區(qū)域重復(fù)率較高。基于此,為避免對重復(fù)信息的計(jì)算,保證所提方法在實(shí)際應(yīng)用中的實(shí)時性,引入了如圖7所示的道路特征對比計(jì)算流程。
圖7 特征對比計(jì)算過程
對于整個網(wǎng)絡(luò)而言,特征層stage1的輸出決定著最終的避障動作,即兩張輸入圖像若stage1輸出相同,則最終輸出也相同,因此特征對比結(jié)構(gòu)以stage1為輸入。將stage1輸出特征圖通過線性打分層(Conv1×1)來預(yù)測每個位置像素屬于每個類別的概率,并取最大概率的類別為該像素類別;然后,提取出其中道路像素并將特征圖轉(zhuǎn)為0-1編碼,即道路像素為1,其他為0,將轉(zhuǎn)化后的特征圖與緩存中的上一幀特征進(jìn)行對比,利用漢明距離計(jì)算兩者之間相似性,如式(1)所示;最后,根據(jù)專家設(shè)置相似度閾值來判斷是否繼續(xù)后續(xù)的特征計(jì)算還是持續(xù)機(jī)器人上一個動作。
D(It,It-1)=count1(ItxorIt-1)
(1)
其中:It和It-1表示當(dāng)前幀和上一幀圖像,xor表示對兩圖像相同位置異或操作,count1表示統(tǒng)計(jì)1的總數(shù),D表示計(jì)算兩幀圖像的漢明距離。
為有效驗(yàn)證所提方法的可行性,實(shí)驗(yàn)采用了多個數(shù)據(jù)集對所提網(wǎng)絡(luò)性能進(jìn)行了測試,并在實(shí)際場景中驗(yàn)證了移動機(jī)器人避障效果。實(shí)驗(yàn)主要利用嵌入式AI計(jì)算平臺NVIDIA Jetson Xavier NX為基礎(chǔ),分別對所提分類網(wǎng)絡(luò)、語義分割網(wǎng)絡(luò)、分類分割網(wǎng)絡(luò)以及最終機(jī)器人避障效果進(jìn)行了測試。所提網(wǎng)絡(luò)采用TensorFlow深度學(xué)習(xí)框架進(jìn)行搭建,網(wǎng)絡(luò)超參數(shù)主要借鑒同類型網(wǎng)絡(luò)[13-14,18-19]設(shè)置,超參設(shè)置如表3所示。
表3 網(wǎng)絡(luò)超參數(shù)設(shè)置
網(wǎng)絡(luò)訓(xùn)練時以交叉熵?fù)p失函數(shù)計(jì)算誤差,由于所提網(wǎng)絡(luò)為多任務(wù)結(jié)構(gòu),故網(wǎng)絡(luò)訓(xùn)練時整體損失為分類和分割誤差之和,具體計(jì)算公式如式(2)~(4)所示。對于所提方法性能評估主要采用分類精度(P)、平均精度(AP)、全局精度(G)、平均精度(C)、交除并均值 (mIoU)以及每秒處理圖像數(shù)量 (FPS)等幾個指標(biāo)來進(jìn)行衡量。
(2)
(3)
Lall=Lcls+Lseg
(4)
其中:ai表示目標(biāo)屬于第i類的概率,N為目標(biāo)類別數(shù),Si表示對第i類概率進(jìn)行指數(shù)歸一化處理,yi為標(biāo)簽值,L為交叉熵?fù)p失函數(shù),Lcls和Lseg分別為分類和分割損失。
分類分割網(wǎng)絡(luò)的精度直接影響著后續(xù)機(jī)器人的避障效果,為了有效驗(yàn)證所設(shè)計(jì)的網(wǎng)絡(luò),實(shí)驗(yàn)利用了多個公開數(shù)據(jù)集以及實(shí)際道路場景數(shù)據(jù)集分別對分類、分割和結(jié)合后的網(wǎng)絡(luò)進(jìn)行測試。由于分類網(wǎng)絡(luò)相對簡單,實(shí)驗(yàn)首先對其進(jìn)行了測試,考慮到實(shí)際機(jī)器人避障應(yīng)用中只分為四類,場景相對簡單,故采用了Animals公開標(biāo)準(zhǔn)數(shù)據(jù)集進(jìn)行訓(xùn)練測試。該數(shù)據(jù)集包含狗、貓以及熊貓3種動物圖像約3 000張,平均每類動物圖像約1 000張左右,圖像大小為960×720。Animals數(shù)據(jù)集與實(shí)際應(yīng)用復(fù)雜度接近,數(shù)據(jù)集較為簡單,可以快速驗(yàn)證所提網(wǎng)絡(luò),將該數(shù)據(jù)集以7:1:2的比例隨機(jī)分配,構(gòu)建訓(xùn)練、驗(yàn)證和測試集,對分類網(wǎng)絡(luò)進(jìn)行迭代訓(xùn)練收斂后與同類型網(wǎng)絡(luò)[13-14]進(jìn)行測試對比,結(jié)果如表4所示。
表4 分類網(wǎng)絡(luò)對比
根據(jù)分類網(wǎng)絡(luò)對比結(jié)果可以看出,網(wǎng)絡(luò)對于狗的分類效果較好,對貓和熊貓識別效果略微較低,但整體的分類效果較佳。而與同類網(wǎng)絡(luò)相比,所提網(wǎng)絡(luò)盡管在效率上未達(dá)到最優(yōu),但識別效果最佳,可以有效保障網(wǎng)絡(luò)后續(xù)任務(wù)。
分類網(wǎng)絡(luò)是從全局角度對整幅圖像進(jìn)行分類,而分割網(wǎng)絡(luò)是從局部角度對圖像每個像素進(jìn)行分類,可見分割網(wǎng)絡(luò)的復(fù)雜度相對更高。而對于分割網(wǎng)絡(luò)的測試主要利用了CamVid和Cityscapes兩個城市道路數(shù)據(jù)集,CamVid數(shù)據(jù)集包含11類目標(biāo)約700張圖像,Cityscapes數(shù)據(jù)集包含19類目標(biāo)約5 000張圖像,統(tǒng)一兩數(shù)據(jù)集圖像尺寸為960×720大小后分別進(jìn)行訓(xùn)練測試,并與同類型網(wǎng)絡(luò)[18,20]進(jìn)行對比,結(jié)果如表5和表6所示,分割效果如圖8所示。
表5 CamVid數(shù)據(jù)集測試結(jié)果對比
表6 Cityscapes數(shù)據(jù)集測試結(jié)果對比
分割結(jié)果可以看出,對于復(fù)雜場景而言,網(wǎng)絡(luò)分割精度有所降低,但全局精度相對較高,可見網(wǎng)絡(luò)對于部分小目標(biāo)識別較差。同時,與同類網(wǎng)絡(luò)相比,所提分割網(wǎng)絡(luò)較好的平衡了計(jì)算效率與分割效果,可以更好的應(yīng)用于實(shí)際場景。
對于分類分割結(jié)合后的網(wǎng)絡(luò)測試,由于未找到相關(guān)公開數(shù)據(jù)集,故采用實(shí)際移動機(jī)器人采集的道路場景圖像約3 000張,包含道路、石子、障礙物等6類目標(biāo),每張圖像分別對應(yīng)直行、左偏、右偏、停止4個類別中的一個,通過人工標(biāo)注并歸一化為960×720大小后進(jìn)行測試驗(yàn)證,并與同類網(wǎng)絡(luò)[21]進(jìn)行對比,結(jié)果如表7和圖9所示。
表7 分類分割網(wǎng)絡(luò)對比
圖9 分類分割結(jié)果對比
根據(jù)上述實(shí)驗(yàn)結(jié)果可以看出,由于任務(wù)分支的變多,網(wǎng)絡(luò)計(jì)算效率有所下降,但從分類以及分割精度可見,所提網(wǎng)絡(luò)在實(shí)際場景中也體現(xiàn)出較好的魯棒性和泛化能力。同時,與同類型網(wǎng)絡(luò)相比,所提結(jié)構(gòu)在犧牲少量效率基礎(chǔ)上較大幅度的提升了網(wǎng)絡(luò)精度,為后續(xù)機(jī)器人避障提供了可靠保障。
分類分割網(wǎng)絡(luò)使移動機(jī)器人可以有效理解所處環(huán)境,為進(jìn)一步測試特征對比結(jié)構(gòu)的有效性以及機(jī)器人的避障效果,實(shí)驗(yàn)利用搭載Jetson Xavier NX的輪式移動機(jī)器人對所提方法進(jìn)行了測試。為方便其他避障方法對比,借鑒了文獻(xiàn)[7]的測試方法,通過固定相機(jī)位置,在不同的機(jī)器人轉(zhuǎn)向視角下,對采集的視頻幀歸一化為960×720后進(jìn)行避障規(guī)劃(設(shè)置柵格地圖維度48×36),根據(jù)最終輸出的避障方向是否與預(yù)期方向一致來衡量機(jī)器人避障效果。實(shí)驗(yàn)首先在無障礙道路和有障礙道路情況下測試了特征差異變化,如圖10所示;再分別對引入特征對比結(jié)構(gòu)前后的避障方法性能進(jìn)行測試,結(jié)果如表8所示。
表8 引入自適應(yīng)控制模塊前后測試結(jié)果
根據(jù)圖10可以看出,無障礙道路前后幀特征差異接近為零,而有障礙道路的特征變化率差異較大,可以較好的區(qū)分當(dāng)前是否有無障礙物,特征差異閾值可設(shè)置為0.1。同時,由表7也可以看出,引入特征對比結(jié)構(gòu)后,所提方法精度輕微降低,但其效率在無障礙物場景下得到了較大提升,有障礙物時也有所提升。由此可見,該結(jié)構(gòu)可以有效提升所提方法在實(shí)際場景中的計(jì)算效率。
圖10 有無障礙物時前后兩幀特征差異
為驗(yàn)證改進(jìn)后的Bug算法有效性,通過模擬復(fù)雜場景,對比改進(jìn)前后的全局尋路效果,如圖11所示。其中,由于是全局尋路,故改進(jìn)后的Bug是以固定終點(diǎn)迭代調(diào)整起點(diǎn)進(jìn)行搜索。
圖11 Bug算法對比
根據(jù)全局路徑搜索結(jié)果可以看出,所提方法所規(guī)劃路徑效率更高、路徑更為合理。而在機(jī)器人實(shí)際應(yīng)用中,由于場景實(shí)時變化,機(jī)器人主要以局部尋路結(jié)果進(jìn)行避障,即固定起點(diǎn)迭代調(diào)整終點(diǎn)的方式,如圖6(b)中只利用SG2指導(dǎo)機(jī)器人行駛。為驗(yàn)證所提方法實(shí)際避障效果,本文分別選擇了多個不同機(jī)器人視角的路徑進(jìn)行測試驗(yàn)證,并與文獻(xiàn)[7、21]的避障方法進(jìn)行了對比,對比結(jié)果如表9所示,所提方法避障規(guī)劃效果圖12所示。
表9 機(jī)器人避障效果對比
圖12 避障規(guī)劃(從上到下依次為直行、右偏、左偏、停止)
根據(jù)上述結(jié)果可以看出,本文所提方法在實(shí)際場景中平均避障效率以及精度都較優(yōu)于同類型避障方法,盡管在有障礙物時機(jī)器人效率會受到較大影響,但在實(shí)際避障過程中,機(jī)器人行駛速度也有所降低,故所提方法可以基本保障機(jī)器人實(shí)時避障需求。同時,根據(jù)圖12也可以看出,所提方法可以有效地為機(jī)器人規(guī)劃出當(dāng)前最優(yōu)方向以及大致轉(zhuǎn)向角度,保障了移動機(jī)器人行駛區(qū)域的安全可靠。
本文針對目前移動機(jī)器人在避障過程中存在的不足,提出了一種將深層卷積神經(jīng)網(wǎng)絡(luò)與改進(jìn)后的Bug路徑規(guī)劃相結(jié)合的機(jī)器人自主避障方法。該方法首先采用多層卷積稠密連接方式逐步提取圖像特征,并利用提取的特征信息通過全連接、跳層上采樣融合、注意力機(jī)制等操作抽象出機(jī)器人轉(zhuǎn)向信息并對圖像中各目標(biāo)進(jìn)行語義分割,使機(jī)器人理解自身所處場景。其次,將分割結(jié)果進(jìn)行濾波、腐蝕等處理后提取機(jī)器人可行道路區(qū)域,再將其轉(zhuǎn)化為機(jī)器人構(gòu)形空間后構(gòu)建柵格地圖。最后,基于柵格地圖,通過分段尋路方式優(yōu)化Bug路徑搜索算法,并將其與機(jī)器人轉(zhuǎn)向信息相結(jié)合,規(guī)劃出最優(yōu)的避障方向。同時,為避免該方法在實(shí)際應(yīng)用中對相似場景重復(fù)計(jì)算,引入了特征對比結(jié)構(gòu),有效提升了所提方法的計(jì)算效率。通過實(shí)驗(yàn)結(jié)果表明,本文所提方法可以有效的為機(jī)器人提供安全準(zhǔn)確的避障路線,同時與同類型方法相比,該方法也體現(xiàn)出更高的精度與效率,能夠高效輔助移動機(jī)器人實(shí)現(xiàn)自主避障。
盡管所提方法在一定程度上取得了不錯的效果,但仍有較多值得深入探索的地方,如機(jī)器人可行區(qū)域的劃分可進(jìn)一步擴(kuò)展等。同時,隨著移動機(jī)器人應(yīng)用的場景逐漸復(fù)雜,所提方法也需要考慮更多環(huán)境因素的影響,后續(xù)仍需持續(xù)優(yōu)化完善。