肖寒春,孫鵬飛,李 津
(1.重慶郵電大學(xué)通信工程應(yīng)用研究所,重慶400065;2.重慶郵電大學(xué)計(jì)算機(jī)學(xué)院,重慶400065;3.重慶郵電大學(xué)通信學(xué)院,重慶400065)
智能機(jī)器人的避障問(wèn)題是機(jī)器人路徑研究領(lǐng)域的核心問(wèn)題之一[1]。工作中的移動(dòng)機(jī)器人所面臨的外部環(huán)境通常是未知的,由于外部環(huán)境的復(fù)雜性和不確定性,因此要求機(jī)器人要有自主的導(dǎo)航和避障系統(tǒng)。針對(duì)這個(gè)問(wèn)題,國(guó)內(nèi)外學(xué)者提出許多解決方法,如Souhila K[2]利用視覺(jué)傳感器的移動(dòng)避障方法,雖探測(cè)范圍比較廣,但其利用單視覺(jué)傳感器只能獲取二維的圖像信息,無(wú)法提取障礙物的三維信息,使其避障能力差。張幼明[3]等利用多測(cè)距傳感器的移動(dòng)避障方法,探測(cè)范圍十分有限,普適性差??梢?jiàn),每一種傳感器都存在自己的不足,僅依靠單傳感器無(wú)法滿足要求。然而,不同的環(huán)境監(jiān)測(cè)傳感器監(jiān)測(cè)到的信息是互補(bǔ)的,能更全面的描述外部環(huán)境,對(duì)這些信息進(jìn)行融合可提高系統(tǒng)的可靠性和魯棒性[4]。因此,多傳感器信息融合技術(shù)在移動(dòng)機(jī)器人中的應(yīng)用也越來(lái)越多[5-8]。陳延偉等[5]采用BP神經(jīng)網(wǎng)絡(luò)對(duì)障礙物環(huán)境進(jìn)行分類以及模式識(shí)別,為移動(dòng)機(jī)器人的導(dǎo)航和避障提供了一種有效的方法。王艷平[6]利用模糊神經(jīng)網(wǎng)絡(luò)對(duì)多傳感器信息進(jìn)行融合,用于移動(dòng)機(jī)器人的避障。
但是在這些文獻(xiàn)中所使用的多傳感器是同一類型的。為更好的監(jiān)測(cè)外部環(huán)境,筆者在智能輪椅上裝載了多個(gè)聲納探測(cè)器和一個(gè)攝像頭對(duì)外部環(huán)境信息進(jìn)行探測(cè),聲納裝置可以測(cè)得機(jī)器人到障礙物的縱向距離,而攝像頭則能測(cè)得障礙物的橫向?qū)挾取R虼?,通過(guò)使用這兩類不同傳感器采集到的環(huán)境數(shù)據(jù)更加全面。實(shí)驗(yàn)過(guò)程中,雖然傳感器監(jiān)測(cè)到的信息具有一定的不確定性,但本文所選用的模糊神經(jīng)網(wǎng)絡(luò)算法由于綜合了模糊邏輯控制的優(yōu)點(diǎn)和神經(jīng)網(wǎng)絡(luò)的自學(xué)習(xí)能力,因此對(duì)信息的準(zhǔn)確性依賴并不大。本文最后的仿真實(shí)驗(yàn)利用模糊神經(jīng)網(wǎng)絡(luò)算法對(duì)多個(gè)傳感器監(jiān)測(cè)得到的外部環(huán)境數(shù)據(jù)進(jìn)行信息融合,再根據(jù)信息融合得到的結(jié)果控制機(jī)器人移動(dòng)的線速度和角速度,從而達(dá)到了控制智能輪椅移動(dòng)避障的目的。
實(shí)驗(yàn)中輪椅的前方、左側(cè)、右側(cè)上共安裝了6個(gè)聲納探測(cè)器和一個(gè)攝像頭,其基本的安裝排列如圖1所示。
圖1 實(shí)驗(yàn)用機(jī)器人
6個(gè)聲納探測(cè)器能獲得到的監(jiān)測(cè)數(shù)據(jù)分別為d1~~d6,根據(jù)6個(gè)聲納所在的位置可分為前、左、右3組,數(shù)據(jù)量化公式為
式中:x1——輪椅左側(cè)到障礙物的距離,x2——輪椅前部到障礙物的距離,x3——輪椅右側(cè)到障礙物的距離,α——固定的權(quán)重參數(shù),設(shè)為α=0.5。
將位于圖1中7點(diǎn)的攝像頭采集到的圖片則經(jīng)過(guò)灰度化處理、去噪處理,最后生成圖片中障礙物的邊緣曲線。分析曲線之后可以進(jìn)行有效的轉(zhuǎn)向行為。輪椅躲避障礙物時(shí)的轉(zhuǎn)向判斷原理圖 (如圖2所示)。
攝像頭采集的照片正中會(huì)有水平方向上的中軸線OM,下方的O點(diǎn)即為機(jī)器人所在位置,可以得到從O點(diǎn)出發(fā)的射線OA、OB分別交于障礙物的左右邊緣,此時(shí)就形成了兩個(gè)夾角∠AOM和∠BOM,大小分別為θ和β
根據(jù)θ、β的大小來(lái)判斷機(jī)器人的轉(zhuǎn)向方向:當(dāng)θ<β時(shí),機(jī)器人向左轉(zhuǎn);當(dāng)θ≥β時(shí),機(jī)器人向右轉(zhuǎn)。
圖2 攝像頭采集圖片處理
圖2 中β角較小,以此圖為例。過(guò)B點(diǎn)作垂直O(jiān)B的線段BC,BC近似為障礙物上B點(diǎn)的法線,BC的長(zhǎng)度l=l1+l2,l1是固定值,表示聲納可測(cè)范圍的最小距離值,l2為機(jī)器人寬度的一半由三角函數(shù)公式可得出OB長(zhǎng)l3=則:即有
因此,機(jī)器人在遇到障礙物時(shí)的轉(zhuǎn)向角度t> +t1(BC為近似法線)。
模糊神經(jīng)網(wǎng)絡(luò)的基本原理是[9]:使用神經(jīng)網(wǎng)絡(luò)的基本框架,在輸入層和輸出層之間加入了模糊規(guī)則控制,并用多層前饋網(wǎng)絡(luò)設(shè)置來(lái)構(gòu)造模糊變量集、隸屬函數(shù)和模糊控制規(guī)則模型,經(jīng)過(guò)多次學(xué)習(xí)調(diào)整網(wǎng)絡(luò)的權(quán)重來(lái)優(yōu)化整個(gè)模糊神經(jīng)網(wǎng)絡(luò)[10]。本文使用基于Takagi-Sugeno(T-S)模型的模糊神經(jīng)網(wǎng)絡(luò)[11],它可以有效表示出一些比較復(fù)雜的系統(tǒng),并能對(duì)非線性系統(tǒng)進(jìn)行精確的處理。與其他類型的模糊推理方法不同,T-S型模糊推理系統(tǒng)的模糊規(guī)則的后件是輸入變量的線性組合。圖3為模糊神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)設(shè)計(jì)圖,由聲納測(cè)得的三個(gè)xi值以及一個(gè)轉(zhuǎn)向角度t作為神經(jīng)網(wǎng)絡(luò)的輸入,下面對(duì)模糊神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖進(jìn)行說(shuō)明。
該網(wǎng)絡(luò)結(jié)構(gòu)由兩部分組成,圖中的1到4層為前件網(wǎng)絡(luò),前件網(wǎng)絡(luò)產(chǎn)生的結(jié)果對(duì)應(yīng)了第6層輸出結(jié)果的權(quán)重值;第5到7層為后件網(wǎng)絡(luò)。
第一層是輸入層,該層各個(gè)節(jié)點(diǎn)直接與輸入向量的各個(gè)分量相鏈接,即三個(gè)測(cè)量值xi
第二層的輸入輸出為
圖3 基于T-S模型的模糊神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
第三層的每一個(gè)節(jié)點(diǎn)代表著一條模糊規(guī)則,是用來(lái)計(jì)算出每一條規(guī)則的適用度
式中s1j,s2j,s3j均有1,2兩種情況。因此αj作為規(guī)則適用度,一共有6種選擇j∈(1,2,…6),且αj作為第三層的輸出。
第四層的每一個(gè)節(jié)點(diǎn)代表每一條適用度所占的比例
其中βj是對(duì)應(yīng)的每一個(gè)規(guī)則的實(shí)用程度。
第五層增加了一個(gè)轉(zhuǎn)向角度的輸入
第七層實(shí)現(xiàn)的是清新化處理
最終的輸出結(jié)果V代表機(jī)器人運(yùn)動(dòng)時(shí)的線速度,W是機(jī)器人轉(zhuǎn)向時(shí)的角速度。
智能輪椅使用了6個(gè)聲納探測(cè)器和一個(gè)攝像頭對(duì)外部環(huán)境進(jìn)行監(jiān)測(cè),監(jiān)測(cè)的信息是通過(guò)基于T-S模型的模糊神經(jīng)網(wǎng)絡(luò)來(lái)進(jìn)行融合的。經(jīng)過(guò)訓(xùn)練,智能輪椅在進(jìn)行避障行為時(shí)能夠主動(dòng)繞行障礙物邊緣較短的一側(cè),這是未進(jìn)行信息融合時(shí)機(jī)器人所不能完成的,只能靠人為地設(shè)定優(yōu)先轉(zhuǎn)向方向。并且在進(jìn)行信息融合后,避障行為使用的時(shí)間減少,路徑也得到了優(yōu)化。
仿真實(shí)驗(yàn)中,輪椅的起始位置坐標(biāo)為 (3.5,1),目標(biāo)點(diǎn)位置坐標(biāo)為 (3.5,7),從起點(diǎn)出發(fā),無(wú)碰撞的到達(dá)目標(biāo)點(diǎn)。圖4為使用了聲納傳感器和攝像頭,并在信息融合技術(shù)下的移動(dòng)智能輪椅避障仿真結(jié)果。
圖5、圖6的兩個(gè)實(shí)驗(yàn)沒(méi)有使用攝像頭,沒(méi)有進(jìn)行多傳感器的信息融合,所以在避障時(shí)不能主動(dòng)判定轉(zhuǎn)向,因此圖5中人工預(yù)設(shè)定輪椅避障右轉(zhuǎn),圖6中預(yù)設(shè)定左轉(zhuǎn)。圖中的兩個(gè)障礙物分別在輪椅前進(jìn)路線上的偏左、偏右位置上,從仿真圖中可以明顯看出,圖4中輪椅避障路徑更優(yōu),避障繞行時(shí)走的距離更短。
圖7、圖8、圖9是輪椅在多個(gè)障礙物環(huán)境下,輪椅使用不同的算法時(shí)的移動(dòng)路徑,起始點(diǎn)和目標(biāo)點(diǎn)的位置固定。其中線②是輪椅裝備攝像頭和聲納后并使用信息融合技術(shù)下的運(yùn)動(dòng)軌跡;線①代表輪椅只應(yīng)用聲納探測(cè)且優(yōu)先右轉(zhuǎn)的運(yùn)動(dòng)軌跡;線③代表著輪椅只應(yīng)用聲納探測(cè)且優(yōu)先左轉(zhuǎn)的運(yùn)動(dòng)軌跡。從仿真圖中可以明顯得到,使用信息融合算法后輪椅的移動(dòng)路徑要優(yōu)化很多,到達(dá)目標(biāo)點(diǎn)時(shí)所使用的時(shí)間縮短,移動(dòng)路徑的距離也較短。
圖9 障礙物增加8倍輪椅使用三種方法的移動(dòng)路徑
因此,使用基于模糊神經(jīng)網(wǎng)絡(luò)的多傳感器信息融合技術(shù),可對(duì)智能輪椅避障行為的局部路徑進(jìn)行優(yōu)化,繞行更短的距離,能更快速到達(dá)目標(biāo)點(diǎn)。
多傳感器數(shù)據(jù)融合技術(shù)來(lái)規(guī)劃移動(dòng)機(jī)器人的路徑已經(jīng)成為機(jī)器人路徑研究的趨勢(shì),本文將攝像頭、聲納傳感器配合使用,保證了輪椅能更全面的感知外部環(huán)境;將采集到的信息進(jìn)行預(yù)處理后作為模糊神經(jīng)網(wǎng)絡(luò)的輸入,利用了基于Takagi-Sugeno(T-S)模型的模糊神經(jīng)網(wǎng)絡(luò)方法來(lái)對(duì)采集的環(huán)境信息進(jìn)行融合,網(wǎng)絡(luò)最后輸出了輪椅的線速度和角速度。該方法充分的利用了聲納與攝像頭各自的特點(diǎn);同時(shí)有效的綜合了模糊控制和神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn),可以快速、準(zhǔn)確地計(jì)算出障礙物的位置并完成路徑規(guī)劃。最終實(shí)驗(yàn)也表明,輪椅的避障路徑得到優(yōu)化,避障繞行的距離減小,繞行時(shí)間縮短。因此,該方法使輪椅的智能性得到進(jìn)一步的提高。
[1]XIA Linlin,ZHANG Jianpei,CHU Yan.An application survey on computational intelligence for path planning of mobile robots[J].CAAITransactions on Intelligent Systems,2011,6(2):160-165(in Chinese).[夏琳琳,張健沛,初研.計(jì)算智能在移動(dòng)機(jī)器人路徑規(guī)劃中的應(yīng)用綜述 [J].智能系統(tǒng)學(xué)報(bào),2011,6(2):160-165.]
[2]Souhila K,Karim A.Optical flow based robot obstacle avoidance[J].International Journal of Advanced Robotic Systems,2007,4(1):13-16.
[3]ZHANG Youming,YIN Yixin.Non-linear function fuzzy control algorithm for mobile robot obstacle avoidance[J].Application Research of Computers,2007,24(11):13-16(in Chinese).[張幼明,尹怡欣.基于非線性函數(shù)的移動(dòng)機(jī)器人模糊避障算法 [J].計(jì)算機(jī)應(yīng)用研究,2007,24(11):88-89.]
[4]FAN Xiaojing.Based on multi-sensor information fusion robot obstacle avoidance and navigation control[D].Shenyang:Shenyang Li-gong University,2008:14-22(in Chinese).[范曉靜.基于多傳感器信息融合的機(jī)器人避障和導(dǎo)航控制研究[D].沈陽(yáng):沈陽(yáng)理工大學(xué),2008:14-22.]
[5]CHEN Yanwei,SHI Jiangtian,WU Yanru,et al.Neural network based multi-sensor data fusion in the mobile robots[J].Journal of Changchun University of Technology,2008,29(5):550-555(in Chinese).[陳延偉,施江天,吳艷茹,等.基于神經(jīng)網(wǎng)絡(luò)的多傳感器信息融合技術(shù)在移動(dòng)機(jī)器人中的應(yīng)用[J].長(zhǎng)春工業(yè)大學(xué)學(xué)報(bào),2008,29(5):550-555.]
[6]WANG Yanping.A study on the application of fuzzy neural network information fusion method to robots path planning[J].Information Research,2009,35(4):20-22(in Chinese).[王艷平.模糊神經(jīng)網(wǎng)絡(luò)信息融合方法在機(jī)器人路徑規(guī)劃中的應(yīng)用研究[J].信息化研究,2009,35(4):20-22.]
[7]WANG Tanbin,CHEN Wuwei,LI Jin,et al.Simulations of obstacle avoidance for intelligent vehicles based on vision navigation and multi-sensor fusion[J].Journal of System Simulation,2009,21(4):1015-1019(in Chinese).[王檀彬,陳無(wú)畏,李進(jìn),等.多傳感器融合的視覺(jué)導(dǎo)航智能車避障仿真研究[J].系統(tǒng)仿真學(xué)報(bào),2009,21(4):1015-1019.]
[8]GUO Mingqiang,GUO Yu.Obstacle avoidance of the mobile robot based on information fusion between the sonar and CCD [D].Nanjing:Nanjing University of Science and Technology,2007(in Chinese).[郭明強(qiáng),郭毓.基于CCD和聲納傳感器信息融合的移動(dòng)機(jī)器人避障研究[D].南京:南京理工大學(xué),2007.]
[9]TIAN Yubo.Hybrid neural network technology[M].Beijing:Science Press,2009:194-206(in Chinese).[田雨波.混合神經(jīng)網(wǎng)絡(luò)技術(shù)[M].北京:科學(xué)出版社,2009:194-206.]
[10]LIU Jinkun.Intelligent control[M].Beijing:Publishing House of Electronics Industry,2007:117-123(in Chinese).[劉金琨.智能控制[M].北京:電子工業(yè)出版社,2007:117-123.]
[11]LI Guoyong.Intelligent prediction control on MATLAB[M].Beijing:Publishing House of Electronics Industry,2010:230-235(in Chinese).[李國(guó)勇.智能預(yù)測(cè)控制及其MATLAB實(shí)現(xiàn)[M].北京:電子工業(yè)出版社,2010:230-235.]