陳紹茹, 陳奕梅
(天津工業(yè)大學 電氣工程與自動化學院,天津 300387)
良好的避障能力是移動機器人在復雜環(huán)境中自主運動的關鍵之一,需要通過傳感器對周圍環(huán)境信息進行準確的感知并在此基礎上決策運動。采用多傳感器信息融合的方法,能夠減少信息決策的不確定性,提高系統(tǒng)描述環(huán)境的準確性和完整性。近年,除了卡爾曼濾波、貝葉斯估計、D-S證據(jù)推理等隨機類方法,人工神經(jīng)網(wǎng)絡、模糊集合理論等人工智能方法也被用于多傳感器信息融合[1]。文獻[2,3]利用卡爾曼濾波算法進行多傳感器信息融合,其遞推特性使系統(tǒng)數(shù)據(jù)處理不需要大量的數(shù)據(jù)存儲和計算,但是系統(tǒng)模型的線性程度和數(shù)據(jù)處理不穩(wěn)定性都會對信息融合過程產(chǎn)生較大影響。文獻[4,5]采用基于神經(jīng)網(wǎng)絡的避障方法,神經(jīng)網(wǎng)絡具有大規(guī)模并行處理能力,并具備自適應學習功能等優(yōu)點。但是,神經(jīng)網(wǎng)絡需要大量的樣本和隱節(jié)點數(shù),利用神經(jīng)網(wǎng)絡實現(xiàn)移動機器人的避障,要大量的計算,這使系統(tǒng)的實時性變差,很容易造成系統(tǒng)對障礙物的錯誤識別。文獻[6,7]采用基于模糊控制的避障方法。移動機器人的運動環(huán)境非常復雜,很難建立精確的數(shù)學模型來預測障礙物的位置,在這種系統(tǒng)存在不確定信息的情況下,模糊控制的效果常優(yōu)于常規(guī)控制。但在模糊控制中,模糊控制器的設計決定了模糊控制的效果,影響著系統(tǒng)的運算速度和實時性。
本文利用多只超聲傳感器進行環(huán)境信息采集,運用模糊控制的信息融合算法,將前方和左右方向障礙物距離信息的差值作為輸入變量,將輸出變量直接設為左右輪的速度,并確立了其模糊語言和隸屬函數(shù),模擬駕駛者經(jīng)驗得到控制規(guī)則,經(jīng)過模糊推理并解模糊,實現(xiàn)對移動機器人在未知環(huán)境下安全避障的有效控制。通過建立移動器人運動學模型并通過仿真實驗,驗證了該算法的可行性與有效性,最終能實現(xiàn)移動機器人在未知環(huán)境下的安全自主避障,表明算法有良好的實時性和魯棒性。
用模糊推理進行信息融合是將多傳感器信息融合過程中的不確定性直接表示在推理過程中,先用模糊集和隸屬函數(shù)描述多傳感器所獲取的模糊信息,利用隸屬函數(shù)表示各傳感器信息的不確定性,再根據(jù)專業(yè)知識建立模糊規(guī)則,最后利用模糊邏輯算子進行模糊推理,推導出信息融合的最終結果。使用此方法,可以對超聲波、紅外線等傳感器進行信息融合,并將融合結果用于移動機器人定位、避障等[8]。
在應用于多傳感器信息融合時,將系統(tǒng)可能決策的集合看作A,將傳感器的集合看作B,A和B的關系矩陣RA×n中的元素μij表示由傳感器i推斷決策為j的可能性,X表示各傳感器判斷的可信度,經(jīng)過模糊變換得到的Y就是各決策的可能性。最后,對各可能決策按照一定的準則進行選擇,得出最終的結果[9]。
為了確定移動機器人在環(huán)境中的位置,建立全局坐標系XWOWYW和機器人局部參考坐標系XLOLYL。將機器人2個驅動輪軸心連線的中間點OL看作坐標系XLOLYL的原點,相交于點OL的2個垂直軸分別設為XL軸和YL軸。在XWOWYW坐標系下,OL的位置由坐標x和y確定,θ表示坐標系XWOWYW和坐標系XLOLYL之間的角度。機器人的位姿用向量[x,y,θ]T描述。
機器人運動學模型如圖1所示。ωr和ωl分別為機器人左、右驅動輪轉動的角速度,r為兩輪的半徑,l為兩輪之間的距離,OL點的速度即機器人的線速度為
v=(ωr+ωl)r/2.
(1)
投影到全局坐標系XWOWYW中,即
(2)
(3)
如果移動機器人的角速度為
=r(ωr-ωl)/l.
(4)
那么,機器人的運動方程可表示為
(5)
圖1 移動機器人運動學模型
超聲傳感器由于處理信息簡單快速,價格便宜,而被廣泛應用于移動機器人上[10]。實驗室IN-RF移動機器人的超聲傳感器分布排列如圖2,最多可以均勻安裝12只,每2只傳感器之間的夾角為30°,測量距離為41 cm~7 m。采用渡越時間測量方法測量機器人與環(huán)境中障礙物的距離信息?,F(xiàn)將11,12,1,2,3,4共6個點安裝超聲傳感器,并將6只超聲傳感器分為3組,分別測量左前方向、正前方、右前方向障礙物的距離信息,每組的距離信息中選較小的數(shù)據(jù)作為該組的輸入。
圖2 IN-RF移動機器人的超聲傳感器分布示意圖
在移動機器人的避障系統(tǒng)設計中,沒有根據(jù)傳統(tǒng)的模糊控制輸入變量將左、前、右3個方向的距離信息分別作為輸入,而將模糊控制器的輸入變量設為3個:正前方障礙物距離信息FD、右前方障礙物距離與左前方障礙物距離的差值RD以及目標點相對于機器人的角度θ。這種設計可減少控制規(guī)則的數(shù)量,并且在避障的同時保證機器人靠近目標點。
IN-RF為雙輪差速移動機器人,通過控制左、右兩輪的運動速度,即可控制機器人的速度和轉動角度,故控制器的輸出變量設為2個:移動機器人左、右輪運動速度vl和vr。避障控制系統(tǒng)如圖3所示。
圖3 基于信息融合的避障控制系統(tǒng)圖
對輸入輸出變量進行模糊化,使用連續(xù)型論域。
正前方距離值FD(Front Distance)模糊語言變量為{VS,S,M,B,VB}={Very Small,Small,Middle,Big,Very Big},論域為[0,5],表示0~5 m。定義機器人距離障礙物1 m為安全距離。
右前與左前的距離差值D(Difference Distance)的模糊語言變量為{RVB,RB,Z,LB,LVB}={Right Very Big,Right Big,Zero,Left Big,Left Very Big},論域為[-5,5],表示-5~5 m,定義機器人距離行進方向左(右)側的障礙物近時,RD為正(負)。
目標角度 的模糊語言變量為{L,F(xiàn),R}={Left,F(xiàn)ront,Right},論域為[-60 +60],表示±60°,目標角度在±30°以內時為 F(前方),大于 30°為R(右),小于-30°為L(左)。
左右輪運動速度vl和vr的模糊語言變量為{Slow, Middle,F(xiàn)ast},論域為[0 0.3],表示速度為0~0.3 m/s。各變量的隸屬函數(shù)如圖4所示。
圖4 輸入輸出變量隸屬函數(shù)圖
設計避障控制系統(tǒng),要保證機器人安全避障并且盡量靠近目標,以增強移動機器人的自主性[11]。當目標點位于障礙物左(右)側時,則機器人左(右)轉;當目標點在機器人前方且障礙物距離機器人近時,則機器人根據(jù)它左側和右側的環(huán)境信息來決定是左轉還是右轉。當左側障礙物距離大于右側障礙物距離時,機器人選擇向左轉;反之,向右轉。機器人的轉向是以左右輪速度的改變來控制的,速度的改變還能有效控制機器人運動的時效性。
表1為列出的部分模糊控制規(guī)則,以供參考。
表1 模糊控制規(guī)則表
根據(jù)上面所確定的輸入輸出集,模糊規(guī)則的一般形式可以if( 條件) then(結果)描述
if FD is VB and DD is RVB andθis L thenviis Middle andvris Fast.
解模糊的過程是把推理系統(tǒng)輸出的模糊集合轉化為精確輸出,用來控制或驅動執(zhí)行機構,也就是把上面推理合成得到的左右輪運動速度模糊集合轉為一個精確值來控制機器人的運動。本文采用的重心法是所有解模糊化方法中最合理和引人關注的方法。該方法的數(shù)學表達式為
(6)
(7)
根據(jù)移動機器人的運動模型和在FuzzyLogic工具箱中建立的模糊推理系統(tǒng),在Matlab中利用Simulink建立系統(tǒng)仿真模型,并利用GUIDE設計了移動機器人仿真界面。首先對環(huán)境信息進行設置,將移動機器人運動區(qū)域設為800 cm×850 cm,移動機器人的起點和終點位置可以任意設置,障礙物的大小、形狀和位置也可以任意設置,這樣可以更好地檢驗算法的正確性和可靠性。仿真結果如圖5所示。
圖5 仿真結果
由圖5可以看出:在圓形、矩形障礙物障礙物、以及障礙物較多和較少等多種情況下,機器人都可以成功避障。從實驗中的移動軌跡可看出:移動機器人運行軌跡連續(xù)且平滑,表現(xiàn)出比較好的一致性、連續(xù)性和穩(wěn)定性。
利用多傳感器信息融合對移動機器人的避障研究,避免了對環(huán)境的準確建模、移動機器人的定位精度敏感以及對環(huán)境信息的依賴性強等缺點。本文采用了的模糊控制算法對移動機器人進行控制,這種算法對移動機器人的運行環(huán)境、障礙物的形狀及其個數(shù)幾乎沒有什么限制,能在情況很復雜的未知環(huán)境里安全運行。通過對輸入量的優(yōu)化,簡化模糊控制規(guī)則,并且輸出量設為速度的控制使機器人比以前只對轉角控制進行避障節(jié)省時間,具有良好的時效性。
參考文獻:
[1] 馬 平,呂 鋒,杜海蓮.多傳感器信息融合基本原理及應用[J].控制工程,2006,13(1):48-51.
[2] 遲洪鵬,戰(zhàn) 凱,郭 鑫.基于多傳感器信息融合的地下自主鏟運機的定位技術[J].有色金屬,2009(4):148-152.
[3] Adam A,Rivlin E,Rotstein H.Fusion of fixation and odometry for vehicle navigation[C]∥Proc IEEE Int’l Conf on Robotics and Automation,Detroit,Michigan,1999:1638-1643.
[4] 李 強,楊曉京,魏 嵐.基于神經(jīng)網(wǎng)絡信息融合的智能機器人[J].機電工程技術,2006,35(6):72-74.
[5] Xu Kejun,Tong Libiao,Mei Tao.Feature-level data fusion of a robotic multisensor gripper using ANN[C]∥Proceeding of the SPIE,2001:292-295.
[6] 劉喜昂,周志字.移動機器人的超聲模糊避障算法[J].微計算機信息,2004,20(1):31-32.
[7] Homayoun Seraji,Ayanna Howard.Behavior-based robot navigation on challenging terrain: A fuzzy logic approach[J].IEEE Transactions on Robotics and Automation,2002,18(3):308-321.
[8] Kinoshita G,Ikhsan Y,Osumi Y.Object location based on sensor fusion of vision tactual sensing[J].Advanced Robotics,2000,13(6):633-646.
[9] 羅志增,蔣靜坪.基于D-S理論的多信息融合方法及應用[J].電子學報,1999,27(9):100-102.
[10] 段丙濤,楊 平,翟志敏.基于聲納環(huán)傳感器的機器人避障研究[J].傳感器與微系統(tǒng),2012,31(2):64-66.
[11] 楊晶東,洪炳熔,樸松昊.基于模糊行為融合的移動機器人避障算法[J].華中科技大學學報,2008(36):310-313.