於小杰,賀 勇,劉盛華
長沙理工大學(xué) 電氣與信息工程學(xué)院,長沙 410000
無人機(jī)傳統(tǒng)導(dǎo)航方法中GPS定位是首選,但其在室內(nèi)由于建筑物的阻擋,導(dǎo)致信號弱,定位差,不能滿足導(dǎo)航需求。因此,在室內(nèi)采用視覺導(dǎo)航[1-2]方案成為近幾年眾多院校研究熱點(diǎn),其著重于:(1)如何快速地提取、跟蹤穩(wěn)定特征點(diǎn);(2)如何高效地處理特征點(diǎn)錯(cuò)誤匹配的情況;(3)如何解決光流跟蹤失敗的問題。其中大部分研究基礎(chǔ)源自Rublee 提出的ORB(Oriented FAST and Rotated BRIEF)特征提取算法[3]:將FAST(Features From Accelerated Segment Test)特征點(diǎn)檢測器與BRIEF(Binary Robust Independent Elementary Features)描述符相結(jié)合的一種算法。該算法的特征點(diǎn)匹配速度遠(yuǎn)遠(yuǎn)高于SIFT(Scale Invariant Feature Transform)和SURF(Speeded Up Robust Features)[4],保證了特征提取的實(shí)時(shí)性,但匹配精度較差,誤匹配率高。因此,在滿足實(shí)時(shí)性的同時(shí),提高基于ORB特征的光流精度就變得有意義了。
為了提高ORB 光流的精度,很多人員對其展開研究。唐浩等[5]將ORB 特征與FAST 角點(diǎn)光流融合,利用Hessian矩陣提取ORB特征,以此獲得尺度不變性,通過循環(huán)迭代獲得相應(yīng)的速度估計(jì),但其誤匹配度仍然較高,導(dǎo)致定位精度較低;王亭亭等[6]采用基于原始ORB特征的LK 光流法,利用隨機(jī)抽樣一致濾波(Random Sample Consensus,RANSAC)來提高光流場的精度,再融合里程計(jì)、慣導(dǎo)等信息,實(shí)現(xiàn)了無人機(jī)室內(nèi)導(dǎo)航,擁有較高的實(shí)時(shí)性,但其光流速度估計(jì)處理較為簡單,采用傳統(tǒng)的前向-后向追蹤策略,濾除誤匹配效果不理想;郝志洋等[7]結(jié)合SURF算法的尺度不變特點(diǎn)和ORB算法的快速性特點(diǎn),創(chuàng)新性地提出了SURB 算法,并利用漸進(jìn)一致采樣算法(Progressive Sample Consensus,PROSAC)去除誤匹配,實(shí)現(xiàn)了室內(nèi)定位功能,但其算法較為復(fù)雜,尤其是PROSAC算法對所有匹配點(diǎn)不斷迭代篩選,導(dǎo)致整體實(shí)時(shí)性較低。以上算法相較于原始ORB算法有一定程度的改進(jìn),但無人機(jī)在三維空間中是運(yùn)動(dòng)的,擁有6個(gè)自由度,對算法的實(shí)時(shí)性、魯棒性要求較高,必須在延時(shí)性、準(zhǔn)確性和兼容性等方面綜合考慮可行的視覺導(dǎo)航方案。
針對實(shí)時(shí)性、準(zhǔn)確性和魯棒性等問題,本文提出一種改進(jìn)的ORB 特征光流算法。首先,采用ORB 算法提取每幀圖像的特征點(diǎn),送入金字塔中估計(jì)下一幀點(diǎn)集坐標(biāo);其次,采用前后雙向單追蹤策略進(jìn)行粗匹配;最后,采用FLANN-KNN 匹配規(guī)則和前后雙向雙追蹤策略進(jìn)行精細(xì)匹配,達(dá)到濾除誤匹配點(diǎn)集的目的。
本文搭建的實(shí)驗(yàn)平臺(tái)包括以下部分:華駿HJ816四軸無人機(jī)、基于樹莓派3 的BirdVisionV3 機(jī)器視覺模組、匿名科創(chuàng)地面站、遙控器、keil5 編譯軟件以及Open Vision Studio IDE編譯軟件等。
BirdVisionV3 機(jī)器視覺模組有兩個(gè)作用:第一,作為相機(jī),為驗(yàn)證本文算法的實(shí)際效果提供平臺(tái);第二,在實(shí)際飛行實(shí)驗(yàn)時(shí),置于無人機(jī)底部作為光流傳感器,攝像頭采集圖像數(shù)據(jù),樹莓派微型計(jì)算機(jī)負(fù)責(zé)數(shù)據(jù)處理。這樣做的好處是可以將光流信息單獨(dú)處理,計(jì)算速度大幅提升,同時(shí)極大地減輕了飛控板的運(yùn)算壓力。機(jī)器視覺模組的主要硬件有:800 萬像素、3.15 mm 焦距的Sony IMX219 攝像頭,四核BCM2837 處理器(主頻1.2 GHz),1 GB LPDDR2內(nèi)存,16 GB MicroSD存儲(chǔ)內(nèi)存,USB-WIFI 模塊等。HJ816 無人機(jī)用于驗(yàn)證本文算法在實(shí)際應(yīng)用中的性能,其核心控制器是新唐MINI58-ZDE,配有 SPL06-001 氣壓計(jì)、MPU6050 慣性測量單元和LC12S收發(fā)一體串口無線通信模塊等。
實(shí)驗(yàn)平臺(tái)的系統(tǒng)結(jié)構(gòu)如圖1所示,由安裝在無人機(jī)底部的機(jī)器視覺模組采集圖像信息,經(jīng)過樹莓派微型計(jì)算機(jī)計(jì)算處理后,將解算得到的速度信息、目標(biāo)信息通過I2C 接口傳輸?shù)斤w控板中。飛控中心再利用輸入信號(如角速度、加速度、光流信息等)進(jìn)行無人機(jī)的姿態(tài)估計(jì),輸出適當(dāng)?shù)腜WM給電機(jī),用以調(diào)節(jié)轉(zhuǎn)速。氣壓計(jì)則將測量到的高度信息反饋至飛控板,經(jīng)過控制環(huán)節(jié)實(shí)現(xiàn)無人機(jī)的定高,以此減少高度變化對光流準(zhǔn)確度的影響,從而達(dá)到使無人機(jī)能夠在室內(nèi)定位的目的。
2.1.1 ORB特征提取與描述
ORB 是將加速角點(diǎn)提取與二進(jìn)制獨(dú)立基本特征結(jié)合的特征檢測算法[8]。具體算法實(shí)現(xiàn)如下:
(1)建立圖像金字塔,對每一層圖像提取FAST 特征點(diǎn)。
(2)向FAST特征點(diǎn)添加方向因子。定義圖像矩為:
式中,I(x,y)為圖像灰度值;a、b為矩的階次。利用圖像矩計(jì)算質(zhì)心坐標(biāo):
定義方向因子為圖像塊中心到質(zhì)心的向量,即:
(3)引入旋轉(zhuǎn)因子。利用BRIEF描述符來描述特征點(diǎn),具體方法為,取M×M的窗口P,平滑處理后,有如下定義:
式中,I(x)表示點(diǎn)x處的灰度值。n個(gè)特征點(diǎn)生成的BRIEF描述符為n維向量:
圖1 無人機(jī)實(shí)驗(yàn)平臺(tái)及系統(tǒng)結(jié)構(gòu)圖
為描述符引入旋轉(zhuǎn)不變性,定義一個(gè)2×n的矩陣:
由方向因子θ獲得的旋轉(zhuǎn)矩陣Rθ,通過計(jì)算獲得新的變換矩陣Sθ=RθS。只要θ確定,即可獲得描述符:
2.1.2 LK光流算法簡述
經(jīng)典的LK(Lucas-Kanade)光流算法[9]是利用兩幀之差來追蹤特征點(diǎn)瞬時(shí)速度的估計(jì)方法,通過迭代計(jì)算可以得到一種稀疏光流場。但是LK光流法必須滿足三條前提假設(shè)[10]:第一,相鄰幀之間的亮度、顏色不發(fā)生變化;第二,相鄰幀之間的像素點(diǎn)運(yùn)動(dòng)是足夠小且連續(xù)的;第三,相鄰幀之間的像素點(diǎn)運(yùn)動(dòng)一致,具有相同的光流?;诖耍傻昧炼仁睾慵s束方程[11]:
式中,vx和vy表示圖像x、y方向上的光流值;Ix和Iy分別表示圖像像素點(diǎn)在x、y方向上的偏導(dǎo)數(shù);It表示圖像像素點(diǎn)亮度關(guān)于時(shí)間的導(dǎo)數(shù)。vx和vy將直接參與速度解算。
LK 算法的三條前提假設(shè)都很難滿足,其中尤為嚴(yán)重的是第二條假設(shè)像素點(diǎn)運(yùn)動(dòng)都是“小運(yùn)動(dòng)”。通常的解決辦法是引入高斯金字塔[12](如圖2所示),縮小圖像尺寸,降低分辨率,此時(shí)的像素運(yùn)動(dòng)就變成了“小運(yùn)動(dòng)”,再利用泰勒級數(shù)展開式進(jìn)行計(jì)算,從而保證了光流提取的連續(xù)性。
圖2 金字塔示意圖
在無人機(jī)懸停時(shí),光流傳感器開始啟用,共分兩步:第一,特征點(diǎn)識(shí)別與跟蹤;第二,光流計(jì)算及速度轉(zhuǎn)換。之后將獲得的速度值通過I2C接口送入無人機(jī)控制系統(tǒng)中,進(jìn)行定位調(diào)節(jié),迭代計(jì)算直至定位完成。在整個(gè)過程中,特征點(diǎn)是前提,其準(zhǔn)確性決定了光流速度的精確性。
在ORB 特征點(diǎn)識(shí)別與跟蹤過程中,需要進(jìn)行前后幀圖像特征點(diǎn)匹配。通常采用暴力匹配法[13],即通過計(jì)算前一幀所有特征點(diǎn)(以第p個(gè)特征點(diǎn)第k維特征向量Xpk為例)與后一幀所有特征點(diǎn)(以第q個(gè)特征點(diǎn)第k維特征向量Xqk為例)之間的歐式距離Dpq:
距離Dpq越小,兩個(gè)特征點(diǎn)越相似,距離最近的則保留為該特征點(diǎn)的匹配點(diǎn)。但該方法過度依靠不穩(wěn)定的特征描述子,當(dāng)圖像中存在紋理相似區(qū)域時(shí),會(huì)導(dǎo)致即便不是前后幀中同一點(diǎn),也會(huì)計(jì)算出歐式距離,并且認(rèn)為是匹配的情況,使得前后幀匹配結(jié)果出現(xiàn)大量錯(cuò)誤匹配,影響后續(xù)跟蹤效果與光流計(jì)算。因此,本文以此為重點(diǎn),對匹配規(guī)則進(jìn)行改進(jìn)。
在原始ORB 光流算法的基礎(chǔ)上,結(jié)合無人機(jī)定位時(shí)的飛行速度,提出適用于無人機(jī)室內(nèi)定位的細(xì)分匹配規(guī)則算法——改進(jìn)ORB-LK算法:通過飛行時(shí)測得的水平速度vu設(shè)置閾值,并利用投影公式[14]計(jì)算此時(shí)的光流閾值:
式中,h為無人機(jī)飛行高度,f為攝像頭焦距。當(dāng)光流值高于閾值Δ時(shí),采用前后雙向單追蹤策略來篩選ORB 特征點(diǎn),稱為粗匹配;當(dāng)光流值低于閾值Δ時(shí),采用前后雙向雙追蹤策略和FLANN-KNN 匹配規(guī)則來篩選特征點(diǎn),稱為精匹配。粗匹配的目的在于快速獲得大量特征點(diǎn),便于無人機(jī)快速進(jìn)入室內(nèi)定位狀態(tài),為精匹配提供輸入保障。精匹配的目的在于優(yōu)化特征匹配,在小位移中獲得準(zhǔn)確的光流值,從而提高無人機(jī)室內(nèi)定位的準(zhǔn)確度。具體內(nèi)容如下:
(1)粗匹配:ORB 提取和前后雙向單追蹤策略。如圖3所示,首先利用ORB算法對前一幀圖像取特征點(diǎn)集合A,然后通過金字塔LK算法獲得在后一幀圖像上對應(yīng)的特征點(diǎn)集合B(前向跟蹤),之后再將集合B通過金字塔返回到第一幀中,獲得對應(yīng)特征點(diǎn)集C(后向跟蹤)。由于存在噪聲影響,點(diǎn)集A和C不會(huì)完全相同。因此遍歷集合A、C中所有點(diǎn)對,計(jì)算出距離誤差d,選取小于閾值ε的點(diǎn)對,再結(jié)合對應(yīng)點(diǎn)集B,最終保存篩選后的點(diǎn)對集AiBi+1SET,i為幀數(shù)。
圖3 前后雙向單追蹤策略示意圖
(2)精匹配:FLANN-KNN 特征匹配和前后雙向雙追蹤策略。當(dāng)粗匹配光流值vx、vy小于閾值Δ時(shí),進(jìn)入精匹配模式,假設(shè)此時(shí)為第m幀。從粗匹配保存的點(diǎn)對集AiBi+1SET中,獲得第m幀的特征點(diǎn)集Am=Bm?Am-1BmSET,第m+1 幀特征點(diǎn)通過ORB 算法獲得,為點(diǎn)集Am+1。
為預(yù)防圖像出現(xiàn)投影畸變,本文采用FLANN-KNN算法進(jìn)行特征匹配:①建立FLANN 匹配器;②利用KNN 算法初步篩選點(diǎn)集Am和Am+1所對應(yīng)的描述符集;③再利用特征向量之間的歐式距離篩選好的描述符集及對應(yīng)點(diǎn)集A′m和A′m+1;④通過隨機(jī)抽樣一致算法(RANSAC)消除點(diǎn)集中的誤匹配點(diǎn),計(jì)算出單應(yīng)性矩陣H,獲得最終匹配對集A″m和A″m+1。圖4 顯示了FLANN-KNN算法前后的匹配效果圖。
圖4 FLANN-KNN算法前后匹配效果圖
基于此,再進(jìn)行前后雙向雙追蹤策略,如圖5所示。利用第m幀篩選后的特征點(diǎn)集A″m進(jìn)行前向跟蹤,獲得點(diǎn)集Mm+1,再進(jìn)行后向跟蹤,獲得點(diǎn)集Nm,同樣由于噪聲的存在,記點(diǎn)集A″m和點(diǎn)集Nm之間的特征向量距離誤差為dm;同理,點(diǎn)集A″m+1向前獲得點(diǎn)集Mm,向后獲得點(diǎn)集Nm+1,記A″m+1和Nm+1之間的距離誤差為dm+1。由于光流運(yùn)動(dòng)是建立的三條前提假設(shè)上的,那么第m+1 幀上點(diǎn)集A″m+1與Mm+1存在距離誤差,不能完全重合,記誤差dn+1;同理,第m幀上點(diǎn)集A″m和點(diǎn)集Mm的誤差記為dn。經(jīng)過實(shí)驗(yàn)測試,像素距離閾值ε取10,計(jì)算匹配點(diǎn)對過濾函數(shù)Π:
能夠獲得最終適用于無人機(jī)室內(nèi)導(dǎo)航的準(zhǔn)確特征點(diǎn)集,進(jìn)一步使得光流值vx和vy更加準(zhǔn)確,為后續(xù)光流解算機(jī)體速度消除錯(cuò)誤信息。
圖5 前后雙向雙追蹤策略示意圖
本文設(shè)計(jì)的改進(jìn)ORB-LK光流算法流程如圖6所示。
(1)無人機(jī)搭載的單目攝像機(jī)在飛行過程中實(shí)時(shí)采集圖像序列。對圖像進(jìn)行ORB 特征提取,得到一系列特征點(diǎn)。
(2)將上一幀特征點(diǎn)和當(dāng)前幀圖像帶入金字塔LK算法中,定位到當(dāng)前幀與上一幀同名的特征點(diǎn),并計(jì)算光流值。
(3)根據(jù)步驟(2)中確定的同名特征點(diǎn),利用前后雙向單追蹤策略,返回前一幀中再次搜尋同名特征點(diǎn),并計(jì)算與原始特征點(diǎn)的像素差值,做第一次特征點(diǎn)篩選,保留篩選后的對應(yīng)光流值。
(4)步驟(3)中保留的光流值若大于閾值Δ,則進(jìn)入光流與慣導(dǎo)數(shù)據(jù)處理環(huán)節(jié),最后送入?yún)?shù)解算、姿態(tài)補(bǔ)償中。
(5)步驟(3)中保留的光流值若小于閾值Δ,則進(jìn)行ORB 特征提取,再次進(jìn)入金字塔中,對其采用FLANNKNN 匹配和前后雙向雙追蹤策略進(jìn)行特征點(diǎn)篩選,刪除錯(cuò)誤匹配的特征點(diǎn)集和對應(yīng)的光流值,保存本次篩選的光流值進(jìn)入光流與慣導(dǎo)融合、參數(shù)解算中,并最后做姿態(tài)補(bǔ)償。
本文對改進(jìn)ORB-LK 特征光流提取效果(在Bird-Vision3 模塊上實(shí)驗(yàn))以及在實(shí)際無人機(jī)室內(nèi)導(dǎo)航應(yīng)用中的算法性能(在HJ816無人機(jī)上實(shí)驗(yàn))進(jìn)行驗(yàn)證與分析。
圖6 算法步驟示意圖
表1 三種算法各項(xiàng)數(shù)據(jù)指標(biāo)對比
為了提高無人機(jī)光流信息的準(zhǔn)確度,本文根據(jù)金字塔LK 光流跟蹤特性,采用粗匹配和精匹配的方式對ORB特征進(jìn)行了誤匹配篩選改進(jìn)。其中光流閾值Δ由設(shè)定的飛行速度經(jīng)驗(yàn)閾值vu得到,為5;像素閾值ε設(shè)為經(jīng)驗(yàn)值10。為了檢驗(yàn)改進(jìn)算法的效果,本文從主觀視覺效果和客觀數(shù)據(jù)指標(biāo)兩方面對改進(jìn)的ORB特征光流提取算法進(jìn)行評價(jià)。
(1)主觀視覺效果
實(shí)驗(yàn)中分別采用Shi-Tomasi 光流提取算法[15]、原始ORB 光流提取算法和本文改進(jìn)ORB-LK 算法分別對少紋理、多紋理、強(qiáng)光和弱光四個(gè)場景進(jìn)行特征提取,并選取其中各自具有代表性的一幀圖像進(jìn)行視覺效果分析,結(jié)果如圖7 所示。圖(a)是Shi-Tomasi 光流法在四種場景中的特征提取效果,圖(b)是原始ORB光流法的提取結(jié)果,圖(c)是本文改進(jìn)ORB-LK 光流算法的提取結(jié)果。從圖中可以直觀地看出Shi-Tomasi 光流法提取的特征點(diǎn)最少,主要集中在圖像物體的邊緣等特征明顯區(qū)域;原始ORB光流法提取的特征點(diǎn)數(shù)量最多,同時(shí)也包含許多誤匹配點(diǎn),誤差高,離散性較差;本文改進(jìn)ORBLK光流算法是在原始ORB光流法上進(jìn)行篩選,濾除誤匹配后特征點(diǎn)數(shù)量有所減少,但仍能保留圖像重要特征(尤其是圖像中心特征),具有較好的分布性和離散性。
圖7 三種算法提取結(jié)果對比
(2)客觀數(shù)據(jù)指標(biāo)
為了進(jìn)一步從實(shí)際數(shù)據(jù)指標(biāo)客觀地分析算法的性能,實(shí)驗(yàn)多次測量三種算法在上述四種場景中的光流提取時(shí)間、特征點(diǎn)數(shù)以及誤匹配率,做平均處理后如表1所示。從表中可以看出,Shi-Tomasi光流法特征點(diǎn)數(shù)較少,誤匹配率適中,但時(shí)間開銷較大,與另兩種算法相比近乎相差一個(gè)量級,難以保證無人機(jī)定位的實(shí)時(shí)性要求。原始ORB算法時(shí)間開銷雖然較短,特征點(diǎn)數(shù)多,但誤匹配率也隨之增加,影響了無人機(jī)定位的準(zhǔn)確性。本文改進(jìn)算法由于增加了誤匹配篩選步驟,其時(shí)間開銷與原始ORB相差約30 ms,但帶來的益處是誤匹配率的下降,實(shí)時(shí)性和準(zhǔn)確性都有保障。在少紋理場景和弱光場景中,本文改進(jìn)算法仍能有效地濾除原始ORB 的誤匹配點(diǎn),同時(shí)保留其快速性,滿足了無人機(jī)室內(nèi)定位中實(shí)時(shí)性高、時(shí)間開銷少的要求。
為驗(yàn)證本文提出的改進(jìn)ORB-LK 特征光流算法實(shí)際應(yīng)用中的性能,利用HJ820無人機(jī)搭載BirdVision3視覺模塊,分別采用Shi-Tomasi 光流提取算法、原始ORB光流提取算法和本文改進(jìn)算法進(jìn)行室內(nèi)定位實(shí)驗(yàn)。無人機(jī)控制系統(tǒng)中,高度環(huán)、姿態(tài)環(huán)均采用串級PID控制,光流環(huán)采用單環(huán)PID 控制。各環(huán)PID 參數(shù)如表2 所示,其中kp表示比例(P)的參數(shù),ki表示積分(I)的參數(shù),kd表示微分(D)的參數(shù)。期望懸停時(shí)高度為1.6 m,x、y軸位置偏移量為0.1 m。手控操縱無人機(jī),控制無人機(jī)的起飛、懸停、降落,利用串口無線通信,上位機(jī)實(shí)時(shí)記錄飛行時(shí)x、y軸位置偏移量和飛行高度等數(shù)據(jù),并進(jìn)行多次定位誤差的歸一化數(shù)據(jù)處理。
表2 無人機(jī)室內(nèi)定位實(shí)驗(yàn)PID參數(shù)
無人機(jī)整體飛行時(shí)間約為180 s,起飛后第10~15 s內(nèi)進(jìn)行懸停定位,第170~180 s 進(jìn)行降落。圖8、圖9 是無人機(jī)在x、y方向上位置偏移量隨時(shí)間變化的曲線對比圖,圖10、圖11是無人機(jī)多次定位后x、y方向上的歸一化誤差對比圖??梢钥闯鰺o人機(jī)在懸停過程中,Shi-Tomasi 光流法定位效果不理想,位移偏差高于10 cm時(shí),對應(yīng)的歸一化誤差變化較大,有效特征點(diǎn)數(shù)量降低,提取的有效光流場質(zhì)量隨之下降,導(dǎo)致高度不穩(wěn)定,上下起伏大,定位不準(zhǔn)。相比之下,原始ORB算法稍好一點(diǎn),由于特征點(diǎn)數(shù)量繁多,能夠?qū)⑵畲蟮牟糠挚焖倮?,但同時(shí)存在誤匹配,導(dǎo)致定位誤差稍大,精度不夠。反觀之,本文算法由于經(jīng)過先粗匹配,后精匹配兩步(取光流閾值Δ=5,像素閾值ε=10),濾除了大量誤匹配點(diǎn),使得位置偏差近乎穩(wěn)定于0,定位歸一化誤差的波動(dòng)較小,定位精度隨之提高。圖12是三種算法下無人機(jī)飛行高度隨時(shí)間變化曲線對比圖,從圖中數(shù)據(jù)可以看出,本文方法相較于其余算法,在實(shí)際飛行懸停中高度是較為穩(wěn)定的,懸停效果較好,在期望高度160 cm附近懸停。通過分析實(shí)驗(yàn)結(jié)果可知,本文算法一定程度上能夠滿足無人機(jī)定位精度的需求,可以嘗試用于室內(nèi)自主導(dǎo)航。
圖8 無人機(jī)x 軸位置偏移量對比圖
圖9 無人機(jī)y 軸位置偏移量對比圖
圖10 x 軸多次定位歸一化誤差對比圖
圖11 y 軸多次定位歸一化誤差對比圖
圖12 無人機(jī)飛行高度對比圖
在室內(nèi)定位研究中,由于GPS 室內(nèi)信號弱,一般選擇光流傳感器作為主要的無人機(jī)定位器件,其具有體積小、成本低等優(yōu)點(diǎn),被廣泛使用。但傳統(tǒng)光流算法定位精度不高,為此本文結(jié)合原始ORB 特征和LK 光流法,提出一種改進(jìn)的ORB特征光流算法。該算法優(yōu)越性在于,采用粗細(xì)匹配規(guī)則,刪除誤匹配點(diǎn)集,提升光流質(zhì)量,提高定位精度。從本文實(shí)驗(yàn)可知,在搭載獨(dú)立運(yùn)算的樹莓派機(jī)器視覺模塊后,改進(jìn)ORB-LK光流法能夠達(dá)到厘米級定位,精確性、實(shí)時(shí)性和魯棒性均較好,能用于移動(dòng)載體的室內(nèi)實(shí)時(shí)導(dǎo)航定位,具有較高的應(yīng)用與參考價(jià)值。