陳衛(wèi)東 張興家 朱奇光 陳 穎
1.燕山大學(xué),秦皇島,0660042.河北省特種光纖與光纖傳感重點(diǎn)實(shí)驗(yàn)室,秦皇島,066004
基于混合特征的移動(dòng)機(jī)器人圖像匹配算法
陳衛(wèi)東1,2張興家1朱奇光1,2陳穎1
1.燕山大學(xué),秦皇島,0660042.河北省特種光纖與光纖傳感重點(diǎn)實(shí)驗(yàn)室,秦皇島,066004
針對(duì)移動(dòng)機(jī)器人定位過程中視覺圖像處理速度慢以及特征點(diǎn)提取與匹配實(shí)時(shí)性、準(zhǔn)確性差的問題,提出了基于顏色矩的改進(jìn)SIFT分級(jí)圖像匹配算法。首先改進(jìn)SIFT算法,擴(kuò)大極值點(diǎn)檢測(cè)范圍;采用Sobel算子計(jì)算特征點(diǎn)的梯度方向和幅值;以向量夾角為準(zhǔn)則度量SIFT特征相似性,提高SIFT特征提取與匹配的速度和精度。圖像匹配時(shí)先采用顏色矩對(duì)環(huán)境圖像序列進(jìn)行相似性排序,改進(jìn)SIFT特征,再與排序后圖像依次進(jìn)行精確匹配,分級(jí)匹配提高了移動(dòng)機(jī)器人的定位速度和精度。實(shí)驗(yàn)結(jié)果表明:與原SIFT相比,改進(jìn)SIFT提高了特征向量的顯著性,誤匹配率降低約9.2%,特征點(diǎn)數(shù)量減少約20%;分級(jí)匹配提高了圖像匹配速度和精度,SIFT特征計(jì)算量減小60%,總體耗時(shí)縮短40%。達(dá)到移動(dòng)機(jī)器人定位實(shí)時(shí)性和魯棒性的目的。
移動(dòng)機(jī)器人; 圖像匹配; 顏色矩; 改進(jìn)SIFT
移動(dòng)機(jī)器人定位中視覺系統(tǒng)相對(duì)于其他傳感器而言,具有獲取信息量豐富、受磁場(chǎng)和傳感器相互干擾影響小、使用方便經(jīng)濟(jì)等優(yōu)勢(shì),也具有最接近人類的環(huán)境感知方式[1]。科學(xué)研究和統(tǒng)計(jì)表明:人類從外界獲取的信息大約有75%來自于視覺系統(tǒng)[2]?;趫D像外觀特征的移動(dòng)機(jī)器人定位以實(shí)現(xiàn)簡(jiǎn)單、方法靈活、效果明顯等優(yōu)點(diǎn)在基于視覺的移動(dòng)機(jī)器人定位領(lǐng)域應(yīng)用廣泛[3-5]。
自尺度不變特征變換(scale invariant feature transform,SIFT)算法由Lowe[6]于1999年提出并于2004年完善后[7],它和各種改進(jìn)的SIFT算法就成為最流行的圖像局部外觀特征提取算法[8-10]。陳鳳東等[11]利用SIFT和基于雙向BBF(double direction best bin first,DD-BBF)的特征匹配方法實(shí)現(xiàn)了當(dāng)前圖像與目標(biāo)圖像之間的匹配,提高了匹配精度,但DD-BBF增大了計(jì)算復(fù)雜度。Valgren等[12]利用加速穩(wěn)健特征(speed up robust features,SURF)和基于極線約束的特征匹配算法實(shí)現(xiàn)了移動(dòng)機(jī)器人定位,提高了移動(dòng)機(jī)器人的定位精度。曾巒等[13]提出在圓形區(qū)域內(nèi)基于扇形區(qū)域分割的SIFT特征匹配算法,降低了特征描述子維數(shù),提高了匹配速度。以上研究均未考慮SIFT對(duì)圖像宏觀性描述較弱的不足,且SIFT是一種灰度特征,忽略了值得利用的顏色信息。Reza等[14]在標(biāo)準(zhǔn)顏色空間提取SIFT特征描述子且對(duì)SIFT特征進(jìn)行了減法聚類,增強(qiáng)了SIFT特征對(duì)顏色變化的魯棒性,提高了匹配精度,但卻是以犧牲實(shí)時(shí)性為代價(jià)的。
本文針對(duì)移動(dòng)機(jī)器人視覺定位時(shí)圖像匹配實(shí)時(shí)性和魯棒性問題,提出基于顏色矩的改進(jìn)SIFT(ISIFT)移動(dòng)機(jī)器人分級(jí)圖像匹配算法,將顏色矩和改進(jìn)SIFT相結(jié)合,覆蓋圖像特征的全局與局部、顏色與形狀4個(gè)方面,從而達(dá)到優(yōu)勢(shì)互補(bǔ)的目的。首先對(duì)SIFT算法進(jìn)行改進(jìn),擴(kuò)大極值點(diǎn)檢測(cè)范圍;采用Sobel算子計(jì)算特征點(diǎn)的梯度方向和幅值;以向量夾角為準(zhǔn)則度量SIFT特征相似性;提高SIFT特征提取與匹配的速度和精度。圖像匹配時(shí)先用顏色矩以歐氏距離為準(zhǔn)則對(duì)移動(dòng)機(jī)器人獲取的圖像序列進(jìn)行相似性排序,然后再用改進(jìn)的SIFT特征與排序后圖像依次進(jìn)行精確匹配,匹配點(diǎn)對(duì)為零則結(jié)束;分級(jí)圖像特征匹配改善了移動(dòng)機(jī)器人定位精度和實(shí)時(shí)性。
1.1SIFT特征改進(jìn)
SIFT特征描述子將一幅圖像映射為一個(gè)局部特征向量集,其特征向量具有平移、縮放、旋轉(zhuǎn)不變性,對(duì)光照變化、仿射及投影變換也有部分穩(wěn)定性。SIFT算法本質(zhì)就是在多尺度灰度圖像空間尋找極值點(diǎn),提取位置、尺度、旋轉(zhuǎn)不變量。SIFT算法主要包括三個(gè)步驟:特征點(diǎn)檢測(cè),特征點(diǎn)描述,特征向量匹配。
在特征點(diǎn)檢測(cè)階段,改進(jìn)的SIFT算法擴(kuò)大了極值點(diǎn)檢測(cè)范圍。在高斯差分金字塔空間,每個(gè)像素點(diǎn)和其同尺度相鄰點(diǎn)及上下相鄰尺度的5 pixel×5 pixel×5 pixel進(jìn)行比較,如果某像素點(diǎn)是最大或最小值點(diǎn),則將該點(diǎn)標(biāo)記為局部極值點(diǎn),認(rèn)為該點(diǎn)是圖像在該尺度下的一個(gè)候選特征點(diǎn)。
在特征點(diǎn)的方向分配階段,改進(jìn)的SIFT采用Sobel算子計(jì)算梯度幅值和方向。因?yàn)镾obel算子能平滑噪聲,為特征點(diǎn)提供更精確的主方向。Sobel算子的水平與垂直算子如下式所示:
(1)
(2)
矩陣中元素表示算式中相應(yīng)像素點(diǎn)的加權(quán)因子。即得到像素點(diǎn)(x,y)的水平與垂直方向的Sobel梯度:
Gx=I(x+1,y-1)+2I(x+1,y)+I(x+1,y+1)-
I(x-1,y-1)-2I(x-1,y)-I(x-1,y+1)
(3)
Gy=I(x-1,y-1)+2I(x,y-1)+I(x+1,y-1)-
I(x-1,y+1)-2I(x,y+1)-I(x+1,y+1)
(4)
式中,I(σ)為在尺度空間σ的高斯平滑圖像。
平滑參數(shù)σ是Lowe[7]在SIFT算法中推薦的參數(shù)。
像素點(diǎn)(x,y)的梯度幅值和方向的表達(dá)式分別為
(5)
θ(x,y)=arctan(Gy,Gx)
(6)
各種局部特征描述子中SIFT特征描述子性能突出,但它對(duì)圖像宏觀性描述較弱,且SIFT是一種灰度特征,忽略了值得利用的顏色信息,因此,引入圖像全局特征——顏色矩[15]。
1.2圖像顏色特征提取
由于常用的RGB(red green blue)顏色空間各顏色維之間的相關(guān)性很強(qiáng),數(shù)據(jù)冗余度高,因此,本文采用HSI(hue saturation intensity)顏色空間。HSI是更加符合顏色視覺特性的顏色空間之一,它采用色度(hue)、飽和度(saturation)和亮度(intensity)三個(gè)分量來表征顏色,各分量之間相互獨(dú)立,且與人感受彩色的方式緊密聯(lián)系。彩色圖像從RGB空間到HSI空間的轉(zhuǎn)換表示如下:
(7)
θ∈[0,2π]
(8)
(9)
式中,R、G、B分別為RGB顏色空間的三個(gè)基本色分量值;H、S、I分別為HSI顏色空間的三個(gè)基本屬性分量值。
在HSI顏色空間提取圖像顏色特征。顏色矩是一種簡(jiǎn)單有效的顏色特征表示方法,該方法的數(shù)學(xué)基礎(chǔ)在于圖像中任何顏色分布均可以用它的矩來表示。由于顏色分布信息主要集中在低階矩,因此,僅采用顏色的一階矩(均值)、二階矩(方差)和三階矩(斜度)就足以表達(dá)圖像的顏色分布。該方法的優(yōu)點(diǎn)在于:不需要顏色空間量化,特征向量維數(shù)低。低階矩的數(shù)學(xué)定義為
(10)
(11)
(12)
式中,pi,j為彩色圖像第i個(gè)顏色通道分量中灰度為 j 的像素出現(xiàn)的概率;N為圖像的像素個(gè)數(shù)。
圖像的前三階顏色矩組成一個(gè)9 維向量,即圖像的顏色特征表示為
Fcolor=(uH,σH,sH,uS,σS,sS,uI,σI,sI)
(13)
式中,uH、uS、uI分別為H、S、I三個(gè)顏色分量的均值;σH、σS、σI分別為H、S、I三個(gè)顏色分量的方差;sH、sS、sI分別為H、S、I三個(gè)顏色分量的斜度。
2.1圖像顏色矩匹配
移動(dòng)機(jī)器人獲取的圖像序列,以歐氏距離為準(zhǔn)則度量其顏色特征向量之間的相似度;向量之間歐氏距離越小,相似度越大。令CA(k)和CB(k)分別為數(shù)據(jù)庫中圖像A和當(dāng)前檢測(cè)圖像B的顏色矩向量,則兩幅圖像顏色矩的歐式距離可定義為
(14)
2.2改進(jìn)的SIFT特征匹配
特征點(diǎn)的相似性度量以兩個(gè)特征點(diǎn)描述子之間的向量夾角為準(zhǔn)則,向量夾角定義如下:
(15)
式中,F(xiàn)p、Fq分別為特征點(diǎn)p和q的128維向量[7]。
使用線性掃描法尋找各特征點(diǎn)的最近鄰和次近鄰的特征點(diǎn)。如尋找與特征點(diǎn)p的向量夾角最小和次小的兩個(gè)特征點(diǎn)q和q′,然后計(jì)算p與q及p與q′兩組描述子之間向量夾角的比值,如果比值小于規(guī)定的某個(gè)閾值,則認(rèn)為匹配成功,接受點(diǎn)對(duì)(p,q)為匹配點(diǎn)對(duì);否則匹配失敗。本文取閾值為0.75。
2.3分級(jí)圖像特征匹配算法
采用分級(jí)匹配方法進(jìn)行機(jī)器人視覺定位,顏色矩匹配速度遠(yuǎn)大于SIFT匹配速度并且對(duì)圖像的宏觀性有著較強(qiáng)的表征力,因此,首先利用顏色矩以歐氏距離為準(zhǔn)則與數(shù)據(jù)庫中圖像序列進(jìn)行粗匹配,獲得與當(dāng)前觀測(cè)圖像相似排序的圖像集合,其次利用改進(jìn)的SIFT特征以向量夾角為準(zhǔn)則與排序后圖像依次進(jìn)行精確匹配,直到匹配點(diǎn)對(duì)為零,匹配過程結(jié)束。分級(jí)圖像匹配流程如圖1所示。
圖1 圖像特征匹配流程圖
在移動(dòng)機(jī)器人Pioneer3TM平臺(tái)上,室內(nèi)環(huán)境下進(jìn)行圖像特征提取與匹配實(shí)驗(yàn),Pioneer3TM視覺系統(tǒng)包括圖像采集卡和嵌入式計(jì)算機(jī)。單目攝像頭CanonVC-C50i安裝在移動(dòng)機(jī)器人頂部,最大分辨率是704pixel×576pixel,水平方向旋轉(zhuǎn)范圍是±100°,垂直方向旋轉(zhuǎn)范圍是±30°。移動(dòng)機(jī)器人和視覺攝像頭分別如圖2和圖3所示。
圖2 移動(dòng)機(jī)器人平臺(tái)圖3 移動(dòng)機(jī)器人視覺攝像頭
為使實(shí)驗(yàn)結(jié)果具有可對(duì)比性,所有的仿真實(shí)驗(yàn)都是在主頻為Intel(R)Core(TM)i3-2120CPU3.30GHZ、內(nèi)存4GB的PC機(jī)上,以MATLAB7.8.0為平臺(tái)進(jìn)行的。實(shí)驗(yàn)使用Pioneer3TM獲取的課題室的環(huán)境圖像序列。
3.1改進(jìn)的SIFT性能比較
為了全面反映改進(jìn)SIFT性能,實(shí)驗(yàn)結(jié)果從特征點(diǎn)檢測(cè)時(shí)間、算法運(yùn)行總時(shí)間、特征點(diǎn)數(shù)量、匹配對(duì)數(shù)以及誤匹配率5個(gè)方面對(duì)改進(jìn)的SIFT與SIFT進(jìn)行比較。特征點(diǎn)檢測(cè)時(shí)間是指匹配的兩幅圖像特征點(diǎn)檢測(cè)時(shí)間之和,特征點(diǎn)數(shù)量指的是兩幅匹配圖像中特征點(diǎn)數(shù)量較少的那幅圖像的特征點(diǎn)數(shù)量,匹配對(duì)數(shù)是指精匹配之后,保留的匹配點(diǎn)對(duì)數(shù),而誤匹配率是指精匹配之后,誤匹配點(diǎn)對(duì)占所有匹配對(duì)數(shù)的比例。由于篇幅關(guān)系,選取其中部分圖片,對(duì)其匹配效果和實(shí)驗(yàn)數(shù)據(jù)進(jìn)行分析,如圖4~圖6所示。其中,圖4的兩幅圖像是機(jī)器人移動(dòng)0.5 m前后拍攝的;圖5的兩幅圖像是機(jī)器人轉(zhuǎn)動(dòng)30°前后拍攝的;圖6的兩幅圖像是機(jī)器人移動(dòng)1 m且旋轉(zhuǎn)30°前后拍攝的。
(a)SIFT(b)ISIFT圖4 圖像的尺度變化
(a)SIFT(b)ISIFT圖5 圖像的視角變化
(a)SIFT(b)ISIFT圖6 圖像的尺度和視角變化
實(shí)驗(yàn)數(shù)據(jù)如表1所示,其中ISIFT代表改進(jìn)的SIFT特征匹配算法。SIFT算法中各參數(shù)均為L(zhǎng)owe[7]推薦的參數(shù)。
分析匹配結(jié)果和實(shí)驗(yàn)數(shù)據(jù)可以發(fā)現(xiàn):無論是在幾何還是光學(xué)畸變的條件下,由于擴(kuò)大了極值點(diǎn)的檢測(cè)范圍,所以改進(jìn)算法比原算法的特征點(diǎn)檢測(cè)時(shí)間長(zhǎng)了約2 ms,但特征點(diǎn)檢測(cè)和描述時(shí)間之和卻縮短了0.2 s左右,特征點(diǎn)數(shù)量減少約20%。改進(jìn)算法相比于原算法的匹配點(diǎn)對(duì)數(shù)基本沒變,但匹配精度卻提高了9.2%。由此可見改進(jìn)算法不但在實(shí)時(shí)性上高于原算法,而且在匹配精度上也優(yōu)于原算法。
表1 改進(jìn)的SIFT特征匹配算法與SIFT性能比較
由此可知改進(jìn)算法的優(yōu)點(diǎn)在于:在保持原算法尺度和旋轉(zhuǎn)不變性等優(yōu)點(diǎn)的基礎(chǔ)上,提高了算法的實(shí)時(shí)性和匹配精度。實(shí)時(shí)性的提高主要源于擴(kuò)大極值檢測(cè)范圍,減少特征點(diǎn)數(shù)量;匹配精度的提高是因?yàn)镾obel算子可平滑噪聲,提供更精確的主方向,使得SIFT特征更具顯著性。
3.2匹配算法的性能分析
實(shí)驗(yàn)中使用10幅Pioneer 3TM獲取的課題室環(huán)境圖像,分別用a、b、c、d、e、f、g、h、i、j表示,當(dāng)前檢測(cè)圖像為k;表2為僅使用改進(jìn)SIFT特征實(shí)現(xiàn)當(dāng)前檢測(cè)圖像與圖像序列匹配的實(shí)驗(yàn)數(shù)據(jù)。顏色特征匹配以返回與當(dāng)前檢測(cè)圖像的相似度排序的圖像序列作為匹配結(jié)果;表3為顏色特征提取和匹配所耗時(shí)間。按照上述的分級(jí)圖像匹配方法,當(dāng)前檢測(cè)圖像僅與排序后的前四幅圖像(d、g、i、h,k與h的匹配點(diǎn)對(duì)為零)進(jìn)行改進(jìn)SIFT特征匹配即完成圖像匹配過程;所以時(shí)間消耗為顏色特征提取與匹配時(shí)間加上k與d、g、i、h進(jìn)行SIFT特征提取與匹配時(shí)間,即8.905 s。
表2 改進(jìn)SIFT特征圖像匹配實(shí)驗(yàn)數(shù)據(jù)
表3 顏色矩提取與匹配所耗時(shí)間
由表2可知,改進(jìn)SIFT特征與a、e、j三幅圖像出現(xiàn)誤匹配點(diǎn)對(duì),如沒有顏色特征提前進(jìn)行圖像的相似度排序,將導(dǎo)致機(jī)器人目前無法定位。由實(shí)驗(yàn)結(jié)果可知該匹配算法的優(yōu)點(diǎn)在于:SIFT特征計(jì)算量減少60%,總體時(shí)間消耗縮短40%;匹配精度再次提高。實(shí)時(shí)性的提高主要源于顏色矩是一個(gè)9維向量,SIFT特征描述子是一個(gè)128維向量,二者結(jié)合使SIFT計(jì)算復(fù)雜度明顯減小;精度的提高主要源于結(jié)合顏色特征彌補(bǔ)SIFT特征描述子對(duì)圖像顏色的盲點(diǎn)和對(duì)圖像缺乏整體輪廓描述的不足。顏色矩可加快匹配速度,但也有可能造成誤匹配,即內(nèi)容不相關(guān)的圖像可能擁有相似的顏色特征。不過只要這幅圖像不是排序后圖像集的第一幅,大體上不會(huì)影響定位結(jié)果。如果這樣的圖像出現(xiàn)在排序后的第一幅,那么可以設(shè)置程序?qū)IFT與排序后的第二幅圖像匹配來解決這個(gè)問題。
針對(duì)移動(dòng)機(jī)器人定位過程中視覺圖像處理速度慢及特征點(diǎn)提取與匹配實(shí)時(shí)性和準(zhǔn)確性差的問題,提出基于顏色矩的改進(jìn)SIFT移動(dòng)機(jī)器人分級(jí)圖像匹配算法。結(jié)合顏色矩和改進(jìn)SIFT特征,覆蓋圖像特征的全局與局部、顏色與形狀4個(gè)方面,從而達(dá)到優(yōu)勢(shì)互補(bǔ)的目的。再利用分級(jí)圖像匹配提高基于圖像外觀的移動(dòng)機(jī)器人定位的實(shí)時(shí)性和魯棒性。實(shí)驗(yàn)結(jié)果表明該方法有效。
[1]Davison A J, Murray D W. Simultaneous Localization and Map-building Using Active Vision[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 865-880.
[2]章毓晉.圖像處理和分析[M].北京:清華大學(xué)出版社, 1999.
[3]王殿軍. 雙目視覺在移動(dòng)機(jī)器人定位中的應(yīng)用[J]. 中國(guó)機(jī)械工程, 2013, 24(9): 1155-1158.
Wang Dianjun.Application on Binocular Vision System of a Mobile Robot[J]. China Mechanical Engineering, 2013, 24(9): 1155-1158.
[4]張明路, 關(guān)柏青, 丁承君. 基于彩色視覺和模糊控制的移動(dòng)機(jī)器人路徑跟蹤[J]. 中國(guó)機(jī)械工程, 2002, 13(8): 636-640.
Zhang Minglu, Guan Baiqing, Ding Chengjun. Mobile Robot’s Trajectory Following Based on Color Vision and Fuzzy Control[J]. China Mechanical Engineering, 2002, 13(8): 636-640.
[5]Aguilera G D, Gonzalvez R P, Lopez H D. A Robust and Hierarchical Approach for the Automatic Co-registration of Intensity and Visible Images[J]. Optics & Laser Technology, 2012, 44(6): 1915-1923.
[6]Lowe D G. Object Recognition from Local Scale-invariant Features[C]//Proceedings of the 7th IEEE International Conference on Computer Vision. Kerkyra, Greece, 1999: 1150-1157.
[7]Lowe D G. Distinctive Image Features from Scale-invariant Keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
[8]楊幸芳, 黃玉美, 韓旭, 等. 一種提高SIFT特征匹配效率的方法[J]. 中國(guó)機(jī)械工程, 2012, 23(11): 1297-1301.
Yang Xingfang, Huang Yumei, Han Xu, et al. A Method for Improving Matching Efficiency of SIFT Features[J]. China Mechanical Engineering, 2012, 23(11): 1297- 1301.[9]Zahedi M, Salehi M S. Licenseplate Recognition System Based on SIFT Features[J]. Procedia Computer Science, 2011, 3: 998-1002.
[10]Josip K, Jakob V, Frédéric J. Modeling Spatial Layout with Fisher Vectors for Image Categorization[C]//Proceedings of the 13th IEEE International Conference on Computer Vision. Barcelona, 2011: 1487-1494.[11]陳鳳東, 洪炳镕. 一種基于圖像的移動(dòng)機(jī)器人泊位方法[J]. 機(jī)器人, 2010, 32(2): 166-170.
Chen Fengdong, Hong Bingrong. An Image-based Docking Method for Mobile Robot[J]. Robot, 2010, 32(2): 166-170.[12]Valgren C, Lilienthal J A. Appearance-based Longterm Localization in Outdoor Environments[J]. Robotics and Autonomous Systems, 2010, 58(2): 149-156.[13]曾巒, 顧大龍. 一種基于扇形區(qū)域分割的SIFT特征描述符[J]. 自動(dòng)化學(xué)報(bào), 2012, 38(9): 1513-1519.
Zeng Luan, Gu Dalong. A SIFT Feature Descriptor Based on Sector Area Partitioning[J]. Acta Automatica Sinica, 2012, 38(9): 1513-1519.
[14]Reza J A, Kossar J S, Fariborz M. A New Illumination Invariant Feature Based on SIFT Descriptor in Color Space[C]//Proceedings of the International Symposium on Robotics and Intelligent Sensors. Kuching, Sarawak, Malaysia, 2012: 305-311.
[15]Stricker M, Orengo M. Similarity of Color Images[J]. Proc. SPIE Storage and Retrieval for Image and Video Databases, 1995, 2420: 381-392.
(編輯王艷麗)
An Image Matching Algorithm for Mobile Robot Localization Based on Hybrid Features
Chen Weidong1,2Zhang Xingjia1Zhu Qiguang1,2Chen Ying1
1.Yanshan University,Qinhuangdao,Hebei,066004 2.The Key Laboratory for Special Fiber and Fiber Sensor of Hebei Province,Qinhuangdao,Hebei,066004
For the problems of slow image processing speed, poor real-time performance and accuracy of feature points extraction and matching in robot localization process, an improved SIFT hierarchical image matching algorithm was proposed based on color moment. Extreme point’s detective range was extended, and the gradient directions and magnitude of feature points were calculated by using Sobel operator to improve SIFT performance; besides, the vector angle was taken as a criterion to measure SIFT features’ similarity, thus the accuracy and speed of feature points extraction and matching were improved. In image matching process, image sequence was sorted by color moment, then the improved SIFT features were matched with these sorted images precisely.Experimental results show that the proposed algorithm is a real-time and robust method to mobile localization problem: compared with SIFT, the false matching rate of the proposed algorithm is lowered by 9.2%, and the number of feature points are reduced by 20%; hierarchical match improves the speed and accuracy of image matching, for the computation amount of SIFT features is reduced by 60% and the total time consume is reduced by 40%.
mobile robot; image matching; color moment; improved scale invariant feature transform(SIFT)
2014-01-15
國(guó)家自然科學(xué)基金資助項(xiàng)目(61201112,61172044);河北省自然科學(xué)基金資助項(xiàng)目(F2013203250, F2012203169);河北省普通高等學(xué)校青年拔尖人才計(jì)劃資助項(xiàng)目(BJ2014056);燕山大學(xué)青年教師自主研究計(jì)劃資助項(xiàng)目(14LGA013)
TP391DOI:10.3969/j.issn.1004-132X.2015.09.001
陳衛(wèi)東,男,1971年生。燕山大學(xué)信息科學(xué)與工程學(xué)院教授。主要研究方向?yàn)橹悄軝C(jī)器人檢測(cè)與控制。發(fā)表論文30余篇。張興家,女,1987年生。燕山大學(xué)信息科學(xué)與工程學(xué)院碩士研究生。朱奇光,男,1978年生。燕山大學(xué)信息科學(xué)與工程學(xué)院副教授。陳穎,女,1980年生。燕山大學(xué)電氣工程學(xué)院副教授。