姚菁
(上海電機(jī)學(xué)院,上海 200240)
圖像分析與圖像匹配算法在機(jī)器視覺研究領(lǐng)域有著極其重要的作用,移動(dòng)機(jī)器人要實(shí)現(xiàn)高水平的導(dǎo)航和自身定位,都需要具有視覺系統(tǒng)。在本研究領(lǐng)域中,人們通常根據(jù)地點(diǎn)識(shí)別來對(duì)機(jī)器人定位,也被稱為“拓?fù)涠ㄎ弧?。而在地點(diǎn)方面,大家都集中在圖像分析與理解方面,通過對(duì)圖像的分析與匹配來對(duì)一個(gè)具有一定特征的局部環(huán)境進(jìn)行標(biāo)和辨識(shí)。
在基于視覺信息的基礎(chǔ)上,通過匹配不同的路標(biāo)數(shù)據(jù),機(jī)器人可以確定自身的位置并決定下一步的移動(dòng)方向。一種常見的精確的圖像匹配方法是基于圖像“關(guān)鍵點(diǎn)”的提取,通過這些關(guān)鍵點(diǎn)可以可靠地識(shí)別來自于同一場景不同的圖像,從而對(duì)局部環(huán)境進(jìn)行確認(rèn)。
Lowe[1]提出了基于其模板圖像的SIFT算法用于目標(biāo)檢測。這種SIFT算法計(jì)算出局部圖像描述符,具有特征不變性,對(duì)圖像的平移,縮放和旋轉(zhuǎn)具有魯棒性。同時(shí)這些描述也對(duì)光照變化和3-D投影有部分不變性。Mikolajczyk and Schmid[2]]專門就不變的特征描述符方面將SIFT算法同其它圖像分析算法作了對(duì)比,他們的實(shí)驗(yàn)結(jié)論是在基于圖像的尺度、旋轉(zhuǎn)、明暗等變化的基礎(chǔ)上進(jìn)行的,最后得出的結(jié)果證明SIFT算法是最優(yōu)的。Lowe提出一個(gè)圖像的描述符,通過描述因子的匹配來對(duì)目標(biāo)進(jìn)行檢測。為此,首先獲得被檢測目標(biāo)對(duì)象的模板圖像,從模板圖像抽取出描述因子,然后對(duì)需要測試的圖像提取SIFT關(guān)鍵點(diǎn),之后對(duì)模板圖像和測試圖像的SIFT關(guān)鍵點(diǎn)進(jìn)行一對(duì)一的點(diǎn)匹配檢測,以最終確定兩個(gè)圖像是否屬于同一目標(biāo)。
Stephen.Se[3]使用三目立體視覺傳感器,通過計(jì)算圖像尺度不變特性的描述因子,完成機(jī)器人自主定位、地圖創(chuàng)建任務(wù)。使用遞歸的方法實(shí)現(xiàn)對(duì)機(jī)器人的連續(xù)位姿及地圖結(jié)構(gòu)的恢復(fù)來完成 SLAM 任務(wù)[4],更多相關(guān)研究可見文獻(xiàn)[5-7]。
在原SIFT算法中,關(guān)鍵點(diǎn)是通過對(duì)不同尺度因子的圖像的高斯差值的最大或最小值確定的。在鄰近的不同尺度的高峰期差圖像中,基于3x3像素的局部區(qū)域,每個(gè)像素同其相鄰的26像素相對(duì)比,如果其差值是局部地最大或最小值,它就被選中作為候選關(guān)鍵點(diǎn)。然后,我們刪除低對(duì)比度特征點(diǎn)和邊緣的效應(yīng),最后得到一定數(shù)量的關(guān)鍵點(diǎn)。
(1)尺度空間極值檢測
第一階段對(duì)所有的尺度的圖像進(jìn)行計(jì)算和搜索,有效地利用高斯函數(shù)差值(見式(1)來確定潛在的興趣點(diǎn),這些興趣點(diǎn)相對(duì)尺度因子和旋轉(zhuǎn)是不變化的。
(2)關(guān)鍵點(diǎn)定位
針對(duì)每個(gè)候選關(guān)鍵點(diǎn)或興趣點(diǎn),基于其穩(wěn)定性的特點(diǎn),以檢測它們的位置和驚訝因子,最后選取部分關(guān)鍵點(diǎn)。
(3)關(guān)鍵點(diǎn)梯度方向
要確定關(guān)鍵點(diǎn)的方向,計(jì)算關(guān)鍵點(diǎn)附近的梯度方向直方圖,每個(gè)相鄰的像素的權(quán)值以其梯度幅值為參考,以最大的直方圖峰值所對(duì)應(yīng)的方向?yàn)殛P(guān)鍵點(diǎn)的梯度方向。
(4)關(guān)鍵點(diǎn)描述
一旦一個(gè)關(guān)鍵點(diǎn)方向已經(jīng)選定,特征描述因子主要是計(jì)算4×4相鄰像素,得出8個(gè)主要的梯度方向。每4×4相鄰像素一個(gè)區(qū)域,在關(guān)鍵點(diǎn)周圍共選取4×4個(gè)區(qū)域,那么對(duì)于一個(gè)SIFT特征點(diǎn)向量來說,共有4×4×8=128個(gè)向量元素。這個(gè)128維向量經(jīng)過規(guī)范化后可以提高對(duì)光照變化的不變性。
由于 128 SIFT的特征向量相當(dāng)大,原SIFT算法的主要缺點(diǎn)是較其他圖像描述因子具有更高的計(jì)算成本。降低高維向量可以節(jié)省計(jì)算時(shí)間和計(jì)算機(jī)資源。同時(shí)在SIFT特征向量提取的過程中也產(chǎn)生大量的冗余關(guān)鍵點(diǎn)。在機(jī)器人SLAM環(huán)境中,來自同一路標(biāo)的圖像的80%的關(guān)鍵點(diǎn)不能夠有效匹配,因此,應(yīng)該盡量減少關(guān)鍵點(diǎn)的數(shù)量,而不影響圖像匹配的效果。
首先,我們應(yīng)該降低SIFT特征向量的維數(shù),為了解決上面所提到的不利方面,我們?cè)谟?jì)算SIFT特征關(guān)鍵點(diǎn)時(shí),以選取的關(guān)鍵點(diǎn)為中心,只計(jì)算2×2個(gè)區(qū)域內(nèi)的梯度,相比原128維特征向量,這樣向量數(shù)減少到2×2×4=16,再經(jīng)過旋轉(zhuǎn)和標(biāo)準(zhǔn)化作業(yè),我們只需要以上梯度向量進(jìn)行下一步圖像匹配。這種方法可以顯著降低的關(guān)鍵向量的維數(shù),提高實(shí)時(shí)在線的計(jì)算速度。
其次,減少SIFT特征關(guān)鍵點(diǎn)的數(shù)目,提高選擇關(guān)鍵點(diǎn)的閾值,以去除更多的候選關(guān)鍵點(diǎn),特別是當(dāng)閾值為0.03時(shí)候,這個(gè)值是一個(gè)經(jīng)驗(yàn)值,在圖像識(shí)別領(lǐng)域是會(huì)工作的很好[1],但它通常會(huì)產(chǎn)生大量的關(guān)鍵點(diǎn)。然而使用如RANSAC算法,當(dāng)特征關(guān)鍵點(diǎn)的數(shù)量很少時(shí)(3-5關(guān)鍵點(diǎn))也可以取得可靠的圖像匹配。
我們可以增加閾值,以減少SIFT特征關(guān)鍵點(diǎn)的數(shù)量,下一步我們選擇一個(gè)固定的百分比參數(shù),來選取關(guān)鍵點(diǎn)的數(shù)量,例如,我們選擇25%,也就是說我們只選取檢測到的關(guān)鍵點(diǎn)的25%,由于SIFT特征點(diǎn)數(shù)量減少,計(jì)算機(jī)的實(shí)時(shí)運(yùn)算速度將大大提高。
經(jīng)過以上優(yōu)化步驟,用來計(jì)算比較兩幅圖像的時(shí)間比以前縮短了很多,這對(duì)于移動(dòng)機(jī)器人完成實(shí)時(shí)在線的任務(wù)來說是非常關(guān)鍵的。利用本文所提出來的改進(jìn)方法,在圖像有遮擋、有觀察角度差、存在一定失真和噪聲的情況下,我們對(duì)兩幅圖像進(jìn)行匹配,實(shí)驗(yàn)結(jié)果如下,能達(dá)到機(jī)器人對(duì)局部環(huán)境目標(biāo)的識(shí)別要求。
在圖像處理與匹配方面,基于SIFT特征關(guān)鍵點(diǎn)的計(jì)算方法是一個(gè)強(qiáng)有力的工具,該算法可以用于移動(dòng)機(jī)器人來識(shí)別局部環(huán)境中的路標(biāo),對(duì)于圖像檢索和基于視覺定位來說,它提供了一個(gè)清晰準(zhǔn)確的手段。由于每幅圖像的SIFT特征向量多達(dá)128個(gè)向量,SIFT特征點(diǎn)的提取和匹配是一個(gè)非常耗時(shí)的工作,因此在本論文中,我們提出了減少SIFT特征關(guān)鍵點(diǎn)數(shù)量,以改善其計(jì)算性能。如何去除冗余的信息,提高實(shí)時(shí)運(yùn)算速度,這對(duì)于機(jī)器人的即時(shí)定位與建圖來說是致關(guān)重要的。
在現(xiàn)實(shí)環(huán)境中,移動(dòng)機(jī)器人的工作環(huán)境更多的是一個(gè)動(dòng)態(tài)環(huán)境,而不是靜態(tài)的。因此,在動(dòng)態(tài)環(huán)境下研究移動(dòng)機(jī)器人的SLAM是一個(gè)非常重要的問題,因?yàn)槿绾翁幚韯?dòng)態(tài)的視覺數(shù)據(jù)將會(huì)變得更加復(fù)雜,今后的研究將更加注重未知?jiǎng)討B(tài)環(huán)境下的存著研究。
[1]D.Lowe.Distinctive image features from scale-invariant key points.International Journal of Computer Vision,2004.60(2):91-110.
[2]Mikolajczyk,K.and C.Schmid.A performance evaluation of local descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005.27(10):1615-1630.
[3]Stephen Se,David G.Lowe,James J.Little,Vision-Based Global Localization and Mapping for Mobile Robots.IEEE TRANSACTIONS ON ROBOTICS,2005,21(3):364-375.
[4]藺海峰,馬宇峰,宋濤.基于SIFT特征目標(biāo)跟蹤算法研究[J].自動(dòng)化學(xué)報(bào),2010,36(8):1204-1208.
[5]畢明德,孫志剛,肖力.基于TMS320C6713的圖像采集處理系統(tǒng)設(shè)計(jì)[J].電氣自動(dòng)化,2009,31(4):42-43.
[6]宋華軍,李泉.基于SIFT的目標(biāo)跟蹤算法研究[J].長春理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2010,33(3):123-126.
[7]于麗莉,戴青.一種改進(jìn)的SIFT特征匹配算法[J].計(jì)算機(jī)工程,2011,37(2):210-212.