楊 慧 胡良梅 張旭東 陳仲海 董文菁
(合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院 安徽 合肥 230009)
?
一種基于D-S證據(jù)理論的融合RGB特征和Depth特征的3D目標(biāo)識別方法
楊慧胡良梅張旭東陳仲海董文菁
(合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院安徽 合肥 230009)
摘要針對利用單一特征進(jìn)行3D目標(biāo)識別導(dǎo)致識別率低的問題,結(jié)合RGB圖像和Depth圖像的優(yōu)勢,提出一種結(jié)合支持向量機(jī)(SVM)和D-S證據(jù)理論的融合RGB特征和Depth特征的3D目標(biāo)識別方法。該方法提取目標(biāo)物體的RGB特征以及Depth特征,分別以這兩類單特征的SVM的概率輸出作為獨(dú)立的證據(jù),構(gòu)造出基于每個(gè)證據(jù)的基本概率分配函數(shù)(BPA),利用D-S證據(jù)融合規(guī)則進(jìn)行證據(jù)融合,并根據(jù)決策準(zhǔn)則得到最終的3D目標(biāo)識別結(jié)果。在Kinect相機(jī)得到的RGB-D數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證,結(jié)果表明,該方法能夠有效地實(shí)現(xiàn)對RGB特征和Depth特征的融合,提高了3D目標(biāo)識別的識別準(zhǔn)確性和可靠性。
關(guān)鍵詞3D目標(biāo)識別支持向量機(jī)(SVM)D-S證據(jù)理論Kinect相機(jī)
0引言
3D目標(biāo)識別是模式識別、機(jī)器視覺中的一項(xiàng)重要研究內(nèi)容,在軍事、交通、生物醫(yī)學(xué)等諸多領(lǐng)域[1-3]中有著廣泛的應(yīng)用。傳統(tǒng)的基于2D高分辨率RGB圖像的目標(biāo)識別容易受到光照、物體形態(tài)變化等的影響,且由于圖像在投影過程中,丟失了實(shí)際場景的3D信息,因此難以得到準(zhǔn)確的識別結(jié)果。Depth信息能夠反映物體表面的3D幾何特征,且不受光照等外界條件的影響,因此可以提供比二維RGB圖像更加可靠的識別信息,使得Depth信息為實(shí)現(xiàn)3D目標(biāo)識別提供了一條新的線索。一些研究者直接從Depth圖中提取目標(biāo)的3D特征來實(shí)現(xiàn)3D目標(biāo)識別。Rusu[4,5]等人分別利用VFH(Viewphoint Feature Histogram)和NARF(Normal Aligned Radial Features)特征來表征目標(biāo)物體;Shah[6]等人將3D向量場的散度作為目標(biāo)局部表面特征描述子。該類算法都是先通過Depth圖像獲得目標(biāo)的3D點(diǎn)云模型,再由3D點(diǎn)云模型提取目標(biāo)的3D特征描述子來完成3D目標(biāo)識別。但是由于Depth圖像本身分辨率低、目標(biāo)邊緣噪聲大,因此,上述文獻(xiàn)中僅利用單一的Depth信息完成3D目標(biāo)識別的識別方法得到的識別率并不高。
近年來,Depth信息獲取技術(shù)飛速發(fā)展。微軟公司2010年推出的Kinect相機(jī)價(jià)格適中,并且能夠同時(shí)獲取物體的RGB圖像和Depth圖像,使得利用Kinect相機(jī)獲取的Depth信息來解決3D目標(biāo)識別問題成為一個(gè)新的研究熱點(diǎn)。針對利用單一Depth圖像特征進(jìn)行3D目標(biāo)識別識別率低的問題,一些研究者們開始研究利用Kinect相機(jī)獲取的高分辨率RGB圖像和低分辨率Depth圖像的融合特征來實(shí)現(xiàn)3D目標(biāo)識別。Janoch[7]等人融合RGB圖像和Depth圖像的HOG特征,實(shí)現(xiàn)3D目標(biāo)識別;Mirdanies[8]等人提出融合RGB圖像以及Depth圖像的具有仿射不變特性的SIFT特征和SURF特征進(jìn)行3D目標(biāo)識別。文獻(xiàn)[7]和文獻(xiàn)[8]中的方法仍沒有很好地實(shí)現(xiàn)Depth圖像特征提取以及兩類特征的融合,從而導(dǎo)致最終的3D目標(biāo)識別率不是很高。Bo[9]等人利用核學(xué)習(xí)的思想,融合RGB圖像和Depth圖像中的梯度核特征描述子、深度核特征描述子實(shí)現(xiàn)3D目標(biāo)識別。雖然該類特征描述子相比文獻(xiàn)[7,8]的特征提取方法,可以較好地提取出目標(biāo)的Depth圖像特征,但是該方法在進(jìn)行特征融合的時(shí)候是對兩類特征進(jìn)行基于特征級的加權(quán)多特征融合,最終得到的3D目標(biāo)識別率仍然不是很高。
為進(jìn)一步提高3D目標(biāo)識別的準(zhǔn)確性和可靠性,本文利用SVM分類器在小樣本情況下具有良好的分類能力以及D-S證據(jù)理論能夠融合不完全信息、減小問題中的不確定性的優(yōu)勢,針對利用單一特征進(jìn)行3D目標(biāo)識別率低的問題,提出一種基于D-S證據(jù)理論的融合RGB特征和Depth特征的3D目標(biāo)識別方法。并在基于Kinect相機(jī)獲得的可用于3D目標(biāo)識別的RGB-D數(shù)據(jù)集上與文獻(xiàn)[9]進(jìn)行實(shí)驗(yàn)對比。實(shí)驗(yàn)結(jié)果表明,本文方法能夠有效地對多特征進(jìn)行融合,提高了識別的準(zhǔn)確性和可靠性。
1基于D-S證據(jù)理論的融合RGB特征和Depth特征的3D目標(biāo)識別
圖1為本文提出的基于D-S證據(jù)理論的融合RGB特征和Depth特征的3D目標(biāo)識別算法模型。按照該算法進(jìn)行多特征融合的3D目標(biāo)識別的主要分為以下幾個(gè)步驟:(1) 目標(biāo)特征的提?。?2) 基于單特征的3D目標(biāo)識別和證據(jù)BPA函數(shù)的構(gòu)造;(3) 證據(jù)的融合和決策判決。
圖1 本文提出的3D目標(biāo)識別算法框圖
1.1目標(biāo)特征的提取
特征提取是目標(biāo)分類、識別任務(wù)中很重要的一步,選擇不同類型的目標(biāo)特征對最終的識別結(jié)果有不同的影響。因此,提取的特征應(yīng)盡量滿足:(1) 可以很好地表征目標(biāo)物體;(2) 對光照變化、物體形態(tài)等變化有很好的魯棒性。由于僅利用單一特征是很難精確地進(jìn)行識別任務(wù)的,因此我們對RGB圖像和Depth圖像分別提取不同類型的目標(biāo)特征,對兩種特征描述子的提取過程如下:
(1) RGB-SIFT特征
SIFT[10]描述子是一種具有仿射不變特性的局部特征描述子。通過在4×4的網(wǎng)格單元上計(jì)算8個(gè)方向的梯度方向直方圖,得到圖像中目標(biāo)物體每個(gè)區(qū)域的一個(gè)128維的特征向量表示。最后,整合所有區(qū)域的特征向量得到目標(biāo)物體的特征向量表示。
(2) Depth-HON3D特征
物體表面的3D幾何特征可以表示為法向量方向的一個(gè)局部分布。每一個(gè)像素點(diǎn)的3D坐標(biāo)可以表示為P(x,y,z),其中z=d(x,y)為該點(diǎn)的深度值,那么像素點(diǎn)對應(yīng)的法向量就可以表示為過該點(diǎn)切平面上兩個(gè)切向量的叉乘:
(1)
然而,很多情況下我們更多使用球面坐標(biāo)(θ,φ,r)來表示法向量,因?yàn)榍蛎孀鴺?biāo)在描述曲線、表面以及物體視角方面比(x,y,z)坐標(biāo)更有效。這里我們采用文獻(xiàn)[11]中的方法來建立法向量球面坐標(biāo)關(guān)于天頂角θ和方位角φ組合(θ,φ)的方向梯度直方圖。首先,將圖像分成8×8的不重疊的像素cells。然后,將每個(gè)cell中每個(gè)像素點(diǎn)的θ值和φ值在(0°~360°)范圍的梯度值分布空間分成9份,那么天頂角θ和方位角φ就構(gòu)成了一個(gè)具有9個(gè)bins的直方圖。這樣,每一個(gè)cell就可以用一個(gè)8×8×18=1152維的特征向量表示。最后,整合所有cells中得到的HON3D特征向量,獲得整個(gè)目標(biāo)物體的特征向量表示,并用L2范數(shù)對圖像的HON3D特征進(jìn)行歸一化,使得特征向量空間對光照等的變化更具有魯棒性。
1.2基于單特征的3D目標(biāo)識別和證據(jù)BPA函數(shù)的構(gòu)造
(1) 單特征的SVM識別
利用1.1節(jié)中提取的目標(biāo)的RGB-SIFT特征和Depth-HON3D特征向量,將其分別輸入SVM分類器進(jìn)行基于兩種特征的3D目標(biāo)的初步識別。
(2) D-S證據(jù)理論基礎(chǔ)
D-S證據(jù)理論[12]是由Dempster提出,由他的學(xué)生Shafer進(jìn)一步推廣完善的一種對不確定問題進(jìn)行建模、推理的方法,并在目標(biāo)檢測和分類、目標(biāo)識別、信息融合等領(lǐng)域得到了廣泛的應(yīng)用。其主要思想就是將所有相互獨(dú)立的證據(jù)劃分成幾個(gè)彼此互不相關(guān)的部分,并利用這些證據(jù)分別對鑒別框架進(jìn)行判斷;最后通過D-S證據(jù)組合規(guī)則將各證據(jù)的信任函數(shù)進(jìn)行融合,得到一個(gè)新的融合后的證據(jù),將新的證據(jù)作為最終對目標(biāo)所屬類別判斷決策的依據(jù)。
D-S證據(jù)理論原理如下:設(shè)Θ為一個(gè)識別框架,其中Θ是由一組相互獨(dú)立的命題組成,對Θ中的任意命題A均是冪集2Θ的一個(gè)子集,那么在2Θ上定義映射函數(shù)m:2Θ→[0,1]滿足下列條件:
(2)
則稱m為Θ上的概率分配函數(shù)。m(A)為命題A的基本概率分配(BPA),表示證據(jù)對命題A的信任程度,且證據(jù)對識別框架Θ中所有命題的信任度和為1。m(Θ)表示證據(jù)的不確定性。
D-S證據(jù)融合規(guī)則:假設(shè)e1,e2,…,en為識別框架Θ上n個(gè)相互獨(dú)立的證據(jù),m1,m2,…,mn分別是各證據(jù)對應(yīng)的基本概率分配(BPA)函數(shù)。正交和是證據(jù)推理的基本性操作,將不同證據(jù)融合的過程實(shí)際上就是對不同證據(jù)對應(yīng)的所有BPA函數(shù)執(zhí)行正交和m1⊕m2⊕…⊕mn運(yùn)算:
(3)
(3) 證據(jù)基本概率分配(BPA)函數(shù)的構(gòu)造
支持向量機(jī)(SVM)[13]是建立在Vapnik-Chervonenkis維理論和結(jié)構(gòu)化風(fēng)險(xiǎn)最小化原理的基礎(chǔ)上,對于線性不可分的樣本,將輸入空間變換到一個(gè)高維空間。并在這個(gè)高維空間中構(gòu)建一個(gè)超平面,利用超平面實(shí)現(xiàn)目標(biāo)的分類,能有效克服“維數(shù)災(zāi)難”,在解決小樣本的目標(biāo)識別上有很大的優(yōu)勢。這里我們選擇結(jié)合SVM以及D-S證據(jù)理論在解決識別問題中的優(yōu)勢,來實(shí)現(xiàn)本文的3D目標(biāo)識別。
我們將兩種特征作用下的SVM的輸出作為證據(jù),進(jìn)行概率建模。標(biāo)準(zhǔn)的SVM判決輸出f(x)屬于硬判決輸出,即用y∈{1,-1}來硬性地表征目標(biāo)所屬類別,而在利用D-S證據(jù)理論解決不確定性問題時(shí),需要用到SVM的軟判決輸出,即概率輸出。而Platt[14]提出了一種通過利用sigmoid函數(shù)作為橋梁,將SVM判決輸出f(x)映射到[0,1],以實(shí)現(xiàn)SVM概率輸出的方法。概率輸出形式可以表示為:
(4)
式中,f(x)為SVM中樣本x的標(biāo)準(zhǔn)判決輸出值;參數(shù)a和b用來控制Sigmoid函數(shù)的形態(tài)變化,求解a和b的值就可以轉(zhuǎn)化為一個(gè)求解函數(shù)的最大似然問題,如下式所示:
(5)
對一輸入兩類SVMi(i=1,2,表示第i類特征對應(yīng)的分類器)的訓(xùn)練樣本集,根據(jù)式(5)得到最優(yōu)參數(shù)a和b,然后將其代入式(4)得到第i類特征關(guān)于學(xué)習(xí)樣本的后驗(yàn)概率輸出pi。將測試樣本輸入已經(jīng)訓(xùn)練好的SVMi分類器中,得到第i類特征關(guān)于測試樣本的識別準(zhǔn)確率qi。我們定義BPA函數(shù)如下:
mi(A)=qipi
(6)
(4) 證據(jù)的融合和決策判決
根據(jù)式(6)分別得到RGB-SIFT特征和Depth-HON3D特征兩種證據(jù)下對應(yīng)的信度值后,利用式(3)進(jìn)行證據(jù)的融合,得到證據(jù)聯(lián)合作用下的信度。然后我們使用如下決策準(zhǔn)則:
設(shè)Cn(n=1,2,…,6)為目標(biāo)的類型,Cobj是目標(biāo)類別,且:
m(Cobj)=max{m(Cn)}Ci?Θ
(7)
若滿足以下條件:
msec-max(Cj)=max{m(Cn)}Cj?ΘCi≠Cj
(8)
(9)
式中,m(Cobj)表示識別框架中證據(jù)對目標(biāo)具有最大支持度的類是目標(biāo)類,msec-max(Cj)為識別框架中證據(jù)對目標(biāo)具有第二大支持度的類的信度值,m(Θ)為目標(biāo)所屬類的不確定度,λ1、λ2和λ3是設(shè)定的正閾值。從滿足的三個(gè)決策條件可以看出:(1) 證據(jù)對目標(biāo)所屬類別的最大支持度和第二大支持度應(yīng)該保持足夠大的差異;(2) 目標(biāo)的不確定度的信度值不能太大;(3) 目標(biāo)所屬類別的信任度值要大于目標(biāo)不確定性的信任度值。若上述條件都滿足,則可以對目標(biāo)所屬類別作出最終的判決。
2實(shí)驗(yàn)結(jié)果與分析
2.1實(shí)驗(yàn)設(shè)置
本文所有實(shí)驗(yàn)中采用的訓(xùn)練樣本圖像和測試樣本圖像都來自美國華盛頓計(jì)算機(jī)科學(xué)與工程系Lai等人及因特爾西雅圖實(shí)驗(yàn)室的Ren等人通過Kinect相機(jī)獲取RGB圖像和Depth圖像并建立的可用于3D目標(biāo)識別的RGB-D數(shù)據(jù)集[9]。此數(shù)據(jù)集包含了51類300多種不同角度、不同光照條件下的日常用品的RGB-D圖像。我們從中選取了6類物體(C1:apple, C2:orange, C3:tomato,C4:lemon, C5:soda_can , C6:water_bottle)進(jìn)行實(shí)驗(yàn)。圖2中給出了本文實(shí)驗(yàn)采用的部分RGB-D數(shù)據(jù)集實(shí)驗(yàn)樣本。
圖2 RGB-D數(shù)據(jù)集部分實(shí)驗(yàn)樣本
實(shí)驗(yàn)中,多類分類SVM采用的是“一對一”的分類方法,核函數(shù)采用的是RBF核,誤差懲罰參數(shù)c=38和核參數(shù)σ=2.48通過交叉驗(yàn)證方法獲得。通過多次實(shí)驗(yàn)統(tǒng)計(jì)得到?jīng)Q策規(guī)則中的判別閾值λ1=0.3、λ2=0.2、λ3=0.4。用于實(shí)驗(yàn)的訓(xùn)練樣本選擇每類30幅,共180幅,測試圖像選擇每類10幅,共60幅,且訓(xùn)練樣本和測試樣本選擇不同的圖像。實(shí)驗(yàn)中所有程序都在PC機(jī)上Window 7開發(fā)環(huán)境下,使用Matlab R2008a系統(tǒng)開發(fā)工具。其中SVM部分使用的是由臺灣大學(xué)林智仁開發(fā)的libsvm 2.86[15]軟件包。
2.2實(shí)驗(yàn)結(jié)果與分析
本文為驗(yàn)證提出的3D目標(biāo)識別方法在提高目標(biāo)識別率以及可靠性上的優(yōu)勢,從以下三個(gè)方面進(jìn)行了方法的實(shí)驗(yàn)驗(yàn)證和分析:
(1) 在對目標(biāo)分別提取RGB-SIFT特征以及Depth-HON3D特征的情況下,對比分析了本文采用的D-S證據(jù)多特征融合方法和文獻(xiàn)[9]中的加權(quán)多特征融合方法的識別率,實(shí)驗(yàn)結(jié)果如表1所示。
表1 不同融合方法下的目標(biāo)識別率
分析表1數(shù)據(jù)可以看出:對RGB-SIFT特征以及Depth-HON3D特征的融合,利用D-S證據(jù)融合方法比利用文獻(xiàn)[9]中的特征加權(quán)融合方法得到的3D目標(biāo)識別率高,說明了本文采用的D-S證據(jù)多特征融合方法比文獻(xiàn)[9]中的加權(quán)多特征融合方法在提高3D目標(biāo)識別率上更有效。
(2) 本文方法以及文獻(xiàn)[9]中方法分別基于單特征以及多特征融合下的3D目標(biāo)識別率對比,實(shí)驗(yàn)結(jié)果如表2所示。
表2 單特征以及多特征融合下的識別率
分析表2數(shù)據(jù)可以看出:① 單獨(dú)基于RGB特征、Depth特征下的目標(biāo)識別率,本文方法均高于文獻(xiàn)[9]方法,說明本文特征提取方法比文獻(xiàn)[9]中的特征提取方法在提高目標(biāo)識別率上更有效;② 本文結(jié)合SVM和D-S證據(jù)理論的多特征決策級融合方法得到的3D識別率明顯高于文獻(xiàn)[9]中將特征進(jìn)行基于特征級的特征加權(quán)融合方法得到的目標(biāo)的識別率。主要原因是:本文采用的D-S證據(jù)理論利用SVM的后驗(yàn)概率輸出以及目標(biāo)分類精度構(gòu)造證據(jù)對目標(biāo)的信度值,根據(jù)DS證據(jù)融合規(guī)則對RGB特征和Depth特征進(jìn)行融合,很好地實(shí)現(xiàn)多特征融合證據(jù)對目標(biāo)的有效支持,大大減小了對目標(biāo)的不確定度,提高了目標(biāo)識別的準(zhǔn)確性和可靠性。
進(jìn)一步分析表1和表2中數(shù)據(jù),可以看出在均采用文獻(xiàn)[9]中加權(quán)特征融合的前提下,本文方法得到的目標(biāo)識別率要比利用文獻(xiàn)[9]中得到目標(biāo)識別率高,驗(yàn)證了本文提取的RGB-SIFT特征以及Depth-HON3D特征比文獻(xiàn)[9]中的特征在提高3D目標(biāo)識別率上更有效。
(3) 從測試實(shí)驗(yàn)樣本中隨機(jī)選擇6類目標(biāo)的6幅測試樣本進(jìn)行實(shí)驗(yàn),記錄實(shí)驗(yàn)中單特征證據(jù)和多特征證據(jù)融合下的BPA值以及對目標(biāo)所屬類別的識別結(jié)果(其中,5- apple表示測試樣本中編號為5的樣本apple(C1類))。具體實(shí)驗(yàn)結(jié)果如表3所示。
表3 單特征證據(jù)以及多特征證據(jù)融合下的BPA值
分析表3數(shù)據(jù)可以看出:① 對于每個(gè)類別的待識別樣本,RGB和Depth兩種特征融合后對目標(biāo)的所屬真實(shí)類別的信度值(BPA值)均比利用單特征進(jìn)行識別的BPA值要高,很大程度上增加了對目標(biāo)所屬類別的信任程度。同時(shí)大幅度降低了對目標(biāo)所屬類別判斷的不確定度(例如,對5 apple,利用單特征進(jìn)行識別得到的最高BPA值為0.420,融合兩種特征后達(dá)到了0.584,而對目標(biāo)的不確定度也由0.110降到了0.037),增加了識別的可靠性;② 對于利用單特征無法識別出來的目標(biāo)物體(如表中的樣本5、15、25、33、55),經(jīng)過特征融合后能夠準(zhǔn)確地對目標(biāo)進(jìn)行識別,進(jìn)一步說明了基于D-S證據(jù)理論的多特征融合方法有效地提高了目標(biāo)識別的精確性和可靠性。
3結(jié)語
本文提出一種基于D-S證據(jù)理論的融合RGB特征和Depth特征的3D目標(biāo)識別方法。首先利用SVM對目標(biāo)物體分別進(jìn)行基于RGB特征和Depth特征的單特征目標(biāo)識別,并以每個(gè)SVM的后驗(yàn)概率輸出作為獨(dú)立證據(jù)構(gòu)造對目標(biāo)所屬類別的信度函數(shù)(BPA函數(shù));然后利用D-S證據(jù)融合規(guī)則進(jìn)行多特征融合;最后根據(jù)決策規(guī)則對目標(biāo)所屬類別進(jìn)行判決,完成3D目標(biāo)識別。實(shí)驗(yàn)結(jié)果表明,本文方法能夠?qū)崿F(xiàn)RGB特征和Depth特征的有效融合,提高了3D目標(biāo)識別的準(zhǔn)確性和可靠性。
參考文獻(xiàn)
[1] 王凱,穆志純.基于溝回結(jié)構(gòu)特征的三維人耳識別方法[J].儀器儀表學(xué)報(bào),2014,35(2):313-319.
[2] 李欽奉,高楠楠,蔣玲慧.三維特征識別方法應(yīng)用于一面兩孔的自動(dòng)選取[J].計(jì)算機(jī)應(yīng)用與軟件,2014,31(2):62-65.
[3] 李迎春,杜永紅,王帥.基于抗噪粗糙集的三維目標(biāo)自動(dòng)識別[J].裝備學(xué)院學(xué)報(bào)ISTIC,2014(2):71-75.
[4] Rusu R B,Bradski G,Thibaux R,et al.Fast 3d recognition and pose using the viewpoint feature histogram[C]//2010 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS),Taipei,Taiwan,2010:2155-2162.
[5] Steder B,Rusu R B,Konolige K,et al.Point feature extraction on 3D range scans taking into account object boundaries[C]//2011 ieee international conference on Robotics and automation (icra),Shanghai,China,2011:2601-2608.
[6] Shah S A A,Bennamoun M,Boussaid F,et al.A Novel Local Surface Description for Automatic 3D Object Recognition in Low Resolution Cluttered Scenes[C]//2013 IEEE International Conference on Computer Vision Workshops (ICCVW),Sydney,Australia,2013:638-643.
[7] Janoch A,Karayev S,Jia Y,et al.A category-level 3d object dataset: Putting the kinect to work[M]//Consumer Depth Cameras for Computer Vision.Springer London,2013:141-165.
[8] Mirdanies M,Prihatmanto A S,Rijanto E.Object Recognition System in Remote Controlled Weapon Station using SIFT and SURF Methods[J].Mechatronics,Electrical Power,and Vehicular Technology,2013,4(2):99-108.
[9] Bo L,Ren X,Fox D.Depth kernel descriptors for object recognition[C]//2011 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS),San Francisco,CA,USA,2011:821-826.
[10] Van De Sande K E A,Gevers T,Snoek C G M.Evaluating color descriptors for object and scene recognition[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2010,32(9):1582-1596.
[11] Tang S,Wang X,Lv X,et al.Histogram of oriented normal vectors for object recognition with a depth sensor[M].Springer Berlin Heidelberg:Computer Vision,2013.
[12] Yager R R.On the Dempster-Shafer framework and new combination rules[J].Information sciences,1987,41(2):93-137.
[13] Zhang X P.Introduction to statistical learning theory and support vector machines[J].Acta Automatica Sinica,2000,26(1):32-42.
[14] Platt J C.Probabilistic outputs for support vector machines and comparisons to regularizedlikelihood methods[J].Advances in large margin classifiers,2000(16):61-74.
[15] Chang C C,Lin C J.LIBSVM:a library for support vector machines[J].ACM Transactions on Intelligent Systems and Technology (TIST),2011,2(3):27.
收稿日期:2015-02-07。國家自然科學(xué)基金項(xiàng)目(61273237);安徽省自然科學(xué)基金項(xiàng)目(11040606M149)。楊慧,碩士生,主研領(lǐng)域:智能信息處理。胡良梅,副教授。張旭東,教授。陳仲海,碩士生。董文菁,碩士生。
中圖分類號TP391.9
文獻(xiàn)標(biāo)識碼A
DOI:10.3969/j.issn.1000-386x.2016.07.038
A 3D OBJECT RECOGNITION METHOD BASED ON D-S EVIDENCE THEORY AND FUSING RGB AND DEPTH CHARACTERS
Yang HuiHu LiangmeiZhang XudongChen ZhonghaiDong Wenjing
(SchoolofComputerandInformation,HefeiUniversityofTechnology,Hefei230009,Anhui,China)
AbstractAiming at the problem of low recognition rate when using single character for 3D object recognition, we combine the advantages of RGB image and Depth images and propose a 3D object recognition method which is based on support vector machines (SVM) and D-S evidence theory and fuses RGB and Depth characters. The method extracts RGB and Depth characters of the targeted object and uses SVM probability output of these two single characters as the independent evidence respectively, constructs the basic probability distribution function (BPA) which is based on every evidence, and carries out evidence fusion with D-S evidence fusion rules, and obtains final 3D object recognition results according to decision criteria. The experiment verification is based on RGB-D dataset derived from Kinect camera, results show that the method can effectively realise the fusion of RGB and Depth characters, and improves the accuracy and reliability of 3D object recognition.
Keywords3D object recognitionSupport vector machines (SVM)D-S evidence theoryKinect camera