朱愛斌,何大勇,鄒超,陳渭
(西安交通大學(xué)現(xiàn)代設(shè)計及轉(zhuǎn)子軸承系統(tǒng)教育部重點實驗室,710049,西安)
?
刀具磨損圖像視差圖的非標(biāo)定方法
朱愛斌,何大勇,鄒超,陳渭
(西安交通大學(xué)現(xiàn)代設(shè)計及轉(zhuǎn)子軸承系統(tǒng)教育部重點實驗室,710049,西安)
刀具磨損檢測的視場范圍很小、現(xiàn)場工況復(fù)雜(存在機床護罩和刀具保持架的遮擋),而以往對攝像機進行標(biāo)定的方法多用于大視場環(huán)境,并不適合于加工現(xiàn)場的刀具磨損檢測。為此,文中提出一種采用非標(biāo)定雙目視覺方法獲取刀具磨損圖像視差圖的方法,無需標(biāo)定參考物和人工干預(yù)。首先,利用SURF(speeded-up robust features)算法檢測圖像對中的特征點;其次,利用8點算法計算基本矩陣,再利用極點無窮遠變換完成圖像對的校正;最后,利用基本區(qū)域匹配方法完成圖像對視差的計算。進行了加工現(xiàn)場的磨損刀具圖像獲取實驗,先對比了重構(gòu)出的刀具視差圖輪廓與實際輪廓,接著分析了刀具視差圖的精度。結(jié)果顯示,重構(gòu)輪廓與實際輪廓基本相符,重構(gòu)出的視差圖的絕對誤差在5個像素點以下,相對誤差在10%至30%之間,說明在小視場和復(fù)雜工況下,用非標(biāo)定方法獲取的刀具視差圖能夠滿足現(xiàn)場檢測的精度要求,并且該方法具有靈活和高效的特點。
刀具磨損;視差圖;非標(biāo)定方法;雙目視覺
在雙目視覺中,視差是指空間一點在2幅圖像中形成的2個成像點坐標(biāo)上的差異。視差圖是以原圖為大小、以各個視差值為元素的圖像。刀具磨損圖像的視差圖能夠間接反映出刀具磨損表面的深度信息,對于刀具磨損表面的三維重構(gòu)具有重要意義[1-2]。通過獲取磨損表面的三維信息,可以對刀具磨損狀態(tài)進行有效檢測,從而減少機床故障的停機時間,提高自動化加工效率。對雙目視覺中采用標(biāo)定方式獲得視差圖的方法而言,需要標(biāo)定攝像機以獲得其內(nèi)外參數(shù),然后進行圖像對校正和視差計算[3]。張鋮偉等介紹了攝像機標(biāo)定的基本方法和步驟,并比較了不同標(biāo)定方法的特點[4]。Zhou等提出了一種改進的隨機抽樣一致算法,并借助標(biāo)定板準(zhǔn)確地計算出了攝像機的內(nèi)外參數(shù)[5]。劉亞菲采用標(biāo)定的雙目視覺方法,對大型工件的焊接位置進行了測量[6]。王琳等采用張正友標(biāo)定法對2個攝像機進行標(biāo)定,計算出了橋梁裂縫的長度和寬度[7]。許薛軍等采用基于Tsai標(biāo)定法的雙目視覺方法,對公路邊坡位移進行了識別[8]。Wang等針對大視場視覺測量應(yīng)用,提出了兩步標(biāo)定法用于計算攝像機參數(shù)[9]。但是,以上標(biāo)定方法都是在大視場范圍進行的,并且需要標(biāo)定參考物和人工干預(yù)??紤]到刀具磨損檢測的視場范圍很小并且現(xiàn)場工況復(fù)雜(存在機床護罩和刀具保持架的遮擋),放置標(biāo)定參考物很不方便,且加工時無法進行人工干預(yù),所以標(biāo)定的方法不適合加工現(xiàn)場的刀具磨損檢測。
針對上述情況并結(jié)合現(xiàn)場刀具磨損檢測的特點,本文提出采用非標(biāo)定雙目視覺方法獲取刀具磨損圖像的視差圖,通過對比重構(gòu)出的視差圖輪廓與實際輪廓之間的差異來分析視差圖的精度。結(jié)果顯示,非標(biāo)定方法能夠適應(yīng)小視場和復(fù)雜工況,具有靈活和高效的特點。
雙目視覺方法可以理解為通過三維空間物體在左右2個攝像機成像平面上形成的數(shù)字圖像,反推出三維空間物體點在世界坐標(biāo)系中的坐標(biāo)的過程。
在理想條件下,左右2個攝像機的成像平面平行,如圖1所示,可以利用三角測距原理確定空間點P的深度值。點P的深度計算公式[10]為
(1)
式中:f為攝像機焦距;B為左右攝像機光心的基線距離;dx為視差。
圖1 三角測距原理圖
獲取刀具磨損圖像的視差圖對重構(gòu)出刀具磨損表面的深度信息具有重要意義。由前面的分析可知,要獲取視差圖必須先使左右成像平面平行,而實際情況下左右成像平面并不平行,如圖2所示。
圖2 空間一點成像示意圖
因此,需要對左右成像平面進行校正,使得左右成像平面平行,這樣才可以進行視差計算??梢圆捎脴?biāo)定參考物對攝像機進行標(biāo)定,根據(jù)標(biāo)定得到的攝像機內(nèi)外參數(shù)對左右攝像頭獲取的圖像進行校正[3]。但是,由于刀具磨損檢測的視場范圍很小,刀具磨損檢測現(xiàn)場工況復(fù)雜,放置標(biāo)定參考物很不方便,且加工時無法進行人工干預(yù),所以利用標(biāo)定方法進行校正的實用性較差。
本文提出采用非標(biāo)定方法對左右2幅刀具磨損圖像進行校正。在圖2中,極線l1與l2在PO1O2三點構(gòu)成的平面內(nèi),這個線面關(guān)系約束稱為極線約束,在數(shù)學(xué)上用基本矩陣來表示極線約束。基本矩陣代表了左右2幅圖像對應(yīng)點之間的關(guān)系,通過基本矩陣對2個對應(yīng)點之間的幾何關(guān)系進行約束,可以使2幅圖像的畸變最小。這種方法不需要進行標(biāo)定,處理過程稱為極線約束下的圖像校正。
利用非標(biāo)定雙目視覺獲取視差圖的基本過程如如3所示。
圖3 非標(biāo)定雙目視覺獲取視差圖過程
2.1 用SURF算法提取圖像對特征點
SURF(speeded-up robust features)算法由Bay等提出[11],是一種尺度和旋轉(zhuǎn)不變的檢測子和描述子,用來檢測圖像中的特征點。
為了保證檢測子和描述子的尺度不變性,需要在不同尺度下對圖像進行特征點檢測。SURF算法使用不同大小的方形濾波器與圖像進行卷積,濾波器則通過高斯函數(shù)進行加權(quán)。SURF算法利用特征點的近似Hessian矩陣作為特征點的響應(yīng)。對于尺度為σ、坐標(biāo)為x=(x,y)的圖像點,Hessian矩陣定義為
(2)
式中:Lxx為圖像點處灰度值與高斯函數(shù)二階導(dǎo)數(shù)的卷積;Lxy、Lyx和Lyy的含義與Lxx類似。高斯函數(shù)為
(3)
2.2 基本矩陣的計算
基本矩陣包含了圖像對應(yīng)匹配特征點的極線約束,建立了左右圖像中對應(yīng)點集的映射關(guān)系。假設(shè)矩陣F是圖像對(I1,I2)的基本矩陣,P1=(x,y,1)T和P2=(x′,y′,1)T(齊次坐標(biāo))分別是2幅圖像上對應(yīng)的特征點,那么基本矩陣和2個特征點之間有如下關(guān)系[10]
(4)
另外,基本矩陣F和左、右極點J1、J2之間的關(guān)系[10]為
(5)
若將基本矩陣元素用f及下標(biāo)表示,則式(4)變?yōu)?/p>
x′xf11+x′yf12+x′f13+y′xf21+
y′yf22+y′f23+xf31+yf32+f33=0
(6)
若有n個對應(yīng)特征點,則式(6)可寫成如下矩陣形式
Af=0
(7)
本文采用由Longuet-Higgins提出的8點算法[12],該算法只需要8個匹配的特征點即可求解出基本矩陣,運算速度快。
8點算法計算基本矩陣的流程如下。
(3)去坐標(biāo)變換。基本矩陣F=t′TF′t,其中F為原來特征點對應(yīng)的基本矩陣。
2.3 圖像對校正
使左右2個成像平面完全平行的過程稱為圖像對的校正,如圖4所示。
(a)校正前 (b)校正后圖4 圖像對校正原理
由圖4可知,校正之后圖像對的極點被映射到無窮遠處,并且對應(yīng)極線平行。問題轉(zhuǎn)化為先計算左校正矩陣H將左極點映射到無窮遠,再計算右校正矩陣H′將右極點映射到無窮遠,同時要注意在計算H′時要滿足校正后的圖像畸變最小。
先計算左校正矩陣H。假設(shè)點u0位于原點,左極點J1=(m,0,1)T位于x軸,考慮如下變換
(8)
該變換將極點(m,0,1)T映射到無窮遠點(m,0,0)T,而一個任意點(u,v,1)T在上述變換的映射下將變?yōu)?u,v,1)T=(u,v,1-u/f)T。
所以,對任意興趣點u0和左極點J1,左校正變換可以表示為
H=GRT
(9)
式中:G將左極點J1變換到無窮遠;R將左極點J1變換到x軸;T將興趣點u0變換到原點。
再計算右校正矩陣H′,并保證校正后圖像畸變最小。為保證圖像畸變最小,采用如下判別標(biāo)準(zhǔn)[10]
(10)
另外,基本矩陣F可以表示成
F=[J2]×M
(11)
式中:[J2]×為右極點J2向量形成的反對稱矩陣;M為非奇異矩陣。
用左校正矩陣H表示右校正矩陣H′
H=(I+H′J2aT)H′M
(12)
式中:a為特定向量。
由于H′將右極點J2映射到無窮遠點(1,0,0)T,即H′J2=(1,0,0)T,那么有
(13)
從而有H=AH′M,即
H′=A-1HM-1
(14)
(15)
式(15)是一個線性最小二乘估計問題,利用線性方法就可以求解出未知參數(shù)a、b和c,從而得到A。至此,左右校正矩陣H和H′已全部求出。上述圖像校正過程總結(jié)如下:
(1)得到基本矩陣,根據(jù)式(5)計算圖像對的對應(yīng)極點;
(2)計算圖像對的左校正矩陣H;
(3)依據(jù)畸變最小原則,計算圖像對的右校正矩陣H′;
(4)根據(jù)得到的2個校正矩陣分別對2幅圖像做校正變換。
2.4 利用基本區(qū)域匹配算法的圖像對匹配
校正后的圖像對匹配點的橫坐標(biāo)相同,只需要在另外一幅圖像中相同的橫軸上搜尋對應(yīng)的匹配點。這里利用基本區(qū)域匹配算法執(zhí)行圖像對的立體匹配?;緟^(qū)域匹配是以圖像中的點為中心構(gòu)建一個固定大小的區(qū)域,以像素灰度平均絕對誤差Ema為指標(biāo),計算一幅圖像的某個區(qū)域內(nèi)像素點的灰度值與另外一幅圖像的相同橫坐標(biāo)軸上相同大小區(qū)域內(nèi)像素點的像素灰度平均絕對誤差[13]。在通常情況下,固定某一幅圖像的一個點坐標(biāo)之后,遍歷另外一幅圖像中相同橫坐標(biāo)的點,像素灰度平均絕對誤差最小的點即為匹配點。像素灰度平均絕對誤差定義如下
Ema(x,y)=
(16)
式中:模板半徑i取為3;f(x,y)是(x,y)處的像素點灰度值。
3.1 重構(gòu)輪廓形狀分析
為了在加工現(xiàn)場進行刀具磨損檢測,采用微距攝像頭,用磁性表座對攝像頭進行固定。實驗在G-CNC6135數(shù)控車床上進行,回刀時在車床上進行檢測,刀具為45°YW2型硬質(zhì)合金焊接車刀。使用自行開發(fā)的軟件獲取圖像,實驗裝置如圖5和圖6所示。
圖5 現(xiàn)場刀具磨損檢測裝置
圖6 檢測細節(jié)
首先,針對背景與結(jié)構(gòu)關(guān)系簡單、對比度低的問題對圖像進行預(yù)處理;接著,使用SURF算法對圖像特征點進行檢測,得到大量的對應(yīng)匹配點;然后,根據(jù)對應(yīng)匹配點計算出基本矩陣,再經(jīng)過極點無窮遠變換得到校正后的圖像對。過程如圖7和圖8所示,可以看出,校正后的圖像畸變較小,并且相同位置圖像特征點的橫坐標(biāo)相同。
(a)左圖像特征點檢測 (b)右圖像特征點檢測圖7 SURF算法檢測到的焊接車刀匹配點
(a)校正后的左圖像 (b)校正后的右圖像圖8 校正后的焊接車刀左右圖像對
最后,使用基本區(qū)域匹配方法獲取焊接車刀視差圖,結(jié)果如圖9所示。
圖9 刀具磨損圖像視差圖
下面,通過觀察3個關(guān)鍵位置處的輪廓,對重構(gòu)出的刀具磨損區(qū)域視差圖進行輪廓形狀分析。為了減少噪聲,使用均值濾波模板對視差圖做均值濾波處理。選取的特征位置為上下2個刀尖與刀刃中部,選取方式如圖10所示。
(a)下刀尖特征點坐標(biāo)
(b)刀刃特征點坐標(biāo)圖10 下刀尖與刀刃特征點坐標(biāo)
圖10a中,下刀尖特征點的坐標(biāo)(坐標(biāo)單位均為像素,下同)分別為(615,215)、(615,240)和(615,245),原點是左上角頂點,橫軸為水平方向。圖10b中,刀刃特征點坐標(biāo)分別為(545,190)、(545,205)和(545,230)。類似地,選取上刀尖特征點坐標(biāo)分別為(455,155)、(455,185)和(455,200)。選取這些點所在直線經(jīng)過的各位置的視差值形成刀具磨損表面輪廓,如圖11a~11c所示。
(a)下刀尖視差圖輪廓 (b)刀刃視差圖輪廓
(c)上刀尖視差圖輪廓 (d)顯微鏡下的輪廓圖11 特征位置處視差圖輪廓與顯微鏡下的輪廓
圖11d是由奧林巴斯OLS4000共聚焦顯微鏡獲得的刀具磨損表面輪廓形狀,顯微鏡水平分辨率為0.12 μm,垂直分辨率為0.01 μm??梢钥吹?圖中刀具磨損區(qū)域是一個斜坡。將圖11a~11c分別與圖11d作對比,發(fā)現(xiàn)重構(gòu)出的視差圖中磨損區(qū)域輪廓也呈斜坡狀,與實際輪廓基本一致。
3.2 重構(gòu)精度分析
由于圖像校正過程可以近似認(rèn)為是剛體變換,所以刀具表面的幾何元素相對位置不發(fā)生改變,但由于校正后的圖像是原圖像的重采樣,所以幾何元素的長度與相對距離會發(fā)生改變。選取幾何位置關(guān)系沒有發(fā)生改變的刀具上下刀尖位置處的邊界距離進行畸變系數(shù)計算,以減少校正過程產(chǎn)生的測量誤差。如圖12a所示,沿刀具前刀面的3個邊界分別作3條直線相交于2點,分別為(319,115)與(525,227)。在圖12b中,用相似方法求得2個交點的坐標(biāo)為(326,288)和(614,407)。
(a)原圖特征線段
(b)視差圖特征線段圖12 視差圖相對原圖的畸變系數(shù)計算
計算圖12a與圖12b中所取線段的長度,將兩者的比值作為后面磨損區(qū)域?qū)挾葴y量中的畸變系數(shù)[14]。計算結(jié)果:原圖特征線段長度為234.48像素;視差圖特征線段長度為311.62像素;線性畸變系數(shù)為1.33。
接下來進行視差圖磨損區(qū)域測量寬度的精度分析。選取測量的第一個特征磨損區(qū)域為刀刃。為測量刀刃最小磨損寬度值,按圖13a所示方法做3條直線交于2點,坐標(biāo)分別為(527,225)和(523,233)。類似地,圖13b中2點的坐標(biāo)分別為(412,139)和(418,126)。
(b)視差圖中的磨損寬度圖13 刀刃最小磨損寬度測量
(a)原圖中的磨損寬度
(b)視差圖中的磨損寬度圖14 刀尖特征位置一的磨損寬度測量
選取測量的第二個和第三個特征磨損區(qū)域為上刀尖處的2個凸點。在圖14a中,過上刀尖磨損外邊界作一條直線,向磨損內(nèi)邊界推移此直線直到與磨損內(nèi)邊界相接觸,前刀面左邊界與上述直線交于一點,即所求凸點,過此凸點作直線的垂線,該垂線段即代表磨損區(qū)域?qū)挾取D14a中所取點的坐標(biāo)為(303,138)和(307,162),圖14b中所取點的坐標(biāo)為(399,159)和(407,195)。
在圖15中,用類似方法求取垂線段。圖15a中所取點的坐標(biāo)為(355,134)和(358,157),圖15b中所取點的坐標(biāo)為(468,150)和(473,178)。
(a)原圖中的磨損寬度
(b)視差圖中的磨損寬度圖15 刀尖特征位置二的磨損寬度測量
根據(jù)上述坐標(biāo),計算所需測量處磨損區(qū)域的寬度,并將畸變校正后原圖中的磨損區(qū)域?qū)挾戎蹬c視差圖得到的磨損區(qū)域?qū)挾戎颠M行對比,3個磨損區(qū)域的寬度值對比結(jié)果見表1。
表1 刀具特征位置磨損區(qū)域檢測寬度的
w0:原圖磨損區(qū)域?qū)挾?w1:畸變系數(shù)校正后原圖磨損區(qū)域?qū)挾?w2:視差圖磨損區(qū)域?qū)挾?Eabs:絕對誤差;δ:相對誤差。
分析表1的數(shù)據(jù)可以發(fā)現(xiàn),測量得到的磨損區(qū)域?qū)挾冉^對誤差在5像素以下,相對誤差在10%至30%之間。
綜合上述重構(gòu)出的視差圖的輪廓分析與精度分析結(jié)果,發(fā)現(xiàn)重構(gòu)出的視差圖中的刀具輪廓與實際刀具輪廓形狀基本相符,且重構(gòu)出的磨損區(qū)域?qū)挾鹊慕^對誤差在5像素以下,相對誤差在10%至30%之間,表明采用非標(biāo)定方法獲取的刀具磨損圖像的視差圖基本能夠滿足加工現(xiàn)場的刀具磨損檢測要求,且具有靈活和高效的特點。
本文提出了一種采用非標(biāo)定雙目視覺方法獲取刀具磨損圖像視差圖的方法,無需獲取攝像機的內(nèi)外參數(shù),無需標(biāo)定參考物和人工干預(yù)即可完成圖像對的校正和視差圖獲取。分析表明:采用本文方法重構(gòu)出的刀具視差圖輪廓與實際輪廓基本相符;分析視差圖測量得到的磨損區(qū)域?qū)挾扰c原圖測量得到的磨損區(qū)域?qū)挾?可知現(xiàn)場加工環(huán)境中非標(biāo)定雙目視覺方法的測量精度可以達到5像素以下,相對誤差在10%至30%之間。造成誤差的因素涉及攝像頭像素及感光性能、現(xiàn)場光源條件、車床的輕微振動、視差圖獲取算法等,未來可通過采用更高質(zhì)量的攝像頭、設(shè)置附加光源、完善圖像處理算法等途徑來提高精度。
本文的研究表明,非標(biāo)定雙目視覺方法無需對攝像機進行標(biāo)定,能夠在復(fù)雜工況下獲取刀具磨損圖像的視差圖,且視差圖的精度基本能夠滿足加工現(xiàn)場刀具磨損檢測的要求,具有靈活和高效的特點。未來的工作重點將放在提高刀具磨損圖像視差圖的精度方面。
[1] CERCE L, PUSAVEC F, KOPAC J. 3D cutting tool-wear monitoring in the process [J]. Journal of Mechanical Science and Technology, 2015, 29(9): 3885-3895.
[2] WANG Z, LI B, ZHOU Y. Fast 3D reconstruction of tool wear based on monocular vision and multi-color structured light illuminator [C]∥Proceedings of International Symposium on Optoelectronic Technology and Application. Bellingham, WA, USA: SPIE, 2014: 93011D.
[3] FORSYTH D, PONCE J. Computer vision: a modern approach [M]. 2nd ed. New York, USA: Pearson, 2011: 32-43.
[4] 張鋮偉, 王彪, 徐貴力. 攝像機標(biāo)定方法研究 [J]. 計算機技術(shù)與發(fā)展, 2010, 20(11): 174-179. ZHANG Chengwei, WANG Biao, XU Guili. Research of camera calibration methods [J]. Computer Technology and Development, 2000, 20(11): 174-179.
[5] ZHOU F, CUI Y, WANG Y, et al. Accurate and robust estimation of camera parameters using RANSAC [J]. Optics and Lasers in Engineering, 2013, 51(3): 197-212.
[6] 劉亞菲. 大型工件焊接雙目視覺測量及精度研究 [D]. 上海: 華東理工大學(xué), 2013.
[7] 王琳, 趙健康, 夏軒, 等. 基于雙目立體視覺技術(shù)的橋梁裂縫測量系統(tǒng) [J]. 計算機應(yīng)用, 2015, 35(3): 901-904. WANG Lin, ZHAO Jiankang, XIA Xuan, et al. Bridge crack measurement system based on binocular stereo vision technology [J]. Journal of Computer Applications, 2015, 35(3): 901-904.
[8] 許薛軍, 張肖宇. 基于雙目視覺的公路邊坡表面位移識別方法 [J]. 中國公路學(xué)報, 2015, 28(4): 27-34. XU Xuejun, ZHANG Xiaoyu. Highway slope displacement identification method based on binocular vision [J]. China Journal of Highway and Transport, 2015, 28(4): 27-34.
[9] WANG Z, WU Z, ZHEN X, et al. A two-step calibration method of a large FOV binocular stereovision sensor for onsite measurement [J]. Measurement, 2015, 62(2): 15-24.
[10]HARTLEY R, ZISSERMAN A. Multiple view geometry in computer vision [M]. 2nd ed. Cambrige, England, UK: Cambridge University Press, 2004: 295-305.
[11]BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features (SURF) [J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.
[12]LONGUET-HIGGINS H C. A computer algorithm for reconstructing a scene from two projections [J]. Nature, 1981, 293(36): 133-135.
[13]HASSEN W, AMIRI H. Block matching algorithms for motion estimation [C]∥Proceedings of IEEE International Conference on e-Learning in Industrial Electronics. Piscataway, NJ, USA: IEEE, 2013: 136-139.
[14]胡浩強. 基于不完整信息圖像融合的刀具磨損檢測技術(shù)研究 [D]. 西安: 西安交通大學(xué), 2015.
[本刊相關(guān)文獻鏈接]
張鵬,陳湘軍,阮雅端,等.采用稀疏SIFT特征的車型識別方法.2015,49(12):137-143.[doi:10.7652/xjtuxb201512 022]
崔汪莉,衛(wèi)軍胡,紀(jì)鵬,等.基于加權(quán)局部梯度直方圖的頭部三維姿態(tài)估計.2015,49(11):71-76.[doi:10.7652/xjtuxb 201511012]
周遠,周玉生,劉權(quán),等.一種適用于圖像拼接的DSIFT算法研究.2015,49(9):84-90.[doi:10.7652/xjtuxb201509015]
劉凱,張立民,孫永威,等.利用深度玻爾茲曼機與典型相關(guān)分析的自動圖像標(biāo)注算法.2015,49(6):33-38.[doi:10.7652/xjtuxb201506006]
朱愛斌,胡浩強,何大勇,等.采用頻域融合方法的砂輪刀具磨損三維重構(gòu)技術(shù).2015,49(5):82-86.[doi:10.7652/xjtuxb201505013]
郝雯潔,齊春.一種魯棒的稀疏信號重構(gòu)算法.2015,49(4):98-103.[doi:10.7652/xjtuxb201504016]
范優(yōu)飛,胡紅利,楊帆,等.一種48電極可配置電容層析成像系統(tǒng)模型.2015,49(4):110-115.[doi:10.7652/xjtuxb2015 04018]
唐曉慶,范賜恩,劉鑫.基于邊緣保持濾波的單幅圖像快速去霧.2015,49(3):143-150.[doi:10.7652/xjtuxb201503022]
劉天良,鄭海紅,羅圣美,等.改進的混合動靜態(tài)背景的分割方法.2015,49(2):25-30.[doi:10.7652/xjtuxb201502005]
李鵬,楊旸,方濤.應(yīng)用視覺顯著性的快速有偏聚類超像素算法.2015,49(1):112-117.[doi:10.7652/xjtuxb201501019]
楊曄,潘希德,莊健.一種針對超聲檢測圖像的自適應(yīng)閾值設(shè)置方法.2015,49(1):127-132.[doi:10.7652/xjtuxb201501 021]
陳倩倩,張磊,徐剛,等.利用多通道聯(lián)合稀疏重建的干涉逆合成孔徑雷達三維成像算法.2014,48(12):100-106.[doi:10.7652/xjtuxb201412016]
侯興松,張?zhí)m.方向提升小波變換域稀疏濾波的自然圖像貝葉斯壓縮感知.2014,48(10):15-21.[doi:10.7652/xjtuxb 201410003]
李博,馮松,毛軍紅.在線圖像可視鐵譜LED陣列反射光源設(shè)計與實現(xiàn).2014,48(10):29-34.[doi:10.7652/xjtuxb2014 10005]
(編輯 葛趙青)
Uncalibrated Method for Disparity Map of Tool Wear Images
ZHU Aibin,HE Dayong,ZOU Chao,CHEN Wei
(Key Laboratory of Education Ministry for Modern Design & Rotor-Bearing System, Xi’an Jiaotong University, Xi’an 710049, China)
The field of view of tool wear detection is small, and the site condition is complex (e.g., the blocking of machine cover and tool holder exists). Whereas the traditional method that needs camera calibration is mostly used in large field of view, which is not suitable for on-site tool wear detection. An uncalibrated method based on binocular vision is proposed in this paper for obtaining the disparity map of tool wear images without calibration reference or man-induced intervention. Firstly, SURF (speeded-up robust features) algorithm is used to detect the images’ feature points. Then, the 8-point algorithm is adopted to estimate the fundamental matrix; next, image correction is completed by pole infinity transform. Finally, the disparity map is obtained by basic block matching algorithm. On-site experiments were conducted to obtain the tool wear images, and the analysis on profile and accuracy of the reconstructed disparity map was performed. The results show that the reconstructed profile is basically consistent with the actual profile; the absolute error of the reconstructed disparity map is less than 5 pixels and the relative error is between 10% and 30%, meaning that the disparity map obtained by the uncalibrated method in small field of view and complex site condition can meet the accuracy requirement for on-site detection, and this method is also flexible and effective.
tool wear; disparity map; uncalibrated method; binocular vision
10.7652/xjtuxb201603002
2015-09-18。 作者簡介:朱愛斌(1975—),男,副教授。 基金項目:國家自然科學(xué)基金資助項目(51175409)。
時間:2015-12-31
http:∥www.cnki.net/kcms/detail/61.1069.T.20151231.1129.004.html
TH113.2
:A
:0253-987X(2016)03-0008-08