彭玉青,李 木,高晴晴,張媛媛(河北工業(yè)大學(xué)計算機科學(xué)與軟件學(xué)院,天津300401)
?
基于動態(tài)模板匹配的移動機器人目標(biāo)識別*
彭玉青*,李木,高晴晴,張媛媛
(河北工業(yè)大學(xué)計算機科學(xué)與軟件學(xué)院,天津300401)
摘要:將視覺顯著性與基于動態(tài)模板匹配的目標(biāo)識別方法相結(jié)合,提出了一種適用于未知環(huán)境下的移動機器人目標(biāo)識別方法。具體而言,首先設(shè)計了基于分布式控制的移動機器人視覺系統(tǒng),提高了視頻處理效率;之后利用基于背景先驗的顯著性檢測方法對圖像進行預(yù)處理,排除了相對次要的背景區(qū)域;最后對處理后的圖像進行動態(tài)模板匹配,提高了目標(biāo)識別的準(zhǔn)確率。實驗結(jié)果表明,該方法能夠滿足移動機器人在目標(biāo)識別過程中對圖像處理的實時性和準(zhǔn)確性的要求,具有良好的有效性。
關(guān)鍵詞:移動機器人;目標(biāo)識別;模板匹配;視覺顯著性;分布式控制
在利用移動機器人進行偵察、探測和導(dǎo)航時,由于目標(biāo)及場景的動態(tài)變化、遮擋、相似物干擾或光線劇烈變化等復(fù)雜因素,未知環(huán)境下的移動機器人目標(biāo)識別已經(jīng)成為一項極具挑戰(zhàn)性的任務(wù)[1-2]。根據(jù)文獻[3-10]的介紹,移動機器人目標(biāo)匹配算法大體上可分為四類:第1類是模板匹配算法[3-5],此方法根據(jù)模板逐點掃描待檢測圖像,計算圖像各點同模板的匹配度,據(jù)此完成目標(biāo)識別;第2類是區(qū)域匹配算法[6-7],此方法把目標(biāo)圖像分成若干區(qū)域,通過獲取各區(qū)域與原始目標(biāo)之間的相關(guān)性來進行識別;第3類是特征匹配算法[8-9],此方法不考慮目標(biāo)圖像的整體特性,僅通過一些個體特征來進行識別;第四類是概率模型匹配算法[10],該方法將基于貝葉斯規(guī)則的概率模型引入到匹配算法中,從而完成對目標(biāo)物體的識別。雖然這些匹配算法在各自的文章中都得到較好實現(xiàn),但在對實時性要求嚴格的移動機器人目標(biāo)識別中,如何提高匹配速度仍是一個難點。
針對傳統(tǒng)匹配算法中存在的計算量大、實時性差等問題,本文在引入視覺顯著性的基礎(chǔ)上將移動機器人目標(biāo)識別分成預(yù)處理圖像和動態(tài)模板匹配兩個階段:①利用基于背景先驗知識的顯著性檢測方法對圖像進行預(yù)處理。此方法通過兩種背景先驗知識來獲取圖像的顯著區(qū)域,其處理速度快,使機器人在大量圖像信息中迅速地篩選出感興物體,從而降低了信息處理的計算量,非常適用于移動機器人實時性目標(biāo)識別。②利用動態(tài)模版匹配算法進行目標(biāo)物體識別。由于目標(biāo)物體的成像大小隨著機器人的運動不斷變化,如果僅根據(jù)預(yù)知的目標(biāo)物體圖像進行模板匹配,很容易導(dǎo)致識別失敗。因此,我們利用采集得到的圖像動態(tài)生成與之相匹配的目標(biāo)圖像,然后使用所生成的目標(biāo)圖像作為模板進行匹配,提高了移動機器人目標(biāo)識別的準(zhǔn)確率。
分布式控制系統(tǒng)(Distributed Control System)是多智能體技術(shù)在移動機器人研究領(lǐng)域的重要應(yīng)用[11]。在移動機器人視覺系統(tǒng)中引入分布式控制,不但降低了控制系統(tǒng)的復(fù)雜度,提高了視頻信息的處理速度,還有效的減輕了移動機器人自身負重。
RIRA-II移動機器人采用上下位機分布式視覺系統(tǒng)。上位系統(tǒng)由個人計算機(PC)、圖像無線接收模塊、數(shù)據(jù)無線發(fā)送模塊和圖像采集卡組成,主要用來完成圖像處理、顯示及目標(biāo)識別等功能;下位系統(tǒng)由EV-D31攝像機、圖像無線發(fā)射模塊、數(shù)據(jù)無線接收模塊、攝像機控制模塊和RIRA-II移動機器人組成,主要用來完成攝像機控制及圖像采集。RIRA-II移動機器人分布式視覺系統(tǒng)如圖1所示。
圖1 RIRA-II移動機器人分布式視覺系統(tǒng)
其中移動機器人控制器選用高性能微處理器AT89S52,機器人可通過攝像機控制模塊實現(xiàn)對攝像機云臺的實時控制及云臺位姿參數(shù)的實時獲取,當(dāng)攝像機采集到圖像信息后,會經(jīng)圖像無線發(fā)射模塊傳至上位機,由上位機完成相關(guān)圖像處理,處理完的結(jié)果通過數(shù)據(jù)無線發(fā)射模塊傳至下位機,最終實現(xiàn)移動機器人對目標(biāo)的識別。EV-D31攝像機安裝于RIRA-II移動機器人的前背部,攝像機云臺縱軸線與機器人重心所在的縱軸線重合。RIRA-II移動機器人外觀見圖2。
圖2 RIRA-II移動機器人外觀圖
視覺注意機制[12]使人類可以在短時間內(nèi)尋找到視野中的顯著性區(qū)域,有效的壓縮完成復(fù)雜視覺認知任務(wù)所需的計算量。因此,如果將基于視覺注意機制的顯著性檢測方法引入到移動機器人圖像處理中,則可以有效的提高機器人目標(biāo)識別效率。
2.1背景先驗理論
傳統(tǒng)的顯著性檢測方法往往直觀或隱含的使用對比先驗(contrast prior)理論,但僅依據(jù)圖像的對比度來進行顯著性檢測存在著一定的局限性[13]。對于移動機器人運動過程中所拍攝的圖像,其背景往往分散雜亂,如果能預(yù)先排除部分背景,則有助于更好的突出顯著性區(qū)域。因此我們采用兩種基于背景先驗的理論[14]:①邊界先驗(boundary prior)源自攝影構(gòu)圖的基本規(guī)則,也就是大多數(shù)攝影師都不會把顯著性目標(biāo)放在圖像邊緣。換句話說,圖像邊界處大多為背景區(qū)域。這種邊界先驗比以前使用的中心先驗(center prior)即“圖像中心最重要”更具有普遍性,因為顯著性目標(biāo)可以偏離中心(三分之一規(guī)則),但很少觸及圖像邊界。②連通性先驗(connectivity prior)源自現(xiàn)實世界中背景圖像的外觀特征,即背景區(qū)域通常大而均勻。換句話說,在背景區(qū)域大多數(shù)像素塊可以很容易地彼此連接,但是這種連接只限于相似物體本身。例如,天空和海洋容易連接到一起,而天空和草地之間則不容易連接。
2.2顯著性檢測算法
基于以上兩種背景先驗知識,本文在移動機器人目標(biāo)識別中使用顯著性檢測算法對圖像進行預(yù)處理,具體步驟如下:
①SLIC超像素分割
由于移動機器人的工作環(huán)境比較復(fù)雜,其拍攝到的圖像往往包含著一些不必要的信息,使用超像素分割可以在保留目標(biāo)物體邊緣信息的同時消除背景區(qū)域中不必要的噪聲和紋理細節(jié);另外移動機器人對實時性要求較高,如果直接對圖像的每個像素進行處理,其運算量會非常大,而使用超像素分割后只需以像素塊為單位處理,大大降低了圖像處理的復(fù)雜度。在已知的超像素分割算法中,SLIC算法運算速度快,可以產(chǎn)生大小均勻形狀規(guī)則的超像素[15],因此本文采用此算法對圖像進行預(yù)處理分割。定義每個超像素Ri的平均像素Ci為:
式中,Im為超像素Ri中每個像素點的像素。為超像素Ri中像素點的個數(shù)。
②計算超像素顯著性在文獻[14]中,Wei等人定義某一超像素的顯著性為與背景區(qū)域中超像素的最短距離,但使用這種方法可能產(chǎn)生漏檢現(xiàn)象,即忽略某些重要目標(biāo)。在文獻[16]中,若定義某一超像素的顯著性為與背景區(qū)域中所有超像素的距離和,可能會產(chǎn)生誤檢現(xiàn)象,即把某些不重要的背景區(qū)域當(dāng)作目標(biāo)。
根據(jù)先驗知識,我們已經(jīng)知道超像素Ri在圖像中的位置信息對其是否引起人們的注意有很大影響。當(dāng)超像素距離圖像中心較近時,則很容易引起人們注意;而距離圖像中心較遠時,人們往往會忽視它的存在。因此我們定義一個修正系數(shù)g(i):
式中,(x,y)是超像素Ri的中心坐標(biāo);(x0,y0)是圖像的中心坐標(biāo);δx和δy是對應(yīng)的控制參數(shù),它們的值與圖像尺寸成正比。最后,定義超像素Ri的顯著性為:
式中,Cj(j=1,2,…,k)是邊界超像素Rj的平均像素。D(Ci,Cj)是超像素Ri與超像素Rj的像素距離,這里采用歐氏距離來對其進行計算。
③顯著性目標(biāo)接觸邊界的處理辦法
本文以兩種背景先驗理論進行顯著性檢測,但有時目標(biāo)物體可能觸及圖像邊緣,此時算法的檢測性能會有所降低。由于移動機器人拍攝圖像的特殊性,可以很輕易的避免這種情況。當(dāng)目標(biāo)物體接觸圖像邊界時,我們通過上位機調(diào)整攝像頭位資參數(shù),使目標(biāo)區(qū)域脫離圖像邊緣,因此大大減少了顯著性檢測的誤差。
綜上所述,本文在圖像預(yù)處理階段所使用的方法更具有優(yōu)勢,對比文獻[17]中使用區(qū)域生成法對移動機器人采集的圖像進行預(yù)處理,雖然區(qū)域生長算法也能提供良好的邊界信息和分割結(jié)果,并通過進一步設(shè)定閾值排除圖像中面積過大的背景和面積過小的噪聲,但其計算代價大,對圖像中的陰影處理效果不是很好。而本文中引入一種基于背景先驗的顯著性檢測方法,把研究重點放到了圖像背景上,通過這個預(yù)處理階段,排除了圖像中相對次要的背景區(qū)域。算法容易實現(xiàn)、處理速度快,可以較好的保留顯著性區(qū)域的邊緣,適用于同時需求精度與速度的移動機器人目標(biāo)識別。
模板匹配是數(shù)字圖像處理的重要組成部分之一,其成熟穩(wěn)定、分類能力好、識別精度高,現(xiàn)已被廣泛用于移動機器人目標(biāo)物體識別。
3.1模板匹配算法簡介
模版匹配技術(shù)是指根據(jù)已知模式(模版圖)到另一幅圖(搜索圖)中尋找相應(yīng)模式的處理方法。最簡單的模版匹配方法是基于灰度值的模板匹配。假設(shè)模板由一副圖像t(x,y)以及相應(yīng)的感興區(qū)域T指定,由模板匹配概念可知,我們需沿圖像中所有點移動模板并在每個位置計算相似度S。因此,相似度S是一個函數(shù),函數(shù)中的參數(shù)包括模板中各點的灰度值t(x,y)以及模板感興區(qū)域中的灰度值f(x+μ,y+ν),然后基于這些灰度值計算一個標(biāo)量值作為相似度量S(x,y),其等式為:
綜上所述,若僅依靠基于灰度值的模板匹配算法進行目標(biāo)識別則存在計算量大、復(fù)雜度高等缺陷,但模板匹配算法仍具有簡單易行、匹配精度高等優(yōu)勢。
3.2動態(tài)模板匹配算法
現(xiàn)實環(huán)境下,移動機器人是在運動過程中進行目標(biāo)搜索的,所以機器人與目標(biāo)之間距離會不斷發(fā)生變化,從而導(dǎo)致目標(biāo)物的成像大小也不斷改變[16]。在這種情況下,如果根據(jù)預(yù)知的目標(biāo)物體圖像進行模板匹配,則很容易導(dǎo)致識別失敗。因此,我們提出了一種動態(tài)模板匹配方法。與常規(guī)的模板匹配方法不同,我們在移動機器人搜索目標(biāo)的過程中,根據(jù)當(dāng)前采集的圖像動態(tài)生成與其相匹配的目標(biāo)圖像,然后對所生成的目標(biāo)物體圖像進行處理,最后用其作為模板與預(yù)處理的顯著圖像進行匹配,其流程如圖3所示。
圖3 動態(tài)模板匹配流程
下面簡述本文方法的主要過程:
①圖像預(yù)處理階段:使用基于背景先驗的顯著性檢測方法對移動機器人采集到的圖像進行預(yù)處理,得到圖像顯著性區(qū)域。此時顯著性圖像為一張灰度圖,若圖像中某區(qū)域的灰度值大于設(shè)定閾值,則認為這部分區(qū)域為目標(biāo)圖像的備選區(qū)域;反之,若某區(qū)域的灰度值小于設(shè)定閾值,則認為這部分是干擾區(qū)域,應(yīng)當(dāng)排除。
②動態(tài)模板生成:選定目標(biāo)物體,并對目標(biāo)物體圖像進行預(yù)處理,包括灰度化、圖像平滑、對比度拉伸、去噪、二值化等。之后依次根據(jù)顯著圖中各備選區(qū)域的長寬比例將預(yù)處理的目標(biāo)物體圖像拉伸到此比例,然后將拉伸后的圖像作為動態(tài)模板。
③動態(tài)模板匹配階段:使用相關(guān)匹配法從預(yù)處理得到的顯著圖中挑選出相似度最大的區(qū)域,如果這個相似度大于某個設(shè)定的閾值,則將此區(qū)域作為目標(biāo)物體所在區(qū)域;如果沒有發(fā)現(xiàn)目標(biāo),則改變機器人視角,繼續(xù)對目標(biāo)物體進行搜索。動態(tài)模板匹配的相似度量如式(5)所示:
式中,f(x+μ,y+ν)是搜索圖像中模板感興區(qū)域的各點的灰度值,t(μ,ν)是模板中各點的灰度值。
為了驗證上述方法的有效性,在實驗室環(huán)境下使用RIRA-II移動機器人對目標(biāo)物體進行識別。采用SONY EV-D31彩色攝像機獲取移動機器人周邊環(huán)境,輸出NTSC制式視頻信號;視頻采集卡為大恒CG410,圖像采集頻率為30 frame/s,分辨率最大為640像素×480像素×32 bit;移動機器人上位機處理器是Intel P4 3.0G,操作系統(tǒng)是Windows XP。
在實驗過程中,本文所已提出的方法同時滿足了移動機器人目標(biāo)識別的準(zhǔn)確性與實時性。具體的實現(xiàn)過程如下:
①取移動機器人在某一時間點所拍攝的一幀圖像,并通過機載圖像無線發(fā)射模塊傳送至上位PC機。移動機器人拍攝的圖像如圖4所示,從圖4可以看出移動機器人所處的實驗室環(huán)境比較復(fù)雜,滿足非結(jié)構(gòu)化環(huán)境的設(shè)定。
圖4 移動機器人拍攝的原圖像
②使用基于背景先驗的顯著性檢測方法對圖像進行預(yù)處理。具體的,首先使用SLIC算法獲得圖像中每個超像素Ri的平均像素Ci,其規(guī)則符合式(1);之后根據(jù)超像素Ri在圖像中的位置定義修正系數(shù)g(i),其規(guī)則符合式(2);最后求得每個超像素Ri的顯著性Saliency(Ri),其規(guī)則符合式(3)。原圖像預(yù)處理后的視覺顯著性圖像如圖5所示。
圖5 原圖像處理后的顯著性圖像
從圖5可以看出基于背景先驗的顯著性檢測方法減少了圖像中復(fù)雜背景區(qū)域的干擾,突出了顯著性目標(biāo),縮減了動態(tài)模板匹配階段的搜索量,提高移動機器人目標(biāo)識別速率。
③設(shè)定某個接近255的整數(shù)值為閾值,由于在步驟②中得到的顯著性圖像為灰度圖,且越顯著的超像素塊越接近白色,據(jù)此對顯著圖進行初步篩選:若圖像中某區(qū)域的灰度值大于設(shè)定閾值,則認為這部分是目標(biāo)圖像的備選區(qū)域;反之,若某區(qū)域的灰度值小于設(shè)定閾值,則認為這部分是干擾區(qū)域,應(yīng)當(dāng)排除。顯著圖在經(jīng)過初步篩選后的備選區(qū)域圖像如圖6所示,可以看出圖中只留下了有可能成為目標(biāo)物體的備選區(qū)域,為模板匹配階段打下了基礎(chǔ)。
圖6 顯著性圖像處理后的備選區(qū)域圖像
④預(yù)先確定移動機器人搜索過程中的目標(biāo)物體圖像(本次實驗中為紅旗,如圖7(a)所示),對目標(biāo)物體圖像進行灰度化、圖像平滑、去噪、二值化等預(yù)處理過程,得到的預(yù)處理模板圖像如圖7(b)所示。之后,依次根據(jù)顯著圖處理后各備選區(qū)域的長寬比例將預(yù)處理的目標(biāo)物體圖像拉伸到此比例,然后將拉伸后的圖像作為動態(tài)模板。
圖7 動態(tài)模板匹配目標(biāo)識別結(jié)果
⑤以拉伸后的目標(biāo)圖像為模板,以顯著性圖像為搜索圖,利用相關(guān)模版匹配法挑選相似度最大的區(qū)域。若匹配相似度s(x,y)大于設(shè)定閾值,則目標(biāo)識別成功,得到的實驗結(jié)果如圖7(c)所示;反之,則目標(biāo)識別不成功,移動機器人改變視角后跳轉(zhuǎn)至步驟①。
在背景復(fù)雜多變的實驗室環(huán)境下,本文所提出的方法利用視覺顯著性有效排除了相對次要的背景區(qū)域,為移動機器人動態(tài)模板匹配做好了基礎(chǔ),減少了目標(biāo)識別所需的時間。同時利用移動機器人所拍攝的圖像動態(tài)生成目標(biāo)圖像,提高了未知環(huán)境下目標(biāo)識別的準(zhǔn)確率,最后使用相關(guān)模板匹配法在顯著圖中成功識別了目標(biāo)物體。實驗結(jié)果表明,視覺顯著性與動態(tài)模板匹配相結(jié)合的方法可以有效克服傳統(tǒng)模板匹配算法復(fù)雜度高等缺點。
文獻[18]中使用Gabor濾波器提取目標(biāo)特征,當(dāng)目標(biāo)特征較少時,處理速度快,但目標(biāo)識別率低;當(dāng)目標(biāo)特征較多時,目標(biāo)識別率高,但處理速度慢,如何權(quán)衡處理速度和目標(biāo)識別率顯得尤為重要。因此,我們選取移動機器人處于不同光照、陰影下拍攝的500張圖像進行目標(biāo)識別,表1比較了在不同方法下的識別結(jié)果。從表中可以看出,單模板匹配識別效果較好,但處理速度只能達到20幀/秒,不足以滿足移動機器人實時目標(biāo)識別;單顯著性檢測的處理速度最快可達到30幀/秒,但只能消除圖像中不必要的背景區(qū)域,識別率很低;而本文提出的方法有效的結(jié)合視覺顯著性與模板匹配算法的優(yōu)點,在滿足移動機器人實時性要求的同時提高了目標(biāo)識別的準(zhǔn)確率。
表1 不同方法的比較結(jié)果表
由表1可知,雖然本文所提出的方法只有95%的識別率和25幀/秒的識別速度,但由于圖像采集卡的采樣速度、上位機的處理速度等客觀因素都會影響到移動機器人目標(biāo)識別的速率,另外由于目標(biāo)物體受到光照、遮擋、陰影等因素的干擾,也有可能降低目標(biāo)識別的準(zhǔn)確率。因此,可以認為本實驗中目標(biāo)識別的準(zhǔn)確率在合理范圍之內(nèi),所提出的方法具有一定的實用價值。
針對移動機器人的非結(jié)構(gòu)化工作環(huán)境,本文提出了一種視覺顯著性與動態(tài)模板匹配相融合的目標(biāo)識別算法,有效的克服了傳統(tǒng)模板匹配算法計算量大、實時性差等問題。在機器人的硬件設(shè)計上采用了分布式視覺系統(tǒng),降低了系統(tǒng)的復(fù)雜程度,縮短了圖像處理時間。在機器人的軟件設(shè)計上將基于背景的顯著性檢測方法引入圖像處理,通過模擬人類特有的視覺注意機制獲取圖像的顯著區(qū)域,并將得到的顯著圖用于后期的動態(tài)模板匹配,提高了目標(biāo)識別的速率與準(zhǔn)確率。實驗結(jié)果表明,該方法能夠控制移動機器人在復(fù)雜多變的室內(nèi)環(huán)境下識別目標(biāo)源,具有實時實現(xiàn)的有效性,有一定的實用價值。
參考文獻:
[1]Yin X,Noguchi N,Choi J. Development of a Target Recognition and Following System for a Field Robot[J]. Computers & Elec?tronics in Agriculture,2013,98(7):17-24.
[2]馬如遠,金明亮,劉繼忠,等.移動機器人環(huán)境視覺小波稀疏壓縮傳感和識別[J].傳感技術(shù)學(xué)報,2012,25(4):519-523.
[3]Shin B,Park S,Ju J. Fast and Robust Template Matching Algo?rithm in Noisy Image[C]//ICCAS 2007:Proceeding of the 2007 IEEE Conference on Control,Automation and Systems. IEEE,2007:6 -9.
[4]Yang L,Zhang X,Ren J. Precision Detection of CCD Splicing Based on Template Matching Algorithm[C]//Proceeding of the 2011 IEEE Conference on Computing,Control and Industrial En?gineering.(CCIE). 2011:224-227.
[5]張青濤,楊學(xué)友,劉濤,等.基于快速模板匹配的智能視覺傳感器設(shè)計[J].傳感技術(shù)學(xué)報,2010,26(8):1039-1044.
[6]Hariharakrishnan K,Schonfeld D. Fast Object Tracking Using Adaptive Block Matching[J]. IEEE Transactions on Multimedia,2005,7(5):853-859.
[7]Ma R,Yun J,Zhuang X. Study on Pulse Noise Removal Method for Motion Picture Using Block Matching[J]. International Journal of Digital Content Technology & Its Applications,2012,6:299-306.
[8]Ozaki R,Satoh Y,Iwata K,et al. Template Matching by the Statis?tical Reach Feature Method[J]. Electronics & Communications in Japan,2013,96(11):54-69.
[9]顧鑫,李喆,王華,等.基于粒子濾波后驗概率分布的多特征融合跟蹤[J].傳感技術(shù)學(xué)報,2014,27(12):1676-1680.Isard M. Condensation-Conditional Density Propagation for Visual Tracking [J]. International Journal of Computer Vision,1998,29(1):5-28.
[10]彭玉青,李木,張媛媛.基于改進模糊算法的移動機器人避障[J].計算機應(yīng)用,2015,35(2):2256-2260.
[11]黎萬義,王鵬,喬紅.引入視覺注意機制的目標(biāo)跟蹤方法綜述[J].自動化學(xué)報,2014,40(4):561-576.
[12]張學(xué)武,徐立中,石愛業(yè),等.基于視覺仿生機理的成像目標(biāo)檢測和識別方法及感知計算[J].傳感技術(shù)學(xué)報,2010,23(12):1736-1743.
[13]Wei Y,Wen F,Zhu W,et al,Geodesic Saliency Using Back?ground Priors[C]//Proceeding of the European Conference on Computer Vision(ECCV). Berlin:Springer-Verlag,2012:29-42.
[14]Achanta R,Shaji A,Smith K,et al. SLIC Superpixels Compared to State-of-the-Art Superpixel Methods[J]. IEEE Transactions on Pat?tern Analysis & Machine Intelligence,2012,34(11):2274-2282.
[15]Zhang Y,Han J,Guo L. Salient Region Detection Using Back?ground Priors[J]. Optik,2014,125(19):5872-5877.
[16]肖瀟,方勇純,賀鋒,等.未知環(huán)境下移動機器人自主搜索技術(shù)研究[J].機器人,2007,29(3):224-229.
[17]戚瑋瑋,欒新,宋大雷,等.一種魯棒的基于全景視覺的足球機器人目標(biāo)識別方法[J].中國海洋大學(xué)學(xué)報(自然科學(xué)版),2011,41(6):109-114.
彭玉青(1969-),女,湖南永順人,教授,CCF會員(E200035449M),主要研究方向為智能信息處理、計算機視覺;
高晴晴(1989-),女,河北廊坊人,碩士研究生,主要研究方向為:深度學(xué)習(xí)、人工神經(jīng)網(wǎng)絡(luò);
李木(1989-),男,河北石家莊人,碩士研究生,主要研究方向為為智能機器人、機器人視覺sweetlm@163.com;
張媛媛(1992-),女,河北保定人,主要研究方向為機器人遙操作、虛擬現(xiàn)實。
Reliability Block Diagram Analysis on Pressure Test System of Oil-Well*
HAO Xingang1,2,LI Xin’e1,2*,CUI Chunsheng1,2,XIAO Wencong1,2
(1.National Key Laboratory of Electronic Measurement Technology,North University of China,Taiyuan 030051,China;
2
.Education Ministry Key Laboratory of Instrumentation Science and Dynamic Measurement,North University of China,Taiyuan 030051,China)
Abstract:The Oil-Well down-hole pressure test system has been widely used for testing the perforation fracturing dynamic pressure date,but its reliability research is in a state of emptiness. Aiming at this problem,analyze reliabil?ity of test system through the reliability block diagram(RBD)technology. The reliability block diagram modelwases?tablished bythoroughly analysis the structure and logic function relation-ships of test system. On this basis,the fail?ure rate of componentsmay cause system faultwere separately analyzed and calculated according to the components stress analysis method,finally the failure rate and mean time between failures(MTBF)of test system were calculat?ed. The research results provides a theoretical basis for the reliability evaluation of the test system.
Key words:measurement instrument;failure rate;reliability block diagram;system reliability theory;perforation fracturing;pressure test
doi:EEACC:0170N;721010.3969/j.issn.1004-1699.2016.01.012
收稿日期:2015-08-28修改日期:2015-10-08
中圖分類號:TP24
文獻標(biāo)識碼:A
文章編號:1004-1699(2016)01-0058-06
項目來源:天津市自然科學(xué)基金項目(13JCYBJC15400)