關(guān) 沫,梁夢(mèng)雪(沈陽(yáng)工業(yè)大學(xué) 信息科學(xué)與工程學(xué)院,遼寧 沈陽(yáng) 110870)
一種浮選泡沫視頻圖像自適應(yīng)篩選方法
尹遜越,廖一鵬(福州大學(xué) 物理與信息工程學(xué)院,福建 福州 350100)
基于深度圖像的人體骨骼提取技術(shù)的研究
關(guān)沫,梁夢(mèng)雪(沈陽(yáng)工業(yè)大學(xué)信息科學(xué)與工程學(xué)院,遼寧沈陽(yáng)110870)
利用Kinect設(shè)備獲取深度圖像,通過(guò)前景提取得到深度圖像中的人體目標(biāo),使用距離變換(包括歐氏距離、城市街區(qū)距離、棋盤距離方法)和圖像細(xì)化算法(包括Hilditch細(xì)化算法和Zhang快速并行細(xì)化算法)研究并實(shí)現(xiàn)了人體骨骼的提取,通過(guò)實(shí)驗(yàn)對(duì)各算法的運(yùn)行效果進(jìn)行了對(duì)比分析。同時(shí),利用深度圖像具備深度信息這一特點(diǎn)解決了在骨骼提取中出現(xiàn)的人體自遮擋問(wèn)題。在獲取的人體骨骼線基礎(chǔ)上根據(jù)人體測(cè)量比例定位人體各骨骼關(guān)節(jié)點(diǎn),最終通過(guò)實(shí)驗(yàn)證明了該骨骼提取方法的有效性。
Kinect;深度圖像;細(xì)化算法;骨骼提取
隨著人機(jī)交互技術(shù)的發(fā)展,人們對(duì)各種計(jì)算設(shè)備的控制不再局限于使用鍵盤、鼠標(biāo)、遙控器、觸摸屏或各種傳感器,還可以讓用戶直接與計(jì)算機(jī)進(jìn)行“溝通”,通過(guò)對(duì)人體動(dòng)作的分析得到人體運(yùn)動(dòng)的參數(shù),解析出相應(yīng)的控制指令使計(jì)算機(jī)完成相應(yīng)的任務(wù),實(shí)現(xiàn)非接觸式的人機(jī)交互。人體骨骼提取是人體運(yùn)動(dòng)分析過(guò)程中捕獲人體動(dòng)作的關(guān)鍵步驟,對(duì)分析人體的運(yùn)動(dòng)姿態(tài),獲取人體運(yùn)動(dòng)參數(shù)有重要意義。在人體運(yùn)動(dòng)過(guò)程中,經(jīng)常會(huì)出現(xiàn)人體自身遮擋的情況,如何解決這一問(wèn)題是獲取人體動(dòng)作的難點(diǎn)。本文使用Kinect設(shè)備獲取深度圖像,對(duì)人體的骨骼提取技術(shù)進(jìn)行研究,并利用深度圖像具有的深度信息來(lái)解決人體自身遮擋問(wèn)題。
Kinect通過(guò)其紅外發(fā)射器向三維場(chǎng)景中發(fā)出連續(xù)的近紅外激光方式獲取深度圖像,當(dāng)激光照射到粗糙物體時(shí)就會(huì)形成具有高度隨機(jī)性的衍射斑點(diǎn),稱為激光散斑。激光散斑是一種具有三維縱深的編碼技術(shù)[1-2]。根據(jù)成像物體的不同距離會(huì)變換出不同圖案的激光散斑,被激光散斑照射的空間內(nèi)會(huì)即時(shí)地對(duì)其進(jìn)行標(biāo)記,之后紅外攝像頭接收空間內(nèi)的標(biāo)記,并將相關(guān)的數(shù)據(jù)傳遞給Kinect的內(nèi)部圖像處理器芯片,圖像處理器再分析接收到的散斑圖案在空間中的距離,最后形成深度圖像。
本文通過(guò)對(duì)深度圖像的深度值的判定把前景區(qū)域和背景區(qū)域進(jìn)行區(qū)分。在這里就會(huì)涉及關(guān)于閾值門限的設(shè)定內(nèi)容,深度圖像前景提取中閾值的限定發(fā)揮著關(guān)鍵性的作用,閾值門限的取值取決于深度圖像中深度值最大的點(diǎn)。深度圖像前景提取的公式如式(1)所示:其中,fg(x,y)是前景圖像中(x,y)處的邏輯值;d(x,y)表示深度圖像中(x,y)處坐標(biāo)的深度值;θ代表閾值門限,在不同的場(chǎng)景下最大深度值不同,導(dǎo)致閾值是一個(gè)可變的值,閾值θ要根據(jù)最大深度值的參數(shù)進(jìn)行選定。定義θ=(k×dmax),其中用dmax表示最大深度值,k的取值與檢測(cè)準(zhǔn)確率有關(guān)聯(lián)。檢測(cè)準(zhǔn)確率如式(2)所示:其中,α代表正確檢測(cè)到的目標(biāo)數(shù),β代表檢測(cè)到的目標(biāo)總數(shù)。為達(dá)到相對(duì)最好的檢測(cè)效果,使漏檢和誤檢都盡可能小,從實(shí)驗(yàn)可以得出當(dāng)k取值為0.75時(shí)基本可以達(dá)到最佳效果[3]。前景提取的圖像如圖1所示。
圖1 人體前景提取原圖像
在上述工作中實(shí)現(xiàn)了深度圖像中人體目標(biāo)前景提取,但在人體運(yùn)動(dòng)過(guò)程中,經(jīng)常會(huì)出現(xiàn)人體自身遮擋的情況,本文利用深度圖像中的深度值解決其他剪影的骨骼提取方法可能無(wú)法解決的遮擋問(wèn)題。為了實(shí)現(xiàn)更為準(zhǔn)確的骨骼提取,對(duì)現(xiàn)有的一些骨骼提取方法進(jìn)行了實(shí)驗(yàn)研究。
2.1距離變換算法
(1)歐氏距離
歐式距離是最常用的距離定義方式,即所在空間內(nèi)任意兩點(diǎn)的直線距離[3]。歐氏距離公式如式(3)所示。其中,p、q分別代表深度圖像的背景坐標(biāo)點(diǎn)與前景坐標(biāo)點(diǎn)的集合。圖2是目標(biāo)人體的前景提取后的圖像,其中(b)為歐氏距離變換后得到的圖像。
圖2 歐氏距離變換的效果演示圖
(2)城市街區(qū)距離和棋盤距離
街區(qū)距離也稱為絕對(duì)值距離,即一個(gè)像素點(diǎn)從它的起點(diǎn)處移動(dòng)到它的終點(diǎn)位置所需要的步數(shù),并且要求像素點(diǎn)的移動(dòng)限定在它的上下左右這幾個(gè)方向,如式(4)所示。圖3為城市街區(qū)距離變換后獲取到的圖像。
棋盤距離的基本思想是像素點(diǎn)可以在沿著對(duì)角線的方向上進(jìn)行移動(dòng),在對(duì)角線方向上移動(dòng)的距離稱為棋盤距離,如式(5)所示。圖4為棋盤距離變換后得到的圖像。
圖3 城市街區(qū)距離變換圖
圖4 棋盤距離變換圖
2.2圖像細(xì)化算法
圖像的細(xì)化操作是在保持圖像原有的形狀基礎(chǔ)上再除去圖像上的一部分點(diǎn),最后獲取到所需要的骨架圖[4]。本文采用Zhang快速并行細(xì)化算法與Hilditch算法進(jìn)行對(duì)比研究,探索在人體骨骼提取上效果更佳的方法。圖5是利用Hilditch細(xì)化算法得到的骨骼提取圖像,圖6是利用Zhang細(xì)化算法得到的骨骼提取圖像。
圖5 Hilditch細(xì)化算法效果
圖6 Zhang細(xì)化算法效果
從上述方法成像效果看,歐氏距離提取出的人體骨骼線比較連貫,但位置上存在偏移,有較明顯的誤差;使用城市街區(qū)和棋盤距離變換算法提取人體骨骼線有時(shí)會(huì)出現(xiàn)不連貫的現(xiàn)象。從圖像細(xì)化算法的成像效果來(lái)看,Zhang快速并行細(xì)化算法提取的人體骨骼線更干凈,圖像更清晰、更穩(wěn)定,圖像比較流暢時(shí)基本沒(méi)有多余毛刺。最終選定Zhang快速并行快速細(xì)化算法進(jìn)行人體骨骼的提取。
如果人處于Kinect設(shè)備要求的可視范圍內(nèi),做一些產(chǎn)生遮擋的動(dòng)作,如手臂處于身體前面的位置,就會(huì)在獲取的深度圖像中產(chǎn)生與身體部分不一樣的深度值,可以利用不同的深度數(shù)據(jù)來(lái)處理手臂遮擋的問(wèn)題。
先確定人體區(qū)域部分,然后根據(jù)深度值分布的情況在人體區(qū)域進(jìn)行查找,把與身體區(qū)域深度值相差較大的部分看成是手遮擋在身體前面的情況;而與身體區(qū)域深度值相差不大的部分,則看成是身體部分。對(duì)前景區(qū)域的腐蝕會(huì)致使人的頭部、腿部和手臂先被腐蝕掉。
為了處理手臂遮擋的問(wèn)題,要將手臂與身體部分區(qū)分出來(lái),再分別提取骨架,最后融合在一起。首先,需要確定身體區(qū)域內(nèi)部近似于矩形的部分,如圖7(a)所示,求出這一部分深度值的平均值,把此處的深度值記為h。刪去與平均值相差3以上的深度值,就可以除去手臂遮擋在身體前面的區(qū)域部分,便于求得身體區(qū)域的深度值。其次,對(duì)剩下的深度值部分再求平均值,這樣得出的平均值就是身體部分的平均深度值,設(shè)定此處深度值為h*。將與深度值h與深度值h*相差4以內(nèi)深度值的部分設(shè)置為零,最后留下的部分就是除去了身體矩形區(qū)域部分而得到的手臂部分,如圖7(b)所示。最后對(duì)得到的手臂部分進(jìn)行腐蝕操作,如圖7(c)所示,可以得到比較干凈的手臂部分的圖像,繼續(xù)進(jìn)行細(xì)化處理可得到最后的手臂骨架部分,如圖7(d)所示。圖像變化的整個(gè)過(guò)程如圖7所示。
圖7 提取手臂區(qū)域圖像和手臂細(xì)化后圖像
將得到的手臂部分的骨骼圖與前面得到身體部分骨骼圖相融合就可以得到完整的骨骼圖。如圖8所示,圖8(a)為深度圖像前景提取后進(jìn)行圖像處理得到的圖像;圖8(b)為(a)圖直接進(jìn)行Zhang快速并行細(xì)化所得到骨骼線;圖8(c)是將(b)圖人體骨骼圖像與圖7(d)圖手臂骨骼提取的圖像相組合,最后得到人體骨骼提取后的圖像。
圖8 人體骨骼提取的完整組合圖
本文以NASA人體測(cè)量數(shù)據(jù)中人體比例方面的數(shù)據(jù)為基礎(chǔ),實(shí)現(xiàn)人體骨骼關(guān)節(jié)點(diǎn)的定位??紤]到人的大部分動(dòng)作都是通過(guò)手臂來(lái)完成的,所以著重研究人體上半身的骨骼點(diǎn)的標(biāo)記。
通常將頭部細(xì)化后的頂點(diǎn)位置設(shè)定為頭部骨骼關(guān)節(jié)點(diǎn)位置,但這樣的定位方法較為粗略,為提高頭部骨骼關(guān)節(jié)點(diǎn)定位準(zhǔn)確度,本文先檢測(cè)頭部區(qū)域位置,然后在此區(qū)域內(nèi)找到重心點(diǎn)位置,把重心點(diǎn)設(shè)定為人頭骨骼關(guān)節(jié)點(diǎn)。在人體手臂彎曲時(shí)提取到的手臂骨骼線是有弧度的,不能準(zhǔn)確定位哪個(gè)點(diǎn)為肘部骨骼關(guān)節(jié)點(diǎn)。本文通過(guò)深度圖像得到三維空間中兩點(diǎn)間的實(shí)際距離,相應(yīng)的方法最早在openkinect.org網(wǎng)站上由StéphaneMagnenat提出,這里不再詳細(xì)說(shuō)明。將手臂線上的點(diǎn)轉(zhuǎn)換為對(duì)應(yīng)實(shí)際空間的坐標(biāo),依據(jù)最大三角形算法找出一個(gè)點(diǎn),使得這個(gè)點(diǎn)滿足與肩部關(guān)節(jié)點(diǎn)和手部關(guān)節(jié)點(diǎn),這3個(gè)點(diǎn)在實(shí)際三維空間中構(gòu)成的三角形面積最大[5]。最后能夠認(rèn)定這個(gè)點(diǎn)為手臂中的轉(zhuǎn)折點(diǎn),即為肘部關(guān)節(jié)點(diǎn)。如果求出的面積都很類似,并且值都非常小,那么可以近似認(rèn)為手臂是伸直狀態(tài),此時(shí)取肩部關(guān)節(jié)點(diǎn)與手部關(guān)節(jié)點(diǎn)連線的中點(diǎn)位置為肘部關(guān)節(jié)點(diǎn)。如圖9所示,弧線是人體骨骼提取圖中手臂骨骼線圖,連接A點(diǎn)和B點(diǎn)能夠與弧線上的點(diǎn)構(gòu)成三角形,在多個(gè)可能的點(diǎn)中,選取能夠構(gòu)成最大三角形的那個(gè)點(diǎn)所在的位置,將其確定為肘部關(guān)節(jié)點(diǎn)。
圖9 最大三角形算法示例圖
在實(shí)驗(yàn)中采集了幾十組人體圖像,重點(diǎn)分析研究?jī)煞N情況,一種是當(dāng)手臂不與身體形成遮擋時(shí),人的雙手會(huì)自然在身體兩側(cè)。選取幾組處理過(guò)的深度圖像前景提取圖,先進(jìn)行人體骨骼線的提取,再定位出人體各部位的骨骼關(guān)節(jié)點(diǎn),如圖10所示。
圖10 無(wú)遮擋的深度圖和骨骼提取圖
另一種是手臂與身體存在遮擋的情況,圖11是一些有代表性的圖像。每組第一張是深度圖像前景提取再進(jìn)行圖像處理后的圖像;第二張為進(jìn)行人體骨骼提取得到的人體骨骼線;第三張為提取遮擋部分的骨骼線;第四張為將第二張和第三張?zhí)崛〉墓趋谰€進(jìn)行疊加,并標(biāo)記出骨骼關(guān)節(jié)點(diǎn)位置的圖像。
圖11 有遮擋的深度圖和骨骼提取圖
本文首先獲取深度圖像的前景部分,對(duì)距離變換和圖像細(xì)化算法的骨骼提取方法進(jìn)行了研究與實(shí)現(xiàn)。根據(jù)深度圖像所具備的深度信息解決人體運(yùn)動(dòng)中可能存在的自遮擋問(wèn)題。其次,在實(shí)現(xiàn)骨骼提取的基礎(chǔ)上定位人體骨骼關(guān)節(jié)點(diǎn),檢測(cè)人頭所在位置,并設(shè)定人頭重心點(diǎn)為頭部關(guān)節(jié)點(diǎn)位置。根據(jù)最大三角形算法實(shí)現(xiàn)手臂的肘部關(guān)節(jié)點(diǎn)定位,人體其他部位關(guān)節(jié)點(diǎn)參考人體比例結(jié)構(gòu)進(jìn)行定位。最后通過(guò)實(shí)驗(yàn)驗(yàn)證了本文中人體骨骼提取方法的有效性。
[1]CHEN L,WEI H,F(xiàn)ERRYMAN J M.A survey of human motion analysis using depth imagery[J].Pattern Recognition Letters,2013,34(15):1995-2006.
[2]LEE S.Depth camera image processing and applications[C].19th IEEE International Conference on Linage Processing,IEEE,2012:545-548.
[3]STEFAN G,ROBIN S.Anti-aliased euclidean distance transform[J].Pattern Recognition Letters,2011(32):252-257.
[4]包建軍,樊菁.魯棒的二值圖像并行細(xì)化算法[J].計(jì)算機(jī)輔助工程,2006(4):43-46.
[5]李斌.單幅深度圖人體關(guān)節(jié)點(diǎn)定位[D].武漢:華中科技大學(xué),2012.
一種浮選泡沫視頻圖像自適應(yīng)篩選方法
尹遜越,廖一鵬
(福州大學(xué)物理與信息工程學(xué)院,福建福州350100)
摘要:針對(duì)浮選視頻圖像獲取過(guò)程中出現(xiàn)的圖像質(zhì)量問(wèn)題,提出一種浮現(xiàn)泡沫視頻圖像自適應(yīng)篩選方法。首先通過(guò)分析浮選圖像紋理特征選取評(píng)價(jià)參數(shù),然后采用改進(jìn)BP神經(jīng)網(wǎng)絡(luò)建立圖像質(zhì)量評(píng)判模型,對(duì)不同質(zhì)量圖像進(jìn)行評(píng)判篩選。實(shí)驗(yàn)證明,該方法篩選速度快且識(shí)別正確率和效率高,篩選后的圖像分割效果好。
關(guān)鍵詞:浮選圖像;BP神經(jīng)網(wǎng)絡(luò);圖像質(zhì)量
Abstract:This paper proposed an adaptive filtering algorithm for flotation froth image of video.The algorithm was used to filter froth images that have poor quality.By analyzing the flotation image texture features,it decided the evaluating parameters.Then,it established image quality evaluation model based on improved BP neural network to judge and filter different quality images.The experiments show that the algorithm can fast and correctly filter images with different quality,and the result of segment for filtered flotation images is perfect.
Key words:flotation image;BP neural network;image quality
現(xiàn)代選礦工業(yè)中,泡沫浮選的主要目的就是提高礦物中精礦的品位[1]。浮選工藝復(fù)雜,是一個(gè)含有固、液、氣三相變化的物理化學(xué)過(guò)程[2],并且泡沫表面運(yùn)動(dòng)狀態(tài)不穩(wěn)定,獲取的圖像特征也各不相同。傳統(tǒng)生產(chǎn)方式主要是人工控制,并且有主觀依賴性大、勞動(dòng)強(qiáng)度大、資源利用率低等局限[3]。隨著機(jī)器視覺(jué)和數(shù)字圖像處理技術(shù)應(yīng)用到浮選中,通過(guò)機(jī)器實(shí)時(shí)對(duì)浮選表面進(jìn)行監(jiān)控,提取特征參數(shù)。這些特征參數(shù)主要包括泡沫大小、形狀、紋理特征、流速[4]等。
針對(duì)浮選圖像質(zhì)量的評(píng)價(jià),只有無(wú)參考質(zhì)量評(píng)價(jià)方法。有些學(xué)者通過(guò)利用共生矩陣內(nèi)的紋理特征參數(shù)[5]對(duì)圖像進(jìn)行質(zhì)量評(píng)價(jià)。本文通過(guò)提取浮選泡沫圖像紋理特征參數(shù)并利用BP神經(jīng)網(wǎng)絡(luò),建立浮選圖像質(zhì)量評(píng)價(jià)模型[6],然后采用經(jīng)典改進(jìn)分水嶺分割算法[7]來(lái)驗(yàn)證所篩選圖像處理效果。實(shí)驗(yàn)證明:本文所用浮選圖像質(zhì)量評(píng)價(jià)方法可以篩選出不同質(zhì)量浮選圖像,篩選出來(lái)的合格圖像分割效果明顯,而且自動(dòng)識(shí)別準(zhǔn)確率得到了提高。
1.1灰度共生矩陣參數(shù)提取
灰度共生矩陣表達(dá)了圖像灰度分布在空間位置上反復(fù)出現(xiàn)情況,其定義為θ方向上相隔距離d的一對(duì)像素分別具有灰度值i和 j出現(xiàn)概率,記為P(i,j;d,θ)。設(shè)f(x,y)是對(duì)應(yīng)圖像空間位置坐標(biāo)(x,y)的灰度值,L為圖像灰度等級(jí),Lr、Lc代表圖像行和列的維數(shù)。f(x,y)=i和f(x+Dx,y+Dy)=j為像素對(duì),取值為0°、45°、90°和135°,公式如下所示:
本文選取灰度共生矩陣中4個(gè)紋理特征,以及圖像灰度和高亮區(qū)域所占比例作為浮選圖像質(zhì)量評(píng)價(jià)指標(biāo)。各特征參數(shù)表達(dá)式如下所示:
(1)圖像能量asm為:
(2)圖像熵值ents為:
(3)圖像慣性矩I為:
(4)圖像相關(guān)性idm為:
其中,ux、uy是均值,σx,σy是方差。
(5)圖像灰度均值ave為:
(6)圖像高亮區(qū)域所占整幅圖像比例pw為:其中,Sw為高亮區(qū)域的像素總數(shù),S為總像素?cái)?shù)。
1.2各項(xiàng)特征參數(shù)數(shù)據(jù)特性分析
本文在研究分析時(shí)分別選取曝光過(guò)度圖像、曝光不足圖像、模糊圖像以及正常圖像各30幅,并提取各特征參數(shù)。圖1是圖像紋理特征分布狀態(tài)。
圖1 浮選視頻圖像各紋理特征時(shí)間分布圖
圖1中(a)到(f)分別為對(duì)應(yīng)能量、熵值、慣性矩、相關(guān)度、灰度均值和高亮區(qū)域比率評(píng)價(jià)指標(biāo)的分布圖。從圖1中紋理特征分布圖中可以明顯看出,不同質(zhì)量浮選泡沫圖像之間特征參數(shù)分布差別明顯,但是有些特征參數(shù)的分布區(qū)分度較低。
2.1神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
BP神經(jīng)網(wǎng)絡(luò)原理通過(guò)誤差反向傳播算法對(duì)網(wǎng)絡(luò)進(jìn)行不斷訓(xùn)練,減少目標(biāo)與實(shí)際輸出誤差,按照輸出層到中間層再到輸出層的順序逐漸修正連接權(quán)值。通過(guò)不斷修正誤差,提高輸入正確率[8]。BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖如圖2所示。
圖2 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖
把4種不同質(zhì)量圖像并分別設(shè)為1~4共4個(gè)等級(jí)并編碼,分別為1000、0100、0010、0001。對(duì)應(yīng)有4個(gè)輸出神經(jīng)元。隱含層神經(jīng)元經(jīng)過(guò)試驗(yàn)得出神經(jīng)元個(gè)數(shù)為34時(shí)學(xué)習(xí)效率最小。
BP網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程為:
(1)初始化權(quán)值wi,j和vi,j,閾值θj和γt在(-1,1)之間隨意取值。
(4)通過(guò)vij,dt和中間層輸出 bj計(jì)算中間每個(gè)單元一般性誤差ejk。
2.2BP神經(jīng)網(wǎng)絡(luò)算法改進(jìn)
BP神經(jīng)網(wǎng)絡(luò)經(jīng)常會(huì)陷入局部極小值和收斂,本文采用附加動(dòng)量法和自適應(yīng)學(xué)習(xí)速率法對(duì)BP神經(jīng)網(wǎng)絡(luò)進(jìn)行改進(jìn)。附加動(dòng)量法對(duì)權(quán)值wi,j在反向傳播基礎(chǔ)上對(duì)前一次權(quán)值進(jìn)行加權(quán)產(chǎn)生新權(quán)值,計(jì)算公式如式(8)所示。其中,η為學(xué)習(xí)效率,α為動(dòng)量因子,n為訓(xùn)練次數(shù)。附加動(dòng)量法可以使權(quán)值誤差更加接近誤差曲線最底部,使之可以跳出局部極小值。其收斂機(jī)制如式(9)所示。其中,E(n)表示第n步誤差。
本文中采用雙層網(wǎng)絡(luò)結(jié)構(gòu),隱含層傳遞函數(shù)tansig(n),輸出層傳遞函數(shù)logsig(n)。最小均方誤差和學(xué)習(xí)效率為0.01和0.1,動(dòng)量系數(shù)為0.95。將圖1中樣本數(shù)據(jù)作為樣本學(xué)習(xí)訓(xùn)練,另取80組數(shù)據(jù)作為校驗(yàn)樣本。校驗(yàn)樣本如表1所示,仿真結(jié)果如表2所示,分析實(shí)驗(yàn)結(jié)果和人工判別成功率如表3所示。
表1 校驗(yàn)樣本數(shù)據(jù)
樣本正常圖像過(guò)曝光圖像曝光不足圖像模糊圖像2.1 996.9 3.11.3 999.6 2.5 2.8 2.2 1.1 2.6 998.9 3.9 3.2 3.41.3 998.51 000等級(jí)1級(jí)2級(jí)3級(jí)4級(jí)01 00001 00001仿真值(10-3)真實(shí)編碼
表3 圖像質(zhì)量判別成功概率統(tǒng)計(jì)
由表1和表2看出,本文方法所判別結(jié)果與實(shí)際圖像結(jié)果一致。在試驗(yàn)中,對(duì)150幅圖像處理時(shí)間不到0.01 s,完全可以滿足現(xiàn)場(chǎng)需求,且判別正確率比人工識(shí)別精確。對(duì)篩選后不同質(zhì)量的圖像進(jìn)行了經(jīng)典改進(jìn)分水嶺算法分割,分割效果對(duì)比如圖3所示。
圖3 質(zhì)量不同浮選泡沫圖像分割效果
從圖3可以看出,不同質(zhì)量浮選泡沫圖像的分割效果,經(jīng)過(guò)分水嶺算法的分割后,(a)圖像泡沫基本被分割出來(lái),(b)、(c)和(d)圖像分割效果非常差。經(jīng)過(guò)篩選,在對(duì)高質(zhì)量圖像進(jìn)行分割或是特征參數(shù)提取時(shí),結(jié)果更準(zhǔn)確,處理效果更好。
數(shù)字圖像處理技術(shù)應(yīng)用于工業(yè)浮選是為了輔助生產(chǎn),提高礦物回收率,降低勞動(dòng)強(qiáng)度。本文選取浮選圖像紋理特征作為圖像質(zhì)量評(píng)價(jià)指標(biāo),通過(guò)分析各因子隨時(shí)間序列分布狀態(tài),并利用改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)生成浮選視頻圖像自適應(yīng)篩選模型。該模型可以快速準(zhǔn)確地對(duì)浮選圖像進(jìn)行質(zhì)量評(píng)價(jià),篩選出不同質(zhì)量浮選泡沫圖像,提高圖像識(shí)別效率和精度。在今后研究中,把該圖像質(zhì)量評(píng)價(jià)結(jié)果應(yīng)用于浮選圖像智能采集,實(shí)現(xiàn)圖像采集系統(tǒng)自動(dòng)控制,當(dāng)曝光過(guò)度時(shí),可以采用減少曝光時(shí)間、減少進(jìn)光量或降低圖像亮度,反之,增大曝光時(shí)間。對(duì)于模糊圖像直接從圖像序列中刪除掉,由此提高浮選實(shí)時(shí)監(jiān)控系統(tǒng)實(shí)用性和圖像采集效率。
參考文獻(xiàn)
[1]何桂春,黃開(kāi)啟.浮選指標(biāo)與浮選泡沫數(shù)字圖像關(guān)系的研究[J].金屬礦山,2008(8):96-100.
[2]MORAR S H,HARRIS M C,BRADSHAWD J.The use of machine vision to predict flotation performanc[J].Minerals Engineering,2012(36):31-36.
[3]劉文禮,路邁西,王勇,等.煤泥浮選泡沫紋理特征的提取及泡沫狀態(tài)識(shí)別[J].化工學(xué)報(bào),2003,54(6):832-372.
[4]陽(yáng)春華,周開(kāi)軍,牟學(xué)民,等.基于計(jì)算機(jī)視覺(jué)的浮選泡沫顏色及尺寸測(cè)量方法[J].儀器儀表學(xué)報(bào),2009,30(4):717-721.
[5]楊彪,江朝暉,陳鐸,等.基于客觀參數(shù)的圖像質(zhì)量評(píng)估[J].計(jì)算機(jī)仿真,2009,26(5):232-235.
[6]范媛媛,桑英軍,沈湘衡.基于BP神經(jīng)網(wǎng)絡(luò)的圖像質(zhì)量評(píng)價(jià)參數(shù)優(yōu)化[J].應(yīng)用光學(xué),2011,6(32):1150-1156.
[7]丁偉杰,范影樂(lè),龐全.一種改進(jìn)的基于分水嶺算法的粘連分割研究[J].計(jì)算機(jī)工程應(yīng)用,2007,43(10):70-72.
[8]LI X W.Combined use of BP neural netwo-rk and computational integral imaging reco-nstruction for optical multiple-image security[J].Optics Communica,2014,31(5):147-158.
(收稿日期:2014-12-27)
作者簡(jiǎn)介:
尹遜越(1988-),通信作者,男,碩士研究生,主要研究方向:圖像處理、模式識(shí)別。E-mail:yxyuesmile@sina.cn。
廖一鵬(1982-),男,博士研究生,主要研究方向:圖像處理與模式識(shí)別。
Research on human skeleton extraction based on depth image
Guan Mo,Liang Mengxue
(School of Information Science and Engineering,Shenyang University of Technology,Shenyang 110870,China)
In the paper the depth images are collected by Kinect hardware devices,and the human target in the depth image is obtained through foreground extraction.The human skeleton extraction methods including distance transform,such as Euclidean distance,city block distance and chessboard distance,and thinning algorithm,such as Hilditch and Zhang fast parallel thinning algorithm are researched.The contrast analysis is carried out using the experiment result of the algorithms mentioned above.At the same time,the human self-occlusion issue is solved by using the feature of depth image with depth information.The skeletal joint points in the skeleton line are located according to anthropometric proportion.Finally,the experimental results illustrated the effectiveness of the skeleton extraction method in the paper.
Kinect;depth image;thinning algorithm;skeleton extraction
Adaptive filter algorithm of froth flotation video image
Yin Xunyue,Liao Yipeng
(School of Physics and Information Engineering,F(xiàn)uzhou University,F(xiàn)uzhou 350108,China)
TP391.44
A文章編號(hào):1674-7720(2015)12-0038-04
2015-01-27)
關(guān)沫(1976-),女,博士,副教授,主要研究方向:嵌入式技術(shù),計(jì)算機(jī)視覺(jué)。
梁夢(mèng)雪(1990-),女,碩士研究生,主要研究方向:嵌入式技術(shù),計(jì)算機(jī)視覺(jué)。
51文獻(xiàn)標(biāo)識(shí)碼:A
1674-7720(2015)12-0042-03