• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于普通紅外攝像機(jī)的手勢(shì)識(shí)別

      2015-04-14 10:41:30孟春寧呂建平陳萱華
      關(guān)鍵詞:手勢(shì)鄰域灰度

      孟春寧,呂建平,陳萱華

      公安海警學(xué)院 電子技術(shù)系,浙江 寧波 315801

      1 引言

      計(jì)算機(jī)的普及促使人機(jī)交互技術(shù)迅猛發(fā)展。開發(fā)符合人際交流習(xí)慣的自然、方便的人機(jī)交互模式是人機(jī)交互領(lǐng)域的終極目標(biāo)。手勢(shì)是一種靠動(dòng)作和視覺進(jìn)行交際的特殊語言,包含了大量的信息,是人類使用最頻繁的肢體語言[1]?;谝曈X的手勢(shì)識(shí)別技術(shù)符合人機(jī)交互領(lǐng)域追求的自然、方便的原則,因此成為國內(nèi)外的研究熱點(diǎn),并在游戲、電腦輔助控制等方面取得了成功的應(yīng)用[2]。

      手勢(shì)在時(shí)間和空間上的多樣性和不確定性、所處的不同外界環(huán)境及光照情況等因素給手勢(shì)分割與識(shí)別帶來了極大的困難。獲取三維手勢(shì)信息是解決手勢(shì)表觀多樣性的最好方法。傳統(tǒng)的基于立體視覺的方法通過使用多臺(tái)攝像機(jī)從不同角度采集手勢(shì)的立體圖像[3],依賴特定的3D圖像采集系統(tǒng),且對(duì)各攝像機(jī)的位置要求嚴(yán)格、需要復(fù)雜的校準(zhǔn)、相關(guān)圖像處理技術(shù)也更加耗時(shí)。目前已經(jīng)成功用于交互領(lǐng)域的技術(shù)大多依賴能獲取深度信息的硬件,如基于結(jié)構(gòu)光技術(shù)的Kinect[4]、基于多角成像技術(shù)的Leap Motion[5]。特定的硬件成本較高,限制了手勢(shì)識(shí)別技術(shù)的普及。

      基于單目視覺的手勢(shì)識(shí)別技術(shù)雖然難以精確獲取手勢(shì)的三維信息,但其具有不依賴特定硬件的優(yōu)勢(shì),在只需識(shí)別少數(shù)簡(jiǎn)單的二維手勢(shì)動(dòng)作獲得控制需求的領(lǐng)域也取得了可喜的成果,具有代表性的有以色列的PointGrab、EyeSight及ExtremeReality等公司的研究成果[1]。為拓展基于單目視覺的手勢(shì)識(shí)別技術(shù)的應(yīng)用范圍,本文研究了復(fù)雜背景下基于普通攝像機(jī)的多類手勢(shì)識(shí)別方法。傳統(tǒng)的基于單目視覺的手勢(shì)分割方法主要有:(1)閾值分割法:通過設(shè)定不同的特征閾值,把圖像像素點(diǎn)分為若干類,閾值的選取方法有很多種[6],但通常需要使用純色背景或佩戴特殊手套等物理約束條件,對(duì)復(fù)雜背景下的圖像難以選取合適的閾值;(2)輪廓模型分割算法[7-9]:也稱為“智能蛇(Smart Snakes)”算法,是定位靜態(tài)圖像的經(jīng)典算法,但這類算法需要給出初始的輪廓,當(dāng)目標(biāo)比較復(fù)雜或與其他物體靠得較近時(shí),初始輪廓不易確定,且通常只能處理打開的手部圖像;(3)基于膚色的分割方法[10-11]:這種方法充分利用了手的表觀特征,是目前比較常用的手勢(shì)分割方法,但基于膚色的分割技術(shù)受光照影響很大,難以應(yīng)用于復(fù)雜光照條件下的手勢(shì)分割。(4)結(jié)合一些特定理論、方法和工具的分割技術(shù):如基于統(tǒng)計(jì)模式識(shí)別理論[12]、人工神經(jīng)網(wǎng)絡(luò)[13]、模糊集合和邏輯[14-15]、小波變換[16]等理論和方法對(duì)手勢(shì)進(jìn)行分割。對(duì)分割出來的不同的手勢(shì)多采用模板匹配法[17-18]或基于機(jī)器學(xué)習(xí)的方法[9]。由于Hausdorff距離具有對(duì)局部非剛性的扭曲及圖像的局部遮擋不敏感的優(yōu)勢(shì),通常作為模板匹配法的首選用于手勢(shì)分割識(shí)別中[19]。J Yuan利用Hausdorff模板匹配結(jié)合機(jī)器學(xué)習(xí)的方法用于人眼圖像分割取得了較好的效果[20]。本文利用單個(gè)普通紅外攝像機(jī)采集包含手勢(shì)的灰度圖像,提出一種八鄰域灰度圖像變換算法以降低光照對(duì)分割的影響,改進(jìn)了傳統(tǒng)Hausdorff距離算法結(jié)合支持向量機(jī)(Support Vector Machine,SVM)分割手勢(shì)區(qū)域,采用SVM多分類器取代傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)以克服其收斂速度慢及容易過擬合的缺陷,對(duì)九種手勢(shì)圖像進(jìn)行識(shí)別,對(duì)比實(shí)驗(yàn)結(jié)果表明本文提出的方法取得了更好的識(shí)別效果。

      2 改進(jìn)的Hausdorff距離算法

      2.1 平均Hausdorff距離

      Hausdorff距離(Hausdorff Distance,HD)是描述兩個(gè)點(diǎn)集之間相似程度的一種度量[21]。點(diǎn)集A和B之間的Hausdorff距離定義為:

      HD度量了兩個(gè)點(diǎn)集間的最大不匹配程度,其值越小說明兩點(diǎn)集越相似。在兩幅圖像的匹配中,圖像中的每個(gè)像素值就相當(dāng)于點(diǎn)集中的元素。HD不需要點(diǎn)與點(diǎn)之間一一對(duì)應(yīng),因此它對(duì)局部非剛性的扭曲及圖像的局部遮擋等不敏感。但是由于Hausdorff距離是一個(gè)最大最小距離,所以它對(duì)圖像噪聲很敏感。為解決這個(gè)問題,Huttenlocher等人提出了一種利用部分Hausdorff距離(Partial Hausdorff Distance,PHD)進(jìn)行匹配的方法[22];SIM等人提出一種LTS-HD(Least Trimmed Square Hausdorff Distance,LTS-HD)算法[23],LTS-HD 是將 HD排序后把前面幾個(gè)大的距離值剔除后,再對(duì)保留下來的距離求平均值,但排序過程耗時(shí),且剔除大的距離值在很多情況下效果并不明顯。使用了一種比較簡(jiǎn)單直觀的求平均值方法改進(jìn)Hausdorff距離計(jì)算,降低該距離對(duì)噪聲的敏感度,稱為平均Hausdorff距離(Average Hausdorff Distance,AHD),其定義如下:

      NA和NB分別為A和B中元素的個(gè)數(shù)。

      2.2 八鄰域三進(jìn)制變換算法

      為了消除光照的影響,在求HD之前采用一種八鄰域灰度圖像變換算法。如圖1所示,考慮一個(gè)像素點(diǎn)及周圍八個(gè)相鄰的像素,將圖1(a)所示周圍八個(gè)像素分別與中間像素灰度值比較,將大于該中間像素灰度值的置為2,小于的置為0,等于的置為1,則該窗口變換為圖1(b),將這八個(gè)像素變換后的數(shù)值順序排列構(gòu)成一個(gè)八位三進(jìn)制數(shù),如圖1(c),然后將此三進(jìn)制數(shù)轉(zhuǎn)化為相應(yīng)的十進(jìn)制數(shù)作為該中間像素的值,圖1(a)的中間像素變換后數(shù)值為:

      這種通過與鄰域像素比較得到的變換結(jié)果能夠消除光照強(qiáng)度變化的影響,并且在保存了像素灰度變化信息的同時(shí)突出了邊緣信息,增強(qiáng)了輪廓。

      圖1 八鄰域三進(jìn)制變換算法

      2.3 最小平均Hausdorff距離區(qū)域

      在求AHD之前,先將待分割圖像及模板分別作八鄰域灰度圖像變換,如圖2所示。圖2(b)為圖2(a)作八鄰域灰度圖像變換后的結(jié)果。選取某幅圖像的手背(略帶手指及手腕部分信息)為模板,如圖2(c),八鄰域變換后的模板見圖2(d),用該模板遍歷灰度變換后的原始圖像,計(jì)算AHD得到圖2(a)的AHD圖(見圖2(e)),AHD圖中的最小值對(duì)應(yīng)的原圖像中的部分是最有可能的待分割區(qū)域。但由于單個(gè)模板的局限性以及復(fù)雜背景的影響(比如胳膊很像手背區(qū)域),最小的AHD難以完全與手勢(shì)區(qū)域相匹配,故進(jìn)一步提出一種最小平均Hausdorff距離區(qū)域(Least Average Hausdorff Distance Area,LAHDA)算法,該算法主要依據(jù)匹配后包含部分手部圖像的AHD值也比較小的特點(diǎn)。定義如下:設(shè)Si為AHD圖中一塊固定尺寸的區(qū)域,面積為s(即包含的像素?cái)?shù)),原圖像關(guān)于模板的LAHDA定義為AHD圖中像素值之和最小的那塊區(qū)域:

      其中n為遍歷AHD圖所得大小為s的區(qū)域個(gè)數(shù),Hi為AHD圖中Si區(qū)域內(nèi)某點(diǎn)的像素值。圖2(f)中白色矩形框包圍的區(qū)域即為圖2(a)的LAHDA,圖2(g)中白色矩形框中即(b)中對(duì)應(yīng)LAHDA的部分,對(duì)應(yīng)的原圖像中的區(qū)域?yàn)閳D2(h)中黑色矩形框。

      圖2 基于LAHDA的手勢(shì)分割

      3 支持向量機(jī)及SMO算法

      在線性可分情況下,支持向量機(jī)用于分類問題的原理是建立一個(gè)合適的超平面,使得可分的兩類數(shù)據(jù)分列于平面兩側(cè),并且使它們到該平面的距離最大,此平面即被稱為最優(yōu)分離超平面。對(duì)于非線性問題,是通過一個(gè)非線性映射把原始數(shù)據(jù)映射到特征空間的新數(shù)據(jù)集上,而新數(shù)據(jù)集在該特征空間上是線性可分的,由此建立的最優(yōu)分離超平面在原始空間內(nèi)就是一個(gè)超曲面。通過解二次規(guī)劃可得原空間中的分類超曲面為:

      其中λi為Lagrange乘子,i=1,2,…,N。k(x,y)=Φ(xi)T·Φ(x)為核函數(shù),b為閾值。常用的滿足Mercer條件的核函數(shù)有多項(xiàng)式核函數(shù)、Gauss核函數(shù)及Sigmoid核函數(shù)。

      支持向量機(jī)的學(xué)習(xí)訓(xùn)練算法是求解一個(gè)二次凸規(guī)劃問題。從理論上講,共軛梯度法、積極集法和內(nèi)點(diǎn)法都可以用于該問題的求解,但是這些方法面對(duì)中、大規(guī)模的實(shí)際問題時(shí),訓(xùn)練SVM是一個(gè)巨大的計(jì)算工程。1998年P(guān)latt提出一種序貫最小優(yōu)化算法(Sequential Minimal Optimization,SMO)[24],避免了大量數(shù)值計(jì)算,大大節(jié)約了計(jì)算時(shí)間。

      實(shí)驗(yàn)所用SVM分類器對(duì)Platt的SMO算法作了改進(jìn),在內(nèi)層循環(huán)中,即試探尋找第二個(gè)配對(duì)優(yōu)化樣本的過程中,先遍歷非邊界樣本(即Lagrange乘子不等于0或C的樣本),因?yàn)榉沁吔鐦颖靖锌赡苄枰{(diào)整,如果找不到能與第一個(gè)樣本配對(duì)的非邊界樣本,則遍歷邊界樣本,這樣避免了遍歷全部樣本的同時(shí)又一次遍歷非邊界樣本,這對(duì)于大樣本訓(xùn)練集來說大大提高了訓(xùn)練速度。實(shí)驗(yàn)采用了這種遍歷策略,訓(xùn)練速度較原始SMO算法提高了約一倍。改進(jìn)的SMO算法與原始SMO算法的訓(xùn)練耗時(shí)對(duì)比實(shí)驗(yàn)結(jié)果如圖3所示,該實(shí)驗(yàn)訓(xùn)練樣本數(shù)為160,RBF核函數(shù)參數(shù)為10,懲罰系數(shù)為500,訓(xùn)練次數(shù)是20次,原始SMO算法平均耗時(shí)為1.824 4 s,改進(jìn)后的算法平均耗時(shí)為3.512 4 s。

      圖3 改進(jìn)的SMO算法與原始SMO算法的耗時(shí)實(shí)驗(yàn)對(duì)比結(jié)果

      實(shí)驗(yàn)選擇了高斯核函數(shù),采用二叉樹結(jié)構(gòu)級(jí)聯(lián)九個(gè)獨(dú)立的支持向量機(jī)對(duì)九種手勢(shì)及非九種手勢(shì)十類問題進(jìn)行分類。根據(jù)各種手勢(shì)的相似程度,設(shè)計(jì)了一個(gè)十分類的SVM,如圖4所示。

      圖4 十分類支持向量機(jī)

      4 實(shí)驗(yàn)過程及結(jié)果分析

      4.1 手勢(shì)分割

      實(shí)驗(yàn)使用普通紅外監(jiān)控?cái)z像頭,采用這種攝像機(jī)可以在任意光照條件下采集手勢(shì)圖像。光線暗時(shí)紅外燈自動(dòng)打開,光照條件好時(shí)為自然光照明。實(shí)驗(yàn)采集了7個(gè)人在不同背景及光照條件下的表示數(shù)字1~9的九種手勢(shì)灰度圖像,選擇了其中人眼可以分辨出手型的14 196幅(為便于描述,此數(shù)據(jù)庫簡(jiǎn)稱A庫),部分圖像如圖5所示。A庫中每幅圖像的手勢(shì)區(qū)域在整個(gè)圖像中所占比例也有較小的差別,以檢測(cè)算法對(duì)尺度變換的敏感度。從A庫中選出3 925幅背景較為簡(jiǎn)單的圖像作為B庫。

      圖5 不同背景不同光照條件下的原始圖像

      為了提高計(jì)算Hausdorff距離的速度,首先將采集到的768×576分辨率的圖像采用雙線性插值法縮小到原來的0.2倍(圖像分辨率變?yōu)?53×115),然后對(duì)每幅圖像進(jìn)行上述八鄰域灰度變換,以降低光照的影響。

      實(shí)驗(yàn)所選的手勢(shì)為表示數(shù)字1到9的九種靜態(tài)手型,選取了其中某副圖像的手背作為求Hausdorff距離的模板,如圖2(c)即為實(shí)驗(yàn)所用模板,對(duì)其進(jìn)行八鄰域灰度圖像變換得到圖2(d)。

      選取適當(dāng)s值(本實(shí)驗(yàn)s=11×18),按照2.3節(jié)的敘述計(jì)算每幅圖像的LAHDA,對(duì)應(yīng)的區(qū)域即為與模板手掌最相似的區(qū)域,考慮到手掌的大小范圍以及手指分布在手掌的兩邊和上部,最后適當(dāng)調(diào)整了LAHDA與原始圖像的對(duì)應(yīng)關(guān)系(如多向上取出幾行來盡量包含手指部分)。

      用上述方法對(duì)A庫中14196幅圖像作分割,取LAHDA所對(duì)應(yīng)的原圖像區(qū)域作為分割結(jié)果,能正確地分割出其中的11 925幅,分割正確率為84.0%,而對(duì)背景較為簡(jiǎn)單的B庫圖像分割率能達(dá)到99.8%,這是由于很多復(fù)雜背景下可能存在與處理后的模板圖像類似的非手勢(shì)區(qū)域,因此增加了下面的步驟。

      為了提高手勢(shì)分割的正確率,進(jìn)一步將分割圖像進(jìn)行SVM識(shí)別。訓(xùn)練一個(gè)正類為手勢(shì),負(fù)類為非手勢(shì)的二分類SVM(即圖4中第一個(gè)SVM分類器),將采用LAHDA分割出的圖像輸入SVM進(jìn)行判斷,如果識(shí)別為非手,則將對(duì)應(yīng)區(qū)域的每個(gè)像素均賦一個(gè)較大值(消除與模板最接近的區(qū)域的影響),然后在改變了的AHD圖中再取LAHDA,此為第二次分割;仍被識(shí)別為非手則進(jìn)行第三次分割,直至SVM識(shí)別為手。

      實(shí)驗(yàn)對(duì)14 196幅圖像進(jìn)行了三次分割,三次分割后仍被識(shí)別為非手則認(rèn)為無法分割并輸出第三次分割的結(jié)果,最后僅有23幅分割錯(cuò)誤,正確率達(dá)99.8%。圖5中九幅圖像的分割結(jié)果如圖6所示。表1展示了本文方法與現(xiàn)有方法的對(duì)比結(jié)果,其中PHD算法中決定K值的參數(shù)f取值為經(jīng)典值0.6,LTS-HD算法參數(shù)取值為10。從表中可以看出,PHD算法分割正確率最低,LAHDA算法分割成功率高于其他算法。通過理論分析及對(duì)錯(cuò)分樣本的統(tǒng)計(jì)分析表明,PHD算法類似經(jīng)典Hausdorff距離,其結(jié)果由第K個(gè)距離值決定,受噪聲影響最大,且針對(duì)所有樣本具有統(tǒng)一的f值完全是人為設(shè)定,沒有針對(duì)每個(gè)樣本特點(diǎn)自適應(yīng)取值的機(jī)制,無法保證K值對(duì)分割結(jié)果取得積極影響;MHD算法識(shí)別率相對(duì)低的主要原因是對(duì)類似手勢(shì)區(qū)域的噪點(diǎn)較為敏感,且配合BPNN經(jīng)歷多次分割識(shí)別仍然難以排除其影響。LTS-HD事實(shí)上是在MHD的基礎(chǔ)上增加了排序和剔除前幾個(gè)值的步驟,針對(duì)本數(shù)據(jù)庫的識(shí)別結(jié)果顯示其在增加了算法耗時(shí)的情況下非但沒有提高效率,反而略低于MHD,分析錯(cuò)分樣本得知,針對(duì)本文采集的部分圖像,其剔除的大值對(duì)分割結(jié)果起著積極的作用;而LAHDA借鑒了MHD對(duì)單個(gè)噪點(diǎn)魯棒性高的優(yōu)勢(shì),通過引入?yún)^(qū)域的概念,進(jìn)一步增強(qiáng)了對(duì)相似區(qū)域匹配的魯棒性,多次分割過程中能夠排除噪聲附近的一塊區(qū)域,從而提高了分割正確率。為證明本文所用八鄰域三進(jìn)制變換算法的有效性,加入了LBP[25]和八鄰域三進(jìn)制變換算法分別與LAHDA結(jié)合的對(duì)比實(shí)驗(yàn),本文所用八鄰域三進(jìn)制算法正是在經(jīng)典LBP的基礎(chǔ)上增加了大小相等這一判斷結(jié)果。對(duì)比實(shí)驗(yàn)結(jié)果證明,八鄰域三進(jìn)制算法在本文數(shù)據(jù)庫上優(yōu)于LBP,原因是在照明充足的情況下(如圖5(c)(d))預(yù)處理后的手背圖像易出現(xiàn)大面積等灰度值像素,而LBP未考慮匹配中的等值情況,只將等值與大于或小于歸為一類,在模板與樣本類似時(shí)匹配的可區(qū)分性被降低。

      圖6 部分圖像的分割結(jié)果(對(duì)應(yīng)圖5中九幅圖像)

      表1 手勢(shì)分割實(shí)驗(yàn)結(jié)果

      4.2 手勢(shì)識(shí)別

      從A庫中選取了表示1~9九種手勢(shì)各100個(gè),非此九種手勢(shì)900個(gè)作為訓(xùn)練樣本訓(xùn)練第3章介紹的十分類SVM,測(cè)試樣本為1~9九種手勢(shì)各50個(gè),非此九種手勢(shì)200個(gè)。部分訓(xùn)練樣本如圖7所示。

      圖7 (a)九種手勢(shì)的部分訓(xùn)練樣本

      圖7 (b)非此九種手勢(shì)的部分訓(xùn)練樣本

      將分割出的手勢(shì)經(jīng)八鄰域灰度圖像變換后作為訓(xùn)練測(cè)試樣本,用上節(jié)所述二叉樹結(jié)構(gòu)的SVM多分類器進(jìn)行識(shí)別。采用了十字交叉驗(yàn)證法選擇較為合適的懲罰系數(shù)C和高斯核函數(shù)參數(shù)s,對(duì)九類手勢(shì)測(cè)試樣本的平均識(shí)別率為80.44%。級(jí)聯(lián)前后的SVM識(shí)別結(jié)果見表2和表3。由表3可看出,手勢(shì)3和手勢(shì)8識(shí)別率較低,通過統(tǒng)計(jì)測(cè)試樣本中識(shí)別錯(cuò)誤的手勢(shì)圖像,發(fā)現(xiàn)手勢(shì)3多被誤判為手勢(shì)4或2,手勢(shì)8多被誤判為手勢(shì)6或2。另外識(shí)別率較高的手勢(shì)9中摻雜著較多被誤判為手勢(shì)9的假正樣本,如手勢(shì)1或7。上述情況的發(fā)生主要原因是手勢(shì)3 2 4、手勢(shì)8 6 2以及手勢(shì)9 1 7在表觀上分別具有較高的相似性,因此相似性較高的一組手勢(shì)易被誤判為同組其他手勢(shì),最后導(dǎo)致對(duì)不同手勢(shì)識(shí)別率的差異。

      表2 級(jí)聯(lián)前的九個(gè)SVM分別對(duì)測(cè)試樣本的識(shí)別率

      表3 級(jí)聯(lián)后的支持向量機(jī)分別對(duì)九種手勢(shì)的識(shí)別率

      5 結(jié)束語

      本文提出一種新的基于Hausdorff距離的算法結(jié)合鄰域變換及SVM實(shí)現(xiàn)了基于普通攝像機(jī)的復(fù)雜背景下九種靜態(tài)手勢(shì)的分割識(shí)別,取得了較好的識(shí)別效果。鄰域變換算法克服了不同光照條件的干擾,LAHDA算法在各種復(fù)雜背景下對(duì)手勢(shì)的尺度變化、方向及形狀變化等均有較強(qiáng)的容忍度,改進(jìn)的SMO算法大大減少了SVM的訓(xùn)練時(shí)間,提高了大樣本情況下SVM的訓(xùn)練效率。實(shí)驗(yàn)結(jié)果表明這種方法具有很好的魯棒性和泛化能力。算法在普通紅外監(jiān)控?cái)z像機(jī)下實(shí)現(xiàn),無需任何附加硬件,平均識(shí)別率超過80%,證明了其用作普通攝像機(jī)下通用手勢(shì)交互技術(shù)的可行性,是智能家居、輔助計(jì)算機(jī)控制等熱門領(lǐng)域的低成本、易推廣的理想解決方案。今后的工作將研究如何進(jìn)一步提高識(shí)別率,并探索基于普通攝像機(jī)的動(dòng)態(tài)手勢(shì)跟蹤方法。

      [1]Rautaray S S,Agrawal A.Vision based hand gesture recognition for human computer interaction:a survey[J].Artificial Intelligence Review,2015,43(1):1-54.

      [2]馮志全,楊波,徐濤,等.基于自然手勢(shì)跟蹤的直接操作型三維人機(jī)交互范式[J].計(jì)算機(jī)學(xué)報(bào),2014,37(6):1309-1323.

      [3]Wu Y,Lin J Y,Huang T S.Capturing natural hand articulation[C]//Eighth IEEE International Conference on Computer Vision.IEEE,2001,2:426-432.

      [4]Biswas K K,Basu S K.Gesture recognition using microsoft kinect?[C]//5th International Conference on Automation,Robotics and Applications.IEEE,2011:100-103.

      [5]Weichert F,Bachmann D,Rudak B,et al.Analysis of the accuracy and robustness of the leap motion controller[J].Sensors,2013,13(5):6380-6393.

      [6]Sahoo P K,Soltani S,Wong A K C,et al.A survey of thresholding techniques[J].Computer Vision,Graphics and Image Processing,1988,41:233-260.

      [7]Cootes T F,TaylorC J.Activeshapemodels-‘smart snakes’[C]//Proeeedings of the British Machine Vision Conference.USA:Springer-Verlag,1992:266-275.

      [8]Heap A J,Samaria F.Real-time hand tracking and gesture recognition using smart snakes[C]//Proceeding of Interface to Real and Virtual Worlds,Montpellier,1995.

      [9]Kass M,Witkin A,Terzopoulos D.SNAKE:Active contour models[J].Int J Comput Vis,1988:321-331.

      [10]Jons M,Rehg J.Statistical color models with application to skin detection[R].USA:Compaq Cambridge Research Lab,1998.

      [11]Bradski G,Yeo B L,Yeung M M.Gesture for video content navigation[C]//Proceedings of the Storage and Retrieval for Imageand Video Databases VII,1999:230-242.

      [12]Birk H.Real time recognition of hand alphabet gestures using principal component analysis[C]//Proc Seandinavian Conf Image Analysis,1997:261-268.

      [13]Yuan Jinghe,Wang Yong,Chang Shengjiang,et al.Gesture recognition for human-computer interaction by using neural network[J].Journal of Optoelectrnic&Laser,2002,13(7):733-743.

      [14]Anderson L,Purdy J,Viant W.Variations on a fuzzy logic gesture recognition algorithm[C]//Proc of the 2004 ACM SIGCHI Intl Conf on Advances in Computer Entertainment Technology,Singapore,2004:280-283.

      [15]Bedregal B C,Costa A C R,Dimuro G P.Fuzzy rulebased hand gesture recognition[C]//Artificial Intelligence in Theory and Practice.Boston:Springer,2006:285-294.

      [16]Wei Jinwen,Chen Yanling,Qin Hequn,et al.Hand shape recognition in human machine interaction through the singularity detection with wavelettransform[J].Journal of System Design and Dynamics,2009,3(2):162-172.

      [17]Cui Y T,Weng J J.View-based hand segmentation and hand-sequence recognition with complex backgrounds[C]//Proceedings of the IEEE International Conference on Pattern Recognition,Osaka,Japan:1997:617-621.

      [18]Yoruk E,Konukoglu E,Sankur B,et al.Shape-based hand recognition[J].IEEE Transactions on Image Processing,2006,15(7):1803-1815.

      [19]Yang X W,F(xiàn)eng Z Q,Huang Z Z,et al.A gesture recognition algorithm using hausdorff-like distance template matching based on the main direction of gesture[C]//Applied Mechanics and Materials,2015,713:2156-2159.

      [20]Yuan J.Eye location under different eye poses,scales and illuminations[J].Chinese Optics Letters,2010,8(1):59-62.

      [21]Huttenlocher D P,Klanderman G A,Rucklidge W J.Comparing images using the Hausdorff distance[J].IEEE Transactions on PAMI,1993,15(9):850-863.

      [22]Huttenlocher D P,Klanderman G A,Rucklidge W J.Comparing images using the Hausdorff distance[J].IEEE Transactions on Pattern analysis and Machine Intelligence,1993,15(9):850-863.

      [23]Sim D G,Kwon O K,Park R H.Objectmatching algorithm using robust Hausdorff distance measures[J].IEEE Transactions on Image Processing,1999,8(3):425-429.

      [24]Platt J C.Fast Training of support vector machines using sequential minimal optimization[M].Cambridge,MA:MIT Press,1999:185-208.

      [25]Timo A,Abdenour H,Matti P.Face Description with Local binary patterns:application to face recognition[J].IEEE Transactions on PAMI,2006,28(12):2037-2041.

      猜你喜歡
      手勢(shì)鄰域灰度
      采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過濾技術(shù)
      基于灰度拉伸的圖像水位識(shí)別方法研究
      稀疏圖平方圖的染色數(shù)上界
      挑戰(zhàn)!神秘手勢(shì)
      V字手勢(shì)的由來
      基于鄰域競(jìng)賽的多目標(biāo)優(yōu)化算法
      勝利的手勢(shì)
      基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
      基于灰度線性建模的亞像素圖像抖動(dòng)量計(jì)算
      關(guān)于-型鄰域空間
      永登县| 大同县| 安丘市| 河西区| 罗平县| 宜章县| 肇源县| 孟村| 榆社县| 顺平县| 阳西县| 仪征市| 安西县| 张家界市| 霍山县| 荥阳市| 开原市| 西乌珠穆沁旗| 株洲市| 龙游县| 宁海县| 抚顺市| 南靖县| 阿城市| 蕲春县| 旺苍县| 洪江市| 错那县| 凤凰县| 扎兰屯市| 玉树县| 鄱阳县| 鹤庆县| 教育| 武城县| 民丰县| 漳浦县| 涪陵区| 泌阳县| 尚义县| 定州市|