• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進的YCbCr空間及多特征融合的手勢識別

      2016-05-05 01:32:49薛俊韜縱蘊瑞楊正瓴
      計算機應(yīng)用與軟件 2016年1期
      關(guān)鍵詞:膚色傅里葉手勢

      薛俊韜 縱蘊瑞 楊正瓴

      (天津大學電氣與自動化工程學院 天津 300072)

      ?

      基于改進的YCbCr空間及多特征融合的手勢識別

      薛俊韜縱蘊瑞楊正瓴

      (天津大學電氣與自動化工程學院天津 300072)

      摘要針對基于視覺的手勢識別的復雜性,提出一種基于改進的YCbCr空間及多特征融合的手勢識別新方法。首先針對YCbCr顏色空間易受環(huán)境因素影響的特點,采用改進的YCbCr橢圓聚類膚色模型的手勢分割方法提取手勢區(qū)域;然后按手勢圖像外接矩形的寬高比和手指個數(shù)進行粗分類,再提取手勢的Hu矩和傅里葉描述子構(gòu)建融合特征,并將融合特征輸入BP神經(jīng)網(wǎng)絡(luò)進行訓練識別;最后綜合粗分類和BP神經(jīng)網(wǎng)絡(luò)的結(jié)果進行手勢判別。實驗結(jié)果表明,該方法在保證實時性的同時具有較高的識別率。

      關(guān)鍵詞手勢識別YCbCr顏色空間Hu矩傅里葉描述子BP神經(jīng)網(wǎng)絡(luò)

      0引言

      手勢識別作為人機交互中對使用者限制最小的一種方式,正越來越受到計算機視覺研究者的關(guān)注。手勢的多樣性、多義性,時間和空間差異性[1],以及視覺本身的不穩(wěn)定性,使得建立基于視覺的手勢識別系統(tǒng)是一個極富挑戰(zhàn)性的課題。手勢識別主要由圖像分割、特征提取和識別等部分組成。

      手勢分割是手勢識別的基礎(chǔ),它處理的好壞直接影響到后續(xù)的特征提取和識別效果。由于膚色具有很好的特征,目前很多分割方法基于膚色聚類特性[2],運用顏色信息得到完整的手部區(qū)域。但光照條件的變化、前景和背景中類膚色區(qū)域的干擾等,都會使得分割效果不理想。最簡單的方法是外加種種限制,如要求背景使用某種特定的顏色,雖然明顯提高了分割效果,但這樣不利于實際應(yīng)用。

      手勢特征選擇與提取是手勢識別的難點。文獻[3]提取了手勢邊緣特征像素點,計算量小,但未考慮手勢旋轉(zhuǎn)、縮放、膚色干擾時的識別。文獻[4]利用圖像的密度分布特征實現(xiàn)二值圖像的檢索識別,但無法識別區(qū)分度較小的手勢。由于Hu矩和傅里葉描述子能準確地描述手勢且具有平移、旋轉(zhuǎn)和縮放不變性,因此在目標識別中具有廣泛的應(yīng)用。

      殷濤等[5]利用Hu矩對四十個靜態(tài)手勢進行識別研究,取得了較高的識別率,但對手勢圖片要求較高,圖片光線復雜或者手勢拍攝角度不佳等干擾對于判定結(jié)果的影響較大。Heba等[6]利用傅里葉描述子和BP神經(jīng)網(wǎng)絡(luò)結(jié)合的方法對四個簡單手勢進行識別研究,可以獲得比較高的識別率,但是對于局部相似度較高的手勢,識別結(jié)果仍然差強人意,難以對更加豐富復雜的手勢庫進行識別??梢妴为殤?yīng)用Hu矩和傅里葉描述子特征進行手勢識別難以取得完善的效果。

      針對上述問題,本文首先采用基于改進的YCbCr顏色空間的手勢分割方法,實現(xiàn)了復雜和多變背景下的有效分割。然后在分割圖像上尋找有表征意義的結(jié)構(gòu)特征對手勢進行粗分類,將可能的手勢限定在某一范圍之內(nèi);再提取Hu矩和傅里葉描述子構(gòu)建具有平移、旋轉(zhuǎn)、縮放不變性特點的融合特征,并利用融合特征訓練BP神經(jīng)網(wǎng)絡(luò)作為精細分類器。最后綜合粗分類和BP神經(jīng)網(wǎng)絡(luò)的結(jié)果判別手勢,流程如圖1所示,取得了較高的識別率。

      圖1 流程圖

      1手勢區(qū)域的分割

      1.1常用顏色空間的膚色分割

      膚色很明顯區(qū)別于大多數(shù)的背景顏色,在顏色空間中將形成一個小而緊致的聚簇[7]。對于膚色聚類方法,關(guān)鍵一步是選擇合適的顏色空間。不同顏色空間的膚色分布狀態(tài)各不相同,為了分割出較準確的手勢圖像,必須選擇最理想的顏色空間作為手勢分割的膚色空間。目前常用的顏色空間主要有RGB、HSV和YCbCr三種。

      RGB空間是用于顯示和保存彩色圖像最常用的顏色空間,R、G和B分別代表人類視覺的紅、綠和藍三基色。但由于R、G和B三個分量中均含有亮度信息,相互之間存在相關(guān)性,用于膚色檢測時其亮度適應(yīng)性不夠理想[8],不適合進行膚色分割,故需要利用線性或非線性變換將其轉(zhuǎn)化到其他顏色空間。

      HSV空間用色調(diào)H、飽和度S和亮度V描述顏色信息,與人類的顏色視覺有很好的一致性。彩色分量H、S和V是由R、G和B經(jīng)過非線性變換得到,有效地將亮度與反映色彩本質(zhì)特性的色調(diào)和飽和度分開,因此可以只使用色度分量進行膚色檢測,但由于計算復雜度較高,一般不用于實時的圖像處理。同時,樣本膚色點在HSV空間中聚集不緊密,進行膚色分割時環(huán)境適應(yīng)性不強。

      YCbCr空間可以將亮度信號Y和色度信號Cb、Cr分離,受亮度影響較小,故當亮度變化不大時,亮度Y的影響可忽略,通常當Cb和Cr滿足:133≤Cr≤173,77≤Cb≤127時,則認為是膚色區(qū)域。且YCbCr是由RGB線性變換得到,計算效率高,避免了非線性空間的奇異性。同時,基于YCbCr空間的膚色聚類特性較好[9]。綜上可知,YCbCr適合作為手勢分割的顏色空間。

      圖2為在HSV和YCbCr空間下提取的手勢。由圖可知,在HSV空間中手勢分割效果較差,尤其背景中存在類膚色區(qū)域時幾乎無法區(qū)分手勢與背景。而在YCbCr空間下分割效果較好,有效去除了前景及背景中的類膚色區(qū)域。

      圖2 HSV和YCbCr空間下的膚色分割

      1.2改進的YCbCr的手勢分割

      前面的分割結(jié)果表明,YCbCr 能較好地限制膚色的分布區(qū)域,適合進行膚色分割。但由于YCbCr是RGB線性變換得到,因此亮度分量并非完全與色度信息獨立,即當Y值大小不同時,Cb-Cr子平面上的膚色聚類區(qū)域也不同。所以不能簡單地忽略亮度,必須考慮Y值不同造成的影響。

      Rein-Lien Hsu[10]等提出了一種在非線性變換的YCbCr空間上采用橢圓模型來描述膚色分布,以消除色度對光照的依賴性,并將其應(yīng)用于人臉檢測,取得了較好的效果。本文將該非線性變換方法應(yīng)用到手勢分割,根據(jù)色度分量隨Y的變化情況,用四個邊界來限制膚色聚類區(qū)域,有效避免了高亮度區(qū)域和低亮度區(qū)域中膚色點誤判問題,改善了膚色模型的魯棒性。

      經(jīng)過分段非線性變換后的彩色空間用YCb′Cr′表示,轉(zhuǎn)換公式為:

      (1)

      (2)

      (3)

      (4)

      文獻[10]中參數(shù)取值如下:Kl=125,Kh=188,Ymin=16,Ymax=235,Wcb=46.79,WLcb=23,WHcb=14,Wcr=38.76,WLcr=20,WHcr=10,在此空間中,膚色亮度、藍色色度和紅色色度均獨立,相互之間沒有影響。

      Cb′Cr′空間膚色模型滿足以Cb′(Y),Cr′(Y)為坐標軸,(109.38,152.02)為中心,長軸為25.39、短軸為14.03,與坐標軸不平行的橢圓,將其平移旋轉(zhuǎn)變換為標準橢圓:

      (5)

      該模型建模簡單,消除了色度對亮度的依賴關(guān)系,僅通過計算像素點是否落在橢圓區(qū)域范圍內(nèi)來區(qū)分膚色與非膚色,計算速度快,同時檢測精度較高。

      對同一圖像的YCbCr及改進的YCbCr空間的分割結(jié)果如圖3所示。結(jié)果表明,相比YCbCr分割方法,改進的YCbCr在復雜的環(huán)境下能很好地分割出手勢,環(huán)境適應(yīng)性強。

      圖3 不同顏色空間上的手勢分割效果圖

      2手勢特征提取

      2.1手勢的結(jié)構(gòu)特征

      手勢結(jié)構(gòu)特征即指手勢中手指與手指、手指與手掌等存在的某種幾何關(guān)聯(lián)關(guān)系與結(jié)構(gòu),這種特征一般都比較直觀明顯,例如手指個數(shù)、手勢中是否包含大拇指及手勢的伸展方向等。綜合考慮結(jié)構(gòu)特征分類效果和特征提取復雜度,最后選取手勢的外接矩形寬高比例和手指的個數(shù)作為粗分類的標準。

      手勢的外接矩形能較好的表述手勢的空間相位特征且提取簡單,提取結(jié)果如圖4所示。通過外接矩形的寬高比可以將一些旋轉(zhuǎn)后相似的手勢區(qū)分開,例如手指語字母E和P。通過統(tǒng)計分析手勢的外形特征,本文將外接矩形的寬高比的大小分為小于0.8、介于0.8和1.2之間、大于1.2三個等次。

      圖4 手勢輪廓及外接矩形提取效果圖

      研究中圖像手指個數(shù)檢測通常采用穿透法,在輪廓圖像中自下而上,自左而右逐行逐列掃描圖像,記錄每行和每列中輪廓點的個數(shù)num[i]、num[j](0

      finN=max(numHMax,numWMax)/2

      (6)

      通過檢測自己建立的手勢圖片庫得出,此方法對不同手勢的檢測結(jié)果比較穩(wěn)定,同一手勢不同人的手指檢測結(jié)果相同率都在90%以上,即使不相同偏差均在一根手指以內(nèi)。根據(jù)檢測結(jié)果,手指語中一根手指的手語包括:A、I、K、X、G、R、NG,兩根手指手語包括:H、V、L、T、Y、F和Z,三根手指手語包括:W、P、E和ZH,四根手指手語包括:B、U。其他手勢為不包含伸出手指的手語。對照手指語庫可以發(fā)現(xiàn),檢測結(jié)果絕大多數(shù)與實際目測的手指個數(shù)相同。

      兩種特征的聯(lián)合判定如表1所示。由于精確分類是在粗分類的基礎(chǔ)上進行的,為了減少誤判,本文建立如下的粗分類容錯規(guī)則:將檢測出的寬高比和手指數(shù)均向兩邊擴展一個單位,以盡可能提高粗分類的準確率。也就是說,如果檢測到的寬高比是小于0.8,手指數(shù)是3,則認為寬高比是小于0.8或者是介于0.8和1.2之間,手指數(shù)是2、3或4,可能的手勢為:H、V、W、B、U、L、T、Y和P。

      表1 手勢根據(jù)寬高比和手指數(shù)的分布

      2.2傅里葉描述子

      傅里葉描述子是圖像邊緣信息頻域分析的結(jié)果,能夠很好地描述輪廓。

      提取傅里葉描述子時假定手勢輪廓是一條封閉的曲線[11],那么邊界上的像素點序列為:

      {x(k),y(k);k=0,1,…,K-1}

      (7)

      用復數(shù)形式表示為:

      s(k)=x(k)+jy(k)

      (8)

      這樣,邊界就可以在一維空間上表示。邊界的一維離散傅里葉系數(shù)序列定義為:

      (9)

      其中,z(k)即為傅里葉描述子。為了使描述子具有平移、縮放、旋轉(zhuǎn)的不變性,需對傅里葉描述子進行歸一化,得到歸一化后的傅里葉描述子:

      (10)

      其中,z(0)代表圖像輪廓的質(zhì)心,一般難以用作識別特征。除z(0)外的系數(shù)經(jīng)過歸一化后都具有旋轉(zhuǎn)、平移和尺度不變性,并且與曲線起始位置無關(guān)。d(0)不采用,若歸一化后d(1)≡1,識別作用不大,也不采用。由于傅里葉系數(shù)的低頻分量對應(yīng)手勢的整體輪廓,高頻分量刻畫了外形的細節(jié),高頻分量對目標識別有幫助,但是作用并不是很大,并且隨著系數(shù)的增大,快速地衰減。將傅里葉描述子的幅值定義為所代表的能量。圖5中,橫軸代表除d(0)和d(1)以外采用的傅里葉系數(shù)個數(shù),縱軸代表這些系數(shù)的總能量占除d(0)和d(1)外的所有系數(shù)總能量的比值??梢钥闯?,當傅里葉系數(shù)的個數(shù)達到8時,傅里葉系數(shù)累計能量比均達到99%以上,并且隨著傅里葉系數(shù)個數(shù)的增加,累計能量比變得平穩(wěn)。所以僅選擇傅里葉描述子除d(0)和d(1)外的前八個系數(shù)作為描述手勢的特征。

      圖5 傅里葉系數(shù)能量比分布圖

      2.3Hu矩

      手勢圖像的矩是用所有屬于手勢區(qū)域內(nèi)的像素點計算出來的,因此受噪聲影響較小。此外,不論目標是否封閉,都能較好地識別目標。

      對于數(shù)字圖像,f(x,y)是像素點(x,y)的灰度值,相應(yīng)的p+q階矩為[12]:

      (11)

      相應(yīng)的階p+q中心距為[12]:

      (12)

      其中(x0,y0)是目標圖像區(qū)域的灰度質(zhì)心,x0=m10/m00,y0=m01/m00。

      中心矩upq是平移不變的。為了得到尺度不變性,對其進行尺度規(guī)范化,得到具有圖像平移與縮放不變的矩:

      (13)

      M.K.Hu首先應(yīng)用代數(shù)不變矩理論,對規(guī)范化的中心矩進行非線性組合,構(gòu)造出以下7個大小,平移和旋轉(zhuǎn)不變性的Hu不變矩[13]。

      M1=η20+η02

      (14)

      (15)

      M3=(η30-3η12)2+(3η21-η03)2

      (16)

      M4=(η30+η12)2+(η21+η03)2

      (17)

      M5=(η30-3η12)(η30+η12)[(η30+η12)2-

      3(η21+η12)2]+3(η21-η03)(η21+

      η03)[3(η30+η12)2-(η21+η03)2]

      (18)

      M6= (η20-η02)[(η30+ η12)2-(η21+ η03)2]+

      4η11(η30+ η12)(η21+ η03)

      (19)

      M7=(3η21-η03)(η21+η03)[3(η30+η12)2-

      (η21+η03)2]-(η30-3η12)(η21+

      η03)[3(η30+η12)2-(η21+η03)2]

      (20)

      由于Hu不變矩概念簡單、識別率穩(wěn)定,并且具有縮放、平移和旋轉(zhuǎn)不變性,故被廣泛地應(yīng)用在圖像識別的特征提取中?;诖吮疚倪x擇Hu矩作為手勢識別的特征。

      部分手勢的Hu矩計算結(jié)果如表2所示。

      表2 Hu1-Hu7的計算列表

      從表2中可以看出,每個手指字母的各個不變矩之間的差距比較大,因此可以作為有效地特征參數(shù)區(qū)分各個手勢。

      2.4傅里葉描述子與Hu矩特征的融合

      設(shè)通過傅里葉描述子得到的八個特征為:d1,d2,…,d8,通過Hu矩得到的七個特征為:M1,M2,…,M7,由于特征量并不大,可以采用特征級融合中最簡單的串行方式進行特征融合,則需要輸入到神經(jīng)網(wǎng)絡(luò)的特征C為:

      C={d1,d2,…,d8,M1,M2,…,M7}

      (21)

      當融合的兩種特征的維數(shù)或者量綱相差太大時,直接拼接會出現(xiàn)不平衡的現(xiàn)象,維數(shù)小、數(shù)值小的特征在融合中貢獻小,甚至有可能被忽略,可以通過特征歸一化或者對變量進行加權(quán)來減小這一問題的影響。因此本文將特征向量變換為:

      C={kd1,kd2,…,kd8,M1,M2,…,M7}

      (22)

      式中,k為需要確定的權(quán)值,可由下式計算確定:

      (23)

      3實驗結(jié)果及分析

      實驗使用了漢語手指字母的全部30個手勢,由于國際上沒有標準的模板庫,實驗手勢均由本人及實驗室人員自行錄制,3個人分別對不同背景及光照下的手勢采集30次,總共2700個樣本,其中1800個用于訓練,900個用于測試,部分手勢如圖6所示。將從1800個訓練樣本提取的融合特征輸入三層BP神經(jīng)網(wǎng)絡(luò)進行訓練,訓練后誤差低于0.5%。由于粗分類得到的結(jié)果比較粗糙,會得到多種可能手勢且無法進行進一步選取,但理論上可認為粗分類的判別是無誤的。例如,檢測到手勢的寬高比大于1.2并且手指數(shù)為3,則粗分類的手勢為L、T、Y、F、Z、P、E和ZH。本文結(jié)合粗分類與神經(jīng)網(wǎng)絡(luò)的結(jié)果判別手勢,即根據(jù)BP神經(jīng)網(wǎng)絡(luò)的結(jié)果對粗分類的結(jié)果進行概率排序,選取概率最高的為最終識別結(jié)果。例如,如果神經(jīng)網(wǎng)絡(luò)輸出結(jié)果是L為0.85,T為0.1,Y為0.01……,結(jié)合粗分類,手勢識別結(jié)果為L。如果神經(jīng)網(wǎng)絡(luò)輸出結(jié)果是A為0.85,T為0.1,Y為0.01……,結(jié)合粗分類,手勢識別結(jié)果為T。

      圖6 部分實驗手勢示意圖

      900個測試樣本的實驗結(jié)果如表3所示,總識別率達到了91.34%。圖7為粗分類與兩特征的BP神經(jīng)網(wǎng)絡(luò)結(jié)合的識別率和無粗分類只有兩特征的BP神經(jīng)網(wǎng)絡(luò)的識別率以及兩種單一特征的BP神經(jīng)網(wǎng)絡(luò)識別率對比圖。由圖中數(shù)據(jù)可以看出,單獨使用Hu矩和傅里葉描述子特征對手勢進行識別也可以得到較高的識別率,但是個別手勢的識別率會相對較低,與兩種特征共同識別有著較大差距。有些手勢的粗分類結(jié)果和不加粗分類的神經(jīng)網(wǎng)絡(luò)結(jié)果有著一定程度上的差距,例如手勢K和Y分別有2和3個手勢分類結(jié)果不同。加入粗分類也起到了預(yù)想中的作用,一定程度上減少了BP神經(jīng)網(wǎng)絡(luò)的誤判,整體提升了判別的準確率。本系統(tǒng)在Visual C++ 6.0環(huán)境下,用C++語言編寫,并利用OpenCV中的部分函數(shù)完成圖像處理的編程。在2.6 GHz CPU,2 GB RAM硬件環(huán)境下,處理320×240圖片需要的平均時間在26 ms左右,完全可以滿足實時性的要求。

      表3 各手勢識別率

      圖7 各方法識別率對比圖

      綜合實驗數(shù)據(jù)得出,本文所設(shè)計的靜態(tài)手勢識別系統(tǒng)具有很好的實時性以及識別率,達到了預(yù)期的目標。通過對誤識別手勢分析不難發(fā)現(xiàn),個別手勢不能識別的原因是手指語中有許多手勢較為類同,或者拍攝角度欠佳,使得手勢間的區(qū)分度較小,外形非常接近。例如圖6中手勢H在側(cè)面拍攝時,伸出的兩根手指會重合在一起,易誤判為手勢I。另外,一些手勢圖像在預(yù)處理時部分有用信息會丟失,這些因素都會對識別率造成一定的影響。

      4結(jié)語

      本文利用改進的YCbCr顏色空間橢圓模型實現(xiàn)了色度信號與亮度信號分離,減少了光照強度對手勢圖像的影響,一定程度上滿足了圖像分割的要求。Hu矩和傅里葉描述子構(gòu)建的混合特征訓練的BP神經(jīng)網(wǎng)絡(luò)相對于單一特征訓練的BP神經(jīng)網(wǎng)絡(luò),在滿足實時性的基礎(chǔ)上極大地提高了識別率。同時提取的手勢結(jié)構(gòu)特征進行的粗分類,對BP神經(jīng)網(wǎng)絡(luò)識別結(jié)果有很好的修正作用,整體提升了最終識別率。當然,文中采用的圖像分割方法對于光照仍然比較敏感,所以還需要進一步完善。此外,對于最接近人們?nèi)粘I畹膭討B(tài)手語識別系統(tǒng)的研究具有非?,F(xiàn)實的意義,是未來手語識別的發(fā)展方向。

      參考文獻

      [1] Licsar A,Sziranyi T.User-adaptive hand gesture recognition system with interactive training[J].Image and Vision Computing,2005,23(12):1102-1114.

      [2] Phung S,Bouzerdoum A,Chai D.Skin segmentation using color pixel classification:analysis and comparison[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(1):148-154.

      [3] 張良國,吳江琴,高文,等.基于Hausdorff距離的手勢識別[J].中國圖象圖形學報:A版,2002,7(11):1144-1150.

      [4] 黃春木,周利莉.密度分布特征及其在二值圖像檢索中的應(yīng)用[J].中國圖象圖形學報,2008,13(2):307-311.

      [5] 殷濤,葛元,王林泉.基于幾何矩的字母手勢識別算法[J].計算機工程,2004,30(18):127-129.

      [6] Gamal M,Abdul K,Sallam E.Hand Gesture Recognition using Fourier Descriptors[C]//International Conference on Computer Engineering and Systems,Cairo,EGYPT,2013:274-279.

      [7] 徐戰(zhàn)武,朱淼良.基于顏色的皮膚檢測綜述[J].中國圖象圖形學報,2007,12(3):377-388.

      [8] Dhruva N,Rupanagudi S,Sachin S,et al.Novel Segmentation Algorithm for Hand Gesture Recognition[C]//IEEE International Multi Conference on Automation Computing,Control,Communication and Compressed Sensing,Kottayam,INDIA,2013:383-388.

      [9] Pramod K,Prahlad V,Ai P.Attention Based Detection and Recognition of Hand Postures against Complex Backgrounds[J].International Journal of Computer Vision,2013,101(3):403-419.

      [10] Hsu R,Mottaleb A,Jain A.Face detection in color images[J].Pattern Analysis and Machine Intelligence,2002,24(5):696-706.

      [11] 李丹嬌,彭進業(yè),馮曉毅,等.結(jié)合CCS與傅里葉描述子的手勢特征提取[J].計算機工程,2012,38(6):178-180.

      [12] Liu Y,Zhang L,Zhang S.A Hand Gesture Recognition Method Based on Multi-Feature Fusion and Template Matching[C]//International Workshop on Information and Electronics Engineering,Harbin,PEOPLES R CHINA,2012:1678-1684.

      [13] 裴利沈,董樂,趙雪專,等.基于區(qū)域形狀與運動特征的實時行為識別[J].計算機科學,2013,40(5):261-265.

      GESTURE RECOGNITION BASED ON IMPROVED YCBCR SPACE AND MULTI-FEATURE INTEGRATION

      Xue JuntaoZong YunruiYang Zhengling

      (SchoolofElectricalandAutomationEngineering,TianjinUniversity,Tianjin300072,China)

      AbstractBecause of the complexity of vision-based hand gesture recognition, we presented a novel hand gesture recognition algorithm which is based on improved YCbCr space and multi-feature integration. Firstly, considering the characteristic that YCbCr colour space is prone to the influence of environmental factors, the algorithm adopts the improved hand gesture segmentation method using YCbCr elliptic clustering skin colour model to extract hand gesture region. Then it makes initial classification according to the aspect ratio of envelop rectangle of hand gesture image and the number of fingers, and extracts Hu moment and Fourier descriptor of hand gesture to build integration features, which are put into BP neural network for training and recognition. Finally the results of the initial classification and BP neural network are combined for hand gesture recognition. Experimental results showed that the proposed method could ensure the real-time performances while getting a quite higher recognition rate.

      KeywordsHand gesture recognitionYCbCr colour spaceHu momentFourier descriptorsBP neural network

      中圖分類號TP391

      文獻標識碼A

      DOI:10.3969/j.issn.1000-386x.2016.01.039

      收稿日期:2014-06-11。天津市科技支撐計劃重點項目(10ZCKF SF01100);天津市科技型中小企業(yè)創(chuàng)新基金項目(13ZXCXGX40400)。薛俊韜,副教授,主研領(lǐng)域:圖像處理,智能信息處理,智能儀器,模式識別應(yīng)用。縱蘊瑞,碩士生。楊正瓴,副教授。

      猜你喜歡
      膚色傅里葉手勢
      Conversation in a house
      人的膚色為什么不同
      好孩子畫報(2020年3期)2020-05-14 13:42:44
      挑戰(zhàn)!神秘手勢
      雙線性傅里葉乘子算子的量化加權(quán)估計
      V字手勢的由來
      基于小波降噪的稀疏傅里葉變換時延估計
      勝利的手勢
      基于傅里葉變換的快速TAMVDR算法
      快速離散傅里葉變換算法研究與FPGA實現(xiàn)
      電測與儀表(2015年5期)2015-04-09 11:30:44
      膚色檢測和Hu矩在安全帽識別中的應(yīng)用
      钟祥市| 克拉玛依市| 铁岭市| 西安市| 邵阳市| 松溪县| 宣城市| 千阳县| 浠水县| 门源| 怀安县| 庆安县| 阳谷县| 都匀市| 白河县| 溧水县| 扶余县| 松江区| 绍兴县| 闽清县| 穆棱市| 广宗县| 永寿县| 宁阳县| 永善县| 同心县| 通海县| 务川| 富源县| 古浪县| 陆河县| 芒康县| 新邵县| 遂宁市| 彭水| 东辽县| 漳州市| 科技| 鄢陵县| 台北市| 扶风县|