• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Kinect 傳感器的人體行為分析算法*

    2015-03-26 07:59:26戰(zhàn)蔭偉
    傳感器與微系統(tǒng) 2015年1期
    關(guān)鍵詞:深度圖像素人體

    戰(zhàn)蔭偉,張 昊

    (廣東工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,廣東 廣州510006)

    0 引 言

    人體行為分析一直是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)研究熱點(diǎn),在人機(jī)交互、視頻監(jiān)控、視頻檢索及智能家居等方面有著重要的應(yīng)用。此前,人體行為分析主要是在二維彩色圖像視頻數(shù)據(jù)的基礎(chǔ)上進(jìn)行研究,通過(guò)視頻序列提取行為描述的特征信息,用行為識(shí)別算法對(duì)行為特征分類和理解,以達(dá)到識(shí)別行為的目的。

    關(guān)于人體行為識(shí)別已有大量的研究工作。普遍方法是對(duì)視頻中的興趣點(diǎn)使用時(shí)空特征進(jìn)行建模,如局部時(shí)空興趣點(diǎn)STIP[1],還有梯度特征如HOG[2]。但是,單純使用點(diǎn)特征或者梯度特征都不甚理想。另一類方法是統(tǒng)計(jì)模式識(shí)別,如典型的隱馬爾可夫模型(HMM)、條件隨機(jī)場(chǎng)(CRF)模型。HMM 是生成式模型,即先建立樣本的概率密度模型,再利用模型進(jìn)行推理預(yù)測(cè)。CRF 模型屬于判別式模型,其思想是在有限條件下建立判別函數(shù),直接研究預(yù)測(cè)模型。Brand M 等人[3]利用Coupled HMMs 識(shí)別雙手活動(dòng)。Weinland D 等人[4]用HMM 結(jié)合三維網(wǎng)格對(duì)人體動(dòng)作建模。Martine F 等人[5]利用HMMs 和動(dòng)作模版識(shí)別人體活動(dòng)。與HMM 生成模型類似,Lan T 等人[6]借助人與人之間的交互分析使用一種判別模型。Sminchisescu C 等人[7]應(yīng)用CRF 對(duì)人體行為(如走、跳等)進(jìn)行分類,相比HMM 方法有所提高。Kumar S 等人[8]應(yīng)用CRF 模型完成圖像區(qū)域標(biāo)記工作。Torralba A 等人[9]引入Boosted Random Fields,模型組合了全局和局部圖像信息進(jìn)行上下文目標(biāo)識(shí)別。

    以上算法雖然能達(dá)到較好的性能,但因光照變化、物體遮擋及環(huán)境變化等因素的干擾,識(shí)別精度會(huì)大幅度降低。為此,本文嘗試通過(guò)引入Kinect 紅外傳感器,其可同時(shí)獲取彩色圖像和深度圖像,深度圖像中像素值僅與Kinect 到物體表面距離有關(guān)。深度圖像具有顏色無(wú)關(guān)性,不受陰影、光照、色度變化等因素的影響;其次,根據(jù)距離很容易將前景與背景分開(kāi),這也解決利用RGB 圖像進(jìn)行識(shí)別時(shí)難以將人體分割出來(lái)的困難。LuX等人[10]利用Canny算子對(duì)深度圖像進(jìn)行邊緣提取,通過(guò)計(jì)算距離變換,利用模型匹配,計(jì)算出頭部位置并根據(jù)經(jīng)驗(yàn)比例定位整個(gè)人體,進(jìn)而達(dá)到檢測(cè)與跟蹤的目的。Abhishek K[11]通過(guò)距離變換與模型匹配方法,對(duì)頭部定位選擇Haar 特征級(jí)聯(lián)的分類模型。Shotton J 等人[12]用像素差分法提特征,分類器用了隨機(jī)森林算法,訓(xùn)練樣本采用合成的人體深度圖像,對(duì)人體各部位進(jìn)行識(shí)別。

    本文首先通過(guò)閾值分割方法對(duì)Kinect 獲取的深度圖處理,提取前景人物,然后提取深度圖像上的局部梯度特征,作為條件隨機(jī)場(chǎng)模型的輸入變量,進(jìn)行模型訓(xùn)練,設(shè)計(jì)實(shí)驗(yàn)對(duì)算法的有效性進(jìn)行驗(yàn)證。

    1 基于深度圖的特征提取

    采用Kinect 傳感器進(jìn)行圖像采集,結(jié)構(gòu)圖如圖1 所示,深度采集范圍為0.8~4 m,輸出RGB 圖像幀率為30,深度圖分辨率為640×480。算法能夠在幀率為30 的圖像采集速度下實(shí)現(xiàn)實(shí)時(shí)處理。

    圖1 Kinect 傳感器Fig 1 Kinect sensor

    利用深度圖檢測(cè)人體與Kinect 之間的距離,得到人體在三維空間中的坐標(biāo)值,從而確定人體空間區(qū)域的初始位置,再由Kinect 獲取的深度圖計(jì)算出人體目標(biāo)的深度直方圖,由深度直方圖選取閾值去除背景和圖像噪聲,閾值的選取與人體要有一定距離才能完整提取人體目標(biāo)信息。圖2和圖3 分別為獲得的RGB 圖和Depth 圖。對(duì)深度圖的定量分析采用方向梯度直方圖(HOG)方法。設(shè)深度圖為I,像素為x,dI(x)是x 點(diǎn)處的深度值。設(shè)集合D 為方向集

    圖2 彩色圖Fig 2 RGB image

    圖3 深度圖Fig 3 Depth image

    Kd=(k1,k2)代表以x 為起點(diǎn)沿d 方向的偏移向量,滿足

    任取2 個(gè)偏移向量,組成向量對(duì)θ=(kU,kV),共有28 對(duì),對(duì)每個(gè)θ 局域梯度特征計(jì)算如下

    fθ(I,x)反映了像素x 周圍的梯度信息,具有空間不變性,當(dāng)人體在場(chǎng)景中自由移動(dòng)時(shí),其表面上的點(diǎn)特征數(shù)值是不變的。圖4 為像素點(diǎn)八鄰域的空間關(guān)系圖,中心像素指向周圍8 個(gè)像素,形成8 個(gè)方向,用公式(1)計(jì)算每個(gè)像素28 個(gè)向量對(duì)的局部梯度值fθ(I,x)。

    圖4 特征提取圖Fig 4 Feature extraction image

    2 CRF 模型識(shí)別人體動(dòng)作

    CRF 模型是概率圖模型中的一種無(wú)向圖模型,它是在給定需要標(biāo)記的觀察序列的條件下,計(jì)算整個(gè)標(biāo)記序列的聯(lián)合概率分布。假設(shè)G=(V,E)表示一個(gè)無(wú)向圖,隨機(jī)變量Y=(yv)v∈V,Y 中元素與無(wú)向圖G 的頂點(diǎn)一一對(duì)應(yīng)。如果G為一階鏈?zhǔn)浇Y(jié)構(gòu),有G{V={1,2,…,n},E={(i,i+1)},對(duì)應(yīng)人體行為識(shí)別問(wèn)題可抽象為線性鏈條件隨機(jī)場(chǎng)模型,對(duì)一段n 幀圖像行為視頻,可抽象為觀察序列X=(x1,x2,…,xn),行為標(biāo)記序列為Y=(y1,y2,…,yn),如圖5 所示。

    圖5 線性鏈CRF 結(jié)構(gòu)圖Fig 5 Linear linked CRF structure graph

    其對(duì)應(yīng)的行為標(biāo)記為Y=(y1,y2,…,yn)的概率為

    式中 Z(X)為相對(duì)于每個(gè)觀察序列X 的歸一化因子;fi(yt-1,yt,X,t)為二值表征函數(shù),對(duì)狀態(tài)轉(zhuǎn)移yt-1→yt,衡量觀察序列X 中第t 個(gè)位置是特征。用最大似然估計(jì)法計(jì)算λ,求其對(duì)數(shù)似然函數(shù)的一階導(dǎo)數(shù)得到

    3 實(shí)驗(yàn)分析

    由于目前還沒(méi)有基于Kinect 的標(biāo)準(zhǔn)數(shù)據(jù)庫(kù)做基準(zhǔn)數(shù)據(jù),因此,自制了行為數(shù)據(jù)庫(kù)。因?yàn)镵inect 視角場(chǎng)的范圍限制,該視頻是在室內(nèi)場(chǎng)景錄制的,數(shù)據(jù)庫(kù)包含5 名實(shí)驗(yàn)人員分別錄制一個(gè)動(dòng)作。動(dòng)作被分類為:“stand”,“sit”,“walk”,“jump”,“bend”這幾種常見(jiàn)行為??偣蹭浿? 000 張左右的樣本圖片作為訓(xùn)練樣本。訓(xùn)練前,每段視頻進(jìn)行特征數(shù)據(jù)提取,每10 個(gè)連續(xù)幀作為一個(gè)數(shù)據(jù)序列,隨機(jī)抽取3000 張訓(xùn)練;剩下2000 張用于測(cè)試 經(jīng)過(guò)多次實(shí)驗(yàn)后,用平均識(shí)別準(zhǔn)確率度量算法性能表1 給出了行為識(shí)別模型的識(shí)別結(jié)果。其中列表示實(shí)際行為,行表示推斷的結(jié)果,表中計(jì)算數(shù)據(jù)表示平均識(shí)別率。

    表1 實(shí)驗(yàn)結(jié)果Tab 1 Experimental result

    用本文的方法再對(duì)當(dāng)前流行的行為數(shù)據(jù)庫(kù)Weizzman和KTH 分別計(jì)算,得到的結(jié)果與本實(shí)驗(yàn)結(jié)果做實(shí)驗(yàn)對(duì)比,見(jiàn)表2。由表2 看出:使用Kinect 錄制的數(shù)據(jù)庫(kù)與其他數(shù)據(jù)庫(kù)相比是可靠的,實(shí)驗(yàn)環(huán)境是在室內(nèi),但拍攝背景要比其他數(shù)據(jù)庫(kù)復(fù)雜,所得的平均識(shí)別率也相對(duì)較高。

    表2 條件隨機(jī)場(chǎng)模型在不同行為數(shù)據(jù)庫(kù)下的識(shí)別結(jié)果Tab 2 Recognition result of CRF in different behavior database

    文獻(xiàn)[13]采用HMM 對(duì)Kinect 的行為視頻數(shù)據(jù)進(jìn)行分析,與文獻(xiàn)[13]的實(shí)驗(yàn)結(jié)果做對(duì)比,表3 給出了HMM 和CRF 模型下的平均識(shí)別率,對(duì)比實(shí)驗(yàn)結(jié)果表明:對(duì)序列數(shù)據(jù)的分類問(wèn)題,CRF 模型優(yōu)于HMM。

    表3 實(shí)驗(yàn)結(jié)果對(duì)比Fig 3 Comparison of experimental result

    4 結(jié)束語(yǔ)

    本文分析了人體行為在時(shí)間上的運(yùn)動(dòng)序列性質(zhì),在深度圖像上使用局部方向梯度描述行為特征,建立了人體行為識(shí)別的條件隨機(jī)場(chǎng)模型,在自制Kinect 視頻數(shù)據(jù)庫(kù)上對(duì)幾個(gè)簡(jiǎn)單動(dòng)作識(shí)別,與Weizzman 和KTH 視頻庫(kù)相比,自制的數(shù)據(jù)庫(kù)背景更加復(fù)雜,實(shí)驗(yàn)對(duì)比結(jié)果表明了使用深度圖進(jìn)行特征提取更容易處理復(fù)雜背景,也可達(dá)到同樣的處理效果,從而實(shí)現(xiàn)準(zhǔn)確的人體行為識(shí)別,具有一定的實(shí)用價(jià)值。

    [1] Laptev.On space-time interest points[J].International Journal of Computer Vision,2005,64(2/3):107-123.

    [2] Dalal N,Triggs B.Histograms of oriented gradients for human detection[C]∥Proc of the IEEE Conf on CVPR,San Diego:IEEE Press,2005:886-893.

    [3] Brand M,Oliver N,Pentland A.Coupled hidden Makov models for complex action recognition[C]∥Proc of the IEEE Conf on CVPR,San Juan:IEEE Press,1997:994-999.

    [4] Weinland D,Boyer E,Ronfard R.Action recognition from arbitrary views using 3D exemplars[C]∥Proc of the 11th IEEE Int’l Conf on CV,Rio de Janeiro:IEEE Press,2007:1-7.

    [5] Martine F,Orrite C,Herrero E,et al.Recognizing human actions using silhouette-based hmm[C]∥Proc of the 6th IEEE Int’l Conf on AVSS,Genova:IEEE Press,2009:43-48.

    [6] Lan T,Wang Y,Yang W,et al.Beyond actions:Discriminative models for contextual group activities[C]∥Proc of Advances in Neural Information Processing Systems Conference,2010:23.

    [7] Siminchisescu C,Kanaujia A,Metaxas D.Conditional models for contextual human motion recognition[C]∥Proc of the 10th IEEE Int’l Conf on CV,Beijing:IEEE Press,2005:210-220.

    [8] Kumar S,Hebert M.Discriminative random fields:A discriminative framework for contextual interaction in classification[C]∥Proc of the 9th IEEE Int’l Conf on CV,Nice:IEEE Press,2003:1150-1157.

    [9] Torralba A,Murphy K,F(xiàn)reeman W.Contextual models for object detection using boosted random fields[C]∥Proc of Advances in Neural Information Processing Systems Conference,2004:17.

    [10]Lu X,Chen C,Aggarwal,et al.Human detection using depth information by Kinect[C]∥Proc of the IEEE Conf on CVPR,Colorado:IEEE Press,2011:15-22.

    [11]Abhishek K.Skeletal tracking using microsoft Kinect[J].Methodology,2010,4(3):1-11.

    [12]Shotton J,F(xiàn)itzgibbon A,Cook M,et.al.Real-time human pose recognition in parts from single depth images[C]∥Proc of the IEEE Conf on CVPR,Providence:IEEE Press,2011:129-1304.

    [13]Zhao C Y,Zhang X L.Human behavior analysis system based on Kinect[J].JBICT,2012,3(12):189-195.

    猜你喜歡
    深度圖像素人體
    趙運(yùn)哲作品
    藝術(shù)家(2023年8期)2023-11-02 02:05:28
    像素前線之“幻影”2000
    人體“修補(bǔ)匠”
    人體冷知識(shí)(一)
    排便順暢,人體無(wú)毒一身輕
    “像素”仙人掌
    基于深度圖的3D-HEVC魯棒視頻水印算法
    奇妙的人體止咳點(diǎn)
    特別健康(2018年3期)2018-07-04 00:40:10
    一種基于局部直方圖匹配的深度編碼濾波算法
    疊加速度譜在鉆孔稀少地區(qū)資料解釋中的應(yīng)用
    科技視界(2016年2期)2016-03-30 11:17:03
    拜泉县| 定陶县| 镇赉县| 岳阳市| 祁连县| 若尔盖县| 江门市| 揭东县| 吉首市| 佳木斯市| 成安县| 洛宁县| 青州市| 鹿泉市| 中山市| 古交市| 灯塔市| 洪江市| 满洲里市| 勐海县| 吉隆县| 贵定县| 敦煌市| 江孜县| 黄陵县| 万安县| 柳河县| 高雄县| 贵定县| 浦县| 贺兰县| 黎平县| 开远市| 辽宁省| 宁南县| 霍山县| 武义县| 德昌县| 察隅县| 临西县| 泗洪县|