• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      行人檢測(cè)技術(shù)研究綜述

      2014-09-18 07:10:56張春鳳宋加濤王萬良
      電視技術(shù) 2014年3期
      關(guān)鍵詞:行人分類器人體

      張春鳳,宋加濤,王萬良

      (1.浙江工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,浙江杭州 310023;2.寧波工程學(xué)院電子與信息工程學(xué)院,浙江寧波 315016)

      1 行人檢測(cè)方法分類

      行人檢測(cè)即判斷輸入的圖像或視頻序列中是否出現(xiàn)行人,并確定其位置,該技術(shù)可廣泛應(yīng)用于智能交通中的車輛輔助駕駛系統(tǒng)[1-6]、人體行為分析[7-10]、機(jī)器人開發(fā)[11]、視頻監(jiān)控[12-14]等領(lǐng)域。由于人體姿態(tài)各異,衣著變化多樣,場(chǎng)景中經(jīng)常存在光照變化、氣候變化以及景物遮擋等因素,行人檢測(cè)業(yè)已成為計(jì)算機(jī)視覺領(lǐng)域中一個(gè)既具有研究?jī)r(jià)值、同時(shí)又極具挑戰(zhàn)性的熱門課題。目前國(guó)內(nèi)外已有很多關(guān)于行人檢測(cè)的報(bào)道[3-5,9]。本文從現(xiàn)有各種行人檢測(cè)方法所采用的行人描述特征著手,將現(xiàn)有方法分為基于全局特征的方法、基于人體部件特征的方法和基于立體視覺特征的方法三大類(如圖1所示),分別對(duì)其中較具代表性的方法進(jìn)行評(píng)述,同時(shí)介紹目前常用的行人數(shù)據(jù)庫的特點(diǎn),最后分析了行人檢測(cè)技術(shù)中存在的難題并對(duì)未來的發(fā)展做出展望。

      2 現(xiàn)有行人檢測(cè)方法

      2.1 基于全局特征的方法

      圖1 行人檢測(cè)方法分類

      該類方法是目前較為主流的行人檢測(cè)方法,主要采用邊緣特征、形狀特征、統(tǒng)計(jì)特征或者變換特征等圖像的各類靜態(tài)特征來描述行人,其中代表性的特征包括Haar小波特征、HOG特征、Edgelet特征、Shapelet特征和形狀輪廓模板特征等。近年來許多研究者也逐漸將行人的運(yùn)動(dòng)信息應(yīng)用于行人檢測(cè),取得了較好的效果。

      2.1.1 基于Haar小波特征的方法

      Papageorgiou和Poggio[15]最早提出Harr小波的概念;Viola等引進(jìn)了積分圖的概念[16],加快了Harr特征的提取速度,并將該方法應(yīng)用于行人檢測(cè)[17-18],結(jié)合人體的運(yùn)動(dòng)和外觀模式構(gòu)建行人檢測(cè)系統(tǒng),取得了較好的檢測(cè)效果,為行人檢測(cè)技術(shù)的發(fā)展奠定了基礎(chǔ)。此后,大量采用Haar小波特征的改進(jìn)行人檢測(cè)方法被提出[19-21]。

      2.1.2 基于HOG特征的方法

      Dalal和 Triggs[22]在 2005年提出梯度方向直方圖(Histogram of Oriented Gradients,HOG)的概念,并將其用于行人檢測(cè),在MIT行人數(shù)據(jù)庫[15]上獲得近乎100%的檢測(cè)成功率;在包含視角、光照和背景等變化的INRIA行人數(shù)據(jù)庫[22]上,也取得了大約90%的檢測(cè)成功率。HOG是目前使用最為廣泛的行人特征描述子。Zhu等人[23]提出積分直方圖的概念,加速了HOG特征的計(jì)算,并通過計(jì)算多尺度HOG特征,結(jié)合Adaboost算法構(gòu)建級(jí)聯(lián)分類器,建立了一個(gè)快速的行人檢測(cè)系統(tǒng);Qu等人[24]提出無背景情況下的HOG特征的概念,既消除了通常情況下背景因素對(duì)目標(biāo)HOG特征的影響,又加速了HOG特征提取的速度,實(shí)驗(yàn)表明該方法在處理視頻中的行人檢測(cè)時(shí),效果好于基于傳統(tǒng)HOG特征的方法;Wang等人[25]將HOG特征與局部二值模式(Local Binary Pattern,LBP)相結(jié)合,用于存在部分遮擋情況下的行人檢測(cè),使用線性支持向量機(jī)(Linear Support Vector Machine,SVM)作為分類器,在INRIA行人庫上取得了97%的檢測(cè)率,但是它的高運(yùn)算復(fù)雜度也限制了實(shí)時(shí)應(yīng)用。

      2.1.3 基于edgelet特征的方法

      B.Wu等人[26]提出了“小邊”(Edgelet)特征的概念,即一些短的直線或者曲線片段,如圖2b所示,并將其應(yīng)用于復(fù)雜場(chǎng)景的單幅圖像的行人檢測(cè),在CAVIAR數(shù)據(jù)庫上取得了大約92%的檢測(cè)率。文獻(xiàn)[27]將Edgelet特征用來對(duì)已知類別的物體進(jìn)行檢測(cè)和分割,取得了較好的效果。Edgelet特征的優(yōu)點(diǎn)是:1)受光照影響較小;2)利用邊緣的強(qiáng)度和方向信息能夠較有效地剔除背景中與Edgelet在形狀上相似的邊緣;3)只需存儲(chǔ)片段的位置和方向信息,故所需存儲(chǔ)空間較小,匹配計(jì)算也較簡(jiǎn)單;4)對(duì)行人存在遮擋以及視角、姿態(tài)的變化更不敏感。缺點(diǎn)是由于每個(gè)Edgelet特征需要手動(dòng)標(biāo)定,所以比較耗時(shí)費(fèi)力,而且對(duì)于一些本身較復(fù)雜的曲線,很難通過手工標(biāo)定的方法來得到完全符合人體曲線的“小邊”特征。

      圖2 人的頭肩、軀干和腿部的Shapelet和Edgelet特征

      2.1.4 基于Shapelet特征的方法

      針對(duì)上述 Edgelet特征存在的缺點(diǎn),Sabzmeydani[28]在2007年提出了一種可以利用機(jī)器學(xué)習(xí)的方法自動(dòng)得到的特征,即Shapelet特征。該算法首先從訓(xùn)練樣本提取圖片不同方向的梯度信息,然后利用AdaBoost算法進(jìn)行訓(xùn)練,從而得到Shapelet特征。

      圖2給出了人的頭肩、軀干和腿部的Shapelet特征和Edgelet特征。從中可以看出,Shapelet特征與人體曲線更符合,能夠更好地描述人體特征。文獻(xiàn)[28]基于Shapelet特征在INRIA數(shù)據(jù)集上取得了90%的行人檢測(cè)成功率,而誤報(bào)率只有 FPPW=0.01%。Yao等[29]利用 Shapelet特征訓(xùn)練得到一個(gè)全身檢測(cè)器,該算法優(yōu)于基于Haarlike特征的部分檢測(cè)器;他們進(jìn)一步將上述兩種檢測(cè)器相結(jié)合構(gòu)成一個(gè)行人檢測(cè)系統(tǒng),在INRIA數(shù)據(jù)集上取得了95%的行人檢測(cè)率,檢測(cè)效果優(yōu)于單獨(dú)使用其中任何一個(gè)檢測(cè)器的情況。

      2.1.5 基于輪廓模板的方法

      該方法是指利用圖像中目標(biāo)物體的邊緣輪廓、紋理和灰度等信息構(gòu)建模板,通過模板匹配的方法檢測(cè)目標(biāo)。Gavrila等[30]較早提出了基于人體邊緣輪廓的模板識(shí)別方法用以檢測(cè)行人;文獻(xiàn)[31]在此基礎(chǔ)上將人體的形狀特征與邊緣信息相結(jié)合來更好地表示人體外觀?;谛螤钶喞臋z測(cè)方法簡(jiǎn)單易行,由于它只在原始圖像數(shù)據(jù)上進(jìn)行運(yùn)算,不需要對(duì)圖像進(jìn)行分割和特征提取處理,從而保留了圖像的全部信息。缺點(diǎn)是由于行人姿態(tài)各異,故需要構(gòu)建大量的形狀模板才能取得較好的匹配效果,而且可能出現(xiàn)分類錯(cuò)誤。

      2.1.6 基于運(yùn)動(dòng)特征的方法

      近年來一些學(xué)者嘗試將目標(biāo)的運(yùn)動(dòng)信息加入到行人檢測(cè)系統(tǒng)中[32-34],并與其他靜態(tài)特征相結(jié)合用于檢測(cè)行人。其中較具代表性的算法包括:1)Viola等人[18]針對(duì)攝像機(jī)靜止的情況提出在不同圖像上計(jì)算Haar-like特征,然后將運(yùn)動(dòng)信息與圖像的灰度信息相結(jié)合構(gòu)建行人檢測(cè)系統(tǒng)。該方法檢測(cè)速度為4 f/s(幀/秒),誤檢率較低,而且適用于雨雪天氣等惡劣氣候條件下低分辨率場(chǎng)景的行人檢測(cè),但對(duì)于行人被遮擋的情況檢測(cè)效果較差;2)Dalal等[35]針對(duì)攝像機(jī)運(yùn)動(dòng)的情況,提出將基于外觀的梯度描述子和基于運(yùn)動(dòng)的差分光流描述子相結(jié)合來構(gòu)建行人檢測(cè)器,但該方法只對(duì)單個(gè)窗口的檢測(cè)比較有效,對(duì)于整幅圖像檢測(cè)效果則很差。文獻(xiàn)[19]對(duì)所采用的運(yùn)動(dòng)特征進(jìn)行了適當(dāng)?shù)男薷?,解決了這一難題。

      2.2 基于人體部件的方法

      該類方法的基本思想是把人體分成幾個(gè)組成部分,然后對(duì)圖像中每部分分別檢測(cè),最后將檢測(cè)結(jié)果按照一定的約束關(guān)系進(jìn)行整合,最終判斷是否存在行人。目前已有一些較有效的算法[36-39]。Mohan 等[40]將人體分為頭肩部、腿部以及左手臂和右手臂4個(gè)部分,然后使用Harr小波特征訓(xùn)練SVM檢測(cè)器。Mikolajczyk等[41]將人體分成正面的人臉/頭部、側(cè)面的人臉/頭部、正面和背面的頭肩部、側(cè)面的頭肩部以及腿部,然后對(duì)每個(gè)部分采用SIFT(Scale-Invariant Feature Transform)特征進(jìn)行描述,該方法在MIT行人庫上的檢測(cè)結(jié)果優(yōu)于文獻(xiàn)[42]所提出的方法。文獻(xiàn)[43]提出了一種基于部件的多線索混合專家框架,可處理部分遮擋情況下的行人分類。Vinay D.Shet等[44]提出了一種基于雙網(wǎng)格邏輯推理的行人檢測(cè)方法,將人體分為頭、上身和腿部三個(gè)部分,在USC數(shù)據(jù)庫[45]上獲得了92%左右的檢測(cè)成功率,對(duì)存在不同程度遮擋的行人檢測(cè)率也達(dá)到了90%以上。該類方法的優(yōu)點(diǎn)是:1)降低了人體某一部分被遮擋時(shí)對(duì)行人檢測(cè)結(jié)果的影響;2)對(duì)人體各部分分而治之的思想,降低了整體檢測(cè)的難度,而且各個(gè)部分之間的幾何約束關(guān)系也對(duì)最終檢測(cè)的精度有很大的幫助。

      2.3 基于立體視覺的方法

      該類方法是指通過2個(gè)或2個(gè)以上的攝像機(jī)進(jìn)行圖像采集,然后分析圖像中目標(biāo)的三維信息以識(shí)別出行人[46-48]。文獻(xiàn)[21]利用三維信息估計(jì)路面參數(shù)用來篩選出感興趣區(qū)域(ROI),并利于這些信息對(duì)所獲得區(qū)域進(jìn)行分類,構(gòu)建了一個(gè)檢測(cè)率較高的行人檢測(cè)系統(tǒng)。文獻(xiàn)[49]提出對(duì)左右視角的多個(gè)圖像進(jìn)行ROI提取,并將其用于模式分類,降低了目標(biāo)檢測(cè)的誤報(bào)率。文獻(xiàn)[50]利用車載立體攝像機(jī),將圖像亮度信息和三維密集立體信息相結(jié)合,構(gòu)建了一個(gè)直立行人檢測(cè)系統(tǒng)。該類方法的優(yōu)點(diǎn)是充分利用場(chǎng)景中目標(biāo)圖像的深度信息進(jìn)行行人區(qū)域的分割,速度較快。

      3 行人數(shù)據(jù)庫

      到目前為止,行人檢測(cè)研究除提出了大量的行人檢測(cè)方法外,另一個(gè)成果是收集了多個(gè)行人數(shù)據(jù)庫以供不同方法進(jìn)行測(cè)試和比較。表1列出了目前常用的行人數(shù)據(jù)庫,下面對(duì)每個(gè)數(shù)據(jù)庫的特點(diǎn)做簡(jiǎn)要說明。

      1)MIT行人數(shù)據(jù)庫[15]是較早公開的行人數(shù)據(jù)庫,該庫包含正面和背面兩個(gè)視角的彩色行人圖像,數(shù)據(jù)庫未劃分訓(xùn)練集和測(cè)試集,且不包含負(fù)樣本。該庫在2005年以前使用較多,因圖像背景簡(jiǎn)單,目前較少被人使用。

      表1 行人數(shù)據(jù)庫信息

      2)INRIA行人數(shù)據(jù)庫[22]是目前使用較多的靜態(tài)行人數(shù)據(jù)庫,包含訓(xùn)練集和測(cè)試集,且均包含正樣本和負(fù)樣本。該庫行人所處背景復(fù)雜,人的姿態(tài)也較多,而且含有光照等環(huán)境因素的變化,更加符合實(shí)際場(chǎng)景。

      3)Daimer行人數(shù)據(jù)庫的圖像來源于車載攝像機(jī),分為檢測(cè)數(shù)據(jù)集(Classification Benchmark)[10,43]和分類數(shù)據(jù)集(Detection Benchmark)[46],圖片均是灰度圖像。每個(gè)數(shù)據(jù)集均由訓(xùn)練集和測(cè)試集組成。測(cè)試集是一段大約27 min的視頻,其中包含完整的以及被部分遮擋的行人。數(shù)據(jù)庫中還包含3個(gè)輔助的非行人圖像的數(shù)據(jù)集,即這3個(gè)附加庫只包含負(fù)樣本。該庫中大量的正樣本由較少的正樣本經(jīng)過移位和鏡像生成,所以訓(xùn)練分類器時(shí)重要特征會(huì)出現(xiàn)在相鄰的多個(gè)位置上,從而產(chǎn)生模糊效應(yīng),分類效果不佳。

      4)Caltech行人數(shù)據(jù)庫[4]是目前規(guī)模較大的行人數(shù)據(jù)庫,庫中的圖像來源于車載攝像機(jī),與現(xiàn)實(shí)生活中圖像的實(shí)際遮擋頻率一致,其中包含質(zhì)量不太好的圖像。數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集,但測(cè)試集的標(biāo)注信息尚未公開。該數(shù)據(jù)庫為評(píng)估已有的行人檢測(cè)器的性能提供了一個(gè)較好的平臺(tái)。

      5)TUD行人數(shù)據(jù)庫[19]提供圖像對(duì)以便計(jì)算光流信息,該數(shù)據(jù)庫主要用于評(píng)估運(yùn)動(dòng)信息在行人檢測(cè)中的作用,常用于行人檢測(cè)及跟蹤研究中。

      6)NICTA行人數(shù)據(jù)庫[51]是目前規(guī)模較大的靜態(tài)圖像行人數(shù)據(jù)庫,包含25 551張單人的圖像和5 207張高分辨率非行人圖像,但不包含運(yùn)動(dòng)信息,已經(jīng)劃分好訓(xùn)練集和測(cè)試集。

      7)ETH行人數(shù)據(jù)庫[44]是基于雙目視覺的行人數(shù)據(jù)庫,采用一對(duì)車載攝像頭拍攝獲得,給出了標(biāo)定信息和行人標(biāo)注信息,同時(shí)采用置信度傳播方法獲取深度信息。該數(shù)據(jù)庫主要用于多個(gè)行人的檢測(cè)與跟蹤研究。

      8)CVC行人數(shù)據(jù)庫目前包含3個(gè)數(shù)據(jù)集:CVC-01[52],CVC-02[53]和 CVC-Virtual[54]。其中,CVC-02 包含3個(gè)子數(shù)據(jù)集,分別針對(duì)行人檢測(cè)的3個(gè)不同任務(wù):感興趣區(qū)域的產(chǎn)生、分類和系統(tǒng)性能評(píng)估。CVC-Virtual是通過Half-Life 2圖像引擎產(chǎn)生的虛擬行人數(shù)據(jù)集以用于測(cè)試。該數(shù)據(jù)庫主要用于車輛輔助駕駛中的行人檢測(cè)研究。

      9)USC行人數(shù)據(jù)庫[45]的圖像大部分來源于監(jiān)控視頻,是一個(gè)比較小的行人數(shù)據(jù)庫,包含3組數(shù)據(jù)集:USCA,USC-B和USC-C。其中,USC-A 中包含正面或者背面拍攝的行人,行人之間無相互遮擋;USC-B中包含多個(gè)視角下且存在相互遮擋的行人;USC-C包含多視角下無相互遮擋的行人。該數(shù)據(jù)庫主要用于存在遮擋和多視角情況下的行人檢測(cè)研究。

      4 現(xiàn)存問題及研究展望

      行人檢測(cè)技術(shù)的研究盡管已經(jīng)取得了一些成果,但仍存在一些難題亟需解決,主要問題和未來的研究方向如下:

      1)行人高度問題。根據(jù)幾何知識(shí)可知,圖像中行人的高度與攝像機(jī)到行人之間的距離成反比,即兩者之間距離越遠(yuǎn)則圖像中行人高度越小[55]。研究表明[4]:當(dāng)圖像中行人高度為30~80像素時(shí),現(xiàn)有算法的行人檢測(cè)取得最佳效果。目前大多數(shù)的研究均集中在行人高度為100像素以上的情況,對(duì)于遠(yuǎn)距離(即小高度)的行人仍無法檢測(cè)。而在實(shí)際的車輛輔助駕駛系統(tǒng)應(yīng)用中,需要解決的是遠(yuǎn)距離的行人檢測(cè)問題,以便讓駕駛員有足夠的反應(yīng)時(shí)間來采取措施避免事故。

      2)復(fù)雜場(chǎng)景問題。包括場(chǎng)景中行人被車輛、景物或者其他行人遮擋的問題,光照變化造成的陰影問題,人體姿態(tài)變化問題以及人體穿著變化等問題,所有這些均對(duì)行人檢測(cè)結(jié)果有很大影響。

      3)分類器問題。目前,常用的分類器主要有SVM、AdaBoost和神經(jīng)網(wǎng)絡(luò)等。研究表明,使用單一分類器進(jìn)行檢測(cè)時(shí)誤報(bào)率高,檢測(cè)準(zhǔn)確率低,速度較慢,多場(chǎng)景適應(yīng)性差。采用串聯(lián)組合分類器的方法僅解決上述檢測(cè)速度慢的問題,而采用并聯(lián)組合分類器的方法僅能解決檢測(cè)率低和多場(chǎng)景適應(yīng)性差的問題[9]。所以研究出一種能夠全面協(xié)調(diào)解決上述問題的分類器組合方法,也是行人檢測(cè)技術(shù)發(fā)展面臨的一大難題。

      4)多特征融合問題。盡管目前人們提出了許多有效的行人描述特征,但大量研究表明,任何基于某一單獨(dú)特征的方法都很難獲得最佳的行人檢測(cè)效果,而將不同的特征相互結(jié)合起來使用檢測(cè)結(jié)果最優(yōu)[34-35]。但如何實(shí)現(xiàn)多特征的融合,使獲得較高檢測(cè)性能的同時(shí),又兼顧計(jì)算復(fù)雜度和檢測(cè)速度,也是未來研究的一個(gè)重要方向。

      :

      [1]GE Junfeng,LUO Yupin,TEI Gyomei.Real- time pedestrian detection and tracking at nighttime for driver - assistance systems[J].IEEE Trans.Intelligent Transportation Systems,2009,10(2):283-298.

      [2]TOMIUC C,NEDEVSCHI S,MEINECKE M M.Pedestrian detection and classification based on 2D and 3D information for driving assistance systems[C]//Proc.IEEE International Conference on Intelligent Computer Communication and Processing.Cluj-Napoca,Romanian:IEEE Press,2007:133-139.

      [3]賈慧星,章毓晉.車輛輔助駕駛系統(tǒng)中基于計(jì)算機(jī)視覺的行人檢測(cè)研究綜述[J].自動(dòng)化學(xué)報(bào),2007,33(1):84-90.

      [4]DOLLAR P,WOJEK C,SCHIELE B,et al.Pedestrian detection:an evaluation of the state of the art[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2011(9):1-20.

      [5]GERONIMO D,LOPEZ A M,SAPPA A D,et al.Survey of pedestrian detection for advanced driver assistance systems[J].IEEE Trans.Pattern A-nalysis and Machine Intelligence,2010,32(7):1239-1258.

      [6]BYUN K Y,KIM B S,KIM H K,et al.An effective pedestrian detection method for driver assistance system[C]//Proc.IEEE International Conference on Consumer Electronics.Las Vegas,USA:IEEE Press,2012:229-230.

      [7]AGGARWAL J K,RYOO M S.Human activity analysis:a review[J].ACM Computing Surveys,2011,43(3):1-47.

      [8]杜友田,陳峰,徐文立,等.基于視覺的人的運(yùn)動(dòng)識(shí)別綜述[J].電子學(xué)報(bào),2007,35(1):84-90.

      [9]許言午,曹先彬,喬紅.行人檢測(cè)系統(tǒng)研究新進(jìn)展及關(guān)鍵技術(shù)展望[J].電子學(xué)報(bào),2008,36(5):368-376.

      [10]KELLER C,ENZWEILER M,GAVRILA D M.A new benchmark for stereo-based pedestrian detection[C]//Proc.IEEE Intelligent Vehicles Symposium.Baden-Baden,Germany:IEEE Press,2011:691-696.

      [11]GERMA T,LERASLE F,OUADAH N,et al.Vision and RFID data fusion for tracking people in crowds by a mobile robot[J].Computer Vision and Image Understanding,2010,114(6):641-651.

      [12]PENTLAND A.Looking at people:sensing for ubiquitous and wearable computing[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2000,22(1):107-119.

      [13]ZHANG E,CHEN F.A fast and robust people counting method in video surveillance[C]//Proc.IEEE International Conference on Computa-tional Intelligence and Security.Harbin,China:IEEE Press,2007:339-343.

      [14]萬衛(wèi)兵,霍宏,趙宇明.智能視頻監(jiān)控中目標(biāo)的檢測(cè)與識(shí)別[M].上海:上海交通大學(xué)出版社,2010.

      [15]PAPAGEORGIOU C,POGGIO T.A trainable system for object detection[J].International Journal of Computer Vision,2000,38(1):15-33.

      [16]VIOLA P,JONES M J.Robust real-time face detection[J].International Journal of Computer Vision,2004,57(2):137-154.

      [17]VIOLA P,JONES M J,SNOW D.Detecting pedestrians using patterns of motion and appearance[J].International Journal of Computer Vision,2005,63(2):153-161.

      [18]VIOLA P,JONES M J,SNOW D,Detecting pedestrians using patterns of motion and appearance[C]//Proc.9th IEEE International Conference on Computer Vision.Nice,F(xiàn)rance:IEEE Press,2003:734-741.

      [19]WOJEK C,WALK S,SCHIELE B.Multi-cue onboard pedestrian detection[J].Computer Vision and Pattern Recognition.Miami,F(xiàn)L:[s.n.],2009:794-801.

      [20]GERONIMO D,LOPEZ A,PONSA D,et al.Haar wavelets and edge orientation histograms for on-board pedestrian detection[J].Pattern Recognition and Image Analysis Lecture Notes in Computer Science,2007,44(7):418-425.

      [21]XING W,ZHAO Y,CHENG R,et al.Fast pedestrian detection based on Haar pre-detection[J].International Journal of Computer and Communication Engineering,2012(3):207-209.

      [22]DALAL N,TRIGGS B.Histograms of oriented gradients for human detection[J].Computer Vision and Pattern Recognition,2005(1):886-893.

      [23]ZHU Q,AVIDAN S,YEH M C,et al.Fast Human detection using a cascade of histograms of oriented gradients[J].Computer Vision and Pattern Recognition,2006(2):1491-1498.

      [24]QU J,LIU Z.Non-background HOG for pedestrian video detection[C]//Proc.8th IEEE International Conference on Natural Computation.Chongqing,China:IEEE Press,2012:535-539.

      [25]WANG X,HAN T X,YAN S.An HOG-LBP human detector with partial occlusion handling[C]//Proc.2009 IEEE 12th International Conference on Computer Vision.Kyoto,Japan:IEEE Press,2009:32-39.

      [26]WU B,NEVATIA R.Detection of multiple,partially occluded humans in a single image by bayesian combination of edgelet part detectors[C]//Proc.10th IEEE International Conference on Computer Vision.Beijing,China:IEEE Press,2005:90-97.

      [27]WU B,NEVATIA R.Simultaneous object detection and segmentation by boosting local shape feature based classifier[C]//Proc.IEEE Conference on Computer Vision and Pattern Recognition,2007.Minneapolis,MN,USA:IEEE Press,2007:1-8.

      [28]SABZMEYDANI P,MORI G.Detecting pedestrians by learning shapelet features[C]//Proc.IEEE Conference on Computer Vision and Pattern Recognition,2007.Minneapolis,MN,USA:IEEE Press,2007:9-16.

      [29]YAO Wentao,DENG Zhidong.A robust pedestrian detection approach based on shapelet feature and Haar detector ensembles[J].Tsinghua Science and Technology,2012,17(1):40-50.

      [30]GAVRILA D M.A Bayesian exemplar-based approach to hierarchical shape matching[J].Pattern Analysis and Machine Intelligence,2007,29(8):1408-1421.

      [31]FARHADI M,MOTAMEDI S A,SHARIFIAN S.Efficient human detection based on parallel implementation of gradient and texture feature extraction methods[EB/OL].[2013-05-10].http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp= &arnumber=6121596&queryText%3DEfficient+human+detection+based+on+parallel+implementation+of+gradient+and+texture+feature+extraction+methods.

      [32]ESS A,LEIBE B,GOOL L.Depth and appearance for mobile scene analysis[C]//Proc.IEEE 11th International Conference on Computer Vision.Rio de Janeiro,Brazil:IEEE Press,2007:1-8.

      [33]GAVRILA D,MUNDER S.Multi-cue pedestrian detection and tracking from a moving vehicle[J].International Journal of Computer Vision,2007,73(1):41-59.

      [34]WALK S,SCHINDLER K,SCHIELE B.Disparity statistics for pedestrian detection:Combining appearance,motion and stereo[C]//Proc.11th European Conference on Computer Vision.Heraklion,Crete,Greece:IEEE Press,2010:182-195.

      [35]DALAL N,TRIGGS B,SCHMID C.Human detection using oriented histograms of flow and appearance[C]//Proc.9th European Conference on Computer Vision.Graz,Austria:IEEE Press,2006:428-441.

      [36]WANG Y,TRAN D,LIAO Z.Learning hierarchical poselets for human parsing[EB/OL].[2013-05-10].http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp= &arnumber=5995519&queryText%3DLearning+hierarchical+poselets+for+human+parsing.

      [37]BOURDEV L,MAJI S,BROX T,et al.Detecting people using mutually consistent poselet activations[C]//Proc.11th European Conference on Computer Vision.Heraklion,Crete,Greece:IEEE Press,2010:168-181.

      [38]BOURDEV L,MALIK J.Poselets:Body part detectors training using 3D human pose annotations[C]//Proc.IEEE 12th International Conference onComputerVision.Kyoto,Japan:IEEE Press,2009:1365-1372.

      [39]FELZENSZWALB P F,GIRSHICK R B,MCALLESTER D,et al.Object detection with discriminatively trained part based models[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2009,32(9):1627-1645.

      [40]MOHAN A,PAPAGEORGIOU C,POGGIO T.Example-based object detection in images by components[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2001,23(4):349-361.

      [41]MIKOLAJCZYK K,SCHMID C,ZISSERMAN A.Human detection based on a probabilistic assembly of robust part detectors[C]//Proc.8th European Conference on Computer Vision.Prague,Czech Republic:IEEE Press,2004:69-82.

      [42]LAMPERT C H,BLASCHKO M B,HOFMANN T.Beyond sliding windows:object localization by efficient subwindow search[EB/OL].[2013-05-10].http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=4587586.

      [43]ENZWEILER M,EIGENSTETTER A,SCHIELE B,et al.Multi-cue pedestrian classification with partial occlusion handling[EB/OL].[2013-05-10].http://ieeexplore.ieee.org/xpl/articleDetails.jsp?tp=&arnumber=5540111&queryText%3DMulti-cue+pedestrian+classification+with+partial+occlusion+handling.

      [44]SHET V D,NEUMANN J,RAMESH V,et al.Bilattice-based logical reasoning for human detection[C]//Proc.IEEE Conference on Computer Vision and Pattern Recognition,2007.Minneapolis,MN,USA:IEEE Press,2007:20-25.

      [45]WU B,NEVATIA R.Cluster boosted tree classifier for multi-view,multi-pose object detection[C]//Proc.IEEE 11th International Conference on Computer Vision.Rio de Janeiro,Brazil:IEEE Press,2007:1-8.

      [46]ENZWEILER M,GAVRILA D M.Monocular pedestrian detection:survey and experiments[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2009,31(12):2179-2195.

      [47]GAVRILA D M,MUNDER S.Multi-cue pedestrian detection and tracking from a moving vehicle[J].International Journal of Computer Vision,2007,73(1):41-59.

      [48]楊陽,楊靜寧.聯(lián)合特征在行人檢測(cè)中的應(yīng)用[J].中國(guó)圖象圖形學(xué)報(bào),2012,17(5):671-675.

      [49]HATTORI H,SEKI A,NISHIYAMA M,et al.Stereo-based pedestrian detection using multiple patterns[C]//Proc.British Machine Vision Conference.London,UK:IEEE Press,2009:1-10.

      [50]NEDEVSCHI S,BOTA S,TOMIUC C.Stereo-based pedestrian detection for collision-avoidance applications[J].Transactions on Intelligent Transportation Systems,2009,10(3):380-391.

      [51]OVERETT G,PETERSSON L,BREWER L,et al.A new pedestrian dataset for supervised learning[C]//Proc.2008 IEEE Intelligent Vehicles Symposium.Eindhoven,Holland:IEEE Press,2008:373-378.

      [52]GERONIMO D,SAPPA A D,LOPEZ A M,et al.Adaptive image sampling and windows classification for on-board pedestrian detection[C]//Proc.The 5th International Conference on Computer Vision Systems.Bielefeld,Germany:IEEE Press,2007.

      [53]GERONIMO D,SAPPA A D,PONSA D,et al.2D-3D based on-board pedestrian detection system[J].Computer Vision and Image Understanding(Special Issue on Intelligent Vision Systems),2010,114(5):583-595.

      [54]MARIN J,VAZQUEZ D,GERONIMO D,et al.Learning appearance in virtual scenarios for pedestrian detection[EB/OL].[2013-05-10].http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=5540218.

      [55]付洋,宋煥生,陳艷,等.一種基于視頻的道路行人檢測(cè)方法[J].電視技術(shù),2012,36(13):140-144.

      猜你喜歡
      行人分類器人體
      人體“修補(bǔ)匠”
      人體冷知識(shí)(一)
      排便順暢,人體無毒一身輕
      毒舌出沒,行人避讓
      意林(2021年5期)2021-04-18 12:21:17
      路不為尋找者而設(shè)
      奇妙的人體止咳點(diǎn)
      特別健康(2018年3期)2018-07-04 00:40:10
      BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
      我是行人
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
      嘉峪关市| 建水县| 涟水县| 广丰县| 体育| 内江市| 繁峙县| 永顺县| 富裕县| 吕梁市| 望江县| 武定县| 连州市| 东方市| 彩票| 凌源市| 三江| 天峻县| 四子王旗| 北票市| 荔浦县| 万源市| 宜兰县| 洮南市| 江陵县| 巴南区| 芦山县| 白水县| 米脂县| 左贡县| 兴文县| 海南省| 汝州市| 青岛市| 宜春市| 芜湖市| 迁安市| 汉阴县| 威远县| 高陵县| 蕲春县|