• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      深度分類網(wǎng)絡(luò)研究及其在智能視頻監(jiān)控系統(tǒng)中的應(yīng)用

      2015-04-11 10:04:42李曉飛
      電光與控制 2015年9期
      關(guān)鍵詞:人車正確率分類

      孫 寧, 陳 梁, 韓 光, 李曉飛

      (南京郵電大學(xué)寬帶無線通信技術(shù)教育部工程研究中心,南京 210003)

      0 引言

      智能視頻監(jiān)控系統(tǒng)(Intelligent Video Surveillance System,IVSS)利用智能視頻分析技術(shù)對監(jiān)控視頻中感興趣的內(nèi)容進(jìn)行感知、分析和理解,并根據(jù)分析結(jié)果協(xié)助監(jiān)控者實施相應(yīng)的控制手段,降低監(jiān)控者的工作強(qiáng)度,提高視頻監(jiān)控系統(tǒng)的智能化水平。其中,通過自動人車分類技術(shù)快速辨識目標(biāo)屬性,可為公安圖像偵察和交通狀態(tài)分析提供有力的技術(shù)支撐。

      在人車分類研究領(lǐng)域,文獻(xiàn)[1]提出一種基于多粒度感知SVM 的復(fù)雜場景人車分類方法,構(gòu)造2 級SVM 分類器,對目標(biāo)多粒度感知特征向量進(jìn)行分類,得到人車分類結(jié)果;文獻(xiàn)[2]設(shè)計了一種快速簡單的人車分類方法,首先提取目標(biāo)的邊緣信息,經(jīng)過Hough變換后得到目標(biāo)邊緣的長度、方向和分布等HouLR 特征,最終使用先驗的規(guī)則對HouLR 特征進(jìn)行判別;文獻(xiàn)[3 -4]中將目標(biāo)的運動特征與外觀特征相結(jié)合形成特征向量,利用SVM 分類器進(jìn)行目標(biāo)分類;此外,神經(jīng)網(wǎng)絡(luò)[5-7]方法也常常被用來作為分類器對提取的目標(biāo)特征進(jìn)行分類。

      自2006 年以來[8-9],深度學(xué)習(xí)理論開始成為機(jī)器學(xué)習(xí)和人工智能領(lǐng)域的研究熱點。深度學(xué)習(xí)架構(gòu)在面向大數(shù)據(jù)的自然語言處理和圖像分析處理等人工智能領(lǐng)域取得了巨大的成功[10-14],被《MIT Technology Review》雜志評為2013 年十大突破性技術(shù)之首[15]。本文立足于深度學(xué)習(xí)理論,將深度置信網(wǎng)絡(luò)(Deep Belief Networks,DBN)[9]與多種目標(biāo)表征方法相結(jié)合,構(gòu)建有效的深度分類網(wǎng)絡(luò)對智能視頻監(jiān)控系統(tǒng)中的典型目標(biāo),即行人、騎車人和車輛進(jìn)行區(qū)分。本文中嘗試了4 種目標(biāo)表征方法與DBN 的結(jié)合,包括原始灰度圖像、HOG 算子提取的特征直方圖、Canny 算子提取的邊緣圖像和PCA 處理后的本征向量。為了驗證上述多種組合后得到的深度分類網(wǎng)絡(luò)的有效性,構(gòu)建了稱為NUPTERC 的圖像數(shù)據(jù)庫,并詳細(xì)介紹了建庫方法和圖像屬性的命名規(guī)則。本文設(shè)計了多個實驗對不同組合得到的深度分類網(wǎng)絡(luò)的準(zhǔn)確性,計算復(fù)雜度等性能進(jìn)行了測試,發(fā)現(xiàn)使用Canny邊緣圖像與DBN 相結(jié)合構(gòu)成的深度分類網(wǎng)絡(luò)(表示為DBNCanny)具有最高的性能代價比。最后,將DBNCanny方法嵌入到智能視頻分析云平臺中,實現(xiàn)了對智能視頻監(jiān)控系統(tǒng)中典型目標(biāo)實時精確的分類功能。

      1 方法

      本文所述深度分類網(wǎng)絡(luò)的構(gòu)建思路是利用多種目標(biāo)表征方法作為深度置信網(wǎng)絡(luò)的可視層輸入,將淺層的目標(biāo)特征提取與多層神經(jīng)網(wǎng)絡(luò)的特征學(xué)習(xí)有機(jī)結(jié)合,對目標(biāo)圖像進(jìn)行多次的非線性變換,獲取目標(biāo)更復(fù)雜的特征描述。實現(xiàn)在實際監(jiān)控系統(tǒng)中觀察視角、目標(biāo)姿態(tài)、光照變化等因素具有很大差異的環(huán)境下進(jìn)行實時、準(zhǔn)確的典型目標(biāo)分類的功能。以下對深度分類網(wǎng)絡(luò)中的目標(biāo)表征與深度置信網(wǎng)絡(luò)這兩個主要組成部分進(jìn)行介紹。

      1.1 目標(biāo)表征

      對于圖像目標(biāo)分類處理而言,其首要步驟是進(jìn)行有效的目標(biāo)表征。本文選擇了4 種目標(biāo)表征方法,分別是原始灰度圖像、HOG 特征直方圖、Canny 邊緣圖像和本征特征向量:1)將原始灰度圖像作為可視層數(shù)據(jù),不進(jìn)行任何特征提取處理,保留了目標(biāo)圖像的所有冗余信息,將特征學(xué)習(xí)的任務(wù)完全交給DBN;2)采用HOG 這種局部圖像描述算子提取目標(biāo)的方向梯度直方圖特征,HOG 特征直方圖可以有效地表征局部圖像的外觀和形狀,能體現(xiàn)目標(biāo)的拓?fù)浣Y(jié)構(gòu);3)Canny 算子作為最常用的邊緣檢測工具,具有定位準(zhǔn)確、單邊響應(yīng)和信噪比高等優(yōu)點,使用Canny 邊緣圖像作為目標(biāo)表征是為了突出目標(biāo)整體邊緣信息在目標(biāo)分類中的作用;4)本征向量是利用PCA 找出方差最大的投影方向,將原始灰度圖像映射到主成分子空間而得到的。使用本征向量來進(jìn)行目標(biāo)表征的目的是為了在保留原有信息的前提下最大程度地降低可視層數(shù)據(jù)的維數(shù)。

      1.2 DBN[9]

      DBN 是目前研究和應(yīng)用最為廣泛的深度學(xué)習(xí)結(jié)構(gòu)之一,深度學(xué)習(xí)與傳統(tǒng)的淺層學(xué)習(xí)的最大區(qū)別在于:1)強(qiáng)調(diào)了網(wǎng)絡(luò)結(jié)構(gòu)的深度,網(wǎng)絡(luò)層數(shù)通常達(dá)到5 層以上;2)突出了特征學(xué)習(xí)的重要性,通過多個隱層的非線性變化,深度網(wǎng)絡(luò)擁有比淺層網(wǎng)絡(luò)更加優(yōu)異的特征表達(dá)能力。DBN 由多層受限波爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)組成,RBM 是一個兩層(可見層、隱藏層)神經(jīng)網(wǎng)絡(luò),層間全連接,層內(nèi)無連接。

      對于深度網(wǎng)絡(luò)的訓(xùn)練一直是神經(jīng)網(wǎng)絡(luò)研究領(lǐng)域的難點,傳統(tǒng)基于梯度下降法的全局訓(xùn)練方法對于深度網(wǎng)絡(luò)通常難以奏效,訓(xùn)練深層網(wǎng)絡(luò)引起的局部最優(yōu)點、梯度彌散等問題是目前全局訓(xùn)練方法很難克服的障礙。目前一種有效訓(xùn)練深度網(wǎng)絡(luò)的思路是將訓(xùn)練分為兩個步驟,首先逐層進(jìn)行預(yù)訓(xùn)練,得到深度網(wǎng)絡(luò)的權(quán)重;然后采用傳統(tǒng)的BP 算法等方法進(jìn)行全局的微調(diào),最終優(yōu)化整個深度網(wǎng)絡(luò)。限于篇幅,詳細(xì)訓(xùn)練步驟見文獻(xiàn)[9]。

      2 NUPTERC 圖像數(shù)據(jù)庫

      為了滿足本文深度分類網(wǎng)絡(luò)訓(xùn)練的需求,也為了為人車分類算法的研究提供一個良好的訓(xùn)練和測試資源,構(gòu)建了稱為NUPTERC 的目標(biāo)識別圖像數(shù)據(jù)庫。其來源包括3 個部分:1)通過智能視頻分析云平臺對某城市道路監(jiān)控視頻進(jìn)行自動檢測得到;2)來自著名的行人檢測benchmark(INRIA 庫[16],MIT 庫[17],Caltech 庫[18]);3)互聯(lián)網(wǎng)上搜集而來。目前,該庫中的目標(biāo)圖像數(shù)量已經(jīng)超過50000 張,并且仍在不斷增加。

      圖1 所示為圖像庫中的4 類典型目標(biāo)的樣本圖像,為了更有效地描述圖像的屬性及更便捷地管理圖像數(shù)據(jù)庫,采用了一種圖像文件與索引文件相對應(yīng)的建庫方式。庫中的圖像文件統(tǒng)一命名為以“NUPT”開頭加7 位十進(jìn)制數(shù)字,例如NUPT0000001.jpg。索引文件則記錄與圖像對應(yīng)的屬性,一個索引文件保存10000張圖像的屬性值,其文件名是“NUPTIDX”加3 位十進(jìn)制數(shù)字,例如NUPTIDX001.dat。

      圖1 NUPTERC 圖像庫中的樣本圖像,由上至下:行人、車輛、騎車人和其他Fig.1 Some image samples in the NUPTERC dataset,top to bottom:pedestrian,vehicle,biker and others

      3 實驗結(jié)果與分析

      本文中,設(shè)計了多種實驗對深度分類網(wǎng)絡(luò)的各方面性能進(jìn)行測試和分析,并與其他典型人車分類算法進(jìn)行比較。所有算法都是基于Matlab 平臺編寫,運行在配置為至強(qiáng)E7 4820 CPU 和32 GB 內(nèi)存的服務(wù)器上,實驗中算法訓(xùn)練所用到的數(shù)據(jù)庫采用2 節(jié)所述NUPTERC 圖像數(shù)據(jù)庫。實驗中訓(xùn)練的不同分類網(wǎng)絡(luò)名稱統(tǒng)一使用DBNNM來表示,其中,N 為層數(shù),M 為特征提取方法。

      3.1 不同組合下深度分類網(wǎng)絡(luò)的性能比較

      為了選取性能/代價比最高的深度分類網(wǎng)絡(luò),將2節(jié)所述的4 種目標(biāo)表征方法與不同深度的DBN 相結(jié)合構(gòu)成不同配置的深度分類網(wǎng)絡(luò),分別對其分類準(zhǔn)確率與計算開銷等性能進(jìn)行比較。首先,對實驗中的參數(shù)設(shè)置進(jìn)行說明。綜合考慮準(zhǔn)確性和實時性兩方面因素,設(shè)計了2 類14 種深度分類網(wǎng)絡(luò)分別對不同尺寸的輸入圖像進(jìn)行分類。

      1)如表1 所示,第一類深度分類網(wǎng)絡(luò)針對64 ×64的圖像,為6 層深度的DBN。其可視層首先是單獨的目標(biāo)表征方法,包括原始灰度圖、HOG 直方圖和Canny邊緣圖。其次,為了測試增加目標(biāo)表征的多樣性是否能提高分類性能,設(shè)計了灰度圖串聯(lián)HOG 直方圖和Canny 圖串聯(lián)HOG 直方圖兩種表征方式。第三,通過對上述兩種串聯(lián)后進(jìn)行PCA,使用100 維的主成分表征目標(biāo),測試降維處理對目標(biāo)分類性能的影響。

      2)如表2 所示,第二類深度分類網(wǎng)絡(luò)針對的是32×32圖像。由于圖像數(shù)據(jù)只有第一類中圖像的1/4,此處DBN 的層數(shù)減少為5 層。7 種目標(biāo)表征方式與第一類相同,只是數(shù)據(jù)維數(shù)相應(yīng)減少。該類實驗是為了測試深度分類網(wǎng)絡(luò)在目標(biāo)圖像尺寸降采樣后能達(dá)到的性能。

      表1 6 層深度分類網(wǎng)絡(luò)的實驗參數(shù)Table 1 Experimental parameters of 6-layer deep classification networks

      表2 5 層深度分類網(wǎng)絡(luò)的實驗參數(shù)Table 2 Experimental parameters of 5-layer deep classification networks

      實驗中所用訓(xùn)練和測試圖像皆由NUPTERC 數(shù)據(jù)庫中抽取,利用索引文件每一類圖像隨機(jī)選取5000張,其中4000 張用于訓(xùn)練,余下的1000 張用于測試。所以,每次實驗中訓(xùn)練圖像共有16000 張,測試圖像共有4000 張。按照上述原則,隨機(jī)抽取樣本圖像3 次,對每種深度分類網(wǎng)絡(luò)獲得的3 次正確率和測試耗時進(jìn)行平均作為最終結(jié)果。分類正確率如圖2 所示。

      通過對圖2a 中所示結(jié)果的分析可以看出:1)當(dāng)輸入圖像尺寸為64 ×64,深度分類網(wǎng)絡(luò)使用原始灰度圖像可以取得95%以上的正確率,證明基于DBN 的深度分類網(wǎng)絡(luò)具有良好的分類,可以有效對圖像中的目標(biāo)特征進(jìn)行學(xué)習(xí),對光照及目標(biāo)姿態(tài)、尺寸的變化所帶來的影響有較好的魯棒性。2)從第2 個到第5 個分類網(wǎng)絡(luò)結(jié)果可以看出,使用HOG 或是Canny 等特征提取處理后,能提高識別正確率。若將幾種目標(biāo)表征數(shù)據(jù)進(jìn)行串聯(lián),則能進(jìn)一步提高正確率,例如取得了98.52%的識別正確率。3)使用PCA 對各類目標(biāo)表征數(shù)據(jù)提取主成分后,識別正確率明顯降低,例如獲得了識別正確率為91.96%。說明進(jìn)行主成分降維后的特征數(shù)據(jù)損失了較多的判別信息,使得分類網(wǎng)絡(luò)性能下降。但是使用PCA 對圖像數(shù)據(jù)進(jìn)行降維處理對加速網(wǎng)絡(luò)的訓(xùn)練過程具有明顯的好處,下文中將有分析。

      通過對圖2b 中所示結(jié)果的分析可以看出:1)當(dāng)輸入圖像尺寸降采樣為32×32 后,7 種分類網(wǎng)絡(luò)的識別率都發(fā)生了下降,表明下采樣帶來的圖像信息的丟失對分類正確率有負(fù)面影響;2)和的正確率仍然達(dá)到了95.32%和94.26%,說明使用合適的目標(biāo)表征方法,即使在圖像信息較少的情況下也能取得不錯分類性能,這一點對分類算法的工程化應(yīng)用十分重要。

      圖2 不同組合下深度分類網(wǎng)絡(luò)的分類正確率Fig.2 Accuracy of deep classification networks with different parameters

      表3 所示為不同深度分類網(wǎng)絡(luò)進(jìn)行分類所需時間,耗時的計算從獲取原始灰度圖像開始到輸出分類結(jié)果為止,包括其中所有的特征提取處理。由表3 可以看出,6 層DBN 網(wǎng)絡(luò)對一張圖像進(jìn)行分類最快也需耗時188 ms,1 s 只能進(jìn)行5 個目標(biāo)的分類。與之相對,5 層DBN 網(wǎng)絡(luò)的分類速度顯著提高,幾乎提高了一個數(shù)量級,最快可以達(dá)到22 ms。綜合考慮分類正確率與耗時兩個因素,認(rèn)為DBN5Canny在只需27 ms 的條件下能達(dá)到94.26%的分類正確率,為實驗中14 類深度分類網(wǎng)絡(luò)中性能/開銷比最優(yōu)的,由此選擇該網(wǎng)絡(luò)作為道路典型目標(biāo)分類的實現(xiàn)算法嵌入到智能視頻分析云平臺中。

      表3 深度分類網(wǎng)絡(luò)進(jìn)行分類所需時間Table 3 Time consuming of different deep classification networks

      此外,綜合圖2 和表3 中所示結(jié)果,使用PCA 對目標(biāo)表征數(shù)據(jù)進(jìn)行主成分提取,并不能帶來分類正確率和分類時間方面的好處,但是這種組合方式的最大優(yōu)勢在于其大幅降低了深度網(wǎng)絡(luò)的訓(xùn)練時間,由于深度分類網(wǎng)絡(luò)的訓(xùn)練相當(dāng)耗時,例如使用16000 張圖像訓(xùn)練需耗時30 h 左右,而同樣條件下的訓(xùn)練時間則不到1 h。較短的訓(xùn)練時間對于今后實現(xiàn)深度分類網(wǎng)絡(luò)的在線學(xué)習(xí)和更新有著重要的意義。

      3.2 深度分類網(wǎng)絡(luò)與其他典型目標(biāo)分類算法的性能比較

      本文中將深度分類網(wǎng)絡(luò)與其他3 種典型目標(biāo)分類算法的性能進(jìn)行比較。3 種典型目標(biāo)分類方法分別是:1)基于外觀特征的方法(AF)[7],該方法使用圖像矩、長寬比、分散度與離散度等目標(biāo)外觀特征形成特征向量,使用傳統(tǒng)神經(jīng)網(wǎng)絡(luò)進(jìn)行分類;2)基于子空間的方法(SS)[19],該方法利用LDA 方法對4 類目標(biāo)進(jìn)行分類;3)基于稀疏編碼的方法(CS)[20],該方法使用K-SVD 進(jìn)行字典學(xué)習(xí),使用得到的字典替代原始數(shù)據(jù)集求解L1范數(shù)的優(yōu)化問題。

      實驗中,使用32 ×32 大小的圖像進(jìn)行測試,實驗的規(guī)則與3.1 節(jié)中相同,隨機(jī)3 次選擇16 000 張圖片作為訓(xùn)練,4000 張圖片作為測試。該實驗中使用性能/開銷比最優(yōu)的DBN5Canny作為本文所述深度分類網(wǎng)絡(luò)的代表與其他3 種典型人車分類方法進(jìn)行比較,獲得的分類正確率和分類耗時如表4 所示。從結(jié)果可以看出,AF 和SS 方法十分快速,但是分類正確率不太理想,分析可得其原因在于:1)AF 方法基于圖像中目標(biāo)的各種外觀特征,其中的特征對于面內(nèi)(in-plane)旋轉(zhuǎn)有較好的魯棒性,對于面外(out-plane)則比較敏感,因此AF 分類方法的準(zhǔn)確性相當(dāng)依賴目標(biāo)的姿態(tài),并且,32 ×32 的圖像尺寸較小,會損失不少細(xì)節(jié)信息;2)SS方法提取的是目標(biāo)圖像整體外觀的判別信息,目標(biāo)配準(zhǔn)和光照變化對該類方法有較大的影響;3)CS 方法取得了最高的分類準(zhǔn)確率,說明CS 方法對目標(biāo)的光照、姿態(tài)和尺寸的變換不敏感,對目標(biāo)的外觀變化有很強(qiáng)的魯棒性,但是,分類時CS 方法需對數(shù)據(jù)實施求解L1范數(shù)的優(yōu)化問題,所以耗時較大,很難適應(yīng)工程化的實時應(yīng)用。而本文中的DBN5Canny深度分類網(wǎng)絡(luò)則可以在滿足實時性的條件下,獲得令人滿意的分類正確率。

      表4 深度分類網(wǎng)絡(luò)與其他典型目標(biāo)分類方法的性能比較Table 4 Performance of deep classification networks and others methods

      4 人車分類算法在智能視頻監(jiān)控系統(tǒng)中的實現(xiàn)

      通過本文的實驗和分析,選擇DBN5Canny構(gòu)建人車分類算法并應(yīng)用于智能視頻分析云平臺中。與前敘的目標(biāo)檢測、目標(biāo)跟蹤等處理相結(jié)合可以實現(xiàn)對道路上的典型目標(biāo)實時、精確的統(tǒng)計和分類功能,如圖3 所示。

      圖3 智能視頻分析云平臺中的人車統(tǒng)計分類功能Fig.3 The function of Person/Vehicle classification in cloud platform of intelligent video analysis

      5 結(jié)束語

      本文深入研究了深度分類網(wǎng)絡(luò),其使用原始灰度值、HOG 特征直方圖、Canny 邊緣圖像和主成分特征向量等多種目標(biāo)表征方法DBN 相結(jié)合構(gòu)建而成。為了驗證上述多種組合后得到的深度分類網(wǎng)絡(luò)的有效性,構(gòu)建了稱為NUPTERC 的圖像數(shù)據(jù)庫,并詳細(xì)介紹了建庫方法和圖像屬性的命名規(guī)則。本文介紹了兩部分實驗:第一部分對上述2 類14 種深度分類網(wǎng)絡(luò)進(jìn)行了測試;第二部分是將深度分類網(wǎng)絡(luò)與典型的3 種人車分類方法進(jìn)行比較。實驗結(jié)果首先證明基于DBN 的深度分類網(wǎng)絡(luò)具有良好的分類,可以對圖像中的目標(biāo)特征進(jìn)行有效學(xué)習(xí),對光照及目標(biāo)姿態(tài)、尺寸的變化所帶來的影響有較好的魯棒性;其次,通過分析4 種目標(biāo)表征方法與DBN 相組合的優(yōu)缺點,確定DBN5Canny為性能/開銷比最佳的分類網(wǎng)絡(luò);第三,經(jīng)過與AF,SS,CS等方法在分類正確率和分類耗時的比較后,證明深度分類網(wǎng)絡(luò)在滿足實時性的條件下,可以獲得令人滿意的分類正確率;最后,將基于DBN5Canny的人車分類算法應(yīng)用于智能視頻分析云平臺中,實現(xiàn)了對道路上的典型目標(biāo)實時、精確的統(tǒng)計和分類功能。

      [1] 吳金勇,趙勇,王一科,等.基于多粒度感知SVM 的復(fù)雜場景人車分類方法[J]. 北京大學(xué)學(xué)報:自然科學(xué)版,2013,49(3):404-408. (WU J Y,ZHAO Y,WANG Y K,et al. Human and vehicle classification method for complex scene based on multi-granularity perception SVM[J]. Acta Scientiarum Naturalium Universitatis Pekinensis,2013,49(3):404-408.)

      [2] XU T,LIU H,QIAN Y L,et al.A novel method for people and vehicle classification based on Hough line feature[C]//Proceedings of International Conference on Information Science and Technology(ICIST),2011:240-245.

      [3] RIVLIN E,RUDZSKY M,GOLDENBERG R,et al.A real-time system for classification of moving objects[C]//Proceedings of 16th International Conference on Pattern Recognition,2002,3:688-691.

      [4] BOGOMOLOV Y,DROR G,LAPCHEV S,et al. Classification of moving targets based on motion and appearance[C]//Proceedings of British Machine Vision Conference(BMVC),2003,2:429-438.

      [5] TOYH D,ACH T.Detection and recognition of moving objects using statistical motion detection and Fourier descriptors[C]//Proceedings of 12th International Conference on Image Analysis and Processing,2003:430-435.

      [6] 岳昊,邵春福,趙熠.基于BP 神經(jīng)網(wǎng)絡(luò)的行人和自行車交通識別方法[J].北京交通大學(xué)學(xué)報,2008,32(3):46-49.(YUE H,SHAO C F,ZHAO Y.A study on person and cyclist recognition based on BP neural network[J].Journal of Beijing Jiaotong University,2008,32(3):46-49.)

      [7] 侯北平,朱文,馬連偉,等. 基于形狀特征的移動目標(biāo)實時分類研究[J].儀器儀表學(xué)報,2010,31(8):1819-1825.(HOU B P,ZHU W,MA L W,et al.Moving target classification based on shape features from real time video[J]. Chinese Journal of Scientific Instrument,2010,31(8):1819-1825.)

      [8] HINTON G,SALAKHUTDINOV R R.Reducing the dimensionality of data with neural networks[J]. Science,2006,313(5786):504-507.

      [9] HINTON G E,OSINDERO S,THE Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation,2006,18(7):1527-1554.

      [10] BENGIO Y,COURVILLE A,VINCENT P.Representation learning:a review and new perspective[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(8):1798-1828.

      [11] KRIZHEVSKY A,SUTSKEVER I,HINTON G.ImageNet classification with deep convolutional neural networks[C]//Proceedings of Neural Information and Processing Systems,2012:1097-1105.

      [12] FARABET C,COUPRIEC,NAJMAN L,et al.Learning hierarchical features for scene labeling[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(8):1915-1929.

      [13] BORDES A,GLOROT X,WESTON J,et al.Joint learning of words and meaning representations for open-text semantic parsing[C]//Proceedings of 15th International Conference on Artificial Intelligence and Statistics(AISTATS),2012:127-135.

      [14] SOCHER R,HUANG E H,PENNINGTON J,et al. Dynamic pooling and unfolding recursive autoencoders for paraphrase detection[C]//Proceedings of Neural Information and Processing Systems,2011:801-809.

      [15] 10 Breakthrough Technologies 2013[Z].MIT Technology Review,2013.

      [16] INRIA. INRIA Person Dataset[EB/OL]. (2005-01-01)[2014-01-01].http://pascal.inrialpes.fr/data/human/.

      [17] MIT.MIT Pedestrian Data[EB/OL].(2000-01-01)[2014-01-01]. http://cbcl. mit. edu/software-datasets/PedestrianData.html.

      [18] Caltech. Caltech Pedestrian Detection Benchmark[EB/OL].(2009-01-01)[2014-01-01].http://www.vision.caltech.edu/Image_Datasets/ CaltechPedestrians/.

      [19] BELHUMEUR P N,HESPANHA J P,KRIEGMAN D J.Eigenfaces vs fisherfaces:recognition using class specific linear projection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):711-720.

      [20] JIANG Z,LIN Z,DAVIS S.Label consistent K-SVD:learning a discriminative dictionary for recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(11):2651-2664.

      猜你喜歡
      人車正確率分類
      分類算一算
      門診分診服務(wù)態(tài)度與正確率對護(hù)患關(guān)系的影響
      “人車合一的體驗很奇妙”
      海峽姐妹(2020年8期)2020-08-25 09:30:30
      平巷人車連桿式自動連接裝置的設(shè)計應(yīng)用
      基于“人車互等”智能公交站臺的創(chuàng)新研究
      電子制作(2019年10期)2019-06-17 11:45:04
      分類討論求坐標(biāo)
      數(shù)據(jù)分析中的分類討論
      教你一招:數(shù)的分類
      生意
      品管圈活動在提高介入手術(shù)安全核查正確率中的應(yīng)用
      日喀则市| 左云县| 德保县| 兰西县| 白城市| 景谷| 伊川县| 樟树市| 石河子市| 三穗县| 扎囊县| 曲麻莱县| 遂溪县| 加查县| 陵川县| 南郑县| 平潭县| 永新县| 东乡| 乌拉特后旗| 长海县| 平定县| 高清| 尼木县| 巴南区| 绥阳县| 临泽县| 沂水县| 平湖市| 肃南| 太仓市| 辉县市| 林甸县| 宁武县| 上林县| 威海市| 鸡西市| 南昌市| 苏尼特左旗| 贵州省| 东方市|