• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于卷積神經(jīng)網(wǎng)絡(luò)及改進(jìn)支持向量機(jī)的行人檢測(cè)

      2020-01-14 06:03:38肖艷秋焦建強(qiáng)楊先超夏瓊佩
      關(guān)鍵詞:行人卷積向量

      肖艷秋 周 坤 焦建強(qiáng) 楊先超 夏瓊佩

      (鄭州輕工業(yè)大學(xué)機(jī)電工程學(xué)院 河南 鄭州 450002)

      0 引 言

      復(fù)雜道路場(chǎng)景下,自動(dòng)駕駛車(chē)輛通過(guò)車(chē)身裝載的視覺(jué)傳感器檢測(cè)路況信息,結(jié)合其他傳感器獲取的信息對(duì)駕駛行為進(jìn)行分析決策,完成自主駕駛過(guò)程。我國(guó)實(shí)際道路場(chǎng)景中,行人作為主要交通參與者,數(shù)量較為龐大,在實(shí)際道路下因行人發(fā)生交通事故的事例時(shí)有發(fā)生。因此,為提高駕駛安全性以及保障人的生命安全,自動(dòng)駕駛車(chē)輛在行駛過(guò)程中必需準(zhǔn)確及時(shí)地檢測(cè)出行人的位置及運(yùn)動(dòng)狀態(tài),提前進(jìn)行防撞預(yù)警。由于行人隨機(jī)分布以及動(dòng)態(tài)的特性,為檢測(cè)過(guò)程帶來(lái)許多困難。行人因其衣著、形狀不一使得在實(shí)際檢測(cè)過(guò)程中往往存在誤檢率高的問(wèn)題,再加上道路場(chǎng)景復(fù)雜、光照變化、遮擋以及圖像質(zhì)量差等因素的影響,嚴(yán)重制約了行人檢測(cè)的準(zhǔn)確性和實(shí)時(shí)性[1]。因此,在自動(dòng)駕駛復(fù)雜道路環(huán)境下,提高行人檢測(cè)的準(zhǔn)確性且保證檢測(cè)實(shí)時(shí)性尤為重要。

      早期的行人檢測(cè)器大多基于人工設(shè)計(jì)行人特征結(jié)合機(jī)器學(xué)習(xí)分類(lèi)器,代表性的有梯度方向直方圖(Histograms of oriented gradient, HOG)[2]方法、可變形部件模型(Deformable part models, DPM)[3]方法、聚合通道特征(Aggregation channel feature, ACF)[4]方法等,都有著較好的檢測(cè)性能,但因人工干預(yù)因素過(guò)多導(dǎo)致檢測(cè)速度與精度得不到較好的平衡且誤檢窗口較多。隨著深度學(xué)習(xí)的不斷發(fā)展,許多研究學(xué)者將深度學(xué)習(xí)方法應(yīng)用于計(jì)算機(jī)視覺(jué)并取得了非常好的效果。文獻(xiàn)[5]首先將基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(Regions with convolutional neural network, R-CNN)引入到目標(biāo)檢測(cè)中,相比早期的人工設(shè)計(jì)方法性能更加穩(wěn)定。為降低R-CNN候選區(qū)域提取過(guò)程中的計(jì)算消耗,文獻(xiàn)[6]在R-CNN的基礎(chǔ)上提出的Faster R-CNN,通過(guò)在網(wǎng)絡(luò)結(jié)構(gòu)中增加區(qū)域建議網(wǎng)絡(luò)完成候選區(qū)域的提取,檢測(cè)速度大幅提升。為提升檢測(cè)器端到端學(xué)習(xí)性能,單階段網(wǎng)絡(luò)方法SSD、YOLO等[7-8]相繼被提出且在行人檢測(cè)展現(xiàn)出優(yōu)秀的性能。雖然卷積特征在目標(biāo)檢測(cè)領(lǐng)域取得了較為豐碩的成果,但并不代表人工設(shè)計(jì)特征將被淘汰,許多研究學(xué)者致力于將人工特征與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,進(jìn)一步提高檢測(cè)器的性能。文獻(xiàn)[9]提出一種多卷積特征融合的行人檢測(cè)方法,將人工提取的HOG特征與深度卷積特征進(jìn)行融合,在復(fù)雜場(chǎng)景下取得了較好的檢測(cè)效果。文獻(xiàn)[10]將聚合通道特征與主成分分析網(wǎng)絡(luò)(PCANet)結(jié)合,通過(guò)構(gòu)建粗、精兩種檢測(cè)器對(duì)行人進(jìn)行級(jí)聯(lián)檢測(cè),解決了原始的ACF算法誤檢率高的問(wèn)題。

      基于R-CNN的行人檢測(cè)方法主要包括候選區(qū)域提取、卷積特征提取、支持向量機(jī)分類(lèi)器三個(gè)部分。本文在上述方法的基礎(chǔ)上,為降低復(fù)雜背景下的行人誤檢率,將人工設(shè)計(jì)特征與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)及改進(jìn)支持向量機(jī)的行人檢測(cè)方法。首先使用ACF方法代替R-CNN中的選擇性搜索,利用ACF方法檢測(cè)速度快的特點(diǎn)提取圖像候選區(qū)域以減少多余計(jì)算,并將該候選輸入至卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行深度特征提?。蝗缓髮?duì)卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行設(shè)計(jì),加深卷積網(wǎng)絡(luò)結(jié)構(gòu)以獲取精確特征,并利用主成分分析法對(duì)卷積神經(jīng)網(wǎng)絡(luò)輸出的特征向量進(jìn)行降維,減少冗余特征及計(jì)算成本;為進(jìn)一步增加支持向量機(jī)的分類(lèi)精度,針對(duì)高斯徑向基核函數(shù)支持向量機(jī)參數(shù)選取困難問(wèn)題,通過(guò)對(duì)蟻群算法的節(jié)點(diǎn)選擇方法及適應(yīng)度函數(shù)進(jìn)行改進(jìn),利用改進(jìn)的蟻群算法對(duì)其核函數(shù)參數(shù)進(jìn)行擇優(yōu),最終將精確特征向量送至優(yōu)化后的支持向量機(jī)進(jìn)行分類(lèi)識(shí)別并定位行人位置。

      1 方法設(shè)計(jì)

      為了提高行人的檢測(cè)速度和檢測(cè)準(zhǔn)確度,本文提出的行人檢測(cè)方法主要包括三個(gè)方面:基于聚合通道特征的目標(biāo)候選區(qū)域快速生成方法、基于深度卷積神經(jīng)網(wǎng)絡(luò)的精確特征提取方法以及基于改進(jìn)支持向量機(jī)的分類(lèi)方法:(1) 利用改進(jìn)的ACF算法快速計(jì)算圖像聚合通道特征金字塔;(2) 訓(xùn)練級(jí)聯(lián)Adaboost分類(lèi)器對(duì)每幅圖像提取出的候選區(qū)域進(jìn)行分類(lèi),并使用非極大值抑制算法(NMS)[11]過(guò)濾掉多余的候選區(qū)域;(3) 將候選區(qū)域集合輸入至卷積神經(jīng)網(wǎng)絡(luò)提取其深度特征;(4) 利用主成分分析法對(duì)深度特征進(jìn)行降維,得到精確的行人特征向量;(5) 利用蟻群算法優(yōu)化支持向量機(jī),并對(duì)行人特征進(jìn)行分類(lèi),輸出行人檢測(cè)結(jié)果。檢測(cè)流程如圖1所示。

      圖1 本文行人檢測(cè)流程

      1.1 基于改進(jìn)聚合通道特征候選區(qū)域選擇

      候選區(qū)域提取相當(dāng)于對(duì)圖像進(jìn)行粗檢測(cè),獲得目標(biāo)可能存在的區(qū)域,候選區(qū)域生成的速度及準(zhǔn)確度對(duì)檢測(cè)器的性能有著非常大的影響。常用的候選區(qū)域提取方法有邊緣框、選擇性搜索等[12-13],原始R-CNN檢測(cè)過(guò)程中使用選擇性搜索獲取圖像候選區(qū)域,但該方法速度過(guò)慢使得實(shí)時(shí)性得不到保證。因此,在復(fù)雜道路場(chǎng)景下,為了快速、有效地檢測(cè)到行人,本文使用基于聚合通道特征的目標(biāo)檢測(cè)方法作為候選區(qū)域提取方法,盡可能多地提取圖像中行人的候選區(qū)域。首先計(jì)算出圖像的聚合通道特征,為降低計(jì)算時(shí)間開(kāi)銷(xiāo),本文針對(duì)文獻(xiàn)[4]中的1個(gè)梯度幅值、6個(gè)方向的梯度直方圖和3個(gè)LUV顏色通道,利用平均池化構(gòu)建行人圖像的新的聚合通道特征。對(duì)大小為X×Y像素的圖像提取其10個(gè)特征通道,通過(guò)設(shè)置3×3的池化窗口遍歷整幅特征圖對(duì)其進(jìn)行滑窗操作,最后將池化得到的新聚合通道特征圖中的特征值進(jìn)行重新排列得到(X/3)×(Y/3)×10維的聚合通道特征向量W。

      為獲得圖像中不同尺度的行人候選區(qū)域,需要對(duì)行人圖像進(jìn)行縮放處理。本文利用文獻(xiàn)[4]提出的一種快速計(jì)算行人特征金字塔的方法,該方法通過(guò)在一定誤差范圍內(nèi)利用某一尺度大小的聚合通道特征近似估計(jì)相鄰尺度的特征。首先分別計(jì)算圖像在尺度層s∈{1,1/2,1/4,…}下的特征通道Cs=Ω(R(Is)),利用其近似估計(jì)其他中間層的特征通道,其近似估計(jì)公式如下:

      (1)

      本文首先對(duì)所有尺度的圖像進(jìn)行滑窗操作,獲得該圖像在不同尺度下的所有檢測(cè)子窗口,利用軟級(jí)聯(lián)Adaboost分類(lèi)器對(duì)所有檢測(cè)子窗口進(jìn)行權(quán)重判斷,從而得到所有包含行人的候選區(qū)域集合,最后利用非極大值抑制算法過(guò)濾掉重疊的候選區(qū)域并對(duì)所有剩余行人候選區(qū)域進(jìn)行歸一化操作,使行人的檢測(cè)候選區(qū)域尺寸統(tǒng)一,便于后續(xù)輸入到卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行特征提取。

      1.2 基于卷積神經(jīng)網(wǎng)絡(luò)特征提取

      由于行人本身形狀以及顏色多變性使得人工特征無(wú)法精確描述行人,因此本文采用卷積神經(jīng)網(wǎng)絡(luò)對(duì)行人候選區(qū)域進(jìn)行特征提取,以獲得更好的檢測(cè)精度。卷積神經(jīng)網(wǎng)絡(luò)較傳統(tǒng)人工提取特征能夠在訓(xùn)練過(guò)程中自適應(yīng)地獲取圖像特征的細(xì)粒度描述,深度挖掘圖像精確特征,進(jìn)而達(dá)到較好的分類(lèi)效果,且對(duì)于高維度、數(shù)據(jù)量大的圖像處理情況有著較好的準(zhǔn)確度和實(shí)時(shí)性。

      1.2.1卷積特征提取

      卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)主要包括卷積層、池化層、全連接層。卷積層主要用來(lái)提取圖像信息,通過(guò)輸入的圖像進(jìn)行多個(gè)核卷積操作,卷積后的圖像經(jīng)過(guò)激活函數(shù)后輸出且作為下一層的輸入。卷積層的計(jì)算公式為:

      (2)

      池化層的處理方式主要有兩種,分別通過(guò)平均值池化和最大值池化操作進(jìn)行下采樣。池化層能夠在保證卷積后的圖像特征不變情況下減少計(jì)算量且加快網(wǎng)絡(luò)的訓(xùn)練速度。本文中采用最大池化對(duì)卷積層輸出進(jìn)行下采樣,池化的計(jì)算公式為:

      (3)

      全連接層是將從卷積層或池化層得到的圖像特征轉(zhuǎn)化為向量送至分類(lèi)器進(jìn)行分類(lèi)。通常的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)多為開(kāi)始幾層為卷積層和池化層交替,在靠近輸出層的最后幾層為全連接層。由于網(wǎng)絡(luò)的深度在很大程度上影響最終的分類(lèi)精度,采用了文獻(xiàn)[14]提出的VGG-16卷積網(wǎng)絡(luò)模型。VGG-16模型包含了5層卷積網(wǎng)絡(luò),以池化層為界可劃分為5次卷積過(guò)程,輸入的行人圖像經(jīng)過(guò)5層卷積過(guò)程,最終在全連接層組合后可以得到區(qū)分度較好的深度特征,從而較好地保證分類(lèi)的準(zhǔn)確性。

      針對(duì)目前行人數(shù)據(jù)庫(kù)標(biāo)定量有限的情況,本文采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,通過(guò)在自己構(gòu)建的數(shù)據(jù)庫(kù)中訓(xùn)練好網(wǎng)絡(luò)模型,將卷積神經(jīng)網(wǎng)絡(luò)部分層的參數(shù)固定,初始化行人圖像分類(lèi)的卷積神經(jīng)網(wǎng)絡(luò),修改網(wǎng)絡(luò)模型的后兩層參數(shù)設(shè)置符合行人圖像分類(lèi)。本文卷積網(wǎng)絡(luò)輸入圖像大小為224×224的RGB彩色圖像,所有的卷積操作都采用3×3大小的卷積核,步長(zhǎng)固定為1,卷積操作后用激活函數(shù)得到卷積層的輸出。池化層設(shè)置為2×2的最大池化且步長(zhǎng)設(shè)為1,最終由兩層全連接層輸出4 096維的行人特征向量,經(jīng)后續(xù)PCA降維后作為支持向量機(jī)的輸入訓(xùn)練得到支持向量機(jī)分類(lèi)器。其網(wǎng)絡(luò)參數(shù)如表1所示。

      表1 本文卷積神經(jīng)網(wǎng)絡(luò)參數(shù)

      1.2.2主成分分析法降維

      本文中行人圖像在卷積神經(jīng)網(wǎng)絡(luò)提取特征的過(guò)程中,由于卷積網(wǎng)絡(luò)層次較多,最終得到的特征維數(shù)較大,包含有大量的冗余信息,造成計(jì)算成本增加。本文使用主成分分析法(Principal Component Analysis,PCA)對(duì)卷積神經(jīng)網(wǎng)絡(luò)全連接層所得到的特征向量進(jìn)行降維處理[15]。主成分分析法是一種統(tǒng)計(jì)分析方法,它從分析變量間關(guān)系入手,能將多個(gè)變量綜合為少數(shù)幾個(gè)主成分,從而達(dá)到降維的效果。

      設(shè)向量X為得到行人特征向量,則可根據(jù)式(4)對(duì)其進(jìn)行主成分分析變換,得到降維后的特征向量Y=[y1,y2,…,yn],Y中的向量都互不相關(guān),C為主成分Y對(duì)應(yīng)的單位化特征向量。且yi的方差λi依次遞減,y1,y2,…,yn為n個(gè)主分量。

      Y=CX

      (4)

      則第i個(gè)主分量的貢獻(xiàn)率定義為:

      (5)

      前m個(gè)主分量的累積貢獻(xiàn)率定義為:

      (6)

      選取前m(m

      1.3 基于蟻群算法優(yōu)化支持向量機(jī)行人檢測(cè)

      1.3.1支持向量機(jī)

      通過(guò)對(duì)于降維處理所得到的行人特征向量樣本集(x1,y1),(x2,y2),…,(xn,yn),x∈Rn,y∈{0,1},利用非線性函數(shù)Φ(x)將行人圖像數(shù)據(jù)映射到高維線性特征空間,從而得到其最優(yōu)分類(lèi)超平面為:

      ω·φ(x)+b=0

      (7)

      式中:ω為權(quán)值向量且ω∈Rn,x為支持向量,b為常數(shù)。根據(jù)最優(yōu)分類(lèi)超平面得到其對(duì)應(yīng)的決策函數(shù)為:

      f(x)=sign[ω·φ(x)+b]

      (8)

      將分類(lèi)決策函數(shù)中的內(nèi)積用核函數(shù)K(xi,xj)代替后為:

      (9)

      目前SVM常用的核函數(shù)以多項(xiàng)式核函數(shù)、高斯徑向基核函數(shù)和Sigmoid核函數(shù)三種類(lèi)型為主[16]。面向的問(wèn)題不同。支持向量機(jī)核函數(shù)的選用也有所不同。本文中的行人檢測(cè)可歸為分類(lèi)問(wèn)題,通過(guò)對(duì)比集中核函數(shù)的特點(diǎn),高斯徑向基核函數(shù)在處理非線性高維空間中的分類(lèi)時(shí)有著較好的能力,因此本文在訓(xùn)練行人檢測(cè)模型時(shí)采用高斯徑向基核函數(shù),其具體函數(shù)的表達(dá)式如下:

      (10)

      式中:γ為徑向基函數(shù)的核寬度,決定訓(xùn)練樣本在高維特征空間中分布的復(fù)雜程度以及支持向量機(jī)的分類(lèi)精度。除此之外,根據(jù)文獻(xiàn)[16]中,為調(diào)節(jié)訓(xùn)練過(guò)程中的的置信范圍和經(jīng)驗(yàn)風(fēng)險(xiǎn)的比例,引入懲罰參數(shù)C,在一定范圍內(nèi),C越大表示對(duì)支持向量機(jī)錯(cuò)誤分類(lèi)的懲罰越大。因此,為達(dá)到較好的檢測(cè)效果,選擇合適的懲罰參數(shù)C和核函數(shù)參數(shù)γ尤為重要。

      1.3.2改進(jìn)蟻群算法優(yōu)化支持向量機(jī)

      蟻群算法是由意大利學(xué)者Dorigo等人在1991年受到螞蟻搜索食物過(guò)程中依據(jù)同伴遺留下的信息激素進(jìn)行最短路徑選擇的啟發(fā)而提出的一種新的仿生優(yōu)化計(jì)算方法,具有并行計(jì)算、擴(kuò)展能力好和全局搜索能力的特點(diǎn)[17]。本文利用蟻群算法對(duì)高斯徑向基核函數(shù)及懲罰參數(shù)進(jìn)行優(yōu)化選擇,考慮原始蟻群算法收斂速度慢以及容易陷入局部最優(yōu)的的缺點(diǎn),從節(jié)點(diǎn)選擇方法和適應(yīng)度函數(shù)對(duì)其進(jìn)行改進(jìn),并利用改進(jìn)的蟻群算法優(yōu)化支持向量機(jī)核函數(shù)。

      根據(jù)蟻群算法原理,將其節(jié)點(diǎn)值表示為懲罰參數(shù)C和核函數(shù)參數(shù)γ,以行人檢測(cè)的準(zhǔn)確率作為目標(biāo)函數(shù),信息素位于螞蟻所走過(guò)的每個(gè)節(jié)點(diǎn)上,最終經(jīng)過(guò)蟻群算法搜索出的最優(yōu)路徑輸出即為最優(yōu)行人檢測(cè)模型參數(shù)。在尋優(yōu)過(guò)程中,蟻群通過(guò)不斷迭代對(duì)信息素的濃度進(jìn)行更新,直至完成對(duì)目標(biāo)函數(shù)的最優(yōu)化。終止迭代時(shí),輸出得到最優(yōu)參數(shù)C和γ,具體流程如圖2所示。

      圖2 本文蟻群算法優(yōu)化SVM流程

      步驟1輸入分類(lèi)數(shù)據(jù)。讀取行人特征向量數(shù)據(jù)集。

      步驟2種群初始化。初始化信息素為τ0;設(shè)置蟻群規(guī)模為m,初始其位置規(guī)劃起點(diǎn)S;設(shè)置懲罰參數(shù)C取值范圍(Cmin,Cmax)以及核函數(shù)參數(shù)γ取值范圍(γmin,γmax);設(shè)置迭代計(jì)數(shù)器為0;設(shè)置最大迭代次數(shù)N。

      步驟3蟻群行走。根據(jù)下式計(jì)算螞蟻的轉(zhuǎn)移概率,根據(jù)概率運(yùn)用輪盤(pán)賭方法選擇種群中每只螞蟻下一個(gè)爬行節(jié)點(diǎn),并將螞蟻轉(zhuǎn)移到該節(jié)點(diǎn)上。

      (11)

      步驟4局部信息素更新。每當(dāng)螞蟻?zhàn)哌^(guò)一小段路徑后,根據(jù)下式進(jìn)行局部信息素更新。

      (12)

      (13)

      式中:Q1為局部信息素強(qiáng)度;ρ1為局部信息素?fù)]發(fā)系數(shù)且ρ1∈(0,1)。

      步驟5判斷螞蟻是否到達(dá)終點(diǎn)。根據(jù)下式計(jì)算適應(yīng)度函數(shù)值,計(jì)算路徑對(duì)應(yīng)的參數(shù)C和γ,代入SVM進(jìn)行驗(yàn)證,將檢測(cè)率作為評(píng)價(jià)值,檢測(cè)率最高的即為最優(yōu)路徑,同時(shí)保存最佳評(píng)價(jià)值。將本次迭代的結(jié)果與歷次結(jié)果進(jìn)行比較,若檢測(cè)準(zhǔn)確率提高,則替換為當(dāng)前最優(yōu)路徑,并保存經(jīng)過(guò)的節(jié)點(diǎn)。

      (14)

      步驟6全局信息素更新。對(duì)最佳路徑經(jīng)過(guò)的邊按照下式進(jìn)行更新。

      (15)

      (16)

      步驟7完成優(yōu)化。令迭代次數(shù)計(jì)數(shù)器加1,若未達(dá)到最大次數(shù),則重復(fù)步驟1至步驟6,直至N=Nmax,輸出最優(yōu)路徑對(duì)應(yīng)的支持向量機(jī)參數(shù)C和γ。

      步驟8支持向量機(jī)根據(jù)得到的最優(yōu)參數(shù)值對(duì)行人訓(xùn)練集重新訓(xùn)練,得到最優(yōu)行人檢測(cè)模型。

      2 實(shí) 驗(yàn)

      實(shí)驗(yàn)采用的硬件設(shè)備是Intel Core 4.2 GHz i7-7700K CPU和NVIDIA Geforce GTX 1060Ti GPU,軟件環(huán)境采用MATLAB 2018b。為驗(yàn)證本文方法的有效性,通過(guò)采集某市不同路段中的行人圖像及交通環(huán)境圖像進(jìn)行人工標(biāo)記制作行人數(shù)據(jù)集。該數(shù)據(jù)集圖像共5 000幅,正、負(fù)樣本比例為1∶2,分辨率為640×480。驗(yàn)證本文方法時(shí),將行人數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集,其中訓(xùn)練集占總數(shù)70%,測(cè)試集占30%。為更好地驗(yàn)證本文方法的有效性,分別在本文數(shù)據(jù)集及公開(kāi)的Caltech行人數(shù)據(jù)集[18]中進(jìn)行測(cè)試,Caltech行人數(shù)據(jù)集為Pitor Dollar的團(tuán)隊(duì)所制作,采用車(chē)載攝像頭拍攝,分辨率為640×480,是目前規(guī)模較大也是應(yīng)用較多的行人數(shù)據(jù)集。相關(guān)實(shí)驗(yàn)共包括兩個(gè)部分,分別為本文所用方法與目前幾種流行方法檢測(cè)結(jié)果對(duì)比實(shí)驗(yàn)、不同方法選擇支持向量機(jī)參數(shù)后檢測(cè)結(jié)果對(duì)比實(shí)驗(yàn)。

      2.1 不同檢測(cè)方法對(duì)比分析

      本文利用改進(jìn)后的卷積神經(jīng)網(wǎng)絡(luò)完成對(duì)行人特征的提取,為驗(yàn)證本文方法的可行性,分別利用目標(biāo)檢測(cè)上應(yīng)用較好的ACF、R-CNN、Faster R-CNN方法的檢測(cè)結(jié)果與本文中的檢測(cè)結(jié)果進(jìn)行對(duì)比。圖3為本文方法分別在本文數(shù)據(jù)集及Caltech行人數(shù)據(jù)集中的部分檢測(cè)效果。由圖3(a)可以看出,在本文數(shù)據(jù)集上,多種交通場(chǎng)景下都取得較好的檢測(cè)效果,行人目標(biāo)基本能夠被檢測(cè)到且誤檢窗口較少,但對(duì)于遠(yuǎn)距離小尺度行人的檢測(cè)效果不理想;由圖3(b)可以看出,在Caltech行人數(shù)據(jù)集上,明顯的行人目標(biāo)能夠正常被檢測(cè)到,同樣保證誤檢窗口較少,但在過(guò)于陰暗場(chǎng)景下會(huì)漏檢掉與背景顏色近似的行人目標(biāo),除此之外,當(dāng)行人之間相互遮擋嚴(yán)重時(shí)存在漏檢情況。

      (a) 本文算法在本文數(shù)據(jù)集上部分檢測(cè)結(jié)果

      (b) 本文算法在Caltech行人數(shù)據(jù)集上部分檢測(cè)結(jié)果圖3 本文算法檢測(cè)結(jié)果圖

      表2、表3分別為ACF、R-CNN、Faster R-CNN及本文方法在本文數(shù)據(jù)集及Caltech行人數(shù)據(jù)集中檢測(cè)率、誤檢率及檢測(cè)時(shí)間對(duì)比。由表2可以看出,在本文數(shù)據(jù)集上,本文方法的檢測(cè)率為92.55%,相比原始ACF、R-CNN方法有著較高的提升,但三種指標(biāo)均略遜于Faster R-CNN方法。由表3可以看出,在Caltech行人數(shù)據(jù)集上,相比于本文數(shù)據(jù)集中的檢測(cè)結(jié)果,檢測(cè)率有所下降,但仍?xún)?yōu)于ACF及R-CNN方法,綜合各項(xiàng)數(shù)據(jù)結(jié)果本文方法在性能方面接近Faster R-CNN方法。

      表2 不同算法在本文數(shù)據(jù)集上檢測(cè)結(jié)果對(duì)比

      表3 不同算法在Caltech行人數(shù)據(jù)集上檢測(cè)結(jié)果對(duì)比

      為了更好地對(duì)比各檢測(cè)方法的性能,采用文獻(xiàn)[18]中提出的漏檢率(Miss Rate,MR)對(duì)每幅圖片平均誤檢個(gè)數(shù)(False Positives Per Image,F(xiàn)PPI)曲線作為評(píng)價(jià)指標(biāo),并以FPPI為0.1作為參考點(diǎn),通過(guò)在測(cè)試集上進(jìn)行驗(yàn)證得出MR-FPPI曲線,曲線越低則性能越好。分別在本文數(shù)據(jù)集及Caltech行人數(shù)據(jù)集進(jìn)行測(cè)試,各檢測(cè)方法的FPPI曲線如圖4、圖5所示。通過(guò)對(duì)比四種方法的MR-FPPI曲線,在本文數(shù)據(jù)集測(cè)試結(jié)果顯示當(dāng)FPPI為0.1時(shí),本文方法的漏檢率為16%,低于ACF及R-CNN方法,且較原始R-CNN算法提升了8%的檢測(cè)精度,但較Faster R-CNN方法低3%的檢測(cè)精度;在Caltech行人數(shù)據(jù)集測(cè)試結(jié)果顯示當(dāng)FPPI為0.1時(shí),本文方法的漏檢率為38%,較ACF及R-CNN方法分別提升了18%和11%的檢測(cè)精度,但較Faster R-CNN方法低3%的檢測(cè)精度。通過(guò)在不同數(shù)據(jù)集中進(jìn)行測(cè)試,與幾種主流方法結(jié)果進(jìn)行比較,綜合幾種性能指標(biāo),證明本文具有可行性,能夠保證較好的檢測(cè)精度。

      圖4 不同檢測(cè)算法在本文數(shù)據(jù)庫(kù)精度對(duì)比圖

      圖5 不同檢測(cè)算法在Caltech數(shù)據(jù)庫(kù)精度對(duì)比圖

      2.2 支持向量機(jī)優(yōu)化結(jié)果分析

      本文中的行人檢測(cè)為分類(lèi)問(wèn)題,支持向量機(jī)對(duì)于部分樣本數(shù)據(jù)具有較好的分類(lèi)性能。因此,本文將卷積神經(jīng)網(wǎng)絡(luò)得到的特征向量結(jié)合支持向量機(jī)完成分類(lèi)器的訓(xùn)練,并利用訓(xùn)練好的支持向量機(jī)模型完成行人檢測(cè)過(guò)程。實(shí)驗(yàn)中,為驗(yàn)證本文蟻群算法優(yōu)化支持向量機(jī)所得最優(yōu)參數(shù)的有效性,分別利用網(wǎng)格搜索法以及交叉驗(yàn)證法得到兩組支持向量機(jī)參數(shù),將三組參數(shù)的測(cè)試結(jié)果進(jìn)行對(duì)比,如表4所示。通過(guò)結(jié)果對(duì)比,利用蟻群算法擇優(yōu)后的支持向量機(jī)分類(lèi)準(zhǔn)確率高于網(wǎng)格搜索法和交叉驗(yàn)證法,表明本文基于蟻群算法進(jìn)行支持向量機(jī)擇優(yōu)能夠有效提高行人檢測(cè)精度。

      表4 不同SVM參數(shù)選擇方法檢測(cè)結(jié)果對(duì)比

      3 結(jié) 語(yǔ)

      本文針對(duì)行人檢測(cè)在復(fù)雜背景下誤檢率高的問(wèn)題,結(jié)合人工特征提取及卷積神經(jīng)網(wǎng)絡(luò)特征提取方法的優(yōu)點(diǎn),提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)及改進(jìn)支持向量機(jī)的檢測(cè)方法。首先采用聚合通道特征算法快速獲得行人候選區(qū)域,然后將候選區(qū)域送至卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行深度特征提取并利用主成分分析法降低提取的特征維度,最后,針對(duì)徑向基核函數(shù)支持向量機(jī)選擇參數(shù)困難問(wèn)題,利用蟻群算法進(jìn)行優(yōu)化處理,根據(jù)擇優(yōu)后的參數(shù)完成對(duì)行人圖像的分類(lèi)。仿真實(shí)驗(yàn)表明,本文方法相對(duì)于ACF及R-CNN方法檢測(cè)精度有所提升且誤檢率大幅下降,實(shí)現(xiàn)了行人的準(zhǔn)確檢測(cè)且具有較好的實(shí)時(shí)性。但小尺度行人檢測(cè)效果不太理想,其次在一些特殊場(chǎng)景如陰暗、遮擋下的檢測(cè)率仍有待提升,故針對(duì)小尺度行人及遮擋行人的檢測(cè)方面仍需進(jìn)一步進(jìn)行研究。

      猜你喜歡
      行人卷積向量
      向量的分解
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      毒舌出沒(méi),行人避讓
      意林(2021年5期)2021-04-18 12:21:17
      聚焦“向量與三角”創(chuàng)新題
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      路不為尋找者而設(shè)
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      我是行人
      向量垂直在解析幾何中的應(yīng)用
      向量五種“變身” 玩轉(zhuǎn)圓錐曲線
      乳山市| 湄潭县| 津市市| 民乐县| 通辽市| 浦城县| 丽水市| 基隆市| 罗山县| 循化| 龙陵县| 凤阳县| 布尔津县| 普兰店市| 长寿区| 辽阳县| 青川县| 南涧| 容城县| 大方县| 友谊县| 澄迈县| 尚义县| 开原市| 平远县| 蓬安县| 佛坪县| 清镇市| 平潭县| 建宁县| 阳城县| 黔西| 正宁县| 合水县| 达拉特旗| 灵寿县| 荆门市| 奇台县| 新余市| 通道| 达州市|