梁思源,王 平,羅凡波,徐桂菲,王 偉
(西華大學(xué) 電氣與電子信息學(xué)院,四川 成都 610039)
計算機(jī)視覺是指用計算機(jī)實現(xiàn)人的視覺功能,希望能根據(jù)感知到的圖像(視頻) 對實際的目標(biāo)和場景內(nèi)容做出有意義的判斷[1].隨著計算機(jī)視覺技術(shù)的發(fā)展,智能視屏監(jiān)控已經(jīng)成為一個熱門的研究領(lǐng)域.近年來計算機(jī)硬件技術(shù)尤其是GPU技術(shù)的飛速發(fā)展,使得深度學(xué)習(xí)已經(jīng)在視屏監(jiān)控領(lǐng)域占據(jù)了不可替代的位置.但是現(xiàn)在針對相似外部特征人員的檢測算法還相對較少,而公共場所多個相似特征人員的聚集往往預(yù)示著異常情況的發(fā)生.就此現(xiàn)狀筆者針對大霧和強(qiáng)曝光天氣下的外部特征相似人員提出一種基于深度學(xué)習(xí)的檢測算法.
深度學(xué)習(xí)不需要人工對目標(biāo)的特征進(jìn)行設(shè)計和提取,而是由機(jī)器自動地學(xué)習(xí)獲得.這種自動學(xué)得的特征具有很好的泛化能力與魯棒性[2].但是深度學(xué)習(xí)的分類結(jié)果受訓(xùn)練樣本的影響較大,尤其是在大霧和強(qiáng)曝光之下,圖像的特征丟失嚴(yán)重,會導(dǎo)致最后的分類效果并不理想.因此筆者對自建數(shù)據(jù)庫中質(zhì)量不佳的訓(xùn)練樣本進(jìn)行了暗通道去霧算法處理,得到更優(yōu)質(zhì)的樣本模型進(jìn)行訓(xùn)練[3].該算法是一種實用性很強(qiáng)的算法,該算法作者還在2015年提出了Fast Guided Filter,筆者采用結(jié)合了Fast Guided Filter的暗通道去霧算法,實驗表明該算法在去霧的同時保留了更多的目標(biāo)人物的邊緣細(xì)節(jié),為后期的圖像特征提取也保留了很多有價值的特征信息.
行人檢測作為目標(biāo)檢測的一個重要分支,經(jīng)過幾十年的發(fā)展已經(jīng)在檢測的速度和精度上取得了很大的進(jìn)步,很多方法已經(jīng)完全能夠達(dá)到視屏級的實時性.傳統(tǒng)方法采用人工設(shè)計的特征提取器來提取特征并對分類器進(jìn)行訓(xùn)練.例如通過提取Haar特征、HOG(Histogram of Oriented Gradient)特征 、LBP(Local Binary Pattern)特征等進(jìn)行訓(xùn)練.其中文獻(xiàn)[4]采用HOG+LBP特征處理行人的遮擋問題,提高了檢測的準(zhǔn)確率.但由于人體的柔性特征和人群中的遮擋問題,人工設(shè)計的行人特征很難適應(yīng)行人的大幅度變化[5].筆者采用經(jīng)過去霧處理的自建數(shù)據(jù)集對改進(jìn)的YOLO v3網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并將得到的結(jié)果與HOG+SVM方法進(jìn)行對比,結(jié)果證明在實時性和準(zhǔn)確性方面該方法均優(yōu)于傳統(tǒng)的HOG+SVM方法.
提取出目標(biāo)人員之后再對其進(jìn)行特征的提取.很多相關(guān)研究已經(jīng)在顏色、形狀和紋理特征這幾方面展開,其中效果相對較好的特征主要為顏色與紋理的特征.常見的顏色空間有RGB顏色空間、HSV空間和YUV空間.目前已有方法對RGB空間分量和YUV空間分量的特點和優(yōu)勢進(jìn)行綜合并進(jìn)行特征提取[6].紋理特征經(jīng)過多年的發(fā)展,已經(jīng)發(fā)展出灰度共生矩陣(CLCM)、灰度行程長度法(gray level run length)、自相關(guān)函數(shù)法等,同時隨著應(yīng)用領(lǐng)域的不斷擴(kuò)大和新理論如分形理論、馬爾科夫隨機(jī)場(MRF)理論、小波理論等的引入,又不斷壯大了紋理特征提取的研究[7].但是由于提取出的特征往往具有較高的維度,因此處理這些數(shù)據(jù)所消耗的時間可能會較長,對于視屏監(jiān)控的實時性不能滿足.但如果為了提高處理速度而降低特征維度又會導(dǎo)致錯誤率的增加,不能適應(yīng)復(fù)雜的場景,抗噪能力不足.
筆者基于人類視覺特征對圖像感知的3個特性提出自適應(yīng)顏色特征提取方法,顏色特征上使用RGB和HSV分別描述,因此在降低特征維度的情況下依然能獲得較好的效果,并在此基礎(chǔ)上使用灰度直方圖、灰度共生矩陣、小波變換來獲取多個新的紋理特征,用于更好地檢測外部相似特征.最后將獲取的特征放入極限學(xué)習(xí)機(jī)(ELM)中進(jìn)行分類.實驗結(jié)果表明本文算法能在個體目標(biāo)相似度上取得較好效果,優(yōu)于傳統(tǒng)的相似度匹配算法.
為了提高圖像的質(zhì)量,減小大霧天氣和強(qiáng)曝光天氣對訓(xùn)練所造成的影響,提高檢測的準(zhǔn)確度和魯棒性,首先對得到的數(shù)據(jù)集進(jìn)行暗通道去霧處理.
暗通道是指在圖片中,除去天空、海洋等大面積單色區(qū)域,一些像素會出現(xiàn)一個或多個顏色通道的值很低的現(xiàn)象.對于一幅輸入圖像J,它的暗通道可以用式(1)表達(dá):
(1)
其中Jc表示彩色圖像的每個通道,Ω(x)表示以像素x為中心的一個窗口.r、g、b表示圖像的3個通道[8].暗通道先驗的理論指出:
Jdark→0 .
(2)
在計算機(jī)視覺中常用公式(3)來表示霧圖形成模型.
I(x)=J(x)t(x)+[A(1-t(x))].
(3)
式中,I(x)表示現(xiàn)有未去霧圖像,J(x)表示要得到的去霧后圖像,A表示全球大氣光成分,t(x)表示透射率.為得到方程的解,將(3)式變化為(4)式.
(4)
這里的c表示RGB三個通道,為了得到我們定義的暗通道,求c的最小值得到式(5):
(5)
由前述暗原色先驗理論可得
(6)
由此可得
(7)
將(7)代入(5)中可得
(8)
空氣中的顆粒和霧感能給人帶來一定的景深效果,這里筆者在(8)中引入一個[0,1]之間的數(shù)來保留一定的霧,本文仿真取值為0.95.
(9)
而全球大氣光A的求取,筆者借助于暗通道圖來從有霧圖像中獲取該值.目前A值的求取主要分為以下兩種方法:1、從暗通道圖中按照亮度的大小取前0.1%的像素[8];2、在這些位置中,在原始有霧圖像I中尋找對應(yīng)的具有最高亮度的點的值,作為A值.當(dāng)投射圖的t值很小時,會導(dǎo)致J值偏大,從而使得圖像整體向白場過渡,因此一般可設(shè)置一閾值t0,當(dāng)t值小于t0時,令t=t0,本文中所有效果圖均以t0=0.1為標(biāo)準(zhǔn)計算.因此,最終去霧公式如下:
(10)
導(dǎo)向濾波算法是通過一個引導(dǎo)圖像I來對p進(jìn)行濾波而得到q,其數(shù)學(xué)公式為
(11)
Wij(I)表示由引導(dǎo)圖像I來確定加權(quán)平均運(yùn)算中所采用的權(quán)值.
噪聲的特點通常是以其為中心的各個方向上梯度都較大而且相差不多.邊緣則不同,邊緣相比于區(qū)域也會出現(xiàn)梯度的躍變,但是邊緣只有在其法向方向上才會出現(xiàn)較大的梯度,而在切向方向上梯度較小.相比普通平滑和高斯平滑,導(dǎo)向濾波的加入能保護(hù)更多的邊緣信息,使后期算法能學(xué)習(xí)到更好的模型,同時也保留了更多的紋理特征.
Fast Guided Filter[9]是何凱明博士于2015年提出的一種很實用的更快速的導(dǎo)向濾波流程.其本質(zhì)是通過下采樣減少像素點,計算meana和meanb后進(jìn)行上采樣恢復(fù)到原有的尺寸大小.導(dǎo)向濾波的時間復(fù)雜度為O(N),其中N為像素點的個數(shù).假設(shè)縮放比例為s,那么縮小后像素點的個數(shù)為N/s2,那么時間復(fù)雜度變?yōu)镺(N/s2).去霧效果如圖1~3所示.
圖1 原圖圖2 未加入Fast Guided Filter的暗通道去霧效果圖圖3 加入Fast Guided Filter后的暗通道去霧效果圖
YOLO v3[10]作為目前最優(yōu)秀的目標(biāo)檢測框架之一,其實時性相比之前的RCNN[11]、SPP-Net[12]、Fast-RCNN[13]、Faster-RCNN[14]都有很大的進(jìn)步.YOLO的核心思想是利用整張圖片作為輸出,直接在輸出層回歸bounding box(邊界框)的位置及其所屬的類別.首先將一幅圖片分割成7×7個網(wǎng)格(grid cell),再對目標(biāo)進(jìn)行檢測,如果目標(biāo)中心落在某個網(wǎng)格中,網(wǎng)格就負(fù)責(zé)對該目標(biāo)進(jìn)行預(yù)測.預(yù)測的候選框還需要預(yù)測一個confidence值來判別目標(biāo)是否存在[5].
confidence=Pr(Object)×IOUTruthPred.
(12)
如果有目標(biāo)落在一個網(wǎng)格里,那么Pr(Object)值取1,否則取0.IOUTruthPred是預(yù)測的bounding box和實際的groundtruth之間的交并比.
(13)
在預(yù)測時,每個候選框的分類置信分?jǐn)?shù)為預(yù)測目標(biāo)的類別概率和bounding box預(yù)測的confidence信息相乘.
Conf=Pr(Classi|Object)× Pr(Object)×IOUTruthPred.
(14)
得到每個分類置信分?jǐn)?shù)之后,設(shè)置閾值將得分低的boxes篩除掉,就得到最終的檢測結(jié)果.
但是由于YOLO的全連接層輸入輸出的特征向量必須固定長度,所以YOLO只能接收固定尺寸的圖片.當(dāng)物體占畫面比例較小的時候,有可能會出現(xiàn)一個格子包含多個目標(biāo)物體,但是YOLO這時只能檢測出其中一個.
目前大多數(shù)神經(jīng)網(wǎng)絡(luò)的改進(jìn)趨勢都是往更大更深的網(wǎng)絡(luò)發(fā)展.通常情況下層級更多的神經(jīng)網(wǎng)絡(luò)往往能在實際情況中學(xué)習(xí)到更多的細(xì)節(jié)從而達(dá)到更好的效果.YOLO v2[15]并沒有致力于加深神經(jīng)網(wǎng)絡(luò)的層數(shù),而是通過Batch Normalization、High resolution classifier、Multi-Scale Training等方法使其在保持原有速度的同時提高了精度.整個網(wǎng)絡(luò)應(yīng)用了Darknet-19的網(wǎng)絡(luò)架構(gòu),包含19個卷積層和5個max pooling層,卷積的計算量相較于YOLO大大減少.YOLO v3[10]采用了Darknet-53的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),在保證速度的同時又再一次大大提高了精確度.
Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)借鑒了殘差網(wǎng)絡(luò)residual network的做法,在一些層之間設(shè)置了快捷鏈路(shortcut connections).圖4左側(cè)的1、2、8等數(shù)字表示殘差組件的個數(shù),每個殘差組件有兩個卷積層和一個快捷鏈路.同時還采用多尺度預(yù)測方案,針對COCO數(shù)據(jù)集,YOLO v3設(shè)計了9個不同大小的預(yù)測框,將其按照大小均分給3個尺度.
但是YOLO算法的預(yù)測框均是建立在COCO數(shù)據(jù)集的基礎(chǔ)之上的.種類較多,尺寸比例差異較大,筆者僅在INRIA數(shù)據(jù)集上對行人進(jìn)行檢測和識別.因此筆者在設(shè)計預(yù)測框時對INRIA數(shù)據(jù)集進(jìn)行了K-means方法聚類.最后對INRIA數(shù)據(jù)集的聚類結(jié)果,取消了YOLO v3原來在三個維度上的輸出檢測,而直接將anchor boxes的個數(shù)和寬高維度設(shè)定為聚類所得到的結(jié)果.
圖4 Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)
從圖5中可以看出簇K值在等于4之后逐漸趨于平穩(wěn).所以筆者將變化的拐點定為最佳a(bǔ)nchor boxes的數(shù)量.實驗證明聚類后的預(yù)測框大大縮短了訓(xùn)練的收斂時間,同時還可以消除候選框帶來的誤差.
圖5 K-means聚類分析結(jié)果
筆者采用深度學(xué)習(xí)架構(gòu)YOLO-Darknet53 搭建仿真的運(yùn)行環(huán)境,并配置NVIDIA的CUDA 環(huán)境進(jìn)行GPU 并行加速計算.圖6是訓(xùn)練過程平均損失變化的對比.
圖6 平均損失值變化比較
仿真實驗中每輪迭代從處理后的訓(xùn)練集里隨機(jī)抽batch=64個樣本進(jìn)行訓(xùn)練,由于本次實驗采用的顯卡為2G顯存,為了減輕內(nèi)存占用壓力,每輪的64個樣本又被均分為 subdivision = 16 次送入網(wǎng)絡(luò)參與訓(xùn)練.同時采用分步學(xué)習(xí)策略,為了提高學(xué)習(xí)效率,又避免過擬合現(xiàn)象,筆者將最初的學(xué)習(xí)率定為10×0.001,在15 000次迭代后,學(xué)習(xí)率更改為0.1×0.001,30 000次后再更改為上次更改后的0.1倍,最終,經(jīng)過40 000次迭代,YOLO v3平均損失值最后保持在0.042 2.而經(jīng)改進(jìn)后的YOLO v3平均損失值可以達(dá)到0.36.并且從圖中可以明顯地看出經(jīng)K-means方法聚類出預(yù)測框的YOLO v3算法收斂速度更快.算法對比效果見圖7~9.
圖7 HOG+SVM目標(biāo)識別效果
圖8 YOLO v3目標(biāo)識別效果
圖9 本文算法目標(biāo)識別效果
顏色通常是用3個獨(dú)立的屬性來描述,常見的顏色空間有RGB、HSV和YUV.3種顏色空間各有自己的特點和優(yōu)勢,RGB顏色空間是通過3種不同顏色的分量疊加形成任何顏色的光,RGB表示的物理意義很清晰,但是不能很好地適應(yīng)人的視覺特點.而HSV空間則能夠描述人看到物體時所使用的色調(diào)、飽和度和明度.YUV主要用于優(yōu)化彩色視頻信號的傳輸.筆者使用RGB與HSV分別描述前景個體顏色特征.
在RGB顏色空間提取R分量平均值μR、G分量平均值μG、B分量平均值μB、RGB平均值μRGB、RGB標(biāo)準(zhǔn)差σRGB5個顏色特征值.
分別提取目標(biāo)對象的R、G、B 3個分量各自的平均值μλ:
(15)
式中分別取R、G、B,Nobj為提取目標(biāo)對象后圖像的像素數(shù),Iλ(i,j)為像素點(i,j)的λ分量,得μR、μG、μB三值.
RGB平均值:
(16)
式中IRGB(i,j)為像素點(i,j)的RGB平均值,得到μRGB.
RGB標(biāo)準(zhǔn)差:
(17)
得到σRGB.
在HSV空間用同樣方法提取H分量平均值μH、S分量平均值μS、V分量平均值μV、HSV平均值μHSV、HSV標(biāo)準(zhǔn)差σHSV5個顏色特征值.
由RGB顏色特征組成的五維向量標(biāo)記為:
Vrgb=(μR,μG,μB,μRGB,σRGB) .
由HSV顏色特征組成的五維向量標(biāo)記為:
Vhsv=(μH,μS,μV,μHSV,σHSV) .
筆者采用統(tǒng)計理論與小波變換2種方法對紋理特征進(jìn)行描述.一副圖像的灰度圖像由無數(shù)灰度值的像素點組成,灰度直方圖能夠直觀地表現(xiàn)圖像中灰度分布情況,包含了大量的圖像特征.筆者基于灰度直方圖提取了均值m、標(biāo)準(zhǔn)方差σ、平滑度R、三階矩μ3、一致性U、熵e.
(18)
(19)
(20)
(21)
(22)
式中L是灰度級數(shù),zi表示第i個灰度級,p(zi)是歸一化直方圖灰度級分布中灰度為zi的概率.將6個特征組合成六維特征向量Vgh:
Vgh(m,σ,R,μ3,U,e) .
(23)
灰度共生矩陣是相距一定距離的兩個特定灰度值的像素同時出現(xiàn)的矩陣表達(dá)形式.它描述了空間位置上特定兩個像素點之間的聯(lián)合分布,包含了大量的圖片紋理特征信息.但是由于數(shù)據(jù)量較大,一般會基于其構(gòu)建一些統(tǒng)計量作為分類特征.筆者基于灰度共生矩陣的特征,提取了能量ASM、對比度CON、相關(guān)COR和熵ENT,并求取四個特征的均值和標(biāo)準(zhǔn)差組成八維向量Vcm.
(24)
(25)
(26)
(27)
式中:
P(i,j,d,θ)={P[(x,y),(x+Dx,y+Dy)]|f(x,y)=i;f((x+Dx,y+Dy)=j} ,
(28)
Dx、Dy是位置偏移量,d為共生矩陣的生成步長,θ為共生矩陣的生成方向.由以上4個特征:能量、對比度、相關(guān)和熵的均值、標(biāo)準(zhǔn)差組成八維向量,記為Vcm.
Vcm=(ASMm,ASMσ,CONm,CONσ,CORm,CORσ,ENTm,ENTσ) .
(29)
本文在小波變換的描述上基于小波系數(shù)能量WE對目標(biāo)灰度通道進(jìn)行兩層小波分解,得到6個子細(xì)節(jié)圖的平均能量向量WEgrey.其中:
(30)
WEgrey=(WEgreyhl2,WEgreylh2,WEgreyhh2,WEgreyhl1,WEgreylh1,WEgreyhh1) .
(31)
式中:m×n為圖像像素大??;w(i,j)為對應(yīng)點的小波系數(shù);WEgreyhl1,WEgreylh1,WEgreyhh1分別為灰度通道小波分解的第1層垂直分量、水平分量和對角系數(shù)能量;WEgreyhl2,WEgreylh2,WEgreyhh2分別為灰度通道小波分解的第2層垂直分量、水平分量和對角系數(shù)能量.
為了對比不同特征向量組合對具有相似外部特征人員檢測的效果,筆者對提取到的特征進(jìn)行不同的編組,得到不同的特征組如下:
F1=(Vrgb,Vhsv) ,
(32)
F2=(Vrgb,Vhsv,Vgh) ,
(33)
F3=(Vrgb,Vhsv,Vcm) ,
(34)
F4=(Vrgb,Vhsv,WEgrey) ,
(35)
F5=(Vrgb,Vhsv,Vgh,Vcm,WEgrey) .
(36)
極限學(xué)習(xí)機(jī)(Extreme Learning Machine)[16]是由黃廣斌教授提出的求解單隱層前饋神經(jīng)網(wǎng)絡(luò)的算法.其核心內(nèi)容是輸入層與隱藏層之間的權(quán)值參數(shù)求解,以及隱藏層的偏置參數(shù)的求解,其求解過程也較簡單,可劃歸為求解一個矩陣的廣義逆的問題.在保證相同學(xué)習(xí)精度的情況下,與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比也能擁有較快的速度.針對隱含層與連接層初始值的選取,本文通過rand生成.筆者針對兩組測試數(shù)據(jù),選取的隱含層神經(jīng)元個數(shù)為45和50個.
1)訓(xùn)練集:給定Q個不同樣本(xi,ti).其中xi=[xi1,xi2,…,xin]T;ti=[ti1].xi為上述幾種特征組合;ti為一個標(biāo)簽,表示對應(yīng)目標(biāo)屬于哪一類人群.
3)對經(jīng)過訓(xùn)練的ELM輸入測試視頻,即可對當(dāng)前視頻中人群類別進(jìn)行分類,將具有共同顏色和紋理特征的人分離出來.
1)針對兩組不同的測試集,筆者選取的隱含層神經(jīng)元個數(shù)分別為45和50個,對ELM在(0,1)區(qū)間采用均勻分布隨機(jī)設(shè)定輸入層與隱含層的鏈接權(quán)值ω與隱含層神經(jīng)元的閾值b.
2)選擇S函數(shù)作為隱含層神經(jīng)元的激活函數(shù),進(jìn)而計算隱含層輸出矩陣H;
使用ELM算法對提取的顏色特征、紋理特征參數(shù)進(jìn)行分析,對人群進(jìn)行相似度分類,把人群分為一般人群和具有相似外部特征人群.
相關(guān)實驗表明,在ELM中許多非線性函數(shù)都可以使用,甚至還可用線性激活函數(shù)分類非線性樣本.針對本文數(shù)據(jù)集,根據(jù)相關(guān)研究[17],選取Sigmoid函數(shù)作為激活函數(shù)的分類效果優(yōu)于其他函數(shù),隱含層神經(jīng)元個數(shù)根據(jù)樣本數(shù)的變化而做出改變能獲得較好的分類精度.
本次仿真基于普通PC機(jī)平臺(CPU為6500K,3.2 GHz,6.00 GB內(nèi)存,顯存為2 G)完成.YOLO采用深度學(xué)習(xí)架構(gòu)YOLO-Darknet53 搭建仿真的運(yùn)行環(huán)境,并配置NVIDIA的CUDA 環(huán)境進(jìn)行GPU 并行加速計算.特征提取和分類部分通過MATLAB 2014a編程仿真環(huán)境編寫代碼并進(jìn)行仿真[18].筆者在拍攝的視頻數(shù)據(jù)集里提取了248個目標(biāo)個體與紋理特征數(shù)據(jù)作為訓(xùn)練集并做了大量仿真實驗,最后選取其中兩幀的仿真結(jié)果對比圖,并對仿真整體做了平均準(zhǔn)確率的計算.
本文特征分類部分訓(xùn)練集為248個目標(biāo)個體,具有相似外部特征的樣本有4組,其中每個類別含有6個目標(biāo)個體.測試集數(shù)據(jù)為77個目標(biāo)個體,具有相似外部特征的個體有2類,每類中有4個目標(biāo)個體,其余均為普通個體.表1為不同的特征組合的人群類別分類準(zhǔn)確率;圖10~14為測試集預(yù)測分類的結(jié)果與真實值的對比.在表1中可以看到F1特征組合的識別率為84.415%,相比于其他組合識別是最低的,說明在復(fù)雜條件下僅僅依靠顏色特征無法可靠識別出目標(biāo)個體,而在一定程度上增加特征數(shù)量可以提高識別的準(zhǔn)確率.最后一組F5特征組合在實驗條件下達(dá)到了96.104%,該組融合了文中提到的全部特征向量,各種特征之間相互彌補(bǔ)了各自的不足,呈現(xiàn)出較好的仿真效果.ELM作為一種機(jī)器學(xué)習(xí)分類算法,學(xué)習(xí)效率高、泛化能力強(qiáng),相比于傳統(tǒng)單隱層前饋神經(jīng)網(wǎng)絡(luò),在保證精度的前提下速度更快.
表1 5種特征組合在ELM下的準(zhǔn)確率
圖10 F1特征組合
筆者提出的基于深度學(xué)習(xí)的相似外部特征人員檢測算法利用了加入Fast Guided Filter的改進(jìn)暗通道去霧算法對拍攝的視頻數(shù)據(jù)集進(jìn)行優(yōu)化,再將經(jīng)過優(yōu)化增強(qiáng)后的樣本圖片投入到經(jīng)K-means方法聚類出預(yù)測框的YOLO v3網(wǎng)絡(luò)框架下進(jìn)行訓(xùn)練.然后用訓(xùn)練出的深度模型提取出需要檢測相似性特征的目標(biāo)人物.最后將目標(biāo)任務(wù)提取多種顏色及紋理特征并結(jié)合ELM對其進(jìn)行分類.深度學(xué)習(xí)的加入大大降低了由于遮擋和彎曲所造成的目標(biāo)漏檢問題,多特征的應(yīng)用也讓分類準(zhǔn)確率有了極大的保障.目前由于采集到的目標(biāo)人物有限,實際的目標(biāo)類別和特征都會遠(yuǎn)大于本文數(shù)量,故本研究成果對于實際的精準(zhǔn)分類來講還需要繼續(xù)完善.另外YOLO網(wǎng)絡(luò)對于圖像中過小的目標(biāo)依然存在漏檢的現(xiàn)象,下一步的工作將考慮根據(jù)特定的環(huán)境改進(jìn)現(xiàn)有神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),使之更能適應(yīng)當(dāng)前環(huán)境的應(yīng)用.
圖11 F2特征組合
圖12 F3特征組合
圖13 F4特征組合
圖14 F5特征組合