趙小敏,孫志剛,夏 明
(浙江工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,浙江 杭州 310023)
基于局部學(xué)習(xí)的車輛圖像識(shí)別方法
趙小敏,孫志剛,夏 明
(浙江工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,浙江 杭州 310023)
隨著機(jī)動(dòng)車交通違法行為的增多,民眾利用智能手機(jī)拍照舉報(bào)式的監(jiān)督模式應(yīng)運(yùn)而生.針對(duì)由手機(jī)拍照舉報(bào)的靜態(tài)圖像的車輛識(shí)別問(wèn)題,提出一種基于局部學(xué)習(xí)的車輛識(shí)別方法.與在整個(gè)樣本空間里訓(xùn)練一個(gè)全局模型的傳統(tǒng)方法不同,該方法以局部學(xué)習(xí)中心選取策略和巴氏距離大小為基礎(chǔ),將樣本劃分若干子集并在每個(gè)子集上訓(xùn)練一個(gè)局部分類器.仿真結(jié)果表明:與已有形狀模型法、超像素級(jí)別等圖像目標(biāo)識(shí)別方法相比,該方法在靜態(tài)車輛圖像識(shí)別的問(wèn)題上擁有更好的識(shí)別率和識(shí)別效果.
局部學(xué)習(xí);超像素;目標(biāo)識(shí)別;車輛識(shí)別
近年來(lái),我國(guó)的汽車數(shù)量不斷增加,交通違法問(wèn)題也愈發(fā)凸顯.交警站崗職守與定點(diǎn)攝像監(jiān)控的方式已越來(lái)越難以應(yīng)對(duì)如此大規(guī)模增長(zhǎng)的機(jī)動(dòng)車.因此,在移動(dòng)互聯(lián)網(wǎng)飛速發(fā)展的當(dāng)下,依靠民眾隨時(shí)隨地拍攝車輛違法現(xiàn)象進(jìn)行舉報(bào)的監(jiān)督方式應(yīng)運(yùn)而生.鑒于流量和社交習(xí)慣等限制,這種監(jiān)督方式大多通過(guò)靜態(tài)圖像而非視頻提交給交警部門進(jìn)行舉報(bào).在已有的研究中,針對(duì)車輛的識(shí)別方法大多基于視頻和定點(diǎn)攝像機(jī),如Zhang等[1]通過(guò)改進(jìn)基于Haar-like特征的Adaboost算法,提出一種實(shí)時(shí)的車輛識(shí)別檢測(cè)方法,應(yīng)用于汽車的安全輔助駕駛中;為了解決高速公路交通監(jiān)控系統(tǒng)中對(duì)檢測(cè)車輛的外型、位置和大小等不精確問(wèn)題,Noh等[2]提出一個(gè)名為ASW的窗口滑動(dòng)技術(shù),應(yīng)用于高速公路無(wú)擁塞情況下的車輛檢測(cè);Tian等[3]通過(guò)突出車牌和車燈并建立一個(gè)名為MRF模型作為特征檢測(cè)區(qū)域,提出一種用于復(fù)雜城市交通流量監(jiān)控的車輛實(shí)時(shí)監(jiān)測(cè)跟蹤方法,并可適應(yīng)于不同天氣和交通繁忙情景.董天陽(yáng)等[4]使用Harr-like與HOG特征相結(jié)合,并利用反饋式AdaBoost算法訓(xùn)練分類器,提出一種面向交通視頻的前后車輛圖像識(shí)別方法.基于靜態(tài)圖像的車輛檢測(cè)識(shí)別研究則相對(duì)較少,Sun等[5]提出一種改進(jìn)的HOG特征,結(jié)合車底特征和支持向量機(jī),提出一種面向交通場(chǎng)景中靜態(tài)圖像的車輛檢測(cè)方法.Aarthi等[6]利用顏色變換和貝葉斯分類器,并使用角點(diǎn)地圖(Corner map)來(lái)移除誤檢區(qū)域,提出一種適用于不同天氣和光照條件下靜態(tài)車輛圖像的車輛識(shí)別方法.目前,針對(duì)移動(dòng)端拍攝的靜態(tài)照片情景研究較少,這對(duì)民眾上傳車輛違法行為的圖像進(jìn)行自動(dòng)篩選處理帶來(lái)了較大的困難.
筆者將非固定設(shè)備拍攝的靜態(tài)圖像的車輛識(shí)別問(wèn)題,轉(zhuǎn)換為基于超像素的背景和目標(biāo)二分類問(wèn)題,提出一種基于局部學(xué)習(xí)的車輛圖像識(shí)別方法(Vehicle image recognition method based on local learning,VIRLL).算法的基本思想是將圖像進(jìn)行超像素分割后,對(duì)圖像進(jìn)行密集SIFT(Scale invariant feature transform)特征提?。蝗缓髮?duì)提取的特征進(jìn)行聚類并統(tǒng)計(jì)超像素內(nèi)的特征類別分布,計(jì)算特征分布直方圖,將其作為支持向量機(jī)的訓(xùn)練特征;最后,采用一種局部學(xué)習(xí)中心樣本選取策略,建立局部學(xué)習(xí)樣本空間來(lái)訓(xùn)練分類器,從而進(jìn)行靜態(tài)圖像的車輛識(shí)別.
1.1 問(wèn)題分析
在基于視頻的車輛識(shí)別方式中,通??衫帽尘安罘╗7]提取前景目標(biāo)區(qū)域,從而消除背景干擾.而面向靜態(tài)圖像的車輛識(shí)別中,所有信息僅源于一張靜態(tài)圖片,無(wú)法方便地獲取背景信息,并且背景也會(huì)因?yàn)榕臄z角度不同而表現(xiàn)不同,因此存在背景干擾的問(wèn)題.
車輛圖像目標(biāo)識(shí)別面臨的另一項(xiàng)巨大挑戰(zhàn)就是車輛圖片的內(nèi)部差異.車輛圖像會(huì)因?yàn)檐囕v的型號(hào)、顏色等不同而呈現(xiàn)出不同的特征.即使是同一輛汽車,在不同的光照、拍攝角度和拍攝距離等條件下,也會(huì)有較大差異.
為解決上述兩個(gè)問(wèn)題,筆者提出VIRLL采用超像素分割的方式,將一幅車輛圖像分割成多個(gè)像素區(qū)域,并通過(guò)支持向量機(jī)分類器分出車輛區(qū)域來(lái)減少背景影響.同時(shí)引入局部學(xué)習(xí)理論,以減少車輛內(nèi)部差異所帶來(lái)的分類準(zhǔn)確度影響.
1.2 超像素分割
超像素是指由一些擁有相似紋理、顏色和亮度等特征的相鄰像素所構(gòu)成的像素塊.它將像素依據(jù)特征來(lái)分組,進(jìn)而可以獲得圖像的冗余信息、局部特征等,為后續(xù)的圖像處理帶來(lái)了極大方便[8].采用Achanta等提出的SLIC超像素分割方法[9],具有速度快、生成的超像素緊湊均勻等優(yōu)勢(shì),其步驟如下:
2) 相似度計(jì)算.對(duì)于每個(gè)像素點(diǎn),分別計(jì)算與其最近的種子點(diǎn)間的相似度,將其以最相似的種子點(diǎn)標(biāo)簽標(biāo)記,不斷迭代直至收斂.相似度定義為
式中:x,y為像素空間坐標(biāo);l,a,b為像素在Lab色彩模型下的各分量值;m為平衡系數(shù),用來(lái)權(quán)衡顏色與空間信息間的比重;d為種子點(diǎn)間距離.
1.3 局部學(xué)習(xí)
局部學(xué)習(xí)是一種能夠有效地解決內(nèi)部間差異問(wèn)題的方法,考慮多個(gè)局部模型而非全局方法中的一個(gè)全局模型,并且每個(gè)局部模型都是由總樣本中的子樣本集訓(xùn)練得到的,如圖1所示的費(fèi)馬螺線[10]問(wèn)題.
圖1 費(fèi)馬螺線問(wèn)題示意圖Fig.1 The sketch map of Fermat spiral problem
圖1中兩種類別的樣本分布在二維平面上,分別以加號(hào)和圓圈進(jìn)行表示,曲線AB代表這兩類樣本的一個(gè)可能分類決策邊界.從圖1可看出:這兩種樣本分布呈螺旋狀,高度非線性化,在實(shí)際應(yīng)用中訓(xùn)練如此復(fù)雜的分類器是比較困難的.相反地,對(duì)于局部的樣本子集C,在其范圍內(nèi)可以訓(xùn)練一個(gè)局部分類器,它對(duì)C樣本子集的分類性能顯然會(huì)優(yōu)于全局分類器,同時(shí)也大大減少了分類器訓(xùn)練的復(fù)雜度.
VIRLL車輛識(shí)別方法是以超像素作為分類單元.由于車輛本身含有車窗、車身、車燈和車牌等不同的區(qū)域,如果分割出的超像素過(guò)大,可能會(huì)出現(xiàn)一個(gè)超像素塊內(nèi)包含上述多種區(qū)域或者同時(shí)含有車輛目標(biāo)和大量背景信息的情景,從而影響特征描述和識(shí)別效果;倘若分割出的超像素過(guò)小,不僅會(huì)使得超像素所攜帶的特征過(guò)于局部性而不利于表述語(yǔ)義信息,還會(huì)帶來(lái)過(guò)大的計(jì)算量.因此,需要在所分割的超像素大小上找到一個(gè)較為合理的平衡點(diǎn),如圖2所示.
圖2 VLfeat庫(kù)[11]超像素分割示意圖Fig.2 The sketch map of superpixelsin VLfeat Lib
圖2中,rs為超像素的區(qū)域大小.在圖2(a)中初始超像素區(qū)域大小rs=10,分割得到大量的超像素且每個(gè)超像素大小都過(guò)小,車輛邊緣描述很細(xì)膩但所攜帶的特征信息過(guò)于局部化.圖2(c)中區(qū)域大小rs=100時(shí),所得到的超像素?cái)?shù)量大大減少,但目標(biāo)車輛上的部分超像素過(guò)大而且部分車輛目標(biāo)上的超像素包含了大量背景像素,勢(shì)必會(huì)導(dǎo)致在訓(xùn)練分類器時(shí)受到這些背景干擾而影響訓(xùn)練的準(zhǔn)確性.圖2(b)為一種較為合理的分割結(jié)果,超像素大小適中且車輛目標(biāo)上的超像素不含或只含少量背景信息.
在圖像處理領(lǐng)域廣泛應(yīng)用的SIFT特征,具有抗角度變化、尺度變化和扭曲旋轉(zhuǎn)等諸多優(yōu)點(diǎn),但對(duì)于以超像素為單位的情景,單個(gè)超像素內(nèi)可能并不含有關(guān)鍵點(diǎn),以至于采用SIFT特征不足以描述超像素特征.在特征提取階段,采用省略關(guān)鍵點(diǎn)檢測(cè)的DSIFT特征(Dense SIFT)[11-12],保證每個(gè)超像素內(nèi)的特征數(shù)量以及局部梯度信息的直方圖統(tǒng)計(jì).對(duì)于一個(gè)給定尺度的圖像L(x,y),像素點(diǎn)的梯度[12]計(jì)算式為
θ(x,y)=tan-1[((L(x,y+1)-L(x,y- 1))/(L(x+1,y)-L(x-1,y))]
式中:m(x,y)為梯度的模;θ(x,y)為梯度方向.DSIFT特征提取過(guò)程采用滑動(dòng)窗口的方式,滑動(dòng)步長(zhǎng)為1,逐列對(duì)圖像中的像素點(diǎn)進(jìn)行密集采樣.每次以窗口中心為特征點(diǎn),計(jì)算該窗口中心4×4像素區(qū)域內(nèi)的梯度,并將每個(gè)子域的梯度量化為8個(gè)方向上形成直方圖向量,最終將所有梯度直方圖向量串接成特征點(diǎn)的一個(gè)128維特征描述子:
V=[v1,v2,…,v128]
算法1 CSPLL
輸入:樣本空間集S,中心個(gè)數(shù)Nc
輸出:局部樣本集C
1) 初始化C
2) 根據(jù)真值信息將S分為正樣本集S1和負(fù)樣本集S0
3) 在S1中隨機(jī)選取Nc個(gè)樣本作為種子點(diǎn)集合Rc
4) foreachrc∈Rc
5) 在S0中選取與rc距離最小的負(fù)樣本s0
6)rc←s0
7) 在S1中選取與rc距離最小的正樣本s1
8)rc←s1
9)rc作為一個(gè)中心樣本加入集合C
10) end foreach
11) returnC
對(duì)于C中的每個(gè)局部樣本子集ct,設(shè)其中心樣本為zt,擁有的樣本數(shù)量為at.分別在S0和S1空間內(nèi),計(jì)算各正負(fù)樣本與zt的距離,選取N0個(gè)距離最近的負(fù)樣本和N1個(gè)正樣本,將其添加到ct中,其中N0=λ·N1,λ為局部學(xué)習(xí)正負(fù)樣本比例系數(shù).
歐氏距離是各領(lǐng)域廣泛應(yīng)用的距離計(jì)算方式,通常情況下它可以滿足絕大數(shù)需求.但它有一個(gè)明顯的缺點(diǎn)是將各分量等同看待,如對(duì)于2個(gè)n維向量a(x1,x2,…,xi),b(y1,y2,…,yi),其歐式距離Do為
顯然a向量中xi+Δ分量對(duì)ab間歐式距離Do的影響與xi是等同的.而超像素特征的本質(zhì)是一個(gè)直方圖信息,同等對(duì)待hi的各分量勢(shì)必會(huì)對(duì)特征區(qū)分帶來(lái)影響從而降低分類的準(zhǔn)確度.因此,這里采用巴氏距離來(lái)計(jì)算樣本直方圖特征間的距離,離散巴氏距離計(jì)算式[14]為
DB=-ln(B)
式中B為巴氏系數(shù),是對(duì)兩個(gè)樣本間重疊量的計(jì)算.當(dāng)兩個(gè)直方圖特征的各分量重疊得越多,所得的巴氏系數(shù)B會(huì)越大,也就代表著兩個(gè)樣本越相關(guān),最終巴氏距離DB也就越小.這樣可以在計(jì)算樣本間距離的同時(shí),把直方圖特征hi的各分量進(jìn)行區(qū)分.
在局部樣本集合C中,依據(jù)局部學(xué)習(xí)理論以ct作為訓(xùn)練集為每個(gè)局部模型訓(xùn)練一個(gè)局部SVM分類器,并在預(yù)測(cè)階段以各局部SVM分類器的判定結(jié)果作為最終分類結(jié)果.具體的車輛識(shí)別訓(xùn)練階段算法如下:
算法2 訓(xùn)練階段
輸入:訓(xùn)練圖像集I,真值圖像集I0
輸出:SVM分類器集合svm_set,局部樣本集C
1) 初始化T,P,S,S1,S0
2) foreachi∈I
3) 對(duì)i高斯平滑濾波處理
4)pi←SLIC(i)
5) DSIFT(i),并加入集合T
6)pi加入集合P
7) end foreach
8)k-means(T)
9) foreachpi∈P
10)hi←統(tǒng)計(jì)pi內(nèi)tj的類型kr分布
11)hi歸一化,并加入集合S
12) end foreach
13)C←CSPLL(S)
14) foreachct∈C
15) 計(jì)算ct樣本中心zt與S0和S1中各樣本的距離
16) 選取最小的N0個(gè)負(fù)樣本加入ct
17) 選取最小的N1個(gè)正樣本加入ct
18) 以ct為樣本集訓(xùn)練SVM,得到的分類器加入svm_set
19) end foreach
20) return svm_set和C
算法3 預(yù)測(cè)階段
輸入:測(cè)試圖像I′,SVM分類器集合svm_set,局部樣本集C
輸出:識(shí)別的圖像R
1) 初始化T′,P′,R
2) 對(duì)I′高斯平滑濾波處理
4) DSIFT(I′),并加入集合T′
9) end foreach
13) foreachct∈C
15) end foreach
16) 選取距離最小的zt
20) end if
21) end foreach
22)R←P′
23) ReturnR
為驗(yàn)證車輛識(shí)別方法的有效性,使用Matlab 2014在windows7×64平臺(tái)下利用Graz-02數(shù)據(jù)庫(kù)[10]中的Cars庫(kù)進(jìn)行仿真實(shí)驗(yàn).Graz-02數(shù)據(jù)庫(kù)中的車輛圖片內(nèi)差異較大,背景也很復(fù)雜,如圖3所示.
圖3 Graz-02數(shù)據(jù)庫(kù)部分圖片F(xiàn)ig.3 Some examples in the Cars lib of Graz-02
實(shí)驗(yàn)的超像素分割和特征提取部分使用VLfeat[11]庫(kù)實(shí)現(xiàn),對(duì)圖片的每個(gè)像素點(diǎn)進(jìn)行DSIFT特征提取.SVM分類器使用libsvm[15]庫(kù),核函數(shù)選擇線性核,損失函數(shù)c采用交叉驗(yàn)證法確定.選取車身比例適中的訓(xùn)練圖片40張,閾值θsp=0.5,k-means聚類k=400,共得到總樣本空間大小為5 200,建立局部學(xué)習(xí)中心440個(gè),每個(gè)中心選取正負(fù)樣本各150個(gè),分別訓(xùn)練這440個(gè)SVM分類器.
結(jié)果評(píng)價(jià)標(biāo)準(zhǔn)使用分類、檢索問(wèn)題普遍應(yīng)用的查準(zhǔn)率(Precision ratio)、查全率(Recall ratio)以及Precision-Recall曲線[16].VIRLL方法雖是以超像素為識(shí)別單位,但為了方便與其他方法比較,這里采用像素級(jí)別的查準(zhǔn)率和查全率,其定義為查準(zhǔn)率=被正確判定為車輛的像素?cái)?shù)/被判定為車輛的總像素?cái)?shù);查全率=被正確判定為車輛的像素?cái)?shù)/真正車輛區(qū)域的總像素?cái)?shù).從Graz-02數(shù)據(jù)庫(kù)余下的圖片中選取30張進(jìn)行預(yù)測(cè),根據(jù)SVM分類器返回的決策值矩陣,通過(guò)改變不同的閾值進(jìn)行多次檢索查詢得到Precision-Recall曲線及實(shí)驗(yàn)所得到的識(shí)別結(jié)果,分別如圖4,5所示.
圖4 Precision-Recall曲線Fig.4 The Precision-Recall curve of VIRLL
圖5 部分車輛識(shí)別結(jié)果Fig.5 Recognition results of VIRLL
圖4中實(shí)線為車輛圖像識(shí)別方法VIRLL在超像素區(qū)域大小rs=50時(shí)由仿真實(shí)驗(yàn)得到的Precision-Recall曲線,點(diǎn)線為rs=60時(shí)對(duì)應(yīng)得到的結(jié)果,虛線是隨機(jī)分類時(shí)的對(duì)比結(jié)果,其中橫縱坐標(biāo)單位為1,即為百分比.對(duì)于一個(gè)好的識(shí)別系統(tǒng),應(yīng)該同時(shí)擁有更高的查全率和查準(zhǔn)率,即Precision-Recall曲線越靠近坐標(biāo)(1,1)的位置系統(tǒng)性能越好.圖5中第一列為原圖,第二列為對(duì)應(yīng)的真值圖片,第三列和第四列分別為rs=50和rs=60時(shí)實(shí)驗(yàn)所得的對(duì)應(yīng)識(shí)別結(jié)果.圖4中rs=60的Precision-Recall曲線要比rs=50的更接近(1,1)點(diǎn),說(shuō)明系統(tǒng)性能更好,主要是因?yàn)閞s=60時(shí)每塊超像素面積更大,統(tǒng)計(jì)的直方圖特征更易于后期分類.但由于超像素增大,車輛邊緣處的超像素更容易含有更多的背景像素,使得分類器誤判的幾率也更大,誤判時(shí)會(huì)導(dǎo)致識(shí)別出的車輛產(chǎn)生缺失,如圖5(c)第四列和圖5(b)第四列結(jié)果所述.在識(shí)別結(jié)果中,所識(shí)別的目標(biāo)車輛區(qū)域存在一些非車輛的像素區(qū)域和誤識(shí)別區(qū)域,原因是在超像素分割階段并未完全保證所分割的超像素只含有車輛或背景像素中的一種,因此存在兩者共存的超像素,當(dāng)其被SVM分類器判定為車輛區(qū)域或背景時(shí)便出現(xiàn)了圖5(b)第三列和第四列的情況.另外,由于同時(shí)含有車輛和背景信息,在SVM分類器訓(xùn)練階段也會(huì)對(duì)分類器準(zhǔn)確性造成影響,從而產(chǎn)生誤識(shí)別的超像素,如圖5(a)所示.為了優(yōu)化識(shí)別效果和準(zhǔn)確度,可在超像素分割階段分割出小塊超像素,然后將小塊超像素按一定規(guī)則進(jìn)行鄰域合并,減少車輛和背景共存的超像素,從而減少“陰影”區(qū)域.
在Precision-Recall曲線中,令查全率=查準(zhǔn)率,找到的點(diǎn)為等錯(cuò)點(diǎn)(Equal error rate, EER)[10],將該點(diǎn)的像素級(jí)查全率(查準(zhǔn)率)值作為識(shí)別率的評(píng)價(jià)標(biāo)準(zhǔn).可見(jiàn)該點(diǎn)為Precision-Recall曲線與p=r的交點(diǎn),該點(diǎn)處值越大代表著Precision-Recall曲線越接近右上角(1,1)位置,所得的分類器性能也越好.筆者將VIRLL方法與形狀模擬法[17]和超像素級(jí)別LL[10]在Graz-02的Cars數(shù)據(jù)庫(kù)上進(jìn)行對(duì)比:Marszalek等所提出的利用形狀模型來(lái)模擬相似特征的識(shí)別方法中,Precision-Recall曲線與p=r的交點(diǎn)(EER點(diǎn))出現(xiàn)在53.8%[17]處;在基于局部學(xué)習(xí)(LL)的超像素級(jí)別圖像目標(biāo)識(shí)別方法中,其Precision-Recall曲線的EER點(diǎn)在69.2%[10]處;VIRLL識(shí)別方法在rs=50時(shí),Precision-Recall曲線的EER點(diǎn)在70.4%,而rs=60時(shí)EER點(diǎn)在74.2%處,均大于上述2種方法的結(jié)果,由此可見(jiàn):在車輛圖像識(shí)別問(wèn)題上,筆者提出的基于局部學(xué)習(xí)的車輛圖像識(shí)別方法(VIRLL)與其他2種方法相比擁有較優(yōu)的識(shí)別率.
針對(duì)移動(dòng)設(shè)備拍攝的靜態(tài)圖像中因存在內(nèi)部差異和背景干擾而引起的低識(shí)別率問(wèn)題,提出一種基于局部學(xué)習(xí)的車輛圖像識(shí)別方法(VIRLL).該方法以超像素內(nèi)的DSIFT特征類別分布直方圖為特征,使用局部學(xué)習(xí)中心樣本選取策略(CSPLL)來(lái)確定局部學(xué)習(xí)的各樣本子集中心,并添入一些擁有最小巴氏距離的正負(fù)樣本來(lái)組建各局部樣本空間,以此來(lái)訓(xùn)練各局部SVM分類器.從仿真實(shí)驗(yàn)結(jié)果可以看出該方法擁有良好的識(shí)別效果.為了提高識(shí)別效果和準(zhǔn)確度,在下一步的研究工作中,可考慮利用車輛的先驗(yàn)知識(shí)或優(yōu)化超像素分割,將小塊超像素按一定規(guī)則進(jìn)行合并,減少車輛和背景共存的超像素,從而進(jìn)一步提高識(shí)別率.
[1] ZHANG Yunzhou, SUN Pengfei, LI Jifan, et al. Real-time vehicle detection in highway based on improved Adaboost and image segmentation[C]//IEEE International Conference on Cyber Technology in Automation, Control, and Intelligent Systems. Shenyang: IEEE,2015.
[2] NOH S J, SHIM D, JEON M. Adaptive sliding-window strategy for vehicle detection in highway environments[J]. IEEE transactions on intelligent transportation systems,2015,17(2):1-13.
[3] TIAN Bin, LI Ye, LI Bo, et al. Rear-view vehicle detection and tracking by combining multiple parts for complex urban surveillance[J]. IEEE transactions on intelligent transportation systems,2014,15(2):597-606.
[4] 董天陽(yáng),阮體洪,吳佳敏,等.一種Haar-like和HOG特征結(jié)合的交通視頻車輛識(shí)別方法研究[J].浙江工業(yè)大學(xué)學(xué)報(bào),2015,43(5):503-507.
[5] SUN Diqing, WATADA J. Detecting pedestrians and vehicles in traffic scene based on boosted HOG features and SVM[C]//Intelligent Signal Processing (WISP),2015 IEEE 9th International Symposium on. Siena: IEEE,2015:1-4.
[6] AARTHI R, PADMAVATHI S, AMUDHA J. Vehicle detection in static images using color and corner map[C]//International Conference on Recent Trends in Information, Telecommunication and Computing. Kochi:IEEE,2010:244-246.
[7] 彭宏,韓露莎,王輝,等.基于小波變換與多幀平均法融合的背景提取[J].浙江工業(yè)大學(xué)學(xué)報(bào),2013,41(2):228-231.
[8] 王春瑤,陳俊周,李煒.超像素分割算法研究綜述[J].計(jì)算機(jī)應(yīng)用研究,2014,31(1):6-12.
[9] ACHANTA R, SHAJI A, SMITH K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE transactions on pattern analysis & machine intelligence,2012,34(11):2274-2282.
[10] 馮雪嬌.基于局部學(xué)習(xí)的超像素級(jí)圖像目標(biāo)識(shí)別[D].大連:大連理工大學(xué),2011.
[11] VEDALDI A, FULKERSON B. Vlfeat: an open and portable library of computer vision algorithms[C]//Proceedings of the 18th ACM International Conference on Multimedia. Firenze: ACM,2010:1469-1472.
[12] 張曉明.基于SIFT特征的人臉表情識(shí)別研究[D].南京:南京郵電大學(xué),2014.
[13] HARTIGAN J A, WONG M A. Ak-means clustering algorithm[J]. Applied statistics,1979,28(1):100-108.
[14] 梁亦聰,丁曉青,方馳.開(kāi)集人臉識(shí)別中的性能評(píng)估系統(tǒng)[J].模式識(shí)別與人工智能,2014,27(4):289-293.
[15] CHANG C C, LIN C H. LIBSVM: a library for support vector machines[J]. Acm transactions on intelligent systems & technology,2011,2(3):1-27.
[16] 潘翔,陳敖,周春燕,等.基于視圖特征點(diǎn)分布的三維模型檢索算法[J].浙江工業(yè)大學(xué)學(xué)報(bào),2013,41(6):641-645.
[17] MARSZALEK M, SCHMID C. Accurate object localization with shape masks[C]//IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis: IEEE,2007:1-8.
(責(zé)任編輯:陳石平)
A vehicle image recognition method based on local learning
ZHAO Xiaomin, SUN Zhigang, XIA Ming
(College of Computer Science and Technology, Zhejiang University of Technology, Hangzhou 310023, China)
Along with the increase in vehicle traffic violations, a supervising mode that people use smart phones to take pictures and report the illegal phenomenon comes into being. For the problem that recognizes vehicle from the photoes taken by smart phones, a vehicle recognition method based on local learning is proposed. We divide the sample into several subsets basing on center selection policy for local learning and Bhattacharyya distance, then train a local classifier for each subset, which is different from the traditional training on the whole sample space. The simulation results show that, compared with several existing image target recognition method, this method has better recognition rate and a good recognition effect on the recognition problem of vehicle static image.
local learning; super pixel; object recognition; vehicle recognition
2016-12-06
國(guó)家自然科學(xué)基金資助項(xiàng)目(61401397);浙江省科技廳公益資助項(xiàng)目(2014C33073)
趙小敏(1976—),男,浙江文成人,副教授,博士,研究方向?yàn)闊o(wú)線傳感器網(wǎng)絡(luò)和信息安全,E-mail:zxm@zjut.edu.cn.
TP391
A
1006-4303(2017)04-0439-06