彭 洋,汪孟杰
(1.武漢理工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,湖北 武漢430070;2.武漢理工大學(xué) 汽車工程學(xué)院,湖北 武漢430070)
隨著經(jīng)濟(jì)的發(fā)展,汽車已經(jīng)普及到千家萬戶。作為汽車最直觀的識(shí)別標(biāo)志,車牌識(shí)別技術(shù)也成為了研究熱點(diǎn)問題。通常情況下,車牌識(shí)別分為車牌定位、字符分割、字符識(shí)別三個(gè)主要步驟。由于車牌字符間距較小,區(qū)別度較小。目前車牌識(shí)別技術(shù)已經(jīng)廣泛運(yùn)用于停車場(chǎng)、高速公路收費(fèi)站等場(chǎng)所。但由于拍攝環(huán)境和拍攝角度多變,基于全連接神經(jīng)網(wǎng)絡(luò)的車牌識(shí)別需要大量的訓(xùn)練數(shù)據(jù)提取特征,而且性能不穩(wěn)定。而最近幾年興起的基于卷積神經(jīng)網(wǎng)絡(luò)的字符識(shí)別方法相比于傳統(tǒng)字符識(shí)別技術(shù),能夠克服字符識(shí)別率較低、識(shí)別速度慢等技術(shù)困難,其識(shí)別率可達(dá)到99.7%。
卷積神經(jīng)網(wǎng)絡(luò)具有局部連接、權(quán)值共享、下采樣三大特性[1]。局部連接即在進(jìn)行圖像識(shí)別時(shí),不需要處理整個(gè)圖像,只需要關(guān)注圖像中某些特殊的區(qū)域,在識(shí)別車牌時(shí),按照不同的特征將車輛分成不同的區(qū)域,這樣就可以只關(guān)注車牌區(qū)域,使處理圖像的時(shí)間和效率大大提高。卷積層的另一大特征是權(quán)值共享,一個(gè)[i][i]的卷積核,則一共有i*i個(gè)參數(shù),而通過權(quán)值共享,則能夠分區(qū)域進(jìn)行卷積,檢測(cè)到相同的特征,不同的卷積核會(huì)有不同的權(quán)值參數(shù),每個(gè)參數(shù)用來訓(xùn)練不同的特征。卷積神經(jīng)網(wǎng)絡(luò)三大特性如圖1所示,使用權(quán)值共享的方法,總共產(chǎn)生了[i]個(gè)不同的權(quán)值參數(shù),而局部連接則會(huì)產(chǎn)生[j]個(gè)參數(shù),那么總共有i*j個(gè)參數(shù),使用權(quán)值共享的方法后,僅僅需要i個(gè)權(quán)值,更進(jìn)一步地減少了參數(shù)的數(shù)量,使訓(xùn)練的時(shí)間和效率進(jìn)一步提高。而下采樣則使圖像變小,但并不會(huì)影響圖像識(shí)別,處理得更加方便。
車牌定位主要分為基于圖形圖像學(xué)的定位方法和基于機(jī)器學(xué)習(xí)的定位方法。依靠圖形圖像定位的方法,在識(shí)別時(shí),外界會(huì)有很多干擾圖形、干擾顏色和干擾邊緣,而傳統(tǒng)的濾波方法很難消除圖形圖像干擾,因此使用基于圖形和圖像的定位方法時(shí),很容易造成定位失敗,假如給一個(gè)處理該誤差的算法,那么會(huì)選定很多非車牌區(qū)域,處理速度慢,難度大。基于機(jī)器學(xué)習(xí)的定位方法分為基于特征工程的方法和基于神經(jīng)網(wǎng)絡(luò)的定位方法,前者訓(xùn)練車牌識(shí)別時(shí)速度和效率都很低,所以基于神經(jīng)網(wǎng)絡(luò)的定位方法則是目前主流的定位方法。基于神經(jīng)網(wǎng)絡(luò)的定位方法可以分為全神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò),相比于全神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)具有的局部連接、權(quán)值共享、下采樣三大特性,使得圖像識(shí)別和定位的效率大大提高。由于卷積神經(jīng)網(wǎng)絡(luò)具有平移不變性,在學(xué)習(xí)過程中可以輔以候選區(qū)域,并對(duì)候選區(qū)域進(jìn)行分類。正確分類的候選區(qū)域即為目標(biāo)定位的位置。此類方法有較多實(shí)現(xiàn)模型,如RCNN、faster-RCNN、SSD等[2]。
圖1卷積神經(jīng)網(wǎng)絡(luò)三大特性
在進(jìn)行車牌字符識(shí)別時(shí),通過百度AI實(shí)訓(xùn)平臺(tái)——AI Studio進(jìn)行識(shí)別訓(xùn)練。首先,導(dǎo)入characterData.zip文件夾,里面包含了0~9、A~Z以及各省簡(jiǎn)稱。由于國(guó)內(nèi)沒有公布車牌信息的網(wǎng)站,所以在采集信息進(jìn)行訓(xùn)練時(shí),對(duì)0~9、A~Z、各省簡(jiǎn)稱字符分割,方便對(duì)車牌上的字符進(jìn)行重組,以便進(jìn)行大量的訓(xùn)練。車牌字符分割如圖2所示。
字符分割之后,便開始對(duì)字符進(jìn)行識(shí)別訓(xùn)練。訓(xùn)練步驟如下:①查看當(dāng)前掛載的數(shù)據(jù)集目錄,該目錄下的變更重啟環(huán)境后會(huì)自動(dòng)還原;②導(dǎo)入需要文件包;③解壓原始數(shù)據(jù)集,將src_path路徑下的zip包解壓至data/dataset;④生成數(shù)據(jù)列表并存放所有類別的信息;⑤對(duì)車牌圖片進(jìn)行處理,識(shí)別出車牌中的每一個(gè)字符并保存。模型的訓(xùn)練結(jié)果如圖3所示,識(shí)別無誤。
圖2車牌字符分割圖
圖3模型的訓(xùn)練結(jié)果
基于卷積神經(jīng)網(wǎng)絡(luò)的車牌識(shí)別技術(shù)優(yōu)勢(shì)之一是可以高速、高效率地進(jìn)行大量模型訓(xùn)練,在對(duì)分割字符進(jìn)行上萬次的排列組合后,也進(jìn)行了上萬次的訓(xùn)練識(shí)別[3]。累積訓(xùn)練時(shí)間如圖4所示,從中可以看出,隨著訓(xùn)練次數(shù)的增多,識(shí)別的速度也逐漸增大,在經(jīng)過上千次的訓(xùn)練之后,幾乎可以準(zhǔn)確無誤進(jìn)行高速識(shí)別。訓(xùn)練累積識(shí)別失誤率如圖5所示,可以看到,隨著訓(xùn)練次數(shù)的增加,車牌識(shí)別的失誤率在慢慢降低,最后幾乎可以達(dá)到零失誤。
本文基于卷積神經(jīng)網(wǎng)絡(luò)算法對(duì)車牌信息進(jìn)行識(shí)別,通過百度AI實(shí)訓(xùn)平臺(tái)——AI Studio進(jìn)行識(shí)別訓(xùn)練,相較于傳統(tǒng)的車牌識(shí)別方法,不需要對(duì)干擾圖形和干擾顏色進(jìn)行濾波,卷積神經(jīng)網(wǎng)絡(luò)算法在車牌定位、字符分割、字符識(shí)別方面都有著十分高的效率[4]。而卷積神經(jīng)網(wǎng)絡(luò)通過大量的訓(xùn)練,識(shí)別速度和識(shí)別準(zhǔn)確率等方面得到很大提高。而目前存在的問題就是無法獲得較多實(shí)際車牌信息,無法得到切合實(shí)際的訓(xùn)練效果,但是由于本文在字符切割進(jìn)行了高效率的處理,因此在字符切割方面不存在過大的問題。
圖4累積訓(xùn)練時(shí)間
圖5訓(xùn)練累積失誤率