王棟 蔡斌斌 宰昶豐
摘? 要: 針對城市停車難,車位檢測環(huán)境復(fù)雜等情況,研究了一種基于Inception-V4算法的車位狀態(tài)檢測方法。在Inception-V4網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上使用Leaky_ReLU代替ReLU作為激活函數(shù),解決ReLU激活函數(shù)引起的神經(jīng)元失活問題;在網(wǎng)絡(luò)分類層前添加FReLU激活函數(shù)層和多個全連接層,使其獲得有更豐富語義信息的特征向量,防止了網(wǎng)絡(luò)過擬合問題,提高車位狀態(tài)檢測模型的整體性能?;赑KLot停車場數(shù)據(jù)集的實驗結(jié)果表明,該方法對車位狀態(tài)檢測準(zhǔn)確率較原模型有較大程度的提升。
關(guān)鍵詞: 車位檢測; 深度學(xué)習(xí); Inception-V4; Leaky_ReLU; FReLU
中圖分類號:TP181? ? ? ? ? 文獻(xiàn)標(biāo)識碼:A? ? ?文章編號:1006-8228(2022)03-05-06
Abstract: Due to the difficulty of parking in cities and the complex detection environment of parking spaces, a parking space state detection method based on Inception-V4 algorithm is studied in this paper. On the basis of the Inception-V4 network structure, Leaky_ReLU is used instead of ReLU as the activation function to solve the problem of neuron inactivation caused by the ReLU activation function; the FReLU activation function layer and multiple fully connected layers are added before the network classification layer to obtain feature vectors with richer semantic information, which prevents network over-fitting problems and improves the overall performance of the parking space state detection model. The experimental results on PKLot parking lot data set show that the accuracy of the parking space state detection of this method is greatly improved compared with the original model.
Key words: parking space detection; deep learning; Inception-V4; Leaky_ReLU; FReLU
0 引言
隨著城市規(guī)模與機動車數(shù)量的不斷增長,城市道路越來越擁擠,許多學(xué)者提出使用車位信息共享緩解城市交通擁堵,而車位狀態(tài)檢測是實現(xiàn)車位信息共享的重要前提。
目前車位狀態(tài)檢測主要分為基于傳感器和基于計算機視覺兩種。基于傳感器的車位狀態(tài)檢測方法主要通過計算紅外線、超聲波、雷達(dá)等傳感器到目標(biāo)車輛的距離來判斷車位是否在指定車位上,如,何偉[1]使用車載超聲波傳感器及輪速傳感器聯(lián)合測得垂直泊車工況下車位,曾凱[2]使用基于NB-IoT技術(shù)的地磁傳感器車位檢測系統(tǒng)獲取車位狀態(tài)信息,但該方法需要大量的傳感器裝置覆蓋停車場或安裝至目標(biāo)車內(nèi),且安裝鋪設(shè)繁瑣,成本高,維護(hù)困難?;谟嬎銠C視覺的檢測方法主要通過圖像采集設(shè)備對場景進(jìn)行拍攝獲取圖像,并結(jié)合統(tǒng)計模式識別或者深度學(xué)習(xí)等方法對車位狀態(tài)進(jìn)行檢測。圖像采集設(shè)備覆蓋范圍廣,成本低,且基于停車場現(xiàn)有的監(jiān)控設(shè)備就可實現(xiàn)檢測,基于視覺的檢測方法成為目前主要的研究方向。如,Dan[3]等人使用支持向量機(Support Vector Machine,SVM)的方法實現(xiàn)了對空車位的檢測,實驗結(jié)果顯示檢測速度較慢;Wu[4]等人通過將SVM與馬爾可夫隨機場框架結(jié)合及Paulo[5]等人將SVM與高斯初始化的局部二值化模式結(jié)合來提高檢測效率。該技術(shù)解決了光照變化對車位檢測的影響,但需要根據(jù)具體數(shù)據(jù)調(diào)整分類器,泛化能力較弱,對天氣和陰影條件干擾的圖像識別率較低。而深度學(xué)習(xí)可以學(xué)習(xí)海量數(shù)據(jù),解決數(shù)據(jù)中高維、高噪聲等SVM難以處理的問題,提高檢測準(zhǔn)確率。
近年來,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)由于大量的訓(xùn)練標(biāo)記數(shù)據(jù)和連續(xù)多層卷積過程,已被廣泛應(yīng)用于計算機視覺任務(wù)中[6],隨著深度學(xué)習(xí)不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)到更抽象、更高級,更具辨別性的特征,AlexNet[7],ZFNet[8],VGGNet[9],GoogLeNet[10],ResNet[11],SENet[12]等網(wǎng)絡(luò)結(jié)構(gòu)的相繼出現(xiàn),在圖像分類任務(wù)上效果出眾。如,karakaya[13]等人在嵌入式系統(tǒng)上運行循環(huán)神經(jīng)網(wǎng)絡(luò)來對停車場圖像進(jìn)行處理,獲取停車場可用性信息,檢測停車位占用率,但沒有在空車位檢測信息方面做更多研究;安旭驍[14]等人提出使用迷你卷積神經(jīng)網(wǎng)絡(luò)(Mini Convolutional Neural Network,MCNN)進(jìn)行車位檢測,通過減小網(wǎng)絡(luò)參數(shù),使用小卷積核,局部響應(yīng)歸一化等方法提高網(wǎng)絡(luò)訓(xùn)練速度和識別時間,但對存在陰影干擾的車位圖像識別效果不佳,易受到光照變化,物體運動陰影,遮擋等復(fù)雜環(huán)境因素干擾,準(zhǔn)確率較低。
上述方法均存在對陰影干擾下的車位圖像檢測效果差,容易出現(xiàn)誤檢的問題,為了更適用于車位檢測,減弱陰影條件對車位狀態(tài)檢測的干擾,本文研究一種基于Inception-V4模型的車位檢測方法。該方法以Inception-V4為基礎(chǔ)網(wǎng)絡(luò)構(gòu)架并進(jìn)行結(jié)構(gòu)調(diào)整、添加和替換FReLU,Leaky ReLU激活函數(shù),使改進(jìn)后的算法Inception-FN更加適用于車位狀態(tài)檢測,增加陰影條件下車位狀態(tài)檢測的魯棒性。
1 Inception-V4結(jié)構(gòu)基本原理
對于卷積網(wǎng)絡(luò)來說,獲取高效的網(wǎng)絡(luò)性能的有效方法就是增加網(wǎng)絡(luò)的廣度及深度,但是盲目的增加會導(dǎo)致網(wǎng)絡(luò)參數(shù)的急劇增加,很容易引起過擬合,GoogLeNet[10]在經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)LeNet-5的基礎(chǔ)上,針對上述問題設(shè)計了Inception模塊,引入多尺度卷積提取多尺度局部特征,增加了網(wǎng)絡(luò)寬度和深度,克服因深度和寬度增加帶來的參數(shù)量爆炸和優(yōu)化計算量劇增問題,提高深度神經(jīng)網(wǎng)絡(luò)模型質(zhì)量。從Incetpion-V1到Inception-V4[15-18]版本,每個版本的網(wǎng)絡(luò)都在原有基礎(chǔ)上進(jìn)行了部分改進(jìn),以提高網(wǎng)絡(luò)性能。本文使用Inception-V4算法進(jìn)行車位狀態(tài)檢測,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,主要包括Stem模塊、Inception-A模塊、Inception-B模塊、Inception-C模塊、Reduction-A模塊、Reduction-B模塊。
Inception-V4模型在保證模型性能的同時,增加模型結(jié)構(gòu)、使用更少的參數(shù)、保留特征、并提高計算效率。但在小型數(shù)據(jù)集模型上容易過擬合,在車位狀態(tài)檢測過程中,對陰影條件下的車位圖像容易出現(xiàn)漏檢、誤檢等問題,因此針對此不足之處進(jìn)行改進(jìn)。使用leaky_ReLU激活函數(shù)代替原網(wǎng)絡(luò)中的ReLU函數(shù),解決ReLU激活函數(shù)引起的神經(jīng)元失活問題;并對Inception-v4的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行調(diào)整,在網(wǎng)絡(luò)分類層前添加FReLU激活函數(shù)層,自適應(yīng)捕獲圖像像素空間相關(guān)性,豐富提取的車位圖像特征和高等級的抽象語義信息;添加批量歸一化層和全連接層,加強模型正則化,減少信息傳遞損失和過擬合影響,從而提高模型性能以及泛化能力。
2 基于Inception-V4的車位檢測
2.1 激活函數(shù)改進(jìn)
Inception-V4神經(jīng)網(wǎng)絡(luò)用線性修正單元ReLU[19]作為激活函數(shù),ReLU激活函數(shù)及其導(dǎo)數(shù)表達(dá)式為:
ReLU激活函數(shù)在[x>0]時輸出為[x],可以避免梯度消失,計算速度快,能使網(wǎng)絡(luò)快速收斂,[x≤0]時,輸出為0,使部分神經(jīng)元處于非激活狀態(tài),其后向傳導(dǎo)權(quán)重?zé)o法更新。
為了解決ReLU激活函數(shù)輸入值為負(fù)時神經(jīng)元會失活的問題,使用Leaky_ReLU[20]函數(shù)作為網(wǎng)絡(luò)主體的激活函數(shù),其表達(dá)式為:
其中,[x]為上層輸出特征,[α]為一個較小的常數(shù),一般取值為0.01。當(dāng)[x>0]時輸出為[x],[x<0]時,得到[αx],保證輸入信息不會丟失,防止神經(jīng)元失活,保證訓(xùn)練梯度正常傳播。
為了減少圖像在網(wǎng)絡(luò)傳遞中的信息損失,提高網(wǎng)絡(luò)性能,在分類層前增加FReLU[21]激活函數(shù)層,擴(kuò)大感受野,使網(wǎng)絡(luò)獲取更豐富的語義信息。
其表達(dá)式為:
其中:[Pωc]表示此窗口上在同一通道中共享的系數(shù);[xωc,i,j]是以二維空間位置[(i,j)]上第C個通道上的非線性激活函數(shù)[f(?)]的輸入像素為中心的參數(shù)池化窗口,使用參數(shù)池化窗口在創(chuàng)建空間依賴性。
FReLU激活函數(shù)通過增加可忽略不計的空間條件計算開銷將ReLU和PReLU擴(kuò)展為具有像素級建模能力的視覺參數(shù)化2D激活函數(shù)。通常的做法是在卷積層創(chuàng)建空間依賴性,并分別進(jìn)行非線性變換,該方法使得網(wǎng)絡(luò)可以在每個像素的非線性激活中產(chǎn)生空間條件,非線性變換時也產(chǎn)生空間依賴性,在使用網(wǎng)絡(luò)訓(xùn)練車位狀態(tài)檢測時,增加網(wǎng)絡(luò)上下層空間依賴性,豐富網(wǎng)絡(luò)中的高級語義信息,有利于區(qū)分陰影條件干擾,提高車位檢測的魯棒性。
2.2 網(wǎng)絡(luò)結(jié)構(gòu)調(diào)整
由于Inception-V4模型復(fù)雜,為減少模型參數(shù)過多導(dǎo)致車位狀態(tài)檢測模型過擬合,影響其泛化能力,本文對Inception-v4的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行調(diào)整,在網(wǎng)絡(luò)末端分類層添加FReLU激活函數(shù)層、批歸一化層和全連接層,減少信息傳遞損失,加強模型正則化,減少過擬合影響,提高模型泛化能力。圖2為結(jié)構(gòu)調(diào)整后的Inception-v4模型網(wǎng)絡(luò)結(jié)構(gòu)圖(改進(jìn)模型稱為Inception-FN),其中方框內(nèi)為結(jié)構(gòu)調(diào)整的部分。
3 實驗與結(jié)果分析
3.1 實驗數(shù)據(jù)
本文使用PKLot數(shù)據(jù)集[5]中的車位圖像作為實驗數(shù)據(jù)。使用PKLot數(shù)據(jù)集中UFPR05停車場場景數(shù)據(jù)子集,包括停車場不同天氣下的場景圖像和場景中分割出的各車位圖像,場景如圖3所示。
PKLot停車場數(shù)據(jù)集中包含三種天氣情況下的車位圖像,分別是晴天、多云和下雨,實驗主要選取陰影干擾較嚴(yán)重的晴天天氣圖像作為研究對象,文獻(xiàn)[13-14]對停車場車位狀態(tài)檢測結(jié)果均表明,陰影條件下的車位圖像狀態(tài)檢測效果
最差,是影響檢測準(zhǔn)確率的重要因素之一。針對該問題,在PKLot停車場數(shù)據(jù)集的所有晴天環(huán)境的車位圖像中隨機選擇了18000多張車位圖像作為車位檢測模型的數(shù)據(jù)集,其數(shù)據(jù)分布如表1所示,總數(shù)據(jù)集的45%作為訓(xùn)練集,20%作為驗證集,35%作為測試集,其中占用車位和非占用車位圖像在各數(shù)據(jù)集中均占50%,另選擇未參與模型訓(xùn)練的6541張陰影條件下的車位圖像作為陰影數(shù)據(jù)集。
3.2 車位檢測模型訓(xùn)練
本文使用PaddlePaddle深度學(xué)習(xí)框架實現(xiàn)Inception-V4和改進(jìn)的Inception-V4模型Inception-FN,并在百度AI Studio云深度學(xué)習(xí)平臺測試運行調(diào)試,GPU實驗環(huán)境為Linux操作系統(tǒng),32G顯存和GPU-TeslaV100。
輸入圖像尺寸為(3,299,299),使用ImageNet數(shù)據(jù)集訓(xùn)練的Inception-V4預(yù)訓(xùn)練模型對網(wǎng)絡(luò)對應(yīng)的層進(jìn)行權(quán)重初始化,每批次處理的圖像為32張,最大訓(xùn)練輪次為30輪,每輪訓(xùn)練500批次,PKLot數(shù)據(jù)集的所有車位圖像三通道均值RGB分別為(91.5,90.7,85.5),采用SGD優(yōu)化器優(yōu)化梯度,初始學(xué)習(xí)率為0.0001,學(xué)習(xí)率衰減策略為每訓(xùn)練10輪學(xué)習(xí)率減半,每20個批次記錄一次訓(xùn)練結(jié)果,每輪記錄一次測試結(jié)果。
由圖4可見,當(dāng)訓(xùn)練輪次迭代至4000次左右時,準(zhǔn)確率率收斂至98%附近,之后趨于穩(wěn)定,Inception-V4模型準(zhǔn)確率最高為98.7%。Inception-FN模型在訓(xùn)練輪次7534次左右準(zhǔn)確率最高為99.2%。
圖4中帶星號的曲線為準(zhǔn)確率最優(yōu)曲線。由圖4可見,在相同的迭代次數(shù)下,改進(jìn)的Inception-FN模型較原模型收斂速度更快,且準(zhǔn)確率得到了保證。
3.3 實驗分析
3.3.1 模型評估指標(biāo)
停車位狀態(tài)檢測包括占用和非占用兩種情況,屬于二分類問題。針對該模型,實驗選取驗證集準(zhǔn)確率和受試者工作特征(receiver operating characteristic,ROC)曲線及曲線下面積(Area Under Curve,AUC)作為模型性能評估指標(biāo)。
ROC曲線橫坐標(biāo)為假陽性率FPR,縱坐標(biāo)為真陽性率TPR,見式7-8,是反映靈敏性和特效性連續(xù)變量的綜合指標(biāo)。AUC(為ROC曲線下的面積,取值范圍在0.5和1之間,對應(yīng)AUC更大的分類模型效果更好。
3.3.2 晴天條件下車位狀態(tài)檢測分析
使用Inception-V4模型和改進(jìn)的Inception-FN模型對驗證數(shù)據(jù)集進(jìn)行10000次訓(xùn)練,對比晴天條件下車位占用狀態(tài)檢測結(jié)果,并畫出相應(yīng)的ROC曲線,其結(jié)果如圖5所示。
圖5中橫坐標(biāo)為假陽性率(False Positive Rate,F(xiàn)PR),縱坐標(biāo)為真陽性率(True Positive Rate,TPR)。原Inception-V4模型的AUC值為0.9891,準(zhǔn)確率為98.7%,改進(jìn)的Incception-FN模型的AUC值為0.9903,準(zhǔn)確率99.2%,AUC值提高了0.0012,準(zhǔn)確率提高了0.5%,且在圖5中改進(jìn)模型的AOC曲線包裹著原模型ROC曲線,其模型分類能力表現(xiàn)更佳。
3.3.3 陰影條件下車位狀態(tài)檢測分析
為了驗證改進(jìn)方法針對陰影車位檢測的有效性,選取陰影車位圖像數(shù)據(jù)進(jìn)行對比實驗。
由圖6可知,改進(jìn)后的Inception-FN模型在陰影車位數(shù)據(jù)集中的AUC值為0.9126,原模型AUC值為0.8791,改進(jìn)后提高了0.0335;準(zhǔn)確率從原模型的87.5%提高到92.3%。改進(jìn)后的Inception-FN對于陰影車位檢測的準(zhǔn)確率明顯高于原算法,表明改進(jìn)后的模型提取到更豐富的細(xì)節(jié)特征和語義信息,改善了陰影車位誤檢、檢測率低等現(xiàn)象。
圖7中選取三組不同陰影條件下的UFPR05停車場圖像,其中(a)為空停車場,(b)為滿停車場和(c)為半滿停車場圖像,并采用檢測框表示當(dāng)前車位占用狀態(tài),深色框表示車位占用,淺色框表示車位非占用。由圖7中三組車位檢測結(jié)果顯示,改進(jìn)模型Inception-FN在陰影條件下的車位檢測效果優(yōu)于原模型。
4 結(jié)束語
本文為解決陰影干擾對車位檢測的影響,研究一種改進(jìn)Inception-V4的車位狀態(tài)檢測方法,以Inception-V4算法為基礎(chǔ),通過借助Leaky_ReLU和FReLU激活函數(shù)的特點,將原網(wǎng)絡(luò)的激活函數(shù)替換,使之能夠獲取更豐富的信息特征,并減弱神經(jīng)元失活情況,更好的應(yīng)用于車位狀態(tài)檢測,在PKLot停車場數(shù)據(jù)集和從中篩選出的陰影條件下的車位數(shù)據(jù)集上,對Inception-V4算法改進(jìn)前后模型進(jìn)行對比試驗,并得到相應(yīng)的驗證結(jié)果。實驗表明,改進(jìn)后Inception-FN算法在車位狀態(tài)檢測任務(wù)中檢測精度可達(dá)99.2%,較原算法提高了0.5%,并驗證在有陰影干擾的復(fù)雜背景下,Inception-FN算法也能取得更準(zhǔn)確的檢測結(jié)果,可滿足在陰影干擾條件下對車位狀態(tài)檢測的要求,在室外停車場智能化管理中有一定的應(yīng)用參考。下一步計劃將該車位檢測方法應(yīng)用于手機中,輔助用戶進(jìn)行停車定位等操作。
參考文獻(xiàn)(References):
[1] 何偉.基于超聲波傳感器的自動泊車車位補償檢測法[J].中國儀器儀表,2016(2):47-50
[2] 曾凱.基于NB-IoT技術(shù)的地磁車位檢測系統(tǒng)設(shè)計與實現(xiàn)[D].合肥:安徽大學(xué),2020:29-36
[3] DAN N.Parking management system and method:US,200301448980AI[P].2002-01-31
[4] WU Q,HUANG C,WANG S Y,et al.Robust parking space detection considering inter-space correlation [C]. ICME 2007: Proceedings of the 2007 IEEE International Conference on Multimedia &Ex-po. Piscataway,NJ:IEEE,2007:659-662
[5] DEAlMEIDA P R L, OLIVEIRA L S, BRITTO A S J, et al.PKLot-Arobust dataset for parking lot classification[J]. Expert Systems With Applications,2015,42(11):4937-4949
[6] 盧宏濤,張秦川.深度卷積神經(jīng)網(wǎng)絡(luò)在計算機視覺中的應(yīng)用研究綜述[J].數(shù)據(jù)采集與處理,2016,31(1):1-17
[7] DANG Y, ZHANG J X, DENG K Z, et al.Classification and?evaluation of surface coverage of remote sensing images based on deep learning AlexNet[J].Jourmal of Geoinformatics,2017,19(11):1530-1537
[8] KRIZHEVSKY A, SUTSKEVER I, HINTON G E.ImageNet classification with deep convolutional nature networks[C].Advances in Neural Information Processing Systems,2012:1097-1105
[9] SIMONYANK, ZISSERMAN A.Very deep convolutional networks for large-scale image recognition [EB/0L].(2014-12-23) [2019-11-06].https://arxiv.org/abs/1409.1556.
[10] SZEGEDY C, LIUW, JIA Y, et al. Going deeper with convolutions[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE,2015:1-9
[11] HE K, ZHANG X, RENS, et al. Deep residual learning?for image recognition[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE,2016:770-778
[12] HU J, SHEN L, SUN G. Squeeze-and-Excitation Networks[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.IEEE, 2018:7132-7141
[13] KARAKAYA M, AKINC F C. Parking space occupancy detection using deep learning methods[C]. Signal Processing and Communications Applications Conference (SIU),2018:1-4
[14] 安旭驍,鄧洪敏,史興宇.基于迷你卷積神經(jīng)網(wǎng)絡(luò)的停車場空車位檢測方法[J].計算機應(yīng)用,2018,38(4):935-938
[15] SZEGEDY C, LIU W, JIA Y Q, et al.Going deeper with?convolutions[C]. Conference on Computer Vision and Pattern Recognition.2015:1-9
[16] IOFFE S,SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[J].2015:448-456
[17] SZEGEDY C,VANHOUSKE V, IOFFE S, et al.?Rethinking the inception architecture for computer vision[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, IEEE,2016:2818-2826
[18] SZEGEDY C, IOFFE S, VANHOUSKE V, et al.Inception-V4,Inception-Res Net and the impact of residual connections on learning[EB/OL].[2019-11-25].https://arxiv.org/abs/1602.07261.
[19] KRIZHEVSKY A, SUTSKEVER I, HINTION G. ImageNet Classification with Deep Convolutional Neural Networks[J].Advances in Neural Information Processing Systems,2012,25(2):1097-1105
[20] XU B, WANG N, CHEN T, et al. Empirical Evaluation of?Rectified Activations in Convolutional Network[J]. Communications and Computer Sciences,2015
[21] MA N, ZhANGX, SUN J. Funnel Activation for Visual Recognition[C]. In Computer Vision-ECCV 2020,2020:351-368