章曙光,唐 銳,邵政瑞,鮑 銳
(1.安徽建筑大學(xué) 電子與信息工程學(xué)院,安徽 合肥 230601;2.安徽建筑大學(xué) 信息網(wǎng)絡(luò)中心,安徽 合肥 230601)
火災(zāi)是一種最常見的多發(fā)性災(zāi)害之一,嚴(yán)重威脅自然環(huán)境和人類生命財(cái)產(chǎn)安全。實(shí)際的火災(zāi)場(chǎng)景由于環(huán)境復(fù)雜、類煙火物體干擾存在誤報(bào)以及對(duì)煙火目標(biāo)定位不準(zhǔn)確的問題,因此,及時(shí)、準(zhǔn)確地對(duì)早期火災(zāi)進(jìn)行探測(cè)并預(yù)警具有重要的研究意義。
火災(zāi)產(chǎn)生的過程中常伴隨火焰和煙霧。在利用數(shù)字圖像檢測(cè)火災(zāi)之前,主要通過溫感、煙感和光感等物理傳感器進(jìn)行火災(zāi)探測(cè),但這些傳統(tǒng)的物理傳感設(shè)備檢測(cè)范圍有限且信息單一,檢測(cè)存在較大的延遲且易受外界干擾,難以適應(yīng)復(fù)雜多變環(huán)境下的火災(zāi)實(shí)時(shí)探測(cè)要求。因此,提出基于計(jì)算機(jī)視覺的火災(zāi)檢測(cè)方法,主要包括基于圖像處理的傳統(tǒng)火災(zāi)檢測(cè)算法和基于深度學(xué)習(xí)的火災(zāi)檢測(cè)算法。
傳統(tǒng)火災(zāi)檢測(cè)方法首先使用滑動(dòng)窗口遍歷輸入圖像得到候選區(qū)域,其次使用HOG、SIFT、LBP等算法人工提取火焰和煙霧的顏色、形狀和簡(jiǎn)單紋理等特征,將提取的特征向量傳入SVM、貝葉斯網(wǎng)絡(luò)、BP神經(jīng)網(wǎng)絡(luò)等分類器判斷候選煙火區(qū)域類別[1]。然而這些方法只能提取圖像的淺層特征,精度較低,且針對(duì)一些復(fù)雜場(chǎng)景魯棒性較弱。
基于深度學(xué)習(xí)的火災(zāi)檢測(cè)算法能夠提取圖像更抽象、更高級(jí)的特征,在檢測(cè)精度、速度和泛化能力方面都有顯著提升。文獻(xiàn)[2]首次將CNN應(yīng)用到火災(zāi)場(chǎng)景檢測(cè)中,開啟了基于深度學(xué)習(xí)的煙火圖像特征采集自適應(yīng)學(xué)習(xí)算法的先河。自深度學(xué)習(xí)技術(shù)發(fā)展以來(lái),經(jīng)典的目標(biāo)檢測(cè)算法有Faster-RCNN[3]、YOLOv3[4]、RefineDet[5]、SSD[6]等。目標(biāo)檢測(cè)算法的改進(jìn)通常分為2個(gè)方向:提升檢測(cè)精度[7]和輕量化模型便于部署到嵌入式設(shè)備[8]。文獻(xiàn)[9]通過幾何中值的過濾器剪枝算法對(duì)YOLOv5模型進(jìn)行壓縮,實(shí)現(xiàn)了輕量化處理。文獻(xiàn)[10-11]使用輕量化網(wǎng)絡(luò)替換YOLOv5原主干網(wǎng)絡(luò),有效減少網(wǎng)絡(luò)的參數(shù)量,保證了火災(zāi)檢測(cè)的速度,但檢測(cè)性能會(huì)隨著IOU閾值的增加顯著下降。文獻(xiàn)[12]引入基于水平和垂直方向聯(lián)合加權(quán)策略的值轉(zhuǎn)換-注意機(jī)制,有針對(duì)性地提取煙霧的顏色和紋理,提高了煙霧檢測(cè)性能。文獻(xiàn)[13]針對(duì)單個(gè)網(wǎng)絡(luò)模型在復(fù)雜場(chǎng)景下特征提取的局限性,將YOLOv5和EfficientNet兩個(gè)模型并聯(lián)協(xié)同檢測(cè)火災(zāi),提高了檢測(cè)精度和召回率,但集成模型嚴(yán)重降低了檢測(cè)速度。文獻(xiàn)[14]將YOLOv3網(wǎng)絡(luò)與通道注意力相結(jié)合,提升網(wǎng)絡(luò)對(duì)火焰和煙霧的特征提取能力,但通道注意力會(huì)忽略位置信息且無(wú)法建立遠(yuǎn)程依賴關(guān)系,導(dǎo)致部分信息丟失。
以上基于深度學(xué)習(xí)的火災(zāi)檢測(cè)算法,網(wǎng)絡(luò)模型相對(duì)復(fù)雜、計(jì)算量大、難以同時(shí)滿足火災(zāi)檢測(cè)精度和速度的平衡,且在實(shí)際應(yīng)用中,由于特征提取網(wǎng)絡(luò)的局限性,可能會(huì)因?yàn)閺?fù)雜環(huán)境下一些類煙火物體(如紅色衣物、落日和光線反射)的誤檢導(dǎo)致一定的假陽(yáng)性。針對(duì)這些不足,本文提出一種將小波變換的時(shí)頻光譜特征與卷積特征相結(jié)合的YOLOv5火災(zāi)檢測(cè)改進(jìn)算法。該算法采用檢測(cè)精度較高且速度較快的YOLOv5s算法為基準(zhǔn),使用二維Haar小波變換提取圖像的光譜特征,融合到主干網(wǎng)絡(luò)CSPDarknet中不同尺度的卷積層,并通過嵌入Coordinate Attention(CA)[15]注意力機(jī)制的CAC3模塊,增強(qiáng)對(duì)淺層網(wǎng)絡(luò)位置信息的關(guān)注度,提升網(wǎng)絡(luò)定位能力。實(shí)驗(yàn)證明,小波變換可以描述不同頻率的煙火信息,能夠提高網(wǎng)絡(luò)對(duì)火焰和煙霧的紋理識(shí)別能力,從而實(shí)時(shí)、準(zhǔn)確地檢測(cè)火災(zāi)。
YOLOv5是YOLO系列工作之一,綜合了YOLO系列網(wǎng)絡(luò)優(yōu)點(diǎn),其中YOLOv5s網(wǎng)絡(luò)模型深度和寬度最小,主要分為主干網(wǎng)絡(luò)、頸部和預(yù)測(cè)端三部分。主干網(wǎng)絡(luò)主要由殘差卷積構(gòu)成,其內(nèi)部的殘差塊使用跳躍連接來(lái)緩解網(wǎng)絡(luò)深度增加產(chǎn)生的梯度消失問題,引入了Focus通道增廣技術(shù)來(lái)減少計(jì)算量,以及空間金字塔池化(Spatial Pyramid Pooling,SPP)結(jié)構(gòu)提高網(wǎng)絡(luò)的感受野;頸部沿用了YOLOv4的FPN+PAN結(jié)構(gòu),將淺層的語(yǔ)義信息和深層信息堆疊在一起,增強(qiáng)網(wǎng)絡(luò)特征融合的能力;預(yù)測(cè)端使用CIOU作為框回歸損失函數(shù)且有3個(gè)不同尺度的輸出,使模型能夠處理大、中、小3種不同尺度的目標(biāo)。
YOLOv5s檢測(cè)網(wǎng)絡(luò)在目標(biāo)檢測(cè)領(lǐng)域同時(shí)具備較高的檢測(cè)精度和速度,但在火災(zāi)檢測(cè)領(lǐng)域,因煙火的特殊紋理特征、類煙火物體干擾等因素的影響,檢測(cè)精度難以保證。本文針對(duì)YOLOv5s網(wǎng)絡(luò)的改進(jìn)主要體現(xiàn)在三方面:添加小波特征融合模塊、使用嵌入CA的CAC3模塊和改進(jìn)框回歸損失函數(shù)。改進(jìn)后的YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,在輸入后添加小波特征融合模塊,將2次Haar小波變換的輸出融入到卷積網(wǎng)絡(luò)中,并使用CAC3替換原本的C3模塊。
圖1 基于小波變換的改進(jìn)YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Improved YOLOv5s network structure based on wavelet transform
小波是一種小區(qū)域、長(zhǎng)度有限且均值為0的波形,小波變換就是使用適當(dāng)?shù)幕拘〔ê瘮?shù),通過平移、伸縮形成一系列小波,這簇小波作為基可以構(gòu)成一系列嵌套的子空間,然后將待分析的信號(hào)投影到各個(gè)大小不同的子空間中,以觀察相應(yīng)的特性。對(duì)于能量有限的信號(hào)f(t),其小波變換的表達(dá)式如下:
(1)
式中:α為尺度,用來(lái)控制小波函數(shù)的伸縮,τ為平移量,用來(lái)描述小波函數(shù)的平移尺度,尺度的倒數(shù)與頻率成正比,平移量對(duì)應(yīng)時(shí)間,φ(t)為基本的小波函數(shù)。
圖像的小波變換是基于二維離散小波變換在圖像處理上的應(yīng)用,可以用分別在水平和垂直方向進(jìn)行濾波的方法實(shí)現(xiàn)二維小波多分辨率分解,將圖像信息一層層剝離開來(lái),以獲取不同頻率的信息。離散小波變換用到了2組函數(shù):尺度函數(shù)和小波函數(shù),分別與低通濾波器和高通濾波器相對(duì)應(yīng)。本文使用最簡(jiǎn)單的基于Haar小波函數(shù)的小波變換,它是小波分析中最早用到的一個(gè)具有緊支撐的正交小波函數(shù),是支撐域在范圍內(nèi)的單個(gè)矩形波。其尺度函數(shù)和對(duì)應(yīng)的小波函數(shù)如下:
(2)
(3)
Haar小波變換示意如圖2所示,每次小波變換后,圖像被分解為2倍下采樣的子區(qū)域,分別包含相應(yīng)頻帶的小波系數(shù)。其中圖2(b)是經(jīng)過一次Haar小波變換的結(jié)果,LL1是低頻系數(shù),表征原圖的近似信號(hào),HL1、LH1、HH1分別表示水平高頻系數(shù)、垂直高頻系數(shù)和對(duì)角高頻系數(shù),代表圖像的噪聲和邊緣細(xì)節(jié)信息。圖2(c)表示繼續(xù)進(jìn)行二次Haar小波變換。
圖2 Haar小波變換Fig.2 Haar wavelet transform
取一張火災(zāi)圖像,對(duì)其進(jìn)行二維Haar小波變換,實(shí)際效果如圖3所示。
圖3 Haar小波變換在火災(zāi)圖像上的效果展示Fig.3 Effect display of Haar wavelet transform on fire image
YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)中的Focus層,采用切片操作把高分辨率的圖像拆分成多個(gè)低分辨率的特征圖并拼接,將圖像空間平面上的語(yǔ)義信息轉(zhuǎn)換到通道維度,再通過后續(xù)的卷積層進(jìn)行特征提取,但深層的卷積操作過程會(huì)丟失目標(biāo)的邊緣細(xì)節(jié)等信息,尤其對(duì)于火焰、煙霧這類淺層特征較為豐富的物體,且煙火目標(biāo)常因?yàn)楸尘暗雀蓴_導(dǎo)致邊緣細(xì)節(jié)信息不顯著。因此,通過二維Haar小波變換提取圖像的高頻系數(shù),并拼接得到小波高頻通道特征,這些特征代表了圖像變化信息和邊緣細(xì)節(jié),將小波高頻通道特征與Focus切片操作后的卷積特征進(jìn)行通道上的特征融合,進(jìn)一步增強(qiáng)煙火目標(biāo)的紋理細(xì)節(jié)特征,并為后續(xù)的特征提取保留了更完整的圖片下采樣信息。小波特征融合示意如圖4所示。
圖4 小波特征融合示意Fig.4 Schematic diagram of wavelet feature fusion
對(duì)原始圖像同時(shí)進(jìn)行Focus切片操作和一次Haar小波變換,Focus切片類似于鄰近下采樣,是在RGB圖像中每隔一個(gè)像素取一個(gè)值并進(jìn)行拼接,從而將W、H維度的信息集中到通道空間。Haar小波變換得到4個(gè)同樣具有三通道的小波特征:LL1、HL1、LH1、HH1,將其中代表圖像邊緣細(xì)節(jié)等信息的9個(gè)小波高頻通道特征與Focus切片操作后的相同大小的特征圖進(jìn)行通道上的特征融合,后接3×3卷積進(jìn)行特征提取,得到?jīng)]有信息丟失的下采樣特征圖,再將對(duì)原圖進(jìn)行二次小波變換得到的9個(gè)高頻通道特征(HL2、LH2、HH2)與上述相同尺度的特征圖進(jìn)行特征融合,以豐富煙火在淺層網(wǎng)絡(luò)的細(xì)節(jié)特征,提升網(wǎng)絡(luò)對(duì)煙火目標(biāo)紋理細(xì)節(jié)的學(xué)習(xí)能力。
融合小波特征后的淺層網(wǎng)絡(luò)具有豐富的煙火目標(biāo)紋理輪廓等位置信息,而C3結(jié)構(gòu)中多個(gè)串聯(lián)的BottleNeck模塊在提取通道語(yǔ)義信息時(shí)會(huì)減弱對(duì)這些位置信息的關(guān)注,引入CA來(lái)增強(qiáng)關(guān)注并減少信息丟失。CA通過將位置信息嵌入到通道注意力中,不僅捕獲跨通道信息,還捕獲方向感知和位置敏感信息,保證了網(wǎng)絡(luò)能捕獲更多位置細(xì)節(jié),提升網(wǎng)絡(luò)特征融合能力。
CA彌補(bǔ)了SENet[16]忽略重要位置信息以及CBAM[17]無(wú)法建立對(duì)視覺任務(wù)至關(guān)重要的遠(yuǎn)程依賴關(guān)系的不足,其結(jié)構(gòu)如圖5所示。為了減輕由2D全局池化引起的位置信息丟失,CA利用2個(gè)一維全局池化操作分別沿垂直和水平方向進(jìn)行特征聚合,得到2個(gè)獨(dú)立的一維特征編碼,這樣可以在一個(gè)空間方向保留精確的位置信息,在另一個(gè)空間方向使卷積捕獲遠(yuǎn)程依賴關(guān)系。然后將生成的特征圖通過通道維度拼接、卷積和歸一化等操作編碼為一對(duì)方向感知和位置敏感的注意力特征圖,通過相乘將2個(gè)注意力特征圖應(yīng)用于輸入特征圖以強(qiáng)調(diào)關(guān)注對(duì)象的表示。
圖5 CA結(jié)構(gòu)Fig.5 CA structure
嵌入CA的CAC3模塊如圖6所示,將CA 嵌入到原C3模塊的BottleNeck殘差結(jié)構(gòu)中,能夠保證在帶來(lái)較少參數(shù)量的前提下,借助CA的遠(yuǎn)程依賴關(guān)系減輕干擾信息,加強(qiáng)對(duì)融合了小波高頻特征的淺層特征信息的提取和定位能力,使得到的信息變得多元,從而提升整個(gè)網(wǎng)絡(luò)的性能。
圖6 嵌入CA的CAC3模塊Fig.6 CAC3 module embedded in CA
YOLOv5的損失函數(shù)由分類損失(Classification_Loss)、邊界框回歸損失(Localization_Loss)和置信度損失(Confidence_Loss)組成。邊界框位置預(yù)測(cè)通過關(guān)注預(yù)測(cè)框和真實(shí)框的交并比對(duì)邊界框的位置進(jìn)行回歸預(yù)測(cè)。
YOLOv5采用CIOU作為框回歸損失函數(shù),將真實(shí)框與錨框之間的距離、重疊率、尺度以及縱橫比都考慮進(jìn)來(lái),但是縱橫比描述的是相對(duì)值,而不是寬高分別與其置信度的真實(shí)差異,且由于復(fù)雜火災(zāi)場(chǎng)景下煙火邊界區(qū)域判定的差異性,會(huì)忽略難易樣本不平衡的問題,阻礙模型有效的優(yōu)化相似性。因此,本文基于EIOU[18]和α-IOU[19]的優(yōu)點(diǎn)采用了改進(jìn)后的α-EIOU作為新的框回歸損失。EIOU將原本CIOU縱橫比的損失項(xiàng)拆分成預(yù)測(cè)框?qū)捀叻謩e與最小外接矩形寬高的差值,明確地衡量了重疊區(qū)域、中心點(diǎn)距和寬高真實(shí)差,如式(4)所示。同時(shí)借鑒α-IOU自適應(yīng)地重新加權(quán)高低IOU目標(biāo)的損失和梯度,通過引入權(quán)重參數(shù)α對(duì)這些損失進(jìn)行冪變換,使回歸過程專注于高質(zhì)量的錨框,以提高模型定位和檢測(cè)的性能,如式(5)所示。
(4)
(5)
式中:CW、CH是真實(shí)框和預(yù)測(cè)框的最小外接矩形的寬度和高度,b、bgt分別表示預(yù)測(cè)框和真實(shí)框的中心點(diǎn),ρ(b,bgt)計(jì)算2個(gè)中心點(diǎn)間的歐氏距離,ρ(w,wgt)、ρ(h,hgt)分別表示預(yù)測(cè)框與最小外接框?qū)捀叩牟钪?α>1用于對(duì)錨框設(shè)置絕對(duì)梯度權(quán)值,IOU越大的邊界框損失也越大,從而加速對(duì)高質(zhì)量錨框的學(xué)習(xí),提高對(duì)梯度自適應(yīng)加權(quán)的邊界框回歸精度。
針對(duì)火災(zāi)檢測(cè)任務(wù),目前尚未有公開的權(quán)威數(shù)據(jù)集。本文按照PASAL VOC2007格式標(biāo)準(zhǔn)構(gòu)建了一個(gè)場(chǎng)景豐富的火焰和煙霧目標(biāo)檢測(cè)數(shù)據(jù)集。該數(shù)據(jù)集中的圖像主要來(lái)源于土耳其比爾肯大學(xué) (http:∥signal.ee.bilkent.edu.tr/VisiFire/)、江西財(cái)經(jīng)大學(xué)袁非牛團(tuán)隊(duì) (http:∥staff.ustc.edu.cn/~yfn/vsd.html)、韓國(guó)啟明大學(xué)火災(zāi)視頻庫(kù)(https:∥cvpr.kmu.ac.kr)以及網(wǎng)絡(luò)上采集的圖片和視頻,包括森林、公路、工地和高樓等多個(gè)不同場(chǎng)景。為了減少模型的誤檢率,參考coco數(shù)據(jù)集1%的負(fù)樣本圖片比例,加入了100多張非火災(zāi)圖像,如夕陽(yáng)、晚霞、反射的光影和紅色車輛等。使用隨機(jī)旋轉(zhuǎn)、縮放和平移等數(shù)據(jù)增強(qiáng)方式將數(shù)據(jù)集擴(kuò)充到16 000張圖像,部分?jǐn)?shù)據(jù)如圖7所示。使用LabelImg工具進(jìn)行標(biāo)注,數(shù)據(jù)集包含fire、smoke兩類,將其按照8∶1∶1比例隨機(jī)劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集。
圖7 數(shù)據(jù)集部分展示Fig.7 Presentation of partial datasets
實(shí)驗(yàn)在Python3.8、CUDA11.1、PyTorch1.8.0環(huán)境下進(jìn)行,所有模型均在配備32 GB顯存的Tesla V100顯卡上進(jìn)行訓(xùn)練和測(cè)試。
訓(xùn)練時(shí),加載在ImageNet數(shù)據(jù)集上訓(xùn)練好的YOLOv5s預(yù)訓(xùn)練權(quán)重,以提高模型的泛化能力。輸入圖像分辨率為640 pixel×640 pixel,批處理數(shù)為16,初始學(xué)習(xí)率為0.001,訓(xùn)練總共迭代200次,得到最終的煙火檢測(cè)模型權(quán)重。加載訓(xùn)練得到的權(quán)重文件,利用測(cè)試集進(jìn)行推理測(cè)試。
本文主要采用平均精度(mean Average Precision,mAP)和每秒傳輸幀數(shù)(Frame Per Second,FPS)作為模型評(píng)價(jià)指標(biāo)。AP表示每個(gè)類別的平均檢測(cè)精度,通過對(duì)每一類別的準(zhǔn)確率-召回率曲線求積分得到,本文使用的AP默認(rèn)為AP50,即預(yù)測(cè)框與真值框的IOU在大于50%前提下的單個(gè)類別的平均精確度,mAP是所有類別AP的平均值,mAP值越大表示該模型的總體識(shí)別準(zhǔn)確率越高,mAP0.5:0.95是指在不同IOU閾值(0.5~0.95,步長(zhǎng)為0.05)上的平均mAP。其中準(zhǔn)確率(Precision,P)和召回率(Recall,R)的計(jì)算方式如下:
(6)
(7)
(8)
式中:TP為實(shí)際正類且預(yù)測(cè)正類,FP為實(shí)際負(fù)類但預(yù)測(cè)正類,FN為實(shí)際正類預(yù)測(cè)負(fù)類,N為類別數(shù)。
本文設(shè)計(jì)了一組消融實(shí)驗(yàn)和一組對(duì)比試驗(yàn),通過消融實(shí)驗(yàn)分析本文不同改進(jìn)部分對(duì)網(wǎng)絡(luò)性能的影響,再通過改進(jìn)YOLOv5模型與主流網(wǎng)絡(luò)模型(SSD、YOLOv3、YOLOv4-Tiny)的對(duì)比實(shí)驗(yàn),綜合分析模型性能。
2.4.1 消融實(shí)驗(yàn)
為了分析不同改進(jìn)部分對(duì)網(wǎng)絡(luò)性能的影響,使用YOLOv5s作為基準(zhǔn)模型,向網(wǎng)絡(luò)結(jié)構(gòu)中陸續(xù)添加小波特征融合模塊、CAC3模塊和改進(jìn)的α-EIOU損失函數(shù),并對(duì)改進(jìn)后的網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練與測(cè)試,實(shí)驗(yàn)結(jié)果如表1所示。對(duì)表1分析可見,改進(jìn)1向主干網(wǎng)絡(luò)添加小波特征融合模塊豐富了煙火目標(biāo)的細(xì)節(jié)紋理等信息,mAP和精確率各提升了1.3%,召回率提升1.5%;改進(jìn)2在此基礎(chǔ)上引入CA注意力機(jī)制,嵌入到C3模塊中,提升了通道對(duì)空間信息的注意力,增強(qiáng)了網(wǎng)絡(luò)對(duì)小波變換提取的煙火位置信息的關(guān)注,mAP提升了0.8%,召回率依然有較明顯的提升(1.1%);改進(jìn)3使用α-EIOU(α=2時(shí)效果最好)代替原本的CIOU提高邊界框回歸精度,精確率提升1.5%,mAP和召回率也都有略微提升。改進(jìn)后算法的mAP相較YOLOv5s基準(zhǔn)模型提升了2.3%,mAP0.5:0.95提升了2.5%,證明了檢測(cè)網(wǎng)絡(luò)整體性能的優(yōu)越性。
表1 消融實(shí)驗(yàn)Tab.1 Ablation experiment
2.4.2 對(duì)比實(shí)驗(yàn)
為進(jìn)一步驗(yàn)證本文算法的優(yōu)勢(shì),將其與主流目標(biāo)檢測(cè)算法SSD、YOLOv3、YOLOv4-tiny在相同實(shí)驗(yàn)環(huán)境下做對(duì)比實(shí)驗(yàn),增加了FPS以及對(duì)測(cè)試集中每張圖片的平均檢測(cè)時(shí)間分析,對(duì)比試驗(yàn)結(jié)果如表2所示。由表2分析可知,改進(jìn)YOLOv5算法的mAP達(dá)到了81.4%,mAP0.5:0.95達(dá)到了55.1%,相較于SSD和YOLOv3算法以及網(wǎng)絡(luò)結(jié)構(gòu)更加輕巧的YOLOv4-tiny,改進(jìn)后的算法在mAP上高出10%以上,且FPS及檢測(cè)時(shí)間等各項(xiàng)指標(biāo)都要優(yōu)于SSD和YOLOv3算法。相較原YOLOv5算法,改進(jìn)后算法由于小波特征融合模塊和CAC3模塊的引入,網(wǎng)絡(luò)運(yùn)算過程增加了少量的參數(shù)量,使得改進(jìn)后算法在保證檢測(cè)精度有明顯提升的同時(shí),FPS僅存在輕微的下降,模型仍然具有較快的檢測(cè)速度,對(duì)圖片的檢測(cè)時(shí)間也符合火災(zāi)檢測(cè)的工業(yè)需求。因此,改進(jìn)后的YOLOv5算法更適用于工程應(yīng)用。
表2 對(duì)比實(shí)驗(yàn)Tab.2 Contrast experiment
2.4.3 檢測(cè)結(jié)果
為驗(yàn)證改進(jìn)算法在實(shí)際火災(zāi)場(chǎng)景中的有效性,選取存在類煙火物體干擾、煙火輪廓模糊、有多處著火點(diǎn)以及著火點(diǎn)較小等幾種特殊情況的圖像進(jìn)行檢測(cè)。為了在避免煙火漏報(bào)的同時(shí)減少因復(fù)雜背景以及類煙火物體干擾產(chǎn)生的誤報(bào),將置信度閾值設(shè)為0.65,在改進(jìn)后算法和原YOLOv5算法上的實(shí)際檢測(cè)效果對(duì)比如圖8所示。由圖8可以看出,原YOLOv5算法會(huì)將夕陽(yáng)這一類煙火物體識(shí)別為火焰,改進(jìn)后算法有效避免了類煙火物體的誤檢,且對(duì)輪廓紋理模糊、與背景不易區(qū)分的煙霧也能夠較好地檢測(cè)出。原YOLOv5算法在有多處著火點(diǎn)以及著火點(diǎn)較遠(yuǎn)或較小的火災(zāi)場(chǎng)景中存在漏檢等情況,而改進(jìn)后的算法對(duì)這些火災(zāi)場(chǎng)景也有較好的檢測(cè)效果,且對(duì)檢測(cè)框的準(zhǔn)確度有明顯提升。經(jīng)驗(yàn)證,本文改進(jìn)后的算法在檢出率和檢測(cè)精度上都有良好的性能表現(xiàn),適用于不同場(chǎng)景下的火災(zāi)檢測(cè)任務(wù)。
圖8 檢測(cè)效果對(duì)比Fig.8 Comparison of detection effect
本文針對(duì)現(xiàn)有目標(biāo)檢測(cè)模型在復(fù)雜環(huán)境下易受類煙火物體干擾檢測(cè)困難的問題,提出了一種基于小波變換的YOLOv5火災(zāi)檢測(cè)改進(jìn)算法。該算法在YOLOv5s基礎(chǔ)上,融合了小波變換提取到的煙火紋理特征等信息,并通過CAC3模塊捕獲更多位置細(xì)節(jié),提升網(wǎng)絡(luò)的定位能力。實(shí)驗(yàn)結(jié)果表明。本文提出的改進(jìn)算法在保證檢測(cè)速度的同時(shí),提升了火災(zāi)場(chǎng)景下的煙火檢測(cè)性能,并有效減少類煙火物體的誤報(bào)情況,能夠滿足實(shí)際工程應(yīng)用需求。