• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進(jìn)YOLOv5的安全帽檢測(cè)算法

      2024-09-12 00:00:00韓錕棟張濤彭玻鐘亮吳勝波
      現(xiàn)代電子技術(shù) 2024年5期
      關(guān)鍵詞:特征融合注意力機(jī)制目標(biāo)檢測(cè)

      摘" 要: 為解決安全帽佩戴檢測(cè)中密集小目標(biāo)和目標(biāo)受到遮擋場(chǎng)景下容易產(chǎn)生誤檢和漏檢的問(wèn)題,提出基于改進(jìn)YOLOv5安全帽佩戴檢測(cè)算法。首先,在安全帽的特征信息提取過(guò)程中引入微尺度檢測(cè)層,以進(jìn)一步融合多尺度特征,從而獲得更為豐富的特征信息;然后,將坐標(biāo)注意力機(jī)制插入到所提出的改進(jìn)特征融合網(wǎng)絡(luò)中,用于提取目標(biāo)的位置信息,并通過(guò)實(shí)驗(yàn)驗(yàn)證了該方法的有效性;最后利用EIOU代替CIOU損失函數(shù),加快收斂并改善回歸精度和安全帽目標(biāo)檢測(cè)準(zhǔn)確性。根據(jù)實(shí)驗(yàn)結(jié)果可以看出,改進(jìn)的 YOLOv5算法對(duì)安全帽的平均檢測(cè)準(zhǔn)確率(mAP)為90.89%,比標(biāo)準(zhǔn)YOLOv5算法提升了2.25%,明顯減少了誤檢、漏檢情況,在面對(duì)密集小目標(biāo)、目標(biāo)被遮擋等復(fù)雜場(chǎng)景時(shí),檢測(cè)性能得到了有效的提升。除此之外,將改進(jìn)后的YOLOv5安全帽檢測(cè)算法部署到施工現(xiàn)場(chǎng),可以展現(xiàn)出在密集小目標(biāo)、目標(biāo)被遮擋場(chǎng)景下更加優(yōu)異的檢測(cè)性能,具有很大的應(yīng)用價(jià)值。

      關(guān)鍵詞: 人工智能; 目標(biāo)檢測(cè); YOLOv5; 特征融合; 注意力機(jī)制; 損失函數(shù)

      中圖分類號(hào): TN911.73?34; TP183; TP391.4" " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " 文章編號(hào): 1004?373X(2024)05?0085?08

      Safety helmet detection algorithm based on improved YOLOv5

      HAN Kundong, ZHANG Tao, PENG Bo, ZHONG Liang, WU Shengbo

      (School of Software, Xinjiang University, Urumqi 830000, China)

      Abstract: In view of the 1 detection and missed detection in safety helmet wearing detection when the objects are small and dense or the objects are occluded, a safety helmet wearing detection algorithm based on improved YOLOv5 is proposed. In the process of extracting feature information of safety helmets, a micro?scale detection layer is introduced to further fuse multi?scale features and obtain richer feature information. The coordinate attention (CA) mechanism is inserted into the proposed improved feature fusion network, so as to extract the position information of the object, and the effectiveness of the method is verified in experiments. The EIOU (efficient?IoU) is used to replace the CIOU (complete intersection over union) loss function, which accelerates the convergence and improves the regression accuracy and the accuracy of the safety helmet object detection. According to the experimental results, it can be seen that the improved YOLOv5 algorithm has a mean average precision (mAP) of 90.89% for safety helmets, which is 2.25% higher than that of the standard YOLOv5 algorithm, which reduces 1 detection and missed detection significantly. In the scenes of facing dense small objects or occluded objects, the detection performance of the proposed method has been improved effectively. In addition, when the proposed algorithm is applied to the construction site, it shows more excellent detection performance when detecting dense small objects or occluded objects, so it has great application value.

      Keywords: artificial intelligence; object detection; YOLOv5; feature fusion; attention mechanism; loss function

      0" 引" 言

      中國(guó)作為基礎(chǔ)建設(shè)大國(guó),生產(chǎn)建筑業(yè)是中國(guó)經(jīng)濟(jì)發(fā)展必不可少的推動(dòng)力。建筑安全事故會(huì)對(duì)國(guó)家和個(gè)人造成巨大損失,在這些事故中絕大部分是因?yàn)槭┕と藛T未遵守安全行為準(zhǔn)則造成的。目前監(jiān)督施工人員佩戴安全帽的方式主要是人工監(jiān)督,但人工監(jiān)督存在雇傭人員成本高,監(jiān)督人員因主觀意識(shí)對(duì)實(shí)時(shí)情況缺乏客觀性的判斷等弊端。為了保證工地現(xiàn)場(chǎng)的施工安全,必需采取智能化的技術(shù)方式,減少施工現(xiàn)場(chǎng)中施工人員未佩戴安全帽施工這一違規(guī)現(xiàn)象的發(fā)生[1?3]。近年來(lái),深度學(xué)習(xí)技術(shù)逐漸成為學(xué)者們研究的熱門方向之一,使用深度學(xué)習(xí)算法代替人力進(jìn)行安全帽佩戴的檢測(cè)更加高效。

      傳統(tǒng)目標(biāo)檢測(cè)[4?5]一般通過(guò)滑動(dòng)窗口的方法選擇候選區(qū)域,然后用SIFT(Scale Invariant Feature Transform,尺度不變特征變換)[6]或者是HOG(Histogram of Oriented Gradient,方向梯度直方圖)等方法提取特征[7],最后使用支持向量機(jī)(SVM)[8]等分類器進(jìn)行分類處理。這些方法在對(duì)復(fù)雜背景下的運(yùn)動(dòng)圖像進(jìn)行目標(biāo)檢測(cè)時(shí)往往存在著漏檢率較高的問(wèn)題。與傳統(tǒng)目標(biāo)檢測(cè)算法相比較,深度學(xué)習(xí)框架下的目標(biāo)檢測(cè)算法展現(xiàn)出較強(qiáng)的魯棒性,其利用卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取目標(biāo)特征,以代替?zhèn)鹘y(tǒng)人工提取模式。這種方法可以在復(fù)雜場(chǎng)景中取得良好的檢測(cè)效果。深度學(xué)習(xí)框架中的目標(biāo)檢測(cè)算法可以劃分為單階段和兩階段。在第一階段,采用了單步目標(biāo)檢測(cè)算法,而在第二階段,則引入了多步驟融合目標(biāo)檢測(cè)算法,以達(dá)到更高效的檢測(cè)效果。目標(biāo)檢測(cè)算法分兩個(gè)階段進(jìn)行,先為檢測(cè)目標(biāo)產(chǎn)生若干候選區(qū)域,再把從全部候選區(qū)域提取出的特征圖送入分類器對(duì)目標(biāo)進(jìn)行分類,通過(guò)目標(biāo)損失函數(shù)進(jìn)一步準(zhǔn)確地獲得邊界框,從而獲得最終檢測(cè)結(jié)果[9]。多步操作獲得的準(zhǔn)確性一般較高,但是也由于步驟太多而降低了檢測(cè)速度。單階段目標(biāo)檢測(cè)算法采用端到端的方法,在輸入端直接對(duì)圖片信息進(jìn)行特征提取操作并預(yù)測(cè)獲取目標(biāo)對(duì)象在圖片上的位置及類別信息,最后將算法檢測(cè)結(jié)果進(jìn)行輸出,采用該端到端檢測(cè)方式使單階段目標(biāo)檢測(cè)算法檢測(cè)速率顯著提高。相對(duì)于兩階段目標(biāo)檢測(cè)算法,將一階段檢測(cè)算法應(yīng)用到工業(yè)領(lǐng)域中考慮到精確度高、速度快等特點(diǎn),更具有實(shí)用性。

      在頭盔檢測(cè)方面,Vishnu等將CNN應(yīng)用于摩托車駕駛員頭盔佩戴檢測(cè)中,而該方法不能進(jìn)行多個(gè)目標(biāo)的檢測(cè)與跟蹤。文獻(xiàn)[10?12]在原來(lái)Faster R?CNN模型的基礎(chǔ)上,運(yùn)用多尺寸輸入圖像進(jìn)行訓(xùn)練,同時(shí)將錨點(diǎn)框(anchor box)數(shù)量增至12個(gè),來(lái)增強(qiáng)模型對(duì)不同尺度目標(biāo)的魯棒性,提高了模型的分類準(zhǔn)確率,但是實(shí)時(shí)檢測(cè)的精確度仍然不能滿足要求。林俊基于YOLO,方明等基于YOLOv2,施輝等基于YOLOv3,通過(guò)不同角度的改進(jìn)、壓縮網(wǎng)絡(luò)結(jié)構(gòu)、極大抑制算法改進(jìn)和多尺度檢測(cè)等,不斷提高安全帽檢測(cè)準(zhǔn)確性和泛化能力[13?15]。但是在小目標(biāo)、目標(biāo)遮擋、密集人群這些復(fù)雜場(chǎng)景下,檢測(cè)結(jié)果并不是很理想[16]。

      針對(duì)基于YOLOv5[17]的安全帽目標(biāo)檢測(cè)算法存在的密集小目標(biāo)、目標(biāo)被遮擋場(chǎng)景下出現(xiàn)的誤檢、漏檢問(wèn)題,本文提出一種基于改進(jìn)YOLOv5的安全帽檢測(cè)算法。首先,在特征融合層添加微尺度檢測(cè)層,以提取更豐富的安全帽特征信息,增強(qiáng)對(duì)小目標(biāo)的檢測(cè)能力;其次,在改進(jìn)的特征融合層中嵌入坐標(biāo)注意力機(jī)制(Coordinate Attention, CA)[18],提高模型的表達(dá)能力;最后,采用EIOU[19]損失函數(shù)替換CIOU[20](Complete Intersection over Union)損失函數(shù)解決了縱橫比的模糊定義,加速了收斂并且提高了回歸精度。經(jīng)過(guò)在SHWD(Safety?Helmet?Wearing?Dataset)數(shù)據(jù)集中進(jìn)行實(shí)驗(yàn),結(jié)果表明改進(jìn)后的算法對(duì)安全帽檢測(cè)的平均精確度(mAP)比標(biāo)準(zhǔn)YOLOv5算法提升了2.25%,并且檢測(cè)精確度優(yōu)于其他經(jīng)典的目標(biāo)檢測(cè)算法。

      1" 算法介紹

      1.1nbsp; YOLOv5算法原理

      YOLOv5是一種一階段的目標(biāo)檢測(cè)算法,采用單階段檢測(cè)器的思路,將整個(gè)檢測(cè)過(guò)程簡(jiǎn)化為一個(gè)端到端的卷積神經(jīng)網(wǎng)絡(luò),具有檢測(cè)速度快、準(zhǔn)確率高等優(yōu)點(diǎn)。YOLOv5主要包含四種架構(gòu):YOLOv5?s、YOLOv5?m、YOLOv5?l和YOLOv5?x,該四種架構(gòu)模型以深度來(lái)區(qū)分,參數(shù)數(shù)量依次增加。綜合考慮研究模型的參數(shù)規(guī)模與檢測(cè)效率,實(shí)驗(yàn)基于YOLOv5?s架構(gòu)對(duì)安全帽檢測(cè)的網(wǎng)絡(luò)進(jìn)行改進(jìn)。YOLOv5算法的網(wǎng)絡(luò)結(jié)構(gòu)分為輸入端、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和預(yù)測(cè)網(wǎng)絡(luò)。YOLOv5的整體結(jié)構(gòu)如圖1所示。

      1.1.1" 主干網(wǎng)絡(luò)

      主干網(wǎng)絡(luò)主要由Focus、CBS和SPP[21]等模塊組成。如圖2所示,F(xiàn)ocus模塊對(duì)輸入圖像進(jìn)行切片,減少計(jì)算量并保證網(wǎng)絡(luò)層獲取更多特征信息,增大每個(gè)像素點(diǎn)的感受野,減少原始信息的丟失。CBS模塊由卷積、BN和SiLU組成,有利于加快模型推理速度。主干特征提取網(wǎng)絡(luò)采用SPP空間金字塔池化結(jié)構(gòu),通過(guò)池化核大小為5、9、13的卷積對(duì)輸入特征圖進(jìn)行最大池化,避免圖像失真,節(jié)約計(jì)算量。

      1.1.2" 頸部網(wǎng)絡(luò)

      頸部網(wǎng)絡(luò)是由特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network, FPN)[22]以及金字塔注意力網(wǎng)絡(luò)(Pyramid Attention Network, PAN)[23]組成,F(xiàn)PN結(jié)構(gòu)從上到下傳遞了高級(jí)的語(yǔ)義特征;PAN結(jié)構(gòu)通過(guò)向下傳遞低級(jí)空間特征,使得各種尺寸的特征圖均包含目標(biāo)的語(yǔ)義信息和空間信息,從而實(shí)現(xiàn)了信息的全面覆蓋。通過(guò)對(duì)主干特征網(wǎng)絡(luò)提取的特征信息進(jìn)行雙向融合,進(jìn)一步提升了特征提取的能力,從而達(dá)到特征增強(qiáng)和上下層信息流融合的目的。

      1.1.3" 預(yù)測(cè)網(wǎng)絡(luò)

      預(yù)測(cè)網(wǎng)絡(luò)涵蓋了CIOU的損失和加權(quán)非極大值抑制,這兩個(gè)因素共同作用于網(wǎng)絡(luò)的穩(wěn)定性和可靠性。本文提出了一種基于神經(jīng)網(wǎng)絡(luò)模型的自適應(yīng)預(yù)測(cè)算法,該系統(tǒng)能夠解決IOU(Intersection over Union)無(wú)法直接優(yōu)化不重疊部分的問(wèn)題,并在后期處理過(guò)程中保留最優(yōu)框架,同時(shí)抑制這些冗余目標(biāo)檢測(cè),從而實(shí)現(xiàn)更高效的優(yōu)化。

      2" 算法改進(jìn)

      為解決安全帽佩戴圖像檢測(cè)中存在小目標(biāo)、目標(biāo)遮擋和密集人群而造成的漏檢問(wèn)題,提高模型對(duì)安全帽佩戴檢測(cè)的性能以及魯棒性,本文對(duì)YOLOv5算法中的特征融合網(wǎng)絡(luò)、損失函數(shù)進(jìn)行改進(jìn),并且加入注意力機(jī)制提高模型的表達(dá)能力。改進(jìn)后的YOLOv5的整體結(jié)構(gòu)如圖3所示。

      2.1" 特征融合網(wǎng)絡(luò)的改進(jìn)

      YOLOv5模型結(jié)構(gòu)設(shè)計(jì)了3個(gè)尺度特征檢測(cè)層,分別為降采樣得到的P3、P4、P5特征層,這三個(gè)特征層分別在主干特征提取網(wǎng)絡(luò)的中間部分、中下部分和底層部分,為特征提取提供了必要的支撐。針對(duì)輸入的640×640的圖像,進(jìn)行了8倍、16倍和32倍的下采樣,得到了三個(gè)尺寸的特征圖。在安全帽檢測(cè)這項(xiàng)研究中,不同大小的目標(biāo)可以在三個(gè)不同的尺度上被檢測(cè)。在網(wǎng)絡(luò)模型中低層特征圖分辨率更高,包含目標(biāo)特征明顯,目標(biāo)位置更準(zhǔn)確;高層特征圖在多次卷積操作后,獲得了豐富的語(yǔ)義信息,但也會(huì)使特征圖分辨率降低。由于在實(shí)際環(huán)境獲取的圖像中安全帽尺寸大小不一,攝像頭與工人之間的距離較遠(yuǎn),導(dǎo)致待檢測(cè)的工人和安全帽的尺寸較小,從而造成漏檢和檢測(cè)效果差的情況。為緩解該現(xiàn)象,本文通過(guò)增加一個(gè)微尺度特征檢測(cè)層,低層特征圖與高層特征圖通過(guò)拼接的方式融合后進(jìn)行檢測(cè),可以有效提高檢測(cè)準(zhǔn)確率。本文添加一個(gè)對(duì)輸入圖像進(jìn)行4倍下采樣所得到的特征層P2,其對(duì)應(yīng)的檢測(cè)頭具有感受野小、位置信息精確的優(yōu)勢(shì),能夠極大地提高小目標(biāo)安全帽的檢測(cè)效果。利用4個(gè)有效特征層進(jìn)行FPN層的構(gòu)建,將自頂向下傳達(dá)高級(jí)語(yǔ)義特征和自底向上傳達(dá)低級(jí)空間特征進(jìn)行雙向融合,極大地提升了檢測(cè)性能,適用于施工場(chǎng)景中圖像尺寸較小的安全帽檢測(cè)。

      2.2" 添加注意力機(jī)制

      在深度神經(jīng)網(wǎng)絡(luò)中,坐標(biāo)注意力機(jī)制(CA)被廣泛運(yùn)用于計(jì)算機(jī)視覺(jué)領(lǐng)域,以提高模型對(duì)特定內(nèi)容和位置的關(guān)注度,從而優(yōu)化模型性能。傳統(tǒng)的注意力機(jī)制采用池化的方式對(duì)通道進(jìn)行處理,這種方法只考慮了通道之間的信息,而忽略了物體的位置信息,從而導(dǎo)致空間信息的損失。同時(shí),由于圖像本身包含有大量冗余信息,因此無(wú)法有效地利用這些有用的特征。為了提高目標(biāo)特征提取的準(zhǔn)確性和抑制網(wǎng)絡(luò)中的無(wú)效特征,采用特征融合網(wǎng)絡(luò)中嵌入CA的策略,以達(dá)到更好的效果,并提出基于時(shí)空特性的圖像配準(zhǔn)算法。CA采用了一種特征重新校準(zhǔn)策略,將位置信息嵌入到通道注意力中,從而實(shí)現(xiàn)通道注意力機(jī)制和空間注意力機(jī)制的有機(jī)結(jié)合。根據(jù)圖像內(nèi)容選擇不同類型的特征并加入其中。方向敏感的特征圖是由通道注意力機(jī)制在空間方向上形成的,而坐標(biāo)敏感的特征圖則是由空間注意力機(jī)制在一個(gè)方向上保留位置信息所形成的。由于這兩個(gè)特性可以同時(shí)實(shí)現(xiàn)兩種不同性質(zhì)的特征融合,所以能有效地解決傳統(tǒng)算法無(wú)法兼顧兩類特征之間互補(bǔ)性的問(wèn)題。通過(guò)將安全帽的重要特征信息與次要特征信息相結(jié)合,以進(jìn)一步提高模型對(duì)待檢測(cè)目標(biāo)的檢測(cè)精度和準(zhǔn)確性。由于該算法需要在整個(gè)訓(xùn)練過(guò)程中自適應(yīng)地更新權(quán)重值,導(dǎo)致計(jì)算量較大。因此,為了提高網(wǎng)絡(luò)的精度,引入了一種坐標(biāo)注意力機(jī)制,該機(jī)制具有簡(jiǎn)單靈活的特點(diǎn),并且?guī)缀醪粫?huì)帶來(lái)任何額外的計(jì)算開(kāi)銷。

      圖4所呈現(xiàn)的是CA模塊的具體實(shí)現(xiàn)構(gòu)造。

      CA模塊的具體工作流程為:CA通過(guò)全局平均池化的方法將輸入特征圖分為寬度特征圖和高度特征圖兩個(gè)方向,來(lái)獲得圖像在此兩個(gè)方向的注意力,通過(guò)編碼精確位置信息來(lái)獲得高度特征圖和寬度特征圖。具體公式如下所示:

      [zhc(h)=1W0≤ilt;Wxc(h,i)] (1)

      [zwc(w)=1H0≤ilt;Hxc(j,w)] (2)

      接著將獲得的寬度和高度兩個(gè)方向的特征圖拼接在一起,之后將它們送入共享的卷積核1×1卷積變換函數(shù)進(jìn)行變換操作。

      [" " " " " " " f=δ(F1([zh,zw]))]" (3)

      生成的[f]是一張空間信息在水平和豎直方向上的中間特征圖,其中包含了一個(gè)非線性激活函數(shù)[δ],該函數(shù)被拆分為兩個(gè)獨(dú)立的張量,分別是[fh∈Rcr×h]和[fw∈Rcr×w],[r]以縮減率的形式呈現(xiàn)。

      通過(guò)實(shí)驗(yàn)驗(yàn)證了算法可以得到較高準(zhǔn)確率的圖像分割結(jié)果。采用[1×1]卷積函數(shù)進(jìn)行特征轉(zhuǎn)換,將其轉(zhuǎn)化為張量,其通道數(shù)與輸入的[X]相同。

      [gh=δFh(fh)] (4)

      [gw=δFw(fw)]" (5)

      通過(guò)以上計(jì)算后,本文會(huì)得到輸入特征圖中高度方向與寬度方向注意力權(quán)重的變化情況,從而為本文的研究工作提供了重要的參考依據(jù)。該方法獲得的局部結(jié)構(gòu)能夠更好地描述原始紋理區(qū)域中的細(xì)節(jié)部分,并且可以有效減少冗余點(diǎn)。通過(guò)實(shí)驗(yàn)驗(yàn)證了算法可以得到較高準(zhǔn)確率的圖像分割結(jié)果。最后將原始特征圖乘法加權(quán)計(jì)算得到具有注意力權(quán)重的特征圖,該特征圖表現(xiàn)出顯著的寬度與高度方向特征差異。

      [yc(i,j)=xc(i,j)×ghc(i)×gwc(j)] (6)

      本研究將CA嵌入到改進(jìn)的特征融合網(wǎng)絡(luò)中,首先對(duì)于主干特征網(wǎng)絡(luò)生成的4個(gè)有效特征層,在進(jìn)行FPN層構(gòu)建之前,對(duì)4個(gè)有效的特征層嵌入CA模塊;其次,在進(jìn)行FPN結(jié)構(gòu)自頂向下傳達(dá)高級(jí)語(yǔ)義特征時(shí),對(duì)每次上采樣后的結(jié)果嵌入CA模塊;最后,在進(jìn)行PAN結(jié)構(gòu)自底向上傳達(dá)低級(jí)空間特征時(shí),對(duì)每次下采樣的結(jié)果嵌入CA模塊。

      2.3" 改進(jìn)YOLOv5算法的損失函數(shù)

      YOLOv5算法采用預(yù)測(cè)框損失函數(shù)CIOU,但CIOU對(duì)預(yù)測(cè)框進(jìn)行回歸時(shí),其寬度和高度縱橫比一旦等于真實(shí)框?qū)挾群透叨葧r(shí),預(yù)測(cè)框?qū)挾群透叨染筒豢赡芡瑫r(shí)遞增或遞減,導(dǎo)致無(wú)法持續(xù)進(jìn)行優(yōu)化。

      原始的CIOU損失函數(shù)如式(7)所示:

      [LCIOU=1-IOU+ρ2(b,bgt)c2+αν] (7)

      其中:

      [α=ν(1-IOU)+ν] (8)

      [ν=4π2arctanwgthgt-arctanwh2] (9)

      從上面的公式可以看出,CIOU將邊界框的縱橫比作為懲罰項(xiàng)加入到邊界框損失函數(shù)中,在一定程度上可以加快預(yù)測(cè)框的回歸收斂過(guò)程,但是一旦收斂到預(yù)測(cè)框和真實(shí)框的寬和高呈現(xiàn)出線性比例時(shí),就會(huì)導(dǎo)致預(yù)測(cè)框回歸時(shí)的寬和高不能同時(shí)增大或者減少,其懲罰項(xiàng)就失去了原本的作用,這樣就無(wú)法有效地描述回歸目標(biāo),可能會(huì)導(dǎo)致收斂緩慢并且回歸不準(zhǔn)確。為了解決這個(gè)問(wèn)題,本文引入了EIOU(見(jiàn)圖5),采用直接對(duì)[w]和[h]的預(yù)測(cè)結(jié)果進(jìn)行懲罰的損失函數(shù)表達(dá)式,如公式(10)所示:

      [LEIOU=LIOU+Ldis+Lasp=1-IOU+ρ2(b,bgt)c2+ρ2(w,wgt)c2w+ρ2(h,hgt)c2h]" (10)

      式中:[c]代表涵蓋預(yù)測(cè)框與真實(shí)框的最小外接框的對(duì)角線長(zhǎng)度;[ch]和[cw]分別為其寬度和高度。在預(yù)測(cè)框與真實(shí)框中心點(diǎn)距離的計(jì)算中,將[ρ(w,wgt)]和[ρ(h,hgt)]分別視為橫向差值和縱向差值,[ρ(b,bgt)]為預(yù)測(cè)框與真實(shí)框中心點(diǎn)距離,具體如下所示:

      [ρ(w,wgt)=w-wgt] (11)

      [ρ(h,hgt)=h-hgt] (12)

      [ρ(b,bgt)=b-bgt] (13)

      由EIOU損失函數(shù)計(jì)算公式可見(jiàn),EIOU損失函數(shù)延續(xù)了CIOU中的方法,EIOU懲罰項(xiàng)以此為基礎(chǔ)對(duì)縱橫比影響因子進(jìn)行拆分,并分別對(duì)目標(biāo)框及錨框長(zhǎng)寬進(jìn)行計(jì)算,加快收斂速度。將縱橫比中損失項(xiàng)分解成預(yù)測(cè)框?qū)捀吲c最小外接框?qū)捀咧睿瑥亩行У卦鰪?qiáng)收斂速度,回歸精度明顯提高。

      3" 結(jié)果與分析

      3.1" 實(shí)驗(yàn)環(huán)境以及實(shí)驗(yàn)參數(shù)

      為了確保本文所提出的改進(jìn)方法能夠得到有效的驗(yàn)證,在實(shí)驗(yàn)環(huán)境中進(jìn)行了相關(guān)配置,具體內(nèi)容詳見(jiàn)表1。

      相關(guān)實(shí)驗(yàn)參數(shù)設(shè)置如表2所示。

      3.2" 實(shí)驗(yàn)數(shù)據(jù)集

      本文采用的數(shù)據(jù)集應(yīng)包含不同季節(jié)和復(fù)雜天氣背景下的施工現(xiàn)場(chǎng),從而滿足本文實(shí)驗(yàn)的要求。本實(shí)驗(yàn)采用的數(shù)據(jù)集是從公開(kāi)的安全帽數(shù)據(jù)集SHWD(Safety?Helmet?Wearing?Dataset)中選擇其中符合實(shí)驗(yàn)需求的一部分加上從網(wǎng)上爬蟲(chóng)獲得的數(shù)據(jù)集,總共5 304張。該數(shù)據(jù)集包含不同尺度、不同場(chǎng)景、不同密集程度等各種情況,滿足本文實(shí)驗(yàn)對(duì)環(huán)境復(fù)雜度的要求。該數(shù)據(jù)集分為兩個(gè)類別,分別是戴安全帽的人(Helmet)與未戴安全帽的人(Person)。首先使用LabelImg工具對(duì)圖像進(jìn)行手動(dòng)標(biāo)注,然后按照8∶1∶1的隨機(jī)原則將數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,以便進(jìn)行后續(xù)的數(shù)據(jù)處理和分析。部分?jǐn)?shù)據(jù)如圖6所示。

      3.3" 評(píng)價(jià)指標(biāo)

      為了對(duì)模型的性能和安全帽檢測(cè)的準(zhǔn)確性進(jìn)行評(píng)估,本文選用精確率(Precision, [P])、召回率(Recall, [R])和平均精度均值(mean Average Precision, mAP)這三個(gè)指標(biāo)來(lái)衡量模型的表現(xiàn),公式如式(14)~式(16)所示:

      [P=TPTP+FP×100%] (14)

      [R=TPTP+FN×100%] (15)

      [mAP=01P(R)dRN] (16)

      式中:TP(True Positive)為預(yù)測(cè)框和真實(shí)框相同的數(shù)量;FP(False Positive)為預(yù)測(cè)框和真實(shí)框不相同的數(shù)量;FN(False Negative)表示在預(yù)測(cè)過(guò)程中沒(méi)有被正確檢測(cè)到的圖像中所包含的物體數(shù)量;[N]是本文中所劃分類別的數(shù)量。

      3.4" 實(shí)驗(yàn)結(jié)果與分析

      為了驗(yàn)證本文算法改進(jìn)策略的有效性,基于YOLOv5基線進(jìn)行了8組消融實(shí)驗(yàn),各種實(shí)驗(yàn)?zāi)P偷玫降膶?shí)驗(yàn)結(jié)果如表3所示。

      表3中,F(xiàn)PN指在特征融合層添加微尺度檢測(cè)層,CA為嵌入CA模塊,EIOU為引入EIOU替換CIOU。通過(guò)實(shí)驗(yàn)①、實(shí)驗(yàn)②可以得知:引入FPN的目標(biāo)檢測(cè)網(wǎng)絡(luò)相比于YOLOv5,mAP值提升了1.18%,說(shuō)明特征融合層添加微尺度檢測(cè)層融入了更多的底層特征圖信息。通過(guò)實(shí)驗(yàn)②、實(shí)驗(yàn)⑤可以得知:引入CA的目標(biāo)檢測(cè)網(wǎng)絡(luò)相對(duì)于YOLOv5+FPN,mAP值提升了0.81%,說(shuō)明注意力機(jī)制可以有效地抑制無(wú)用信息,加強(qiáng)位置信息的提取,增強(qiáng)了特征提取能力。通過(guò)實(shí)驗(yàn)⑧可以得知:YOLOv5+FPN+CA+EIOU的mAP值為90.89[%],相比于YOLOv5基線提升了2.25[%]。總體來(lái)看,經(jīng)過(guò)改進(jìn)后的算法精度相比YOLOv5算法檢測(cè)精度得到了較大的提升。

      為了進(jìn)一步驗(yàn)證改進(jìn)算法的目標(biāo)檢測(cè)性能,在測(cè)試集上進(jìn)行了一系列實(shí)驗(yàn),以確保其有效性和可靠性。圖7為原YOLOv5與改進(jìn)算法在不同場(chǎng)景下的檢測(cè)結(jié)果對(duì)比圖,分為3個(gè)對(duì)照組。

      圖7a)和圖7b)所呈現(xiàn)的是施工人員在復(fù)雜場(chǎng)景中佩戴安全帽的檢測(cè)結(jié)果。從圖7a)可以看出,原模型對(duì)于圖中的小目標(biāo)信息出現(xiàn)了漏檢情況,而改進(jìn)后的模型可以正常檢測(cè)到。

      觀察圖7c)與圖7d)可以看出,拍攝密集人群時(shí),本文算法檢測(cè)結(jié)果明顯更優(yōu),YOLOv5算法漏掉了右上角佩戴安全帽的目標(biāo)。其根本原因是在卷積過(guò)程中模型會(huì)更偏向于關(guān)注圖像的紋理信息,而忽略背景信息,使得最終生成的特征圖信息不夠豐富。而改進(jìn)模型生成的特征圖語(yǔ)義信息更加豐富,提高了精度,在一定程度上避免了漏檢、誤檢的發(fā)生。

      圖7e)與圖7f)是施工場(chǎng)地場(chǎng)景的YOLOv5原模型和本文改進(jìn)模型的測(cè)試結(jié)果。從圖7e)可以看出,部分被障礙物遮擋到的目標(biāo)無(wú)法被識(shí)別出來(lái)從而導(dǎo)致漏檢。而從圖7f)中可以看出,改進(jìn)后的YOLOv5模型網(wǎng)絡(luò)可以正確識(shí)別出被遮擋到的目標(biāo),將坐標(biāo)注意力機(jī)制嵌入特征融合層中可以顯著提升重要特征信息的獲取能力,使得最終生成的特征圖信息更加豐富,提高了模型的表示能力,加強(qiáng)了模型對(duì)被遮擋目標(biāo)的檢測(cè)能力。

      4" 與現(xiàn)有主流算法的對(duì)比實(shí)驗(yàn)

      選取當(dāng)前具有代表性且性能優(yōu)異的目標(biāo)檢測(cè)算法分別訓(xùn)練同一個(gè)安全帽數(shù)據(jù)集,比較模型的性能,實(shí)驗(yàn)結(jié)果如表4所示。通過(guò)對(duì)比可知,本文基于YOLOv5改進(jìn)后的算法在安全帽數(shù)據(jù)集中有更高的精度,在面對(duì)安全帽佩戴檢測(cè)問(wèn)題上具有更高的針對(duì)性。相較于Faster?RCNN,其mAP的精度提高了6.48%,相比在小目標(biāo)領(lǐng)域檢測(cè)精度比較高的TPH?YOLOv5提高1.27%。與改進(jìn)前的原模型相比,mAP提高了2.25%,在多種不同模型的算法對(duì)比中表現(xiàn)出了一定的優(yōu)越性。總體而言,本文所提出的優(yōu)化方案具備相當(dāng)?shù)挠行浴?/p>

      5" 結(jié)" 語(yǔ)

      本文提出一種基于改進(jìn)YOLOv5的安全帽檢測(cè)算法。首先,在特征融合層添加微尺度檢測(cè)層,提取更豐富的安全帽特征信息,極大地提升了檢測(cè)性能;其次,在改進(jìn)的特征融合層中嵌入CA,增強(qiáng)重要的特征信息,抑制無(wú)用的特征信息,提高模型的表達(dá)能力;最后,采用EIOU損失函數(shù)替換CIOU損失函數(shù)解決了縱橫比的模糊定義,加快了網(wǎng)絡(luò)收斂,有助于提高回歸精度。實(shí)驗(yàn)結(jié)果表明,所提出的改進(jìn)版YOLOv5算法用于安全帽檢測(cè)的平均精度值可以達(dá)到90.89%,對(duì)于安全帽的檢測(cè)這一方向的研究具有良好的成效。在未來(lái)的工作中,將擴(kuò)展現(xiàn)有方法實(shí)現(xiàn)對(duì)安全帽語(yǔ)義的識(shí)別,提高安全帽檢測(cè)的實(shí)用性,并進(jìn)一步優(yōu)化安全帽檢測(cè)網(wǎng)絡(luò)的速度和檢測(cè)性能。

      參考文獻(xiàn)

      [1] WANG L, TANG J, LIAO Q. A study on radar target detection based on deep neural networks [J]. IEEE sensors letters, 2019, 3(3): 1?4.

      [2] PATHAK A R, PANDEY M, RAUTARAY S. Application of deep learning for object detection [J]. Procedia computer science, 2018, 132: 1706?1717.

      [3] JAMTSHO Y, RIYAMONGKOL P, WARANUSAST R. Real?time license plate detection for non?helmeted motorcyclist using YOLO [J]. ICT express, 2021, 7(1): 104?109.

      [4] 徐守坤,王雅如,顧玉宛,等.基于改進(jìn)Faster RCNN的安全帽佩戴檢測(cè)研究[J].計(jì)算機(jī)應(yīng)用研究,2020,37(3):901?905.

      [5] 吳雪,宋曉茹,高嵩,等.基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法綜述[J].傳感器與微系統(tǒng),2021,40(2):4?7.

      [6] YING Z, HONGMEI G, WENGANG Y, et al. Earthquake?induced building damage recognition from unmanned aerial vehicle remote sensing using scale?invariant feature transform characteristics and support vector machine classification [J]. Earthquake spectra, 2023, 39(2): 962?984.

      [7] AORUI G, HEMING S, CHAO L, et al. A novel fast intra algorithm for VVC based on histogram of oriented gradient [J]. Journal of visual communication and image representation, 2023, 95: 103888.

      [8] 趙恒,胡勝男,徐進(jìn)霞,等.基于DBN?SVM的電力智慧工地異常行為識(shí)別[J].自動(dòng)化與儀器儀表,2023(5):92?95.

      [9] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2014: 580?587.

      [10] XU X, ZHAO M, SHI P, et al. Crack detection and comparison study based on faster R?CNN and mask R?CNN [J]. Sensors, 2022, 22(3): 1215.

      [11] CHEN Y, LI W, SAKARIDIS C, et al. Domain adaptive faster R?CNN for object detection in the wild [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 3339?3348.

      [12] 徐守坤,王雅如,顧玉宛,等.基于改進(jìn)FasterRCNN的安全帽佩戴檢測(cè)研究[J].計(jì)算機(jī)應(yīng)用研究,2020,37(3):901?905.

      [13] ZHOU F, ZHAO H, NIE Z. Safety helmet detection based on YOLOv5 [C]// 2021 IEEE International Conference on Power Electronics, Computer Applications (ICPECA). New York: IEEE, 2021: 6?11.

      [14] HUANG L, FU Q, HE M, et al. Detection algorithm of safety helmet wearing based on deep learning [J]. Concurrency and computation: Practice and experience, 2021, 33(13): e6234.

      [15] LONG X, CUI W, ZHENG Z. Safety helmet wearing detection based on deep learning [C]// 2019 IEEE 3rd Information Technology, Networking, Electronic and Automation Control Con?ference (ITNEC). New York: IEEE, 2019: 2495?2499.

      [16] 李航,朱明.基于深度卷積神經(jīng)網(wǎng)絡(luò)的小目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)工程與科學(xué),2020,42(4):649?657.

      [17] AN Q, XU Y, YU J, et al. Research on safety helmet detection algorithm based on improved YOLOv5s [J]. Sensors, 2023, 23(13): 5824.

      [18] HOU Q, ZHOU D, FENG J. Coordinate attention for efficient mobile network design [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 13713?13722.

      [19] ZHANG Y F, REN W Q, ZHANG Z, et al. Focal and efficient IOU loss for accurate bounding box regression [J]. Neurocomputing, 2022, 506: 146?157.

      [20] ZHENG Z, WANG P, LIU W, et al. Distance?IoU loss: Faster and better learning for bounding box regression [J]. Procee?dings of the AAAI Conference on Artificial Intelligence, 2020, 34(7): 12993?13000.

      [21] 周華平,鄧彬.融合多層次特征的deeplabV3+輕量級(jí)圖像分割算法[J/OL].計(jì)算機(jī)工程與應(yīng)用,1?9[2023?08?31].http://kns.cnki.net/kcms/detail/11.2127.TP.20230831.1205.012.html.

      [22] CENGGORO T W, ASLAMIAH A H, YUNANTO A. Feature pyramid networks for crowd counting [J]. Procedia computer science, 2019, 157: 175?182.

      [23] LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 8759?8768.

      猜你喜歡
      特征融合注意力機(jī)制目標(biāo)檢測(cè)
      基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
      基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
      基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
      軟件工程(2017年11期)2018-01-05 08:06:09
      InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
      基于移動(dòng)端的樹(shù)木葉片識(shí)別方法的研究
      科技資訊(2017年11期)2017-06-09 18:28:13
      基于SIFT特征的港口內(nèi)艦船檢測(cè)方法
      融合整體與局部特征的車輛型號(hào)識(shí)別方法
      視頻中目標(biāo)檢測(cè)算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
      移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
      股票| 镇赉县| 延安市| 钟祥市| 东兴市| 香港| 广汉市| 邵武市| 武汉市| 台山市| 阿瓦提县| 涿州市| 西峡县| 海丰县| 仁化县| 潜江市| 揭东县| 商水县| 黄浦区| 高邑县| 文登市| 比如县| 罗定市| 思茅市| 蛟河市| 蓝山县| 高阳县| 思茅市| 上虞市| 六安市| 平原县| 辽宁省| 宝应县| 察雅县| 怀化市| 广南县| 沅陵县| 威远县| 叶城县| 清水河县| 乌恰县|