• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進(jìn)YOLOv7?tiny的高空作業(yè)人員安防裝備檢測算法

      2024-09-13 00:00:00文家燕周志辛華健謝廣明
      現(xiàn)代電子技術(shù) 2024年13期
      關(guān)鍵詞:目標(biāo)檢測高空作業(yè)輕量化

      摘" 要: 針對現(xiàn)有高空作業(yè)人員安防裝備檢測算法參數(shù)量較大且檢測目標(biāo)相對單一,難以適應(yīng)復(fù)雜的高空作業(yè)場景等問題,提出一種基于改進(jìn)YOLOv7?tiny的高空作業(yè)人員安防裝備檢測算法。首先,將主干網(wǎng)絡(luò)重新設(shè)計(jì)為更輕量的YOLOv7?FasterNet,并調(diào)整空間金字塔池化結(jié)構(gòu),實(shí)現(xiàn)模型參數(shù)量的壓縮;其次,在ELAN?L模塊中擴(kuò)展梯度傳輸路徑的分支,解決了模型壓縮造成的通道信息缺失問題,提升了特征信息的提取能力;最后,將網(wǎng)絡(luò)中下采樣部分替換為Involution模塊,降低參數(shù)冗余,增強(qiáng)網(wǎng)絡(luò)對全局的捕獲能力。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的YOLOv7?tiny算法能夠更好地適應(yīng)復(fù)雜高空作業(yè)場景,在開源數(shù)據(jù)集上具備良好的性能。該算法的平均檢測精度達(dá)到94.7%,較原模型提升1.5%,參數(shù)量較原模型下降11.6%,實(shí)驗(yàn)結(jié)果驗(yàn)證了算法改進(jìn)措施的有效性。

      關(guān)鍵詞: 目標(biāo)檢測; 安防裝備; 高空作業(yè); YOLOv7?tiny; 輕量化; Involution

      中圖分類號: TN911?34; TP391.4" " " " " " " " " " 文獻(xiàn)標(biāo)識碼: A" " " " " " " " " "文章編號: 1004?373X(2024)13?0164?08

      High?altitude operation personnel security equipment detection algorithm

      based on improved YOLOv7?tiny

      WEN Jiayan1, 2, ZHOU Zhiwen1, 2, XIN Huajian3, XIE Guangming1, 4

      (1. School of Automation, Guangxi University of Science and Technology, Liuzhou 545616, China;

      2. Research Center for Intelligent Cooperation and Cross?application, Guangxi University of Science and Technology, Liuzhou 545616, China;

      3. Guangxi Vocational amp; Technical Institute of Industry, Nanning 530200, China;" 4. College of Engineering, Peking University, Beijing 100871, China)

      Abstract: In view of the fact that the existing security equipment detection algorithm for high?altitude operation personnel has a large number of parameters and relatively single detection object, which is difficult to adapt to complex high?altitude operation scenes, a high?altitude operation personnel security equipment detection algorithm based on improved YOLOv7?tiny is proposed. The backbone network is redesigned as YOLOv7?FasterNet with lighter weight, and the spatial pyramid pooling (SPP) structure is adjusted to compress the number of the model parameters. By expanding the gradient transmission path branches in the ELAN?L module, the channel information loss caused by model compression are resolved, which enhances the capability to extract feature information. The downsampling part of the network is replaced with the Involution module, reducing parameter redundancy and strengthening the network′s ability to capture global information. The experimental results show that the improved YOLOv7?tiny algorithm can adapt to complex high?altitude operation scenarios better and performs well on open?source datasets. The average detection accuracy of the proposed algorithm reaches 94.7%, which is 1.5% higher that that of the original model, and its number of parameters is reduced by 11.6% in comparison with that of the original model. The results confirm the effectiveness of the algorithm′s improvements.

      Keywords: object detection; security equipment; high?altitude operation; YOLOv7?tiny; light weight; Involution

      0" 引" 言

      高空作業(yè)是電力系統(tǒng)施工和運(yùn)維的常見方式,也是一種較危險(xiǎn)的作業(yè)方式,相對于地面作業(yè),其工作條件和環(huán)境更復(fù)雜。據(jù)國家能源局統(tǒng)計(jì),2020年全國電力作業(yè)發(fā)生35起人身傷亡事故,導(dǎo)致44人死亡,高空墜落造成的死亡人數(shù)占死亡總?cè)藬?shù)的25%。高空作業(yè)人員未正確佩戴或使用安防裝備導(dǎo)致裝備防護(hù)功能失效或無效是高空墜落事故的主要原因[1]。

      目前,常用的檢測方法主要依賴人工巡查或視頻監(jiān)控[2]。人工巡查耗時(shí)耗力,易受主觀因素影響,檢測效率和準(zhǔn)確度較低。視頻監(jiān)控則需大量人力物力,其檢測范圍和反應(yīng)速度都受到限制[3]。因此,迫切需要開發(fā)一種基于智能技術(shù)的安防裝備檢測方法,以提高檢測效率和準(zhǔn)確性,為高空作業(yè)安全管理提供技術(shù)支持。

      近年來,高清視頻監(jiān)控技術(shù)結(jié)合計(jì)算機(jī)視覺智能分析已經(jīng)成為主流發(fā)展趨勢[4?7],針對高空施工作業(yè)監(jiān)控的視覺算法研究通常依賴神經(jīng)網(wǎng)絡(luò)。例如,文獻(xiàn)[8]提出了一種基于輕量化神經(jīng)網(wǎng)絡(luò)的安防裝備檢測算法,該算法采用MobileNetV2[9]代替YOLOv4的主干網(wǎng)絡(luò),在保持檢測精度的同時(shí)顯著提高檢測速度。改進(jìn)算法在單一檢測、多目標(biāo)檢測和小物體檢測等實(shí)時(shí)監(jiān)控場景中效果良好,具備較強(qiáng)的魯棒性,然而,在實(shí)際測試中仍然存在一些漏檢情況,需進(jìn)一步提高算法準(zhǔn)確度。文獻(xiàn)[10]提出了一種利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行安全帶識別和檢測的算法,該算法采用空洞卷積和深度可分離卷積來構(gòu)建輕量級特征提取網(wǎng)絡(luò),并引入改進(jìn)的漸進(jìn)注意力機(jī)制。盡管該算法提高了目標(biāo)檢測的準(zhǔn)確性,但因模型較大,檢測速度較慢,不適合在高空電力作業(yè)場景中的實(shí)時(shí)檢測。文獻(xiàn)[11]提出一種針對作業(yè)人員標(biāo)準(zhǔn)佩戴安全帶的檢測方法,該方法利用Mask R?CNN網(wǎng)絡(luò)進(jìn)行特征提取,并通過比對人體關(guān)鍵節(jié)點(diǎn)特征和安全帶目標(biāo),判斷作業(yè)人員是否違規(guī)或未佩戴安全帶。然而,該方法目標(biāo)識別相對單一,難以適應(yīng)實(shí)際應(yīng)用場景的復(fù)雜性。

      總體來看,現(xiàn)有研究主要集中于單類別目標(biāo)檢測,模型復(fù)雜度較高,在實(shí)際應(yīng)用場景中受限。本文提出一種面向高空作業(yè)人員安防裝備的視覺檢測方法,該方法基于YOLOv7?tiny算法[12]進(jìn)行改進(jìn),具體工作包括:

      1) 基于輕量化模塊FasterNet Block[13]設(shè)計(jì)主干網(wǎng)絡(luò)YOLOv7?FasterNet,采用SPPF(Spatial Pyramid Pooling?Fast)結(jié)構(gòu)優(yōu)化空間金字塔池化層,降低模型參數(shù)量,提升檢測速度。

      2) 為減少模型的漏檢,引入改進(jìn)后的GroupELAN模塊,本文借鑒分組卷積思想,在略增參數(shù)量的情況下顯著提升網(wǎng)絡(luò)的特征提取和聚合能力。

      3) 針對下采樣模塊可能忽略細(xì)節(jié)特征的問題,本文使用參數(shù)量更小的Involution模塊[14]來代替原網(wǎng)絡(luò)的下采樣結(jié)構(gòu)。該模塊參數(shù)量更少,能根據(jù)輸入圖像自適應(yīng)變化卷積核,實(shí)現(xiàn)更好的關(guān)系建模和語義聚合。

      改進(jìn)算法在修訂后的開源廣東電網(wǎng)智慧現(xiàn)場作業(yè)天池?cái)?shù)據(jù)集上進(jìn)行測試,結(jié)果顯示,相較于原網(wǎng)絡(luò),改進(jìn)算法更輕量化、更快速,展現(xiàn)出良好的性能。

      1" YOLOv7?tiny算法概述

      YOLOv7?tiny算法包括三部分:主干網(wǎng)絡(luò)(Backbone)、頸部網(wǎng)絡(luò)(Neck)和預(yù)測頭(Head)。首先,輸入圖像經(jīng)過預(yù)處理,然后送入主干網(wǎng)絡(luò)進(jìn)行特征提取;將提取到的圖像特征通過頸部網(wǎng)絡(luò)進(jìn)行特征融合,生成大、中、小3種尺寸的特征表達(dá);最后,融合的特征被傳遞到預(yù)測頭,生成最終輸出結(jié)果。

      主干網(wǎng)絡(luò)采用了CBS模塊、簡化的高效長程聚合網(wǎng)絡(luò)(ELAN?L)和最大池化(Maxpool)操作。CBS模塊包括Conv層、BN層和SiLU激活函數(shù)。ELAN?L模塊在原始ELAN基礎(chǔ)上簡化,刪減了兩個(gè)[k]=3、[s]=1的CBS卷積塊,提高了融合效率。相較于YOLOv7,YOLOv7?tiny取消了Backbone中的MPConv模塊,改用最大池化操作進(jìn)行下采樣,使整個(gè)主干網(wǎng)絡(luò)更加高效。

      頸部網(wǎng)絡(luò)采用優(yōu)化的PANet結(jié)構(gòu)進(jìn)行特征聚合。SPPCSPC?L在簡化空間金字塔池化結(jié)構(gòu)(SPPCSPC)的基礎(chǔ)上,保留最基本的SPP結(jié)構(gòu),并刪減了SPPCSPC結(jié)構(gòu)中池化層前后[k]=3、[s]=1的卷積。

      預(yù)測頭使用CBS調(diào)整通道,并輸出各尺度的檢測結(jié)果,YOLOv7?tiny網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

      2" 改進(jìn)YOLOv7?tiny算法

      本文以YOLOv7?tiny結(jié)構(gòu)為基準(zhǔn),對網(wǎng)絡(luò)進(jìn)行優(yōu)化,在降低模型參數(shù)量的前提下,提高模型檢測的實(shí)時(shí)性和準(zhǔn)確性。

      2.1" YOLOv7?FasterNet輕量化提取網(wǎng)絡(luò)

      針對YOLOv7?tiny模型中特征提取網(wǎng)絡(luò)CSPDarknet5參數(shù)量大且推理速度慢等問題,本文以FasterNet Block為核心,重新設(shè)計(jì)了主干網(wǎng)絡(luò),并命名為YOLOv7?FasterNet。FasterNetBlock使用PConv作為卷積核心,PConv只對特征圖的部分通道進(jìn)行卷積,其他通道保持不變,以此減少冗余計(jì)算和內(nèi)存訪問,提高浮點(diǎn)運(yùn)算量(FLOPS)。

      YOLOv7?FasterNet模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

      YOLOv7?FasterNet網(wǎng)絡(luò)主要包括4個(gè)FasterNet Block,每個(gè)Block前都配有一個(gè)用于空間下采樣和通道數(shù)擴(kuò)展的Embedding層([k]=4、[s]=4的常規(guī)卷積)或Merging層([k]=2、[s]=2的常規(guī)卷積)。每個(gè)FasterNet Block都由一個(gè)PConv和兩個(gè)PWConv構(gòu)成,其中BN層和ReLU層位于兩個(gè)PWConv之間,以維持特征多樣性并實(shí)現(xiàn)較低延遲。網(wǎng)絡(luò)末端的CBS負(fù)責(zé)特征轉(zhuǎn)化和通道整理,為輸入到頸部網(wǎng)絡(luò)進(jìn)行特征聚合做準(zhǔn)備。

      2.2" SPPCSPC?L模塊改進(jìn)

      SPPCSPC?L模塊包括兩個(gè)分支。如圖3a)所示,上分支先進(jìn)行[k]=1、[s]=1的卷積,然后并行運(yùn)行三個(gè)不同大?。?,9,13)的最大池化層,再將池化后的特征圖與卷積特征圖在通道維度拼接,最后進(jìn)行[k]=1、[s]=1的卷積;下分支只進(jìn)行[k]=1、[s]=1的卷積,然后與上分支合并,最后通過[k]=1、[s]=1的卷積層輸出。

      本文對SPPCSPC?L模塊進(jìn)行改進(jìn),如圖3b)所示,借鑒SPPF思想將上分支中的三個(gè)不同池化核替換為三個(gè)相同池化核([k]=5),并依次進(jìn)行最大池化操作,最后將三個(gè)池化特征圖與卷積特征圖進(jìn)行合并。為了探究改進(jìn)效果,隨機(jī)選取500張圖像進(jìn)行對比實(shí)驗(yàn),在保證實(shí)驗(yàn)環(huán)境和參數(shù)一致的前提下使用參數(shù)量Params、浮點(diǎn)運(yùn)算次數(shù)GFLOPs和運(yùn)算時(shí)間Time作為衡量模型性能的指標(biāo),實(shí)驗(yàn)對比結(jié)果如表1所示。

      從表1可以看出,在保證輸入圖像相同的情況下,相較于原網(wǎng)絡(luò),改進(jìn)后的空間金字塔池化層參數(shù)量和GFLOPs不變,檢測速度提升將近一倍。

      2.3" ELAN?L模塊改進(jìn)

      如圖4a)所示,ELAN?L模塊的上分支經(jīng)過[k]=1、[s]=1的卷積層調(diào)整通道數(shù),并依次使用兩個(gè)[k]=3、[s]=1卷積層進(jìn)行特征提取,下分支使用[k]=1、[s]=1的卷積做通道數(shù)變化,最后將4個(gè)卷積分支的特征輸出進(jìn)行疊加,通過[k]=1、[s]=1的卷積層輸出。

      本文對ELAN?L網(wǎng)絡(luò)進(jìn)行改進(jìn),并提出一種新的網(wǎng)絡(luò)結(jié)構(gòu),稱為GroupELAN。在ELAN網(wǎng)絡(luò)上分支的[k]=1、[s]=1卷積層并行一個(gè)[k]=1、[s]=1的分組卷積,并將輸出特征圖在通道維度上進(jìn)行拼接。改進(jìn)后的模型雖然一定程度上增加了參數(shù)量,但獲得了更強(qiáng)的特征提取和融合能力。GroupELAN網(wǎng)絡(luò)結(jié)構(gòu)如圖4b)所示。

      相比于常規(guī)卷積,分組卷積能在減少參數(shù)量和計(jì)算量的前提下,實(shí)現(xiàn)特征的多樣性和豐富性,可以隔絕不同組的信息交換,降低模型過擬合的風(fēng)險(xiǎn),并提高模型的泛化能力。

      為了進(jìn)一步探究GroupELAN模塊的添加以及分組數(shù)量對檢測效果的影響,隨機(jī)選取數(shù)據(jù)集500張圖像進(jìn)行對比實(shí)驗(yàn)。本文設(shè)置原ELAN?L模型、改進(jìn)后的GroupELAN模型且分組[G]=1、改進(jìn)后的GroupELAN模型且分組[G]=2、改進(jìn)后的GroupELAN模型且分組[G]=4、改進(jìn)后的GroupELAN模型且分組[G]=8這5種情況進(jìn)行實(shí)驗(yàn),使用mAP@0.5、Params和GFLOPs作為衡量模型性能的指標(biāo)。實(shí)驗(yàn)對比結(jié)果如表2所示。

      由表2可得,[G]=1(不分組)和[G]=4的GroupELAN模型的mAP@0.5相差不大,[G]=4相較于[G]=1,模型的Params更小、GFLOPs更低,因此本文選取分組為4的GroupELAN模型。

      2.4" Involution下采樣

      下采樣是圖像分類和目標(biāo)檢測網(wǎng)絡(luò)模型中的重要操作。它通過減小特征圖的尺寸來增加感受野的大小,使得網(wǎng)絡(luò)能夠捕捉更多圖像特征的同時(shí)減少計(jì)算量和內(nèi)存消耗,從而提高模型的效率和速度。YOLOv7?tiny中使用[k]=3、[s]=2的步長卷積(Strided Convolution)進(jìn)行下采樣。

      步長卷積具備空間不變性(Spatial?agnostic)和通道獨(dú)立性(Channel?specific)兩大固有特性,空間不變性的計(jì)算方式剝奪了卷積從不同位置發(fā)掘不同特征的能力,而常規(guī)的3×3卷積核感受野相對較小,無法與長距離特征進(jìn)行互動(dòng),限制了模型對于圖像的特征提取。此外,在卷積操作時(shí),不同通道的卷積核不共享,使得不同通道的特征相互獨(dú)立,進(jìn)而導(dǎo)致參數(shù)的冗余。

      設(shè)輸入特征映射[X∈RH×W×Ci],[H]、[W]表示輸入特征的高度和寬度,[Ci]表示輸入通道數(shù)。取卷積核大小為[K×K]的卷積濾波器[Fk∈RCi×K×K],其中每個(gè)卷積濾波器[Fk∈RCi×K×K],[k=1,2,…,Co]都由[Ci]個(gè)[Fk,c∈RK×K],[c=1,2,…,Ci]卷積核構(gòu)成,并通過滑動(dòng)窗口的形式對輸入特征圖[X]進(jìn)行乘加運(yùn)算,得到輸出特征圖[Y∈RH×W×Co],定義為:

      [Yi,j,k=c=1Ci(u,v)∈ΔKFαXβ," "α∈(k,c,u+K2,v+K2)," " " " " β∈(i+u,j+v,c)] (1)

      式中[ΔK∈Z2]為對中心像素進(jìn)行卷積的鄰域偏移量集合,定義為:

      [ΔK=-K2,…,K2×-K2,…,K2] (2)

      式中“[×]”為笛卡爾積。

      與上述步長卷積相比,Involution核可表示為[H∈RH×W×K×K×G],其中[G]為Involution核的分組數(shù),Involution核[H]的形狀取決于輸入特征映射[X]的大小,本文將生成函數(shù)定義為[?],并將任意[(i, j)]位置的核函數(shù)映射為:

      [Hi,j=?(Xψi,j)] (3)

      式中,[ψi,j]為[Hi,j]對應(yīng)的輸入像素索引,[ψi,j=(i, j)]。本文定義Involution核生成函數(shù)[?:RCi?RK×K×G],Involution核函數(shù)如下:

      [Hi,j=?(Xψi,j)=W1σW0Xi,j] (4)

      式中:[W0∈RCir×Ci],[W1∈RK×K×G×CiG]代表兩個(gè)線性變換;[σ]為[ReLUBN?]。對于任意坐標(biāo)[(i, j)],Involution輸出的定義可以設(shè)為:

      [Yi,j,k=u,v∈ΔKHi,j,u+K2,v+K2,g," g=kG/CXi+u,j+v,k] (5)

      將分組[G]設(shè)置為4,那么輸入特征圖[X]的任意[(i, j)]位置像素的Involution示意圖如圖5所示。

      對任意[(i, j)]的像素,使用核生成函數(shù)[?]生成特定大小的權(quán)重向量,通過[Hi,j=?(Xψi,j)]將權(quán)重向量排列成[G]個(gè)Kernel,最后在通道維度進(jìn)行復(fù)制,得到[K×K×C]的卷積核,卷積核與原圖進(jìn)行卷積,得到[1×1×C]的特征輸出圖。

      本文在網(wǎng)絡(luò)的Neck層引入Involution模塊,使用Involution模塊代替卷積進(jìn)行下采樣,以便捕捉更多的全局信息和語義信息,在降低參數(shù)量的同時(shí)提高模型的表達(dá)能力和泛化能力。

      3" 實(shí)驗(yàn)過程與分析

      3.1" 數(shù)據(jù)預(yù)處理

      本文選取阿里云天池挑戰(zhàn)賽發(fā)布的開源廣東電網(wǎng)智慧現(xiàn)場作業(yè)天池?cái)?shù)據(jù)集,數(shù)據(jù)集包含不同光照強(qiáng)度、不同作業(yè)場地、不同拍攝方向的高空作業(yè)人員數(shù)據(jù)圖像共2 548張。數(shù)據(jù)集包括高空作業(yè)離地人員(Offground)、地面人員(Ground)、作業(yè)安全帶(Safebelt)、監(jiān)護(hù)人員(Garders)四類。本文結(jié)合實(shí)際高空作業(yè)場景,刪減監(jiān)護(hù)人員類別并添加安全帽(Helmet)類別,處理后的數(shù)據(jù)集標(biāo)簽信息如表3所示。

      3.2" 環(huán)境及實(shí)驗(yàn)設(shè)置

      本文實(shí)驗(yàn)使用的計(jì)算機(jī)處理器型號為i7?12700H,顯卡型號為NVIDIA GeForce RTX 3080,顯存為10 GB,CUDA Version為11.2,模型使用深度學(xué)習(xí)框架PyTorch搭建運(yùn)行,算法以Python為基礎(chǔ)語言,Python版本為3.9,使用PyCharm編輯器編寫代碼。

      實(shí)驗(yàn)隨機(jī)將數(shù)據(jù)集的80%劃分為訓(xùn)練集,20%劃分為驗(yàn)證集,使用爬蟲代碼在網(wǎng)站上爬取500張高空作業(yè)圖像作為測試集,不使用預(yù)訓(xùn)練權(quán)重,將批處理圖像設(shè)置為8,訓(xùn)練200個(gè)Epoch,訓(xùn)練初始學(xué)習(xí)率為0.001。

      3.3" 評價(jià)指標(biāo)

      常見的性能評價(jià)指標(biāo)主要包括精確率[P](Precision)、召回率[R](Recall)、平均精度AP(Average Precision)和平均精度均值mAP(mean Average Precision)。其中,AP由精確率[P]和召回率[R]獲取,mAP由每類目的精度AP取平均得到,mAP值越大表示模型整體精度越高。

      本文選用平均精度AP和平均精度均值mAP作為模型性能的評價(jià)指標(biāo)。精確率和召回率的計(jì)算式如下:

      [P=TPTP+FP] (6)

      [R=TPTP+FN] (7)

      式中:TP為目標(biāo)對象被正確檢測的個(gè)數(shù);FP為非目標(biāo)對象被誤檢為目標(biāo)對象的個(gè)數(shù);FN為目標(biāo)對象卻被誤檢為非目標(biāo)對象和漏檢的總個(gè)數(shù)。

      平均精度AP和平均精度均值mAP計(jì)算公式如下:

      [AP=01PRdR] (8)

      [mAP=i=1nAPin] (9)

      式中:計(jì)算[P?R](Precision?Recall)曲線在[0,1]的積分值可得到目標(biāo)類的平均精度AP;[n]為不同類別的和,計(jì)算所有類的平均精度AP,即為平均精度均值mAP。

      3.4" 消融實(shí)驗(yàn)

      為了驗(yàn)證改進(jìn)算法中FasterNet新主干網(wǎng)絡(luò)、GroupELAN和Involution下采樣模塊的有效性,本文在訓(xùn)練參數(shù)相同的情況下,設(shè)計(jì)了一組消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表4所示。

      表4展示了不同改進(jìn)模塊對實(shí)驗(yàn)的影響。與實(shí)驗(yàn)1相比,實(shí)驗(yàn)2使用FasterNet Backbone替代原模型的主干提取網(wǎng)絡(luò),模型的參數(shù)量顯著減少,但平均精度均值也相對減少了2.2%。因此,直接使用FasterNet Backbone作為主干提取網(wǎng)絡(luò)精度犧牲較大;實(shí)驗(yàn)3優(yōu)化了空間金字塔池化結(jié)構(gòu),采用了速度更快的SPPF結(jié)構(gòu),保證輸出結(jié)果的不變性。與實(shí)驗(yàn)2相比,實(shí)驗(yàn)3的檢測精度和模型大小都沒有明顯變化,但推理速度有所提升;實(shí)驗(yàn)4引入了改進(jìn)后的GroupELAN模塊,其中分支部分使用了分組卷積,有效控制了參數(shù)量的增加。實(shí)驗(yàn)4克服了實(shí)驗(yàn)2中精度較低的問題,同時(shí)僅增加了0.39 MB的模型大小,將mAP值從原來的91%提升至93.7%;相對于實(shí)驗(yàn)4,實(shí)驗(yàn)5優(yōu)化了下采樣模塊,解決了普通卷積中不同通道之間卷積核不共享導(dǎo)致的特征提取冗余以及相同通道無法根據(jù)輸入特征自適應(yīng)調(diào)整卷積核的問題。這確保了在減少參數(shù)量的情況,模型能夠保證特征提取的多樣性。最終,mAP值達(dá)到了94.7%,較實(shí)驗(yàn)1提高1.5%,參數(shù)量較實(shí)驗(yàn)4減少了0.64 MB。

      通過上面的消融實(shí)驗(yàn)分析可以得出結(jié)論:改進(jìn)后的YOLOv7?tiny模型在各訓(xùn)練參數(shù)一致的情況下,不僅實(shí)現(xiàn)了輕量化,還保持了模型的檢測精度。這意味著改進(jìn)模型在高空作業(yè)人員安防設(shè)備檢測方面可以提供更高的效率和性能,而不必犧牲精度。

      3.5" 對比實(shí)驗(yàn)

      為了進(jìn)一步驗(yàn)證改進(jìn)模型的有效性,在同一實(shí)驗(yàn)條件下,本文與SSD、YOLOv3?tiny、YOLOv4?tiny、YOLOv5s檢測方法進(jìn)行了對比實(shí)驗(yàn),AP實(shí)驗(yàn)結(jié)果對比如表5所示。

      由表5可以看出,改進(jìn)后的YOLOv7?tiny模型在不同類別的檢測精度上的表現(xiàn)均優(yōu)于SSD、YOLOv3?tiny、YOLOv4?tiny等算法,特別是在Offground、Ground、Safebelt和Helmet四個(gè)類別的檢測中具有更高的精度,且相較于SSD、YOLOv3?tiny和YOLOv4?tiny算法,改進(jìn)后的模型參數(shù)量更低。

      與主流目標(biāo)檢測算法YOLOv5s相比,改進(jìn)后的模型在mAP值上相差不大,只有0.2%的提升,但模型更加輕量化,參數(shù)量減少了15.8%,可以提供更高的效率。與原始YOLOv7?tiny模型相比,改進(jìn)后的模型在mAP值上提升1.5%,參數(shù)量減少11.6%。因此,這一改進(jìn)不僅優(yōu)化了模型的大小,還提高了檢測性能。

      圖6、圖7為改進(jìn)前后算法的訓(xùn)練Loss曲線對比圖和mAP@0.5曲線對比圖。

      從圖6可以看出,改進(jìn)后的算法不僅收斂速度更快,而且在數(shù)據(jù)穩(wěn)定后,其損失值低于原算法,這表明改進(jìn)后的算法在訓(xùn)練過程中具有更好的優(yōu)化性能。圖7中,前20個(gè)Epoch中兩個(gè)算法準(zhǔn)確度相當(dāng),但在此之后,改進(jìn)算法的準(zhǔn)確度整體高于原模型,并最終檢測精度提升了1.5%。由此可見,本文提出的改進(jìn)算法在整體的檢測性能上優(yōu)于原算法。

      3.6" 檢測效果分析

      為了評估原算法與改進(jìn)算法在高空作業(yè)環(huán)境下的檢測效果,本文選取了單目標(biāo)、遮擋目標(biāo)和小目標(biāo)三種不同的作業(yè)場景,圖8~圖10展示了兩種算法的檢測結(jié)果。在圖8中,針對單目標(biāo),兩種算法都能夠檢測出安全帽和高空作業(yè)人員。然而,改進(jìn)算法的安全帽檢測mAP值為95%,比原算法高出5%;高空作業(yè)人員檢測mAP值為99%,比原算法高出1%。從圖9可以看出,圖中有4位部分遮擋的高空作業(yè)人員。原算法只能檢測出安全帶和安全帽兩類目標(biāo),對于被嚴(yán)重遮擋的高空作業(yè)人員和安全帶存在漏檢現(xiàn)象。而改進(jìn)算法可以檢測出三類目標(biāo),并且預(yù)測框的mAP值比原算法更高。在圖10中,對于小目標(biāo),圖中有3位高空作業(yè)人員(邊界框面積與圖像面積比小于0.58%)。原算法在多目標(biāo)場景下只能檢測出1位高空作業(yè)人員,而改進(jìn)算法在保證比原算法更高的精確度的同時(shí),能夠檢測出更多的目標(biāo)。

      表6列出了不同作業(yè)場景下的檢測類別和數(shù)量的對比,通過這一對比,可以清晰看出改進(jìn)算法的整體性能優(yōu)于原算法,尤其是在遮擋環(huán)境和小目標(biāo)環(huán)境下,改進(jìn)算法的目標(biāo)辨識能力相對較高。這進(jìn)一步驗(yàn)證了改進(jìn)算法在復(fù)雜高空作業(yè)場景中的實(shí)用性和性能優(yōu)勢。

      4" 結(jié)" 語

      本文提出一種基于改進(jìn)YOLOv7?tiny的網(wǎng)絡(luò)模型,旨在解決高空作業(yè)中安防設(shè)備的檢測問題。首先,針對算法參數(shù)量大的問題,設(shè)計(jì)更輕量化的YOLOv7?FasterNet作為主干網(wǎng)絡(luò),并調(diào)整空間金字塔池化結(jié)構(gòu)以提升檢測速度;其次,針對檢測目標(biāo)單一的問題,對開源數(shù)據(jù)集進(jìn)行了類別擴(kuò)充,使其更符合高空作業(yè)場景需求;此外,本文還改進(jìn)了ELAN?L模塊和下采樣模塊,以增強(qiáng)網(wǎng)絡(luò)的特征提取能力,保證特征的多樣性。實(shí)驗(yàn)結(jié)果表明,相較于原模型,改進(jìn)后的YOLOv7?tiny網(wǎng)絡(luò)模型參數(shù)量下降11.6%,mAP值提高1.5%。下一步將繼續(xù)擴(kuò)充數(shù)據(jù)集的數(shù)量和類別,提高場景復(fù)雜度,以提升模型在復(fù)雜高空環(huán)境下的檢測能力和魯棒性。

      注:本文通訊作者為辛華健。

      參考文獻(xiàn)

      [1] 孫世梅,趙金坤,傅貴.基于“2?4”模型的高處墜落事故行為原因研究[J].中國安全科學(xué)學(xué)報(bào),2019,29(8):23?28.

      [2] GAUTAM V, PRASAD S, SINHA S. YOLORe?IDNet: An efficient multi?camera system for person?tracking [EB/OL]. [2023?09?27]. https://doi.org/10.48550/arXiv.2309.13387.

      [3] 頓偉超,王淑青,張鵬飛,等.基于改進(jìn)YOLOv4的電力高空作業(yè)安全帶檢測[J].湖北工業(yè)大學(xué)學(xué)報(bào),2022,37(5):6?11.

      [4] ZHANG M Y, CAO Z Y, YANG Z, et al. Utilizing computer vision and fuzzy inference to evaluate level of collision safety for workers and equipment in a dynamic environment [J]. Journal of construction engineering and management, 2020, 146(6): 1?13.

      [5] LI C Y, LI L L, GENG Y F, et al. YOLOv6 v3.0: A full?scale reloading [EB/OL]. [2023?01?20]. https://doi.org/10.48550/arXiv.2301.05586.

      [6] 韓曉冰,胡其勝,趙小飛,等.改進(jìn)YOLOv7?tiny的手語識別算法研究[J].現(xiàn)代電子技術(shù),2024,47(1):55?61.

      [7] 高英,吳玉虹.基于YOLOv5s的輕量化行人檢測算法[J].現(xiàn)代電子技術(shù),2023,46(22):151?158.

      [8] 張萌,韓豫,劉澤鋒.深度學(xué)習(xí)下建筑工人高空安全防護(hù)裝備檢測方法[J].中國安全科學(xué)學(xué)報(bào),2022,32(5):140?146.

      [9] SANDLER M, HOWARD A G, ZHU M L, et al. MobileNetV2: Inverted residuals and linear bottlenecks [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 4510?4520.

      [10] 吳烈凡.基于卷積神經(jīng)網(wǎng)絡(luò)的高空作業(yè)安全帶識別與檢測[J].現(xiàn)代計(jì)算機(jī),2021,27(24):124?130.

      [11] 馮志珍,張衛(wèi)山,鄭宗超.基于Mask R?CNN的高空作業(yè)安全帶檢測[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2021,30(3):202?207.

      [12] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 7464?7475.

      [13] CHEN J R, KAO S H, HE H, et al. Run, don′t walk: Chasing higher FLOPS for faster neural networks [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 12021?12031.

      [14] LI D, HU J, WANG C H, et al. Involution: Inverting the inherence of convolution for visual recognition [C]// 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE, 2021: 12321?12330.

      猜你喜歡
      目標(biāo)檢測高空作業(yè)輕量化
      汽車輕量化集成制造專題主編
      一種輕量化自卸半掛車結(jié)構(gòu)設(shè)計(jì)
      一款剪叉式高空作業(yè)平臺的設(shè)計(jì)研究
      電子制作(2018年19期)2018-11-14 02:36:42
      視頻中目標(biāo)檢測算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識別中的人體運(yùn)動(dòng)目標(biāo)檢測方法
      移動(dòng)機(jī)器人圖像目標(biāo)識別
      高空作業(yè)車副車架及支腿結(jié)構(gòu)分析
      瞄準(zhǔn)掛車輕量化 鑼響掛車正式掛牌成立
      專用汽車(2016年1期)2016-03-01 04:13:19
      基于P3電位的目標(biāo)檢測研究
      科技視界(2016年4期)2016-02-22 13:09:19
      用戶:輕量化掛車的使用體驗(yàn)
      專用汽車(2015年4期)2015-03-01 04:09:07
      南召县| 曲阳县| 常德市| 南川市| 循化| 昌图县| 宁陵县| 马鞍山市| 古丈县| 吴川市| 田东县| 九龙县| 姚安县| 恭城| 合水县| 阳新县| 涞源县| 凤庆县| 洛川县| 乐山市| 新丰县| 渝中区| 玉门市| 武定县| 临夏县| 和静县| 都匀市| 莆田市| 开封市| 莒南县| 兴和县| 原平市| 彝良县| 乐安县| 乐东| 四子王旗| 惠来县| 大城县| 新兴县| 若尔盖县| 阳城县|