摘" 要: 目前,建筑場(chǎng)所上仍存在因建筑護(hù)欄缺失或建筑護(hù)欄安全性降低而導(dǎo)致的建筑工人高空墜亡事件。針對(duì)該問(wèn)題,提出一種基于改進(jìn)YOLOv5s的建筑護(hù)欄檢測(cè)算法。首先,針對(duì)建筑護(hù)欄普遍存在的安全隱患,收集影響護(hù)欄安全性較大的情況的圖像,例如:建筑護(hù)欄欄板的存在圖像、建筑護(hù)欄欄板的缺失圖像、護(hù)欄網(wǎng)圖像、護(hù)欄欄板銜接錯(cuò)位圖像和護(hù)欄欄板銜接正確圖像等,并且制作成訓(xùn)練數(shù)據(jù)集。為提升YOLOv5s在復(fù)雜環(huán)境下多目標(biāo)檢測(cè)任務(wù)和區(qū)分任務(wù)結(jié)果的準(zhǔn)確率,將新型的Biformer注意力機(jī)制與SE注意力機(jī)制相結(jié)合,嵌入到原模型的特征提取網(wǎng)絡(luò)中,并利用CBAMC3取代原特征提取網(wǎng)絡(luò)的C3模塊。最后,使用CLAHE算法較大程度地解決部分圖像亮度偏暗,影響檢測(cè)精度的問(wèn)題。實(shí)驗(yàn)結(jié)果表明,所提檢測(cè)算法的mAP50值和召回率分別達(dá)到了79.6%和83%,相比于原YOLOv5s算法分別提高了3.7%和6.8%。
關(guān)鍵詞: 目標(biāo)檢測(cè); 建筑護(hù)欄; 改進(jìn)YOLOv5s; Biformer注意力機(jī)制; CBAMC3; CLAHE算法
中圖分類號(hào): TN911.73?34; TP391.4" " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " 文章編號(hào): 1004?373X(2024)14?0135?07
Building guardrail object detection based on improved YOLOv5s algorithm
YU Kai1, HONG Tao1, LI Xun2
(1. College of Quality and Safety Engineering, China Jiliang University, Hangzhou 310018, China;
2. Zhejiang Provincial Yijian Construction Group LTD., Hangzhou 310018, China)
Abstract: There are many incidents of construction workers falling from heights on construction sites due to the reduced safety of building guardrails. On this basis, a building guardrail detection algorithm based on improved YOLOv5s is proposed. In allusion to the safety hazards that are prevalent in building guardrails, images that have an impact on guardrail safety, such as images of the presence of building guardrails, images of missing building guardrails, images of guardrail nets, images of misaligned guardrail panel connections, and images of correct guardrail panel connections are collected, and these images are created for a training dataset. In order to improve the accuracy of YOLOv5s detection results when performing multi?target detection and discrimination tasks in complex environments, a novel Biformer attention mechanism combined with SE attention mechanism is embedded into the feature extraction network of the original model, and CBAMC3 is used to replace the C3 module of the original feature extraction network. The use of CLAHE algorithm can largely solve the problem of dim brightness in some images, which affects detection accuracy. The experimental results show that the mAP50 value and recall of the proposed detection algorithm can reach 79.6% and 83%, respectively, which are 3.7% and 6.8% higher than those of the original YOLOv5s algorithm.
Keywords: object detection; building guardrail; improved YOLOv5s; Biformer attention mechanism; CBAMC3; CLAHE algorithm
0" 引" 言
建筑護(hù)欄作為一種重要的非結(jié)構(gòu)建筑組成部分,其安全性和耐久性會(huì)直接影響到建筑工地工人的生命安全[1],若建筑護(hù)欄失效或缺失,將會(huì)發(fā)生不少建筑工地高處墜亡事件。一種能檢測(cè)建筑護(hù)欄安全隱患問(wèn)題的方法成為了建筑工地實(shí)現(xiàn)現(xiàn)代安全管理必不可少的需求之一。經(jīng)過(guò)實(shí)地調(diào)研和分析,目前建筑護(hù)欄普遍存在的安全隱患問(wèn)題如下:護(hù)欄欄板缺失以及由于護(hù)欄欄板錯(cuò)誤安裝造成護(hù)欄欄板銜接錯(cuò)位。然而,利用傳統(tǒng)人力檢測(cè)這類隱患問(wèn)題將導(dǎo)致額外的人力和時(shí)間消耗,且該方式無(wú)法和現(xiàn)代建設(shè)安全管理相匹配。
目前計(jì)算機(jī)視覺(jué)技術(shù)作為非人工目標(biāo)檢測(cè)方法,擁有提取特征(顏色、形狀和紋理)的能力[2],因此,建筑護(hù)欄的目標(biāo)檢測(cè)得以實(shí)現(xiàn)。隨著近年來(lái)深度學(xué)習(xí)技術(shù)的發(fā)展,利用基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)技術(shù)可有效提高特征提取能力[3]。這同時(shí)也成為了通過(guò)建筑護(hù)欄圖像發(fā)現(xiàn)建筑護(hù)欄安全隱患問(wèn)題,提升隱患問(wèn)題檢測(cè)效率并且解決上述問(wèn)題的高適應(yīng)性方法。因此,使用基于深度學(xué)習(xí)的建筑護(hù)欄安全隱患檢測(cè)方法十分必要。
基于神經(jīng)網(wǎng)絡(luò)的建筑安全目標(biāo)檢測(cè)研究較多,如張錦等提出一種改進(jìn)的YOLOv5方法[4],利用K?Means++算法聚類目標(biāo)框尺寸,并且將多光譜通道注意力(Multispectral Channel Attention, MCA)模塊引入特征提取網(wǎng)絡(luò)中,以此強(qiáng)化反背景干擾能力。然而該方法使得算法的參數(shù)量較大且檢測(cè)速率有所降低。黃志清等人提出了一種嵌入自校準(zhǔn)多尺度特征融合模塊的改進(jìn)YOLOv4算法,以檢測(cè)室內(nèi)工人的安全帽[5]。這種方法提高了監(jiān)控圖像中模糊和微小物體的檢測(cè)準(zhǔn)確率,然而實(shí)際復(fù)雜環(huán)境的影響會(huì)使得該算法產(chǎn)生誤檢。
對(duì)此,本研究則通過(guò)對(duì)建筑護(hù)欄存在的安全隱患形式進(jìn)行研究,提出了一種改進(jìn)型的YOLOv5s檢測(cè)模型算法,在降低計(jì)算量的同時(shí)提高了復(fù)雜環(huán)境下目標(biāo)檢測(cè)識(shí)別能力、準(zhǔn)確性和效率。
1" YOLOv5s算法原理
本研究所使用的建筑護(hù)欄檢測(cè)方法的初始核心模型為YOLOv5s,其結(jié)構(gòu)總體分成四部分:第一部分是Input,即輸入端,該端將圖像預(yù)先調(diào)整方式和錨框自適應(yīng)鎖定計(jì)算方式皆具體應(yīng)用于輸入圖像中;第二部分是Backbone,即主干網(wǎng)絡(luò),該部分實(shí)現(xiàn)了圖像特征的提取,且包含卷積層、C3模塊和計(jì)算速度較快的SPPF模塊,其中C3模塊對(duì)于特征的提取和學(xué)習(xí)起到主要作用;第三部分是Neck網(wǎng)絡(luò),即PANet組合網(wǎng)絡(luò),主要作用是融合來(lái)自Backbone的不同尺度的特征,其路徑采取自頂向下和自底向上;第四部分是Prediction,即輸出端,主要作用是檢測(cè),其具體形式是將錨定框的功能實(shí)現(xiàn)在Neck網(wǎng)絡(luò)輸出的特征圖上,最終輸出有效的預(yù)測(cè)類別[6]。
2" YOLOv5s建筑護(hù)欄檢測(cè)模型改進(jìn)
2.1" 特征提取能力強(qiáng)化
單張建筑護(hù)欄圖像包含多個(gè)目標(biāo),且目標(biāo)位置不固定。此外,由于獲取圖像時(shí)的拍攝角度不同,同一目標(biāo)的外觀存在差異,不同類別的目標(biāo)導(dǎo)致其在一張圖像中所占的面積差異較大,因此圖像檢測(cè)算法在完成圖像檢測(cè)后,需要用矩形框精確定位檢測(cè)目標(biāo)。考慮到Y(jié)OLOv5s的主干網(wǎng)絡(luò)在圖形特征提取任務(wù)中起到重要的作用[7],本研究利用CBAMC3(Convolutional Block Attention Module C3)模塊取代原主干網(wǎng)絡(luò)的C3模塊,因?yàn)镃BAMC3模塊將通道注意力機(jī)制引入內(nèi)部,使得其能夠?qū)γ總€(gè)通道的特征圖進(jìn)行加權(quán),同時(shí)該模塊擁有C3模塊的全部功能特點(diǎn)。之后,將SE(Squeeze?and?Excitation)注意力機(jī)制模塊置于SPPF模塊之后,以幫助YOLOv5s算法更好地專注于重要的特征通道,并提升模型性能[8]。SE和CBAMC3注意力機(jī)制模塊的結(jié)構(gòu)分別如圖1和圖2所示。
2.2" 引入Biformer注意力機(jī)制
為了使改進(jìn)的YOLOv5s算法的檢測(cè)精度和準(zhǔn)確度得到進(jìn)一步強(qiáng)化,本研究設(shè)計(jì)在主干網(wǎng)絡(luò)的首個(gè)CBAMC3模塊和首個(gè)卷積模塊之間引入一種新式的注意力機(jī)制,即Biformer注意力機(jī)制[9]。該設(shè)計(jì)旨在優(yōu)化主干網(wǎng)絡(luò)靠前部分的計(jì)算復(fù)雜度,以及提升模型總體的檢測(cè)準(zhǔn)確度。
傳統(tǒng)的注意力機(jī)制在運(yùn)行過(guò)程中不僅計(jì)算量大而且內(nèi)存占用空間大;而本研究的Biformer注意力機(jī)制模塊擁有雙層路由,其用于實(shí)現(xiàn)計(jì)算的有效分配的方式源自動(dòng)態(tài)和查詢(query)感知的方式。因此Biformer注意力機(jī)制計(jì)算分配具有內(nèi)容感知且更加靈活,以此避免上述問(wèn)題,同時(shí)其在圖像處理方面有更好的效果。
Biformer注意力機(jī)制的整體框架如圖3所示。
通過(guò)注意力機(jī)制復(fù)雜度計(jì)算可評(píng)估Biformer注意力機(jī)制的計(jì)算成本,該指標(biāo)以浮點(diǎn)運(yùn)算數(shù)(Floating Point Operations)的值進(jìn)行判斷。首先將輸入該注意力機(jī)制且尺寸和通道數(shù)參數(shù)整體為H×W×C的特征圖劃分為n×n個(gè)完全無(wú)交互的區(qū)域。該操作使得每個(gè)區(qū)域獲得數(shù)量為[H?Wn2]的特征向量,最終完整計(jì)算公式如下所示:
[FLOPs=FLOPsLP+FLOPsRT+FLOPsTA] (1)
式中:FLOPs為浮點(diǎn)運(yùn)算數(shù);FLOPsLP為線性投影(Linear Projection);FLOPsRT為Region?to?region Routing;FLOPsTA為Token?to?Token注意力(Token?to?Token Attention)。結(jié)合以上特征圖區(qū)域劃分后相關(guān)參數(shù),可將式(1)進(jìn)一步拓展為:
[FLOPsTP=3?H?W?C2FLOPsRT=2?(n?n)2?CFLOPsTA=2?H?W?k?H?Wn2?C] (2)
式中參數(shù)k為預(yù)測(cè)任務(wù)的結(jié)果中可能性最大且從高到低排序靠前的結(jié)果數(shù)量。將式(2)的各項(xiàng)相加,最后可得到:
[FLOPs≥3?H?W?C2+3?C?k23?214?H?W43] (3)
由式(3)可得,Biformer注意力機(jī)制的復(fù)雜度為[OH?W43],屬于較低值。
綜上所述,將Biformer注意力機(jī)制引入YOLOv5s進(jìn)行主干網(wǎng)絡(luò)特征提取部分的操作,意為以Biformer注意力機(jī)制較好的特征提取能力強(qiáng)化特征提取網(wǎng)絡(luò)對(duì)特征信息的辨識(shí)能力,并且可為接下來(lái)的特征融合操作步驟提供更精準(zhǔn)的特征信息。
此外,Biformer注意力機(jī)制相對(duì)較低的復(fù)雜度,使得建筑護(hù)欄目標(biāo)檢測(cè)算法擁有更高的計(jì)算效率,同時(shí)降低過(guò)擬合帶來(lái)的影響。改進(jìn)后的YOLOv5s結(jié)構(gòu)見圖4。
2.3" 優(yōu)化圖像檢測(cè)
本研究所需的建筑護(hù)欄皆位于室外,因此在獲取某些圖像的過(guò)程中會(huì)由于陰暗天氣或樹蔭遮蔽而使得受光照偏少,導(dǎo)致獲取的數(shù)據(jù)集圖像亮度不足,進(jìn)而影響到圖像檢測(cè)的準(zhǔn)確率。為了防止數(shù)據(jù)集圖像的亮度過(guò)暗而導(dǎo)致本研究所用的圖像檢測(cè)算法準(zhǔn)確度低,使用CLAHE算法解決上述問(wèn)題[10]。CLAHE算法可有效提升偏暗圖像的亮度,以避免本研究的圖像檢測(cè)算法對(duì)低亮度圖像的檢測(cè)失誤,同時(shí)該算法引入改進(jìn)的YOLOv5s的方式,如圖5所示。輸入的待檢測(cè)圖像經(jīng)過(guò)CLAHE算法處理后再輸入到已應(yīng)用了訓(xùn)練后參數(shù)和權(quán)重?cái)?shù)據(jù)的Prediction模塊中,最后輸出檢測(cè)后的圖像。
CLAHE算法在處理圖像時(shí),利用累計(jì)分布函數(shù)來(lái)減小圖像失真率,同時(shí)降低其計(jì)算復(fù)雜度。最終,經(jīng)CLAHE算法處理前后的圖像對(duì)比結(jié)果圖如圖6所示。從對(duì)比中可明顯發(fā)現(xiàn),CLAHE算法對(duì)偏暗的安全建筑護(hù)欄圖像有較好的亮度提升作用。
3" 實(shí)驗(yàn)結(jié)果與分析
3.1" 實(shí)驗(yàn)數(shù)據(jù)集
本研究實(shí)驗(yàn)所采集的數(shù)據(jù)來(lái)源于施工現(xiàn)場(chǎng),并利用無(wú)人機(jī)對(duì)較高樓層處的護(hù)欄圖像進(jìn)行采集。所獲得的數(shù)據(jù)包括視頻和圖像,其中對(duì)視頻進(jìn)行逐幀查看,提取有用的圖像。最后將這些數(shù)據(jù)用Labelimg進(jìn)行標(biāo)注[11],且標(biāo)注的內(nèi)容包括需檢測(cè)對(duì)象與其相對(duì)應(yīng)的標(biāo)簽。其中,檢測(cè)目標(biāo)分作五類,分別是護(hù)欄欄板完整、護(hù)欄欄板缺失、護(hù)欄網(wǎng)、欄板銜接正確、欄板銜接錯(cuò)位。為應(yīng)對(duì)實(shí)際環(huán)境的復(fù)雜情況,數(shù)據(jù)集中的檢測(cè)目標(biāo)具體背景情況包括:?jiǎn)我荒繕?biāo)、多數(shù)量同種目標(biāo)、多數(shù)量不同種目標(biāo)、亮光環(huán)境下的目標(biāo)和偏暗環(huán)境下的目標(biāo)。隨之將采集得到的數(shù)據(jù)通過(guò)8∶1∶1的比例劃分成訓(xùn)練集、驗(yàn)證集和測(cè)試集。其中,訓(xùn)練集數(shù)據(jù)通過(guò)名為Mosaic的數(shù)據(jù)增強(qiáng)方式擴(kuò)充數(shù)據(jù)集[12],最終數(shù)據(jù)集數(shù)量為5 670幅。本數(shù)據(jù)集圖像在訓(xùn)練前的尺寸統(tǒng)一重新調(diào)整為合適訓(xùn)練且不增顯卡內(nèi)存壓力的值,取為256×256。
3.2" 實(shí)驗(yàn)環(huán)境與訓(xùn)練
本實(shí)驗(yàn)操作平臺(tái)配置如表1所示。其中,Pytorch框架包含了建筑護(hù)欄圖像檢測(cè)模型的搭建、訓(xùn)練和結(jié)果測(cè)試的全套流程,擁有較高版本的硬件顯卡并且提高了模型運(yùn)算效率。
本實(shí)驗(yàn)的模型訓(xùn)練參數(shù)設(shè)置如表2所示。
在表2的參數(shù)基礎(chǔ)上,本次實(shí)驗(yàn)置入預(yù)訓(xùn)練權(quán)重文件yolov5s.pt于模型訓(xùn)練階段,并且利用K?means聚類算法將訓(xùn)練集的目標(biāo)框進(jìn)行重聚類,使之適應(yīng)建筑護(hù)欄目標(biāo)檢測(cè)五個(gè)類別的目標(biāo)檢測(cè)需求。在優(yōu)化模型性能方面,本實(shí)驗(yàn)采用AdamW優(yōu)化器進(jìn)行模型優(yōu)化。在模型訓(xùn)練階段,迭代次數(shù)epoch為1時(shí)開始采用學(xué)習(xí)率熱身,并且將初始學(xué)習(xí)率倍數(shù)設(shè)置為0.1,在之后每5個(gè)迭代進(jìn)行一次學(xué)習(xí)率熱身。學(xué)習(xí)率從初始的0.001開始,在余弦退火算法的處理下逐漸增加到最大值0.1;同時(shí),為了使模型的穩(wěn)定性能夠穩(wěn)固,學(xué)習(xí)率會(huì)在訓(xùn)練的進(jìn)行階段逐漸減小,降至最小值0.000 01。
在建筑護(hù)欄目標(biāo)檢測(cè)算法的訓(xùn)練過(guò)程中,生成的模型結(jié)構(gòu)損失函數(shù)(Loss)對(duì)模型的性能評(píng)價(jià)起著重要作用,損失函數(shù)值越小代表模型的性能越好,優(yōu)化效果越好[13]。本實(shí)驗(yàn)得到的算法改進(jìn)方法訓(xùn)練后損失函數(shù)曲線變化圖如圖7所示。
3.3" 評(píng)價(jià)指標(biāo)
為了評(píng)估建筑護(hù)欄目標(biāo)檢測(cè)算法訓(xùn)練階段的性能強(qiáng)度,本實(shí)驗(yàn)采用目標(biāo)檢測(cè)算法指標(biāo)[14],即交并比閾值為50%的平均精度均值(mean Average Precision at 50%, mAP50)、精度(Precision, P)和召回率(Recall, R)。將模型預(yù)測(cè)正確的正類樣本個(gè)數(shù)、預(yù)測(cè)錯(cuò)誤的正類樣本個(gè)數(shù)、預(yù)測(cè)正確的負(fù)類樣本個(gè)數(shù)和預(yù)測(cè)錯(cuò)誤的負(fù)類樣本個(gè)數(shù)[15]分別設(shè)為A1、A2、B1和B2。在已知檢測(cè)類別數(shù)量為x以及平均精度為AP的基礎(chǔ)上,可利用這四類參數(shù)得到上述三類指標(biāo)的具體計(jì)算公式,如下所示:
[P=A1A1+A2] (4)
[R=A1A1+B2] (5)
[AP=A1+B1A1+B1+A2mAP=y=1xAPyx] (6)
3.4" 實(shí)驗(yàn)結(jié)果分析
為了探索三種注意力機(jī)制模塊對(duì)初始YOLOv5s的影響,本研究通過(guò)消融實(shí)驗(yàn)對(duì)結(jié)果進(jìn)行了驗(yàn)證,結(jié)果如表3所示。由表3可知,增加Biformer、CBAMC3和SE模塊組合對(duì)整個(gè)算法的性能提升最大。
本實(shí)驗(yàn)所使用的建筑護(hù)欄目標(biāo)檢測(cè)算法簡(jiǎn)稱為YOLOv5s?BCS。為了驗(yàn)證改進(jìn)算法的實(shí)際效果,本研究利用YOLOv5s?BCS和初始YOLOv5s的訓(xùn)練曲線進(jìn)行比較。訓(xùn)練曲線以epoch為x軸,以第3.3節(jié)中的三類指標(biāo)為y軸。對(duì)比結(jié)果如圖8~圖10所示。由圖8~圖10可以看出,YOLOv5s?BCS的曲線收斂速度比初始YOLOv5s的曲線快,而且在最后一個(gè)epoch,YOLOv5s?BCS的所有mAP值均高于初始YOLOv5s的值。
在相同的數(shù)據(jù)集和配置條件下,本研究使用通用率較高的深度學(xué)習(xí)目標(biāo)檢測(cè)網(wǎng)絡(luò),如三重尺度訓(xùn)練的YOLOv5s(將訓(xùn)練圖像大小分別重置為64×64、96×96和128×128,然后隨機(jī)輸入訓(xùn)練網(wǎng)絡(luò))、具有CBAMC3注意力機(jī)制的YOLOv5s、具有SE注意力機(jī)制的YOLOv5s、具有Biformer注意力機(jī)制的YOLOv5s以及同為輕量級(jí)網(wǎng)絡(luò)的YOLOv5n,對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行綜合比較。數(shù)字編號(hào) 1~5分別代表有護(hù)欄板、無(wú)護(hù)欄板、護(hù)欄網(wǎng)、護(hù)欄欄板銜接正確和護(hù)欄板銜接錯(cuò)位。實(shí)驗(yàn)的具體結(jié)果如表4所示。其中,YOLOv5s?BCS的mAP50值最高,最能勝任建筑護(hù)欄的目標(biāo)檢測(cè)算法。使用YOLOv5s?BCS模型結(jié)合 CLAHE算法檢測(cè)圖像的最終結(jié)果如圖11所示。
從圖11中可以看出,YOLOv5s?BCS 的檢測(cè)算法結(jié)合CLAHE算法,最終可以在建筑護(hù)欄的五種目標(biāo)檢測(cè)中,將全部檢測(cè)目標(biāo)鎖定在矩形框內(nèi)部。綜上所述,本實(shí)驗(yàn)中YOLOv5s的改進(jìn)算法在多目標(biāo)情況下,對(duì)建筑護(hù)欄目標(biāo)檢測(cè)的五類目標(biāo)的檢測(cè)效果較好。
4" 結(jié)" 語(yǔ)
本研究提出了一種改進(jìn)型YOLOv5s建筑護(hù)欄檢測(cè)算法。首先,收集相關(guān)圖像數(shù)據(jù),建立數(shù)據(jù)集;然后,利用CBAMC3模塊替代Backbone的C3模塊,并在初始 YOLOv5s的特征提取網(wǎng)絡(luò)中加入了Biformer和SE注意力機(jī)制,以提高檢測(cè)模型的檢測(cè)能力和區(qū)分能力;最后,利用CLAHE算法解決了部分圖像亮度較暗,對(duì)檢測(cè)精度影響較大的問(wèn)題。經(jīng)過(guò)對(duì)比實(shí)驗(yàn),顯示本研究改進(jìn)的算法在綜合方面呈現(xiàn)出更好的檢測(cè)效果。由于實(shí)際存在目標(biāo)檢測(cè)任務(wù)中目標(biāo)數(shù)量多、目標(biāo)區(qū)分任務(wù)中目標(biāo)外形相似度高的情況,使得置信度還有上升空間。未來(lái)的研究方向則是進(jìn)一步提升網(wǎng)絡(luò)模型在包含其他建材的復(fù)雜環(huán)境下的多目標(biāo)檢測(cè)精度。
注:本文通訊作者為洪濤。
參考文獻(xiàn)
[1] 樊莉昌,蘇中華,劉中明,等.建筑用玻璃與金屬護(hù)欄實(shí)驗(yàn)室檢測(cè)設(shè)備研究[J].中國(guó)測(cè)試,2020,46(z1):100?104.
[2] 郭陽(yáng)陽(yáng),洪文浩,丁屹,等.基于坐標(biāo)注意力機(jī)制和YOLOv5s模型的山羊臉部檢測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(7):313?321.
[3] 李廣博,查文文,陳成鵬,等.基于改進(jìn)YOLOv5s的豬臉識(shí)別檢測(cè)方法[J].西南農(nóng)業(yè)學(xué)報(bào),2023,36(6):1346?1356.
[4] 張錦,屈佩琪,孫程,等.基于改進(jìn)YOLOv5的安全帽佩戴檢測(cè)算法[J].計(jì)算機(jī)應(yīng)用,2022,42(4):1292?1300.
[5] 黃志清,張煜森,張嚴(yán)心,等.基于改進(jìn)型Yolov4的室內(nèi)安全帽佩戴狀態(tài)檢測(cè)算法[J].天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版),2023,56(1):64?72.
[6] LIN H, JIANG F, JIANG Y, et al. A model for helmet?wearing detection of non?motor drivers based on YOLOv5s [J]. Computers, materials amp; continua, 2023, 75(3): 5321?5336.
[7] WANG S, ZHU J, LI Z, et al. Coal gangue target detection based on improved YOLOv5s [J]. Applied sciences, 2023, 13(20): 11220.
[8] 周彥,孟江南,王冬麗,等.基于多尺度輕量化注意力的鋼材缺陷檢測(cè)[J].控制與決策,2024,39(3):901?909.
[9] ZHU L, WANG X, KE Z, et al. BiFormer: vision transformer with Bi?level routing attention [EB/OL]. [2023?09?18]. http://arxiv.org/abs/2303.08810.
[10] 金豪.基于深度學(xué)習(xí)的公路護(hù)欄目標(biāo)檢測(cè)方法研究[D].重慶:重慶交通大學(xué),2022.
[11] 劉閃亮,吳仁彪,屈景怡,等.基于A?YOLOv5s的機(jī)場(chǎng)小目標(biāo)檢測(cè)方法[J].安全與環(huán)境學(xué)報(bào),2023,23(8):2742?2749.
[12] FANG C, XIANG H, LENG C, et al. Research on real?time detection of safety harness wearing of workshop personnel based on YOLOv5 and OpenPose [J]. Sustainability, 2022, 14(10): 5872.
[13] TANG X, RU X, SU J, et al. A transmission and transformation fault detection algorithm based on improved YOLOv5 [J]. Computers, materials amp; continua, 2023, 76(3): 2997?3011.
[14] QIAN Y, WANG B. A new method for safety helmet detection based on convolutional neural network [J]. PLOS ONE, 2023, 18(10): e0292970.
[15] WANG L, ZHANG X, YANG H. Safety helmet wearing detection model based on improved YOLO?M [J]. IEEE access, 2023, 11: 26247?26257.