• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      改進(jìn)YOLO的鋼材表面缺陷檢測(cè)算法

      2024-09-13 00:00:00李和平陳中舉許浩然黃小龍
      現(xiàn)代電子技術(shù) 2024年13期

      摘" 要: 鋼材表面缺陷檢測(cè)是確保鋼材生產(chǎn)質(zhì)量的重要環(huán)節(jié)。針對(duì)鋼材表面缺陷檢測(cè)中存在檢測(cè)精度低和特征提取能力不足等問(wèn)題,提出一種改進(jìn)YOLOv5s的鋼材缺陷檢測(cè)算法YOLOv5s?STCD。首先,將主干提取網(wǎng)絡(luò)的最后一個(gè)C3模塊與Swin Transformer結(jié)構(gòu)融合,以增強(qiáng)模型的特征提取能力;其次,通過(guò)引入坐標(biāo)注意力(CA)機(jī)制,提升模型對(duì)重要特征的關(guān)注程度;然后,使用解耦頭替換YOLOv5s中的檢測(cè)頭,將分類任務(wù)和回歸任務(wù)分離;最后,將CIoU損失函數(shù)替換為SIoU函數(shù),進(jìn)一步提升模型的檢測(cè)性能。在數(shù)據(jù)增強(qiáng)后的GC10?DET數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果表明,改進(jìn)后的YOLOv5s?STCD模型檢測(cè)的精確率為92.1%,平均檢測(cè)精度為84.8%,相比原YOLOv5s算法提升了5.6%和3%,檢測(cè)速度為49.26 f/s,更好地滿足了鋼材表面缺陷檢測(cè)的需求。

      關(guān)鍵詞: YOLOv5s; Swin Transformer; 坐標(biāo)注意力; SIoU; 解耦頭; 表面缺陷檢測(cè)

      中圖分類號(hào): TN911.1?34; TP391" " " " " " " " " " " 文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " "文章編號(hào): 1004?373X(2024)13?0007?08

      Improved YOLO steel surface defect detection algorithm

      LI Heping, CHEN Zhongju, XU Haoran, HUANG Xiaolong

      (School of Computer Science, Yangtze University, Jingzhou 434023, China)

      Abstract: Steel surface defect detection is an important step to ensure the quality of steel production. In view of the low detection accuracy and insufficient feature extraction ability in steel surface defect detection, an improved YOLOv5s steel defect detection algorithm named YOLOv5s?STCD is proposed. The last C3 module of the backbone extraction network is integrated with the Swin Transformer structure to enhance the feature extraction capability of the model. The coordinate attention (CA) mechanism is introduced to enhance the model′s attention to important features. The detection header in YOLOv5s is replaced with a decoupled head to separate the classification task from the regression task. The CIoU loss function is replaced with SIoU function to further improve the detection performance of the model. The experiment was carried out on the GC10?DET data set after data enhancement. The results show that the detection accuracy of the improved YOLOv5s?STCD model is 92.1%, its average detection accuracy is 84.8%, which is 5.6% and 3% higher than those of the original YOLOv5s algorithm, and its detection speed is 49.26 f/s. It can meet the needs of steel surface defect detection better.

      Keywords: YOLOv5s; Swin Transformer; CA; SIoU; decoupled head; surface defect detection

      0" 引" 言

      鋼材廣泛應(yīng)用于機(jī)械制造、房屋建設(shè)、化工等產(chǎn)業(yè)。然而,鋼材生產(chǎn)過(guò)程中常出現(xiàn)壓痕、油斑和焊縫等表面缺陷,對(duì)產(chǎn)品的安全性能和使用壽命產(chǎn)生負(fù)面影響。因此,提高鋼材表面缺陷檢測(cè)的準(zhǔn)確率至關(guān)重要。

      近年來(lái),眾多學(xué)者針對(duì)鋼材表面缺陷檢測(cè)方法進(jìn)行研究,其方法主要分為傳統(tǒng)的機(jī)器視覺(jué)方法和深度學(xué)習(xí)方法。傳統(tǒng)的機(jī)器視覺(jué)利用圖像處理算法提取圖像的特征信息,然后根據(jù)特征信息進(jìn)行表面缺陷的識(shí)別和分類[1]。如文獻(xiàn)[2]設(shè)計(jì)了一種CASAE結(jié)構(gòu),用于缺陷的分割和定位。文獻(xiàn)[3]通過(guò)高斯濾波降噪和自適應(yīng)二值化以及形態(tài)學(xué)方法進(jìn)行預(yù)處理和缺陷提取,并結(jié)合Canny邊緣檢測(cè)和輪廓查找進(jìn)行識(shí)別。這種特征提取方式容易受到背景環(huán)境和光照變化的影響,無(wú)法實(shí)現(xiàn)高精度的缺陷檢測(cè)。

      隨著深度學(xué)習(xí)的快速發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)技術(shù)在缺陷檢測(cè)領(lǐng)域發(fā)揮著重要作用[4]。目前的目標(biāo)檢測(cè)算法可根據(jù)結(jié)構(gòu)劃分為兩類:第一類是以R?CNN[5]和Faster R?CNN[6]為代表的兩階段目標(biāo)檢測(cè)算法,如文獻(xiàn)[7]提出了一種應(yīng)用K?means算法聚類分析和特征金字塔網(wǎng)絡(luò)的缺陷檢測(cè)算法,文獻(xiàn)[8]提出了一種由預(yù)測(cè)和細(xì)化兩個(gè)階段組成的目標(biāo)檢測(cè)網(wǎng)絡(luò);第二類是以SSD[9]算法和YOLO[10?14]系列算法為代表的一階段目標(biāo)檢測(cè)算法,如文獻(xiàn)[15]提出了一種基于改進(jìn)的YOLOv3缺陷檢測(cè)算法,通過(guò)應(yīng)用K?均值聚類算法和調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)來(lái)提高缺陷檢測(cè)效果。文獻(xiàn)[16]提出了一種改進(jìn)的鋼鐵表面缺陷檢測(cè)算法MT?YOLOv5,該算法在YOLOv5的基礎(chǔ)上引入了Transformer[17]模塊,以有效提取圖像的全局特征信息。兩階段目標(biāo)檢測(cè)算法識(shí)別的準(zhǔn)確率高,但檢測(cè)速度較慢;一階段目標(biāo)檢測(cè)算法具有較快的速度,能夠滿足實(shí)時(shí)檢測(cè)需求,但檢測(cè)精度較低。目前相關(guān)的技術(shù)都存在進(jìn)一步改進(jìn)的空間。

      針對(duì)現(xiàn)有鋼材表面缺陷檢測(cè)算法存在檢測(cè)準(zhǔn)確率低和特征提取能力不足等問(wèn)題,本文提出了一種改進(jìn)YOLOv5s的鋼材缺陷檢測(cè)算法YOLOv5s?STCD,通過(guò)對(duì)YOLOv5模型相關(guān)模塊進(jìn)行改進(jìn),旨在提高模型檢測(cè)準(zhǔn)確率和收斂速度,并與主流的表面缺陷檢測(cè)算法進(jìn)行對(duì)比實(shí)驗(yàn),以探討改進(jìn)的YOLOv5s?STCD算法在鋼材表面缺陷檢測(cè)領(lǐng)域的可行性,為進(jìn)一步提高檢測(cè)精度提供參考。

      1" YOLOv5

      YOLOv5是在YOLOv3基礎(chǔ)上進(jìn)一步優(yōu)化和改進(jìn)而來(lái),它具有檢測(cè)速度快、模型小的特點(diǎn),主要包括:主干網(wǎng)絡(luò)(Backbone)、特征混合層(Neck)和檢測(cè)層(Head)。

      Backbone包括Conv、C3、SPFF。首先,使用Conv卷積減少內(nèi)存開(kāi)銷;其次,C3結(jié)構(gòu)中采用殘差模塊;最后,使用SPPF擴(kuò)大感受野并融合不同尺度特征圖的信息。Neck采用FPN+PAN結(jié)構(gòu)的設(shè)計(jì),F(xiàn)PN自頂向下傳達(dá)語(yǔ)義特征,特征金字塔(PAN)自底向上傳達(dá)強(qiáng)定位特征,以增強(qiáng)網(wǎng)絡(luò)特征融合能力。Head接收Neck傳遞的特征圖,使用非極大值抑制對(duì)目標(biāo)進(jìn)行篩選,進(jìn)而得到最優(yōu)的目標(biāo)框,用來(lái)預(yù)測(cè)和回歸目標(biāo)。

      2" YOLOv5算法改進(jìn)

      針對(duì)鋼材表面缺陷目標(biāo)尺寸和形狀差異大、難以檢測(cè)的問(wèn)題,本文對(duì)YOLOv5s進(jìn)行了改進(jìn)。改進(jìn)的方法包括以下四個(gè)方面:首先,將Swin Transformer[18]模塊和C3模塊融合,替換了主干提取網(wǎng)絡(luò)的最后一層C3模塊,通過(guò)不增加參數(shù)量的方式擴(kuò)大感受野面積,增強(qiáng)了網(wǎng)絡(luò)的特征提取能力;其次,引入了CA(Coordinate Attention)機(jī)制,增加了網(wǎng)絡(luò)對(duì)重要特征的關(guān)注程度,從而提高了特征提取能力和檢測(cè)準(zhǔn)確率;然后,將原模型中的檢測(cè)頭用解耦頭(Decoupled Head)進(jìn)行替換,將分類任務(wù)和回歸任務(wù)分開(kāi)處理,以避免兩個(gè)任務(wù)之間的沖突;最后,采用SIoU損失函數(shù)代替原模型中的CIoU損失函數(shù),進(jìn)一步加快收斂速度并提高了檢測(cè)準(zhǔn)確率。改進(jìn)后的YOLOv5s?STCD模型的網(wǎng)絡(luò)架構(gòu)如圖1所示。

      2.1" 融合Swin Transformer

      傳統(tǒng)的CNN網(wǎng)絡(luò)通過(guò)增加網(wǎng)絡(luò)深度來(lái)擴(kuò)大感受野以提取圖像特征,但這使得網(wǎng)絡(luò)模型變得復(fù)雜,并且末端的計(jì)算開(kāi)銷越來(lái)越大。相比之下,Swin Transformer通過(guò)分層和窗口劃分操作更高效地提取信息。因此,本文將C3模塊和Swin Transformer模塊融合,替換主干提取網(wǎng)絡(luò)的最后一層C3模塊。Swin Transformer模塊的結(jié)構(gòu)如圖2所示,包括歸一化層(Layer Norm, LN)、窗口多頭注意力模塊(Windows Multi?head Self?attention, W?MSA)、位移窗口自注意模塊(Shifted Windows Multi?Head Self?attention, SW?MSA)和多層感知機(jī)(Multilayer Perceptron, MLP)。每個(gè)MSA模塊和MLP之前都應(yīng)用LN,并在每個(gè)MSA模塊和MLP之后使用殘差連接。LN對(duì)特征圖進(jìn)行歸一化處理,W?MSA進(jìn)行窗口劃分并進(jìn)行多頭自注意力計(jì)算,SW?MSA進(jìn)行切分和位移操作以實(shí)現(xiàn)不同窗口之間的信息交互,MLP用于對(duì)特征圖進(jìn)行類別信息的劃分。

      在Swin Tranformer的傳輸過(guò)程中,輸入特征[X]的輸出表達(dá)公式如式(1)~式(4)所示:

      [Xl=W?MSA(LN(Xl-1))+X-1] (1)

      [Xl=MLP(LN(Xl))+Xl] (2)

      [Xl+1=SW?MSA(LN(Xl))+Xl] (3)

      [Xl+1=MLP(LN(Xl+1))+Xl+1] (4)

      在Swin Transformer模塊中,自注意力的計(jì)算是其核心部分,其計(jì)算方式如公式(5)所示:

      [Attention(Q,K,V)=SoftmaxQKTd+BV] (5)

      式中:[Q]、[K]、[V]均表示特征向量;[d]表示模型設(shè)定的維度;Softmax表示激活函數(shù)。

      Swin Transformer模塊采用W?MSA和SW?MSA替代了Transformer模塊中的多頭注意力(Multi?head Self? attention, MSA)。W?MSA使用基于窗口的計(jì)算策略,顯著減少了計(jì)算量和復(fù)雜度。MSA和W?MSA的計(jì)算復(fù)雜度[Ω]表達(dá)式如式(6)和式(7)所示:

      [ΩMSA=4hwC2+2(hw)2C] (6)

      [ΩW?MSA=4hwC2+2M2hwC] (7)

      式中:[h]為圖片高度;[w]為圖片寬度;[C]為圖片深度;[M]為每個(gè)窗口的大小。

      2.2" CA注意力

      為解決鋼材表面缺陷檢測(cè)存在關(guān)鍵信息無(wú)法被有效檢測(cè)到的問(wèn)題,本文通過(guò)引入CA[19]注意力機(jī)制以加強(qiáng)模型對(duì)重要特征的注意力。CA是一種高效的注意力機(jī)制,包括通道注意力和空間注意力,能夠同時(shí)獲取通道信息、方向感知和位置感知。具體工作原理如下。

      1) 將位置信息嵌入到通道注意力機(jī)制中,實(shí)現(xiàn)坐標(biāo)信息的嵌入。通過(guò)輸入特征圖[X],經(jīng)過(guò)水平方向和垂直方向上尺寸為([H],1)和(1,[W])的池化層對(duì)每個(gè)通道進(jìn)行編碼,從而得到水平方向和垂直方向上的方向感知特征圖。過(guò)程表達(dá)式如式(8)和式(9)所示:

      [Zhch=1W0≤ilt;Wxch,i] (8)

      [Zwcw=1H0≤jlt;Hxcj,w] (9)

      式中:[W]和[H]表示對(duì)特征圖的坐標(biāo)進(jìn)行編碼的寬度和高度;[c]表示通道的分量,即坐標(biāo)的分量。

      2) 使用1[×]1卷積對(duì)通道進(jìn)行降維,得到水平和垂直方向上的空間信息特征圖。過(guò)程表達(dá)式為:

      [f=δF1zh,zw] (10)

      式中:[δ]表示卷積變換函數(shù);[F1]表示激活函數(shù);[zh,zw]表示特征圖的拼接運(yùn)算;[f]表示水平和垂直方向上的中間特征映射。

      3) 沿著空間維度將[f]切分為兩個(gè)單獨(dú)的張量[fh]和[fw],并通過(guò)1×1卷積和Sigmoid激活函數(shù)對(duì)這兩個(gè)張量進(jìn)行變換,使之與輸入[X]具有相同通道數(shù)的張量。其過(guò)程表達(dá)式為式(11)和式(12):

      [gh=σFhfh] (11)

      [gw=σFwfw] (12)

      式中:[gh]和[gw] 表示權(quán)重注意力值;[σ]表示Sigmoid激活函數(shù);[fh]和[fw]表示特征圖張量;[Fh]和[Fw]表示1×1卷積。

      4) 對(duì)得到的結(jié)果進(jìn)行擴(kuò)展,將權(quán)重與輸入相乘,得到注意力加強(qiáng)后的特征圖。CA模塊最終輸出如式(13)所示:

      [yci,j=xci,j×gwcj×ghci] (13)

      式中:[xci,j]表示輸入的特征圖;[gwcj]和[ghci]表示垂直和水平方向上的注意力權(quán)重值。

      CA注意力機(jī)制結(jié)構(gòu)示意圖如圖3所示。

      2.3" 引入解耦檢測(cè)頭

      YOLOv5s算法在目標(biāo)檢測(cè)中采用耦合預(yù)測(cè)頭,將分類任務(wù)和回歸任務(wù)放在同一個(gè)檢測(cè)頭中進(jìn)行。然而,在訓(xùn)練過(guò)程中,這兩個(gè)任務(wù)經(jīng)常發(fā)生沖突,導(dǎo)致模型的檢測(cè)精度降低和收斂速度變慢。為了解決上述問(wèn)題,本文在YOLOv5s中引入了解耦頭[20],將分類任務(wù)和回歸任務(wù)進(jìn)行分離預(yù)測(cè),從而提高模型的檢測(cè)精度和收斂速度。解耦頭的結(jié)構(gòu)如圖4所示。

      首先,使用1×1卷積將特征通道減少到256;接著,使用兩個(gè)3×3的卷積分別作用于分類任務(wù)和回歸任務(wù)。其中,分類任務(wù)使用1×1卷積進(jìn)行分類操作,回歸任務(wù)使用1×1卷積進(jìn)行定位和置信度操作。通過(guò)上述操作,實(shí)現(xiàn)了對(duì)分類、定位和置信度的分開(kāi)檢測(cè)。

      2.4" 損失函數(shù)

      損失函數(shù)在模型訓(xùn)練過(guò)程中起著至關(guān)重要的作用,它能夠衡量標(biāo)注真實(shí)框和檢測(cè)目標(biāo)預(yù)測(cè)框之間的重疊程度,進(jìn)而評(píng)估預(yù)測(cè)結(jié)果的準(zhǔn)確性。因此,選擇合適的損失函數(shù)有助于加快模型訓(xùn)練的收斂速度。YOLOv5s算法中采用CIoU Loss作為損失函數(shù),該損失函數(shù)基于原真實(shí)框與預(yù)測(cè)框的交并比,并引入了距離與長(zhǎng)寬比。但忽略了真實(shí)框與預(yù)測(cè)框之間配角不匹配的問(wèn)題,導(dǎo)致訓(xùn)練過(guò)程中預(yù)測(cè)框的自由度過(guò)大,從而降低了模型的性能。因此,本文提出使用SIoU[21]損失函數(shù)來(lái)取代原有的CIoU損失函數(shù)。SIoU損失函數(shù)在IoU的基礎(chǔ)上引入了角度感知、距離損失和形狀損失機(jī)制,以提高模型訓(xùn)練的收斂速度和預(yù)測(cè)準(zhǔn)確率。SIoU損失函數(shù)包括Angle cost、Distance cost、Shape cost和IoU cost四個(gè)cost函數(shù),具體如下列公式所示:

      [Λ=1-2sin2arcsinx-π4] (14)

      [Δ=t=x,y(1-e-γρt)] (15)

      [Ω=t=w,h1-e-wtθ] (16)

      [LSIoU=1-IoU+Δ+Ω2] (17)

      式中:[Λ]表示角度損失,并對(duì)距離誤差進(jìn)行重新定義,[γ=2-Λ];[Δ]表示距離損失;[Ω]表示對(duì)CIoU中歐氏距離計(jì)算方法的改進(jìn);[θ]表示控制形狀誤差關(guān)注程度。結(jié)合IoU和上述公式最終得出目標(biāo)框損失函數(shù)表達(dá)式。

      3" 實(shí)驗(yàn)設(shè)置

      3.1" 實(shí)驗(yàn)環(huán)境

      本文實(shí)驗(yàn)方法基于PyTorch 2.0.0深度學(xué)習(xí)框架和Python 3.11環(huán)境實(shí)現(xiàn)。運(yùn)行環(huán)境為Windows 11,GPU型號(hào)為NVIDIA GeForce RTX 3060,CPU型號(hào)為AMD Ryzen 7 6800H,顯存大小為6 GB,使用CUDA 11.8進(jìn)行GPU加速。

      在訓(xùn)練過(guò)程中,采用遷移學(xué)習(xí)方法加載權(quán)重模型“yolov5s.pt”,輸入圖片尺寸設(shè)置為640[×]640,epoch設(shè)置為200,batch size設(shè)置為8,優(yōu)化器采用SGD算法,動(dòng)量因子設(shè)置為0.937。

      3.2" 數(shù)據(jù)集

      本文采用的數(shù)據(jù)集為GC10?DET,該數(shù)據(jù)集是在鋼材生產(chǎn)環(huán)境中采集的灰度圖像,總共包含2 294張圖像,圖像分辨率為2 048[×]1 000。數(shù)據(jù)集中包含了10類表面缺陷,分別是腰折(Waist_folding, Wf)、月間隙(Crescent_gap, Cg)、油斑(Oil_spot, Os)、夾雜(Inclusion, In)、壓痕(Rolled_pit, Rp)、折痕(Crease, Cr)、水斑(Water_spot, Ws)、絲狀斑(Silk_spot, Ss)、焊縫(Welding_line, Wl)和沖孔(Punching_hole, Ph)。為了擴(kuò)充訓(xùn)練樣本并增強(qiáng)模型的泛化能力,本文采用了裁剪、旋轉(zhuǎn)、遮擋、水平翻轉(zhuǎn)和模糊等方法對(duì)圖像進(jìn)行處理,將數(shù)據(jù)集擴(kuò)充到4 588張。為了充分利用數(shù)據(jù)并避免過(guò)擬合,將數(shù)據(jù)集按照8∶1∶1的比例劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集。其中,訓(xùn)練集包含3 670張圖像,測(cè)試集和驗(yàn)證集各包含459張圖像。

      3.3" 評(píng)價(jià)指標(biāo)

      在計(jì)算機(jī)視覺(jué)目標(biāo)檢測(cè)領(lǐng)域中,通常采用精確率[P](Precision)、召回率[R](Recall)、平均精度(Average Precision, AP) 、平均精度均值 (Mean Average Precision, mAP)、平均精度值(Mean Average Precision IoU=0.5,mAP@0.5:0.95)和檢測(cè)速率(Frame Per Second, FPS)對(duì)性能進(jìn)行評(píng)定,計(jì)算表達(dá)式如下。

      1) Precision表示模型的檢測(cè)準(zhǔn)確程度,計(jì)算公式為:

      [Precision=TPTP+FP] (18)

      式中:TP表示檢測(cè)目標(biāo)中正確數(shù)量;FP表示檢測(cè)目標(biāo)中錯(cuò)誤數(shù)量。

      2) Recall表示真實(shí)正例中正確類別的比例,計(jì)算公式為:

      [Recall=TPTP+FN] (19)

      式中FN表示未能檢測(cè)出的目標(biāo)。

      3) AP表示模型在某一類別中的平均精度,計(jì)算公式為:

      [AP=01PRdR] (20)

      式中AP的值是以[R]為[x]軸,以[P]為[y]軸的[P?R]曲線下的面積。

      4) mAP表示所有類別的識(shí)別平均精度均值,計(jì)算公式為:

      [mAP=1ci=1cAPi] (21)

      式中:[c]為圖像總類別數(shù);[i]為檢測(cè)次數(shù);AP為單一類別的識(shí)別平均準(zhǔn)確率;AP@0.5表示該類別的[P?R]曲線下方的面積;mAP@0.5是所有類別的識(shí)別平均準(zhǔn)確率AP@0.5相加后取平均值得到的指標(biāo)。

      5) mAP@0.5:0.95表示在IoU閾值(0.5~0.95)上的平均mAP,體現(xiàn)邊界回歸能力。IoU計(jì)算公式為:

      [IoU=A?BA?B] (22)

      式中:[A]代表預(yù)測(cè)框;[B]代表真實(shí)框。

      6) FPS表示模型的檢測(cè)速度,即每秒多少幀,計(jì)算公式為:

      [FPS=FramenumElapsedTime] (23)

      4" 實(shí)驗(yàn)結(jié)果與分析

      4.1" 消融實(shí)驗(yàn)

      為了更準(zhǔn)確地評(píng)估不同改進(jìn)模塊對(duì)鋼材表面缺陷檢測(cè)準(zhǔn)確性的影響,進(jìn)行了消融實(shí)驗(yàn),并將YOLOv5s?STCD模型分解為四個(gè)部分。首先,將原始的YOLOv5s模型與Swin Transformer進(jìn)行融合,形成了C3STR模型;然后,替換損失函數(shù)為SIoU,并引入了CA機(jī)制;最后,更換了解耦頭(DH)。在訓(xùn)練過(guò)程中,使用相同的參數(shù)設(shè)置,并設(shè)計(jì)了五組對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表1所示。

      表1結(jié)果顯示,原始YOLOv5s算法的精確度達(dá)到了86.5%,平均精度均值達(dá)到了81.8%。在加入C3STR模塊后,模型的特征提取能力得到了提升,精確度提高了1.7%,平均精度均值提高了0.3%。將損失函數(shù)替換為SIoU后,mAP值進(jìn)一步提高了0.9%,盡管精確度略有下降,但仍然優(yōu)于原始的YOLOv5s算法。隨后,引入CA機(jī)制,增強(qiáng)了網(wǎng)絡(luò)對(duì)目標(biāo)位置和通道信息的感知以及對(duì)重要特征的關(guān)注,進(jìn)一步提高了精確度和mAP值。最后,通過(guò)更換解耦頭,減弱了分類和回歸任務(wù)之間的沖突。引入解耦頭后的YOLOv5s?STCD算法的精確率和mAP值分別為92.1%和84.8%,效果最佳。綜合來(lái)看,經(jīng)過(guò)上述改進(jìn)后的YOLOv5s?STCD算法有效地提升了檢測(cè)準(zhǔn)確率,使得檢測(cè)精度滿足鋼材表面缺陷檢測(cè)場(chǎng)景的要求,并在該場(chǎng)景中具有良好的適用性。

      改進(jìn)后的模型檢測(cè)效果如圖5所示,其中使用框標(biāo)識(shí)不同類別,并在框的上方注明了置信度。從圖中可以看出,YOLOv5s?STCD算法對(duì)各類缺陷的檢測(cè)效果良好。

      4.2" 多種注意力機(jī)制

      引入注意力機(jī)制可以有效提升模型的檢測(cè)精度和效率,為了選擇最佳的注意力機(jī)制,本文進(jìn)行實(shí)驗(yàn)并比較了目前主流使用的CBAM[22]、SE[23]、SimAM[24]、NAM[25]和CA的效果。根據(jù)表2的對(duì)比結(jié)果顯示,CA在檢測(cè)精度和mAP值上均優(yōu)于其他注意力機(jī)制。在鋼鐵缺陷檢測(cè)任務(wù)中達(dá)到了92.1%的檢測(cè)精度和84.8%的mAP值,因此,本文選擇CA機(jī)制。

      4.3" YOLOv5s?STCD與其他模型的對(duì)比

      為了驗(yàn)證本文提出的改進(jìn)YOLOv5s算法的有效性,選取了目前主流使用的YOLOv3?tiny、YOLOv7、YOLOv5s和YOLOv8n模型進(jìn)行對(duì)比實(shí)驗(yàn)。在訓(xùn)練尺寸方面,統(tǒng)一使用640[×]640的圖像。每個(gè)模型的mAP訓(xùn)練曲線變化如圖6所示,每個(gè)模型的[P]值、mAP@0.5:0.95值和FPS如表3所示。

      表3結(jié)果顯示,YOLOv3?tiny算法雖然具有較高的檢測(cè)速度(FPS為96.2),但精確度較低(精確率僅為66.3%)。與YOLOv3?tiny算法相比,YOLOv7算法在精確率上有所提升,但檢測(cè)速度大幅下降。與YOLOv7算法相比,YOLOv8n算法在精確率和檢測(cè)速度上均有提升,其精確率和mAP@0.5:0.95達(dá)到了82.7%和44.5%,檢測(cè)速率FPS達(dá)到了52.9;但YOLOv8n的精確率和檢測(cè)速度仍低于原始的YOLOv5s算法。結(jié)果表明,相對(duì)于YOLOv3?tiny算法和最新的YOLOv7、YOLOv8n算法,本文采用的YOLOv5s算法在鋼材表面缺陷檢測(cè)場(chǎng)景中具有更好的表現(xiàn)效果。

      改進(jìn)后的YOLOv5s?STCD算法在檢測(cè)速度(FPS)方面僅下降了5.97,然而精確率([P])和mAP@0.5:0.95均有顯著提高,分別比YOLOv5s提高了5.6%和2.9%。因此,實(shí)驗(yàn)結(jié)果表明在鋼材表面缺陷檢測(cè)場(chǎng)景中,改進(jìn)的YOLOv5s?STCD算法展現(xiàn)出最佳的綜合性能。

      在圖6中,經(jīng)過(guò)200輪次的訓(xùn)練,YOLOv5s?STCD模型相比YOLOv3?tiny、YOLOv7、YOLOv8n和原YOLOv5s,改進(jìn)模型YOLOv5s?STCD平均精度均值最優(yōu),并且具有較好的收斂速度。

      4.4" 檢測(cè)效果

      為了進(jìn)一步驗(yàn)證YOLOv5s?STCD算法在鋼材表面缺陷檢測(cè)方面的優(yōu)勢(shì),在經(jīng)過(guò)數(shù)據(jù)增強(qiáng)的GC10?DET數(shù)據(jù)集上將其與YOLOv3?tiny、YOLOv7、YOLOv8n以及原始的YOLOv5s目標(biāo)檢測(cè)算法進(jìn)行了比較。不同模型檢測(cè)精度結(jié)果數(shù)據(jù)見(jiàn)表4。各算法的檢測(cè)效果如圖7所示。

      實(shí)驗(yàn)結(jié)果表明,本文提出的YOLOv5s?STCD改進(jìn)算法在鋼材缺陷檢測(cè)中的檢測(cè)精度和mAP值分別達(dá)到了92.1%和84.8%,相較于原始的YOLOv5s算法分別提升了5.6%和3%,且相較于YOLOv3?tiny、YOLOv7算法以及最新提出的YOLOv8n檢測(cè)精度具有較大提升,綜合表現(xiàn)最佳。從表4中各類缺陷檢測(cè)精度的對(duì)比可以觀察到,不同模型對(duì)不同類別的檢測(cè)精度存在差異,而YOLOv5s?STCD模型在各類目標(biāo)檢測(cè)方面的表現(xiàn)均優(yōu)于其他YOLO系列模型,本文提出的YOLOv5s?STCD算法在實(shí)際工業(yè)應(yīng)用中較其他算法更有可行性。

      5" 結(jié)" 論

      為了提高鋼材表面缺陷檢測(cè)精度,本文提出了一種基于改進(jìn)YOLOv5的鋼材表面缺陷檢測(cè)算法YOLOv5s?STCD,經(jīng)過(guò)實(shí)驗(yàn)得出如下結(jié)論。

      1) 通過(guò)消融實(shí)驗(yàn),驗(yàn)證了對(duì)各模塊改進(jìn)的有效性。即在原YOLOv5模型中添加C3STR模塊、SIoU模塊、CA模塊和解耦頭模塊后,檢測(cè)效果最佳,精確率和mAP達(dá)到了92.1%和84.8%,證明了改進(jìn)的YOLOv5s?STCD算法的有效性。

      2)將YOLOv5s?STCD算法與YOLOv3?tiny、YOLOv7、YOLOv8n和原YOLOv5s算法進(jìn)行對(duì)比實(shí)驗(yàn),本文提出的YOLOv5s?STCD檢測(cè)精度最高,綜合性能最佳,對(duì)各類缺陷的精度有一定提升,進(jìn)一步驗(yàn)證了YOLOv5s?STCD算法在鋼材表面缺陷檢測(cè)領(lǐng)域的可行性和實(shí)用性。

      實(shí)驗(yàn)結(jié)果表明,本文提出的YOLOv5s?STCD算法改進(jìn)具有有效性,且通過(guò)實(shí)驗(yàn)對(duì)比證明了該算法可以進(jìn)一步提高對(duì)鋼材表面缺陷檢測(cè)的精度,也為該領(lǐng)域的研究提供了新的思路。

      注:本文通訊作者為陳中舉。

      參考文獻(xiàn)

      [1] 冼進(jìn),冼允廷,龐冬梅.基于計(jì)算機(jī)視覺(jué)的電飯煲內(nèi)膽缺陷檢測(cè)系統(tǒng)設(shè)計(jì)[J].現(xiàn)代電子技術(shù),2023,46(7):96?100.

      [2] TAO X, ZHANG D P, MA W Z, et al. Automatic metallic surface defect detection and recognition with convolutional neural networks [J]. Applied sciences, 2018, 8(9): 1575.

      [3] 郭慧文,劉曉鳴,陳浩天,等.基于機(jī)器視覺(jué)的鎳基高溫合金表面缺陷檢測(cè)系統(tǒng)開(kāi)發(fā)[J].制造業(yè)自動(dòng)化,2023,45(4):81?87.

      [4] 王鑫,李琦.基于深度學(xué)習(xí)的路面缺陷自動(dòng)檢測(cè)系統(tǒng)[J].光電子·激光,2022,33(11):1165?1172.

      [5] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2014: 580?587.

      [6] REN S Q, HE K M, GIRSHICK R, et al. Faster R?CNN: Towards real?time object detection with region proposal networks [J]. IEEE transactions on pattern analysis amp; machine intelligence, 2017, 39(6): 1137?1149.

      [7] 李玉,湯勃,孫偉,等.基于改進(jìn)Faster R?CNN的鋼板表面缺陷檢測(cè)[J].組合機(jī)床與自動(dòng)化加工技術(shù),2022(5):113?115.

      [8] HAN C J, LI G Y, LIU Z. Two?stage edge reuse network for salient object detection of strip steel surface defects [J]. IEEE transactions on instrumentation and measurement, 2022, 71: 1?12.

      [9] 甄然,蘇康,周金星,等.改進(jìn)SSD的無(wú)人機(jī)目標(biāo)檢測(cè)研究[J].現(xiàn)代電子技術(shù),2022,45(22):33?37.

      [10] REDMON J, DIVVALA S K, GIRSHICK R, et al. You only look once: Unified, real?time object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2016: 779?788.

      [11] REDMON J, FARHADI A. YOLO9000: Better, faster, stronger [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 6517?6525.

      [12] REDMON J, FARHADI A. YOLOv3: An incremental improvement [EB/OL]. [2018?08?13]. http://arxiv.org/abs/1804.02767.

      [13] BOCHKOVSKIV A, WANG C Y, LIAO H Y M. YOLOv4: Optimal speed and accuracy of object detection [EB/OL]. [2020?04?28]. https://arxiv.org/abs/2004.10934.

      [14] WANG C Y, BOCHKOVSKIV A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 7464?7475.

      [15] 姚波,溫秀蘭,焦良葆,等.改進(jìn)YOLOv3算法用于鋁型材表面缺陷檢測(cè)[J].計(jì)量學(xué)報(bào),2022,43(10):1256?1261.

      [16] 馬燕婷,趙紅東,閻超,等.改進(jìn)YOLOv5網(wǎng)絡(luò)的帶鋼表面缺陷檢測(cè)方法[J].電子測(cè)量與儀器學(xué)報(bào),2022,36(8):150?157.

      [17] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]// Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017. [S.l.: s.n.], 2017: 5998?6008.

      [18] LIU Z, LIN Y T, CAO Y, et al. Swin Transformer: Hierarchical vision transformer using shifted windows [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 9992?10002.

      [19] HOU Q B, ZHOU D Q, FENG S J. Coordinate attention for efficient mobile network design [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 13713?13722.

      [20] GE Z, LIU S T, WANG F, et al. YOLOX: Exceeding YOLO series in 2021 [EB/OL]. [2022?04?05]. https://arxiv.org/abs/2107.08430.

      [21] GEVORGYAN Z. SIoU loss: More powerful learning for bounding box regression [EB/OL]. [2022?05?30]. https://doi.org/10.48550/arXiv.2205.12740.

      [22] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2018: 3?19.

      [23] HU J, SHEN L, ALBANIE S. Squeeze?and?excitation networks [J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 42: 2011?2023.

      [24] LIU Y C, SHAO Z R, TENG Y Y, et al. NAM: Normalization?based attention module [EB/OL]. [2021?11?26]. https://arxiv.org/abs/2111.12419.

      [25] YANG L X, ZHANG R Y, LI L D, et al. SimAM: A simple, parameter?free attention module for convolutional neural networks [C]// International Conference on Machine Learning. New York: PMLR, 2021: 11863?11874.

      韩城市| 海兴县| 陇南市| 宣威市| 玛多县| 鞍山市| 公安县| 宜兴市| 宿州市| 九江市| 吉安市| 上饶县| 始兴县| 陇西县| 阜平县| 高雄县| 余庆县| 浠水县| 望城县| 云梦县| 洱源县| 淅川县| 大姚县| 深圳市| 通山县| 禹州市| 剑阁县| 三门县| 邓州市| 靖边县| 金门县| 阿克| 信丰县| 彭州市| 舒兰市| 荣昌县| 张北县| 新田县| 徐州市| 霍州市| 青州市|