摘" 要:近年來,中國橋梁建設(shè)空前發(fā)展,橋梁安全運維問題日益凸顯。文章提出一種基于YOLOv8的裂縫檢測模型YOLOv8-BC,該模型采用GhostConv對HGNetv2改進(jìn)后的結(jié)構(gòu)替換YOLOv8的主干網(wǎng)絡(luò),實現(xiàn)模型輕量化;引入可變形注意力機(jī)制DAttention,獲得更多的空間信息;使用基于輔助邊框的Inner-iou損失函數(shù)替代CIOU損失函數(shù),提高模型的泛化能力和檢測精度。在自建數(shù)據(jù)集上進(jìn)行實驗,結(jié)果表明YOLOv8-BC模型準(zhǔn)確率達(dá)到了95.3%,mAP50達(dá)到了95.9%,相較于YOLOv8s模型分別提高了2.3%和2.0%,同時參數(shù)量降低了15.3%。這表明YOLOv8-BC模型能夠更高效地檢測復(fù)雜環(huán)境下的橋梁裂縫,為工業(yè)檢測提供了重要思路和技術(shù)支持。
關(guān)鍵詞:橋梁裂縫;目標(biāo)檢測;注意力機(jī)制;YOLOv8;圖像處理
中圖分類號:U446" " 文獻(xiàn)標(biāo)志碼:A
DOI:10.13714/j.cnki.1002-3100.2025.01.016
Abstract: In recent years, the bridge construction in China has developed unprecedentedly, and the problem of bridge safety operation and maintenance has become more and more prominent. In this paper, we propose a crack detection model YOLOv8-BC based on YOLOv8, which adopts GhostConv's improved structure of HGNetv2 to replace the backbone network of YOLOv8, to realize the model's lightweight; introduces the deformable attention mechanism DAttention, to obtain more spatial information; and uses the auxiliary edge-based inner
-iou loss function based on auxiliary edges instead of CIOU loss function to improve the generalization ability and detection accuracy of the model. Experiments on the self-constructed dataset show that the YOLOv8-BC model achieves an accuracy of 95.3% and the mAP50 reaches 95.9%, which is improved by 2.3% and 2.0%, respectively, compared with the YOLOv8s model, while the number of parameters is reduced by 15.3%. This indicates that the YOLOv8-BC model can detect bridge cracks in complex environments more efficiently, which provides important ideas and technical support for industrial inspection.
Key words: bridge crack; object detection; attention mechanism; YOLOv8; image processing
0" 引" 言
近年來,我國公路橋梁建設(shè)取得了前所未有的蓬勃發(fā)展,這一成就很大程度上得益于《國家公路網(wǎng)規(guī)劃(2013—2030年)》與《十三五規(guī)劃綱要》的積極引領(lǐng)。據(jù)《2022年交通運輸行業(yè)發(fā)展統(tǒng)計公報》權(quán)威數(shù)據(jù)揭示[1],至2022年末,我國公路橋梁總數(shù)達(dá)103.32萬座,總長度突破8 576.49萬延米,彰顯出我國橋梁服役數(shù)量的巨大規(guī)模。橋梁在完成建設(shè)并投入運營后,后續(xù)的維護(hù)管理工作便成為了保障橋梁安全穩(wěn)定運行的核心環(huán)節(jié),不容忽視。據(jù)交通部頒布的《公路養(yǎng)護(hù)技術(shù)規(guī)范》JTJ073
-96文件,要求定期對橋梁進(jìn)行檢測。但傳統(tǒng)橋梁檢測主要依靠工人使用檢測儀器來完成,存在耗時長、效率低、易錯檢漏檢等諸多弊端。采用大數(shù)據(jù)、人工智能、圖像處理等技術(shù)對橋梁健康狀況進(jìn)行定期評估,及時掌握裂縫變化情況,對于保障交通安全具有較高的實際價值與安全意義。
在早期的裂縫檢測研究中,算法大多基于傳統(tǒng)的數(shù)字圖像處理技術(shù),如閾值分割法、形態(tài)學(xué)方法、滲流模型以及邊緣檢
測[2-4]。這些技術(shù)需要人工參與特征的提取過程,但由于特征提取的主觀性,最終檢測結(jié)果的準(zhǔn)確性往往受到人為因素的影響。
近年來,深度學(xué)習(xí)作為監(jiān)督學(xué)習(xí)領(lǐng)域的熱門且高效的方法,為圖像采集基礎(chǔ)上的橋梁裂縫檢測帶來了前所未有的機(jī)遇。其強(qiáng)大的特征提取與泛化能力,以及出色的魯棒性和可靠性,使得深度學(xué)習(xí)在此領(lǐng)域大放異彩。在此背景下,國內(nèi)外多個研究團(tuán)隊紛紛利用深度學(xué)習(xí)技術(shù),提出了眾多創(chuàng)新的裂縫檢測算法。其中,Wang et al.[5]基于Inception-Resnet-v2算法,提出一種橋梁裂紋檢測模型,實現(xiàn)目標(biāo)區(qū)域的精確分割。Zheng et al.[6]提出一種基于Seg-Net和瓶頸深度可分離殘差卷積的高精度橋梁混凝土裂縫檢測方法。Fu et al.[7]提出一種基于改進(jìn)的DeepLabv3+語義分割算法的裂縫檢測方法,但圖像邊緣的裂縫檢測效果不佳。Ma et al.[8]基于YOLOv3提出了一種路面裂縫自動智能檢測與跟蹤系統(tǒng);Ali et al.[9]介紹了深度學(xué)習(xí)模型在裂縫檢測中的應(yīng)用;廖延娜等[10]提出了一種基于YOLOv3改進(jìn)的混凝土表觀缺陷檢測器,用于檢測公路橋梁裂縫在內(nèi)的多種混凝土缺陷;Yao et al.[11]基于YOLOv5并結(jié)合注意力機(jī)制提出一種路面裂縫檢測新方法;Li et al.[12]利用基于遷移學(xué)習(xí)的Faster R-CNN對橋梁進(jìn)行裂縫檢測。由于Faster R-CNN、YOLOv3等模型參數(shù)量較大,以這些模型為基礎(chǔ)的裂縫檢測模型也存在較大參數(shù)量,在一些性能受限的設(shè)備上可能無法使用。
上述文獻(xiàn)所提方法雖在一定程度上可以實現(xiàn)對橋梁病害的檢測,但其主要面臨檢測精度與檢測速度難以兩全的矛盾沖突,部分算法還存在橋梁裂縫病害特征提取上能力弱、特征學(xué)習(xí)不徹底等問題。針對現(xiàn)有橋梁的數(shù)量多、分布廣、檢測難度大,需要一種體積小、精度高、速度快的圖像檢測算法來對橋梁裂縫進(jìn)行檢測。
基于此,本文從應(yīng)用的角度出發(fā)建立了混凝土橋梁裂縫專業(yè)數(shù)據(jù)集,設(shè)計了基于改進(jìn)的YOLOv8混凝土橋梁裂縫檢測算法YOLOv8-BC,根據(jù)橋梁裂縫特征,對YOLOv8算法的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行針對性輕量化改進(jìn),提升混土橋梁裂縫的檢測精度和效率,滿足實際工程檢測需求。
1" YOLOv8-BC模型
YOLOv8算法在目標(biāo)檢測與實例分割任務(wù)中性能優(yōu)良。設(shè)計涵蓋了多種分辨率的目標(biāo)檢測網(wǎng)絡(luò)以及基于YOLACT[13]框架的實例分割模型,能夠滿足多樣化的應(yīng)用場景需求。該算法在主干網(wǎng)絡(luò)和Neck部分采用C2F結(jié)構(gòu),并通過針對不同尺度模型調(diào)整通道數(shù)來優(yōu)化性能;在Head部分,則采用解耦頭結(jié)構(gòu)設(shè)計,將分類與檢測任務(wù)獨立處理,提高了效率。此外,YOLOv8還引入了Mosaic數(shù)據(jù)增強(qiáng)技術(shù),有效擴(kuò)充訓(xùn)練數(shù)據(jù)集,提升檢測精度。然而,橋梁裂縫具有顏色單一、特異性強(qiáng)、尺寸差別大等特點,在檢測任務(wù)中原有的YOLOv8模型存在模型過大、檢測精度不足等問題,難以滿足行業(yè)要求。
針對這一問題,本文提出輕量化的YOLOv8-BC檢測模型(見圖1),采用GhostNet[14]中輕量化的幻影卷積(Ghost Convolution)改進(jìn)HGNetv2[15]結(jié)構(gòu)里面的HGBlock得到GhostHGNetv2,使用GhostHGNetv2替換YOLOv8的主干網(wǎng)絡(luò),實現(xiàn)了模型的輕量化。同時,模型對收集的數(shù)據(jù)集利用Masico進(jìn)行數(shù)據(jù)增強(qiáng)。此外,引入可變形注意力機(jī)制DAttention[16](Deformable Attention),使用基于輔助邊框的Inner-IOU[17]損失函數(shù)替代CIOU損失函數(shù)。YOLOv8-BC網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
1.1" 輕量化網(wǎng)絡(luò)GhostHGNetv2。針對YOLOv8主干網(wǎng)絡(luò)復(fù)雜度和參數(shù)量過大的問題,用GhostConv輕量化的幻影卷積(Ghost Convolution)改進(jìn)HGNetv2結(jié)構(gòu)里面的HGBlock,并用得到的GhostHGNetv2替換YOLOv8的主干網(wǎng)絡(luò)后實現(xiàn)模型輕量化。
1.1.1" HGNetv2。HGNetv2是百度在RT-DETR[17]項目中研發(fā)的主干網(wǎng)絡(luò),用以提升計算效率并縮減模型大小。該網(wǎng)絡(luò)主要由HGStem預(yù)處理層模塊和HGBlock數(shù)據(jù)處理模塊組成。數(shù)據(jù)從HGStem預(yù)處理層起始,依次通過多個HGBlock層次化處理模塊,最終達(dá)成分類任務(wù)。HGNetv2的主干網(wǎng)絡(luò)架構(gòu)如圖3所示。
HGBlock是主干網(wǎng)絡(luò)的關(guān)鍵組成部分。采用分級方法來處理數(shù)據(jù),每個HGBlock負(fù)責(zé)處理數(shù)據(jù)的不同層級,每個層級都設(shè)計來捕捉特定區(qū)間內(nèi)的特征,以此實現(xiàn)信息的分層解析,Conv表示標(biāo)準(zhǔn)卷積操作,LightConv指輕量級卷積,k代表卷積核的尺寸為n,s指的是卷積核的移動步長為m,Add操作是指將數(shù)據(jù)進(jìn)行拼接,結(jié)構(gòu)如圖4所示。這種方式促使網(wǎng)絡(luò)能夠有效地學(xué)習(xí)從低級到高級的特征,同時提高對細(xì)節(jié)信息的敏感度。在HGBlock內(nèi)部,可以根據(jù)具體需求調(diào)整Block參數(shù),靈活地選用輕量化卷積LightConv或普通卷積Conv。
1.1.2" GhostConv。GhostConv模塊卷積結(jié)構(gòu)通過將恒等映射和線性變換得到卷積特征圖。GhostConv結(jié)構(gòu)如圖5所示。
該模塊采用先通過點對點的卷積操作生成一部分特征圖,然后利用這些已生成的特征圖,通過簡單的線性變換來構(gòu)造剩余的特征映射。這種方法使得GhostConv卷積能夠在不犧牲模型性能的前提下,顯著地減少所需的參數(shù)數(shù)量和計算量。假定輸入特征的高度、寬度和通道數(shù)分別為h、w和c,輸出特征的高度和寬度為H和W,卷積核數(shù)量為n,卷積核大小為k,線性變換所使用的卷積核大小為d,且變換的數(shù)量為s。r和r分別代表了傳統(tǒng)卷積與GhostConv卷積在計算量和參數(shù)量上的比值,其中計算公式如式(1)、式(2)所示。
r==≈s" " " " " " " " " " (1)
r==≈s" " " " " " " " " " " " " " " " "(2)
由式(1)、式(2)可知在相同操作條件下,GhostConv的計算量僅為普通卷積的1/s。在主干網(wǎng)絡(luò)中采用GhostConv來替換HGBlock內(nèi)的傳統(tǒng)卷積操作(Conv),將能有效減少算法模型的復(fù)雜度。GhostConv可以看作是對原始特征圖的一種低成本的近似,有助于減少計算量和參數(shù)數(shù)量,優(yōu)化卷積層的計算效率。
本文采用幻影卷積GhostConv實現(xiàn)對HGNetv2主干網(wǎng)絡(luò)中的HGBlock模塊優(yōu)化創(chuàng)建新的Ghost_HGBlock如圖6所示以減少模型復(fù)雜度。從而適用于橋梁裂縫場景下的輕量化目標(biāo)檢測。
1.2" 可變形注意力機(jī)制DAttention。由于橋梁病害圖像中占橋梁背景絕大部分,且裂縫多為長裂縫和細(xì)小裂縫。為了提高模型對裂縫檢測精度,在模型主干中引入可形變注意力機(jī)制DAttention,如圖7所示。DAttention是一種空間適應(yīng)機(jī)制,讓模型在處理數(shù)據(jù)中可以動態(tài)地調(diào)整其注意力焦點。能夠更好地捕獲裂縫的生長趨勢和方向,減少無關(guān)背景的干擾,提高裂縫特征識別精度和裂縫檢測速度。
根據(jù)給定輸入特征圖x∈R,生成一個與輸入特征圖大小成比例(通過因子r縮放)的單元網(wǎng)格p∈R大小相同的單元網(wǎng)格,其中:H=H/r、W=W/r,并標(biāo)準(zhǔn)化網(wǎng)格坐標(biāo)至-1,+1。網(wǎng)格在圖7中以黑色虛線形式展示。
使用投影矩陣W對特征圖進(jìn)行線性投影,得到查詢元素q。查詢元素被輸入輕量級子網(wǎng)絡(luò)θ以計算偏移量Δp。應(yīng)用偏移量調(diào)整網(wǎng)格位置,并通過雙線性插值在變形位置對特征圖進(jìn)行采樣,得到變形后的鍵和值。投影矩陣W通過訓(xùn)練學(xué)習(xí),以捕捉對后續(xù)任務(wù)有用的特征信息。投影矩陣如下:
q=xW, =W, =W" " " " " " " " " " " " " " " " " " " " "(3)
withΔp=θq, =?覫x,p+Δp" " " " " " " " " " " " " " " " " " " (4)
=?覫z, p,p=gp,rgp,rzr,r,:z=σ+?覫;R" " " " " " " " " (5)
其中:ga,b=max0,1-a-b用于計算兩個位置之間的相關(guān)性,r,r為特征圖z∈R上所有位置建立的索引。由于函數(shù)g僅在距離p,p最近的四個積分點上取非零值,因此本文可以將式(5)簡化為這四個位置上的加權(quán)平均值。與現(xiàn)有的方法類似,本文對查詢q、鍵k和值v執(zhí)行多頭注意力機(jī)制,并且在注意力機(jī)制中引入了相對位置偏移。注意力頭的輸出被表述為:
z=σ+?覫;R" " " " " " " " " " " " " " " " " " "(6)
式中:?覫;R∈R, 代表輸入數(shù)據(jù),R表示相對位置信息。來自每個注意力頭的特征被串聯(lián)起來,并通過權(quán)重矩陣W進(jìn)行線性變換,最終得到輸出z。
將可形變注意力機(jī)制DAttention模塊添加到主干網(wǎng)絡(luò)中,如圖2黑色框的位置,能夠更好捕捉特征點在不同尺度間的對應(yīng)關(guān)系,通過預(yù)測一個偏移量(Offset),使得注意力分布可以根據(jù)數(shù)據(jù)的特點自適應(yīng)的改變。這樣的方式使得網(wǎng)絡(luò)模型能夠充分聚焦于橋梁裂縫圖像中裂縫的關(guān)鍵特征,同時減少不必要的計算消耗。從而可以自適應(yīng)地處理輸入圖像的大小和比例,提高圖像分類和檢測的準(zhǔn)確率。
1.3" 損失函數(shù)Inner IoU Loss。Inner IoU(內(nèi)部交并比)是一種評估預(yù)測邊界框(Bounding box)與實際邊界框之間重疊程度的一種指標(biāo)。定義為預(yù)測框B與真實框B交集的面積Intersection除以預(yù)測框的面積 AreaB,如式(1)所示。相較于傳統(tǒng)的IoU指標(biāo)(計算交集與并集的比例),Inner IoU更注重預(yù)測框的精確性。當(dāng)預(yù)測框過大而實際重合部分較小時,Inner IoU會給出較低的評分,從而準(zhǔn)確反映并有效抑制這種預(yù)測上的不精確性。
IoU=" " " " " " " " " " " " "(7)
2" 實驗及結(jié)果分析
2.1 實驗環(huán)境。本實驗的操作系統(tǒng)為Windows11,GPU為NVIDIAGeForce RTX3090,GPU顯存為24GB,CUDA12.1版本,Python3.8版本,算法框架為Pytorch,Torch1.12.0版本,YOLOv8s訓(xùn)練時迭代次數(shù)為210次,Batchsize為32,學(xué)習(xí)率為0.01。實驗具體參數(shù)設(shè)置如表1所示。
2.2" 數(shù)據(jù)集收集和處理。目前,缺乏可公開訪問的專門針對橋梁裂縫檢測的數(shù)據(jù)集,本文從現(xiàn)有的多個裂縫數(shù)據(jù)集中挑選符合橋梁特性的3 371張圖像進(jìn)行實驗。實驗采用腳本按照7∶3的比例將數(shù)據(jù)集隨機(jī)劃分為訓(xùn)練集(2 359張圖像)和測試集(1 012張圖像)。利用開源數(shù)據(jù)標(biāo)注工具Labelimg為數(shù)據(jù)集創(chuàng)建標(biāo)簽文件,并以txt格式存儲每個圖像的裂縫信息。標(biāo)注中,盡可能使用最小的外接矩形框選裂縫,確保每個邊界框內(nèi)只包含一條裂縫,并盡量避免邊界框之間的重疊。將橋梁裂縫的標(biāo)簽命名為“Crack”。通過以上數(shù)據(jù)集的準(zhǔn)備工作,確保了數(shù)據(jù)集的質(zhì)量和適用性。
模型訓(xùn)練階段,采用遷移學(xué)習(xí)的方法,使用與數(shù)據(jù)集劃分相同的訓(xùn)練流程進(jìn)行模型訓(xùn)練。為了加速模型的收斂速度并提升訓(xùn)練效果,本文選擇了在大型COCO數(shù)據(jù)集上預(yù)訓(xùn)練的權(quán)重參數(shù)作為模型的初始權(quán)重。隨后,在橋梁裂縫數(shù)據(jù)集上進(jìn)行了訓(xùn)練,共進(jìn)行了210輪迭代。
2.3" 算法的評價指標(biāo)。在目標(biāo)檢測中,評價模型性能的標(biāo)準(zhǔn)有很多。本文分析實驗結(jié)果以精確率P(Precision)和平均準(zhǔn)確率mAP50(Mean Average Precision,mAP)作為精度指標(biāo)。在探討輕量化與性能平衡時,使用浮點運算次數(shù)(FLOPs)和參數(shù)量(Params)作為關(guān)鍵模型架構(gòu)細(xì)節(jié)參數(shù)為評價指標(biāo),相關(guān)公式如下:
P=" " " " " " " " " " " " " " " " " " " " " " " "(8)
R=" " " " " " " " " " " " " " " " " " " " " " " (9)
AP=PRdR" " " " " " " " " " " " " " " " " " " " " "(10)
mAP=" " " " " " " " " " " " " " " " " " " " " (11)
其中:TP指正確預(yù)測裂縫的個數(shù);FP指錯誤預(yù)測為裂縫的個數(shù);FN指漏檢的裂縫個數(shù);由于檢測對象僅裂縫一類,C取值為1。
2.4" 實驗結(jié)果及分析。本文對目標(biāo)識別階段的YOLOv8s網(wǎng)絡(luò)進(jìn)行了圖像預(yù)處理和主干網(wǎng)絡(luò)的一些改進(jìn)。為了評估各項改動以及各項改進(jìn)對算法性能優(yōu)化的影響程度,本文進(jìn)行了消融實驗,具體結(jié)果如表2所示。
模型YOLOv8s的精確度和mAP50分別為93.0%和93.9%,通過替換為GhostHGNetv2主干和增加DAttention模塊和Inner
-IOU模塊。與YOLOv8s相比,YOLOv8-BC在精確率、平均精度均值、計算效率和模型大小方面均優(yōu)于YOLOv8,表明YOLOv8-BC是一個更高效、更優(yōu)化的目標(biāo)檢測模型。
在工業(yè)檢測領(lǐng)域,檢測模型因其能夠提供高精度且快速的檢測結(jié)果而備受青睞,具有廣泛的應(yīng)用范圍。作為YOLOv8檢測模型的一種優(yōu)化版本,YOLOv8-BC不僅繼承了模型的高效性,還通過一系列改進(jìn)和創(chuàng)新,進(jìn)一步提升了檢測性能和泛化能力,因此在工業(yè)檢測中具有更為廣闊的應(yīng)用前景,能夠更好地適應(yīng)各種復(fù)雜多變的檢測環(huán)境和需求。
綜合指標(biāo)對比結(jié)果如圖8所示,可以觀察到改進(jìn)后的YOLOv8-BC算法在mAP50和P指標(biāo)上均有所提升。這表明該方法在降低模型大小的同時,能夠提升模型的精確度,實驗識別效果如圖9所示。通過實驗證明,該方法在提高模型性能方面具有一定的有效性。
3" 結(jié)" 論
針對橋梁裂縫檢測領(lǐng)域中檢測精度與檢測速度難以平衡的問題,本文提出了一種改進(jìn)的YOLOv8-BC橋梁裂縫檢測模型。該模型在通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)和特征融合策略,有效提升橋梁裂縫的檢測精度和泛化能力。YOLOv8-BC模型準(zhǔn)確率高達(dá)95.3%,mAP0.5和mAP0.5-0.95分別提升至95.9%和86.4%,相比YOLOv8s模型分別增長2.3%、2.0%和1.8%,充分證明了模型在檢測精度和泛化能力上的顯著提升。模型還加快了裂縫特征的提取效率和模型的收斂速度,確保了高精度且可靠的識別性能。盡管成效顯著,但仍存改進(jìn)空間。未來的工作中,將完善數(shù)據(jù)集,開發(fā)自然場景下橋梁裂縫檢測技術(shù),增強(qiáng)模型魯棒性,減少環(huán)境噪聲干擾,并探索更多應(yīng)用領(lǐng)域。
參考文獻(xiàn):
[1] 交通運輸部. 2022年交通運輸行業(yè)發(fā)展統(tǒng)計公報[N]. 中國交通報,2023-06-16(002).
[2]" ZHAO Y, LV W, XU S, et al. Detrs beat yolos on real-time object detection[C] // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2024:16965-16974.
[3]" RIYANTO I. Morphology based melanoma skin segmentation method[J]. Helix-The Scientific Explorer Peer Reviewed Bimonthly International Journal, 2021,11(3):7-13.
[4]" LAKSHMI B V, SRIDEVI K. A qualitative approach on de-noising and segmentation algorithms for melanoma images[J]. Annals of the Romanian Society for Cell Biology, 2021,25(2):1384-1393.
[5]" WANG J, HE X, FAMING S, et al. A real-time bridge crack detection method based on an improved "inception-resnet-v2 structure[J]. IEEE Access, 2021(9):93209-93223.
[6]" ZHENG X, ZHANG S, LI X, et al. Lightweight bridge crack detection method based on signet and bottleneck depth-separable convolution with residuals[J]. IEEE Access, 2021(9):161649-161668.
[7]" FU H, MENG D, LI W, et al. Bridge crack semantic segmentation based on improved Deeplabv3+[J]. Journal of Marine Science and Engineering, 2021,9(6):671.
[8]" MA D, FANG H, WANG N, et al. Automatic detection and counting system for pavement cracks based on PCGAN and YOLO-MF[J]. IEEE Transactions on Intelligent Transportation Systems, 2022,23(11):22166-22178.
[9]" ALI R, CHUAH J H, TALIP M S A, et al. Structural crack detection using deep convolution neural networks[J]. Automation in Construction, 2022,133:103989.
[10] 廖延娜,李婉. 基于卷積神經(jīng)網(wǎng)絡(luò)的橋梁裂縫檢測方法[J]. 計算機(jī)工程與設(shè)計,2021,42(8):2366-2372.
[11]" YAO H, LIU Y, LI X, et al. A detection method for pavement cracks combining object detection and attention mechanism[J]. IEEE Transactions on Intelligent Transportation Systems, 2022,23(11):22179-22189.
[12]" LI R, YU J, LI F, et al. Automatic bridge crack detection using unmanned aerial vehicle and Faster R-CNN[J]. Construction and Building Materials, 2023,362:129659.
[13]" HUANG M, XU G, LI J, et al. A method for segmenting disease lesions of maize leaves in real time using attention YOLACT++[J]. Agriculture, 2021,11(12):1216.
[14]" HAN K, WANG Y, TIAN Q, et al. Ghostnet: More features from cheap operations[C] // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020:1580-1589.
[15]" YU D. Improved container damage detection algorithm of YOLOv8[C] // Proceedings of the International Conference on Algorithms, Software Engineering, and Network Security, 2024:90-95.
[16]" XIA Z, PAN X, SONG S, et al. Vision transformer with deformable attention[C] // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022:4794-4803.
[17]" MA Z, WU F. Research on pulmonary nodule detection method based on YOLO algorithm[C] // 2024 5th International Seminar on Artificial Intelligence, Networking and Information Technology (AINIT). IEEE, 2024:635-639.
[18]" LIU X, RAO Z, ZHANG Y, et al. UAVs Images based real-time insulator defect detection with transformer deep learning[C] // 2023 IEEE International Conference on Robotics and Biomimetics (ROBIO). IEEE, 2023:1-6.