• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進YOLOV3算法的斜拉橋拉索表面缺陷檢測方法*

    2022-01-17 09:19:24李運堂謝夢鳴王鵬峰李孝祿
    傳感技術(shù)學報 2021年11期
    關(guān)鍵詞:先驗拉索殘差

    李運堂謝夢鳴王鵬峰李孝祿

    (1.中國計量大學機電工程學院,浙江 杭州 310018;2.中國計量大學現(xiàn)代科技學院,浙江 杭州 310017)

    近年來,大跨度橋梁在國家和地區(qū)經(jīng)濟發(fā)展中的作用越來越重要。斜拉橋作為現(xiàn)代大跨度橋梁的重要結(jié)構(gòu)形式,因優(yōu)越的跨越能力在跨河、跨海大橋中得到廣泛應(yīng)用[1-3]。斜拉橋主要由索塔、拉索和梁三部分構(gòu)成。其中,拉索為主要受力部件,由外部保護套和內(nèi)部鋼絲束組成[4]。由于拉索長期暴露于外部環(huán)境,日曬雨淋等環(huán)境因素容易引起保護套破損,外部腐蝕性物質(zhì)由破損處侵入拉索內(nèi)部,極易導致鋼絲束銹蝕甚至斷裂,嚴重威脅橋梁安全[5-7]。因此,拉索表面缺陷檢測極為重要[8]。

    常見的拉索表面缺陷檢測方法有三種:一是目測,檢測人員手持望遠鏡觀察拉索表面是否存在缺陷,效率低、準確性差;二是采用拉索檢測車[9],檢測人員乘坐吊籃升至高空檢查拉索,危險性高、檢測結(jié)果主觀性強;三是視頻檢測,機器人搭載攝像頭沿拉索爬升,拍攝和存儲拉索表面視頻數(shù)據(jù),設(shè)備返回后,檢測人員通過觀看視頻檢查索體,實時性差、人工判斷費時費力。因此,拉索表面缺陷檢測的自動化水平亟待提高。

    韓國世宗大學Ho等[10]提出拉索表面缺陷位置檢測算法,通過濾波降噪和圖像增強去除圖片中無關(guān)干擾并將結(jié)果投射到PCA空間完成缺陷識別和分類。李新科等[11]設(shè)計了拉索表面缺陷分布式視覺檢測系統(tǒng),采用中值濾波降噪,通過改進Sobel算子提取邊緣特征,利用形態(tài)學中的開操作對缺陷區(qū)域進行分割處理,并對處理后的區(qū)域進行像素點統(tǒng)計,根據(jù)像素點聚合數(shù)目完成決策判別,算法簡單、執(zhí)行效率高,但形態(tài)學算子需手動調(diào)整。Hou等[12]采用Cascade Mask RCNN算法進行缺陷分割提取,針對拉索表面缺陷數(shù)據(jù)集稀少問題,利用遷移學習的思想,將混凝土縫隙數(shù)據(jù)集訓練模型權(quán)重參數(shù)遷移至拉索表面缺陷數(shù)據(jù)集訓練,雖然模型分割效果較好,但是Cascade Mask RCNN為二階段算法,模型分割效率低。李鑫[13]選用PVC管材模擬橋梁拉索并將缺陷分為片狀缺陷和條狀缺陷,針對條狀缺陷誤檢率較高的問題,引入PCA算法配合圖像旋轉(zhuǎn)進行二次判定,提高了準確率,但效率偏低,關(guān)鍵變量需手動賦值??梢姡瑐鹘y(tǒng)圖像處理技術(shù)拉索表面缺陷檢測的自動化程度不高。

    目標檢測為深度學習應(yīng)用領(lǐng)域之一,相對于傳統(tǒng)圖像處理技術(shù),物體識別更精確,效率更高。Ren[14]等提出的Faster R-CNN為最具代表性的二階段目標檢測算法,識別效果好,但算法處理速度較慢。Redmon等[15]針對此問題提出快速物體識別算法:You Only Look Once,簡稱YOLO。YOLO屬于端對端模型,以整幅圖片輸入,采用回歸機制,直接輸出預(yù)測框以及框內(nèi)目標種類。在YOLO基礎(chǔ)上,2018年升級的YOLOV3引入殘差結(jié)構(gòu)加深主干特征提取網(wǎng)絡(luò),并利用多尺度預(yù)測增強中小目標檢測能力。相對于Faster R-CNN,YOLOV3速度更快。

    1 拉索表面缺陷特征分析

    根據(jù)拉索保護套破損程度,可將表面缺陷分為穿透性缺陷和損傷性缺陷。穿透性缺陷屬于嚴重缺陷,根據(jù)形狀可細分為孔洞和縫隙。損傷性缺陷危害程度相對較低,外部腐蝕性物質(zhì)無法直接作用于內(nèi)部鋼絲束,但如果不及時檢測并維護,在外部環(huán)境催化下,損傷性缺陷可能轉(zhuǎn)變?yōu)榇┩感匀毕荨?/p>

    不同拉索表面缺陷特征各異??锥慈毕莩叨炔灰唬^小的孔洞甚至難以肉眼識別,檢測難度大;縫隙缺陷與損傷缺陷中的條狀損傷外觀非常相似,極易混淆,但前者屬于穿透性缺陷,危害大,后者屬于損傷性缺陷,危害較小。傳統(tǒng)圖像處理技術(shù)側(cè)重于特征提取,適用于背景簡單和實時性要求不高的場合。拉索表面缺陷檢測實時性和檢測精度要求較高,并且缺陷類別分辨困難,傳統(tǒng)圖像處理方法無法滿足要求。YOLOV3算法作為優(yōu)秀的一階段目標檢測模型,融入了多尺度特征融合結(jié)構(gòu),兼顧了檢測精度和速度,適合拉索表面缺陷自動化檢測。

    2 YOLOV3算法原理

    2.1 網(wǎng)絡(luò)結(jié)構(gòu)

    YOLOV3網(wǎng)絡(luò)結(jié)構(gòu)包括主干特征提取網(wǎng)絡(luò)DarkNet53和多尺度融合特征金字塔結(jié)構(gòu),如圖1所示。

    圖1 YOLOV3網(wǎng)絡(luò)結(jié)構(gòu)

    其中,虛線框部分為DarkNet53主干特征提取網(wǎng)絡(luò),Y1、Y2、Y3為不同尺寸特征圖,DBL由相應(yīng)的卷積層(Conv)、批量歸一化層(BN)和Leaky ReLu激活函數(shù)組成。

    DarkNet53為卷積層和5個殘差模塊串聯(lián)構(gòu)成的殘差網(wǎng)絡(luò),每個殘差模塊中堆疊不同數(shù)量的殘差元,殘差元由快捷鏈路和兩個DBL模塊構(gòu)成[16]??赏ㄟ^增加網(wǎng)絡(luò)深度提高特征學習率,內(nèi)部殘差元的快捷鏈路緩解了過度增加網(wǎng)絡(luò)深度導致的梯度消失問題。特征金字塔結(jié)構(gòu)對DarkNet53第五個殘差塊輸出結(jié)果進行五次卷積運算,卷積結(jié)果一部分輸出大尺寸目標預(yù)測結(jié)果,另一部分通過卷積和上采樣與DarkNet53第四個殘差模塊的輸出進行通道上堆疊,堆疊后的輸出再進行五次卷積處理,處理結(jié)果一部分輸出中等尺寸目標預(yù)測結(jié)果,另一部分與DarkNet53第三個殘差模塊輸出再進行通道上堆疊,最后將堆疊后的特征圖進行五次卷積輸出小尺寸目標預(yù)測結(jié)果。YOLOV3網(wǎng)絡(luò)通過多尺度特征融合,可同時學習淺層與深層特征層語義信息,提高網(wǎng)絡(luò)模型細粒度,泛化目標檢測能力。

    2.2 網(wǎng)絡(luò)預(yù)測

    YOLOV3算法將輸入圖片劃分為不同尺度網(wǎng)格,實現(xiàn)大、中、小三種尺度目標預(yù)測。以輸入416×416圖片為例,經(jīng)過DarkNet53和特征金字塔結(jié)構(gòu)后,輸出13×13、26×26、52×52三種特征圖,相當于將輸入圖片分別劃分為169、676和2704個網(wǎng)格,每個網(wǎng)格負責對應(yīng)像素區(qū)域的預(yù)測結(jié)果,每種尺度網(wǎng)格均含有大、中、小三種尺寸的先驗框。常規(guī)YOLOV3算法先驗框尺寸如表1所示。

    表1 常規(guī)YOLOV3算法先驗框尺寸

    YOLOV3預(yù)測為先驗框調(diào)整過程,每個先驗框有5+c個參數(shù),分別為:中心坐標(t x,t y),尺寸系數(shù)t w、t h,置信度分數(shù)P以及分類總數(shù)c。圖2(a)為預(yù)測框調(diào)整示意圖。(c x,c y,c w,c h)為最終得到的預(yù)測框參數(shù)值,采用式(1)計算。σ(t x)、σ(t y)為Sigmoid函數(shù)歸一化坐標偏移量,(b x,b y)為每個劃分的1×1網(wǎng)格左上角坐標,p w、p h分別為先驗框的寬和高在當前特征圖的映射。

    置信度分數(shù)P由預(yù)測框是否包含目標物體、物體屬于某類的概率以及預(yù)測框和真實框的交并比(IOU)決定,采用式(2)計算。P r(c)表示目標框是否包含目標物體,包含置1,不包含置0。P r(obj)為目標屬于某類的概率。

    IOU示意圖如圖2(b)所示,采用式(3)計算。其中,S A∩B表示真實框A與預(yù)測框B交集的面積,S A∪B表示真實框A與預(yù)測框B并集的面積。IOU越大表明網(wǎng)絡(luò)預(yù)測效果越好,最大值為1。

    圖2 預(yù)測框調(diào)整和IOU示意圖

    特征層中一個目標區(qū)域可生成多個預(yù)測框,需采用非極大值抑制進行篩選,篩選方式如式(4),具體步驟為:將預(yù)測框按屬于某類的置信度得分排序;選擇排序靠前的框作為目標預(yù)測框;設(shè)定概率閾值T;去除與目標預(yù)測框重疊較多的預(yù)測框。

    式中:I為真正預(yù)測框,IOU(G,E i)為目標預(yù)測框G和其余框E i的交并比,T c為概率閾值。

    2.3 常規(guī)YOLOV3算法的不足

    常規(guī)YOLOV3先驗框尺寸針對COCO數(shù)據(jù)集,不符合拉索表面缺陷特征;拉索表面缺陷尺度多變、類別較少,且與顏色無關(guān),常規(guī)YOLOV3的DarkNet53網(wǎng)絡(luò)層數(shù)冗余較大,特征金字塔結(jié)構(gòu)多尺度信息學習能力不足;縫隙缺陷與損傷缺陷中的條狀損傷類似,缺陷尺度多變,預(yù)測框回歸位置不精確,常規(guī)YOLOV3分辨效果不好。

    因此,需對常規(guī)YOLOV3先驗框選取,網(wǎng)絡(luò)框架結(jié)構(gòu)以及損失函數(shù)進行改進,從而滿足拉索表面缺陷檢測要求。

    3 YOLOV3算法改進

    3.1 先驗框選取

    先驗框尺寸影響模型訓練的預(yù)測效率和準確率。YOLOV3引入了Faster R-CNN的先驗框機制,但常規(guī)YOLOV3算法先驗框尺寸針對COCO數(shù)據(jù)集,見表1,不符合拉索表面缺陷特征。通過分析數(shù)據(jù)集圖像中各缺陷尺寸特點,以平均交并比(Avg_IOU)作為評價標準,從數(shù)據(jù)集中隨機抽取數(shù)據(jù)樣本,采用K-Means[17]聚類算法對樣本數(shù)據(jù)進行聚類分析,獲得更符合缺陷特征的先驗框。Avg_IOU計算式為

    式中:T為樣本中標注的真實框,I e為聚類框,k為設(shè)置的聚類框數(shù)目,N為樣本數(shù)據(jù)中真實框數(shù)目,N k為第k個聚類框?qū)?yīng)的樣本數(shù)量,fIOU為計算聚類框和真實框交并比的函數(shù)。

    k取值1~10,對數(shù)據(jù)樣本進行先驗框聚類試驗,結(jié)果如圖3所示。

    圖3 聚類試驗結(jié)果

    由圖3中可以看出,當k較小時,Avg_IOU隨k增大逐漸增大,但增長速度逐漸減小,當k≥9時,Avg_IOU增長速度趨近于0,Avg_IOU趨于最大值。由于k大于9影響算法收斂速度[18],取k=9,即通過聚類分析得到9種先驗框尺寸,如表2所示。

    表2 改進YOLOV3先驗框尺寸

    3.2 網(wǎng)絡(luò)結(jié)構(gòu)改進

    常規(guī)YOLOV3網(wǎng)絡(luò)針對COCO數(shù)據(jù)集中復雜的種類特征,采用較多的網(wǎng)絡(luò)層數(shù)完成語義信息學習??紤]到拉索表面缺陷種類較少、缺陷識別與顏色無關(guān)、檢測實時性要求高等因素,削減DarkNet53網(wǎng)絡(luò)層數(shù),將主干網(wǎng)絡(luò)中融合的殘差塊數(shù)量減少至15,能夠在不影響缺陷識別精度的同時,大幅度提高識別效率。在特征金字塔結(jié)構(gòu)中,雖然常規(guī)YOLOV3網(wǎng)絡(luò)采用類似FPN的上采樣加融合方法,提高了中、小尺度物體預(yù)測能力,但拉索表面缺陷尺度信息非常豐富,常規(guī)YOLOV3依然存在漏檢和錯檢。針對此問題,引入SPP-Net[19]中SPP(Spatial Pyramid Pooling)結(jié)構(gòu),如圖4所示。

    圖4 SPP結(jié)構(gòu)示意圖

    SPP結(jié)構(gòu)分為兩部分,一部分通過5×5、9×9、13×13尺寸的最大池化層,另一部分通過快捷鏈路與池化后的結(jié)果進行通道堆疊。通過多重感受野特征融合,能夠聚合不同區(qū)域中最顯著的上下文信息,使網(wǎng)絡(luò)有效學習多尺度拉索表面缺陷特征。Dark-Net53中的第五個殘差塊后接SPP結(jié)構(gòu),通過五次卷積調(diào)整通道數(shù)并進一步提取特征,卷積后的結(jié)果一部分用于Y1特征圖預(yù)測,一部分通過卷積和上采樣應(yīng)用至后續(xù)預(yù)測;Y2和Y3特征圖前設(shè)置SPP結(jié)構(gòu)用于提升中、小尺寸目標預(yù)測精度。改進后的網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

    圖5 改進的YOLOV3網(wǎng)絡(luò)結(jié)構(gòu)

    3.3 損失函數(shù)設(shè)計

    常規(guī)YOLOV3損失函數(shù)由預(yù)測框回歸損失、置信度分數(shù)損失和分類損失三部分組成,預(yù)測框回歸損失直接使用IOU作為損失函數(shù),雖然可提高預(yù)測框回歸質(zhì)量,具有尺度不變性,但存在以下問題:

    ①預(yù)測框和真實框如果無交集,二者無論距離多遠,IOU均為0,模型無法優(yōu)化無重疊預(yù)測框和真實框。

    ②收斂慢,回歸不準確。

    ③無法完整體現(xiàn)YOLO算法預(yù)測框特點,優(yōu)秀的預(yù)測框回歸損失應(yīng)該包含三個要素:交集區(qū)域面積、中心點間距和寬高比[20],IOU回歸損失只考慮了交集區(qū)域面積。

    針對上述問題,引入CIOU作為預(yù)測框回歸損失,CIOU包含回歸損失的三要素,預(yù)測框回歸更精確,由于規(guī)定了與真實框的最小標準化距離,加快了函數(shù)收斂速度。圖6為CIOU計算示意圖,采用式(6)計算。

    式中:d2(b gt,b)為真實框中心點和預(yù)測框中心點的歐氏距離,即圖6中的D;c為同時包圍預(yù)測框和真實框的最小包圍框的對角線距離,即圖6中的C。α為正值權(quán)衡參數(shù),見式(7)。q用于衡量寬高比一致性,采用式(8)計算,w gt和h gt分別表示真實框的寬和高,w和h分別表示預(yù)測框的寬和高。

    圖6 CIOU計算示意圖

    采用式(9)計算預(yù)測框回歸損失,CIOU越大,回歸損失越小,預(yù)測框越準確。預(yù)測框回歸損失Coordloss、置信度損失Confloss和原分類損失Classloss分別采用式(9)、式(10)和式(11)計算。

    式中:表示第i個網(wǎng)格中的第j個預(yù)測框是否包含物體,包含物體fobji j置1,否則置0。s表示圖像劃分的網(wǎng)格數(shù),B表示單個網(wǎng)格包含的預(yù)測框數(shù),C為缺陷種類數(shù),p為屬于某一類的概率,c為缺陷種類編號,λnoobj為懲罰系數(shù)。

    由于拉索表面缺陷中條狀損傷和縫隙較為相似,常規(guī)YOLOV3分類效果不好,需增大分類損失在損失函數(shù)中的權(quán)重系數(shù)λclass,提升分類精度,修改后的分類損失函數(shù)為

    經(jīng)試驗可知,λclass=1.5時,分類效果較好。綜合式(9)、式(10)和式(12)得到網(wǎng)絡(luò)總損失函數(shù)。

    4 缺陷檢測實驗

    4.1 實驗樣機和數(shù)據(jù)集

    由于拉索表面缺陷沒有公開的數(shù)據(jù)集,并且實地采集困難,采用與拉索表面外觀相近的PVC管材模擬拉索保護套常見的三種缺陷,孔洞、縫隙、損傷。

    如圖7所示,四個攝像頭均勻設(shè)置在爬升機構(gòu)上,無線信號接收機接收發(fā)射機傳回的圖像數(shù)據(jù),畫面分割器將四路視頻信號轉(zhuǎn)換成單路視頻信號,通過圖像采集卡輸入計算機。

    圖7 圖像檢測系統(tǒng)

    圖8為圖像檢測系統(tǒng)各個模塊。圖8(a)為圖像采集模塊,包含CCD和鏡頭,CCD采用順華利電子有限公司的SHL-019,500萬像素,最大分辨率1920*1080;鏡頭選用定焦5 mm,C接口參數(shù)為2/3的工業(yè)鏡頭,鏡頭中心與拉索表面距離約110 mm。四個圖像采集模塊互成90°設(shè)置,采集拉索周向表面圖像。

    圖8(b)為無線圖傳模塊,包括四個發(fā)射機Ⅰ和一個接收機Ⅱ,每個發(fā)射機與對應(yīng)的圖像采集模塊連接,外置電池供電。接收機接收四路發(fā)射機信號后輸出四路HDMI信號。發(fā)射機和接收機之間有效傳輸距離為500 m,視頻畫面清晰度1080p,傳輸時間小于150 ms,滿足實時性要求。

    圖8(c)為圖像后處理模塊,Ⅰ為MT-VIKI畫面分割器,將接收的四路信號轉(zhuǎn)換成單路信號,在單個屏幕上同時顯示拉索表面周向圖像。Ⅱ為圖像采集卡,將畫面分割器輸出的HDMI信號轉(zhuǎn)換成USB信號輸入計算機。

    圖8 圖像檢測系統(tǒng)各模塊

    計算機硬件環(huán)境:CPU為Intel i5 8th;顯卡為NVIDIA GEFORCE GTX 1050Ti,顯存4G;內(nèi)存16G。算法開發(fā)基于Windows10系統(tǒng),采用VSCODE開發(fā)環(huán)境,Python3.6開發(fā)語言,Pytorch1.2深度學習框架和開源算法庫OpenCV4.1。

    為了提高模型訓練結(jié)果的魯棒性,通過更換PVC管、改變拍攝角度和攝像頭相對位置獲取更多的圖像數(shù)據(jù),得到3 000張隨機包含孔洞、縫隙、損傷三種缺陷圖像,并按5∶1隨機劃分為訓練集和測試集。采用LabelImg對圖像中包含的缺陷進行標注,標注界面如圖9所示,輸出包含缺陷位置、種類等信息的xml文件。

    圖9 LabelImg標注界面

    4.2 評價指標

    為了檢驗改進YOLOV3缺陷識別效果,選取目標檢測領(lǐng)域中主流檢測指標對模型進行性能評估。假設(shè)T C為屬于當前類別并被正確劃分為該類別的缺陷數(shù)量;F C為屬于其他類別但是被錯誤劃分到當前類別的缺陷數(shù)量;F N為屬于當前類別但被錯誤劃分到其他類別的缺陷數(shù)量。定義如下指標:

    ①精確率P e

    ②召回率R

    ③F1分數(shù)

    ④P-R曲線的面積,AP

    ⑤均精度值,mAP

    為了綜合考慮精確率和召回率,引入AP值概念,其量化方式為P-R曲線所包圍的面積,AP值越高,分類性能越好。對于多分類場合,采用mAP對分類性能進行評價。

    4.3 網(wǎng)絡(luò)訓練

    對改進后YOLOV3算法使用GPU進行訓練,采用Adam優(yōu)化器,Batch_size設(shè)置為4,初始學習率設(shè)置為0.001,學習率衰減系數(shù)設(shè)置為0.000 5。網(wǎng)絡(luò)模型共迭代400次,迭代訓練的損失值變化如圖10所示??梢钥闯觯?0次迭代中,損失曲線下降速度非??欤^續(xù)訓練至100個世代后,損失值變化趨于穩(wěn)定,最終收斂于0.4左右。

    圖10 損失值-迭代次數(shù)曲線

    4.4 檢測實驗

    將訓練好的模型在測試集上測試,通過增加圖像中缺陷數(shù)量,對比改進YOLOV3算法與常規(guī)YOLOV3算法的識別效果。檢測結(jié)果如圖11所示。圖11(Ⅰ):改進YOLOV3預(yù)測框定位較常規(guī)YOLOV3更準確,表明將IOU進化成CIOU作為預(yù)測框回歸損失提高了缺陷定位準確性。圖11(Ⅱ):由于靠下的縫隙缺陷和長條狀損傷缺陷相似度較高,常規(guī)YOLOV3出現(xiàn)誤判,改進YOLOV3由于增大了分類損失權(quán)重,可以準確判別。圖11(Ⅲ):常規(guī)YOLOV3將兩處損傷缺陷識別成四個,缺陷定位不準確,部分預(yù)測框沒有完全包圍缺陷輪廓,改進YOLOV3定位精確,無錯檢和漏檢。圖11(Ⅳ):常規(guī)YOLOV3出現(xiàn)漏檢,并且將單個縫隙缺陷錯分成兩個,改進YOLOV3由于增加了SPP結(jié)構(gòu),增強了多尺度特征學習能力,沒有出現(xiàn)錯檢和漏檢。由此可見,算法改進有效可行,改進后的YOLOV3比常規(guī)YOLOV3更準確。

    圖11 模型效果對比圖

    檢測實驗定性表明了改進YOLOV3識別效果優(yōu)于常規(guī)YOLOV3,現(xiàn)定量分析常規(guī)YOLOV3和三種改進方法的測試結(jié)果。采用劃分好的測試集進行測試,測試集隨機包含Ⅰ類缺陷(孔洞)、Ⅱ類缺陷(縫隙)以及Ⅲ類缺陷(損傷)。三種改進方法分別為:改進先驗框(方法1);改進先驗框尺寸和調(diào)整損失函數(shù)(方法2);修改網(wǎng)絡(luò)結(jié)構(gòu)并改進先驗框尺寸、調(diào)整損失函數(shù)(方法3)。精度指標采用單分類精度AP、多分類精度mAP和算法優(yōu)劣評價指標F1分數(shù),速度指標采用視頻幀率FPS進行評估,測試結(jié)果如表3所示。

    表3 分類精度和速度表

    可以看出,相對于常規(guī)YOLOV3,方法2各類缺陷的AP值、mAP指數(shù)和F1分數(shù)均有所提升,表明調(diào)整后先驗框尺寸更符合拉索表面數(shù)據(jù)集的圖像特征。方法2相對于方法1和常規(guī)YOLOV3,各項指標均有所提高,表明采用CIOU作為預(yù)測框回歸損失,增大分類損失在總損失中的權(quán)重有助于提高分類精度。方法3在改進損失函數(shù)和調(diào)整先驗框的同時,精簡主干特征提取網(wǎng)絡(luò)提高了檢測效率,并通過在特征金字塔中添加SPP結(jié)構(gòu),融合了不同感受野的顯著特征,提升了網(wǎng)絡(luò)檢測精度,相對于方法2、方法1以及常規(guī)YOLOV3,方法3檢測精度和速度均有一定程度提高,可夠滿足拉索缺陷檢測精度和實時性需求。

    4.5 不同算法檢測結(jié)果對比

    選用目標檢測領(lǐng)域中主流的檢測算法:Faster R-CNN、常規(guī)YOLOV3和改進YOLOV3在測試集中進行試驗對比,精度指標選用mAP,速度指標采用視頻幀率FPS,試驗對比結(jié)果如表4所示??梢钥闯?,兩階段檢測的Faster R-CNN結(jié)構(gòu)復雜、耗時較長、不能滿足拉索檢測實時性需求,改進YOLOV3相對于常規(guī)YOLOV3、Faster R-CNN精度和速度均更優(yōu)。

    表4 不同模型測試性能對比

    5 結(jié)論

    提出了基于改進YOLOV3的拉索表面缺陷檢測方法。利用K-Means聚類算法對數(shù)據(jù)集進行聚類分析,得到合適的先驗框尺寸和數(shù)量;通過精簡主干特征提取網(wǎng)絡(luò)的殘差塊數(shù)量提高檢測效率,在Dark-Net53結(jié)構(gòu)第五個殘差塊的輸出以及Y2和Y3特征圖前分別設(shè)置SPP結(jié)構(gòu),融合不同感受野的特征信息提升網(wǎng)絡(luò)整體預(yù)測精度;引入CIOU作為預(yù)測框回歸損失,提升預(yù)測框定位精度,針對實際分類效果較差問題,增大了分類損失權(quán)重,提高分類精度。經(jīng)過一系列迭代訓練,在測試集中與常規(guī)YOLOV3和Faster R-CNN進行性能對比。試驗結(jié)果表明,改進YOLOV3檢測效率和精度均優(yōu)于前兩者,mAP和FPS指數(shù)分別達到了93.7%和17,滿足拉索缺陷檢測精度和實時性需求。改進YOLOV3可以為拉索運行狀態(tài)評估提供參考,同時可用于型材劃痕檢測、高空管道檢測以及地下管線檢測等領(lǐng)域。

    猜你喜歡
    先驗拉索殘差
    “拉索”精確測量最亮伽馬暴
    軍事文摘(2024年4期)2024-03-19 09:40:02
    基于雙向GRU與殘差擬合的車輛跟馳建模
    手緩解拉索優(yōu)化設(shè)計
    基于殘差學習的自適應(yīng)無人機目標跟蹤算法
    基于無噪圖像塊先驗的MRI低秩分解去噪算法研究
    基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
    自動化學報(2019年6期)2019-07-23 01:18:32
    基于自適應(yīng)塊組割先驗的噪聲圖像超分辨率重建
    自動化學報(2017年5期)2017-05-14 06:20:44
    基于平滑先驗法的被動聲信號趨勢項消除
    先驗的廢話與功能的進路
    東南法學(2015年2期)2015-06-05 12:21:36
    平穩(wěn)自相關(guān)過程的殘差累積和控制圖
    河南科技(2015年8期)2015-03-11 16:23:52
    锦屏县| 万宁市| 黄龙县| 万源市| 尖扎县| 滁州市| 桦南县| 保德县| 襄汾县| 思茅市| 阿瓦提县| 浪卡子县| 尼玛县| 潢川县| 东安县| 昌吉市| 区。| 金平| 湟中县| 马边| 彭山县| 房产| 全州县| 察隅县| 衡东县| 蓬安县| 驻马店市| 宾阳县| 肇东市| 通海县| 桐乡市| 黑山县| 纳雍县| 城固县| 柞水县| 玉门市| 马鞍山市| 漠河县| 周宁县| 鸡西市| 通城县|