• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于CBAM-VMFC模型的化纖絲餅質(zhì)量缺陷識(shí)別

      2024-01-11 00:51:46李劍鋒
      毛紡科技 2023年12期
      關(guān)鍵詞:注意力準(zhǔn)確率卷積

      俞 璇,李劍鋒

      (中國(guó)計(jì)量大學(xué) 經(jīng)濟(jì)與管理學(xué)院, 浙江 杭州 310018)

      化纖作為一種常用材料被廣泛應(yīng)用于服裝、航空、醫(yī)療等各個(gè)領(lǐng)域,但我國(guó)化纖生產(chǎn)領(lǐng)域的管理水平、生產(chǎn)流程以及生產(chǎn)輔助技術(shù)仍處于相對(duì)落后的階段[1]。

      受限于設(shè)備數(shù)字化程度較低和研發(fā)資金不足等,化纖產(chǎn)品的質(zhì)量檢驗(yàn)主要依靠檢驗(yàn)員人眼識(shí)別[2],具有極強(qiáng)的不穩(wěn)定性,人工接觸的檢測(cè)方式也有可能為絲餅帶來(lái)二次損傷。此外,傳統(tǒng)的圖像識(shí)別技術(shù)也存在特征量化困難、識(shí)別能力較弱等問(wèn)題,難以滿足工業(yè)要求[3]。

      隨著工業(yè)4.0時(shí)代的到來(lái)以及高性能芯片、云計(jì)算平臺(tái)的出現(xiàn),機(jī)器視覺(jué)算法日臻成熟,其領(lǐng)域從電子元件疵點(diǎn)識(shí)別[4]逐漸擴(kuò)展到汽車質(zhì)檢[5]、自動(dòng)駕駛[6]、人臉識(shí)別[7]、機(jī)器人分揀[8]、車牌標(biāo)識(shí)[9]等。相對(duì)于傳統(tǒng)圖像識(shí)別技術(shù),基于深度學(xué)習(xí)的機(jī)器視覺(jué)技術(shù)在及時(shí)性、準(zhǔn)確性、抗干擾性上有顯著提升,系統(tǒng)硬件設(shè)備也更具優(yōu)勢(shì)。因此,運(yùn)用人工智能技術(shù)實(shí)現(xiàn)紡織設(shè)備數(shù)字化、網(wǎng)絡(luò)化和智能化[10]已是大勢(shì)所趨。

      當(dāng)前,國(guó)內(nèi)在化纖紡織領(lǐng)域中,缺陷研究主要?dú)v經(jīng)3個(gè)階段,從長(zhǎng)絲斷頭識(shí)別[1,11]到絲餅表面缺陷,再到織物疵點(diǎn)研究[12-14]?;谟?jì)算機(jī)設(shè)備和圖像技術(shù)的機(jī)器視覺(jué)檢測(cè)技術(shù)逐步提升,絲餅表面缺陷識(shí)別也有了新的研究突破。郭根[15]以搭建硬件平臺(tái)為基礎(chǔ),通過(guò)單方向凸包和支持向量機(jī)(SVM)檢測(cè)絲餅毛羽,并結(jié)合打光技術(shù)以DoG算法和坐標(biāo)序列法檢測(cè)絲餅油污與凹陷問(wèn)題。景軍鋒等[16]通過(guò)分析梯度空間下圖像信息熵和能量變動(dòng)差異,設(shè)置閾值識(shí)別絲餅污漬、壓痕、飄絲三大缺陷。然而,此類方法均需根據(jù)特定數(shù)據(jù)庫(kù)提取特定匹配特征,二者具有極強(qiáng)的相關(guān)性,一旦更換原始輸入圖片,則需重新提取特征,通用性與普適性較弱,且識(shí)別過(guò)程需要依照缺陷數(shù)目單獨(dú)設(shè)置模型用于檢測(cè),沒(méi)有集成的多分類視覺(jué)模型。

      相較于傳統(tǒng)的機(jī)器視覺(jué)算法,深度學(xué)習(xí)方法可以將數(shù)據(jù)直接傳遞到網(wǎng)絡(luò),利用卷積層自動(dòng)提取缺陷圖像的特征[17],并通過(guò)小批量梯度下降優(yōu)化模型損失函數(shù),得到滿足需求的檢測(cè)結(jié)果。吳旭東等[18]基于卷積神經(jīng)網(wǎng)絡(luò),提出DVYC分類模型,通過(guò)卷積核的分離、通道的變換等操作,實(shí)現(xiàn)細(xì)紗斷頭檢測(cè)。王澤霞等[19]以AlexNet為網(wǎng)絡(luò)基礎(chǔ),通過(guò)全局最大池化法將絆絲、成型不良、油污3類缺陷的識(shí)別準(zhǔn)確率提升至97.1%,雖然該方法對(duì)成型、污漬類大面積缺陷有著顯著的識(shí)別率,但其對(duì)于毛絲類小面積缺陷檢測(cè)的成果仍有待校驗(yàn)。

      為適配我國(guó)“智能制造2025”中智能改造、精準(zhǔn)制造的要求,本文研究遵循智能化發(fā)展應(yīng)與現(xiàn)有生產(chǎn)設(shè)備適配的內(nèi)在邏輯,針對(duì)化纖絲餅生產(chǎn)制造過(guò)程中的毛絲、絆絲、紙管破損三大主要缺陷,設(shè)計(jì)基于混合注意力機(jī)制(CBAM)和改進(jìn)全連接層的VGG網(wǎng)絡(luò)(Convolutional Block Attention Module-VGG with Modified Fully Connected Layer,CBAM-VMFC)模型,以改進(jìn)的機(jī)器視覺(jué)技術(shù)提高絲餅表面缺陷識(shí)別率,以高效的質(zhì)量控制技術(shù)保證絲餅檢測(cè)的準(zhǔn)確性和實(shí)時(shí)性,提高企業(yè)核心競(jìng)爭(zhēng)力。

      1 研究設(shè)計(jì)

      毛絲、絆絲、紙管破損是絲餅出庫(kù)前的三大主要缺陷,也是衡量化纖絲餅質(zhì)量的重要指標(biāo)之一,圖1為3種缺陷的局部放大效果。在產(chǎn)品包裝出庫(kù)前運(yùn)用機(jī)器視覺(jué)算法篩除帶有這3種缺陷的絲餅,能保證產(chǎn)品的質(zhì)量精度需求,對(duì)企業(yè)的建設(shè)與發(fā)展有著重要的現(xiàn)實(shí)意義。

      圖1 3種缺陷

      1.1 研究樣本

      本文實(shí)驗(yàn)所需的圖像來(lái)源于國(guó)內(nèi)某家500強(qiáng)企業(yè)。以本文實(shí)驗(yàn)為例,探索深度學(xué)習(xí)技術(shù)賦能化纖絲餅的質(zhì)量控制,對(duì)紡織領(lǐng)域的其他紗線或織物的缺陷識(shí)別也具有一定的參考價(jià)值。

      樣本的選取遵照抽樣原則[20]。絲餅的缺陷種類較多,根據(jù)FZ/T 50054—2021《化學(xué)纖維 長(zhǎng)絲卷裝外觀在線智能檢測(cè)》,目前在生產(chǎn)過(guò)程中出現(xiàn)的外觀疵點(diǎn)主要有17種。從9種型號(hào)的絲餅中隨機(jī)抽取樣本進(jìn)行拍照,基于工人經(jīng)驗(yàn)比照正常樣本,對(duì)毛絲、絆絲、紙管破損3種缺陷進(jìn)行標(biāo)簽標(biāo)注,用于缺陷數(shù)據(jù)集的構(gòu)建。

      1.2 研究方法

      鑒于當(dāng)前絲餅表面缺陷多分類識(shí)別問(wèn)題的不足,本文提出一種基于深度學(xué)習(xí)的機(jī)器視覺(jué)技術(shù),實(shí)現(xiàn)絲餅質(zhì)量缺陷的智能診斷過(guò)程。具體研究?jī)?nèi)容包括數(shù)據(jù)預(yù)處理過(guò)程和模型設(shè)計(jì)與實(shí)驗(yàn)對(duì)比2個(gè)方面。

      數(shù)據(jù)預(yù)處理過(guò)程:將毛絲、絆絲和紙管破損的單通道灰度缺陷圖像混合輸入并打亂樣本,通過(guò)數(shù)據(jù)集隨機(jī)化保證模型泛化能力,對(duì)缺陷樣本實(shí)行過(guò)采樣緩解采集數(shù)據(jù)類別不平衡的問(wèn)題。

      模型設(shè)計(jì)與實(shí)驗(yàn)對(duì)比:為論證模型改進(jìn)的有效性,本文通過(guò)與原始VGG[21]模型的消融實(shí)驗(yàn)對(duì)比,檢驗(yàn)全連接(FC)層改進(jìn)、CBAM混合注意力機(jī)制[22]加入的效益。

      ① VMFC模型。將VGG11模型最后的全連接層調(diào)整為大小256和1的2個(gè)FC層,并在2個(gè)FC層之間運(yùn)用Dropout方法防止過(guò)擬合。在此將改進(jìn)全連接層后的網(wǎng)絡(luò)命名為VMFC(VGG with Modified Fully Connected Layer),驗(yàn)證改進(jìn)后的卷積網(wǎng)絡(luò)模型的識(shí)別準(zhǔn)確率。

      ② CBAM-VGG模型。加入CBAM混合注意力機(jī)制,在圖像空間和通道雙維度上進(jìn)行權(quán)重分配,捕獲和強(qiáng)化數(shù)據(jù)空間內(nèi)重要區(qū)域的特征。在此將添加了CBAM模塊的VGG網(wǎng)絡(luò)命名為CBAM-VGG(Convolutional Block Attention Module-VGG),驗(yàn)證混合注意力機(jī)制對(duì)VGG11模型的改進(jìn)效果。

      ③ CBAM-VMFC模型。將全連接層的改進(jìn)和混合注意力機(jī)制全部加于原始VGG11模型。

      將VGG11模型、VMFC模型、CBAM-VGG模型和本文算法CBAM-VMFC進(jìn)行比較,基于消融實(shí)驗(yàn)的結(jié)果,論證模型改進(jìn)的有效性。

      1.3 研究意義

      絲餅運(yùn)輸至倉(cāng)庫(kù)存儲(chǔ)后,傳統(tǒng)企業(yè)的絲餅外觀質(zhì)量缺陷檢測(cè)流程是由工人對(duì)制造完成的絲餅進(jìn)行外觀勘測(cè),發(fā)現(xiàn)缺陷后填寫表單并分類降等,最后包裝出庫(kù),完成產(chǎn)品交付。智能改進(jìn)路線運(yùn)用基于深度學(xué)習(xí)的機(jī)器視覺(jué)技術(shù),只需要智能質(zhì)檢和智能評(píng)級(jí)2步,即可高效識(shí)別絲餅外觀缺陷,對(duì)瑕疵絲餅予以降等處理,并將降等絲餅的托盤號(hào)、批號(hào)、缺陷類型等實(shí)時(shí)更新至數(shù)據(jù)庫(kù),便于人工復(fù)核。對(duì)數(shù)據(jù)庫(kù)中某時(shí)間段或某批號(hào)絲餅的降等信息進(jìn)行分析,當(dāng)出現(xiàn)異常降等數(shù)和異常缺陷標(biāo)記時(shí)立刻警示,反饋至前道工序,查看故障來(lái)源?;w絲餅生產(chǎn)質(zhì)量控制流程對(duì)比如圖2所示。智能質(zhì)檢和智能評(píng)級(jí)操作精簡(jiǎn)了傳統(tǒng)的企業(yè)質(zhì)量控制流程,能有效降低2類誤判的產(chǎn)生,在提高檢測(cè)精度、提高檢測(cè)效率的同時(shí),節(jié)約人力成本,滿足企業(yè)遠(yuǎn)程智能化管理互聯(lián)互通的需求。

      圖2 化纖絲餅生產(chǎn)質(zhì)量控制流程對(duì)比

      2 圖像采集與預(yù)處理

      采用分辨率為2 448像素×2 048像素的工業(yè)CMOS相機(jī)(型號(hào)DFK33GX264e,德國(guó)映美精公司)采集原始圖像。由于原始圖片像素值較高,且為符合神經(jīng)網(wǎng)絡(luò)的輸入尺寸設(shè)置,因此將輸入圖像尺寸設(shè)置為224像素×224像素。

      首先,基于專家經(jīng)驗(yàn)對(duì)采集到的圖片進(jìn)行標(biāo)簽標(biāo)注;然后將RBG三通道圖像轉(zhuǎn)化為單通道灰度圖以便神經(jīng)網(wǎng)絡(luò)運(yùn)算;其次,通過(guò)隨機(jī)旋轉(zhuǎn)等操作達(dá)到數(shù)據(jù)增強(qiáng)的效用,以數(shù)據(jù)集隨機(jī)化的方式保證模型泛化能力。由于數(shù)據(jù)集內(nèi)各類別樣本量的不平衡,因此需要對(duì)缺陷樣本實(shí)行過(guò)采樣,即從少數(shù)樣本中隨機(jī)重復(fù)采樣擴(kuò)充樣本容量的方法,緩解采集數(shù)據(jù)類別不平衡的問(wèn)題。

      3 CBAM-VMFC模型的構(gòu)建

      神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的核心組成,卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)均在深度學(xué)習(xí)中應(yīng)用廣泛。深度卷積神經(jīng)網(wǎng)絡(luò)(AlexNet)、使用塊的卷積神經(jīng)網(wǎng)絡(luò)(VGG11)、殘差卷積神經(jīng)網(wǎng)絡(luò)(ResNet50)等均為CNN模型,被用于大型數(shù)據(jù)集的圖像分類探索[22-23]。

      VGG模型最初由牛津大學(xué)的K. Simonyan和A. Zisserman在LSVRC-2014(ImageNet視覺(jué)識(shí)別競(jìng)賽)中提出,該模型以92.7%的準(zhǔn)確率位列本地化領(lǐng)域榜首和分類領(lǐng)域的榜二。Simonyan和Zisserman經(jīng)過(guò)大量的對(duì)比試驗(yàn),發(fā)現(xiàn)通過(guò)小的卷積層增加網(wǎng)絡(luò)的深度,可以顯著提高模型的準(zhǔn)確性。因此,本研究以VGG11為網(wǎng)絡(luò)基礎(chǔ),如圖3所示,通過(guò)其中的8層卷積層和5層池化層完成特征提取,通過(guò)最后的全連接層完成圖像分類[24]。

      圖3 CBAM-VMFC模型

      由于全連接結(jié)構(gòu)會(huì)使得網(wǎng)絡(luò)參數(shù)過(guò)多,檢測(cè)速度下降,因此將VGG11模型最后的3個(gè)全連接層調(diào)整為節(jié)點(diǎn)大小256和1的2個(gè)全連接層,有效減少全連接層的網(wǎng)絡(luò)參數(shù)計(jì)算量,并通過(guò)Dropout方法防止模型過(guò)擬合。此外,由于毛絲缺陷屬于小面積缺陷模型,也需要提高模型特征檢測(cè)水平,因此在網(wǎng)絡(luò)中加入混合注意力機(jī)制,捕獲重要區(qū)域特征,使模型達(dá)到更高的檢測(cè)效率。

      3.1 全連接層的改進(jìn)和Dropout方法的加入

      深度學(xué)習(xí)的改進(jìn)思路之一就是在不改變輸入或輸出大小的情況下,以模型有效性為基準(zhǔn)實(shí)現(xiàn)參數(shù)的節(jié)約[25]和計(jì)算量的減少。VGG模型的全連接模塊主要由3個(gè)全連接層構(gòu)成,參數(shù)量較大,因此本文將全連接模塊改進(jìn)為2個(gè)FC層,并調(diào)整節(jié)點(diǎn)數(shù)量以實(shí)現(xiàn)改進(jìn)目的,優(yōu)化模型運(yùn)行進(jìn)程。

      卷積后得到的特征圖經(jīng)由展平(Flatten)操作,化為一維向量輸入全連接層,為分類器提供輸入。展開特征圖中的每個(gè)向量都與后一層節(jié)點(diǎn)相連。設(shè)全連接層為輸入值Q和輸出值P的圖層,權(quán)重W儲(chǔ)存在Q×P的矩陣中,全連接層的計(jì)算量為:

      y=matmul(x,W)+b

      (1)

      式中:x表示輸入值Q的向量;W是包含圖層權(quán)重的Q×P矩陣;b是P偏差值的向量;y為計(jì)算的參數(shù),其大小為(P,1),其參數(shù)量為權(quán)重W與偏置b的總和。

      矩陣乘法matmul(x,W)的具體表示如下:

      (2)

      當(dāng)特征數(shù)高于樣本數(shù)時(shí),線性模型會(huì)出現(xiàn)較高的偏差和較低的方差,這種泛化性和靈活性之間權(quán)衡被描述為偏差-方差權(quán)衡(bias-variance tradeoff)。在神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)中,盡管案例樣本數(shù)遠(yuǎn)大于特征數(shù),深度神經(jīng)網(wǎng)絡(luò)仍有過(guò)擬合的風(fēng)險(xiǎn),因此需要上述2個(gè)全連接層之間運(yùn)用Dropout方法,在每輪批次中隨機(jī)讓網(wǎng)絡(luò)的部分隱層節(jié)點(diǎn)值為0,減少神經(jīng)元之間共適應(yīng)(co-adaption)性,保證網(wǎng)絡(luò)前項(xiàng)傳播的過(guò)程中模型更強(qiáng)的泛化效果,防止過(guò)擬合。

      3.2 混合注意力機(jī)制

      注意力機(jī)制(Attention Mechanism)借鑒了人類視覺(jué)特性,聚焦于局部信息的顯著部分并賦予權(quán)重,通過(guò)不同區(qū)域的信息整合,從而形成對(duì)被觀察對(duì)象的整體記錄。

      Itti等[26]在計(jì)算機(jī)視覺(jué)領(lǐng)域引入注意力機(jī)制,通過(guò)動(dòng)態(tài)神經(jīng)網(wǎng)絡(luò)以顯著性高低選擇重點(diǎn)區(qū)域。Mnih等[27]首次在循環(huán)神經(jīng)網(wǎng)絡(luò)RNN模型上運(yùn)用注意力機(jī)制實(shí)現(xiàn)圖像分類。Fu等[28]提出一種基于CNN模型的循環(huán)注意力卷積神經(jīng)網(wǎng)絡(luò)RA-CNN,通過(guò)網(wǎng)絡(luò)遞歸分析局部信息,并根據(jù)子區(qū)域的預(yù)測(cè)整合完成整張圖片的分類預(yù)測(cè)。注意力機(jī)制主要有軟注意(全局注意)、硬注意(局部注意)和自注意(內(nèi)注意)3大類。軟注意力屬于確定性的注意力,具有可微分的特性,因此能運(yùn)用神經(jīng)網(wǎng)絡(luò)算出梯度并且通過(guò)前向傳播和后向反饋來(lái)學(xué)習(xí)得到注意力的權(quán)重。在卷積神經(jīng)網(wǎng)絡(luò)中,軟注意機(jī)制主要有空間域、通道域和混合域三大注意力域,因而分別對(duì)應(yīng)空間注意力模型、通道注意力模型、空間和通道混合注意力模型3種模型。

      (3)

      圖4 通道注意力模塊

      式中:W0和W1為MLP模型的2次卷積后的權(quán)重;σ表示Sigmoid激活函數(shù)。

      (4)

      式中:f7×7表示7×7大小卷積核的卷積操作。

      本文采用混合注意力CBAM模型,通過(guò)池化操作獲得通道域和空間域的權(quán)重,并以串行形式完成權(quán)重與特征元素的相乘,最后對(duì)輸入的特征圖和輸出的特征圖進(jìn)行逐元素相加,得到混合注意力特征圖M∈H×W×C(如圖6所示)。

      圖6 混合注意力機(jī)制

      4 實(shí)驗(yàn)結(jié)果與分析

      本文實(shí)驗(yàn)由16 G顯存大小的GeForce RTX 2080 Ti顯卡驅(qū)動(dòng),在Windows10操作系統(tǒng)上,調(diào)用Pytorch1.8深度學(xué)習(xí)框架完成網(wǎng)絡(luò)調(diào)試工作,以CUDA11.0為架構(gòu),采用Python3.8.5版本進(jìn)行程序編寫。

      4.1 實(shí)驗(yàn)數(shù)據(jù)集

      本文實(shí)驗(yàn)累計(jì)拍攝圖片總數(shù)37 179張,其中合格樣本圖像14 572張,毛絲樣本圖像19 242張,絆絲樣本圖像1 732張,紙管破損樣本圖像1 633張。將標(biāo)簽標(biāo)注好的正常樣本和缺陷樣本進(jìn)行混合,4類樣本各選取200張作為測(cè)試集用于最后的結(jié)果評(píng)價(jià),提取剩余的數(shù)據(jù)按照8∶2的比例劃分訓(xùn)練集與驗(yàn)證集,用以模型訓(xùn)練和參數(shù)調(diào)整。

      4.2 參數(shù)設(shè)置

      設(shè)置模型每批次訓(xùn)練的樣本數(shù)量(Batch Size)為64,最大迭代次數(shù)(Epoch)為100,優(yōu)化器選擇帶動(dòng)量的隨機(jī)梯度下降SGD,動(dòng)量設(shè)置為0.9,學(xué)習(xí)率設(shè)置為1.5625e-3,前10次迭代開啟學(xué)習(xí)率預(yù)熱,保證模型在趨于穩(wěn)定后使用預(yù)設(shè)的學(xué)習(xí)率能加快收斂速度。

      4.3 評(píng)價(jià)指標(biāo)

      本文采用準(zhǔn)確率(Accuracy)P0、混淆矩陣、ROC(Receiver Operating Characteristic)曲線下的面積AUC(Area Under Roccurve)、kappa系數(shù)為評(píng)價(jià)指標(biāo),Pe為計(jì)算過(guò)程指標(biāo),表示偶然一致性。ROC曲線根據(jù)不同的分界值劃定二分類,其中TP(True Positive)表示正例被預(yù)測(cè)為正例,FN(False Negative)表示正例被預(yù)測(cè)為負(fù)例,FP(False Positive)表示負(fù)例被預(yù)測(cè)為正例,TN(True Negative)表示負(fù)例被預(yù)測(cè)為負(fù)例。其余公式如下:

      (5)

      (6)

      (7)

      4.4 實(shí)驗(yàn)結(jié)果

      模型訓(xùn)練的缺陷識(shí)別準(zhǔn)確率曲線和交叉熵?fù)p失值曲線如圖7、8所示,由于初期的學(xué)習(xí)率預(yù)熱,模型準(zhǔn)確率有較大的起伏變化,但隨著迭代次數(shù)的增加,網(wǎng)絡(luò)不斷優(yōu)化學(xué)習(xí),缺陷識(shí)別準(zhǔn)確率顯著提高,損失值逐漸減小,預(yù)測(cè)結(jié)果趨于穩(wěn)定。

      圖7 缺陷識(shí)別準(zhǔn)確率曲線

      圖8 交叉熵?fù)p失值曲線

      圖9為混淆矩陣,縱軸為真實(shí)標(biāo)簽,橫軸為預(yù)測(cè)標(biāo)簽,標(biāo)簽0表示合格圖像,標(biāo)簽1表示毛絲缺陷,標(biāo)簽2表示絆絲圖像,標(biāo)簽3表示紙管破損圖像。毛絲、絆絲圖像的識(shí)別準(zhǔn)確率均為100%,可見模型對(duì)于大、小面積缺陷均有著較高的檢測(cè)能力;由于紙管包裝存在圓圈花紋圖案,模型會(huì)造成誤判,因此紙管破損的識(shí)別水平相對(duì)較低,只有92.0%的準(zhǔn)確率。最終模型在測(cè)試集上的預(yù)測(cè)準(zhǔn)確率為97.5%,成果較為理想。

      圖9 混淆矩陣

      4.5 消融實(shí)驗(yàn)

      為了論證本文算法對(duì)絲餅表面缺陷識(shí)別的有效性,設(shè)計(jì)如下消融實(shí)驗(yàn)檢驗(yàn)不同模塊的改進(jìn)效用。

      4.5.1 全連接層的改進(jìn)

      原始VGG模型的全連接模塊由3個(gè)全連接組成,根據(jù)公式計(jì)算需要123 633 667個(gè)參數(shù),這使得網(wǎng)絡(luò)訓(xùn)練速度較慢。因此將VGG11模型最后的3個(gè)全連接層調(diào)整為大小256和1的2個(gè)全連接層,以實(shí)現(xiàn)參數(shù)量和計(jì)算量的減少。如表1所示,全連接層的參數(shù)總量從123 633 667降低至 6 422 529,模型整體的參數(shù)內(nèi)存減少440 MB。

      表1 全連接層改進(jìn)

      4.5.2 注意力模塊的添加

      混合注意力模型可以沿著獨(dú)立的通道維度和空間維度獲得二者權(quán)重,并進(jìn)行自適應(yīng)特征優(yōu)化,CBAM屬于輕量級(jí)的通用模塊,因此能忽略其參數(shù)成本將其集成到CNN架構(gòu)中進(jìn)行端到端的訓(xùn)練,具有廣泛的適用性。

      不同方法缺陷識(shí)別準(zhǔn)確率如圖10所示,改進(jìn)全連接層后VMFC模型的收斂速度較VGG11有著明顯的提升,同樣CBAM-VMFC的收斂速度也快于CBAM-VGG模型。

      圖10 方法對(duì)比

      隨著迭代周期的增加,CBAM-VMFC模型優(yōu)勢(shì)逐漸顯現(xiàn),其缺陷識(shí)別準(zhǔn)確率明顯高于其他3個(gè)模型,說(shuō)明網(wǎng)絡(luò)能夠準(zhǔn)確高效地提取圖片的關(guān)鍵特征信息并完成分類任務(wù)。

      CNN通過(guò)卷積層、池化層和全連接提取數(shù)據(jù)特征,完成圖像分類、語(yǔ)音識(shí)別等工作。而RNN則基于時(shí)間序列文本的長(zhǎng)期依賴關(guān)系,多應(yīng)用于自然語(yǔ)言處理等方面。為全面比較各類模型對(duì)化纖絲餅質(zhì)量缺陷的分類結(jié)果,本文添加深度學(xué)習(xí)中RNN領(lǐng)域的長(zhǎng)短期記憶模型(LSTM)、門控循環(huán)單元(GRU),同VGG11模型、VMFC模型、CBAM-VGG模型和CBAM-VMFC模型對(duì)圖像進(jìn)行訓(xùn)練對(duì)比,結(jié)果如表2所示。

      表2 測(cè)試集性能對(duì)比

      選取合格、毛絲、絆絲、紙管破損圖像各200張作為測(cè)試集,比較4類樣本的正確識(shí)別數(shù)量。根據(jù)測(cè)試集性能對(duì)比,RNN除參數(shù)內(nèi)存較小的優(yōu)勢(shì)外,在圖像分類上效果不及CNN模型。對(duì)比4個(gè)CNN模型的分類性能,全連接層的改進(jìn)使得VMFC以微弱的精度損失為代價(jià)提高了模型的檢測(cè)效率,CBAM輕量級(jí)模塊的加入,有效提高了模型對(duì)于合格類圖像和紙管破損圖像的識(shí)別效率,保證了模型在提升預(yù)測(cè)準(zhǔn)確率同時(shí)沒(méi)有計(jì)算量和參數(shù)量的負(fù)擔(dān),更好完成了毛絲、紙管破損的缺陷檢測(cè)識(shí)別工作。CBAM-VMFC對(duì)于合格圖像和絆絲圖像均有100%的識(shí)別成效,并于交叉熵?fù)p失、準(zhǔn)確率和kappa 3個(gè)方面指標(biāo)表現(xiàn)最優(yōu),說(shuō)明本文方法對(duì)提高絲餅表面缺陷的識(shí)別準(zhǔn)確率有著顯著成效。經(jīng)由本文研究方法的單張圖片的測(cè)試時(shí)間為0.1 s,滿足工業(yè)用時(shí)規(guī)定。

      5 結(jié) 論

      本文提出了一種基于混合注意力機(jī)制和改進(jìn)全連接層的VGG網(wǎng)絡(luò)模型(CBAM-VMFC),用于毛絲、絆絲、紙管破損3種圖像的缺陷識(shí)別。首先對(duì)圖像實(shí)現(xiàn)灰度化處理便于卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí);其次以過(guò)采樣的方式緩解樣本不平衡問(wèn)題;然后,將原始的3個(gè)FC層調(diào)整為節(jié)點(diǎn)大小256和1的2個(gè)FC層,并在之間運(yùn)用Dropout方法防止過(guò)擬合,減少模型參數(shù)量和計(jì)算量,將加快模型收斂速度;最后在卷積層與全連接層之間加入混合注意力機(jī)制CBAM模塊,獲得輸入特征空間域和通道域的權(quán)重賦值,強(qiáng)化重要區(qū)域的感興趣特征。結(jié)果表明,對(duì)比VGG11模型、VMFC模型、CBAM-VGG模型,本文方法能有效節(jié)約440 MB的參數(shù)內(nèi)存,滿足深度學(xué)習(xí)中參數(shù)節(jié)約與計(jì)算量減少的改進(jìn)目標(biāo),有效加快模型收斂速度,以97.5%的準(zhǔn)確率識(shí)別絲餅外觀瑕疵,可滿足工業(yè)運(yùn)用的需求。識(shí)別出缺陷后,系統(tǒng)對(duì)瑕疵絲餅做降等處理,并將降等信息實(shí)時(shí)更新至數(shù)據(jù)庫(kù),對(duì)異常信息及時(shí)反饋示警,實(shí)現(xiàn)智能化質(zhì)檢管理。

      在工廠實(shí)際運(yùn)用中,降等的絲餅會(huì)根據(jù)瑕疵程度進(jìn)行多等級(jí)質(zhì)量評(píng)價(jià),按評(píng)級(jí)流入市場(chǎng)售賣;而本文方法只能完成降等操作,而無(wú)法進(jìn)行后續(xù)的多級(jí)別等級(jí)評(píng)定,因此在之后的學(xué)習(xí)中,會(huì)進(jìn)一步研究實(shí)現(xiàn)識(shí)別之后的質(zhì)量評(píng)級(jí)問(wèn)題。

      猜你喜歡
      注意力準(zhǔn)確率卷積
      讓注意力“飛”回來(lái)
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
      A Beautiful Way Of Looking At Things
      垣曲县| 视频| 本溪| 育儿| 房产| 汕尾市| 镇平县| 临汾市| 墨江| 旬邑县| 新建县| 屯留县| 工布江达县| 安塞县| 象山县| 循化| 石门县| 祁门县| 博野县| 综艺| 高安市| 牟定县| 城固县| 晋中市| 久治县| 濮阳县| 楚雄市| 丘北县| 龙口市| 兴仁县| 普陀区| 江西省| 台南县| 望谟县| 聊城市| 余干县| 祁阳县| 红河县| 海阳市| 藁城市| 巴青县|