• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于YOLOv3 改進(jìn)算法的煙葉原料煙草甲識別方法研究

      2023-12-11 10:02:54張衛(wèi)正陳賽越揚王艷玲帖金鑫李燦林蘇曉珂
      河南農(nóng)業(yè)科學(xué) 2023年11期
      關(guān)鍵詞:煙草損失聚類

      張衛(wèi)正,陳賽越揚,王艷玲,帖金鑫,丁 佳,李 萌,李燦林,蘇曉珂,甘 勇

      (1.鄭州輕工業(yè)大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,河南 鄭州 450001;2.浙江中煙工業(yè)有限責(zé)任公司寧波卷煙廠,浙江 寧波 315040;3.河北中煙有限責(zé)任公司,河北 石家莊 050051;4.鄭州輕工業(yè)大學(xué) 煙草科學(xué)與工程學(xué)院,河南 鄭州 450001)

      煙草甲(Lasioderma serricorne)是世界性儲煙害蟲,除了蛀食煙葉造成孔洞,使煙葉成絲率下降,還會產(chǎn)生大量的排泄物及蟲尸,嚴(yán)重影響煙葉、成品卷煙質(zhì)量及品牌形象。為從源頭控制煙草甲種群數(shù)量,煙葉原料進(jìn)入加工車間前通常要進(jìn)行煙蟲檢測。目前該工序主要為人工識別,由于煙草甲個體較小且體色與煙葉類似,存在工作量大和檢測效率低等問題[1]。

      近年來,基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks,CNN)憑借優(yōu)異的特征提取性能彌補(bǔ)了傳統(tǒng)圖像特征提取方法需要人工設(shè)置特征、主觀性較強(qiáng)的弊端,被廣泛地應(yīng)用到病蟲害檢測領(lǐng)域[2-3],越來越多的專家學(xué)者將CNN 應(yīng)用于害蟲等小目標(biāo)的檢測[4]。岳有軍等[5]提出了改進(jìn)的VGG 網(wǎng)絡(luò)來識別復(fù)雜自然條件下的農(nóng)作物病害圖像,該模型在VGG 網(wǎng)絡(luò)的基礎(chǔ)上加入了高階殘差和參數(shù)共享等模塊,改進(jìn)后的VGG 網(wǎng)絡(luò)在魯棒性和識別準(zhǔn)確率方面均有所提高。楊光露等[6]設(shè)計了一種煙蟲檢測報警系統(tǒng),該系統(tǒng)基于CenterNet模型結(jié)合數(shù)據(jù)增強(qiáng)技術(shù)實現(xiàn)了煙蟲數(shù)量的統(tǒng)計,結(jié)果顯示,煙草甲蟲的平均識別精度達(dá)到90%以上,但在煙蟲粘連情況下,CenterNet 算法無法準(zhǔn)確識別煙蟲數(shù)量。由于煙草甲的隱蔽性高、身形小,且實際采集的圖像中常存在煙草甲相互粘連、煙葉與煙草甲顏色相近等影響,極大地增加了檢測難度,導(dǎo)致現(xiàn)有的算法大都存在識別精度較低的問題[7]。洪金華等[8]提出了基于YOLOv3 模型的卷煙廠煙蟲識別方法,該模型在YOLOv3 算法的基礎(chǔ)上加入了數(shù)據(jù)增強(qiáng)技術(shù)和K-means 算法,結(jié)果表明,經(jīng)過訓(xùn)練后改進(jìn)的YOLOv3模型能夠滿足卷煙廠對煙蟲檢測精度和速度的要求,但是對復(fù)雜背景下的煙蟲檢測結(jié)果精度較低。張博等[9]對YOLOv3算法進(jìn)行改進(jìn),加入了反卷積結(jié)構(gòu),并將空間金字塔池化與改進(jìn)的YOLOv3 相結(jié)合,形成了一種基于空間金字塔池化與深度卷積神經(jīng)網(wǎng)絡(luò)的作物害蟲識別算法,提高了對農(nóng)作物害蟲的識別精度。該算法能夠有效地檢測20 類害蟲,平均識別精度達(dá)到88.07%。為克服現(xiàn)有技術(shù)在煙草甲相互粘連等情況下檢測精度低的問題,提出一種基于YOLOv3 改進(jìn)算法的煙草甲識別模型,該算法將RandomMix 數(shù)據(jù)增強(qiáng)和Kmeans++算法加入YOLOv3算法中,提升對煙草甲識別的準(zhǔn)確率;用SIoU 損失函數(shù)替換傳統(tǒng)的YOLOv3算法中使用的IoU 損失函數(shù),提高算法的收斂速度和準(zhǔn)確度;引入特征細(xì)化模塊,有效增強(qiáng)算法在復(fù)雜環(huán)境下對害蟲的精準(zhǔn)識別,以期為高效、精確識別煙草甲等小目標(biāo)害蟲提供技術(shù)支持。

      1 材料和方法

      1.1 試驗環(huán)境

      試驗基于cuda11.6+pytorch1.12.1 框架搭建煙草甲的識別模型,Python 版本為3.9.13,操作系統(tǒng)為Windows10,GPU為NVIDIA RTX3070。

      1.2 數(shù)據(jù)集制作

      1.2.1 圖像采集 對附著煙草甲的貯存煙葉進(jìn)行圖像采集,共獲取1 200 個圖像樣本,其中圖像大小為1 920 像素×1 080 像素。為了豐富圖像樣本的多樣性,在不同光照強(qiáng)度、煙草甲粘連和復(fù)雜背景干擾等環(huán)境下采集煙草甲圖像,樣本圖像如圖1所示。

      1.2.2 數(shù)據(jù)標(biāo)注 通過LabelImg圖形圖像注釋工具對圖像樣本進(jìn)行標(biāo)注,將注釋以PASCAL VOC 格式保存為XML文件,標(biāo)注過程如圖2所示。

      圖2 對煙草甲蟲圖像進(jìn)行標(biāo)注Fig.2 Labeled image of cigarette beetles

      1.3 YOLOv3網(wǎng)絡(luò)模型

      YOLOv3 是YOLO 系列網(wǎng)絡(luò)的第3 代,也是最常用的目標(biāo)檢測算法之一[10]。該算法包含主干特征提取網(wǎng)絡(luò)DarkNet53、特征金字塔網(wǎng)絡(luò)(Feature pyramid networks,F(xiàn)PN)和Yolo Head 3 個部分[11],網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示。該算法屬于one-stage 目標(biāo)檢測算法,只需要通過一次網(wǎng)絡(luò)模型檢測就能得到目標(biāo)的位置和種類信息,大大提升了算法的預(yù)測速度。

      DarkNet53 主要是由3×3 和1×1 的卷積層構(gòu)成,每個卷積層之后都加上一個BN 層和leaky Relu 激活函數(shù),這3個結(jié)構(gòu)共同組成了DarkNet的基本卷積單元DBL,DarkNet53 中一共有53 個這樣的DBL。DarkNet53 還具有一個重要特點就是使用了5 個殘差塊[12],每個殘差塊輸入經(jīng)過2 層的DBL 后與原輸入比較,能夠有效提取更深層次的特征,并且能夠防止梯度消失和梯度爆炸的情況。從DarkNet53 中獲取3個有效特征層后,為了進(jìn)一步提取特征,用特征金字塔網(wǎng)絡(luò)進(jìn)行特征融合,其目的是結(jié)合不同尺度的特征信息。利用融合后的3個不同尺寸的特征層輸入到Y(jié)olo Head 中得到預(yù)測結(jié)果,可以獲得邊界框的高度和寬度以及中心點坐標(biāo)。Yolo Head 是由一個3×3 卷積和一個1×1 卷積組成,其中3×3 卷積是用來整合不同尺寸的特征,1×1 卷積用來調(diào)整通道數(shù)。

      1.4 改進(jìn)的YOLOv3網(wǎng)絡(luò)模型

      1.4.1 重新聚類錨框 YOLOv3 本身是用K-means

      算法聚類出錨框的,但K-means 算法的聚類結(jié)果易受初始值選取影響[13]。因此,選用K-means++算法對錨框進(jìn)行重新聚類,基于數(shù)據(jù)集中待檢測物體的尺寸計算出錨框的大小,更加適合對煙草甲數(shù)據(jù)集的檢測[14]。用K-means++算法重新聚類錨框的算法流程如下。

      步驟1:從數(shù)據(jù)集中隨機(jī)選擇1 個樣本x作為第1個聚類的中心,記為c1。

      步驟2:計算當(dāng)前已有聚類中心與數(shù)據(jù)集中每個樣本x之間的最短距離,用D(x)表示最短距離。

      步驟3:計算數(shù)據(jù)集中任意樣本x成為聚類中心的概率P,如公式(1)所示[14]。

      步驟4:結(jié)合輪盤法選定下一個聚類中心c2。

      步驟5:重復(fù)步驟2到步驟4,直到一共有K個聚類中心被選定。

      步驟6:分別計算數(shù)據(jù)集中每個樣本x到所有K個聚類中心之間的距離,并將其與距離最小的聚類中心分到同一個簇中。

      步驟7:重新計算每個簇的聚類中心ci,如公式(2)所示[14]。

      步驟8:重復(fù)步驟6 和步驟7 直到聚類中心的位置不再變化。

      步驟9:輸出結(jié)果。

      1.4.2 RandomMix 數(shù)據(jù)增強(qiáng) 通常情況下在訓(xùn)練過程中的樣本數(shù)量越多,訓(xùn)練出來的深度學(xué)習(xí)網(wǎng)絡(luò)模型效果越好,模型的泛化能力和魯棒性越強(qiáng)[15]。本研究采用RandomMix 數(shù)據(jù)增強(qiáng)的方法,將煙草甲的圖像樣本擴(kuò)充到2 200張,為改進(jìn)的YOLOv3網(wǎng)絡(luò)訓(xùn)練提供了充足的有效樣本。

      Mixup[16]是近幾年提出來的一種混合樣本的數(shù)據(jù)增強(qiáng)方法,它的核心思想是采用線性插值的方式從訓(xùn)練集生成新的數(shù)據(jù)點與標(biāo)簽的隨機(jī)凸組合(Convex combinations),將2 個樣本-標(biāo)簽數(shù)據(jù)對按比例相加后生成新的樣本-標(biāo)簽數(shù)據(jù)。在Mixup中,混合操作如公式(3)所示。

      其中,(xA,yA)和(xB,yB)是2 個訓(xùn)練樣本,(x?,y?)是生成的訓(xùn)練樣本,混合比λ是從beta 分布中采樣的,λ的取值為λ~Beta(α,α),其中α∈(0,∞)。結(jié)合Mixup 和Cutout的思想,CutMix[17]提出了一種新的數(shù)據(jù)增強(qiáng)策略,其中在訓(xùn)練圖像之間剪切和粘貼塊,并且GT 標(biāo)簽也與塊區(qū)域按比例混合,如公式(4)所示。

      其中,M表示二進(jìn)制矩形掩碼,指示從2個樣本中退出和填充的位置,1 是填充有1 的二進(jìn)制掩碼,表示元素乘積,混合比λ從均勻分布中采樣,λ的取值為λ~U(0,1)。

      ResizeMix[18]通過直接將源圖像調(diào)整為更小的塊,隨后將其粘貼到另一張圖像上來混合訓(xùn)練數(shù)據(jù),解決了CutMix 中標(biāo)簽分配錯誤和對象信息丟失的問題。對于Fmix[19],它使用通過對從傅里葉空間采樣的低頻圖像應(yīng)用閾值獲得的隨機(jī)二進(jìn)制掩碼,從而進(jìn)一步改善CutMix 混合區(qū)域的形狀。RandomMix 的主要功能是通過整合這些方法來提高模型的魯棒性并增加訓(xùn)練數(shù)據(jù)的多樣性。此外,RandomMix 可以減少對錯誤標(biāo)簽的記憶,并能夠穩(wěn)定生成對抗網(wǎng)絡(luò)的訓(xùn)練過程,實現(xiàn)更好的性能。RandomMix 方法的流程圖如圖4 所示,其中的重影現(xiàn)象是Mixup增強(qiáng)后的顯示效果。

      圖4 RandomMix方法流程Fig.4 An illustrative example of RandomMix

      首先,對輸入的Batch 進(jìn)行隨機(jī)樣本配對,接下來為了獲得更多樣化的混合樣本,將配對好的樣本從候選樣本中隨機(jī)選擇一種混合方法來混合配對樣本。隨機(jī)選擇混合方法的定義為從[Mixup,CutMix,ResizeMix,F(xiàn)mix]中,按照[1,1,1,1]的概率隨機(jī)選擇方法。最后,使用混合樣本來訓(xùn)練模型。利用Random Mix 數(shù)據(jù)增強(qiáng)得到的煙草圖像如圖5所示。

      圖5 數(shù)據(jù)增強(qiáng)獲取的煙草甲蟲圖像Fig.5 Cigarette beetles images acquired by data enhancement

      1.4.3 SIoU 損失函數(shù) 目標(biāo)檢測算法的準(zhǔn)確性和有效性高度依賴于損失函數(shù)的定義,損失函數(shù)由邊界框損失函數(shù)、置信度損失函數(shù)和分類損失函數(shù)三部分組成[20]。在傳統(tǒng)的YOLOv3 算法中使用并交比(Intersection over Union,IoU)作為邊界框損失函數(shù)來判斷樣本的正負(fù),其計算方法如公式(5)[20]所示。

      其中,B表示預(yù)測候選框,Bgt表示真實框,∩表示2個框相交的面積,∪表示2個框的并集的面積。

      當(dāng)2個邊界框之間沒有重疊時,梯度回傳消失,此時計算的IoU 為0,2 個邊界框之間的距離無法計算;且IoU無法區(qū)分2個對象之間的對齊方式[21]。為了解決該問題,本研究提出用SIoU Loss 作為YOLOv3 算法的邊界損失函數(shù),考慮真實框和預(yù)測框之間的向量角度,重新定義相關(guān)損失函數(shù),能夠更好地優(yōu)化邊界框的具體位置信息。SIoU 包含角度損失(Angle cost)、距離損失(Distance cost)、形狀損失(Shape cost)、IoU損失(IoU cost)四部分。

      第1 部分是角度損失,其計算方式的示意圖如圖6 所示。其中,B是目標(biāo)框,BGT是回歸框,當(dāng)B到BGT的水平夾角小于45°時,向最小α 收斂,反之向β收斂。

      圖6 角度損失計算方式示意Fig.6 Angle cost calculation mode diagram

      實現(xiàn)該功能的損失函數(shù)定義如公式(6)所示。

      從圖6 可以看出,當(dāng)α 為0 或π/2 時,角度損失為0。在訓(xùn)練過程中,若α<π/4,則在角度損失公式中需要取β值來計算角度損失,反之則取α值。

      第2 部分是距離損失,為了保證距離與角度的平衡,需要在考慮角度損失的同時考慮到距離損失,距離損失的定義如公式(8)所示。

      可以看出,當(dāng)α→0 時,距離損失的占比大大降低。相反,α 越接近π/4,距離損失占比越大。即隨著角度的增大,距離損失的影響也更大。

      第3部分是形狀損失,其定義為:

      從定義來看,形狀損失主要看回歸框的形狀與標(biāo)簽框是否相似,在每個數(shù)據(jù)集中形狀損失的值是唯一。θ值控制著形狀損失的重要程度。本研究中試驗定義的θ值是4。

      最后一個是IoU 損失,結(jié)合前三部分得到總體的損失函數(shù)定義如公式(12)所示。

      1.4.4 特征細(xì)化模塊 YOLOv3 中的FPN 模塊作用是將各種規(guī)模的特征進(jìn)行融合,但是直接將特征進(jìn)行融合會因為不同規(guī)模的特征之間的語義差異帶來大量的冗余信息和沖突信息,特征的多尺度表達(dá)能力會因此下降。因此,為了解決微小物體的特征分散和語義差異的問題,本研究將特征細(xì)化模塊[22](FRM)加入YOLOv3 的FPN 模塊中,目的是過濾沖突信息,減少語義差異,通過自適應(yīng)融合不同層間的特征,消除層間的沖突信息,防止小目標(biāo)消失在沖突信息中。FRM的整體結(jié)構(gòu)如圖7所示。

      圖7 FRM結(jié)構(gòu)Fig.7 The framework of FRM

      從圖7 可以看出,F(xiàn)RM 主要由2 個并行分支結(jié)構(gòu)組成,即通道凈化模塊和空間凈化模塊[22]。它們用于在空間和通道維度上生成自適應(yīng)權(quán)重,從而引導(dǎo)特征向更關(guān)鍵的方向?qū)W習(xí)。通道凈化模塊的結(jié)構(gòu)如圖7 所示。為了獲得通道注意圖,在空間維度上對輸入特征圖進(jìn)行壓縮,以聚集能夠代表圖像全局特征的空間信息。自適應(yīng)平均池和自適應(yīng)最大池相結(jié)合,以獲得更精細(xì)的圖像全局特征。Xm被定義為在FRM 的第m層(m={1,2,3})的輸入。xmk,x,y被定義為位置(x,y)處第k個通道上第m個特征映射的值。因此,上面分支的輸出如公式(13)所示[23]。

      式中,a、b和c是通道自適應(yīng)權(quán)重,定義為由圖7中的串聯(lián)操作生成的特征計算它的平均池化和最大池化,再在空間維度上對這2個權(quán)重求和,最后利用sigmoid 激活函數(shù)生成基于通道的自適應(yīng)權(quán)重a、b和c。

      空間凈化模塊通過sofmax 生成相對于通道的所有位置的相對權(quán)重,下分支的輸出定義如公式(14)所示[23]。

      FRM的總輸出可以表示為[23]:

      最后FPN 的所有層的特征在自適應(yīng)權(quán)重的指導(dǎo)下被融合在一起,并且{P1,P2,P3}被用作整個網(wǎng)絡(luò)的最終輸出。

      1.5 評價指標(biāo)

      為了驗證改進(jìn)的YOLOv3模型對煙草甲蟲目標(biāo)檢測的準(zhǔn)確性,采用精確率(Precision)、召回率(Recall)、F1 分?jǐn)?shù)(F1-score,F(xiàn)1)、平均精度均值(Mean average precision,mAP)、每秒幀率(Frame per second,F(xiàn)PS)作為評價指標(biāo)來評估所提出的方法。精確率是指在被所有預(yù)測為正的樣本中實際為正樣本的概率;召回率指在實際為正的樣本中被預(yù)測為正樣本的概率,F(xiàn)1分?jǐn)?shù)同時考慮精確率和召回率,讓兩者同時達(dá)到最高,取得平衡。計算公式如下:

      式中,TP表示正確預(yù)測出來的正樣本數(shù)量,F(xiàn)P表示將負(fù)樣本錯誤預(yù)測為正樣本的數(shù)量,F(xiàn)N表示將正樣本錯誤預(yù)測為負(fù)樣本的數(shù)量。

      平均精度均值指的是各類別平均正確率的平均值,計算出所有類別的平均正確率后除以類別總數(shù)即得到平均精度均值,計算公式如公式(19)所示:

      其中,ΣAP表示全部類別的平均精度值之和,N(C)表示全部類別的總數(shù)。mAP的值越高,模型的檢測效果就越好。

      2 結(jié)果與分析

      2.1 參數(shù)設(shè)置與訓(xùn)練

      經(jīng)過Random Mix數(shù)據(jù)增強(qiáng)后得到2 200張經(jīng)過標(biāo)注的煙草甲蟲圖像,從中隨機(jī)選取的訓(xùn)練集、測試集和驗證集的圖像數(shù)量分別為1 800、200、200張。在訓(xùn)練模型時,初始學(xué)習(xí)率設(shè)置為0.001,總訓(xùn)練輪次(Epoch)大小為100,為了不破壞已有的參數(shù)狀態(tài)并加快訓(xùn)練速度,將主干特征提取網(wǎng)絡(luò)凍結(jié)一部分[24]。本試驗設(shè)置前30 輪訓(xùn)練為凍結(jié)訓(xùn)練,且訓(xùn)練批次(batch_size)設(shè)置為6,隨后將其解凍并將學(xué)習(xí)率設(shè)置為0.000 1,訓(xùn)練批次設(shè)置為3,訓(xùn)練到100輪次。

      根據(jù)改進(jìn)的YOLOv3 模型和原YOLOv3 模型提供的訓(xùn)練日志,可以表征模型的損失函數(shù)值隨訓(xùn)練輪次變化的曲線,如圖8 所示。可以看出,2 種模型均在前期快速收斂,但隨著訓(xùn)練輪次增加,改進(jìn)的YOLOv3 模型的損失值比原YOLOv3 模型的損失值更低。最終改進(jìn)的YOLOv3 模型的損失值穩(wěn)定在3.1 左右,而原YOLOv3 模型的損失值為9.8,表明改進(jìn)的YOLOv3模型的精確度更高。

      圖8 模型損失值曲線Fig.8 Curve of model loss value

      2.2 不同模型的檢測結(jié)果比較

      利用訓(xùn)練完成后的改進(jìn)的YOLOv3模型對煙草甲蟲圖像進(jìn)行識別,得到的預(yù)測效果如圖9所示。

      圖9 改進(jìn)的YOLOv3預(yù)測可視化結(jié)果Fig.9 The prediction visualization results of improved YOLOv3

      從預(yù)測結(jié)果可以看出,改進(jìn)的YOLOv3 模型可以精準(zhǔn)定位煙草甲所在區(qū)域并用預(yù)測框標(biāo)識,在圖像中顯示害蟲類別和置信度。為了驗證改進(jìn)的YOLOv3 模型的有效性,分別采用YOLOv3 模型和改進(jìn)的YOLOv3 模型識別多個煙草甲的圖像,部分檢測結(jié)果如圖10所示。

      圖10 YOLOv3與改進(jìn)的YOLOv3預(yù)測結(jié)果對比Fig.10 Comparison of YOLOv3 with improved YOLOv3

      YOLOv3 模型在圖像清晰度不高時識別煙草甲可能會出現(xiàn)漏檢的情況,而改進(jìn)的YOLOv3 模型可以克服這種情況。結(jié)合多張圖像的預(yù)測結(jié)果對比分析可得,和原YOLOv3 模型相比,改進(jìn)的YOLOv3模型對復(fù)雜環(huán)境下的煙草甲具有更好的識別效果。

      將改進(jìn)的YOLOv3 模型與YOLOv3、Faster RCNN、YOLOv4、YOLOv4-tiny、YOLOv5、SSD(Single Shot MultiBox Detector)、Retinanet 等模型進(jìn)行比較。對上述模型均采用相同的硬件設(shè)施和相同的數(shù)據(jù)集進(jìn)行訓(xùn)練,8 種模型在相同的煙草甲數(shù)據(jù)集上的精確率、召回率、F1分?jǐn)?shù)、mAP值和每秒幀率結(jié)果如表1所示。

      表1 不同模型的檢測結(jié)果Tab.1 Test results of different models

      從表1 可以看出,改進(jìn)的YOLOv3 模型比YOLOv3 模型的精確率、召回率、F1 分?jǐn)?shù)、mAP 值和每秒幀率分別提高了12.21 百分點、11.79 百分點、0.12、12.40 百分點和12 幀/s,具有更好的識別精度和識別速率,可以更快更好地完成煙草甲蟲的實時檢測工作。雖然YOLOv5模型在精確率、召回率、F1分?jǐn)?shù)和mAP 上都很接近改進(jìn)的YOLOv3 模型,YOLOv5 模型在識別精度方面只是稍微落后于改進(jìn)的YOLOv3模型,但是其每秒幀率只有35幀/s,可見YOLOv5 模型的識別速率較低,并不能滿足煙草甲蟲實時檢測的要求。Faster R-CNN、YOLOv4和SSD模型都能夠較為快速地完成煙草甲的識別任務(wù),但是它們的精確率、召回率、F1 分?jǐn)?shù)和mAP 都明顯低于改進(jìn)的YOLOv3 模型,表明改進(jìn)的YOLOv3 的識別精確度比起其他算法具有較為明顯的優(yōu)勢。雖然在每秒幀率上YOLOv4-tiny 模型比改進(jìn)的YOLOv3 模型具有優(yōu)勢,但是其他指標(biāo)與改進(jìn)的YOLOv3 模型相比均較低且有明顯差異,并且改進(jìn)的YOLOv3 模型在每秒幀率上達(dá)到49 幀/s,已滿足煙草甲蟲檢測的識別速度要求。

      綜上所述,與其他檢測模型相比較,改進(jìn)的YOLOv3 模型兼顧精準(zhǔn)和高效的要求,對煙草甲蟲的識別效果最好,擁有更為強(qiáng)大的泛化能力,能夠滿足對復(fù)雜環(huán)境下的煙草甲蟲進(jìn)行準(zhǔn)確且高效地識別的任務(wù),并且對開發(fā)復(fù)雜背景下的小目標(biāo)識別系統(tǒng)有很好的應(yīng)用價值。

      3 結(jié)論與討論

      本研究在對煙草害蟲識別領(lǐng)域進(jìn)行分析后,針對該領(lǐng)域目前存在的問題,提出了基于改進(jìn)的YOLOv3 算法的貯存煙葉中的煙草甲識別方法。該方法在YOLOv3 算法的基礎(chǔ)上做出了如下創(chuàng)新:①用K-means++算法重新聚類錨框,大大提高了YOLOv3 算法識別煙草甲的精準(zhǔn)率;②引入RandomMix 數(shù)據(jù)增強(qiáng),擴(kuò)充樣本數(shù)據(jù)集數(shù)量并提高樣本數(shù)據(jù)集的質(zhì)量;③使用SIoU 邊界回歸損失函數(shù)替代IoU 回歸損失函數(shù),提高模型定位的準(zhǔn)確性,加速模型收斂;④在YOLOv3 的特征金字塔模塊(FPN)中加入特征細(xì)化模塊(FRM)來過濾沖突信息,防止微小目標(biāo)特征被淹沒在沖突信息中,優(yōu)化復(fù)雜背景下的小目標(biāo)識別。利用建立的煙草甲蟲數(shù)據(jù)集進(jìn)行訓(xùn)練和測試,結(jié)果表明,改進(jìn)的YOLOv3模型比原YOLOv3 模型的損失值更低、識別精度更高,針對復(fù)雜環(huán)境下煙草甲的識別更準(zhǔn)確。改進(jìn)后的模型在煙草甲識別精確率、召回率、F1 分?jǐn)?shù)和mAP 上 分 別 達(dá) 到 了93.26%、88.25%、0.90 和94.59%,通過與Faster R-CNN 和SSD 等7 種目標(biāo)檢測算法相比,各項數(shù)值都有明顯提升,顯示了改進(jìn)后算法的準(zhǔn)確性和有效性。改進(jìn)后算法的檢測速度為49 幀/s,能夠滿足煙草甲的實時檢測需求。該算法在檢測速度方面還有提升的空間,后續(xù)將在保證算法準(zhǔn)確性的基礎(chǔ)上提高算法檢測速度。

      本研究通過收集貯存煙葉中的煙草甲圖像,采用改進(jìn)的YOLOv3 模型對煙草甲數(shù)據(jù)集進(jìn)行測試,取得了較好的識別效果。雖然目前YOLO算法已經(jīng)發(fā)展到了YOLOv8,但是本研究所提出的改進(jìn)的YOLOv3 模型在煙草甲檢測的實時性、準(zhǔn)確性和易用性等方面仍具有獨特優(yōu)勢。YOLOv4 相對于YOLOv3 需要更高的計算資源要求,對于一些配置較低的硬件設(shè)備,運行效率較低,對GPU 顯存的要求也會更高。盡管YOLOv4在目標(biāo)檢測性能上有所提升,但由于引入了更多的計算復(fù)雜度,它的推理速度相對較慢。而YOLOv3在速度和實時性上表現(xiàn)較好,更適用于煙草甲害蟲的實時檢測,能夠做出更加快速的響應(yīng)。YOLOv5 模型采用了輕量級的網(wǎng)絡(luò)架構(gòu),以實現(xiàn)更快的推理速度,但這會導(dǎo)致一定的精度損失。而YOLOv3則平衡了計算資源與性能之間的關(guān)系,通過引入多個不同尺度的特征圖和預(yù)測層,可以適應(yīng)復(fù)雜背景下的煙草甲檢測任務(wù)。在多尺度目標(biāo)檢測方面,YOLOv3 引入了多尺度預(yù)測和特征融合機(jī)制,可以捕捉目標(biāo)的細(xì)節(jié)和上下文信息,推斷目標(biāo)的位置和類別,從而更好地解決檢測時部分煙草甲之間存在遮擋與重疊的問題。YOLOv6 模型的代碼不夠完善,缺乏嚴(yán)謹(jǐn)?shù)慕忉?,并且在檢測精度與速度上都不能滿足實時檢測煙草甲的需求。在模型大小方面,YOLOv7 和YOLOv8模型包含更多的卷積層和參數(shù),需要更多的計算資源和時間來訓(xùn)練和推理,增加了計算機(jī)硬件和時間的成本,而YOLOv3 則可以在相對更短的時間內(nèi)完成訓(xùn)練。在檢測精度方面,與YOLOv8算法相比,改進(jìn)的YOLOv3算法在煙草甲這一小目標(biāo)的檢測上的精度更高、速度更快,能夠滿足實時檢測煙草甲的需求。本研究通過一系列優(yōu)化模型和增強(qiáng)數(shù)據(jù)集等措施改進(jìn)了YOLOv3 模型,相比于其他YOLO 算法,在煙草甲的實時檢測方面具有更高的速度和更好的適用性,能夠在實時性、準(zhǔn)確性和易用性等方面取得較好的平衡。

      猜你喜歡
      煙草損失聚類
      煙草具有輻射性?
      少問一句,損失千金
      胖胖損失了多少元
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      基于DBSACN聚類算法的XML文檔聚類
      電子測試(2017年15期)2017-12-18 07:19:27
      煙草依賴的診斷標(biāo)準(zhǔn)
      煙草中茄酮的富集和應(yīng)用
      基于改進(jìn)的遺傳算法的模糊聚類算法
      一般自由碰撞的最大動能損失
      一種層次初始的聚類個數(shù)自適應(yīng)的聚類方法研究
      宁津县| 南木林县| 淮南市| 重庆市| 通榆县| 阳东县| 苏尼特左旗| 定结县| 阜新市| 始兴县| 垣曲县| 荆州市| 合阳县| 珲春市| 大方县| 海兴县| 安徽省| 桂林市| 剑川县| 基隆市| 永德县| 深州市| 新宁县| 宜宾市| 同仁县| 阿克苏市| 伽师县| 格尔木市| 拜城县| 张掖市| 贵州省| 平武县| 六盘水市| 天等县| 嘉祥县| 金山区| 辽宁省| 乳源| 太保市| 桐梓县| 诸城市|