摘要:
蠶豆莢檢測是蠶豆自動化采摘的前提與基礎(chǔ),因此,實(shí)現(xiàn)蠶豆莢的快速、準(zhǔn)確識別與定位十分關(guān)鍵?;诖耍岢鲆环N基于深度學(xué)習(xí)的蠶豆莢檢測方法YOLO-B。為增大整體網(wǎng)絡(luò)的感受野,獲取目標(biāo)豐富的上下文信息從而提高檢測精度,提出SPPX模塊。由于蠶豆莢特征較為相似,為消除冗余特征,提出GhostPAN特征融合模塊。經(jīng)過對比試驗(yàn)分析,相比于其他YOLOv7、YOLOv5與YOLOv4,YOLO-B參數(shù)量(29.092M)和計算量(95.466G)最低,mAP(92.58%)最高,分別提升1.33%、2.75%與3.74%。在蠶豆莢特征差異較小、生長姿態(tài)差異較大的場景下,均能實(shí)現(xiàn)準(zhǔn)確檢測。
關(guān)鍵詞:蠶豆莢;目標(biāo)檢測;深度學(xué)習(xí);YOLO
中圖分類號:TP391
文獻(xiàn)標(biāo)識碼:A
文章編號:2095-5553 (2025) 01-0157-07
Research on high precision detection method of broad bean pods based on machine vision
Xia Zilin1, Zhang Xinzhou1, Wang Wenbo1, Xia Xianfei2, Chen Lan1, Gu Jinan1
(1. College of Mechanical Engineering, Jiangsu University, Zhenjiang, 212013, China; 2. Nanjing Institute of
Agricultural Mechanization, Ministry of Agriculture and Rural Affairs, Nanjing, 210014, China)
Abstract:
The detection of broad bean pods is the basis of automatic picking of broad bean, it plays an important role to realize rapid and accurate identification and positioning of broad bean pods. In this paper, a deep learning-based accurate detection method of broad bean pods (i.e., YOLO-B) was proposed. A SPPX module was proposed to improve the detection accuracy, which could enlarge the receptive field of the whole network and obtain the rich context information of the target. Since the characteristics of broad bean pods were similar, a feature fusion module (i.e., GhostPAN) was proposed to eliminate redundant features. Compared to other YOLOv7, YOLOv5 and YOLOv4 algorithms, the number of parameter YOLO-B (29.092M) and computational power (95.466G) were the lowest, while mAP (92.58%) was the highest, increasing by 1.33%, 2.75% and 3.74%, respectively. The accurate detection can be achieved in the scenarios with small differences in pod characteristics and large differences in growth posture.
Keywords:
broad bean pods; object detection; deep learning; YOLO
0"引言
蠶豆在我國種植廣泛,是世界上最重要的食用豆作物之一,在食品加工、飼料加工、藥用及功能食品加工等方面具備重要的價值[1]。當(dāng)前蠶豆收獲方式主要以人工為主,即人工用鐮刀割苗或摘莢,然后再晾曬一段時間后進(jìn)行人工脫粒、清選,存在采摘過程勞動強(qiáng)度大、生產(chǎn)效率低、生產(chǎn)成本高的問題,嚴(yán)重制約農(nóng)民種植蠶豆的積極性。智能化蠶豆收割機(jī)能夠自動采收蠶豆,顯著提升生產(chǎn)效率和降低人工成本,對于蠶豆產(chǎn)業(yè)具有舉足輕重的意義。智能化蠶豆收割機(jī)能夠利用各種傳感技術(shù)(如攝像頭、激光傳感器、紅外傳感器等)來感知田間作業(yè)環(huán)境,并利用獲取到的信息對收割機(jī)臺進(jìn)行動態(tài)調(diào)整,實(shí)現(xiàn)對蠶豆的全自動化無人采摘?;跈C(jī)器視覺的蠶豆莢檢測系統(tǒng)是智能蠶豆收割機(jī)可靠收獲的基礎(chǔ),能夠?yàn)槭崭顧C(jī)提供可靠的蠶豆?fàn)顟B(tài)及位置信息,指導(dǎo)收割機(jī)自動設(shè)置割臺高度與行進(jìn)速度。
近年來,目標(biāo)檢測算法得到了快速的發(fā)展,具體可以分為基于手工設(shè)計特征的目標(biāo)檢測算法與基于深度學(xué)習(xí)的目標(biāo)檢測算法[2]。前者通過手工設(shè)計特征,再送入分類器中進(jìn)行分類,識別效果較差且計算量較大。后者能過夠端到端地將特征提取器與分類器整合在一起,利用梯度下降法等對模型進(jìn)行訓(xùn)練,實(shí)現(xiàn)對目標(biāo)的識別與定位,在行人、動物、車輛等目標(biāo)的識別中取得較好的效果[3, 4]?;谏疃葘W(xué)習(xí)的目標(biāo)檢測算法主要可以分為兩階段和單階段兩類:兩階段目標(biāo)檢測算法先進(jìn)行區(qū)域生成,再通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本分類,有R-CNN[5]、Fast-RCN[6]、Faster R-CNN[7]、Mask R-CNN[8]等,雖然兩階段方法精確度更高,但是其速度較慢;單階段目標(biāo)檢測算法可以在一個階段中直接得到目標(biāo)的類別與位置,有YOLO系列[9, 10],SSD[11]、RetinaNet[12]等。在食用豆的視覺檢測方面,翔云等[13]將基于YOLOv5和圖像處理的智能數(shù)據(jù)采集技術(shù)應(yīng)用于菜用大豆莢型表型的識別,在結(jié)構(gòu)化環(huán)境下檢測精度達(dá)到98.89%;楊肖等[14]提出了一種基于改進(jìn)YOLOv4網(wǎng)絡(luò)的輕量化蠶豆苗檢測方法,并使用加速引擎TensorRT對網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行重構(gòu)和優(yōu)化;郭希岳等[15]利用Re-YOLOv5和檢測區(qū)域搜索算法獲取大豆植株表型參數(shù),在大豆植株莖節(jié)點(diǎn)與大豆分枝的檢測精度達(dá)到93.40%。
基于深度學(xué)習(xí)的目標(biāo)檢測算法雖然在精度上取得較大的提升,但是往往模型參數(shù)量以及計算量較大,不利于部署在蠶豆收割機(jī)的邊緣端嵌入式設(shè)備。同時,由于自然環(huán)境下蠶豆莢生長環(huán)境為非結(jié)構(gòu)化環(huán)境,且蠶豆莢姿態(tài)朝向各異,相似特征眾多,導(dǎo)致蠶豆莢的識別較為困難。而且,目前尚缺乏對這一問題的針對性深入研究。因此,需要進(jìn)一步研究蠶豆莢目標(biāo)高精度檢測模型,以期能夠準(zhǔn)確地檢測出蠶豆莢,為蠶豆收割機(jī)的參數(shù)動態(tài)調(diào)整與高效收獲提供重要的蠶豆莢目標(biāo)信息。
針對以上問題,本文提出一種針對蠶豆莢的快速準(zhǔn)確檢測模型YOLO-B,其能夠在蠶豆莢特征差異較小、生長姿態(tài)差異較大的場景下,實(shí)現(xiàn)準(zhǔn)確檢測。
1"研究方法
1.1"YOLO-B蠶豆莢檢測網(wǎng)絡(luò)
蠶豆莢其外觀以及形狀特征較為相似,成熟后蠶豆莢與葉子容易混淆,因此,構(gòu)建針對蠶豆莢的高精度檢測方法是實(shí)現(xiàn)蠶豆自動化采摘的關(guān)鍵。提出針對蠶豆莢的檢測網(wǎng)絡(luò)YOLO-B,其在YOLOv7的基礎(chǔ)上改進(jìn)得到,具體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。為增大網(wǎng)絡(luò)的感受野,提高定位精度同時處理不同尺度的目標(biāo),提出SPPX模塊,其采用空洞卷積[16]與最大池化結(jié)合的方式增大模型的感受野。由于蠶豆莢特征較為相似,為降低網(wǎng)絡(luò)的冗余特征,提出GhostPAN特征融合模塊,其能夠在保持網(wǎng)絡(luò)精度的前提下降低網(wǎng)絡(luò)的復(fù)雜度。經(jīng)過對比試驗(yàn)分析,所提出的方法相比于其他方法有較大的提升,在蠶豆莢檢測上具有明顯的優(yōu)勢。
1.1.1"主干特征提取網(wǎng)絡(luò)(Backbone)
YOLO-B主干特征提取網(wǎng)絡(luò)與YOLOv7一致,其主要由多分支特征提取模塊(Multi-Branch Block)與下采樣過渡模塊(Transition Block)堆疊而成。多分支特征提取模塊以及下采樣過渡模塊的具體結(jié)構(gòu)如圖2和圖3所示。
如圖2所示,其中Conv結(jié)構(gòu)由卷積、BN以及SiLU三部分組成,多分支特征提取模塊引入更加密集的殘差結(jié)構(gòu),第一個與第二個分支經(jīng)過一個Conv,第三個分支經(jīng)過三個Conv,第四個分支經(jīng)過五個Conv,將4個分支的輸出特征層堆疊,最后經(jīng)過一個Conv模塊進(jìn)行特征整合。這種多分支特征提取模塊能夠捕獲更為豐富的上下文信息、減少信息丟失、增大感受野,并且更加容易優(yōu)化,使得網(wǎng)絡(luò)的學(xué)習(xí)能力更強(qiáng)。
如圖3所示,下采樣過渡模塊由上下兩個分支構(gòu)成,一個分支通過步長為2的最大池化進(jìn)行下采樣,另一個分支通過步長為2的卷積進(jìn)行下采樣,最后將兩部分的輸出進(jìn)行堆疊得到最終結(jié)果。下采樣過渡模塊能夠讓網(wǎng)絡(luò)自動學(xué)習(xí)適合的下采樣方式,較大程度減少下采樣時關(guān)鍵特征的丟失。
1.1.2"SPPX結(jié)構(gòu)
增大網(wǎng)絡(luò)的感受野能夠提高物體的定位精度、捕獲更多的上下文信息同時提高不同尺度物體的檢測精度,本文提出了感受野擴(kuò)充模塊SPPX。可以看出,SPPX其核心主要由三個串行的MP-dilate模塊組成,相比于YOLOv7的并行結(jié)構(gòu),串行結(jié)構(gòu)其推理速度更快。同時,所提出的MP-dilate模塊與下采樣過渡模型類似,其由兩個分支構(gòu)成,一個分支利用空洞率為2的卷積擴(kuò)充感受野,另一個分支利用5×5的最大池化增大感受野,最后將兩部分拼接得到最終輸出??斩淳矸e通過在特征圖中插入空洞點(diǎn),從而增大特征提取的感受野,最大池化通過減小特征圖的方式增大模型的感受野并且同時提取顯著特征。MP-dilate模塊能夠讓網(wǎng)絡(luò)在學(xué)習(xí)的過程中自適應(yīng)選擇或結(jié)合當(dāng)前適合的增大感受野方式,更大程度在保存重要特征的前提下增大模型感受野。SPPX的具體結(jié)構(gòu)如圖4所示。
1.1.3"特征融合模塊(GhostPAN)
PAN為自頂向下與自底向上的雙向特征融合網(wǎng)絡(luò)[17],首先,自頂向下將深層豐富的語義信息傳遞至淺層,并與淺層特征進(jìn)行融合,接著,自底向上將淺層的豐富的位置信息傳遞至深層,并與深層特征層進(jìn)行融合,這種雙向特征融合網(wǎng)絡(luò)能夠較好提高網(wǎng)絡(luò)的表達(dá)能力。為減小特征融合時的冗余特征,提出GhostPAN特征融合模塊,將PAN中的卷積模塊替換為Ghost模塊,能夠在有效進(jìn)行特征融合的前提下避免較多的冗余特征。
Ghost模塊是GhostNet中提出的一種輕量化的卷積模塊[18, 19],其能夠用更少的參數(shù)維持整個特征提取模塊的性能。當(dāng)網(wǎng)絡(luò)中特征圖通道數(shù)較多時,很多特征圖之間較為相似,即可以通過簡單的線性變換得到。因此,Ghost模塊將輸出通道分為兩部分,一部分通過常規(guī)卷積得到,另一部分將常規(guī)卷積的結(jié)果再進(jìn)行深度卷積,最終將兩部分拼接得到輸出特征圖,能夠較好地消除冗余特征圖。
如輸入特征圖尺寸為H×W×Cin,輸出特征圖尺寸為H′×W′×Cout,卷積核大小為k×k,則利用傳統(tǒng)卷積的理論計算量為
F1=Cout×H′×W′×Cin×k×k
(1)
如采用基于深度可分離卷積的Ghost模塊,則其理論計算量為
F2=
Couts×H′×W′×Cin×k×k+(s-1)×
Couts×H′×W′×d×d
(2)
其中d×d為深度卷積的卷積核大小,s為對中間結(jié)果進(jìn)行線性變換的次數(shù),常用值為2,即對中間結(jié)果進(jìn)行線性變換一次。則理論計算量下降了rs。
rs
=(Cout×H′×W′×Cin×k×k)Couts×
H′×W′×Cin×k×k+(s-1)×
Couts×H′×W′×d×d
=
(Cin×k×k)/1s×Cin×k×k+s-1s×d×d
≈(s×c)/(s+c-1)≈s
(3)
如式(3)所示,相比于傳統(tǒng)卷積,采用Ghost模塊能夠使得計算量下降s倍,能夠很大程度在保存特征提取能力的基礎(chǔ)上顯著降低網(wǎng)絡(luò)參數(shù)量和計算量。傳統(tǒng)卷積與Ghost模塊具體對比如圖5所示。
1.1.4"預(yù)測模塊(Head)
預(yù)測模塊與YOLOv7一致,其先經(jīng)過1個RepConv模塊對3個有效特征層的特征進(jìn)行整合,最后經(jīng)過卷積得到5+n通道的預(yù)測結(jié)果。5中前4個表示回歸參數(shù),通過回歸參數(shù)的調(diào)整可以獲得預(yù)測框,后1個參數(shù)表示預(yù)測框是夠包含物體,n表示預(yù)測框?qū)?yīng)每一個類別的預(yù)測概率。
其中,RepConv為重參數(shù)化結(jié)構(gòu)[20],在訓(xùn)練時采用多分支結(jié)構(gòu)訓(xùn)練,增加網(wǎng)絡(luò)的非線性能力,提高了模型的表達(dá)能力,在推理時將多分支結(jié)構(gòu)轉(zhuǎn)化為單路分支,從而不引入額外的參數(shù)量以及計算量。
1.1.5"損失函數(shù)
YOLO-B網(wǎng)絡(luò)損失函數(shù)由分類損失、回歸損失以及置信度損失3個部分組成。具體計算如式(4)所示。
Loss=Errorclass+Errorregression+Errorobj
(4)
其中Errorclass為分類損失,Errorregression為回歸損失,Errorobj為置信度損失。
Errorclass=λ1∑Mi=1∑x,yΦc*x,ygt;0Lcls(px,y,p*x,y)
(5)
式中:
Lcls——
分類損失函數(shù),采用二值交叉熵?fù)p失函數(shù);
M——有效特征層個數(shù);
px,y——分類預(yù)測結(jié)果;
p*x,y——真實(shí)標(biāo)簽類別;
Φc*x,ygt;0——
函數(shù),即當(dāng)c*x,ygt;0為1,其余情況為0。即分類損失只有正樣本參與計算,負(fù)樣本不參與分類損失計算;
λ1——分類損失的權(quán)重系數(shù)。
Errorregression=λ2∑Mi=1∑x,yΦc*x,ygt;0Lreg(tx,y,t*x,y)
(6)
式中:
Lreg——回歸損失函數(shù),采用CIoU損失;
tx,y——預(yù)測框;
t*x,y——真實(shí)框;
λ2——回歸損失的權(quán)重系數(shù)。
回歸損失同樣只有正樣本參與計算。
Errorobj=λ3∑Mi=1∑x,yLobj(Ox,y,O*x,y)
(7)
式中:
Lobj——
置信度損失函數(shù),采用二值交叉熵?fù)p失函數(shù);
Ox,y——置信度預(yù)測值;
O*x,y——
預(yù)測框與真實(shí)框之間的IoU,如果真實(shí)框跟預(yù)測框完全重合,即IoU為1;
λ3——置信度損失的權(quán)重系數(shù)。
置信度損失正負(fù)樣本均參與計算。
2"試驗(yàn)驗(yàn)證
首先,構(gòu)建蠶豆莢檢測數(shù)據(jù)集,然后,在所構(gòu)建的蠶豆莢檢測數(shù)據(jù)集上與其他YOLO系列算法進(jìn)行對比試驗(yàn),以驗(yàn)證所提出的YOLO-B方法在蠶豆莢檢測上的有效性和先進(jìn)性。
2.1"數(shù)據(jù)集構(gòu)建
為實(shí)現(xiàn)蠶豆莢檢測,共采集500張成熟蠶豆莢照片,采集設(shè)備為手機(jī),采集地點(diǎn)位于啟東市慧萍鎮(zhèn)東興鎮(zhèn)村。采集時考慮數(shù)據(jù)多樣性,分別在不同視角以及不同光照進(jìn)行拍攝。同時,為了擴(kuò)充數(shù)據(jù)集,將所拍攝的500張照片分別進(jìn)行旋轉(zhuǎn)、亮度以及對比度變化,最終得到2000張照片。圖6(a)為原始圖片,圖6(b)為旋轉(zhuǎn)變換結(jié)果,圖6(c)為亮度變換結(jié)果,圖6(d)為對比度變換結(jié)果。
利用labelImg對所采集的圖片進(jìn)行標(biāo)注,標(biāo)注類別為蠶豆莢一個類別。為確保模型具有良好的性能和泛化能力,采用一種7∶3的數(shù)據(jù)集劃分比例,即將所采集并標(biāo)注完畢的圖像中,70%作為訓(xùn)練集和驗(yàn)證集,其中訓(xùn)練集包含1200張圖片、驗(yàn)證集包含200張圖片,30%作為測試集,共包含600張圖片。這樣可以確保模型在訓(xùn)練過程中充分利用數(shù)據(jù),同時避免過度擬合,提高模型的泛化能力和魯棒性。
2.2"試驗(yàn)環(huán)境
為保證試驗(yàn)公平,在同一硬件平臺上對所提出方法與其他方法進(jìn)行對比試驗(yàn)。所用硬件設(shè)備為具有E5-2678 V3 CPU、16G內(nèi)存并配置有顯存為24G的英偉達(dá)3090顯卡。
所有試驗(yàn)均是基于Pytorch深度學(xué)習(xí)框架,選擇SGD優(yōu)化器,其中momentum為0.937,采用cos余弦退火學(xué)習(xí)率調(diào)整方式,初始學(xué)習(xí)率為0.01,最小學(xué)習(xí)率為0.0001。并且所有方法都訓(xùn)練200個,Batch Size設(shè)置為8,且主干特征提取網(wǎng)絡(luò)都采用預(yù)訓(xùn)練權(quán)重。
2.3"評價指標(biāo)
為評估所提出方法與其他方法的性能,采用AP、mAP對精度進(jìn)行衡量,參數(shù)量(Params)、計算量(FLOPs)對速度進(jìn)行衡量。
Precision=TPTP+FP
(8)
Recall=TPTP+FN
(9)
mAP=∑APN
(10)
式中:
TP——
所有檢測目標(biāo)中正確檢測的目標(biāo)個數(shù);
FP——
所有檢測目標(biāo)中錯誤檢測的目標(biāo)個數(shù);
FN——模型未能正確檢測的目標(biāo);
AP——單個類別的精度;
mAP——
數(shù)據(jù)集所有類別的平均精度;
N——數(shù)據(jù)集類別。
所構(gòu)建的蠶豆莢檢測數(shù)據(jù)集只包含1個類別,因此AP與mAP代表的含義一致。
FLOPs(浮點(diǎn)運(yùn)算)和Params(參數(shù)量)是衡量模型復(fù)雜性與速度的重要衡量指標(biāo)。FLOPs是網(wǎng)絡(luò)的計算量,Params是網(wǎng)絡(luò)的參數(shù)量。通常計算量與參數(shù)量越大,網(wǎng)絡(luò)就越復(fù)雜,檢測速度越慢。隨著目標(biāo)檢測的發(fā)展,模型的計算量與參數(shù)量會越來越小,并且速度越來越快,這樣才能適合邊緣端以及嵌入式等資源有限的設(shè)備。
2.4"與YOLOv7對比試驗(yàn)
YOLO-B蠶豆莢檢測方法主要是基于YOLOv7改進(jìn)得到,因此,首先與YOLOv7進(jìn)行對比試驗(yàn)分析,以驗(yàn)證所提出方法的有效性與先進(jìn)性。表1為YOLO-B與YOLOv7在蠶豆莢檢測數(shù)據(jù)集測試集上mAP、參數(shù)量以及計算量對比。
從表1可以看出,相比YOLOv7,所提出YOLO-B參數(shù)量和計算量約降低了8.1M和9.6G,并且mAP提升了1.06%,這表明所提出的方法在蠶豆莢檢測任務(wù)上精度更高,且模型復(fù)雜度更低。
圖7為YOLO-B與YOLOv7的mAP和P-R曲線對比圖,其中圖7(a)為mAP曲線對比圖,其為每隔10個epoch測試模型在測試集上的mAP值,可以看出,YOLO-B訓(xùn)練后200個epoch性能表現(xiàn)均由于YOLOv7。圖7(b)為在蠶豆莢類別上的P-R曲線對比圖,YOLO-B能夠在較高的召回率下保證更高的準(zhǔn)確率,這表明所提出方法更適合蠶豆莢檢測任務(wù)。
2.5"與其他YOLO系列方法對比
為驗(yàn)證所提出方法的有效性,進(jìn)一步與經(jīng)典YOLO系列方法進(jìn)行對比試驗(yàn)。表2為所提出方法與其他YOLO系列方法的mAP、參數(shù)量以及計算量對比。YOLO-B在蠶豆莢檢測任務(wù)上的表現(xiàn)明顯優(yōu)于其他經(jīng)典YOLO系列方法,其參數(shù)量與計算量最低,并且mAP最高。相比于YOLOv4,參數(shù)量和計算量約降低34.8M和46.4G,mAP提升3.74%。
圖8為YOLO-B與其他YOLO系列方法的mAP與P-R曲線對比圖,由圖8(a)可知,YOLO-B在訓(xùn)練的后200個epoch表現(xiàn)均優(yōu)于YOLOv7、YOLOv5以及YOLOv4。由圖8(b)可知,YOLO-B所占面積最大,綜合表現(xiàn)更加優(yōu)異。
2.6"消融試驗(yàn)
為驗(yàn)證所提出的感受野擴(kuò)充模塊SPPX以及輕量化特征融合模塊GhostPAN的有效性,進(jìn)行消融試驗(yàn),以評估各部分對整體性能的影響。首先,在YOLOv7中增加SPPX結(jié)構(gòu),然后,在此基礎(chǔ)上將YOLOv7特征融合模塊替換為GhostPAN,具體消融試驗(yàn)結(jié)果如表3所示。
從表3可以得出,在YOLOv7模型中引入SPPX模塊可以使得mAP提高1.12%,同時略微增加了模型的參數(shù)量和計算量。這表明所提出的感受野擴(kuò)充模塊在增加模型感受野并提高檢測精度方面有效。
此外,將YOLOv7模型中的特征融合模塊替換為GhostPAN模塊可以顯著降低模型的參數(shù)量和計算量,同時略微提升了檢測精度。這說明GhostPAN模塊能夠有效地避免特征融合時的冗余特征,從而實(shí)現(xiàn)更高效的特征融合。最終,采用YOLO-B結(jié)構(gòu),即在YOLOv7模型中增加SPPX和GhostPAN模塊,不僅降低了模型的參數(shù)量和計算量,還獲得了更高的檢測精度。這表明YOLO-B結(jié)構(gòu)在多方面都取得了優(yōu)越的性能,是一個更為有效和高效的模型。
2.7"檢測結(jié)果可視化
圖9為YOLO-B在蠶豆莢檢測數(shù)據(jù)集測試集的部分檢測結(jié)果圖,可以看出,即使在蠶豆莢特征差異較小、生長姿態(tài)差異較大的場景下,均能實(shí)現(xiàn)準(zhǔn)確檢測。
3"結(jié)論
1) 提出一種針對蠶豆莢的目標(biāo)檢測方法YOLO-B。為增大網(wǎng)絡(luò)的感受野并提高定位精度,同時處理不同尺度的目標(biāo),提出SPPX模塊。該模塊通過采用空洞卷積與最大池化相結(jié)合的方式來增大模型的感受野,有助于網(wǎng)絡(luò)更好地理解目標(biāo)的上下文信息,提高檢測精度。蠶豆莢特征較為相似,為減少網(wǎng)絡(luò)中的冗余特征,提出GhostPAN特征融合模塊。該模塊在保持網(wǎng)絡(luò)精度的前提下降低網(wǎng)絡(luò)的復(fù)雜度,避免較多相似特征,同時提高計算效率。
2) 經(jīng)過在蠶豆莢檢測數(shù)據(jù)集上的對比試驗(yàn)分析,所提出的YOLO-B方法相比于其他YOLO系列方法表現(xiàn)更加優(yōu)異,實(shí)現(xiàn)最小的參數(shù)量(29.092M)和計算量(95.466G),并且實(shí)現(xiàn)最高的mAP(92.58%),這表明所提出方法在蠶豆莢檢測任務(wù)上的有效性和先進(jìn)性。
參"考"文"獻(xiàn)
[1]
李旭. 蠶豆綜合加工利用研究進(jìn)展[J]. 現(xiàn)代食品, 2018(7): 170-171.
Li Xu. Research progress of comprehensive processing and utilization of broad beans [J]. Modern Food, 2018 (7): 170-171.
[2]
張陽婷,黃德啟,王東偉,等.基于深度學(xué)習(xí)的目標(biāo)檢測算法研究與應(yīng)用綜述[J].計算機(jī)工程與應(yīng)用, 2023, 59(18): 1-13.
Zhang Yangting, Huang Deqi, Wang Dongwei, et al. A review on research and application of deep learning-based target detection algorithms [J]. Computer Engineering and Applications,2023, 59(18): 1-13.
[3]
張志杰,顧寄南,李靜,等.基于深度學(xué)習(xí)的電子元器件快速檢測算法研究[J]. 電子測量技術(shù), 2022, 45(10): 93-101.
Zhang Zhijie, Gu Jinan, Li Jing, et al. Research on fast electronic component detection algorithm based on deep learning [J]. Electronic Measurement Technology, 2022, 45(10): 93-101.
[4]
張可,顧寄南,夏子林,等.基于深度學(xué)習(xí)的色環(huán)電阻檢測與判讀方法研究[J].電子測量技術(shù),2022, 45(11): 126-133.
Zhang Ke, Gu Jinan, Xia Zilin, et al. Research on color ring resistor detection and interpretation method based on deep learning [J]. Electronic Measurement Technology, 2022, 45(11): 126-133.
[5]
Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.
[6]
Girshick R. Fast R-CNN [C]. Proceedings of the IEEE International Conference on Computer Vision, 2015: 1440-1448.
[7]
Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis amp; Machine Intelligence, 2017, 39(6):1137-1149.
[8]
He K, Gkioxari G, Dollár P, et al. Mask R-CNN [C].Proceedings of the IEEE International Conference on Computer Vision, 2017: 2961-2969.
[9]
程書帥,王霄,李偉,等. 基于改進(jìn)YOLOv4的輕量級目標(biāo)檢測算法研究[J].微電子學(xué)與計算機(jī), 2023, 40(6): 1-8.
Cheng Shushuai, Wang Xiao, Li Wei, et al. Research on lightweight target detection algorithm based on improved YOLOv4 [J]. Microelectronics amp; Computer, 2023, 40(6): 1-8.
[10]
王琳毅,白靜,李文靜,等.YOLO系列目標(biāo)檢測算法研究進(jìn)展[J].計算機(jī)工程與應(yīng)用, 2023, 59(14): 15-29.
Wang Linyi, Bai Jing, Li Wenjing, et al. Research progress of YOLO series target detection algorithms [J]. Computer Engineering and Applications, 2023, 59(14): 15-29.
[11]
Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot multibox detector [C]. Computer Vision-ECCV 2016: 14th European Conference, Amsterdam, the Netherlands, October 11-14, 2016, Proceedings, Part Ⅰ 14. Springer International Publishing, 2016: 21-37.
[12]
Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection [C]. Proceedings of the IEEE International Conference on Computer Vision, 2017: 2980-2988.
[13]
翔云,陳其軍,宋栩杰,等.基于深度學(xué)習(xí)的菜用大豆莢型表型識別方法[J].核農(nóng)學(xué)報, 2022, 36(12): 2391-2399.
Xiang Yun, Chen Qijun, Song Xujie, et al. Deep learning-based identification method for vegetable soybean pod morphology traits [J]. Journal of Nuclear Agricultural Sciences, 2022, 36(12): 2391-2399.
[14]
楊肖,袁銳波,李兆旭,等.改進(jìn)YOLOv4的蠶豆苗檢測算法及TensorRT加速[J].重慶理工大學(xué)學(xué)報(自然科學(xué)), 2023, 37(3): 312-320.
Yang Xiao, Yuan Ruibo, Li Zhaoxu, et al. The improved YOLOv4 algorithm for broad bean sprout detection and TensorRT acceleration [J]. Journal of Chongqing University of Technology (Natural Science), 2023, 37(3): 312-320.
[15]
郭希岳,李勁松,鄭立華,等.利用Re-YOLOv5和檢測區(qū)域搜索算法獲取大豆植株表型參數(shù)[J].農(nóng)業(yè)工程學(xué)報, 2022, 38(15): 186-194.
Guo Xiyue, Li Jinsong, Zheng Lihua, et al. Acquiring soybean phenotypic parameters using Re-YOLOv5 and area search algorithm [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(15): 186-194.
[16]
Ma J, Dai Y, Tan Y P. Atrous convolutions spatial pyramid network for crowd counting and density estimation [J]. Neurocomputing, 2019, 350: 91-101.
[17]
Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 8759-8768.
[18]
Han K, Wang Y, Tian Q, et al. Ghostnet: More features from cheap operations [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 1580-1589.
[19]
Tang Y, Han K, Guo J, et al. GhostNetV2: Enhance cheap operation with long-range attention [J]. arXiv preprint arXiv:2211.12905, 2022.
[20]
Ding X, Zhang X, Ma N, et al. Repvgg: Making vgg-style convnets great again [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 13733-13742.