摘要:
為解決茶葉嫩芽識別困難,提高自然環(huán)境下茶葉嫩芽識別的精確性和魯棒性,提出一種融入注意力機制和深度可分離卷積的改進型YOLOX-Nano(AD-YOLOX-Nano)茶葉嫩芽識別算法。該算法以YOLOX-Nano模型為基礎(chǔ),采用CSPDarkNet作為主干網(wǎng)絡(luò),通過在CSPDarkNet網(wǎng)絡(luò)中引入深度可分離卷積(Depthwise Separable Convolution)來減少特征提取工作量,并將卷積注意力模塊(Convolutional Block Attention Module)融入到Y(jié)OLOX-Nano網(wǎng)絡(luò)的特征金字塔中,學(xué)習(xí)不同通道的特征相關(guān)性,增強網(wǎng)絡(luò)的深度信息傳遞,提高模型在不同場景下對茶葉嫩芽的識別能力。結(jié)果表明:AD-YOLOX-Nano算法的平均精度AP值和F1值分別為85.6%和86%,相較于同環(huán)境下YOLOX-Nano算法,該算法的模型大小基本保持不變,但其AP值和F1值分別提高2.7%和3%。與常用的YOLOv5-S、YOLOv4和Faster R-CNN等目標(biāo)檢測算法相比,該AD-YOLOX-Nano算法模型大小僅為它們的1/7,但AP值分別提高5.4%、5.5%和6.28%。所提算法在模型輕量化和檢測精度方面優(yōu)勢顯著,為茶葉智能化采摘的嵌入式硬件部署提供有效解決方案。
關(guān)鍵詞:茶葉嫩芽識別;AD-YOLOX-Nano算法;注意力機制;深度可分離卷積
中圖分類號:S24; TP391.4
文獻標(biāo)識碼:A
文章編號:2095-5553 (2025) 01-0178-07
Tea bud recognition algorithm based on AD-YOLOX-Nano
Gao Fangzheng1, Wen Xin1, Huang Jiacai2, Chen Guangming3, Jin Shaoyu2, Zhao Xuedi2
(1. "School of Automation, Nanjing Institute of Technology, Nanjing, 211167, China;
2. School of Mechanical Engineering, Nanjing Institute of Technology, Nanjing, 211167, China;
3. College of Engineering, Nanjing Agricultural University, Nanjing, 210000, China)
Abstract:
In order to address the difficulties in identifying tea buds and improve the accuracy and robustness of tea bud recognition in natural environments, this paper develops an improved YOLOX-Nano algorithm (AD-YOLOX-Nano) by integrating attention mechanism and depthwise separable convolution. The algorithm is based on the YOLOX-Nano model, which uses CSPDarkNet as the backbone network. It reduces the workload of feature extraction by introducing Depthwise Separable Convolution in the CSPDarkNet network. The Convolutional Block Attention Module is incorporated into the feature pyramid of the YOLOX-Nano network to learn the feature correlation of different channels, enhance the transmission of depth information in the network, and improve the recognition capability of tea buds in different scenarios. The experimental results show that the AP value and F1 values of the AD-YOLOX-Nano algorithm are 85.6% and 86%, respectively. Compared to the YOLOX-Nano algorithm in the same environment, this algorithm maintains a similar model size, but achieves an improvement of 2.7% in AP value and 3% in F1 value. Compared to the commonly used object detection algorithms such as YOLOv5-S, YOLOv4, and Faster R-CNN, the AD-YOLOX-Nano algorithm has a model size of only 1/7 of theirs. But it achieves an improvement of 5.4%, 5.5%, and 6.28% in AP value, respectively. The proposed algorithm has significant advantages in terms of model lightweighting and detection accuracy, providing an effective solution for the deployment of embedded hardware for intelligent tea picking.
Keywords:
tea buds recognition; AD-YOLOX-Nano; attention mechanism; depthwise separable convolution
0"引言
茶葉是中國的傳統(tǒng)出口商品之一[1]。隨著生活水平的提高,人們對茶葉尤其名優(yōu)茶的需求量日益劇增。然而,茶葉采摘是一項勞動密集型工作,具有采摘期短、工作強度大的特點,傳統(tǒng)的人工采摘方式受限于勞動力短缺、效率低下等因素?zé)o法滿足當(dāng)前茶葉采摘應(yīng)用需求[2]。因此,探索對茶葉嫩芽自動化識別和檢測,實現(xiàn)茶葉智能化采摘已成為當(dāng)前研究熱點[3]。
近年來,隨著深度學(xué)習(xí)算法的發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測方法在農(nóng)產(chǎn)品檢測領(lǐng)域中得到廣泛應(yīng)用[4]。以蘋果采摘為例,王卓等[5]提出了一種基于嵌入式平臺的改進YOLOv4型輕量化檢測方法,該方法的蘋果檢測平均精度為92.23%。尚鈺瑩等[6]提出了一種基于YOLOv5s的蘋果花朵檢測方法,該方法在精確率、召回率、模型大小和檢測速度方面表現(xiàn)出色,并且在不同天氣和光照條件下具有較高的穩(wěn)定性和魯棒性。趙德安等[7]提出了基于YOLOv3的蘋果定位方法,該方法通過單個卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)了復(fù)雜環(huán)境下蘋果的高效準(zhǔn)確檢測,為蘋果采摘機器人的應(yīng)用提供了理論基礎(chǔ)。在其他農(nóng)產(chǎn)品檢測的研究中,劉小剛等[8]針對目前草莓識別定位大多在簡單環(huán)境下研究且存在識別效率較低的問題,提出了一種改進的YOLOv3草莓識別方法,測試集驗證顯示該方法精度均值為87.51%,并在果實遮擋和復(fù)雜場景下性能良好。另外,Liu等[9]在YOLOv3基礎(chǔ)上,通過圓形邊框提高番茄定位準(zhǔn)確性,提出了一種改進的番茄檢測模型YOLO-Tomato,與Mask R-CNN等先進的檢測方法對比,該方法在復(fù)雜環(huán)境下表現(xiàn)出更為優(yōu)越的檢測性能。楊堅等[10]提出了一種改進YOLOv4-tiny模型的番茄成熟度識別方法,該方法通過增加檢測頭、集成注意力模塊等技術(shù),實現(xiàn)對遮擋和小番茄的準(zhǔn)確識別,平均精度達到97.9%。
然而,針對茶葉嫩芽目標(biāo)檢測的研究卻不多見。近年來,黃家才等[11]針對YOLOv4檢測模型進行輕量化改進,提出一種基于Compact-YOLOv4算法的茶葉嫩芽移動端識別方法。在保持檢測精度和速度前提下,該算法改進后的模型內(nèi)存占用量僅為原來的1/5,降低了模型推理計算的硬件性能需求。朱紅春等[12]探索了Faster R-CNN目標(biāo)檢測算法在復(fù)雜場景下茶葉嫩芽檢測方面的應(yīng)用。在不區(qū)分茶葉嫩芽類型的情況下,該方法平均準(zhǔn)確度為54%,均方根誤差為3.32。但上述研究由于未考慮復(fù)雜多變的自然環(huán)境下光線對茶葉嫩芽檢測效果的影響,造成算法對環(huán)境和光照要求較高,從而導(dǎo)致所提算法魯棒性不強,在實際應(yīng)用中受到一定限制。
基于上述分析,為實現(xiàn)自然環(huán)境下茶葉嫩芽的精確快速識別,本文提出一種基于AD-YOLOX-Nano的茶葉嫩芽識別算法。該算法以YOLOX-Nano模型為基礎(chǔ),通過在骨干網(wǎng)絡(luò)的特征金字塔中引入卷積注意力模塊,增強對目標(biāo)特征的關(guān)注。同時,在CSPDarkNet網(wǎng)絡(luò)中引入深度可分離卷積,以減少特征提取的工作量,克服復(fù)雜環(huán)境下光線變化造成的識別困難。
1"圖像采集與數(shù)據(jù)集制作
1.1"試驗數(shù)據(jù)獲取
由于缺少可用的茶葉嫩芽數(shù)據(jù)集,在江蘇茶博園進行茶葉嫩芽圖片拍攝工作,采集時間為2023年3—5月。同時,為減少重復(fù)圖片以及不合格圖片對模型訓(xùn)練的影響,對拍攝的圖片進行篩選,共得到3500張符合要求的圖片。圖1為部分合格圖片樣本。
1.2"數(shù)據(jù)集準(zhǔn)備
使用開源軟件LabelImg對茶葉嫩芽圖片進行標(biāo)注。采用拉框標(biāo)注方法,將標(biāo)注的圖片命名為“Teabud”,具體的標(biāo)注原則:(1)對茶葉枝干上無遮擋的嫩芽進行標(biāo)注。(2)對茶葉枝干有遮擋的情況,通過人工估計的方式進行標(biāo)注。對其中嫩芽清晰可見的圖片進行標(biāo)注;對被遮擋的嫩芽圖片則不進行標(biāo)注。(3)對圖片中視野較遠的嫩芽,若其像素面積過小,則不進行標(biāo)注。
1.3"數(shù)據(jù)集擴充
在茶葉嫩芽圖片中,復(fù)雜環(huán)境下不同天氣和不同時間光照條件不同,導(dǎo)致采集到的嫩芽圖片顏色差異很大;另外,室外茶壟生長姿態(tài)各異,茶葉嫩芽遮擋情況嚴(yán)重。為增加樣本多樣性,降低模型過擬合的概率,采用數(shù)據(jù)增廣的方式對數(shù)據(jù)集進行擴充。數(shù)據(jù)增廣可有效增加樣本的多樣性,提高模型的魯棒性[13]。采用圖像處理方法:(1)改變圖片的亮度來模擬實際情況中光照條件的變換。(2)使用仿射變換來模擬實際情況中攝像機角度的變換。(3)使用隨機遮擋來模擬實際環(huán)境中嫩芽在復(fù)雜多變的環(huán)境中被遮擋的情況。(4)添加隨機裁剪來擴充數(shù)據(jù)集數(shù)量。如圖2所示,通過以上方法,最終擴增數(shù)據(jù)集至6423張圖片。
2"改進YOLOX-Nano模型網(wǎng)絡(luò)構(gòu)建
YOLOX-Nano是一種單階段目標(biāo)檢測算法。通過引入多項創(chuàng)新技術(shù),如Fcous結(jié)構(gòu)、空間金字塔池化、YOLOHead和SimOTA動態(tài)正樣本匹配等技術(shù),使得YOLOX-Nano比其他常用的YOLO系列檢測算法具備更快的收斂速度和更高的精度,從而可以實現(xiàn)高精度的快速目標(biāo)檢測與識別任務(wù)。
2.1"注意力機制
2.1.1"通道注意力機制
通道注意力機制(Channel Attention Mechanism,CAM)主要用于關(guān)注輸入圖像中有意義的信息[14]。由兩個關(guān)鍵部分組成:全局信息池化和通道權(quán)重計算。全局信息池化是通過對整個特征圖進行空間維度上的池化操作,以獲取全局上下文信息。通道權(quán)重計算則利用全局信息來計算每個通道的重要性得分,常見的方法包括使用全連接層、卷積層或者簡單的線性變換。最后,將通道權(quán)重乘以原始特征圖,實現(xiàn)對不同通道特征的加權(quán)融合。通過引入通道注意力機制,模型可以自適應(yīng)地學(xué)習(xí)每個通道的重要性,并對不同通道的特征進行動態(tài)調(diào)整,以更好地捕捉輸入數(shù)據(jù)中的相關(guān)信息。通道注意力機制可幫助模型集中關(guān)注最相關(guān)的特征,減少冗余信息的干擾,提高模型的判別能力和泛化能力。通道注意力模塊結(jié)構(gòu)如圖3所示。
經(jīng)過通道注意力機制處理后,輸入特征矩陣通過式(1)計算得到通道注意力機制輸出的特征映射。
F′=Mc(F)F
(1)
式中:
F——輸入的特征矩陣;
F′——
經(jīng)過通道注意力機制處理后的特征映射;
Mc——通道壓縮權(quán)值矩陣。
2.1.2"空間注意力機制
空間注意力機制(Spatial Attention Mechanism,SAM)[15]可幫助模型集中注意力于感興趣的區(qū)域,提高模型的感知性能和準(zhǔn)確性。
空間注意力機制同樣由兩部分組成:位置信息的提取和權(quán)重計算。位置信息的提取可以通過使用卷積操作或者其他空間變換操作來實現(xiàn),以捕獲不同空間位置的特征表示。權(quán)重計算則根據(jù)位置信息對不同位置的重要性進行建模,通常使用全連接層、卷積層或者簡單的線性變換來計算位置權(quán)重。最后,將位置權(quán)重與原始特征圖相乘,實現(xiàn)對不同位置特征的加權(quán)融合。
通過引入空間注意力機制,模型可以自適應(yīng)地學(xué)習(xí)不同空間位置的重要性,并調(diào)整輸入特征圖中不同位置的貢獻度,有助于模型集中關(guān)注重要的圖像區(qū)域,提高對關(guān)鍵信息的感知和提取能力。圖4為空間注意力模塊結(jié)構(gòu)。
經(jīng)過空間注意力機制處理后,通道注意力機制輸出的特征矩陣經(jīng)過式(2)計算得到空間注意力機制輸出的特征矩陣。
F″=Ms(F′)F′
(2)
式中:
F″——空間注意力機制輸出的特征矩陣;
Ms——空間壓縮權(quán)值矩陣。
2.2"改進過程
YOLOX-Nano的主干網(wǎng)絡(luò)由多個跨階段層(Cross Stage Partial)組成,具有多個殘差網(wǎng)絡(luò)和較大的殘差邊,這些殘差會將特征信息連同包含的噪聲一起傳輸?shù)捷^深的網(wǎng)絡(luò)中,對主干網(wǎng)絡(luò)的特征提取產(chǎn)生不利影響。因此,引入通道注意力模塊和空間注意力模塊,以增強網(wǎng)絡(luò)對重要特征的關(guān)注,抑制非必要特征的影響。
2.2.1"混合注意力機制
混合注意力機制是指將兩種或多種注意力機制結(jié)合在一起形成的全新注意力機制。將通道和空間兩種注意力機制進行混合。這種混合可以采用串聯(lián)或者并聯(lián)的方式進行多種組合。為確定具體方案,對通道和空間注意力機制的串并順序和基礎(chǔ)的SENet注意力機制[16]進行對比試驗,結(jié)果如表1所示。
由表1可知,采用YOLOX-Nano+CAM+SAM,即先通道后空間的方法效果更好。與Woo等[17]提出的卷積注意力模塊結(jié)構(gòu)(CBAM)完全一致,CBAM模塊結(jié)構(gòu)如圖5所示。
2.2.2"深度可分離卷積
BaseConv是YOLOX-Nano主干網(wǎng)絡(luò)的基本卷積結(jié)構(gòu),結(jié)構(gòu)如圖6所示。BaseConv主要由Conv、BN、SiLU組成,在網(wǎng)絡(luò)中扮演著特征提取的關(guān)鍵角色,是模型主干網(wǎng)絡(luò)中最重要的組成部分。
然而,BaseConv卷積提取的特征過多會造成計算量較大,因此,為減少計算量,本研究在YOLOX-Nano主干網(wǎng)絡(luò)中引入深度可分離卷積(DSConv)[18],其結(jié)構(gòu)如圖7所示。
通過應(yīng)用深度可分離卷積,可以減少特征提取工作的計算量和參數(shù)量,更好地配合CBAM對圖像進行檢測。在資源受限的場景下,深度可分離卷積和CBAM的組合可以展現(xiàn)出更佳性能。
2.2.3"AD-YOLOX-Nano網(wǎng)絡(luò)結(jié)構(gòu)
受上述試驗啟發(fā),在YOLOX-Nano模型的主干網(wǎng)絡(luò)CSPDarkNet中引入深度可分離卷積,并將CBAM融入到改進后網(wǎng)絡(luò)的特征金字塔中,稱這種改進后的模型為AD-YOLOX-Nano,其結(jié)構(gòu)如圖8所示。圖8中有底紋部分表示相對于原始YOLOX-Nano模型進行的改進和優(yōu)化;而無底紋部分則保留原始網(wǎng)絡(luò)結(jié)構(gòu),不做改變。
2.3"模型訓(xùn)練和測試
2.3.1"試驗平臺
訓(xùn)練平臺為配備Windows10操作系統(tǒng)的臺式計算機,其中CPU為Intel Core i7-13700F,GPU為RTX2060。訓(xùn)練環(huán)境和測試環(huán)境相同。
2.3.2"網(wǎng)絡(luò)訓(xùn)練
將采集到的6423張圖片按7∶2∶1的比例隨機分為訓(xùn)練集、驗證集和測試集,具體分類如表2所示。
對訓(xùn)練參數(shù)進行配置,訓(xùn)練模式為本機顯卡訓(xùn)練的本地訓(xùn)練模式;迭代輪次設(shè)置為300輪次;基礎(chǔ)學(xué)習(xí)率設(shè)置為默認值1;Patch大小選擇大;訓(xùn)練中采用Mosaic增強和Mixup數(shù)據(jù)增強的方式進行數(shù)據(jù)增強。并且考慮在Mosaic增強過程中,如果樣本與實際情況偏離較大,可能會對模型的訓(xùn)練效果造成負面影響,因此在訓(xùn)練的最后30輪次中,關(guān)閉Mosaic和Mixup數(shù)據(jù)增強[19]。
3"結(jié)果與分析
3.1"模型輕量化分析與比較
為驗證算法基礎(chǔ)網(wǎng)絡(luò)YOLOX-Nano的優(yōu)異性,試驗使用相同的數(shù)據(jù)集訓(xùn)練3種輕量化的YOLOX模型,分別為YOLOX-Nano、YOLOX-Tiny和YOLOX-S,如表3所示。
表3結(jié)果顯示,在相同的測試集下進行測試時,3種模型的F1值相差不大,即它們在目標(biāo)檢測任務(wù)中的性能相對接近。然而,與YOLOX-tiny和YOLOX-S相比,YOLOX-Nano在平均精度AP方面表現(xiàn)更好,分別相較于YOLOX-Tiny和YOLOX-S提高4.3個百分點和2.6個百分點。此外,YOLOX-Nano的模型大小僅為3.70MB,遠小于YOLOX-tiny和YOLOX-S。
在上述結(jié)果中,YOLOX-Nano在更小的模型尺寸下表現(xiàn)最優(yōu),這是因為在訓(xùn)練過程中對三種模型采用相同的增強策略(即消除Mosaic和MixUp的時期相同)。然而,不同大小的模型可能需要不同的增強策略。對于大模型而言,采用更強的增強策略可以帶來更好的效果。
綜上所述,由于小模型能夠在有限的計算資源和存儲容量下運行,并且仍能保持較好的檢測精度,因此在嵌入式和移動設(shè)備上部署目標(biāo)檢測模型時,選擇小模型非常重要。因此,本研究選擇YOLOX-Nano作為基準(zhǔn)模型,該模型在模型尺寸較小的情況下表現(xiàn)最優(yōu),并且具備在有限資源條件下高效執(zhí)行目標(biāo)檢測任務(wù)的能力。
3.2"消融試驗結(jié)果與分析
為驗證改進后YOLOX-Nano模型的性能,在茶葉嫩芽數(shù)據(jù)集上進行消融試驗。試驗在原有YOLOX-Nano模型的基礎(chǔ)上加入CBAM與DSConv,訓(xùn)練過程中,試驗結(jié)果如表4所示。從表4可以看出,原模型的AP值為82.9%。引入CBAM模塊后,AP值提高2.1%。引入DSConv模塊后,AP值則提高0.7%。兩則共同配合后,模型的AP值提高2.7%。試驗結(jié)果表明,改進方案取得預(yù)想的效果,證明改進的有效性。
3.3"改進后YOLOX-Nano模型識別結(jié)果與分析
為驗證改進后YOLOX-Nano模型的性能,在相同的茶葉嫩芽數(shù)據(jù)集上進行對比試驗。如圖9所示,YOLOX-Nano模型在檢測難度較高的目標(biāo)上存在漏檢問題,而AD-YOLOX-Nano模型無此現(xiàn)象。同時,對于正確檢測到的目標(biāo),YOLOX-Nano檢測到的相同嫩芽的置信度從左到右分別為0.96、0.87、0.97、0.98,而AD-YOLOX-Nano模型檢測到的同樣的茶葉嫩芽的置信度從左到右分別0.99、0.97、0.98、0.97,表明AD-YOLOX-Nano模型在識別茶葉嫩芽時具有明顯更高的置信度。改進前后模型檢測結(jié)果對比如表5所示,各指標(biāo)對比如圖10所示。
根據(jù)表5可知,提出的AD-YOLOX-Nano目標(biāo)檢測網(wǎng)絡(luò),在模型大小基本不變及平均檢測時間相差不大的情況下,精確率P值、召回率R值、F1值和AP值均有所提升。改進后P值為89.21%,相較于YOLOX-Nano網(wǎng)絡(luò)提升5.75%;R值為83.01%,相較于YOLOX-Nano網(wǎng)絡(luò)提升0.67%;F1值為86%,相較于YOLOX-Nano網(wǎng)絡(luò)提升3%;AP值為85.6%,相較于YOLOX-Nano網(wǎng)絡(luò)提高2.7%。
在復(fù)雜自然環(huán)境下,AD-YOLOX-Nano模型可以在一定程度上提高茶葉嫩芽識別結(jié)果的魯棒性。CBAM通過通道注意力機制和空間注意力機制,分別對特征圖中不同的通道和不同位置的特征點賦予權(quán)重值,深度可分離卷積則減少計算量和參數(shù)量,二者的結(jié)合使得提取到的茶葉嫩芽特征更加精煉,總體上提升模型檢測的平均精度,其模型體積和檢測時間也均滿足嵌入式設(shè)備部署需求。
3.4"橫向?qū)Ρ仍囼?/p>
為客觀評估AD-YOLOX-Nano模型的性能,在相同條件下訓(xùn)練其他輕量化的YOLO模型,并與AD-YOLOX-Nano模型進行對比,結(jié)果如表6所示。
由表6可知,AD-YOLOX-Nano模型的F1值最高,與YOLOv5-S[20]和YOLOv4[21]相比,其在AP值上分別提高5.4%和5.5%,同時模型大小僅為它們的1/7,平均檢測時間也快于YOLOv4。與雙階段檢測器Faster R-CNN[22]相比,AD-YOLOX-Nano的AP值提高6.28%,在平均檢測時間和模型大小均有顯著提升。與輕量化網(wǎng)絡(luò)Compact-YOLOv4[11]相比,AD-YOLOX-Nano的AP值提高12.67%。
4"結(jié)論
1) 針對傳統(tǒng)基于深度學(xué)習(xí)的識別方法在茶葉嫩芽識別方面存在的不足,提出一種基于AD-YOLOX-Nano的茶葉嫩芽檢測方法。該方法以YOLOX-Nano模型為基礎(chǔ),通過在骨干網(wǎng)絡(luò)的特征金字塔中引入卷積注意力模塊,增強對目標(biāo)特征的關(guān)注。同時,在CSPDarkNet網(wǎng)絡(luò)中引入深度可分離卷積,減少特征提取的工作量。
2) AD-YOLOX-Nano網(wǎng)絡(luò)在茶葉嫩芽檢測方面的AP值為85.6%,F(xiàn)1值為86%,與原YOLOX-Nano模型相比,這兩個指標(biāo)均有明顯提升。與YOLOv5-S、YOLOv4、Faster R-CNN等模型相比,AD-YOLOX-Nano模型在茶葉嫩芽識別效果上也表現(xiàn)出顯著優(yōu)勢。
3) AD-YOLOX-Nano模型對單幅圖像的檢測時間為21.72ms,幀率為46f/s,模型大小為3.76MB,適用于嵌入式設(shè)備和移動端設(shè)備的硬件部署需求。
綜上所述,本研究所提的AD-YOLOX-Nano目標(biāo)檢測算法在模型大小、檢測精度和檢測速度方面均具有一定優(yōu)勢,對茶葉智能化采摘的嵌入式硬件部署提供可行方案,也可為其他農(nóng)產(chǎn)品的采摘提供參考。
參"考"文"獻
[1]
Pan S Y, Nie Q, Tai H C, et al. Tea and tea drinking: China,s outstanding contributions to the mankind [J]. Chinese Medicine, 2022, 17(1): 1-40.
[2]
Han Y, Xiao H, Qin G, et al. Developing situations of tea plucking machine [J]. Engineering, 2014, 6(6):45606.
[3]
Xu W, Zhao L, Li J, et al. Detection and classification of tea buds based on deep learning [J]. Computers and Electronics in Agriculture, 2022, 192: 106547.
[4]
孫紅,李松,李民贊,等.農(nóng)業(yè)信息成像感知與深度學(xué)習(xí)應(yīng)用研究進展[J].農(nóng)業(yè)機械學(xué)報, 2020,51(5):1-17.
Sun Hong, Li Song, Li Minzan, et al. Research progress of image sensing and deep learning in agriculture [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(5): 1-17.
[5]
王卓,王健,王梟雄,等.基于改進YOLOv4的自然環(huán)境蘋果輕量級檢測方法[J].農(nóng)業(yè)機械學(xué)報, 2022,53(8):294-302.
Wang Zhuo, Wang Jian, Wang Xiaoxiong, et al. Lightweight real-time apple detection method based on improved YOLOv4 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(8): 294-302.
[6]
尚鈺瑩,張倩如,宋懷波. 基于YOLOv5s的深度學(xué)習(xí)在自然場景蘋果花朵檢測中的應(yīng)用[J].農(nóng)業(yè)工程學(xué)報, 2022,38(9):222-229.
Shang Yuying, Zhang Qianru, Song Huaibo. Application of deep learning using yolo v5s to apple flower detection in natural scenes [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(9): 222-229.
[7]
趙德安,吳任迪,劉曉洋,等.基于YOLO深度卷積神經(jīng)網(wǎng)絡(luò)的復(fù)雜背景下機器人采摘蘋果定位[J].農(nóng)業(yè)工程學(xué)報, 2019,35(3):164-173.
Zhao De,an, Wu Rendi, Liu Xiaoyang, et al. Apple positioning based on yolo deep convolutional neural network for picking robot in complex background [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(3): 164-173.
[8]
劉小剛,范誠,李加念,等.基于卷積神經(jīng)網(wǎng)絡(luò)的草莓識別方法[J].農(nóng)業(yè)機械學(xué)報, 2020,51(2):237-244.
Liu Xiaogang, Fan Cheng, Li Jianian, et al. Identification method of strawberry based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 237-244.
[9]
Liu G, Nouaze J C, Touko Mbouembe P L, et al. YOLO-tomato: A robust algorithm for tomato detection based on YOLOv3 [J]. Sensors, 2020, 20(7): 2145.
[10]
楊堅,錢振,張燕軍,等.采用改進YOLOv4-tiny的復(fù)雜環(huán)境下番茄實時識別[J].農(nóng)業(yè)工程學(xué)報, 2022,38(9):215-221.
Yang Jian, Qian Zhen, Zhang Yanjun, et al. Real-time recognition of tomatoes in complex environments based on improved YOLOv4-tiny [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022,38(9):215-221.
[11]
黃家才, 唐安, 陳光明,等. 基于Compact-YOLOv4的茶葉嫩芽移動端識別方法[J]. 農(nóng)業(yè)機械學(xué)報, 2023, 54(3):282-290.
Huang Jiacai, Tang An, Chen Guangming, et al. Mobile recognition solution of tea buds based on Compact-YOLOv4 algorithm [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(3):282-290.
[12]
朱紅春,李旭,孟煬,等.基于Faster R-CNN網(wǎng)絡(luò)的茶葉嫩芽檢測[J].農(nóng)業(yè)機械學(xué)報, 2022,53(5):217-224.
Zhu Hongchun, Li Xu, Meng Yang, et al. Tea bud detection based on Faster R-CNN network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(5):217-224.
[13]
陳國防,陳兆英,王玉亮,等.基于數(shù)據(jù)增強深度學(xué)習(xí)的蘋果花檢測方法研究[J].中國農(nóng)機化學(xué)報,2022,43(5):148-155.
Chen Guofang, Chen Zhaoying, Wang Yuliang, et al. Research on detection method of apple flower based on data-enhanced deep learning [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(5): 148-155.
[14]
衛(wèi)雅娜,王志彬,喬曉軍,等.基于注意力機制與EfficientNet的輕量化水稻病害識別方法[J].中國農(nóng)機化學(xué)報, 2022, 43(11): 172-181.
Wei Yana, Wang Zhibin, Qiao Xiaojun,et al. Lightweight rice disease identification method based on attention mechanism and efficientnet [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(11): 172-181.
[15]
于雪瑩,高繼勇,王首程,等.基于生成對抗網(wǎng)絡(luò)和混合注意力機制殘差網(wǎng)絡(luò)的蘋果病害識別[J].中國農(nóng)機化學(xué)報, 2022, 43(6): 166-174.
Yu Xueying, Gao Jiyong, Wang Shoucheng, et al. Apple disease recognition based on wasserstein generative adversarial networks and hybrid attention mechanism residual network [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(6): 166-174.
[16]
王紅君,季曉宇,趙輝,等.SENet優(yōu)化的Deeplabv3+淡水魚體語義分割[J].中國農(nóng)機化學(xué)報,2021,42(2):158-163.
Wang Hongjun, Ji Xiaoyu, Zhao Hui, et al. SENet optimized Deeplabv3+ freshwater fish body semantic segmentation [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(2): 158-163.
[17]
Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision, 2018: 3-19.
[18]
王建翠,惠巧娟,吳立國.基于多尺度注意力和深度可分離卷積的農(nóng)田雜草檢測[J].中國農(nóng)機化學(xué)報, 2023, 44(5): 182-187.
Wang Jiancui, Hui Qiaojuan, Wu Liguo. Field weeds detection based on multi scale attention and depth separable convolution [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(5): 182-187.
[19]
Hao W, Zhili S. Improved mosaic: Algorithms for more complex images [C]. Journal of Physics: Conference Series. IOP Publishing, 2020, 1684(1): 012094.
[20]
Zhou Q, Zhang W, Li R, et al. Improved YOLOv5-S object detection method for optical remote sensing images based on contextual transformer [J]. Journal of Electronic Imaging, 2022, 31(4): 043049.
[21]
Li S, Cui X, Guo L, et al. Enhanced automatic root recognition and localization in GPR images through a YOLOv4-based deep learning approach [J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 1-14.
[22]
尚文卿,齊紅波.基于改進Faster R-CNN與遷移學(xué)習(xí)的農(nóng)田雜草識別算法[J].中國農(nóng)機化學(xué)報,2022,43(10):176-182.
Shang Wenqing, Qi Hongbo. Identification algorithm of field weeds based on improved Faster R-CNN and transfer learning [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(10): 176-182.