• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進(jìn)YOLOv3網(wǎng)絡(luò)模型的茶草位置檢測(cè)算法

    2023-06-17 15:27:15王根江曉明黃峰方迪張宇欽

    王根 江曉明 黃峰 方迪 張宇欽

    摘要:精準(zhǔn)高效的茶草識(shí)別是智能茶園植保機(jī)械進(jìn)行除草工作的關(guān)鍵。針對(duì)目前茶園除草智能化程度較低等問(wèn)題,提出改進(jìn)YOLOv3網(wǎng)絡(luò)模型的茶草檢測(cè)算法。首先,分季節(jié)和時(shí)間段,在多個(gè)茶葉品種的種植園中以自適應(yīng)的距離和角度采集茶草混合圖像并建立試驗(yàn)數(shù)據(jù)集。接著,使用K均值聚類算法重新設(shè)計(jì)先驗(yàn)錨框尺度。然后,以YOLOv3網(wǎng)絡(luò)模型為基礎(chǔ),選取17×17的網(wǎng)格劃分圖像區(qū)域;采用殘差網(wǎng)絡(luò)(ResNet)作為主干網(wǎng);加入過(guò)程提取層,增強(qiáng)草株檢測(cè)性能。最后在原損失函數(shù)中引入廣義交并比損失。通過(guò)消融試驗(yàn)和不同目標(biāo)檢測(cè)算法對(duì)比試驗(yàn)驗(yàn)證此改進(jìn)算法對(duì)茶樹(shù)與雜草的檢測(cè)效果。試驗(yàn)結(jié)果表明,改進(jìn) YOLOv3網(wǎng)絡(luò)模型對(duì)雜草的檢測(cè)精確率和召回率分別為85.34%和91.38%,對(duì)茶樹(shù)的檢測(cè)精確率和召回率最高達(dá)到82.56%和90.12%;與原YOLOv3網(wǎng)絡(luò)模型相比,檢測(cè)精確率提高8.05%,并且每秒傳輸幀數(shù)達(dá)到52.83 Hz,是Faster R-CNN網(wǎng)絡(luò)模型的16倍。這些數(shù)據(jù)說(shuō)明所提算法在茶園復(fù)雜環(huán)境下,不僅對(duì)于茶樹(shù)和雜草具有更好的識(shí)別效果,而且滿足實(shí)時(shí)檢測(cè)的要求,可以為智能茶園植保機(jī)械提供技術(shù)支持。

    關(guān)鍵詞:茶園植保機(jī)械;茶草檢測(cè);YOLOv3網(wǎng)絡(luò)模型;GIoU損失

    中圖分類號(hào):TP391.4

    文獻(xiàn)標(biāo)識(shí)碼:A

    文章編號(hào):2095-5553 (2023) 03-0199-09

    Abstract: Precise and efficient teaweed identification is the key to weed control of intelligent tea plantation protection machinery. In response to the current problems of low level of weeding intelligence in tea gardens, a teaweed detection algorithm based on the improved YOLOv3 network model is proposed. Firstly, during different seasons and periods, teaweed images are collected with a selfadaptive distance and angle in the plantations of multiple tea varieties and to build experimental data sets. Secondly, the prior anchor box scales are redesigned by the Kmeans clustering algorithm. Then, based on the YOLOv3 network model, an image area is divided by the grids of 17×17, the residual network (ResNet) is utilized as the backbone network, and the process extraction layer is added to it to improve the detection performance for weeds. Finally, the generalized intersection over union loss is introduced in the original loss function. The effectiveness of the improved algorithm is verified for teaweed detection via ablation study and comparison experiment of different target detection algorithms. The experimental results show that the detection precision and recall rate of the improved YOLOv3 network model for weeds are 85.34% and 91.38%, respectively, the highest detection precision and recall rate of tea bushes are 82.56% and 90.12%, respectively; compared with the original YOLOv3 network model, the precision is improved by 8.05%, and the frames per second transmission reaches 52.83 Hz, 16 times of the Faster R-CNN network model. These datas demonstrate that proposed algorithm in the complex environment of tea plantations not only provides better detection effect for tea bushes and green weeds, but also satisfies the requirement of realtime detection, which can provide technical support for intelligent tea plantation machinery.

    Keywords: tea plantation protection machinery; teaweed detection; YOLOv3 network model; GIoU loss

    0引言

    中國(guó)是歷史悠久的茶葉種植大國(guó),各類茶葉制品產(chǎn)量巨大,聞名海外。據(jù)聯(lián)合國(guó)糧食組織的數(shù)據(jù),2017年我國(guó)茶葉出口量為350 kt,且呈現(xiàn)出逐年增加的趨勢(shì)。在普通茶田春夏兩季茶葉種植與采摘過(guò)程中,需要頻繁進(jìn)行人工除草和噴灑除草劑的相關(guān)作業(yè)[1],這些除草操作與粗放的農(nóng)藥噴灑,產(chǎn)生相應(yīng)人力成本的同時(shí),亦會(huì)一定程度損傷茶葉的生長(zhǎng)與品質(zhì)。在農(nóng)業(yè)植保機(jī)械的定位操作功能中,集成先進(jìn)的圖像智能處理技術(shù),準(zhǔn)確識(shí)別茶草位置區(qū)域并進(jìn)行目標(biāo)判決,提升除草操作的工作效果,正在成為現(xiàn)代智能化、精細(xì)化、自動(dòng)化茶園作業(yè)的重要研究方向和應(yīng)用趨勢(shì)。

    在茶樹(shù)與茶葉照片的檢測(cè)與定位技術(shù)中,已經(jīng)具有一些模式識(shí)別的傳統(tǒng)算法。吳雪梅等[2]在典型茶樹(shù)照片中,使用顏色變換和區(qū)域過(guò)濾等方法,將茶葉的嫩枝與老葉分離;Tang等[3]利用關(guān)鍵幀提取、大米計(jì)數(shù)法、光流和Prewitt算子來(lái)計(jì)算茶芽數(shù)量。然而一方面,茶園環(huán)境下植株分布密集、光照變化復(fù)雜、目標(biāo)間特征相似度高,以致于在實(shí)際識(shí)別過(guò)程中,傳流算法計(jì)算耗時(shí)長(zhǎng)且精度不足;另一方面,傳統(tǒng)圖像識(shí)別的效果,主要依賴于算法設(shè)計(jì)的精確度與魯棒性,基本不具備機(jī)器學(xué)習(xí)的先驗(yàn)性與自適應(yīng)性。隨著卷積神經(jīng)網(wǎng)絡(luò)等理論的持續(xù)研究與不斷進(jìn)步,運(yùn)用預(yù)先經(jīng)過(guò)學(xué)習(xí)訓(xùn)練的現(xiàn)代人工智能算法,進(jìn)行目標(biāo)植物的智能定位與自動(dòng)分類,能夠得到更好的工作效果[45],其中,R-CNN(RegionConvolutional Neural Network)算法[6]和YOLO(You Only Look Once)算法[7],具備代表性與適用性。

    鑒于R-CNN算法的檢測(cè)速度較慢,Ren等[8]基于其改進(jìn)算法Fast R-CNN[9]提出Faster R-CNN升級(jí)型算法,即同時(shí)使用兩組網(wǎng)絡(luò)進(jìn)行圖片數(shù)據(jù)訓(xùn)練并預(yù)測(cè)目標(biāo)的精確位置;Gan等[10]結(jié)合熱圖像和彩色圖像的多模式處理平臺(tái),使得該算法在識(shí)別綠色柑橘的作業(yè)中得到了驗(yàn)證;Chen等[11]借助Faster R-CNN算法識(shí)別茶株中的茶葉采摘點(diǎn)。但是,在茶園環(huán)境的茶草識(shí)別作業(yè)中,該算法過(guò)于復(fù)雜的網(wǎng)絡(luò)模型,造成識(shí)別幀數(shù)較低。相比于R-CNN系列為代表的兩階段(twostage)檢測(cè)算法,YOLO系列算法作為單階段(onestage)檢測(cè)算法,可以一次性直接計(jì)算并輸出預(yù)測(cè)與分類結(jié)果,運(yùn)算處理速度具備優(yōu)勢(shì)?;诖耍琑edmon等[12]引入錨框作為輔助工具,提出YOLOv2算法,使得精確率與召回率均有所提升;張成標(biāo)等[13]通過(guò)改進(jìn)其主干網(wǎng)結(jié)構(gòu)和激活函數(shù)等,用于檢測(cè)違章車輛。在YOLOv2算法的基礎(chǔ)上,Redmon等提出YOLOv3算法,通過(guò)對(duì)特征提取主干網(wǎng)絡(luò)進(jìn)行改進(jìn),輸出多維度特征圖,補(bǔ)償特征參數(shù)的損失,進(jìn)一步提升小目標(biāo)檢測(cè)性能;成偉等[14]利用YOLOv3網(wǎng)絡(luò)模型檢測(cè)溫室番茄果實(shí)。然而,在目標(biāo)間相似度與重疊度高、光線條件復(fù)雜的茶園環(huán)境中,需要進(jìn)行多方面分析以提高檢測(cè)精度和速度。

    由于茶園環(huán)境中植株分布密集、雜草生長(zhǎng)不規(guī)律、光照條件復(fù)雜,不合理的茶草圖像采集方式會(huì)造成采集圖像中茶草重疊度高。因此,通過(guò)模擬植保機(jī)械作業(yè)視角,以自適應(yīng)的距離和角度采集茶草混合圖像。考慮到茶草檢測(cè)在實(shí)際應(yīng)用中需要兼顧運(yùn)算及時(shí)性與識(shí)別精確度,提出基于改進(jìn)YOLOv3網(wǎng)絡(luò)模型的茶草檢測(cè)算法。

    1茶草圖像采集與數(shù)據(jù)集制作

    1.1圖像數(shù)據(jù)采集

    為了符合實(shí)際茶園環(huán)境中植保操作的要求,通過(guò)模擬自動(dòng)植保機(jī)械工作視角,選取合理的角度和高度采集茶草混合圖像。首先確立拍攝角度,如圖1所示,以俯瞰角度拍攝的茶草圖像時(shí),一方面,拍攝范圍中的茶株會(huì)遮蔽光線,造成茶草圖像中的雜草噪點(diǎn)較高,另一方面,獲取的茶草圖像中植株分布密集,導(dǎo)致數(shù)據(jù)標(biāo)注與模型檢測(cè)困難。由于這些原因,所以面向茶株拍攝茶草混合圖像,如圖2所示,圖中茶株與雜草色彩紋理清晰、聚集度高、遮蔽程度低。

    然后根據(jù)攝像頭拍攝范圍選取拍攝高度,如圖3所示,菱形、矩形以及圓形色塊分別表示攝像頭距離地面的高度位置,R表示攝像頭拍攝范圍,L表示茶樹(shù)平均高度。假設(shè)攝像頭位于菱形色塊所示高度,攝像頭不能完整拍攝雜草圖像;假設(shè)攝像頭位于圓形色塊所示高度,拍攝圖像中茶樹(shù)信息存在部分損失;而攝像頭位于矩形色塊所示高度時(shí),可以完整捕捉茶樹(shù)及其周圍雜草信息,因此設(shè)定攝像頭距離地面高度為茶樹(shù)平均高度的2/3,即25 cm。

    最后如圖4實(shí)線箭頭所示,將手機(jī)面向茶樹(shù)并固定于如圖5所示的小型履帶式機(jī)器車上,進(jìn)一步操作履帶式機(jī)器車按照?qǐng)D4虛線箭頭所示的行駛路徑與方向,在茶園中勻速行進(jìn)采集圖像。利用上述圖像采集方式,在春夏兩季茶園環(huán)境中,分別于早晨、正午、傍晚采集白茶、大葉茶以及龍井茶三類茶草的混合圖像作為研究的基礎(chǔ)素材。

    1.2構(gòu)建數(shù)據(jù)集

    由于各個(gè)季節(jié)不同時(shí)段茶草圖像的色彩呈現(xiàn)度均有所差異,如圖6(a)所示,初春時(shí)節(jié)氣溫較低,茶葉表面浮現(xiàn)淡紫色斑跡;如圖6(b)所示,夏季茶葉顏色翠綠;如圖6(c)所示,正午陽(yáng)光充裕,茶葉色彩飽和度高,偏黃;如圖6(d)所示,傍晚陽(yáng)光稀少,色彩加深,圖像噪點(diǎn)較明顯,因此選取早晨、正午及傍晚所采集到的圖像比例為2∶2∶1;晴天圖像為陰天的2倍;春季圖像為夏季的2倍??紤]到不同種類茶樹(shù)周圍雜草分布數(shù)量不同,如表1所示,白茶圖片中雜草比例最高,為52%,龍井茶其次,大葉茶圖片中雜草比例為37%,分別選用2 800張白茶雜草混合圖片,2 400張龍井茶雜草混合圖片和1 700張大葉茶雜草混合圖片共6 900張,構(gòu)建數(shù)據(jù)集。

    構(gòu)建數(shù)據(jù)集時(shí),首先將圖片尺寸縮放為544×544,可以提升網(wǎng)絡(luò)訓(xùn)練速度。然后使用LabelImg圖像標(biāo)注程序構(gòu)建矩形邊界框,如圖7所示,在圖像中標(biāo)注茶株和草株的位置,得到其中心坐標(biāo)和邊長(zhǎng)數(shù)據(jù),保存為.xml形式。最后隨機(jī)劃分80%用作訓(xùn)練數(shù)據(jù)集,20%作為測(cè)試數(shù)據(jù)集。

    2網(wǎng)絡(luò)模型設(shè)計(jì)與優(yōu)化

    網(wǎng)絡(luò)模型在圖片中檢測(cè)茶株與雜草可分為以下幾個(gè)階段,如圖8所示,首先將圖像輸入特征提取主干網(wǎng)中抽取特征,得到輸出特征圖;接著根據(jù)輸出特征圖、網(wǎng)格劃分區(qū)域以及先驗(yàn)錨框尺度共同計(jì)算得到預(yù)測(cè)結(jié)果,包含目標(biāo)邊界框的中心點(diǎn)坐標(biāo)、寬高尺寸及其置信度;最后基于置信度計(jì)算預(yù)測(cè)邊界框得分,并結(jié)合閾值過(guò)濾、預(yù)測(cè)結(jié)果中不理想的邊界框。本文通過(guò)優(yōu)化網(wǎng)格劃分?jǐn)?shù)量、先驗(yàn)錨框尺度、主干網(wǎng)結(jié)構(gòu)及網(wǎng)絡(luò)中相關(guān)超參數(shù),提升此網(wǎng)絡(luò)模型對(duì)于茶草圖像的檢測(cè)性能,并計(jì)算精確率和召回率進(jìn)行驗(yàn)證。

    鑒于YOLOv3算法中的先驗(yàn)錨框尺度主要面向自然界中的通用檢測(cè)目標(biāo),與茶草尺度相差較大,所以需要重新設(shè)計(jì)先驗(yàn)錨框尺度。基于標(biāo)注的茶草邊界框數(shù)據(jù),采用K均值聚類算法生成先驗(yàn)錨框尺度,使錨框與茶草邊界框更加匹配,進(jìn)而提升網(wǎng)絡(luò)模型擬合速度和檢測(cè)精確度。具體分為以下幾個(gè)步驟。

    第一步,隨機(jī)設(shè)定K個(gè)先驗(yàn)錨框的寬高作為初始聚類中心。

    第二步,將這K個(gè)錨框與每個(gè)標(biāo)注邊界框固定于同一中心點(diǎn),計(jì)算交并比(Intersection over Union,IoU)。

    2.2特征提取主干網(wǎng)

    YOLOv3網(wǎng)絡(luò)模型采用DarkNet53作為特征提取主干網(wǎng),雖然通過(guò)增加不同尺度的特征圖層,將輸入圖像劃分為3種不同規(guī)格的網(wǎng)格,能夠提高對(duì)不同大小目標(biāo)的檢測(cè)性能。但是在茶草數(shù)據(jù)集中,茶株與雜草的大小相差較大,因此需要重新設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu),提高雜草的檢測(cè)精度和速度。

    He等[15]通過(guò)設(shè)計(jì)殘差模塊解決神經(jīng)網(wǎng)絡(luò)層數(shù)過(guò)多導(dǎo)致的梯度消失等問(wèn)題,提出ResNet網(wǎng)絡(luò)模型。此網(wǎng)絡(luò)模型深度可達(dá)到152層,并且參數(shù)量低于VGG Net網(wǎng)絡(luò)模型,在ILSVR-2015比賽中取得了冠軍。為了兼顧檢測(cè)速度和精度,本文選用ResNet50網(wǎng)絡(luò)模型,并引入過(guò)程提取層構(gòu)建主干網(wǎng)。其中ResNet50網(wǎng)絡(luò)模型是包含49個(gè)卷積層和1個(gè)全連接層的深度卷積神經(jīng)網(wǎng)絡(luò),由于目標(biāo)檢測(cè)算法不同于圖像分類算法,網(wǎng)絡(luò)抽取圖像特征后需要輸出目標(biāo)位置與類別兩個(gè)信息,因此移除最后一層全連接層。同時(shí)為了提高模型收斂速度,達(dá)到穩(wěn)定訓(xùn)練的目的,在每次卷積運(yùn)算后添加批規(guī)范化層(Batch Normalization Layer),將輸入數(shù)

    據(jù)做均值為0、方差為1的歸一化處理,進(jìn)一步地選用Elu函數(shù)作為激活函數(shù),此激活函數(shù)不僅覆蓋了Relu激活函數(shù)的優(yōu)點(diǎn),而且避免出現(xiàn)負(fù)梯度被置0,導(dǎo)致神經(jīng)元不會(huì)被任何數(shù)據(jù)激活的問(wèn)題。

    在ResNet50提取圖像特征的過(guò)程中,由淺至深,得到不同深度的特征圖。其中,淺層特征圖具有較小的感受野,對(duì)小目標(biāo)敏感度高,而深度特征圖相反,具有更強(qiáng)的語(yǔ)義信息,但對(duì)于圖像中的細(xì)節(jié)感知能力較差。為了增強(qiáng)模型對(duì)于小尺度雜草的檢測(cè)性能,利用分治思想,首先提取淺層特征圖,通過(guò)一個(gè)卷積核大小為1×1的卷積層與批規(guī)范化層計(jì)算后,將輸出維度N,34,34,512的特征圖四等分。然后進(jìn)行拼接得到維度為N,17,17,2 048維度的小尺度目標(biāo)檢測(cè)特征圖。最后將此小尺度目標(biāo)檢測(cè)特征圖與ResNet50輸出特征圖拼接,這一過(guò)程稱為特征提取層。

    最終特征提取主干網(wǎng)結(jié)構(gòu)如圖10所示。

    2.4網(wǎng)絡(luò)模型訓(xùn)練和預(yù)測(cè)

    模型訓(xùn)練時(shí),設(shè)置訓(xùn)練參數(shù) batch size為64,learning rate為0.001,每輪更新率為0.95,權(quán)重衰減為0.000 5。將訓(xùn)練好的模型應(yīng)用于測(cè)試數(shù)據(jù)集上,預(yù)測(cè)得到維度N,17,17,7×(B+C+Class)的張量,該張量包含N張圖片17×17×7個(gè)預(yù)測(cè)框的坐標(biāo)、置信度及分類信息。然而一方面,由于圖像中包含目標(biāo)數(shù)量小于網(wǎng)格劃分?jǐn)?shù)量289,許多網(wǎng)格不包含目標(biāo)中心點(diǎn),造成結(jié)果中存在無(wú)效預(yù)測(cè)框;另一方面,由于先驗(yàn)錨框數(shù)量較多,導(dǎo)致結(jié)果中存在預(yù)測(cè)目標(biāo)相同但位置預(yù)測(cè)偏差較大的低精度預(yù)測(cè)框。為了得到精確結(jié)果,通過(guò)以下兩步分別過(guò)濾無(wú)效預(yù)測(cè)框和低精度預(yù)測(cè)框。

    首先計(jì)算每個(gè)預(yù)測(cè)框的評(píng)估分?jǐn)?shù)Score,如式(15)所示。然后設(shè)定閾值1,若評(píng)估分?jǐn)?shù)低于閾值1,則認(rèn)為該預(yù)測(cè)框?yàn)闊o(wú)效預(yù)測(cè)框。為了防止閾值1設(shè)定過(guò)小,過(guò)濾部分有效預(yù)測(cè)框;反之設(shè)定過(guò)大,過(guò)濾效果差,分別對(duì)比0.5、0.6及0.65三個(gè)閾值的過(guò)濾精度,結(jié)果如表2所示,可以看出0.5作為閾值1效果最佳,因此選用0.5作為閾值1過(guò)濾無(wú)效預(yù)測(cè)框。

    對(duì)于低精度預(yù)測(cè)框,采用非極大值抑制(NonMaximum Suppression,NMS)進(jìn)行過(guò)濾。將每個(gè)預(yù)測(cè)框的評(píng)估分?jǐn)?shù)從大到小排序,依次計(jì)算兩兩預(yù)測(cè)框之間的IoU值,如果IoU值高于閾值2,認(rèn)為預(yù)測(cè)目標(biāo)相同,則去除兩者間評(píng)估分?jǐn)?shù)較低的預(yù)測(cè)框,這里設(shè)定閾值2與閾值1相同,為0.5。

    2.5評(píng)價(jià)指標(biāo)

    模型預(yù)測(cè)結(jié)果篩選后,得到最終預(yù)測(cè)框。通過(guò)計(jì)算精確率(Precision)和召回率(Recall)來(lái)準(zhǔn)確評(píng)估模型性能。

    其中,真正樣本(True Positive,TP)表示檢測(cè)到的目標(biāo)類別與真實(shí)目標(biāo)類別一致的樣本數(shù)量;假正樣本(False Positive,F(xiàn)P)為檢測(cè)到的目標(biāo)類別與真實(shí)目標(biāo)類別不一致的樣本數(shù)量;假負(fù)樣本(False Negative,F(xiàn)N)為真實(shí)目標(biāo)存在但未被網(wǎng)絡(luò)檢測(cè)出來(lái)的樣本數(shù)量。為了更好地評(píng)估模型的穩(wěn)定性,引入F1-Score進(jìn)行衡量。

    3試驗(yàn)結(jié)果和分析

    試驗(yàn)環(huán)境配置選擇CPU為Intel第九代酷睿處理器,GPU為RTX2080TI,內(nèi)存32G的計(jì)算機(jī),基于Python3.8,采用Pytorch開(kāi)發(fā)。模型訓(xùn)練及測(cè)試均在此試驗(yàn)環(huán)境中完成。

    3.1不同網(wǎng)格劃分下的雜草檢測(cè)性能

    為了驗(yàn)證以17×17網(wǎng)格劃分圖像區(qū)域?qū)﹄s草檢測(cè)性能的影響,與采用15×15和13×13網(wǎng)格劃分圖像區(qū)域的網(wǎng)絡(luò)模型進(jìn)行對(duì)比,試驗(yàn)結(jié)果如表3所示。

    由表3可以看出,以17×17網(wǎng)格劃分圖像區(qū)域,雜草識(shí)別精確率分別比在15×15和13×13網(wǎng)格劃分區(qū)域下高5.71%和8.04%,召回率分別提升4.63%和13.06%,F(xiàn)1-Score分別提升5.22%和10.45%。這些結(jié)果說(shuō)明采用17×17網(wǎng)格劃分圖像區(qū)域,能夠提升模型對(duì)于雜草的檢測(cè)性能。

    3.2不同品種茶樹(shù)的檢測(cè)結(jié)果

    在本節(jié)中,分別比較此改進(jìn)型YOLOv3網(wǎng)絡(luò)模型對(duì)于不同品種茶樹(shù)的檢測(cè)性能,如表4所示。

    由表4可得,此模型對(duì)于白茶、大葉茶以及龍井茶三類茶樹(shù)的識(shí)別精確率分別為82.38%、79.37%、82.56%,召回率分別為90.12%、88.72%、89.36%,F(xiàn)1-Score分別為86.08%、83.79%、85.95%。而對(duì)于雜草的識(shí)別精確率、召回率以及F1-Score均高于三類茶樹(shù),這是由于茶園環(huán)境復(fù)雜,茶樹(shù)之間紋理特征差別較小造成的,但是在實(shí)際除草等典型應(yīng)用中,茶草區(qū)分精確率更為關(guān)鍵,符合對(duì)于實(shí)際除草作業(yè)的需求。

    3.3消融試驗(yàn)

    為進(jìn)一步驗(yàn)證重新設(shè)計(jì)先驗(yàn)錨框尺度、優(yōu)化特征提取主干網(wǎng)及其相關(guān)參數(shù)對(duì)于模型性能提升的有效性,通過(guò)5組試驗(yàn)詳細(xì)對(duì)比,其檢測(cè)性能對(duì)比結(jié)果如表5所示。

    由表5中改進(jìn)算法A對(duì)比YOLOv3(Darknet)發(fā)現(xiàn),通過(guò)重新設(shè)計(jì)先驗(yàn)錨框尺度,改進(jìn)算法的精確率提升0.99%,召回率提升1.44%,F(xiàn)1-Score提升1.20%。

    對(duì)比改進(jìn)算法A和改進(jìn)算法B可知,使用ResNet50作為特征提取主干網(wǎng),并基于特征金字塔與分治思想來(lái)引入過(guò)程提取層,使得精確率、召回率以及F1-Score分別比采用DarkNet53作為主干網(wǎng)的網(wǎng)絡(luò)模型高2.77%、2.13%、2.47%,驗(yàn)證了重新設(shè)計(jì)特征提取主干網(wǎng)有助于提升網(wǎng)絡(luò)檢測(cè)性能。

    由改進(jìn)算法B和改進(jìn)算法C對(duì)比可得,通過(guò)引入GIoU損失函數(shù),分別使精確率提升2.91%,召回率提升3.23%,F(xiàn)1-Score提升3.07%;將此改進(jìn)的YOLOv3與改進(jìn)算法C對(duì)比可知,通過(guò)優(yōu)化損失函數(shù)中的超參數(shù),使得精確率提升1.11%,召回率提升4.58%,F(xiàn)1-Score提升2.87,驗(yàn)證了重新設(shè)計(jì)先驗(yàn)錨框、改進(jìn)YOLOv3主干網(wǎng)及優(yōu)化相關(guān)參數(shù)能夠有效提升網(wǎng)絡(luò)模型在茶園植株分布密集環(huán)境中的茶草檢測(cè)性能。

    3.4常用目標(biāo)檢測(cè)算法對(duì)比試驗(yàn)

    將此算法與FasterR-CNN算法、YOLOv2算法以及采用DarkNet的YOLOv3算法等常用目標(biāo)檢測(cè)算法進(jìn)行對(duì)比試驗(yàn)。

    試驗(yàn)結(jié)果如表6所示,此改進(jìn)型YOLOv3算法精確率達(dá)到82.41%,F(xiàn)PS達(dá)到52.83 Hz,雖然檢測(cè)精確率稍低于FasterR-CNN算法,但是其速度為FasterR-CNN的16倍,從而驗(yàn)證了采用單階段目標(biāo)檢測(cè)算法相對(duì)于兩階段目標(biāo)檢測(cè)算法,運(yùn)算處理速度具備優(yōu)勢(shì),同時(shí)說(shuō)明將此改進(jìn)算法應(yīng)用于茶園植保機(jī)械作業(yè)中,滿足檢測(cè)實(shí)時(shí)性等要求。

    相較于YOLOv2和采用DarkNet的YOLOv3算法等其他單階段目標(biāo)檢測(cè)算法,此改進(jìn)型YOLOv3算法精確率比YOLOv3(DarkNet)算法高8.05%,比YOLOv2算法高12.59%,并且檢測(cè)速度最高高出9.63 Hz。

    以上結(jié)果說(shuō)明此改進(jìn)算法在進(jìn)一步提升運(yùn)算速度的前提下,具有一定的目標(biāo)檢測(cè)精確率。

    3.5不同場(chǎng)景下的檢測(cè)效果

    為了驗(yàn)證此模型的魯棒性,應(yīng)用該模型對(duì)春季早晨、春季中午、夏季早晨以及夏季中午場(chǎng)景下的茶樹(shù)和雜草進(jìn)行檢測(cè)。

    檢測(cè)結(jié)果如圖11所示,其中,紅色方框內(nèi)為雜草,黃色方框內(nèi)為白茶。由圖11(a)、圖11(b)、圖11(d)可以看出,此模型能夠精確識(shí)別小型草株,并且在草株被茶樹(shù)部分遮蔽的條件下同時(shí)茶葉表面有紫色斑跡時(shí),仍然可以檢測(cè)圖片中的茶樹(shù)和草株。綜上所述,此模型在實(shí)際茶園檢測(cè)中,具有一定的精確度和魯棒性。

    4結(jié)論

    在人工智能算法與農(nóng)業(yè)自動(dòng)化不斷發(fā)展的背景下,針對(duì)茶園復(fù)雜環(huán)境,提出改進(jìn)YOLOv3網(wǎng)絡(luò)模型的茶草位置檢測(cè)算法。

    1) 在不同季節(jié)時(shí)段的茶園環(huán)境中,通過(guò)模擬自動(dòng)化農(nóng)業(yè)機(jī)械作業(yè)視角,拍攝多個(gè)品種茶樹(shù)的茶草混合圖像,進(jìn)行標(biāo)注以建立試驗(yàn)數(shù)據(jù)集,提高了網(wǎng)絡(luò)模型的泛化能力;對(duì)YOLOv3網(wǎng)絡(luò)模型主干網(wǎng)改進(jìn)后,使用分治思想加入過(guò)程提取層,加強(qiáng)小型草株檢測(cè)性能;引入GIoU損失函數(shù),并優(yōu)化損失函數(shù)中的超參數(shù),提升目標(biāo)定位損失計(jì)算的精確度。最終訓(xùn)練得到的模型在測(cè)試集上的精確率達(dá)到82.41%。

    2) 將此網(wǎng)絡(luò)模型分別與原YOLOv3模型、Faster R-CNN模型在測(cè)試集上進(jìn)行對(duì)比試驗(yàn),試驗(yàn)結(jié)果表明,此網(wǎng)絡(luò)模型相比原YOLOv3網(wǎng)絡(luò)模型精確率提高8.05%,速度提升9.63 Hz;相比Faster R-CNN模型,速度提升了16倍,有效說(shuō)明此改進(jìn)型YOLOv3模型具有一定的識(shí)別精確度和檢測(cè)速度,能夠應(yīng)用于茶園植保機(jī)械中。

    參考文獻(xiàn)

    [1]Tang J L, Chen X Q, Miao R H, et al. Weed detection using image processing under different illumination for sitespecific areas spraying [J]. Computers and Electronics in Agriculture, 2016, 122: 103-111.

    [2]吳雪梅, 張富貴, 呂敬堂. 基于圖像顏色信息的茶葉嫩葉識(shí)別方法研究[J]. 茶葉科學(xué), 2013, 33(6): 584-589.

    Wu Xuemei, Zhang Fugui, Lü Jingtang. Research on recognition of tea tender leaf based on image color information [J]. Journal of Tea Science, 2013, 33(6): 584-589.

    [3]Tang J L, Wang D, Zhang Z G, et al. Weed identification based on Kmeans feature learning combined with convolutional neural network[J]. Computers and Electronics in Agriculture, 2017, 135: 63-70.

    [4]Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2014: 580-587.

    [5]Jiang H, Zhang C, Qiao Y, et al. CNN feature based graph convolutional network for weed and crop recognition in smart farming[J]. Computers and Electronics in Agriculture, 2020, 174: 105450.

    [6]Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.

    [7]Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, realtime object detection[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.

    [8]Ren S, He K, Girshick R, et al. Faster R-CNN: Towards realtime object detection with region proposal networks [J]. Advances in Neural Information Processing Systems, 2015, 28.

    [9]Girshick R. Fast R-CNN [C]. Proceedings of the IEEE International Conference on Computer Vision, 2015: 1440-1448.

    [10]Gan H, Lee W S, Alchanatis V, et al. Immature green citrus fruit detection using color and thermal images [J]. Computers and Electronics in Agriculture, 2018, 152: 117-125.

    [11]Chen YT, Chen SF. Localizing plucking points of tea leaves using deep convolutional neural networks[J]. Computers and Electronics in Agriculture, 2020, 171: 105298.

    [12]Redmon J, Farhadi A. YOLO9000: Better, faster, stronger [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 7263-7271.

    [13]張成標(biāo), 童寶宏, 程進(jìn), 等. 改進(jìn)的Yolo_v2違章車輛檢測(cè)方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2020, 56(20): 104-110.

    Zhang Chengbiao, Tong Baohong, Cheng Jin, et al. Improved Yolo_v2 illegal vegucle detection method [J]. Computer Engineering and Applications, 2020, 56(20): 104-110.

    [14]成偉, 張文愛(ài), 馮青春, 等. 基于改進(jìn)YOLOv3的溫室番茄果實(shí)識(shí)別估產(chǎn)方法[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2021, 42(4): 176-182.

    Cheng Wei, Zhang Wenai, Feng Qingchun, et al. Method of greenhouse tomato fruit identification and yield estimation based on improved YOLOv3[J]. Journal of Chinese Agricultural Mechanization, 2021, 42(4): 176-182.

    [15]He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

    [16]聶鑫, 劉文, 吳巍. 復(fù)雜場(chǎng)景下基于增強(qiáng)YOLOv3的船舶目標(biāo)檢測(cè)[J]. 計(jì)算機(jī)應(yīng)用, 2020, 40(9): 2561-2570.

    Nie Xin, Liu Wen, Wu Wei. Ship detection based on enhanced YOLOv3 under complex enviroments [J]. Journal of Computer Applications, 2020, 40(9): 2561-2570.

    内江市| 临潭县| 怀远县| 新野县| 惠州市| 房山区| 台湾省| SHOW| 汽车| 蒲城县| 洱源县| 台南市| 稷山县| 凌源市| 邵武市| 庆元县| 高青县| 宁德市| 将乐县| 新民市| 南开区| 收藏| 喀什市| 荔浦县| 玉环县| 乾安县| 桂阳县| 科尔| 藁城市| 鄯善县| 上思县| 永年县| 桃江县| 抚松县| 慈利县| 洮南市| 通州区| 依兰县| 陕西省| 泽库县| 琼中|