田 華
(長(zhǎng)春市九臺(tái)區(qū)莽卡滿族鄉(xiāng)綜合服務(wù)中心 農(nóng)業(yè)農(nóng)機(jī)技術(shù)服務(wù)科,長(zhǎng)春 130500)
隨著農(nóng)業(yè)生產(chǎn)要求不斷提升和農(nóng)業(yè)勞動(dòng)力轉(zhuǎn)移,對(duì)農(nóng)業(yè)機(jī)械提出了更高要求,農(nóng)業(yè)機(jī)械化正向智能化方向發(fā)展,對(duì)于提高農(nóng)業(yè)生產(chǎn)效率、降低農(nóng)業(yè)勞動(dòng)強(qiáng)度具有重要意義。
農(nóng)業(yè)機(jī)械目標(biāo)定位及檢測(cè)技術(shù)是農(nóng)業(yè)機(jī)械智能化發(fā)展的重要方向,是實(shí)現(xiàn)農(nóng)業(yè)機(jī)械無(wú)人化發(fā)展的支撐技術(shù)之一,主要是基于視覺識(shí)別技術(shù)、計(jì)算機(jī)技術(shù)、圖像處理技術(shù)、人工智能技術(shù)等為一體,利用計(jì)算機(jī)模擬人類的視覺功能,通過(guò)圖像采集與處理技術(shù),將圖像信息轉(zhuǎn)化為數(shù)字信號(hào),進(jìn)而獲取目標(biāo)圖像并實(shí)現(xiàn)田間定位與檢測(cè)。目前,目標(biāo)定位及檢測(cè)技術(shù)已經(jīng)廣泛應(yīng)用于航空航天、醫(yī)學(xué)成像、交通物流和工業(yè)生產(chǎn)等領(lǐng)域,在農(nóng)業(yè)采摘、食品加工、機(jī)械生產(chǎn)和包裝分類等方面替代人工實(shí)現(xiàn)高效生產(chǎn)。
目前,視覺識(shí)別及定位檢測(cè)技術(shù)主要是基于ORB特征點(diǎn)匹配和SIFT特征提取技術(shù),但是由于農(nóng)業(yè)生產(chǎn)環(huán)境較為復(fù)雜,現(xiàn)有技術(shù)無(wú)法實(shí)現(xiàn)對(duì)田間作業(yè)目標(biāo)的精準(zhǔn)定位與檢測(cè),農(nóng)業(yè)機(jī)械視覺識(shí)別系統(tǒng)存在目標(biāo)識(shí)別模糊、分類效率差和響應(yīng)速度慢等問題,影響農(nóng)業(yè)機(jī)械田間工作質(zhì)量與工作效率。隨著深度學(xué)習(xí)及人工智能技術(shù)的逐漸發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)及YOLO,算法逐漸應(yīng)用于目標(biāo)定位與檢測(cè)技術(shù)中,響應(yīng)速度塊,定位精準(zhǔn)度較高。
本研究基于YOLOX算法進(jìn)行圖像識(shí)別與樣本庫(kù)構(gòu)建,用于視覺識(shí)別系統(tǒng)的目標(biāo)特征向量提取、定位和檢測(cè)技術(shù),總體工作流程圖如圖1所示。
圖1 YOLOX算法工作流程圖
為了增加訓(xùn)練數(shù)據(jù)集,提高目標(biāo)識(shí)別能力,本研究采用離線重采樣,在目標(biāo)采集圖像中增強(qiáng)目標(biāo)樣本后,使用兩倍的重采樣率來(lái)處理圖像集,由于圖像在輸入到網(wǎng)絡(luò)之前需要進(jìn)行預(yù)處理,預(yù)處理后的數(shù)據(jù)不完全相同,因此訓(xùn)練集不會(huì)過(guò)度擬合。本研究采集的圖像集為高分辨率,如果將這些數(shù)據(jù)直接輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,在訓(xùn)練過(guò)程中會(huì)因壓縮而失去很多有用的語(yǔ)義信息,減少目標(biāo)特征提取效率,因此,使用多尺度訓(xùn)練來(lái)提高模型的性能,并隨機(jī)選擇每個(gè)量表在每個(gè)時(shí)期進(jìn)行訓(xùn)練,增加訓(xùn)練樣本的多樣性。在輸入端加入Focus結(jié)構(gòu)用于增加圖像通道數(shù)量,優(yōu)化后的YOLOX-x算法工作流程圖如圖2所示。
圖2 YOLOX-x算法工作流程圖
傳統(tǒng)的視覺識(shí)別系統(tǒng)采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,檢測(cè)目標(biāo)的形狀和顏色等關(guān)鍵特征信息,高分辨率特征信息。針對(duì)傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)排模型在目標(biāo)檢測(cè)與特征提取中存在的問題,采用HRNet高資源作為特征提取網(wǎng)絡(luò),減少特征信息損失。將CBAM注意機(jī)制添加到HRNet的第一級(jí)特征提取和第二、三、四級(jí)特征融合中,在第一階段加入CBAM融合模塊,使網(wǎng)絡(luò)能夠鎖定在特征提取初始階段的目標(biāo)特征,在第二階段加入CBAM融合模塊,在第二階段、第三階段和第四階段能充分提取到重要的目標(biāo)特征信息。
操作平臺(tái)為臺(tái)式計(jì)算機(jī),運(yùn)行環(huán)境為Ubuntu 18.04,主頻4.10 GHz,16 G運(yùn)行內(nèi)存,1 TB機(jī)械硬盤,使用GPU加速計(jì)算,在Python編程語(yǔ)言下,運(yùn)用PyCharm書寫調(diào)試大量代碼,對(duì)提出的YOLOX-x算法與傳統(tǒng)的YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN進(jìn)行田間對(duì)比驗(yàn)證。模型設(shè)置中,學(xué)習(xí)效率為0.005,迭代次數(shù)為10×103次,權(quán)值衰減設(shè)置為0.005。
3.2.1 目標(biāo)檢測(cè)精度
選擇平均精度(AP)作為評(píng)估指標(biāo),對(duì)田間目標(biāo)正常位姿、物體重疊進(jìn)行檢測(cè)與分析,試驗(yàn)結(jié)果如表1所示。研究結(jié)果表明,在正常位姿檢測(cè)中,YOLOX-x算法較YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN準(zhǔn)確率提升7.76%,9.12%,1.51%和0.15%;在物體重疊情況下,YOLOX-x算法較YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN準(zhǔn)確率分別提升19.97%,18.69%,2.73%和1.61%;在目標(biāo)檢測(cè)精度中,YOLOX-x算法較YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN分別提升10.65%,9.05%,1.99%和0.87%;YOLOX-x響應(yīng)速度較YOLOX、YOLOXv3、YOLOXv4和Faster-RCNN分別提升63.51%,34.51%,27.45%和67.96%,因此,YOLOX-x算法在田間目標(biāo)定位與檢測(cè)中存在較高的精度。
表1 不同算法下農(nóng)業(yè)機(jī)械目標(biāo)檢測(cè)精度結(jié)果分析
3.2.2 農(nóng)業(yè)機(jī)械定位
在對(duì)田間目標(biāo)檢測(cè)結(jié)束后,農(nóng)業(yè)機(jī)械需要進(jìn)行定位試驗(yàn),通過(guò)對(duì)比農(nóng)業(yè)機(jī)械實(shí)際運(yùn)行坐標(biāo)點(diǎn)與算法模擬坐標(biāo)點(diǎn)進(jìn)行差異性分析,重復(fù)實(shí)驗(yàn)誤差計(jì)算公式如式(1)所示,不同算法下試驗(yàn)結(jié)果如表2所示,YOLOX-x定位誤差較YOLOX、YOLOXv3、YOLOXv4和Faster-RCNN分別提升28.94%,25.28%,24.60%和16.08%。
表2 農(nóng)業(yè)機(jī)械定位誤差分析 單位:%
(1)
式中,(xend,yend)為基于各項(xiàng)算法下的農(nóng)業(yè)機(jī)械田間坐標(biāo),(xobject,yobject)為農(nóng)業(yè)機(jī)械田間實(shí)際定位坐標(biāo)。
為了解決農(nóng)業(yè)機(jī)械視覺識(shí)別系統(tǒng)存在目標(biāo)識(shí)別模糊、分類效率差和響應(yīng)速度慢等問題,提出一種YOLOX優(yōu)化算法——YOLOX-x,并通過(guò)田間試驗(yàn)進(jìn)行驗(yàn)證,主要得出以下結(jié)論:
1)為了增加訓(xùn)練數(shù)據(jù)集,提高目標(biāo)識(shí)別能力,采用離線重采樣,在目標(biāo)采集圖像中增強(qiáng)目標(biāo)樣本后,使用兩倍的重采樣率處理圖像集,并隨機(jī)選擇每個(gè)量表在每個(gè)時(shí)期進(jìn)行訓(xùn)練,增加訓(xùn)練樣本的多樣性。在輸入端加入Focus結(jié)構(gòu)用于增加圖像通道數(shù)量。
2)本研究采用HRNet高資源作為特征提取網(wǎng)絡(luò),減少特征信息損失。將CBAM注意機(jī)制添加到HRNet的第一級(jí)特征提取和第二、三、四級(jí)特征融合中,能夠充分提取到重要的目標(biāo)特征信息。
3)本研究提出的YOLOX-x算法較YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN在田間目標(biāo)檢測(cè)準(zhǔn)確率和響應(yīng)速度都得到較大提升,在正常位姿和物體重疊的情況下定位識(shí)別中精度達(dá)到94.03%和91.56%,研究結(jié)果對(duì)于農(nóng)業(yè)機(jī)械田間定位檢測(cè)技術(shù)提供技術(shù)參考與理論借鑒。
(05)