郭蓓,王貝貝,張志紅,吳蘇,李鵬,胡莉婷
摘要:農(nóng)作物圖像在進(jìn)行目標(biāo)檢測(cè)時(shí),由于作物種植較密集、成像質(zhì)量不佳等原因嚴(yán)重影響目標(biāo)檢測(cè)算法的檢測(cè)精度。針對(duì)存在的問(wèn)題,提出一種基于YOLOv3的改進(jìn)算法優(yōu)化在農(nóng)作物目標(biāo)檢測(cè)的檢測(cè)性能:對(duì)YOLOv3的主干特征提取網(wǎng)絡(luò)進(jìn)行優(yōu)化,利用原網(wǎng)絡(luò)中輸出的4倍降采樣特征圖對(duì)目標(biāo)進(jìn)行檢測(cè),并且在算法原網(wǎng)絡(luò)殘差塊的基礎(chǔ)上增加殘差單元,以檢測(cè)目標(biāo)較小的農(nóng)作物位置信息;提出高斯衰減函數(shù),對(duì)圖像中高度重疊的農(nóng)作物候選框的衰減較強(qiáng),在有效抑制冗余框的同時(shí)也可以有效地降低漏檢率;對(duì)回歸損失函數(shù)進(jìn)行優(yōu)化改進(jìn),用CIOU Loss作為損失函數(shù),使得目標(biāo)檢測(cè)過(guò)程中最終的目標(biāo)定位更加精確。將改進(jìn)的 YOLOv3算法和原 YOLOv3 算法、Faster R-CNN 算法在實(shí)拍的玉米作物圖像數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果表明改進(jìn)后的YOLOv3算法能有效檢測(cè)農(nóng)作物小目標(biāo),算法檢測(cè)的平均準(zhǔn)確率均值和檢測(cè)速度都有明顯的提升。
關(guān)鍵詞:目標(biāo)檢測(cè);YOLOv3算法;特征提取網(wǎng)絡(luò);損失函數(shù)
1? 引言
物候觀測(cè)是對(duì)生態(tài)物候現(xiàn)象按統(tǒng)一的標(biāo)準(zhǔn)進(jìn)行觀察和記載,是生態(tài)氣象業(yè)務(wù)和科研的基礎(chǔ),更是氣候多圈層生態(tài)氣象業(yè)務(wù)觀測(cè)體系的重要組成部分。隨著我國(guó)現(xiàn)代化智慧農(nóng)業(yè)的普及,智能化設(shè)備監(jiān)測(cè)田間作物逐漸替代人工觀測(cè),物候自動(dòng)觀測(cè)儀包含了采集器、傳感器和通信單元等設(shè)備,保證物候觀測(cè)的準(zhǔn)確性與高效性。
隨著物聯(lián)網(wǎng)和人工智能等技術(shù)的發(fā)展,植被生態(tài)的觀測(cè)方法正在發(fā)生變革,計(jì)算機(jī)視覺(jué)技術(shù)逐漸被應(yīng)用到植被物候觀測(cè)中。計(jì)算機(jī)視覺(jué)不僅是工程研究領(lǐng)域更是計(jì)算機(jī)科學(xué)中具有重大意義和挑戰(zhàn)性的研究領(lǐng)域,目標(biāo)檢測(cè)作為其主要的研究方向逐漸成為當(dāng)下的熱門(mén)研究?jī)?nèi)容。目標(biāo)檢測(cè)的主要任務(wù)是在圖像中找到符合要求的目標(biāo)信息,并標(biāo)記目標(biāo)所屬類(lèi)別,分析所處的位置信息[1]。農(nóng)作物目標(biāo)檢測(cè)是基于目標(biāo)檢測(cè)的方法對(duì)圖中的農(nóng)作物進(jìn)行目標(biāo)識(shí)別檢測(cè),輸出作物類(lèi)別,能更好地觀察作物生長(zhǎng)狀況是否良好,及時(shí)監(jiān)測(cè)田間雜草的生長(zhǎng)信息,為農(nóng)事活動(dòng)提供判斷依據(jù),保障作物生長(zhǎng)狀況持續(xù)向好。利用算法判斷相應(yīng)類(lèi)別數(shù)量,是后期統(tǒng)計(jì)作物生長(zhǎng)情況、種植密度和產(chǎn)量信息的重要依據(jù),為國(guó)家糧食安全保駕護(hù)航。
目前比較熱門(mén)的目標(biāo)檢測(cè)算法大多是基于深度學(xué)習(xí)構(gòu)建識(shí)別模型,自動(dòng)提取目標(biāo)識(shí)別過(guò)程中的特征信息,具有強(qiáng)大的魯棒性和泛化能力,算法根據(jù)識(shí)別階段主要分為兩大類(lèi):two-stage與one-stage目標(biāo)檢測(cè)算法。two-stage目標(biāo)檢測(cè)算法檢測(cè)速度較慢一些,但檢測(cè)精確度很高,而one-stage目標(biāo)檢測(cè)算法的檢測(cè)時(shí)間會(huì)顯著提升,對(duì)于實(shí)時(shí)檢測(cè)有更好的適用性,但檢測(cè)精度較低[2],常見(jiàn)的算法有SSD、YOLO、RetinaNet、RefineDet、YOLOv3等。
于博文等提出改變網(wǎng)絡(luò)結(jié)構(gòu)利用可形變卷積優(yōu)化的殘差單元結(jié)構(gòu)加入到特征提取網(wǎng)路,提高檢測(cè)目標(biāo)的效率和精確度[3]。陳禹蒲等提出將深度學(xué)習(xí)骨干網(wǎng)絡(luò)拆分為兩個(gè)子網(wǎng)絡(luò)分支,通過(guò)降低子網(wǎng)絡(luò)的層數(shù)和通道數(shù)以降低網(wǎng)絡(luò)結(jié)構(gòu)的總參數(shù)量。提高網(wǎng)絡(luò)結(jié)構(gòu)的特征提取能力[4]。王瀟等提出通過(guò)降低重疊部分較大的目標(biāo)框的置信度引入了Soft-NMS,提高目標(biāo)二次檢測(cè)可能,增強(qiáng)網(wǎng)絡(luò)的召回率[5]。王陽(yáng)等提出利用WIoU損失函數(shù)優(yōu)化回歸損失,通過(guò)恰當(dāng)?shù)奶荻确峙浞绞?,提高網(wǎng)絡(luò)結(jié)構(gòu)的精確度[6];申志超對(duì)卷積核與感受野的定量關(guān)系進(jìn)行分析,設(shè)計(jì)了基于三級(jí)可控感受野結(jié)構(gòu)和特征圖降采樣結(jié)構(gòu)的農(nóng)作物檢測(cè)網(wǎng)絡(luò),實(shí)現(xiàn)了卷積層拓?fù)浣Y(jié)構(gòu)的改進(jìn),提高了模型的檢測(cè)性能[7];張穎超引入DropBlock正則化技術(shù),降低模型的內(nèi)存需求,使用PANet對(duì)特征信息去除噪聲,定位特征網(wǎng)絡(luò)像素點(diǎn),能更快更準(zhǔn)確地完成農(nóng)作物葉片病蟲(chóng)害檢測(cè)[8];金沙沙將NAM注意力機(jī)制加入到Y(jié)OLOv5s主干網(wǎng)絡(luò)上,并參考Bi FPN的思想修改YOLOv5s的頸部網(wǎng)絡(luò),提高YOLOv5s的特征融合能力,大大提高農(nóng)作物種子檢測(cè)性能[9]。
在自然條件下,農(nóng)作物圖像在采集過(guò)程中光照、抖動(dòng)、遮擋等外界因素會(huì)造成成像質(zhì)量不佳,圖像在分辨率、特征信息等有一定的差異,嚴(yán)重干擾目標(biāo)檢測(cè)算法的定位精度,導(dǎo)致產(chǎn)生較高的漏檢率,上述研究算法在農(nóng)作物識(shí)別檢測(cè)效果不盡理想,因此本文基于one-stage目標(biāo)檢測(cè)YOLOv3算法,提出改進(jìn)的YOLOv3農(nóng)作物目標(biāo)檢測(cè)算法。它通過(guò)優(yōu)化調(diào)整主干特征提取網(wǎng)絡(luò)、調(diào)整NMS重疊框置信度、引入新的損失函數(shù)以及有效的數(shù)據(jù)處理與訓(xùn)練方法,實(shí)現(xiàn)了在不影響實(shí)時(shí)性能的前提下,大幅提高農(nóng)作物目標(biāo)檢測(cè)的平均精度和檢測(cè)速度。
2? 基于改進(jìn)的YOLOv3目標(biāo)檢測(cè)算法
2.1? 加強(qiáng)特征提取網(wǎng)絡(luò)
YOLOv3算法主干網(wǎng)絡(luò)結(jié)構(gòu)為Dark Net53,包含53個(gè)卷積網(wǎng)絡(luò)層,算法利用殘差網(wǎng)絡(luò)建立了5個(gè)殘差塊,通過(guò)殘差塊的累積,實(shí)現(xiàn)網(wǎng)絡(luò)深度的增加。YOLOv3網(wǎng)絡(luò)對(duì)小目標(biāo)檢測(cè)時(shí),采用的是8倍降采樣輸出特征圖,而對(duì)處于早期生長(zhǎng)期的農(nóng)作物目標(biāo)一般像素比較小,直接影響目標(biāo)識(shí)別模型對(duì)于小目標(biāo)作物的檢測(cè)精度,目標(biāo)檢測(cè)層為8倍降采樣特征圖對(duì)目標(biāo)較小的農(nóng)作物位置信息的檢測(cè)能力是有一定局限性的,為了加強(qiáng)對(duì)于小目標(biāo)農(nóng)作物的檢測(cè)精度,獲取更多的小作物目標(biāo)位置信息,將原算法網(wǎng)絡(luò)模型輸出的8倍降采樣特征圖經(jīng)過(guò)2倍上采樣后與Darknet 53中第2個(gè)殘差塊輸出的4倍降采樣特征圖進(jìn)行連接,建立輸出為4倍降采樣的特征融合目標(biāo)檢測(cè)層,以更好地檢測(cè)小目標(biāo)農(nóng)作物信息[10]。同時(shí),原網(wǎng)絡(luò)的第2個(gè)殘差塊中增加2個(gè)殘差單元以獲取更豐富的低層小目標(biāo)作物的位置信息,改進(jìn)的YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
2.2? 調(diào)整NMS重疊框置信度
農(nóng)作物實(shí)際種植過(guò)程中易出現(xiàn)作物生長(zhǎng)過(guò)密,作物之間生長(zhǎng)間距過(guò)小的情況,作物進(jìn)行目標(biāo)檢測(cè)時(shí),會(huì)因?yàn)楹蜻x框重疊度較大進(jìn)而影響一部分作物識(shí)別的置信度,造成誤檢,影響識(shí)別精確度。因此本論文對(duì)重疊框置信度的規(guī)則作出調(diào)整。
標(biāo)準(zhǔn)的NMS的抑制函數(shù)如下所示,IOU超過(guò)閾值的檢測(cè)框的得分直接設(shè)置為0。
(1)
本文提出高斯懲罰函數(shù),具體公式如下:
(2)
高斯衰減函數(shù)對(duì)沒(méi)有重疊的檢測(cè)框的原有檢測(cè)分?jǐn)?shù)的衰減相對(duì)較弱,同時(shí)對(duì)高度重疊的候選框的衰減較強(qiáng),與農(nóng)作物檢測(cè)對(duì)于重疊框衰減函數(shù)的需求一致,在實(shí)驗(yàn)中,動(dòng)態(tài)閾值的設(shè)計(jì)導(dǎo)致閾值中斷,對(duì)檢測(cè)結(jié)果造成影響的概率很低,檢測(cè)精度幾乎不受影響,這樣可以避免閾值設(shè)置大小的問(wèn)題。所以高斯衰減函數(shù)可以作為重疊框調(diào)整函數(shù)來(lái)使用[11]。
2.3? 損失函數(shù)
YOLOv3的損失函數(shù)主要包含三部分:置信度損失、分類(lèi)損失和回歸損失,其中置信度損失和分類(lèi)損失上采用的是交叉熵?fù)p失,回歸損失使用誤差平方和的方式,最后對(duì)三個(gè)損失求和[12],損失函數(shù)公式如下:
(3)
其中:
S2表示特征圖大小
B表示該網(wǎng)格對(duì)應(yīng)的預(yù)測(cè)框個(gè)數(shù)
表示置信度概率預(yù)測(cè)
表示類(lèi)別概率預(yù)測(cè)
λcoord表示回歸損失權(quán)重
λnobj表示不包含目標(biāo)的置信度損失權(quán)重
本文算法主要針對(duì)回歸損失函數(shù)進(jìn)行優(yōu)化改進(jìn),用CIOU Loss作為損失函數(shù),更有效實(shí)現(xiàn)了預(yù)測(cè)框與真值框之間的損失計(jì)算,使得目標(biāo)檢測(cè)過(guò)程中最終的目標(biāo)定位更加精確。
在目標(biāo)檢測(cè)過(guò)程中,一般將bounding box表示交并比IoU(Interest over Union),IoU主要指的是預(yù)測(cè)邊界框與真實(shí)邊界框的交集與并集的比值。計(jì)算公式為如下所示:
(4)
IoU值相同的情況下,真實(shí)框與預(yù)測(cè)框的重合度情況差別很大。因此本文將CIOU作為損失函數(shù),考慮到提高目標(biāo)框回歸的穩(wěn)定性,將目標(biāo)框與預(yù)測(cè)框的距離,重疊率以及尺度都包含在內(nèi),避免IOU在迭代訓(xùn)練過(guò)程中發(fā)散,其收斂精度更高[13],表達(dá)式為:
(5)
其中:
b和bgt表示預(yù)測(cè)框中心點(diǎn)與目標(biāo)框中心點(diǎn)
ρ2(b,bgt)表示歐式距離
c表示預(yù)測(cè)框與目標(biāo)框的最小外接矩形的對(duì)角線長(zhǎng)度。
3? 實(shí)驗(yàn)及分析
3.1? 數(shù)據(jù)集
本文基于YOLOv3的改進(jìn)算法主要用于玉米的密度檢測(cè),目前的高標(biāo)準(zhǔn)現(xiàn)代化農(nóng)業(yè)建設(shè)過(guò)程中,利用觀測(cè)設(shè)備觀測(cè)到的作物圖像進(jìn)行農(nóng)作物目標(biāo)檢測(cè),檢測(cè)出作物種植類(lèi)別,并能給出當(dāng)前范圍該作物的植株數(shù)目,對(duì)于估算作物密度情況有重要借鑒意義,并對(duì)后續(xù)的農(nóng)事活動(dòng)(補(bǔ)苗、間苗、施肥)等具有重要參考價(jià)值,是發(fā)展智慧農(nóng)業(yè)的主要研究方向。
物候自動(dòng)觀測(cè)儀主要由傳感器、采集器、通信單元等部分組成,系統(tǒng)框圖如圖2所示,本論文利用自動(dòng)觀測(cè)設(shè)備單反相機(jī)拍攝的玉米實(shí)景圖片作為分析對(duì)象,通過(guò)4G無(wú)線網(wǎng)絡(luò)將拍攝圖像數(shù)據(jù)上傳到云平臺(tái),當(dāng)圖片滿足處理要求時(shí),進(jìn)入識(shí)別模塊,通過(guò)相應(yīng)的識(shí)別算法對(duì)圖片進(jìn)行處理獲取我們所需要的特征參數(shù)。
玉米圖像拍攝站點(diǎn)位于北京延慶物候植被觀測(cè)站,拍攝2023年6月1日至2023年7月15日玉米的生長(zhǎng)期圖像,玉米的發(fā)育期生長(zhǎng)狀態(tài)包括出苗期、三葉期、七葉期,玉米數(shù)據(jù)集共包含1200張圖像,圖像格式為JPG格式,像素大小為2992×2000,平均每張圖像上有120個(gè)目標(biāo),利用 LabelImg 軟件人工標(biāo)定標(biāo)簽,生成 xml 格式文件記錄所有目標(biāo)的位置、大小和類(lèi)別信息。將數(shù)據(jù)按7:2:1 隨機(jī)分為訓(xùn)練集、驗(yàn)證集、測(cè)試集。模型開(kāi)始訓(xùn)練時(shí),輸入圖像大小調(diào)整為 416×416,依據(jù)PASCAL VOC 數(shù)據(jù)集格式標(biāo)準(zhǔn),對(duì)圖像標(biāo)注信息的邊界框?qū)?、高和中心點(diǎn)坐標(biāo)進(jìn)行歸一化處理,以減少異常樣本對(duì)數(shù)據(jù)的影響。
3.2? 網(wǎng)絡(luò)訓(xùn)練
實(shí)驗(yàn)使用的硬件配置為Inter(R) Core i7-9700K CPU,NVIDIA Geforce RTX 2080 Ti顯卡,Windows 10 企業(yè)版操作系統(tǒng),軟件環(huán)境是基于 Anaconda平臺(tái)搭建TensorFlow-GPU環(huán)境,版本號(hào)為T(mén)ensorFlow-GPU 2.1.0,CUDA 10.1,Cudnn 7.4,通過(guò) Python 語(yǔ)言編程實(shí)現(xiàn)搭建和復(fù)現(xiàn)實(shí)驗(yàn)中的所有網(wǎng)絡(luò)模型。
基于人工標(biāo)記的玉米數(shù)據(jù)集,分別用Faster R-CNN算法、YOLOv3算法和改進(jìn)的YOLOv3算法進(jìn)行模型訓(xùn)練,算法模型訓(xùn)練過(guò)程中初始學(xué)習(xí)率為0.001,衰減系數(shù)為0.005,模型訓(xùn)練迭代次數(shù)為10000次。三種算法的網(wǎng)絡(luò)訓(xùn)練曲線如圖3、圖4、圖5所示。
算法訓(xùn)練曲線包含訓(xùn)練精度曲線和訓(xùn)練損失曲線,由模型訓(xùn)練曲線圖可知,改進(jìn)的YOLOv3算法模型大約經(jīng)過(guò)7000次迭代后,各參數(shù)輸出逐漸趨于穩(wěn)定,訓(xùn)練精度達(dá)到0.92,明顯高于YOLOv3算法和Faster R-CNN算法的訓(xùn)練精度;模型的訓(xùn)練損失為0.2,較YOLOv3算法和Faster R-CNN算法的訓(xùn)練損失明顯降低。經(jīng)驗(yàn)證對(duì)比實(shí)驗(yàn)分析,改進(jìn)的YOLOv3算法對(duì)于玉米數(shù)據(jù)集的訓(xùn)練模型有明顯的提升,效果優(yōu)于YOLOv3算法和Faster R-CNN算法。
3.3? 訓(xùn)練結(jié)果定量評(píng)估
3.3.1? 改進(jìn)算法性能測(cè)試
本文改進(jìn)的YOLOv3算法主要從三個(gè)方面的改進(jìn)
優(yōu)化,基于不同方式的算法優(yōu)化在測(cè)試集上的目標(biāo)檢測(cè)性能如表1所示,相比于原YOLOv3算法,表 中 Algorithm-1 模塊調(diào)整NMS重疊框置信度,mAP(平均準(zhǔn)確度均值,Mean Average Precision)提升 3.2%,單張圖檢測(cè)耗時(shí)降低 0.03 s;Algorithm-2模塊加強(qiáng)特征提取網(wǎng)絡(luò),mAP提升 2.3%,單張圖檢測(cè)耗時(shí)減少 0.05s;Algorithm-3模塊優(yōu)化損失函數(shù), mAP提升 4.1%,單張圖檢測(cè)耗時(shí)增加 0.03 s。由表1網(wǎng)絡(luò)模型目標(biāo)檢測(cè)性能分析可知,不同方式的算法模型優(yōu)化方式都會(huì)提高目標(biāo)檢測(cè)模型性能,并且這些增益是互補(bǔ)的,將三種模式結(jié)合在一起能使網(wǎng)絡(luò)檢測(cè)性能進(jìn)一步提升。
3.3.2? 算法對(duì)比實(shí)驗(yàn)分析
本文改進(jìn)算法主要是對(duì)置信度、特征提取網(wǎng)絡(luò)、損失函數(shù)三個(gè)方面做出優(yōu)化改進(jìn),改進(jìn)后的YOLOv3算法對(duì)比原算法網(wǎng)絡(luò)模型在測(cè)試集上的目標(biāo)檢測(cè)性能測(cè)試如表2所示。改進(jìn)后的算法對(duì)比其他算法網(wǎng)絡(luò)模型對(duì)玉米作物植株檢測(cè)結(jié)果輸出圖像如圖6所示。
基于改進(jìn)的YOLOv3網(wǎng)絡(luò)的玉米識(shí)別模型對(duì)玉米圖像檢測(cè)的平均準(zhǔn)確度均值(mAP)為91.2%,單張圖像檢測(cè)時(shí)間為0.22 s,較Faster R-CNN算法網(wǎng)絡(luò)模型和原YOLOv3算法網(wǎng)絡(luò)模型,mAP值分別提高了11%和8.8%,改進(jìn)的YOLOv3檢測(cè)速度比Faster R-CNN算法模型快0.08 s,比YOLOv3網(wǎng)絡(luò)模型快0.03 s,改進(jìn)網(wǎng)絡(luò)模型的檢測(cè)精度和檢測(cè)速度明顯提升。另外,改進(jìn)后的YOLOv3網(wǎng)絡(luò)模型檢測(cè)輸出圖像中,檢測(cè)框的位置偏差更小,優(yōu)于原網(wǎng)絡(luò)模型。
從圖6可以看出,F(xiàn)aster R-CNN網(wǎng)絡(luò)模型和原YOLOv3網(wǎng)絡(luò)模型對(duì)圖像中的小目標(biāo)植株存在漏檢情況,對(duì)圖像中的其他農(nóng)作物存在錯(cuò)檢情況,不能完全檢測(cè)出圖像中的玉米植株,而改進(jìn)的YOLOv3網(wǎng)絡(luò)模型可以有效地檢測(cè)出場(chǎng)景中的小目標(biāo)信息,檢測(cè)的準(zhǔn)確性較高,并且有效避免錯(cuò)檢情況發(fā)生,保證田間作物目標(biāo)檢測(cè)與識(shí)別。
4? 結(jié)論
為了有效地檢測(cè)農(nóng)作物小目標(biāo),以實(shí)時(shí)監(jiān)測(cè)田間作物生長(zhǎng)狀態(tài)是否良好為目的,本文提出的改進(jìn)YOLOv3檢測(cè)算法用于農(nóng)作物目標(biāo)檢測(cè),對(duì)YOLOv3的主干特征提取網(wǎng)絡(luò)進(jìn)行優(yōu)化;采用高斯衰減函數(shù)調(diào)整NMS重疊框置信度;對(duì)回歸損失函數(shù)進(jìn)行優(yōu)化改進(jìn),用CIOU Loss作為損失函數(shù),使得目標(biāo)檢測(cè)過(guò)程中最終的目標(biāo)定位更加精確。將改進(jìn)的 YOLOv3算法與Faster R-CNN算法、原 YOLOv3 算法在實(shí)拍的玉米作物拍攝數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),改進(jìn)的YOLOv3網(wǎng)絡(luò)的玉米識(shí)別模型對(duì)玉米圖像檢測(cè)的mAP值為91.2%,較Faster R-CNN算法網(wǎng)絡(luò)模型和原YOLOv3算法網(wǎng)絡(luò)模型,mAP值分別提高了11%和8.8%,結(jié)果表明改進(jìn)后改進(jìn)的YOLOv3網(wǎng)絡(luò)算法檢測(cè)的平均準(zhǔn)確率均值和檢測(cè)速度都有較大的提升,改進(jìn)模型的檢測(cè)性能明顯提高,對(duì)于小目標(biāo)作物的生長(zhǎng)檢測(cè)有較好的應(yīng)用效果,能順利保證田間物候自動(dòng)觀測(cè)儀的識(shí)別效果,為農(nóng)事活動(dòng)提供判斷依據(jù),保障作物生長(zhǎng)狀況持續(xù)向好。但是該優(yōu)化算法檢測(cè)精度的提升在一定程度上抑制了圖像的檢測(cè)速度,在實(shí)際田間大規(guī)模圖像進(jìn)行目標(biāo)檢測(cè)時(shí),會(huì)影響設(shè)備的整體監(jiān)測(cè)速度,后續(xù)研究工作將致力于對(duì)網(wǎng)絡(luò)模型結(jié)構(gòu)與參數(shù)進(jìn)行優(yōu)化,通過(guò)降低參數(shù)達(dá)到提高模型檢測(cè)速度的目的。
參考文獻(xiàn)
[1] 耿創(chuàng),宋品德,曹立佳.YOLO算法在目標(biāo)檢測(cè)中的研究進(jìn)展[J].兵器裝備工程學(xué)報(bào),2022,43(9):162-173.
[2] 李維剛,楊潮,蔣林,等.基于改進(jìn)YOLOv4算法的室內(nèi)場(chǎng)景目標(biāo)檢測(cè)[J].激光與光電子學(xué)進(jìn)展,2022,59(18):251-260.
[3] 于博文,呂明.改進(jìn)的YOLOv3算法及其在軍事目標(biāo)檢測(cè)中的應(yīng)用[J].兵工學(xué)報(bào),2022,43(2):345-354.
[4] 陳禹蒲,馬曉川,李璇.基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標(biāo)檢測(cè)[J].信號(hào)處理,2022,38(11):2359-2371.
[5] 王瀟,李子琦,高濤,等.基于無(wú)損跨尺度特征融合的交通目標(biāo)檢測(cè)算法[J].中國(guó)公路學(xué)報(bào),2023,36(9):315-325.
[6] 王陽(yáng),袁國(guó)武,瞿睿,等.基于改進(jìn)YOLOv3的機(jī)場(chǎng)停機(jī)坪目標(biāo)檢測(cè)方法[J].鄭州大學(xué)學(xué)報(bào)(理學(xué)版),2022,54(5):22-28.
[7] 申志超.基于YOLO的顆粒狀農(nóng)作物檢測(cè)算法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2022.
[8] 張穎超.基于深度學(xué)習(xí)的農(nóng)作物葉片病害檢測(cè)識(shí)別方法及其應(yīng)用研究[D].石家莊:河北科技大學(xué),2022.
[9] 金沙沙.圖像分割與目標(biāo)檢測(cè)在農(nóng)業(yè)場(chǎng)景中的應(yīng)用研究[D].浙江湖州:湖州師范學(xué)院,2022.
[10] 賈世娜.基于改進(jìn)YOLOv5的小目標(biāo)檢測(cè)算法研究[D].南昌:南昌大學(xué),2022.
[11] 潘昕暉,邵清,盧軍國(guó).基于CBD-YOLOv3的小目標(biāo)檢測(cè)算法[J].小型微型計(jì)算機(jī)系統(tǒng),2022,43(10):2143-2149.
[12] 鞠默然,羅海波,王仲博,等.改進(jìn)的YOLO V3算法及其在小目標(biāo)檢測(cè)中的應(yīng)用[J].光學(xué)學(xué)報(bào),2019,39(7):253-260.
[13] 阮激揚(yáng). 基于YOLO的目標(biāo)檢測(cè)算法設(shè)計(jì)與實(shí)現(xiàn)[D].北京:北京郵電大學(xué),2019.
[14] 潘語(yǔ)豪,危疆樹(shù),曾令鵬.基于YOLOv3的農(nóng)田鳥(niǎo)類(lèi)目標(biāo)檢測(cè)算法[J].激光與光電子學(xué)進(jìn)展,2022,59(2):510-518.
[15] 王楊,曹鐵勇,楊吉斌,等.基于YOLO v5算法的迷彩偽裝目標(biāo)檢測(cè)技術(shù)研究[J].計(jì)算機(jī)科學(xué),2021,48(10):226-232.
[16] 王佩. 基于特征融合與信息增強(qiáng)的目標(biāo)檢測(cè)算法研究[D].江西贛州:江西理工大學(xué),2022.
[17] 王英立,史肖波.一種基于多尺度yolo算法的車(chē)輛目標(biāo)識(shí)別方法:CN202210806937.2[P].CN202210806937.2[2023-07-06].
[18] 孫景蘭, 張志紅, 余衛(wèi)東,等. 中國(guó)農(nóng)業(yè)氣象觀測(cè)自動(dòng)化技術(shù)研究進(jìn)展[J]. 氣象科技進(jìn)展, 2022, 12 (4): 7-13.
[19] 王少博,張成,蘇迪,等.基于改進(jìn)YOLOv3和核相關(guān)濾波算法的旋轉(zhuǎn)彈目標(biāo)探測(cè)算法[J].兵工學(xué)報(bào),2022,43(5):1032-1045.
[20] 楊富強(qiáng),余波,趙嘉彬,等.基于改進(jìn)YOLOv3的橋梁底部裂縫目標(biāo)檢測(cè)方法[J].中國(guó)科技論文,2022,17(3):252-259.
[21] Lin T Y , Goyal P , Girshick R , et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, PP(99):2999-3007. https://doi.org/10.48550/arXiv. 1708.02002.
[22] Law H, Deng J. Cornernet: Detecting objects as paired keypoints[C]// European Conference on Computer Vision. Springer, Cham, 2018. https://doi.org/10.1007/s11263-019-01204-1
[23] Tian Z, Shen C, Chen H, et al. FCOS: Fully convolutional one-stage object detection[C]// CVF International Conference on Computer Vision (ICCV). IEEE, 2019. https://doi.org/10.1109/ICCV.2019. 00972.
[24] Cai Z, Vasconcelos N. Cascade R-CNN: Delving into high quality object detection[C]// Computer Vision and Pattern Recognition (cs.CV), IEEE, 2017. https://doi.org/10.48550/arXiv.1712.00726.
[25] Pang J, Chen K, Shi J, et al. Libra R-CNN: Towards balanced learning for object detection[C]// CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2020. https://doi.org/10.48550/ arXiv.1904.02701.
[26] Lu X, Li B, Yue Y, et al. Grid R-CNN[C]// CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2019. DOI: 10.1109/CVPR.2019.00754.
[27] Redmon J, Divvala S, Girshick R, et al. You Only Look Once: Unified, Real-Time Object Detection[C]// Conference on Computer Vision and Pattern Recognition (CVPR), IEEE, 2019. https://doi.org/10.1109/ CVPR.2016.91.
[28] Redmon J, Farhadi A. YOLO9000: Better, Faster, Stronger[C]// Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2017:6517-6525. https://doi.org/ 10.1109/CVPR.2017.690.
引用格式:郭蓓,王貝貝,張志紅,吳蘇,李鵬,胡莉婷.基于改進(jìn)的YOLOv3農(nóng)作物目標(biāo)檢測(cè)算法[J].農(nóng)業(yè)大數(shù)據(jù)學(xué)報(bào),2024,6(1): 40-47. DOI:10.19788/j. issn.2096-6369.000006.
CITATION: GUO Bei, WANG BeiBei, ZHANG ZhiHong, WU Su, LI Peng, HU LiTing. Improved YOLOv3 Crop Target Detection Algorithm[J]. Journal of Agricultural Big Data, 2024,6(1): 40-47. DOI: 10.19788/j.issn.2096-6369.000006.
Improved YOLOv3 Crop Target Detection Algorithm
GUO Bei1,2*, WANG BeiBei2, ZHANG ZhiHong1, WU Su2, LI Peng2, HU LiTing1
1. CMA·Henan Key Open Laboratory of Agrometeorological Support and Application Technology, Zhengzhou 450003, China;? ? ? ?2. Henan Zhongyuan Photolectric Meassurement and Control Technology Co.,LTD, Zhengzhou 450047, China
Abstract: When detecting targets in crop images, the detection accuracy of target detection algorithms can be seriously affected due to factors such as dense crop planting and poor imaging quality. In order to optimize the detection performance of crop object detection in YOLOv3, an improved algorithm based on YOLOv3 is proposed. Firstly, the backbone feature extraction network of YOLOv3 is optimized by utilizing the downsampling feature maps outputted by the original network to detect targets, and residual units are added on the basis of the residual blocks in the original network to detect the position information of small crop objects. Moreover, a Gaussian decay function is introduced to attenuate highly overlapping crop candidate boxes in the image, effectively suppressing redundant boxes and reducing false negative rate. Furthermore, the regression loss function is optimized by using CIOU Loss, making the final object localization more accurate during the object detection process. To evaluate the improved YOLOv3 algorithm, a comparative experiment is conducted on a real-world dataset of maize crop images, comparing it with the original YOLOv3 algorithm and the Faster R-CNN algorithm. The results demonstrate that the improved YOLOv3 algorithm can effectively detect small crop targets, exhibiting significantly improved mean average precision and detection speed.
Keywords: target detection;YOLOv3 algorithm; feature extraction network; loss function
農(nóng)業(yè)大數(shù)據(jù)學(xué)報(bào)2024年1期