摘要:針對(duì)傳統(tǒng)水稻病害識(shí)別方法主要依賴人工,效率低下且存在人工主觀誤差的問(wèn)題,提出一種基于改進(jìn)FCOS模型的水稻葉片病害檢測(cè)模型。首先收集950張3種不同病害的水稻葉片圖像,構(gòu)建Pascal Voc格式的水稻葉片病害數(shù)據(jù)集。為增強(qiáng)模型的泛化能力,對(duì)劃分為訓(xùn)練集的圖像進(jìn)行數(shù)據(jù)增強(qiáng),訓(xùn)練集圖像由760張擴(kuò)增到6 080張。然后構(gòu)建檢測(cè)模型,改進(jìn)FCOS模型在原模型的基礎(chǔ)上,在特征融合網(wǎng)絡(luò)引入CBAM注意力模塊;損失函數(shù)中,回歸損失函數(shù)采用CIoU損失函數(shù),分類損失函數(shù)和中心度損失函數(shù)與原FCOS模型保持一致。改進(jìn)的FCOS模型在水稻葉片病害數(shù)據(jù)上的平均精度均值達(dá)77.7%,相比原FCOS模型提升了2.3百分點(diǎn),改進(jìn)的模型在不明顯提升檢測(cè)時(shí)間的情況下,提升了模型的精度。通過(guò)試驗(yàn)與模型YOLOF、Faster R-CNN、VarifocalNet、NAS-FCOS、TOOD進(jìn)行對(duì)比,結(jié)果表明本研究模型取得了最高的檢測(cè)精度,且在檢測(cè)精度和檢測(cè)速度上取得了最高的權(quán)衡。結(jié)果表明,本研究提出的模型能夠比較精準(zhǔn)地識(shí)別水稻白葉枯病、胡麻葉斑病和葉瘟病,可以為水稻葉片病害的檢測(cè)提供參考。
關(guān)鍵詞:改進(jìn)FCOS模型;水稻葉片病害圖像;Pascal Voc格式;CBAM注意力模塊;CIOU損失函數(shù)
中圖分類號(hào):S126;TP391.41 文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1002-1302(2024)12-0232-07
水稻作為我國(guó)重要的糧食作物之一,有著悠久的種植歷史。我國(guó)水稻的種植面積和產(chǎn)量均居世界前列[1]。然而水稻在各個(gè)生長(zhǎng)周期易受到各種病蟲侵害,從而嚴(yán)重?fù)p害水稻的產(chǎn)量和品質(zhì)。因此,及時(shí)準(zhǔn)確識(shí)別水稻病蟲害并根據(jù)識(shí)別結(jié)果采取對(duì)應(yīng)的防治措施,對(duì)于保證水稻的健康生長(zhǎng)是十分重要且必要的。
傳統(tǒng)的植物病害識(shí)別方法主要依賴于人工進(jìn)行,該方法效率低且依賴于人的主觀意識(shí)[2]。伴隨著深度學(xué)習(xí)技術(shù)的發(fā)展,以Faster R-CNN為代表的雙階段檢測(cè)模型、以YOLO系列為代表的一階段檢測(cè)模型已應(yīng)用到植物圖像檢測(cè)領(lǐng)域[3-5]。朱紅春等使用Faster R-CNN對(duì)茶葉嫩芽進(jìn)行檢測(cè),與傳統(tǒng)的茶葉嫩芽識(shí)別算法的對(duì)比試驗(yàn)表明,該模型在檢測(cè)精度和速度上具備優(yōu)勢(shì)[6]。王云露等對(duì)Faster R-CNN進(jìn)行改進(jìn),其使用ResNest網(wǎng)絡(luò)作為骨干特征提取網(wǎng)絡(luò),特征融合網(wǎng)絡(luò)使用特征金字塔網(wǎng)絡(luò)(FPN),并采用級(jí)聯(lián)機(jī)制優(yōu)化樣本選擇機(jī)制,改進(jìn)后模型的平均精度均值(mean average precision,簡(jiǎn)稱mAP)達(dá)到86.2%,比改進(jìn)前提升了8.7%,驗(yàn)證了模型在蘋果葉片小目標(biāo)病斑和復(fù)雜背景下病斑的檢測(cè)有效性[7]。涂淑琴等將Faster R-CNN應(yīng)用于百香果檢測(cè),并實(shí)現(xiàn)了無(wú)遮擋、遮擋、重疊和背景4種情形下的自動(dòng)檢測(cè)[8]。董浪等使用Faster R-CNN 識(shí)別梨樹花芽,其采用ResNet 101作為骨干特征提取網(wǎng)絡(luò),并在模型中融入了特征金字塔網(wǎng)絡(luò),模型的平均精度均值達(dá)到91.27%,每幅圖像的檢測(cè)時(shí)間為0.395 s,說(shuō)明模型在自然光照環(huán)境下梨樹花芽檢測(cè)具有有效性和實(shí)時(shí)性[9]。魏冉等將特征金字塔網(wǎng)絡(luò)和注意力機(jī)制SKNet引入Faster R-CNN,改進(jìn)后的模型對(duì)櫻桃的平均精度均值達(dá)98.24%[10]。徐會(huì)杰等在YOLO v3模型的基礎(chǔ)上提出了YOLO v3-Corn模型,新模型在玉米葉片病蟲害數(shù)據(jù)上的平均精度均值達(dá)到了93.31%,比YOLO v3模型提高了4.03%[11]。王根等從損失函數(shù)、骨干特征提取網(wǎng)絡(luò)、anchor生成等多個(gè)方面對(duì)YOLO v3模型提出了改進(jìn),并將改進(jìn)后的模型應(yīng)用于茶草位置檢測(cè),對(duì)茶樹和雜草的檢測(cè)精確率分別達(dá)到82.56%、85.34%[12]。沈志豪等在 YOLOX-s 模型的基礎(chǔ)上,重新設(shè)計(jì)了特征提取網(wǎng)絡(luò)的深度,引入了注意力機(jī)制和SPPF模塊,改進(jìn)后的模型用于田間麥穗檢測(cè)及計(jì)數(shù),在實(shí)拍的麥田圖像中,改進(jìn)模型的計(jì)數(shù)準(zhǔn)確率達(dá)到97.93%[13]。楊堃等提出基于視覺加強(qiáng)注意力改進(jìn)的YOLO v5-VE模型,在制作的植物病蟲數(shù)據(jù)集上的檢測(cè)平均準(zhǔn)確率達(dá)到73.49%[14]。駱潤(rùn)玫等提出YOLO v5-C,并將該模型應(yīng)用到復(fù)雜背景下的廣佛手病蟲害識(shí)別上,平均精度均值達(dá)到了93.06%,比基礎(chǔ)網(wǎng)絡(luò)YOLO v5s提高2.45%[15]。
FCOS(fully convolutional one-stage object detectio)模型作為經(jīng)典的Anchor-free模型,在植物圖像識(shí)別檢測(cè)、行人檢測(cè)等各個(gè)領(lǐng)域均有所應(yīng)用[16]。龍燕等在原FCOS基礎(chǔ)上,從骨干網(wǎng)絡(luò)、損失函數(shù)等方面進(jìn)行改進(jìn),改進(jìn)模型應(yīng)用于自然環(huán)境下蘋果果實(shí)檢測(cè),其平均精度均值達(dá)到96.3%[17]。黃河清等提出了基于模型剪枝的多維度特征Slim-FOCS算法,對(duì)柑橘檢測(cè)平均精度均值達(dá)到96.01%[18]。劉丹等使用FCOS算法進(jìn)行行人檢測(cè),其使用輕量化網(wǎng)絡(luò)MobileNet v2替換ResNet 50網(wǎng)絡(luò),并增加C2層進(jìn)行特征融合,提高了檢測(cè)精度和速度[19]。劉競(jìng)升等在FCOS模型的基礎(chǔ)上,通過(guò)增加特征增強(qiáng)網(wǎng)絡(luò)構(gòu)建了二階段無(wú)錨框檢測(cè)算法,通過(guò)在艦船數(shù)據(jù)集與其他主流艦船檢測(cè)算法對(duì)比,驗(yàn)證了所提模型的有效性[20]。
本研究首先收集白葉枯?。╮ice bacterial leaf blight)、胡麻葉斑病(rice brown spot)、葉瘟病(rice leaf blast)等水稻葉片病害圖像構(gòu)建數(shù)據(jù)集,然后再在FCOS模型的基礎(chǔ)上,為了更充分地提取特征,在特征融合網(wǎng)絡(luò)中引入CBAM(convolutional block attention module)注意力機(jī)制[21]。而對(duì)于模型損失函數(shù),分類損失函數(shù)與原FCOS網(wǎng)絡(luò)一致,采用Focal Loss損失函數(shù),而回歸損失函數(shù)則采用CIOU(Complete-IoU)損失函數(shù),從而實(shí)現(xiàn)水稻葉片病害的精準(zhǔn)檢測(cè)[22-23]。
1 構(gòu)建水稻葉片病害檢測(cè)模型
1.1 構(gòu)建FCOS檢測(cè)模型
Faster R-CNN、RetinaNet等屬于基于錨框(anchor-based)檢測(cè)模型,其需要單獨(dú)為每個(gè)數(shù)據(jù)集設(shè)置Anchor,而且通常Anchor的設(shè)置會(huì)極大地影響模型的結(jié)果,這明顯限制了Anchor-based模型的應(yīng)用。本研究使用的FCOS模型作為無(wú)錨框(Anchor-free)檢測(cè)模型,不需要為每個(gè)數(shù)據(jù)集單獨(dú)適配Anchor。
FCOS模型的整體結(jié)構(gòu)框圖如圖1所示。模型主要包括骨干特征提取網(wǎng)絡(luò)Backbone、特征融合網(wǎng)絡(luò)Neck、頭部檢測(cè)網(wǎng)絡(luò)Head等3個(gè)部分。骨干特征提取網(wǎng)絡(luò)特取水稻葉片圖像的特征,這里采用的是ResNet50模型,ResNet網(wǎng)絡(luò)解決了卷積神經(jīng)網(wǎng)絡(luò)面臨的網(wǎng)絡(luò)退化問(wèn)題,其主要結(jié)構(gòu)是殘差塊[24]。Neck連接特征提取網(wǎng)絡(luò)和Head,對(duì)從特征提取網(wǎng)絡(luò)輸入的單尺度或多尺度特征進(jìn)行分治和融合,這里采用特征金字塔網(wǎng)絡(luò)(feature pyramid networks,簡(jiǎn)稱FPN)[25],并在其中引入了CBAM注意力機(jī)制。Head包括分類分支、回歸分支、中心度(Center-ness)分支,分類和回歸在該部分網(wǎng)絡(luò)進(jìn)行。
具體工作過(guò)程:首先輸入水稻葉片圖像,經(jīng)由骨干特征提取網(wǎng)絡(luò)ResNet50提取特征,得到(C1,C2,C3,C4,C5)層特征圖,其對(duì)應(yīng)的步長(zhǎng)為(2,4,8,16,32),層數(shù)越高,特征信息越豐富。將(C3,C4,C5)層特征輸入到FPN網(wǎng)絡(luò)中進(jìn)行特征分治和特征融合,獲得(P3,P4,P5)層特征圖,對(duì)P5層特征進(jìn)行卷積操作得到(P6,P7)層特征圖。(P3,P4,P5,P6,P7)對(duì)應(yīng)的步長(zhǎng)為(8,16,32,64,128)。最后在Head層對(duì)特征金字塔(P3,P4,P5,P6,P7)的每一層特征圖進(jìn)行分類和回歸,預(yù)測(cè)水稻葉片的種類和位置信息。在Head的Center-ness分支表征當(dāng)前位置與所預(yù)測(cè)物體中心點(diǎn)之間的距離,該距離衡量該位置是否是物體中心的置信度,便于后續(xù)非極大值抑制(non-maximum suppression,簡(jiǎn)稱NMS)篩選保留高質(zhì)量的候選框。
1.2 特征融合網(wǎng)絡(luò)
本模型的特征融合網(wǎng)絡(luò)以特征金字塔網(wǎng)絡(luò)為主體,在其中加入CBAM模塊。FPN利用了ConvNet的金字塔特征層次結(jié)構(gòu),構(gòu)建具有高層次語(yǔ)義的特征金字塔[25]。對(duì)于ResNet50網(wǎng)絡(luò),將conv3、conv4、conv5這些殘差塊的輸出表示為(C3,C4,C5),其對(duì)應(yīng)的步長(zhǎng)為(8,16,32),對(duì)應(yīng)的通道尺寸(channel dimensions)為(512,1 024,2 048)。(C3,C4,C5)均經(jīng)過(guò)11卷積層以減少通道尺寸,經(jīng)過(guò)11卷積層之后,通道尺寸均降為256,為了便于描述,將經(jīng)過(guò)11卷積層的(C3,C4,C5)記為(D3,D4,D5)。(D4,D5)上采樣后與(D3,D4)進(jìn)行逐元素相加,并在合并的特征圖上經(jīng)由33的卷積以生成特征圖(P3,P4),特征P5直接由D5經(jīng)由3×3的卷積得到,這樣生成了特征圖(P3,P4,P5)。特征圖P5經(jīng)過(guò)步長(zhǎng)為2的3×3卷積獲得特征圖P6,同理獲得特征圖P7。這樣就生成了一組特征圖(P3,P4,P5,P6,P7),其對(duì)應(yīng)的步長(zhǎng)為(8,16,32,64,128),其輸出通道數(shù)均為256。
為更好地進(jìn)行特征提取和特征分治,在FPN上加入CBAM注意力模塊。CBAM模塊處于1×1卷積塊之后,上采樣之前,加入了CBAM模塊的特征融合網(wǎng)絡(luò)模型如圖2所示。在本模型中,累計(jì)加入了3個(gè)CBAM模塊。
注意力機(jī)制類似人的注意力,選擇性地關(guān)注重要的或感興趣的特征,減少甚至忽視不相關(guān)或不感興趣的特征。當(dāng)模型的計(jì)算能力有限時(shí),注意力機(jī)制將算力分配到相關(guān)重要特征上,從而更好地學(xué)習(xí)特征,減少了資源浪費(fèi)。通道注意力模塊和空間注意力模塊是CBAM模塊的重要組成部分,這2個(gè)模塊讓網(wǎng)絡(luò)知道哪些信息需要強(qiáng)調(diào),哪些信息需要抑制。CBAM論文通過(guò)試驗(yàn)驗(yàn)證,先通過(guò)通道注意力模塊再通過(guò)空間注意力模塊可以取得最佳性能[21]。CBAM結(jié)構(gòu)如圖3所示。
通道注意力模塊的結(jié)構(gòu)如圖4所示。其輸入特征圖F的維度是H×W×C,分別經(jīng)過(guò)最大池化和平均池化操作得到相應(yīng)的特征圖FCmax和FCavg,其維度均為1×1×C。FCmax和FCavg經(jīng)由包含一個(gè)隱層的多層感知器MLP里,將經(jīng)過(guò)MLP的注意力圖進(jìn)行像素級(jí)相加,最后由sigmoid函數(shù)激活。通道注意力模塊的計(jì)算過(guò)程見公式(1):
式中:W1和W0是多層感知器MLP的權(quán)重參數(shù);σ是sigmoid激活函數(shù);MaxPool是最大池化操作;AvgPool是平均池化操作。
空間注意力模塊的結(jié)構(gòu)如圖5所示。將輸入的特征圖F′分別進(jìn)行最大池化和平均池化操作,得到H×W×1的特征圖Fsmax和Fsavg,然后將2個(gè)特征圖拼接,得到H×W×2的特征圖,再經(jīng)由卷積操作將通道維度降到1,最后經(jīng)由sigmoid函數(shù)激活。空間注意力機(jī)制的計(jì)算過(guò)程可以由如下公式表達(dá)為:
式中:IoU是真實(shí)檢測(cè)框與預(yù)測(cè)檢測(cè)框面積的交并比;d是真實(shí)檢測(cè)框的中心點(diǎn)與預(yù)測(cè)檢測(cè)框的中心點(diǎn)之間的距離;c是覆蓋2個(gè)檢測(cè)框的最小封閉長(zhǎng)方形框的對(duì)角線長(zhǎng)度;wgt、hgt是真實(shí)檢測(cè)框的寬和高;w、h是預(yù)測(cè)測(cè)檢框的寬和高。
2 結(jié)果與討論
為驗(yàn)證模型在水稻葉片病害圖像數(shù)據(jù)上的有效性,在服務(wù)器平臺(tái)上進(jìn)行試驗(yàn)驗(yàn)證。服務(wù)器的配置如下:Ubuntu 20.04操作系統(tǒng),PyThon 3.7,PyTorch 1.10,CUDA 11.3,CUDNN 8.2,所用顯卡為RTX 3090(顯存25.4 GB)。所有模型均在mmdetection 3.0框架下進(jìn)行訓(xùn)練和測(cè)試。本試驗(yàn)?zāi)P偷慕Y(jié)果均在Featurize平臺(tái)(https://featurize.cn/)上運(yùn)行得出,運(yùn)行時(shí)間為2023年5月至7月上旬。
2.1 數(shù)據(jù)收集和數(shù)據(jù)集制作
數(shù)據(jù)來(lái)源于Kaggle網(wǎng)站。從Kaggle網(wǎng)站收集水稻白葉枯病、胡麻葉斑病、葉瘟病圖像數(shù)據(jù),并人工篩除模糊不清的圖像,最終得到圖像950張,部分圖像如圖6所示。使用Labelme軟件對(duì)水稻葉片病害位置進(jìn)行標(biāo)注,最終得到Pascal Voc格式的數(shù)據(jù)集。按照約8 ∶2的比例劃分訓(xùn)練集和測(cè)試集,并對(duì)訓(xùn)練集數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng),使用的數(shù)據(jù)增強(qiáng)方式包括圖像翻轉(zhuǎn)(水平、垂直)、圖像旋轉(zhuǎn)(90°、180°、270°)、圖像明暗度調(diào)節(jié),從而將訓(xùn)練集圖像數(shù)量增強(qiáng)至原先的8倍,擴(kuò)增后的訓(xùn)練集包含6 080張圖像。數(shù)據(jù)集劃分結(jié)果如表1所示。
2.2 參數(shù)設(shè)置和評(píng)價(jià)指標(biāo)
使用隨機(jī)梯度下降算法(stochastic gradient descent,簡(jiǎn)稱SGD)更新模型參數(shù),學(xué)習(xí)率設(shè)為0.01,動(dòng)量設(shè)為0.9,epoch設(shè)置為12,batch size設(shè)為16,學(xué)習(xí)率采用Warm up策略,在第8個(gè)和第11個(gè)epoch之后,學(xué)習(xí)率降為原先的0.1倍。模型的訓(xùn)練損失隨迭代次數(shù)的變化曲線如圖7所示,橫坐標(biāo)為迭代次數(shù),縱坐標(biāo)為損失。隨著迭代次數(shù)的增加,模型的損失函數(shù)整體趨勢(shì)是隨之降低,在 4 000 次迭代后,損失函數(shù)基本無(wú)變化,說(shuō)明了模型訓(xùn)練的有效性。
本研究使用平均精度均值(mAP)和平均幀率(frame per second,簡(jiǎn)稱FPS)分別衡量模型的精度和速度。平均精度均值是各水稻葉片病害檢測(cè)精度的均值,其值越高,說(shuō)明模型訓(xùn)練的結(jié)果越精確。平均幀率是指在當(dāng)前軟硬件條件下,模型每秒可以處理的圖像數(shù)量,單位是圖像數(shù)量/s,簡(jiǎn)記做img/s。平均幀率值越高,說(shuō)明模型在單位時(shí)間內(nèi)處理的圖像數(shù)量越多,模型的速度越快。平均幀率的測(cè)量需要在相同軟硬件條件和相同維度的輸入圖像下進(jìn)行。在本研究中,在全數(shù)據(jù)集上測(cè)試平均幀率,全數(shù)據(jù)集是指由增強(qiáng)后的訓(xùn)練集和測(cè)試集構(gòu)成的數(shù)據(jù)集,包含了6 270張圖像。
2.3 試驗(yàn)結(jié)果
為驗(yàn)證模型的有效性,本研究將所提模型與YOLOF、Faster R-CNN、VarifocalNet、NAS-FCOS、TOOD、FCOS等模型進(jìn)行對(duì)比[3,16,26-29],結(jié)果見表2。YOLOF的平均幀率指標(biāo)最高,達(dá)到 61.8 img/s,說(shuō)明該模型在當(dāng)前軟硬件條件下每秒可以處理61.8張圖像,模型推理速度遠(yuǎn)高于其他模型,但其平均精度均值指標(biāo)最低,分別低于Faster R-CNN、VarifocalNet、NAS-FCOS、TOOD、FCOS、改進(jìn)FCOS模型4.5、5.5、6.7、8.5、6.7、9.0百分點(diǎn)。Faster R-CNN 模型的平均精度均值達(dá)到73.2%,低于改進(jìn)FCOS模型4.5百分點(diǎn),其平均幀率達(dá)到31.9 img/s,低于改進(jìn)FCOS模型5.0 img/s。VarifocalNet模型的平均精度均值和平均幀率分別達(dá)到了74.2%和32.7 img/s,均低于改進(jìn)FCOS模型。NAS-FCOS模型的平均精度均值達(dá)到75.4%,低于改進(jìn)FCOS模型2.3百分點(diǎn),其平均幀率僅為26.7 img/s,明顯低于改進(jìn)FCOS模型。TOOD模型的平均精度均值達(dá)到77.2%,僅比改進(jìn)FCOS模型低0.5百分點(diǎn),但其平均幀率明顯低于改進(jìn)FCOS模型,每秒比改進(jìn)FCOS模型少處理8.6張圖片。原FCOS模型的平均精度均值達(dá)到75.4%,低于改進(jìn)FCOS模型2.3百分點(diǎn)。經(jīng)分析認(rèn)為,改進(jìn)FOCS模型在精度和速度上取得了最高的權(quán)衡,且其在不明顯降低速度的前提下,提升了模型的識(shí)別效果。
為進(jìn)一步驗(yàn)證CBAM模塊和CIOU模塊對(duì)FOCS模型的作用,將CBAM模塊和CIOU模塊分別組合進(jìn)行對(duì)比試驗(yàn),試驗(yàn)結(jié)果如表3所示。不添加CBAM和CIOU模塊的模型是原FCOS模型,同時(shí)添加CBAM模塊和CIOU模塊的模型是改進(jìn)FCOS模型。CBAM模塊的加入增加了1.7百分點(diǎn)的檢測(cè)精度,CIOU模塊的加入增加了1.2百分點(diǎn)的檢測(cè)精度,同時(shí)加入CBAM和CIOU模塊增加了2.3百分點(diǎn)的檢測(cè)精度,相對(duì)于單獨(dú)增加CBAM模塊和CIOU模塊分別提升了0.6百分點(diǎn)和1.1百分點(diǎn)的檢測(cè)精度,說(shuō)明了所提模型的有效性。
3 討論與結(jié)論
首先收集水稻白葉枯病、胡麻葉斑病、葉瘟病這3種水稻葉片病害圖像從而構(gòu)建相應(yīng)的數(shù)據(jù)集,數(shù)據(jù)集為Pascal voc格式;然后搭建FCOS模型進(jìn)行水稻葉片病害檢測(cè)。在FCOS模型的特征提取模塊引入CBAM模塊以增強(qiáng)特征提取能力;損失函數(shù)中回歸損失函數(shù)采用CIOU損失函數(shù),分類損失和目標(biāo)中心度損失與原FCOS模型保持一致。試驗(yàn)結(jié)果表明,所提模型的平均精度達(dá)到77.7%,在不明顯提高計(jì)算時(shí)間的前提下,提升了模型精度。但在實(shí)際應(yīng)用中,僅對(duì)3種水稻病害進(jìn)行檢測(cè)遠(yuǎn)遠(yuǎn)不足,將進(jìn)一步收集更多種類的水稻病害圖像數(shù)據(jù),擴(kuò)大模型檢測(cè)病害種類范圍。
參考文獻(xiàn):
[1]溫 鑫. 基于卷積神經(jīng)網(wǎng)絡(luò)的水稻葉片病害識(shí)別[D]. 哈爾濱:東北農(nóng)業(yè)大學(xué),2021.
[2]張永玲. 基于Android的水稻病蟲害圖像識(shí)別與診斷系統(tǒng)的研究[D]. 杭州:浙江理工大學(xué),2018.
[3]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[4]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,NV,USA. IEEE,2016:779-788.
[5]Redmon J,F(xiàn)arhadi A. YOLO9000:better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Honolulu,HI,USA. IEEE,2017:6517-6525.
[6]朱紅春,李 旭,孟 煬,等. 基于Faster R-CNN網(wǎng)絡(luò)的茶葉嫩芽檢測(cè)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(5):217-224.
[7]王云露,吳杰芳,蘭 鵬,等. 基于改進(jìn)Faster R-CNN的蘋果葉部病害識(shí)別方法[J]. 林業(yè)工程學(xué)報(bào),2022,7(1):153-159.
[8]涂淑琴,黃 健,林躍庭,等. 基于改進(jìn)Faster R-CNN的百香果自動(dòng)檢測(cè)[J]. 實(shí)驗(yàn)室研究與探索,2021,40(11):32-37.
[9]董 浪,許建峰,靳江周,等. 基于改進(jìn)Faster R-CNN的梨樹花芽識(shí)別方法[J]. 河北農(nóng)業(yè)大學(xué)學(xué)報(bào),2021,44(6):116-121.
[10]魏 冉,裴悅琨,姜艷超,等. 基于改進(jìn)Faster R-CNN模型的櫻桃缺陷檢測(cè)[J]. 食品與機(jī)械,2021,37(10):98-105,201.
[11]徐會(huì)杰,黃儀龍,劉 曼. 基于改進(jìn)YOLO v3模型的玉米葉片病蟲害檢測(cè)與識(shí)別研究[J]. 南京農(nóng)業(yè)大學(xué)學(xué)報(bào),2022,45(6):1276-1285.
[12]王 根,江曉明,黃 峰,等. 基于改進(jìn)YOLO v3網(wǎng)絡(luò)模型的茶草位置檢測(cè)算法[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào),2023,44(3):199-207.
[13]沈志豪,劉金江,張建洋. 基于改進(jìn)YOLOX-s的田間麥穗檢測(cè)及計(jì)數(shù)[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(12):164-171.
[14]楊 堃,范習(xí)健,薄維昊,等. 基于視覺加強(qiáng)注意力模型的植物病蟲害檢測(cè)[J]. 南京林業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,47(3):11-18.
[15]駱潤(rùn)玫,殷惠莉,劉偉康,等. 基于YOLO v5-C的廣佛手病蟲害識(shí)別[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2023,44(1):151-160.
[16]Tian Z,Shen C H,Chen H,et al. FCOS:fully convolutional one-stage object detection[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul,Korea (South). IEEE,2019:9626-9635.
[17]龍 燕,李南南,高 研,等. 基于改進(jìn)FCOS網(wǎng)絡(luò)的自然環(huán)境下蘋果檢測(cè)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(12):307-313.
[18]黃河清,胡嘉沛,李 震,等. 基于模型剪枝改進(jìn)FCOS的實(shí)時(shí)柑橘檢測(cè)研究[J]. 河南農(nóng)業(yè)大學(xué)學(xué)報(bào),2021,55(3):453-459.
[19]劉 丹,汪慧蘭,曾浩文,等. 改進(jìn)FCOS的行人檢測(cè)算法[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2022,43(11):3264-3270.
[20]劉競(jìng)升,伍 星,王洪剛,等. 改進(jìn)FCOS的二階段SAR艦船檢測(cè)算法[J]. 計(jì)算機(jī)工程與應(yīng)用,2021,57(24):144-151.
[21]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attention module[C]//European Conference on Computer Vision.Cham:Springer,2018:3-19.
[22]Lin T Y,Goyal P,Girshick R,et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(2):318-327.
[23]Zheng Z H,Wang P,Liu W,et al. Distance-IoU loss:faster and better learning for bounding box regression[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000.
[24]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas,NV,USA.IEEE,2016:770-778.
[25]Lin T Y,Dollár P,Girshick R,et al. Feature pyramid networks for object detection[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu,HI,USA.IEEE,2017:936-944.
[26]Chen Q,Wang Y M,Yang T,et al. You only look one-level feature[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Nashville,TN,USA.IEEE,2021:13034-13043.
[27]Zhang H Y,Wang Y,Dayoub F,et al. VarifocalNet:an IoU-aware dense object detector[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Nashville,TN,USA.IEEE,2021:8510-8519.
[28]Wang N,Gao Y,Chen H,et al. NAS-FCOS:fast neural architecture search for object detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Seattle,WA,USA.IEEE,2020:11940-11948.
[29]Feng C J,Zhong Y J,Gao Y,et al. TOOD:task-aligned one-stage object detection[C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV).Montreal,QC,Canada.IEEE,2021:3490-3499.
收稿日期:2023-07-24
基金項(xiàng)目:河南省科技攻關(guān)項(xiàng)目(編號(hào):222102210300);河南省高等學(xué)校青年骨干教師培養(yǎng)計(jì)劃(編號(hào):2021GGJS176);信陽(yáng)農(nóng)林學(xué)院青年教師科研基金項(xiàng)目(編號(hào):QN2021057)。
作者簡(jiǎn)介:丁士寧(1993—),男,河南信陽(yáng)人,碩士,助教,研究方向?yàn)槟J阶R(shí)別與人工智能。E-mail:1728252083@qq.com。