• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于YOLO_X和遷移學(xué)習(xí)的無人機(jī)影像玉米雄穗檢測(cè)

      2022-11-13 08:02:16汪斌斌楊貴軍顧寄南許思喆
      關(guān)鍵詞:特征提取密度玉米

      汪斌斌,楊貴軍,楊 浩,顧寄南,趙 丹,許思喆,4,徐 波

      ·農(nóng)業(yè)航空工程·

      基于YOLO_X和遷移學(xué)習(xí)的無人機(jī)影像玉米雄穗檢測(cè)

      汪斌斌1,2,3,楊貴軍1,2,3,楊 浩2,3,顧寄南1,趙 丹2,3,許思喆2,3,4,徐 波2,3※

      (1. 江蘇大學(xué)機(jī)械工程學(xué)院,鎮(zhèn)江 212000;2. 農(nóng)業(yè)農(nóng)村部農(nóng)業(yè)遙感機(jī)理與定量遙感重點(diǎn)實(shí)驗(yàn)室,北京農(nóng)業(yè)信息技術(shù)研究中心,北京 100097;3. 國(guó)家農(nóng)業(yè)信息化工程技術(shù)研究中心,北京 100097;4. 江蘇大學(xué)農(nóng)業(yè)工程學(xué)院,鎮(zhèn)江 212000)

      玉米雄穗表型信息的獲取對(duì)研究玉米長(zhǎng)勢(shì)及產(chǎn)量起著非常重要的作用,為實(shí)現(xiàn)復(fù)雜田間環(huán)境玉米雄穗的精確識(shí)別和計(jì)數(shù),該研究使用無人機(jī)采集試驗(yàn)田的玉米雄穗影像,基于Faster R-CNN、SSD、YOLO_X目標(biāo)檢測(cè)模型,使用遷移學(xué)習(xí)方法實(shí)現(xiàn)玉米雄穗的高精度識(shí)別,并分析了模型對(duì)不同品種和不同種植密度的玉米雄穗檢測(cè)效果。試驗(yàn)結(jié)果表明,基于遷移學(xué)習(xí)的Faster R-CNN、SSD、YOLO_X的目標(biāo)檢測(cè)效果相比于未使用遷移學(xué)習(xí)的模型有明顯提升,其中,遷移學(xué)習(xí)后YOLO_X的識(shí)別精確度為97.16%,平均精度為93.60%,準(zhǔn)確度為99.84%,對(duì)數(shù)平均誤檢率為0.22,識(shí)別效果最好;不同玉米品種對(duì)模型的適應(yīng)性有所差異,其中鄭單958對(duì)模型適應(yīng)性最好,F(xiàn)aster R-CNN、SSD、YOLO_X的決定系數(shù)2分別為0.947 4、0.963 6、0.971 2;不同種植密度下玉米雄穗的檢測(cè)效果有所差異,在29 985,44 978,67 466,89 955株/hm2種植密度下,模型對(duì)鄭單958檢測(cè)的平均絕對(duì)誤差分別為0.19、0.31、0.37、0.75,隨著種植密度的增加,檢測(cè)誤差逐漸變大。研究為農(nóng)田玉米雄穗高精度識(shí)別提供了一種可靠方法,對(duì)玉米表型性狀高通量調(diào)查具有一定的應(yīng)用價(jià)值。

      無人機(jī);目標(biāo)檢測(cè);圖像識(shí)別;玉米雄穗;遷移學(xué)習(xí);深度學(xué)習(xí)

      0 引 言

      玉米是重要的糧食作物,其產(chǎn)量對(duì)保證糧食安全有重要意義。玉米是雌雄同株的作物,可以進(jìn)行自花授粉,但是自花授粉不利于優(yōu)良種子的選育,因此,保證玉米的異花授粉,對(duì)育種以及產(chǎn)量提升有重要意義[1-3]。在異花授粉過程中,需要對(duì)雄穗進(jìn)行去除,傳統(tǒng)方法主要依靠人工識(shí)別去除,費(fèi)時(shí)費(fèi)力。計(jì)算機(jī)視覺技術(shù)在農(nóng)作物識(shí)別上的應(yīng)用為準(zhǔn)確識(shí)別玉米雄穗和高效科學(xué)指導(dǎo)去雄工作提供了有效的技術(shù)手段。準(zhǔn)確獲取玉米雄穗的數(shù)量信息是快速獲知玉米抽雄進(jìn)度的有力支撐。

      近年來,隨著無人機(jī)遙感技術(shù)和計(jì)算機(jī)視覺技術(shù)的發(fā)展,農(nóng)業(yè)智能監(jiān)測(cè)系統(tǒng)不斷完善[4]。無人機(jī)憑借高效、便捷、成本低的優(yōu)勢(shì),在農(nóng)業(yè)數(shù)據(jù)采集方面贏得許多研究者青睞。計(jì)算機(jī)視覺技術(shù)憑借高效的深度學(xué)習(xí)算法在圖像分類、目標(biāo)檢測(cè)、圖像分割方面起著越來越重要的作用。國(guó)內(nèi)外研究者基于無人機(jī)遙感技術(shù)和深度學(xué)習(xí)算法在玉米雄穗識(shí)別方面做了許多研究,如Lu等[5]提出了一種TasselNet卷積神經(jīng)網(wǎng)絡(luò),通過局部回歸網(wǎng)絡(luò)實(shí)現(xiàn)了對(duì)玉米雄穗的計(jì)數(shù),并公開了玉米雄穗數(shù)據(jù)集。梁胤豪等[6]提出SSD_mobilenet模型最適于部署在無人機(jī)機(jī)載系統(tǒng)上用于玉米雄穗識(shí)別。楊蜀秦等[7]通過改進(jìn)無錨框CenterNet目標(biāo)檢測(cè)模型[8],實(shí)現(xiàn)了對(duì)尺寸較小玉米雄穗的高效檢測(cè)。Liu等[9]基于Faster R-CNN網(wǎng)絡(luò),通過更換不同的主干特征提取網(wǎng)絡(luò)對(duì)玉米雄穗進(jìn)行檢測(cè),得出殘差神經(jīng)網(wǎng)絡(luò)(ResNet)作為玉米雄穗的特征提取網(wǎng)絡(luò)的效果要優(yōu)于視覺幾何組網(wǎng)絡(luò)(VGGNet)的結(jié)論。

      雖然國(guó)內(nèi)外研究者對(duì)玉米雄穗檢測(cè)做了許多研究,但由于大田環(huán)境的復(fù)雜性,包括不同品種玉米以及不同種植密度對(duì)模型檢測(cè)效果的影響,模型的泛化性能較差[10-14]。其次,深度學(xué)習(xí)往往需要大量的訓(xùn)練樣本,這對(duì)數(shù)據(jù)采集工作提出了更高要求。為了避免大量重復(fù)性工作,本文提出利用遷移學(xué)習(xí)作為機(jī)器學(xué)習(xí)的一種方法,將一個(gè)任務(wù)上訓(xùn)練好的模型應(yīng)用到新的任務(wù)中,從而提高模型的泛化性能[15-17]。Li等[18]基于Faster R-CNN模型和RetinaNet模型,在遷移學(xué)習(xí)后提高了麥穗計(jì)數(shù)準(zhǔn)確度。萬軍杰等[19]基于GoogLeNet網(wǎng)絡(luò),在遷移學(xué)習(xí)后提升了病蟲害的識(shí)別精度。袁培森等[20]提出了一種基于遷移學(xué)習(xí)的雙線性Inception-ResNet-v2網(wǎng)絡(luò)的菌菇識(shí)別方法,在開源數(shù)據(jù)集和個(gè)人數(shù)據(jù)集上取得了較好的測(cè)試效果。

      目標(biāo)檢測(cè)[21-22]模型目前主要分為1段式(One-stage)和2段式(Two-stage)兩類,其中SSD(Single shot multibox detector)網(wǎng)絡(luò)[23]和YOLO系列網(wǎng)絡(luò)作為典型的1段式網(wǎng)絡(luò),而Faster R-CNN作為典型的2段式網(wǎng)絡(luò),廣泛應(yīng)用到農(nóng)作物檢測(cè)計(jì)數(shù)方面[24]。目前YOLO系列包含YOLOv1~YOLOv5以及YOLO_X,其中YOLO_X采用免錨(Anchor Free)機(jī)制以及解耦頭部(Decoupled Head)等一系列改進(jìn),在YOLO系列中目標(biāo)檢測(cè)效果表現(xiàn)最佳[25]。因此本文以SSD、Faster R-CNN、YOLO_X為基礎(chǔ),采用遷移學(xué)習(xí)的方法進(jìn)行玉米雄穗識(shí)別,并探究不同品種玉米和不同種植密度對(duì)模型的適應(yīng)性,以期為高效獲取玉米高通量表型信息提供技術(shù)支持。

      1 材料與方法

      1.1 試驗(yàn)場(chǎng)地

      試驗(yàn)數(shù)據(jù)采集于北京市昌平區(qū)小湯山國(guó)家精準(zhǔn)農(nóng)業(yè)研究示范基地(40°20′18′′N~40°23′13′′N,115°50′17′′E~116°29′49′′E),海拔高度36 m。整個(gè)試驗(yàn)區(qū)有80個(gè)小區(qū),每個(gè)小區(qū)大小為2.5 m×3.6 m,試驗(yàn)選取5個(gè)不同的玉米品種:農(nóng)科糯336(A1)、京九青貯16(A2)、天賜19(A3)、鄭單958(A4)、湘糯2008(A5),每種玉米農(nóng)學(xué)性狀如表1所示;4個(gè)不同的種植密度:29 985,44 978,67 466,89 955株/hm2,2個(gè)重復(fù)。試驗(yàn)播種日期為2021年6月11日,9月11日收獲。

      表1 不同品種玉米農(nóng)學(xué)性狀Table 1 Agronomic traits of different varieties maize

      1.2 數(shù)據(jù)采集與預(yù)處理

      采用大疆御系列Mavic 2便攜式無人機(jī)于2021年8月9日(13∶30-14∶00)對(duì)80個(gè)試驗(yàn)小區(qū)進(jìn)行影像采集,試驗(yàn)區(qū)域分布如圖1所示。為了減少光照強(qiáng)度和玉米植株擺動(dòng)對(duì)檢測(cè)效果的影響,采集數(shù)據(jù)在多云、無風(fēng)天氣情況下進(jìn)行,此時(shí)所有玉米已進(jìn)入開花期。無人機(jī)搭載2 000萬像素哈蘇相機(jī),飛行高度為10 m,旁向重疊率和航向重疊率為80%,圖像像元分辨率0.2 cm,圖像分辨率為5 472像素×3 648像素,共獲得549幅玉米雄穗影像。由于每一幅影像尺寸較大,玉米雄穗比較密集且占用的像素區(qū)域較小,無法對(duì)影像直接訓(xùn)練和檢測(cè),為了保證后期的網(wǎng)絡(luò)訓(xùn)練速度,將采集的影像裁剪成600像素×600像素大小,共獲得2 120張玉米雄穗影像。

      圖1 試驗(yàn)區(qū)域分布

      為了分析品種和種植密度對(duì)模型檢測(cè)效果的影響,需保證不同品種在不同種植密度下訓(xùn)練和驗(yàn)證的數(shù)據(jù)量一致,故在訓(xùn)練集和驗(yàn)證集樣本區(qū)域,每個(gè)玉米品種在每個(gè)種植密度下雄穗影像各取80張作為訓(xùn)練集,在5個(gè)品種和4個(gè)種植密度下共獲得1 600張影像作為訓(xùn)練集,每個(gè)玉米品種在每個(gè)種植密度下雄穗影像各取10張影像作為驗(yàn)證集,驗(yàn)證集總數(shù)為200張;在測(cè)試集樣本區(qū)域,每個(gè)玉米品種在每個(gè)種植密度下各取16張雄穗影像,最終得到320張測(cè)試集影像。

      使用LabelImg軟件對(duì)得到的玉米雄穗影像數(shù)據(jù)進(jìn)行標(biāo)注,每一幅影像標(biāo)注之后所保存的XML文件都包含影像的寬度和高度以及通道數(shù),并且會(huì)記錄目標(biāo)的類別以及目標(biāo)邊界框的左上、右下的頂點(diǎn)坐標(biāo)。

      1.3 技術(shù)路線

      本文旨在利用目標(biāo)檢測(cè)算法對(duì)玉米雄穗進(jìn)行檢測(cè),進(jìn)而分析不同品種和不同種植密度下玉米雄穗對(duì)模型適應(yīng)性,主要內(nèi)容如下:

      1)玉米雄穗數(shù)據(jù)集的構(gòu)建。通過無人機(jī)獲取實(shí)驗(yàn)區(qū)玉米雄穗影像,并進(jìn)行圖像裁剪和標(biāo)注,構(gòu)建用于試驗(yàn)訓(xùn)練和測(cè)試的玉米雄穗數(shù)據(jù)集。

      2)玉米雄穗檢測(cè)模型構(gòu)建。構(gòu)建Faster R-CNN、SSD、YOLO_X模型,并使用遷移學(xué)習(xí)的方法,對(duì)已構(gòu)建的玉米雄穗數(shù)據(jù)集進(jìn)行訓(xùn)練驗(yàn)證。

      3)試驗(yàn)結(jié)果分析。對(duì)使用遷移學(xué)習(xí)后模型進(jìn)行精度評(píng)價(jià),并對(duì)不同品種和不同種植密度玉米雄穗的檢測(cè)效果分析。

      1.4 檢測(cè)模型

      1.4.1 Faster R-CNN模型

      Faster R-CNN模型的主干特征提取網(wǎng)絡(luò)為VGG16,輸入圖像經(jīng)過特征提取之后,生成的特征圖分別傳入?yún)^(qū)域建議網(wǎng)絡(luò)(Region Proposal Network, RPN)和感興趣區(qū)域(Region of Interest, ROI)池化層。傳入?yún)^(qū)域建議網(wǎng)絡(luò)的部分會(huì)對(duì)候選框做二分類分析,并初步進(jìn)行邊界框回歸。傳入感興趣區(qū)域池化層(ROI Pooling)的部分將來自區(qū)域建議網(wǎng)絡(luò)(RPN)輸出的候選框和特征圖固定到全連接網(wǎng)絡(luò)的輸入維度,然后進(jìn)行邊界框回歸和分類。圖2為Faster R-CNN網(wǎng)絡(luò)結(jié)構(gòu)圖。

      注:FEN表示特征提取網(wǎng)絡(luò);FM表示特征圖;RPN表示區(qū)域建議網(wǎng)絡(luò);ROI Pooling表示感興趣區(qū)域池化;FC表示全連接層;Reg表示回歸;Clas表示分類。下同。

      1.4.2 SSD模型

      經(jīng)典的SSD目標(biāo)檢測(cè)算法以VGG16作為基礎(chǔ)網(wǎng)絡(luò)模型,將第6層全連接(FC6)和第7層全連接(FC7)替換成卷積層Conv6和Conv7,并去除第8層全連接(FC8),然后再添加卷積層Conv8、Conv9、Conv10、Conv11作為整個(gè)模型的特征提取網(wǎng)絡(luò)。整個(gè)特征提取網(wǎng)絡(luò)從VGG16的卷積層Conv4_3開始,在Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2層共獲取6個(gè)有效特征圖,這些特征圖大小依次遞減,用于檢測(cè)不同尺度大小的目標(biāo)。SSD模型引入錨框(Anchor)機(jī)制,通過正負(fù)樣本的篩選,在所有特征圖上產(chǎn)生不同尺度和長(zhǎng)寬比的錨框,再對(duì)目標(biāo)對(duì)象的類別置信度和邊界框位置進(jìn)行回歸預(yù)測(cè),最后通過非極大值抑制(Non-Maximum Suppression, NMS)實(shí)現(xiàn)多尺度的目標(biāo)檢測(cè)。SSD網(wǎng)絡(luò)結(jié)構(gòu)圖如圖3所示。

      注:Detections表示先驗(yàn)框;FM1~FM6表示特征圖;NMS表示非極大值抑制。下同。

      1.4.3 YOLO_X模型

      YOLO_X以YOLO_V3[26-27]為基線,主要由主干部分特征提取網(wǎng)絡(luò)、加強(qiáng)特征提取網(wǎng)絡(luò)、以及輸出端的解耦頭部組成。并引入數(shù)據(jù)增強(qiáng)、免錨和高級(jí)標(biāo)簽分配(Sim OTA),YOLO_X總體結(jié)構(gòu)如圖4所示,主要模塊結(jié)構(gòu)如圖5所示。

      注:Cat表示通道數(shù)疊加;Upsample表示上采樣;SPP模塊表示空間金字塔池化;CSP1~CSP2模塊表示跨級(jí)部分連接;YOLO head模塊表示輸出端檢測(cè)器;FPN表示特征金字塔;PAN表示像素聚合網(wǎng)絡(luò);CBS模塊由卷積、批量標(biāo)準(zhǔn)化層、激活函數(shù)SiLu組成。下同。

      1)主干特征提取網(wǎng)絡(luò)

      YOLO_X中主干特征提取網(wǎng)絡(luò)引入Focus結(jié)構(gòu),其結(jié)構(gòu)如圖6a所示,輸入圖像之后,F(xiàn)ocus結(jié)構(gòu)對(duì)圖像的RGB三通道進(jìn)行切片處理,每個(gè)通道擴(kuò)充為之前的4倍,然后對(duì)切片圖像進(jìn)行拼接,其拼接好的圖像由之前的3通道變?yōu)?2通道,再經(jīng)過卷積操作以后,得到2倍下采樣的特征圖,F(xiàn)ocus結(jié)構(gòu)可以減少網(wǎng)絡(luò)參數(shù)的計(jì)算,加快網(wǎng)絡(luò)運(yùn)行速度。另外YOLO_X在主干特征提取網(wǎng)絡(luò)中引入空間金字塔池化(Spatial Pyramid Pooling,SPP)的結(jié)構(gòu),實(shí)現(xiàn)了局部特征和全局特征的融合,豐富了特征圖的表達(dá)能力,其結(jié)構(gòu)如圖6b所示。

      2)加強(qiáng)特征提取網(wǎng)絡(luò)

      經(jīng)過主干特征提取網(wǎng)絡(luò)后可以獲得3個(gè)有效特征層,YOLO_X采用特征金字塔和像素聚合網(wǎng)絡(luò)組合作為加強(qiáng)特征提取網(wǎng)絡(luò),對(duì)獲得的3個(gè)有效特征層進(jìn)行上采樣實(shí)現(xiàn)特征融合,再次進(jìn)行下采樣實(shí)現(xiàn)特征融合,通過2次特征融合,結(jié)合不同尺度信息,特征提取效果更好。

      3)解耦頭部

      之前的YOLO系列采用一個(gè)耦合在一起的檢測(cè)頭,同時(shí)進(jìn)行分類回歸的檢測(cè)任務(wù)。YOLO_X采用的解耦頭部將分類和回歸2個(gè)任務(wù)分開進(jìn)行,對(duì)于輸入進(jìn)來的特征層,采用一次卷積進(jìn)行降維,然后增加2個(gè)平行分支,再分別采用卷積操作進(jìn)行分類和回歸,交并比(Intersection Over Union, IOU)分支被添加到回歸的分支上,其結(jié)構(gòu)如圖6g所示,這種方法一方面提升了網(wǎng)絡(luò)的收斂速度,另一方面實(shí)現(xiàn)了網(wǎng)絡(luò)端對(duì)端的性能。

      圖5 YOLO_X主要模塊結(jié)構(gòu)

      1.5 遷移學(xué)習(xí)

      為了使模型效果更好,深度學(xué)習(xí)圖像識(shí)別需要大量的數(shù)據(jù)標(biāo)注樣本,但是數(shù)據(jù)標(biāo)注是一項(xiàng)耗時(shí)耗力的任務(wù),因此,遷移學(xué)習(xí)得到越來越多的關(guān)注。遷移學(xué)習(xí)將從一個(gè)環(huán)境中學(xué)習(xí)到的特征應(yīng)用到新環(huán)境的學(xué)習(xí)任務(wù)中,與未使用遷移學(xué)習(xí)的模型相比,預(yù)訓(xùn)練模型已經(jīng)學(xué)習(xí)到了豐富的特征,可以在數(shù)據(jù)量比較少的條件下快速訓(xùn)練出結(jié)果。本研究基于遷移學(xué)習(xí)的思想,采用公開的MTC玉米雄穗數(shù)據(jù)集[5]對(duì)Faster R-CNN、SSD、YOLO_X模型進(jìn)行預(yù)訓(xùn)練,將預(yù)訓(xùn)練好的模型權(quán)重遷移到本文模型中,同時(shí)為了加快網(wǎng)絡(luò)的訓(xùn)練速度,防止權(quán)重被破壞,采用凍結(jié)主干的方式進(jìn)行訓(xùn)練。圖6為玉米雄穗檢測(cè)的遷移學(xué)習(xí)示意圖。

      在訓(xùn)練之前,需要設(shè)置網(wǎng)絡(luò)模型的參數(shù),本文設(shè)置訓(xùn)練輪數(shù)(Epoch)為100,批量大?。╞atch-size)為4,在訓(xùn)練前50輪凍結(jié)網(wǎng)絡(luò)主干,只對(duì)后面網(wǎng)絡(luò)層數(shù)進(jìn)行訓(xùn)練,凍結(jié)主干過程中初始學(xué)習(xí)率為1×10-3,后50輪進(jìn)行解凍,解凍之后的學(xué)習(xí)率為1×10-4。學(xué)習(xí)率的動(dòng)量為0.9,置信度閾值為0.5,非極大值抑制的閾值為0.3。

      圖6 玉米雄穗檢測(cè)的遷移學(xué)習(xí)示意圖

      1.6 試驗(yàn)平臺(tái)

      試驗(yàn)環(huán)境包含硬件環(huán)境和軟件環(huán)境,其中硬件環(huán)境的處理器運(yùn)行內(nèi)存16 GB,英偉達(dá)GeForce GTX1080Ti顯卡,顯存11 GB;軟件環(huán)境為Window10操作系統(tǒng),Python3.7,Pytorch1.2,Cuda10.0。

      1.7 評(píng)價(jià)指標(biāo)

      訓(xùn)練結(jié)束后對(duì)模型性能進(jìn)行評(píng)估,本文采用精確度(Precision,)、召回率(Recall,)、平均精度(Average Precision,AP)、準(zhǔn)確度(Accuracy)、交并比、對(duì)數(shù)平均誤檢率(Log Average Miss-Rate,LAMR)來評(píng)估模型性能,、、AP、Accuracy、LAMR的計(jì)算公式[28]如下:

      式中TP表示正樣本預(yù)測(cè)為正樣本,TN表示正樣本預(yù)測(cè)為負(fù)樣本,F(xiàn)P表示負(fù)樣本預(yù)測(cè)為正樣本,F(xiàn)N表示正樣本預(yù)測(cè)為負(fù)樣本。

      式中表示預(yù)測(cè)框區(qū)域,表示真實(shí)框區(qū)域,IOU的值

      表示在檢測(cè)目標(biāo)過程中,預(yù)測(cè)框區(qū)域與真實(shí)框區(qū)域交集和并集的比值。

      式中對(duì)數(shù)平均誤檢率(LAMR)的值越小代表模型的性能越好。()表示每張圖片負(fù)樣本預(yù)測(cè)為正樣本的個(gè)數(shù),表示誤檢的個(gè)數(shù),mr表示誤檢率。

      2 結(jié)果與分析

      2.1 遷移學(xué)習(xí)對(duì)玉米雄穗檢測(cè)模型的影響

      試驗(yàn)選用Faster R-CNN、SSD、YOLO_X目標(biāo)檢測(cè)網(wǎng)絡(luò)。先搭建Faster R-CNN、SSD、YOLO_X網(wǎng)絡(luò)對(duì)制作好的玉米雄穗數(shù)據(jù)集進(jìn)行訓(xùn)練,然后使用遷移學(xué)習(xí)的方式對(duì)Faster R-CNN、SSD、YOLO_X網(wǎng)絡(luò)進(jìn)行訓(xùn)練。結(jié)果如表2所示。由表2可知,相比于未使用遷移學(xué)習(xí)3種模型,使用遷移學(xué)習(xí)識(shí)別后在召回率和平均精度上有明顯提升。Faster R-CNN的召回率、平均精度分別上升21.86、16.41個(gè)百分點(diǎn);SSD的召回率、平均精度分別上升1.76、3.05個(gè)百分點(diǎn);YOLO_X的召回率、平均精度分別上升4.51、3.56個(gè)百分點(diǎn)。使用遷移學(xué)習(xí)前后的Faster R-CNN、SSD、YOLO_X模型對(duì)玉米雄穗識(shí)別的損失變化如圖7所示,從圖7可以看出,模型經(jīng)過遷移學(xué)習(xí)后,初始損失值更低,說明在模型達(dá)到一個(gè)穩(wěn)定的損失值之前,遷移學(xué)習(xí)后的模型收斂速度更快。

      表2 不同模型遷移學(xué)習(xí)前后的檢測(cè)效果對(duì)比 Table 2 Comparison of detection effects of different models before and after transfer learning

      圖7 不同模型遷移學(xué)習(xí)前后的損失變化

      由表2可知,使用遷移學(xué)習(xí)后,F(xiàn)aster R-CNN、SSD、YOLO_X模型對(duì)玉米雄穗檢測(cè)的準(zhǔn)確度分別上升10.01、3.29、3.21個(gè)百分點(diǎn),對(duì)數(shù)平均誤檢率(LAMR)分別降低0.25、0.13、0.05。圖8為部分檢測(cè)結(jié)果,圖中共包含16個(gè)玉米雄穗。其中,F(xiàn)aster R-CNN正確檢測(cè)12個(gè),遷移學(xué)習(xí)后,正確檢測(cè)14個(gè);SSD正確檢測(cè)12個(gè),在遷移學(xué)習(xí)后,正確檢測(cè)15個(gè);YOLO_X正確檢測(cè)13個(gè),遷移學(xué)習(xí)后,正確檢測(cè)16個(gè),3種目標(biāo)檢測(cè)模型在遷移學(xué)習(xí)后的檢測(cè)效果均有明顯提升。

      同時(shí),在使用遷移學(xué)習(xí)前,F(xiàn)aster R-CNN、SSD、YOLO_X網(wǎng)絡(luò)的檢測(cè)效果有明顯差異,YOLO_X的平均精度達(dá)到了90.04%,比Faster R-CNN和SSD分別高13.13和0.59個(gè)百分點(diǎn),準(zhǔn)確率達(dá)到96.63%,比Faster R-CNN和SSD分別高出10.61、1.53個(gè)百分點(diǎn)。使用遷移學(xué)習(xí)后,YOLO_X的平均精度AP值達(dá)到了93.60%,比Faster R-CNN和SSD分別高出0.28和1.1個(gè)百分點(diǎn),準(zhǔn)確率達(dá)到99.84%,比Faster R-CNN、SSD高3.81、1.45個(gè)百分點(diǎn),且YOLO_X的對(duì)數(shù)平均誤檢率最低,為0.22。YOLO_X相比其他2種網(wǎng)絡(luò),在遷移學(xué)習(xí)前后均表現(xiàn)出更好的識(shí)別性能。

      圖8 不同模型遷移學(xué)習(xí)前后玉米雄穗識(shí)別結(jié)果

      2.2 品種的檢測(cè)效果對(duì)比

      為了驗(yàn)證模型對(duì)不同品種玉米雄穗的檢測(cè)效果,將測(cè)試集320張影像按品種分為5組測(cè)試集,每個(gè)品種有64張影像,各品種都已進(jìn)入開花期,每個(gè)品種對(duì)應(yīng)的雄穗圖像如圖9所示?;贔aster R-CNN、SSD、YOLO_X模型,對(duì)每個(gè)品種玉米雄穗進(jìn)行檢測(cè),并對(duì)人工標(biāo)記的真實(shí)框數(shù)量與模型檢測(cè)的結(jié)果進(jìn)行線性回歸分析,結(jié)果如圖10所示。

      圖9 不同品種玉米雄穗

      從試驗(yàn)結(jié)果可以看出,鄭單958在Faster R-CNN、SSD、YOLO_X模型的決定系數(shù)2分別為0.947 4、0.963 6、0.971 2,均方根誤差RMSE分別為1.089、0.976 3、0.790 6,在5個(gè)品種中對(duì)模型的適應(yīng)性最好;京九青貯16的決定系數(shù)2分別為0.709 0、0.580 2、0.780 2,均方根誤差分別為2.934 2、4.726 9、3.213 7,對(duì)模型的適應(yīng)性最差。在5個(gè)品種中,鄭單958 、農(nóng)科糯336、天賜19的檢測(cè)效果較好,京九青貯16和湘糯2008的檢測(cè)效果較差。主要原因是由于京九青貯16和湘糯2008穗枝條較細(xì),穗分支較少,更容易存在漏檢;而鄭單958、農(nóng)科糯336、天賜19由于穗枝條較大,穗分支較多,特征更加明顯,因此更易被檢測(cè)。YOLO_X對(duì)5個(gè)品種的決定系數(shù)2分別為0.918 6、0.780 2、0.913 3、0.971 2、0.881 8,檢測(cè)效果最好,說明YOLO_X模型具有很好的檢測(cè)性能。

      2.3 基于遷移學(xué)習(xí)的YOLO_X模型對(duì)不同種植密度的玉米雄穗識(shí)別效果

      將測(cè)試集樣本區(qū)域獲取的320張影像按不同種植密度進(jìn)行分類,每個(gè)品種的不同種植密度下各有16張影像。為了驗(yàn)證基于遷移學(xué)習(xí)的YOLO_X模型對(duì)不同種植密度的玉米雄穗識(shí)別效果,將同一品種下的不同種植密度的玉米雄穗影像分別進(jìn)行檢測(cè),并計(jì)算平均絕對(duì)誤差(Mean Absolute Error, MAE),試驗(yàn)結(jié)果如圖11所示。

      從圖11中可以看出,不同品種的平均絕對(duì)誤差值差別較大,相同種植密度下的平均絕對(duì)誤差值也不一樣。在29 985,44 978,67 466,89 955株/hm2種植密度下,模型對(duì)農(nóng)科糯336檢測(cè)的MAE分別為0.75、1.06、1.25、1.63,對(duì)京九青貯16檢測(cè)的MAE為2.19、2.43、2.91、3.44,對(duì)天賜19檢測(cè)的MAE為0.45、0.63、0.75、1.37,對(duì)鄭單958檢測(cè)的MAE為0.19、0.31、0.37、0.75,對(duì)湘糯2008檢測(cè)的MAE為0.79、1.18、1.43、1.5。其中鄭單958的MAE明顯低于京九青貯16。同一品種,隨著其種植密度的上升,其平均絕對(duì)誤差值也隨之變大。該結(jié)果表明,基于遷移學(xué)習(xí)的YOLO_X模型對(duì)玉米雄穗的檢測(cè)精度不僅與種植密度相關(guān),而且與品種相關(guān),主要趨勢(shì)是隨著種植密度的增大,檢測(cè)誤差也逐漸變大,而造成這一現(xiàn)象的主要原因是由于隨著種植密度的增大,雄穗之間存在著越來越嚴(yán)重的交叉重疊以及遮擋,容易對(duì)檢測(cè)過程產(chǎn)生干擾。對(duì)于不同品種的玉米雄穗,模型的檢測(cè)效果也有所差異,其中鄭單958雄穗分支較大,而且分支數(shù)較多,檢測(cè)誤差較小,而京九青貯16雄穗分支較細(xì),分支數(shù)較少,檢測(cè)誤差較大,這也驗(yàn)證了不同品種玉米雄穗影響模型檢測(cè)效果。

      本研究中,每個(gè)試驗(yàn)小區(qū)面積均為2.5 m×3.6 m。根據(jù)玉米雄穗密度估算公式:

      式中為玉米雄穗的數(shù)量,為檢測(cè)區(qū)域的面積m2,并基于遷移學(xué)習(xí)的YOLO_X模型對(duì)玉米雄穗密度的估算。圖12為對(duì)玉米雄穗密度估計(jì)結(jié)果,可以為玉米產(chǎn)量估算提供支持。

      圖10 不同模型對(duì)不同品種玉米雄穗的檢測(cè)結(jié)果

      圖11 基于遷移學(xué)習(xí)的YOLO_X對(duì)不同種植密度的玉米雄穗識(shí)別結(jié)果

      注:圖中數(shù)字表示玉米雄穗密度。

      3 討 論

      3.1 數(shù)據(jù)集對(duì)遷移學(xué)習(xí)的影響

      在遷移學(xué)習(xí)過程中,將一個(gè)環(huán)境中學(xué)習(xí)到的知識(shí)應(yīng)用到新的環(huán)境中來,在理想條件下,原訓(xùn)練集的數(shù)據(jù)量不僅要大,而且質(zhì)量也要高,這樣在遷移到目標(biāo)模型中的時(shí),目標(biāo)模型將包含更多的特征信息。本文使用玉米雄穗MTC公開數(shù)據(jù)集,是Lu等[5]在2010-2015年間,使用CCD數(shù)碼相機(jī)(E450 Olympus)從中國(guó)4個(gè)不同的試驗(yàn)點(diǎn)采集的6個(gè)品種,記錄了玉米從苗期到抽雄期等多個(gè)生長(zhǎng)期,涵蓋的數(shù)據(jù)量較大,質(zhì)量也較高,因此將其訓(xùn)練模型遷移到本文使用的數(shù)據(jù)集后檢測(cè)精度有了明顯的提升,但就遷移學(xué)習(xí)技術(shù)本身來講,樣本量依然有限,特別是在品種,環(huán)境條件(光照和遮擋)、尺度(無人機(jī)和觀測(cè)塔)等方面的數(shù)據(jù)量依然較少,因此該遷移模型仍然僅適用于與其數(shù)據(jù)分辨率、生長(zhǎng)期、光照條件接近的場(chǎng)景。但是單純地增加數(shù)據(jù)集會(huì)使得計(jì)算量增大,耗時(shí)較長(zhǎng),實(shí)際應(yīng)用時(shí)應(yīng)用價(jià)值降低[29-30]。因此,在實(shí)際應(yīng)用中,針對(duì)性地選擇預(yù)訓(xùn)練模型進(jìn)行遷移更有助于提高檢測(cè)效率。未來隨著玉米雄穗數(shù)據(jù)集的擴(kuò)大,該模型對(duì)玉米雄穗識(shí)別的泛化性和魯棒性有望更好。

      3.2 影響玉米雄穗檢測(cè)精度的其他因素

      玉米雄穗的檢測(cè)效果與許多因素有關(guān),在本研究中,部分檢測(cè)結(jié)果中存在預(yù)測(cè)框數(shù)量大于真實(shí)框數(shù)量,說明在檢測(cè)過程中存在背景干擾,部分背景圖像誤檢為雄穗,檢測(cè)結(jié)果產(chǎn)生誤差;同時(shí),光照強(qiáng)度的影響使得部分雄穗與土壤的顏色差異變小,產(chǎn)生漏檢;另外,本試驗(yàn)對(duì)玉米品種的株型考慮較少,試驗(yàn)的5個(gè)品種,除了鄭單958為緊湊型,其余品種皆為半緊湊型。株型不同雄穗的遮擋情況不同,進(jìn)而影響模型檢測(cè)效果。除此之外,模型本身也是影響檢測(cè)效果的重要因素,Liu等[9]通過替換不同的特征提取網(wǎng)絡(luò)對(duì)玉米雄穗進(jìn)行檢測(cè),得出特征提取網(wǎng)絡(luò)為ResNet101時(shí)檢測(cè)效果最好,因此選取較優(yōu)的特征提取網(wǎng)絡(luò)有助于提升檢測(cè)效果;再者,模型訓(xùn)練參數(shù)的設(shè)置也會(huì)影響模型的性能,Xu等[31]在模型訓(xùn)練時(shí),設(shè)置不同的輪數(shù)和批量大小,模型的檢測(cè)效果是不同的。因此,為了使得玉米雄穗的檢測(cè)模型效果更好,模型訓(xùn)練時(shí)的參數(shù)選取也是非常重要的。

      4 結(jié) 論

      本研究基于Faster R-CNN、SSD和YOLO_X目標(biāo)檢測(cè)網(wǎng)絡(luò),采用遷移學(xué)習(xí)的方式對(duì)玉米雄穗進(jìn)行識(shí)別,篩選出最佳的玉米雄穗檢測(cè)模型,并探究了品種和種植密度對(duì)模型檢測(cè)效果的影響,主要結(jié)論如下:

      1)相比未使用遷移學(xué)習(xí)的模型,遷移學(xué)習(xí)后Faster R-CNN、SSD、YOLO_X模型的平均精度分別提升了16.41、3.05、3.56個(gè)百分點(diǎn),證明遷移學(xué)習(xí)在玉米雄穗的識(shí)別上的有效性;與遷移學(xué)習(xí)后Faster R-CNN、SSD相比,遷移學(xué)習(xí)后YOLO_X的精確度為97.16%,平均精度為93.60%,準(zhǔn)確度為99.84%,對(duì)玉米雄穗的識(shí)別效果最好。

      2)不同品種玉米雄穗的檢測(cè)效果有差異,鄭單958在Faster R-CNN、SSD、YOLO_X的決定系數(shù)2分別為0.947 4、0.963 6、0.971 2,對(duì)模型的適應(yīng)性最好。京九青貯16在Faster R-CNN、SSD、YOLO_X的決定系數(shù)2分別為0.709 0、0.580 2、0.780 2,對(duì)模型適應(yīng)效果最差,造成差異的主要原因是不同品種間玉米雄穗的形態(tài)有所差異。

      3)種植密度會(huì)影響模型的檢測(cè)效果,在29 985,44 978,67 466,89 955株/hm2種植密度下,模型對(duì)鄭單958檢測(cè)的平均絕對(duì)誤差分別為0.19、0.31、0.37、0.75,表明隨著種植密度的增大,模型誤差也變大。

      [1] Gage J L, Miller N D, Spalding E P, et al. TIPS: A system for automated image-based phenotyping of maize tassels[J]. Plant Methods, 2017, 13(1): 1-12.

      [2] Huang J, Gómez-Dans J L, Huang H, et al. Assimilation of remote sensing into crop growth models: Current status and perspectives[J]. Agricultural and Forest Meteorology, 2019, 276: 107609.

      [3] Lu H, Cao Z, Xiao Y, et al. Fine-grained maize tassel trait characterization with multi-view representations[J]. Computers and Electronics in Agriculture, 2015, 118: 143-158.

      [4] Fan B, Li Y, Zhang R, et al. Review on the technological development and application of UAV systems[J]. Chinese Journal of Electronics, 2020, 29:199-207.

      [5] Lu H, Cao Z, Xiao Y, et al. TasselNet: Counting maize tassels in the wild via local counts regression network[J]. Plant Methods, 2017, 13(1): 1-17.

      [6] 梁胤豪,陳全,董彩霞,等.基于深度學(xué)習(xí)和無人機(jī)遙感技術(shù)的玉米雄穗檢測(cè)研究[J].福建農(nóng)業(yè)學(xué)報(bào),2020,35(4):456-464.

      Liang Yinhao, Chen Quan, Dong Caixia, et al. Application of deep-learning and UAV for field surveying corn tassel[J]. Fujian Agricultural Journal, 2020, 35(4): 456-464. (in Chinese with English abstract)

      [7] 楊蜀秦,劉江川,徐可可,等. 基于改進(jìn)CenterNet的玉米雄蕊無人機(jī)遙感圖像識(shí)別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(9):206-212.

      Yang Shuqin, Liu Jiangchuan, Xu Keke, et al. Improved centerNet based tassel recognition for UAV remote sensing image[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(9): 206-212. (in Chinese with English abstract)

      [8] Zhou X, Wang D, Kr?henbühl P. Objects as points[EB/OL]. arXiv preprint arXiv 2019: 1904.07850.

      [9] Liu Y, Cen C, Che Y, et al. Detection of maize tassels from UAV RGB imagery with faster R-CNN[J]. Remote Sensing, 2020, 12(2): 338.

      [10] Maepa C E, Jayaramudu J, Okonkwo J O, et al. Extraction and characterization of natural cellulose fibers from maize tassel[J]. International Journal of Polymer Analysis and Characterization, 2015, 20: 99-109.

      [11] Ye M, Cao Z, Yu Z. An image-based approach for automatic detecting tasseling stage of maize using spatio-temporal saliency[C]//MIPPR 2013: Remote Sensing Image Processing, Geographic Information Systems, and Other Applications. Wuhan, China: Society of Photo-Optical Instrumentation Engineers, 2013: 235-242.

      [12] Scharr H, Pridmore T P, Tsaftaris S A. Computer vision problems in plant phenotyping[C]// Proceedings of the IEEE International Conference on Computer Vision Workshops. Venice, Italy: Introduction to the CVPPP 2017 Workshop Papers, 2017: 2020-2021.

      [13] Kurtulmu? F, Kavdir I. Detecting corn tassels using computer vision and support vector machines[J]. Expert Systems with Applications, 2014, 41(16): 7390-7397.

      [14] Kumar A, Taparia M, Rajalakshmi P, et al. UAV based remote sensing for tassel detection and growth stage estimation of maize crop using faster-R-CNN[J]. Computer Vision Problems in Plant Phenotyping, 2019, 3: 4321-4323.

      [15] Lu J, Behbood V, Hao P, et al. Transfer learning using computational intelligence: A survey[J]. Knowledge-Based Systems , 2015, 80: 14-23.

      [16] 王東方,汪軍. 基于遷移學(xué)習(xí)和殘差網(wǎng)絡(luò)的農(nóng)作物病害分類[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(4):199-207.

      Wang Dongfang, Wang Jun. Crop disease classification with transfer learning and residual networks[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(4): 199-207. (in Chinese with English abstract)

      [17] 張瑞青,李張威,郝建軍,等. 基于遷移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)花生莢果等級(jí)圖像識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2020,36(23):171-180.

      Zhang Ruiqing, Li Zhangwei, Hao Jianjun, et al. Image recognition of peanut pod grade based on transfer learning with convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(23): 171-180. (in Chinese with English abstract)

      [18] Li J, Li C, Fei S, et al. Wheat ear recognition based on retinaNet and transfer learning[J]. Sensors, 2021, 21(14): 4845.

      [19] 萬軍杰,祁力鈞,盧中奧,等. 基于遷移學(xué)習(xí)的GoogLeNet果園病蟲害識(shí)別與分級(jí)[J]. 中國(guó)農(nóng)業(yè)大學(xué)學(xué)報(bào),2021,26(11):209-221.

      Wan Junjie, Qi Lijun, Lu Zhong’ao, et al. Recognition and grading of diseases and pets in orchard by GoogLeNet based on transfer learning[J]. Journal of China Agricultural University, 2021, 26(11): 209-221. (in Chinese with English abstract)

      [20] 袁培森,申成吉,徐煥良. 基于遷移學(xué)習(xí)和雙線性CNN的細(xì)粒度菌菇表型識(shí)別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(7):151-158.

      Yuan Peisen, Shen Chengji, Xu Huanliang. Fine-grained mushroom phenotype recognition based on transfer learning and bilinear CNN[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(7): 151-158. (in Chinese with English abstract)

      [21] Rawat S S, Verma S K, Kumar Y. Review on recent development in infrared small target detection algorithms[J]. Procedia Computer Science, 2020, 167: 2496-2505.

      [22] Zou Z, Shi Z, Guo Y, et al. Object detection in 20 years: A survey[J]. arXiv preprint arXiv 2019: 1905.05055.

      [23] Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot multibox detector[C]// European conference on computer vision. Springer, Cham, 2016: 21-37.

      [24] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(6): 1137-1149.

      [25] Ge Z, Liu S, Wang F, et al. YOLO_X: Exceeding YOLO series in 2021[EB/OL]. arXiv preprint arXiv:2107.08430, 2021.

      [26] Redmon J, Farhadi A. YOLOv3: An incremental improvement[EB/OL]. arXiv preprint arXiv:1804.02767, 2018.

      [27] Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4: Optimal speed and accuracy of object detection[J]. arXiv preprint arXiv: 2004.10934, 2020.

      [28] Dollar P, Wojek C, Schiele B, et al. Pedestrian detection: An evaluation of the state of the art[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 34(4): 743-761.

      [29] Zhuang F, Qi Z, Duan K, et al. A comprehensive survey on transfer learning[J]. Proceedings of the IEEE, 2020, 109(1): 43-76.

      [30] Zhu W, Braun B, Chiang L H, et al. Investigation of transfer learning for image classification and impact on training sample size[J]. Chemometrics and Intelligent Laboratory Systems, 2021, 211: 104269.

      [31] Xu W, Zhao L, Li J, et al. Detection and classification of tea buds based on deep learning[J]. Computers and Electronics in Agriculture, 2022, 192: 106547.

      UAV images for detecting maize tassel based on YOLO_X and transfer learning

      Wang Binbin1,2,3, Yang Guijun1,2,3, Yang Hao2,3, Gu Jinan1, Zhao Dan2,3, Xu Sizhe2,3,4, Xu Bo2,3※

      (1212000,; 2,100097,; 3.100097,; 4212000)

      Maize tassels play a very important role in the process of maize growth. It is a high demand to realize the accurate identification and counting of maize tassels in the complex field environment. In this study, a complete detection and counting system was established for the farmland maize tassels using Unmanned Aerial Vehicle (UAV) remote sensing and computer vision, in order to promote the application of intelligent agriculture during maize production. The UAV images were also collected during the maize heading stage in the experimental field. Three target detection networks of Faster R-CNN, SSD, and YOLO_X were selected to realize the high-precision recognition of maize tassels using transfer learning. Specifically, the UAV was firstly utilized to collect the RGB images of maize tassels with a height of 10 m on August 9, 2021. Secondly, the UAV images of maize tassels were cut into 600 × 600 pixels. The same number of samples were then selected for the training set, verification set, and test set, according to each variety and planting density. Finally, the weight of training on the public dataset was transferred to the target model using transfer learning. The recognition performance of maize tassel was compared before and after transfer learning. The experimental results show that the average precision, the recall rate, and the accuracy rate of Faster R-CNN target detection networks increased by 16.41, 21.86, and 10.01 percentage points, respectively, compared with the SSD, and YOLO_X. By contrast, the average precision, recall rate, and accuracy rate of the SSD increased by 3.05, 1.76 percentage points, respectively. The average precision, the recall rate, and the accuracy rate of YOLO_X increased by 3.56, 4.51 percentage points, respectively. Among them, the recognition precision, average precision, accuracy, and LAMR of YOLO_X after transfer learning reached 97.16%, 93.60%, 99.84%, and 0.22, respectively, compared with the Faster R-CNN and SSD networks. The best performance was achieved for the detection of maize tassel. In addition, the Faster R-CNN, SSD, and YOLO_X were also utilized to determine the adaptability of the model under the five varieties of maize tassels. The results showed that the maize tassels of Zhengdan958 were easier to be tested, indicating the best adaptability to the model. Nevertheless, there was a low correlation between the true and prediction on the number of frames of Jingjiuqingzhu16 maize tassels, indicating the low detection performance. The training datasets of this variety were then suggested to be expanded and suitable for the model in the future. In addition, five varieties were also tested at four planting densities using the YOLO_X model after transfer learning. The experimental results show that the detection error of the model for the maize tassel significantly increased with the increase in planting density. The density of maize tassel was also estimated to effectively obtain the agronomic phenotype of maize for the prediction of maize yield. A systematic investigation was made to clarify the influence of the difference between varieties and planting density on the model detection. Many factors were determined for the model detection, such as the plant type of maize, the parameters of the model, and the feature extraction network. Therefore, the finding can also provide strong support for the intelligent production of maize and agricultural modernization.

      UAV; object detection; image recognition; maize tassel; transfer learning; deep learning

      10.11975/j.issn.1002-6819.2022.15.006

      S513; TP391

      A

      1002-6819(2022)-15-0053-10

      汪斌斌,楊貴軍,楊浩,等. 基于YOLO_X和遷移學(xué)習(xí)的無人機(jī)影像玉米雄穗檢測(cè)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(15):53-62.doi:10.11975/j.issn.1002-6819.2022.15.006 http://www.tcsae.org

      Wang Binbin, Yang Guijun, Yang Hao, et al. UAV images for detecting maize tassel based on YOLO_X and transfer learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(15): 53-62. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2022.15.006 http://www.tcsae.org

      2022-05-11

      2022-07-06

      國(guó)家重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2021YFD2000100,2019YFE0125300-1);廣東省重點(diǎn)領(lǐng)域研發(fā)計(jì)劃項(xiàng)目(2019B020216001)

      汪斌斌,助理研究員,研究方向?yàn)闄C(jī)器視覺與作物表型信息。Email:3107718860@qq.com

      徐波,博士,助理研究員,研究方向?yàn)闊o人機(jī)遙感應(yīng)用,作物表型信息。Email:xub@nercita.org.cn

      猜你喜歡
      特征提取密度玉米
      『密度』知識(shí)鞏固
      密度在身邊 應(yīng)用隨處見
      收玉米啦!
      我的玉米送給你
      “玩轉(zhuǎn)”密度
      密度應(yīng)用知多少
      基于Daubechies(dbN)的飛行器音頻特征提取
      電子制作(2018年19期)2018-11-14 02:37:08
      玉米
      大灰狼(2018年6期)2018-07-23 16:52:44
      Bagging RCSP腦電特征提取算法
      最飽滿的玉米
      封开县| 余姚市| 蒙阴县| 小金县| 华亭县| 宁城县| 申扎县| 襄垣县| 高安市| 阳山县| 沿河| 宽甸| 彭水| 剑川县| 彝良县| 正宁县| 和静县| 甘泉县| 巴楚县| 赤峰市| 革吉县| 织金县| 惠东县| 望都县| 花莲县| 宝鸡市| 黔江区| 凤凰县| 南岸区| 横峰县| 介休市| 陇川县| 新巴尔虎右旗| 呼和浩特市| 台中县| 溆浦县| 汨罗市| 哈密市| 鸡东县| 贵州省| 鲁甸县|