• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度全卷積神經(jīng)網(wǎng)絡(luò)的大田稻穗分割

      2018-07-19 15:24:10段凌鳳楊萬能黃成龍
      農(nóng)業(yè)工程學(xué)報 2018年12期
      關(guān)鍵詞:稻穗大田像素

      段凌鳳,熊 雄,劉 謙,楊萬能,3,黃成龍※

      (1.華中農(nóng)業(yè)大學(xué)工學(xué)院,武漢 430070;2.華中科技大學(xué)武漢光電國家研究中心,武漢 430074;3.華中農(nóng)業(yè)大學(xué)作物遺傳改良國家重點(diǎn)實(shí)驗(yàn)室,武漢 430070)

      0 引 言

      高產(chǎn)一直是水稻育種與栽培的重要目標(biāo)之一[1]。在水稻育種與栽培相關(guān)領(lǐng)域研究中,需要測量大量候選樣本在不同環(huán)境下的產(chǎn)量,為培育高產(chǎn)、優(yōu)質(zhì)、抗逆的水稻品種提供科學(xué)依據(jù)[2]。稻穗是水稻谷粒著生的器官,穗部性狀與水稻產(chǎn)量直接相關(guān)[3]。稻穗在水稻病蟲害檢測[4]、營養(yǎng)診斷[5]及生育期檢測[6]等方面也起著非常重要的作用。因此,稻穗的準(zhǔn)確分割,是獲取水稻穗部性狀、實(shí)現(xiàn)水稻表型自動化測量的關(guān)鍵步驟[7]。不同品種及生育期稻穗外觀如形狀、顏色、大小、紋理、姿態(tài)等存在較大差異,稻穗邊緣嚴(yán)重不規(guī)則,穗葉顏色也很大程度混疊。田間自然環(huán)境復(fù)雜,水稻不同器官間相互遮擋,光照不均勻且不斷變化,這些因素都使得復(fù)雜大田環(huán)境下的稻穗分割非常困難。

      一些學(xué)者基于像素水平的顏色特征[8-10]和紋理特征[11-12]分割果穗,處理速度快,但極易產(chǎn)生噪聲。通過生成候選區(qū)域,判定候選區(qū)域的類別(穗或背景),可提高分割準(zhǔn)確度[13-15]。目前,大多數(shù)研究基于像素水平顏色特征生成候選區(qū)域[13-15],區(qū)域邊界貼合性較差,直接影響了候選區(qū)域識別及最終分割效果。Lu等融合簡單線性迭代聚類方法(simple linear iterative clustering,SLIC)和graph-based方法產(chǎn)生超像素,提取超像素的平均顏色,由神經(jīng)網(wǎng)絡(luò)群體模型判別超像素類型,實(shí)現(xiàn)了玉米穗的分割[16]。在禾本科作物果穗識別方面,Guo等通過SVM(support vector machine)對處于抽穗期的稻穗檢測問題進(jìn)行研究[17]。范夢揚(yáng)等基于麥穗顏色和紋理特征,利用SVM對麥穗?yún)^(qū)域進(jìn)行識別[18]。

      卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)是近幾年來興起的一種適用于圖像分析的深度學(xué)習(xí)模型[19-20],已成功應(yīng)用于農(nóng)業(yè)圖像識別與分割[21-27]。在作物果穗識別與分割方面,Pound等[28]利用CNN實(shí)現(xiàn)了小麥特征部位如根尖、穗尖、穗基部等的識別。Xiong等[7]提出了一種基于超像素分割和CNN的稻穗分割算法-Panicle-SEG,能很好地應(yīng)用于不同品種及生育期的大田稻穗分割,缺點(diǎn)在于算法耗時較長。

      本研究提出了一種基于深度全卷積神經(jīng)網(wǎng)絡(luò)的大田稻穗分割算法,目標(biāo)在于提升稻穗分割準(zhǔn)確度及效率,為水稻表型自動化測量提供新的工具,進(jìn)一步服務(wù)于水稻育種及栽培。

      1 材料與方法

      1.1 圖像采集

      本研究采用的水稻品種來源于水稻種質(zhì)資源。選取稻穗外觀差異大的73個水稻品種,于2016年以小區(qū)形式種植于大田。每個小區(qū)面積為80×96 cm2,按5行4列(行距16 cm)的形式種植同一個品種的20株水稻。不同小區(qū)種植不同品種,小區(qū)與小區(qū)之間由保護(hù)行進(jìn)行隔離。小區(qū)與小區(qū)之間間隔32 cm。通過尼康D40數(shù)碼相機(jī)拍攝水稻圖像,每張圖像包含一個小區(qū)。共采集73張大田水稻圖像,包含73個不同品種,各品種生育期不一致(從抽穗期至成熟期),拍攝時光照條件也不一致。隨機(jī)取其中的50張用于離線訓(xùn)練大田稻穗分割算法,剩下的23張作為測試樣本(稱為2016測試圖像集),用于評估算法的分割性能。

      為進(jìn)一步測試網(wǎng)絡(luò)的泛化能力,于2017年種植水稻種質(zhì)資源中除2016年73個品種以外的22個品種,并對這些品種進(jìn)行高溫脅迫,以測試算法對不同生長環(huán)境水稻稻穗的分割性能。相比于2016年的水稻,這些水稻所處生育期更接近于成熟期。一些品種稻穗抽出時間不一致,因此同一張圖像中水稻不同稻穗間生育期不一致的現(xiàn)象更為嚴(yán)重。共采集22張圖像,同樣包含不同生育期,稱為2017測試圖像集。

      1.2 基于深度全卷積神經(jīng)網(wǎng)絡(luò)的稻穗分割

      本研究基于深度全卷積神經(jīng)網(wǎng)絡(luò)分割稻穗,流程見圖1,主要包括2個步驟:1)PanicleNet離線訓(xùn)練;2)基于PanicleNet在線分割水稻圖像。

      圖1 基于PanicleNet的稻穗分割總體技術(shù)流程Fig.1 Overall technical flowchart for panicle segmentation based on PanicleNet

      1.2.1 PanicleNet網(wǎng)絡(luò)結(jié)構(gòu)

      PanicleNet的網(wǎng)絡(luò)結(jié)構(gòu)與SegNet[29]類似。SegNet是由Cambridge提出的用于圖像語義分割的深度全卷積神經(jīng)網(wǎng)絡(luò),主要由編碼網(wǎng)絡(luò)、解碼網(wǎng)絡(luò)及像素級分類器構(gòu)成[29]。編碼網(wǎng)絡(luò)的結(jié)構(gòu)與VGG-16[30]相同,其特殊之處在于解碼網(wǎng)絡(luò)的設(shè)計(jì)。SegNet記錄每個編碼層在最大池化時的池化索引,并利用該因子進(jìn)行上采樣,從而無需學(xué)習(xí)如何上采樣。SegNet的最大優(yōu)勢在于內(nèi)存效率和計(jì)算效率高,且需要訓(xùn)練的參數(shù)相對較少[29]。

      SegNet采用對稱編解碼的結(jié)構(gòu)來獲得多尺度信息,相比于FCN(fully convolutionalnetworks)[31],最大池化索引結(jié)構(gòu)的引入使得SegNet計(jì)算量更小、精度更高。而相比于加入空洞卷積等結(jié)構(gòu)使得精度更高的DeepLab[32]和PSPNet[33]等網(wǎng)絡(luò),SegNet的網(wǎng)絡(luò)結(jié)構(gòu)更加簡單、運(yùn)算速度更快。本研究中的稻穗分割是一個二分類問題,SegNet已經(jīng)能夠?qū)崿F(xiàn)較高精度,對稱編解碼的結(jié)構(gòu)使得網(wǎng)絡(luò)引入了多尺度的能力,非常適合處理田間細(xì)小且不規(guī)則稻穗的分割問題,因此本研究基于SegNet設(shè)計(jì)PanicleNet,SegNet最后一個卷積層的通道數(shù)11,在本文中為2(PanicleNet),分別對應(yīng)于稻穗和背景。

      PanicleNet的具體結(jié)構(gòu)見圖2。每個卷積層的滑動步長(stride)均為1個像素,并通過邊界擴(kuò)充(pad=1)保持輸入輸出維度不變。池化層均采用最大池化,池化窗口大小為2×2,滑動步長為2。上采樣層的采樣尺度(scale)均為2。PanicleNet最后一個卷積層的通道數(shù)為2,其輸出的特征圖被輸入到Softmax分類器進(jìn)行逐像素的分類,最終輸出分割結(jié)果圖。

      圖2 PanicleNet網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.2 Illustration of PanicleNet architecture

      1.2.2 PanicleNet離線訓(xùn)練

      在本研究中,50張1971×1815像素(高×寬)的大田圖像被用于離線訓(xùn)練PanicleNet。首先利用Photoshop對原始大田圖像進(jìn)行人工標(biāo)注,稻穗像素被標(biāo)注為1,背景像素被標(biāo)注為0,作為真實(shí)分割結(jié)果。

      圖3 訓(xùn)練樣本亮度調(diào)整擴(kuò)增數(shù)據(jù)Fig.3 Data augmentation by adjusting illumination component

      PanicleNet的具體訓(xùn)練過程如下:

      1)圖像補(bǔ)邊及裁剪:為將原始圖像變?yōu)榭刹贸烧麛?shù)張子圖(360×480像素)的圖像,對于每一張用于PanicleNet訓(xùn)練的原始圖像及其對應(yīng)的人工標(biāo)注圖像,對圖像邊緣補(bǔ)黑,具體操作為將1971×1815像素圖像的邊緣對稱地補(bǔ)黑,補(bǔ)黑后的圖像大小為2160×1920像素。將每張圖像不重疊且無間隔地裁成24張360×480像素的圖像,作為PanicleNet的輸入圖像。50張圖像,共裁剪為50×24=1 200張子圖。

      2)劃分訓(xùn)練集與驗(yàn)證集:將1 200張子圖按4∶1的比例隨機(jī)劃分為訓(xùn)練集和驗(yàn)證集。

      3)數(shù)據(jù)擴(kuò)增:對每一張子圖,均進(jìn)行亮度調(diào)整,保持H分量和S分量不變,V分量分別增大、減小20%,用于模擬大田環(huán)境中的光照變化,提高PanicleNet的泛化能力。圖3為典型的經(jīng)過數(shù)據(jù)擴(kuò)增的樣本圖像。經(jīng)過數(shù)據(jù)擴(kuò)增后,訓(xùn)練集和驗(yàn)證集的樣本數(shù)分別為2 880和720張。

      4)網(wǎng)絡(luò)離線訓(xùn)練:基于Caffe平臺訓(xùn)練PanicleNet。采用隨機(jī)梯度下降法(stochastic gradient descent,SGD)訓(xùn)練網(wǎng)絡(luò),動量因子(momentum)設(shè)置為0.9,學(xué)習(xí)速率為0.001,利用VGG-16對PanicleNet的參數(shù)進(jìn)行初始化,即采用微調(diào)(fine-tuning)的方法訓(xùn)練網(wǎng)絡(luò)。訓(xùn)練集的batchsize設(shè)置為4,驗(yàn)證集的batchsize設(shè)置為2。圖像中稻穗像素(類別1)和背景像素(類別0)的數(shù)目嚴(yán)重不平衡,背景像素數(shù)目遠(yuǎn)大于前景。若不進(jìn)行處理,則訓(xùn)練出來的網(wǎng)絡(luò)會傾向于將待分割像素分成背景。PanicleNet通過在損失中加入懲罰權(quán)重的方法來實(shí)現(xiàn)類別平衡,具體為對大樣本類別(背景)設(shè)置較小的損失權(quán)重系數(shù),而小樣本類別(稻穗)則設(shè)置較大的損失權(quán)重系數(shù)。計(jì)算方法見式(1)~(2)。

      式中W0為背景像素的權(quán)重,W1為稻穗像素的權(quán)重,Ni0為第i張圖像中背景像素的個數(shù),Ni1為第i張圖像中稻穗像素的個數(shù),Ni為第i張圖像中像素的總數(shù)。

      在本研究中,經(jīng)過計(jì)算,背景和稻穗的權(quán)重分別為0.5873和3.3641。每訓(xùn)練720個epoch,進(jìn)行一次驗(yàn)證,驗(yàn)證迭代次數(shù)為360,即每將所有的訓(xùn)練樣本訓(xùn)練一次后,對所有的驗(yàn)證樣本進(jìn)行驗(yàn)證。當(dāng)誤差收斂(基本不變)時,停止訓(xùn)練。最終選用的網(wǎng)絡(luò)迭代次數(shù)為72 000,即將所有樣本訓(xùn)練了100次。

      1.2.3基于PanicleNet在線分割水稻圖像

      離線訓(xùn)練好PanicleNet后,即可利用PanicleNet在線分割水稻圖像。

      1)圖像邊緣補(bǔ)黑,變?yōu)榭刹脼檎麛?shù)張子圖,(360×480像素)的圖像。2)圖像裁剪為若干張子圖,并記錄子圖的位置索引,以便于后續(xù)圖像拼接恢復(fù)原始圖像(圖4)。3)基于PanicleNet對子圖進(jìn)行像素級語義分割。4)將分割后的子圖按照其索引位置拼接為大圖。5)去除補(bǔ)黑的邊界,恢復(fù)與原始圖像大小相同的分割圖像。

      圖4 圖像裁剪及子圖位置索引記錄示意圖Fig.4 Image clipping and sub-image location indexes recording

      1.3 分割性能對比試驗(yàn)及評價指標(biāo)

      基于上述圖像分割過程,本研究利用包含不同品種、生育期及生長環(huán)境的2個測試圖像集:2016測試圖像集及2017測試圖像集對本文算法的分割性能進(jìn)行評估,并與現(xiàn)有作物果穗分割算法Panicle-SEG[7]、HSeg[10]、i2滯后閾值法[15]及JointSeg[16]進(jìn)行對比。通過Qseg、召回率、精度以及F值評價分割性能[7]。其中Qseg值反映分割結(jié)果與真實(shí)值之間的相符程度,其值在0~1之間,Qseg值越高,分割效果越好。精度反映被分割為稻穗的樣本中其真實(shí)標(biāo)簽為稻穗的比例,是分割結(jié)果精確程度的一種表征。召回率反映真實(shí)標(biāo)簽為稻穗的樣本被正確分割的比例,衡量了分割稻穗?yún)^(qū)域的完整性。精度和召回率通常呈負(fù)相關(guān),精度提高,召回率通常會降低,反之亦然。F值為綜合考慮召回率和精度的平衡指標(biāo),兼顧分割的精準(zhǔn)程度和完整性,F(xiàn)值越高,分割效果越好。

      式中A為由分割算法分割得到的像素類別集合,包括背景(v=0)和前景(v=1),B為對應(yīng)像素集的真實(shí)標(biāo)簽集合,包括背景(v=0)和前景(v=1)。i,j為像素索引,m為圖像高,n為圖像寬,vi,j為第i列第j行像素的灰度值。

      式中TP為真實(shí)標(biāo)簽為稻穗且被分割為稻穗的像素個數(shù),F(xiàn)P為真實(shí)標(biāo)簽為背景但被分割為稻穗的像素個數(shù),F(xiàn)N為真實(shí)標(biāo)簽為稻穗但被分割為背景的像素個數(shù)。

      2 結(jié)果與分析

      2.1 不同網(wǎng)絡(luò)性能比較

      基于2016測試圖像集對基于SegNet[29]、DeepLab[32]和PSPNet[33]的網(wǎng)絡(luò)對大田圖像的分割性能進(jìn)行測試與對比,結(jié)果見表1。3個網(wǎng)絡(luò)均使用本文訓(xùn)練集訓(xùn)練,學(xué)習(xí)率均為0.001,動量均為0.9,當(dāng)誤差基本不變時停止訓(xùn)練?;赟egNet的網(wǎng)絡(luò)綜合分割性能略低于基于DeepLab和PSPNet的網(wǎng)絡(luò),表現(xiàn)為Qseg值和F值略低。這說明對于稻穗分割這種二分類問題,結(jié)構(gòu)相對簡單的SegNet網(wǎng)絡(luò)架構(gòu)即可以達(dá)到較好的分割效果。

      在計(jì)算效率上,在Microsoft Windows 10專業(yè)版操作系統(tǒng),12核 Intel(R)core?i7-6850k cpu@3.60GHz的處理器,32GB內(nèi)存及NVIDIATITAN Xp顯卡的配置下,處理一張360×480像素大小的圖像,基于SegNet、DeepLab和PSPNet的網(wǎng)絡(luò)耗時分別約為75、293和155 ms,基于SegNet的網(wǎng)絡(luò)處理速度優(yōu)于另2個網(wǎng)絡(luò)。

      綜合考慮分割性能和處理速度,本研究最終基于SegNet的網(wǎng)絡(luò)作為稻穗分割網(wǎng)絡(luò)PanicleNet。

      表1 不同網(wǎng)絡(luò)性能比較Table 1 Performance comparison of different networks

      2.2 與現(xiàn)有作物果穗分割算法性能比較

      本文算法和現(xiàn)有算法對測試圖像的分割性能比較結(jié)果如表2和圖5所示。

      表2 基于PanicleNet的分割算法和現(xiàn)有算法對測試圖像的分割性能比較Table 2 Performance comparison of PanicleNet and other approaches on testing images

      依據(jù)表2,本文基于PanicleNet的分割算法性能最優(yōu),對2016測試圖像集的平均分割性能為:Qseg值0.76,F(xiàn)值0.86,對2017測試圖像集的平均分割性能為:Qseg值0.67,F(xiàn)值0.80。對2017測試圖像集的分割性能略低于2016測試圖像集,主要原因在于2017測試圖像集中的水稻相比于2016年的圖像更接近完熟期,稻穗顏色更黃,而用于訓(xùn)練PanicleNet的圖像中無接近完熟期的圖像。另外,兩個數(shù)據(jù)集的水稻生長環(huán)境不同,2016年的水稻為正常生長條件,而2017年則為高溫脅迫條件。Panicle-SEG算法的分割性能次之。對2016測試圖像集的平均分割性能為:Qseg值0.59,F(xiàn)值0.74,對2017測試圖像集的平均分割性能為:Qseg值0.55,F(xiàn)值0.71。PanicleNet的精度略低于Panicle-SEG,相應(yīng)地,其召回率則遠(yuǎn)高于PanicleNet,表明PanicleNet是通過分割出更多的稻穗像素,提高稻穗?yún)^(qū)域的完整性來優(yōu)化分割結(jié)果,獲取更高的F值。

      圖5 本文算法和其他分割算法對測試圖像的分割性能比較Fig.5 Performance comparison of our method and other methods on testing images

      圖5顯示了不同分割算法對6張測試圖像的分割結(jié) 果。其中圖5a-5d為2016年采集,圖5e-5f為2017年采集。處于抽穗期稻穗直立生長,在頂視圖中稻穗面積很??;處于灌漿期稻穗彎曲生長,稻穗面積較大;處于成熟期,稻穗帶芒;圖5d稻穗,稻穗顏色與5a-5c相差較大,部分葉片顏色也為黃色;5e和5f中稻穗成熟程度不一致,有些稻穗很黃,另一些為綠色,且部分葉片已完全枯黃,總體上比5a-5d中水稻更接近完熟期。同一幅圖像中稻穗的顏色、姿態(tài)、大小、形狀及亮度等的差異也較大。本研究算法對以上情況都具有較好的分割性能。HSeg算法將很多背景分割為前景稻穗,分割精度較低。i2滯后閾值法比HSeg效果稍好,但對于穗葉顏色混疊的情況分割結(jié)果較差,其分割精度也較低。JointSeg算法是為分割玉米穗而設(shè)計(jì)的,從測試結(jié)果看,大量稻穗?yún)^(qū)域未被分割出來,算法召回率非常低。Panicle-SEG算法的分割精度很高,但對于細(xì)小稻穗的分割結(jié)果較差,Panicle-SEG分割結(jié)果中遺漏了很多小的稻穗?yún)^(qū)域,對稻穗邊緣的細(xì)小分支結(jié)構(gòu)的提取也不完整。而PanicleNet對稱編碼-解碼的網(wǎng)絡(luò)結(jié)構(gòu)大大提高了模型多尺度信息處理能力,對細(xì)小稻穗?yún)^(qū)域敏感性較好,其召回率遠(yuǎn)高于Panicle-SEG,而精度僅略低于Panicle-SEG,最終的分割性能優(yōu)于Panicle-SEG(具有更高的F值和Qseg值)。

      總體上,基于深度學(xué)習(xí)的算法包括PanicleNet和Panicle-SEG在復(fù)雜大田稻穗分割這一問題上的性能優(yōu)于傳統(tǒng)的分割算法。這主要是因?yàn)榛谏疃葘W(xué)習(xí)的分割算法直接以原始圖像作為輸入,區(qū)別于傳統(tǒng)的人為設(shè)計(jì)特征提取,自動學(xué)習(xí)隱含在數(shù)據(jù)中更為本質(zhì)的、表達(dá)能力更強(qiáng)的圖像特征,達(dá)到準(zhǔn)確分割或分類的目的。而HSeg、i2滯后閾值法及JointSeg等傳統(tǒng)算法在分割中都需要人工設(shè)計(jì)提取顏色特征。Hseg提取圖像的H分量進(jìn)行分割[10];i2滯后閾值法提取每個像素的i2顏色分量用于分割[15];JointSeg產(chǎn)生候選區(qū)域后,提取每個區(qū)域的平均RGB顏色特征進(jìn)行分割[16]。本研究中不同圖像甚至同一圖像中不同稻穗的顏色不一致,穗葉顏色嚴(yán)重混疊,不同品種及生育期間稻穗顏色、形狀、大小等都存在很大差異,人工很難設(shè)計(jì)出足夠有效的特征用于分割,因此分割性能較差。而同樣基于深度學(xué)習(xí)的Panicle-SEG算法的設(shè)計(jì)較為復(fù)雜,分為3個步驟:SLIC超像素分割產(chǎn)生候選區(qū)域、CNN判別候選區(qū)域類型以及ER優(yōu)化分割結(jié)果,分割結(jié)果易受到幾個重要參數(shù)如SLIC超像素區(qū)域數(shù)目、ER超像素區(qū)域數(shù)目、ER平衡因子等的影響[7]。本文提出的PanicleNet為端對端的像素級語義分割,算法首先將圖像分塊,由PanicleNet對子圖進(jìn)行像素級分割,再拼接分割子圖,無需調(diào)節(jié)參數(shù),即可實(shí)現(xiàn)對任意大小圖像的分割。相比于Panicle-SEG,本文提取的算法在設(shè)計(jì)上更為簡單,分割性能更好。

      綜上,PanicleNet能很好的克服稻穗邊緣嚴(yán)重不規(guī)則、不同品種、生育期及生長環(huán)境稻穗外觀差異大、穂葉顏色混疊和復(fù)雜大田環(huán)境中光照、遮擋等因素的干擾,準(zhǔn)確地分割稻穗。

      2.3 計(jì)算效率比較試驗(yàn)

      在2.1所述硬件環(huán)境下,PanicleNet處理一幅子圖(360×480像素)耗時約75 ms,處理一幅1971×1815像素的圖像耗時為原始圖像裁剪的時間、24張子圖分割的時間(約24×75 ms=1.8 s)以及24張子圖分割結(jié)果拼接的時間之和,共計(jì)耗時約2 s。而在同一臺計(jì)算機(jī)上,性能次優(yōu)的Panicle-SEG算法參數(shù)設(shè)置如下:SLIC超像素區(qū)域數(shù)目20 000,ER超像素區(qū)域數(shù)目5 000,ER平衡因子0.5時,耗時CPU模式下約為80~90 s,GPU模式下約為70 s。綜上所述,本研究算法計(jì)算速度約為Panicle-SEG算法的35倍,在效率上遠(yuǎn)遠(yuǎn)高于Panicle-SEG算法。

      3 結(jié)論

      本文提出了一種基于深度全卷積神經(jīng)網(wǎng)絡(luò)的大田稻穗分割算法?;赟egNet網(wǎng)絡(luò)模型架構(gòu),更改最后一個卷積層的通道數(shù),應(yīng)用經(jīng)過數(shù)據(jù)增廣的水稻圖像數(shù)據(jù)集,訓(xùn)練了用于大田稻穗分割的深度全卷積神經(jīng)網(wǎng)絡(luò)PanicleNet。對于一張待分割圖像,先將圖像劃分為適合PanicleNet輸入大小的子圖,然后基于PaniceNet對子圖進(jìn)行語義分割,最后將子圖分割結(jié)果拼接恢復(fù)為原始圖像的分割結(jié)果。用包含不同品種、生育期和生長環(huán)境的測試圖像進(jìn)行算法性能對比試驗(yàn),各算法的平均分割性能如下:

      1)與訓(xùn)練樣本同年度拍攝樣本PanicleNetQseg值為0.76,F(xiàn)值為0.86,優(yōu)于Panicle-SEG的0.59和0.74,亦優(yōu)于Hseg、i2滯后閾值法和JointSeg。

      2)不同年度拍攝樣本PanicleNetQseg值為0.67,F(xiàn)值為0.80,分割效果相對Panicle-SEG(Qseg為0.55、F為 0.71)、Hseg(Qseg為 0.26、為 0.39)、i2 滯后閾值法(Qseg為0.42、F為0.58)和JointSeg(Qseg為0.05、F為 0.11)。

      綜上,本研究所述算法性能遠(yuǎn)優(yōu)于4種現(xiàn)有作物果穗分割算法。在處理速度上,本研究算法處理一張1 971×1 815像素的圖像耗時約2 s,約為性能次優(yōu)算法Panicle-SEG的35倍。

      本文提出的大田稻穗分割算法對不同品種、生育期及生長環(huán)境的適應(yīng)性較好,能克服復(fù)雜大田環(huán)境對圖像分割的干擾,實(shí)現(xiàn)對大田稻穗的準(zhǔn)確分割,分割準(zhǔn)確性高,處理速度快,為水稻表型測量提供新的工具,進(jìn)一步服務(wù)于水稻育種及栽培。

      [1]Sang T,GeS.Understanding ricedomestication and implications for cultivar improvement[J].Current Opinion in Plant Biology,2013,16(2):139-146.

      [2]Peng S,Khush G,Virk P,et al.Progress in ideotype breeding to increase rice yield potential[J].Field Crops Research,2008,108(1):32-38.

      [3]Ikeda M,Hirose Y,Takashi T,et al.Analysis of rice panicle traits and detection of QTLs using an image analyzing method[J].Breeding Science,2010,60(1):55-64.

      [4]Zhou X G.First report of bacterial panicle blight of rice caused by Burkholderia glumae in South Africa[J].Plant Disease,2014,98(4):566-566.

      [5]Zhang Y,Liu M,Dannenmann M,et al.Benefit of using biodegradable film on rice grain yield and N use efficiency in ground coverrice production system [J].Field Crops Research,2017,201:52-59.

      [6]Bonil K,Kang S K,Sang W G,et al.Variation of panicle differentiation stage by leaf growth according to rice cultivars and transplanting time[J].Korean Journal of Crop Science,2013,58(4):353-361.

      [7]Xiong X,Duan L,Liu L,et al.Panicle-SEG:A robust image segmentation method for rice panicles in the field based on deep learning and superpixel optimization[J].Plant Methods,2017,13(1):104.

      [8]陳含,呂行軍,田鳳珍,等.基于Sobel算子邊緣檢測的麥穗圖像分割[J].農(nóng)機(jī)化研究,2013(3):33-36.Chen Han,Lv Xingjun,Tian Fengzhen,et al.Wheat panicle image segmentation based on sobel operator-edge detection[J]. Journal of Agricultural Mechanization Research,2013(3):33-36.(in Chinese with English abstract)

      [9]劉濤,孫成明,王力堅(jiān),等.基于圖像處理技術(shù)的大田麥穗計(jì)數(shù)[J].農(nóng)業(yè)機(jī)械學(xué)報,2014,45(2):282-290.Liu Tao,Sun Chengming,Wang Lijian,et al.In-field wheatear counting based on image processing technology[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(2):282-290.(in Chinese with English abstract)

      [10]Tang W,Zhang Y,Zhang D,et al.Corn tassel detection based on image processing[C]//International Workshop on Image Processing and Optical Engineering.International Society for Optics and Photonics,2012,8335:83350J-1-83350J-7.

      [11]Cointault F,Guerin D,Guillemin J P,et al.In‐field Triticum aestivum ear counting using colour‐texture image analysis[J].New Zealand Journal of Crop and Horticultural Science,2008,36(2):117-130.

      [12]Frédéric C,Frédéric J,Gilles R,et al.Texture,color and frequentialproxy-detection image processing for crop Characterization in a ContextofPrecision Agriculture[M]//Godwin Aflakpui.Agricultural Science,Alexandria LA:InTech,2012:49-70.

      [13]趙鋒,王克儉,苑迎春,基于顏色特征和AdaBoost算法的麥穗識別的研究 [J].作物雜志,2014(1):141-144.Zhao Feng,Wang Kejian,Yuan Yingchun.Study on wheat spike identification based on color features and adaboost algorithm[J].Crops,2014(1):141-144.(in Chinese with English abstract)

      [14]Zhu Y,Cao Z,Lu H,et al.In-field automatic observation of wheat heading stage using computer vision[J].Biosystems Engineering,2016,143:28-41.

      [15]Duan L,Huang C,Chen G,et al.Determination of rice panicle numbers during heading by multi-angle imaging[J].The Crop Journal,2015,3(3):211-219.

      [16]Lu H,Cao Z,Xiao Y,et al.Fine-grained maize tassel trait characterization with multi-view representations [J].Computers&Electronics in Agriculture,2015,118:143-158.

      [17]Guo W,Fukatsu T,Ninomiya S.Automated characterization of flowering dynamics in rice using field-acquired time-series RGB images[J].Plant Methods,2015,11(1):1-15.

      [18]范夢揚(yáng),馬欽,劉峻明,等.基于機(jī)器視覺的大田環(huán)境小麥麥穗計(jì)數(shù)方法[J].農(nóng)業(yè)機(jī)械學(xué)報,2015,46(增刊1):234-239.Fan Mengyang,Ma Qin,Liu Junming,et al.Counting method of wheatear in field based on machine vision technology[J].Transactions of the Chinese Society for Agricultural Machinery,2015,46(Supp.1):234-239.(in Chinese with English abstract)

      [19]Lecun Y,Bengio Y,Hinton G.Deep learning[J].Nature,2015,521(7553):436-444.

      [20]蔣樹強(qiáng),閔巍慶,王樹徽.面向智能交互的圖像識別技術(shù)綜述與展望[J].計(jì)算機(jī)研究與發(fā)展,2016,53(1):113-122.Jiang Shuqiang,Min Weiqing,Wang Shuhui.Survey and prospect of intelligent interaction-oriented image recognition techniques[J].Journal of Computer Research&Development,2016,53(1):113-122.(in Chinese with English abstract)

      [21]楊國國,鮑一丹,劉子毅.基于圖像顯著性分析與卷積神經(jīng)網(wǎng)絡(luò)的茶園害蟲定位與識別[J].農(nóng)業(yè)工程學(xué)報,2017,33(6):156-162.Yang Guoguo,Bao Yidan,Liu Ziyi.Localization and recognition of pests in tea plantation based on image saliency analysis and convolutional neural network[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(6):156-162.(in Chinese with English abstract)

      [22]孫俊,譚文軍,毛罕平,等.基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的多種植物葉片病害識別[J].農(nóng)業(yè)工程學(xué)報,2017,33(19):209-215.Sun Jun,Tan Wenjun,Mao Hanping,et al.Recognition of multiple plant leaf diseases based on improved convolutional neural network[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(19):209-215.(in Chinese with English abstract)

      [23]黃雙萍,孫超,齊龍,等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的水稻穗瘟病檢測方法[J].農(nóng)業(yè)工程學(xué)報,2017,33(20):169-176.Huang Shuangping,Sun Chao,Qi Long,et al.Rice panicle blast identification method based on deep convolution neural network [J].Transactions ofthe Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(20):169-176.(in Chinese with English abstract)

      [24]周云成,許童羽,鄭偉,等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的番茄主要器官分類識別方法[J].農(nóng)業(yè)工程學(xué)報,2017,33(15):219-226 Zhou Yuncheng,Xu Tongyu,Zheng Wei,et al.Classification and recognition approaches of tomato main organs based on DCNN [J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(15):219-226.(in Chinese with English abstract).

      [25]魯恒,付蕭,賀一楠,等.基于遷移學(xué)習(xí)的無人機(jī)影像耕地信息提取方法[J].農(nóng)業(yè)機(jī)械學(xué)報,2015,46(12):274-279.Lu Heng,Fu Xiao,He Yinan,et al.Cultivated land information extraction from high resolution UAV images based on transfer learning[J].Transactions of the Chinese Society for Agricultural Machinery,2015,46(12):274-279.(in Chinese with English abstract)

      [26]李政,李永樹,吳璽,等.基于卷積神經(jīng)網(wǎng)絡(luò)的空心村高分影像建筑物檢測方法[J].農(nóng)業(yè)機(jī)械學(xué)報,2017,48(9):160-165.Li Zheng,Li Yongshu,Wu Xi,et al.Hollow village building detection method using high resolution remote sensing image based on CNN[J].Transactions of the Chinese Society for Agricultural Machinery,2017,48(9):160-165.(in Chinese with English abstract)

      [27]高震宇,王安,劉勇,等.基于卷積神經(jīng)網(wǎng)絡(luò)的鮮茶葉智能分選系統(tǒng)研究[J].農(nóng)業(yè)機(jī)械學(xué)報,2017,48(7):53-58.Gao Zhenyu,Wang An,Liu Yong,etal.Intelligent fresh-tea-leaves sorting system research based on convolution neural network[J].Transactions of the Chinese Society for Agricultural Machinery,2017,48(7):53-58.(in Chinese with English abstract)

      [28]Pound M P,Atkinson J A,Townsend A J,et al.Deep machine learning provides state-of-the-art performance in image-based plantphenotyping [J].Gigascience,2017,6(10):1-10.

      [29]Badrinarayanan V,Kendall A,Cipolla R.SegNet:A deep convolutional encoder-decoder architecture for scene segmentation[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2017,39(12):2481-2495.

      [30]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[J/OL].Computer Science,2014,1409:1556.

      [31]Long J,ShelhamerE,DarrellT.Fully convolutional networks for semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2015:3431-3440.

      [32]Chen L C,Papandreou G,Kokkinos I,et al.DeepLab:semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2018,40(4):834-848.

      [33]Zhao H,Shi J,Qi X,etal.Pyramid scene parsing network[C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2017:6230-6239.

      猜你喜歡
      稻穗大田像素
      趙運(yùn)哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      一束稻穗
      像素前線之“幻影”2000
      田園撿稻穗的歲月
      “大田后生仔”歌唱家鄉(xiāng)
      海峽姐妹(2020年1期)2020-03-03 13:35:54
      “像素”仙人掌
      驕傲的小稻穗
      母親
      草原(2018年10期)2018-12-21 12:28:38
      小田變大田破解農(nóng)地零碎化
      高像素不是全部
      CHIP新電腦(2016年3期)2016-03-10 14:22:03
      寿阳县| 绥滨县| 泰兴市| 南丰县| 阳原县| 云阳县| 卓资县| 修水县| 中宁县| 千阳县| 都匀市| 施甸县| 依兰县| 博白县| 淳安县| 玉环县| 乡城县| 铁岭市| 百色市| 宜宾县| 宁强县| 舟山市| 泾源县| 光泽县| 开封县| 精河县| 肥西县| 鞍山市| 肇东市| 吐鲁番市| 米泉市| 靖州| 莲花县| 滨海县| 法库县| 关岭| 渭南市| 荆州市| 五台县| 满洲里市| 固原市|