• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于卷積神經(jīng)網(wǎng)絡(luò)的白背飛虱識(shí)別方法

    2018-05-31 03:15:26劉德營王家亮林相澤於海明
    關(guān)鍵詞:白背飛虱正確率昆蟲

    劉德營 王家亮 林相澤 陳 京 於海明

    (南京農(nóng)業(yè)大學(xué)工學(xué)院, 南京 210031)

    0 引言

    白背飛虱屬于遠(yuǎn)距離遷飛性害蟲,是水稻主要害蟲之一[1-2]。白背飛虱通過針一樣的刺吸式口器吸食稻莖汁液,消耗稻株的養(yǎng)分,使水稻倒伏枯死、千粒重下降和空秕粒增加,造成水稻嚴(yán)重減產(chǎn)[3-4]。在農(nóng)業(yè)生產(chǎn)中,為減少和防治水稻病蟲害的發(fā)生,對水稻病蟲害進(jìn)行有效防治,首先需要對害蟲的種類進(jìn)行識(shí)別。傳統(tǒng)的人工識(shí)別方法存在費(fèi)時(shí)費(fèi)力、效率低下、危害工作人員健康等問題[5]。為解決上述問題,近年來,利用昆蟲雷達(dá)[6]、光譜[7]、聲音[8]以及機(jī)器視覺技術(shù)[9-11]進(jìn)行害蟲識(shí)別和監(jiān)測的研究受到重點(diǎn)關(guān)注。其中,利用機(jī)器視覺技術(shù)進(jìn)行昆蟲識(shí)別具有分類計(jì)數(shù)準(zhǔn)確、智能化程度高等優(yōu)點(diǎn),已成為病蟲害自動(dòng)監(jiān)控與識(shí)別技術(shù)的研究重點(diǎn)[12-13]。毛文華等[14]通過對草地蝗蟲頭數(shù)信息的提取,提出基于機(jī)器視覺的蝗蟲識(shí)別方法,獲得了80%的識(shí)別率。胡永強(qiáng)等[15]將顏色、形狀、紋理特征與稀疏表示相融合來識(shí)別5種油菜害蟲,平均識(shí)別率達(dá)到80.7%。李文勇等[11]通過害蟲姿態(tài)輪廓來識(shí)別果樹靶標(biāo)害蟲,識(shí)別率達(dá)到86.7%。上述研究均獲得了較好的識(shí)別效果,但仍有提升空間。

    本研究利用經(jīng)過改進(jìn)的自制昆蟲圖像采集裝置,采集田間自然狀態(tài)下稻飛虱圖像,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的白背飛虱自動(dòng)識(shí)別方法并進(jìn)行試驗(yàn)研究,為將來針對白背飛虱引發(fā)的蟲害開發(fā)自動(dòng)監(jiān)控和預(yù)測系統(tǒng)提供技術(shù)基礎(chǔ)。

    1 樣本采集

    1.1 圖像采集裝置

    為了更加方便地獲取田間自然狀態(tài)下的白背飛虱圖像,改造了野外環(huán)境昆蟲圖像自動(dòng)采集裝置[16],如圖1所示。改進(jìn)后的裝置與原裝置相比:使用PLC作為整個(gè)系統(tǒng)的控制核心。通過PLC控制伺服驅(qū)動(dòng)器來控制2個(gè)電動(dòng)機(jī),從而調(diào)節(jié)拍攝裝置在xz平面的位置,在電動(dòng)機(jī)工作的同時(shí),PLC發(fā)出脈沖,控制相機(jī)拍照,使得整個(gè)系統(tǒng)更加適合在野外進(jìn)行作業(yè),提高了系統(tǒng)的穩(wěn)定性。擴(kuò)大采集工作臺(tái)的面積,使得一個(gè)采集周期內(nèi),可獲得更多的昆蟲圖像。選用MER- 500- 7UC式數(shù)字相機(jī),該型號(hào)相機(jī)與計(jì)算機(jī)以USB2.0相連,避免了安裝圖像采集卡和驅(qū)動(dòng)等繁瑣步驟,且分辨率更高,拍攝的昆蟲圖像更加清晰,便于后續(xù)對圖像進(jìn)行處理。

    圖1 圖像采集系統(tǒng)實(shí)物圖Fig.1 Physical map of image acquisition system1.旋轉(zhuǎn)手柄 2.幕布 3.拍攝光源 4.鏡頭 5.相機(jī) 6.支撐臺(tái)架 7.縱向電動(dòng)機(jī) 8、9.滾珠絲杠 10.橫向電動(dòng)機(jī) 11.底座

    1.2 昆蟲圖像采集

    采集地點(diǎn)為南京農(nóng)業(yè)大學(xué)江浦農(nóng)場,屬亞熱帶季風(fēng)氣候,圖像采集時(shí)間為2016年6—10月。野外實(shí)驗(yàn)現(xiàn)場如圖2所示。采用上海亞東照明生產(chǎn)的160 W自鎮(zhèn)流熒光高壓汞燈作為誘蟲光源,放置在采集裝置工作臺(tái)的前上方,昆蟲受到燈光吸引不斷附著于工作臺(tái)的白色幕布上。調(diào)節(jié)鏡頭和幕布間的距離(實(shí)驗(yàn)中設(shè)置為50 cm),將相機(jī)設(shè)置為自動(dòng)曝光模式和白平衡模式,像素設(shè)置為最大的500萬像素(2 592像素×1 944像素),鏡頭光圈設(shè)置為F8.0,調(diào)整環(huán)形光源的光源強(qiáng)度使所拍攝的背景像素RGB值在200左右。

    每次實(shí)驗(yàn)采集2或3組圖像,每組195幅。所采集到的昆蟲圖像主要為白背飛虱,也包括蠼螋、葉蟬、長蝽、螞蟻等其他昆蟲,采集效果如圖3所示。

    圖2 野外實(shí)驗(yàn)現(xiàn)場圖Fig.2 Scene of field experiment

    圖3 采集到的昆蟲圖像Fig.3 Collected insect images

    2 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理和分類

    2.1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network, CNN)是深度學(xué)習(xí)中一個(gè)重要的概念[17-21],它是一種人工神經(jīng)網(wǎng)絡(luò),在多層神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上發(fā)展而來,專為識(shí)別二維圖像設(shè)計(jì)。該方法只需對原始圖像進(jìn)行一些簡單的歸一化處理(即像素設(shè)置為0~1之間)就能學(xué)習(xí)到其不變性特征。利用卷積運(yùn)算提取目標(biāo)不同層次的特征,并在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中自動(dòng)調(diào)節(jié)網(wǎng)絡(luò)參數(shù),產(chǎn)生最適合的分類特征,避免了傳統(tǒng)識(shí)別方法中復(fù)雜的預(yù)處理過程。

    卷積神經(jīng)網(wǎng)絡(luò)每層的每個(gè)神經(jīng)元的輸入都和前一層的局部感知域相連,提取該域的特征后對特征圖進(jìn)行池化操作,可降低分辨率,減少冗余特征,使網(wǎng)絡(luò)的訓(xùn)練和學(xué)習(xí)變得更容易。

    基于卷積神經(jīng)網(wǎng)絡(luò)的白背飛虱圖像分類設(shè)計(jì)方案如圖4所示,采集到野外昆蟲圖像后,提取其中有用的昆蟲信息,對其進(jìn)行歸一化處理。在圖像樣本中取1/2作為訓(xùn)練樣本,取1/4作為測試樣本,對訓(xùn)練樣本進(jìn)行卷積和池化操作,根據(jù)反向傳播算法和梯度下降原則不斷更新參數(shù),得出訓(xùn)練后的網(wǎng)絡(luò)模型,再利用SoftMax回歸模型將獲取的特征全連接到輸出,得出分類結(jié)果,統(tǒng)計(jì)識(shí)別正確率。

    圖6 實(shí)驗(yàn)樣本圖像Fig.6 Experimental sample images

    圖4 圖像分類方案框圖Fig.4 Diagram of image classification scheme

    圖5 圖像處理卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)圖Fig.5 Design diagram of image processing convolutional neural network

    本設(shè)計(jì)利用Matlab (R2010b)和GitHub上一個(gè)開源的深度學(xué)習(xí)工具箱[22],按照文獻(xiàn)[23]所使用的經(jīng)典CNN結(jié)構(gòu)LeNet- 5,利用5×5的卷積核對歸一化后的輸入圖像做卷積操作。本文所設(shè)計(jì)的用于昆蟲圖像分類的卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)如圖5所示,由1個(gè)輸入層、1個(gè)輸出層和中間的隱藏層組成,其中隱藏層又分為2個(gè)卷積層、2個(gè)池化層和1個(gè)單層感知SoftMax分類器。

    2.2 昆蟲圖像處理和分類

    在采集到的昆蟲圖像中,為了獲得干凈、獨(dú)立的昆蟲樣本圖像,剔除原圖中存在多只害蟲粘連情況的部分,單獨(dú)截取600幅白背飛虱圖像作為正樣本,600幅非白背飛虱圖像作為負(fù)樣本,共計(jì)1 200幅實(shí)驗(yàn)樣本。為減少計(jì)算機(jī)處理工作量,將所有樣本尺寸統(tǒng)一取為30像素×30像素。部分樣本如圖6所示。

    利用自行設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)分類器對實(shí)驗(yàn)樣本進(jìn)行處理。其中,輸入層為經(jīng)過簡單歸一化處理的昆蟲圖像。中間的隱藏層主要由負(fù)責(zé)特征提取的2個(gè)卷積層和負(fù)責(zé)特征壓縮的2個(gè)池化層相互交替組成。第2個(gè)池化層后連接一個(gè)SoftMax分類器,用于將壓縮好的特征映射到輸出層。

    2.2.1輸入層

    輸入層即為經(jīng)過簡單歸一化處理的昆蟲圖像:將事先提取的30像素×30像素的昆蟲圖像統(tǒng)一縮放到60像素×60像素,并將所有像素值歸一化為0~1之間的數(shù)字(將原像素值除以255)。

    2.2.2卷積層C1

    卷積層負(fù)責(zé)特征提取,其中卷積層C1有1個(gè)輸入圖像和6個(gè)輸出圖像(即特征圖),每個(gè)輸出圖像都是輸入圖像與待訓(xùn)練的5×5卷積核運(yùn)算得到的,故輸出圖像為56像素×56像素。C1層可訓(xùn)練的參數(shù)有156個(gè),即6個(gè)卷積核參數(shù)和6個(gè)偏置項(xiàng),C1層與輸入圖像之間的連接數(shù)共有489 216個(gè)。

    2.2.3池化層S2

    池化層負(fù)責(zé)特征壓縮。文中2個(gè)池化層的池化操作均采用平均池化方法,即選取規(guī)定鄰域內(nèi)特征點(diǎn)的平均值來參與后續(xù)的訓(xùn)練。

    池化層S2有6個(gè)特征圖,這些特征圖的每個(gè)像素值都與C1中相對應(yīng)特征圖的2×2大小的不重疊鄰域相連接,所以S2層每個(gè)特征圖為28像素×28像素。這一層每個(gè)特征圖對應(yīng)一個(gè)可訓(xùn)練的參數(shù)和偏置,所以共有12個(gè)可訓(xùn)練的參數(shù)。S2層的每個(gè)像素都和C1層中的2×2個(gè)像素連接,此外還與1個(gè)偏置連接,所以這兩層之間共有23 520個(gè)連接。

    2.2.4卷積層C3

    卷積層C3有12個(gè)特征圖,同樣是通過5×5的卷積核作用于S2層,故特征圖為24像素×24像素。S2層的6個(gè)特征圖每個(gè)都要和一個(gè)卷積核作卷積運(yùn)算,得到C3層的12個(gè)特征圖,所以這里一共有72個(gè)卷積核,每個(gè)卷積核上都有一個(gè)偏置,所以這兩層之間有1 078 272個(gè)連接。

    2.2.5池化層S4

    池化層S4之后連接一個(gè)SoftMax分類器,用于將壓縮好的特征映射到輸出層。S4層中對前一層的特征圖進(jìn)行了3×3的池化操作,得到了12個(gè)8像素×8像素的特征圖,共有24個(gè)可訓(xùn)練的參數(shù),S4層和C3層之間有7 680個(gè)連接。

    2.2.6SoftMax分類器

    經(jīng)過訓(xùn)練,最后只剩下768個(gè)神經(jīng)元,由最后的SoftMax分類器將其拼合成一個(gè)列向量,全連接到輸出層,計(jì)算出屬于每個(gè)輸出的概率。

    2.2.7輸出層

    輸出層直接輸出分類結(jié)果。由于在本識(shí)別任務(wù)中,識(shí)別種類只有白背飛虱和非白背飛虱兩種,所以只有2個(gè)輸出,比較2個(gè)輸出的概率,將特征歸類為概率較大的一個(gè)。

    3 結(jié)果與分析

    3.1 圖像樣本采集

    利用改進(jìn)的昆蟲圖像采集系統(tǒng),自動(dòng)采集2 000多幅昆蟲圖像。采集效果如圖3所示,所采集的圖像清晰度好、質(zhì)量高,表明改進(jìn)后的昆蟲圖像采集系統(tǒng)具有良好的性能,可以在野外自然環(huán)境下,自動(dòng)獲取高質(zhì)量的昆蟲圖像,滿足昆蟲檢測的實(shí)際生產(chǎn)需要。

    3.2 分類過程及結(jié)果

    在正負(fù)樣本中隨機(jī)選取1/2,即300幅白背飛虱,300幅非白背飛虱作為訓(xùn)練樣本。隨機(jī)選取剩余樣本的1/2作為測試樣本,另外的1/2作為交叉驗(yàn)證的原始數(shù)據(jù)來使用。實(shí)驗(yàn)時(shí),先初始化卷積神經(jīng)網(wǎng)絡(luò)并將圖像進(jìn)行歸一化處理,將圖像的灰度轉(zhuǎn)換為0~1之間的數(shù)字,通過對訓(xùn)練樣本的學(xué)習(xí)不斷更新網(wǎng)絡(luò)參數(shù),將達(dá)到最大迭代次數(shù)作為訓(xùn)練停止的條件。其中,迭代一次所花費(fèi)的時(shí)間與樣本數(shù)量成正比。

    以迭代4 000次為例,將學(xué)習(xí)批次設(shè)置為10,即每次要學(xué)習(xí)10個(gè)樣本,共學(xué)習(xí)60次,每次學(xué)習(xí)結(jié)束后,對訓(xùn)練樣本做一次分類,根據(jù)分類結(jié)果將誤差反向傳播到各個(gè)層,自動(dòng)更新卷積核參數(shù)和偏置,不斷自動(dòng)調(diào)整,直到達(dá)到最大學(xué)習(xí)次數(shù)4 000次。每學(xué)習(xí)并分類一次后,得到一個(gè)分類訓(xùn)練正確率。訓(xùn)練集迭代次數(shù)與分類正確率如圖7所示。經(jīng)過4 000次迭代結(jié)束后得到一個(gè)訓(xùn)練模型,此模型對訓(xùn)練樣本的分類正確率為96.17%。

    圖7 迭代次數(shù)和正確率的關(guān)系Fig.7 Relationship between number of iterations and accuracy

    訓(xùn)練結(jié)束后,利用訓(xùn)練好的網(wǎng)絡(luò)模型對測試集樣本進(jìn)行測試,將每個(gè)樣本的預(yù)測結(jié)果和樣本的實(shí)際分類對比,取二者差的絕對值為縱坐標(biāo)(共有兩種結(jié)果:0和1,其中0表示分類正確,1表示分類錯(cuò)誤),樣本編號(hào)為橫坐標(biāo),即得出分類錯(cuò)誤樣本,如圖8所示。迭代4 000次所得的網(wǎng)絡(luò)分類模型對測試集的預(yù)測正確率為94.14%。

    按照上述方法試驗(yàn)了不同迭代次數(shù)對分類正確率的影響。結(jié)合圖7可知,迭代次數(shù)在2 500次以內(nèi),訓(xùn)練集的分類正確率隨著迭代次數(shù)的增加而增加,迭代次數(shù)超過2 500次以后,正確率幾乎固定不變,2 600次及之后均為最高的96.17%。而測試集分類正確率在3 000次的時(shí)候最高,且之后不變,達(dá)到了94.14%,分類結(jié)果見表1。從表1可以看出,迭代2 500次后系統(tǒng)訓(xùn)練正確率基本保持不變,為了更好地訓(xùn)練且不引起過度訓(xùn)練,本文采取4 000次作為學(xué)習(xí)迭代停止條件符合實(shí)際需求。

    圖8 測試結(jié)果 Fig.8 Test results

    迭代次數(shù)訓(xùn)練正確率測試正確率10078.5776.0050089.0087.57100092.4391.57150095.2993.71200095.8692.43250096.1094.13300096.1794.14350096.1794.14400096.1794.14

    為了驗(yàn)證此分類方法的可靠性,對模型進(jìn)行進(jìn)一步交叉驗(yàn)證。將之前剩余的1/4的未曾使用過的圖像樣本,即150幅白背飛虱和150幅非白背飛虱中的2/3作為訓(xùn)練集對模型參數(shù)進(jìn)行訓(xùn)練,然后利用訓(xùn)練后的網(wǎng)絡(luò)模型,對剩余的1/3進(jìn)行測試,從而驗(yàn)證訓(xùn)練集的分類正確率。交叉驗(yàn)證所得出的分類正確率見表2??梢钥闯鰞纱畏诸惤Y(jié)果較為相似,迭代次數(shù)超過2 500之后,訓(xùn)練正確率保持不變,達(dá)到了95.50%。測試集分類正確率在3 500和4 000次時(shí)最高,為93.50%。

    表2 交叉驗(yàn)證的分類正確率Tab.2 Classification accuracy of cross validation %

    對兩次分類的誤差加以分析,將相同迭代次數(shù)的第2次訓(xùn)練和測試的正確率與第1次比較,訓(xùn)練誤差平均值為1.03%,測試誤差平均值為1.20%。為了更好表現(xiàn)分類模型的可靠性,求兩組數(shù)據(jù)的均方誤差(標(biāo)準(zhǔn)誤差)。不同迭代次數(shù)的訓(xùn)練均方誤差為1.74%,測試均方誤差為2.93%,表明訓(xùn)練后的分類模型可靠,可以達(dá)到對白背飛虱準(zhǔn)確分類的目的。

    4 結(jié)論

    (1)改進(jìn)后的野外環(huán)境昆蟲圖像自動(dòng)采集裝置,可以快速獲取高清晰度、高標(biāo)準(zhǔn)的白背飛虱圖像,提高了算法的適應(yīng)性與準(zhǔn)確性。

    (2)利用基于卷積神經(jīng)網(wǎng)絡(luò)的白背飛虱自動(dòng)識(shí)別方法,可以實(shí)現(xiàn)對白背飛虱的自動(dòng)正確識(shí)別,識(shí)別的正確率達(dá)94%以上。

    (3)所提出的基于卷積神經(jīng)網(wǎng)絡(luò)的白背飛虱自動(dòng)識(shí)別方法,避免了傳統(tǒng)識(shí)別方法中復(fù)雜的圖像預(yù)處理過程,提高了算法的適應(yīng)性與魯棒性。

    1 何忠全,陳德西,封傳紅,等.水稻主要害蟲發(fā)生區(qū)劃研究[J]. 西南農(nóng)業(yè)學(xué)報(bào),2014,27(5):1937-1944.

    HE Zhongquan,CHEN Dexi,F(xiàn)ENG Chuanhong,et al. Study on occurrence regionalization of rice major pests[J]. Southwest China Journal of Agricultural Sciences,2014,27(5):1937-1944. (in Chinese)

    2 呂進(jìn),祝增榮,婁永根,等. 稻飛虱災(zāi)變和治理研究透析[J]. 應(yīng)用昆蟲學(xué)報(bào), 2013,50(3):565-574.

    Lü Jin,ZHU Zengrong,LOU Yonggen,et al. Review of research into outbreaks and management of rice planthoppers[J]. Chinese Journal of Applied Entomology,2013,50(3):565-574. (in Chinese)

    3 唐小艷,李正躍,陳斌.水稻白背飛虱的綜合防治[J]. 湖南農(nóng)業(yè)科學(xué), 2009(8):70-73.

    TANG Xiaoyan,LI Zhengyue,CHEN Bin. Integrated control ofSogatellafurciferaon rice[J]. Hunan Agricultural Sciences,2009(8):70-73. (in Chinese)

    4 沈君輝,尚金梅,劉光杰.中國的白背飛虱研究概況[J]. 中國水稻科學(xué),2003,17(增刊):7-22.

    SHEN Junhui,SHANG Jinmei,LIU Guangjie. Management of the whitebacked planthopper,Sogatellafurciferain China: a mini-review[J]. Chinese Journal of Rice Science,2003,17(Supp.):7-22. (in Chinese)

    5 YAO Q,XIAN D X,LIU Q J,et al. Automated counting of rice planthoppers in paddy fields based on image processing[J]. Journal of Integrative Agriculture,2014,13(8):1736-1745.

    6 桂連友,黃秀琴,李傳仁.昆蟲諧波雷達(dá)的發(fā)展和利用[J]. 應(yīng)用昆蟲學(xué)報(bào), 2011,48(3):732-738.

    GUI Lianyou, HUANG Xiuqin,LI Chuanren. The development and the use of insect harmonic radar[J]. Chinese Journal of Applied Entomology,2011,48(3):732-738. (in Chinese)

    7 朱與波.稻縱卷葉螟危害水稻的高光譜監(jiān)測方法研究[D]. 南京:南京農(nóng)業(yè)大學(xué),2012.

    ZHU Yubo. Hyper spectral monitoring the damage of rice by rice leaf folder cnaphalocrocis medinalis güenée[D]. Nanjing: Nanjing Agricultural University,2012. (in Chinese)

    8 韋雪青,溫俊寶,趙源吉,等.害蟲聲音監(jiān)測技術(shù)研究進(jìn)展[J]. 林業(yè)科學(xué),2010,46(5):147-154.

    WEI Xueqing,WEN Junbao,ZHAO Yuanji,et al. Review on monitoring technology of the insect acoustic[J]. Scientia Silvae Sinicae,2010,46(5):147-154. (in Chinese)

    9 田冉,陳梅香,董大明,等.紅外傳感器與機(jī)器視覺融合的果樹害蟲識(shí)別及計(jì)數(shù)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2016,32(20):195-201.

    TIAN Ran,CHEN Meixiang,,DONG Daming,et al. Identification and counting method of orchard pests based on fusion method of infrared sensor and machine vision[J]. Transactions of the CSAE, 2016,32(20): 195-201. (in Chinese)

    10 JIANG J A,TSENG C L,LU Fuming,et al. A GSM-based remote wireless automatic monitoring system for field information: a case study for ecological monitoring of the oriental fruit fly,Bactroceradorsalis(Hendel) [J].Computers and Electronics in Agriculture,2008,62(2):243-259.

    11 李文勇,陳梅香,李明,等.基于姿態(tài)描述的果園靶標(biāo)害蟲自動(dòng)識(shí)別方法[J/OL].農(nóng)業(yè)機(jī)械學(xué)報(bào),2014,45(11):54-59.http:∥www.jcsam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20141109&journal_id=jcsam.DOI:10.6041/j.issn.1000-1298.2014.11.009.

    LI Wenyong,CHEN Meixiang,LI Ming,et al. Orchard pest automated identification method based on posture description[J/OL]. Transactions of the Chinese Society for Agricultural Machinery,2014,45(11):54-59. (in Chinese)

    12 毛罕平,張紅濤.儲(chǔ)糧害蟲圖像識(shí)別的研究進(jìn)展及展望[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2008,39(4):175-179.

    MAO Hanping,ZHANG Hongtao. Research progress and prospect for image recognition of stored-grain pests[J].Transactions of the Chinese Society for Agricultural Machinery,2008,39(4):176-179. (in Chinese)

    13 韓瑞珍,何勇. 基于計(jì)算機(jī)視覺的大田害蟲遠(yuǎn)程自動(dòng)識(shí)別系統(tǒng)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2013,29(2):156-162.

    HAN Ruizhen, HE Yong. Remote automatic identification system of field pests based on computer vision[J]. Transactions of the CSAE,2013,29(2):156-162. (in Chinese)

    14 毛文華,鄭永軍,張銀橋,等.基于機(jī)器視覺的草地蝗蟲識(shí)別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2008,24(11):155-158.

    MAO Wenhua,ZHENG Yongjun,ZHANG Yinqiao,et al. Grasshopper detection method based on machine vision[J]. Transactions of the CSAE,2008,24(11) : 155-158. (in Chinese)

    15 胡永強(qiáng),宋良圖,張潔,等.基于稀疏表示的多特征融合害蟲圖像識(shí)別[J]. 模式識(shí)別與人工智能,2014,27(11):985-992.

    HU Yongqiang,SONG Liangtu,ZHANG Jie,et al. Pest image recognition of multi-feature fusion based on sparse representation[J]. Pattern Recognition and Artificial Intelligence,2014,27(11):985-992. (in Chinese)

    16 劉德營,丁為民,陳坤杰.野外環(huán)境昆蟲圖像自動(dòng)采集裝置[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2011,42(6):184-187,173.

    LIU Deying,DING Weimin,CHEN Kunjie. Automatic acquisition system for insects images in field environment[J].Transactions of the Chinese Society for Agricultural Machinery,2011,42(6):184-187,173. (in Chinese)

    17 盧宏濤,張秦川. 深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺中的應(yīng)用研究綜述[J].數(shù)據(jù)采集與處理,2016(1):1-17.

    LU Hongtao,ZHANG Qinchuan. Applications of deep convolutional neural network in computer vision[J]. Journal of Data Acquisition and Processing, 2016(1):1-17. (in Chinese)

    18 孫志軍,薛磊,許陽明,等.深度學(xué)習(xí)研究綜述[J].計(jì)算機(jī)應(yīng)用研究,2012,29(8):2806-2810.

    SUN Zhijun,XUE Lei,XU Yangming, et al. Overview of deep learning[J]. Application Research of Computers,2012,29(8):2806-2810. (in Chinese)

    19 楊斌,鐘金英.卷積神經(jīng)網(wǎng)絡(luò)的研究進(jìn)展綜述[J].南華大學(xué)學(xué)報(bào):自然科學(xué)版,2016,30(3):66-72.

    YANG Bin,ZHONG Jinying. Review of convolution neural network[J]. Journal of University of South China:Science and Technology, 2016,30(3):66-72. (in Chinese)

    20 胡正平,陳俊嶺,王蒙,等.卷積神經(jīng)網(wǎng)絡(luò)分類模型在模式識(shí)別中的新進(jìn)展[J].燕山大學(xué)學(xué)報(bào),2015,39(4):283-291.

    HU Zhengping,CHEN Junling,WANG Meng,et al. Recent progress on convolutional neural network in pattern recognition[J]. Journal of Yanshan University,2015,39(4):283-291. (in Chinese)

    21 高震宇,王安,劉勇,等.基于卷積神經(jīng)網(wǎng)絡(luò)的鮮茶葉智能分選系統(tǒng)研究[J/OL].農(nóng)業(yè)機(jī)械學(xué)報(bào),2017,48(7):53-58. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20170707&journal_id=jcsam. DOI:10.6041/j.issn.1000-1298.2017.07.007.

    GAO Zhenyu,WANG An,LIU Yong,et al.Intelligent fresh-tea-leaves sorting system research based on convolution neural network[J/OL].Transactions of the Chinese Society for Agricultural Machinery,2017,48(7):53-58. (in Chinese)

    22 Deep Learn Toolbox[EB/OL].[2014- 01- 12]. https:∥github.com/rasmusbergpalm/DeepLearnToolbox.

    23 LECUN Y,BOTTOU L,BENGIO Y,et al. Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.

    猜你喜歡
    白背飛虱正確率昆蟲
    RFID昆蟲閱讀放大鏡
    玩具世界(2022年3期)2022-09-20 01:48:20
    廣西野生稻Y11抗白背飛虱QTL定位
    南安市白背飛虱發(fā)生的氣象條件及蟲源地分析*
    平鋪鎮(zhèn)近20年來白背飛虱發(fā)生特點(diǎn)、成因分析及應(yīng)對措施
    園藝與種苗(2021年6期)2021-07-19 00:39:16
    門診分診服務(wù)態(tài)度與正確率對護(hù)患關(guān)系的影響
    借昆蟲上課
    甘肅教育(2020年2期)2020-09-11 08:01:48
    我最喜歡的昆蟲——知了
    昆蟲的冬天
    生意
    不同水稻品種對白背飛虱取食和產(chǎn)卵選擇性的影響
    莒南县| 义马市| 关岭| 汉沽区| 横山县| 桑植县| 四平市| 河北省| 昭通市| 乐陵市| 隆尧县| 峡江县| 博乐市| 分宜县| 阳春市| 河曲县| 大埔县| 辽中县| 印江| 丰镇市| 板桥市| 兰州市| 芜湖市| 南昌市| 长宁县| 永清县| 甘洛县| 淮安市| 定结县| 蓬莱市| 淳化县| 佛山市| 博野县| 萝北县| 大田县| 中山市| 金山区| 古交市| 平谷区| 济源市| 梅河口市|