朱 明,張鎮(zhèn)府,黃 凰,陳燕燕,劉亞?wèn)|,董 濤
基于輕量級(jí)神經(jīng)網(wǎng)絡(luò)MobileNetV3-Small的鱸魚攝食狀態(tài)分類
朱 明1,3,張鎮(zhèn)府1,2,黃 凰1,2※,陳燕燕1,劉亞?wèn)|1,董 濤1
(1. 華中農(nóng)業(yè)大學(xué)工學(xué)院,武漢 430070;2. 農(nóng)業(yè)農(nóng)村部長(zhǎng)江中下游農(nóng)業(yè)裝備重點(diǎn)實(shí)驗(yàn)室,武漢 430070;3. 長(zhǎng)江經(jīng)濟(jì)帶大宗水生生物產(chǎn)業(yè)綠色發(fā)展教育部工程研究中心,武漢 430070)
在集約化水產(chǎn)養(yǎng)殖過(guò)程中,飼料投喂是控制養(yǎng)殖成本,提高養(yǎng)殖效率的關(guān)鍵。室外環(huán)境復(fù)雜多變且難以控制,適用于此環(huán)境的移動(dòng)設(shè)備計(jì)算能力較弱,通過(guò)識(shí)別魚類攝食狀態(tài)實(shí)現(xiàn)智能投喂仍存在困難。針對(duì)此種現(xiàn)象,該研究選取了輕量級(jí)神經(jīng)網(wǎng)絡(luò)MobileNetV3-Small對(duì)鱸魚攝食狀態(tài)進(jìn)行分類。通過(guò)水上攝像機(jī)采集水面鱸魚進(jìn)食圖像,根據(jù)鱸魚進(jìn)食規(guī)律選取每輪投喂后第80~110秒的圖片建立數(shù)據(jù)集,經(jīng)訓(xùn)練后的MobileNetV3-Small網(wǎng)絡(luò)模型在測(cè)試集的準(zhǔn)確率達(dá)到99.60%,召回率為99.40%,精準(zhǔn)率為99.80%,F(xiàn)1分?jǐn)?shù)為99.60%。通過(guò)與ResNet-18, ShuffleNetV2和MobileNetV3-Large深度學(xué)習(xí)模型相比,MobileNetV3-Small模型的計(jì)算量最小為582 M,平均分類速率最大為39.21幀/s。與傳統(tǒng)機(jī)器學(xué)習(xí)模型KNN(K-Nearest Neighbors)、SVM(Support Vector Machine)、GBDT(Gradient Boosting Decision Tree)和Stacking相比,MobileNetV3-Small模型的綜合準(zhǔn)確率高出12.74、23.85、3.60和2.78個(gè)百分點(diǎn)。為進(jìn)一步驗(yàn)證該模型有效性,在室外真實(shí)養(yǎng)殖環(huán)境進(jìn)行投喂試驗(yàn)。結(jié)果顯示,與人工投喂相比,基于該分類模型決策的鱸魚投喂方式的餌料系數(shù)為1.42,質(zhì)量增加率為5.56%。在室外真實(shí)養(yǎng)殖環(huán)境下,MobileNetV3-Small模型對(duì)鱸魚攝食狀態(tài)有較好的分類效果,基于該分類模型決策的鱸魚投喂方式在一定程度上能夠代替養(yǎng)殖人員進(jìn)行決策,為室外集約化養(yǎng)殖環(huán)境下的高效智能投喂提供了參考。
水產(chǎn)養(yǎng)殖;機(jī)器視覺;圖像識(shí)別;深度學(xué)習(xí);神經(jīng)網(wǎng)絡(luò);鱸魚
在水產(chǎn)養(yǎng)殖過(guò)程中,飼料是水產(chǎn)養(yǎng)殖中最主要的可變成本,一般占養(yǎng)殖總投入的40%~80%,直接影響經(jīng)濟(jì)效益[1]。目前中國(guó)淡水漁業(yè)養(yǎng)殖大部分采用人工投餌或機(jī)械投餌喂養(yǎng),投喂量容易受到養(yǎng)殖人員的主觀經(jīng)驗(yàn)和意識(shí)的影響,沒有結(jié)合魚群攝食過(guò)程中的參數(shù)信息,難以做到合理投喂[2]。如果投喂過(guò)量則會(huì)造成餌料的浪費(fèi),增加了養(yǎng)殖的投入產(chǎn)出比,另外過(guò)多的剩余餌料會(huì)污染水質(zhì)造成水體的富營(yíng)養(yǎng)化[3],投餌過(guò)少會(huì)減緩魚的生長(zhǎng)速度,甚至引起魚與魚之間的攻擊行為。如何在魚類餌料投喂過(guò)程中做到適時(shí)適量,是當(dāng)前投喂面臨的主要問(wèn)題。
現(xiàn)有研究表明,魚群在攝食過(guò)程中會(huì)引起自身以及水面發(fā)生一系列變化,因此探索魚群攝食過(guò)程能夠?yàn)楹侠硗段固峁├碚撝笇?dǎo)。Papadakis等[4]開發(fā)了一個(gè)可以進(jìn)行遠(yuǎn)程監(jiān)控魚群行為的計(jì)算機(jī)視覺系統(tǒng),該系統(tǒng)可以快速對(duì)魚群特定行為進(jìn)行分析。Pautsina等[5]利用近紅外成像技術(shù)估測(cè)了魚群的運(yùn)動(dòng)規(guī)律。喬峰等[6]結(jié)合實(shí)時(shí)圖像處理結(jié)果,利用得到的魚群攝食規(guī)律和投餌機(jī)的執(zhí)行機(jī)構(gòu)模型構(gòu)建了智能投餌系統(tǒng)。郭俊[7]以魚群圖像特征參數(shù)和聲學(xué)特征參數(shù)作為輸入量,通過(guò)模糊處理和模糊邏輯推理,構(gòu)建以投餌量和投餌速度作為輸出量的投餌策略,實(shí)現(xiàn)了精準(zhǔn)投餌。Atoum等[8]基于SVM(Support Vector Machine)分類器開發(fā)了一套適用于高密度水產(chǎn)養(yǎng)殖池的全自動(dòng)投喂系統(tǒng)。陳明等[9]通過(guò)Relief和XGBoost算法對(duì)魚群攝食圖像特征篩選和融合,實(shí)現(xiàn)了鏡鯉攝食強(qiáng)度評(píng)估。
隨著深度學(xué)習(xí)的發(fā)展,各類神經(jīng)網(wǎng)絡(luò)在視頻圖像處理任務(wù)中的效果越來(lái)越好,在水產(chǎn)養(yǎng)殖中的應(yīng)用也越來(lái)越多[10]。Chen等[11]選取水溫、溶解氧、平均魚的質(zhì)量和魚的數(shù)量作為輸入,通過(guò)MEA(Mind Evolutionary Algorithm)優(yōu)化BP(Back Propagation)神經(jīng)網(wǎng)絡(luò),建立了魚類攝取量與環(huán)境因素的映射關(guān)系。Adegboye等[12]對(duì)魚群活動(dòng)向量進(jìn)行離散傅里葉變換后得到傅立葉描述子,輸入到人工神經(jīng)網(wǎng)絡(luò)中實(shí)現(xiàn)了魚群攝食量的預(yù)測(cè)。M?l?y等[13]采用雙流循環(huán)網(wǎng)絡(luò)(Dual-Stream Recurrent Network,DSRN)對(duì)鮭魚的攝食行為進(jìn)行了預(yù)測(cè)。Villon等[14]通過(guò)卷積神經(jīng)網(wǎng)絡(luò)對(duì)水下魚類進(jìn)行了識(shí)別。趙德安等[15]采用優(yōu)化的Retinex算法和YOLO V3模型對(duì)水下河蟹進(jìn)行了識(shí)別。Zhang等[16]采用多列卷積神經(jīng)網(wǎng)絡(luò)(Multi-column Convolution Neural Network,MCNN)作為前端和擴(kuò)張卷積神經(jīng)網(wǎng)絡(luò)(Dilated Convolution Neural Network,DCNN)作為后端的方式,建立了一種混合神經(jīng)網(wǎng)絡(luò)以實(shí)現(xiàn)魚類種群自動(dòng)計(jì)數(shù)。Tseng等[17]以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),提出一種對(duì)魚類各個(gè)部位進(jìn)行分類的模型。Zhou等[18]采用經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)LeNet-5,通過(guò)攝食強(qiáng)度自動(dòng)分級(jí)方法來(lái)評(píng)估羅非魚食欲。張佳林等[1]采用VAE-CNN網(wǎng)絡(luò)對(duì)魚群攝食行為視頻進(jìn)行分類。VGGNet[19]卷積神經(jīng)網(wǎng)絡(luò)的出現(xiàn)證明了增加網(wǎng)絡(luò)深度可以提升模型效果,但是加深網(wǎng)絡(luò)深度會(huì)使模型體積變大且更復(fù)雜,網(wǎng)絡(luò)訓(xùn)練和預(yù)測(cè)需要更大的計(jì)算資源,對(duì)硬件設(shè)備的要求更高。
相較于傳統(tǒng)機(jī)器學(xué)習(xí)算法,基于深度學(xué)習(xí)的魚類攝食行為識(shí)別模型具有更高的識(shí)別精度和更好的魯棒性。目前已有的大量研究均為實(shí)驗(yàn)室工況,室外集約化養(yǎng)殖環(huán)境下基于移動(dòng)設(shè)備和嵌入式設(shè)備的魚類攝食行為研究較少。針對(duì)此種現(xiàn)象,為實(shí)現(xiàn)室外圈養(yǎng)鱸魚的精準(zhǔn)投喂,本研究提出了基于MobileNetV3-Small輕量級(jí)神經(jīng)網(wǎng)絡(luò)的鱸魚攝食狀態(tài)分類模型。
本研究于華中農(nóng)業(yè)大學(xué)水產(chǎn)學(xué)院實(shí)踐教學(xué)基地(二)“零排放圈養(yǎng)系統(tǒng)”搭建了圈養(yǎng)鱸魚視頻采集平臺(tái),將一臺(tái)海康威視攝像機(jī)(DS-2CD3T47DWD-L)安裝固定在距離圈養(yǎng)塘邊緣垂直高約2.5 m的位置進(jìn)行拍攝(圖1)。通過(guò)調(diào)整攝像機(jī)角度使其能夠拍攝到圈養(yǎng)塘全部區(qū)域,為避免過(guò)強(qiáng)的陽(yáng)光反射影響拍攝效果,攝像機(jī)鏡頭選擇盡量背對(duì)太陽(yáng)光源的視線方向。視頻圖像數(shù)據(jù)通過(guò)攝像機(jī)經(jīng)4G路由器傳輸?shù)奖镜劁浵駲C(jī)和廣域網(wǎng)。所用攝像機(jī)、路由器和視頻錄像機(jī)均已做防水防曬處理。攝像機(jī)采集的原始視頻圖像分辨率為2 560×1 440像素,幀率為25 幀/s。圖像處理語(yǔ)言為Python3,神經(jīng)網(wǎng)絡(luò)模型的搭建通過(guò)Tensorflow2實(shí)現(xiàn)。
本研究中大口黑鱸()品種為“優(yōu)鱸1號(hào)”,已在該室外集約化環(huán)境下養(yǎng)殖超過(guò)10個(gè)月,可以認(rèn)為已適應(yīng)該環(huán)境下的飼料投喂。試驗(yàn)用投喂飼料為浮性鱸魚膨化配合飼料,采購(gòu)于荊門市五龍飼料有限公司,飼料規(guī)格為6#,直徑約6 mm,飼料密度小于水的密度。隨機(jī)取300粒飼料,分為3組,稱質(zhì)量后取均值得飼料百粒質(zhì)量23.2 g。圈養(yǎng)鱸魚采用單場(chǎng)多輪投喂,即每天投喂兩場(chǎng),每場(chǎng)投喂若干輪,投喂輪數(shù)由魚群進(jìn)食情況決定,每輪投喂量為500 g,投喂時(shí)間點(diǎn)為上午8:00和下午17:30。視頻采集期間由水產(chǎn)養(yǎng)殖人員負(fù)責(zé)飽食投喂。視頻圖像開始采集時(shí)鱸魚平均質(zhì)量為238.57 g,養(yǎng)殖密度約為20.04 kg/m3。為使本研究更好地適應(yīng)室外真實(shí)養(yǎng)殖環(huán)境,在視頻采集過(guò)程中,除暴雨、大風(fēng)等惡劣天氣外,其他天氣情況的視頻均作為研究對(duì)象。
通過(guò)投喂預(yù)試驗(yàn)發(fā)現(xiàn),在每輪飼料投喂量為500 g的情況下,經(jīng)觀察所投喂飼料均漂浮于水面,不會(huì)產(chǎn)生沉降且不破碎,在每輪進(jìn)食初始階段鱸魚搶食較激烈,水面水花過(guò)多導(dǎo)致難以觀察飼料剩余情況,但在進(jìn)食最后階段搶食不激烈,水面水花較少,能夠通過(guò)飼料剩余情況更清楚地觀察當(dāng)前鱸魚進(jìn)食情況。因此,本研究隨機(jī)統(tǒng)計(jì)的7 d內(nèi)鱸魚每輪進(jìn)食時(shí)間如表1所示。在每輪投喂中,將投喂動(dòng)作結(jié)束至鱸魚進(jìn)食完成所用時(shí)間記為每輪進(jìn)食時(shí)間。在每輪投喂中,若鱸魚將飼料全部攝食,水面不存在或存在極少量(小于10 g)剩余飼料,則認(rèn)為該輪進(jìn)食已完成;此外,若水面存在部分剩余飼料且連續(xù)5 s內(nèi)進(jìn)食鱸魚數(shù)量小于5也認(rèn)為該輪鱸魚進(jìn)食完成。在同一場(chǎng)投喂過(guò)程中,每輪進(jìn)食時(shí)間逐漸增加,說(shuō)明鱸魚食欲呈現(xiàn)下降趨勢(shì)。通過(guò)計(jì)算得鱸魚平均進(jìn)食時(shí)間為94 s,此時(shí)水面基本處于穩(wěn)定狀態(tài),相對(duì)于其他時(shí)段能夠更加清楚地觀察水面飼料剩余情況,分辨出鱸魚的攝食狀態(tài),為下一輪投喂進(jìn)行決策。因此選擇每輪投喂結(jié)束后第80~110秒的視頻圖像作為數(shù)據(jù)樣本。
本研究參考文獻(xiàn)[20-22]的魚群攝食強(qiáng)度標(biāo)準(zhǔn)和鱸魚在此試驗(yàn)條件下水面進(jìn)食和飼料情況,對(duì)鱸魚在第90秒左右的食欲程度進(jìn)行劃分,劃分為“強(qiáng)”、“中”、“弱”、“無(wú)”4個(gè)等級(jí)。其中“強(qiáng)”即在該時(shí)間段內(nèi)水面已看不到鱸魚和飼料,表明該輪鱸魚進(jìn)食已經(jīng)結(jié)束,鱸魚進(jìn)食快,食欲強(qiáng);“中”即通過(guò)觀察水面剩余飼料數(shù)量,結(jié)合飼料百粒質(zhì)量估算出對(duì)應(yīng)干燥狀態(tài)下剩余飼料的質(zhì)量小于100 g,可視為鱸魚食欲有所下降;“弱”即水面所剩飼料質(zhì)量約大于100 g,可視為鱸魚進(jìn)食欲望不強(qiáng)烈;“無(wú)”即水面仍存在飼料,但是沒有鱸魚進(jìn)食,表明鱸魚已經(jīng)沒有食欲。鱸魚食欲等級(jí)劃分樣本如圖2所示。在實(shí)際投喂過(guò)程中,由于塘內(nèi)鱸魚數(shù)量較多,其中個(gè)體較大、性情兇猛的鱸魚先進(jìn)食,個(gè)體較小且膽小的鱸魚稍后進(jìn)食。所以,存在投喂500g飼料后,鱸魚進(jìn)食部分飼料后整體食欲等級(jí)由“中”(“饑餓”狀態(tài))變?yōu)椤叭酢保ā胺丘囸I”狀態(tài)),但此時(shí)仍有個(gè)體較小和膽小的鱸魚仍在進(jìn)食,剩余飼料仍會(huì)被緩慢地?cái)z食完畢。為了使食欲等級(jí)的劃分更有實(shí)際意義,根據(jù)食欲等級(jí)將“強(qiáng)”和“中”圖片劃分為“饑餓”,“弱”和“無(wú)”劃分為“非饑餓”數(shù)據(jù)集類別,基于攝食狀態(tài)的二分類結(jié)果更適用于實(shí)際養(yǎng)殖決策。
表1 鱸魚每輪進(jìn)食時(shí)間和平均每輪進(jìn)食時(shí)間
注:“-”表示該輪沒有投喂。
Note: “-” means that no feed was fed for that round.
將每輪投喂后第80~110秒的視頻每隔1 s提取一幀圖像,通過(guò)觀察魚群進(jìn)食視頻圖像,選取能夠準(zhǔn)確反映鱸魚進(jìn)食和餌料狀況的主要區(qū)域并進(jìn)行裁剪,裁剪后圖片分辨率為512×512像素,圖片格式為.png。從中隨機(jī)選取較具代表性的10 000張圖片作為原始圖片數(shù)據(jù)集,其中“饑餓”和“非饑餓”圖片各有5 000張。原始圖片數(shù)據(jù)集中訓(xùn)練集、驗(yàn)證集、測(cè)試集按照6:2:2比例隨機(jī)劃分。為了提高模型泛化能力,訓(xùn)練集采用離線隨機(jī)數(shù)據(jù)增強(qiáng)的方式進(jìn)行擴(kuò)充,數(shù)據(jù)增強(qiáng)方式包括圖片隨機(jī)翻轉(zhuǎn)、隨機(jī)裁剪、添加高斯噪聲。高斯噪聲以均值為0,方差為0.001進(jìn)行添加。此外,以晴天、陰天和小雨為例,對(duì)室外不同天氣情況進(jìn)行了分析,發(fā)現(xiàn)魚塘視頻圖像主要差異是光照不同。為減小不同天氣對(duì)模型分類效果的影響,本研究選用圖片色彩抖動(dòng)方法對(duì)訓(xùn)練集數(shù)據(jù)進(jìn)一步增強(qiáng),使用的色彩抖動(dòng)包括隨機(jī)調(diào)整圖片的飽和度、亮度和對(duì)比度。色彩抖動(dòng)效果如圖3所示,圖片經(jīng)色彩抖動(dòng)增加了圖片在不同天氣中的情況,進(jìn)一步提高模型的泛化能力。訓(xùn)練集經(jīng)過(guò)數(shù)據(jù)增強(qiáng)后共12 000張圖片,其中“饑餓”和“非饑餓”圖片各有6 000張,制作后的數(shù)據(jù)集如表2所示。
表2 鱸魚攝食狀態(tài)數(shù)據(jù)集的制作
本研究選取MobileNetV3-Small作為鱸魚攝食狀態(tài)分類模型。MobileNetV3-Small是MobileNetV3[21]系列中的一款輕量級(jí)神經(jīng)網(wǎng)絡(luò),適用于低性能移動(dòng)設(shè)備和嵌入式設(shè)備。本研究使用512×512×3圖片作為MobileNetV3-Small模型輸入。首先對(duì)輸入圖片進(jìn)行標(biāo)準(zhǔn)卷積,卷積核大小為3×3,卷積核個(gè)數(shù)為16,激活函數(shù)為h-swish,步長(zhǎng)為2。進(jìn)一步將得到的256×256×16特征輸入到一系列block單元中,其中包括3個(gè)卷積核為3×3深度卷積的block單元和8個(gè)卷積核為5×5深度卷積的block單元,得到大小為16×16×96的特征。然后通過(guò)1×1卷積核對(duì)輸出的特征進(jìn)行升維,得到16×16×576的特征。再通過(guò)全局平均池化[22]使特征變?yōu)橐痪S向量特征。最后經(jīng)2個(gè)1×1的標(biāo)準(zhǔn)卷積后得到2個(gè)類別的概率值。MobileNetV3-Small整體結(jié)構(gòu)如表3所示。
表3 MobileNetV3-Small整體結(jié)構(gòu)
注:“-”表示該層不能進(jìn)行對(duì)應(yīng)操作;“√”表示該層使用了注意力模塊(SE);在操作(Operator)中,“Bneck”為MobileNetV3的block單元,“3×3”表示該層使用的卷積核大小,“NBN”表示該層卷積不使用批量歸一化(Batch Normalization);升維維度(Exp size)表示每一個(gè)Bneck塊中第一層1×1 conv2d的卷積核的個(gè)數(shù);激活函數(shù)(NL)表示每層所使用的非線性激活函數(shù),其中“HS”表示h-swish函數(shù),“RE”表示使用ReLU激活函數(shù)。
Notes: “-” denotes that the layer cannot perform the corresponding operation; “√” denotes that the layer uses the attention module (SE); in the operation (Operator), “Bneck” is the block unit of MobileNetV3, “3×3” denotes the size of the convolutional kernel used in the layer, “NBN” denotes that the layer does not use Batch Normalization for convolution; the ascending dimension (Exp size) denotes the number of convolution kernels in the first layer of 1×1 conv2d in each Bneck block; nonlinearity (NL) denotes the nonlinear activation function used in each layer, where “HS” is h-swish function and “RE” is ReLU activation function.
MobileNetV3-Small在基本block單元的設(shè)計(jì)上結(jié)合了MobileNetV1[23]中的深度可分離卷積、MobileNetV2[24]線性瓶頸的逆殘差結(jié)構(gòu)和Squeeze and Excite[25](SE)輕量級(jí)的注意力結(jié)構(gòu)。在MobileNetV3-Small的block單元中,先通過(guò)一個(gè)1×1卷積層對(duì)輸入特征進(jìn)行升維,將升維后的特征進(jìn)行卷積核為3×3的深度卷積,然后將輸出特征輸入到SE模塊。在SE模塊中,首先對(duì)特征的每個(gè)通道進(jìn)行全局平均池化,得到1×1的exp size向量,再將該向量通入第一層全連接層(Fully Connected layers,F(xiàn)C),激活函數(shù)為ReLU,得到輸出大小為1×1×(exp size/4)的張量。然后將輸出通入第二層FC,激活函數(shù)為h-swish,得到1×1×exp size的向量,將該向量中的每個(gè)元素乘以輸入到SE層特征的對(duì)應(yīng)通道特征矩陣,得到經(jīng)SE模塊加權(quán)之后的特征。最后采用1×1卷積對(duì)特征降維,輸出維度如表4輸出通道所示。MobileNetV3-Small基本block單元如圖4所示。
表4 各模型性能指標(biāo)對(duì)比結(jié)果
注:“-”表示未對(duì)模型進(jìn)行相應(yīng)計(jì)算。FLOPs為計(jì)算量。
Note: “-” indicates that the corresponding calculation was not performed for the model. FLOPs is floating point operations.
MobileNetV3-Small在制作的鱸魚攝食狀態(tài)分類數(shù)據(jù)集上進(jìn)行訓(xùn)練。訓(xùn)練選取批大小為16,學(xué)習(xí)率為0.000 1,迭代次數(shù)為50,最終得到訓(xùn)練集和驗(yàn)證集的損失值和準(zhǔn)確率曲線如圖5所示。
由圖5可見迭代次數(shù)達(dá)到10次后,訓(xùn)練集損失值曲線逐漸平緩,說(shuō)明模型已經(jīng)接近收斂,最終在驗(yàn)證集上的準(zhǔn)確率達(dá)到99.7%。訓(xùn)練好的最終模型在測(cè)試集上的準(zhǔn)確率達(dá)到99.60%,召回率為99.40%,精準(zhǔn)率為99.80%,F(xiàn)1分?jǐn)?shù)為99.60%?;贛obileNetV3-Small模型能夠有效地對(duì)圈養(yǎng)鱸魚攝食狀態(tài)進(jìn)行分類,可以為鱸魚的高效投喂提供理論依據(jù)。
為驗(yàn)證MobileNetV3-Small模型的分類效果,本研究選用傳統(tǒng)機(jī)器學(xué)習(xí)模型與其進(jìn)行對(duì)比。傳統(tǒng)機(jī)器學(xué)習(xí)選用了KNN[26]、SVM[27]和GBDT[28]模型和基于3種模型的Stacking[29]集成學(xué)習(xí)模型。傳統(tǒng)機(jī)器學(xué)習(xí)中提取的圖片特征包括紋理、顏色和形狀共28組特征。紋理特征包括圖像的灰度圖像特征、不變矩特征和灰度共生矩陣特征共17組特征。顏色特征是將RGB圖片轉(zhuǎn)到HSV空間后,在HSV空間上的一階、二階和三階顏色矩的均值、方差和偏移量共9組特征。形狀特征是通過(guò)Canny算子得到圖像輪廓,然后計(jì)算輪廓面積和周長(zhǎng)得到2組特征。為保證所提取特征的有效性,通過(guò)特征工程對(duì)特征進(jìn)行篩選。首先采用皮爾森相關(guān)系數(shù)計(jì)算出各組特征與分類結(jié)果的相關(guān)性,得到對(duì)分類結(jié)果影響較大的13組特征。進(jìn)一步通過(guò)皮爾遜相關(guān)系數(shù)計(jì)算出各組特征之間的相關(guān)性矩陣,剔除特征之間相關(guān)性較高的特征,最終得到6組特征。利用得到的6組特征對(duì)KNN、SVM、GBDT和Stacking集成學(xué)習(xí)模型進(jìn)行訓(xùn)練,其中KNN和SVM模型采用網(wǎng)格搜索的方式尋找最優(yōu)參數(shù)。此外,為進(jìn)一步驗(yàn)證選取模型的合理性,通過(guò)MobileNetV3-Small與ResNet-18、輕量級(jí)網(wǎng)絡(luò)ShuffleNetV2和MobileNetV3-Large深度學(xué)習(xí)模型進(jìn)行對(duì)比。
本研究通過(guò)準(zhǔn)確率(Accuracy)、召回率(Recall)、精準(zhǔn)率(Precision)、F1分?jǐn)?shù)(F1)、模型計(jì)算量(Floating Point Operations,F(xiàn)LOPs)和平均分類速率6個(gè)指標(biāo)對(duì)各個(gè)模型進(jìn)行評(píng)估,其計(jì)算公式和定義如下:
式中TP為真陽(yáng)性(True Positive),在本文中模型輸出類別為饑餓,數(shù)據(jù)集標(biāo)簽也為饑餓;FP為假陽(yáng)性(False Positive),即模型輸出類別為饑餓,數(shù)據(jù)集標(biāo)注為非饑餓;TN為真陰性(True Negative),即模型輸出類別為非饑餓,數(shù)據(jù)集標(biāo)注也為非饑餓;FN為假陰性(False Negative),即模型輸出類別為饑餓,數(shù)據(jù)集標(biāo)注為非饑餓。模型計(jì)算量(Floating Point Operations,F(xiàn)LOPs)是模型浮點(diǎn)運(yùn)算數(shù),可以用來(lái)衡量模型的復(fù)雜度。平均分類速率是將1 000張圖片進(jìn)行分類,得到的平均每秒分類圖片的數(shù)量。
為保證結(jié)果公平性,幾種模型均使用同一數(shù)據(jù)集。深度學(xué)習(xí)模型選取批大小為16,學(xué)習(xí)率為0.000 1,迭代次數(shù)為50,優(yōu)化器為Adam優(yōu)化器。試驗(yàn)所用計(jì)算機(jī)運(yùn)行環(huán)境為Win10 Inter(R)Core(TM)i7-10750H CPU @2.60 GHz,運(yùn)行內(nèi)存32 G。各個(gè)深度學(xué)習(xí)模型訓(xùn)練在經(jīng)過(guò)50個(gè)epochs后均已收斂,得到MobileNetV3-Small與其他模型對(duì)比結(jié)果如表4所示。
基于傳統(tǒng)機(jī)器學(xué)習(xí)模型的鱸魚攝食狀態(tài)分類在平均分類速率上與MobileNetV3-Small神經(jīng)網(wǎng)絡(luò)模型相差不大。但MobileNetV3-Small神經(jīng)網(wǎng)絡(luò)模型的準(zhǔn)確率分別高出KNN、SVM、GBDT和Stacking模型12.74、23.85、3.60和2.78個(gè)百分點(diǎn)??赡芤?yàn)槭彝猸h(huán)境視頻圖片噪聲干擾較多,人工提取和篩選特征比較困難。而基于神經(jīng)網(wǎng)絡(luò)模型的自動(dòng)特征提取能夠更有效地提取有用的特征,分類效果更好。
通過(guò)對(duì)比ResNet-18、ShuffleNetV2、MobileNetV3-Large和MobileNetV3-Small,結(jié)果表明,4種深度學(xué)習(xí)模型的準(zhǔn)確率、召回率、精準(zhǔn)率、F1分?jǐn)?shù)指標(biāo)較為相近,且高于傳統(tǒng)機(jī)器學(xué)習(xí)模型。上述4種深度學(xué)習(xí)模型均能實(shí)現(xiàn)鱸魚饑餓狀態(tài)分類。但在水產(chǎn)養(yǎng)殖中,嵌入式硬件設(shè)備計(jì)算能力的限制要求模型有更小的計(jì)算量和更快的分類速率。MobileNetV3-Small模型的計(jì)算量為582 M,平均分類速率為39.21幀/s。在其他3種模型中,計(jì)算量最優(yōu)的ShuffleNetV2仍是MobileNetV3-Small模型的2.6倍;平均分類速率最優(yōu)的ShuffleNetV2模型約為MobileNetV3-Small模型平均分類速率的3/4。結(jié)合模型計(jì)算量和平均分類速率,MobileNetV3-Small分類效果優(yōu)于其他模型。綜上,本研究選取MobileNetV3-Small作為鱸魚攝食狀態(tài)分類模型。
為驗(yàn)證基于MobileNetV3-Small的鱸魚攝食狀態(tài)分類模型的實(shí)際效果,本研究設(shè)計(jì)了圈養(yǎng)鱸魚投喂對(duì)比試驗(yàn),試驗(yàn)在華中農(nóng)業(yè)大學(xué)水產(chǎn)學(xué)院教學(xué)實(shí)習(xí)基地(二)“零排放圈養(yǎng)模式”池塘進(jìn)行,如圖6所示,3號(hào)圈養(yǎng)塘作為試驗(yàn)組,6號(hào)圈養(yǎng)塘作為對(duì)照組,2個(gè)圈養(yǎng)塘處于同一養(yǎng)殖環(huán)境下。
試驗(yàn)組魚塘采用MobileNetV3-Small神經(jīng)網(wǎng)絡(luò)模型輸出結(jié)果進(jìn)行決策投喂,對(duì)照組則通過(guò)水產(chǎn)養(yǎng)殖人員根據(jù)養(yǎng)殖經(jīng)驗(yàn)進(jìn)行投喂。試驗(yàn)采用單場(chǎng)多輪投喂方式,每輪飼料投喂量均為500 g,2個(gè)圈養(yǎng)塘除投喂決策方式不同外,其他條件保持一致。試驗(yàn)組視頻獲取方式為Jupyter Nootbook通過(guò)本地直連攝像機(jī)的方式獲取實(shí)時(shí)視頻圖像,視頻圖像原始分辨率為2 560×1 440像素,截取同訓(xùn)練集指定區(qū)域后圖像分辨率為512×512像素。試驗(yàn)組投喂時(shí),選取每輪投喂后第90秒、第92秒、第94秒、第96秒和第98秒的水面圖片,將5幀圖片作為鱸魚投喂決策模型的輸入,輸出結(jié)果為每張圖片對(duì)應(yīng)的攝食狀態(tài),并在該輪投喂結(jié)束后第100秒進(jìn)行投喂決策。在5幀圖片輸出結(jié)果中,若預(yù)測(cè)為“饑餓”的次數(shù)占比不小于總數(shù)量的60%,則直接進(jìn)行下一輪投喂;否則此輪不投喂,經(jīng)50 s后重新采集圖片進(jìn)行投喂決策,若決策結(jié)果仍為不投喂,則結(jié)束本場(chǎng)投喂?;诙鄰垐D片決策減少了單張圖片分類錯(cuò)誤導(dǎo)致決策錯(cuò)誤的情況。試驗(yàn)組投喂決策根據(jù)模型輸出結(jié)果進(jìn)行投喂,投喂決策路線圖如圖7所示。
對(duì)比投喂試驗(yàn)選用餌料系數(shù)(Feed Conversion Ratio,F(xiàn)CR)和質(zhì)量增加率(Weight Gain Ratio,WGR)作為衡量?jī)山M圈養(yǎng)塘鱸魚生長(zhǎng)情況的指標(biāo)。餌料系數(shù)能反映增加單位水產(chǎn)品產(chǎn)量所用的飼料量,餌料系數(shù)比值越小,表示增加單位水產(chǎn)品產(chǎn)量所用的飼料越少。質(zhì)量增加率表示一段時(shí)間內(nèi)水產(chǎn)品增加質(zhì)量與初始質(zhì)量的關(guān)系,能夠直觀地反應(yīng)該段時(shí)間內(nèi)鱸魚的質(zhì)量增加情況。餌料系數(shù)和質(zhì)量增加率計(jì)算公式如下:
式中S為該段時(shí)間內(nèi)投喂的飼料總量,kg;0為投喂開始時(shí)鱸魚的總質(zhì)量,kg;1為投喂結(jié)束時(shí)鱸魚的總質(zhì)量,kg。本試驗(yàn)開始到養(yǎng)殖結(jié)束期間,鱸魚已適應(yīng)養(yǎng)殖環(huán)境,損失數(shù)量可以忽略不計(jì),因此使用養(yǎng)殖結(jié)束時(shí)統(tǒng)計(jì)的鱸魚數(shù)量作為試驗(yàn)期間鱸魚數(shù)量。鱸魚平均質(zhì)量采用簡(jiǎn)單隨機(jī)抽樣的方式進(jìn)行統(tǒng)計(jì),每次抽樣數(shù)量為30尾,計(jì)算平均質(zhì)量。投喂14 d后,對(duì)比2組試驗(yàn)結(jié)果如表5所示。
表5 鱸魚投喂對(duì)比試驗(yàn)結(jié)果
試驗(yàn)期間試驗(yàn)組圈養(yǎng)塘水質(zhì)參數(shù)pH值變化范圍在7.12~7.90,氨氮變化范圍在0.54~0.72 mg/L,參考國(guó)家漁業(yè)水質(zhì)標(biāo)準(zhǔn)[30],2個(gè)參數(shù)均處于合理范圍,說(shuō)明試驗(yàn)組圈養(yǎng)塘水質(zhì)未發(fā)生明顯下降現(xiàn)象。由對(duì)比試驗(yàn)結(jié)果得出,試驗(yàn)組圈養(yǎng)塘餌料系數(shù)為1.44,對(duì)照組餌料系數(shù)為2.72,試驗(yàn)組餌料系數(shù)為對(duì)照組的52.20%,該段時(shí)間內(nèi)試驗(yàn)組餌料利用率高于對(duì)照組。試驗(yàn)組質(zhì)量增加率為5.56%,對(duì)照組質(zhì)量增加率為2.88%,試驗(yàn)組質(zhì)量增加率提高2.68個(gè)百分點(diǎn),該段時(shí)間內(nèi)試驗(yàn)組鱸魚生長(zhǎng)速率高于對(duì)照組。綜上,試驗(yàn)組圈養(yǎng)塘的餌料系數(shù)和質(zhì)量增加率均優(yōu)于對(duì)照組,說(shuō)明本試驗(yàn)投餌模型能夠減少飼料浪費(fèi),節(jié)約養(yǎng)殖成本,提高養(yǎng)殖效率?;贛obileNetV3-Small模型的鱸魚攝食狀態(tài)分類有較好的應(yīng)用效果,基于該模型的投喂決策在一定程度上能夠代替養(yǎng)殖人員投喂決策,為室外集約化水產(chǎn)養(yǎng)殖提供一種有效參考。
針對(duì)室外養(yǎng)殖環(huán)境復(fù)雜、鱸魚饑餓狀態(tài)難以辨別等特點(diǎn),本研究提出了基于MobileNetV3-Small的圈養(yǎng)鱸魚攝食狀態(tài)分類模型,在真實(shí)室外養(yǎng)殖環(huán)境下達(dá)到了較好的分類投喂效果,為室外集約化養(yǎng)殖環(huán)境下的智能投餌提供了參考。
1)依據(jù)鱸魚食欲等級(jí)劃分了鱸魚攝食狀態(tài)數(shù)據(jù)集。MobileNetV3-Small網(wǎng)絡(luò)模型在該數(shù)據(jù)集上的準(zhǔn)確率達(dá)到了99.60%,召回率為99.40%,精準(zhǔn)率為99.80%,F(xiàn)1分?jǐn)?shù)為99.60%。
2)通過(guò)與ResNet-18,ShuffleNetV2和MobileNetV3-Large深度學(xué)習(xí)模型相比,MobileNetV3-Small模型的計(jì)算量最小為582 M,平均分類速率最大為39.21幀/s。與KNN、SVM、GBDT和Stacking傳統(tǒng)機(jī)器學(xué)習(xí)模型相比,MobileNetV3-Small模型的綜合準(zhǔn)確率高出12.74、23.85、3.60和2.78個(gè)百分點(diǎn)。
3)通過(guò)圈養(yǎng)鱸魚投喂試驗(yàn)表明,基于該分類模型決策的投喂方式為人工投喂方式餌料系數(shù)的52.20%,質(zhì)量增加率提高2.68個(gè)百分點(diǎn)。
[1] 張佳林,徐立鴻,劉世晶. 基于水下機(jī)器視覺的大西洋鮭攝食行為分類[J]. 農(nóng)業(yè)工程學(xué)報(bào),2020,36(13):158-164.
Zhang Jialin, Xu Lihong, Liu Shijing. Classification of Atlantic salmon feeding behavior based on underwater machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(13): 158-164. (in Chinese with English abstract)
[2] 郭強(qiáng). 基于計(jì)算機(jī)視覺的循環(huán)水養(yǎng)殖鏡鯉的攝食狀態(tài)檢測(cè)方法研究[D]. 上海:上海海洋大學(xué),2018.
Guo Qiang. Fish Feeding Behavior Detection Method Under Circulating Aquaculture Based on Computer Vision[D]. Shanghai: ShangHai Ocean University, 2018. (in Chinese with English abstract)
[3] Barraza-Guardado R H, Martínez-Córdova L R, Enríquez-Oca?a L F, et al. Effect of shrimp farm effluent on water and sediment quality parameters off the coast of Sonora, Mexico[J]. Ciencias Marinas, 2014, 40(4): 221-235.
[4] Papadakis V M, Papadakis I E, Lamprianidou F, et al. A computer-vision system and methodology for the analysis of fish behavior[J]. Aquacultural Engineering, 2012, 46: 53-59.
[5] Pautsina A, Císa? P, ?tys D, et al. Infrared reflection system for indoor 3D tracking of fish[J]. Aquacultural Engineering, 2015, 69: 7-17.
[6] 喬峰,鄭堤,胡利永,等. 基于機(jī)器視覺實(shí)時(shí)決策的智能投餌系統(tǒng)研究[J]. 工程設(shè)計(jì)學(xué)報(bào),2015,22(6):528-533.
Qiao Feng, Zheng Ti, Hu Liyong, et al. Research on smart bait casting machine based on machine vision technology[J]. Chinese Journal of Engineering Design, 2015, 22(6): 528-533. (in Chinese with English abstract)
[7] 郭俊. 基于圖像與聲音信息的養(yǎng)殖魚群攝食規(guī)律與投餌技術(shù)研究[D]. 寧波:寧波大學(xué),2018.
Guo Jun. Research on Feeding Patterns and Bait Technology of Fish Culture Based on Information of Image and Sound[D]. Ningbo: Ningbo University, 2018. (in Chinese with English abstract)
[8] Atoum Y, Srivastava S, Liu X M. Automatic feeding control for dense aquaculture fish tanks[J]. IEEE Signal Processing Letters, 2014, 22(8): 1089-1093.
[9] 陳明,張重陽(yáng),馮國(guó)富,等. 基于特征加權(quán)融合的魚類攝食活動(dòng)強(qiáng)度評(píng)估方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(2):245-253.
Chen Ming, Zhang Chongyang, Feng Guofu, et al. Intensity assessment method of fish feeding activities based on feature weighted fusion[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 245-253. (in Chinese with English abstract)
[10] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.
[11] Chen L, Yang X T, Sun C H, et al. Feed intake prediction model for group fish using the MEA-BP neural network in intensive aquaculture[J]. Information Processing in Agriculture, 2020, 7(2): 261-271.
[12] Adegboye M A, Aibinu A M, Kolo J G, et al. Incorporating intelligence in fish feeding system for dispensing feed based on fish feeding intensity[J]. IEEE Access, 2020, 8: 91948-91960.
[13] M?l?y H, Aamodt A, Misimi E. A spatio-temporal recurrent network for salmon feeding action recognition from underwater videos in aquaculture[J]. Computers and Electronics in Agriculture, 2019, 167: 105087.
[14] Villon S, Mouillot D, Chaumont M, et al. A deep learning method for accurate and fast identification of coral reef fishes in underwater images[J]. Ecological Informatics, 2018, 48: 238-244.
[15] 趙德安,劉曉洋,孫月平,等. 基于機(jī)器視覺的水下河蟹識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2019,50(3):151-158.
Zhao Dean, Liu Xiaoyang, Sun Yueping, et al. Detection of underwater crabs based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(3): 151-158. (in Chinese with English abstract)
[16] Zhang S, Yang X T, Wang Yi Z, et al. Automatic fish population counting by machine vision and a hybrid deep neural network model[J]. Animals, 2020, 10(2): 364.
[17] Tseng C H, Hsieh C L, Kuo Y F. Automatic measurement of the body length of harvested fish using convolutional neural networks[J]. Biosystems Engineering, 2020, 189: 36-47.
[18] Zhou C, Xu D M, Chen L, et al. Evaluation of fish feeding intensity in aquaculture using a convolutional neural network and machine vision[J]. Aquaculture, 2019, 507: 457-465.
[19] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[C]//Proceedings of the IEEE International Conference on Learning Representations (ICLR). San Diego: IEEE, 2015.
[20] ?verli ?, S?rensen C, Nilsson G E. Behavioral indicators of stress-coping style in rainbow trout: do males and females react differently to novelty?[J]. Physiology & Behavior, 2006, 87(3): 506-512.
[21] Howard A, Sandler M, Chu G, et al. Searching for mobilenetv3[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). Seoul: IEEE, 2019.
[22] Lin M, Chen Q, Yan S. Network in network[C]//Proceedings of the IEEE International Conference on Learning Representations (ICLR). Banff: IEEE, 2014.
[23] Howard A G, Zhu M, Chen B, et al. MobileNets efficient convolutional neural networks for mobile vision applications[C]//Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR). Honolulu: IEEE, 2017.
[24] Sandler M, Howard A, Zhu M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR). Salt Lake: IEEE, 2018.
[25] Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]// Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR). Salt Lake: IEEE, 2018.
[26] Abeywickrama T, Cheema M A, Taniar D. K-nearest neighbors on road networks: A journey in experimentation and in-memory implementation[J]. Proceedings of the VLDB Endowment, 2016, 9(6): 492-503.
[27] Hui Y, Mei X S, Jiang G D, et al. Milling tool wear state recognition by vibration signal using a stacked generalization ensemble model[J]. Shock and Vibration, 2019, 2019(3): 1-16.
[28] Friedman J H. Greedy function approximation: A gradient boosting machine[J]. The Annals of Statistics, 2001, 29(5): 1189-1232.
[29] 周志華. 機(jī)器學(xué)習(xí)[M]. 北京:清華大學(xué)出版社,2016:183-185.
[30] 國(guó)家環(huán)境保護(hù)局. 漁業(yè)水質(zhì)標(biāo)準(zhǔn):GB 11607-1989[S]. 北京:中國(guó)標(biāo)準(zhǔn)出版社,1990.
Classification of perch ingesting condition using lightweight neural network MobileNetV3-Small
Zhu Ming1,3, Zhang Zhenfu1,2, Huang Huang1,2※, Chen Yanyan1, Liu Yadong1, Dong Tao1
(1.,430070,; 2.,,430070,; 3.430070)
Intelligent feeding has widely been used to determine the amount of feed from a smart prediction about the hunger degree of fish, thereby effectively reducing the waste of feed in the modern aquaculture industry, especially for outdoor intensive fish breeding environments. However, redundant data collected by mobile monitoring devices has caused a huge calculation load for most control systems. An accurate classification of the hunger degree of fish still remains an unsolved problem. Taking the captive perch as the tested object, this work aims to design an image capture system for the perch feeding using MobileNetV3-Small of lightweight neural network. The system also consisted of 2 captive fonds, a camera, and a video recorder. In the test, 4202 perches were randomly fed with adequate or inadequate feed, where a camera was selected to record the water surface every day. 10 000 images were collected after 2-week monitoring to record the perch ingesting condition in the period of 80~110 seconds after per round feeding condition, where 50% belonged to “hungry” condition, and the rest was “non-hungry” condition. These initial images were then divided as training, validation, and testing set, according to a rate of 6:2:2. Four image processing operations were applied on the training set, containing random flipping, random cropping, adding Gaussian noise, and color dithering, thereby expanding the training set from 6 000 to 12 000 images. As such, the more generalized model greatly enhanced the image features and training samples. Next, a MobileNetV3-Small of lightweight Neural Network was selected to classify the ingesting condition of perches. The model was trained, tested, and established on the Tensorflow2 platform, where the images of the training set were selected as the input, whereas, the ingesting condition as the output. Finally, a 2-week feeding contrast test was carried out in the outdoor culture environment to verify the accuracy of the model. Two groups were set for 4202 perches in this test, 2096 of the test group and 2106 of the control group, where the amount of feed was determined according to the classification of model and conventional experience. Meanwhile, the total mass and quantity of the two groups were recorded at the beginning and end of the test, as well as the total amount of consumed feed. Correspondingly, it was found that the MobileNetV3-Small network model achieved a combined accuracy of 99.60% in the test set with an F1 score of 99.60%. The MobileNetV3-Small model presented the smallest Floating Point Operations of 582 M and the largest average classification rate of 39.21 frames/s, compared with ResNet-18, ShuffleNetV2, and MobileNetV3-Large deep learning models. Specifically, the combined accuracies of the MobileNetV3-Small model were 12.74, 23.85, 3.6, and 2.78 percentage points higher than that of the traditional machine learning models KNN, SVM, GBDT, and Stacking. Furthermore, the test group of perch was achieved a lower Feed Conversion Ratio of 1.42, and a higher Weight Gain Ratio of 5.56%, compared with the control group, indicating that the MobileNetV3-Small model performed a better classification on the ingesting condition in a real outdoor culture environment. Consequently, the classification of the ingesting condition can widely be expected for the efficient decision-making for the amount of fish feed, particularly suitable for the growth of fish. The finding can provide a further reference for efficient and intelligent feeding in an intensive cultural environment.
aquaculture; machine vision; image recognition; deep learning; neural network; perch
朱明,張鎮(zhèn)府,黃凰,等. 基于輕量級(jí)神經(jīng)網(wǎng)絡(luò)MobileNetV3-Small的鱸魚攝食狀態(tài)分類[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(19):165-172.doi:10.11975/j.issn.1002-6819.2021.19.019 http://www.tcsae.org
Zhu Ming, Zhang Zhenfu, Huang Huang, et al. Classification of perch ingesting condition using lightweight neural network MobileNetV3-Small[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(19): 165-172. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2021.19.019 http://www.tcsae.org
2021-06-11
2021-09-19
湖北省農(nóng)業(yè)科技創(chuàng)新行動(dòng);中央高校基本科研業(yè)務(wù)費(fèi)專項(xiàng)資金資助項(xiàng)目(107/11041910103);中國(guó)工程院咨詢項(xiàng)目(2019-ZD-5)
朱明,研究員,博士生導(dǎo)師,研究方向?yàn)檗r(nóng)業(yè)工程管理。Email:13801392760@163.com
黃凰,博士,講師,研究方向?yàn)檗r(nóng)業(yè)機(jī)械化與農(nóng)業(yè)智能化管理。Email:wmyhuang@qq.com
10.11975/j.issn.1002-6819.2021.19.019
S951.2
A
1002-6819(2021)-19-0165-08