楊濤,李曉曉
(1.成都農(nóng)業(yè)科技職業(yè)學(xué)院機(jī)電信息學(xué)院,成都市,611130;2.成都大學(xué)機(jī)械工程學(xué)院,成都市,610106)
隨著人工智能(Artificial Intelligence,AI)在現(xiàn)代農(nóng)業(yè)裝備中的逐步應(yīng)用,使得融合各種現(xiàn)代化智能技術(shù)的農(nóng)業(yè)裝備推動(dòng)農(nóng)業(yè)生產(chǎn)方式從機(jī)械化向自動(dòng)化、智能化方向邁進(jìn)。由此,涌現(xiàn)出依賴高新信息技術(shù)的精準(zhǔn)農(nóng)業(yè)、數(shù)字農(nóng)業(yè)、智慧農(nóng)業(yè)、無(wú)人農(nóng)場(chǎng)等先進(jìn)農(nóng)業(yè)生產(chǎn)形式[1]。中國(guó)也將依托智能農(nóng)機(jī)、生物技術(shù)、信息技術(shù),能夠?qū)崿F(xiàn)信息感知、定量決策、智能控制、精準(zhǔn)投入以及個(gè)性化服務(wù)五大功能的智慧農(nóng)業(yè)列入國(guó)家智慧經(jīng)濟(jì)的重要組成部分,并且處于現(xiàn)代農(nóng)業(yè)發(fā)展的高級(jí)階段[2]。羅錫文院士也明確表示智慧農(nóng)業(yè)是中國(guó)農(nóng)業(yè)未來(lái)的發(fā)展方向。那么,運(yùn)用現(xiàn)代信息技術(shù)加快智慧農(nóng)業(yè)建設(shè),助力中國(guó)從傳統(tǒng)農(nóng)業(yè)到智慧農(nóng)業(yè)過(guò)渡就尤為重要。
機(jī)器視覺(jué)(Machine Vision,MV)是人工智能的重要分支,為農(nóng)業(yè)裝備裝上了一雙“眼睛”,在農(nóng)業(yè)生產(chǎn)領(lǐng)域的應(yīng)用研究已經(jīng)有50年的歷史。美國(guó)、日本、德國(guó)等發(fā)達(dá)國(guó)家集成機(jī)器視覺(jué)技術(shù)的農(nóng)業(yè)裝備在農(nóng)業(yè)生產(chǎn)中的應(yīng)用涉及產(chǎn)前、產(chǎn)中、產(chǎn)后全過(guò)程。中國(guó)機(jī)器視覺(jué)技術(shù)在農(nóng)業(yè)領(lǐng)域的相關(guān)研究多數(shù)還處于實(shí)驗(yàn)室研究階段,但在水果無(wú)損檢測(cè)與分級(jí)方面已經(jīng)有一定的應(yīng)用[3]。此外,隨著智能駕駛技術(shù)的發(fā)展,農(nóng)業(yè)場(chǎng)景車輛視覺(jué)導(dǎo)航也成為了當(dāng)前研究人員的研究熱點(diǎn),搭載視覺(jué)系統(tǒng)的智能農(nóng)業(yè)裝備在農(nóng)業(yè)生產(chǎn)中的應(yīng)用越來(lái)越多,并且,中國(guó)的農(nóng)機(jī)無(wú)人駕駛系統(tǒng)已經(jīng)能夠與國(guó)外發(fā)達(dá)國(guó)家并駕齊驅(qū)[4-5]。機(jī)器視覺(jué)技術(shù)提高了現(xiàn)代農(nóng)業(yè)裝備自動(dòng)化、智能化、精細(xì)化程度,為實(shí)現(xiàn)作物生產(chǎn)全程無(wú)人自主作業(yè)、作業(yè)環(huán)節(jié)自主完成、作物生產(chǎn)信息全程自動(dòng)監(jiān)測(cè)的無(wú)人農(nóng)場(chǎng)提供了有力的技術(shù)保障。在帶動(dòng)產(chǎn)業(yè)升級(jí)、推動(dòng)農(nóng)業(yè)智能化發(fā)展等方面有重要意義。
本文采用文獻(xiàn)調(diào)研、實(shí)地走訪、咨詢專家等方法詳細(xì)闡述機(jī)器視覺(jué)技術(shù)的概念、組成、工作原理,梳理機(jī)器視覺(jué)技術(shù)在農(nóng)業(yè)生產(chǎn)產(chǎn)前、產(chǎn)中、產(chǎn)后各個(gè)環(huán)節(jié)的應(yīng)用情況與國(guó)內(nèi)外最新研究成果,對(duì)比機(jī)器視覺(jué)技術(shù)相對(duì)人類視覺(jué)的優(yōu)缺點(diǎn),分析機(jī)器視覺(jué)技術(shù)亟待突破的關(guān)鍵瓶頸,預(yù)測(cè)未來(lái)發(fā)展的重點(diǎn)方向,這對(duì)于促進(jìn)機(jī)器視覺(jué)技術(shù)進(jìn)一步在農(nóng)業(yè)生產(chǎn)領(lǐng)域的應(yīng)用與產(chǎn)業(yè)的健康發(fā)展有著積極意義。
機(jī)器視覺(jué)顧名思義就是機(jī)器的視覺(jué)系統(tǒng),賦予其類似人類眼睛一樣的視覺(jué)功能,涉及到機(jī)械、計(jì)算機(jī)科學(xué)、圖像處理技術(shù)、信號(hào)分析與檢測(cè)、統(tǒng)計(jì)學(xué)、模式識(shí)別等諸多領(lǐng)域的交叉學(xué)科,是計(jì)算機(jī)視覺(jué)(Computer Vision,CV)的具體應(yīng)用。圖1所示的是典型的機(jī)器視覺(jué)系統(tǒng),由圖像采集、圖像分析、智能決策與執(zhí)行3個(gè)模塊組成,包含硬件與軟件兩個(gè)部分。工作時(shí),由圖像采集模塊獲取三維世界目標(biāo)對(duì)象的二維圖像,再運(yùn)用圖像處理與分析系統(tǒng)對(duì)其進(jìn)行特征量分析并輸出結(jié)果,最后根據(jù)圖像分析結(jié)果做出決策或執(zhí)行相應(yīng)的機(jī)構(gòu)。
圖1 典型機(jī)器視覺(jué)系統(tǒng)
機(jī)器視覺(jué)系統(tǒng)硬件部分指的是光源、鏡頭、相機(jī)、圖像采集卡、處理器或PC、執(zhí)行機(jī)構(gòu)等。其中,相機(jī)是核心感光元件,其本質(zhì)是借助CCD(Charge Coupled Device)或CMOS(Complementary Metal Oxide Semiconductor)圖像傳感器將光電信號(hào)轉(zhuǎn)變?yōu)殡娦盘?hào),獲取目標(biāo)二維圖像。2009年,微軟將3D結(jié)構(gòu)光技術(shù)應(yīng)用在Kinect上獲得了目標(biāo)的三維結(jié)構(gòu),提升了Xbox用戶體驗(yàn)。此后,開始興起一種通過(guò)紅外結(jié)構(gòu)光或TOF(Time of Flight)原理測(cè)定圖像中各像素與相機(jī)距離的深度相機(jī)(RGB Deeply,RGB-D)。該相機(jī)在獲取傳統(tǒng)的RGB二維圖像的同時(shí)還能夠生成一張與之一一對(duì)應(yīng)的深度圖像,以實(shí)現(xiàn)目標(biāo)對(duì)象的三維重建。并在增強(qiáng)現(xiàn)實(shí)(Augmented Reality,AR)、智能制造、農(nóng)業(yè)機(jī)器人等領(lǐng)域已得到應(yīng)用。
軟件部分指的是圖像處理與分析算法,是視覺(jué)系統(tǒng)的靈魂,也是研究人員研究的重點(diǎn)內(nèi)容。包括圖像處理算法、模式識(shí)別算法、深度學(xué)習(xí)算法等,在單目視覺(jué)系統(tǒng)的基礎(chǔ)上逐步發(fā)展出了基于視差原理的雙目立體視覺(jué),利用成像設(shè)備從不同的位置獲取目標(biāo)兩幅圖像,再通過(guò)計(jì)算圖像對(duì)應(yīng)點(diǎn)之間的位置偏差獲取目標(biāo)三維幾何信息的方法。該方法融合了“兩只眼睛”的圖像,模擬了人類雙眼的視覺(jué)原理,已成為了國(guó)內(nèi)外研究人員的研究熱點(diǎn)之一。此外,為便于軟件工程師快速開發(fā)具有特定功能的視覺(jué)系統(tǒng),封裝了圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)等各類函數(shù)的視覺(jué)開發(fā)包流行了起來(lái),“軟件平臺(tái)+視覺(jué)開發(fā)包”成為當(dāng)前主流的開發(fā)模式。并且,OpenCV開源視覺(jué)庫(kù),美國(guó)Vision Pro、MATLAB、LabVIEW以及德國(guó)Halcon等開發(fā)包是當(dāng)前使用最廣泛的視覺(jué)開發(fā)包。
機(jī)器視覺(jué)識(shí)別、檢測(cè)過(guò)程見圖2。首先,針對(duì)應(yīng)用目標(biāo)構(gòu)建合適的圖像成像系統(tǒng)采集目標(biāo)圖像;然后,是運(yùn)用圖像處理技術(shù)對(duì)采集到的樣本圖像進(jìn)行預(yù)處理,以增強(qiáng)圖像質(zhì)量;接著,將目標(biāo)對(duì)象從圖像背景中分割出來(lái)并運(yùn)用相關(guān)特征計(jì)算方法提取特征信息,得到目標(biāo)對(duì)象顏色、形態(tài)、紋理等表征能力較強(qiáng)的特征參數(shù)組成的特征向量;最后,為避免過(guò)多的冗余信息給系統(tǒng)帶來(lái)較大計(jì)算量,影響系統(tǒng)識(shí)別精度與效率,對(duì)得到的特征向量進(jìn)行篩選與優(yōu)化后,再選擇合適的分類器進(jìn)行訓(xùn)練并給出識(shí)別結(jié)果。
圖2 機(jī)器視覺(jué)識(shí)別、檢測(cè)技術(shù)路線
該過(guò)程中圖像處理效果、選取的特征、分類器的設(shè)計(jì)直接決定了系統(tǒng)識(shí)別效果,是機(jī)器視覺(jué)技術(shù)的核心。圖像處理技術(shù)相對(duì)較成熟,常見的圖像預(yù)處理過(guò)程為灰度化→幾何變換(裁剪、平移、旋轉(zhuǎn)等)→圖像增強(qiáng)(濾波、平滑、銳化等);目標(biāo)分割方法有閾值分割法(全局閾值、局部閾值、Otsu)、區(qū)域分割法、分水嶺分割法以及K-means聚類分割等;特征提取方法有顏色(顏色矩、顏色集、顏色直方圖、顏色聚合向量等)、紋理(灰度共生矩陣法、幾何法、模型法、小波變換等)、形狀(傅里葉變換、Hough變換、面積、周長(zhǎng)、矩形度、似圓度、最小外接矩形長(zhǎng)寬比、Hu不變矩等)、空間關(guān)系等;特征選擇與優(yōu)化方法有主成分分析(Principal Component Analysis,PCA)、線性判別分析法(Linear Discriminant Analysis,LDA)、多維尺度法(Multi-Dimensional Scaling,MDS)、流型學(xué)習(xí)法等;識(shí)別與分類方法是研究者們研究的熱點(diǎn),傳統(tǒng)的統(tǒng)計(jì)模式識(shí)別方法有支持向量機(jī)(Support Vector Machine,SVM)、貝葉斯、判別函數(shù)等,隨著機(jī)器學(xué)習(xí)(Machine Learning,ML)技術(shù)的發(fā)展,人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)、遺傳算法、聚類算法、遷移學(xué)習(xí)等方法的應(yīng)用,大幅提高了機(jī)器視覺(jué)系統(tǒng)的識(shí)別準(zhǔn)確率、穩(wěn)定性、魯棒性。并且,國(guó)內(nèi)外研究人員關(guān)于機(jī)器視覺(jué)的研究也集中在分類算法方面。
機(jī)器視覺(jué)技術(shù)在智能制造領(lǐng)域應(yīng)用集中在定位導(dǎo)航、檢測(cè)、測(cè)量、識(shí)別四個(gè)方面,在農(nóng)業(yè)生產(chǎn)環(huán)節(jié)中應(yīng)用更為廣泛。美國(guó)、日本、德國(guó)等發(fā)達(dá)國(guó)家圍繞農(nóng)業(yè)生產(chǎn)的應(yīng)用幾乎涉及全過(guò)程[6]。在產(chǎn)前種子篩選與質(zhì)量檢驗(yàn)、產(chǎn)中作物病蟲草害與生長(zhǎng)信息監(jiān)測(cè)、產(chǎn)后農(nóng)產(chǎn)品性狀測(cè)量與分級(jí)以及現(xiàn)代農(nóng)業(yè)裝備定位導(dǎo)航等領(lǐng)域均有一定程度的應(yīng)用。而中國(guó)的研究多數(shù)還處于實(shí)驗(yàn)室研究階段。
作物病蟲草害視覺(jué)識(shí)別從早期簡(jiǎn)單的性狀特征邏輯判斷發(fā)展到基于特征向量的模式識(shí)別,后又隨著深度學(xué)習(xí)(Deep Learning,DL)的發(fā)展,使得卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)及其改進(jìn)算法得到有效應(yīng)用,大幅提高了視覺(jué)系統(tǒng)的識(shí)別率與穩(wěn)定性。
劉翠翠等[7]運(yùn)用PCA與SVM開發(fā)了麥冬葉部黑斑病、葉枯病以及炭疽病3種病害識(shí)別系統(tǒng)并對(duì)其進(jìn)行了有效監(jiān)測(cè)與防治;王艷玲等[8]運(yùn)用ImageNet圖像數(shù)據(jù)集上訓(xùn)練成熟的Alex Net模型來(lái)識(shí)別番茄葉片病害,不但縮短了訓(xùn)練時(shí)間,還將平均準(zhǔn)確率提高了5.6%;彭明霞等[9]提出了基于Faster R-CNN模型的棉花雜草識(shí)別算法,適應(yīng)復(fù)雜背景下棉田雜草的識(shí)別;趙立新等[10]、Kim等[11]、Hasan等[12]分別對(duì)棉花葉部病蟲害、馬鈴薯晚疫病、水稻病害識(shí)別展開了研究,均取得了不錯(cuò)的效果;Tetila等[13]使用小型無(wú)人機(jī)在植物上方2 m處采集大豆葉部病害圖像,再運(yùn)用簡(jiǎn)單線性迭代聚類(Simple Linear Iterative Clustering,SLIC)算法生成超像素,以分割植物葉片,并對(duì)比了Inception-v3、Resnet-50、VGG-19以及Xception4種不同參數(shù)訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNN),與其他訓(xùn)練策略相比,基于深度學(xué)習(xí)的模型識(shí)別率達(dá)99.04%,滿足農(nóng)民監(jiān)測(cè)大豆病害的需要。
張紅濤等[14]利用單鏡頭反光(Single Lens Reflex,SLR)相機(jī)采集了煙草主要害蟲(煙青蟲、棉鈴蟲)蟲蛹圖像并提取其腹部末節(jié)有效區(qū)域紋理特征,再運(yùn)用SVM分類器進(jìn)行識(shí)別分類,完成了煙青蟲、棉鈴蟲蟲蛹雌雄的有效分類;Partel等[15]運(yùn)用機(jī)器視覺(jué)技術(shù)與CNN開發(fā)了一套全自動(dòng)亞洲柑橘木虱(Asian Citrus Psyllid,ACP)監(jiān)測(cè)系統(tǒng),準(zhǔn)確率達(dá)80%;Thenmozhi等[16]使用國(guó)家農(nóng)業(yè)昆蟲資源局?jǐn)?shù)據(jù)集提出了一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)與遷移學(xué)習(xí)的農(nóng)作物害蟲分類方法,并與AlexNet、ResNet、GoogLeNet和VGGNet等預(yù)訓(xùn)練的深層學(xué)習(xí)結(jié)構(gòu)比較,表現(xiàn)出了絕對(duì)的優(yōu)勢(shì),能夠有效地對(duì)大田作物各類昆蟲進(jìn)行分類。
苗榮慧等[17]運(yùn)用圖像分塊及重構(gòu)技術(shù)在菠菜重疊葉片的情況下實(shí)現(xiàn)了雜草識(shí)別,為智能除草裝備的研制提供了理論依據(jù);廣西某公司開發(fā)的智能識(shí)別引擎——“耘眼”,能夠自動(dòng)識(shí)別農(nóng)作物病蟲害并可依據(jù)已知病蟲害自動(dòng)推薦配藥方案以及評(píng)估農(nóng)藥混用風(fēng)險(xiǎn)。此外,精細(xì)化物體分類技術(shù)也得到應(yīng)用,微軟亞洲研究院提出了一種基于遞歸注意力模型的卷積神經(jīng)網(wǎng)絡(luò)(Recurrent Attention Convolutional Neural Network,RA-CNN),并聯(lián)合中國(guó)科學(xué)院植物研究所共同打造“微軟識(shí)花”APP,收錄400余種園藝花卉,識(shí)別精度達(dá)90%[18];德國(guó)某公司一直在積極探索數(shù)字化技術(shù)在農(nóng)業(yè)領(lǐng)域的各類應(yīng)用,于2017年發(fā)布XARVIO數(shù)字農(nóng)業(yè)解決方案,并依托于其全球農(nóng)藝植保大數(shù)據(jù)資源,建立數(shù)字化平臺(tái)在中國(guó)區(qū)推出“WEEDSCOUT”雜草識(shí)別APP。未來(lái),拜爾將繼續(xù)引入“蟲害監(jiān)測(cè)”“病害識(shí)別”“營(yíng)養(yǎng)評(píng)估”等一系列基于智能手機(jī)端的數(shù)字化農(nóng)業(yè)應(yīng)用。中國(guó)在花草樹木識(shí)別方面已取得重大進(jìn)展,科技公司紛紛運(yùn)用機(jī)器視覺(jué)識(shí)別技術(shù)開發(fā)花草樹木識(shí)別軟件,涌現(xiàn)出一批出色的花草樹木識(shí)別手機(jī)APP——“花伴侶”“形色”“識(shí)物”等;中國(guó)科學(xué)院昆明植物研究所與騰訊“識(shí)你所見”AI產(chǎn)品團(tuán)隊(duì)聯(lián)合研發(fā)出了一款能夠識(shí)別6 000多種花草的微信小程序——“識(shí)花君”;百度AI開放平臺(tái)植物識(shí)別支持2.4萬(wàn)種通用植物和花卉,在識(shí)別率和線上內(nèi)容儲(chǔ)備上均超越市場(chǎng)上的同類功能應(yīng)用。
英國(guó)《新科學(xué)家》網(wǎng)站報(bào)道了丹麥科學(xué)家研制出的農(nóng)田智能除草機(jī)器人,使用機(jī)器視覺(jué)技術(shù)識(shí)別雜草。并且,在對(duì)糖用甜菜農(nóng)田試驗(yàn)發(fā)現(xiàn),除草劑用量可減少約70%;美國(guó)某公司研發(fā)的除草機(jī)器人直接放棄了除草劑而使用可伸縮鋤頭快速、準(zhǔn)確地在生菜、西蘭花、花椰菜田間自動(dòng)除草;美國(guó)加利福尼亞大學(xué)Raja等[19]針對(duì)復(fù)雜自然條件下萵苣除草機(jī)器人開發(fā)了一套農(nóng)作物與行內(nèi)雜草實(shí)時(shí)識(shí)別系統(tǒng),并能夠控制搭載的微噴除草劑噴灑系統(tǒng)對(duì)雜草進(jìn)行精準(zhǔn)噴灑;瑞士EcoRobotix除草機(jī)器人能夠逐一檢查作物生長(zhǎng)情況、辨識(shí)雜草、精準(zhǔn)噴灑農(nóng)藥,并大幅減少農(nóng)藥使用量。縱觀全球,運(yùn)用機(jī)器視覺(jué)技術(shù)在作物病蟲草害識(shí)別、監(jiān)測(cè)、防治,甚至是除草機(jī)器人等方面已經(jīng)出現(xiàn)了具備商業(yè)應(yīng)用的產(chǎn)品,正逐步在全球擴(kuò)散。
實(shí)施精準(zhǔn)農(nóng)業(yè)的前提需要實(shí)時(shí)、準(zhǔn)確地獲取作物生長(zhǎng)與環(huán)境信息并及時(shí)將其反饋給監(jiān)控系統(tǒng),以便系統(tǒng)及時(shí)調(diào)整環(huán)境中的溫度、光照強(qiáng)度、濕度、土壤水分、風(fēng)速、CO2濃度等條件,進(jìn)而,實(shí)現(xiàn)農(nóng)業(yè)物資的合理利用與作物產(chǎn)量提升?,F(xiàn)代農(nóng)業(yè)中常以顏色、長(zhǎng)度、葉面積指數(shù)(Leaf Area Index,LAI)、歸一化植被指數(shù)(Normalized Difference Vegetation Index,NDVI)等信息為監(jiān)測(cè)指標(biāo)來(lái)反映被監(jiān)測(cè)作物長(zhǎng)勢(shì)或進(jìn)一步預(yù)測(cè)作物產(chǎn)量。作物生長(zhǎng)信息視覺(jué)監(jiān)測(cè)方法與作物病蟲草害識(shí)別方法有較大的相似度,通過(guò)圖像處理技術(shù)獲取目標(biāo)特征信息構(gòu)建數(shù)學(xué)模型,再使用相應(yīng)的分類或識(shí)別方法對(duì)該模型進(jìn)行分析處理給出分類或識(shí)別結(jié)果。傳統(tǒng)的作物生長(zhǎng)信息視覺(jué)監(jiān)測(cè)依托于設(shè)施農(nóng)業(yè)建設(shè),固定的采集點(diǎn)、采集范圍,使得監(jiān)測(cè)系統(tǒng)穩(wěn)定性好,檢測(cè)的性狀種類較多,但規(guī)?;鳂I(yè)成本較大。
付豪等[20]開發(fā)了玉米幼苗葉面積視覺(jué)檢測(cè)裝置,以實(shí)現(xiàn)玉米幼苗葉面積的快速、高效、實(shí)時(shí)、無(wú)損檢測(cè),滿足玉米育種研究中幼苗期葉面積檢測(cè)的要求;楊斯等[21]基于RGB-D相機(jī)融合濾波與聚類分割算法,提出了基于俯視彩色三維點(diǎn)云數(shù)據(jù)處理方法,實(shí)現(xiàn)了溫室育苗盤中黃瓜苗幼苗株高的測(cè)量,為苗期作物群體關(guān)鍵生長(zhǎng)參數(shù)的提取提供有效的解決方案;日本學(xué)者Genno等[22]連續(xù)兩年通過(guò)固定點(diǎn)采集了蘋果樹圖像,人工測(cè)量了圖像中蘋果的半徑,并基于這些圖像探索出了累計(jì)最大GBVI(Green Blue Vegetation Index)葉面積可以預(yù)測(cè)蘋果的可收獲半徑,是準(zhǔn)確評(píng)價(jià)蘋果生長(zhǎng)信息的最有效指標(biāo),可進(jìn)一步開發(fā)基于高清晰度現(xiàn)場(chǎng)監(jiān)控圖像的蘋果生長(zhǎng)自動(dòng)評(píng)估系統(tǒng);加拿大學(xué)者Chaudhury等[23]搭建了室內(nèi)作物自動(dòng)化信息采集系統(tǒng),構(gòu)建作物3D網(wǎng)格并據(jù)此計(jì)算作物表面積與體積,并獲取了大麥、擬南芥晝夜明暗周期變換條件下營(yíng)養(yǎng)期到生殖期的生長(zhǎng)規(guī)律;美國(guó)普渡大學(xué)Li等[24]使用智能手機(jī)采集羅勒、生菜、西紅柿和百日草圖像,再通過(guò)本地計(jì)算機(jī)估算出葉面積并發(fā)現(xiàn)了葉面積與莖干重(Shoot Dry Weight,SDW)之間存在的線性關(guān)系,實(shí)現(xiàn)了準(zhǔn)確、無(wú)損測(cè)量作物生長(zhǎng)特性。
此外,基于無(wú)人機(jī)的作物信息監(jiān)測(cè)技術(shù)剛好解決了傳統(tǒng)視覺(jué)監(jiān)測(cè)方法難以規(guī)?;膯?wèn)題,并且,融合了無(wú)人機(jī)駕駛飛行器技術(shù)、空間遙感、圖像實(shí)時(shí)傳輸?shù)榷喾N手段的無(wú)人機(jī)多光譜成像技術(shù)因其能夠快速獲取農(nóng)田作物實(shí)時(shí)光譜圖像,再通過(guò)圖像分析了解大田作物的生長(zhǎng)信息,已成為當(dāng)下國(guó)內(nèi)外學(xué)者研究的熱點(diǎn)之一[25]。與衛(wèi)星遙感監(jiān)測(cè)平臺(tái)相比,多傳感器信息融合的無(wú)人機(jī)視覺(jué)監(jiān)測(cè)技術(shù)在成本控制、規(guī)模應(yīng)用等方面有一定的優(yōu)勢(shì)。
戴建國(guó)等[26]利用無(wú)人機(jī)獲取棉花3~4葉期高分辨率遙感圖像,再使用自適應(yīng)閾值分割算法(Otsu)分割出目標(biāo),然后采用網(wǎng)格法去除雜草干擾并提取棉花的形態(tài)特征構(gòu)建基于SVM的棉株計(jì)數(shù)模型,最后基于此提取棉花出苗率、冠層覆蓋度以及棉花長(zhǎng)勢(shì)均勻性信息,實(shí)現(xiàn)了大面積棉田苗情的快速監(jiān)測(cè);陶惠林等[27]融合了無(wú)人機(jī)數(shù)字圖像與高光譜數(shù)據(jù),通過(guò)MLR(Multiple Liner Regression)和RF(Random Forest)構(gòu)建了冬小麥挑旗期、開花期、灌漿期的產(chǎn)量估計(jì)模型,實(shí)現(xiàn)了冬小麥產(chǎn)量估計(jì);西班牙塞維利亞大學(xué)Apolo-Apolo等[28]利用無(wú)人機(jī)獲取柑橘園樹木圖像,構(gòu)建了Faster R-CNN深度學(xué)習(xí)模型以監(jiān)測(cè)果園中橘子的生長(zhǎng)狀態(tài)并估計(jì)其大小與產(chǎn)量,對(duì)比了實(shí)際總產(chǎn)量、估計(jì)總產(chǎn)量和專家估計(jì)總產(chǎn)量發(fā)現(xiàn),該方法的產(chǎn)量估計(jì)誤差約7.22%,可應(yīng)用于柑橘產(chǎn)量估計(jì);伊朗德黑蘭大學(xué)Fathipoor等[29]以無(wú)人機(jī)采集到的玉米12葉期RGB圖像為研究對(duì)象,從數(shù)字高程模型(Digital Elevation Model,DEM)中減去作物表面模型,從而創(chuàng)建作物高度模型(Crop Height Model,CHM),再利用植物株高與植被指數(shù)構(gòu)建了偏最小二乘回歸模型(Partial Least Squares Regression,PLS)實(shí)現(xiàn)了玉米飼草株高建模與產(chǎn)量預(yù)測(cè)。
水果采摘是果園最費(fèi)勞動(dòng)力、最難實(shí)現(xiàn)機(jī)械化作業(yè)的環(huán)節(jié),準(zhǔn)確、可靠的水果檢測(cè)是實(shí)現(xiàn)機(jī)器人采摘作業(yè)的前提[30]。然而,在自然光照條件下還存在著樹葉遮擋、相鄰水果重疊等不利因素,無(wú)疑為果蔬的自動(dòng)采摘增加了難度。研究人員基于機(jī)器視覺(jué)圍繞蘋果、獼猴桃、葡萄、柑橘、草莓、荔枝、西紅柿、圣女果、黃瓜、茄子等果蔬展開了自動(dòng)識(shí)別、定位、計(jì)數(shù)等方面的研究。甚至,開發(fā)了相應(yīng)的自動(dòng)采摘機(jī)器人,但遺憾的是還沒(méi)有成熟的商業(yè)應(yīng)用案例。
陳燕等[31]設(shè)計(jì)了YOLOv3-DenseNet34荔枝串檢測(cè)網(wǎng)絡(luò),提出了同行順序一致性約束的荔枝串配對(duì)方法,基于雙目立體視覺(jué)的三角測(cè)量原理計(jì)算荔枝串空間坐標(biāo),實(shí)現(xiàn)了在3 m檢測(cè)距離下預(yù)定位的平均絕對(duì)誤差23.007 mm,滿足大視場(chǎng)條件下荔枝采摘機(jī)器人的視覺(jué)定位需求;澳大利亞Kang等[32]借助視覺(jué)傳感器對(duì)果園環(huán)境中的蘋果、樹枝進(jìn)行實(shí)時(shí)檢測(cè),提出了基于剩余網(wǎng)絡(luò)架構(gòu)的輕量級(jí)骨干網(wǎng)絡(luò),分割蘋果與樹枝正確率分別達(dá)86.5%、75.7%,可有效地進(jìn)行果園蘋果與樹枝的實(shí)時(shí)檢測(cè)與分割;華南農(nóng)業(yè)大學(xué)Tu等[33]使用RGB-D相機(jī)獲取可變光照條件和遮擋條件下百香果RGB圖像與深度圖像,再運(yùn)用多尺度特征提取器提取其特征,然后利用改進(jìn)的多尺度快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Multiple Scale Faster Region-Based Convolutional Neural Networks,MS-FRCNN)分別訓(xùn)練RGB檢測(cè)器與深度檢測(cè)器,融合了RGB彩色與深度信息,檢測(cè)精確度達(dá)92.2%,有效地改善了小百香果的檢測(cè);英國(guó)普利茅斯大學(xué)研發(fā)的樹莓采摘機(jī)器人Robocrop采用RGB-D相機(jī)與機(jī)器學(xué)習(xí)算法識(shí)別果實(shí)并在10 s內(nèi)摘下果實(shí)放入托盤中并能夠根據(jù)成熟度分類,正規(guī)?;茝V中;斯坦福國(guó)際研究院推出的新創(chuàng)公司——Abundant Robotics研制的蘋果采摘機(jī)器人使用機(jī)器視覺(jué)技術(shù)準(zhǔn)確識(shí)別果樹上成熟的蘋果并確定其空間位置再使用類似真空吸塵器的機(jī)械前端摘取蘋果,避免了傳統(tǒng)機(jī)械臂易對(duì)水果表面造成的劃痕、壓傷等缺陷。
種子產(chǎn)前與農(nóng)產(chǎn)品產(chǎn)后無(wú)損檢測(cè)技術(shù)是其分選、分級(jí)裝置的核心技術(shù),主要有近紅外光譜技術(shù)、機(jī)器視覺(jué)技術(shù)、高光譜成像檢測(cè)技術(shù)、聲學(xué)分析技術(shù)、電子鼻技術(shù)、核磁共振技術(shù)等[3]。機(jī)器視覺(jué)在農(nóng)產(chǎn)品無(wú)損檢測(cè)領(lǐng)域相對(duì)較成熟,已從早期以單一顏色、大小、形狀為分類指標(biāo)逐步發(fā)展出基于果實(shí)表面缺陷(機(jī)械損傷、病蟲害等)、成熟度、含糖量等外觀與內(nèi)在品質(zhì)為分級(jí)指標(biāo)的分類方法,已經(jīng)應(yīng)用于蘋果、柑橘、獼猴桃等水果自動(dòng)化分級(jí)裝備以及玉米、棉花等種子分選裝置中。
李頎等[34]采用HSV和CLBP提取玉米種穗顏色、紋理特征,再運(yùn)用匹配得分融合算法構(gòu)建分類模型,借助SVM實(shí)現(xiàn)了玉米種穗雜色、缺粒、蟲蛀、籽粒雜亂4種異常種穗;印度Bhargava等[35]使用模糊C-均值(Fuzzy C-Means)分割蘋果表面缺陷區(qū)域,并考慮了統(tǒng)計(jì)紋理、幾何、Gabor小波和離散余弦變換特征的組和特征提取,應(yīng)用了K-最近鄰(k-Nearest Neighbor,K-NN)、稀疏表示分類(Sparse Representation Classifier,SRC)、SVM三種不同的分類方法,對(duì)4個(gè)不同蘋果數(shù)據(jù)集試驗(yàn)表明多種技術(shù)融合的分類算法具有更高的準(zhǔn)確性,表現(xiàn)出巨大的潛能;荷蘭Greefa果蔬分選設(shè)備公司將果蔬大小、顏色、重量、糖分含量等檢測(cè)指標(biāo)模塊化,開發(fā)成獨(dú)立的檢測(cè)系統(tǒng)可安裝在分選線上實(shí)現(xiàn)果蔬多指標(biāo)快速分選,可針對(duì)不同水果快速構(gòu)建視覺(jué)檢測(cè)、分級(jí)系統(tǒng)。
隨著機(jī)器人操作系統(tǒng)(Robot Operating System,ROS)向著農(nóng)林業(yè)、生態(tài)種植方向拓展,農(nóng)業(yè)機(jī)器人也迎來(lái)了快速發(fā)展機(jī)會(huì)[36]?,F(xiàn)代農(nóng)業(yè)機(jī)器人自動(dòng)導(dǎo)航系統(tǒng)包含環(huán)境感知單元、控制單元與執(zhí)行單元三部分,見圖3。環(huán)境感知定位技術(shù)指的是借助各類傳感器對(duì)農(nóng)機(jī)周邊環(huán)境進(jìn)行探測(cè)以及自身實(shí)時(shí)定位;控制單元是跟蹤導(dǎo)航路徑并輸出對(duì)應(yīng)的控制信號(hào);執(zhí)行單元?jiǎng)t根據(jù)接收到控制信號(hào)控制農(nóng)機(jī)轉(zhuǎn)向,從而是其始終沿著導(dǎo)航路徑行走。也就是說(shuō),導(dǎo)航位姿信息的準(zhǔn)確、可靠獲取是路徑規(guī)劃、農(nóng)機(jī)控制的前提[5]。那么,農(nóng)機(jī)感知周圍環(huán)境、自身位置、姿態(tài)就顯得尤為重要。
圖3 農(nóng)機(jī)自動(dòng)導(dǎo)航系統(tǒng)典型結(jié)構(gòu)
機(jī)器視覺(jué)技術(shù)因感知周圍環(huán)境信息豐富、成本低等優(yōu)勢(shì)在農(nóng)機(jī)定位導(dǎo)航中占有一席之地。視覺(jué)導(dǎo)航系統(tǒng)是通過(guò)對(duì)農(nóng)業(yè)場(chǎng)景圖像中的參考目標(biāo)進(jìn)行檢測(cè)識(shí)別,提取導(dǎo)航數(shù)據(jù)并將其應(yīng)用于農(nóng)機(jī)的路徑規(guī)劃。李亞軍等[37]運(yùn)用改進(jìn)的超綠灰度化(2G-R-B)算法分割菜地綠色植物圖像并基于Huber損失函數(shù)進(jìn)行邊界曲線擬合,實(shí)現(xiàn)了自然光照條件下葉菜類蔬菜圖像的菜壟識(shí)別與導(dǎo)航基準(zhǔn)線提取,識(shí)別率達(dá)97.5%;王僑等[38]運(yùn)用機(jī)器視覺(jué)技術(shù)獲得農(nóng)機(jī)在地頭處安全掉頭轉(zhuǎn)向的邊界線,檢測(cè)正確率大于92%,為農(nóng)機(jī)在地頭處的信息感知提供了準(zhǔn)確、可靠的技術(shù)支持;關(guān)卓懷等[39]基于超紅(2R-G-B)特征模型的綜合閾值法進(jìn)行圖像分割,水平掃描獲取作物線擬合關(guān)鍵點(diǎn),再使用多段三次B樣條曲線擬合法提取水稻待收獲區(qū)域邊界線,平均誤差為9.9 mm;曾宏偉等[40]提出了基于區(qū)域生長(zhǎng)算法的聯(lián)合收割機(jī)導(dǎo)航線精確提取方法以適應(yīng)強(qiáng)光條件下小麥已收割區(qū)域與未收割區(qū)域?qū)Ρ榷鹊汀㈦y以獲取邊界線的問(wèn)題,并且不易受作物生長(zhǎng)密度和麥茬的干擾。
近年來(lái),隨著多目立體視覺(jué)、RGB-D深度相機(jī)與同步定位與地圖構(gòu)建技術(shù)(Simultaneous Localization and Mapping,SLAM)的發(fā)展,使得視覺(jué)SLAM(Visual SLAM,VSLAM)在缺乏環(huán)境先驗(yàn)信息與可靠外界輔助信息源的農(nóng)業(yè)場(chǎng)景中得到應(yīng)用并成為無(wú)人系統(tǒng)領(lǐng)域的研究焦點(diǎn)[41]。并且,深度學(xué)習(xí)與圖像處理技術(shù)的融合為VSLAM發(fā)展帶來(lái)了機(jī)會(huì)。然而,VSLAM也存在著占有計(jì)算資源大、數(shù)據(jù)更新慢、光照環(huán)境敏感等問(wèn)題,難以適應(yīng)農(nóng)機(jī)高速運(yùn)動(dòng)下實(shí)時(shí)性等情況,而慣性測(cè)量單元(Inertial Measurement Unit,IMU)具有數(shù)據(jù)更新快、動(dòng)態(tài)響應(yīng)好、可分離角運(yùn)動(dòng)與線運(yùn)動(dòng)等優(yōu)勢(shì),剛好可以彌補(bǔ)VSLAM的不足。因此,將IMU與視覺(jué)傳感器結(jié)合構(gòu)建慣性視覺(jué)SLAM(Visual Inertial SLAM,VI-SLAM)以提高動(dòng)態(tài)環(huán)境下系統(tǒng)魯棒性的技術(shù)成為當(dāng)前VSLAM重點(diǎn)研究方向[42]。同時(shí),也促進(jìn)了多傳感器融合的高精度導(dǎo)航技術(shù)在農(nóng)機(jī)導(dǎo)航領(lǐng)域的應(yīng)用。紅外線、超聲波、激光雷達(dá)等傳感器與視覺(jué)傳感器組合使用的導(dǎo)航定位技術(shù)已經(jīng)廣泛應(yīng)用于農(nóng)業(yè)機(jī)器人、農(nóng)業(yè)無(wú)人機(jī)(Unmanned Aerial Vehicle,UAV)自主定位導(dǎo)航與避障等領(lǐng)域。
Sanchez-Rodriguez等[43]運(yùn)用RGB-D相機(jī)獲取周圍環(huán)境圖像,再通過(guò)超像素分割、平面提取、實(shí)時(shí)映射以及RRT(Rapidly Exploring Random Tree)路徑規(guī)劃算法構(gòu)建3D地圖,在微型飛行器(Micro Aerial Vehicles,MAVs)未知環(huán)境測(cè)試中成功地感知并避免其路徑上的潛在障礙;北京某公司聯(lián)合北航、清華、浙大、哈工大等多所著名高校飛行控制實(shí)驗(yàn)室建立了高校無(wú)人機(jī)教學(xué)實(shí)驗(yàn)室并基于機(jī)器視覺(jué)開發(fā)了無(wú)人平臺(tái)自主SLAM導(dǎo)航避障系統(tǒng),具有立體視覺(jué)、運(yùn)動(dòng)估計(jì)、路徑規(guī)劃、自主避障等功能,讓科研團(tuán)隊(duì)專注于SLAM導(dǎo)航算法的研究;廣州某公司開發(fā)的“天目”無(wú)人機(jī)視覺(jué)系統(tǒng)(XAIRCRAFT “XCope” UAV Vision System)融合了雙目避障與地形視覺(jué)模塊,不但具有了感知環(huán)境位置的能力,還能夠脫離GPS信號(hào)獲取位置與飛行信息,實(shí)現(xiàn)無(wú)人機(jī)全自主飛行控制,徹底解放用戶雙手,大幅提升操作體驗(yàn);大疆農(nóng)業(yè)植保無(wú)人機(jī)T20搭載360°全向數(shù)字雷達(dá)與實(shí)時(shí)圖像監(jiān)控系統(tǒng)及夜間探照燈,能夠全天候感知農(nóng)田環(huán)境。
此外,以中國(guó)北斗衛(wèi)星導(dǎo)航系統(tǒng)(BeiDou Navigation Satellite System,BDS)、美國(guó)GPS、俄羅斯GLONASS、歐盟Galileo為代表的全球?qū)Ш叫l(wèi)星系統(tǒng)(Global Navigation Satellite System,GNSS)為現(xiàn)代農(nóng)業(yè)裝備實(shí)時(shí)定位、路徑規(guī)劃提供了有力的保障[44]。并且,實(shí)時(shí)動(dòng)態(tài)載波相位差分(Real-Time Kinematic,RTK)技術(shù)由基準(zhǔn)站通過(guò)數(shù)據(jù)鏈將載波觀測(cè)值與基站坐標(biāo)及時(shí)傳送到流動(dòng)站,而流動(dòng)站同時(shí)接收衛(wèi)星與基站的載波相位,經(jīng)過(guò)差分處理消除了接收機(jī)誤差與衛(wèi)星信號(hào)延遲誤差的影響,使得基于RTK的定位系統(tǒng)精度可達(dá)厘米級(jí),在與視覺(jué)傳感器融合的農(nóng)機(jī)導(dǎo)航系統(tǒng)中應(yīng)用廣泛[45]。
王東等[46]設(shè)計(jì)了GNSS與視覺(jué)導(dǎo)航融合的山地果園無(wú)人機(jī)植保航跡控制系統(tǒng),采用線性組合算法提取目標(biāo)行作業(yè)區(qū)域,再運(yùn)用最小二乘法對(duì)作業(yè)區(qū)域中心點(diǎn)進(jìn)行擬合,得到果樹行趨勢(shì)線,進(jìn)而獲取視覺(jué)導(dǎo)航偏航角以實(shí)現(xiàn)無(wú)人機(jī)作業(yè)航跡控制,在山地蘋果園試驗(yàn)表明系統(tǒng)誤差約9 cm,滿足山地果園植保作業(yè)要求;李云伍等[47]運(yùn)用RTK-GNSS采集路網(wǎng)信息并對(duì)路口區(qū)域?qū)崟r(shí)定位,利用機(jī)器視覺(jué)識(shí)別、提取田間道路路徑跟蹤線,為非路口區(qū)域?qū)Ш?,在直線路徑、多曲率復(fù)雜路徑以及地形起伏路徑測(cè)試中自主行駛軌跡與實(shí)際道路中線的平均偏差分別為3.1 cm、6.9 cm、9.2 cm,滿足丘陵山區(qū)轉(zhuǎn)運(yùn)車自主行駛的安全要求。
與人類視覺(jué)相比,機(jī)器視覺(jué)具有較寬的光譜響應(yīng)范圍,還能夠長(zhǎng)時(shí)間穩(wěn)定作測(cè)量、分析、識(shí)別等任務(wù)。在精確度、速度、適應(yīng)性、客觀性、重復(fù)性、可靠性、效率等方面均具有一定的優(yōu)勢(shì),見表1。
表1 人類視覺(jué)與機(jī)器視覺(jué)優(yōu)劣對(duì)比
然而,機(jī)器視覺(jué)也受到硬件設(shè)備性能、圖像分析算法準(zhǔn)確度與效率以及網(wǎng)絡(luò)傳輸速率的限制使得系統(tǒng)實(shí)時(shí)性、穩(wěn)定性難以保證。同時(shí),還面臨著應(yīng)用對(duì)象復(fù)雜多樣,難以開發(fā)通用視覺(jué)系統(tǒng)使得每一類目標(biāo)都需要單獨(dú)開發(fā)視覺(jué)系統(tǒng),造成成本居高不下等問(wèn)題。此外,農(nóng)業(yè)場(chǎng)景視覺(jué)系統(tǒng)在穩(wěn)定性、魯棒性、計(jì)算能力、理論創(chuàng)新等方面還存在較大的局限性,已成為阻礙機(jī)器視覺(jué)在農(nóng)業(yè)生產(chǎn)中應(yīng)用的關(guān)鍵瓶頸。
農(nóng)業(yè)場(chǎng)景光照不均、風(fēng)速變化大、自然光照強(qiáng)度隨時(shí)間變化大且色溫不可控與道路坑洼帶來(lái)的機(jī)械振動(dòng)等因素都將導(dǎo)致視覺(jué)系統(tǒng)成像質(zhì)量下降,進(jìn)而影響了視覺(jué)系統(tǒng)的準(zhǔn)確性、魯棒性、穩(wěn)定性。此外,視覺(jué)系統(tǒng)通常要求實(shí)時(shí)反饋?zhàn)R別、檢測(cè)結(jié)果,以便執(zhí)行機(jī)構(gòu)及時(shí)做出相應(yīng)的執(zhí)行動(dòng)作。然而,當(dāng)前視覺(jué)檢測(cè)設(shè)備的采集速度、處理速度較慢,加之深度學(xué)習(xí)類算法增大了計(jì)算量,使得系統(tǒng)難以勝任復(fù)雜場(chǎng)景對(duì)系統(tǒng)實(shí)時(shí)性的要求??偠灾?,視覺(jué)系統(tǒng)在準(zhǔn)確性、實(shí)時(shí)性、魯棒性、穩(wěn)定性、可靠性等方面還難以適應(yīng)復(fù)雜多變的農(nóng)業(yè)戶外場(chǎng)景。
支持機(jī)器視覺(jué)發(fā)展的核心基礎(chǔ)是硬件設(shè)備的計(jì)算能力與軟件的關(guān)鍵算法。計(jì)算能力方面,當(dāng)前嵌入式視覺(jué)系統(tǒng)存在芯片計(jì)算能力不足、運(yùn)行速度較慢、存儲(chǔ)空間有限等問(wèn)題,并不能滿足大規(guī)模矩陣運(yùn)算、神經(jīng)網(wǎng)絡(luò)迭代運(yùn)算等較大運(yùn)算量的算法。雖然,國(guó)際機(jī)器視覺(jué)市場(chǎng)已經(jīng)形成了以基恩士、康耐視、??怂箍怠⑦_(dá)爾薩等為代表的核心部件制造商,以基恩士、歐姆龍、松下、NI等為代表的核心部件與系統(tǒng)集成商的全產(chǎn)業(yè)鏈格局。但是,要突破硬件設(shè)備性能限制,涉及到材料、半導(dǎo)體、集成電路、傳感器等行業(yè)的創(chuàng)新突破,短期內(nèi)難以有較大的研究進(jìn)展。
算法方面,得益于深度學(xué)習(xí)的出現(xiàn),進(jìn)一步推動(dòng)了機(jī)器視覺(jué)快速發(fā)展。但是,深度學(xué)習(xí)是建立在大數(shù)據(jù)、大規(guī)模計(jì)算資源驅(qū)動(dòng)下的基礎(chǔ)理論技術(shù)突破,而不是理論方法上的突破。并且,深度學(xué)習(xí)過(guò)度依賴大量的標(biāo)注數(shù)據(jù),耗費(fèi)了研究人員大量的時(shí)間,自身也遇到了發(fā)展瓶頸。并且,計(jì)算機(jī)視覺(jué)奠基人Alan L.Yuille認(rèn)為深度學(xué)習(xí)在打破機(jī)器視覺(jué)的發(fā)展面臨瓶頸中起到的作用有限,需要找到新的突破口。
由此可見,不論是硬件設(shè)備計(jì)算能力方面,還是在軟件核心算法方面,機(jī)器視覺(jué)或均已經(jīng)面臨發(fā)展的瓶頸。
機(jī)器視覺(jué)項(xiàng)目相較于其他AI領(lǐng)域的項(xiàng)目更容易落地,曾掀起一場(chǎng)創(chuàng)業(yè)熱潮。國(guó)際機(jī)器視覺(jué)品牌已經(jīng)超過(guò)200個(gè),產(chǎn)業(yè)鏈也可以清楚的分為元器件生產(chǎn)商、底層開發(fā)商、二次開發(fā)商、產(chǎn)品代理商以及應(yīng)用客戶5個(gè)部分。而中國(guó)機(jī)器視覺(jué)企業(yè)多集中在產(chǎn)業(yè)中下游,且體量偏小。雖然在細(xì)分領(lǐng)域已經(jīng)涌現(xiàn)出中國(guó)“CV四小龍”,同時(shí),國(guó)產(chǎn)視覺(jué)核心部件正在快速崛起;中游系統(tǒng)集成與整機(jī)裝備商也有100多家,能夠?yàn)楦餍袠I(yè)提供視覺(jué)方案。但是,從整體表現(xiàn)來(lái)看,在產(chǎn)業(yè)鏈上游國(guó)內(nèi)企業(yè)競(jìng)爭(zhēng)力較弱,工業(yè)相機(jī)以歐美進(jìn)口為主;高端工業(yè)鏡頭主要依賴于德國(guó)、日本、美國(guó)等企業(yè);中游系統(tǒng)集成與裝備制造企業(yè)多直接采購(gòu)視覺(jué)軟件、傳感器、驅(qū)動(dòng)控制系統(tǒng)等核心零件再進(jìn)行二次開發(fā)與組裝;核心底層系統(tǒng)開發(fā)基本被歐美、日本等企業(yè)壟斷。
此外,與美國(guó)、日本、德國(guó)等發(fā)達(dá)國(guó)家相比,中國(guó)在技術(shù)掌握能力、產(chǎn)品應(yīng)用程度、專業(yè)人才儲(chǔ)備以及高水平學(xué)者集中的研究機(jī)構(gòu)數(shù)量等方面還存在較大的差距。中國(guó)企業(yè)大多數(shù)是從高校實(shí)驗(yàn)室發(fā)展起來(lái)的,核心技術(shù)集中在幾個(gè)熱門研究領(lǐng)域,進(jìn)而導(dǎo)致創(chuàng)業(yè)后業(yè)務(wù)線也有很大一部分的重合。加之,機(jī)器視覺(jué)技術(shù)的人才流動(dòng),導(dǎo)致了各公司核心技術(shù)同質(zhì)化現(xiàn)象嚴(yán)重、創(chuàng)新能力不足。并且,AI龍頭企業(yè)“CV四小龍”“海大宇”等傳統(tǒng)巨頭以及百度、阿里巴巴、騰訊等互聯(lián)網(wǎng)巨頭紛紛布局安防、汽車、金融、手機(jī)、新零售、無(wú)人工廠、智慧農(nóng)業(yè)等場(chǎng)景,使得各公司業(yè)務(wù)高度重疊,核心技術(shù)同質(zhì)化現(xiàn)象嚴(yán)重,視覺(jué)系統(tǒng)市場(chǎng)已成為一片紅海。
據(jù)清華—中國(guó)工程院知識(shí)智能聯(lián)合研究中心與清華大學(xué)人工智能研究院調(diào)研人工智能學(xué)科20個(gè)子領(lǐng)域(計(jì)算機(jī)視覺(jué)、機(jī)器人、自然語(yǔ)言處理、語(yǔ)音識(shí)別、知識(shí)工程、機(jī)器學(xué)習(xí)等)全球最具影響力學(xué)者與高被引學(xué)者數(shù)量集中的研究機(jī)構(gòu)發(fā)現(xiàn):中國(guó)在高水平學(xué)者數(shù)量上僅次于美國(guó),但是在高水平學(xué)者集中的研究機(jī)構(gòu)方面僅清華大學(xué)上榜,其余均為美國(guó)機(jī)構(gòu)(Google、Microsoft、MIT、Facebook、Carnegie Mellon University、University of California Berkeley、University of Washington、Stanford University、Intel),這在一定程度上也限制了機(jī)器視覺(jué)在中國(guó)的發(fā)展。
機(jī)器視覺(jué)市場(chǎng)還在不斷擴(kuò)大,新標(biāo)準(zhǔn)、新技術(shù)也正在以前所未有的速度發(fā)布,智慧農(nóng)業(yè)、無(wú)人農(nóng)場(chǎng)、跨行業(yè)協(xié)作、高光譜應(yīng)用都將促進(jìn)機(jī)器視覺(jué)技術(shù)的進(jìn)一步應(yīng)用。未來(lái),在農(nóng)業(yè)生產(chǎn)領(lǐng)域還是將集中在關(guān)鍵技術(shù)突破、多傳感器融合、3D視覺(jué)應(yīng)用以及與5G移動(dòng)通信技術(shù)深度融合方面。
3D視覺(jué)技術(shù)指的是獲取或重構(gòu)目標(biāo)三維圖像的方法,通常分為基于RGB-D深度相機(jī)(結(jié)構(gòu)光或TOF)與基于三角定位原理的雙目立體視覺(jué)兩類。將傳統(tǒng)的二維圖像升級(jí)到了具有更多信息的三維圖像或許是機(jī)器視覺(jué)突破發(fā)展瓶頸的重要方向。3D圖像帶來(lái)的信息顛覆了2D圖像感知世界的方式,使得獲取的圖像具備更豐富的信息,且消除了外交環(huán)境與復(fù)雜光線的影響。不但穩(wěn)定性較好,還能提升用戶體驗(yàn)與系統(tǒng)安全性。在智能安防、工業(yè)測(cè)量、汽車電子、新零售、智慧農(nóng)業(yè)等領(lǐng)域發(fā)揮著重要作用,堪稱賦能產(chǎn)業(yè)創(chuàng)新的最大推力。2D到3D的轉(zhuǎn)變或?qū)⒊蔀槔^黑白到彩色、低分辨率到高分辨率、靜態(tài)圖像到動(dòng)態(tài)影像后的第四次革命。
中國(guó)3D視覺(jué)獨(dú)角獸奧比中光是國(guó)內(nèi)唯一實(shí)現(xiàn)量產(chǎn)的結(jié)構(gòu)光3D傳感器攝像頭企業(yè),與蘋果、微軟等全球巨頭并駕齊驅(qū)。其3D視覺(jué)模組、算法、配套的解決方案可廣泛適配于多品牌、多形態(tài)的智能終端,正逐步發(fā)展開拓農(nóng)業(yè)機(jī)器人自主導(dǎo)航、無(wú)人機(jī)、AR/VR、植物生長(zhǎng)信息監(jiān)測(cè)、農(nóng)產(chǎn)品檢測(cè)等領(lǐng)域,勢(shì)必會(huì)助力農(nóng)業(yè)生產(chǎn)方式的轉(zhuǎn)型升級(jí),為農(nóng)業(yè)生產(chǎn)帶來(lái)一場(chǎng)以3D視覺(jué)為核心技術(shù)的農(nóng)業(yè)生產(chǎn)革命。
5G移動(dòng)通信技術(shù)解決了機(jī)器視覺(jué)實(shí)時(shí)性問(wèn)題,使得高清圖像實(shí)時(shí)傳輸、多機(jī)協(xié)同集群作業(yè)、高清視頻處理成為了可能。2019年9月,海爾聯(lián)合華為、中國(guó)移動(dòng)、薈萃視覺(jué)共同發(fā)布全球首個(gè)5G+機(jī)器視覺(jué)解決方案并在海爾冰箱互聯(lián)工廠率先落地應(yīng)用。搶先實(shí)現(xiàn)5G機(jī)器視覺(jué)云化、5G智能設(shè)備管控、5G+AR遠(yuǎn)程運(yùn)維指導(dǎo)等創(chuàng)新應(yīng)用。2020年3月,華為發(fā)布了視覺(jué)計(jì)劃,將“華為安防”更名為“華為機(jī)器視覺(jué)”,布局了5G在機(jī)器視覺(jué)領(lǐng)域的應(yīng)用。5G與機(jī)器視覺(jué)深度融合解決了視覺(jué)系統(tǒng)海量數(shù)據(jù)實(shí)時(shí)傳輸,滿足多相機(jī)、多場(chǎng)地協(xié)同作業(yè)的要求。賦能智能制造、智能物流、無(wú)人超市、無(wú)人農(nóng)場(chǎng)等行業(yè),同時(shí)也賦予了我們更多的想象力。
在智慧農(nóng)業(yè)方面,融合5G移動(dòng)通信技術(shù)的視覺(jué)系統(tǒng)具備實(shí)時(shí)通信、實(shí)時(shí)數(shù)據(jù)傳輸?shù)墓δ?,使得農(nóng)業(yè)裝備遠(yuǎn)程作業(yè)、協(xié)同作業(yè)、實(shí)時(shí)監(jiān)測(cè)等現(xiàn)代農(nóng)業(yè)作業(yè)方式得到進(jìn)一步應(yīng)用,為實(shí)現(xiàn)現(xiàn)代農(nóng)業(yè)裝備高度自動(dòng)化、智能化甚至無(wú)人化提供了技術(shù)支撐。進(jìn)而,加速無(wú)人農(nóng)場(chǎng)的建設(shè),使其有望5~10年內(nèi)大面積推廣,促進(jìn)智慧農(nóng)業(yè)項(xiàng)目落地。
農(nóng)業(yè)場(chǎng)景視覺(jué)系統(tǒng)雖然已經(jīng)涉及農(nóng)業(yè)生產(chǎn)全過(guò)程,但是,單一的視覺(jué)算法難以滿足復(fù)雜多變的農(nóng)業(yè)戶外場(chǎng)景對(duì)視覺(jué)系統(tǒng)的要求。多傳感器融合的視覺(jué)系統(tǒng)正好解決了單一視覺(jué)系統(tǒng)難以適應(yīng)變化場(chǎng)景的要求,在農(nóng)業(yè)場(chǎng)景中已經(jīng)有一定程度的應(yīng)用。在農(nóng)作物病蟲草害與生長(zhǎng)信息監(jiān)測(cè)方面,融合高光譜信息的視覺(jué)系統(tǒng)得到廣泛應(yīng)用;在作物生長(zhǎng)信息監(jiān)測(cè)與產(chǎn)量估計(jì)方面,融合空間遙感、無(wú)人機(jī)多光譜成像技術(shù)以及基于RGB-D深度相機(jī)的3D視覺(jué)系統(tǒng)正在逐步應(yīng)用;在果蔬識(shí)別定位與采摘方面,基于果蔬成熟度、表面缺陷檢測(cè)技術(shù)的視覺(jué)系統(tǒng)也正在崛起;在種子產(chǎn)前檢測(cè)與果蔬分級(jí)方面,融合近紅外光譜、機(jī)器嗅覺(jué)、聲學(xué)以及核磁共振等先進(jìn)信息技術(shù)的視覺(jué)系統(tǒng)在區(qū)分水果成熟度、含糖量、表面缺陷等外觀與內(nèi)在品質(zhì)方面正逐步替代傳統(tǒng)機(jī)械篩選、分級(jí)方法;在農(nóng)業(yè)機(jī)器人或無(wú)人機(jī)定位導(dǎo)航方面,基于RTK技術(shù)的視覺(jué)系統(tǒng)得到廣泛應(yīng)用。此外,融合光譜信息的視覺(jué)系統(tǒng)以及視覺(jué)SLAM系統(tǒng)已經(jīng)成為了學(xué)術(shù)界研究的熱點(diǎn),并且,圍繞農(nóng)業(yè)場(chǎng)景的應(yīng)用研究已經(jīng)取得了一定的成果。未來(lái),多傳感器融合的視覺(jué)系統(tǒng)勢(shì)必會(huì)得到進(jìn)一步應(yīng)用,進(jìn)而推動(dòng)機(jī)器視覺(jué)行業(yè)的發(fā)展。
機(jī)器視覺(jué)技術(shù)在農(nóng)業(yè)生產(chǎn)中的應(yīng)用涉及到農(nóng)業(yè)生產(chǎn)的各個(gè)環(huán)節(jié),在農(nóng)業(yè)裝備定位導(dǎo)航、農(nóng)作物種子質(zhì)量檢測(cè)與篩選、植物病蟲害監(jiān)測(cè)、作物生長(zhǎng)信息監(jiān)測(cè)、果蔬品質(zhì)檢測(cè)與分級(jí)等方面發(fā)揮著“眼睛”的功能與作用,推動(dòng)了農(nóng)業(yè)自動(dòng)化、智能化發(fā)展。當(dāng)前,中國(guó)不論是基于機(jī)器視覺(jué)技術(shù)的智能農(nóng)業(yè)裝備,還是應(yīng)用于農(nóng)業(yè)生產(chǎn)的視覺(jué)系統(tǒng)在自動(dòng)化水平、作業(yè)精度、可靠性等方面還與美、日、德等發(fā)達(dá)國(guó)家存在一些差距,說(shuō)明中國(guó)的農(nóng)業(yè)智能化之路還有很大的晉升空間。同時(shí),中國(guó)也成為繼美國(guó)、日本之后的全球第三大應(yīng)用市場(chǎng),相信隨著計(jì)算機(jī)科學(xué)、機(jī)器學(xué)習(xí)等信息技術(shù)的發(fā)展,機(jī)器視覺(jué)技術(shù)也將不斷完善,在農(nóng)業(yè)生產(chǎn)中的應(yīng)用也將進(jìn)一步延伸。
中國(guó)農(nóng)機(jī)化學(xué)報(bào)2021年3期