• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    AR輔助的基于HOG-SVM移動水稻病害智能分析與識別系統

    2021-07-06 12:03:16徐識溥李琳一賈金原王運圣
    圖學學報 2021年3期
    關鍵詞:病斑病害水稻

    徐識溥,李琳一,賈金原,王運圣,劉 暢,劉 勇,馬 超

    AR輔助的基于HOG-SVM移動水稻病害智能分析與識別系統

    徐識溥1,2,李琳一1,2,賈金原3,王運圣1,2,劉 暢4,劉 勇1,2,馬 超1,2

    (1. 上海市農業(yè)科學院農業(yè)科技信息研究所,上海 201403;2. 上海數字農業(yè)工程與技術研究中心,上海 201403;3. 同濟大學軟件學院,上海 201804;4. 南昌航空大學信息工程學院,江西 南昌 330063)

    針對傳統病害識別系統存在拍攝環(huán)境要求高、樣本數量要求多的缺點,設計了一套增強現實(AR)輔助的基于方向梯度直方圖(HOG)-支持向量機(SVM)的識別方案。在較少素材量的前提下,由于診斷系統中引入AR技術輔助拍攝,在訓練時長、識別速度以及平均精度上優(yōu)于其他方法。以安卓終端為例,實現了AR輔助基于HOG-SVM的移動水稻病害識別系統,能夠快速識別病害指導用戶提高拍攝圖片的質量。通過對批量圖片進行病斑識別,分別從病害準確率、病害葉片檢出率和病斑定位準確率3方面對病斑識別結果進行分析,最終得出,AR技術與基于HOG-SVM快速識別方案的結合能夠在小訓練樣本前提下給出更快的訓練結果和識別結果,且平均精度高于YOLO v3,SSD 512和Fast R-CNN等深度模型,是一種比較合適目前移動端病害識別的方法。

    增強現實;方向梯度直方圖;支持向量機;水稻;病害識別

    水稻是我國重要的糧食作物,對農業(yè)經濟有巨大影響。病害是威脅水稻產量和品質的重要因素,及時發(fā)現和準確判斷病害種類與部位,采取相應的防治措施,是減少病害損失的重要途徑。但植保專業(yè)之外的人員很難在田間準確識別病蟲害[1],常常因錯過控制期或農藥使用不當造成農藥殘留超標而造成經濟損失。信息技術的發(fā)展和基于機器視覺的病害診斷為該問題提供了解決方案。機器視覺技術結合智能移動終端,通過采集田間水稻病蟲害圖片并對圖片進行處理和識別,輔助進行病害診斷并提供合適防治方案,能最大程度提高病害綜合防治效果[2]。

    增強現實(augmented reality,AR)技術是將計算機生成的圖形、文本注釋和其他虛擬信息有機地融合到用戶所看到的真實世界場景中,從而增強或擴展人類視覺系統的一種方法[3-10]。通俗地說,當用戶打開AR應用程序時,可看到攝像機捕捉到的真實世界的視頻流。同時,在視頻流中,還可以看到相關的虛擬圖形和文本信息疊加在相關對象上,從而使現實世界更加豐富多樣。人與現實環(huán)境的互動性得到改善,智能手機等移動終端的發(fā)展為AR應用提供了條件。

    基于以上2點,針對目前傳統的移動式大米病害識別系統信息顯示不強的缺點,本文以安卓智能終端為例,實現AR輔助提高拍攝質量的水稻病害識別系統。

    1 研究背景

    AR在地產、教育、旅游、博物館等方面有諸多成熟應用,但在農業(yè)上的應用大部分還處于摸索階段?,F階段主要應用是在農業(yè)科普、農業(yè)生產中的規(guī)劃播種、作物培育等方面。病蟲害或洪災爆發(fā)時所帶來的影響可利用AR/VR與人工技術模擬出來,進而找到最佳解決方案;規(guī)劃播種方面,也可利用AR技術在田間選擇調查點并進行實地調查,利用3S技術和AR技術方便地獲取病害發(fā)生地的環(huán)境信息。操作員只需到達一個相對高聳的區(qū)域,用APP掃描,就可獲得拍攝地點的實際面積、溫度變化曲線、降水等值線、氧氣含量等。

    AR技術通過對種植環(huán)境的實時控制,可有效輔助作物生長,并為農民提供夜間田間溫差、土壤濕度等。通過在種植環(huán)境中設置相關傳感器,計算機可以實時監(jiān)測作物的環(huán)境信息。基于AR技術的視頻圖像監(jiān)控應用可以為用戶提供植物或作物歷史、當前和未來生長細節(jié)等服務。如用戶手持便攜式AR應用設備(如智能手機)對一株植物的葉子進行拍照,即可判斷植物現在是否健康。若發(fā)生病蟲害,可做出病蟲害判定,并通過文字、語音、視頻等方式為用戶推薦有效的防治方法,從而達到用戶及時發(fā)現和處理病蟲害的目的,提高工作效率。如果用戶繼續(xù)上傳病蟲害防治信息(文字、圖片等)到水稻病蟲害數據庫,當其他用戶遇到相應的病蟲害問題時,可以及時有效地進行防治,AR應用的經驗也在不斷擴大。

    水稻病害AR識別系統的關鍵技術是識別病害并在圖片中定位到病斑所在的位置。目前基于圖像識別的田間作物病害識別系統大多是基于全圖或根據圖像處理提取特征信息后的分類系統。這些方法雖然考慮了作物病害的主要特征,且隨著識別算法的改進在準確性上有很大的提高,但僅從一個角度的照片或一種作物器官上去識別田間病害不符合人類認識客觀世界的規(guī)律,因而本文采用AR技術對傳統圖像識別流程進行改進,完成由智能終端直接給出識別結果的生硬識別方式到交互式提示逐步確診的新型田間病害識別方式。

    要完成AR與田間病害識別的結合,需要考慮識別算法的效率、疾病診斷專家的知識以及如何從區(qū)域癥狀到個體植物癥狀再到單個植物局部癥狀的完整邏輯。目前,葉類病害的圖像識別方法主要有2種:①基于圖像分割提取病斑特征;②基于弱機器學習的分類識別和基于深度學習的內容識別[11-16]。基于圖像分割的識別通過對含有病變圖像的預處理、分割和特征提取來實現分類識別。常用的方法有生長法[17]、自適應閾值法[18]、無監(jiān)督顏色聚類法[19]、水平集法[20]、基于形態(tài)學的方法[21]、監(jiān)督顏色紋理法和分水嶺算法[22-23]。這種方法主要是通過病斑顏色、大小和形狀的不同進行識別不同的病害。圖像采集時光線要穩(wěn)定,拍攝角度合適,拍攝距離一致,通常情況下,需在穩(wěn)定的實驗室環(huán)境中診斷,而在野外很難完成。另外,該方法需要大量的疾病先驗知識來預先手動指定參數,增加了系統的開發(fā)難度,使得基于圖像分割的識別程序在實際應用中表現不佳。近年來,比較流行的基于深度學習的識別方法在很大程度上解決了基于圖像分割識別方法的相關問題,其可以自己總結識別內容的特征,更適合于復雜環(huán)境的識別。基于深度學習的病斑識別的準確性與快速性完全取決于初始訓練素材的數量和質量,另疾病種類繁多,生產中各種疾病的發(fā)生頻率差異很大,在非常短的時間內建立大量疾病庫的樣本非常困難。即使有大量樣本圖像,對其進行手動標記和分類也意味著大量工作。這是基于深度學習的農作物病害識別領域的最大瓶頸。此外,盡管大型技術公司為Caffe,MXNet,Torch,TensorFlow和其他深度學習框架做出了貢獻,簡化了應用程序閾值,但若沒有專業(yè)指導,普通用戶仍難以開發(fā)或修改識別模型。

    針對上述問題,本文提出一種基于方向梯度直方圖(histograms of oriented gradient,HOG)特征和支持向量機(support vector machine,SVM)與AR相結合的水稻病害檢測方法。該方法利用水稻葉片病斑在形狀特征上具有一定的共性。例如條紋病可以視為具有一定條形結構的區(qū)域就是病斑,水稻稻瘟病早期為葉片上初生黃白小斑點等。本文方法結合HOG特征可以容許目標物體具有局部的細微變化特性,以消除田間拍攝造成的病斑圖像中輪廓細微變化對識別造成的影響。將病害圖片中的病斑作為識別目標,可將一張病害圖片分割為多個訓練素材,降低對訓練圖片數量級的要求。AR輔助的基于HOG-SVM的田間水稻病害圖像識別方法是一種易開發(fā)、訓練簡便、樣本數量要求低、適應田間復雜環(huán)境下應用的基于病斑圖像識別的作物病害診斷方法。

    2 AR技術在水稻病害識別系統的關鍵應用

    在水稻病害識別系統中,考慮到常見水稻病斑特性,本方案采用AR輔助的基于HOG-SVM進行初步識別,具體實現流程如圖1所示。

    圖1 系統流程圖

    2.1 視頻的預處理

    本試驗采取開放的自然環(huán)境拍攝,最終照片會有很多的干擾因素,如亮斑、噪點以及曝光不足等,良好的預處理可以保證輸入照片的規(guī)格統一。由于最終判斷是基于HOG特征的,適當地降低原始圖像的清晰度不僅可以減輕計算機的計算負擔,且有利于最終的分割和識別,病斑情況的對比如圖2所示。總之圖像預處理的過程有效強調了病斑識別的有效部分,抑制無效的部分,是一個基礎但非常重要的步驟。本文的預處理主要步驟包含亮度均衡,以及中值濾波等。

    圖2 預處理前后病斑對比圖

    亮度均衡的基本思想是將原始圖像的直方圖轉換為平衡的分布,從而增加像素灰度值的動態(tài)范圍并增強圖像的整體對比度。中值濾波器是一種基于分類統計理論可以有效抑制噪聲的非線性信號處理技術。中值濾波的基本原理是使用數字圖像或序列中某個點的值以及該點附近的每個點的值,而不是中值,周圍的像素值接近真實值,從而消除孤立的噪聲點。

    2.2 HOG-SVM識別模型的建立

    視頻預處理后的操作是基于HOG-SVM的識別模型。通過計算圖像局部區(qū)域HOG進行構造特征,SVM是一類廣義線性分類器,以監(jiān)督學習的方式對數據進行二值分類。HOG特征與SVM分類器相結合在圖像識別中得到了廣泛地應用[24-28],該方法由法國Dalal研究所于2005年提出,其在行人檢測方面取得了很大的成功,隨后逐漸應用于各種目標檢測[17-19]。由于在粗、細2個方向進行采樣,并進行了較強的局部光學歸一化處理,因此被檢測的對象只要具有相對規(guī)則的形狀,HOG特征就能更好地描述目標對象的信息。

    本文中以大田水稻為試驗對象,利用APP直接從田間獲得病斑識別的原始訓練素材,并以jpg格式存儲圖像。圖像采集的主要原理是拍攝清晰的水稻疫病點圖片,將訓練樣本中的病損切口手工作為訓練陽性樣本,共5種疾病3 300片,從非病損部分切取陰性樣本,即1 000片正常葉片和背景。

    HOG特征是一種低級視覺特征,主要描述圖像內容的邊界。因此,用于提取水稻病害特征的訓練圖像必須能夠完整地描述病變,換言之,每個訓練圖像均需要包含一個可以完全識別的疾病點。病變材料的原始圖像通常是通過手動裁剪和批量修改獲得的。訓練樣本一般包括陽性樣本和陰性樣本,良好的訓練圖集是后續(xù)分類器獲得更好性能的必要條件。培訓圖集的樣本數量不限,應涵蓋實際應用過程中可能出現的所有情況,即使用培訓樣本的場景與最終應用場景相同。本文的目的是為了識別不同的水稻病斑,并進行分類。因此在實例中,以目標識別的病害圖像作為正樣本,其他為陰性樣本。完整的特征區(qū)域獲取以及最終入庫特征,如圖3所示。

    圖3 特征提取過程與結果

    水稻病害包含較多的紋理信息,以像素為單位進行分析將會損失較多的紋理信息。如圖3所示,HOG特征的提取中必須手動選取感興趣區(qū)域,并將該區(qū)域當作像素分塊可分析出更多的紋理信息,用于下一步的分類識別。其主要優(yōu)勢有3點:①利用HOG特征提取時框選區(qū)域通常為標準矩形且邊長一般為32像素,在獲取HOG特征的同時可以很好地分析紋理信息,獲取的信息更加全面,更有助于分類識別;②灰度共生矩陣等紋理特征的提取如同HOG特征提取,需要經過灰度化,2種特征提取的部分步驟可以完美結合;③病斑多以斑塊特征存在,分塊判斷病斑的概率更符合現場實際要求。

    HOG特征檢測算法的主要思想是通過梯度或邊緣的方向密度分布來描述圖像中局部目標的紋理和形狀特征。其是用來描述圖像局部梯度方向和梯度強度分布特征的描述符,因為提取的特征具有很強的魯棒性,常被用來提取圖像的局部特征。

    然而傳統的HOG特征檢測算法只計算圖像的水平和垂直梯度信息,不能有效地反映病變的信息。本文認為,AR技術通常需要拍攝運動中的物體,且視場大小會經常改變。利用Gabor濾波器來考慮多個方向梯度的信息,結合HSV和LAB顏色空間轉換提取病變的顏色信息,并對傳統的梯度方向進行修正。HOG特征檢測算法如圖4所示。首先在病變圖像中選擇感興趣區(qū)域,進行圖像歸一化和梯度計算,通過Gabor濾波結合顏色空間轉換等方法得到輸出的HOG特征向量,最后得到特征向量。

    SVM的思想是找到滿足分類要求的最優(yōu)線性分類超平面,同時保證分類精度。本文完整的訓練及識別流程如圖5所示。

    2.3 AR技術在移動端水稻病害識別系統的實現

    以Android操作系統為例,實現AR輔助的基于HOG-SVM的移動水稻病害識別的測試版,分別對5種水稻病害,即條紋葉枯病、紋枯病、稻瘟病、霜霉病以及赤枯病識別結果進行評價。

    完整軟件界面如圖6所示。用戶啟動APP后單選“+”按鈕進入AR拍攝模式。若實時檢測出現橙色對話框,即告知用戶“未檢測出病害”,用戶可關閉攝像頭結束檢測,同時提示用戶可實時拉近或調整角度后連續(xù)檢測。若實時檢測出病害區(qū)域則跳出紅色方框,并標注出病害位置。單擊紅色框區(qū)域,APP跳轉至對應病害的防治介紹。

    圖5 病斑檢測流程圖

    圖6 軟件操作界面

    2.4 AR輔助的基于HOG-SVM識別方法與其他算法比較

    本文在研究一套實時田間病害診斷應用方法時,需考慮較少訓練素材下如何提高識別率,及方法的效率和所占系統資源等問題。

    AR輔助的基于HOG-SVM的方法將5種病害分別切割出包含不同病斑的特征庫,使用相同的素材分別用YOLO v3,SSD300及Fast R-CNN 3種識別模型進行對比試驗。算法比較環(huán)境見表1。

    表1 算法測試環(huán)境參數表

    其中,YOLO v3,SSD 512及Fast R-CNN均為深度學習模型,參數選擇會對訓練時間有很大影響且訓練時長遠遠大于AR-HOG-SVM的方法。各科算法性能見表2。

    表2 算法性能統計表

    2.5 AR輔助的基于HOG-SVM方法的識別結果分析

    本文方法對田間病害圖像的采集沒有嚴格的標準和規(guī)范,用于病斑識別的特征信息一般比較復雜,如圖7所示。

    圖7 病斑監(jiān)測結果示意圖

    由圖7可以看出,不同類型疾病的病變特點有很大差異,很難用單一的指標來綜合診斷評價病變,故本文利用基于AR輔助的多特征組合進行病斑識別。

    評價結果見表3,其中,病斑圖片數為測試圖片個數,實際病葉數為病斑圖片中包含的病葉總數,檢測到的圖片數為圖像分類結果的個數,檢測到的葉子數是系統中的葉子數,檢測數是系統給出的檢測結果。具體計算為

    表3 AR輔助的基于HOG-SVM的病斑識別結果

    由表3可知,通過對可能存在病斑的圖像進行AR輔助后,識別率提高非常明顯,主要表現在3個方面:

    (1) 病害識別準確率。本文目標為實現移動端的水稻病害識別系統,檢測出圖片內包含病害的HOG特征,并判定該圖片內的作物患有該病害。實驗結果表明,5種病害的識別率平均達到86.8%,其中由低到高排序霜霉病74%、枯紋病86%、條紋葉枯病88%、赤枯病92%、稻瘟病94%,由此可知本文方法可以對水稻病害進行識別。

    (2) 病葉檢出率。如圖4所示,由于水稻病害的特點以及AR-HOG-SVM的特性會發(fā)生同一得病葉片多次被識別命中的情況。統計圖片中實際水稻葉片數量以及檢測命中的葉片數發(fā)現,若今后可以分析出圖片內葉片數量,則該指標可較好地用于病害程度的評估。

    (3) 病斑定位正確率。病斑定位正確率會與用戶體驗相關,較高的定位率與輔助AR手段能夠給用戶更專業(yè)的體驗。病斑提取正確率是本文方法對圖片內正確命中病斑區(qū)域與全部病斑區(qū)域的比值,對應的結果為病斑識別正確率。表現最優(yōu)的是水稻赤枯病,病斑定位正確率為91.67%,其余4種病害也在86%以上,表明可較好地用于一些形態(tài)特征較明顯的病斑識別與定位。

    3 實驗對比分析

    AR的核心功能為識別視頻內容后將文字、圖片或三維體信息疊加到視頻輔助人類理解視頻內容,其中圖像識別功能可分為基于傳統圖像特征提取識別與基于深度學習的圖片內容識別。本文強調基于移動終端的水稻病害識別,這種應用場景下如果采用基于圖像特征提取的識別技術,因為存在拍攝設備無法定型、拍攝環(huán)境無法恒定、拍攝角度無法固定等問題,無論從形態(tài)學特征以及色彩特征上均很難在統一的標準下進行預處理。

    本文研究最終目的為實現一款移動端的田間水稻識別系統,且從素材圖像中獲取HOG特征和基于深度學習的圖像打標操作基本一致。所以本研究僅從訓練時長、識別速度(圖片和視頻)、檢出結果、平均精度4個指標討論本方案的優(yōu)劣。

    (1) 訓練時長。本文AR-HOG-SVM屬于淺層機器學習模型,3 300張素材提取HOG特征以及SVM訓練時長小于10 s,遠遠小于YOLO v3,SSD 512,Fast R-CNN等深度學習模型。

    (2) 識別速度。經4種方案訓練后,單機對250張測試圖進行驗證,統計并求平均速度。AR-HOG- SVM最快僅37 ms,Fast R-CNN次之157 ms,繼移植移動端后基于視頻進行識別也驗證了該結果,YOLO v3與SSD 512由于識別速度較慢均產生了延時現象。AR-HOG-SVM是最適合的一種。

    (3) 檢出結果。良好的用戶體驗是驗證一個系統優(yōu)劣的重要指標,雖然檢出結果無法與平均精度等指標來衡量算法,且由于無法給出結果也很容易給用戶造成程序不在運行的錯覺。AR-HOG-SVM的方案對250張測試圖給出了最多的216張的回應,可以良好的與用戶互動。

    (4) 平均精度。其是衡量識別算法的重要指標,在相同且較小數量訓練集的前提下,AR-HOG-SVM方案的平均精度為89%,大于YOLO v3,SSD 512和Fast R-CNN方案。此結果說明2點:本次識別的5種水稻病害存在形狀上的鮮明差異,比較適合HOG特征分類。樣本數量偏小,未發(fā)揮YOLO v3,SSD 512, Fast R-CNN3種模型物體識別的性能。

    綜上,AR-HOG-SVM在小訓練樣本前提下能給出更快的訓練結果和識別結果,且平均精度也高于YOLO v3,SSD 512和Fast R-CNN等深度模型,是一種較合適目前移動端病害識別的方法。

    4 結 論

    AR技術與診斷專家系統的結合使疾病識別更加直觀,改善了人與現實環(huán)境的交互作用。本文通過利用AR輔助對水稻病害進行分析與識別,通過實驗最終顯著提高了病害識別率,這種解決辦法也適用其他作物病害的識別。但由于兩者的結合受到識別精度和識別率的限制,在實際使用中虛擬物體的顯示會有一定的誤差,同時,也受到智能手機屏幕的限制。另外,基于本文的研究缺乏對圖像的三維增強方面,在后續(xù)的研究中,將研究三維物體在AR疾病識別系統中的實現。

    [1] 馬超, 袁濤, 姚鑫鋒, 等. 基于HOG+SVM的田間水稻病害圖像識別方法研究[J]. 上海農業(yè)學報, 2019, 35(5): 131-136.

    MA C, YUAN T, YAO X F, et al. Research on image recognition method of field rice disease based on HOG+SVM[J]. Acta Agriculturae Shanghai, 2019, 35(5): 131-136 (in Chinese).

    [2] 鄭麗霞, 王玉書, 劉海, 等. 吡蟲啉對伯克霍爾德氏菌生長和溶磷作用的影響[J]. 土壤學報. 2020, 57(1): 174-182.

    ZHENG L X, WANG Y S, LIU H, et al. Effects of imidacloprid on the growth and P-solubilization of[J]. ActaPedologica Sinica, 2020, 57(1): 174-182 (in Chinese).

    [3] ANNETTA L, BURTON E P, FRAZIER W, et al. Augmented reality games: using technology on a budget[J]. Science Scope, 2012, 36(3): 54-60.

    [4] ARVANITIS T N, PETROU A, KNIGHT J F, et al. Human factors and qualitative pedagogical evaluation of a mobile augmented reality system for science education used by learners with physical disabilities [J]. Personal and Ubiquitous Computing, 2019, 13: 243-250.

    [5] AZUMA R, BAILLOT Y, BEHRINGER R, et al. Recent advances in augmented reality. Computer Graphics and Applications[J]. IEEE Computer Graphics and Applications, 2018, 21(6): 34-47

    [6] BILLINGHURST M, DUENSER A. Augmented reality in the classroom[J]. Computer, 2012, 45(7): 56-63.

    [7] BRESSLER D M, BODZIN A M. A mixed methods assessment of students’ flow experience during a mobile augmented reality science game[J]. Journal of Computer Assisted Learning, 2013, 29(6): 505-517.

    [8] COLLINS A, HAlVERSTON R. Rethinking education in the age of technology: the digital revolution and schooling in America[M]. New York: Educators Press, 2009: 147-161.

    [9] DE LUCIA A, FRANCESE R, PASSERO I, et al. A collaborative augmented campus based on location-aware mobile technology[J]. International Journal of Distance Education Technologies, 2012, 10(1): 55-71.

    [10] DUNLEAVY M, DEDE C, MITCHELL R. Affordances and limitations of immersive participator augmented reality simulations for teaching and learning [J]. Journal of Science Education and Technology, 2009, 18(1): 7-22.

    [11] SILVER D, HUANG A, MADDISON C J, et al. Mastering the game of go with deep neural networks and tree search[J]. Nature, 2016, 529(7587): 484-489.

    [12] LECUN Y, BOSER B, DENKER J S, et al. Back propagation applied to handwritten zip code recognition[J]. Neural Computation, 1989, 1(4): 541-51.

    [13] LIU X J, XIE N, TANG K, et al. Light-weighting for Web3D visualization of large-scale BIM scenes in real-time[J]. Graphical Model, 2016, 88: 40-56.

    [14] SHI S, NAHRSTEDT K, CAMPBELL R. A real-time remote rendering system for interactive mobile graphics[J]. ACM Transactions on Multimedia Computing, Communications, and Application, 2012, 8: 1-20.

    [15] CRASSIN C, LUEBKE D, MARA M, et al. CloudLight: a system for amortizing indirect lighting in real-time rendering[J]. Journal of Computer Graphics Techniques, 2015, 4(4): 1-27.

    [16] KAPLANYAN A, GMBH C, DACHSBACHER C. Cascaded light propagation volumes for real-time indirect illumination[C]//2010 ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games. New York: ACM Press, 2010: 99-107.

    [17] BASAVANHALLY A N, GANESAN S, AGNER S, et al. Computerized image-based detection and grading of lymphocytic infiltration in HER2-breast cancer histopathology[J]. IEEE Transactions on Bio-medical Engineering. 2009, 57(3): 642-653.

    [18] PETUSHI S, GARCIA F U, HABER M M, et al. Large-scale computations on histology images reveal grade-differentiating parameters for breast cancer[J]. BMC Medical Imaging, 2006, 6: 14.

    [19] DI CATALDO S, FICARRA E, ACQUAVIVA A, et al. Automated segmentation of tissue images for computerized IHC analysis[J]. Computer Methods and Programs in Biomedicine, 2010, 100(1): 1-15.

    [20] FATAKDAWALA H, XU J, BASAVANHALLY A, et al. Expectation—maximization-driven geodesic active contour with overlap resolution: application to lymphocyte segmentation on breast cancer histopathology[J]. IEEE Transactions on Biomedical Engineering, 2010, 57(7): 1676-1689.

    [21] DI CATALDO S, FICARRA E, ACQUAVIVA A, et al. Achieving the way for automated segmentation of nuclei in cancer tissue images through morphology-based approach: a quantitative evaluation[J]. Computerized Medical Imaging and Graphics, 2010, 34(6): 453-461.

    [22] MOUELHI A, SAYADI M, FNAIECH F, et al. Automatic image segmentation of nuclear stained breast tissue sections using color active contour model and an improved watershed method[J]. Biomedical Signal Processing and Control, 2013, 8(5): 421-436.

    [23] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society Press, 2005: 886-893.

    [24] GHORBANI M, TARGHI A T, DEHSHIBI M M. HOG and LBP: towards a robust face recognition system[C]//2015 10th International Conference on Digital Information Management. New York: IEEE Press, 2016: 138-141.

    [25] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

    [26] TAIGMAN Y, YANG M, RANZATO M, et al. Deep face: closing the gap to human-level performance in face verification[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2014: 1701-1708.

    [27] SUN Y, WANG X G, TANG X O. Deep learning face representation from predicting 10000 classes[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition.New York: IEEE Press, 2014: 1891-1898.

    [28] SCHROFF F, KALENICHENKO D, PHILBIN J. FaceNet: a unified-embedding for face recognition and clustering[C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2015: 815-823.

    AR-assisted intelligent analysis and identification system for mobile rice diseases based on HOG-SVM

    XU Shi-pu1,2, LI Lin-yi1,2, JIA Jin-yuan3, WANG Yun-sheng1,2, LIU Chang4, LIU Yong1,2, MA Chao1,2

    (1. Institute of Agricultural Information Science and Technology, Shanghai Academy of Agricultural Sciences, Shanghai 201403, China;2. Shanghai Engineering and Technological Research Center for Digital Agriculture, Shanghai 201403, China; 3. School of Software Engineering, Tongji University, Shanghai 201804, China; 4. School of Information Engineering, Nanchang Hangkong University, Nanchang Jiangxi 330063, China)

    For the shortcomings of traditional disease recognition systems that require high altitude in a shooting environment and large numbers of samples, this research designed a set of f augmented reality (AR)-assisted recognition schemes based on histograms of oriented gradient (HOG)-support vector machine (SVM). Under the premise of a small amount of materials, this solution, which introduced AR technology in the diagnostic system for shooting assistance, outperforms other methods in terms of training time, recognition speed, and average accuracy. Taking the Android terminal as an example, an AR-assisted HOG-SVM-based mobile rice disease identification system was implemented, which can quickly identify diseases and guide users to improve the quality of photographed pictures. Through the identification of disease spots in batches of images, the results of disease spot recognition were analyzed from three aspects: disease accuracy, diseased leaf detection rate, and disease spot location accuracy. Finally, AR technology and rapid identification scheme based on HOG-SVM were obtained. This combination can generate faster training results and recognition results under the premise of small training samples. The average accuracy of this system is also higher than that of deep models such as YOLO v3, SSD 512, and Fast R-CNN. The proposed method is more practicable for disease identification on the current mobile terminal.

    augmented reality; histograms of oriented gradient; support vector machine; rice; disease recognition

    TP 391

    10.11996/JG.j.2095-302X.2021030454

    A

    2095-302X(2021)03-0454-08

    2020-12-02;

    2021-01-30

    2 December,2020;

    30 January,2021

    上海市農業(yè)科學院卓越團隊建設項目(2017[B-09])

    Shanghai Academy of Agricultural Sciences for the Program of Excellent Research Team (2017[B-09])

    徐識溥(1986-),男,湖北孝感人,副研究員,碩士。主要研究方向為農業(yè)物聯網及農業(yè)信息化。E-mail:xushipu39706879@163.com

    XU Shi-pu (1986-), male, associate researcher, master. His main research interests cover agricultural internet of things and agricultural information. E-mail:xushipu39706879@163.com

    馬 超(1985–),男,上海人,助理研究員,碩士。主要研究方向為圖形圖像處理、計算機視覺等。E-mail:machao@saas.sh.cn

    MA Chao (1985-), male, assistant researcher, master. His main research interests cover graphic image processing, computer vision, etc. E-mail:machao@saas.sh.cn

    猜你喜歡
    病斑病害水稻
    什么是海水稻
    早春養(yǎng)羊需防六大病害
    小麥常見三種病害咋防治
    水稻種植60天就能收獲啦
    軍事文摘(2021年22期)2021-11-26 00:43:51
    葡萄病害周年防治歷
    煙臺果樹(2021年2期)2021-07-21 07:18:28
    果樹休眠期咋防病害
    一季水稻
    文苑(2020年6期)2020-06-22 08:41:52
    水稻花
    文苑(2019年22期)2019-12-07 05:29:00
    改進自適應分水嶺方法分割棉花葉部粘連病斑
    一種桑輪紋病病葉發(fā)病程度的評價指數
    江门市| 家居| 沈丘县| 留坝县| 象山县| 鲁山县| 屏山县| 罗城| 红河县| 丰都县| 兴仁县| 荣昌县| 巴里| 拜泉县| 桦川县| 和林格尔县| 无锡市| 成安县| 同德县| 泾源县| 昌宁县| 龙岩市| 汾阳市| 康马县| 三明市| 峨山| 江陵县| 抚松县| 甘肃省| 武义县| 珠海市| 忻州市| 黑水县| 肥乡县| 乐都县| 含山县| 油尖旺区| 资兴市| 若羌县| 鸡泽县| 农安县|