關(guān)鍵詞 筐裝禽蛋; 圖像處理; YOLOv5s; 視覺定位; 水中上料
中圖分類號 TS253.8 文獻(xiàn)標(biāo)識碼 A 文章編號 1000-2421(2024)03-0302-09
我國是全球最大的禽蛋生產(chǎn)國,禽蛋總產(chǎn)量在2022 年已經(jīng)達(dá)到了3 456 萬 t,占全球總產(chǎn)量43% 以上[1-3]。近年來隨著人們消費(fèi)觀念的轉(zhuǎn)變,蛋制品的銷售量呈現(xiàn)增長趨勢[4]。目前,美國、英國、日本等國家蛋制品加工比例約為25%,我國的蛋制品比例不足5%[5-6],國內(nèi)蛋品加工裝備自動化程度普遍較低[7-8]。自動上料對于蛋品加工效率提高有重要作用[9-10],目前國內(nèi)企業(yè)普遍采用吸盤上料和水中上料,吸盤上料只適合于排列整齊的托板裝禽蛋,對于筐裝禽蛋一般只能采用水中上料或手工上料,水中上料需要人工搬運(yùn)蛋筐,將筐內(nèi)禽蛋傾倒至水中上料機(jī)的水槽內(nèi),費(fèi)時(shí)費(fèi)力,且難以實(shí)現(xiàn)自動化。
機(jī)器視覺常被應(yīng)用于搬運(yùn)機(jī)器人進(jìn)行物料的識別和定位。目前,關(guān)于筐裝禽蛋視覺定位方面的研究目前鮮有報(bào)道。Fan 等[11]利用形狀匹配(shapebasedmatching,SBM)的方法在二維圖像中檢測包裹,使用雙目相機(jī)獲取對應(yīng)點(diǎn)來計(jì)算包裹的三維空間位置,該系統(tǒng)具有較高的三維定位精度。Li 等[12]針對復(fù)雜環(huán)境下的編織袋拆垛問題,設(shè)計(jì)了一種基于動態(tài)區(qū)域生長方法提取目標(biāo)區(qū)域和基于漸進(jìn)概率霍夫變換(progressive probabilistic hough transform,PPHT)定位編織袋的視覺定位系統(tǒng),對不同堆垛類型和光照變化具有魯棒性。深度學(xué)習(xí)目標(biāo)檢測算法可以分為以Fast R-CNN(fast region-based convolutionalnetwork)[13-14]為代表的二階段檢測器和以SSD(single shot multiBox detector)[15]和YOLO(youonly look once)[16-18]為代表的一階段檢測器,一階段檢測器由于不需要生成候選框,在檢測小目標(biāo)時(shí)速度快且準(zhǔn)確率高。龍健寧[19]利用TensorFlow 框架下的Object Detection API 工具,結(jié)合SSD-MobilenetV2和局部特征匹配的方法得到紙箱的中心點(diǎn)圖像坐標(biāo)及旋轉(zhuǎn)角度等信息,實(shí)現(xiàn)了物流環(huán)境下多種類紙箱的實(shí)時(shí)準(zhǔn)確的檢測識別。肖施睿等[20]采用改進(jìn)的YOLOv5s 模型對托盤進(jìn)行定位識別,準(zhǔn)確率達(dá)99.8%,并結(jié)合圖像處理識別插孔邊緣,總體算法正確率為98.9%,高效精準(zhǔn)地實(shí)現(xiàn)了托盤識別。以上研究結(jié)果表明,利用深度學(xué)習(xí)結(jié)合圖像處理的方法對筐裝禽蛋的定位識別具有可行性。
本研究提出了一種基于YOLOv5s 和圖像處理的筐裝禽蛋上料機(jī)器人視覺定位識別方法,利用動態(tài)閾值分割法識別筐裝禽蛋堆垛類型,并使用YOLOv5s網(wǎng)絡(luò)對單個(gè)蛋筐進(jìn)行識別定位,進(jìn)一步結(jié)合圖像處理技術(shù)得出蛋筐偏轉(zhuǎn)角度,融合已知的蛋筐高度,對復(fù)雜光照條件下的多層堆垛中的頂層蛋筐進(jìn)行位置識別。該視覺定位方法可以為筐裝禽蛋自動上料機(jī)器人準(zhǔn)確抓取蛋框把手槽提供視覺引導(dǎo),并有助于框裝禽蛋上料機(jī)器人實(shí)現(xiàn)自動作業(yè)。
1 材料與方法
1.1 視覺系統(tǒng)設(shè)計(jì)
1)系統(tǒng)組成。視覺采集系統(tǒng)主要由相機(jī)、支架、計(jì)算機(jī)和工廠照明設(shè)備組成,相機(jī)為Intel RealSenseD435i 實(shí)感深度相機(jī),RGB 圖像視場角為64°×41°×77°(±3°),RGB 分辨率為1 920 像素×1 080 像素,幀率為30 幀/s。試驗(yàn)過程中相機(jī)用支架定位于堆垛正上方,距地面高度為2 m,使用Intel RealSense Viewer軟件控制相機(jī)拍照并保存,照明設(shè)備為白熾燈。
2)原始圖像數(shù)據(jù)集。為了進(jìn)行禽蛋堆垛的識別,需要采集相應(yīng)的原始圖像數(shù)據(jù)集。識別對象為簡單重疊式碼垛的筐裝禽蛋堆垛,各層的擺放方式都相同,拍攝最上層蛋筐的俯視圖即可。采集禽蛋筐圖像存在著多種環(huán)境變量,如不同顏色的塑料筐(白色、紅色、粉色、淡粉色等),不同批次的禽蛋筐有不同色,以及2 種不同類型的堆垛方式(七花垛型、八花垛型)。此外,禽蛋加工廠內(nèi)的光照環(huán)境是不穩(wěn)定的,以自然光為主,燈光為輔(圖1)。
本試驗(yàn)的筐裝雞蛋堆垛圖片采集于湖北某蛋品加工企業(yè)。由于光照條件不穩(wěn)定,工作時(shí)段從09:00到17:00,每隔2 h 采集1 次圖像。通過開啟或關(guān)閉照明燈光來模擬實(shí)際生產(chǎn)過程中的光照變化,并隨機(jī)變換蛋筐的顏色和七花垛型和八花垛型擺放位置使采集的圖像盡可能接近實(shí)際生產(chǎn)環(huán)境?,F(xiàn)場共采集到樣本圖片150 張。不同光照環(huán)境下采集2 種堆垛類型的樣本圖像如圖2 所示,圖像的亮度、色彩飽和色調(diào)在不同光線下均存在較大差異。設(shè)M 為該樣本圖像的平均灰度值,采集到的圖像數(shù)據(jù)集平均灰度值M 范圍為40~110。
3)定位識別流程??鹧b禽蛋定位識別流程如圖3 所示,主要包括堆垛類型識別、蛋筐定位識別和蛋筐偏轉(zhuǎn)角度識別3 個(gè)部分。首先將采集到的RGB 圖像轉(zhuǎn)為灰度圖,建立最佳分割閾值T 與圖像平均灰度值M 之間的線性關(guān)系。利用動態(tài)閾值分割法對圖像進(jìn)行二值化處理和最小外接矩形裁剪,并計(jì)算該裁剪后圖像的長寬比,根據(jù)長寬比比值區(qū)分堆垛類型。針對相鄰蛋筐之間狹窄的縫隙難以分割的問題,使用深度學(xué)習(xí)網(wǎng)絡(luò)對堆垛頂層中單個(gè)蛋筐進(jìn)行識別定位。由于YOLOv5s 識別結(jié)果為不帶角度的矩形框,需要進(jìn)行裁剪,然后對單個(gè)蛋筐使用圖像處理進(jìn)行偏轉(zhuǎn)角度識別。蛋筐的尺寸相同,每層蛋筐的高度信息可以視為固定值,結(jié)合定位識別結(jié)果即可得出各個(gè)蛋筐的位姿坐標(biāo)。
1.2 堆垛類型識別
1)基于動態(tài)閾值的整體堆垛分割。選取灰度值T 作為分割閾值,將圖像分為黑、白2 個(gè)區(qū)域。閾值分割方法計(jì)算公式如下:
其中,f ( x,y )為點(diǎn)( x,y )的像素值,g ( x,y )為分割后該點(diǎn)的像素值。
圖4 是使用閾值分割法處理的結(jié)果。其中,圖4A 為單獨(dú)使用閾值分割法處理后的圖片,包含較多縫隙以及孔洞,難以直接提取連通域;圖4B 為結(jié)合形態(tài)學(xué)操作得出的圖像分割結(jié)果,通過圖像填充、膨脹和腐蝕等操作使蛋筐堆垛成為一整個(gè)連通域,便于后續(xù)識別操作。為解決閾值分割受光照環(huán)境影響較大的問題。本研究建立圖像平均灰度值M 與最佳分割閾值T 的關(guān)系模型,利用該模型對圖像進(jìn)行二值化處理。對平均灰度值M 為55.81 的樣本圖片選取不同的閾值T 進(jìn)行分割,結(jié)合形態(tài)學(xué)操作,得到如圖5 所示結(jié)果。圖5A 中包含較多的背景和噪聲信息;圖5B 中目標(biāo)堆垛被完整的提取,背景噪聲較少;圖5C 未能包含所有蛋筐信息,同時(shí)存在過多無用信息(禽蛋形狀),導(dǎo)致目標(biāo)堆垛無法被完整分割出來。根據(jù)圖5B 的分割結(jié)果,記錄下最佳分割閾值T 與對應(yīng)的圖像平均灰度值M,由于當(dāng)T 處于某區(qū)間內(nèi)時(shí)均可以成功將堆垛分割,因此選取能包含所有完整堆垛且不暴露禽蛋形狀的臨界值作為最佳分割閥值T。
隨機(jī)選取40 幅圖片利用上述方法進(jìn)行分割,利用Matlab R2016a 作出不同光照下的40 幅圖片的(M,T)離散點(diǎn)分布圖,然后使用最小二乘法對這些離散的點(diǎn)進(jìn)行線性擬合,得出的擬合函數(shù)即為最佳分割閾值T 與平均灰度值M 之間的線性關(guān)系,表達(dá)式為:
T=0.6821M + 40.8487,40 ≤ M ≤ 110 (2)
其中,40≤M≤110 代表當(dāng)平均灰度值M 位于此區(qū)間內(nèi)時(shí),圖像可以成功的被識別,能通過式(2)求得最佳分割閾值并成功分割出蛋筐堆垛;當(dāng)平均灰度值M 小于40 時(shí),環(huán)境光線過暗,無法正常識別蛋筐堆垛,需要開啟燈光;當(dāng)平均灰度值M 大于110 時(shí),光照太強(qiáng)導(dǎo)致圖像曝光嚴(yán)重,無法正常識別蛋筐堆垛。
2)堆垛類型區(qū)分。利用2 種垛型的蛋筐堆垛最小外接矩形的長寬比k 來進(jìn)行區(qū)分。塑料筐的尺寸為460 mm×305 mm×240 mm,忽略蛋筐間的縫隙,七花垛型和八花垛型的最大外接矩形尺寸分別為1 070 mm×920 mm 和1 225 mm×920 mm,計(jì)算得出長寬比分別約為1.16 和1.33。在實(shí)際應(yīng)用場景中,蛋筐之間的縫隙和蛋筐的擺放不整齊等因素均會導(dǎo)致長寬比與理想值有差距。對20 張七花垛型圖片與20 張八花垛型圖片計(jì)算長寬并進(jìn)行統(tǒng)計(jì)(圖6)。八花垛型的長寬比位于區(qū)間[1.26,1.41]內(nèi),七花垛型的長寬比位于區(qū)間[1.03,1.23]內(nèi),因此,將分割這2種垛型的長寬比k 設(shè)定為1.25,k 值大于1.25 判定為八花垛型,小于1.25 則判定為七花垛型。
1.3 筐裝禽蛋定位識別
用上述模型可將筐裝禽蛋堆垛分割出來,但無法準(zhǔn)確識別蛋筐之間狹窄、不明顯的縫隙從而將其分割并定位識別,故需要使用深度學(xué)習(xí)的方法進(jìn)行研究。本研究基于YOLOv5[21-22]網(wǎng)絡(luò)模型,使用CSP-DarkNet53 作為其主干網(wǎng)絡(luò)、以SPPF(spatialpyramid pooling-fast)為多尺度特征融合網(wǎng)絡(luò),檢測性能和檢測速度較高。YOLOv5 系列的的網(wǎng)絡(luò)主干架構(gòu)一致,但在子模塊深度和特征圖寬度上有區(qū)別(圖7)。YOLOv5s 的網(wǎng)絡(luò)結(jié)構(gòu)具有較少的參數(shù)和較低的計(jì)算復(fù)雜度,仍保持較高檢測精度和推理速度,適用于對實(shí)時(shí)性要求較高的應(yīng)用場景。在模型訓(xùn)練過程中,采用了Mosaic 數(shù)據(jù)增強(qiáng)策略,通過對4 張圖片進(jìn)行拼接得到增強(qiáng)圖片,有效提升模型的識別定位能力與魯棒性。此外,通過添加自適應(yīng)圖像填充和自適應(yīng)錨框計(jì)算,減少了圖像邊緣信息,提高模型推理速度與精度。本研究使用了Make Sense 標(biāo)注工具對此次采集的圖像進(jìn)行標(biāo)注,用矩形標(biāo)注框?qū)D中每個(gè)蛋筐分別進(jìn)行標(biāo)注,并將尺寸相同但顏色不同的蛋筐歸為一類,標(biāo)簽統(tǒng)一命名為“basket”。
1.4 筐裝禽蛋偏轉(zhuǎn)角度識別
1)圖像預(yù)處理。YOLOv5s 能識別出圖片中各個(gè)蛋筐的中心點(diǎn)坐標(biāo),但無法得出其偏轉(zhuǎn)角度,上料機(jī)器人搬運(yùn)筐裝禽蛋上料時(shí),為了不與相鄰蛋框發(fā)生干涉,機(jī)器人末端執(zhí)行器需要從蛋筐內(nèi)側(cè)插入蛋框把手槽實(shí)現(xiàn)對蛋框的夾持和搬運(yùn),但堆垛時(shí)蛋筐的擺放角度并不完全固定,故需準(zhǔn)確計(jì)算出各個(gè)蛋筐的偏轉(zhuǎn)角度。本研究對YOLOv5s 的識別結(jié)果進(jìn)行改進(jìn),通過dt_boxes 函數(shù)獲得識別結(jié)果中各個(gè)目標(biāo)矩形框的4 個(gè)頂點(diǎn)坐標(biāo)參數(shù),并根據(jù)參數(shù)對這些蛋筐圖片進(jìn)行裁剪,按照從上到下、從左到右的順序逐個(gè)輸出,結(jié)果如圖8 所示。
2)角度識別。根據(jù)裁剪結(jié)果直接使用Canny 算子對圖9A 進(jìn)行邊緣檢測,結(jié)果包含較多的無用信息,如圖9B,無法直接得出偏轉(zhuǎn)角度。要先對圖像進(jìn)行閾值分割和形態(tài)學(xué)操作,分割出蛋筐邊框,然后進(jìn)行孔洞填充、腐蝕與膨脹,結(jié)果如圖9C,得到比較清晰的蛋筐邊框圖,其中有部分圖像由于光線不穩(wěn)定導(dǎo)致分割結(jié)果中出現(xiàn)毛刺,將蛋筐內(nèi)壁的孔洞也分割出來,但分割結(jié)果可近似等同于蛋筐邊框。接下來再利用Canny 算子檢測邊緣,提取最大連通域,得到蛋筐邊框的邊緣檢測結(jié)果如圖9D 所示,3 種不同光線下、不同顏色的蛋筐邊緣信息均能由邊緣檢測算子識別得出。
得出蛋筐邊緣信息后,需進(jìn)一步計(jì)算其最小外接矩形。設(shè)定蛋筐2 個(gè)把手槽連線的方向?yàn)樗綘顟B(tài)時(shí),該蛋筐偏轉(zhuǎn)角度為0°。根據(jù)圖9 的裁剪結(jié)果可以判別出該蛋筐的擺放角度是橫向(0°)或縱向(90°),但并非所有蛋筐偏轉(zhuǎn)角度都為0°或者90°,實(shí)際生產(chǎn)中,人工進(jìn)行蛋筐碼垛,存在一定的角度偏差。為實(shí)現(xiàn)筐裝禽蛋自動上料機(jī)器人的準(zhǔn)確定位,需識別蛋筐角度,減小人工擺放所帶來的誤差。
在最小外接矩形識別角度時(shí),將長邊中心線與y軸之間的夾角視為最小外接矩形旋轉(zhuǎn)角度。如圖10所示,W 為矩形短邊,H 為矩形長邊,由于蛋筐沒有頭尾之分,α+β=180°,旋轉(zhuǎn)角度為α 和旋轉(zhuǎn)角度為β時(shí)其姿態(tài)實(shí)際相同,可以選擇其中絕對值小的為旋轉(zhuǎn)角度,機(jī)器人求解關(guān)節(jié)角時(shí)可以直接將得出的角度信息等同于機(jī)器人末端關(guān)節(jié)的關(guān)節(jié)轉(zhuǎn)角。規(guī)定最小外接矩形逆時(shí)針旋轉(zhuǎn)時(shí)夾角α 為負(fù)數(shù),順時(shí)針旋轉(zhuǎn)時(shí)夾角α 為正數(shù),得到α 取值范圍為[?90°,90°]。本研究中蛋筐碼垛方式為簡單重疊式,塑料筐底部邊沿的卡圈形狀使得上層塑料筐正好能卡進(jìn)下層塑料筐內(nèi)邊沿中,通過結(jié)合偏轉(zhuǎn)角度α 和YOLOv5s 輸出的蛋筐中心點(diǎn)坐標(biāo),并根據(jù)蛋筐尺寸計(jì)算出的每層蛋筐把手槽高度信息,可以得出堆垛中每個(gè)蛋筐的位姿信息。
1.5 試驗(yàn)方法與評價(jià)指標(biāo)
試驗(yàn)平臺硬件配置環(huán)境CPU 型號為AMD Ryzen7 5800X(主頻3.8 GHz),GPU 型號為NVIDIAGeForce RTX 3070(顯存8 GB),操作系統(tǒng)為Windows10,網(wǎng)絡(luò)框架為Pytorch 1.12.1、CUDA 11.6,編譯器和編譯語言為Pycharm 2021.1.3、Python 3.7。使用改變圖像亮度、添加高斯噪聲和椒鹽噪聲的數(shù)據(jù)增強(qiáng)方法,將原始樣本圖像數(shù)據(jù)集擴(kuò)充至1 050張,將數(shù)據(jù)集按照8︰1︰1 的比例分為訓(xùn)練集、驗(yàn)證集和測試集。圖片大小為640 像素×640 像素,訓(xùn)練批次大?。╞atch_size)設(shè)置為6,迭代次數(shù)(epoch)為100,學(xué)習(xí)率(learning rate)設(shè)置為0.01,權(quán)重衰減系數(shù)(weight_decay)設(shè)置為0.000 5。
將成功率S 作為動態(tài)閾值分割法識別堆垛類型的評價(jià)指標(biāo);采用精確率(precision,P)、檢測用時(shí)(detection time)、計(jì)算量(GFLOPs)和平均精度均值(mAP,公式中用PmA表示)作為YOLOv5s模型評價(jià)指標(biāo);手動標(biāo)注圖片偏轉(zhuǎn)角度,將其與角度識別方法得出的結(jié)果作對比,用平均角度誤差作為角度識別方法的評價(jià)指標(biāo)。各項(xiàng)指標(biāo)計(jì)算公式為: 目標(biāo)檢測模型評價(jià)指標(biāo);手動標(biāo)注圖片偏轉(zhuǎn)角度,將其與角度識別方法得出的結(jié)果作對比,用平均角度誤差作為角度識別方法的評價(jià)指標(biāo)。各項(xiàng)指標(biāo)計(jì)算公式為:
2結(jié)果與分析
根據(jù)本文“1.2 節(jié)”得出的動態(tài)閾值分割模型和基于最小外接矩形長寬比判別垛型的標(biāo)準(zhǔn),對不同光照下的樣本圖像進(jìn)行分割驗(yàn)證試驗(yàn),結(jié)果如圖11 所示。圖11 中3 張不同光照的圖片均在最佳分割閾值T 下成功分割,圖11A、圖11B 分割結(jié)果中的kgt;1.25,圖11C 分割結(jié)果中的klt;1.25。用40 張圖片對該識別方法進(jìn)行測試,單張圖片識別時(shí)間為0.041 s,識別成功率S 為100%,結(jié)果表明,基于動態(tài)閾值分割堆垛的方法適用于筐裝禽蛋堆垛類型的識別,對環(huán)境中的光照變化具有較強(qiáng)魯棒性。
使用YOLOv5s 迭代100 次的定位損失(box_loss)值和平均精度均值(mAP)變化結(jié)果如圖12 所示。隨著迭代次數(shù)的增加損失值逐漸減小,在迭代次數(shù)為80 以后曲線逐漸平穩(wěn)且收斂,訓(xùn)練集和測試集損失值分別穩(wěn)定在0.02、0.01 左右,平均精度均值隨著迭代次數(shù)的增多逐漸趨于穩(wěn)定,最終穩(wěn)定在98.80%。
為驗(yàn)證檢測效果,分別利用YOLOv4[23]、YOLOv5s、YOLOv5m 和YOLOv5l 模型進(jìn)行筐裝禽蛋定位識別,迭代次數(shù)均為100 次,對比結(jié)果如表1所示。
由表1 可知,4 種模型的識別精確率均在94%以上,平均精度均值均在97% 以上,其中YOLOv5s的識別精確率達(dá)98.48%,單幅圖片檢測用時(shí)僅0.005 4 s,檢測速度與YOLOv5m、YOLOv5l、YOLOv4相比分別提升了1.8 倍、2.4 倍、34.4 倍,且計(jì)算量遠(yuǎn)小于其他模型。
YOLOv5s 對堆垛頂層筐裝禽蛋的識別結(jié)果如圖13 所示,該模型對光線較暗(圖13A)和噪聲高(圖13B)的圖片均能成功識別蛋筐。試驗(yàn)表明,YOLOv5s在準(zhǔn)確率、檢測速度和模型大小方面具有一定優(yōu)越性,對光照和噪聲具有魯棒性,適用于本研究筐裝禽蛋上料機(jī)械手視覺系統(tǒng)中。
利用本文“1.4 節(jié)”中的角度識別方法進(jìn)行單個(gè)蛋筐角度識別,部分結(jié)果如圖14 所示,在原始圖像上繪制長邊中心線,并在圖像上顯示角度。該角度識別方法可以成功識別出旋轉(zhuǎn)角度較大的橫向放置的蛋筐(圖14A)與旋轉(zhuǎn)角度較小的豎向放置的蛋筐(圖14B),識別單個(gè)蛋筐角度耗時(shí)0.039 s。
將10 張八花垛型與10 張七花垛型圖片裁剪后的150 張圖片分別手動標(biāo)注5 次,得出角度均值A(chǔ)'i,將其與角度識別方法得出的角度Ai 代入式(6),計(jì)算得出150 個(gè)蛋筐的角度誤差結(jié)果如圖15 所示,誤差值分布在0°~1.20°,平均角度誤差Eˉ 為0.41°,表明本研究角度識別方法具有較高的準(zhǔn)確率。
3討論
本研究設(shè)計(jì)了一種筐裝禽蛋自動上料機(jī)器人視覺系統(tǒng)定位方法,將視覺系統(tǒng)分為堆垛類型識別、蛋筐定位識別與角度識別3 個(gè)模塊,實(shí)現(xiàn)了復(fù)雜環(huán)境下筐裝禽蛋的定位識別。利用采集到的樣本圖像建立最佳分割閾值T 與圖像平均灰度值M 之間的關(guān)系模型,并根據(jù)堆垛最小外接矩形長寬比比值區(qū)分七花堆垛與八花堆垛2 種堆垛類型,將長寬比比值k 設(shè)定為1.25 時(shí),堆垛類型識別準(zhǔn)確率達(dá)100%。同時(shí),基于準(zhǔn)確率、檢測用時(shí)、計(jì)算量和平均精度均值4 種評價(jià)指標(biāo),對比YOLOv4、YOLOv5s、YOLOv5m 和YOLOv5l 的識別效果,結(jié)果表明,YOLOv5s 在蛋筐識別過程中,其精確率達(dá)98.48%,平均精度均值為98.80%,檢測單張圖片用時(shí)0.005 4 s,檢測速度和計(jì)算量均小于其他模型,適用于筐裝禽蛋上料機(jī)械手視覺系統(tǒng)中。使用YOLOv5s 識別單個(gè)蛋筐并裁剪后,用Canny 算子檢測蛋框邊緣并提取最小外接矩形,該方法能成功識別出橫向或豎向放置的蛋筐偏轉(zhuǎn)角度,平均角度誤差為0.41°。
本研究提出的定位方法可準(zhǔn)確實(shí)現(xiàn)筐裝禽蛋的識別,為視覺引導(dǎo)的上料機(jī)器人提供理論依據(jù),該方法不局限于禽蛋加工領(lǐng)域中的蛋筐識別,對于其他筐裝物料堆垛的識別都具有參考價(jià)值。