唐鎮(zhèn)城
摘要: 本文通過對眾為興機器人和視覺系統(tǒng)的分揀及抓取研究,在相關理論研究的基礎上收集信息,對運行中的情況、問題進行梳理,深入研究視覺分類抓取的情況和存在的不足,并針對不足提出更好的策略。
Abstract: This paper collects information on the basis of related theoretical research by sorting and grabbing the Zhongwei Xing robot and vision system, combs the situation and problems in operation, and deeply studies the situation and deficiencies of visual classification crawling, and proposes better strategies for deficiencies.
關鍵詞: 機器視覺;工業(yè)機器人;分揀
Key words: machine vision;industrial robots;sorting
中圖分類號:TP242.6 文獻標識碼:A 文章編號:1006-4311(2018)18-0186-03
0 引言
隨著中國經(jīng)濟轉型升級,自動化智能化設備運用增加,自動化生產(chǎn)越來越受青睞,有利于提高生產(chǎn)效率。工業(yè)分揀是生產(chǎn)環(huán)節(jié)的主要部分,根據(jù)工件擺放的不同位置型號,實現(xiàn)識別、分揀、定位、抓取、放置的過程。
相對于傳統(tǒng)的人工分揀以及機器人示教分揀,將視覺技術與機器人相結合的分揀,實現(xiàn)類似人眼的“識別”功能,將提高識別速度和生產(chǎn)效率,使分揀更柔性化、智能化,降低勞動成本,提高質量[1],運行結果易于統(tǒng)計,有利于實現(xiàn)一體化信息集成,便于統(tǒng)計各類生產(chǎn)數(shù)據(jù)。
本文針對在自動化生產(chǎn)線上分揀特定工件,實現(xiàn)分揀抓取直通小型化柔性化經(jīng)濟化解決方案,滿足占用空間小、自動識別、不同工件分揀上料等要求,提出基于邊緣識別模板匹配的視覺識別算法,以眾為興ar5215四軸機械臂及Avs1100視覺系統(tǒng)為基礎,利用ADTvision圖像處理軟件,對機械手及攝像機系統(tǒng)進行標定,建立工業(yè)機器人手眼關系[2]。通過圖像處理軟件,對工業(yè)相機采集的工件圖像進行預處理,獲取邊緣信息,對模板圖像與采集圖像進行相似匹配,完成模板匹配,對抓取物體進行分揀識別、定位,并用機械手進行抓取驗證研究結果。
1 工件特征提取及識別
圖像提供的信息與人眼視覺接近,包含的信息量非常大,從圖像中提取有用的特征進行分析識別是圖像處理的基本問題[3]。本文工件圖像識別采用的主要步驟:圖像預處理、區(qū)域分割、工件特征提取、工件識別分揀。而要實現(xiàn)分揀需對工件進行特征模板提取和識別。本文研究工件在靜止狀態(tài)下的特征提取及識別。對采集圖像進行預處理,選取目標區(qū)域,在目標區(qū)域內目標進行特征提取通過模板比對,用以確定目標工件坐標。
2 圖像預處理
圖像預處理作用在于提高識別效率、提高信噪比、消除無用信息,簡化圖像處理數(shù)據(jù)。一般受環(huán)境與設備影響,獲取的圖像包含各種噪聲,不宜直接用于圖像識別,圖像預處理是圖像識別的必要環(huán)節(jié),通過圖像處理希望最大限度消除圖像識別的無關信息,從而更準確地提取有用信息,處理效果好壞對特征提取與識別有重要影響。有灰度變換、二值變換等環(huán)節(jié)。
本文研究對象光線分布均勻采用大津法。經(jīng)過二值法處理后目標區(qū)能分割出來,效果較好。預處理還包括勾選檢測區(qū)域、設置相機IP、觸發(fā)及曝光模式、輸出控制等。雙擊“采集圖形”;可進入“采集圖像設置界面”,可以選擇相機號,并對相機的靜態(tài)IP、采集觸發(fā)控制、輸出控制、曝光和增益調節(jié)、白平衡調節(jié)、光源調節(jié)等進行設置。
本文采用的觸發(fā)模式是外接信號上升沿觸發(fā),關閉自動增益及自動曝光。相機號為CAM0,相機的靜態(tài)IP192.168.1.110,子網(wǎng)掩碼設為255.255.255.0。輸出控制中輸出控制引腳為Line1,引腳方向Output,引腳電平反轉false(即不選?。?,輸出有效電平時間為200ms。打開設備后調節(jié)相機的高度、相機的光圈、焦距以及外部光源,直至看到輪廓清晰的產(chǎn)品圖像。
在工具欄內點擊“藍色虛線按鈕”可對作業(yè)ROI區(qū)域進行選擇,簡化處理圖像數(shù)據(jù)減少計算量。勾選完成后,圖像分析只針對作業(yè)區(qū)域進行識別分析。
3 邊緣檢測
圖像中背景與物體間,物與物的交界是邊緣,交界邊緣是目標提取和識別的基礎,邊緣是圖像局部灰度變化劇烈的區(qū)域,包含圖像的基本特征和大部分信息。邊緣的灰度值是不連續(xù)的。常用的邊緣檢測算法有:Canny算法、Roberts算法、Laplacian算法、Sobel算法。邊緣檢測通過灰度變化的導數(shù)將發(fā)生階躍、尖峰型變化的像素抽取出來,剔除不相關信息,提高后續(xù)處理圖像的精度和性能。
在ADTvision作業(yè)流程,選取“邊緣定位”。本文用Canny算法具有較高的信噪比和定位精度,其參數(shù)能根據(jù)不同要求調整識別不同的邊緣特性,適用于不同環(huán)境下的邊緣檢測[3]。
實現(xiàn)工件的分類識別,需提取工件的邊緣特征,這是區(qū)別不同種類工件的依據(jù)。通過模板的設置可對工件實現(xiàn)識別。雙擊作業(yè)流程中的“邊緣定位”,彈出“模板設置”界面??蓪δ0暹M行添加、刪除、編輯、加載操作,還可就模板匹配最大個數(shù)及模板匹配最低分數(shù)進行設置。模板匹配最低分數(shù)設置是進行有效判別的關鍵,分數(shù)設置過低匹配度過低容易造成誤判,及假識別;分數(shù)設置過高匹配度過高容易造成識別率低廢品率高。點擊“匹配參數(shù)”界面,可對匹配參數(shù)、縮放比例、最大重疊度、角度范圍、位置補償?shù)冗M行設置。
搜索模板匹配最大個數(shù)用于設置匹配本模板的最大個數(shù),以提高檢索效率,防止重復,當有多個目標需要匹配本模板時可以把個數(shù)加大。最大重疊度,用以區(qū)分工件之間的位置關系,如果工件不出現(xiàn)疊放的情況,可把最大重疊度設置為1,防止模板匹配時同一位置的工件,識別成多個工件。位置補償用于每次定位出現(xiàn)固定方向、固定大小的偏差時直接使用位置補償消除偏差。
4 工件識別分類
添加模板,彈出“邊緣模板學習界面”,中間黑色區(qū)域為建立模板的拍攝圖片或預存圖片,右方為“繪制ORI及創(chuàng)建模板欄”??蓪φ掌M行ORI繪制及加減,用以對圖片進行勾線提取工件的幾何特征,以建立模板進行精準的分類。用綠色線表示模板邊緣,綠色邊緣線條多且連續(xù)性好表示模板創(chuàng)建的效果越好。
本文以一個圓形目標工件舉例說明,點擊選取ROI模式“單ORI”及ROI類型“圓形”,對目標工件用圓形進行框選如圖1所示。框選成功后出現(xiàn)的綠色線條即為工件提取的幾何特征。模板創(chuàng)建過程中,如果想剔除掉一些不需要的邊緣,如圖1產(chǎn)品中的三角形的綠色邊緣,可以認為是無效的干擾邊緣??梢詫OI模式選擇為“ROI相減”,在需要剔除邊緣的地方畫一個ROI,確定后再創(chuàng)建模板,此時生成的模板邊緣將不再包含剔除ROI部分的邊緣,即假設任務只需對工件的外形“圓形”實現(xiàn)識別不須對中間的符號進行分類,則先進行的“單ORI”識別,提取邊緣包含多余的的幾何特征,影響識別精度及識別效率。再通過點擊ROI模式“ROI相減”及ROI類型“圓形”,再次提取特征,阻礙判斷的多余幾何特征已被剔除。
通過模板基本參數(shù)界面,可對“起始角度”、“角度范圍”、“角度步長”、“最小縮放比例”、“最大縮放比例”、“縮放步長”進行設置;亮度參數(shù)設置界面可對“金字塔層數(shù)”、“優(yōu)化選項”、“匹配極性”、“對比度”、“滯后對比度”、“最小尺寸”、“最小對比度”進行設置。
參數(shù)設置及特征提取完成后,創(chuàng)建模板,便可建立模板進行模板識別。
5 視覺系統(tǒng)作業(yè)及網(wǎng)絡設置
視覺系統(tǒng)的網(wǎng)絡設置及作業(yè)設置的目的,是建立起視覺系統(tǒng)與機器人之間的網(wǎng)絡聯(lián)系,傳輸相關的分類參數(shù)及坐標參數(shù)。
在作業(yè)流程欄添加“以太網(wǎng)”。點擊進入“以太網(wǎng)設置界面”,服務器,即機器人端,可就“服務器IP”、“服務器端口”、“傳輸協(xié)議類型”、“連接模式”、“站號”進行設置。本地端口及視覺系統(tǒng)連接機器人的端口。
點擊工具欄的“設置”下端的“作業(yè)設置”,彈出“作業(yè)設置窗口”,可就“輸出格式”、“輸出內容”、“輸出校驗”、“輸出地址”進行設置。
6 機械臂視覺配置用戶坐標設定
機械臂用戶坐標標定及視覺配置的目的,是建立起機器人與視覺系統(tǒng)的網(wǎng)絡關系,使機器人能接收來自視覺系統(tǒng)的網(wǎng)絡信號,建立起機器人坐標與視覺坐標的對應關系。
“視覺配置界面”可對“視覺類型”、“網(wǎng)絡模式”、“觸發(fā)方式”、“網(wǎng)絡接收格式”、“堵塞方式”、“位置補償”、“坐標設定”等進行設置。
7 實驗結果及其分析評價
實驗:對隨意放置不同材料的圓形工件進行物料物件進行分揀(如圖2),四軸機器人每次只能抓取一個物料,因此拍攝后只對相似度最高的工件進行位置識別,并提取出對應工件的角度、輪廓、面積等進行綜合判斷,從而計算出工件質心的坐標。
實測中視覺系統(tǒng)能準確判斷三種不同物料并準確分揀到對應的料倉,料倉的直徑比工件大1mm,經(jīng)500次試驗成功率99.8%。
經(jīng)過試驗驗證,機器視覺的工業(yè)機器人能實現(xiàn)精準的分揀和定位,比傳統(tǒng)分揀更能提高工業(yè)生產(chǎn)效率,減低勞動成本和勞動強度。本文通過對視覺及機器人系統(tǒng)的搭建及相機標定,靜態(tài)環(huán)境下工件的模板提取、識別、定位的研究,實現(xiàn)了分揀抓取。主要內容如下:①完成機器人本體選型及傳送帶設計、視覺系統(tǒng)的選型設計、機器人程序設計。選用由伺服電機驅動,采用吸附式取料手的四軸工業(yè)機器人;從相機及鏡頭參數(shù)選擇、照明方式、視覺工控機等方面設計了機器視覺系統(tǒng),對主要硬件選型。②相機標定是視覺系統(tǒng)的重要組成,標定的好壞直接影響系統(tǒng)的精度,是系統(tǒng)精確工作的前提。以針孔模型為基礎對常用標定方法簡要介紹,通過ADTvision圖像處理軟件完成對相機標定,求解出相機內外參數(shù)和相對誤差。為目標識別,抓取提供基礎經(jīng)實際實驗,證明標定有效可行。③通過圖像預處理、邊緣檢測、模板建立及識別,實現(xiàn)了對靜態(tài)工件的識別與定位。通過預處理減少檢測區(qū)域、通過提取工件邊緣輪廓進行邊緣檢測與比對為分揀提供依據(jù)。通過對工件質心定位,為抓取提供依據(jù)。④通過對視覺系統(tǒng)的網(wǎng)絡設置、作業(yè)設置,及機器人用戶坐標的標定,建立起視覺系統(tǒng)坐標與機器人用戶坐標之間的聯(lián)系,實現(xiàn)精準抓取。
參考文獻:
[1]何家恒.基于眾為興ar5215機械臂及avs1100視覺抓取應用[J].科技視界,2017(06).
[2]鄭佳彤.視覺抓取機器人系統(tǒng)研究與實現(xiàn)[D].東北大學, 2013-12-07.
[3]蔣書賢.基于機器視覺的工業(yè)機器人分揀系統(tǒng)研究[D].西南交通大學,2014-12-05.