何崇帥 周宇 敖翔
摘 要:本文以OMRON Adapt Hornet 565 3軸并聯(lián)機器人為研究對象,對基于視覺跟蹤技術的并聯(lián)機器人控制系統(tǒng)進行了研究。文中詳細描述了相機校準、模型配置、傳送帶校準、傳感器校準以及機器人示教等過程,并對其進行了測試操作。測試證明,該并聯(lián)機器人可以在視覺的引導作用下實現(xiàn)傳送帶上散亂目標的準確、快速抓放操作,能用于電子、醫(yī)藥、食品等工業(yè)自動化生產(chǎn)或包裝流水線的分揀、抓放、包裝等操作。
關鍵詞:機器人視覺;并聯(lián)機器人;運動控制
1 引言
近些年,隨著國內(nèi)外機器人產(chǎn)業(yè)飛速發(fā)展以及人工智能領域取得巨大進步,機器人在人類生活中扮演的角色越來越重要。隨著“中國制造2025”的提出,工業(yè)機器人作為智能制造的重要成員之一,也得到了迅猛發(fā)展[1]。
與串聯(lián)機器人相比,并聯(lián)機器人具有結構簡單、速度快、定位精度高、穩(wěn)定性好等優(yōu)點[2],已成為目前工業(yè)機器人研究熱點之一。
機器視覺跟蹤技術作為一個新興的科研學科領域,可實現(xiàn)無接觸檢測、無接觸識別定位等功能[3]。利用機器視覺跟蹤技術來引導工業(yè)機器人完成工作,可使工業(yè)機器人對環(huán)境感知能力越來越高,能更高效地完成工作[4]。
本文以OMRON旗下的Adept Hornet 565型Delta并聯(lián)機器人為研究對象,對基于視覺跟蹤的并聯(lián)機器人控制系統(tǒng)進行研究。
2 并聯(lián)機器人結構和工作流程
本次研究借助本校并聯(lián)機器人實訓平臺來完成。其構成主要分為以下幾個部分:機器人主體、視覺系統(tǒng)、控制系統(tǒng)、傳送帶裝置以及操作系統(tǒng)。其硬件結構如圖1所示。
2.1 機器人主體
主體為OMRON旗下的Adept Hornet 565型Delta并聯(lián)機器人,包括驅(qū)動裝置、傳動裝置和控制系統(tǒng)等。驅(qū)動裝置由三臺機器人電機和一臺旋轉電機組成,分別對應三個支鏈和一個驅(qū)動軸。傳動系統(tǒng)有三個支鏈加一個驅(qū)動軸組成,每條支鏈由一個合金材料內(nèi)臂和兩個碳纖維輕型桿外臂通過球形關節(jié)連接而成,內(nèi)臂通過高性能齒輪與機器人電機直接相連,工具法蘭(運動平臺)就是通過三個支鏈以及一個驅(qū)動軸與基座(固定平臺)平行相連。控制系統(tǒng)主要為eAIB放大器,負責對機器人進行供電和控制。
2.2 視覺系統(tǒng)
并聯(lián)機器人視覺系統(tǒng)為一臺AcA640-90gm巴斯勒相機,負責視覺成像與特征提取。固定在傳送帶上方。
2.3 控制系統(tǒng)
控制系統(tǒng)由一臺SmartController EX運動控制器負責,可對機器設備進行高速高精度控制,實現(xiàn)運動控制與邏輯控制的完美結合。
2.4 傳送帶裝置
并聯(lián)機器人傳送帶裝置由兩臺步進電機、兩枚增量式編碼器以及正反方向傳送帶平臺組成。在機器人啟動相應項目后,可對目標進行循環(huán)抓取工作。
2.5 操作系統(tǒng)
并聯(lián)機器人操作軟件為Adept ACE 3.6,該平臺工作于Windows系統(tǒng),可對OMRON旗下的工業(yè)機器人進行實時控制以及模擬仿真。
該系統(tǒng)使用控制用高速網(wǎng)絡EtherCAT,通過統(tǒng)一網(wǎng)絡完成視覺跟蹤和機器人控制,用視覺捕捉到工件位置信息,然后調(diào)整地傳給控制器,控制Delta機器人進行Pick-and-Place操作,實現(xiàn)從流動的工件中進行高速實時動態(tài)抓取。該并聯(lián)機器人系統(tǒng)簡易控制流程圖如圖2所示。
3 并聯(lián)機器人控制系統(tǒng)研究與分析
該并聯(lián)機器人的所有控制均通過上位機上的操作軟件Adept ACE 3.6來完成。啟動ACE軟件后,先要對控制器進行連線,由于連接通道是以太網(wǎng),故PC端IP地址應與目標控制器標定地址相同。地址一致的情況下,即可搜索到目標控制器并進行連接。連接完成后就可以向其中添加其他項目了。常見添加項有:傳送帶、零件與零件目標、相機、定位器與定位器模型、進程管理器等,在添加項后就可以對其進行相應的參數(shù)配置以及教授。
3.1 相機校準
相機校準界面有兩個選項,一個是固定像素校準,另一個為網(wǎng)格校準。固定像素即在相應對話框中直接人為輸入XY軸的像素標度,網(wǎng)格校準則是通過相機掃描不同間距相等的點陣圖來實現(xiàn)校準的,可選擇的間距有4、6、8、10mm點陣圖。ACE已經(jīng)集成了相機校準的算法,只需按照要求將點陣圖置于鏡頭下合適的位置,即可完成校準。
3.2 零件及零件目標配置
在添加了零件以及零件目標兩個模塊后即可對其進行配置(傳送帶裝置已提前設定好),零件模塊配置選項為“鎖存,傳送帶攝像機或者空間間隔”模式,并與傳送帶對應的編碼器相匹配;
3.3 定位器及定位器模型配置
在新建定位器模塊配置一欄點擊添加創(chuàng)建定位器模型,將目標物體放置在鏡頭正下方,將定位器模型中的垂直坐標拖動到目標物體上對齊后即可。每個工程的定位器都可以定義多個定位器模型,可以提取物體大小、形狀、顏色等視覺特征作為分辨依據(jù)。
3.4 進程配置
在工作空間新建進程管理器模塊進程一欄點擊添加,單次拾取添加零件,單次放置添加零件目標后,將會出現(xiàn)三處紅色標記,代表要求進行傳送帶校準、傳感器校準以及機器人示教。
3.4.1 傳感器校準
傳送帶校準在點擊校準后直接按照界面向?qū)У囊蟛僮骷纯?,校準過程會要求用目標物體確定上行限制、下行限制以及抓取限制,目的在于確定機器人的有效抓取范圍。一般情況下,抓取限制與下行限制是一致的。
確定了限制處后即可對機器人進行測試校準。點擊開始跟蹤,開啟傳送帶,機器人會隨著傳送帶同步速率進行同向運動,傳送帶校準完成。如圖3所示。
3.4.2 傳感器校準
傳感器校準在點擊校準后直接按照界面向?qū)У囊蟛僮骷纯?,校準過程要求用目標物體確定鎖存信號存在,以保證傳感器位于正常工作區(qū)域。
如圖4所示,在之前校準完成的傳送帶前方會出現(xiàn)一個白色方塊區(qū)域,即為傳感器檢測區(qū),在偵測到鎖存信號后,傳感器校準即完成,圖中傳感器偏移為(-400,-400,-900,0,0,35)。
3.4.3 機器人示教
機器人人示教在完成以上兩項校準后在進程管理器的進程一欄點擊添加的零件項目進行教授,人為控制機器人的空閑、抓取、放置位置的坐標并錄入系統(tǒng),即以手動模式令機器人完成一次完整的零件抓取放置過程。
①指定空閑位置
進入示教界面,首先開始的是對機器人空閑位置的設定,如圖5所示。圖中對機器人靜止位置設定為(0,0,-850,0,180,-180)。隨后推動傳送帶使物料進入機器人工作范圍,通過面板右側的模擬控制盒可實現(xiàn)對并聯(lián)機器人的空間位置移動。
②教授位置
零件進入機器人工作空間后通過手動方式,使機器人末端接近零件,如圖6所示,圖中以機器人前視圖和左視圖為參考系,以確定機器人末端落在零件正上方。此時機器人末端坐標為(-68,-212,-877,0,180,180),點擊“此處”,使當前位置成為教授位置,此時偏移量會變?yōu)?。
接近高度和出發(fā)高度分為機器人接近零件和出發(fā)時距離教授位置的垂直距離(z軸),圖中的接近高度和出發(fā)高度都設定為25mm,至此零件教授部分操作完成。
并聯(lián)機器人的抓取動作共分三個步驟完成:接近零件、移動末端抓取零件、出發(fā)轉移零件。為測試機器人教授準確度,可任意移動機器人位置后點擊接近,如圖7所示,可以看到,機器人除了z軸與目標零件有25mm的偏移,其他位置都已對齊,說明零件位置教授成功。此時點擊移動,機器人會垂直下降25mm抓取零件,再點擊出發(fā),機器人垂直上升25mm,完成抓取零件任務。
③移動停止位置
完成零件位置教授后,會要求再完成一次停止位置校準,操作與第一次相同,目的是使機器人完成抓取任務后回到另一個停止位置,為放置任務做好準備。
④教授放置位置
教授放置位置與之前的教授抓取步驟相同,即指定一個位置讓機器人將抓取的零件放置,同樣分三步:接近、移動和出發(fā)。
至此,機器人示教環(huán)節(jié)全部完成。
3.5 系統(tǒng)測試
測試以1分鐘為單位時間,投放零件數(shù)量從50到120個,每次增加10個,每個區(qū)間各測試3次取平均成績。以抓取率在70%以上作為合格,85%以上為良好,95%以上為優(yōu)。觀察機器人漏抓數(shù)量并做統(tǒng)計。得到如表1所示數(shù)據(jù)。
從表1可以看出,在零件數(shù)量達到每分鐘120個時,抓取率仍在合格以上。通過以上測試統(tǒng)計結果,可以看出基于視覺跟蹤的并聯(lián)機器人在分揀、抓放、包裝等方面有著較高的工作效率。
4 結語
本文借助OMRON Adapt Hornet 565 3軸并聯(lián)機器人及相關軟件,對基于視覺跟蹤技術的并聯(lián)機器人控制系統(tǒng)進行了研究,從測試數(shù)據(jù)來看,并聯(lián)機器人在電子、醫(yī)藥、食品等行業(yè)的分揀、抓放、包裝等方面[5][6]有著高效,精準等特點。
注:此文章為2018年度省級大學生創(chuàng)新創(chuàng)業(yè)訓練計劃項目(《基于視覺跟蹤技術的Delta高速并聯(lián)機器人控制研究》)研究成果,指導老師為吳紅霞。
參考文獻:
[1]張正揚.Delta并聯(lián)機器人高速運動控制研究[D].北京交通大學,2018.
[2]李麗麗,林明勇,曹永軍,等.3自由度高速Delta機器人控制系統(tǒng)設計[J].自動化與信息工程,2016,37(2):25-28.
[3]郭超.高速并聯(lián)機器人及其控制系統(tǒng)研究[D].山東理工大學,2014.
[4]高拴.DELTA機器人控制系統(tǒng)研究[D]. 沈陽工業(yè)大學,2017.
[5]張文昌.Delta高速并聯(lián)機器人視覺控制技術及視覺標定技術研究[D]. 天津大學,2012.
[6]李小輝.Delta并聯(lián)機器人視覺分揀與跟蹤系統(tǒng)設計與研究[D]. 華南理工大學,2016.