陳修齊
物聯(lián)網(wǎng)技術(shù)的目的是讓全部物品可以和網(wǎng)絡(luò)結(jié)合在一起,技術(shù)可以做到自動地、實時地對物體進行識別、跟蹤以及監(jiān)控等相關(guān)機制。物聯(lián)網(wǎng)是繼計算機、互聯(lián)網(wǎng)時代之后信息產(chǎn)業(yè)的第三次浪潮。而智能機器人的研究盡管依然處于初級階段,但國內(nèi)外還是研究開發(fā)出了一些突出的機器人技術(shù)和產(chǎn)品[1~3]。物聯(lián)網(wǎng)技術(shù)結(jié)合機器人有很好的應(yīng)用背景。機器人的視覺系統(tǒng)是熱門的研究方向,對目標識別有很強的效果,可以替代人工去實現(xiàn)極端的困難任務(wù)[4-5]。
本系統(tǒng)的主要目的在于研究機器人視覺系統(tǒng),主要是基于智能機器人平臺,通過搭載雙目立體視覺系統(tǒng)來獲取環(huán)境數(shù)據(jù)[6~7],結(jié)合視覺的選擇性,從而達到機器人視覺系統(tǒng)的智能化和網(wǎng)絡(luò)互聯(lián)化。并且通過目標檢測技術(shù)和SAD匹配算法處理攝像頭所獲得的圖像,以便于在機器人系統(tǒng)中進行自我識別。根據(jù)獲得的相關(guān)信息采取相應(yīng)的動作,從而實現(xiàn)機器人視覺系統(tǒng)的智能化局部自治。同時,搭建物聯(lián)網(wǎng)平臺,實現(xiàn)視覺系統(tǒng)中各個要素之間的信息交互[8],算法結(jié)果顯示該算法有良好的效果。
目標檢測技術(shù)能夠在識別系統(tǒng)和無機械目標的情況下對目標數(shù)據(jù)進行數(shù)據(jù)掃描和操作[9]。它是視覺系統(tǒng)的前提,讓機器人能夠鎖定目標,獲得數(shù)據(jù)模型。
機器人的頭部視覺系統(tǒng)如圖1所示,它是我們獲得數(shù)據(jù)的核心系統(tǒng),算法芯片在頭部的后方,主要以視覺系統(tǒng)為主,雙目是兩個攝像頭,進行目標定位。
圖1 機器人頭部模型圖
雙目的模型圖如圖2,它是目標鎖定后,捕捉立體圖形,進行圖形矯正和目標特征提取,再采取立體匹配的關(guān)鍵所在,攝像頭獲得的圖片通過雙目系統(tǒng)傳送到芯片進行算法運行,再經(jīng)過以上流程對目標進行處理,最后在機器人進行圖片識別。
圖2 機器人視覺系統(tǒng)模型
機器人坐標系A(chǔ)(X ,Y,Z)機器人所在位置O為原點,以ulvl為機器人視覺定位的橫軸,直線urvr為機器人視覺定位的縱軸,兩坐標軸的單位為mm。所以機器人視覺坐標系中機器人的視覺起始位置是(0,0,0),其中下標l,r表示是機器人的起始位置的坐標。視覺圖像坐標系A(chǔ)(X,Y,Z)。視覺坐標系A(chǔ)(X,Y,Z)以得到圖像的底線中點為原點。如圖3所示,垂直方向上的深度定位有一傾斜的透鏡,其光心為O,焦距為b,光軸為C,光心O到地面的距離為h,光軸與像平面的交點為Or,Ol,光軸c與水平方向的夾角為a。現(xiàn)地面上有一點P,屏幕顯示的像素點為P′。
圖3 雙目視覺原理圖
原點在圖像平面的左上角,以像素數(shù)為長度度量單位;A(X ,Y,Z)與Or,Ol間的坐標變換關(guān)系如下:
Or與 Ol的坐標變換關(guān)系為
其中d表示攝像頭離目標的距離,結(jié)合式(1)得到變換式為
水平方向上的橫向定位,如圖3所示,地面有兩點P和Q通過透鏡成像在像平面xo′y上,對應(yīng)的像點為P′和Q′。
得到局部視覺坐標系統(tǒng)A(X , Y,Z)坐標變換公式:
SAD是一種圖像匹配算法[10]?;舅枷胧遣畹慕^對值之和。此算法常用于圖像塊匹配,將每個像素對應(yīng)數(shù)值之差的絕對值求和,據(jù)此評估兩個圖像塊的相似度。該算法快速,通常用于多級處理的初步篩選。匹配公式如下:
SAD(u , v)=Sum{left(u , v),right(u , v)} (5)
匹配算法如下:
Step 1:Input左右雙目捕捉的立體圖像;
Step 2:構(gòu)造一個小窗口,類似于卷積核;
Step 3:用窗口覆蓋左邊的圖像,檢測窗口覆蓋區(qū)域內(nèi)的所有像素點;
Step 4:利用窗口覆蓋右邊的圖像去檢測出覆蓋區(qū)域的像素點;
Step 5:左邊覆蓋區(qū)域減去右邊覆蓋區(qū)域,再求得所有像素點之間灰度差的絕對值之和;
Step 6:移動右邊圖像的窗口,重復(fù)Step 3到Step 4的處理,若搜索范圍超過我們的范圍則跳出;Step 7:找到范圍內(nèi)SAD值最小的窗口,即最佳匹配獲得像素塊。
實測n個點在 A(X , Y,Z)的坐標,這樣Or,Ol下的坐標通過式(3)可得到計算的A(X , Y,Z)下的坐標,將計算得到的坐標和實測到A(X , Y,Z)坐標間的某種距離作為對應(yīng)點的特征量,通過Or,Ol坐標加上以特征量為坐標系構(gòu)成一個空間Ψ。
雙目立體視覺算法如下[11]:
Step 1:通過實際平面上n個檢測點得到其在A(X , Y,Z)的坐標位置;
Step 2:根據(jù)檢測點XLVOLVYLV下坐標代入模型估計出XRORYR的坐標位置;
Step 3:將所有檢測點估計的 XRORYR下的坐標位置與實際的XRORYR下的坐標位置距離絕對值之和作為雙目立體視覺算法的參數(shù)值。
算法流程圖如圖4所示。
圖4 算法流程圖
該實驗中是在以下硬件環(huán)境下執(zhí)行的,如圖5所示首先我們通過攝像頭進行目標鎖定,圖中是一個公寓走廊,通過攝像獲得之后我們對圖片進行加工,因為并未被機器人識別,所以之后的算法目的都是讓機器人進行目標閱讀。
圖5 原始圖像
我們獲得圖像之后讓機器人進行SAD匹配,如圖6,匹配主要是輪廓和邊緣,使每一個目標確立出來進行處理。
圖6 SAD匹配圖
之后進行的是雙目立體算法的運行結(jié)果,如圖7所示,算法結(jié)果顯示發(fā)現(xiàn)通過該算法機器人的視覺系統(tǒng)可以獲得一個較為明顯的圖形,對于圖像呈現(xiàn)的結(jié)果是一個不錯的顯示,為機器人的目標識別得到保證。
圖7 雙目立體算法結(jié)果
算法的運行結(jié)果要于原圖像進行灰度值對比,PSNR代表峰值信噪比,公式如下,通過Matlab運行算法迭代次數(shù)以及算出每次迭代的PSNR值。
其中,umax和umin分別是參考圖像u的最大值和最小值,其中M,N為2D圖像的大小,MSE為均方差。用算法運行結(jié)果圖u?和原始圖像u進行數(shù)值比較,得到的結(jié)果PSNR為圖像識別的效果表示,如圖8所示,發(fā)現(xiàn)迭代到10次左右算法得到穩(wěn)定,結(jié)果也相對較好。
圖8 算法迭代的PSNR
本文結(jié)合物聯(lián)網(wǎng)中的目標檢測技術(shù),從而達到了物聯(lián)網(wǎng)技術(shù)對信息感知層以及零部件信息的獲得、傳輸和處理。通過采用了SAD匹配算法來加速有效圖像數(shù)據(jù)的處理,并且提出一個模擬人類視覺系統(tǒng)進行目標快速識別的模型,通過將視覺系統(tǒng)應(yīng)以及注意顯著的特征匹配和匹配區(qū)域結(jié)合的雙目立體視覺算法,大幅度提高了機器人視覺裝配系統(tǒng)的智能化程度。通過視覺系統(tǒng)精度實驗,描述了零部件識別及其定位的過程和結(jié)果分析,分析了立體式視覺系統(tǒng)在裝配中的定位精度,證明了系統(tǒng)的可行性和有效性。
[1]孔令富,吳培良.物聯(lián)網(wǎng)機器人系統(tǒng)研究進展[J].燕山大學學報,2013,37(6):471-479.
KONG Lingfu,WU Peiliang.Research Progress of Internet of Things System[J].Journal of Yanshan University,2013,37(6):471-479.
[2]楊亮,李文生,鄧春健,等.基于物聯(lián)網(wǎng)中間件的移動機器人綜合實訓平臺設(shè)計[J].實驗室研究與探索,2015,34(3):233-236.
YANG Liang,LI Wensheng,DENG Chunjian,et al.Design of an integrated training platform for mobile robot based on IoT middleware[J].Laboratory Research and Exploration,2015,34(3):233-236.
[3]田華亭,張智勇,楊海河,等.基于物聯(lián)網(wǎng)中間件的移動機器人遠程服務(wù)系統(tǒng)研究[J].自動化與儀器儀表,2016(3):68-70.
TIAN Huating,ZHANG Zhiyong,YANG Haihe,et al.Research on Mobile Robot Remote Service System Based on Internet of Things Middleware[J].Automation&Instrumentation,2016(3):68-70.
[4]高立,任旭鵬,李曉博.基于物聯(lián)網(wǎng)感知層的移動機器人自組織網(wǎng)動態(tài)視覺圖像建模[J].中國通信(英文版),2011,8(8):49-55.
GAO Li,REN Xupeng,LI Xiaobo.Dynamic visual image modeling of mobile robot self-organizing network based on the perception layer of the Internet of Things[J].China Communications(English Ver.),2011,8(8):49-55.
[5]吳永琢.智能物聯(lián)機器人系統(tǒng)的研究[J].制造業(yè)自動化,2012,34(7):135-138.
WU Yongzheng.Study on Intelligent IoT Robot System[J].Manufacturing Automation,2012,34(7):135-138.
[6]梁小曉,唐玲,曹莉,等.物聯(lián)網(wǎng)環(huán)境下的機器人技術(shù)研究[J].煤礦機械,2015,36(4):304-306.
LIANGXiaoxiao,TANGLing,CAOLi,et al.Study on Robot Technology in Internet of Things Environment[J].Coal Mine Machinery,2015,36(4):304-306.
[7]李和平,陳育新.基于物聯(lián)網(wǎng)的礦井智能巡檢機器人控制系統(tǒng)設(shè)計[J].機床與液壓,2015,43(11):119-122.
LI Heping,CHEN Yuxin.Design of Mine Intelligent Inspection Robot Control System Based on Internet of Things[J].Machine Tool&Hydraulics,2015,43(11):119-122.
[8]楊楠.移動機器人高精度定位技術(shù)研究[J].物聯(lián)網(wǎng)技術(shù),2015,5(4):25-26.
YANG Nan.Research on High-precision Positioning Technology of Mobile Robots[J].The Internet of Things Technology,2015,5(4):25-26.
[9]于勇,張暉,林茂松.基于雙目立體視覺三維重建系統(tǒng)的研究與設(shè)計[J].計算機技術(shù)與發(fā)展,2009,19(6):127-130.
YU Yong,ZHANG Hui,LIN Maosong.Research and Design of a 3D Reconstruction System Based on Binocular Stereo Vision[J].Computer Technology and Development,2009,19(6):127-130.
[10]顧騁,錢惟賢,陳錢,等.基于雙目立體視覺的快速人頭檢測方法[J].中國激光,2014,41(1):150-155.
GU Cheng,QIAN Weixian,CHEN Qian,et al.Fast human head detection method based on binocular stereo vi-sion[J].China Laser,2014,41(1):150-155.
[11]劉浩然,張文明,劉彬.基于雙目立體視覺實現(xiàn)物體三維 測 量 的 研 究[J].光 子 學 報 ,2009,38(7):1830-1834.
LIU Haoran,ZHANG Wenming,LIU Bin.Research on 3D Measurement of Objects Based on Binocular Stereo Vision[J].Acta Photonica Sinica,2009,38(7):1830-1834.