陸穎杰,蘇淼,黃超
(國網(wǎng)寧夏檢修公司,寧夏 銀川 750011)
繼電室主要用于電力系統(tǒng)的發(fā)電、輸電、配電、電能轉(zhuǎn)換以及在消耗中起通斷、控制和保護的作用,其可靠性關(guān)系著電力系統(tǒng)電能質(zhì)量及供電的可靠性[1~3]。目前對繼電室開關(guān)柜的檢測仍采用定期人工檢修,該方法檢修周期長,不能及時發(fā)現(xiàn)在兩次檢修之間發(fā)生的缺陷,還可能對無故障的設(shè)備檢修過度,造成資源浪費及成本增加[4-5]。設(shè)計繼電室機器人可以使得檢測智能化,并減輕人工檢修的工作量。
視覺是機器人感知外部環(huán)境的重要方式[6],可配合機器人的結(jié)構(gòu)運作來完成檢測和監(jiān)控以及數(shù)據(jù)讀取,故要求其識別模塊具有實時性、可靠性、同步性以及高精度。傳統(tǒng)的視覺識別采用滑窗法[7],以窗口的形式對圖片遍歷分割,效率較低;文獻[6]中提出的基于Mask R-CNN(Mask region convolutional neural network,Mask R-CNN)算法模型的雙目視覺技術(shù),可以準(zhǔn)實時的速度進行物體的識別和定位,滿足監(jiān)控模塊的實時性。本文把深度學(xué)習(xí)Mask R-CNN算法模型和雙目視覺技術(shù)相結(jié)合的方法應(yīng)用于繼電室機器人的實時監(jiān)控模塊,采用修正的Mask R-CNN算法來實現(xiàn)對開關(guān)柜上的鎖孔和開關(guān)兩個微小特征的識別。
繼電室開關(guān)柜的智能檢測主要包括柜門上的開鎖動作、柜內(nèi)的開關(guān)操作以及電壓瓦數(shù)讀取等,其中鎖孔和開關(guān)屬于微小特征,其直徑僅為10mm,如何高效識別這些微小特征將直接影響智能檢測的效率以及智能化的程度。由于雙目攝像機對物體定位的精度較低,而一般基于深度學(xué)習(xí)的對象檢測僅用于二維圖像,將深度學(xué)習(xí)與雙目視覺相結(jié)合,利用深度學(xué)習(xí)在二維圖像上的精準(zhǔn)定位和分類效果,結(jié)合雙目攝像機返回深度信息,最終實現(xiàn)三維圖像的定位識別。Mask R-CNN具有較高的精度和較快的速度,滿足繼電室機器人監(jiān)控系統(tǒng)實時同步性和高精度的要求。
繼電室機器人的實時監(jiān)控模塊運用于兩個場景:第一階段使用傳感器檢測暫態(tài)地電壓,判定開關(guān)柜運行狀態(tài)時,對于異常狀態(tài)的開關(guān)柜識別其鎖孔位置,并執(zhí)行開鎖操作;第二階段識別開關(guān)柜柜內(nèi)的狀態(tài)信息(指示燈狀態(tài)),必要時進行開關(guān)斷電操作。圖1為繼電室機器人在繼電室內(nèi)進行鎖孔識別的情形,其要求為:識別距離>50cm,且識別特征為10mm的鎖孔和開關(guān)。對于第一階段的開鎖操作和第二階段的開關(guān)操作,其定位精度要求較高;而第二階段的對指示燈狀態(tài)讀取沒有定位要求。環(huán)境中角度、光線以及模糊等對圖像識別有干擾,并且鎖孔以及開關(guān)的材質(zhì)反光也會對圖像識別帶來較大影響。
圖1 鎖孔識別現(xiàn)場
根據(jù)對實時監(jiān)控模塊的基本框架要求,得到如圖2所示的系統(tǒng)執(zhí)行流程。
圖2 實時監(jiān)控模塊的系統(tǒng)執(zhí)行流程
卷積神經(jīng)網(wǎng)絡(luò)模型(convolutional neural network,CNN)是一種典型的深度學(xué)習(xí)網(wǎng)絡(luò)模型[8],用于圖像識別的目標(biāo)檢測,分為定位和分類兩個步驟,包括卷積層、池化層和全連接層,分別進行特征提取、降維匯聚特征以及分類整合。式(1)為卷積公式[9],其中f(x,y)為圖片像素點矩陣,g(x,y)為卷積核(即圖片像素點的權(quán)重),改變卷積核則可以提取不同的特征。區(qū)域卷積神經(jīng)網(wǎng)絡(luò)模型(region convolutional neural network,R-CNN)則是在CNN的基礎(chǔ)上,通過選擇性搜索操作確定候選區(qū)域,先對輸入圖片進行候選區(qū)域劃分,再通過CNN網(wǎng)絡(luò)模型提取特征,最后進行分類識別,避免了對沒有特征信息的區(qū)域進行無意義的卷積。
(1)
Mask R-CNN基于R-CNN網(wǎng)絡(luò),延用的區(qū)域生成網(wǎng)絡(luò)(region proposal network,RPN)提取候選框,結(jié)合特征金字塔網(wǎng)絡(luò)(features pyramid network,F(xiàn)PN)以及感興趣區(qū)域校準(zhǔn)(region of interest Align,ROI Align),對尺度不同物體的識別效果進行優(yōu)化并得到更精確的分割。
FPN融合了高層特征和低層特征(圖3),式(2)為FPN的算法公式[9],Ci為卷積生成的不同尺寸的特征圖,Pi為融合的特征,sum為元素的對位求和,conv為卷積。其中P6為P5的最大池化,即在劃分的區(qū)域網(wǎng)格內(nèi)選擇最大值作為該區(qū)域的像素值。ROI Align保留小數(shù)計算,取消量化操作,提升準(zhǔn)確性。
圖3 FPN示意圖
(2)
RPN基于P2、P3、P4、P5、P6特征圖(圖4),對每一個特征向量回歸一個5n維的向量,然后用以描述錨框Anchor的修正值(錨框中心坐標(biāo)偏移△x、△y,錨框?qū)捀咂啤鱳、△h,前后景置信度p),根據(jù)修正值來修正錨框,式(3)為修正計算公式。
圖4 Mask R-CNN網(wǎng)絡(luò)示意圖
(3)
雙目視覺下,深度的測量基于視差[10]。如圖5所示,01、02分別為左右兩個攝像頭,同時拍攝同一物體P(x,y,z),f是焦距。在距攝像頭f距離的平面上得到點P的對應(yīng)點Pl(xl,yl)、Pr(xr,yr)。令視差d=xl-xr,Tx為兩相機間的距離。已知視差d,兩個相機光心距離b,焦距f,可以根據(jù)式(4)求出深度z。
圖5 雙目視覺視差圖
(4)
二維圖像和位置的識別均使用單目攝像頭(左攝像頭),以左攝像頭的坐標(biāo)系確定各物體位置,再使用雙目攝像頭測量物體深度。標(biāo)定時,為提高相機精度,先進行單目標(biāo)定后進行雙目標(biāo)定,并使標(biāo)定的圖像和位姿盡量多一些。
開關(guān)柜的分布如圖6所示,其中圖6(a)為開關(guān)柜上的鎖孔分布,圖6(b)開關(guān)柜內(nèi)的開關(guān)分布。從圖6中可以看到開關(guān)柜的器件分布比較簡單,且背景單調(diào)容易分辨出開關(guān)柜上的各種特征。
圖6 開關(guān)柜的分布
1) 鎖孔的識別
由于執(zhí)行開鎖任務(wù)時涉及具體操作,不僅需要獲取準(zhǔn)確的三維位置,還要使得鑰匙對準(zhǔn)鎖孔,這就需要對鎖孔進行像素化定位。本文利用Mask R-CNN模型,由CNN網(wǎng)絡(luò)和RPN網(wǎng)絡(luò)實現(xiàn)對于鎖孔的基本識別和中心點的二維定位;通過Mask R-CNN的掩碼部分,獲取鎖孔的精確像素掩膜(圖7),通過最小外接矩算法[11]對掩膜矩陣計算分析,獲取鎖孔的角度信息。開啟雙目攝像機,獲取鎖孔的深度信息,系統(tǒng)將以上信息綜合,并返回給機械臂,完成開鎖操作。
圖7 鎖孔的定位和識別
2) 開關(guān)的識別
開關(guān)的識別和鎖孔的識別原理一致,其掩膜識別如圖8所示。
圖8 開關(guān)的識別
現(xiàn)實環(huán)境中存在角度、光線、模糊等對圖像識別的干擾。為模擬開關(guān)柜室內(nèi)環(huán)境,增加模型魯棒性,對神經(jīng)網(wǎng)絡(luò)的訓(xùn)練圖像添加不同的扭曲、光照及模糊效果,并與未處理過的訓(xùn)練圖像一起構(gòu)成新的訓(xùn)練數(shù)據(jù)集,不同情況的識別效果如圖9所示。
圖9 不同情況的掩膜識別
對以上幾種變形情況,計算每個類在區(qū)域級上的平均精度[12](AP);此外,對50cm范圍處的10mm特征進行識別和定位,測試所用的時間T;用AP和T來標(biāo)定Mask R-CNN算法的識別性能。AP計算如式(5)所示。其中,TP和GT分別為檢測和目標(biāo)真實檢測結(jié)果的像素點個數(shù),AP為NGT個P值的求和平均。計算和測試結(jié)果如表1所示。
(5)
從圖9中可以看出各種變形的開關(guān)圖像均被像素化定位,相比傳統(tǒng)的Mask R-CNN,其精度有所提高,且雙目定位效率高、用時少,實現(xiàn)目標(biāo)的高效定位及識別。
由于時間與成本限制,在訓(xùn)練圖像分類模型時,對每一種類的訓(xùn)練數(shù)據(jù)控制在200~500張,屬于小型數(shù)據(jù)集。借助圖像識別底層的特征提取的相似性,本文通過微調(diào)在ImageNet 1000上預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò),修改預(yù)訓(xùn)練模型的softmax層,將已訓(xùn)練好的參數(shù)作為初始化值,并通過凍結(jié)底層參數(shù)、訓(xùn)練高層參數(shù)的方式,彌補數(shù)據(jù)量較小的不足。
對于指示燈的顏色識別,定位要求低,僅需要讀取顏色信息即可,本項目使用的開關(guān)柜內(nèi)置3種指示燈(圖10):紅色(故障),綠色(正常),黃色(異常),分別代表3種不同狀態(tài),每種狀態(tài)只亮1盞燈。訓(xùn)練模型時,分別對3個指示燈進行明暗判斷,并用one-hot編碼標(biāo)注狀態(tài)。
圖10 指示燈示意圖
指示燈部分的標(biāo)簽片段為{c1,s1,s2,s3},其中c1表示是否檢測到指示燈:若c1為0,表示模型未檢測到指示燈,則不關(guān)心s1-s3的值,即標(biāo)簽片段為{0,?,?,?};若c1為1,表示檢測到指示燈。
分別用s1-s3判斷各個燈的明暗情況,其中:s1,故障(紅);s2,異常(黃);s3,正常(綠)。用1和0分別代表指示燈的亮與暗。代表正常狀態(tài)的標(biāo)簽片段為{1,0,0,1},故障為{1,1,0,0}。
本文結(jié)合深度學(xué)習(xí)和雙目視覺技術(shù),基于雙目Mask R-CNN系統(tǒng),設(shè)計了繼電室機器人的實時監(jiān)控模塊,針對需要精準(zhǔn)定位的鎖孔和開關(guān),進行扭曲、光照以及模糊等不同變形處理的圖像訓(xùn)練,形成一個小型數(shù)據(jù)集,最終經(jīng)實驗檢測,該監(jiān)控模塊能夠?qū)崿F(xiàn)對鎖孔和開關(guān)的高效定位和精準(zhǔn)識別,在50cm的范圍外對10mm物體(鎖孔開關(guān)直徑)進行定位與識別。繼電室機器人有了實時監(jiān)控模塊便能感知定位,配合機械臂運行,真正意義上完成智能化檢測,減輕人工負(fù)擔(dān),并可承擔(dān)繁重的檢測任務(wù),對于大型繼電室具有一定的經(jīng)濟價值。