劉 凱, 劉志剛, 陳雋文
(西南交通大學 電氣工程學院, 四川 成都 610031)
承力索底座是接觸網支撐結構的重要承力部件,用于平腕臂與承力索的固定連接。列車運行時的機械振動導致承力索底座頻繁劇烈震動,工作環(huán)境惡劣,又由于列車運行沿線人煙稀少、維護難度大,承力索底座成為接觸網支撐懸掛系統(tǒng)薄弱的環(huán)節(jié)之一。目前國內接觸網非接觸式圖像檢測技術的發(fā)展尚處于初級階段,檢測效率亟待提高[1]。
目前,接觸網圖像檢測技術多集中于依據(jù)檢測目標特點匹配零部件,例如文獻[2]提出一種結合二代曲波變換與能量條帶方法定位絕緣子,文獻[3]提出一種基于快速魯棒性特征匹配及Hough變換實現(xiàn)對旋轉雙耳的精確定位,文獻[4]提出通過金字塔近鄰平均算法分解多頻率圖像并提取峰值點達到快速模糊匹配棒式絕緣子的目的。這些通過提取特定局部特征實現(xiàn)目標匹配的方法具有直觀快速的優(yōu)點,但準確率不高。文獻[5]提出計算接觸網正負樣本的方向梯度直方圖(Histogram of Oriented Gradient, HOG)特征來訓練支持向量機(Support Vector Machine,SVM),通過判斷滑動窗口內是否含有旋轉雙耳進行定位,該方法將機器學習引入接觸網零部件定位中,具有一定魯棒性,識別效率較低。深度學習[6]作為機器學習的另一種實現(xiàn)方法,通過復雜非線性結構對數(shù)據(jù)進行高層抽象提取深層特征并通過迭代訓練修正識別誤差,在識別效率與魯棒性上與其他機器學習方法相比有明顯優(yōu)勢,但由于深度學習剛剛興起,目前在接觸網圖像檢測領域的應用仍然較少。
在故障識別算法方面,接觸網零部件的故障檢測多集中于斷裂、破損等嚴重故障的檢測,如文獻[6]采用二維Gabor小波變換實現(xiàn)耳片斷裂故障檢測,文獻[7]利用譜聚類判斷瓷瓶絕緣子破損故障,文獻[8]提出通過分析邊界曲線上各點的彎曲度判斷是否存在耳片斷裂故障。由于承力索底座材質及拍攝條件的影響,定位的承力索底座圖片信噪比較低,再加上其故障初期的裂紋細小且形狀多樣容易與邊緣混淆。因此,傳統(tǒng)圖像處理方法難以提取和判別承力索底座的初期裂紋故障。
基于此,本文提出一種承力索底座的裂紋檢測方法,該方法包含承力索底座定位與裂紋檢測兩個過程。為提高定位準確率,承力索底座定位過程使用深度學習框架下的加速區(qū)域卷積神經網絡(Faster Region-based Convolutional Neural Networks,F(xiàn)aster R-CNN)[9]。裂痕檢測過程主要包括采用Radon變換及投影法提取疑似裂紋區(qū)域,使用基于Beamlet變換[10-11]的局部鏈搜索算法來判斷是否存在裂紋并提取裂紋圖像。這種裂痕檢測方法對局部的高維奇異性檢測有效,能達到快速準確檢測承力索底座裂紋的目的。
Faster R-CNN由快速區(qū)域卷積神經網絡(Fast Region-based Convolutional Neural Networks,F(xiàn)ast R-CNN)[12]改進得到,保留了Fast R-CNN的感興趣區(qū)域(Region of Interest, RoI)池化層及雙輸出端對端的基本結構;在目標候選區(qū)域的選擇方法上,通過增加候選區(qū)域建議網絡(Region Proposal Network,RPN)替換耗時較長的選擇性搜索方法,使Faster R-CNN的準確率和識別速度有明顯提升,該網絡具有識別速度快、占有資源少、識別準確率高的優(yōu)點。
Faster R-CNN的網絡結構見圖1。首先輸入單張3通道接觸網全局灰度圖像,通過預置的卷積網絡得到接觸網卷積特征圖,然后RPN網絡生成承力索底座候選區(qū)域,兩者共同輸入Fast R-CNN的RoI池化層生成特征向量,接著由損失函數(shù)回歸計算得到該張圖像的分類結果與目標坐標,最終得到承力索底座的矩形框坐標,實現(xiàn)對承力索底座的定位與提取。
(1) ZF卷積神經網絡
為提取圖像的深層特征向量,選用ZF(Zeiler & Fergus Net)卷積網絡[13]作為Faster R-CNN的訓練網絡,通過使用ReLU激勵函數(shù)、池化、全連接等方式提取圖像特征,使用小卷積核以保留更多的原始像素信息,其結構見圖2。
該神經網絡結構共8層,輸入層為原始圖像經通道復制和裁剪產生的224×224像素的3通道灰度圖像。其基本結構為
① 卷積層:各層為了感受野不同使卷積核的數(shù)量、大小、步長均不同。例如第1層包含96個卷積核,每個核的大小為7×7像素,x1和y1的步長跨度均為2。
② 激勵層:通過矯正激勵函數(shù)使網絡具有一定非線性,激勵函數(shù)為
ReLU(x1)=max(x1,0)
( 1 )
式中:ReLU為激勵函數(shù);x1為輸入的卷積值。
③ 池化層:各池化層均對卷積得到的特征圖進行最大池化操作以縮小圖片尺寸、減小網絡計算量,操作區(qū)域為3×3,步長跨度為2。
④ 全連接層:網絡最后兩層為全連接層并通過C類的Softmax函數(shù)生成結果得到特征向量,其中C為類別個數(shù)。
原始接觸網圖像經過ZF網絡卷積等操作后最終輸出256張包含接觸網圖像深層特征的卷積特征圖。
(2) RPN網絡
通過ZF卷積網絡得到圖像的深層特征向量,使用RPN網絡在接觸網圖像上提取候選區(qū)域,RPN網絡工作原理見圖3,其中k為候選區(qū)域個數(shù)。
首先將ZF網絡輸出的256維卷積特征圖輸入RPN網絡,對特征圖上的滑動窗口使用k種不同大小與長寬比的區(qū)域采集接觸網卷積特征圖的特征,得到k個候選區(qū)域及其對應256維特征向量。將該滑動窗口的k個候選區(qū)域和特征向量分別輸入分類層和回歸層,由分類層輸出候選區(qū)域內前景與背景(即是否包含目標)的得分。若卷積特征圖的候選區(qū)域與圖像中目標的真實區(qū)域的重疊率大于閾值(如0.7)時,前景標簽為1,背景為0;若小于其另一閾值(如0.3)時,則背景標簽為1,前景為0;其他不參與訓練。對于標簽為1的區(qū)域,通過回歸層修正候選區(qū)域坐標并尋找對應輸入圖像的坐標與圖像中真實的目標坐標之間的映射關系,輸出得分較高的候選區(qū)域。
(3) Fast R-CNN類別分類及坐標回歸
得到接觸網圖像候選區(qū)域及對應深層特征向量,即可通過全連接層對每個候選區(qū)域分類并精確提取目標矩形框坐標。將卷積神經網絡得到的每個候選區(qū)域及其對應特征向量經過池化層歸一化后輸入全連接層,全連接層分別連接兩個不同的輸出層,兩個輸出層具有兩個不同的優(yōu)化目標[12],第一個輸出層使用Softmax分類器通過概率大小對目標分類,若有k個識別的目標種類,加上一個背景種類,則該輸出層將輸出k+1個實數(shù),代表該候選區(qū)域中包含的物體所屬類別的概率值。第二個輸出層通過L1-loss回歸器進行邊界框回歸,該輸出層將輸出4(k+1)個實數(shù),每4個實數(shù)代表對應種類的物體所在的矩形框的精確位置,回歸器形式表示為
( 2 )
smoothL1函數(shù)綜合了平方損失函數(shù)和絕對值損失函數(shù)特點,其計算式為
( 3 )
通過選取概率最大值及對應矩形框位置得到最有可能的類別(承力索底座或背景)與對應目標的位置,通過輸入樣本圖片進行前向傳播以及反向傳播不斷修正各模塊各層卷積核等計算參數(shù)來達到代價函數(shù)最小的目的,實現(xiàn)對接觸網樣本圖片的準確分類與定位。
高速鐵路現(xiàn)場拍攝的支撐懸掛裝置圖像作為Faster R-CNN樣本庫圖片,其圖片大小為2 448×2 048像素,將樣本庫共1 764張支撐懸掛裝置圖片隨機劃分為訓練集、檢驗集、測試集。其中,訓練集用來訓練模型確定參數(shù);檢驗集用來確定網絡結構或控制模型復雜程度;測試集用來檢驗最終選擇最優(yōu)的模型的性能,部分樣本圖像見圖4。
Faster R-CNN使用輪流訓練方法,該訓練過程為
Step1輸入接觸網訓練集圖像,縮小接觸網圖像尺寸至224×224像素,使用ImageNet預訓練模型初始化各層參數(shù),調整RPN網絡參數(shù)用于候選區(qū)域提取。
Step2根據(jù)上步生成的候選區(qū)域,訓練Fast R-CNN檢測網絡。
Step3使用第二步訓練好的檢測網絡訓練RPN網絡但其中的共享卷積層固定不變。
Step4保持共享卷積層的固定,根據(jù)RPN網絡重新生成候選區(qū)域,繼續(xù)微調Fast R-CNN的其他層。
對于常規(guī)目標識別方法通常需要經過圖像預處理、圖像特征提取、特征選擇、目標分類等多個步驟分別設計算法實現(xiàn),而Faster R-CNN選取接觸網訓練集的數(shù)據(jù)作為卷積神經網絡的輸入,通過前向傳播得到網絡輸出,利用輸出值與標簽值的最大熵準則,使用反向傳播調整卷積神經網絡各層權重,選取測試集檢驗識別準確率,部分層的可視化結果和部分識別結果分別見圖5、圖6。
由于承力索底座結構復雜、裂紋形狀多變,一般圖像算法較難實現(xiàn)直接裂紋檢測。通過分析圖像特點可知,承力索底座裂紋雖形狀不定但疑似裂紋區(qū)域周圍結構特征明顯且故障位置單一,可以使用Radon變換及反變換、投影法等預處理操作提取出疑似裂紋區(qū)域,使用Beamlet變換對該區(qū)域進行多尺度分解與重構來判斷是否存在裂紋。
承力索底座定位結果提取的局部圖像具有結構特征明顯的特點,利用該特點提取承力索底座圖像中的疑似裂紋區(qū)域。先對承力索底座圖像進行基于形態(tài)學圖像增強,采取固定閾值方式二值化圖像后進行Canny邊緣算子過濾,即可得到承力索底座的明顯輪廓圖像。然后對該輪廓邊緣進行Radon變換及反變換,其連續(xù)二維平面函數(shù)f(x,y)的Radon變換為
R(ρ,θ)=
( 4 )
式中:D為整個圖像平面;f(x,y)為圖像上某點(x,y)的像素點灰度值;g為特征函數(shù);ρ為(x,y)平面內直線到原點的距離;θ為原點到直線的垂線與x軸的夾角。
對Radon重構圖像以-30°~30°的角度范圍內搜索最長及次最長直線以得到平腕臂的上下邊緣位置進而得到平腕臂提取部分圖,接著按傾斜角度矯正圖像并使用投影法[14],得到縱向灰度統(tǒng)計直方圖,通過設定閾值精確提取出承力索底座圖像,見圖7。
通過對承力索底座工作狀態(tài)及受力分析[12]可知,承力索底座的裂紋故障一般出現(xiàn)在圓筒形承力索座本體上,可以采用固定圖像高度比例的方式提取疑似裂紋區(qū)域,提取效果見圖8,提取范圍為
fres=
( 5 )
式中:fres為疑似裂紋提取結果圖像;wf為圖像寬度;hf為圖像高度;p為承力索底座正反狀態(tài),1為正面,0為反面。
由于承力索底座表面有紋理等非裂紋的冗余信息,容易造成誤檢測或漏檢。而Beamlet算法能在多尺度下刻畫方向與相位進而分析連通性,在承力索底座表面圖像這種低信噪比圖像上能夠突出有效信息明顯抑制噪聲[15],于是對基于Beamlet變換對定位提取的承力索底座圖像的裂紋檢測進行了初步研究。
首先根據(jù)圖像參數(shù)生成Beamlet字典Bn,δ來提供對所有線段集合的多尺度逼近的線段基庫,這些線段基庫通過對邊長為n的正方形圖像遞歸二進劃分(尺度即為遞歸次數(shù))、以長度δ標記頂點和連接頂點得到,尺度為3的Beamlet字典見圖9。
生成Beamlet字典Bn,δ后即可對圖像進行Beamelt變換,Beamlet連續(xù)變換定義為
( 6 )
式中:l為Beamlet字典中的線段;x3為像素位置;Tf為Beamlet變換系數(shù)。
而對于一條某一尺度下的Beamlet線段基b,其Beamlet離散變換系數(shù)為
( 7 )
b∈Bn,δ
式中:Mb為Beamlet線段基b在正方形圖像上的矩陣;x4、y4分別為正方形圖像上的橫、縱坐標。
對變形為正方形的疑似裂紋區(qū)域按照式( 7 )進行尺度為4的Beamlet變換并篩選,變換結果見圖10,其中每個方格中的白色線段即為每個二進劃分得到的正方形方格內變換系數(shù)Tf最大值對應的直線。
通過圖10(a)和圖10(b)的對比可知,對承力索底座裂紋區(qū)域直接Beamlet變換仍會出現(xiàn)部分非裂紋信息,影響狀態(tài)判斷。根據(jù)承力索底座裂紋通常為較長鏈形裂紋[16]及Beamlet變換系數(shù)表征直線信息的特點,提出對Beamlet變換得到的重構圖像使用基于鄰接表的局部鏈搜索算法提取承力索底座裂紋,算法流程為
Step1根據(jù)承力索底座Beamlet重構數(shù)據(jù),篩選Beamlet系數(shù)T大于選定閾值t1的位置ai作為局部鏈搜索的種子A。
Step2取種子的第一個數(shù)據(jù)A(0)作為局部鏈起點L(0)及鄰接表起點P(0)。
Step3搜索P(0)周圍八鄰域B的Beamlet系數(shù)T(B)。若其中一個鄰域bi∈B的Beamlet系數(shù)T(bi)>t2,且滿足該鄰域bi與P(0)的Beamlet系數(shù)差的絕對值小于閾值t3。同時bi從未被搜索過,則將bi加入鄰接表P及局部鏈L末尾。
|T(bi)-T[P(0)]| ( 8 ) Step4刪除鄰接表P中的第一個數(shù)據(jù)P(0),重復Step3直至鄰接表P為空。 Step5刪除種子A中已搜索過的所有位置bi,重復Step2得到所有局部鏈Li,直至種子A為空。比較搜索出的每個局部鏈Li的長度Lnumi與縱橫比ri是否滿足要求,見式( 9 )、式(10),輸出滿足要求的局部鏈并視其為裂紋;否則輸出狀態(tài)正常。 Lnumi>wf/2 ( 9 ) (10) 式中:Lnumi為局部鏈Li中的數(shù)據(jù)個數(shù);xmax、xmin、ymax、ymin分別為局部鏈Li中數(shù)據(jù)的橫縱坐標最值。 對提取的疑似裂紋區(qū)域進行基于Beamlet變換的局部鏈搜索算法的裂痕檢測效果見圖11,可以看出經過局部鏈搜索的Beamlet變換結果能夠較好地反映出承力索表面故障初期窄細裂紋,并且對有表面紋理等低信噪比承力索底座圖像效果明顯。 為驗證本文方法在承力索底座定位和裂紋檢測中的有效性,對122張來自現(xiàn)場的接觸網支撐與懸掛裝置圖像進行實驗檢測。其中承力索底座斷裂故障的圖像15張,定位及裂紋檢測結果見表1。在定位識別中,基于卷積神經網絡的承力索底座定位算法平均識別準確率為99.2%,平均每張圖片耗時0.12 s。為進一步比較性能,將文獻[6]提出的定位識別方法應用于承力索底座中,根據(jù)結果可知由于SVM僅為二分類且魯棒性不高,檢測準確率僅為84.4%,且使用滑動窗口的HOG特征提取次數(shù)過多,導致單張圖片耗時4.39 s。因此所使用的卷積神經網絡與其相比在識別定位效率和準確率上均有很大提高。 在裂紋檢測中,Beamlet變換能夠通過多尺度刻畫直線連通性及相位,具有較強魯棒性。其中少部分正常樣本被誤識別是由于下方接觸線對承力索座造成遮擋,將接觸線誤檢為裂紋。 表1 承力索底座故障實驗檢測數(shù)據(jù) (1) 詳細介紹了基于ZF卷積神經網絡的深度學習模型Faster R-CNN的基本結構及原理功能,提出了應用該模型定位接觸網承力索底座的方法。 (2) 介紹了根據(jù)承力索底座結構特點的疑似裂紋提取方法,提出了基于Beamlet變換的局部鏈搜索算法實現(xiàn)承力索底座窄細裂紋的檢測。 (3) 使用了接觸網數(shù)據(jù)集對所提出方法的性能進行對比驗證。實驗表明,該方法具有較高的檢測準確率,對拍攝環(huán)境、拍攝距離、拍攝角度以及曝光強度等具有較好魯棒性,且兼顧了故障發(fā)生初期裂痕較窄較細的情況,具有一定參考價值。3 檢測結果
4 結論