陳月鳳
(山東職業(yè)學(xué)院,山東 濟南 250104)
隨著旋轉(zhuǎn)機械的集成度和復(fù)雜度越來越高,滾動軸承作為基礎(chǔ)部件,其運行狀態(tài)受到了極大挑戰(zhàn)和關(guān)注。在復(fù)雜多變的運行狀態(tài)下,軸承極易發(fā)生損壞,輕則影響生產(chǎn)進程,重則引起裝備損壞、人員傷亡等災(zāi)難性事故[1],因此研究軸承故障監(jiān)測技術(shù)具有現(xiàn)實意義和工程價值。
隨著監(jiān)測設(shè)備數(shù)量增加和采樣頻率提高,軸承故障狀態(tài)監(jiān)測進入“大數(shù)據(jù)”時代,監(jiān)測數(shù)據(jù)與人工智能相結(jié)合的故障診斷技術(shù)成為研究熱點。仔細(xì)劃分,故障智能診斷技術(shù)可分為傳統(tǒng)智能方法和深度學(xué)習(xí)智能方法。傳統(tǒng)智能診斷方法分為信息采集、特征提取、識別分類等3個經(jīng)典步奏[2],開始出現(xiàn)的故障特征為時域信號和頻域信號,但是在變工況條件下時域特征和頻域特征不具有穩(wěn)定性,此時出現(xiàn)了模態(tài)分解[3]、小波分解[4]等時頻域特征分析方法。智能識別過程本質(zhì)上是模式識別,包括隨機森林[5]、支持向量機[6]、隱形馬爾科夫模型[7]等。傳統(tǒng)智能診斷方法將特征提取與模式識別完全割裂開,且故障特征提取過于依賴先驗知識和專家經(jīng)驗,因此出現(xiàn)了深度學(xué)習(xí)智能診斷方法。深度學(xué)習(xí)可以從多模態(tài)數(shù)據(jù)中自動提取潛在故障特征,傳統(tǒng)時域、頻域、時頻域特征量均具有明確的物理含義,而深度學(xué)習(xí)提取的特征量一般沒有具有的物理含義,是更加泛化意義的特征量。而且深度學(xué)習(xí)將故障提取與模式識別融合為一體,實現(xiàn)輸入信號到故障診斷一體化、融合性診斷。文獻[8]對DBN算法進行了兩點改進,一是使用梯度下降法微調(diào)權(quán)重參數(shù),二是使用粒子群算法對DBN結(jié)構(gòu)進行優(yōu)化,提高了故障識別正確率和魯棒性。文獻[9]將去噪編碼融入到深度神經(jīng)網(wǎng)絡(luò)中,實現(xiàn)了非監(jiān)督的特征提取,該方法分類效果好,且魯棒性較強??偟膩碇v,深度學(xué)習(xí)智能診斷技術(shù)研究還不夠深入,面臨解決的問題較多,比如深度學(xué)習(xí)網(wǎng)絡(luò)的優(yōu)化、大量樣本要求、無監(jiān)督樣本情況下診斷等。
研究了軸承變工況下的故障診斷問題,將注意力機制融入到卷積神經(jīng)網(wǎng)絡(luò)中,幫助卷積神經(jīng)網(wǎng)絡(luò)挖掘隱藏在輸入信息中的深層敏感特征,達到提高變工況下軸承故障診斷準(zhǔn)確率的目的。
卷積神經(jīng)網(wǎng)絡(luò)的自適應(yīng)拓?fù)浣Y(jié)構(gòu)允許輸入任意維度的數(shù)據(jù),實現(xiàn)了端到端自動學(xué)習(xí),無需專家經(jīng)驗和先驗知識提取特征,能夠深度挖掘隱藏在原始數(shù)據(jù)中的故障特征。卷積神經(jīng)網(wǎng)絡(luò)由卷積層、激活層、批量歸一化層、池化層和全連接層組成[10]。
2.1.1 卷積層
2.1.2 激活層
激活層的作用是獲得輸入信號的非線性表達,增強信號的表達能力和學(xué)習(xí)特征的可分性。常用的激活函數(shù)包括sigmoid 函數(shù)、tanh函數(shù)、線性整流ReLU函數(shù),其中sigmoid函數(shù)和tanh函數(shù)在反向傳播時存在梯度消失問題、正向傳播時存在冪函數(shù)運算問題,因此使用線性整流ReLU函數(shù)作為激活函數(shù),其表達式為:
式中:y(k)—批量歸一化層的輸出特征
2.1.4 池化層
池化層是為了提取重要的特征信息,達到降低特征維度的目的。常見池化方式分為平均池化和最大池化,使用最大池化方式,最大池化方式可以獲得與位置無關(guān)的特征,對于軸承周期性振動信號極為適用。
2.1.5 全連接層
全連接層一般與softmax 函數(shù)結(jié)合作為分類器或識別器使用。分為三個步驟執(zhí)行:(1)將最后一級池化層的輸出平鋪,作為全連接層輸入;(2)輸入與輸出之間使用多層隱含層連接,隱含層神經(jīng)元使用ReLU作為激勵函數(shù);(3)使用softmax函數(shù)將隱含層輸出進行概率歸一化,作為輸出層輸出。
將平鋪得到的特征向量輸入到全連接層,得到輸出為:
式中:H—全連接層輸出數(shù)據(jù)數(shù)量。
使用卷積層、激活層、批量歸一化層、池化層和全連接層組成卷積神經(jīng)網(wǎng)絡(luò),一維卷積神經(jīng)網(wǎng)絡(luò)框架,如圖1所示。
圖1 一維卷積神經(jīng)網(wǎng)絡(luò)框架Fig.1 Frame of One?Dimensional Convolutional Neural Network
進行參數(shù)優(yōu)化,首先要建立損失函數(shù)。交叉熵可以描述兩個概率分布之間的距離,距離越大表明概率分布相差越大,距離越小表明概率分布差別越小。選擇交叉熵作為損失函數(shù),用于描述實際輸出與期望輸出間的差異性,為:
式中:M—小批量(mini?batch)的規(guī)模;j—序列編號;ym(j)—實際輸出;y′m(j)—期望輸出。
損失函數(shù)對各層參數(shù)的反向求導(dǎo)過程繁瑣,可參考文獻[11]推導(dǎo)過程,這里不再贅述。深度卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)和超參數(shù)較
式中:ε—學(xué)習(xí)步長,δ=10?8—數(shù)值穩(wěn)定常數(shù)。
其他層的參數(shù)優(yōu)化方法與全連接層完全一致,按照從最后層逐次向前一層優(yōu)化的順序,直至損失函數(shù)滿足要求,完成參數(shù)優(yōu)化。
注意力機制通過注意力權(quán)值的方式,使卷積神經(jīng)網(wǎng)絡(luò)更加專注于與輸出有關(guān)的有用信息,從眾多特征中選擇對當(dāng)前任務(wù)更敏感的深層特征。
注意力機制(Attention Mechanism,ATTM)的實現(xiàn)方式為:根據(jù)卷積層學(xué)習(xí)到的特征映射Zj重要性計算其注意力權(quán)值aj,使用注意力權(quán)值aj對Zj加權(quán)后得到加權(quán)特征Zj′,將Zj′作為卷積神經(jīng)網(wǎng)絡(luò)下一層輸入。注意力機制分為特征聚合、權(quán)重生成、權(quán)重分配三個步驟實現(xiàn)。
3.1.1 特征聚合
特征映射是指對卷積層學(xué)習(xí)到的特征映射進行聚合,將一個特征映射聚合為一個特征量,所有特征映射聚合為一個特征向量,此特征向量具有全局感受野,聚合方法為:
式中:K1—第一層全連接層權(quán)值向量;K2—第二層全連接層權(quán)值向量;c?j—第一層全連接層輸出;aj—權(quán)值向量。
3.1.3 權(quán)重分配
權(quán)重分配是指將注意力權(quán)值aj與各自特征映射Zj匹配相乘,得到加權(quán)新特征Zj′,如此實現(xiàn)了對特征的“主次之分”,即:
總的來講,注意力機制通過不同特征通道重要程度為其賦不同權(quán)值,使神經(jīng)網(wǎng)絡(luò)更加關(guān)注重要特征而抑制次要特征。這是一種特征重標(biāo)定方法,而不是將其映射至其他空間。根據(jù)以上3個步驟,得到注意力機制的結(jié)構(gòu)示意圖,如同2所示。
圖2 注意力機制結(jié)構(gòu)示意圖Fig.2 Structure of Attention Mechanism
將注意力機制融合到卷積神經(jīng)網(wǎng)絡(luò)中,幫助卷積神經(jīng)網(wǎng)絡(luò)提取隱含的高敏感特征信息。融合注意力機制的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),如圖3所示。
圖3 融合注意力機制的卷積神經(jīng)網(wǎng)絡(luò)Fig.3 Convolutional Neutral Network Incorporating Attention Mechanism
由圖3 可以看出,設(shè)計的融合注意力機制的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neutral Network Incorporating Attention Mecha?nism,ATTM?CNN)由若干個特征提取層和全連接層組成,特征提取層之間是空間映射和特征提取不斷深化的過程,信息在特征提取層之間傳遞是不斷挖掘隱藏高敏感特征的過程。全連接層為故障識別與分類層,輸出屬于各類故障的概率。注意力機制鑲嵌在特征提取層內(nèi),使神經(jīng)網(wǎng)絡(luò)更加關(guān)注敏感特征和有用信息,減少對無用信息的注意力,達到提取隱藏在輸入信息中高敏感特征的目的。
在此需要強調(diào)的是,注意力機制中包含的參數(shù)K1、K2也參與反向優(yōu)化過程,優(yōu)化方法與優(yōu)化過程同前文一致。
針對滾動軸承故障診斷問題,提出了融合注意力機制的卷積神經(jīng)網(wǎng)絡(luò)診斷方法,此方法具有以下3點突破和改進:(1)突破了傳統(tǒng)智能診斷方法對故障特征提取和模式識別分別設(shè)計的思路,實現(xiàn)了信號輸入到故障識別端到端的診斷方法;(2)突破了傳統(tǒng)的時域、頻域、時頻域特征,從輸入信息中挖掘不具有物理意義的多樣性特征,使故障特征更加具有普遍意義、更加多樣性;(3)將注意力機制與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,使神經(jīng)網(wǎng)絡(luò)更加關(guān)注敏感特征和有用信息?;贏TTM?CNN的滾動軸承故障診斷方法包括數(shù)據(jù)獲取、訓(xùn)練階段和診斷階段三個部分。數(shù)據(jù)獲取:根據(jù)實驗?zāi)康脑O(shè)計試驗方案,獲取軸承不同狀態(tài)下的振動信號,對振動信號進行增強獲得樣本數(shù)據(jù)。訓(xùn)練階段:訓(xùn)練階段的主要任務(wù)是使用Adam 算法獲得最優(yōu)網(wǎng)絡(luò)參數(shù)。首先初始化卷積神經(jīng)網(wǎng)絡(luò)參數(shù),使用信息的前向傳遞逐層進行計算,獲得輸出值。依據(jù)損失函數(shù)計算期望輸出與實際輸出距離,通過誤差反向傳遞使用Ad?am算法對網(wǎng)絡(luò)權(quán)值進行優(yōu)化,直至滿足誤差要求。測試階段:使用訓(xùn)練完畢的ATTM?CNN算法對測試樣本進行故障診斷,測試ATTM?CNN算法的診斷準(zhǔn)確率和泛化能力。
以美國凱斯西儲大學(xué)提供的軸承試驗數(shù)據(jù)為研究對象,在軸承試驗中對兩種軸承SKF6205 和SKF6203 進行了試驗,分別安裝在驅(qū)動端和風(fēng)扇端本文以SKF6205型號軸承數(shù)據(jù)為研究對象,采樣頻率為48kHz,負(fù)載分為0、1hp、2hp、3hp等4種負(fù)載。根據(jù)故障位置和故障尺寸軸承狀態(tài)區(qū)分為10 類,分別為健康狀態(tài)(N)、內(nèi)環(huán)7mils故障(IR07)、內(nèi)環(huán)14mils故障(IR14)、內(nèi)環(huán)21mils故障(IR21)、外環(huán)7mils故障(OR07)、外環(huán)14mils故障(OR14)、外環(huán)21mils故障(OR21)、滾動體7mils故障(B07)、滾動體14mils故障(B14)、滾動體21mils 故障(B21)。不同載荷下的相同故障類型和尺寸視為一類狀態(tài)。
數(shù)據(jù)增強是指從有限的試驗數(shù)據(jù)中通過變換獲得新數(shù)據(jù)的過程,對于一維采樣數(shù)據(jù),通過數(shù)據(jù)重疊分割的方法實現(xiàn)數(shù)據(jù)增強。記采集的原始數(shù)據(jù)長度為L1,分割的單個樣本長度為L2,分割步長為D,則分割獲得的樣本數(shù)量為:
式中:N—分割得到的樣本數(shù)量。具體操作方法,如圖4所示。
圖4 數(shù)據(jù)增強Fig.4 Data Augmentation
按照圖4所示的數(shù)據(jù)增強方法獲得在4種負(fù)載下、10種故障狀態(tài)下各2000組數(shù)據(jù),如表1所示。
表1 樣本數(shù)據(jù)量Tab.1 Sample Data Quantity
根據(jù)前文的采集數(shù)據(jù),按照負(fù)載大小區(qū)分可以分為4 個工況。為了研究ATTM?CNN算法在軸承變工況下的診斷準(zhǔn)確率,設(shè)計兩組實驗,第一組從負(fù)載為(1~3)hp中任意一種工況為訓(xùn)練集,另一工況為測試集,共進行6組測試。為進一步驗證ATTM?CNN算法的泛化能力,第二組實驗從4種工況中任意選擇2種作為測試樣本,其余兩種作為測試樣本,共進行6組測試,兩組實驗方案,如表2所示。
表2 實驗方案Tab.2 Experiment Scheme
設(shè)計的ATTM?CNN網(wǎng)絡(luò)包含1層輸入層、4層特征提取層、1層全連接層、1層輸出層,各層的卷積核尺寸、數(shù)量、輸出尺寸,如表3所示。
表3 網(wǎng)絡(luò)結(jié)構(gòu)Tab.3 Network Structure
分別使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)、融合注意力機制的卷積神經(jīng)網(wǎng)絡(luò)(ATTM?CNN)對兩組實驗進行變工況故障診斷,為了防止隨機性對實驗結(jié)果產(chǎn)生影響,兩種方法均進行10組實驗,取平均值作為實驗結(jié)果。為了展示ATTM?CNN網(wǎng)絡(luò)的訓(xùn)練過程,以第一組實驗的編號1數(shù)據(jù)為例,在迭代過程中訓(xùn)練樣本和測試樣本的損失函數(shù)及準(zhǔn)確率變化情況,如圖5所示。
從圖5(a)可以看出,在迭代12次后訓(xùn)練集損失函數(shù)值接近0,但是由于訓(xùn)練次數(shù)較少出現(xiàn)了過擬合現(xiàn)象,使得測試樣本損失函數(shù)值較大,而且出現(xiàn)了振蕩現(xiàn)象。當(dāng)訓(xùn)練迭代次數(shù)足夠大時,模型擬合能力逐漸增強,迭代至120次以后測試樣本損失函數(shù)值不再振蕩。分析圖5(b)可知,迭代至12次左右時,訓(xùn)練樣本故障診斷準(zhǔn)確率達到100%,由于過擬合問題導(dǎo)致測試樣本準(zhǔn)確率波動較大,直至充分訓(xùn)練至120次時,測試樣本故障識別準(zhǔn)確率穩(wěn)定在較高水平。綜合圖5可知,損失函數(shù)與識別準(zhǔn)確率具有一定相關(guān)性,當(dāng)損失函數(shù)穩(wěn)定在較低值時,故障識別準(zhǔn)確率穩(wěn)定在較高水平。
圖5 訓(xùn)練迭代過程Fig.5 Training Iteration Process
使用訓(xùn)練完畢的ATTM?CNN網(wǎng)絡(luò)對第一組實驗的測試樣本進行故障診斷結(jié)果,如圖6、表4所示。
圖6 變工況下診斷結(jié)果Fig.6 Testing Result Under Variable Condition
表4 變工況下診斷結(jié)果Tab.4 Testing Result Under Variable Condition
由圖6和表4可知,卷積神經(jīng)網(wǎng)絡(luò)的故障識別平均準(zhǔn)確率為94.45%,融合注意力機制的卷積神經(jīng)網(wǎng)絡(luò)故障識別平均準(zhǔn)確率為97.39%,比卷積神經(jīng)網(wǎng)絡(luò)提高了2.94%。尤其是負(fù)載1hp 和2hp工況相互轉(zhuǎn)化時,故障識別準(zhǔn)確率均在99%以上,是因為兩個工況較為接近,所有在變工況下故障識別準(zhǔn)確率極高。按照以上過程,得到第二組實驗診斷結(jié)果,如表5所示。
由表5可知,在兩工況組合的變工況下,ATTM?CNN網(wǎng)絡(luò)的故障識別準(zhǔn)確率為96.57%,比CNN網(wǎng)絡(luò)提高了3.42%。結(jié)合表4和表5,在單工況和兩工況的變工況下,ATTM?CNN 網(wǎng)絡(luò)均比CNN網(wǎng)絡(luò)的故障識別準(zhǔn)確率高3%左右,這是因為在卷積神經(jīng)網(wǎng)絡(luò)中加入注意力機制,能夠使卷積神經(jīng)網(wǎng)絡(luò)更加關(guān)注有用信息,挖掘隱藏輸入數(shù)據(jù)中的高敏感特征,從而提高了故障識別準(zhǔn)確率。
表5 第二組實驗診斷結(jié)果Tab.5 Testing Result of the Second Experiment
研究了滾動軸承在變工況下的故障診斷問題,將注意力機制融入到卷積神經(jīng)網(wǎng)絡(luò)中,提出了基于ATTM?CNN網(wǎng)絡(luò)的診斷方法。經(jīng)驗證可以得出以下結(jié)論;(1)注意力機制可以使卷積神經(jīng)網(wǎng)絡(luò)關(guān)注有用信息和關(guān)鍵特征,提取輸入信息中的敏感深層特征;(2)與CNN網(wǎng)絡(luò)相比,ATTM?CNN網(wǎng)絡(luò)在變工況下的診斷準(zhǔn)確率提高了3%左右。