蔡振宇,張 敏,包珊珊
(西南交通大學(xué)機(jī)械工程學(xué)院,四川 成都 610031)
滾動軸承廣泛存在于機(jī)械結(jié)構(gòu)中,作為重要的旋轉(zhuǎn)機(jī)構(gòu),是最容易出現(xiàn)故障的部件之一,其中,振動信號具有非線性與非穩(wěn)定的特性,包含各種噪聲信號和振動信號,因此單從時域或頻域?qū)崿F(xiàn)準(zhǔn)確的故障診斷是非常困難[1]。文獻(xiàn)[2]利用集合經(jīng)驗(yàn)?zāi)B(tài)分解(Ensemble Empirical Mode Decomposition,EEMD)分解信號,提取模態(tài)函數(shù)(Intrinsic Mode Function,IMF)分量的均方根和重心頻率作為特征變量,選取特征的信息仍有不足,數(shù)據(jù)信息代表性不強(qiáng)。Hilbert包絡(luò)解調(diào)是一種運(yùn)用廣泛的信息解調(diào)技術(shù),但在確定帶通濾波參數(shù)時需要豐富的經(jīng)驗(yàn),限制該技術(shù)的發(fā)展[3],若直接在模態(tài)函數(shù)的基礎(chǔ)上進(jìn)行Hilbert變換則可避免帶通濾波參數(shù)的確定,同時又可研究信號的幅值包絡(luò)、瞬時相位和瞬時頻率。
目前對支持向量機(jī)(Support Vector Machine,SVM)參數(shù)優(yōu)化較好的算法有遺傳算法(GeneticAlgorithm,GA)、粒子群算法(Particle Swarm Optimization,PSO)等及其改進(jìn)的算法,但都存在類似的問題,GA與PSO極易早熟,陷入局部最優(yōu)解,且計(jì)算量大,穩(wěn)定性差,迭代收斂時間過長等缺陷。教與學(xué)算法(Teaching-Learning-Based Optimization,TLBO)是由文獻(xiàn)[4]在 2011 年提出的一種新型群體智能算法,通過教師階段和學(xué)生階段不斷的提高學(xué)生成績。教與學(xué)算法具有參數(shù)少,算法簡單易理解,求解精度高等優(yōu)點(diǎn),但教師階段的學(xué)習(xí)因子過于隨機(jī),不利于局部細(xì)微搜索,以及學(xué)生學(xué)習(xí)內(nèi)容不能過于信任,易陷入局部最優(yōu)。引入改進(jìn)的教與學(xué)算法優(yōu)化SVM參數(shù)模型,采用EEMD_Hilbert進(jìn)行數(shù)據(jù)處理提取特征變量,代入ITLBO_SVM故障診斷模型內(nèi),實(shí)現(xiàn)高效故障診斷。
利用白噪聲頻譜均衡分布特點(diǎn),EEMD通過給目標(biāo)信號加入一定幅值的高斯白噪聲來均衡噪聲,可以有效解決EMD出現(xiàn)模態(tài)混疊的現(xiàn)象。EEMD可對各種非線性和非穩(wěn)定的信號進(jìn)行準(zhǔn)確處理,其分解具體步驟如下:
(1)隨機(jī)生成μ為0,σ為en的高斯白噪聲nm,設(shè)定原始參數(shù),M表示EMD分解次數(shù),m表示第m次分解,1≤m≤M。
(2)將高斯白噪聲nm(t)加入待處理的信號y(t)中,得到信號為ym(t),即為:
(3)將合成信號ym(t)進(jìn)行經(jīng)驗(yàn)?zāi)B(tài)分解分解后得到S個IMF 分量 cs,m(t),cs,m(t)表示進(jìn)行第 m 次 EMD 分解后的第 s 個IMF分量;
式中:S—分解得到IMF的個數(shù);rm—第m次EMD分解后的余
項(xiàng);cs,m(t)—按頻率進(jìn)行降序排列。
(4)若 m (5)計(jì)算進(jìn)行M次EMD分解后得到每個IMF分量的均值,根據(jù)不相關(guān)隨機(jī)序列統(tǒng)計(jì)均值為0,消除加入高斯白噪聲對真實(shí)IMF分量的影響,即為: 信號進(jìn)行EEMD分解得到若干個順序?yàn)榻荡蔚腎MF,選取前幾個作為研究對象,后面以殘存低頻噪聲為主,不予考慮。對選取的模態(tài)函數(shù)進(jìn)行Hilbert變換,解調(diào)原理如下: 濾波器公式: 將前幾個主要IMFS及其解調(diào)信息作為特征提取對象,為有效提取特征值,挑選合適的統(tǒng)計(jì)特征值來對處理的信息進(jìn)行特征提取,選取的統(tǒng)計(jì)特征值依次是均值、峰值、極差、標(biāo)準(zhǔn)差、偏度、峰度、變異系數(shù)和平方和。 綜合上述統(tǒng)計(jì)特征量,特征維度較高,采用核主元分析(Kernel Principal Component Analysis,KPCA)對特征維度進(jìn)行特征降維,便于后面快速故障診斷??紤]篇幅問題不對KPCA降維具體內(nèi)容進(jìn)行論述,詳細(xì)參考文獻(xiàn)[5]。 支持向量機(jī)通過核函數(shù)來實(shí)現(xiàn)實(shí)現(xiàn)線性不可分向線性可分的轉(zhuǎn)化,研究表明徑向基核函數(shù)在SVM中表現(xiàn)出良好的泛化能力,其形式,如式(7)所示。 把滿足具有多維樣本輸入和一維樣本輸出原則的向量,作為輸入向量從原來的空間映射到高維特征空間H,并在該特征空間H內(nèi)建立優(yōu)化超平面。分類線方程如下[6-8]: 式中:ω—權(quán)值;x—輸入向量;b—閾值;l—向量的個數(shù)。 根據(jù)Karush-Kuhn-Tucker,優(yōu)化各個系數(shù)得到最優(yōu)分類函數(shù): 適應(yīng)度函數(shù)則為: 由式(11)可知進(jìn)行SVM分類模型構(gòu)建時,性能的關(guān)鍵因素在于懲罰參數(shù)C和核函數(shù)σ的選取。 3.2.1 教師階段 假設(shè)班級總?cè)藬?shù)為H,學(xué)生科目數(shù)為J,算法迭代次數(shù)為k,Mj,k為學(xué)生在j科目下的平均水平。選擇當(dāng)前適應(yīng)度值最好的個體作為教師來實(shí)現(xiàn)教學(xué)階段。式(12)為科目j當(dāng)前學(xué)生平均水平與教師水平之間的差。 式中:rk—(0~1)的隨機(jī)數(shù);Xj,hbest,k—在科目 j時教師的水平。TF=round[1+rand(0,1)]—教學(xué)因子,取值為 1 或 2。 教師階段各個個體進(jìn)行更新,如式(13)所示。 各個體更新后,若 xj,h,k的適應(yīng)度值優(yōu)于 xj,h,k,則接受 xj,h,k,反之則接受 x′j,h,k。 3.2.2 學(xué)生階段 學(xué)生階段通過個體與個體互相學(xué)習(xí)來提高整體學(xué)習(xí)水平,分析兩兩個體之間的學(xué)習(xí)差異進(jìn)行學(xué)習(xí)更新。該階段學(xué)生學(xué)習(xí)更新由式(14)給出。 式中:學(xué)生P≠Q(mào),在當(dāng)前迭代次數(shù)為k時各對應(yīng)的學(xué)習(xí)水平為分別為 Xj,P,k和Xj,Q,k在教師過程教導(dǎo)后的更新值,優(yōu)化目標(biāo)函數(shù)為(fx)。若新解對應(yīng)的適應(yīng)度值優(yōu)于,則選擇更新后的反之則選擇 3.3.1 教學(xué)因子的改進(jìn) 在算法學(xué)習(xí)前期,個體與個體之間差異較大,而學(xué)習(xí)后期整體水平相差不大?;綯LBO算法選擇TF時采用隨機(jī)0或1,較大的隨機(jī)性讓算法前期和后期都存在很大的動態(tài)性。因此為保證算法前期和后期能分別實(shí)現(xiàn)穩(wěn)定的全局搜索和局部細(xì)微搜索,引入改進(jìn)教學(xué)因子,具體由式(15)給出。 3.3.2 權(quán)重因子的引進(jìn) 算法前期,學(xué)生學(xué)習(xí)能力強(qiáng),接受知識內(nèi)容較多;算法后期學(xué)生學(xué)習(xí)疲憊,記憶能力減弱,所接受的知識內(nèi)容較少;教學(xué)階段和學(xué)習(xí)階段兩者所接受的知識能力也有所差別,教師教授學(xué)生知識能力較強(qiáng),相比于學(xué)生個體之間的相互學(xué)習(xí)所接受的知識內(nèi)容要更多,因此引入兩種信任權(quán)重[9]。 式中:ω1、ω2—教師階段和學(xué)生階段的信任權(quán)重;Kmax—最大迭代次數(shù);k—當(dāng)前迭代次數(shù)。教師階段解的更新式(13)引入信任權(quán)重ω1,如式(18)所示。 引入信任權(quán)重ω2后,對學(xué)生階段更新過程式(14)進(jìn)行修改,如式(19)所示。 利用EEMD將原始信息分解成若干個IMF,再對其進(jìn)行Hilbert變換得到IMFS的解調(diào)信息;對兩者信息集進(jìn)行統(tǒng)計(jì)特征提??;由于特征維數(shù)過多,計(jì)算時間與效果會變差,采用KPCA進(jìn)行特征再次提取,獲取最佳的特征信息;最后采用ITLBO_SVM構(gòu)造診斷模型進(jìn)行多分類故障診斷。 采用美國CaseWesternReserveUniversity電氣工程實(shí)驗(yàn)室的滾動軸承實(shí)驗(yàn)平臺數(shù)據(jù)[10]進(jìn)行仿真實(shí)驗(yàn)研究,實(shí)驗(yàn)設(shè)備包括電機(jī)、轉(zhuǎn)矩傳感器、功率計(jì)和電子控制設(shè)備。該實(shí)驗(yàn)測試的軸承是選自SFK公司生產(chǎn)的6205-2RS深溝球軸承,并對實(shí)驗(yàn)的軸承進(jìn)行電火花加工,以模擬點(diǎn)蝕故障,故障點(diǎn)分別在內(nèi)圈、滾動體及外圈上。 本選取滾動軸承在轉(zhuǎn)速為1797r/min,采樣頻率為12kHz情況下的正常工作、內(nèi)圈故障、滾動體故障和外圈故障四種不同狀態(tài)下工作中的滾動軸承振動數(shù)據(jù)信息,其中外圈故障這里選擇選擇發(fā)生在6點(diǎn)鐘方向上。并且同時考慮三種故障狀態(tài)下的三種損傷尺寸,分別為0.178mm,0.356mm,0.533mm。 4.2.1 不同信號處理方法的對比研究 方法a將信號進(jìn)行EEMD_Hilbert變換得到模態(tài)函數(shù)及瞬時頻率,對其進(jìn)行8個統(tǒng)計(jì)特征量提取,再進(jìn)行KPCA降維,記為EEMD_H模型。方法b與方法a類似,不同在于不進(jìn)行Hilbert變換,直接對模態(tài)函數(shù)進(jìn)行統(tǒng)計(jì)特征提取,記為EEMD模型。方法c對原始信號進(jìn)行EMD分解,后面處理方法和方法a一樣,記為EMD_H模型。三種特征提取方法提取的特征數(shù)據(jù)代入PSO優(yōu)化SVM參數(shù)模型進(jìn)行分類,最后進(jìn)行對比研究。粒子群算法初始參數(shù):種群數(shù)20,最大迭代數(shù)400。結(jié)果,如表1(數(shù)據(jù)結(jié)果為10次平均值)所示。同一信號分別進(jìn)行EEMD和EMD分解之后選擇首個IMF進(jìn)行圖像化的波形圖,如圖1所示。 表1 三種分類結(jié)果Tab.1 Three Classification Results 圖1 兩種方法首個IMF圖Fig.1 Two Methods the First IMF Graph 利用PSO優(yōu)化SVM參數(shù)做最后結(jié)果分析而不用提出的ITLBO算法優(yōu)化SVM參數(shù),是為單純說明該特征提取方法的優(yōu)越性,控制變量因素而不引入其他因素。圖1能看出EEMD在分解信號時可以較好避免EMD分解信號的模態(tài)混疊現(xiàn)象,且從表1可得出EEMD_H方法正確率更高。不進(jìn)行Hilbert變換處理的數(shù)據(jù)沒有加入變換后頻率數(shù)值,數(shù)據(jù)維數(shù)少一部分,進(jìn)行降維后維數(shù)變少,因此以迭代時間縮短,但正確率卻并不理想,比加入Hilbert變換數(shù)據(jù)要差5%多,說明加入Hilbert變換使提取特征信息更全面,能達(dá)到更好的數(shù)據(jù)特征提取。 4.2.2 不同參數(shù)尋優(yōu)迭代收斂的對比研究 利用目前成熟的粒子群算法PSO優(yōu)化SVM參數(shù)構(gòu)造的診斷模型與TLBO和ITLBO優(yōu)化SVM參數(shù)構(gòu)造的診斷模型進(jìn)行對比,各優(yōu)化算法參數(shù),如表2、表3所示。 表2 算法參數(shù)設(shè)定表Tab.2 Algorithm Parameter Setting Table 表3 ITLBO、TLBO與PSO對SVM參數(shù)尋優(yōu)Tab.3 ITLBO,TLBO and PSO Optimization of SVM Parameters 圖2 三種算法SVM參數(shù)迭代對比Fig.2 Three Algorithms SVM Parameters Iterative Comparison ITLBO和TLBO算法區(qū)別就在于加入了自適應(yīng)學(xué)習(xí)因子、信任權(quán)重,ITLBO利用自適應(yīng)教學(xué)因子來控制學(xué)習(xí)速度,在教師階段和學(xué)生階段加入學(xué)習(xí)信任權(quán)重,平衡全局搜索和局部搜索,隨著迭代次數(shù)越高,搜索區(qū)域就越細(xì)微,精確度就會提升到最高,使得訓(xùn)練集正確率更高。由于ITLBO算法引入自適應(yīng)學(xué)習(xí)因子,學(xué)習(xí)速度在一定程度上有所減弱,但從圖2可以看出,算法在很小的迭代次數(shù)下就能收斂到最優(yōu),因此可以在縮短最大迭代次下提高時間效率,可以達(dá)到高效尋優(yōu)。PSO算法迭代時間適中,但正確率最低。ITLBO算法能在較短的迭代次數(shù)下收斂到最高的訓(xùn)練集正確率,且能跳出局部最優(yōu),最后實(shí)現(xiàn)更好的故障診斷。因此綜合考慮,ITLBO算法迭代效果更好,更適合SVM參數(shù)尋優(yōu)問題。 4.2.3 不同模型故障診斷的對比研究 利用粒子群算法PSO和TLBO分別優(yōu)化SVM參數(shù)構(gòu)造的模型與改進(jìn)的教與學(xué)算法ITLBO優(yōu)化SVM參數(shù)進(jìn)行對比,分別記為PSO模型、TLBO模型和ITLBO模型。各算法初始參數(shù)設(shè)置,如表2所示。改進(jìn)算法的權(quán)重和上述設(shè)置一樣。將處理好的訓(xùn)練集和測試集代入構(gòu)造好的模型,進(jìn)行結(jié)果分析結(jié)果,(數(shù)據(jù)為10次實(shí)驗(yàn)值)如表4所示。ITLBO模型比TLBO模型和PSO模型診斷正確率分別高0.15%、0.25%左右。極差、方差越小說明數(shù)據(jù)越穩(wěn)定,表4可以看出ITLBO極差和方差都最小,且十次平均正確率最高,可以說明改進(jìn)算法不僅將故障診斷率優(yōu)化到最高,而且效果更穩(wěn)定,TIBO次之,PSO效果最差。改進(jìn)TLBO相比基本TLBO來說,引入自適應(yīng)教學(xué)因子、信任權(quán)重和加快學(xué)習(xí)速率能很好的優(yōu)化算法本身的缺陷,實(shí)現(xiàn)更好的SVM參數(shù)優(yōu)化。綜上表明ITLBO算法對SVM參數(shù)優(yōu)化可以很好的實(shí)現(xiàn)滾動軸承故障診斷。 表4 三種分類結(jié)果Tab.4 Three Classification Results 提出一種采用集合經(jīng)驗(yàn)?zāi)B(tài)分解、Hilbert變換的特征提取方法,并利用ITLBO優(yōu)化支持向量機(jī)分類參數(shù)的滾動軸承故障診斷方法。將振動信號進(jìn)行EEMD分解,避免了EMD分解的模態(tài)混疊現(xiàn)象,準(zhǔn)確提取信號特征;通過對IMFS分量進(jìn)行Hilbert變換獲得頻域統(tǒng)計(jì)特征,綜合了Hilbert處理數(shù)據(jù)的優(yōu)點(diǎn),避免帶通濾波參數(shù)的選取,實(shí)現(xiàn)原始信號特征更準(zhǔn)確提??;最后利用ITLBO算法優(yōu)化SVM參數(shù),在基本TLBO算法里引入自適應(yīng)教學(xué)因子、信任權(quán)重對算法進(jìn)行改進(jìn),使算法在全局搜索和局部搜索達(dá)到一個很好的平衡,比TLBO和PSO識別率更高、效果更加穩(wěn)定。案例分析的結(jié)果證明,運(yùn)用該算法模型在故障診斷方面是一條可行的途徑。2.2 Hilbert包絡(luò)解調(diào)原理
2.3 統(tǒng)計(jì)特征提取與降維
3 基于ITLBO_SVM故障診斷
3.1 支持向量機(jī)
3.2 教與學(xué)算法
3.3 改進(jìn)的教與學(xué)算法
3.4 滾動軸承故障診斷
4 案例分析
4.1 數(shù)據(jù)特征樣本
4.2 各種方法結(jié)果對比研究
5 結(jié)束語