謝由生,張 軍
(安徽理工大學(xué) 人工智能學(xué)院,安徽 淮南 232001)
作為現(xiàn)代工業(yè)中的關(guān)鍵設(shè)備,智能機(jī)械設(shè)備在電力、航空和工業(yè)生產(chǎn)等眾多領(lǐng)域發(fā)揮著至關(guān)重要的作用。
但是智能機(jī)械設(shè)備中的典型部件,如軸承、齒輪的故障,嚴(yán)重威脅著智能機(jī)械設(shè)備的安全、可靠運(yùn)行。故障診斷是確保這些智能機(jī)械設(shè)備長(zhǎng)期、穩(wěn)定運(yùn)行的重要手段之一[1]。
近些年,隨著深度學(xué)習(xí)在自然語(yǔ)言處理(natural language processing, NLP)[2]、計(jì)算機(jī)視覺(jué)(computer vision,CV)[3]等領(lǐng)域取得的重大成功,眾多學(xué)者把深度學(xué)習(xí)方法應(yīng)用到機(jī)械設(shè)備故障診斷中,并取得了一定的成果。
CHEN L等人[4]提出了一種非線性頻譜與堆棧降噪自編碼相結(jié)合的方法,采用該方法對(duì)永磁同步電機(jī)進(jìn)行故障診斷時(shí),取得了較高的診斷準(zhǔn)確率。KONG X等人[5]使用了基于深度自編碼器的多集成方法,用于軸承的故障診斷,取得了較好的診斷精度,并且該方法還具有較強(qiáng)的泛化能力。ZARE S等人[6]提出了一種基于多通道卷積神經(jīng)網(wǎng)絡(luò)的故障診斷方法,采用該方法可以較好地對(duì)風(fēng)力發(fā)電機(jī)的常見(jiàn)故障進(jìn)行診斷。趙凱輝等人[7]采用Inception模型和雙向長(zhǎng)短時(shí)記憶模型(bi-directional long short-term memory,Bi-LSTM)相結(jié)合的方法,在多負(fù)載下的軸承故障診斷中取得了較好的結(jié)果,且該方法的抗干擾能力較強(qiáng)。
這些基于深度神經(jīng)網(wǎng)絡(luò)的故障診斷方法極大地提高了故障診斷的精度,但是這些方法的高準(zhǔn)確率往往依賴(lài)大量的故障樣本來(lái)訓(xùn)練模型。而在實(shí)際的生產(chǎn)活動(dòng)中,想要獲得充足的故障樣本,需要花費(fèi)大量的人力和物力。因此,針對(duì)小樣本條件下的故障診斷是當(dāng)前故障診斷領(lǐng)域的一大挑戰(zhàn)。
面對(duì)小樣本下故障診斷精度不高的問(wèn)題,不少學(xué)者提出了解決方法。
SHAO S等人[8]提出了一種基于輔助分類(lèi)器生成對(duì)抗網(wǎng)絡(luò)模型(auxiliary classifier generative adversarial networks, ACGAN),用以學(xué)習(xí)真實(shí)的原始數(shù)據(jù)特征;該模型通過(guò)學(xué)習(xí)的特征,生成帶有標(biāo)簽的偽故障樣本,用來(lái)填充真實(shí)的小樣本故障數(shù)據(jù)。LUO J等人[9]結(jié)合了深度卷積網(wǎng)絡(luò)、條件生成對(duì)抗網(wǎng)絡(luò)(conditionalgenerative adversarial networks, CGAN)這二者的優(yōu)點(diǎn),提出了一種條件深度卷積對(duì)抗網(wǎng)絡(luò)模型,用于生成故障樣本,對(duì)小樣本故障數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)。HAN H等人[10]將生成對(duì)抗網(wǎng)絡(luò)和層疊自動(dòng)編碼器相結(jié)合,首先利用生成對(duì)抗網(wǎng)絡(luò)對(duì)小樣本數(shù)據(jù)進(jìn)行了增強(qiáng),然后使用層疊自動(dòng)編碼器提取信號(hào)的特征,在對(duì)給水泵故障進(jìn)行診斷時(shí)取得了較好的結(jié)果。LIU S等人[11]開(kāi)發(fā)了一種LOSGAN(latent optimized stable GAN)模型,在沒(méi)有先驗(yàn)知識(shí)的情況下,自適應(yīng)地增強(qiáng)小樣本數(shù)據(jù),并且使用分布差異距離來(lái)約束模型的優(yōu)化目標(biāo),采用自注意力和譜歸一化來(lái)穩(wěn)定訓(xùn)練過(guò)程,在小樣本軸承故障診斷中表現(xiàn)出了較優(yōu)的性能。馬波等人[12]將健康狀態(tài)數(shù)據(jù)反映的設(shè)備個(gè)性特征和故障機(jī)理反映的設(shè)備共性特征相結(jié)合,提出了一種基于GAN理論的模型,用于生成樣本,對(duì)小樣本故障數(shù)據(jù)進(jìn)行了數(shù)據(jù)增強(qiáng)。
綜上所述,現(xiàn)有提高小樣本故障診斷精度的方法,多是先采用生成對(duì)抗網(wǎng)絡(luò)生成偽樣本,再對(duì)小樣本故障數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)。但是,訓(xùn)練一個(gè)優(yōu)秀的生成對(duì)抗模型同樣需要大量的樣本,在實(shí)際的小樣本故障診斷中存在一定的局限性。
因此,筆者提出一種基于Triplet Network[13]的故障診斷方法,即首先將原始故障信號(hào)轉(zhuǎn)換為二維時(shí)頻信號(hào),然后對(duì)比時(shí)頻信號(hào)故障樣本特征的相似度,以此來(lái)改善模型提取的特征,最后通過(guò)比較未知樣本與已知樣本特征的相似度,實(shí)現(xiàn)對(duì)未知樣本的故障識(shí)別。
由于傳統(tǒng)的深度學(xué)習(xí)模型很難從有限的故障樣本中學(xué)習(xí)到故障的特征,基于此訓(xùn)練出來(lái)的模型往往是欠擬合的,故障診斷的效果較差。
筆者提出一種基于Triplet Network的方法,用于提高小樣本故障診斷精度。
基于Triplet Network方法的結(jié)構(gòu)圖如圖1所示。
圖1 基于Triplet Network的方法結(jié)構(gòu)圖
借鑒Triplet Network模型的思想,特征提取模型構(gòu)建了一個(gè)具有3個(gè)共享權(quán)值的子網(wǎng)絡(luò)模型,通過(guò)提取同一故障狀態(tài)樣本間和不同故障狀態(tài)樣本間的特征,通過(guò)度量相同和不同故障狀態(tài)樣本特征的相似度,以此來(lái)優(yōu)化模型抽取的特征,進(jìn)而實(shí)現(xiàn)對(duì)不同故障的甄別。
特征提取模型結(jié)構(gòu)如圖2所示。
圖2 特征提取模型結(jié)構(gòu)
圖2中,模型的輸入是錨點(diǎn)、正樣本和負(fù)樣本組成的樣本對(duì);錨點(diǎn)是從故障樣本中隨機(jī)選取的一個(gè)樣本,正樣本是與錨點(diǎn)同一故障狀態(tài)的樣本,負(fù)樣本是與錨點(diǎn)不同故障狀態(tài)的樣本;輸出是樣本對(duì)低維特征向量間的相似度度量,即損失值;損失值通過(guò)反向傳播更新模型的參數(shù),優(yōu)化模型學(xué)習(xí)的故障樣本類(lèi)內(nèi)和類(lèi)間特征,使模型提取的錨點(diǎn)與正樣本低維特征向量的相似度越來(lái)越高,錨點(diǎn)與負(fù)樣本低維特征向量的相似度越來(lái)越低。
模型的子網(wǎng)絡(luò)中包含1個(gè)卷積塊、3個(gè)殘差塊和1個(gè)池化層,通過(guò)這些模塊組成的模型,實(shí)現(xiàn)樣本對(duì)低維特征的提取。
1.1.1 卷積塊
模型的卷積塊由卷積層、批歸一化層、激活函數(shù)和池化層構(gòu)成。
卷積層。卷積計(jì)算是現(xiàn)在深度神經(jīng)網(wǎng)絡(luò)的主要組成部分,卷積可以有效地提取輸入對(duì)象的特征,因此也稱(chēng)為特征提取層。卷積中的卷積核每次提取的特征是輸入對(duì)象的局部特征,但是卷積核通過(guò)滑動(dòng)遍歷整個(gè)輸入對(duì)象,實(shí)現(xiàn)對(duì)整個(gè)對(duì)象的特征提取。卷積核的大小由人為設(shè)置,卷積核中的參數(shù)由梯度反向傳播自動(dòng)更新,解決了人工設(shè)置的繁瑣。
卷積計(jì)算可以表示為:
Xi=Wi*Xi-1+bi
(1)
式中:*—卷積運(yùn)算;Wi—第i層的卷積核;bi—第i層的偏置值;Xi-1—第i-1層的輸出特征。
批歸一化層。在模型訓(xùn)練過(guò)程中,參數(shù)一直處于變化狀態(tài),模型中間層的數(shù)據(jù)分布變化較大。IOFFE S等人[14]提出了批歸一化方法,在模型中間層對(duì)數(shù)據(jù)進(jìn)行歸一化處理。批歸一化可以改善模型反向傳播時(shí)的梯度爆炸或梯度消失問(wèn)題,同時(shí)也可以起到正則化作用,一定程度上緩解了模型的過(guò)擬合現(xiàn)象。
激活函數(shù)。激活函數(shù)將非線性因素引入神經(jīng)網(wǎng)絡(luò)中,使神經(jīng)網(wǎng)絡(luò)可以逼近任意非線性函數(shù)。在提高模型的表示能力和學(xué)習(xí)能力上,激活函數(shù)起到了至關(guān)重要的作用。常用的激活函數(shù)有Sigmoid函數(shù)、Tanh函數(shù)和ReLU函數(shù)等,筆者所提模型使用的激活函數(shù)有ReLU函數(shù)和Sigmoid函數(shù)。
激活函數(shù)的表達(dá)式為:
(2)
(3)
池化層。池化層對(duì)輸入對(duì)象進(jìn)行特征選擇,降低輸入對(duì)象的維度,可以大幅度地減少模型參數(shù)數(shù)據(jù),在避免模型過(guò)擬合上有一定效果。
筆者所提模型的卷積塊中采用最大池化層,殘差塊后的池化層為平均池化層。池化層可以表示為:
y=Pool(xi)(i=1,2,…,d)
(4)
式中:y—輸出;xi—輸入對(duì)象的第i個(gè)區(qū)域。
其中:最大池化層的Pool(·)為max(·),即取該區(qū)域中的最大值;平均池化層的Pool(·)為mean(·),即取該區(qū)域的平均值。
1.1.2 殘差塊
2016年,HE K[15]提出了深度殘差網(wǎng)絡(luò)(deep residual network, ResNet),ResNet模型在構(gòu)建深度神經(jīng)網(wǎng)絡(luò)上取得了巨大成功。
筆者將ResNet模型中的殘差結(jié)構(gòu)引入到模型中,殘差塊結(jié)構(gòu)如圖3所示。
圖3 殘差結(jié)構(gòu)
圖3中,輸入x需要經(jīng)過(guò)主線和支線,其中,主線由兩個(gè)卷積層、批歸一化層和激活函數(shù)組成;
此處x經(jīng)過(guò)主線表示為F(x);輸入x經(jīng)過(guò)支線可表示為S(x),S(·)進(jìn)行何種計(jì)算需要根據(jù)該殘差塊中輸入x與F(x)的維度決定,若x與F(x)的維度相同,則S(·)不進(jìn)行任何操作,直接將輸入x輸出;若x與F(x)維度不相同,則S(·)為卷積核為1的卷積層,對(duì)輸入x進(jìn)行維度調(diào)整,使S(x)的維度與F(x)的維度保持一致;
輸入x經(jīng)過(guò)主線和支線后,將輸出S(x)和F(x)相加,然后再作為后期操作的輸入。
殘差塊可以表示為:
R(x)=F(x)+S(x)
(5)
1.1.3 損失函數(shù)
筆者所提模型的損失函數(shù)是度量錨點(diǎn)、負(fù)樣本和正樣本低維特征間的相似度,指導(dǎo)模型的優(yōu)化方向,使模型提取的錨點(diǎn)與正樣本低維特征向量的相似度越來(lái)越高,錨點(diǎn)與負(fù)樣本的低維特征向量的相似度越來(lái)越低。
損失函數(shù)如下:
Loss=max(D(a,p)-D(a,n)+margin,0)
(6)
式中:a—錨點(diǎn)的低維特征;p—正樣本的低維特征;n—負(fù)樣本的低維特征;D(·)—衡量低維樣本間的距離。
筆者使用的是歐式距離,距離越小相似度越高;margin是人為設(shè)定的閾值,控制模型的優(yōu)化進(jìn)程,若D(a,p)+margin>D(a,n),則模型繼續(xù)優(yōu)化,否則模型停止優(yōu)化。
特征提取模型的具體結(jié)構(gòu)和參數(shù)如表1所示。
表1 模型詳細(xì)結(jié)構(gòu)參數(shù)
模型采用的是自適應(yīng)平均池化,輸出為1x1@128;支線中的直連為不進(jìn)行操作,直接輸出。模型中每個(gè)卷積計(jì)算后均加有批歸一化和激活函數(shù),激活函數(shù)為ReLU函數(shù),平均池化層后的激活函數(shù)為Sigmoid函數(shù)。
模型故障診斷流程如圖4所示。
圖4 故障診斷流程
圖4中,診斷流程分為3個(gè)部分:數(shù)據(jù)預(yù)處理與數(shù)據(jù)集劃分、訓(xùn)練模型、未知樣本故障診斷。
(1)數(shù)據(jù)預(yù)處理與數(shù)據(jù)集劃分。筆者所提模型的輸入為二維數(shù)據(jù),訓(xùn)練模型前需要將原始一維數(shù)據(jù)轉(zhuǎn)換為二維數(shù)據(jù)。筆者采用短時(shí)傅里葉變換,將原始時(shí)序信號(hào)轉(zhuǎn)換為時(shí)頻信號(hào),并將其保存為圖片,取原始時(shí)序信號(hào)中1 024個(gè)點(diǎn)轉(zhuǎn)換為一張時(shí)頻信號(hào)圖,依次選擇樣本點(diǎn),并將其轉(zhuǎn)換為時(shí)頻圖,直至轉(zhuǎn)換結(jié)束。
劃分?jǐn)?shù)據(jù)集時(shí),按時(shí)間順序?qū)颖緞澐譃橛?xùn)練集和測(cè)試集,如圖5所示;
圖5 數(shù)據(jù)預(yù)處理與數(shù)據(jù)集劃分
(2)訓(xùn)練模型。從訓(xùn)練集中隨機(jī)選擇一個(gè)樣本作為錨點(diǎn),隨機(jī)選擇一個(gè)與錨點(diǎn)具有相同故障狀態(tài)的樣本作為正樣本,隨機(jī)選擇一個(gè)與錨點(diǎn)具有不同故障狀態(tài)的樣本作為負(fù)樣本。錨點(diǎn)、負(fù)樣本和正樣本組成的樣本對(duì)輸入模型得到損失值,損失值經(jīng)過(guò)梯度反向傳播優(yōu)化模型參數(shù)。如此迭代一定次數(shù),并保存訓(xùn)練完成的模型;
(3)未知樣本故障診斷。使用訓(xùn)練好的模型將訓(xùn)練集中各類(lèi)故障樣本轉(zhuǎn)化為低維特征,并求各類(lèi)故障樣本低維特征的均值。
未知樣本故障診斷如圖6所示。
圖6 未知樣本故障診斷
圖6中,當(dāng)診斷未知樣本故障狀態(tài)時(shí),對(duì)比未知樣本的低維特征到各類(lèi)故障樣本低維特征均值的距離,距離最小者,則判定未知樣本為該類(lèi)。使用歐式距離測(cè)量樣本間低維特征的距離。
筆者使用江南大學(xué)軸承數(shù)據(jù)集和美國(guó)康涅狄格大學(xué)齒輪數(shù)據(jù)集,測(cè)試模型在小樣本情況下的故障診斷性能。
江南大學(xué)軸承數(shù)據(jù)集[16]有4種故障狀態(tài):健康、內(nèi)圈故障、外圈故障和滾動(dòng)體故障。振動(dòng)信號(hào)的采集頻率為50 kHz,在轉(zhuǎn)速600 r/min、800 r/min和1 000 r/min下分別采集軸承的故障信號(hào)。將轉(zhuǎn)速為800 r/min的軸承信號(hào)進(jìn)行預(yù)處理和劃分?jǐn)?shù)據(jù)集(預(yù)處理和劃分?jǐn)?shù)據(jù)集方式見(jiàn)第1.2節(jié))。
各類(lèi)故障劃分?jǐn)?shù)據(jù)集的結(jié)果如表2所示。
表2 軸承數(shù)據(jù)集劃分結(jié)果
2.1.1margin值的選擇
margin作為一個(gè)人為設(shè)定的閾值,它決定了模型是否繼續(xù)優(yōu)化,當(dāng)故障樣本的類(lèi)間距離小于故障樣本的類(lèi)內(nèi)距離加margin的和時(shí),模型需要繼續(xù)優(yōu)化;相反,則模型停止優(yōu)化。由于故障樣本的類(lèi)內(nèi)距離小于類(lèi)間距離時(shí),模型才能做出正確的判斷,所以margin值應(yīng)該大于0。但是,margin值并不是越大越好,當(dāng)模型可以分辨不同故障時(shí),若再拉遠(yuǎn)不同故障類(lèi)間的距離,模型的故障診斷精度不會(huì)提高。
因此,筆者在0到1之間取了多個(gè)margin值,測(cè)試margin取值對(duì)故障診斷精度的影響;從訓(xùn)練集中選取各類(lèi)故障30個(gè)樣本作為本實(shí)驗(yàn)訓(xùn)練集,以表2中的測(cè)試集作為測(cè)試樣本,計(jì)算模型故障診斷精度;
訓(xùn)練的學(xué)習(xí)率為0.01,每批次64個(gè)樣本,優(yōu)化器為Adam,并且采用學(xué)習(xí)率衰減策略動(dòng)態(tài)調(diào)整學(xué)習(xí)率大小,總共迭代40次,并且重復(fù)實(shí)驗(yàn)5次,取其平均值。
margin值對(duì)故障診斷的影響實(shí)驗(yàn)結(jié)果如圖7所示。
圖7 margin值對(duì)故障診斷的影響
圖7中,當(dāng)margin為0.2時(shí),故障診斷精度最高,所以后續(xù)實(shí)驗(yàn)的margin值均為0.2。
2.1.2 訓(xùn)練樣本數(shù)量對(duì)診斷精度的影響
為探究筆者所提模型在小樣本下的故障診斷精度,該實(shí)驗(yàn)從表2訓(xùn)練集各類(lèi)故障中分別隨機(jī)選取了5、10、15、30、50、80和100個(gè)作為模型訓(xùn)練集,對(duì)比訓(xùn)練樣本數(shù)量對(duì)模型診斷精度的影響;同時(shí),將其與1DCNN模型和2DCNN模型作對(duì)比。
其中,1DCNN模型是由4層一維卷積和全連接層組成的一維卷積神經(jīng)網(wǎng)絡(luò),2DCNN與筆者所提模型的結(jié)構(gòu)參數(shù)相同,不同之處是2DCNN模型在輸出低維特征后直接連接全連接層對(duì)故障進(jìn)行分類(lèi)。各模型使用相同的訓(xùn)練參數(shù),詳細(xì)參數(shù)見(jiàn)2.1.1節(jié)。
各模型共迭代40次,重復(fù)實(shí)驗(yàn)5次,取其平均值,得到不同模型在軸承數(shù)據(jù)中的故障診斷實(shí)驗(yàn)結(jié)果,如圖8所示。
圖8 不同模型在軸承數(shù)據(jù)中的故障診斷結(jié)果
從圖8中可知:
3種模型整體的診斷精度隨著訓(xùn)練樣本數(shù)量的增加而提高,2DCNN模型和筆者所提模型的診斷準(zhǔn)確率明顯高于1DCNN模型,筆者模型和2DCNN模型在每類(lèi)故障樣本量大于30時(shí),兩個(gè)模型的診斷精度較為接近,并且都大于80%;
在訓(xùn)練樣本量較少時(shí),筆者模型的診斷精度明顯大于其他兩個(gè)模型;在每類(lèi)故障樣本量為15時(shí),筆者模型的故障識(shí)別率比2DCNN模型高14.33%,比1DCNN模型高33.83%;即使是在每類(lèi)故障樣本只有5個(gè)時(shí),筆者模型的故障識(shí)別率也有68%,比2DCNN模型高15.33%,比1DCNN模型高33.5%。
美國(guó)康涅狄格大學(xué)齒輪數(shù)據(jù)集[17]共有9種故障狀態(tài):健康、缺齒、根裂、剝落和5種不同程度的齒削尖。故障信號(hào)的采樣頻率為20 kHz。
此處的實(shí)驗(yàn)選取了健康、缺齒、根裂、剝落和1種齒削尖共5類(lèi)故障樣本作為訓(xùn)練集和測(cè)試集,故障信號(hào)的預(yù)處理和數(shù)據(jù)劃分方式與江南大學(xué)軸承數(shù)據(jù)集相同。
數(shù)據(jù)集劃分結(jié)果如表3所示。
表3 齒輪數(shù)據(jù)集劃分結(jié)果
從訓(xùn)練集的各類(lèi)故障中,筆者隨機(jī)選擇5、10、15、30、50、80和100個(gè)樣本,對(duì)比模型在不同訓(xùn)練集數(shù)量下的故障識(shí)別率,并將其與1DCNN模型和2DCNN模型對(duì)比。
1DCNN模型和2DCNN模型結(jié)構(gòu)、實(shí)驗(yàn)的訓(xùn)練參數(shù)與江南大學(xué)軸承數(shù)據(jù)集實(shí)驗(yàn)相同,重復(fù)實(shí)驗(yàn)5次,并取平均值,得到的實(shí)驗(yàn)結(jié)果如表4所示。
表4 不同模型在齒輪數(shù)據(jù)中的故障診斷結(jié)果
由表4可知:模型故障診斷識(shí)別率與訓(xùn)練樣本數(shù)量呈正相關(guān),2DCNN模型和筆者模型明顯優(yōu)于1DCNN模型;在每類(lèi)故障樣本為10訓(xùn)練的3個(gè)模型中,筆者模型故障識(shí)別率高出2DCNN模型14%,高出1DCNN模型28.13%;甚至在每類(lèi)故障樣本只有5個(gè)的情況下,筆者模型的故障識(shí)別率依舊可以達(dá)到96.8%,高出2DCNN模型26%。
綜合筆者模型在江南大學(xué)軸承數(shù)據(jù)集和康涅狄格大學(xué)齒輪數(shù)據(jù)集上的表現(xiàn),筆者模型在訓(xùn)練集樣本較為充足的情況下,故障診斷精度與其他模型相差無(wú)幾;但是在訓(xùn)練樣本不足時(shí),筆者模型的故障識(shí)別率明顯優(yōu)于其他模型,并且仍具有較高的故障識(shí)別率。
深度神經(jīng)網(wǎng)絡(luò)的可解釋性仍然是當(dāng)前的研究熱點(diǎn)和難點(diǎn),其工作原理讓人難以理解。但是,其可視化部分模型的特征層可以加深對(duì)模型的理解。筆者選用在康涅狄格大學(xué)齒輪數(shù)據(jù)集中,每類(lèi)故障樣本為10訓(xùn)練好的2DCNN模型和筆者模型,把測(cè)試集樣本輸入模型,使用T-SNE(T-distributed stochastic neighbor embedding)[18]可視化兩個(gè)模型在平均池化層后輸出的低維特征,其中,T-SNE可以將高維數(shù)據(jù)映射到低維空間。
筆者將模型輸出的低維特征映射到二維空間,并將其可視化,如圖9所示。
圖9 不同模型低維特征可視化對(duì)比結(jié)果
0、1、2、3、4和5分別與表3中的標(biāo)簽相對(duì)應(yīng),表示不同的齒輪故障。
從圖9中可以觀察到:2DCNN模型中的故障1與其他故障交織在一起,與不同故障的分界不明顯,容易產(chǎn)生錯(cuò)誤的故障分類(lèi)結(jié)果;相對(duì)于2DCNN模型,筆者模型中相同故障樣本的分布更加緊湊,不同故障樣本的分布區(qū)別明顯。
為了解2DCNN模型和筆者模型在齒輪數(shù)據(jù)中的分類(lèi)情況,筆者繪制了混淆矩陣,如圖10所示。
圖10 不同模型混淆矩陣對(duì)比結(jié)果
混淆矩陣的標(biāo)簽軸為真實(shí)的故障標(biāo)簽,預(yù)測(cè)值為模型的預(yù)測(cè)的故障類(lèi)別。
從圖10中可知:筆者模型在各類(lèi)故障上的識(shí)別率高于2DCNN模型,2DCNN模型對(duì)于故障1的識(shí)別誤差較大。
筆者提出了一種在小樣本數(shù)據(jù)集下機(jī)械設(shè)備典型部件的故障診斷方法,該方法可分為故障特征提取和故障診斷兩個(gè)階段。首先采用度量故障樣本特征相似度的方法,來(lái)優(yōu)化模型提取的特征;再通過(guò)比較未知樣本與已知樣本特征的相似度,實(shí)現(xiàn)對(duì)未知樣本的故障識(shí)別。
研究結(jié)論如下:
(1)采用短時(shí)傅里葉變換,將原始時(shí)序信號(hào)轉(zhuǎn)換為時(shí)頻域信號(hào),充分挖掘原始數(shù)據(jù)信息;同時(shí),將一維信號(hào)轉(zhuǎn)換為二維圖像,充分利用卷積神經(jīng)網(wǎng)絡(luò)在圖像特征提取上的優(yōu)勢(shì),使模型的特征提取能力得到顯著提升;
(2)利用基于Triplet Network搭建的模型提取故障樣本時(shí)頻信號(hào)低維特征,通過(guò)度量錨點(diǎn)與正樣本低維特征和錨點(diǎn),以及負(fù)樣本低維特征的相似度,優(yōu)化模型的特征提取策略;
(3)通過(guò)軸承故障數(shù)據(jù)集和齒輪故障數(shù)據(jù)集驗(yàn)證筆者所提方法,結(jié)果表明,該方法在小樣本數(shù)據(jù)下的故障診斷性能明顯優(yōu)于1DCNN和2DCNN;在每類(lèi)齒輪故障樣本只有5個(gè)的情況下,該方法的故障識(shí)別率依舊可以達(dá)到96.8%,比2DCNN高26%,比1DCNN高33.5%。
綜上所述,筆者所提方法在小樣本數(shù)據(jù)集下機(jī)械設(shè)備典型部件的故障診斷中具有較優(yōu)的性能。
下一步,筆者考慮將該方法應(yīng)用于變工況場(chǎng)景下旋轉(zhuǎn)機(jī)械典型部件的故障診斷中,以提高該方法的泛化能力和魯棒性。