趙丹陽,董唯光,高鋒陽
(蘭州交通大學(xué)自動(dòng)化與電氣工程學(xué)院,蘭州 730070)
目前我國電力機(jī)車、風(fēng)力發(fā)電、電力網(wǎng)和工業(yè)設(shè)備的逆變器故障診斷研究大部分針對(duì)簡(jiǎn)單故障進(jìn)行檢測(cè)和定位,很大程度依賴于計(jì)劃維修,使得檢測(cè)效率低、難以實(shí)現(xiàn)實(shí)時(shí)檢測(cè)[1-5]。因此,提出新的逆變器故障診斷方法對(duì)提高診斷準(zhǔn)確率和效率具有十分重要的現(xiàn)實(shí)意義。
常用逆變器故障診斷方法為:基于小波變換[2,14]和壓縮感知 CS(compressive sensing)[4,16]理論的故障特征提取,結(jié)合BP神經(jīng)網(wǎng)絡(luò)[2,15]和支持向量機(jī)SVM(support vector machine)[3,15]的故障分類診斷方法。 文獻(xiàn)[2]針對(duì)雙器件開路故障,采用小波變換提取特征,并以端電壓主流分量、基波幅值、基波相位和二次諧波構(gòu)成故障特征向量,作為BP神經(jīng)網(wǎng)絡(luò)分類器的輸入,有效提高了逆變器故障診斷準(zhǔn)確率。文獻(xiàn)[3]利用相空間重構(gòu)技術(shù)提取不同形狀電流圖像作為SVM訓(xùn)練樣本,實(shí)現(xiàn)了故障元的準(zhǔn)確定位。文獻(xiàn)[4]分別將小波與SVM、CS與SVM、小波與BP神經(jīng)網(wǎng)絡(luò)、CS與BP神經(jīng)網(wǎng)絡(luò)結(jié)合用于電力機(jī)車逆變器故障診斷對(duì)比實(shí)驗(yàn),結(jié)果表明:SVM故障分類明顯、準(zhǔn)確率高,不局限于診斷數(shù)據(jù)少的情況,但診斷較耗時(shí);BP神經(jīng)網(wǎng)絡(luò)診斷迅速,但準(zhǔn)確率不及SVM;2種特征提取方法中,CS更能應(yīng)對(duì)高維“海量”信號(hào)的簡(jiǎn)化處理,但硬件實(shí)現(xiàn)困難[16]。
大數(shù)據(jù)背景時(shí)代,深度學(xué)習(xí)理論的成功應(yīng)用成為人工智能技術(shù)得以實(shí)現(xiàn)的關(guān)鍵[6-12],在圖像識(shí)別[11]、工業(yè)[12-15]、信息業(yè)[16]、故障檢測(cè)等復(fù)雜問題中尤為突出。文獻(xiàn)[13]王麗華等將SDAE應(yīng)用到異步電機(jī)故障診斷中,較傳統(tǒng)SVM檢測(cè)方法,準(zhǔn)確率提高了6%;文獻(xiàn)[11]余永維等將CNN應(yīng)用到射線圖像缺陷識(shí)別中,較傳統(tǒng)直接多類支持向量機(jī)DMSVM(direct multiclass support vector machine)檢測(cè)方法,得到了更高的識(shí)別率和更強(qiáng)的自適應(yīng)性;文獻(xiàn)[12]楊望燦等將改進(jìn)DBN模型應(yīng)用到齒輪箱故障檢測(cè)中,相比BP和SVM方法,實(shí)現(xiàn)了直接從原始震動(dòng)信號(hào)提取深層特征,從而大大提高了故障診斷效率。究其原因,相較BP神經(jīng)網(wǎng)絡(luò)和SVM,深度學(xué)習(xí)網(wǎng)絡(luò)有效克服了淺層網(wǎng)絡(luò)表達(dá)能力不足、局限于少量低維數(shù)據(jù)的缺陷,同時(shí)可以實(shí)現(xiàn)實(shí)時(shí)智能分類,有效提高了圖像識(shí)別準(zhǔn)確率[13]。
針對(duì)三相二極管鉗位式三電平逆變器主電路多復(fù)雜開路故障,以橋臂電壓為電路檢測(cè)信號(hào)[2-4],提出一種新的基于卷積神經(jīng)網(wǎng)絡(luò)的智能診斷方法。該方法根據(jù)損失函數(shù)梯度變化,自適應(yīng)調(diào)節(jié)CNN正則化系數(shù),以提高診斷準(zhǔn)確率和模型實(shí)時(shí)智能檢測(cè)水平,減少網(wǎng)絡(luò)訓(xùn)練時(shí)間。
圖1是由3個(gè)單相半橋式三電平逆變器組合而成的三相二極管鉗位式三電平逆變器拓?fù)浣Y(jié)構(gòu)電路[2-7]。為方便研究,定義橋臂中點(diǎn)a與中性點(diǎn)o(即電容電壓中點(diǎn))之間電壓為中橋臂電壓,下文稱橋臂電壓;上橋臂中點(diǎn)au與o之間電壓為上橋臂電壓;下橋臂中點(diǎn)ad與o之間電壓為下橋臂電壓[2,4]。
三相二極管鉗位式三電平逆變器主電路主要故障為12個(gè)功率開關(guān)管IGBT的開路故障。根據(jù)IGBT的數(shù)量和位置,三電平逆變器故障類型有:?jiǎn)喂荛_路,如 Sa1、Sa4、Sb2、Sc3,共=12種;雙管開路,如 Sa1Sa2、Sb1Sb4、Sa1Sb1、Sa3Sc3、Sb2Sc4, 共=66種;同理,三管開路共=220種[2-9];四管及以上開路概率極小,忽略不計(jì);將逆變器正常運(yùn)行狀態(tài)也視為1種特殊故障。三管及以下共299種開路故障是目前逆變器主要研究的故障狀態(tài),部分故障類型如表1所示。
輸入直流電壓400 V、負(fù)載功率50 kW,圖2~4分別為無故障及3種單管開路典型故障、雙管開路典型故障和三管開路典型故障的A相輸出電壓(線電壓)仿真波形。
表1 故障分類Tab.1 Fault classification
深度學(xué)習(xí)模型主要有深度置信網(wǎng)絡(luò)DBN(deep belief network)、卷積神經(jīng)網(wǎng)絡(luò)CNN(convolutional neural network)、堆疊自編碼 SAE(stacked auto-encoder)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò) RNN(recurrent neural network)。DBN是一種通過逐層貪婪學(xué)習(xí)算法直接對(duì)低層信號(hào)得到高層特征信息的模型,具有靈活易拓展的結(jié)構(gòu)特性,主要應(yīng)用于圖像處理和語音識(shí)別領(lǐng)域,完成特征提取和故障分類任務(wù);SAE是一種通過級(jí)聯(lián)多個(gè)自動(dòng)編碼器AE(auto-encoder)完成低維輸入數(shù)據(jù)的降噪濾波、特征提取和故障分類任務(wù)的模型,與DBN同樣采用無監(jiān)督訓(xùn)練和BP神經(jīng)網(wǎng)絡(luò)微調(diào),但SAE訓(xùn)練只需少量樣本即可獲得較高故障分類效果,多用于語音識(shí)別;RNN是動(dòng)態(tài)性記憶網(wǎng)絡(luò),可充分利用樣本間的關(guān)聯(lián)性使?fàn)顟B(tài)數(shù)據(jù)循環(huán)傳遞在網(wǎng)絡(luò)中,提高故障診斷準(zhǔn)確性,適用于動(dòng)態(tài)時(shí)序和有關(guān)聯(lián)性數(shù)據(jù),但不宜單獨(dú)引用;CNN與DBN模型在圖片識(shí)別和故障診斷領(lǐng)域均可實(shí)現(xiàn)自適應(yīng)故障特征提取和智能分類,對(duì)高維和非線性數(shù)據(jù)具有強(qiáng)大的處理分析能力,CNN更是在保持一定降噪濾波效果的同時(shí)保證特征提取不變性[5-11],因此在大數(shù)據(jù)背景的故障診斷領(lǐng)域廣為應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)是卷積操作和反向傳播算法相結(jié)合的產(chǎn)物,是完成卷積核參數(shù)自學(xué)習(xí)訓(xùn)練的程序化操作,主要特點(diǎn)是充分利用圖片相鄰區(qū)域信息,通過局部感知域、稀疏連接和共享權(quán)值的方式大大減少參數(shù)矩陣規(guī)模,從而減少計(jì)算量,提高收斂速度,避免算法過擬合[5,10]。
典型卷積神經(jīng)網(wǎng)絡(luò)LeNet-5結(jié)構(gòu)如圖5所示,最左側(cè)為輸入層Input,接著為卷積層C、池化層S和全連接層F,最右側(cè)為輸出層Output[5-9]。
輸入層通常是數(shù)據(jù)圖或特征圖的原始像素四維矩陣,由批量大小、圖片寬度、高和彩色通道構(gòu)成。
卷積層是CNN的核心層。通過不同卷積核對(duì)上層特征圖進(jìn)行不同特征提取,利用激勵(lì)函數(shù)構(gòu)建輸出特征圖,每一層輸出都是對(duì)多輸入特征的卷積操作[13]。數(shù)學(xué)模型可表示為
式中:Hi為網(wǎng)絡(luò)第i層特征向量圖,當(dāng)i=1時(shí),Hi代表CNN輸入層;Wi為第i層卷積核權(quán)值向量;卷積運(yùn)算符?完成卷積核與第i-1層特征圖的卷積運(yùn)算,添加一定偏移量bi,再通過激勵(lì)函數(shù)f(x)構(gòu)建出第i層輸出特征圖Hi。目前,為避免梯度爆炸和梯度消失、加快收斂速度,激勵(lì)函數(shù)常采用不飽和非線性的 ReLU 函數(shù)[17]:f(x)=max(0,x),其輸出值小于0則為0,否則保持原值,這是對(duì)原始數(shù)據(jù)進(jìn)行強(qiáng)制稀疏化的簡(jiǎn)單方法[9,10]。
為完成二次特征提取和降維操作,池化層須交替設(shè)置在卷積層兩側(cè)。常用池化方法有:最大值池化、均值池化和隨機(jī)池化,隨機(jī)池化由于其隨機(jī)性可避免大量關(guān)鍵信息遺失,同時(shí)降低網(wǎng)絡(luò)過擬合,成為目前最常用的池化方式。若Hi為池化層,則
式中:βi為網(wǎng)絡(luò)乘性偏置矩陣;down()為池化函數(shù)。
經(jīng)多個(gè)交替相連的卷積層和池化層完成特征提取后,為方便準(zhǔn)確分類,分類器和最后1層池化層之間會(huì)增加1個(gè)或多個(gè)全連接層來整合所有提取的低維特征中具有目標(biāo)類型區(qū)分性的局部信息,輸入目標(biāo)分類層進(jìn)行故障分類,通常采用softmax分類器[11-13]。數(shù)學(xué)模型可表示為
式中,ω0為權(quán)值矩陣。
LeNet-5結(jié)構(gòu)在手寫數(shù)字識(shí)別領(lǐng)域的巨大成功,使其成為當(dāng)前普遍采用CNN結(jié)構(gòu)的原型,但嚴(yán)重的過擬合問題一直影響其應(yīng)用前景[10-12]。所謂過擬合是指測(cè)試集準(zhǔn)確率遠(yuǎn)低于訓(xùn)練集準(zhǔn)確率的差異表現(xiàn)[12]。通常是由于模型參數(shù)或結(jié)構(gòu)過于復(fù)雜,過分?jǐn)M合了數(shù)據(jù)的噪聲和離群值,從而影響了目標(biāo)識(shí)別準(zhǔn)確率和模型收斂速度。對(duì)此,Krizhevsky等提出的包含5層卷積神經(jīng)網(wǎng)絡(luò)的Al-exNet結(jié)構(gòu)[5],以及VGG、NIN、VGGNet、GoogLeNet、ResNets 等 一 些 新型結(jié)構(gòu)都一定程度緩解了過擬合,但并不徹底,且復(fù)雜的結(jié)構(gòu)在模型建立上增加了新的困難。目前,除增加樣本量外,還可通過以下方式間接改變CNN內(nèi)部結(jié)構(gòu)進(jìn)行去擬合:Dropout,通過隨機(jī)隱藏每輪訓(xùn)練的部分節(jié)點(diǎn)來削弱節(jié)點(diǎn)間的聯(lián)合適應(yīng)性,使權(quán)值更新不再依賴有固定關(guān)系的隱含節(jié)點(diǎn)的共同作用,從而增強(qiáng)網(wǎng)絡(luò)泛化能力;隨機(jī)池化;正則化,通過損失函數(shù)添加正則化項(xiàng)來自動(dòng)削弱不重要的特征變量,降低模型復(fù)雜度,獲得更簡(jiǎn)潔抽象的特征表示,此過程常采用帶l2正則化項(xiàng)的損失函數(shù)實(shí)現(xiàn),數(shù)學(xué)模型可表示為
式中:C0為原始目標(biāo)損失函數(shù),通常選為均差函數(shù),用來描述網(wǎng)絡(luò)訓(xùn)練過程中樣本損失情況;后半部分為帶l2正則化項(xiàng);n為樣本量;λ為正則化系數(shù),λ越大,正則化作用越明顯,過程是所有權(quán)重系數(shù)平方和開方,所以在每次迭代過程中都會(huì)使權(quán)重系數(shù)在滿足最小化C0的基礎(chǔ)上逐漸趨于0,最終得到權(quán)重系數(shù)很小的矩陣模型,達(dá)到去擬合作用。
神經(jīng)網(wǎng)絡(luò)訓(xùn)練的目的就是將目標(biāo)損失函數(shù)值C0降低至趨于0的最小值,以達(dá)到接近100%的識(shí)別準(zhǔn)確率。傳統(tǒng)CNN模型先用均方誤差損失函數(shù)訓(xùn)練完整個(gè)模型后,再嘗試加入正則化項(xiàng)進(jìn)行全局去擬合,直到損失函數(shù)值不斷減小至0,此時(shí)模型預(yù)測(cè)或分類準(zhǔn)確率將達(dá)100%,說明模型過擬合完全被消除。但實(shí)際操作中效果并不理想,因?yàn)榇诉^程采用全局統(tǒng)一的常數(shù)型參數(shù)進(jìn)行優(yōu)化,勢(shì)必造成部分關(guān)鍵特征遺失和非關(guān)鍵特征冗余,并且λ的選取需依靠大量單一先驗(yàn)經(jīng)驗(yàn)且不斷試錯(cuò),泛化性不強(qiáng)。由式(4)可看出,正則化系數(shù)λ大小的選擇體現(xiàn)了給出的接近最優(yōu)解的可信度:若λ取很小的正整數(shù),正則化項(xiàng)將不起任何作用,說明所求解有很大的不確定性,甚至不可信;若λ取值很大,一旦越過接近最優(yōu)解,就會(huì)使原本持續(xù)下降的損失函數(shù)值反升,使網(wǎng)絡(luò)重新陷入過擬合。
因此本研究提出了引入自適應(yīng)正則化系數(shù)的CNN 模型 Are-CNN(adaptive regularization CNN):在每輪樣本訓(xùn)練后均添加正則化,正則化系數(shù)λ的調(diào)整根據(jù)隨機(jī)梯度下降法中當(dāng)前迭代目標(biāo)損失函數(shù)的梯度值自適應(yīng)更新。當(dāng)目標(biāo)損失函數(shù)下降的梯度值較大時(shí),說明當(dāng)前網(wǎng)絡(luò)訓(xùn)練狀態(tài)較好,擬合程度低,此時(shí)要求正則化作用??;當(dāng)下降的梯度值逐漸減小時(shí),網(wǎng)絡(luò)學(xué)習(xí)的特征逐漸復(fù)雜,此時(shí)要求正則化作用大。這相當(dāng)于給正則化添加了約束關(guān)系,繼而使帶l2正則化項(xiàng)的損失函數(shù)值更靈活、快速、穩(wěn)定的趨于0。本研究設(shè)計(jì)的自適應(yīng)正則化系數(shù)的調(diào)整策略為
式中:λi+1為第i+1次迭代時(shí)刻的正則化系數(shù);K為初始常量,用來保證系數(shù)非負(fù)且有界;為 i次迭代時(shí)刻損失函數(shù)梯度值。
由式(5)可知,損失函數(shù)梯度值與正則化系數(shù)變化值呈反比,為保證該策略的有效性,應(yīng)設(shè)置較大的正則化系數(shù)初始值,本研究選擇λ0=100。在迭代初期,較大的正則化系數(shù)使目標(biāo)損失函數(shù)值快速下降;隨著迭代次數(shù)增加,損失函數(shù)值下降變緩,這將引起正則化系數(shù)反向增大,正則化作用增強(qiáng),繼而加速目標(biāo)損失函數(shù)值的下降,最終正則化系數(shù)逐漸減小并趨于最小值。可見,隨著迭代進(jìn)行,正則化系數(shù)的自適應(yīng)變化最終體現(xiàn)在樣本訓(xùn)練損失值的變化快慢和穩(wěn)定值大小上,繼而影響網(wǎng)絡(luò)的收斂速度和診斷準(zhǔn)確率。
針對(duì)新型無接觸網(wǎng)軌道列車中常用的二極管鉗位式三電平逆變器[15]三管及以下299種開路故障, 輸入電壓分別設(shè)為 400 V、450 V、500 V、550 V、600 V、650 V、700 V, 負(fù)載功率分別設(shè)為50 kW、52 kW、55 kW、57 kW、60 kW、65 kW,通過上述方式獲得3 000組原始樣本[2],隨機(jī)選取樣本總量的80%,即2 400組樣本作為訓(xùn)練集,剩余600組樣本作為測(cè)試集。當(dāng)輸入電壓分別為500 V、600 V,負(fù)載功率分別為65 kW、50 kW時(shí),采集到的Sa1開路故障波形如圖6所示。
得到預(yù)計(jì)數(shù)量的樣本后,再將其進(jìn)行聚類劃分,故障標(biāo)簽 1 位(如 0、1、2、3、C 等)劃為一類,故障標(biāo)簽 2 位(如 12、13、14、23、A4、BC 等)劃為一類,依次類推。
為驗(yàn)證Are-CNN模型的有效性,先設(shè)計(jì)傳統(tǒng)CNN模型和文獻(xiàn)[2]采用的小波變換與BP(反饋調(diào)節(jié))網(wǎng)絡(luò)結(jié)合的對(duì)比實(shí)驗(yàn),建立CNN模型的軟件工具為tensorflow1.2.1,Windows7,GPU計(jì)算方式。據(jù)文獻(xiàn)[2]的方法,將原始數(shù)據(jù)樣本經(jīng)小波變換所得的故障特征向量作為BP神經(jīng)網(wǎng)絡(luò)輸入;隱含層選用2層,第1層神經(jīng)元個(gè)數(shù)為 400,第 2層為200,各層激活函數(shù)采用ReLU函數(shù)[13]。傳統(tǒng)CNN模型搭建中,根據(jù)采樣頻率,每組樣本采樣點(diǎn)為1 000,故輸入層神經(jīng)元個(gè)數(shù)設(shè)為1 000;根據(jù)逆變器研究的故障類型數(shù),將Softmax輸出層的神經(jīng)元個(gè)數(shù)設(shè)為299;每層卷積核個(gè)數(shù)均設(shè)為32,卷積核大小采用3×3、5×5;池化方式為隨機(jī)池化;超參數(shù)學(xué)習(xí)率 η 設(shè)為0.001;連接權(quán)重初始值ω0設(shè)為0.01;算法采用隨機(jī)梯度下降算法;各層激勵(lì)函數(shù)均采用不飽和非線性ReLU函數(shù);正則化系數(shù)的設(shè)置采用二分法,即按 100、50、25(75)、…方式手動(dòng)嘗試。 網(wǎng)絡(luò)深度通常根據(jù)待測(cè)目標(biāo)特征的復(fù)雜度、樣本大小、卷積核大小及數(shù)量、池化方式、激活函數(shù)、算法等因素自行設(shè)置,圖7為隨網(wǎng)絡(luò)層級(jí)加深,訓(xùn)練集準(zhǔn)確率變化情況。結(jié)果表明:樣本識(shí)別準(zhǔn)確率隨網(wǎng)絡(luò)層級(jí)的加深而逐漸提高,這說明CNN模型可通過增加網(wǎng)絡(luò)層級(jí)來挖掘更深層次的逆變器周期性故障波形特征;但這種深層挖掘效果并不會(huì)無限增強(qiáng),當(dāng)層級(jí)加深至16~34范圍內(nèi)時(shí),故障診斷準(zhǔn)確率保持在90%以上,之后便大幅下降;深度為24時(shí)效果最佳,包括輸入、輸出層、10層卷積層、10層池化層和2層全連接層,其中10層卷積層的前5層采用5×5卷積核,其余采用3×3卷積核。
在CNN和小波與BP結(jié)合的2種模型對(duì)比實(shí)驗(yàn)中,訓(xùn)練和測(cè)試集的準(zhǔn)確率及訓(xùn)練時(shí)間情況如表2所示。
由表2可見,CNN模型較傳統(tǒng)的小波與BP神經(jīng)網(wǎng)絡(luò)結(jié)合的故障診斷方法具有更優(yōu)的診斷精度和效率。在實(shí)驗(yàn)過程中,CNN模型避免了人工學(xué)習(xí)特征和手動(dòng)選取典型特征量的過程,從根本上實(shí)現(xiàn)了自適應(yīng)、智能化的特征提取和故障識(shí)別,大大提高了故障診斷準(zhǔn)確率,縮短了模型訓(xùn)練時(shí)間。同時(shí),針對(duì)逆變器故障類型復(fù)雜的特點(diǎn),CNN模型表現(xiàn)出這種傳統(tǒng)故障識(shí)別方法不可比擬的深層挖掘能力和特征關(guān)聯(lián)抽象能力,這對(duì)故障預(yù)測(cè)及實(shí)時(shí)診斷具有十分重要的意義。
為進(jìn)行實(shí)驗(yàn)對(duì)比,Are-CNN模型的正則化系數(shù)初始值λ0也設(shè)為100,其他參數(shù)不變,λ按式(5)自適應(yīng)更新。由于篇幅限制,表3僅列出后20次迭代過程中,λ隨損失函數(shù)梯度值變化而自適應(yīng)更新的情況。
表2 不同方法的診斷結(jié)果Tab.2 Diagnostic results of different methods
表3 正則化系數(shù)隨梯度值自適應(yīng)變換情況Tab.3 Adaptive transformation of regularization coefficient with gradient values
由表3可見,正則化系數(shù)隨損失函數(shù)梯度變化而自適應(yīng)更新,在迭代后期,目標(biāo)損失函數(shù)梯度下降緩慢且不斷出現(xiàn)不降反升的現(xiàn)象,導(dǎo)致診斷準(zhǔn)確率處于較低水平,模型嚴(yán)重過擬合。第220次迭代后,損失函數(shù)梯度下降值為0.000 7%,幾乎接近于0,此時(shí)診斷損失值保持在0.45%,意味著診斷準(zhǔn)確率為99.55%,但正則化的加入使梯度下降值逐漸增加,損失函數(shù)值持續(xù)下降,從而加快了樣本訓(xùn)練的收斂速度;第223次迭代后,損失函數(shù)值為0.486 6%,較前1次迭代損失函數(shù)值0.407 3%升高了0.079 3%,梯度值為-0.079 3%,損失函數(shù)不降反升,模型出現(xiàn)明顯過擬合,此時(shí)根據(jù)梯度值自行調(diào)整的正則化系數(shù)為10.999 7,較前1次10.885 3有所增加,并且之后隨著梯度下降值的變化持續(xù)增加,說明此時(shí)正則化作用逐漸增強(qiáng);第224、225次迭代后,損失函數(shù)梯度值雖然仍在上升,但上升幅度逐漸減小;第226次迭代后,損失函數(shù)梯度值恢復(fù)為正向下降過程,擬合程度減小,訓(xùn)練狀態(tài)恢復(fù)良好,此時(shí)正則化系數(shù)11.073 6,較上1輪的11.557 0減小了0.483 4,正則化作用相應(yīng)減小但不為0,使得損失函數(shù)整體保持較快穩(wěn)定下降狀態(tài),最終模型經(jīng)240次迭代后準(zhǔn)確率穩(wěn)定在99.67%。由此,正則化系數(shù)隨損失函數(shù)梯度值自適應(yīng)調(diào)整的策略得到驗(yàn)證。
圖8和表4列舉了樣本訓(xùn)練整體過程中,傳統(tǒng)CNN和Are-CNN模型的訓(xùn)練集與測(cè)試集的診斷誤差值隨迭代次數(shù)變化而變化的對(duì)比情況。
由對(duì)比結(jié)果可知:2種模型的訓(xùn)練集損失值隨迭代次數(shù)的增加而不斷減小并逐漸趨于穩(wěn)定;引入自適應(yīng)正則化系數(shù)的Are-CNN模型的訓(xùn)練集損失值在迭代次數(shù)達(dá)60次后明顯低于傳統(tǒng)CNN模型;當(dāng)?shù)螖?shù)達(dá)到80次時(shí),Are-CNN模型的訓(xùn)練集損失值為3.71%,訓(xùn)練時(shí)間為29.72 s,傳統(tǒng)CNN模型訓(xùn)練集損失值為4.24%,訓(xùn)練時(shí)間為36.97 s,這說明目標(biāo)損失函數(shù)在迭代過程中,根據(jù)當(dāng)前梯度值自適應(yīng)的調(diào)節(jié)正則化系數(shù)的變化趨勢(shì),使加在目標(biāo)損失函數(shù)中的正則化項(xiàng)對(duì)網(wǎng)絡(luò)的優(yōu)化程度不斷提高,最終表現(xiàn)在模型診斷準(zhǔn)確率的穩(wěn)定上升;當(dāng)?shù)螖?shù)達(dá)240次時(shí),Are-CNN模型的訓(xùn)練集損失下降至穩(wěn)定值0.33%,相比傳統(tǒng)CNN模型在迭代次數(shù)達(dá)300次時(shí)損失值才逐漸趨于穩(wěn)定的0.86%,Are-CNN模型在收斂速度加快近1倍的基礎(chǔ)上,故障診斷精度提高了0.53%,最終準(zhǔn)確率達(dá)到99.67%。充分說明,這種每輪迭代均引入自適應(yīng)正則化系數(shù)的方法有效特高了CNN模型的收斂速度和識(shí)別準(zhǔn)確率。
表4 不同方法下不同迭代次數(shù)的損失值Tab.4 Loss values with different iteration times when using different methods
本文提出了一種引入自適應(yīng)正則化系數(shù)的卷積神經(jīng)網(wǎng)絡(luò)逆變器故障診斷方法,利用CNN強(qiáng)大的特征提取能力和分類效果,實(shí)現(xiàn)無接觸網(wǎng)供電軌道列車三電平逆變器復(fù)雜及多混合故障的智能化診斷。Are-CNN模型相比傳統(tǒng)CNN和BP神經(jīng)網(wǎng)絡(luò)具有以下優(yōu)勢(shì):
(1)層層去擬合優(yōu)化,大大加快數(shù)據(jù)穩(wěn)定表達(dá),提高了CNN模型收斂速度。
(2)自適應(yīng)正則化的方式,避免了人工優(yōu)化和依靠單一先驗(yàn)經(jīng)驗(yàn)取值的過程;不再采用全局統(tǒng)一參數(shù)的方式,大大增強(qiáng)了CNN網(wǎng)絡(luò)泛化能力,從而提高分類準(zhǔn)確率。
(3)實(shí)時(shí)智能檢測(cè)的方法不僅縮短了模型訓(xùn)練時(shí)間,還實(shí)現(xiàn)了故障位置準(zhǔn)確定位。
但Are-CNN模型仍需大量數(shù)據(jù)樣本訓(xùn)練網(wǎng)絡(luò),針對(duì)逆變器周期性故障波形如何利用較少數(shù)據(jù)樣本獲得高級(jí)特征表示有待進(jìn)一步研究。