曲成家,劉永葆,賀 星
(海軍工程大學(xué) 船舶與動(dòng)力學(xué)院,湖北 武漢430033)
可靠性預(yù)測(cè)是在設(shè)計(jì)階段進(jìn)行定量預(yù)估未來(lái)產(chǎn)品可靠性的一種方法。如果說(shuō)可靠性分配[1]是從系統(tǒng)到單元、由整體到個(gè)體來(lái)進(jìn)行的話,那么可靠性預(yù)測(cè)則是按相反的方法進(jìn)行??煽啃灶A(yù)測(cè)常常作為可靠性分配的基礎(chǔ),兩者關(guān)系密切,都是可靠性設(shè)計(jì)的重要環(huán)節(jié)。
燃?xì)廨啓C(jī)的研制涉及氣動(dòng)、熱力、燃燒、材料、結(jié)構(gòu)、控制和機(jī)械加工等多學(xué)科技術(shù),是知識(shí)密集、技術(shù)密集和資金密集的結(jié)晶,其可靠性是一個(gè)重要的性能指標(biāo)。但由于其結(jié)構(gòu)及功能復(fù)雜、啟停頻繁、運(yùn)行工況多變、受環(huán)境影響大,所以依靠傳統(tǒng)的可靠性定量計(jì)算來(lái)衡量燃?xì)廨啓C(jī)的可靠性具有一定的局限性,甚至所得結(jié)果與實(shí)際結(jié)果相差甚遠(yuǎn)。
運(yùn)用已往的工程經(jīng)驗(yàn)與故障數(shù)據(jù),結(jié)合當(dāng)前的技術(shù)水平,來(lái)預(yù)測(cè)燃?xì)廨啓C(jī)實(shí)際可能達(dá)到的可靠度,即預(yù)測(cè)其在特定應(yīng)用中完成規(guī)定功能的概率。這對(duì)分析評(píng)估燃?xì)廨啓C(jī)的可靠性水平、了解燃?xì)廨啓C(jī)設(shè)計(jì)和研制中的薄弱環(huán)節(jié)、指導(dǎo)制造廠家更好地開展設(shè)計(jì)分析和改進(jìn)工作具有重要作用。
可靠性預(yù)測(cè)有許多方法,如回歸預(yù)測(cè)法、修正系數(shù)法、相似產(chǎn)品類比論證法等。但這些方法對(duì)帶有時(shí)序特征呈高度非線性的可靠性數(shù)據(jù)的處理,其精度往往不高。而神經(jīng)網(wǎng)絡(luò)能實(shí)現(xiàn)從輸入到輸出狀態(tài)空間的高度非線性映射[2],故本文采用神經(jīng)網(wǎng)絡(luò)來(lái)進(jìn)行可靠性預(yù)測(cè)。
已知燃?xì)廨啓C(jī)在故障時(shí)間序列t1,t2,…,tn時(shí)刻的可靠性歷史統(tǒng)計(jì)數(shù)據(jù),預(yù)測(cè)其下一時(shí)刻tn+1的可靠度,其數(shù)學(xué)模型可表述為[3]:
這類預(yù)測(cè)問(wèn)題的關(guān)鍵是確定函數(shù)關(guān)系f,一般可用一元或多元線性回歸方法將歷史數(shù)據(jù)擬合成一個(gè)顯式表達(dá)式。此方法雖然簡(jiǎn)單易行,但對(duì)于高度非線性問(wèn)題,其擬合精度往往難以保證。而人工神經(jīng)網(wǎng)絡(luò)卻能實(shí)現(xiàn)從輸入到輸出狀態(tài)空間的高度非線性映射,可用來(lái)解決上述可靠性預(yù)測(cè)問(wèn)題。
在燃?xì)廨啓C(jī)的各種可靠性指標(biāo)中,由于其啟動(dòng)過(guò)程的復(fù)雜性、啟動(dòng)程序的嚴(yán)格性,所以對(duì)其啟動(dòng)可靠性有著較高的要求。根據(jù)實(shí)際運(yùn)行數(shù)據(jù),利用神經(jīng)網(wǎng)絡(luò)較好的高度非線性映射性能,來(lái)預(yù)測(cè)和研究各型燃?xì)廨啓C(jī)的實(shí)際可靠度有著重要的意義。
為了對(duì)某型燃?xì)廨啓C(jī)實(shí)際運(yùn)行的可靠性進(jìn)行預(yù)測(cè),對(duì)該型燃?xì)廨啓C(jī)啟動(dòng)過(guò)程中發(fā)生的故障事件進(jìn)行了統(tǒng)計(jì)。表1列出了前20臺(tái)次該型燃?xì)廨啓C(jī)發(fā)生啟動(dòng)故障時(shí)的累計(jì)工作時(shí)間及臺(tái)次數(shù),此前累計(jì)啟動(dòng)次數(shù)為1 583次。
從神經(jīng)網(wǎng)絡(luò)函數(shù)逼近功能這個(gè)角度來(lái)分,神經(jīng)網(wǎng)絡(luò)可以分為全局逼近網(wǎng)絡(luò)和局部逼近網(wǎng)絡(luò)[4]。BP網(wǎng)絡(luò)(后傳播網(wǎng)絡(luò))是全局逼近網(wǎng)絡(luò)的典型例子,但BP網(wǎng)絡(luò)對(duì)于每個(gè)樣本即輸入輸出數(shù)據(jù)對(duì),網(wǎng)絡(luò)的每個(gè)連接權(quán)均需進(jìn)行調(diào)整,從而導(dǎo)致全局逼近網(wǎng)絡(luò)學(xué)習(xí)速度變慢。而局部逼近網(wǎng)絡(luò)則只需對(duì)網(wǎng)絡(luò)輸入空間某個(gè)局部區(qū)域的少量連接權(quán)進(jìn)行調(diào)整,從而具有學(xué)習(xí)速度快的特點(diǎn)。目前常用的局部逼近神經(jīng)網(wǎng)絡(luò)有 CMAC 網(wǎng)絡(luò)、徑向基函數(shù)(RBF)網(wǎng)絡(luò)[5~8]和 B 樣條網(wǎng)絡(luò)等。而廣義回歸神經(jīng)網(wǎng)絡(luò)(GRNN網(wǎng)絡(luò))[9]是徑向基網(wǎng)絡(luò)的一種變化形式,訓(xùn)練速度快,非線性映射能力強(qiáng),故本文選用GRNN網(wǎng)絡(luò)進(jìn)行燃?xì)廨啓C(jī)可靠性預(yù)測(cè)。
表1 某型燃?xì)廨啓C(jī)發(fā)生啟動(dòng)故障時(shí)的累計(jì)工作時(shí)間及臺(tái)次數(shù)Table 1 Total operating time and number of gas turbine for starting fault
GRNN網(wǎng)絡(luò)由一個(gè)徑向基網(wǎng)絡(luò)層和一個(gè)線性網(wǎng)絡(luò)層組成[10~12],網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。P表示輸入向量,R表示輸入維數(shù),Q表示每層網(wǎng)絡(luò)中的神經(jīng)元個(gè)數(shù),同時(shí)也表示訓(xùn)練樣本的個(gè)數(shù)。
網(wǎng)絡(luò)的第一層為徑向基隱含層,單元個(gè)數(shù)等于訓(xùn)練樣本數(shù)Q,該層的權(quán)值函數(shù)為歐幾里德距離度量函數(shù)(用‖dist‖表示),其作用是計(jì)算網(wǎng)絡(luò)輸入與第一層的權(quán)值IW1,1之間的距離,b1為隱含層閾值。符號(hào)“·*”表示‖dist‖的輸出與閾值b1的元素與元素之間的乘積關(guān)系,并將結(jié)果形成凈輸入n1傳送到傳遞函數(shù)。隱含層的傳遞函數(shù)為徑向基函數(shù),常用高斯函數(shù)作為網(wǎng)絡(luò)的傳遞函數(shù),式中σi決定第i個(gè)隱含層位置處基函數(shù)的形狀,σi越大則基函數(shù)越平緩,故稱為光滑因子,又被稱為分布密度SPREAD。
圖1 GRNN網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 The structure of GRNN
網(wǎng)絡(luò)的第二層為線性輸出層,其權(quán)函數(shù)為規(guī)范化點(diǎn)積權(quán)函數(shù)(用nprod表示),計(jì)算出網(wǎng)絡(luò)的向量n2,它的每個(gè)元素就是向量a1與權(quán)值矩陣LW2,1每行元素的點(diǎn)積再除以向量a1各元素之和的值,并將結(jié)果n2送入線性傳遞函數(shù)a2=purelin(n2),計(jì)算網(wǎng)絡(luò)輸出。
GRNN網(wǎng)絡(luò)的第一層與函數(shù)newrbe()設(shè)計(jì)網(wǎng)絡(luò)的原理相同,其神經(jīng)元的數(shù)目與輸入期望值樣本向量對(duì)的數(shù)目相等,第一層的閾值為0.832 6/SPREAD的列向量。選擇SPREAD的原則是使得第一層輸入向量與神經(jīng)元權(quán)值向量之間的距離為0.5。第一層神經(jīng)元的網(wǎng)絡(luò)輸入為加權(quán)輸入與相應(yīng)閾值的乘積,然后通過(guò)神經(jīng)元函數(shù)radbas()計(jì)算得到第一層神經(jīng)元的網(wǎng)絡(luò)輸出。GRNN網(wǎng)絡(luò)第二層的神經(jīng)元數(shù)目同樣與輸入期望值樣本向量對(duì)的數(shù)目相等,此時(shí)其權(quán)值設(shè)定為期望值。在GRNN網(wǎng)絡(luò)的設(shè)計(jì)中,SPREAD越大,擬合函數(shù)就越平滑,但SPREAD的大小會(huì)影響預(yù)報(bào)誤差。所以在SPREAD的選擇上要根據(jù)平滑度和誤差來(lái)合理折中選取。
同時(shí),為了對(duì)比,也用BP網(wǎng)絡(luò)進(jìn)行了計(jì)算機(jī)算法實(shí)現(xiàn)。BP網(wǎng)絡(luò)設(shè)計(jì)中的關(guān)鍵就是隱層數(shù)的設(shè)計(jì),而隱層的神經(jīng)元數(shù)目選擇十分復(fù)雜,往往需要根據(jù)設(shè)計(jì)者的經(jīng)驗(yàn)和多次試驗(yàn)來(lái)確定,因而不能用一個(gè)理想的解析式來(lái)表示。隱單元數(shù)目與問(wèn)題的要求、輸入/輸出單元數(shù)目都直接相關(guān)。隱單元數(shù)目太多會(huì)導(dǎo)致學(xué)習(xí)時(shí)間過(guò)長(zhǎng)、而誤差不一定最佳,也會(huì)導(dǎo)致容錯(cuò)性差、不能識(shí)別以前沒有看到的樣本,因此存在一個(gè)最佳的隱單元數(shù)。式(2)~式(4)可用作選擇最佳隱單元數(shù)時(shí)的參考公式[13]。
式中:k為樣本數(shù),n1為隱單元數(shù),n為輸入單元數(shù)。如果
式中:m為輸出單元數(shù);a為調(diào)節(jié)常數(shù),且在1~10之間取值。
另外,結(jié)合作者的實(shí)際使用經(jīng)驗(yàn),當(dāng)n1在式(5)范圍內(nèi)選取時(shí)可得到較佳的效果。
首先把表1中的實(shí)際數(shù)據(jù)轉(zhuǎn)換為網(wǎng)絡(luò)的學(xué)習(xí)樣本。根據(jù)式(1)所示預(yù)測(cè)模型對(duì)故障數(shù)據(jù)進(jìn)行如下處理:以t時(shí)刻的可靠度Rt作為函數(shù)的輸出,以t時(shí)刻之前的t-1、t-2、…、t-m這m個(gè)時(shí)刻的可靠度Rt-1,Rt-2,…,Rt-m以及時(shí)刻 t作為輸入變量,構(gòu)成式(6)的函數(shù)關(guān)系:
依工程實(shí)際經(jīng)驗(yàn),當(dāng)m取5時(shí)有較好的預(yù)測(cè)效果。根據(jù)表1中的數(shù)據(jù),結(jié)合式(6)以及BP網(wǎng)絡(luò)的要求,將其轉(zhuǎn)換為BP網(wǎng)絡(luò)的15組訓(xùn)練樣本,見表2。
其次是獲得樣本數(shù)據(jù)向量。由于其中各個(gè)指標(biāo)存在相同,原始樣本中各向量的數(shù)量級(jí)差別很大,為了計(jì)算方便及防止部分神經(jīng)元達(dá)到過(guò)飽和狀態(tài),在研究中,對(duì)樣本的輸入向量中超出[-1,1]的向量進(jìn)行歸一化預(yù)處理[13]。設(shè)第j列需要?dú)w一化處理,歸一化公式為:
表2 網(wǎng)絡(luò)的學(xué)習(xí)樣本Table 2 Learning samples of neural network
本文樣本中發(fā)生啟動(dòng)故障時(shí)的累計(jì)工作時(shí)間t就要進(jìn)行歸一化預(yù)處理。
根據(jù)上節(jié)中闡述的神經(jīng)網(wǎng)絡(luò)優(yōu)化設(shè)計(jì),本文分別用BP網(wǎng)絡(luò)和GRNN網(wǎng)絡(luò)進(jìn)行了算法的計(jì)算機(jī)實(shí)現(xiàn)。為了對(duì)比各種參數(shù)對(duì)訓(xùn)練結(jié)果的影響,進(jìn)行了各種參數(shù)的訓(xùn)練試驗(yàn),其結(jié)果見圖2~圖5。
由圖2可以看出,在本文的BP網(wǎng)絡(luò)設(shè)計(jì)中,隱層單元數(shù)為13時(shí)對(duì)樣本訓(xùn)練100次后的誤差為1.118 59×10-11,效果比隱層單元數(shù)為3、20和35時(shí)的都要好。而文獻(xiàn)[3]中利用與本文相同輸入單元數(shù)的樣本訓(xùn)練9 971次后誤差平方和才下降到0.005,其原因是中間層神經(jīng)節(jié)點(diǎn)數(shù)(隱層單元數(shù))選取過(guò)大(為 80)所致。
從圖3中可知,當(dāng)SPREAD=1×10-5時(shí),GRNN網(wǎng)絡(luò)在算法實(shí)現(xiàn)中其訓(xùn)練用時(shí)比BP網(wǎng)絡(luò)要少,而精度要比最佳的BP網(wǎng)絡(luò)(隱層單元數(shù)為13)訓(xùn)練100次后達(dá)到的精度要高。
從圖4中由GRNN網(wǎng)絡(luò)得到的預(yù)測(cè)值和真實(shí)值的比較可以看出,真實(shí)值和預(yù)測(cè)值完全重合,這是因?yàn)闇y(cè)試數(shù)據(jù)就是訓(xùn)練數(shù)據(jù)。
圖5是根據(jù)樣本訓(xùn)練好的GRNN網(wǎng)絡(luò)對(duì)下一時(shí)刻燃?xì)廨啓C(jī)啟動(dòng)可靠性的預(yù)測(cè)。選擇對(duì)燃?xì)廨啓C(jī)將要運(yùn)行到4 500 h時(shí)刻的啟動(dòng)可靠度進(jìn)行網(wǎng)絡(luò)預(yù)測(cè)模擬,結(jié)果表明,預(yù)測(cè)值為0.986 9,而參考值(即假設(shè)該時(shí)刻發(fā)生啟動(dòng)失敗時(shí)的燃?xì)廨啓C(jī)可靠度)為0.986 7,預(yù)測(cè)值大于參考值,故可以認(rèn)為在運(yùn)行到4 500 h時(shí)刻之前,該型燃?xì)廨啓C(jī)不會(huì)發(fā)生啟動(dòng)失敗故障。
圖2 BP網(wǎng)絡(luò)訓(xùn)練誤差曲線Fig.2 The curves of training error of BP network
圖3 BP網(wǎng)絡(luò)(n1=13)和 GRNN網(wǎng)絡(luò)(SPREAD=1×10-5)訓(xùn)練后的預(yù)報(bào)誤差對(duì)比(樣本16~20)Fig.3 Forecasting error contrast of BP(n1=13)and GRNN(SPREAD=1×10-5)after training(samples 16~20)
圖4 GRNN網(wǎng)絡(luò)預(yù)測(cè)值和真實(shí)值(樣本16~20)Fig.4 The sample value vs.forecasting value of GRNN(samples 16~20)
圖5 基于GRNN網(wǎng)絡(luò)的燃?xì)廨啓C(jī)可靠性預(yù)測(cè)Fig.5 The reliability forecasting with GRNN
(1)利用神經(jīng)網(wǎng)絡(luò)能夠解決高度非線性問(wèn)題,顯示出其優(yōu)良的逼近非線性函數(shù)的能力;而常規(guī)的回歸方法卻無(wú)能為力。所以神經(jīng)網(wǎng)絡(luò)為燃?xì)廨啓C(jī)可靠性預(yù)測(cè)提供了一個(gè)有力的工具。
(2)無(wú)論是用BP網(wǎng)絡(luò)還是GRNN網(wǎng)絡(luò),在算法實(shí)現(xiàn)中都需要采用恰當(dāng)?shù)膮?shù)才能得到較好的效果。BP網(wǎng)絡(luò)所需的參數(shù)設(shè)計(jì)為隱單元數(shù),GRNN網(wǎng)絡(luò)所需的參數(shù)設(shè)計(jì)為其分布密度。
(3)本例中,當(dāng)分布密度為1×10-5時(shí),GRNN網(wǎng)絡(luò)在算法實(shí)現(xiàn)中的訓(xùn)練用時(shí)比BP網(wǎng)絡(luò)的要少,而精度也要比最佳的BP網(wǎng)絡(luò)(隱層單元數(shù)為13)的高。
[1]王少萍.工程可靠性[M].北京:北京航空航天大學(xué)出版社,2000.
[2]Haykin S.神經(jīng)網(wǎng)絡(luò)原理[M].葉世偉,史忠植,譯.第二版.北京:機(jī)械工業(yè)出版社,2004.
[3]吳曉平,汪 玉.艦船裝備系統(tǒng)綜合評(píng)估的理論與方法[M].北京:科學(xué)出版社,2007.
[4]朱大奇,史 慧.人工神經(jīng)網(wǎng)絡(luò)原理及應(yīng)用[M].北京:科學(xué)出版社,2006.
[5]Moody J,Darken C.Fast Learning in Networks of Locally-tuned Processing Units[J].Neural Computation,1989,1(2):281—294.
[6]Powell M J D.Radial Basis Function for Multivariable Interpolation[C]//.A review,IMA Conference on Algorithms for the Approximation of Functions and Data.England,1985.
[7]Broomhead D S,Lowe D.Multivariable Functional Interpolation and Adaptive Networks [J].Complex Systems,1988,2(2):321—355.
[8]Poggio T,Girosi F.Regularization Algorithms for Learning that are Equivalent to Multilayer Networks[J].Science,1990,127:978—982.
[9]Sprecht D F.A General Regression Neural Network [J].IEEE Trans Neural Networks,1991,2(6):568—576.
[10]周 昊,鄭立剛,樊建人,等.廣義回歸神經(jīng)網(wǎng)絡(luò)在煤灰熔點(diǎn)預(yù)測(cè)中的應(yīng)用[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2004,38(11):1479—1482.
[11]鹿 鵬,陳曉平,趙長(zhǎng)遂,等.高壓密相氣力輸送固相流量的實(shí)驗(yàn)與GRNN網(wǎng)絡(luò)預(yù)測(cè)[J].熱能動(dòng)力工程,2008,23(1):41—45.
[12]董長(zhǎng)虹.Matlab神經(jīng)網(wǎng)絡(luò)與應(yīng)用[M].北京:國(guó)防工業(yè)出版社,2007.
[13]葛哲學(xué),孫志強(qiáng).神經(jīng)網(wǎng)絡(luò)理論與MATLABR2007實(shí)現(xiàn)[M].北京:電子工業(yè)出版社,2007.