王新穎,宋興帥,楊泰旺
(常州大學(xué)環(huán)境與安全工程學(xué)院,江蘇 常州 213164)
由于油氣管道在不同輸運(yùn)狀態(tài)時(shí)產(chǎn)生的聲發(fā)射信號(hào)不同,所以利用聲發(fā)射信號(hào)對管道進(jìn)行檢測成為無損監(jiān)測中的一種有效方法[1-2]。近些年,隨著人工智能技術(shù)和計(jì)算機(jī)的迅速發(fā)展,國內(nèi)外專家基于已采集的聲發(fā)射信號(hào)提出了反向傳播神經(jīng)網(wǎng)絡(luò)(BPNN)[3-5]、DS融合[6-7]和支持向量機(jī)(Support Vector Machine,SVM)[8-10]等方法對管道故障進(jìn)行智能診斷。然而BPNN方法存在收斂速度過慢的問題,并且容易陷入局部最優(yōu);DS融合方法通常在識(shí)別過程中無法獲得大量的樣本數(shù)據(jù);SVM方法其實(shí)是一個(gè)針對二分類問題的分類器,而針對多分類問題,其存在參數(shù)和核函數(shù)不容易確定等缺點(diǎn),并且分類器的構(gòu)造比較困難,最終的分類效果也不佳。此外,以上幾種方法大多是淺層機(jī)器學(xué)習(xí)方法,其學(xué)習(xí)能力都受到了一定限制,而且特征的提取和選擇也大多都是根據(jù)人工經(jīng)驗(yàn)來完成,其診斷結(jié)果不能令人滿意;而且,以上方法對數(shù)據(jù)樣本的完整性要求較高,因此無法充分利用聲發(fā)射檢測系統(tǒng)中的大量無標(biāo)簽數(shù)據(jù)。
深度機(jī)器學(xué)習(xí)是由Hinton教授等[11]在2006年提出的,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)就是其中之一,較強(qiáng)的自動(dòng)學(xué)習(xí)能力是它的最大特點(diǎn),主要體現(xiàn)在可以對輸入數(shù)據(jù)進(jìn)行逐層的特征學(xué)習(xí),并能夠轉(zhuǎn)換重構(gòu)新的特征,避免了特征的人工選擇和提取,所以其漸漸成為了近幾年國內(nèi)外的研究熱點(diǎn)之一[12-14]。深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)是用無監(jiān)督的方式對樣本數(shù)據(jù)進(jìn)行訓(xùn)練,將采集到的聲發(fā)射無標(biāo)簽樣本數(shù)據(jù)對深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)分類模型進(jìn)行預(yù)訓(xùn)練和參數(shù)優(yōu)化,從而使分類模型的辨識(shí)率有一定的提升。如今,這種方法已成功地應(yīng)用于文字識(shí)別、圖片識(shí)別、人臉識(shí)別等方面[15-17],但是在油氣管道故障診斷方面的應(yīng)用研究才剛開始。
本文在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,建立了深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)分類模型,并以4個(gè)經(jīng)典機(jī)器學(xué)習(xí)分類數(shù)據(jù)集為樣本進(jìn)行分類性能測試,同時(shí)根據(jù)管道聲發(fā)射檢測系統(tǒng)中已采集的數(shù)據(jù)樣本與故障狀態(tài),提出了一種基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的管道故障診斷方法。該方法以半監(jiān)督的方式進(jìn)行特征學(xué)習(xí),以其較強(qiáng)的特征學(xué)習(xí)能力可以得出管道不同運(yùn)行狀況的出現(xiàn)概率,能夠?yàn)楣ぷ魅藛T判斷搶修和檢修管道提供依據(jù)。為了驗(yàn)證該方法的有效性,本文將該方法應(yīng)用于實(shí)驗(yàn)室油氣儲(chǔ)運(yùn)管道檢測系統(tǒng)中,并在相同的條件下與BPNN方法和SVM方法進(jìn)行了分析比較。
深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)(Deep Learning Neural Network,DLNN)是一種通常含有3個(gè)或3個(gè)以上隱含層的機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),能夠?qū)μ卣鬟M(jìn)行提取和轉(zhuǎn)換,并以這種方式實(shí)現(xiàn)了機(jī)器自動(dòng)學(xué)習(xí)、數(shù)據(jù)本質(zhì)屬性的挖掘,從而更有利于樣本的分類,也使辨識(shí)準(zhǔn)確率在一定程度上有所提升。DLNN常用的方法有:卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、自動(dòng)編碼器(Auto-Encoder,AE)、深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)和限制波爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)。其中,CNN大多數(shù)情況下用于圖像、語音等方面的識(shí)別,而RBM和DBN對數(shù)據(jù)樣本要求過高,這里選取自動(dòng)編碼器(AE)作為深度神經(jīng)網(wǎng)絡(luò)分類的基本模型。
由美國斯坦福大學(xué)Andrew教授的課程筆記[18]可知,自動(dòng)編碼器(AE)是一種以輸出信號(hào)來代替輸入信號(hào)的神經(jīng)網(wǎng)絡(luò)。為了實(shí)現(xiàn)輸出信號(hào)和輸入信號(hào)盡可能的一致,AE就必須提取出具有原數(shù)據(jù)本質(zhì)成分的特征來代表輸入信號(hào)。具體的實(shí)現(xiàn)過程如下:首先,以非/半監(jiān)督方式來學(xué)習(xí)無標(biāo)簽數(shù)據(jù)的本質(zhì)特征;其次,由編碼器輸出特征來訓(xùn)練下一層,并這樣循環(huán)逐層訓(xùn)練;最后,進(jìn)行有監(jiān)督的微調(diào)。
對于一般情況,最基本的AE是一個(gè)三層的神經(jīng)網(wǎng)絡(luò),如圖1所示,x為輸入層,h為隱含層,y為輸出層,x和y一般有相同的節(jié)點(diǎn)。將樣本從x到h轉(zhuǎn)換的過程叫作編碼,而將h到y(tǒng)轉(zhuǎn)換的過程叫作解碼,如圖2所示。假設(shè)f為編碼函數(shù),g為解碼函數(shù),則兩個(gè)函數(shù)的表達(dá)式如下:
h=f(x)=Sf(Wx+p)
(1)
y=g(h)=Sg(WT+q)
(2)
式中:Sf和Sg一般取Sigmoid函數(shù);Wx為x和h之間的權(quán)值矩陣;WT為h和y之間的權(quán)值矩陣;p為h的偏置向量;q為y的偏置向量。
圖1 自動(dòng)編碼器網(wǎng)絡(luò)圖Fig.1 Network diagram of AE
圖2 自動(dòng)編碼器機(jī)理圖Fig.2 Mechanism diagram of AE
為了更加準(zhǔn)確地將特征表示出來,AE參數(shù)W、p和q簡記為θ。
假設(shè)訓(xùn)練樣本集S={x1,x2,…,xn},對AE進(jìn)行預(yù)訓(xùn)練實(shí)際上是通過S對參數(shù)θ進(jìn)行訓(xùn)練。因此,通常先把訓(xùn)練后的目標(biāo)定義出來,即解碼后輸出的y應(yīng)該與輸入x盡最大限度地逼近,重構(gòu)誤差函數(shù)L(X,Y)可以用來表示這種逼近程度,L(x,y)可定義為
L(x,y)=∑ni=1[xiln(yi)+(1-xi)ln(1-yi)]
(3)
基于上式關(guān)于訓(xùn)練樣本集S的損失函數(shù)可表示為
JAE(θ)=1N∑x∈SL[x,g(f(x))]
(4)
式中:JAE(θ)為關(guān)于參數(shù)θ的損失函數(shù);N為訓(xùn)練樣本集中輸入樣本的個(gè)數(shù)。
每層AE的參數(shù)θ就是將式(4)進(jìn)行最小化處理得到的。但是,對于大多數(shù)的實(shí)際應(yīng)用,假如僅僅將損失函數(shù)做極小化處理,很多時(shí)候或許會(huì)獲得一個(gè)恒等函數(shù)。為了避免這種情況的出現(xiàn),使用AE的一種變體——稀疏自動(dòng)編碼器進(jìn)行處理。
一般情況下,自動(dòng)編碼器有兩種變體:稀疏自動(dòng)編碼器(Sparse Auto-Encoder)和降噪自動(dòng)編碼器(Denosing Auto-Encoder)。為了避免恒等式的出現(xiàn),這里選擇稀疏自動(dòng)編碼器對損失函數(shù)進(jìn)行處理。稀疏自動(dòng)編碼器就是在AE的基礎(chǔ)上加上一些規(guī)則限制條件,以便使獲得的編碼盡可能稀疏,其中稀疏的表達(dá)方式是各種表達(dá)方式中最好的一種。針對以上損失函數(shù)容易出現(xiàn)恒等的問題,能夠通過對其進(jìn)行稀疏性限制來解決,又稱作稀疏自編碼。這里選用一種基于相對熵的方法來實(shí)現(xiàn),下式表示具體的損失函數(shù):
JAE+sp(θ)=∑x∈SL[x,g(f(x))]+β∑mj=1KL(ρ·ρ∧j)
(5)
式中:β為權(quán)重系數(shù);ρ為稀疏性參數(shù);ρ∧j為xi在隱含層上第j個(gè)神經(jīng)元的平均激活度。
其中,KL(ρ·ρ∧j)的表達(dá)式為
KL(ρ·ρ∧j)=ρlnρρ∧j+(1-ρ)ln1-ρρ∧j
(6)
從公式(6)中可以看出,ρ∧與ρ差值的增大可以使KL(ρ·ρ∧j)漸漸減小,只有兩者的值相等時(shí)才能獲得最小值0。因此,ρ∧j與ρ的差值逼近于0的過程能夠通過最小化函數(shù)來實(shí)現(xiàn)。
本文建立了深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)分類(Classification Deep Learning Neural Network,CDLNN)模型,它是由輸入層、若干個(gè)AE層、分類層、輸出層組合而成,其中若干個(gè)AE層是以堆疊的形式存在的。CDLNN模型的框架見圖3。為了解決多分類的問題,選擇SOFTMAX作為分類器,由于該分類器能夠輸出分類結(jié)果的概率,而且可以與AE較好地結(jié)合,通常能夠得到較佳的分類效果[19-20]。
圖3 深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)分類模型Fig.3 The CDLNN model
CDLNN模型解決多分類問題的訓(xùn)練過程通常有預(yù)訓(xùn)練和微調(diào)兩個(gè)過程:預(yù)訓(xùn)練的第一步就是選取無標(biāo)簽數(shù)據(jù)或者去標(biāo)簽數(shù)據(jù)構(gòu)建輸入樣本,然后利用BP算法使一系列AE參數(shù)完成初始化;微調(diào)就是利用帶有標(biāo)簽的樣本對整個(gè)網(wǎng)絡(luò)參數(shù)進(jìn)行調(diào)整,使輸出特征與輸入數(shù)據(jù)樣本的誤差最小,從而使CDLNN模型的識(shí)別性能達(dá)到最佳。
本文利用所建立的CDLNN模型對Iris、Adult、Wine、Car Evaluation這4個(gè)經(jīng)典機(jī)器學(xué)習(xí)數(shù)據(jù)集進(jìn)行分類性能測試,初始學(xué)習(xí)速率值設(shè)置為0.1,網(wǎng)絡(luò)參數(shù)θ初始化遵從高斯分布的隨機(jī)較小值,參數(shù)更新速率值設(shè)置為0.01。表1為CDLNN模型對4個(gè)數(shù)據(jù)集的分類性能測試結(jié)果。
表1 CDLNN模型對4個(gè)數(shù)據(jù)集的分類性能測試結(jié)果
由表1可見,CDLNN模型對各個(gè)數(shù)據(jù)集的分類效果均達(dá)到了令人滿意的結(jié)果,平均分類正確率均達(dá)到96%以上,這表明建立的CDLNN模型能夠用來解決多分類的問題。
為了使樣本集不至于太偏斜,又確保能夠獲得充足的數(shù)據(jù)樣本,本次研究選用近期實(shí)驗(yàn)室多次管道泄漏試驗(yàn)所采集的聲發(fā)射數(shù)據(jù),由于這些數(shù)據(jù)沒有標(biāo)簽,因此可以作為預(yù)訓(xùn)練樣本。實(shí)驗(yàn)室進(jìn)行燃?xì)夤艿佬孤┰囼?yàn)時(shí),用斷鉛來模擬管道斷裂時(shí)管道發(fā)出的聲發(fā)射信號(hào),用紗布摩擦來模擬管道發(fā)生裂紋時(shí)管道發(fā)出的聲發(fā)射信號(hào),打開泄漏閥模擬燃?xì)夤艿佬孤顟B(tài)時(shí)管道發(fā)出的聲發(fā)射信號(hào),并采集正常輸運(yùn)情況下管道發(fā)出的聲發(fā)射信號(hào)。由于微調(diào)需要用少量的帶標(biāo)簽樣本,所以本次研究將模擬管道故障時(shí)獲得的數(shù)據(jù)作為微調(diào)所需樣本。
參照聲發(fā)射檢測系統(tǒng)采集到的數(shù)據(jù),并根據(jù)CDLNN模型的自動(dòng)學(xué)習(xí)、轉(zhuǎn)換特征和分類的能力,選取幅值、絕對能量、振鈴計(jì)數(shù)、上升時(shí)間、持續(xù)時(shí)間、平均信號(hào)電平、有效值電壓和事件計(jì)數(shù)這8個(gè)反映管道運(yùn)行狀態(tài)的特征變量,為了使各特征變量之間的差異盡可能縮小,也為了使計(jì)算更加精確,利用下式對各個(gè)特征變量進(jìn)行標(biāo)準(zhǔn)化處理:
xnew=x-xmeanxstd
(7)
式中:xnew為特征參數(shù)標(biāo)準(zhǔn)化后的值;x為特征參數(shù)原來的值;xmean為各樣本集中此特征參數(shù)的均值;xstd為樣本集中此特征參數(shù)的標(biāo)準(zhǔn)差值。
參照管道實(shí)際輸運(yùn)過程中容易出現(xiàn)的故障,將故障的診斷結(jié)果歸納為4種類型,并將各種故障類型進(jìn)行了編碼,見表2。
表2 管道運(yùn)行狀態(tài)編碼
圖4為管道故障診斷CDLNN模型的結(jié)構(gòu)。輸入模型中是已標(biāo)準(zhǔn)化處理的8個(gè)特征參數(shù)值,輸出模型中則是管道各輸運(yùn)狀態(tài)的概率值,其中最大概率所對應(yīng)的運(yùn)行狀態(tài)就是管道故障診斷的結(jié)果。
圖4 管道故障診斷CDLNN模型的結(jié)構(gòu)Fig.4 Structure of the pipeline fault diagnosis model based on CDLNN model
管道故障診斷CDLNN模型的訓(xùn)練過程與CDLNN模型相似,主要分為預(yù)訓(xùn)練和微調(diào)兩個(gè)過程。首先將已標(biāo)準(zhǔn)化處理的8個(gè)特征參數(shù)輸入模型,并利用大量的訓(xùn)練樣本對一系列AE參數(shù)進(jìn)行初始化;然后對參數(shù)進(jìn)行微調(diào),利用少量帶有標(biāo)簽的數(shù)據(jù)樣本對整個(gè)網(wǎng)絡(luò)進(jìn)行調(diào)整,從而使CDLNN模型的故障診斷效果獲得最佳;最后輸出管道各輸運(yùn)狀態(tài)的概率,其中最大的概率所對應(yīng)的管道運(yùn)行狀態(tài)即為診斷結(jié)果。
基于CDLNN模型的管道故障診斷流程如下(見圖5):
圖5 基于CDLNN模型的管道故障診斷流程Fig.5 Flowchart of pipeline fault diagnosis based on CDLNN model
(1) 采集管道故障數(shù)據(jù):對被測管道加以斷鉛、紗布摩擦、打開泄漏閥等激勵(lì)措施,在聲發(fā)射采集系統(tǒng)中采集不同故障狀態(tài)下的聲發(fā)射信號(hào)。
(2) 數(shù)據(jù)預(yù)處理:將采集到不同類型故障數(shù)據(jù)標(biāo)準(zhǔn)化,并劃分為訓(xùn)練樣本和測試樣本。
(3) 編碼及CDLNN模型的建立:針對管道不同的故障狀態(tài)進(jìn)行編碼,并構(gòu)建CDLNN模型。
(4) 初始化網(wǎng)絡(luò):將網(wǎng)絡(luò)的結(jié)構(gòu)和相關(guān)參數(shù)進(jìn)行初始化,一般包括AE網(wǎng)絡(luò)層數(shù)、學(xué)習(xí)率、特征向量維數(shù)和迭代次數(shù)等。
(5) AE預(yù)訓(xùn)練:輸入管道故障聲發(fā)射信號(hào)的訓(xùn)練樣本集逐層訓(xùn)練堆疊自動(dòng)編碼器,直到達(dá)到收斂標(biāo)準(zhǔn)才結(jié)束訓(xùn)練。
(6) 全局微調(diào):使用BP算法或CD算法輸入堆疊自動(dòng)編碼器的特征輸出和相應(yīng)的類別標(biāo)簽來訓(xùn)練整個(gè)網(wǎng)絡(luò)。
(7) 診斷性能測試:將已訓(xùn)練好的網(wǎng)絡(luò)保存,并用選取的測試樣本進(jìn)行故障診斷測試。
(8) 輸出診斷結(jié)果。
為了驗(yàn)證該方法的有效性,本試驗(yàn)設(shè)計(jì)了實(shí)驗(yàn)室管道泄漏聲發(fā)射檢測系統(tǒng),并在該系統(tǒng)中模擬管道故障點(diǎn)兩側(cè)放置2個(gè)聲發(fā)射傳感器,分別采集若干周期的管道運(yùn)行正常、管道泄漏、管道斷裂、管道裂紋的信號(hào)數(shù)據(jù)。圖6為實(shí)驗(yàn)室管道泄漏聲發(fā)射檢測系統(tǒng),該系統(tǒng)是由數(shù)據(jù)采集及處理、管道儲(chǔ)運(yùn)和測量儀器儀表3個(gè)單元組成,測量儀器為PCI-Ⅱ聲發(fā)射卡、S/N2462026504放大器、R15單端寬頻帶聲發(fā)射傳感器。圖7為兩個(gè)R15單端寬頻帶聲發(fā)射傳感器,這兩個(gè)聲發(fā)射傳感器放置在管道故障點(diǎn)的兩側(cè)。
圖6 實(shí)驗(yàn)室管道泄漏聲發(fā)射檢測系統(tǒng)Fig.6 Acoustic emission detection system in laboratory
圖7 故障點(diǎn)兩側(cè)的兩個(gè)聲發(fā)射傳感器Fig.7 Two acoustic emission sensors on two sides of the point of failure
試驗(yàn)數(shù)據(jù)采集過程如下:由空氣壓縮機(jī)為管道提供空氣模擬燃?xì)夤艿?,對被測管道進(jìn)行斷鉛、紗布摩擦、打開泄漏閥等操作以模擬管道斷裂、管道裂紋、管道泄漏,并且不對管道進(jìn)行任何操作以模擬管道正常運(yùn)行;通過圖7中的兩個(gè)R15單端寬頻帶聲發(fā)射傳感器進(jìn)行聲發(fā)射數(shù)據(jù)的采集,繼而采用小波分析法對兩個(gè)傳感器信號(hào)數(shù)據(jù)進(jìn)行特征提取,選擇幅值、絕對能量、振鈴計(jì)數(shù)、上升時(shí)間、持續(xù)時(shí)間、平均信號(hào)電平、有效值電壓和事件計(jì)數(shù)這8個(gè)特征參數(shù)作為輸入模型的原始數(shù)據(jù)。
本試驗(yàn)選取正常、故障和近似故障樣本去標(biāo)簽數(shù)據(jù)共2 500組作為預(yù)訓(xùn)練集,將故障、正常狀態(tài)帶標(biāo)簽數(shù)據(jù)共600組作為微調(diào)集和測試集,其比例為2∶1,利用已建立的CDLNN模型對管道故障診斷進(jìn)行測試。
4.2.1 不同AE層數(shù)時(shí)CDLNN模型的管道故障診斷效果
在實(shí)際情況中,AE的層數(shù)并不是固定不變的,而是要根據(jù)當(dāng)前解決的問題進(jìn)行不斷嘗試后選取的,因此本試驗(yàn)依次選取0~10的AE層數(shù)對CDLNN模型的管道故障診斷效果進(jìn)行了測試,其測試結(jié)果見圖8。
圖8 AE層數(shù)為0~10時(shí)CDLNN模型的管道故障診斷效果Fig.8 Effect of CDLNN based pipeline fault diagnosis when the layer number of AE is 0 to 10
由圖8可見,當(dāng)AE層數(shù)達(dá)到4層時(shí),CDLNN模型的管道故障平均診斷正確率已經(jīng)非常高,但隨著AE層數(shù)的逐漸增加,其平均診斷正確率的增長急劇變緩,并且CDLNN模型的訓(xùn)練時(shí)間也會(huì)變長,因此為了以最少的訓(xùn)練時(shí)間得到最佳的診斷效果,本試驗(yàn)中將AE的層數(shù)設(shè)置為4層。
4.2.2 不同預(yù)訓(xùn)練集樣本數(shù)量時(shí)CDLNN模型的管道故障診斷效果
針對不同預(yù)訓(xùn)練集樣本數(shù)量時(shí)CDLNN模型的管道故障診斷效果測試結(jié)果,見表3。
表3 不同預(yù)訓(xùn)練集樣本數(shù)量時(shí)CDLNN模型的管道故障 診斷效果測試結(jié)果
由表3可見,CDLNN模型的管道故障平均診斷正確率隨著預(yù)訓(xùn)練集樣本數(shù)量的增加而不斷提升,當(dāng)預(yù)訓(xùn)練集樣本數(shù)量達(dá)到2 500組時(shí),管道故障平均診斷正確率已經(jīng)達(dá)到了90%以上,這表明CDLNN模型有較優(yōu)的故障診斷性能,并且可以適用于不同管道故障情況的診斷。
目前應(yīng)用于管道故障診斷的方法較多,其他常用的方法還有BPNN方法和SVM方法,本文將這兩種方法在相同的試驗(yàn)條件下進(jìn)行了管道故障診斷效果測試,并與本文方法進(jìn)行了對照比較,其測試結(jié)果見表4。其中,BPNN方法的最大訓(xùn)練迭代次數(shù)cepochs取1 500,學(xué)習(xí)速率vIr取0.01;SVM方法的規(guī)則化系數(shù)C取2 048,核函數(shù)參數(shù)γ取0.03,向量機(jī)核函數(shù)選用RBF函數(shù)。
表4 不同訓(xùn)練集樣本數(shù)量時(shí)SVM方法和BPNN方法的 管道故障診斷效果測試結(jié)果
通過比較表3和表4中的管道故障診斷效果測試結(jié)果可知:本文研究方法對管道故障的平均診斷正確率最高,SVM方法次之,其診斷效果相比傳統(tǒng)的BPNN方法要好,但SVM方法一般適用于二分類問題,對于多分類問題,則在尋找最優(yōu)參數(shù)方面存在不足,而且必須依靠多次試驗(yàn)才能獲得理想的判別效果;而本文研究方法的管道故障診斷效果更優(yōu)于SVM方法,且避免了BPNN方法和SVM方法人工提取和選擇特征的過程,該方法從輸入數(shù)據(jù)中自動(dòng)地逐層學(xué)習(xí)特征,提取重構(gòu)出代表故障信號(hào)本質(zhì)的特征,并輸入到適用于多分類問題的分類器SOFTMAX中進(jìn)行分類。因此,本文的研究方法相比于BPNN方法、SVM方法在管道故障診斷上具有更優(yōu)的診斷效果,能夠?yàn)閾尅z修人員判斷管道是否故障提供更科學(xué)的參考依據(jù)。此外,在試驗(yàn)中發(fā)現(xiàn),CDLNN模型的管道故障平均診斷準(zhǔn)確率會(huì)隨著訓(xùn)練集樣本數(shù)量的增加而提高,當(dāng)訓(xùn)練集樣本數(shù)量達(dá)到一定程度時(shí),其準(zhǔn)確率提高的速度會(huì)明顯變慢;而SVM方法和BPNN方法在對訓(xùn)練集樣本數(shù)量達(dá)到400組時(shí),管道故障平均診斷準(zhǔn)確率就基本保持不變了,這說明采用半監(jiān)督式學(xué)習(xí)的CDLNN方法比采用監(jiān)督式學(xué)習(xí)的SVM方法和BPNN方法具有更強(qiáng)的學(xué)習(xí)能力和擴(kuò)展能力。
本文針對管道故障模式識(shí)別方法中存在的識(shí)別率低、人工選取特征復(fù)雜等弊端,提出了一種基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的管道故障診斷方法,并將該方法應(yīng)用于實(shí)驗(yàn)室油氣儲(chǔ)運(yùn)管道泄漏檢測系統(tǒng)中,試驗(yàn)結(jié)果表明:該方法能夠較好地應(yīng)用于管道故障檢測領(lǐng)域,管道故障平均診斷準(zhǔn)確率達(dá)92.86%,顯著提高了管道故障診斷的準(zhǔn)確率和可操作性。
[1] 于蕊.泄漏聲發(fā)射信號(hào)特征提取與識(shí)別方法研究[D].昆明:昆明理工大學(xué),2016.
[2] 孫立瑛,李一博,曲志剛,等.EMD信號(hào)分析方法的聲發(fā)射管道泄漏檢測研究[J].振動(dòng)與沖擊,2007,26(10):161-163.
[3] 楊宏宇.基于小波分析與BP神經(jīng)網(wǎng)絡(luò)的管道泄漏診斷方法的研究[D].沈陽:東北大學(xué),2009.
[4] 孫曉松,譚興強(qiáng).基于小波分解的管道泄漏神經(jīng)網(wǎng)絡(luò)檢測與定位[J].石油機(jī)械,2006,34(8):56-58.
[5] 李群燕,幸福堂,桂瞬豐,等.基于BP神經(jīng)網(wǎng)絡(luò)的機(jī)械系統(tǒng)故障診斷[J].安全與環(huán)境工程,2015,22(6):116-119.
[6] 王新穎,江志偉,于永亮,等.多信息融合的城市燃?xì)夤艿佬孤┰\斷技術(shù)研究[J].中國安全科學(xué)學(xué)報(bào),2014,24(6):165-171.
[7] Ai L M,Wang J,Wang X L.Multi-features fusion diagnosis of tremor based on artificial neural network and D-S evidence theory[J].SignalProcessing,2008,88(12):2927-2934.
[8] 駱正山,畢傲睿,王小完.基于PCA-SVM的高含硫油氣混輸管道腐蝕預(yù)測[J].中國安全科學(xué)學(xué)報(bào),2016,26(2):85-89.
[9] 姚琦,牛瑞卿,趙金童,等.基于經(jīng)驗(yàn)?zāi)B(tài)分解-支持向量機(jī)的滑坡位移預(yù)測方法研究[J].安全與環(huán)境工程,2017,24(1):26-31.
[10]Guyon I,Weston J,Barnhill S,et al.Gene selection for cancer classification using support vector machines[J].MachineLearning,2006,12(3):222-225.
[11]Hinton G E,Salakhutdinov R R.Reducing the dimensionality of data with neural networks [J].Science,2006,313 (5786):504-506.
[12]Bengio Y.Learning deep architectures for AI[J].FoundationsandTrendsinMachineLearning,2009,2(1):1-127.
[13]Hinton G E,Osindero S,Teh Y W. A fast learning algorithm for deep belief nets[J].NeuralComputation,2006,18 (7):1527-1554.
[14]Hinton G E.UMTLTR2010-003APracticalGuidetoTrainingRestrictedBoltzmannMachines[R/OL].(2011-08-02)[2011-11-09]. https://www.cs.toronto.edu/~hinton/absps/guideTR.pdf.
[15]Baker J,Deng L,Glass J,et al. Developments and directions in speech recognition and understanding,Part 1[J].IEEESignalProcessingMagazine,2009,26(3):76-80.
[16]Yu D,Deng L. Deep learning and its applications to signal and information processing [J].IEEESignalProcessingMagazine,2011,28( 1) :146-153.
[17]Kalal Z,Mikolajczyk K,Matas J. Face-TLD:Tracking-learning-detection applied to faces[C]//2010InternationalConferenceonImageProcessing(ICIP),September 26-29,2010,Hong Kong.[S.l.]:IEEE,2010:3789-3792.
[18]Bengio S,Dean T,Ng A.UFLDLTutorial[EB/OL].[2011-11-09].http://openclassroom.stanford.edu/MainFolder/CoursePage. php?course=DeepLearning.
[19]孫勁光,蔣金葉,孟祥福,等.一種數(shù)值屬性的深度置信網(wǎng)絡(luò)分類方法[J]. 計(jì)算機(jī)工程與應(yīng)用,2014,50(2):113-114.
[20]馬勇,鮑長春,夏丙寅. 基于辨別性深度信念網(wǎng)絡(luò)的說話人分割[J]. 清華大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,53(6):805-807.