衛(wèi)志農(nóng),石東明,張 明,孫國(guó)強(qiáng),臧海祥,沈培鋒
(1. 河海大學(xué) 能源與電氣學(xué)院,江蘇 南京 211100;2. 國(guó)網(wǎng)江蘇省電力有限公司南京供電分公司,江蘇 南京 210019)
電網(wǎng)運(yùn)行狀態(tài)異?;虬l(fā)生故障時(shí),監(jiān)控系統(tǒng)將產(chǎn)生大量中文文本形式的告警信息。調(diào)度人員難以快速準(zhǔn)確判別對(duì)應(yīng)的事件類型,而基于人工智能的故障診斷技術(shù)能通過(guò)對(duì)監(jiān)控信息的推理分析實(shí)現(xiàn)故障事件的自主識(shí)別[1],有效縮短異常事件判別時(shí)間,并提升后續(xù)事件處理效率,提高電網(wǎng)運(yùn)行管理水平。
自然語(yǔ)言處理技術(shù)和機(jī)器學(xué)習(xí)的深入應(yīng)用使計(jì)算機(jī)能夠?qū)W習(xí)數(shù)字化表達(dá)后的告警信息,并挖掘海量數(shù)據(jù)中的特征,從而使電網(wǎng)智能告警逐漸擺脫對(duì)人工經(jīng)驗(yàn)的依賴[2]。同時(shí),深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)的重要分支,通過(guò)擴(kuò)展神經(jīng)元層的方式構(gòu)建更為深層的神經(jīng)網(wǎng)絡(luò),可以深入挖掘輸入的電力數(shù)據(jù)中的隱含關(guān)鍵特征。文獻(xiàn)[3]構(gòu)建了基于卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolution Neural Network)的電網(wǎng)假數(shù)據(jù)注入攻擊檢測(cè)模型;文獻(xiàn)[4]利用雙向長(zhǎng)短期記憶網(wǎng)絡(luò)Bi-LSTM(Bidirectional Long-Short-Term Memory network)建立了底層量測(cè)數(shù)據(jù)與電力系統(tǒng)暫態(tài)穩(wěn)定類別之間的非線性映射關(guān)系。上述深度學(xué)習(xí)模型具有較好的泛化能力,但需要足量樣本支撐模型訓(xùn)練。電網(wǎng)中不同設(shè)備故障發(fā)生率存在差異,導(dǎo)致部分故障樣本量偏少,因此歷史故障樣本中存在類別不均衡現(xiàn)象,不利于智能診斷系統(tǒng)的模型訓(xùn)練與參數(shù)學(xué)習(xí)過(guò)程,影響事件識(shí)別結(jié)果。
目前,關(guān)于不平衡數(shù)據(jù)集的處理方法主要分為數(shù)據(jù)預(yù)處理法和分類法2 種。數(shù)據(jù)預(yù)處理法通過(guò)合成或丟棄一定數(shù)量樣本,降低各類別樣本量的差距,如單一的欠采樣、過(guò)采樣[5-6],以及結(jié)合2種方法的混合采樣[7],該類方法改變了數(shù)據(jù)分布,一定程度上破壞了樣本特征信息。分類法能夠保留樣本全部初始信息,包括代價(jià)敏感學(xué)習(xí)和集成學(xué)習(xí)。代價(jià)敏感學(xué)習(xí)通過(guò)引入代價(jià)敏感因子,增大模型訓(xùn)練過(guò)程中對(duì)少類別樣本的錯(cuò)分代價(jià),從而提高該類別樣本的分類可靠性。文獻(xiàn)[8]直接將錯(cuò)分代價(jià)嵌入神經(jīng)網(wǎng)絡(luò),以降低各類別樣本的平均錯(cuò)分代價(jià);文獻(xiàn)[9]提出了一種基于代價(jià)敏感學(xué)習(xí)的決策樹(shù)剪枝方法,在剪枝階段引入代價(jià)敏感的思想,使模型總損失值達(dá)到最小;文獻(xiàn)[10]通過(guò)對(duì)不同類別設(shè)置不同的代價(jià)因子,得到總代價(jià)最小的支持向量機(jī)SVM(Support Vector Machine)分類器,文獻(xiàn)[11]在此基礎(chǔ)上,將SVM 核函數(shù)作為選取特征的標(biāo)準(zhǔn),進(jìn)一步提高了SVM算法對(duì)不平衡數(shù)據(jù)的分類準(zhǔn)確率。上述方法在改善對(duì)少類別樣本分類效果的同時(shí),會(huì)影響多類別樣本的判別結(jié)果,不能有效提升模型的整體性能。集成學(xué)習(xí)可以將多個(gè)子分類模型(下文簡(jiǎn)稱子模型)進(jìn)行融合,從而得到一個(gè)整體性能較好的分類器。Boosting、Bagging 和Stacking 算法[12-13]通過(guò)不同方式實(shí)現(xiàn)模型融合,但只適用于弱分類器。模型融合是一種整合多個(gè)強(qiáng)分類器的集成學(xué)習(xí)方法,目前常用的有最大值法、均值法、求和法等[14],此類方法根據(jù)子模型計(jì)算出的各類別后驗(yàn)概率或結(jié)果標(biāo)簽,采用特定公式進(jìn)行模型融合。但這種對(duì)各類別樣本分類結(jié)果進(jìn)行無(wú)差別融合的方法,原理較為簡(jiǎn)單,無(wú)法整合子模型的優(yōu)勢(shì)。
針對(duì)上述方法的特點(diǎn)、局限性,本文以Bi-LSTM為基礎(chǔ)分類器,提出一種基于代價(jià)敏感學(xué)習(xí)和模型自適應(yīng)選擇融合的多分類問(wèn)題處理方法,在提高少類別樣本的分類精度的同時(shí),保持對(duì)多類別樣本的準(zhǔn)確分類。針對(duì)某市電網(wǎng)公司調(diào)度中心的告警信息的測(cè)試結(jié)果表明,本文方法對(duì)于各類故障均具有良好的判別結(jié)果,進(jìn)一步驗(yàn)證了其在電網(wǎng)故障事件識(shí)別中的優(yōu)越性和可靠性。
CNN 和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(Recurrent Neural Network)是目前應(yīng)用最為成熟、廣泛的2種深度學(xué)習(xí)模型。RNN 考慮輸入信息中的序列特征,擅長(zhǎng)處理時(shí)序信息,Bi-LSTM 通過(guò)改進(jìn)RNN,解決了RNN 模型訓(xùn)練中梯度消失與梯度爆炸的問(wèn)題,并結(jié)合當(dāng)前輸入前、后時(shí)刻的隱含信息,進(jìn)一步提高了RNN 對(duì)時(shí)序信息的挖掘能力。因此本文采用Bi-LSTM 作為基礎(chǔ)分類器,完成對(duì)內(nèi)部具有自然時(shí)序關(guān)系的電網(wǎng)告警信息的處理。
Bi-LSTM 的結(jié)構(gòu)單元包含輸入、長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM(Long Short Term Memory network)鏈、輸出3 個(gè)部分,其中LSTM 鏈由2 個(gè)反向LSTM 拼接而成,該網(wǎng)絡(luò)結(jié)構(gòu)包括輸入門、遺忘門、記憶單元和輸出門,具體結(jié)構(gòu)見(jiàn)附錄A圖A1。
輸入門對(duì)當(dāng)前時(shí)刻的網(wǎng)絡(luò)輸入信息進(jìn)行控制,通過(guò)Sigmoid 神經(jīng)網(wǎng)絡(luò)層和tanh 層計(jì)算當(dāng)前輸入中保存到記憶單元的信息,如式(1)、(2)所示。
式中:it、C?t分別為t時(shí)刻(當(dāng)前時(shí)刻)輸入門、臨時(shí)記憶單元的狀態(tài);Wi、Wc分別為輸入門、臨時(shí)記憶單元的權(quán)值矩陣;ht-1、xt分別為t-1 時(shí)刻(前一時(shí)刻)隱含層的輸入、t時(shí)刻的輸入;bi、bc分別為輸入門、臨時(shí)記憶單元的偏置;σ(?)為Sigmoid激活函數(shù)。
遺忘門保存長(zhǎng)期重要信息,按式(3)計(jì)算t-1 時(shí)刻隱含層中能夠保留在當(dāng)前時(shí)刻記憶單元的信息。
式中:ft為t時(shí)刻遺忘門的狀態(tài);Wf、bf分別為遺忘門的權(quán)值矩陣和偏置。
遺忘門保留序列數(shù)據(jù)的長(zhǎng)期重要信息,輸入門臨時(shí)記憶單元使得當(dāng)前時(shí)刻的無(wú)用信息不進(jìn)入記憶單元,兩者按式(4)共同決定記憶單元保存的信息。
式中:Ct、Ct-1分別為t時(shí)刻和t-1 時(shí)刻記憶單元的輸出值;⊙表示按元素相乘。
輸出門由當(dāng)前時(shí)刻的輸入、記憶單元和前一時(shí)刻的隱含層確定。
式中:Ot、ht分別為t時(shí)刻輸出門、LSTM 的輸出;Wo、bo分別為輸出門的權(quán)值矩陣和偏置。
Bi-LSTM 結(jié)合2 個(gè)時(shí)序相反的LSTM,構(gòu)成了結(jié)構(gòu)單元中的LSTM 鏈,能夠同時(shí)獲取當(dāng)前輸入前、后時(shí)刻的特征信息,其單元結(jié)構(gòu)見(jiàn)附錄A圖A2。
Ht經(jīng)過(guò)激活函數(shù)運(yùn)算后即可得到樣本屬于各類別的概率,默認(rèn)取概率最大的類別作為計(jì)算結(jié)果。
電網(wǎng)告警信息為中文文本形式,此類非結(jié)構(gòu)化的文本數(shù)據(jù)需要轉(zhuǎn)化為結(jié)構(gòu)化的數(shù)字表達(dá),才能輸入Bi-LSTM 模型訓(xùn)練學(xué)習(xí)。本文采用Word2vec 模型訓(xùn)練得到告警數(shù)據(jù)的分布式向量。Word2vec 是一款由谷歌于2013 年公開(kāi)開(kāi)源的詞向量計(jì)算工具[15],其基本思想是通過(guò)神經(jīng)網(wǎng)絡(luò)將每個(gè)詞映射成固定維數(shù)的實(shí)數(shù)向量,所有向量構(gòu)成蘊(yùn)含語(yǔ)義信息的詞向量空間,不同詞向量在該空間中的距離可以表征詞語(yǔ)之間的語(yǔ)義相似性。詞向量訓(xùn)練完成后,計(jì)算單條告警信息中所有詞向量的平均值,得到固定維數(shù)的故障樣本句向量。
傳統(tǒng)Bi-LSTM 模型更趨向于將樣本判為訓(xùn)練集數(shù)量多的類別,以減小損失值。本節(jié)提出一種基于代價(jià)敏感學(xué)習(xí)和模型自適應(yīng)選擇融合的電網(wǎng)故障事件識(shí)別方法,其能夠顯著降低樣本類別不均衡對(duì)電網(wǎng)故障事件識(shí)別結(jié)果的影響。電網(wǎng)故障事件識(shí)別的流程如附錄A圖A3所示,具體步驟如下:
1)利用Word2vec 模型將分詞后的電網(wǎng)告警信息轉(zhuǎn)化為高維向量,并求均值得到告警數(shù)據(jù)句向量,向量維度設(shè)置為300,向量化過(guò)程如圖1所示;
圖1 電網(wǎng)告警信息向量化過(guò)程Fig.1 Vectorization process of power grid warning information
2)構(gòu)建傳統(tǒng)深度學(xué)習(xí)模型,即采用交叉熵?fù)p失函數(shù)的Bi-LSTM,輸入故障樣本進(jìn)行監(jiān)督訓(xùn)練并調(diào)參,得到對(duì)大樣本故障類別具有較好識(shí)別率的子模型1;
3)自定義一個(gè)多分類代價(jià)敏感損失函數(shù),代替模型1 中的交叉熵?fù)p失函數(shù),增大模型訓(xùn)練過(guò)程中對(duì)小樣本的錯(cuò)分代價(jià),其余過(guò)程同步驟2),得到能夠準(zhǔn)確識(shí)別小樣本故障的子模型2;
4)將每例故障樣本輸入子模型1、2 進(jìn)行判別后,采用模型自適應(yīng)選擇融合方法對(duì)判別結(jié)果進(jìn)行融合,得到最終的故障事件識(shí)別結(jié)果并輸出。
傳統(tǒng)的損失函數(shù)對(duì)所有類別的樣本設(shè)置相同的錯(cuò)分權(quán)重,因此少類別樣本的損失易被淹沒(méi)。本文基于Lin Tsung-yi 等人提出的焦點(diǎn)損失函數(shù)[16],構(gòu)建適用于多分類問(wèn)題的代價(jià)敏感損失函數(shù)γFL,如式(8)所示。
式中:m和n分別為樣本類別數(shù)和樣本總數(shù);yij和pij分別為樣本i屬于類別j的真實(shí)概率和預(yù)測(cè)概率;β∈[0,1],為 調(diào) 制 因 子;L為 交 叉 熵 損 失 函 數(shù);αj∈[0,1],為權(quán)重因子,能夠區(qū)分不同類別樣本的錯(cuò)分代價(jià),樣本量越大,該類別樣本的錯(cuò)分代價(jià)越小,否則錯(cuò)分代價(jià)越大;Nj為屬于類別j的樣本的數(shù)量。
γFL由兩部分組成,第一部分為傳統(tǒng)交叉熵?fù)p失函數(shù)L,第二部分為考慮類別不平衡影響的代價(jià)敏感損失值計(jì)算。通過(guò)調(diào)制因子β調(diào)節(jié)兩者權(quán)重,β越小,第二部分占比越大,γFL對(duì)各類別樣本的區(qū)分程度越高。作為一種代價(jià)敏感損失函數(shù),γFL通過(guò)對(duì)各類別樣本設(shè)置不同的權(quán)重因子,提高對(duì)少類別樣本的錯(cuò)分代價(jià),從而提高該類樣本的分類準(zhǔn)確性。
訓(xùn)練樣本不平衡度較大時(shí),γFL中少類別樣本的錯(cuò)分代價(jià)過(guò)大,破壞了模型對(duì)多類別樣本的分類效果。本節(jié)提出一種綜合考慮召回率與準(zhǔn)確率的模型自適應(yīng)選擇融合方法,在代價(jià)敏感學(xué)習(xí)的基礎(chǔ)上進(jìn)一步改善模型的整體分類性能。該方法首先以樣本類別為出發(fā)點(diǎn),選擇召回率大的子模型代表該類別樣本的分類標(biāo)準(zhǔn),使得模型融合后能夠盡可能全面地識(shí)別出此類別樣本;再結(jié)合子模型對(duì)各類別樣本的分類準(zhǔn)確率,推理得到最終的判別結(jié)果,從而降低模型融合后的整體誤判率。該方法的流程圖見(jiàn)附錄B 圖B1。以樣本總數(shù)為n、樣本類別為m、子模型個(gè)數(shù)為2為例,模型融合的具體過(guò)程如下。
1)計(jì)算子模型k(k=1,2)對(duì)類別j(j=1,2,…,m)樣本的分類召回率Rkj,如式(11)所示。對(duì)于每個(gè)樣本類別,選擇分類召回率大的子模型作為分類基準(zhǔn),由此設(shè)定各類別的融合標(biāo)簽σj,如式(12)所示。
式中:fk(xi)為子模型k對(duì)樣本xi的預(yù)測(cè)標(biāo)簽;yi為樣本xi的真實(shí)標(biāo)簽;I(·)為邏輯判斷,括號(hào)內(nèi)表達(dá)式成立時(shí)取1,否則取0。
2)對(duì)于類別j樣本,結(jié)合σj取該類別樣本分類召回率較大的子模型,按照式(13)計(jì)算類別j樣本的分類準(zhǔn)確率,將其作為準(zhǔn)確率矩陣Δ的第j個(gè)元素,由此得到按分類召回率大小篩選出的準(zhǔn)確率矩陣Δ如式(14)所示。
式中:Pkj為子模型k對(duì)類別j樣本的分類準(zhǔn)確率;Pσj j為結(jié)合σj選取的召回率較大的子模型對(duì)類別j樣本的分類準(zhǔn)確率。
3)根據(jù)子模型分類結(jié)果,按照式(15)設(shè)置各樣本的融合標(biāo)簽。
式中:ωij為樣本xi對(duì)類別j的融合標(biāo)簽;fσj(xi)為結(jié)合σj選取的召回率較大的子模型對(duì)樣本xi的分類結(jié)果。
σj由式(15)計(jì)算得到,反映了能夠代表類別j樣本分類結(jié)果的子模型標(biāo)簽,若該標(biāo)簽對(duì)應(yīng)的子模型對(duì)樣本xi的分類結(jié)果與類別j一致,則將xi對(duì)類別j的融合標(biāo)簽設(shè)置為1,否則為0。在此基礎(chǔ)上按照式(16)計(jì)算融合后樣本xi屬于各類別的后驗(yàn)概率。
式中:Πi為由后驗(yàn)概率組成的矩陣,其第j列表示樣本xi屬于類別j的概率。Πi中最大值對(duì)應(yīng)的列索引即模型融合的輸出類別標(biāo)簽。Πi=0 時(shí),取分類效果較好的子模型的分類標(biāo)簽作為輸出結(jié)果(默認(rèn)為子模型1)。模型融合后的輸出結(jié)果表達(dá)式為:
式中:max(Πi)為Πi中的最大值。
模型自適應(yīng)選擇融合方法依次考察子模型的召回率與準(zhǔn)確率指標(biāo),在分析子模型分類性能的基礎(chǔ)上進(jìn)行決策,整合各子模型的分類優(yōu)勢(shì),得到最終的輸出結(jié)果,實(shí)現(xiàn)了模型的選擇性融合與信息互補(bǔ),同時(shí)可推廣應(yīng)用于2個(gè)以上子模型參與融合的場(chǎng)景。
為驗(yàn)證本文方法有效性,選取某市電網(wǎng)調(diào)度中心2016、2017 年的歷史告警信息進(jìn)行算例分析。首先根據(jù)工程需要,確定了若干種需要調(diào)控人員第一時(shí)間重點(diǎn)關(guān)注的異常跳閘類事件,然后以帶關(guān)鍵詞“分閘”的告警信息為標(biāo)志,提取該信息前后一段時(shí)間窗內(nèi)的離散告警信息集合,當(dāng)滿足一定規(guī)則時(shí),構(gòu)成各類標(biāo)簽化事件樣本。從中提取9 種重要故障事件對(duì)應(yīng)的樣本,共得到13 554 例故障事件樣本。從每類故障事件樣本中隨機(jī)選取25 例作為測(cè)試集,其余作為訓(xùn)練集,并在訓(xùn)練過(guò)程中隨機(jī)抽取訓(xùn)練集中5%的樣本作為驗(yàn)證樣本,以優(yōu)化模型參數(shù)。每組實(shí)驗(yàn)取10 次測(cè)試結(jié)果的平均值作為參考標(biāo)準(zhǔn)。故障事件樣本分布情況如表1所示。
表1 故障事件樣本數(shù)量統(tǒng)計(jì)Table 1 Number statistics of fault event samples
分類模型常用的評(píng)價(jià)指標(biāo)有召回率、準(zhǔn)確率、F1值。召回率、準(zhǔn)確率計(jì)算公式分別見(jiàn)式(11)、(13),子模型k屬于類別j樣本的F1值的計(jì)算公式為:
F1 值是一種綜合考量準(zhǔn)確率與召回率的綜合評(píng)價(jià)指標(biāo),通常F1 值越大,模型的分類性能越好。對(duì)于多分類模型,取所有類別的F1 值的期望作為該模型的整體F1值指標(biāo)。經(jīng)過(guò)測(cè)試對(duì)比,Word2vec 模型和Bi-LSTM 模型的參數(shù)設(shè)置情況分別見(jiàn)附錄C表C1、C2。
為了驗(yàn)證Bi-LSTM 在電網(wǎng)故障事件識(shí)別中的優(yōu)越性,設(shè)置3組對(duì)比實(shí)驗(yàn),分別采用以CNN、LSTM以及結(jié)合CNN 與注意力(Attention)機(jī)制的組合深度學(xué)習(xí)模型Attention-CNN 作為基礎(chǔ)分類器。其中CNN 設(shè)置3 種卷積窗口,尺寸分別為3、4、5,每種窗口的卷積核數(shù)目為100,采用ReLU 激活函數(shù),其他所需參數(shù)同附錄C 表C2;LSTM 的參數(shù)同附錄C 表C2。以不同深度學(xué)習(xí)模型作為基礎(chǔ)分類器,對(duì)算例進(jìn)行實(shí)驗(yàn)對(duì)比,得到準(zhǔn)確率、召回率、F1值3種評(píng)價(jià)指標(biāo),結(jié)果如圖2所示。
圖2 深度學(xué)習(xí)模型的評(píng)價(jià)指標(biāo)對(duì)比Fig.2 Comparison of evaluation indexes among deep learning models
由圖2 可以看出:CNN 雖然具有局部感知能力強(qiáng)的特點(diǎn),能夠很好地處理圖像信息,但在處理時(shí)序信息時(shí)效果欠佳;Attention-CNN 在CNN 的基礎(chǔ)上引入注意力機(jī)制,能夠強(qiáng)化局部告警信息中蘊(yùn)含的關(guān)鍵特征權(quán)重,以優(yōu)化模型對(duì)不同的告警事件的特征提取,但依然無(wú)法捕捉時(shí)序關(guān)聯(lián)特征,導(dǎo)致模型總體性能提升不大;LSTM 擅長(zhǎng)處理時(shí)序信息,電網(wǎng)告警信息屬于時(shí)間相關(guān)的數(shù)據(jù),因此分類效果比CNN 更好;Bi-LSTM 模型的準(zhǔn)確率、召回率與F1 值均最大,進(jìn)一步體現(xiàn)了Bi-LSTM 基于LSTM 進(jìn)行的改進(jìn)能夠考慮當(dāng)前輸入的前、后時(shí)刻的信息,優(yōu)化分類效果,作為基礎(chǔ)分類器的性能優(yōu)于其他3 種對(duì)比模型。后續(xù)實(shí)驗(yàn)均以Bi-LSTM模型作為基礎(chǔ)分類器。
子模型1采用交叉熵?fù)p失函數(shù),子模型2采用由式(8)構(gòu)建的代價(jià)敏感損失函數(shù)(β=0.1)。為對(duì)比本文的模型自適應(yīng)選擇融合方法(簡(jiǎn)稱選擇法)的實(shí)用性,分別利用最值法、求和法對(duì)子模型進(jìn)行融合。對(duì)于每個(gè)樣本,最值法取各子模型中最大后驗(yàn)概率對(duì)應(yīng)的類別標(biāo)簽作為融合結(jié)果;均值法計(jì)算所有子模型后驗(yàn)概率的均值,得到融合后的后驗(yàn)概率,并將最大概率對(duì)應(yīng)的類別標(biāo)簽作為最終輸出結(jié)果。子模型與不同模型融合方法的分類召回率如表2 所示,整體評(píng)價(jià)指標(biāo)對(duì)比如圖3所示。
圖3 子模型與模型融合方法的評(píng)價(jià)指標(biāo)對(duì)比Fig.3 Comparison of evaluation indexes among submodels and model fusion methods
表2 子模型與融合算法的分類召回率Table 2 Classification recall rate of submodels and fusion methods
對(duì)表2、圖3進(jìn)行分析后可得到如下結(jié)論。
1)由表2 可見(jiàn):由于訓(xùn)練樣本類別的不平衡,子模型1 對(duì)樣本量較大的故障事件的識(shí)別效果更好,而對(duì)樣本量小的故障事件的識(shí)別效果較差,其中對(duì)類別9 樣本的分類召回率僅為69.74%;由于樣本類別不平衡度極大,子模型2 中樣本量大的故障事件的權(quán)重因子很小,因此對(duì)多類別樣本的召回率顯著降低,其中對(duì)類別1—3 樣本的分類召回率分別為53.87%、69.21%、52.34%;而對(duì)少類別樣本的召回率明顯提高,對(duì)類別9樣本的分類召回率增至95.68%。
2)結(jié)合表2 和圖3 可以看出:最值法、求和法單純從子模型預(yù)測(cè)的后驗(yàn)概率出發(fā),不能對(duì)子模型的性能進(jìn)行分析,因此無(wú)法有效結(jié)合各子模型學(xué)習(xí)到的信息,導(dǎo)致整體分類結(jié)果無(wú)明顯改善;模型自適應(yīng)選擇融合方法,綜合考慮了子模型的召回率與準(zhǔn)確率指標(biāo),對(duì)于每個(gè)樣本均能夠靈活地選擇子模型的預(yù)測(cè)結(jié)果,從而保留子模型的優(yōu)勢(shì)性能,實(shí)現(xiàn)信息互補(bǔ),在保證多類別樣本的分類效果的同時(shí),有效增強(qiáng)了對(duì)少類別樣本的識(shí)別能力,準(zhǔn)確率、召回率、F1 值相比子模型均有進(jìn)一步的提升,分別達(dá)到了95.97%、95.78%、95.74%。
使用基于Python 的imblearn 工具包設(shè)置4 組實(shí)驗(yàn),對(duì)比分析本文方法在整體性能上的優(yōu)越性與可靠性。在進(jìn)行模型訓(xùn)練前,4 組實(shí)驗(yàn)分別采用少數(shù)類別樣本合成技術(shù)SMOTE(Synthetic Minority Oversampling TEchnique)[17]、Borderline-SMOTE方法(kind=‘borderline-1’)[18]、SMOTE 與編輯最近鄰混合采樣方法(SMOTE-ENN)[19]和SMOTE-Tomek[20]混合采樣方法按默認(rèn)參數(shù)處理訓(xùn)練樣本,依次記為方法1—4。4種對(duì)比方法與本文算法的分類召回率見(jiàn)表3,整體評(píng)價(jià)指標(biāo)對(duì)比見(jiàn)圖4。
表3 對(duì)比方法和本文方法的分類召回率Table 3 Classification recall rate of comparison methods and proposed method
圖4 對(duì)比方法和本文方法的評(píng)價(jià)指標(biāo)對(duì)比Fig.4 Comparison of evaluation indexes among comparison methods and proposed method
綜合表3和圖4可以看出:
1)與其他考慮樣本類別不平衡的對(duì)比方法相比,本文方法的3種評(píng)價(jià)指標(biāo)均為最大,達(dá)到了95%以上,對(duì)各類故障事件的分類召回率也均在90%以上;
2)對(duì)于樣本類別不平衡度較大的數(shù)據(jù)集,過(guò)采樣算法易合成噪點(diǎn)數(shù)據(jù),破壞樣本分布信息;混合采樣算法中欠采樣的引入會(huì)丟失部分樣本特征,破壞模型對(duì)多數(shù)類樣本的識(shí)別效果;
3)本文方法不改變樣本初始分布,保留全部特征信息,在提高少數(shù)類樣本的分類召回率的同時(shí),有效維持了多數(shù)類樣本的分類召回率并提高了其分類準(zhǔn)確率,因此整體故障識(shí)別效果得到了顯著提高。
以2018 年8 月17 日“溫比亞”臺(tái)風(fēng)過(guò)境當(dāng)天所截取的某信息密集時(shí)段內(nèi)監(jiān)控信息作為對(duì)象,驗(yàn)證本文方法的實(shí)際應(yīng)用效果。
當(dāng)天13:27—13:31 時(shí)段共產(chǎn)生了4 146 條告警信息,系統(tǒng)從告警信息中提取出7 項(xiàng)事故跳閘事件,并通過(guò)本文方法在0.5 s 內(nèi)得到故障事件識(shí)別結(jié)果,包括線路單相瞬時(shí)故障、單相永久故障、相間故障以及一項(xiàng)歷史樣本極少的母線故障實(shí)例,經(jīng)過(guò)驗(yàn)證,識(shí)別結(jié)果均正確,其中母線故障事件識(shí)別結(jié)果如表4所示。雖然在線應(yīng)用樣本量少,但是本文方法表現(xiàn)出較高的識(shí)別準(zhǔn)確率,并正確識(shí)別出一項(xiàng)發(fā)生概率極低的母線故障事件,具有良好的工程應(yīng)用價(jià)值。
表4 母線故障實(shí)例識(shí)別結(jié)果Table 4 Recognition result of instance of bus fault
本文針對(duì)電網(wǎng)故障事件中的樣本類別不平衡現(xiàn)象,提出一種基于代價(jià)敏感學(xué)習(xí)和模型自適應(yīng)選擇融合的多分類問(wèn)題處理方法,實(shí)現(xiàn)了電網(wǎng)告警事件的智能識(shí)別?;趯?duì)某市電網(wǎng)公司調(diào)度中心告警歷史信息的實(shí)驗(yàn)測(cè)試,所得結(jié)論如下:
1)通過(guò)本文構(gòu)建的多分類代價(jià)敏感損失函數(shù),在損失函數(shù)中引入代價(jià)敏感因子,增大了少數(shù)類電網(wǎng)故障事件的錯(cuò)分代價(jià),優(yōu)化模型對(duì)該類樣本的特征學(xué)習(xí)能力,從而改善模型對(duì)少數(shù)類電網(wǎng)故障事件的識(shí)別性能;
2)綜合考慮召回率與準(zhǔn)確率的模型自適應(yīng)選擇融合方法,對(duì)2 個(gè)具有不同性能特點(diǎn)的模型進(jìn)行融合,結(jié)合子模型的優(yōu)勢(shì),實(shí)現(xiàn)了模型的信息集成與優(yōu)勢(shì)互補(bǔ),在保留對(duì)多數(shù)類故障事件識(shí)別能力的基礎(chǔ)上,提高了少數(shù)類故障事件的識(shí)別率,得到整體效果更好的電網(wǎng)故障識(shí)別模型。
后續(xù)可考慮將規(guī)則推理方法與深度學(xué)習(xí)進(jìn)行深度結(jié)合,提高電網(wǎng)中人工智能模塊的可靠性,同時(shí)進(jìn)一步擴(kuò)展可識(shí)別事件的類型。
附錄見(jiàn)本刊網(wǎng)絡(luò)版(http://www.epae.cn)。