• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      模塊化神經(jīng)網(wǎng)絡(luò)集成方法研究

      2014-09-10 03:11:00劉文波李來(lái)鴻
      石油化工自動(dòng)化 2014年4期
      關(guān)鍵詞:樣本空間鄰域測(cè)度

      劉文波,李來(lái)鴻

      (1. 勝利油田電力管理總公司,山東 東營(yíng) 257200;2. 勝利油田電力管理總公司 河口供電公司,山東 東營(yíng) 257200)

      自1991年Jacobs[1]提出模塊化神經(jīng)網(wǎng)絡(luò)MNN(Modular Neural Network)以來(lái),MNN已經(jīng)在控制、建模等領(lǐng)域得到了廣泛的應(yīng)用。MNN采用“分而治之”的思想,將復(fù)雜問(wèn)題分解為若干獨(dú)立的子問(wèn)題,對(duì)于每一子問(wèn)題構(gòu)建相應(yīng)子網(wǎng)絡(luò)。對(duì)于給定輸入,MNN只選擇一個(gè)子網(wǎng)絡(luò)對(duì)其進(jìn)行處理,子網(wǎng)絡(luò)的輸出即為整個(gè)網(wǎng)絡(luò)的輸出?!胺侄沃钡牟呗杂行У亟档土松窠?jīng)網(wǎng)絡(luò)的復(fù)雜程度,解決了單一神經(jīng)網(wǎng)絡(luò)在面對(duì)復(fù)雜問(wèn)題時(shí)存在的結(jié)構(gòu)設(shè)計(jì)困難、學(xué)習(xí)速度慢、泛化性能差等諸多問(wèn)題。但是,傳統(tǒng)MNN的每個(gè)子網(wǎng)絡(luò)只處理獨(dú)立的樣本空間,這使得MNN的子網(wǎng)絡(luò)功能之間出現(xiàn)了明顯的邊界,從而MNN對(duì)于邊界輸入的處理精度較低。

      針對(duì)MNN的缺點(diǎn),一些學(xué)者提出在MNN中引入集成學(xué)習(xí)的思想[2-5],理論和實(shí)踐的研究均證明[6]集成學(xué)習(xí)可以有效地提高神經(jīng)網(wǎng)絡(luò)的逼近精度和泛化能力。2007年,Gao等[4]采用類(lèi)模塊劃分方法將一個(gè)n分類(lèi)問(wèn)題分解為n個(gè)2分類(lèi)問(wèn)題,其中,每個(gè)子網(wǎng)絡(luò)除對(duì)本網(wǎng)絡(luò)的樣本子空間進(jìn)行訓(xùn)練外,還對(duì)相鄰子網(wǎng)絡(luò)樣本子空間的樣本進(jìn)行訓(xùn)練。2009年,Mario[5]也采取了類(lèi)似的方法解決圖像識(shí)別問(wèn)題。在子網(wǎng)絡(luò)整合中兩者都采用了集成的方法。對(duì)于任一給定輸入,與該輸入相鄰的所有子網(wǎng)絡(luò)均參與信息的處理。上述方法在總體“分而治之”的基礎(chǔ)上,通過(guò)局部的“集思廣益”,有效地提高了神經(jīng)網(wǎng)絡(luò)的性能。但是,上述方法中MNN的每個(gè)子網(wǎng)絡(luò)都對(duì)所有相鄰區(qū)域的樣本進(jìn)行訓(xùn)練,這使得每個(gè)子網(wǎng)絡(luò)訓(xùn)練的樣本空間增大,勢(shì)必會(huì)增大子網(wǎng)絡(luò)的規(guī)模。此外,2002年,Zhou等[6]對(duì)集成學(xué)習(xí)問(wèn)題進(jìn)行了研究,提出了“Many could be better than all”的思想,并證明從與輸入相鄰的所有子網(wǎng)絡(luò)選擇部分子網(wǎng)絡(luò)進(jìn)行集成可以獲得更好的性能。所以,對(duì)于一個(gè)輸入信息,如何從與輸入相鄰的所有子網(wǎng)絡(luò)選擇部分合適的子網(wǎng)絡(luò)對(duì)其進(jìn)行處理,針對(duì)各子網(wǎng)絡(luò)的輸出如何進(jìn)行整合仍然是MNN尚未解決的問(wèn)題。

      筆者提出了一種基于距離測(cè)度和模糊決策的子網(wǎng)絡(luò)選擇方法,并提出了基于樣本空間重構(gòu)的方法來(lái)優(yōu)化子網(wǎng)絡(luò)的輸出權(quán)重。上述方法實(shí)現(xiàn)了MNN的在線自適應(yīng)集成。

      1 模塊化神經(jīng)網(wǎng)絡(luò)

      一般的MNN結(jié)構(gòu)如圖1所示。其主要由任務(wù)分解、子網(wǎng)絡(luò)、輸出整合三個(gè)部分組成。

      圖1 MNN結(jié)構(gòu)示意

      離線學(xué)習(xí)時(shí),任務(wù)分解實(shí)質(zhì)是將整個(gè)輸入樣本空間按照一定規(guī)則劃分為若干子樣本空間[7](由于樣本集的模糊性,各子樣本空間可以存在一定程度的交疊)。對(duì)于在線輸入信息,任務(wù)分解模塊需首先判斷該輸入屬于哪個(gè)子樣本空間,然后將輸入信息送入相應(yīng)子樣本空間對(duì)應(yīng)的子網(wǎng)絡(luò)進(jìn)行處理。子網(wǎng)絡(luò)的個(gè)數(shù)與子樣本空間個(gè)數(shù)相同。

      輸出整合是將被選擇進(jìn)行信息處理的子網(wǎng)絡(luò)的輸出進(jìn)行合并。一般MNN的整合采用線性整合方式[4-6,8],圖1所示的模塊化神經(jīng)網(wǎng)絡(luò)的總輸出為

      (1)

      式中:P——子網(wǎng)絡(luò)個(gè)數(shù);yi——第i個(gè)子網(wǎng)絡(luò)(記為NETi)的輸出;wi——NETi的權(quán)重,滿足∑wi=1,且0≤wi≤1,i=1, …,P。

      對(duì)于在線輸入,傳統(tǒng)的MNN子網(wǎng)絡(luò)選擇方法(記為SM1)只選擇一個(gè)子網(wǎng)絡(luò)(假設(shè)為NETs),對(duì)其進(jìn)行處理,即有w=1,wi, i≠s=0。而文獻(xiàn)[4-5]提出的網(wǎng)絡(luò)選擇方法(記為SM2)則選擇所有與輸入相鄰的子網(wǎng)絡(luò)對(duì)輸入信息進(jìn)行集成處理,即對(duì)于所有與輸入相鄰的子網(wǎng)絡(luò),有0≤wi≤1,而與輸入不相鄰的子網(wǎng)絡(luò),wi=0。

      實(shí)際上,MNN的子網(wǎng)絡(luò)選擇與輸入點(diǎn)位置有關(guān)。如圖2所示,當(dāng)輸入位于A點(diǎn)時(shí),子網(wǎng)絡(luò)1對(duì)輸入進(jìn)行單獨(dú)處理即可取得較好的效果。而當(dāng)輸入位于B,C點(diǎn)時(shí)(樣本子空間的交界處),任何單一子網(wǎng)絡(luò)對(duì)該點(diǎn)的處理能力均有限。按照集成學(xué)習(xí)理論,選擇與B,C點(diǎn)臨近的部分子網(wǎng)絡(luò)對(duì)其進(jìn)行集成處理可以獲得較好的效果。因此,筆者提出了一種根據(jù)輸入信息位置動(dòng)態(tài)選擇參與信息處理的子網(wǎng)絡(luò)方法SM3。采用該種方法,每個(gè)子網(wǎng)絡(luò)只對(duì)相應(yīng)子空間及其某一鄰域的樣本進(jìn)行訓(xùn)練。對(duì)于任一輸入信息,SM3的選擇的子網(wǎng)絡(luò)個(gè)數(shù)介于SM1和SM2之間,因而該方法可以使MNN具有更強(qiáng)的自適應(yīng)能力。

      圖2 樣本分割示意

      綜合上述分析,SM3的集成問(wèn)題主要有兩個(gè): 如何根據(jù)輸入信息動(dòng)態(tài)選擇參與信息處理的子網(wǎng)絡(luò);如何確定參與信息處理的子網(wǎng)絡(luò)的權(quán)重(對(duì)于未被選擇的子網(wǎng)絡(luò),其權(quán)重wi=0)。

      2 SM3的動(dòng)態(tài)集成方法

      2.1 子網(wǎng)絡(luò)選擇

      子網(wǎng)絡(luò)選擇的實(shí)質(zhì)是針對(duì)給定輸入從所有子網(wǎng)絡(luò)中選擇出最適合處理該輸入的子網(wǎng)絡(luò)集合。文獻(xiàn)[4-5]采用局部全集成策略,易導(dǎo)致子網(wǎng)絡(luò)規(guī)模過(guò)大。文獻(xiàn)[8]提出了一種基于距離測(cè)度選擇子網(wǎng)絡(luò)的方法。對(duì)于給定輸入Xs,計(jì)算該輸入與NETi對(duì)應(yīng)樣本中心的距離測(cè)度di,與輸入距離測(cè)度小的子網(wǎng)絡(luò)更適合處理該輸入。其做法是設(shè)定一閾值K,若di≤K,則NETi被選擇,否則,NETi被剔除。文獻(xiàn)[9]提出了一種首先用遺傳算法優(yōu)化權(quán)重,然后剔除對(duì)權(quán)重小于某一閾值的子網(wǎng)絡(luò)。相比文獻(xiàn)[4-5]的方法,文獻(xiàn)[8-9]的方法更為靈活,但文獻(xiàn)[8-9]的方法需要憑經(jīng)驗(yàn)確定閾值K,K值選擇不合理,會(huì)引入差的子網(wǎng)絡(luò)或剔除好的子網(wǎng)絡(luò),從而達(dá)不到通過(guò)集成處理提高性能的目的。此外,對(duì)于不同的輸入,文獻(xiàn)[8-9]中閾值K是固定的,使得神經(jīng)網(wǎng)絡(luò)對(duì)不同輸入的適應(yīng)能力較差。

      針對(duì)上述問(wèn)題,筆者提出了一種基于距離測(cè)度和模糊決策的子網(wǎng)絡(luò)選擇方法,該方法不需要確定閾值,并且子網(wǎng)絡(luò)選擇具有較強(qiáng)的自適應(yīng)能力。

      設(shè)V={V1, …,VP}為樣本分類(lèi)中心,令

      di=‖Xs-Vi‖/dai

      (2)

      其中,

      (3)

      式中:dai——第i個(gè)樣本子空間的樣本平均距離;di——輸入Xs對(duì)NETi的相對(duì)距離測(cè)度;Ni——第i個(gè)樣本子集的樣本數(shù)。

      顯然,對(duì)于輸入Xs,相對(duì)距離小的子網(wǎng)絡(luò)應(yīng)首先被選擇。而相對(duì)距離大的子網(wǎng)絡(luò)不僅不能提高網(wǎng)絡(luò)性能,反而會(huì)降低網(wǎng)絡(luò)精度,因此,網(wǎng)絡(luò)選擇過(guò)程實(shí)質(zhì)是保留相對(duì)距離小的子網(wǎng)絡(luò),同時(shí)剔除相對(duì)距離大的子網(wǎng)絡(luò)。按照這種思想,子網(wǎng)絡(luò)的選擇即轉(zhuǎn)化為輸入對(duì)子網(wǎng)絡(luò)的相對(duì)距離判別問(wèn)題。

      首先將Xs對(duì)所有子網(wǎng)絡(luò)的相對(duì)距離測(cè)度按照下式進(jìn)行歸一化處理:

      (4)

      其中,ui∈[0 1], ∑ui=1。

      令相對(duì)距離測(cè)度的模糊集A={很小(VS),小(S),中等(M),大(B) }。ui對(duì)A的模糊隸屬函數(shù)曲線如圖3所示。

      圖3 ui的隸屬度曲線(P=4)

      ui的大小可以反映輸入Xs與NETi的距離。若ui∈{VS},則說(shuō)明Xs距離NETi很近,則子網(wǎng)絡(luò)NETi應(yīng)該被選擇用于處理Xs;若ui∈{B},則說(shuō)明Xs距離NETi很遠(yuǎn),則對(duì)于Xs來(lái)說(shuō)子網(wǎng)絡(luò)NETi應(yīng)該被剔除。子網(wǎng)絡(luò)選擇的算法如下:

      Step1: 對(duì)于輸入Xs,通過(guò)式(2)~(4)計(jì)算輸入Xs對(duì)相應(yīng)子網(wǎng)絡(luò)的ui值。

      Step2: 根據(jù)圖3所示的隸屬函數(shù)曲線,計(jì)算ui相對(duì)于A各模糊子集的隸屬度。

      Step3: 通過(guò)最大隸屬度法判斷ui屬于哪個(gè)模糊子集,然后按照從VS到B的順序選擇屬于同一集合的子網(wǎng)絡(luò)進(jìn)行集成。

      Step3中,首先選擇ui∈{VS}的子網(wǎng)絡(luò)進(jìn)行集成,其余的子網(wǎng)絡(luò)均被舍棄。若ui∈{VS}的子網(wǎng)絡(luò)不存在,則選擇ui∈{S}的子網(wǎng)絡(luò),否則選擇ui∈{M}的子網(wǎng)絡(luò)。

      設(shè)置隸屬函數(shù)中模糊子集{VS,S,M,B}的中心點(diǎn)分別為1/(4P), 1/(2P), 1/P, 2/P,并且滿足:ui<1/(4P),ui∈{VS}的隸屬度為1;ui> 2/P,ui∈{B}的隸屬度為1。由于∑ui=1,因而所有的ui不會(huì)同時(shí)滿足ui>1/P,即ui∈{VS,S,M}對(duì)應(yīng)的子網(wǎng)絡(luò)不會(huì)為空集。由于step3中子網(wǎng)絡(luò)的選擇順序?yàn)閂S到B,所以u(píng)i∈{B}的子網(wǎng)絡(luò)不可能被選擇。

      2.2 子網(wǎng)絡(luò)整合權(quán)重的確定

      對(duì)于輸入Xs,設(shè)被選擇的子網(wǎng)絡(luò)為NETks(k=1, …,m),m為被選擇的子網(wǎng)絡(luò)個(gè)數(shù)。網(wǎng)絡(luò)的總輸出為

      (5)

      式中:wk——子網(wǎng)絡(luò)NETks的權(quán)重;yks——NETks對(duì)Xs的輸出。權(quán)重確定問(wèn)題實(shí)質(zhì)上是為被選擇用于信息處理的子網(wǎng)絡(luò)集合選擇一組最佳的值。Zhou等[6,9-10]提出了一種基于遺傳算法的權(quán)重優(yōu)化方法(GASEN),由于遺傳算法尋優(yōu)速度較慢,因而GASEN方法不適合參數(shù)的在線優(yōu)化。此外,由于Xs為在線輸入,其目標(biāo)值未知,因而很難構(gòu)造遺傳算法的適應(yīng)度函數(shù)。王攀等[8]提出了一種基于距離測(cè)度的權(quán)重確定方法,這種方法使得與輸入距離近的網(wǎng)絡(luò)獲得更高的權(quán)重。Sun等[2]提出了一種將輸出誤差倒數(shù)作為權(quán)重的方法。這兩種方法本質(zhì)上屬于一種經(jīng)驗(yàn)方法,無(wú)法保證權(quán)重的最優(yōu)性。針對(duì)上述方法的不足,筆者提出了一種基于樣本空間重構(gòu)的權(quán)重優(yōu)化方法。

      對(duì)于輸入樣本空間,若兩個(gè)樣本的距離越近,則這兩個(gè)樣本的相似性越強(qiáng)。對(duì)于輸入Xs,參與信息處理子網(wǎng)絡(luò)為NETks(k=1, …,m),則用該子網(wǎng)絡(luò)集合對(duì)于Xs的某一微小鄰域的輸入進(jìn)行處理也是合適的。

      設(shè)δ為Xs的一個(gè)微小的鄰域,其包含的樣本為{X1, …,XK},相應(yīng)目標(biāo)值為{t1, …,tK},K為δ鄰域包含的樣本數(shù),所有樣本均滿足:

      ‖Xi-Xs‖≤δ。

      由于δ很小,因此該K個(gè)樣本均可由NETks(k=1, …,m)處理。將δ空間中的樣本輸入到神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)泛化誤差為

      (6)

      其中,Yj為神經(jīng)網(wǎng)絡(luò)對(duì)Xj的輸出:

      顯然,權(quán)重向量w的選擇應(yīng)使式(6)最小化。因此,上述問(wèn)題可以用一個(gè)約束優(yōu)化模型描述:

      minJ(J=MSE)

      (7)

      由于δ鄰域中樣本的目標(biāo)值tj是已知的,因而權(quán)重的確定問(wèn)題轉(zhuǎn)化成一個(gè)如式(7)約束優(yōu)化問(wèn)題,其未知數(shù)為w=[w1, …,wm]T。該問(wèn)題可以用動(dòng)態(tài)規(guī)劃的方法求解。

      上述方法通過(guò)重構(gòu)一個(gè)Xs的鄰域δ,通過(guò)δ鄰域內(nèi)已經(jīng)學(xué)習(xí)過(guò)的樣本信息將權(quán)重優(yōu)化問(wèn)題轉(zhuǎn)換成了一個(gè)約束優(yōu)化問(wèn)題。但是,當(dāng)樣本點(diǎn)較為稀疏或δ鄰域過(guò)小時(shí),可能會(huì)出現(xiàn)K=0的情況(δ鄰域內(nèi)不包含樣本點(diǎn)),此時(shí)w不能用式(7)所表示的模型優(yōu)化。出現(xiàn)這種情況時(shí),w可以采用文獻(xiàn)[8]的方法確定。在實(shí)際應(yīng)用中,可以人為給定一個(gè)樣本個(gè)數(shù)最小值KF,當(dāng)K≤KF時(shí),子網(wǎng)絡(luò)的w由下式確定:

      (8)

      式(8)賦予與輸入距離小的子網(wǎng)絡(luò)以較大的權(quán)重。

      3 仿真實(shí)驗(yàn)

      首先以一維“SinC”函數(shù)(二維Mexican Hat)[9-10]逼近為例對(duì)網(wǎng)絡(luò)的逼近能力進(jìn)行研究,“SinC”函數(shù)表達(dá)式為

      其中,x∈[-10, 10],在區(qū)間[-10, 10]內(nèi)隨機(jī)產(chǎn)生1000個(gè)訓(xùn)練樣本和200個(gè)測(cè)試樣本,樣本中不含噪聲。取P=5(子網(wǎng)絡(luò)采用BP網(wǎng)絡(luò),為方便起見(jiàn),每個(gè)子網(wǎng)絡(luò)隱層節(jié)點(diǎn)數(shù)取為相同),采用Fuzzy C-means技術(shù)將1000個(gè)樣本分為10組,各組樣本之間存在一定程度的交疊。分別采用SM1(只選取一個(gè)子網(wǎng)絡(luò)參與信息處理)、SM2(選擇與輸入相鄰的所有子網(wǎng)絡(luò)參與信息的處理)、SM3(筆者提出的子網(wǎng)絡(luò)選擇方法及權(quán)重確定方法)、SM4(文獻(xiàn)[8]提出的基于距離測(cè)度和閾值選擇子網(wǎng)絡(luò)和確定子網(wǎng)絡(luò)權(quán)重的方法)進(jìn)行逼近性能測(cè)試。SM3方法的擬合曲線如圖4所示。

      a) 無(wú)噪聲

      b) 有噪聲

      四種網(wǎng)絡(luò)在隱層節(jié)點(diǎn)個(gè)數(shù)不同情況下的均方誤差見(jiàn)表1所列。從表1可以看出,在隱層節(jié)點(diǎn)數(shù)較少的情況下,SM1, SM3, SM4方法的逼近精度高于SM2方法,這是由于SM2方法采用局部全集成策略,每個(gè)子網(wǎng)絡(luò)都要對(duì)相鄰的樣本子空間實(shí)現(xiàn)映射,子網(wǎng)絡(luò)映射范圍較大。當(dāng)隱層節(jié)點(diǎn)數(shù)較少時(shí)(子網(wǎng)絡(luò)隱層節(jié)點(diǎn)數(shù)為3),子網(wǎng)絡(luò)映射能力不足,導(dǎo)致SM2的泛化誤差較大。當(dāng)隱層節(jié)點(diǎn)數(shù)與問(wèn)題復(fù)雜度匹配時(shí)(子網(wǎng)絡(luò)隱層節(jié)點(diǎn)數(shù)為4),SM2的泛化誤差明顯減小。而SM1, SM3, SM4方法需要映射的樣本子空間較小,實(shí)現(xiàn)映射所需要的子網(wǎng)絡(luò)結(jié)構(gòu)也較SM2簡(jiǎn)單,因而在子網(wǎng)絡(luò)節(jié)點(diǎn)較少的情況下也可以獲得較高的精度。在訓(xùn)練樣本不含噪聲的情況下,四種方法都可以達(dá)到較高的精度,但SM3在獲得較低的泛化誤差同時(shí),還可以使網(wǎng)絡(luò)保持較為簡(jiǎn)單的結(jié)構(gòu)。

      表1 網(wǎng)絡(luò)的擬合誤差(無(wú)噪聲)

      由于實(shí)際數(shù)據(jù)往往含有噪聲,為了測(cè)試SM3在噪聲下的泛化能力,在所有訓(xùn)練樣本上附加取值范圍為[-0.2, 0.2]的隨機(jī)噪聲。圖4b)為SM3的擬合曲線。幾種網(wǎng)絡(luò)在隱節(jié)點(diǎn)數(shù)不同情況下的擬合均方誤差見(jiàn)表2所列。

      表2 網(wǎng)絡(luò)的擬合誤差(有噪聲)

      從表2可見(jiàn),當(dāng)訓(xùn)練樣本含有噪聲時(shí),SM3的泛化誤差明顯小于SM1,這是由于SM3采用了集成學(xué)習(xí)的思想,降低了噪聲的影響。在子網(wǎng)絡(luò)隱層節(jié)點(diǎn)數(shù)較少的情況下,SM3的泛化誤差明顯小于SM2,與SM4相比,SM3的泛化誤差相當(dāng),但是SM4方法的閾值需要經(jīng)過(guò)多次測(cè)試才能得到較好的結(jié)果,而SM3則避免了此困難,因此,在結(jié)構(gòu)的簡(jiǎn)單性、泛化能力及參數(shù)選擇難度上,SM3優(yōu)于其余三種方法。

      接下來(lái)對(duì)SM3處理多維信息的能力進(jìn)行測(cè)試,首先選擇三維Mexican Hat函數(shù)(二維“SinC”函數(shù))[11]:

      仿真結(jié)果如圖5所示:

      SM3擬合的均方誤差為5.132E-5,文獻(xiàn)[11]也采用一種基于遺傳算法的集成方法(GPCMNN)對(duì)該函數(shù)進(jìn)行了測(cè)試,均方誤差為9.613E-5,所以該方法在泛化能力存在一定優(yōu)勢(shì)。

      a) 擬合曲面

      b) 誤差曲面

      進(jìn)一步,對(duì)Friedman #1, Friedman #2, Plane 3個(gè)人工數(shù)據(jù)集進(jìn)行測(cè)試(其中前兩個(gè)數(shù)據(jù)集輸入為5維,后一個(gè)為2維)。3種人工數(shù)據(jù)集的生成方式見(jiàn)文獻(xiàn)[10],文獻(xiàn)[10]采用了集成神經(jīng)網(wǎng)絡(luò)(ENN)進(jìn)行測(cè)試。采取不同集成方法時(shí)神經(jīng)網(wǎng)絡(luò)測(cè)試均方誤差見(jiàn)表3所列。由表3可見(jiàn),模塊化網(wǎng)絡(luò)的均方誤差均比文獻(xiàn)[10]的均方誤差要低,說(shuō)明MNN“分而治之”的思想在解決復(fù)雜回歸問(wèn)題方面具有一定的優(yōu)勢(shì)。而在3組數(shù)據(jù)集實(shí)驗(yàn)中,SM3的測(cè)試誤差最小,說(shuō)明本文的子網(wǎng)絡(luò)選擇方法和權(quán)重優(yōu)化方法是有優(yōu)勢(shì)的。

      表3 網(wǎng)絡(luò)的測(cè)試誤差

      4 結(jié)束語(yǔ)

      在“分而治之”的基礎(chǔ)上,融合了“集思廣益”的思想,使神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)大幅簡(jiǎn)化的同時(shí),提高了神經(jīng)網(wǎng)絡(luò)的性能。對(duì)于給定輸入信息,采用模糊決策的方法實(shí)現(xiàn)處理該信息的子網(wǎng)絡(luò)集合的選擇,避免了人為設(shè)定閾值的困難。通過(guò)重構(gòu)輸入信息的鄰域樣本空間,將權(quán)重的優(yōu)化問(wèn)題轉(zhuǎn)化為一個(gè)約束優(yōu)化問(wèn)題,從而可以使用動(dòng)態(tài)規(guī)劃等多種方法實(shí)現(xiàn)權(quán)重的優(yōu)化。大量的仿真實(shí)驗(yàn)表明,筆者提出的MNN集成方法在結(jié)構(gòu)的簡(jiǎn)單性、泛化能力、參數(shù)選擇的難度等方面與ENN及其他的模塊化網(wǎng)絡(luò)集成方法相比具有一定的優(yōu)勢(shì)。

      參考文獻(xiàn):

      [1] JACOBS R A, JORDAN M A. Modular Connectionist Architecture for learning Piecewise Control Strategies [C]. America: Proceedings of the American Control Conference. 1991: 343-351.

      [2] SUN Jianzhong, ZUO Hongfu, YANG Haibin. Study of Ensemble Learning-Based Fusion Prognostics [C]. Prognostics and Health Management Conference, 2010.

      [3] GANGARDIWALA A, POLIKAR R. Dynamically Weighted Majority Voting for Incremental Learning and Comparison of Three Boosting Based Approaches [C].

      Canada: Proceedings of International Joint Conference on Neural Networks. 2005.

      [4] GAO Daqi. Class-modular Multi-layer Perceptions, Task De-composition and Virtually Balanced Training Subsets [C]. Florida: Proceedings of International Joint Conference on Neural Networks. 2007.

      [5] MARIO G C A, WITOLD P, BEATRICE L, et al. Using Multilayer Perceptrons as Receptive Fields in the Design of Neural Networks [J]. Neurocomputing, 2009(72): 2536-2548.

      [6] ZHOU Zhihua, WU Jianxin, WEI Tang. Ensembling Neural Networks Many Could be Better Than All [J]. Artificial Intelligence, 2002(137): 239-263.

      [7] WITOLD P, GEORGE V. Granular Neural Networks [J]. Neurocomputing, 2001(36): 205-224.

      [8] 王攀,李幼鳳.模塊化神經(jīng)網(wǎng)絡(luò)的動(dòng)態(tài)集成方法研究[J].系統(tǒng)工程與電子技術(shù),2008,30(06): 1143-1147.

      [9] ZHOU Zhihua, WU Jianxin, WEI Tang. Combining Regression Estimators: GA-Based Selective Neural Network Ensemble [J]. International Journal of Computational Intelligence and Applications, 2001, 1(04): 341-356.

      [10] 王正群,陳世福,陳兆乾.并行學(xué)習(xí)網(wǎng)絡(luò)集成方法[J].計(jì)算機(jī)學(xué)報(bào),2005,28(03): 402-408.

      [11] 凌衛(wèi)新,鄭啟倫,陳瓊.基于梯度的并行協(xié)作模塊化神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)[J].計(jì)算機(jī)學(xué)報(bào),2004,27(09): 1256-1263.

      猜你喜歡
      樣本空間鄰域測(cè)度
      高中數(shù)學(xué)新教材一個(gè)探究試驗(yàn)的商榷
      概率統(tǒng)計(jì)中樣本空間芻議
      三個(gè)數(shù)字集生成的自相似測(cè)度的乘積譜
      R1上莫朗測(cè)度關(guān)于幾何平均誤差的最優(yōu)Vornoi分劃
      非等熵Chaplygin氣體測(cè)度值解存在性
      Cookie-Cutter集上的Gibbs測(cè)度
      稀疏圖平方圖的染色數(shù)上界
      基于鄰域競(jìng)賽的多目標(biāo)優(yōu)化算法
      淺談高校古典概率的教學(xué)
      關(guān)于-型鄰域空間
      霞浦县| 会同县| 雷山县| 兴山县| 和硕县| 福贡县| 乐业县| 舒城县| 平遥县| 新宁县| 仁化县| 永德县| 安远县| 松原市| 嫩江县| 电白县| 宿州市| 红安县| 徐闻县| 布拖县| 甘泉县| 太保市| 元氏县| 洛川县| 溧阳市| 中阳县| 双流县| 绥阳县| 宜州市| 盈江县| 宿迁市| 卢湾区| 双城市| 安泽县| 新和县| 新建县| 平果县| 会泽县| 福清市| 婺源县| 安泽县|