陳祁 呂玉琳
摘要:本文將遞歸最小二乘法(RLS)推廣到具有生物意義的隨機HH神經(jīng)元模型,通過訓練網(wǎng)絡的突觸連接,對直線型和正弦型的目標函數(shù)進行學習. 發(fā)現(xiàn)離子通道的隨機開關引起的內(nèi)噪聲會影響學習表現(xiàn). 只有在適中的膜面積下,通過RLS訓練的隨機HH神經(jīng)元網(wǎng)絡才會取得良好的學習表現(xiàn).
關鍵詞:遞歸最小二乘法; 隨機Hodgkin-Huxley模型; 神經(jīng)網(wǎng)絡; 內(nèi)噪聲; 膜面積.
中圖分類號:G642;TN96-4文獻標識碼:A
文章編號:1009-3044(2022)02-0104-03
近年來,遞歸神經(jīng)網(wǎng)絡(RNN)的規(guī)模和應用更是與日俱增[1]。2001年,Jaeger提出了ESN方法[2]。2009年,Abbott等人改進并提出了FORCE方法[3],后續(xù)表明FORCE方法是一種富有潛力的研究方法[4]。
人工神經(jīng)網(wǎng)絡的研究往往離不開神經(jīng)科學的發(fā)展. 1952年,Hogkin等人利用改進的電壓鉗方法,分析電流得到了HH模型[5]。后續(xù)表明內(nèi)噪聲源于離子通道是以隨機的方式打開或關閉,這啟發(fā)了本文對一定膜面積上內(nèi)噪聲的建模與研究[6]。
本文采用FORCE方法中常見的遞歸最小二乘法(RLS),對內(nèi)含噪聲的隨機HH神經(jīng)元構(gòu)成的遞歸網(wǎng)絡進行權重修改,從而討論了不同膜面積下的網(wǎng)絡學習表現(xiàn)。
1 模型
1.1 神經(jīng)元電位模型
網(wǎng)絡中第[i]個隨機HH神經(jīng)元的膜電位方程為
[CmdVitdt=-gLVit-VL-gNam3hVit-VrevNa-gKn4Vit-VrevK-Isynit-Iextit,]
其中[Cm]是膜電容,[Vit]是膜電位,[gL]和[VL]分別是泄漏通道的電導系數(shù)和反轉(zhuǎn)電位,[gNa]和[VrevNa]分別是[Na+]通道的最大電導系數(shù)和反轉(zhuǎn)電位,[gK]和[VrevK]分別是和[K+]通道的最大電導系數(shù)和反轉(zhuǎn)電位,[m]、[h]和[n]分別為相應通道的門控變量,[Isynit]和[Iextit]分別是內(nèi)部突觸電流和外部輸入電流。其中,外部輸入電流[Iextit]采用的是泊松輸入:
[Iextit=Qdtdt,]
其中,[Q]為單位面積上外部輸入的電荷量,[t]是強度為[λ]的泊松過程。
1.2 門控變量模型
在式中,門控變量[m]、[h]和[n]的Langevin方程為
[dm=αmV1-m-βmVmdt+2αmVβmVNNaαmV+βmVdWm,dh=αhV1-h-βhVhdt+2αhVβhVNNaαhV+βhVdWh,dn=αnV1-n-βnVndt+2αnVβnVNKαnV+βnVdWn.]
其中[αmV]、[αhV]和[αnV]是門控變量打開速率,[βmV]、[βhV]和[βnV]是門控變量關閉速率,[NNa]和[NK]分別是[Na+]通道和[K+]通道的總數(shù)目,[Wmt]、[Wht]和[Wnt]是互相獨立的維納過程。其中門控變量[m]、[h]和[n]的打開速率與關閉速率根據(jù)以下經(jīng)驗公式
[αmV=0.1V+401-exp-V+40/10,βmV=4exp-V+65/18,αhV=0.07exp-V+65/20,βhV=1exp-V+35/10+1,αnV=0.01V+551-exp-V+55/10,βnV=0.125exp-V+65/80,]而離子通道的總數(shù)目為離子通道密度與膜面積[S]之積,即[NNa=ρNaS,NK=ρKS]。
1.3 突觸電流模型
由[N]個神經(jīng)元構(gòu)成一個循環(huán)神經(jīng)網(wǎng)絡,神經(jīng)元之間采用稀疏度為[p]的循環(huán)連接。本文中[N]取[200],[p]取[0.5]。
網(wǎng)絡中第[i]個神經(jīng)元所受到來自其他神經(jīng)元的突觸電流為:
[Isynit=j=1Nwijrjt.]
在式中,[wij]是第[i]個神經(jīng)元接收到來自第[j]個神經(jīng)元的連接權重強度,[rjt]表示在[t]時刻時第[j]個神經(jīng)元的發(fā)放速率,它滿足
[τrdrjtdt=-rjt+sjt;τddsjtdt=-sjt+i=1Ntki<tδt-tki. ]
其中,[τr]和[τd]分別表示突觸rise和decay的時間常數(shù),[δt]是Dirac-delta函數(shù),[tki]是第[i]個神經(jīng)元第[k]次脈沖發(fā)放時刻。
1.4 遞歸最小二乘法
遞歸最小二乘法(RLS)已被推廣至速率神經(jīng)網(wǎng)絡[3]和脈沖神經(jīng)網(wǎng)絡[4],用于對突觸權重進行訓練,使得網(wǎng)絡輸出目標信號,進而對大腦活動與肢體行為之間的關系做出解釋。
對于網(wǎng)絡中第[i]個神經(jīng)元的突觸連接向量[wi=wi1,…,wiN],有
[witK+1=witK+fitK+1-witKrtK+1rTPtK+1]
其中末項[PtK+1=k=1K+1rtkrTtk+μIN-1]采用迭代計算
[PtK+1=PtK+PtKrtK+1rTtK+1PtKrTtK+1PtKrtK+1+1,]
2 主要結(jié)果
本節(jié)通過RLS方法訓練隨機HH神經(jīng)元網(wǎng)絡中的突觸電流從而達到學習的目的,如果訓練成功,訓練后給神經(jīng)元同樣的刺激就能誘發(fā)出預期的反應。
訓練時間軸與刺激電流參數(shù)如下:[0ms~450ms]是訓練前的情況,[450ms~900ms]是訓練結(jié)束后的情況,其中在[100ms~150ms]和[550ms~600ms]對給所有神經(jīng)元施加外部泊松刺激。當刺激結(jié)束后的[200ms]內(nèi)對網(wǎng)絡內(nèi)部連接權重使用RLS方法進行更新,共計訓練[30]次。
2.1 目標函數(shù)的學習
對正弦函數(shù)進行學習。在膜面積[S=10μm2]時,目標函數(shù)[fit=Asinωit+φi],其中[ωi~U8π,10π],[φi~U0,2π],[A=0.2]。 在訓練前后神經(jīng)元所受突觸電流(圖 1A)和膜電位水平(圖 1B)也大不相同。
在圖 1中,訓練前給神經(jīng)元刺激,神經(jīng)元的突觸電流曲線與目標函數(shù)完全不吻合。 訓練[30]次后,給神經(jīng)元同樣的刺激,神經(jīng)元的突觸電流曲線與目標函數(shù)完全吻合,即誘發(fā)出了預期的反應(圖1A)。 訓練前神經(jīng)元發(fā)放是毫無規(guī)律的,訓練[30]次后,神經(jīng)元在目標函數(shù)取負值時不發(fā)放(圖1B)。 隨著訓練次數(shù)的增加,突觸權重的修改量總體上呈減小趨勢,并且前幾次訓練的權重更新更加迅速(圖1C)。
2.2 膜面積對學習的影響
在隨機HH神經(jīng)元中,細胞膜上離子通道的打開與關閉是隨機的,由此產(chǎn)生的通道噪聲的影響是不可忽略的。 為進一步探究膜面積與學習表現(xiàn)的關系,對當膜面積[S=0.5μm2,1μm2,3μm2,5μm2,][8μm2,9μm2,10μm2,20μm2,30μm2,50μm2]時分別做[30]次實驗,記錄相應的訓練前誤差[Isynpre-f]和訓練后誤差[Isynpost-f]以及訓練前后誤差之比[Isynpost-fIsynpre-f] (圖 2)。這表明當膜面積[5μm2<S<20μm2]時,學習表現(xiàn)較優(yōu)。 這與文獻[8]中的結(jié)果一致,只有當膜面積適中時,隨機HH神經(jīng)元內(nèi)部噪聲既不足以干擾學習,又能打破脈沖發(fā)放同步性,還有助于避免過擬合,RLS方法將取得較好的學習表現(xiàn)。
3 討論
在文獻[4]中,由Theta模型,Leaky IF模型和Izhikevich模型構(gòu)成的脈沖循環(huán)網(wǎng)絡均能使用RLS方法更新權重以學習預先給定的目標函數(shù)。本文對更具有生物意義的隨機HH神經(jīng)元構(gòu)成的循環(huán)脈沖網(wǎng)絡也得到了類似的學習結(jié)果。 如果給予一定的刺激,神經(jīng)元網(wǎng)絡在訓練后能給出預期的響應。 正如大腦的學習與記憶機制,給予恰當?shù)拇碳け隳軉酒鹣鄳洃洝?/p>
數(shù)值結(jié)果表明訓練后的網(wǎng)絡神經(jīng)元發(fā)放具有一定規(guī)律,但當目標函數(shù)取得負值時,網(wǎng)絡神經(jīng)元幾乎不發(fā)放(圖 1B)。 而圖 1C表明突觸權重的改變量與學習誤差均會隨著訓練次數(shù)的增加而越來越小并趨于穩(wěn)定。這與文獻[3]中的結(jié)果一致,符合RLS方法主要依賴前幾次權重更新的特點。進一步研究發(fā)現(xiàn),由離子通道內(nèi)噪聲會顯著影響學習效果:只有當膜面積適中([5μm2<S<20μm2])時,學習表現(xiàn)較理想(圖 2C)。
參考文獻:
[1] Robinson T,F(xiàn)allside F.A recurrent error propagation network speech recognition system[J].ComputerSpeech&Language,1991,5(3):259-274.
[2] Jaeger, Herbert. The “echo state” approach to analysing and training recurrent neural networks-with an erratum note. Bonn, Germany: German National Research Center for Information Technology GMD Technical Report 148.34 (2001): 13.
[3] Sussillo D,Abbott L F.Generating coherent patterns of activity from chaotic neural networks[J].Neuron,2009,63(4):544-557.
[4] Nicola W,Clopath C.Supervised learning in spiking neural networks with FORCE training[J].Nature Communications,2017,8:2208.
[5] Hodgkin A L,Huxley A F,Katz B.Measurement of current-voltage relations in the membrane of the giant axon of Loligo[J].The Journal of Physiology,1952,116(4):424-448.
[6] Skaugen E,Wall?eL.Firing behaviour in a stochastic nerve membrane model based upon the Hodgkin-Huxley equations[J].Acta Physiologica Scandinavica,1979,107(4):343-363.
[7] StrassbergAF,DeFeliceLJ.Limitations of the Hodgkin-Huxley formalism:effects of single channel kinetics on transmembrane voltage dynamics[J].Neural Computation,1993,5(6):843-855.
【通聯(lián)編輯:李雅琪】
1296501705345