張振敏
(福建農(nóng)林大學(xué)金山學(xué)院,福州 350002)
?
基于脈沖神經(jīng)網(wǎng)絡(luò)的聚類算法研究
張振敏
(福建農(nóng)林大學(xué)金山學(xué)院,福州350002)
結(jié)合脈沖神經(jīng)元網(wǎng)絡(luò)的生物機(jī)制與改進(jìn)的灰度共生矩陣算法,嘗試模擬大腦提取關(guān)鍵信息的能力,并且使用這些提取到的信息實(shí)現(xiàn)紋理圖像的分割。實(shí)驗(yàn)結(jié)果表明:這種利用灰度共生矩陣算法訓(xùn)練的脈沖神經(jīng)元網(wǎng)絡(luò)可以有效地提取圖像的共生特征,并且可獲得較好的紋理圖像分割效果。
灰度共生矩陣;脈沖神經(jīng)元網(wǎng)絡(luò);特征提??;紋理聚類
clustering
紋理是區(qū)分一幅圖像中的物體或區(qū)域的重要指標(biāo)[1]。紋理是指諸如粗糙、光滑或凹凸不平等觸覺信息[2]。紋理分析在紋理分類領(lǐng)域有著重要的地位,它被定義為利用數(shù)學(xué)進(jìn)程提取紋理圖像中特征信息的算法,基于這種方法可以獲得很多空間結(jié)構(gòu)信息。最近,很多紋理分析領(lǐng)域的重要研究成果相繼出現(xiàn)[3-5]。
因?yàn)閳D像的隨機(jī)性和在準(zhǔn)周期性及方向性方面的差異導(dǎo)致紋理分析是一個(gè)非常復(fù)雜的過程[6-7]。在很多情況下,統(tǒng)計(jì)學(xué)方法被用于紋理分析。這些方法提供了一幅圖像灰度的空間分布統(tǒng)計(jì)信息。GLCM算法在1970年由Haralick提出,是對一幅圖像中像素亮度值(灰度值)的不同組合頻次的表格統(tǒng)計(jì)[8]。這種方法逐漸成為了一種經(jīng)典的統(tǒng)計(jì)學(xué)方法,同時(shí)也成為圖像紋理分析的支撐性算法[1]。
近年來,神經(jīng)元網(wǎng)絡(luò)快速發(fā)展并且實(shí)現(xiàn)了在多方面的應(yīng)用。首先,在生物機(jī)制方面,大量科研人員通過研究推進(jìn)了相關(guān)理論,例如:Kuebler等[9]提出了混沌神經(jīng)元網(wǎng)絡(luò)激勵(lì)信號(hào)的差異性;Xue等[10]研究了激勵(lì)型突觸和抑制型突觸的關(guān)系;Sadtler等[11]研究了一個(gè)現(xiàn)有的神經(jīng)元網(wǎng)絡(luò)約束模型是否可以表示神經(jīng)元子集的行為以及這種行為的生物原理是什么。另外,在實(shí)際應(yīng)用方面,關(guān)于神經(jīng)元網(wǎng)絡(luò)也有著廣泛的研究,例如:Kosik[12]將神經(jīng)元網(wǎng)絡(luò)應(yīng)用于阿茲海默癥的相關(guān)研究中;Beck等[13]將神經(jīng)元網(wǎng)絡(luò)應(yīng)用于生物監(jiān)控;Nazemi等[14]利用神經(jīng)元網(wǎng)絡(luò)方法解決了支持向量機(jī)的分類問題。
Hodgkin-Huxley脈沖神經(jīng)元模型由Hodgkin和Huxley在1952年提出,可以很好地仿真生物神經(jīng)元的行為[15]。但是由于該模型計(jì)算量龐大,如果應(yīng)用在大型網(wǎng)絡(luò)模型中會(huì)進(jìn)一步增加計(jì)算的復(fù)雜度,所以通常研究人員針對脈沖神經(jīng)元網(wǎng)絡(luò)(spiking neuron network,SNN)中的單個(gè)神經(jīng)元使用簡化的基于電導(dǎo)率的累積放電模型。首先,這個(gè)簡化后的模型結(jié)構(gòu)非常接近于Hodgkin-Huxley模型結(jié)構(gòu);其次,在運(yùn)算中計(jì)算量會(huì)大幅度下降。眾所周知,在人類視覺系統(tǒng)中,從初級(jí)視覺皮層中的細(xì)胞到視網(wǎng)膜和外側(cè)膝狀體核中的簡單細(xì)胞都有著不同的感受野。在視網(wǎng)膜中,信號(hào)傳輸?shù)钠鹗键c(diǎn)是兩極細(xì)胞,最終信號(hào)會(huì)傳輸至神經(jīng)節(jié)細(xì)胞[16-17]。
本文提出了一種利用改進(jìn)的GLCM算法訓(xùn)練的脈沖神經(jīng)元網(wǎng)絡(luò)SNN-GLCM。由于待測試的紋理圖像尺寸較大,以及GLCM應(yīng)用于神經(jīng)元網(wǎng)絡(luò)時(shí)對窗口大小有限制,最終GLCM矩陣中個(gè)別單元由于過量累加而使得其值過大,同時(shí)這些單元相應(yīng)的神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元激發(fā)率也會(huì)過高。在這種情況下,傳統(tǒng)的GLCM算法必須被改進(jìn)以適應(yīng)該網(wǎng)絡(luò)訓(xùn)練,同時(shí)避免以上問題出現(xiàn)。本文提出了一種新的機(jī)制來減少神經(jīng)元網(wǎng)絡(luò)中神經(jīng)元的激發(fā)率,同時(shí)使得訓(xùn)練之后的激發(fā)率與靈長類大腦中的神經(jīng)元激發(fā)率非常類似。這種方法也使得SNN模型在應(yīng)用過程中適當(dāng)忽略一些次要信息,使后續(xù)的特征提取和紋理分析著重于關(guān)鍵信息,另外計(jì)算效率也得到了大幅度提高。本文提出的網(wǎng)絡(luò)將被用于圖像紋理的分割。
灰度共生矩陣GLCMP定義為一個(gè)大小為M×N的圖像I在給定偏置(Δx,Δy)時(shí)的灰度共生值的分布狀態(tài)統(tǒng)計(jì)結(jié)果。當(dāng)計(jì)算灰度圖像的GLCM矩陣時(shí),首先應(yīng)該定義窗口寬度、圖像的灰度級(jí)、偏置以及方向。一般窗口寬度可以設(shè)置為3×3,5×5或7×7,也可以根據(jù)實(shí)際的圖片大小進(jìn)行設(shè)置。如果圖像的灰度級(jí)為L,那么該圖像的GLCM矩陣的維度將會(huì)是L×L。同樣,灰度級(jí)也可以根據(jù)實(shí)際情況和計(jì)算需求進(jìn)行重新量化或調(diào)整。通常更大的窗口需要配備更大的偏置值。另外,方向性有4種不同的選擇方式:0°,45°,90°和135°。從數(shù)學(xué)的角度上來說,圖像I的GLCMP定義為:
(1)
其中:1≤i≤L; 1≤j≤L。
GLCM的窗口寬度、偏置和方向示意圖如圖1所示。
圖1 GLCM的窗口寬度、偏置和方向示意圖
在某些情況下,紋理計(jì)算時(shí)需要將GLCM的形式轉(zhuǎn)化為歸一化對稱矩陣,可參考文獻(xiàn)[4,6,18]。常用的GLCMP紋理測量參數(shù)定義如下:
角二階距(ASM)
(2)
能量(ENG)
(3)
對比度(CON)
(4)
差異性(DIS)
(5)
同質(zhì)性(HOM)
(6)
最大概率(MAX)
MAX=maxPi,j
(7)
熵(ENT)(假設(shè)0*ln(0)=0)
(8)
均值(Mean)
(9)
方差(Variance)
(10)
相關(guān)性(Correlation)
(11)
其中i和j分別是GLCMP的行向量和列向量。
本文基于GLCM算法,并結(jié)合視覺系統(tǒng)的生物機(jī)制,構(gòu)建了一個(gè)脈沖神經(jīng)元網(wǎng)絡(luò),如圖2所示。構(gòu)建該網(wǎng)絡(luò)的目標(biāo)是最終通過網(wǎng)絡(luò)獲得關(guān)于圖像信號(hào)的紋理特征信息,基于這些信息最終實(shí)現(xiàn)圖像分類。
圖2 關(guān)鍵特征提取神經(jīng)網(wǎng)絡(luò)SNN-GLCM
在圖2的脈沖神經(jīng)元網(wǎng)絡(luò)模型中共有3個(gè)神經(jīng)元陣列,這些陣列會(huì)由突觸電流引發(fā)脈沖信號(hào)。輸入神經(jīng)元層的突觸電流來自神經(jīng)元的光接收器,每一個(gè)光接收器都將圖像的像素亮度或灰度信息轉(zhuǎn)化為突觸電流[19-20]。該陣列的維度是M×N。陣列中的每一個(gè)神經(jīng)元都被認(rèn)為是一個(gè)光接收器,表述為IN(m,n),m=1,…,M;n=1,…,N。假設(shè)fm,n(t)函數(shù)表示圖像像素的灰度值,光接收器將這些灰度值轉(zhuǎn)化輸出的突觸電流用Im,n(t) 表示,則該累積放電模型的Im,n(t)可用式(12)表示。
(12)
其中:α是轉(zhuǎn)化常數(shù);τ是時(shí)間常數(shù),表示突觸電流的衰減速率。神經(jīng)元膜電壓vm,n(t)可用以下方程表示:
(13)
其中:gl是膜電導(dǎo);El是反轉(zhuǎn)電勢;c表示膜電容;I0是背景噪聲。
如果膜電壓超過了門限值vth,那么神經(jīng)元就發(fā)出一個(gè)脈沖,令Sm,n(t)表示這個(gè)神經(jīng)元所產(chǎn)生的脈沖訓(xùn)練:
(14)
該網(wǎng)絡(luò)模型的底層由橫向神經(jīng)元陣列和縱向神經(jīng)元陣列組成。如果圖像的灰度級(jí)為L,那么橫向和縱向神經(jīng)元陣列中的神經(jīng)元可以分別表示為HOUT(p,q)和VOUT(p,q),其中:p=1,…,L;q=1,…,L。這2個(gè)神經(jīng)元陣列通過激勵(lì)型突觸進(jìn)行脈沖訓(xùn)練。假設(shè)突觸強(qiáng)度為WHOUT(p,q)和WVOUT(p,q),根據(jù)對稱性GLCM算法,突觸強(qiáng)度分布可以表示為:
其中:1≤p≤L; 1≤q≤L; 1≤m≤M; 1≤n≤N。
突觸電流IHOUT(p,q)(t)和IVOUT(p,q)(t)可以表示為:
(18)
(19)
神經(jīng)元膜電壓可以表示為:
(20)
(21)
在2個(gè)輸出層中,神經(jīng)元的脈沖訓(xùn)練用SOUT(t)表示:
(22)
最終將獲得2個(gè)神經(jīng)元陣列HOUT和VOUT,它們的激發(fā)率可用以下函數(shù)表示:
(23)
通過打印rOUT(m,n)(t)可以獲得激發(fā)率譜圖,它們對應(yīng)于對稱橫向GLCM矩陣和縱向GLCM矩陣。
在實(shí)驗(yàn)中,首先基于GLCM算法對Lena圖像進(jìn)行測試。在圖像處理領(lǐng)域,Lena圖像作為基準(zhǔn)圖像被廣泛使用。由于原始圖像的灰度級(jí)過高,所以首先將圖像量化為16級(jí)灰度圖以避免GLCM矩陣維度過大。圖3(a)是原始圖像,圖3(b)是16級(jí)量化圖像。
圖3 Lena原始圖像和16級(jí)量化圖像
針對上述16級(jí)量化圖像,設(shè)置窗口寬度為5×5,像素偏置為1,并使用歸一化對稱橫向GLCM 算法提取到圖像的部分紋理信息。圖4(a)~(f)是最終提取到的GLCM最大二階矩、熵、對比度、平均值、方差和相關(guān)性圖像。
圖4 GLCM紋理特征
在使用窗口GLCM算法時(shí)會(huì)產(chǎn)生邊緣問題。由于窗口內(nèi)所有元素必須全部位于灰度圖像內(nèi),致使每一個(gè)窗口的中心像素?zé)o法位于圖像的4個(gè)邊帶。如果窗口的維度是n×n,則沿著圖像的邊緣有(n-1)/2像素帶寬未被處理。針對這種情況,常見的處理方法是在這些區(qū)域內(nèi)填入最相鄰的紋理特征值。
本文中將利用Matlab軟件對所構(gòu)建的脈沖神經(jīng)元網(wǎng)絡(luò)SNN-GLCM進(jìn)行仿真測試。在實(shí)驗(yàn)中根據(jù)Euler方法,步長設(shè)置為0.1 ms。根據(jù)生物神經(jīng)元特性將參數(shù)設(shè)置如下:vth=-60 mV,El=-70 mV,gl=1.0 μs/mm2,c=8 nF/mm2,τ=16 ms,T=400 ms,α=0.02,β=4.3,I0=7 μA。
在該實(shí)驗(yàn)中,首先從標(biāo)準(zhǔn)紋理庫Brodatz album 中選取了一些待測試的紋理圖像[21]。每個(gè)測試樣本的大小為256×256。之后將這些樣本依次輸入SNN-GLCM網(wǎng)絡(luò)。網(wǎng)絡(luò)通過運(yùn)算輸出每個(gè)樣本的橫向和縱向GLCM矩陣,并計(jì)算出各個(gè)樣本的二階矩、對比度、熵、平均值、方差和相關(guān)系數(shù)。這些計(jì)算結(jié)果將被看作每個(gè)測試圖像的特征值。基于這些特征值和k-means算法,最終實(shí)現(xiàn)了紋理分割。實(shí)驗(yàn)結(jié)果如圖5所示。
從結(jié)果可以看出:本文中所提出的基于SNN-GLCM網(wǎng)絡(luò)的圖像分割算法可以很好地實(shí)現(xiàn)圖像分割,同時(shí)可以精確定位圖像邊界。
圖5 基于SNN-GLCM網(wǎng)絡(luò)針對5幅圖像的
本文提出了一個(gè)結(jié)合生物機(jī)制和GLCM算法的脈沖神經(jīng)元網(wǎng)絡(luò)來提取視覺圖像的特征信息?;讷@得的特征信息,最終很好地實(shí)現(xiàn)了紋理圖像的分割。
[1]HARALICK R M,SHANMUGAM K,DINSTEIN I H.Textural features for image classification[J].IEEE Trans Syst Man Cybern,1973,3(6):610-621.
[2]TAMURA H,MORI S,YAMAWAKI T.Textural features corresponding to visual perception[J].IEEE Trans Syst Man Cybern,1978,8(6):460-473.
[3]BERGOUNIOUX M.Second-order variational models for image texture analysis[J].Advances in Imaging and Electron Physics,2014,181:35-124.
[4]BENCO M,HUDEC R,KAMENCAY P,et al.An advanced approach to extraction of colour texture features based on GLCM[J].International Journal of Advanced Robotic Systems,2014,11(1):129-163.
[5]MIRZAPOUR F,GHASSEMIAN H.Using GLCM and Gabor filters for classification of PAN images[C]// 21st Iranian Conference on Electrical Engineering.Iran:Electrical Engineering,2013:1-6.
[6]ZHANG J,LI G L,HE S W.Texture-based image retrieval by edge detection matching GLCM[J].IEEE Computer Soc,2008,22:782-786.
[7]王衛(wèi)星,楊記明.一種基于圖像處理的巖石裂隙粗糙度幾何信息算法[J].重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2010,22(4):454-457.
[8]BENCO M,HUDEC R.Novel method for color textures features extraction based on GLCM[J].Radioengineering,2007,16(4):64-67.
[9]KUEBLER E S,BONNEMA E,CORRISTON J,et al.Stimulus discrimination in networks of spiking neurons[C]//2013 International Joint Conference on Neural Networks.Dallas:Ablex Pub.Corp.,2013:1-8.
[10]XUE M S,ATALLAH B V,SCANZIANI M.Equalizing excitation-inhibition ratios across visual cortical neurons[J].Nature,2014,511(7511):596-600.
[11]SADTLER P T,QUICK K M,GOLUB M D,et al.Neural constraints on learning[J].Nature,2014,512(7515):423-426.
[12]KOSIK K S.Study neuron networks to tackle Alzheimer’s[J].Nature,2013,503(7474):31-32.
[13]BECK M W,WILSON B N,VONDRACEK B,et al.Application of neural networks to quantify the utility of indices of biotic integrity for biological monitoring[J].Ecological Indicators,2014,45(5):195-208.
[14]NAZEMI A,DEHGAN M.A neural network method for solving support vector classification problems[J].Neurocomputing,2015,152:369-376.
[15]HODGKIN A L,HUXLEY A F.The dual effect of membrane potential on sodium conductance in the giant axon of Loligo[J].The Journal of physiology,1952,116(4):497-506.
[16]MASLAND R H.The fundamental plan of the retina[J].Nature Neuroscience,2001,4(9):877-886.
[17]SCHULTZ S K.Principles of neural science[J].American Journal of Psychiatry,2001,158(4):662.
[18]SAROJA G A S,SULOCHANA C H.Texture analysis of non-uniform images using GLCM[C]//2013 IEEE Conference on Information and Communication Technologies.Gulin:Information and Communication Technologies,2013:1319-1322.
[19]ZHANG Z M,WU Q X,ZHUO Z Q,et al.Fast wavelet transform based on spiking neural network for visual images[J].Communications in Computer and Information Science,2013,375:7-12.
[20]ZHANG Z M,WU Q X,ZHUO Z Q,et al.Wavelet transform and texture recognition based on spiking neural network for visual images[J].Neurocomputing,2015,151(3):985-995.
[21]BRODATZ P.Texture:A Photographic Album for Artists & Designers[M].New York:Dover Publications,1966.
(責(zé)任編輯楊文青)
Clustering Algorithm Based on Spiking Neural Network
ZHANG Zhen-min
(Jinshan College of Fujian Agriculture and Forestry University, Fuzhou 350002, China)
Based on gray level co-occurrence matrix algorithm of biological mechanisms and improvement of the neural network of the pulse, we tried to simulate the brain’s ability to extract key information and used these to extract information of texture image segmentation. The experimental results show that the use of pulse the graylevel co-occurrence matrix algorithm for training neural networks can effectively extract the image of the symbiotic characteristics of texture image segmentation and gain good results.
grey-level co-occurrence matrix; spiking neuron network; feature extraction; texture
2016-01-15
福建省中青年教師教育科研項(xiàng)目(JB13286)
張振敏(1982—),女,湖南長沙人,博士,講師,主要從事神經(jīng)網(wǎng)絡(luò)和模式識(shí)別方面的研究,E-mail:min1011@126.com。
format:ZHANG Zhen-min.Clustering Algorithm Based on Spiking Neural Network[J].Journal of Chongqing University of Technology(Natural Science),2016(8):99-104.
10.3969/j.issn.1674-8425(z).2016.08.016
TP183
A
1674-8425(2016)08-0099-06
引用格式:張振敏.基于脈沖神經(jīng)網(wǎng)絡(luò)的聚類算法研究[J].重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)),2016(8):99-104.