畢曉君,刁鵬飛,陳春雨
?
基于區(qū)域特征的SCM多聚焦圖像融合算法
畢曉君,刁鵬飛,陳春雨
(哈爾濱工程大學信息與通信工程學院,黑龍江哈爾濱,150001)
針對人眼對圖像局部區(qū)域更敏感的特點,提出一種基于圖像區(qū)域特征的自適應(yīng)脈沖發(fā)放皮層模型(SCM)的多聚焦圖像融合算法。該方法將多聚焦圖像融合過程分為2個階段:第1階段基于圖像的源圖像局部區(qū)域特征對比,融合相同區(qū)域及優(yōu)越區(qū)域;然后采用SCM模型對2幅圖像的差異區(qū)域進行融合并相應(yīng)的提出一種融合準則;為得到最佳的模型融合參數(shù),采用引力搜索算法進行智能尋優(yōu),且為了提升算法的求解性能采用2種自改進策略。仿真實驗采用3組標準圖片對算法進行驗證,本文算法均取得較好的融合效果,驗證本文所提算法的有效性。
多聚焦圖像融合;脈沖發(fā)放皮層模型;區(qū)域特征;改進引力搜索算法
圖像融合是信息融合范疇內(nèi)以圖像為對象的研究領(lǐng)域[1?4]。它將多個傳感器獲得的同一場景的圖像信息通過一定的算法加以綜合,從而獲得關(guān)于此場景的更準確的描述。其中,多聚焦圖像是圖像融合中一個主要的研究方向,即將多幅同一場景不同焦點的圖像融合成一幅更適于人眼觀察的圖像。當前主流的圖像融合方法主要有2種,即頻域法[5?6]和空間域法[7]。脈沖耦合神經(jīng)網(wǎng)絡(luò)(pulse coupled neural network, PCNN)因其是根據(jù)人眼視覺成像習慣而提出的一種神經(jīng)網(wǎng)絡(luò)模型,因此一經(jīng)提出被廣泛應(yīng)用于圖像處理領(lǐng)域,但其最大的缺點是需要人工設(shè)置的參數(shù)較多,且不同參數(shù)的組合會影響最終的融合結(jié)果[8],這就為圖像融合的前期工作帶來了較大的計算復(fù)雜度。脈沖發(fā)放皮層模型(SCM[9]是在PCNN的基礎(chǔ)上提出的一種新的神經(jīng)網(wǎng)絡(luò)模型。與PCNN模型相比,SCM模型中需要人為設(shè)定的參數(shù)較少,模型更為簡單。目前國內(nèi)外對于這一模型的研究才剛剛起步,WANG等[10]將SCM應(yīng)用于醫(yī)學圖像融合,隨后,WANG等[11]又提出一種基于像素清晰度的SCM圖像融合算法。但以上方法都是基于一個像素點的細節(jié)完成融合的。本文作者為了使圖像融合結(jié)果更符合人眼成像習慣,將融合過程分為2個階段:第1階段,通過對2幅圖像的局部區(qū)域細節(jié)進行對比,確定出2幅圖像中的相同區(qū)域以及優(yōu)越區(qū)域;第2階段,采用SCM模型完成剩余圖像的融合,并針對不同的打火情況提出了一種基于像素區(qū)域能量的融合準則;最后,針對文中存在的參數(shù),提出一種改進的引力搜索算法對其進行優(yōu)化求解。實驗部分與幾種典型的圖像融合方法進行比較,驗證了本文方法的有效性。
SCM是由若干個神經(jīng)元互連所構(gòu)成的反饋型網(wǎng)絡(luò),每一個神經(jīng)元都由接收域、調(diào)制部分和脈沖產(chǎn)生器3個部分組成,具體如圖1所示。
圖1 SCM模型
其原理數(shù)學方程可描述為
(2)
(3)
在SCM未被激活時,神經(jīng)元的內(nèi)部活動項能量為0,隨著迭代次數(shù)的增多,的能量逐漸增大,每當其大于時,即發(fā)放脈沖并輸出點火狀態(tài)。SCM中的神經(jīng)元通過局部耦合構(gòu)成一個全局互連的神經(jīng)網(wǎng)絡(luò)。當某個神經(jīng)元處于點火狀態(tài)時,鄰域內(nèi)與其狀態(tài)相似的未點火的神經(jīng)元就會捕獲這個激勵,經(jīng)調(diào)制后發(fā)送脈沖,提前實現(xiàn)點火。
傳統(tǒng)的基于空間域的圖像融合方法,主要是基于像素點完成圖像融合的,但人眼的視覺系統(tǒng)對一個像素區(qū)域的狀況更為敏感,尤其對于多聚焦圖像的融合,融合的目的是得到一個更加清晰的圖像區(qū)域。為了保證最終的融合圖像更適于人眼觀察,本文將融合階段分為2步,首先基于圖像的區(qū)域特征細節(jié)進行區(qū)域的融合,然后采用SCM模型完成圖像剩余部分的點的融合,過程的具體分析如下所示。
2.1 基于區(qū)域特征的圖像融合
設(shè)局部區(qū)域的半徑為,然后依次計算每個局部區(qū)域的細節(jié)特征,這里選取的細節(jié)特征為空間頻率,并比較2幅圖像對應(yīng)區(qū)域的細節(jié)特征。空間頻率用來測量圖像整體活動性,直接與圖像清晰度相關(guān)??臻g頻率較大,即表明融合結(jié)果攜帶的信息量較大,清晰度較高。空間頻率具體表示為
(4)
當?shù)玫?幅圖像對應(yīng)局部區(qū)域的細節(jié)指標時,根據(jù)比較結(jié)果進行融合,具體描述如下:
3) 對于同時被2幅圖像對應(yīng)位置且值不同的而被同時觸發(fā)的點,放入第2階段重新融合。
2.2 基于SCM的圖像融合
第1階段完成了2幅圖像中的較優(yōu)區(qū)域和相同區(qū)域的融合,剩余待融合區(qū)域是2幅源圖像之間存在差異的區(qū)域。對該部分,本文采用SCM模型對其進行融合,在融合前,先將已完成融合的圖像,作為先驗信息替換2幅圖像的對應(yīng)區(qū)域,這樣可以消除劣勢區(qū)域?qū)τ诖诤蠄D像區(qū)域的干擾,提高融合質(zhì)量。
當像素點打火時,融合規(guī)則描述如下:
1) 當模型迭代結(jié)束時,獲得打火次數(shù)更多的像素點,說明其在邊緣區(qū)域部分具有更高的亮度,因此將其保存為最終的融合點。
2) 對打火次數(shù)相同的像素點,采用基于該像素點區(qū)域能量的方式進行融合,具體表示為
(6)
(8)
基于區(qū)域特征的SCM圖像融合算法步驟具體描述如下:
1)將2幅待融合圖像進行配準,初始化SCM模型。
2)采用2.1節(jié)描述的方式,對圖像進行第1階段的融合。
4)采用SCM進行再次融合,當達到最大迭代次數(shù)時,對于打火的像素點,采用2.2節(jié)所述方式進行融合。
在SCM模型中存在幾個需要人工確定的參數(shù),具體分析如下:
1)為內(nèi)部活動項的衰減系數(shù),它的大小決定著內(nèi)部活動項U()的衰減快慢程度。
2)和分別為閾值衰減系數(shù)和閾值放大系數(shù),將直接影響閾值門限的變化情況。
3)為完成第1階段融合的關(guān)鍵參數(shù),直接影響第1階段的區(qū)域特征融合。
傳統(tǒng)的確定參數(shù)的方法大多采用窮舉法以及根據(jù)以往經(jīng)驗的辦法,這在融合前期會帶來較大的計算復(fù)雜度,且根據(jù)經(jīng)驗難免會有誤差,對此,為了省去人工調(diào)制的復(fù)雜性,提高算法的圖像融合效果,本文采用智能優(yōu)化算法對參數(shù)進行求解。GSA是2009年提出的一種較為新穎的智能優(yōu)化算法[13],以其收斂速度快,收斂精度高而被國內(nèi)外專家學者廣泛關(guān)注。因此本文嘗試將引力搜索算法作為模型參數(shù)的優(yōu)化算法。
胰蛋白酶(酶活 4000 U/g):購于重慶市全新祥盛生物制藥有限公司;風味蛋白酶(酶活 500 LAPU/g):諾維信中國公司;維生素B12(MW 1855 U)、抑肽酶(MW 6512 U)、細胞色素C(MW 12384 U)、卵清蛋白(MW 43000 U):美國Sigma公司;食用鹽、味精、蔗糖、檸檬酸:食品級;其他試劑:均為分析純。
3.1 引力搜索算法
在GSA中,種群個體都是在空間中運動的個體,它們在萬有引力的作用下彼此相互吸引運動,它們的質(zhì)量是評價其優(yōu)劣的標準,質(zhì)量較大粒子的位置對應(yīng)較優(yōu)解。在進化過程中,GSA算法通過個體間的萬有引力相互作用實現(xiàn)優(yōu)化信息的共享,引導(dǎo)群體向最優(yōu)解區(qū)域運動展開搜索。
設(shè)空間中含有個粒子,則第個粒子的位置為
(10)
其中:0為初始時刻的引力常數(shù);為最大迭代次數(shù),且設(shè)置不同的會導(dǎo)致引力常數(shù)以不同的趨勢減小。為粒子與粒子之間的歐氏距離。則在時刻,粒子在維上受到的其他粒子的合力為
(12)
在進化過程中,粒子的速度和位置的更新方式為
(14)
粒子的質(zhì)量與其適應(yīng)度有關(guān),質(zhì)量越大的粒子,表明其更接近最優(yōu)粒子,其對其他粒子的作用力會較大但是其移動速度會較慢,粒子質(zhì)量的計算方式為
(15)
3.2 改進引力搜索算法
在GSA算法中,物體間力的作用使種群的每個粒子得以不斷更新位置、向著最優(yōu)解運動,粒子位置信息的每一次更新,都是靠其他粒子所提供的作用力得以進化的,所以粒子通過力的作用所獲得的加速度是保證種群不斷向著最優(yōu)解運動的關(guān)鍵。但當個體所獲加速度過大,即搜索步長過大時,會導(dǎo)致個體跳出當前搜索空間,進而導(dǎo)致粒子當前進化得不到更優(yōu)解;當加速度過小,即搜索步長過小時,會導(dǎo)致算法收斂速度慢,甚至發(fā)生搜索停滯。因此,個體加速度是否適合當前的搜索區(qū)間會直接影響算法對最優(yōu)解的搜索。
為了避免出現(xiàn)加速度不利于進化搜索的情況發(fā)生,本文根據(jù)種群進化情況,提出自適應(yīng)縮放因子調(diào)整加速度的策略,以保證搜索步長適合于當前搜索空間,利于對最優(yōu)解的搜索。本文經(jīng)過理論和實驗的反復(fù)推導(dǎo),給出加速度的縮放調(diào)整策略。
(16)
(17)
式中:1和2為第維搜索空間的動態(tài)邊界,這里取判定因子1=1,2=0.01??紤]到隨著進化的進行,種群的分布情況是由發(fā)散的大區(qū)域逐漸收斂到小區(qū)域,因此在式(16)中,縮小因子1在(0, 1)之間隨迭代線性遞增;在式(17)中,放大因子2在(1,10)之間隨迭代線性遞減。通過對搜索步長自適應(yīng)的縮放,即對加速度動態(tài)的調(diào)整,確保了加速度相比于當前搜索空間不會出現(xiàn)過大或過小的情況發(fā)生,有利于算法對最優(yōu)解快速有效的搜索。
另外,為平衡算法的全局搜索能力和局部開采能力,本文采用文獻[14]提出的帶有方向性的變異策略,具體表示如式(18)所示
(18)
其中:1和2為服從(0,1)分布的隨機數(shù)。
3.3 適應(yīng)度函數(shù)
采用智能優(yōu)化算法對未知參數(shù)進行優(yōu)化搜索時,需要為算法確立目標函數(shù),目標函數(shù)須保證最終所得到的參數(shù),就是能使模型的融合效果達到最優(yōu)的那組參數(shù)。圖像融合評價指標是衡量一個算法融合效果的判斷依據(jù),因此可以選擇相關(guān)的評價標準作為目標函數(shù),在圖像融合評價指標中,通用圖像質(zhì)量評價指標0[15]主要從人眼視覺特性出發(fā),評價2幅圖像在相關(guān)性、亮度和對比度3個方面的差異,能夠較好反映圖像間的相似程度,且具有通用性。其值越大表示2幅圖像相似程度越高,因此本文選擇評價指標0作為本文的目標函數(shù)。通用圖像質(zhì)量評價0定義如下:
其中:和為原圖像;為融合圖像;為和間的協(xié)方差;和分別為和間的標準差。
3.4 算法步驟
步驟1 算法的初始化,設(shè)定種群粒子數(shù)、問題維數(shù),并為每個個體隨機產(chǎn)生位置、速度;設(shè)定引力常量中的0和,規(guī)定最大迭代次數(shù)。
步驟2 計算每個個體的適應(yīng)度,進而求得每個個體所受的合力,以及獲得的加速度。
步驟3 對得到的每個粒子在每維上的加速度進行判斷,對于符合條件的粒子,采用自適應(yīng)加速因子策略,保證粒子加速度在合理的區(qū)間范圍內(nèi)。
步驟4 對種群采用式(18)所示的變異策略,并與變異前進行比較,保留最優(yōu)值。
步驟5 判斷是否滿足終止條件,若不滿足轉(zhuǎn)到步驟2,否則輸出具有最優(yōu)值的個體。
為了驗證本文所提融合算法的有效性,選取了兩組已配準的圖像進行融合實驗,圖像大小都為512pixel*512pixel,第1組是Bottle的多聚焦圖像,第2組是CLOCK的多聚焦圖像。并與基于PCNN的圖像融合算法、基于波形變換的像素融合算法、基于雙通道PCNN的像素融合算法以及基于融合取最大準則的像素融合算法,另外為比較本文改進引力搜索算法的有效性,又與采用改進前的引力搜索算法優(yōu)化參數(shù)的方式進行比較。圖像融合質(zhì)量從主觀和客觀2個方面進行評價比較,主觀評價采取目測的方式,主要考察融合圖像的清晰度、對紋理細節(jié)的表達效果。選擇的客觀評價指標有:平均梯度(VG)、空間頻率(F)、0以及灰度均值(EAN)。VG主要反映圖像對細節(jié)的表達能力,其值越大則表示融合圖像的細節(jié)表達能力越好,具體計算方式如下:
EAN表示圖像的平均亮度,映入眼簾的亮度越高,則人眼觀察越舒適,具體計算式為
其中:為圖像中含有像素點數(shù);x為第個像素點的像素。
4.1 參數(shù)設(shè)置
種群規(guī)模設(shè)置為30,問題維數(shù)設(shè)置為5,引力搜索算法的最大迭代次數(shù)設(shè)為500,SCM的迭代次數(shù)設(shè)為40,,和初始化范圍在區(qū)間(0,1)內(nèi),的半徑生成區(qū)間在[3,64]范圍內(nèi),的初始化范圍在[10,30]之間,引力算法中的相關(guān)參數(shù)參考文獻[9]。
4.2 實驗結(jié)果與分析
圖2所示為Bottle多聚焦圖片的圖像融合結(jié)果,對該組實驗的融合結(jié)果從主觀評價的角度看,雖然選擇實驗的幾種融合方法都能表現(xiàn)出多聚焦圖像聚焦的主要特征,基于MAX方法的融合圖像,畫面較亮但清晰度較差,基于PCNN的圖像融合方法畫面較暗,基于Dual-PCNN的融合結(jié)果與2幅源圖的各自的聚焦區(qū)域相比,清晰度有所下降,只有基于DWT的圖像融合算法和本文算法在亮度以及清晰度上要優(yōu)于其他幾種圖像融合算法。表1給出了本組實驗的客觀評價結(jié)果。從表1可以看出:本文算法與SUM-GSA算法相比在各個指標上均有所提高,證明了本文更對與GSA算法改進的有效性,在指標MV上不如方法MAX好,這是因為算法MAX在融合過程中采用的像素點融合取最大準則,因此平均灰度要高一些,但在其他指標上,本文算法均優(yōu)于MAX,對評價指標VG,0以及F,本文算法與DWT得到的結(jié)果在數(shù)值優(yōu)于其他方法,且本文算法要好于DWT算法,這也證明了本文所提方法的有效性。
(a) 左聚焦圖像;(b) 右聚焦圖像;(c) DWT融合結(jié)果;(d) PCNN融合結(jié)果;(e) Max準則融合結(jié)果;(f) 本文方法融合結(jié)果;(g) Dual-PCNN融合結(jié)果;(h) SUM-GSA融合結(jié)果
表1 Bottle圖像的客觀評價指標
表2 CLOCK圖像的客觀評價指標
表3 Lab圖像的客觀評價指標
圖3所示為CLOCK多聚焦圖片和圖像融合結(jié)果。從主觀評價角度看,各種融合方法基本能實現(xiàn)多聚焦融合,但可以看出:圖3(d)和3(h)的清晰度較差,圖3(c)右側(cè)表輪廓出現(xiàn)了失真,觀察圖3(g)會發(fā)現(xiàn)該圖中存在一些噪點,圖3(e)中的清晰度則較差,明暗對比不明顯。因此,通過主觀判斷,本文所提算法所得到的融合圖像具有較好的清晰度以及對細節(jié)的表達效果。采用客觀評價標準進一步對圖像融合質(zhì)量進行評估,表2給出了最終的客觀評價結(jié)果,根據(jù)表2的結(jié)果依然可以看出,指標在VG,0以及P上,本文方法要好于其他算法,對指標MV,本文方法相比于MV要差一些,這是因為按照取最大準則得到的融合圖像,其亮度一定會更高一些,但其平均梯度、空間頻率以及0要比其他方法更差一些。
(a) 右聚焦;(b) 左聚焦;(c) DWT融合結(jié)果;(d) PCNN融合結(jié)果;(e) Max準則融合結(jié)果;(f) 本文方法融合結(jié)果;(g) Dual-PCNN融合結(jié)果;(h) SUM-GSA融合結(jié)果
圖4所示為Lab多聚焦圖片和圖像融合結(jié)果。從主觀評價角度可以看出:各個融合算法都完成對2幅圖像的多聚焦融合,其中DWT算法得到的融合圖像相比于源圖像灰度較暗且圖中人物的頭部出現(xiàn)了塊效應(yīng);由MAX算法得到的融合圖像的輪廓清晰度較差,本文算法得到的融合圖像無論是表盤數(shù)字還是人腦輪廓的細節(jié)表達都優(yōu)于其他算法得到的融合圖像。
采用客觀評價標準進一步對圖像融合質(zhì)量進行評估,表3給出了最終的客觀評價結(jié)果。由表3可以看出:指標在VG,0以及P上,本文方法取得較優(yōu)的融合效果,對指標MV,本文方法要低于MAX融合方法,但其平均梯度、空間頻率以及0要比其他方法更差一些。
(a) 左聚焦;(b) 右聚焦;(c) DWT融合結(jié)果;(d) PCNN融合結(jié)果;(e) Max準則融合結(jié)果;(f) 本文方法融合結(jié)果;(g) Dual-PCNN融合結(jié)果;(h) SUM-GSA融合結(jié)果
綜合以上實驗可以得出結(jié)論:1) 3組實驗驗證了基于區(qū)域特征的圖像融合方法的有效性;2) 與采用GSA算法進行參數(shù)優(yōu)化的方法相比,改進GSA算法具有更好的效果,驗證了本文對GSA算法改進的有效性。由于采用了智能優(yōu)化算法對融合模型參數(shù)進行了智能尋優(yōu),因此復(fù)雜度高于其他算法。
將區(qū)域的融合與點的融合相結(jié)合,提出一種基于區(qū)域特征的自適應(yīng)SCM圖像融合方法。根據(jù)人眼視覺成像的區(qū)域敏感特點,將圖像融合過程分為2個部分,為了降低人工設(shè)置參數(shù)所帶來的計算復(fù)雜度,采用引力搜索算法智能優(yōu)化模型中存在的參數(shù),實驗表明:本文所提出的融合方法在融合圖像過程中,相比于其他方法具有更好的細節(jié)表達能力,驗證本文提出算法的有效性。
[1] REHMAN N, KHAN M M, SOHAIB M I, et al. Image fusion using multivariate and multidimensional EMD[C]// 2014 IEEE International Conference on Image Processing (ICIP). Paris: IEEE Computer Society, 2014: 5112?5116.
[2] MAURI G, COVA L, DE BENI S, et al. Real-time US-CT/MRI image fusion for guidance of thermal ablation of liver tumors undetectable with US: results in 295 cases[J]. Cardiovascular and Interventional Radiology, 2015, 38(1): 143?151.
[3] BAI Xiangzhi, ZHANG Yu, ZHOU Fugen, et al. Quadtree-based multi-focus image fusion using a weighted focus-measure[J]. Information Fusion, 2015, 22(3): 105?118.
[4] WANG Lei, LI Bin, TIAN Liangfang. Multi-modal medical image fusion using the inter-scale and intra-scale dependencies between image shift-invariant shearlet coefficients[J]. Information Fusion, 2014, 19(1): 20?28.
[5] ZHANG Baohua, LU Xiaoqi, JIA Weitao. A multi-focus image fusion algorithm based on an improved dual-channel PCNN in NSCT domain[J]. Optik-International Journal for Light and Electron Optics, 2013, 124(20): 4104?4109.
[6] 邢雅瓊, 王曉丹, 畢凱, 等. 基于非下采樣輪廓波變換和壓縮感知的圖像融合方法[J]. 控制與決策, 2014, 29(4): 585?592. XING Yaqiong, WANG Xiaodan, BI Kai, et al. Fusion technique for images based on non-subsampled contourlet transform and compressive sensing[J]. Control and Decision, 2014, 29(4): 585?592.
[7] DAS S, KUNDU M K. A neuro-fuzzy approach for medical image fusion[J]. Biomedical Engineering, IEEE Transactions on, 2013, 60(12): 3347?3353.
[8] 李奕, 吳小俊. 粒子群進化學習自適應(yīng)雙通道脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合方法研究[J]. 電子學報, 2014, 42(2): 217?222. LI Yi, WU Xiaojun. A novel image fusion method using self-adaptive dual-channel pulse coupled neural networks based on PSO evolutionary learning[J]. Journal of Electronic, 2014, 42(2): 217?222.
[9] ZHAN Kun, ZHANG Hongjuan, MA Yide. New spiking cortical model for invariant texture retrieval and image processing[J]. Neural Networks, IEEE Transactions on, 2009, 20(12): 1980?1986.
[10] WANG Rui, WU Yi, DING Mingyue, et al. Medical image fusion based on spiking cortical model[C]//SPIE Medical Imaging. International Society for Optics and Photonics, 2013: 867610-867610?7.
[11] WANG Nianyi, MA Yide, ZHAN Kun. Spiking cortical model for multi-focus image fusion[J]. Neuro Computing, 2014, 130(3): 44?51.
[12] HUANG Wei, JING Zhongliang. Evaluation of focus measures in multi-focus image fusion[J]. Pattern Recognition Letters, 2007, 28(4): 493?500.
[13] RASHEDI E, NEZAMABADI-POUR H, SARYAZDI S. GSA: a gravitational search algorithm[J]. Information Sciences, 2009, 179(13): 2232?2248.
[14] 畢曉君, 刁鵬飛, 肖婧. 基于混合策略的引力搜索算法[J]. 系統(tǒng)工程與電子技術(shù), 2014, 36(11): 2308?2413. BI Xiaojun, DIAO Pengfei, XIAO Jing. Gravitational search algorithm with mixed strategy[J]. Journal of Systems Engineering and Electronics, 2014, 36(11): 2308?2413.
[15] 羅曉清. 多傳感器圖像融合理論及其應(yīng)用研究[D]. 無錫: 江南大學生物工程學院, 2010: 63. LUO Xiaoqing. Study on the theory of multi-sensor image fusion and its application[D]. Wuxi: Jiangnan University. College of Biological Engineering, 2010: 63.
(編輯 陳愛華)
Multi-focus image fusion based onregional characteristics of SCM
BI Xiaojun, DIAO Pengfei, CHEN Chunyu
(College of Information and Communication Engineering, Harbin Engineering University, Harbin 150001, China)
Considering our eyes are very sensitive on regional characteristics, a new fusion algorithm which combines regional characteristics and adaptive SCM is proposed. And the new algorithm has two steps to fusing image. Firstly, comparing the regional characteristics of the two images, and fusing the best area and the same area. Then, the difference area of image will be fused by SCM model. And a fusion standard was proposed. In order to select parameters of the model to get a better fusion image, an optimization algorithm was adopted and some improvements will be make to enhance searching ability. At last, experimental results show that the method can provide a best fusion quality in visual sense than other contrast algorithm.
multi-focusimage fusion; spiking cortical model; regional characteristics; gravitational search algorithm
10.11817/j.issn.1672-7207.2016.11.015
TP391
A
1672?7207(2016)11?3721?08
2016?01?15;
2016?04?09
國家自然科學基金資助項目(61175126);中央高?;究蒲袠I(yè)務(wù)費專項資金項目(HEUCFZ1209) 高等學校博士學科點專項(20112304110009) (Project(61175126) supported the National Natural Science Foundation of China;Project(HEUCFZ1209) supported by the Fundamental Research Funds for the Central Universities;Project(20112304110009) supported by the Special Scientific Research Foundation of the Doctoral Program of Higher Education)
畢曉君,博士,教授,從事信息智能處理技術(shù)、智能優(yōu)化算法、數(shù)字圖像處理研究;E-mail: 398317196@qq.com