• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    容量約束的自組織增量聯(lián)想記憶模型*

    2016-03-19 05:46:55謝振平王士同淵江南大學(xué)數(shù)字媒體學(xué)院江蘇無錫214122
    計算機與生活 2016年1期
    關(guān)鍵詞:自組織神經(jīng)網(wǎng)絡(luò)

    孫 桃,謝振平,王士同,劉 淵江南大學(xué)數(shù)字媒體學(xué)院,江蘇無錫214122

    * The National Natural Science Foundation of China under Grant No. 61272210 (國家自然科學(xué)基金); the Natural Science Foundation of Jiangsu Province under Grant Nos. BK20130161, BK2011003 (江蘇省自然科學(xué)基金).

    Received 2015-03,Accepted 2015-05.

    CNKI網(wǎng)絡(luò)優(yōu)先出版:2015-05-29, http://www.cnki.net/kcms/detail/11.5602.TP.20150529.1611.003.html

    ISSN 1673-9418 CODEN JKYTA8

    Journal of Frontiers of Computer Science and Technology

    1673-9418/2016/10(01)-0130-12

    ?

    容量約束的自組織增量聯(lián)想記憶模型*

    孫桃,謝振平+,王士同,劉淵
    江南大學(xué)數(shù)字媒體學(xué)院,江蘇無錫214122

    * The National Natural Science Foundation of China under Grant No. 61272210 (國家自然科學(xué)基金); the Natural Science Foundation of Jiangsu Province under Grant Nos. BK20130161, BK2011003 (江蘇省自然科學(xué)基金).

    Received 2015-03,Accepted 2015-05.

    CNKI網(wǎng)絡(luò)優(yōu)先出版:2015-05-29, http://www.cnki.net/kcms/detail/11.5602.TP.20150529.1611.003.html

    ISSN 1673-9418 CODEN JKYTA8

    Journal of Frontiers of Computer Science and Technology

    1673-9418/2016/10(01)-0130-12

    E-mail: fcst@vip.163.com

    http://www.ceaj.org

    Tel: +86-10-89056056

    摘要:自組織聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)因其并行、容錯及自我學(xué)習(xí)等優(yōu)點而得到廣泛應(yīng)用,但現(xiàn)有主流模型在增量學(xué)習(xí)較大規(guī)模樣本時,網(wǎng)絡(luò)節(jié)點數(shù)可能無限增長,從而給實際應(yīng)用帶來不可承受的內(nèi)存及計算開銷。針對該book=131,ebook=135問題,提出了一種容量約束的自組織增量聯(lián)想記憶模型。以網(wǎng)絡(luò)節(jié)點數(shù)為先決控制參數(shù),結(jié)合設(shè)計新的節(jié)點間自競爭學(xué)習(xí)策略,新模型可滿足大規(guī)模樣本的增量式學(xué)習(xí)需求,并能以較低的計算容量取得較高的聯(lián)想記憶性能。理論分析表明了新模型的正確性與有效性,實驗分析同時顯示了新模型可有效控制計算容量,提升增量樣本學(xué)習(xí)效率,并獲得較高的聯(lián)想記憶性能,從而能更好地滿足現(xiàn)實應(yīng)用需求。

    關(guān)鍵詞:聯(lián)想記憶;容量約束;增量學(xué)習(xí);自組織;神經(jīng)網(wǎng)絡(luò)

    1 引言

    聯(lián)想記憶[1]是人腦計算的一個核心功能,為使機器獲得類人智能,研究者設(shè)計了各種可進行機器計算的聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)來對此進行模擬。聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)將對象模式顯式或隱式地存儲至網(wǎng)絡(luò)節(jié)點,并通過示例樣本的學(xué)習(xí)訓(xùn)練,實現(xiàn)對輸入模式聯(lián)想記憶出相應(yīng)的輸出模式。聯(lián)想記憶主要分為自聯(lián)想記憶和異聯(lián)想記憶兩種方式。前者輸出受損或受污染輸入模式的原始模式,后者輸出輸入模式的(因果)相關(guān)模式[2]。人工聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)因其具有較好的抗噪性、分布式信息存儲能力、穩(wěn)定性,并在一定程度上模擬了人類大腦對信息的記憶、識別和聯(lián)想等功能,已大量應(yīng)用于人臉識別[3]、模式識別[4]、圖像和聲音識別、機器人[5]等領(lǐng)域。

    自20世紀(jì)80年代開始,聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)逐漸成為機器學(xué)習(xí)的重要研究領(lǐng)域之一。以經(jīng)典的Hopfield網(wǎng)絡(luò)[6]為標(biāo)志,聯(lián)想記憶模型經(jīng)歷了從全連接網(wǎng)絡(luò)到稀疏連接網(wǎng)絡(luò),從單層單向到多層多向,從自聯(lián)想到異聯(lián)想[7],從一對一聯(lián)想到一對多甚至多對多聯(lián)想,從二值型到非二值型,從簡單網(wǎng)絡(luò)到復(fù)雜網(wǎng)絡(luò)[8]的發(fā)展。目前已提出的一些聯(lián)想記憶模型有:基于動態(tài)突觸的神經(jīng)網(wǎng)絡(luò)聯(lián)想記憶模型[9],其在存儲容量上擁有比Hopfield聯(lián)想記憶網(wǎng)絡(luò)更優(yōu)秀的性能;基于模糊學(xué)的神經(jīng)網(wǎng)絡(luò)聯(lián)想記憶模型[10],其利用模糊運算能夠很好地抵抗噪聲,具有較好的容錯能力;基于自組織的神經(jīng)網(wǎng)絡(luò)聯(lián)想記憶模型[11],其調(diào)節(jié)神經(jīng)元連接動力學(xué)形成網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),使迭代收斂速度較快。

    雖然現(xiàn)有聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)性能較早期的模型已有較大提高,但許多受容量效率限制而實用性并不強。此外,大部分聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法主要聚焦于常規(guī)的樣本訓(xùn)練方式,對于增量地學(xué)習(xí)樣本數(shù)據(jù)問題,則涉及較少,難以在大數(shù)據(jù)環(huán)境下演化地提升模型的計算性能。針對容量效率和增量學(xué)習(xí)[12]問題,現(xiàn)有一些方法如有界支持向量機[13]和在線球向量機[14](online ball vector machine,OBVM)提出了一些解決方法,但此類方法主要針對二分類問題,不適用于復(fù)雜聯(lián)想記憶輸出要求。

    針對上述問題,本文提出了一種容量約束的自組織增量聯(lián)想記憶模型(self-organizing incremental associative memory model under capacity constraint,CCGAM)。新模型以控制網(wǎng)絡(luò)節(jié)點數(shù)為手段,通過引入一種新的節(jié)點自競爭學(xué)習(xí)策略,實現(xiàn)模型在大規(guī)模增量可學(xué)習(xí)樣本環(huán)境下的性能演化提升[15],在獲得較好模型性能的同時保持較低且可控的內(nèi)存及計算要求。這為聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)相關(guān)應(yīng)用及理論研究提供了一種非常有意義的新方法。

    2 相關(guān)模型

    作為早期Hopfield聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)模型的推廣,Kosko等人[16]提出了一種雙向聯(lián)想記憶模型(bidirectional associative memory,BAM)。BAM是一種兩層非線性反饋神經(jīng)網(wǎng)絡(luò),可以用較小的相關(guān)矩陣實現(xiàn)有效的異聯(lián)想。但BAM存在的補碼問題和連續(xù)性假設(shè)限制了其存儲容量和糾錯能力,且其僅能處理二值型模式數(shù)據(jù),實用性仍不強。

    Wang等人[17]提出了一種新的模糊形態(tài)學(xué)聯(lián)想記憶模型(fuzzy morphological associative memories,F(xiàn)MAM)。FMAM結(jié)合了形態(tài)學(xué)聯(lián)想記憶[18](morphological associative memories,MAM)和模糊聯(lián)想記憶[19](fuzzy associative memories,F(xiàn)AM),用模糊算子(∨,?)和(∧,?)代替FAM中的(∨,∧)算子,并具有較好的可解釋性,其中提供了一種模糊規(guī)則集可完全聯(lián)想回憶的新編碼方法。FMAM的模糊算子能夠有效地抑制樣本噪聲的干擾,在學(xué)習(xí)樣本差異較大,受污染嚴(yán)重的情況下仍可擁有較好的聯(lián)想記憶性能。雖然如此,但FMAM不具備增量學(xué)習(xí)能力,不適合學(xué)習(xí)條件復(fù)雜,學(xué)習(xí)樣本規(guī)模大的情況,也不具有異聯(lián)想功能。

    為實現(xiàn)聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)的增量學(xué)習(xí)[20],F(xiàn)urao等人提出了一種自組織增量神經(jīng)網(wǎng)絡(luò)[21](self-organizing incremental neural network,SOINN)。SOINN采用無監(jiān)督增量學(xué)習(xí)方法,實現(xiàn)對復(fù)雜分布數(shù)據(jù)的增量在線學(xué)習(xí),并能夠近似得到輸入數(shù)據(jù)的分布,以自組織聚類方法估計出數(shù)據(jù)的類群數(shù)。進一步,F(xiàn)urao等人[22]在SOINN基礎(chǔ)上提出了一種廣義聯(lián)想記憶模型(general associative memory,GAM)。GAM是一種三層網(wǎng)絡(luò)結(jié)構(gòu)的通用聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)模型,其采用有監(jiān)督學(xué)習(xí)方法,具有較好的廣義性和聯(lián)想記憶性能,同時支持自聯(lián)想和異聯(lián)想記憶輸出。GAM模型結(jié)構(gòu)如圖1所示,包括輸入層、記憶層和聯(lián)想層。輸入層接受輸入模式數(shù)據(jù)以及它們間的關(guān)系;記憶層與輸入層為全連接,將輸入模式數(shù)據(jù)經(jīng)變換后存儲至對應(yīng)的記憶子網(wǎng)中;聯(lián)想層中的每個神經(jīng)節(jié)點與對應(yīng)的記憶子網(wǎng)相關(guān)聯(lián),并與聯(lián)想層其他節(jié)點間用有向邊表示聯(lián)想計算通路。

    Fig.1 Three-layer network structure of GAM圖1 GAM三層網(wǎng)絡(luò)結(jié)構(gòu)

    GAM記憶層對樣本進行學(xué)習(xí)時,首先在記憶層中找到對應(yīng)該樣本標(biāo)簽的子網(wǎng)絡(luò),然后在子網(wǎng)絡(luò)中找到距離要學(xué)習(xí)樣本最近的節(jié)點(冠軍節(jié)點)和次近節(jié)點(亞軍節(jié)點);隨后計算輸入樣本與冠軍節(jié)點的距離s,并判斷s與冠軍節(jié)點相似性閾值Th之間的大小關(guān)系,若s大于Th,則將該學(xué)習(xí)樣本作為新節(jié)點插入,否則更新冠軍節(jié)點和亞軍節(jié)點的權(quán)值向量,更新規(guī)則如下:

    其中,w代表節(jié)點權(quán)值向量;s1為冠軍節(jié)點;s2為亞軍節(jié)點;x為訓(xùn)練樣本;M為節(jié)點被選為冠軍節(jié)點的次數(shù)。冠軍節(jié)點的相似性閾值更新如下:

    如果冠軍節(jié)點和亞軍節(jié)點之間沒有連接邊,添加一條邊連接冠軍和亞軍節(jié)點,并將邊年齡(age)設(shè)為0,然后將所有與冠軍節(jié)點相連的邊年齡加1。如果邊的年齡大于預(yù)先定義的agemax,刪除該邊。最后,刪除孤立節(jié)點。

    GAM算法實現(xiàn)了多向自由聯(lián)想記憶,可以處理實值型數(shù)據(jù),能在不破壞全部神經(jīng)元原有連接結(jié)構(gòu)的情況下進行增量學(xué)習(xí),并可對含噪輸入模式聯(lián)想回憶出真實模式。但GAM對初值過于敏感,且在大規(guī)模樣本學(xué)習(xí)或者增量學(xué)習(xí)時,網(wǎng)絡(luò)節(jié)點數(shù)量不可調(diào)節(jié),存在無限增長的可能,相應(yīng)的訓(xùn)練及聯(lián)想回憶計算時間復(fù)雜度也會無限增大,這將導(dǎo)致其具有的增量學(xué)習(xí)能力難以發(fā)揮很好的實際作用,不能靈活地應(yīng)對復(fù)雜的現(xiàn)實需求,廣義適用性受到嚴(yán)重限制。

    考慮到影響聯(lián)想記憶神經(jīng)網(wǎng)絡(luò)模型計算和學(xué)習(xí)效率的控制參數(shù)為網(wǎng)絡(luò)神經(jīng)元節(jié)點數(shù),以此為出發(fā)點,文中借鑒文獻[13]的有界控制策略,結(jié)合新設(shè)計的節(jié)點間自競爭學(xué)習(xí)策略,提出了一種容量約束的自組織增量聯(lián)想記憶模型CCGAM。

    3 CCGAM

    CCGAM網(wǎng)絡(luò)模型結(jié)構(gòu)仍采用GAM相同的形式(見圖1),在學(xué)習(xí)方法上,首先考慮網(wǎng)絡(luò)神經(jīng)元數(shù)目具有上界約束,以限制網(wǎng)絡(luò)的計算和存儲規(guī)模,然后基于新提出的節(jié)點間自競爭學(xué)習(xí)策略,實現(xiàn)模型參數(shù)的學(xué)習(xí)。節(jié)點間自競爭學(xué)習(xí)策略不僅保證了學(xué)習(xí)結(jié)果的準(zhǔn)確性,同時可有效避免GAM的初值敏感問題。下面分別從CCGAM的學(xué)習(xí)算法、聯(lián)想算法、理論特性等幾個方面展開描述。

    3.1CCGAM學(xué)習(xí)算法

    CCGAM學(xué)習(xí)算法包括記憶層學(xué)習(xí)算法和聯(lián)想層學(xué)習(xí)算法。在記憶層學(xué)習(xí)算法中,為每個記憶子網(wǎng)絡(luò)節(jié)點規(guī)模設(shè)置上界閾值Nmax。初始學(xué)習(xí)時,將同一標(biāo)簽的前Nmax個樣本作為新節(jié)點添加至相應(yīng)的記憶層子網(wǎng)絡(luò),這可有效避免GAM的初值敏感問題,強化對新知識的學(xué)習(xí)。在新引入的自競爭學(xué)習(xí)策略中,當(dāng)子網(wǎng)絡(luò)中節(jié)點數(shù)目達(dá)到上限閾值時,以一定概率淘汰對網(wǎng)絡(luò)結(jié)構(gòu)影響最小的節(jié)點,保證網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)的穩(wěn)定性。上述學(xué)習(xí)算法能夠?qū)⒚總€子網(wǎng)絡(luò)中節(jié)點數(shù)量控制在節(jié)點規(guī)模上界內(nèi),滿足大規(guī)模增量樣本的在線學(xué)習(xí)要求,并能有效地提高學(xué)習(xí)效率,避免不可控的內(nèi)存及計算開銷。CCGAM記憶層學(xué)習(xí)算法具體如算法1所示。

    算法1 CCGAM記憶層學(xué)習(xí)算法

    (1)初始化記憶層:A=Φ,S=Φ(A為記憶層節(jié)點集合,S為記憶層子網(wǎng)絡(luò)集合);

    (2)設(shè)定每個模式子網(wǎng)絡(luò)節(jié)點規(guī)模上界閾值Nmax;

    (3)輸入x∈RD到記憶層,x屬于類cx(cx為x的標(biāo)簽);

    (4)若記憶層沒有子網(wǎng)絡(luò)cx,則添加cx,S=S∪{cx},A=A∪{},w=x,=1,轉(zhuǎn)步驟(3);

    (6)計算子網(wǎng)絡(luò)cx中節(jié)點數(shù)量Qcx;

    (7)若Qcx<Nmax,則將x作為新節(jié)點插入cx,=x,=1,轉(zhuǎn)步驟(3);

    (9)若d1>d2且r<1/Ms3,刪除s3,x作為新節(jié)點插入cx中,=x,=1,否則,更新ws1,ws1← ws1+δs1(x?ws1),其中δs1=1/Ms1;

    (10)如果訓(xùn)練沒有結(jié)束,轉(zhuǎn)步驟(3)。

    分析算法1中步驟(6)和(7)可知,CCGAM將前Nmax個樣本全部作為新節(jié)點添加到網(wǎng)絡(luò),若其中含有兩個噪聲點P1、P2(如圖2所示),則其在后續(xù)樣本學(xué)習(xí)過程時被選中冠軍節(jié)點的概率將較小,最終將由步驟(8)和(9)的自競爭策略淘汰掉。而GAM對于樣本初值過于敏感,在其學(xué)習(xí)前兩個受污染樣本后,添加P1、P2兩個噪聲點到網(wǎng)絡(luò)中,兩點的相似性閾值Th均被更新為P1與P2之間的歐氏距離d。由于后續(xù)樣本點到P1或P2的距離小于Th,導(dǎo)致GAM始終更新P1、P2節(jié)點的權(quán)值,對新知識的學(xué)習(xí)能力較弱。

    Fig.2 Initializing samples with noises圖2 初始含噪聲樣本數(shù)據(jù)

    CCGAM聯(lián)想層學(xué)習(xí)算法仍采用與GAM相同的算法,以學(xué)習(xí)不同類別輸入輸出模式間的異聯(lián)想關(guān)系,具體見算法2。其中,輸入模式經(jīng)算法1學(xué)習(xí)至記憶層后,在聯(lián)想層建立與記憶層中每個子網(wǎng)絡(luò)一一對應(yīng)的節(jié)點,然后通過在聯(lián)想層節(jié)點間建立有向箭頭表示每個輸入模式間的異聯(lián)想關(guān)系,有向箭頭權(quán)重表示聯(lián)想優(yōu)先級。

    算法2 CCGAM聯(lián)想層學(xué)習(xí)算法

    (1)初始化聯(lián)想層:B=Φ,D=Φ(B為聯(lián)想層節(jié)點集合,D為聯(lián)想層有向邊集合);

    (2)輸入x、y向量,x∈RD,x標(biāo)簽cx,y∈Rm,y標(biāo)簽cy;

    (3)用算法1分別將x、y學(xué)習(xí)到記憶層;

    (4)若聯(lián)想層中沒有代表cx的節(jié)點b,則插入新節(jié)點b代表cx,B=B∪,cb=cx,mb=0,wb=x(mb為b引用次數(shù),wb為b權(quán)值,cb為b名稱);

    (5)否則,更新節(jié)點b的m值,mb←mb+1,找到記憶層cx中M值最大的節(jié)點i,,更新b權(quán)值;

    (6)若聯(lián)想層中沒有代表cy的節(jié)點d,則插入新節(jié)點d代表cy,B=B∪j5i0abt0b,cd=cy,md=0,wd=y(tǒng);

    (7)否則,找到cy中M值最大的節(jié)點i,i=,更新d權(quán)值;

    (8)設(shè)置cd為b的序號mb的響應(yīng)節(jié)點,RCb[mb]=cd(RCb為b的響應(yīng)節(jié)點);

    (9)若b、d無有向邊相連,用有向邊將b、d相連,b出發(fā),d結(jié)束,添加有向邊(b,d)到集合D,D=D∪{(b,d)},設(shè)置(b,d)權(quán)值w(b,d)=1;

    (10)否則,更新(b,d)權(quán)值w(b,d)←w(b,d)+1。

    3.2CCGAM聯(lián)想算法

    不完全相同于GAM模型,CCGAM聯(lián)想算法采用的自聯(lián)想算法和異聯(lián)想算法分別如算法3和算法4所示。與GAM的自聯(lián)想算法不同,算法3在記憶層中使用輸入模式x對應(yīng)模式子網(wǎng)絡(luò)中節(jié)點間最大距離作為自聯(lián)想輸出有效的置信閾值,以取得更高的自聯(lián)想準(zhǔn)確性。

    算法3 CCGAM自聯(lián)想算法

    (1)輸入向量x;

    (3)計算ck中任兩節(jié)點間的距離最大值smax=;

    (4)若smin大于smax,則自聯(lián)想失敗,否則,輸出自聯(lián)想結(jié)果wk和標(biāo)簽ck。

    算法4 CCGAM異聯(lián)想算法

    (1)輸入線索向量x;

    (2)用算法3找出x在記憶層中所屬的子網(wǎng)絡(luò)cx;

    (3)在聯(lián)想層找到代表cx的節(jié)點bx;

    (4)按響應(yīng)優(yōu)先級輸出bx所有響應(yīng)節(jié)點。

    CCGAM的異聯(lián)想算法與GAM相同,能夠聯(lián)想出輸入線索模式的所有響應(yīng)模式,并根據(jù)響應(yīng)優(yōu)先級輸出。首先由算法3聯(lián)想出線索模式在記憶層中的子網(wǎng)絡(luò),然后找到該子網(wǎng)絡(luò)在聯(lián)想層中對應(yīng)的節(jié)點,最后按照響應(yīng)優(yōu)先級依次輸出所有的響應(yīng)節(jié)點,實現(xiàn)多對多聯(lián)想。如圖3所示,x1是線索模式類在聯(lián)想層中的代表節(jié)點,其響應(yīng)節(jié)點為x2、x3、x4,算法4將根據(jù)響應(yīng)節(jié)點對應(yīng)的優(yōu)先級w1、w2和w8的大小順序依次輸出響應(yīng)節(jié)點。

    Fig.3 Structure of associative layer of CCGAM圖3 CCGAM聯(lián)想層結(jié)構(gòu)模型

    3.3CCGAM理論分析

    3.3.1學(xué)習(xí)穩(wěn)定性

    CCGAM基于對樣本的增量迭代學(xué)習(xí)而得到模型參數(shù),為保證學(xué)習(xí)的可靠性,通常要求學(xué)習(xí)算法是漸近穩(wěn)定的。對于CCGAM,在網(wǎng)絡(luò)節(jié)點數(shù)達(dá)到上界時,通過自競爭策略更新或者替換某個節(jié)點,經(jīng)分析可知有以下定理成立。

    定理1 CCGAM對任一記憶層節(jié)點權(quán)值的迭代更新過程是收斂穩(wěn)定的。

    證明設(shè)有n個輸入模式v1,v2,…,vn屬于同一標(biāo)簽cv,CCGAM記憶層與cv對應(yīng)的子網(wǎng)絡(luò)中的節(jié)點數(shù)為m個,對cv中每個模式vi(i=1,2,…,n)進行學(xué)習(xí),定義冠軍節(jié)點為,設(shè)某節(jié)點x被 p個模式選中為冠軍節(jié)點,其中p=(′,,…,),假設(shè)p足夠大,隨著學(xué)習(xí)次數(shù)增加,則第n次學(xué)習(xí)模式(∈p),對節(jié)點x的權(quán)值wx更新的遞歸公式為:

    節(jié)點x被迭代更新n次的最終權(quán)值為所有學(xué)習(xí)模式的平均值,即CCGAM對任意n個輸入模式的迭代學(xué)習(xí)過程是收斂穩(wěn)定的。學(xué)習(xí)算法針對模型一致的學(xué)習(xí)樣本時,學(xué)習(xí)結(jié)果是統(tǒng)計一致的?!?/p>

    3.3.2計算復(fù)雜度

    假設(shè)CCGAM神經(jīng)元規(guī)模上界閾值為Nmax,待訓(xùn)練的模式為x,x的標(biāo)簽為cx,s1、s2分別為cx中與x的歐式距離最近的神經(jīng)元節(jié)點和次近的神經(jīng)元節(jié)點,定義:

    其中,d1=‖ws1?x‖,d2=‖ws2?ws1‖;Ncx是網(wǎng)絡(luò)中對應(yīng)標(biāo)簽cx的神經(jīng)元節(jié)點數(shù)。如果sgn(Ncx)值為1,x直接作為新的神經(jīng)元添加;如果sgn(Ncx)值為0,對s1的權(quán)值進行更新,ws1=ws1+?ws1,其中?ws1=(x?ws1)/Ms1;如果sgn(Ncx)值為?1,找到標(biāo)簽為cx的子網(wǎng)絡(luò)中M值最小的神經(jīng)元節(jié)點并以1 M的概率刪除,再將x作為新的神經(jīng)元添加到cx。由此可知,在CCGAM記憶層,每個子網(wǎng)絡(luò)中神經(jīng)元數(shù)最多為預(yù)先設(shè)定的Nmax。

    設(shè)一個集群的訓(xùn)練模式總數(shù)為M(M無限大),當(dāng)網(wǎng)絡(luò)中每增加一個神經(jīng)元,訓(xùn)練一個樣本模式所需增加的時間開銷為τ。對于CCGAM,訓(xùn)練前Nmax個模式時,網(wǎng)絡(luò)神經(jīng)元數(shù)是線性增加的,空間復(fù)雜度為O(n),所需訓(xùn)練時間開銷關(guān)于訓(xùn)練樣本數(shù)呈二次函數(shù)增長;訓(xùn)練超過Nmax個模式時,由于網(wǎng)絡(luò)中神經(jīng)元規(guī)模已達(dá)到上界且不再增加,空間復(fù)雜度為O(1),訓(xùn)練時間關(guān)于訓(xùn)練樣本數(shù)呈線性增加。對于GAM,每個訓(xùn)練樣本是否作為新的神經(jīng)元添加到網(wǎng)絡(luò)中且有一定的隨機性。假設(shè)GAM將每個訓(xùn)練模式作為新神經(jīng)元添加的概率為ρ(ρ<1),空間復(fù)雜度為O(n),訓(xùn)練時間關(guān)于訓(xùn)練樣本數(shù)始終呈二次函數(shù)增長。CCGAM( T1)和GAM( T2)的訓(xùn)練時間隨著訓(xùn)練樣本模式數(shù)n的變化函數(shù)整理如下:

    GAM、CCGAM訓(xùn)練時間關(guān)于訓(xùn)練模式規(guī)模的變化趨勢如圖4所示(其中a=Nmax,γ=ρ)。從圖中可知,對于單個學(xué)習(xí)樣本,其序號數(shù)等于a時,CCGAM的學(xué)習(xí)時間復(fù)雜度為O(n2),當(dāng)序號數(shù)大于a時,學(xué)習(xí)時間復(fù)雜度為O(n);而GAM的學(xué)習(xí)時間復(fù)雜度始終為O(n2)。當(dāng)學(xué)習(xí)樣本較大時,新學(xué)習(xí)一個樣本所需的計算時間,GAM要遠(yuǎn)大于CCGAM。

    Fig.4 Training time on different sample number for GAM and CCGAM圖4 GAM與CCGAM訓(xùn)練時間關(guān)于訓(xùn)練模式數(shù)的變化關(guān)系

    4 實驗研究

    本文分別基于字母識別、性別判別和煙霧檢測問題對CCGAM的實際性能進行分析。實驗計算配置如下:內(nèi)存4.00 GB,CPU為Intel@CoreTMi5-3470,主頻3.20 GHz,操作系統(tǒng)為64位,程序開發(fā)環(huán)境為C++平臺、OpenCV和Boost程序庫。

    Fig.5 Binary letters images圖5 二進制字母圖像

    4.1字母識別

    本實驗主要測試分析CCGAM模型的計算有效性、學(xué)習(xí)效率和聯(lián)想記憶性能。字母識別對象如圖5所示,有26個大寫字母和26個小寫字母,每個字母是一個7×7像素構(gòu)成的二值圖像,圖像是由黑點(-1)和白點(1)構(gòu)成,每個字母屬于一個類,共52個模式類。

    本部分實驗中,首先對比分析GAM和CCGAM的學(xué)習(xí)效率和計算有效性。從每個原始字母圖像49個像素點中隨機選取10個點添加噪聲,將其原像素值更改為其相反值,如圖6所示,并分別重復(fù)100,150,…,1 000次,共生成19組含噪訓(xùn)練樣本作為訓(xùn)練集數(shù)據(jù)。針對上述19組訓(xùn)練集Di(i=1,2,…,19),分別使用GAM和CCGAM進行19次訓(xùn)練,訓(xùn)練完后對兩者進行一次增量學(xué)習(xí),其中Nmax取值為10。圖7分別給出了CCGAM和GAM模型的子網(wǎng)節(jié)點數(shù)、訓(xùn)練時間及增量學(xué)習(xí)時間隨學(xué)習(xí)次數(shù)的變化關(guān)系圖。

    Fig.6 Noise patterns generated from an original pattern圖6 對原始模式隨機加噪生成噪聲模式

    圖7(a)是CCGAM和GAM在訓(xùn)練樣本逐漸增加的情況下,每個類在記憶層中產(chǎn)生的節(jié)點數(shù)。由于GAM每個類訓(xùn)練后記憶層產(chǎn)生的節(jié)點數(shù)并不一樣,實驗中統(tǒng)計的節(jié)點數(shù)是52個類的平均節(jié)點數(shù)。從圖中可以得出,CCGAM每個子網(wǎng)絡(luò)中節(jié)點數(shù)始終控制在10,而GAM隨著訓(xùn)練樣本的增加,節(jié)點數(shù)也逐漸增加,圖像中顯示GAM的節(jié)點數(shù)與訓(xùn)練樣本大致呈線性增加關(guān)系。

    圖7(b)是在訓(xùn)練樣本增加的情況下,CCGAM 和GAM對每個類的訓(xùn)練時間變化趨勢曲線。由于CCGAM控制了網(wǎng)絡(luò)節(jié)點數(shù)增長,隨著訓(xùn)練樣本的增加,CCGAM的訓(xùn)練時間關(guān)于訓(xùn)練樣本數(shù)呈線性增長,訓(xùn)練時間復(fù)雜度為O(n)。而GAM的網(wǎng)絡(luò)節(jié)點數(shù)隨著訓(xùn)練樣本增加而不斷增加,其訓(xùn)練時間關(guān)于訓(xùn)練樣本數(shù)呈二次函數(shù)增加,復(fù)雜度為O(n2)。同時也證明了3.3節(jié)中關(guān)于兩者時間復(fù)雜度的理論分析。

    進一步,仍基于字母識別問題測試分析CCGAM的異聯(lián)想能力。實驗中將大寫字母圖像作為線索模式,對應(yīng)的小寫字母圖像作為響應(yīng)模式,如A→a,B→b,…,Z→z,以這樣的模式對形式輸入網(wǎng)絡(luò)進行訓(xùn)練,并通過調(diào)整Nmax值比較不同節(jié)點數(shù)限定下的CCGAM異聯(lián)想學(xué)習(xí)性能。采取前述相似加噪方法對每個原始模式加噪生成每個類包含500個不同噪聲模式的數(shù)據(jù)集作為訓(xùn)練集D,同樣方法生成另一組只含線索模式的數(shù)據(jù)集作為測試集T。實驗中,固定訓(xùn)練集D,Nmax分別取值10,15,20,…,60,用算法2對CCGAM進行11組訓(xùn)練,每次訓(xùn)練完用算法4對測試集T進行測試,統(tǒng)計異聯(lián)想性能。由于GAM不能控制調(diào)節(jié)網(wǎng)絡(luò)中節(jié)點數(shù),本實驗僅用訓(xùn)練集D和測試集T對GAM進行一次實驗,用式(1)計算GAM的平均節(jié)點數(shù),實驗結(jié)果如表1所示。

    Fig.7 Performance comparison of GAM and CCGAM圖7 GAM與CCGAM的性能對比

    表1中的實驗結(jié)果表明,對于CCGAM,在網(wǎng)絡(luò)節(jié)點數(shù)限定較小時,增加網(wǎng)絡(luò)節(jié)點數(shù),可以提高聯(lián)想準(zhǔn)確率,但當(dāng)節(jié)點數(shù)達(dá)到某一上界后,準(zhǔn)確率趨于穩(wěn)定。這一實驗結(jié)果表明,為取得實用有效的性能,記憶子網(wǎng)節(jié)點數(shù)僅需控制在某個問題相關(guān)的上界范圍內(nèi),并不需要無限增大。對比表1中GAM與CCGAM性能可以發(fā)現(xiàn),兩者在相近的子網(wǎng)節(jié)點數(shù)時,所取得的性能相當(dāng),這也表明CCGAM的學(xué)習(xí)算法是有效且可靠的。

    4.2性別判別

    為了測試分析CCGAM在復(fù)雜實值型數(shù)據(jù)集中的性能,本實驗選用美國CTTP發(fā)起的人臉識別技術(shù)工程(FERET)所采集的通用人臉庫作為數(shù)據(jù)集,包括414張不同男性臉部圖像和309張不同女性臉部圖像。所有圖像均為80×80像素的標(biāo)準(zhǔn)TIF格式灰度圖,圖像人物包含不同的表情、姿態(tài)、種族和年齡,如圖8、圖9所示。

    Table 1 Recalling performance obtained by GAM and CCGAM表1 GAM與CCGAM聯(lián)想記憶測試結(jié)果對比

    Fig.8 Some female facial images圖8 部分女性臉部圖像

    Fig.9 Some male facial images圖9 部分男性臉部圖像

    首先,從數(shù)據(jù)集中隨機選取200張男性圖像和200張女性圖像作為訓(xùn)練集,剩余323張圖像作為測試集,用算法1訓(xùn)練,算法3進行測試,計算Nmax在不同取值下CCGAM的自聯(lián)想準(zhǔn)確率;然后再重新隨機抽取訓(xùn)練集和測試集,對應(yīng)每個Nmax值共進行n=20次,用式(2)計算每個Nmax值對應(yīng)n次隨機抽取樣本的自聯(lián)想準(zhǔn)確率ratei(i=1,2,…,n);最后用式(3)統(tǒng)計每個Nmax值對應(yīng)的CCGAM平均聯(lián)想準(zhǔn)確率avg_rate。CCGAM在Nmax值分別取5,10,15,…,100時的平均聯(lián)想準(zhǔn)確率如圖10所示。

    Fig.10 Accuracy changes with different nodes number on CCGAM圖10 CCGAM準(zhǔn)確率隨節(jié)點數(shù)的變化曲線

    由圖10可以看出,Nmax值在0~20范圍內(nèi)時,CCGAM自聯(lián)想準(zhǔn)確率隨著Nmax值增加而提高較快;在20~50范圍內(nèi)時,CCGAM自聯(lián)想準(zhǔn)確率提高逐漸減緩;而當(dāng)Nmax值超過50時,CCGAM自聯(lián)想準(zhǔn)確率趨于穩(wěn)定。

    為了進一步比較CCGAM的性能,表2給出了3種分類算法包括SVM[17]、OBVM[13]和GAM算法的實驗結(jié)果。實驗中,CCGAM節(jié)點數(shù)固定為50,在保持實驗條件不變的情況下,統(tǒng)計另外3種算法的各項性能指標(biāo),包括節(jié)點數(shù)/支撐向量數(shù)(Ns/SVs)、訓(xùn)練時間(T)、一次增量學(xué)習(xí)時間(I)和準(zhǔn)確率(Accuracy),其中Accuracy是由式(3)計算20次實驗結(jié)果的均值。另外統(tǒng)計了準(zhǔn)確率方差,用來衡量準(zhǔn)確率的穩(wěn)定性。具體實驗結(jié)果如表2所示,加粗部分為每類結(jié)果的最優(yōu)值。

    Table 2 Performance of CCGAM and other methods in gender recognition表2 CCGAM和其他方法在性別識別實驗中性能比較

    由表2可以看出,和其他方法相比,CCGAM的網(wǎng)絡(luò)節(jié)點數(shù)、訓(xùn)練時間和增量學(xué)習(xí)時間均具有優(yōu)勢,其聯(lián)想準(zhǔn)確率稍低于SVM,但高于另外兩種方法。

    4.3煙霧檢測

    進一步選取煙霧檢測問題[23-24]作為實驗對象,評估CCGAM在實際問題上的應(yīng)用性能。煙霧特征具有很強的非線性特征,為更好地辨識煙霧與非煙霧,分類器通常需要對大量的不同場景特征數(shù)據(jù)進行學(xué)習(xí)。文獻[23-24]針對視頻煙霧檢測問題進行研究,提出了新的快速煙霧特征提取方法。此處同樣采用文獻[24]的視頻煙霧圖像特征提取方法。其中對任一分析區(qū)域塊,提取4個基本的煙霧飄動性特征量,再計算WT時間窗內(nèi)的均值和方差作為附加特征量,形成12維的煙霧特征。實驗數(shù)據(jù)集包含真實煙霧(正例)和非煙霧(反例)的特征數(shù)據(jù)共357 006個(正例221 191個,反例135 815個)。首先設(shè)置不同CCGAM節(jié)點規(guī)模上界閾值Nmax,分析其對識別性能的影響。實驗中,分別取Nmax=200,400,…,2 000,共10組,每次對數(shù)據(jù)集隨機抽取80%共285 605個特征數(shù)據(jù)作為訓(xùn)練集Di,20%作為測試集Ti,用式(2)計算聯(lián)想準(zhǔn)確率(Accuracy),并統(tǒng)計對應(yīng)的訓(xùn)練時間(T)和增量學(xué)習(xí)時間(I),實驗結(jié)果如表3所示。從表3中可知,隨著Nmax增加,CCGAM的訓(xùn)練時間T和增量學(xué)習(xí)時間I均會增加,而聯(lián)想準(zhǔn)確率當(dāng)Nmax在200~ 1 600范圍內(nèi)時會提高,超過1 600后基本保持穩(wěn)定。

    Table 3 Smoke detection performance with different Nmax表3 Nmax對煙霧檢測的性能影響

    進一步,將CCGAM節(jié)點數(shù)設(shè)為1 600,與SVM、OBVM和GAM的煙霧檢測性能進行對比。其中對4種算法的網(wǎng)絡(luò)節(jié)點數(shù)/支撐向量數(shù)(Ns/SVs)、訓(xùn)練時間(T)、增量學(xué)習(xí)時間(I)和聯(lián)想準(zhǔn)確率(Accuracy)進行了統(tǒng)計,T和I反映了算法的計算效率,實驗結(jié)果見表4,對最優(yōu)結(jié)果作加粗顯示。分析可知,和其他3種方法相比,CCGAM僅需最少的節(jié)點數(shù)和最小的訓(xùn)練時間、增量學(xué)習(xí)時間,獲得了與其他3種方法相當(dāng)?shù)穆?lián)想性能。

    Table 4 Smoke detection performance of CCGAM and other methods表4 CCGAM和其他方法的煙霧檢測性能對比

    綜合表3、表4可知,CCGAM能夠較好地適用于大規(guī)模增量樣本學(xué)習(xí),且可以根據(jù)應(yīng)用問題自身特點調(diào)整Nmax,使得模型在保持較高性能的前提下僅需較低的計算資源。綜合地,相比現(xiàn)有的支持增量學(xué)習(xí)的通用計算模型,CCGAM具有較明顯的計算效率優(yōu)勢,并保持較高的模型性能。

    5 結(jié)論與展望

    為適應(yīng)大數(shù)據(jù)學(xué)習(xí)要求,聯(lián)想記憶算法不僅要求有較高的聯(lián)想準(zhǔn)確率,而且要求有較高的計算效率。本文提出了一種容量約束的自組織增量聯(lián)想記憶模型(CCGAM),針對大規(guī)??蓪W(xué)習(xí)樣本,新模型能夠在網(wǎng)絡(luò)神經(jīng)元數(shù)量可控的方式下實現(xiàn)增量學(xué)習(xí),極大地提高了樣本模式的學(xué)習(xí)效率。CCGAM可避免GAM存儲容量過大和初值敏感問題,并能取得較高的聯(lián)想性能。實驗結(jié)果表明,將節(jié)點數(shù)控制在較小范圍后,新模型仍能得到較好的聯(lián)想準(zhǔn)確率,而其在計算效率和內(nèi)存開銷上明顯優(yōu)于GAM和其他傳統(tǒng)算法,這為聯(lián)想記憶在大數(shù)據(jù)學(xué)習(xí)背景下的應(yīng)用提供了一種新的解決方法。

    雖然如此,文中所研究的聯(lián)想記憶模型沒有涉及模式特征學(xué)習(xí)問題,而是直接基于原始模式數(shù)據(jù)或已提取的特征數(shù)據(jù)作為輸入模式,這在一定程度上限制了新模型的廣泛適用性,這也將是下一階段的重要研究方向。

    References:

    [1] Michel A N, Farrell J A. Associative memories via artificial neural networks[J]. IEEE Control Systems Magazine, 1990, 10(3): 6-17.

    [2] Haykin S. Neural networks[M]. Beijing: Tsinghua University Press, 2001.

    [3] Wu Xiaojun, Zhang Yuanyuan, Wang Shitong, et al. Improved fuzzy neural network and its application to face recognition[J]. Micronano Electronic Technology, 2007, 44(7): 465-469.

    [4] Ozturk M C, Principe J C.An associative memory readout for ESNs with applications to dynamical pattern recognition[J]. Neural Networks, 2007, 20(3): 377-390.

    [5] Itoh K, Miwa H, Takanobu H, et al. Application of neural network to humanoid robots—development of co-associative memory model[J]. Neural Networks, 2005, 18(5): 666-673.

    [6] Hopfield J J. Neural networks and physical systems with emergent collective computational abilities[J]. Proceedings of the National Academy of Sciences, 1982, 79(8): 2554-2558.

    [7] Azuela J H S. A bidirectional hetero-associative memory for true-color patterns[J]. Neural Processing Letters, 2008, 28(3): 131-153.

    [8] Zhou Zhihua, Chen Shifu. Neural network ensemble[J]. Chinese Journal of Computers, 2002, 25(1): 1-8.

    [9] Namarvar H H, Liaw J S, Berger TW.Anew dynamic synapse neural network for speech recognition[C]//Proceedings of the 2001 International Joint Conference on Neural Networks, Washington, USA, Jul 15-19, 2001. Piscataway, USA: IEEE, 2001, 4: 2985-2990.

    [10] Chung F, Lee T. On fuzzy associative memory with multiplerule storage capacity[J]. IEEE Transactions on Fuzzy Systems, 1996, 4(3): 375-384.

    [11] Carpenter G A, Grossberg S. A massively parallel architecture for a self-organizing neural pattern recognition machine[J]. Computer Vision, Graphics, and Image Processing, 1987, 37(1): 54-115.

    [12] Yu Cui, Zhang Rui, Huang Yaochun, et al. High-dimensional kNN joins with incremental updates[J]. Geoinformatica, 2010, 14(1): 55-82.

    [13] Zhao Peilin, Wang Jialei, Wu Pengcheng, et al. Fast bounded online gradient descent algorithms for scalable kernel-based online learning[J]. arXiv: 1206.4633, 2012.

    [14] Yang Haifeng, Liu Yuan, Xie Zhenping, et al. Efficiently training ball vector machine in online way[J]. Journal of Computer Research and Development, 2013, 50(9): 1836-1842.

    [15] Mininno E, Neri F, Cupertino F, et al. Compact differential evolution[J]. IEEE Transactions on Evolutionary Computation, 2011, 15(1): 32-54.

    [16] Kosko B. Bidirectional associative memories[J]. IEEE Transactions on Systems, Man and Cybernetics, 1988, 18(1): 49-60. [17] Wang Min, Wang Shitong, Wu Xiaojun. Initial results on fuzzy morphological associative memories[J]. Chinese Journal of Electronics, 2003, 31(5): 690-693.

    [18] Ritter G X, Sussner P, Diza-de-Leon J L. Morphological associative memories[J]. IEEE Transactions on Neural Networks, 1998, 9(2): 281-293.

    [19] Wilamowski B M. Neural networks and fuzzy systems[J]. Mechatronics Handbook, 2002, 33(1): 32-26.

    [20] Forster K, Monteleone S, Calatroni A, et al. Incremental kNN classifier exploiting correct-error teacher for activity recognition[C]//Proceedings of the 9th International Conference on Machine Learning and Applications, Washington, USA, Dec 12-14, 2010. Piscataway, USA: IEEE, 2010: 445-450.

    [21] Furao S, Hasegawa O. An incremental network for on-line unsupervised classification and topology learning[J]. Neural Networks, 2006, 19(1): 90-106.

    [22] Shen Furao, Ouyang Qiubao, Kasai W, et al. A general associative memory based on self-organizing incremental neural network[J]. Neurocomputing, 2013, 104: 57-71.

    [23] Wang Tao, Liu Yuan, Xie Zhenping. Flutter analysis based video smoke detection[J]. Journal of Electronics and Information Technology, 2011, 33(5): 1024-1029.

    [24] Xie Zhenping, Wang Tao, Liu Yuan, et al. A fast video smoke detection algorithm by analyzing fluttering[J]. Microelectronics and Computer, 2011, 28(10): 209-214.

    附中文參考文獻:

    [3]吳小俊,張媛媛,王士同,等.改進的模糊神經(jīng)網(wǎng)絡(luò)及其在人臉識別中的應(yīng)用[J].微納電子技術(shù), 2007, 44(7): 465-469.

    [8]周志華,陳世福.神經(jīng)網(wǎng)絡(luò)集成[J].計算機學(xué)報, 2002, 25(1): 1-8.

    [14]楊海峰,劉淵,謝振平,等.球向量機的快速在線學(xué)習(xí)[J].計算機研究與發(fā)展, 2013, 50(9): 1836-1842.

    [17]王敏,王士同,吳小俊.新模糊形態(tài)學(xué)聯(lián)想記憶網(wǎng)絡(luò)的初步研究[J].電子學(xué)報, 2003, 31(5): 690-693.

    [23]王濤,劉淵,謝振平.一種基于飄動性分析的視頻煙霧檢測新方法[J].電子與信息學(xué)報, 2011, 33(5): 1024-1029.

    [24]謝振平,王濤,劉淵,等.一種飄動性分析的視頻煙霧快速檢測新算法[J].微電子學(xué)與計算機, 2011, 28(10): 209-214.

    SUN Tao was born in 1991. He is an M.S. candidate at School of Digital Media, Jiangnan University. His research interests include machine learning and computer vision.

    孫桃(1991—),男,安徽全椒人,江南大學(xué)數(shù)字媒體學(xué)院碩士研究生,主要研究領(lǐng)域為機器學(xué)習(xí),計算機視覺。

    XIE Zhenping was born in 1979. He received the Ph.D. degree in light industry information technology and engineering from Jiangnan University in 2008. Now he is an associate professor at Jiangnan University. His research interests include machine learning and cognitive computing.

    謝振平(1979—),男,江蘇常州人,2008年于江南大學(xué)輕工業(yè)信息技術(shù)與工程專業(yè)獲得博士學(xué)位,現(xiàn)為江南大學(xué)副教授,主要研究領(lǐng)域為機器學(xué)習(xí),認(rèn)知計算。

    WANG Shitong was born in 1964. He is a professor at School of Digital Media, Jiangnan University. His research interests include artificial intelligence, pattern recognition and bioinformatics.

    王士同(1964—),男,江南大學(xué)數(shù)字媒體學(xué)院教授,主要研究領(lǐng)域為人工智能,模式識別,生物信息。

    LIU Yuan was born in 1967. He is a professor at School of Digital Media, Jiangnan University. His research interests include network security and digital media.

    劉淵(1967—),男,江南大學(xué)數(shù)字媒體學(xué)院教授,主要研究領(lǐng)域為網(wǎng)絡(luò)安全,數(shù)字媒體。

    Self-Organizing Incremental Associative Memory Model under Capacity Constraint*

    SUN Tao, XIE Zhenping+, WANG Shitong, LIU Yuan
    School of Digital Media, Jiangnan University, Wuxi, Jiangsu 214122, China
    + Corresponding author: E-mail: xiezhenping@hotmail.com

    SUN Tao, XIE Zhenping, WANG Shitong, et al. Self-organizing incremental associative memory model under capacity constraint. Journal of Frontiers of Computer Science and Technology, 2016, 10(1):130-141.

    Abstract:Due to the advantages of self-organizing neural network like parallelism, fault freedom and self-learning, it has been widely used all over the place. However, in traditional associative memory neural networks, the number of network nodes will unlimitedly grow when they incrementally learning more and more samples, which inevitably leads to an unaffordable overhead of computation and storage. To solve this problem, this paper proposes a self-organizing incremental associative memory model under capacity constraint. By limiting the number of network nodes and introducing a self-competition strategy between network nodes, new model is capable of incrementally learning large-scale samples and can gain equivalent associative memory performance only requiring lower computing demand. The reasonability of model is proved by theoretical analysis. Moreover, the experimental results demonstrate that new model can effectively control computing consumption, improve the efficiency of incrementally learning new samples, and obtain comparative associative memory performance, which may preferably satisfy the demands of many practical applications.

    Key words:associative memory; capacity constraint; incremental learning; self-organizing; neural network

    文獻標(biāo)志碼:A

    中圖分類號:TP18

    doi:10.3778/j.issn.1673-9418.1505007

    猜你喜歡
    自組織神經(jīng)網(wǎng)絡(luò)
    神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    多子群自組織聚合的PSO數(shù)據(jù)分類
    網(wǎng)絡(luò)集群自組織特性對網(wǎng)絡(luò)輿論引導(dǎo)工作的影響研究
    祖國(2016年20期)2016-12-12 18:43:26
    群體智慧與教育研究
    社區(qū)治理的自組織機理研究
    建筑設(shè)計基礎(chǔ)教育中“體”與“空間”形態(tài)的自組織
    基于系統(tǒng)自組織理念指導(dǎo)教師課堂教學(xué)
    考試周刊(2016年66期)2016-09-22 13:18:10
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
    重型機械(2016年1期)2016-03-01 03:42:04
    復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
    基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
    97在线人人人人妻| 亚洲欧美一区二区三区黑人 | 久久久久久久久久久丰满| av专区在线播放| 性高湖久久久久久久久免费观看| 日韩伦理黄色片| 黑人欧美特级aaaaaa片| a级毛色黄片| 成人综合一区亚洲| 日韩在线高清观看一区二区三区| 热99国产精品久久久久久7| 久久热精品热| 欧美日韩综合久久久久久| 99视频精品全部免费 在线| 男女免费视频国产| 国产午夜精品久久久久久一区二区三区| 亚洲欧美一区二区三区黑人 | 婷婷色麻豆天堂久久| 国产有黄有色有爽视频| 久久鲁丝午夜福利片| 国产成人一区二区在线| 蜜桃在线观看..| 少妇被粗大的猛进出69影院 | 亚洲成人一二三区av| 国产日韩欧美视频二区| 婷婷色av中文字幕| 国产成人精品一,二区| 久久久久国产网址| 亚洲色图 男人天堂 中文字幕 | 亚洲精品av麻豆狂野| 国产乱来视频区| 考比视频在线观看| 这个男人来自地球电影免费观看 | a级片在线免费高清观看视频| 日本黄大片高清| 久久久久久久久大av| a级毛片黄视频| 欧美 日韩 精品 国产| 精品一品国产午夜福利视频| 一级,二级,三级黄色视频| 五月玫瑰六月丁香| 亚洲人与动物交配视频| 国产毛片在线视频| 欧美日韩精品成人综合77777| 日韩成人av中文字幕在线观看| 麻豆精品久久久久久蜜桃| 在线观看人妻少妇| 免费观看av网站的网址| 九九久久精品国产亚洲av麻豆| 91在线精品国自产拍蜜月| 在线观看www视频免费| 在线播放无遮挡| 亚洲精品视频女| 久久久精品94久久精品| 老司机影院成人| 亚洲精品乱码久久久v下载方式| 91精品三级在线观看| 大香蕉久久成人网| 久久 成人 亚洲| 中文字幕亚洲精品专区| 精品国产一区二区三区久久久樱花| 国产一区二区在线观看av| 久久青草综合色| 国产精品久久久久久精品古装| 少妇的逼水好多| 久久久久久久久久久久大奶| 国产高清国产精品国产三级| 熟女人妻精品中文字幕| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 又黄又爽又刺激的免费视频.| 国产精品久久久久久久电影| 大片电影免费在线观看免费| 麻豆乱淫一区二区| 大香蕉久久网| 精品久久久久久电影网| 99久久精品国产国产毛片| 丝袜喷水一区| 母亲3免费完整高清在线观看 | 日韩av在线免费看完整版不卡| 国产男女内射视频| 国产视频内射| 波野结衣二区三区在线| 免费不卡的大黄色大毛片视频在线观看| 一区二区三区乱码不卡18| 极品少妇高潮喷水抽搐| 满18在线观看网站| 久久ye,这里只有精品| 日韩一区二区三区影片| 免费看光身美女| 美女主播在线视频| 精品久久久精品久久久| 国产成人精品一,二区| 两个人的视频大全免费| 美女xxoo啪啪120秒动态图| 国产无遮挡羞羞视频在线观看| 少妇的逼水好多| 国产在线视频一区二区| 精品酒店卫生间| 女性生殖器流出的白浆| 寂寞人妻少妇视频99o| 天堂中文最新版在线下载| 2022亚洲国产成人精品| 少妇人妻 视频| 久久久精品94久久精品| 久久99热这里只频精品6学生| 成人无遮挡网站| 99热全是精品| 丁香六月天网| 久久av网站| 国产有黄有色有爽视频| 精品久久国产蜜桃| 欧美 日韩 精品 国产| 国产在线免费精品| 一本—道久久a久久精品蜜桃钙片| 中文字幕精品免费在线观看视频 | 我的老师免费观看完整版| 午夜久久久在线观看| 99热全是精品| 99精国产麻豆久久婷婷| 夫妻午夜视频| 国产欧美日韩一区二区三区在线 | 久久久久网色| 国产精品99久久久久久久久| 日本vs欧美在线观看视频| av电影中文网址| 免费黄频网站在线观看国产| 久久久亚洲精品成人影院| 久久人人爽人人爽人人片va| 亚洲国产欧美日韩在线播放| 大话2 男鬼变身卡| 9色porny在线观看| 内地一区二区视频在线| 久久久久久久久久久久大奶| 国产成人免费无遮挡视频| 新久久久久国产一级毛片| 两个人的视频大全免费| 亚洲欧美日韩卡通动漫| 九色亚洲精品在线播放| 国产精品一二三区在线看| 天天影视国产精品| 男女边摸边吃奶| 综合色丁香网| 高清在线视频一区二区三区| 天天操日日干夜夜撸| 一级二级三级毛片免费看| 晚上一个人看的免费电影| 欧美最新免费一区二区三区| 国产精品国产三级国产av玫瑰| 男人爽女人下面视频在线观看| 亚洲人成网站在线观看播放| 极品人妻少妇av视频| 成年人午夜在线观看视频| 尾随美女入室| 日日撸夜夜添| 国产精品一二三区在线看| videosex国产| 狂野欧美激情性xxxx在线观看| 欧美成人精品欧美一级黄| 国产男女超爽视频在线观看| 国产视频首页在线观看| 十八禁高潮呻吟视频| 亚洲第一区二区三区不卡| 男女国产视频网站| 18禁动态无遮挡网站| 插逼视频在线观看| 国产片内射在线| 91精品国产九色| 亚洲成人av在线免费| 精品少妇黑人巨大在线播放| 七月丁香在线播放| 啦啦啦啦在线视频资源| 插逼视频在线观看| 日韩成人av中文字幕在线观看| 中文字幕免费在线视频6| 天堂中文最新版在线下载| 在线观看国产h片| 中文字幕制服av| 夜夜看夜夜爽夜夜摸| 精品一区在线观看国产| 欧美亚洲日本最大视频资源| 在线看a的网站| 天堂8中文在线网| 亚洲少妇的诱惑av| 日韩av不卡免费在线播放| 日本爱情动作片www.在线观看| 丝瓜视频免费看黄片| 国产女主播在线喷水免费视频网站| 久久久久人妻精品一区果冻| 少妇精品久久久久久久| 欧美日韩精品成人综合77777| 热99国产精品久久久久久7| 18+在线观看网站| 婷婷色综合大香蕉| 亚洲av免费高清在线观看| 午夜福利,免费看| av免费在线看不卡| 嘟嘟电影网在线观看| 你懂的网址亚洲精品在线观看| 久久午夜综合久久蜜桃| 丁香六月天网| av福利片在线| 人妻系列 视频| 国产在线免费精品| 成人黄色视频免费在线看| 欧美人与善性xxx| 国产精品久久久久久精品电影小说| 久久久久国产精品人妻一区二区| av线在线观看网站| 欧美日本中文国产一区发布| 亚洲色图 男人天堂 中文字幕 | 久久久午夜欧美精品| 亚洲av福利一区| 久久久久网色| av专区在线播放| 亚洲一区二区三区欧美精品| 国产高清国产精品国产三级| 人妻系列 视频| 精品少妇黑人巨大在线播放| 一区在线观看完整版| 天堂8中文在线网| 晚上一个人看的免费电影| 亚洲国产日韩一区二区| 亚洲天堂av无毛| 久久精品久久精品一区二区三区| 日本黄色片子视频| www.av在线官网国产| 欧美最新免费一区二区三区| 亚洲欧美一区二区三区国产| 日韩三级伦理在线观看| 丝袜脚勾引网站| 大香蕉久久网| 国产精品人妻久久久影院| 曰老女人黄片| 免费看不卡的av| 亚洲av国产av综合av卡| 欧美日韩精品成人综合77777| 搡老乐熟女国产| 久久99热这里只频精品6学生| 欧美日韩av久久| 国产色爽女视频免费观看| 色5月婷婷丁香| 免费人妻精品一区二区三区视频| 日本色播在线视频| 精品久久国产蜜桃| 下体分泌物呈黄色| 日韩精品免费视频一区二区三区 | 国产免费一区二区三区四区乱码| 亚洲精品日本国产第一区| 亚洲精华国产精华液的使用体验| 精品国产露脸久久av麻豆| 纵有疾风起免费观看全集完整版| 欧美精品一区二区免费开放| 日韩三级伦理在线观看| 97在线视频观看| 热99国产精品久久久久久7| 亚洲精品国产av蜜桃| 欧美变态另类bdsm刘玥| 99精国产麻豆久久婷婷| 国产欧美日韩综合在线一区二区| 啦啦啦在线观看免费高清www| av电影中文网址| 内地一区二区视频在线| 母亲3免费完整高清在线观看 | 日日摸夜夜添夜夜添av毛片| 亚洲精品日韩在线中文字幕| 99九九线精品视频在线观看视频| 如何舔出高潮| 国产熟女欧美一区二区| 有码 亚洲区| 欧美3d第一页| 国产免费现黄频在线看| av又黄又爽大尺度在线免费看| a 毛片基地| 亚洲在久久综合| 亚洲一级一片aⅴ在线观看| 欧美日韩国产mv在线观看视频| 国模一区二区三区四区视频| 特大巨黑吊av在线直播| www.av在线官网国产| av免费在线看不卡| 女性被躁到高潮视频| 亚洲精品久久成人aⅴ小说 | 9色porny在线观看| 久久久久久人妻| 精品国产露脸久久av麻豆| 国产国拍精品亚洲av在线观看| 久久久久国产精品人妻一区二区| 麻豆成人av视频| 国产欧美日韩综合在线一区二区| 国语对白做爰xxxⅹ性视频网站| 国产一区有黄有色的免费视频| 美女大奶头黄色视频| 啦啦啦在线观看免费高清www| 天堂俺去俺来也www色官网| 日韩,欧美,国产一区二区三区| 日韩不卡一区二区三区视频在线| 黄色毛片三级朝国网站| 视频区图区小说| 草草在线视频免费看| 免费观看无遮挡的男女| 中文字幕人妻熟人妻熟丝袜美| 欧美日韩一区二区视频在线观看视频在线| 男女高潮啪啪啪动态图| 久久久久久久国产电影| 大话2 男鬼变身卡| 欧美日韩视频高清一区二区三区二| 精品人妻一区二区三区麻豆| 久久热精品热| 一二三四中文在线观看免费高清| 欧美97在线视频| 黄片无遮挡物在线观看| 国产亚洲精品久久久com| 伦精品一区二区三区| xxx大片免费视频| 亚洲国产精品成人久久小说| 999精品在线视频| 黄色欧美视频在线观看| 国产女主播在线喷水免费视频网站| 一级毛片 在线播放| 在现免费观看毛片| 久久av网站| 国产国语露脸激情在线看| 日本av手机在线免费观看| 自线自在国产av| 亚洲精华国产精华液的使用体验| 3wmmmm亚洲av在线观看| 综合色丁香网| 亚洲成人一二三区av| 国产探花极品一区二区| 欧美bdsm另类| av不卡在线播放| 少妇的逼水好多| 欧美日韩在线观看h| 亚洲,一卡二卡三卡| 亚洲精品中文字幕在线视频| 伊人久久精品亚洲午夜| 婷婷色麻豆天堂久久| 国产男人的电影天堂91| 一本久久精品| 高清毛片免费看| 高清午夜精品一区二区三区| 女人精品久久久久毛片| 99久久综合免费| 久久精品国产a三级三级三级| 看免费成人av毛片| 国产精品偷伦视频观看了| 国产亚洲欧美精品永久| 久久久久精品性色| www.av在线官网国产| 只有这里有精品99| 国产精品三级大全| 美女福利国产在线| 日韩 亚洲 欧美在线| 人妻一区二区av| 国产男女超爽视频在线观看| 九色成人免费人妻av| 99热6这里只有精品| 国产午夜精品一二区理论片| 亚洲精品视频女| 久久国产亚洲av麻豆专区| 免费人成在线观看视频色| 日本与韩国留学比较| 午夜福利影视在线免费观看| 国产又色又爽无遮挡免| 亚洲国产av影院在线观看| 久久久久网色| 九草在线视频观看| 国产精品免费大片| 嘟嘟电影网在线观看| 欧美精品人与动牲交sv欧美| 黄色怎么调成土黄色| 国产一区有黄有色的免费视频| 国产精品成人在线| 日本欧美国产在线视频| 亚洲久久久国产精品| 天堂8中文在线网| 99re6热这里在线精品视频| 久久综合国产亚洲精品| 久久精品国产亚洲av涩爱| 午夜免费鲁丝| 国产白丝娇喘喷水9色精品| 日日爽夜夜爽网站| 久久久久久久久久人人人人人人| 国产在视频线精品| 欧美xxⅹ黑人| 下体分泌物呈黄色| 日产精品乱码卡一卡2卡三| 青春草国产在线视频| 亚洲精品,欧美精品| 韩国高清视频一区二区三区| 日韩中字成人| 国产深夜福利视频在线观看| 99久久中文字幕三级久久日本| 在线观看人妻少妇| 2018国产大陆天天弄谢| 日韩在线高清观看一区二区三区| 人人妻人人添人人爽欧美一区卜| 性高湖久久久久久久久免费观看| av电影中文网址| 天堂中文最新版在线下载| 热99国产精品久久久久久7| 成人毛片60女人毛片免费| a 毛片基地| 亚洲精品自拍成人| 国产无遮挡羞羞视频在线观看| 欧美人与性动交α欧美精品济南到 | 高清午夜精品一区二区三区| 大香蕉97超碰在线| 久久热精品热| 免费看av在线观看网站| 亚洲av成人精品一二三区| 亚洲精品一区蜜桃| 啦啦啦在线观看免费高清www| av专区在线播放| 日韩强制内射视频| 成年人免费黄色播放视频| 91久久精品国产一区二区成人| 国产成人精品在线电影| 婷婷色综合www| 人妻夜夜爽99麻豆av| 最近2019中文字幕mv第一页| 欧美精品一区二区免费开放| 久久精品国产亚洲av天美| 亚洲一级一片aⅴ在线观看| 日韩视频在线欧美| 制服人妻中文乱码| 国产精品一区二区三区四区免费观看| 日韩欧美精品免费久久| 男的添女的下面高潮视频| 久久精品国产亚洲网站| av福利片在线| 一个人免费看片子| 国产精品欧美亚洲77777| 尾随美女入室| 亚洲成人手机| 大话2 男鬼变身卡| 国产精品国产三级国产专区5o| 日本色播在线视频| 精品亚洲成a人片在线观看| 亚洲av福利一区| 赤兔流量卡办理| 18禁在线播放成人免费| 久久久国产精品麻豆| 亚洲欧美清纯卡通| 天天躁夜夜躁狠狠久久av| 国产亚洲一区二区精品| 一区二区av电影网| 精品一区二区三卡| 国产精品女同一区二区软件| 成人亚洲精品一区在线观看| 久久国内精品自在自线图片| 亚洲精品亚洲一区二区| 亚洲国产成人一精品久久久| 桃花免费在线播放| 视频在线观看一区二区三区| 国产一级毛片在线| 99热网站在线观看| 秋霞伦理黄片| 久久青草综合色| 国产永久视频网站| 婷婷色av中文字幕| 女人精品久久久久毛片| 80岁老熟妇乱子伦牲交| 人人澡人人妻人| 国产白丝娇喘喷水9色精品| 国产精品久久久久成人av| 久久久亚洲精品成人影院| 亚洲精品456在线播放app| 视频区图区小说| 免费少妇av软件| 伦理电影免费视频| 久久精品国产亚洲av涩爱| 在线观看免费高清a一片| 在线天堂最新版资源| 黄色视频在线播放观看不卡| av免费观看日本| 乱码一卡2卡4卡精品| 国产男女内射视频| 不卡视频在线观看欧美| 中文字幕精品免费在线观看视频 | 在线观看三级黄色| 久久av网站| 王馨瑶露胸无遮挡在线观看| 91久久精品电影网| 999精品在线视频| 国产成人免费观看mmmm| 久久久欧美国产精品| 日日爽夜夜爽网站| 黑丝袜美女国产一区| 精品国产国语对白av| 日韩熟女老妇一区二区性免费视频| 国产成人一区二区在线| 美女xxoo啪啪120秒动态图| 国产伦理片在线播放av一区| 亚洲精品国产色婷婷电影| 尾随美女入室| 亚洲情色 制服丝袜| 高清视频免费观看一区二区| av天堂久久9| 亚洲性久久影院| 人人澡人人妻人| 亚洲在久久综合| 热re99久久国产66热| 夜夜看夜夜爽夜夜摸| 亚洲精品日本国产第一区| 午夜日本视频在线| 啦啦啦啦在线视频资源| 又大又黄又爽视频免费| 黑人巨大精品欧美一区二区蜜桃 | 黑人高潮一二区| 在线观看一区二区三区激情| 午夜久久久在线观看| 久久久欧美国产精品| 免费大片18禁| 亚洲中文av在线| av国产久精品久网站免费入址| 九九在线视频观看精品| 成年人午夜在线观看视频| 久久免费观看电影| 人妻系列 视频| 成人手机av| 亚洲成人一二三区av| 成人国产麻豆网| av在线老鸭窝| 中文精品一卡2卡3卡4更新| 欧美变态另类bdsm刘玥| 亚洲av电影在线观看一区二区三区| 看免费成人av毛片| 国模一区二区三区四区视频| 日本黄大片高清| 一级黄片播放器| 日本与韩国留学比较| 婷婷色av中文字幕| 哪个播放器可以免费观看大片| 亚洲国产欧美日韩在线播放| 看非洲黑人一级黄片| 内地一区二区视频在线| 一本色道久久久久久精品综合| av专区在线播放| 亚洲av电影在线观看一区二区三区| 亚洲精品美女久久av网站| 卡戴珊不雅视频在线播放| 亚洲人成77777在线视频| 亚洲综合精品二区| 午夜福利网站1000一区二区三区| 下体分泌物呈黄色| 亚洲精品久久久久久婷婷小说| 丰满饥渴人妻一区二区三| 欧美日韩精品成人综合77777| 高清在线视频一区二区三区| 中文精品一卡2卡3卡4更新| 一区二区日韩欧美中文字幕 | 菩萨蛮人人尽说江南好唐韦庄| 久久久国产欧美日韩av| 啦啦啦在线观看免费高清www| 日韩欧美一区视频在线观看| 美女xxoo啪啪120秒动态图| 岛国毛片在线播放| 欧美日韩国产mv在线观看视频| 国产av精品麻豆| 国产老妇伦熟女老妇高清| 婷婷色麻豆天堂久久| 亚洲精品456在线播放app| 精品久久久久久电影网| 乱码一卡2卡4卡精品| 午夜激情久久久久久久| 国产午夜精品一二区理论片| 久久影院123| 亚洲中文av在线| 热99国产精品久久久久久7| 人成视频在线观看免费观看| 亚洲精品第二区| 久久99精品国语久久久| 日韩一区二区三区影片| 国产精品无大码| 亚洲精品国产av蜜桃| 亚洲综合色惰| 精品一区二区三卡| 搡老乐熟女国产| 日韩,欧美,国产一区二区三区| 18禁在线无遮挡免费观看视频| 肉色欧美久久久久久久蜜桃| 下体分泌物呈黄色| 日本与韩国留学比较| 久久久久久人妻| 亚洲精品乱久久久久久| 久久久精品免费免费高清| 黑人欧美特级aaaaaa片| 看十八女毛片水多多多| 精品久久久精品久久久| 欧美精品一区二区大全| 韩国高清视频一区二区三区| 久久精品久久久久久噜噜老黄| 国产亚洲av片在线观看秒播厂| 国产精品免费大片| 亚洲,欧美,日韩| 亚洲高清免费不卡视频| 三级国产精品欧美在线观看| 国产精品国产三级国产专区5o| 国产欧美日韩综合在线一区二区| 少妇精品久久久久久久| 91久久精品国产一区二区三区| 欧美激情极品国产一区二区三区 | 国产老妇伦熟女老妇高清| 视频区图区小说| 亚洲无线观看免费| 99久国产av精品国产电影| 久久精品国产自在天天线| 人妻 亚洲 视频| 精品久久久精品久久久| 国产熟女午夜一区二区三区 | 日日爽夜夜爽网站| 汤姆久久久久久久影院中文字幕| av在线老鸭窝| 美女福利国产在线|