• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    增量式神經(jīng)網(wǎng)絡(luò)聚類算法*

    2016-11-28 01:18:11劉培磊唐晉韜謝松縣
    關(guān)鍵詞:增量神經(jīng)元聚類

    劉培磊,唐晉韜,謝松縣,王 挺

    (1.國(guó)防科技大學(xué) 計(jì)算機(jī)學(xué)院, 湖南 長(zhǎng)沙 410073;2.國(guó)防信息學(xué)院 信息化建設(shè)系 信息資源管理教研室, 湖北 武漢 430010)

    ?

    增量式神經(jīng)網(wǎng)絡(luò)聚類算法*

    劉培磊1,2,唐晉韜1,謝松縣1,王 挺1

    (1.國(guó)防科技大學(xué) 計(jì)算機(jī)學(xué)院, 湖南 長(zhǎng)沙 410073;2.國(guó)防信息學(xué)院 信息化建設(shè)系 信息資源管理教研室, 湖北 武漢 430010)

    神經(jīng)網(wǎng)絡(luò)模型具有強(qiáng)大的問(wèn)題建模能力,但是傳統(tǒng)的反向傳播算法只能進(jìn)行批量監(jiān)督學(xué)習(xí),并且訓(xùn)練開(kāi)銷很大。針對(duì)傳統(tǒng)算法的不足,提出全新的增量式神經(jīng)網(wǎng)絡(luò)模型及其聚類算法。該模型基于生物神經(jīng)學(xué)實(shí)驗(yàn)證據(jù),引入新的神經(jīng)元激勵(lì)函數(shù)和突觸調(diào)節(jié)函數(shù),賦予模型以堅(jiān)實(shí)的統(tǒng)計(jì)理論基礎(chǔ)。在此基礎(chǔ)上,提出一種自適應(yīng)的增量式神經(jīng)網(wǎng)絡(luò)聚類算法。算法中引入“勝者得全”式競(jìng)爭(zhēng)等學(xué)習(xí)機(jī)制,在增量聚類過(guò)程中成功避免了“遺忘災(zāi)難”問(wèn)題。在經(jīng)典數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明:該聚類算法與K-means等傳統(tǒng)聚類算法效果相當(dāng),特別是在增量學(xué)習(xí)任務(wù)的時(shí)空開(kāi)銷方面具有較大優(yōu)勢(shì)。

    神經(jīng)網(wǎng)絡(luò);增量學(xué)習(xí);聚類算法;時(shí)間開(kāi)銷

    隨著互聯(lián)網(wǎng)和社交媒體的廣泛發(fā)展,大量無(wú)標(biāo)注的數(shù)據(jù)源源不斷地產(chǎn)生[1-2]。這些數(shù)據(jù)的海量性、無(wú)標(biāo)注性、實(shí)時(shí)性等特點(diǎn)給傳統(tǒng)的機(jī)器學(xué)習(xí)模型帶來(lái)了很大的挑戰(zhàn)[3]。傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型具有強(qiáng)大的問(wèn)題建模能力,理論上含有足夠多隱藏層神經(jīng)元的神經(jīng)網(wǎng)絡(luò)可以逼近任意函數(shù)。但是主流的學(xué)習(xí)算法如反向傳播(Back Propergating,BP)算法,使用梯度下降的方法進(jìn)行學(xué)習(xí),是批量監(jiān)督學(xué)習(xí)算法,即所有的訓(xùn)練數(shù)據(jù)必須一次性全部輸入學(xué)習(xí)模型。而模型一旦訓(xùn)練完畢,再碰到新的輸入數(shù)據(jù)時(shí),只能將新數(shù)據(jù)與舊數(shù)據(jù)并在一起重新訓(xùn)練模型。這個(gè)問(wèn)題被稱為“遺忘災(zāi)難”[4],即新學(xué)習(xí)的內(nèi)容會(huì)導(dǎo)致已經(jīng)學(xué)習(xí)的內(nèi)容被“遺忘”。 梯度下降的方法帶來(lái)的另一個(gè)問(wèn)題是訓(xùn)練的時(shí)間開(kāi)銷很大,難以在線處理海量的實(shí)時(shí)性數(shù)據(jù)[5]。近年來(lái),熱門的深度學(xué)習(xí)模型也面臨類似的計(jì)算時(shí)間開(kāi)銷問(wèn)題[6],因此訓(xùn)練規(guī)模較大的深度神經(jīng)網(wǎng)絡(luò)往往需要使用大規(guī)模并行計(jì)算集群。自適應(yīng)共振理論(Adaptive Resonance Theory,ART)模型提出了一套不錯(cuò)的應(yīng)對(duì)辦法,它可以快速地進(jìn)行無(wú)監(jiān)督聚類,并且具有增量學(xué)習(xí)的特性,在解釋人腦工作機(jī)制方面也做得比BP網(wǎng)絡(luò)更充分[4]。然而這種模型也面臨著自己的問(wèn)題,一種典型的質(zhì)疑是它的理論基礎(chǔ)不夠堅(jiān)實(shí),不完全符合統(tǒng)計(jì)學(xué)原理[7]。ART模型的神經(jīng)元激勵(lì)函數(shù)、突觸連接權(quán)重的調(diào)節(jié)方法等都是經(jīng)驗(yàn)式的,缺少嚴(yán)格的數(shù)學(xué)理論支撐。

    本文通過(guò)借鑒生物神經(jīng)網(wǎng)絡(luò)的研究成果,提出了全新的增量神經(jīng)網(wǎng)絡(luò)模型IncNet及其無(wú)監(jiān)督聚類算法。主要貢獻(xiàn)包括三方面:引入新的神經(jīng)元激勵(lì)函數(shù)和突觸連接權(quán)值調(diào)節(jié)函數(shù),并闡明這些函數(shù)背后的統(tǒng)計(jì)學(xué)意義,使得IncNet模型建立在堅(jiān)實(shí)的統(tǒng)計(jì)理論基礎(chǔ)之上,為神經(jīng)網(wǎng)絡(luò)算法的研發(fā)提供一個(gè)新的視角和一次有益嘗試。在此基礎(chǔ)上提出一種全新的神經(jīng)網(wǎng)絡(luò)無(wú)監(jiān)督學(xué)習(xí)算法。鑒于神經(jīng)網(wǎng)絡(luò)模型具有強(qiáng)大的問(wèn)題建模能力,因此神經(jīng)網(wǎng)絡(luò)上的無(wú)監(jiān)督學(xué)習(xí)算法具有重要意義。實(shí)際上,深度學(xué)習(xí)取得成功的一個(gè)重要原因就在于將“無(wú)監(jiān)督學(xué)習(xí)”引入訓(xùn)練階段。

    1 前提與假設(shè)

    模型的性能與輸入數(shù)據(jù)樣本的分布特性是息息相關(guān)的,很多模型只有針對(duì)特定分布類型的數(shù)據(jù)才能取得最好的效果。比如貝葉斯網(wǎng)絡(luò)和支持向量機(jī)等都有一個(gè)“特征獨(dú)立性”的假設(shè)?;谏飳W(xué)實(shí)驗(yàn)證據(jù),IncNet模型做出第1.1節(jié)的合理假設(shè)。

    1.1 數(shù)據(jù)分布的假設(shè)

    時(shí)空局部性假設(shè):樣本分布在時(shí)間和空間維度上具有局部性的特性。

    所謂局部性是指相似的樣本在時(shí)間段內(nèi)和空間位置上比較接近。以時(shí)間局部性為例,樣本在時(shí)間軸上不是隨機(jī)分布的,而是簇狀聚集的。對(duì)應(yīng)到現(xiàn)實(shí)中,事件往往具有突發(fā)性[8]。因此,在事件發(fā)生的特定時(shí)間段上就可以采集到大量的類似樣本,而在這個(gè)時(shí)間之前或者之后采集到的類似樣本量就很少??臻g局部性的含義與時(shí)間局部性類似。

    1.2 神經(jīng)元激勵(lì)函數(shù)

    神經(jīng)元激勵(lì)函數(shù)如式(1)所示。其中,xi是樹突輸入,wi是突觸連接的權(quán)值,f(x)是神經(jīng)元的興奮值,ci是常數(shù)。

    (1)

    神經(jīng)學(xué)文獻(xiàn)表明,一個(gè)神經(jīng)元只有在被激發(fā)的時(shí)候才會(huì)從軸突上釋放信號(hào)物質(zhì),而沒(méi)被激發(fā)的神經(jīng)元是不釋放任何信號(hào)物質(zhì)的[9]。因此IncNet模型認(rèn)為未激發(fā)的神經(jīng)元不傳遞信號(hào),而傳統(tǒng)模型認(rèn)為未激發(fā)的神經(jīng)元表示 “0”信號(hào)[10]。式(1)的統(tǒng)計(jì)意義將會(huì)在第2.1.2節(jié)進(jìn)行詳細(xì)解釋。

    1.3 突觸連接權(quán)值調(diào)節(jié)機(jī)制

    在真實(shí)的生物神經(jīng)網(wǎng)絡(luò)中,兩個(gè)神經(jīng)元之間由多個(gè)突觸連接在一起,并且新的刺激會(huì)不斷地生成新的突觸。 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型一般將這些突觸簡(jiǎn)化為單一連接,其中隱含的假設(shè)是這些突觸的總強(qiáng)度值是單個(gè)突觸的線性疊加[6]。 而來(lái)自神經(jīng)學(xué)的證據(jù)表明:連接強(qiáng)度的增長(zhǎng)率不是恒定的,而是與當(dāng)前已有連接強(qiáng)度成負(fù)相關(guān)的關(guān)系[11]。 因此IncNet模型中的突觸連接權(quán)值非線性增長(zhǎng),如式(2)所示,其中,w表示連接強(qiáng)度,si表示第i次刺激信號(hào)生成的突觸數(shù)。公式(2)的統(tǒng)計(jì)學(xué)意義將會(huì)在第2.3節(jié)解釋。

    (2)

    1.4 神經(jīng)網(wǎng)絡(luò)的自組織機(jī)制

    生物神經(jīng)網(wǎng)絡(luò)中每個(gè)神經(jīng)元只能知道自身及其直接連接的神經(jīng)元的信息,即每個(gè)神經(jīng)元知道的信息都是局部的[4]。而BP算法則要求知道整個(gè)網(wǎng)絡(luò)的全局信息,這一點(diǎn)在生物學(xué)上難以實(shí)現(xiàn)[5]。生物神經(jīng)網(wǎng)絡(luò)實(shí)際上通過(guò)眾多神經(jīng)元的自組織來(lái)構(gòu)建,其中主要的機(jī)制之一就是側(cè)向競(jìng)爭(zhēng)。生物神經(jīng)元的競(jìng)爭(zhēng)機(jī)制比較復(fù)雜,IncNet模型將側(cè)向競(jìng)爭(zhēng)簡(jiǎn)化為“勝者得全”的方式。這種編碼方式又稱為 “祖母細(xì)胞(grandmother cell)”編碼[12],即單個(gè)輸入樣本最終映射到單個(gè)神經(jīng)元,受到神經(jīng)學(xué)實(shí)驗(yàn)證據(jù)的支持。

    與“祖母細(xì)胞”編碼相對(duì)應(yīng)的是傳統(tǒng)神經(jīng)元模型使用的“集體編碼(population coding)”方式[12],即每個(gè)輸入樣本需要多個(gè)神經(jīng)元共同合作來(lái)編碼。但是,傳統(tǒng)神經(jīng)元模型面臨的一個(gè)重要問(wèn)題是“異或”問(wèn)題[13],即單層神經(jīng)網(wǎng)絡(luò)無(wú)法表示非線性函數(shù)。而IncNet模型中的單層網(wǎng)絡(luò)可以解決異或問(wèn)題,第2.1.4節(jié)將會(huì)詳細(xì)敘述。

    2 模型與算法

    基于第1節(jié)的前提與假設(shè),本節(jié)提出IncNet模型。在詳細(xì)介紹問(wèn)題抽象和模型本身的同時(shí),著重闡述模型的統(tǒng)計(jì)學(xué)意義。

    2.1 模型

    2.1.1 問(wèn)題抽象

    IncNet模型面對(duì)的問(wèn)題可以抽象為:對(duì)于任意一個(gè)輸入樣本x=(xi),如何讓某個(gè)神經(jīng)元編碼這個(gè)樣本,以便下次遇到類似輸入樣本的時(shí)候,這個(gè)神經(jīng)元會(huì)被最大限度地激發(fā)。這種編碼本質(zhì)上是神經(jīng)元通過(guò)特定的方案來(lái)加強(qiáng)樹突連接強(qiáng)度,從而“記住”這個(gè)樣本。BP神經(jīng)網(wǎng)絡(luò)是通過(guò)問(wèn)題空間的梯度下降搜索來(lái)逼近這個(gè)神經(jīng)網(wǎng)絡(luò)編碼方案的,這導(dǎo)致時(shí)間開(kāi)銷很大[5],并且找到的編碼方案很可能是局部最優(yōu)點(diǎn)而非全局最優(yōu)點(diǎn)。

    那么能否通過(guò)計(jì)算的方式直接找到這個(gè)全局最佳編碼呢?在第1節(jié)的前提與假設(shè)成立的情況下,理論上是可以通過(guò)計(jì)算直接找到這全局最優(yōu)編碼方案的??紤]最簡(jiǎn)單的樣本x=(x1,x2),其中xi是[0,1]區(qū)間的任意值?,F(xiàn)實(shí)中每個(gè)神經(jīng)元的樹突分支資源(可以形成的突出數(shù)量)是有限的,因此問(wèn)題就變?yōu)椋阂粋€(gè)神經(jīng)元怎樣將其恒定的突觸分支資源分配到x1和x2,才能使得自身輸入向量x被最大限度地激發(fā)呢?這是一個(gè)典型的資源優(yōu)化配置問(wèn)題,如果突觸連接強(qiáng)度是線性增長(zhǎng)的,那么神經(jīng)元傾向于將所有突觸分支資源都分配給數(shù)值最大的元素xi,達(dá)不到“記住”輸入模式x的目的。因此資源必須分散到每個(gè)輸入信號(hào)xi,此時(shí)式(2)應(yīng)該是一個(gè)單調(diào)增長(zhǎng)的凸函數(shù)。將式(1)、式(2)聯(lián)立,并加入樹突分支資源守恒的約束條件可以得到式(3)。問(wèn)題抽象為:求出使得f(si)取得最大值的si。很明顯最佳的si與xi應(yīng)該是正相關(guān)的。

    (3)

    這種突觸資源分配方案不同于ART等傳統(tǒng)模型,ART對(duì)單個(gè)神經(jīng)元的樹突連接強(qiáng)度做了歸一化處理,即單個(gè)神經(jīng)元的所有樹突連接強(qiáng)度的總和是一個(gè)恒定值[6]。而IncNet模型中式(2)決定了單個(gè)神經(jīng)元所有樹突連接強(qiáng)度總和不恒定,恒定的是單個(gè)神經(jīng)元樹突分支資源總和。通過(guò)這種方式,IncNet模型將神經(jīng)編碼問(wèn)題轉(zhuǎn)化為了資源優(yōu)化配置問(wèn)題。

    2.1.2 神經(jīng)元激勵(lì)函數(shù)的統(tǒng)計(jì)意義

    假設(shè)一個(gè)物體有許多特征,并且某一時(shí)刻只有其中的n個(gè)特征是可見(jiàn)的,那么在此條件下可以正確認(rèn)定這個(gè)物體的概率是多少呢?可以計(jì)算出這個(gè)概率是:

    P(O)=P(O1+O2+…+Ox)=1-P(O1O2…On)= 1-P(O1)P(O2)…

    其中,O和Ai分別表示物體及物體的一個(gè)特征發(fā)生這個(gè)隨機(jī)事件。這個(gè)式子可以進(jìn)一步簡(jiǎn)化為式(4),其中xi=lgP(Oi)。

    (4)

    對(duì)照式(1)中的神經(jīng)元激勵(lì)函數(shù)可以看出:神經(jīng)元和樹突的信號(hào)量分別對(duì)應(yīng)概率P(O)和P(Oi)。即神經(jīng)元信號(hào)可以表示物體的發(fā)生概率,而樹突信號(hào)表示物體某個(gè)特征發(fā)生的概率,因此式(1)具有統(tǒng)計(jì)學(xué)意義。

    2.1.3 突觸連接強(qiáng)度的統(tǒng)計(jì)意義

    式(2)中的突觸連接權(quán)值變化曲線同樣具有統(tǒng)計(jì)意義。根據(jù)樣本分布的時(shí)空局部性假設(shè),樣本在時(shí)間分布上具有時(shí)間局部性的特點(diǎn)。假設(shè)一個(gè)信號(hào)出現(xiàn)一次時(shí)對(duì)應(yīng)的特征具有某個(gè)置信度c,當(dāng)這個(gè)信號(hào)多次重復(fù)出現(xiàn)的時(shí)候,特征信號(hào)的置信度c也會(huì)增高。具體來(lái)說(shuō),假設(shè)一個(gè)信號(hào)到目前為止出現(xiàn)了m次,那么與式(4)的推理過(guò)程類似,可以得到相應(yīng)特征的置信度為:

    w=c3(1-e-c4m)

    (5)

    對(duì)照式(2)、式(5)可知,突觸連接的強(qiáng)度對(duì)應(yīng)物體某一特征的置信度,這個(gè)置信度隨著刺激信號(hào)的重復(fù)出現(xiàn)而持續(xù)地非線性增長(zhǎng)。

    2.1.4 側(cè)向競(jìng)爭(zhēng)與“異或問(wèn)題”

    傳統(tǒng)的單層感知機(jī)存在“異或問(wèn)題”,即單層感知機(jī)無(wú)法表示簡(jiǎn)單的異或函數(shù),這意味著這個(gè)模型的表示能力非常有限[13]。但是在IncNet模型中,單層網(wǎng)絡(luò)就可以表示異或函數(shù),如圖1所示。實(shí)際上可以證明,單層網(wǎng)絡(luò)的IncNet模型可以表示任意布爾函數(shù)。

    (6)

    具體來(lái)說(shuō),任意邏輯表達(dá)式可以轉(zhuǎn)換成式(6)的形式,其中aj是原子公式或者其否定形式。由于輸入向量是由互斥的神經(jīng)元對(duì)構(gòu)成,如圖1所示,pi可以使用輸出層的單個(gè)神經(jīng)元來(lái)表示。只要輸出層神經(jīng)元之間是“或”或者“異或”的關(guān)系,P就可以使用單層網(wǎng)絡(luò)來(lái)表示。由于輸出層神經(jīng)元也是互斥的,這個(gè)“異或”關(guān)系很容易達(dá)成。實(shí)際上,可以認(rèn)為圖1中的神經(jīng)元y1,y2和y3分別表示異或函數(shù)真值表中的一行,所以圖1的網(wǎng)絡(luò)就可以表示“異或”函數(shù)。而異或函數(shù)真值表中輸出為0的那些行可以用抑制性神經(jīng)元(即“與非門”)來(lái)表示或者省略。

    圖1 單層網(wǎng)絡(luò)表示異或函數(shù)Fig.1 Single layer network representing “XOR” function

    從圖1中可以看出,競(jìng)爭(zhēng)導(dǎo)致IncNet的每一層神經(jīng)元向量都是稀疏的[14]。單個(gè)神經(jīng)元僅能表示邏輯函數(shù)真值表中的一行,而傳統(tǒng)模型中單個(gè)神經(jīng)元即可表示整個(gè)線性邏輯函數(shù)。與傳統(tǒng)模型相比,Incnet模型表示能力更強(qiáng),而代價(jià)是需要更多數(shù)量的神經(jīng)元。從信息論的角度看,IncNet模型中的神經(jīng)元脈沖信號(hào)是單值而非二值的,即一個(gè)神經(jīng)元只能表示半比特信息,一比特信息需由兩個(gè)互斥的神經(jīng)元來(lái)表示。

    2.2聚類算法

    2.2.1 框架概述

    模型如圖1所示,形式上與單層感知機(jī)比較類似,但是IncNet模型輸入向量中的元素存在互斥性而非獨(dú)立的。并且輸出層神經(jīng)元之間存在“勝者得全”的側(cè)向競(jìng)爭(zhēng)。關(guān)鍵的不同在于IncNet模型精心選取的神經(jīng)元激勵(lì)函數(shù)和突觸連接權(quán)值調(diào)節(jié)函數(shù)使得這個(gè)神經(jīng)網(wǎng)絡(luò)模型建立在了較為嚴(yán)格的統(tǒng)計(jì)學(xué)基礎(chǔ)上。而BP網(wǎng)絡(luò)和ART網(wǎng)絡(luò)等傳統(tǒng)模型的神經(jīng)元激勵(lì)函數(shù)一般是通過(guò)經(jīng)驗(yàn)設(shè)定的,通常來(lái)說(shuō)激勵(lì)函數(shù)是一個(gè)S型的曲線即可。ART模型的突觸連接權(quán)值調(diào)節(jié)函數(shù)也是經(jīng)驗(yàn)式的,并且突觸強(qiáng)度會(huì)采取歸一化的措施。BP網(wǎng)絡(luò)則完全沒(méi)有突觸連接權(quán)值調(diào)節(jié)函數(shù),是根據(jù)誤差梯度下降的原則來(lái)“試探”得到突觸連接權(quán)值的。

    2.2.2 算法流程

    聚類算法的整體思想是:尋找與當(dāng)前樣本最相似的聚類,根據(jù)當(dāng)前樣本調(diào)整這個(gè)聚類的質(zhì)心使之變得與當(dāng)前樣本更接近。IncNet聚類算法避免了像BP算法一樣在問(wèn)題空間上進(jìn)行誤差梯度下降式搜索,所有的樣本只需要逐個(gè)進(jìn)入模型訓(xùn)練一遍即可,因此理論上訓(xùn)練速度會(huì)非???。聚類算法的具體過(guò)程如圖2所示。每個(gè)神經(jīng)元表示一個(gè)聚類,輸入樣本依次進(jìn)入IncNet網(wǎng)絡(luò)模型進(jìn)行檢索,根據(jù)匹配的相似度和一個(gè)閾值參數(shù)共同決定是否新建一個(gè)新的神經(jīng)元或者更新現(xiàn)有的神經(jīng)元。這個(gè)閾值參數(shù)實(shí)際上控制著聚類的粒度和聚類的數(shù)量。

    圖2 聚類算法流程圖Fig.2 Process of clustering algorithm

    根據(jù)式(2)可知,在聚類過(guò)程中突觸連接強(qiáng)度是單調(diào)增長(zhǎng)的,所以新學(xué)習(xí)的知識(shí)不會(huì)導(dǎo)致已經(jīng)學(xué)習(xí)的舊知識(shí)的遺忘,從而避免了BP算法中存在的“遺忘災(zāi)難”問(wèn)題[4]。ART模型對(duì)連接強(qiáng)度進(jìn)行了歸一化處理,因此它的突觸連接強(qiáng)度不是單調(diào)增長(zhǎng)的,這導(dǎo)致ART模型只能在一定程度上調(diào)和 “遺忘災(zāi)難”的問(wèn)題而無(wú)法徹底解決該問(wèn)題。ART模型對(duì)連接強(qiáng)度進(jìn)行歸一化處理是為了避免學(xué)習(xí)過(guò)程中的“偏置”,即最先學(xué)習(xí)的知識(shí)會(huì)占據(jù)優(yōu)勢(shì)。而正如第2.1.3節(jié)所述,在時(shí)空局部性假設(shè)成立的前提下,這種“偏置”在IncNet模型中具有重要的統(tǒng)計(jì)意義。

    2.3 意義

    IncNet模型是一個(gè)純粹的產(chǎn)生式模型,并且每個(gè)神經(jīng)元只與它直接連接的神經(jīng)元之間交換信息,因此模型具有良好的可擴(kuò)展性。IncNet模型可以縱向擴(kuò)展成包含多個(gè)層次的深度網(wǎng)絡(luò),相鄰的層間可以采取類似卷積網(wǎng)絡(luò)的結(jié)構(gòu):每個(gè)神經(jīng)元只與前一層的部分神經(jīng)元連接,而不是全連接。并且IncNet模型從理論上提供了這樣一個(gè)有益的結(jié)論:對(duì)符合時(shí)空局部性假設(shè)的樣本數(shù)據(jù),存在更快速的辦法來(lái)進(jìn)行神經(jīng)網(wǎng)絡(luò)的無(wú)監(jiān)督學(xué)習(xí)。這對(duì)深度學(xué)習(xí)中無(wú)監(jiān)督預(yù)訓(xùn)練具有重要意義。傳統(tǒng)深度網(wǎng)絡(luò)中,這種預(yù)訓(xùn)練一般是通過(guò)梯度下降的方法來(lái)進(jìn)行的,因此時(shí)間復(fù)雜度很高。此外,IncNet模型在生物神經(jīng)學(xué)方面也有一定的意義。相比BP模型,IncNet模型與現(xiàn)有神經(jīng)學(xué)實(shí)驗(yàn)證據(jù)吻合度更高。并且作為一個(gè)產(chǎn)生式模型, IncNet更容易在生物學(xué)和物理學(xué)層面進(jìn)行實(shí)現(xiàn)[4]。

    3 實(shí)驗(yàn)及分析

    為了檢驗(yàn)新算法的實(shí)際效果和時(shí)空開(kāi)銷,在兩個(gè)常用的數(shù)據(jù)集上與目前主流聚類算法進(jìn)行比較。這兩個(gè)數(shù)據(jù)集原本是為批量學(xué)習(xí)任務(wù)設(shè)計(jì)的,但是通過(guò)將整個(gè)數(shù)據(jù)集分多次輸入一個(gè)學(xué)習(xí)模型也可以用來(lái)檢測(cè)增量式學(xué)習(xí)模型的性能。整個(gè)實(shí)驗(yàn)分兩部分:3.2節(jié)將每個(gè)數(shù)據(jù)集視為批量數(shù)據(jù),檢測(cè)新算法在批量學(xué)習(xí)任務(wù)中的性能。3.3節(jié)基于3.2節(jié)的實(shí)驗(yàn)結(jié)果,著重分析對(duì)比新算法與傳統(tǒng)算法在增量式任務(wù)上的表現(xiàn)。

    3.1 數(shù)據(jù)集與評(píng)價(jià)指標(biāo)

    目前IncNet模型只能處理離散型數(shù)據(jù),并且沒(méi)有對(duì)程序框架進(jìn)行時(shí)間開(kāi)銷方面的優(yōu)化。在實(shí)現(xiàn)的時(shí)候進(jìn)行了一定程度的簡(jiǎn)化,比如式(3)的最優(yōu)解與向量元素之間的約束關(guān)系相關(guān),實(shí)現(xiàn)的時(shí)候?qū)⑵浣频睾?jiǎn)化為si=cxi, 即分配的資源數(shù)量與輸入信號(hào)強(qiáng)度成正比例關(guān)系。另外,IncNet模型是通過(guò)相似度閾值來(lái)控制聚類粒度的,而K-means等算法是通過(guò)設(shè)置聚類數(shù)量來(lái)控制聚類粒度的。實(shí)驗(yàn)中的做法是:先將IncNet的聚類數(shù)調(diào)節(jié)到一個(gè)適中數(shù)值,然后其他所有算法都將聚類數(shù)調(diào)整到同一數(shù)量進(jìn)行比較。

    Weka是著名機(jī)器學(xué)習(xí)平臺(tái)[15],實(shí)驗(yàn)選擇了Weka平臺(tái)中的經(jīng)典聚類算法K-means和期望最大化(Expectation Maximization, EM)作為比較對(duì)象,使用的數(shù)據(jù)集是來(lái)自Weka中的vote和breast-cancer兩個(gè)數(shù)據(jù)集。實(shí)驗(yàn)使用精度作為評(píng)價(jià)指標(biāo)。具體地說(shuō),將標(biāo)注好的數(shù)據(jù)集的標(biāo)簽全部去掉,再使用不同聚類模型對(duì)這些數(shù)據(jù)進(jìn)行聚類。假設(shè)對(duì)于第i個(gè)聚類,其中相同標(biāo)簽數(shù)量最多的樣本有ni個(gè),而所有聚類的總數(shù)量有n個(gè),那么精度為:

    (7)

    3.2 批量學(xué)習(xí)任務(wù)實(shí)驗(yàn)結(jié)果

    3.2.1 數(shù)據(jù)集vote上的批量學(xué)習(xí)效果

    投票數(shù)據(jù)集vote來(lái)自1984年美國(guó)國(guó)會(huì)的投票記錄[16],共包含435個(gè)樣本數(shù)據(jù),每個(gè)樣本包含16個(gè)布爾類型的屬性。本實(shí)驗(yàn)中主要檢測(cè)聚類算法的批量學(xué)習(xí)性能,vote數(shù)據(jù)集一次性全部輸入每個(gè)模型進(jìn)行訓(xùn)練,實(shí)驗(yàn)結(jié)果見(jiàn)表1。

    表1 vote數(shù)據(jù)集上的結(jié)果

    可以看出,在聚類粒度相同的前提下,IncNet模型的精度和時(shí)間開(kāi)銷都介于K-means與EM之間。這個(gè)結(jié)論在聚類數(shù)分別為8和5時(shí)都是成立的,稍有不同的是較小的聚類數(shù)會(huì)導(dǎo)致時(shí)間開(kāi)銷的降低。

    3.2.2 數(shù)據(jù)集breast-cancer上的批量學(xué)習(xí)效果

    乳腺癌數(shù)據(jù)集breast-cancer 于1988年發(fā)布,來(lái)自南斯拉夫的醫(yī)學(xué)中心大學(xué)腫瘤學(xué)院[17],共包含286個(gè)樣本,每個(gè)樣本包含9個(gè)枚舉類型的屬性。作為批量學(xué)習(xí)任務(wù),breast-cancer數(shù)據(jù)集一次性全部輸入每個(gè)模型進(jìn)行訓(xùn)練,實(shí)驗(yàn)結(jié)果見(jiàn)表2。

    表2 breast-cancer數(shù)據(jù)集上的結(jié)果

    可以看出這三個(gè)模型在breast-cancer數(shù)據(jù)集上的表現(xiàn)與vote數(shù)據(jù)集上的表現(xiàn)非常類似,IncNet模型的精度和時(shí)間開(kāi)銷仍然介于K-means與EM之間。在兩個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明:在批量學(xué)習(xí)任務(wù)上,IncNet模型具有與K-means、EM等常用聚類算法相當(dāng)?shù)木群蜁r(shí)間開(kāi)銷。

    3.3 增量學(xué)習(xí)任務(wù)上的效果

    增量學(xué)習(xí)與批量學(xué)習(xí)的主要區(qū)別是已經(jīng)訓(xùn)練好的模型對(duì)待新輸入數(shù)據(jù)的方式。增量學(xué)習(xí)模型直接在已有模型基礎(chǔ)上進(jìn)行學(xué)習(xí)。而批量學(xué)習(xí)模型則需要拋棄已有模型,將新數(shù)據(jù)與舊數(shù)據(jù)并在一起重新學(xué)習(xí)。將一個(gè)數(shù)據(jù)集比如vote分為多次輸入學(xué)習(xí)模型,實(shí)際上這就變?yōu)橐粋€(gè)增量學(xué)習(xí)任務(wù)了。極端情況下,vote數(shù)據(jù)集可以分435次輸入,即每次只輸入一條新的數(shù)據(jù)。

    K-means與EM是批量學(xué)習(xí)模型,因?yàn)樗鼈冃枰谝淮涡暂斎氲乃袛?shù)據(jù)上進(jìn)行反復(fù)迭代。為了檢驗(yàn)它們?cè)谠隽繉W(xué)習(xí)任務(wù)上的性能,可以通過(guò)下述方式將其改造為增量學(xué)習(xí)模型:將已經(jīng)學(xué)習(xí)過(guò)的樣本數(shù)據(jù)存儲(chǔ)起來(lái),每當(dāng)遇到新輸入的數(shù)據(jù),就將新數(shù)據(jù)與存儲(chǔ)的舊數(shù)據(jù)并在一起重新訓(xùn)練模型。在這種條件下,IncNet、K-means與EM的精度仍然如表1和表2所示。此時(shí)IncNet的時(shí)空開(kāi)銷不變,但是K-means與EM的時(shí)空開(kāi)銷發(fā)生了較大變化。具體說(shuō)來(lái),它們產(chǎn)生了額外的存儲(chǔ)n個(gè)樣本的空間開(kāi)銷。而K-means與EM模型在表1與表2中的時(shí)間開(kāi)銷就變?yōu)樗鼈儗W(xué)習(xí)最后單獨(dú)一條樣本數(shù)據(jù)時(shí)的時(shí)間開(kāi)銷,因此總的時(shí)間開(kāi)銷要比表中數(shù)值大得多。可見(jiàn),在增量學(xué)習(xí)任務(wù)上,IncNet的精度與常用聚類算法相當(dāng),但是在時(shí)間和空間開(kāi)銷上具有很大的優(yōu)勢(shì)。

    4 結(jié)論

    本文通過(guò)借鑒生物神經(jīng)學(xué)實(shí)驗(yàn)證據(jù),提出了全新的增量式神經(jīng)網(wǎng)絡(luò)模型及其聚類算法。通過(guò)引入新的神經(jīng)元激勵(lì)函數(shù)與突觸連接權(quán)值調(diào)節(jié)函數(shù),賦予神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法以嚴(yán)格的統(tǒng)計(jì)意義。嘗試將神經(jīng)網(wǎng)絡(luò)強(qiáng)大的問(wèn)題表示能力與統(tǒng)計(jì)學(xué)習(xí)理論進(jìn)行結(jié)合,為新型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的研發(fā)提供了新的視角。在此基礎(chǔ)上提出了一種快速增量無(wú)監(jiān)督聚類算法。在經(jīng)典數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,在批量學(xué)習(xí)任務(wù)中,IncNet與K-means等算法的精度和時(shí)空開(kāi)銷相當(dāng)。但是在增量式學(xué)習(xí)任務(wù)中,IncNet模型在時(shí)空開(kāi)銷方面具有較大優(yōu)勢(shì)。

    References)

    [1] Xie S X, Wang T. Construction of unsupervised sentiment classifier on idioms resources[J]. Journal of Central South University, 2014, 21(4): 1376-1384.

    [2] Wang X, Jia Y, Chen R, et al. Improving text categorization with semantic knowledge in Wikipedia[J]. IEICE Transection on Information System, 2013, 96(12): 2786-2794.

    [3] 張志, 廖瑛, 余越. BP神經(jīng)網(wǎng)絡(luò)在極移預(yù)報(bào)中的應(yīng)用[J]. 國(guó)防科技大學(xué)學(xué)報(bào), 2015, 37(2): 156-160.

    ZHANG Zhi, LIAO Ying, YU Yue. Application of BP neural network model in prediction of polar motion[J]. Journal of National University of Defense Technology, 2015, 37(2):156-160.(in Chinese)

    [4] Grossberg S. Adaptive resonance theory: how a brain learns to consciously attend, learn, and recognize a changing world[J]. Neural Networks, 2012, 37: 1-47.

    [5] Rumelhart D E, McClelland J L. Parallel distributed processing: exploration in the microstructure of cognition[M]. USA: MIT Press, 1988.

    [6] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18: 1527-1554.

    [7] Warren S S. Why statisticians should not FART [EB/OL]. (1995)[2015-09-10]. ftp://ftp.sas.com/pub/neural/fart.txt.

    [8] Liu P L, Tang J T, Wang T. Information current in Twitter: which brings hot events to the world[C]// Proceedings of 22nd International World Wide Web, 2013: 111-112.

    [9] Hodgkin A L, Huxley A F. A quantitative description of membrane current and its application to conduction and excitation in nerve[J]. Bulletin of Mathematical Biology, 1990, 52(1/2): 25-71.

    [10] 劉開(kāi)宇, 侯振挺. 一類具M(jìn)-P型非線性二元神經(jīng)網(wǎng)絡(luò)模型的周期解[J]. 國(guó)防科技大學(xué)學(xué)報(bào), 2008, 30(4): 129-132.LIU Kaiyu, HOU Zhenting. The periodic solution of a neural networks of two neurons with McCulloch-Pitts nonlinearity[J]. Journal of National University of Defense Technology, 2008, 30(4): 129-132. (in Chinese)

    [11] Bienenstock E L, Cooper L N, Munro P W. Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex[J].Journal of Neuroscience the Official, 1982, 2(1): 32-48.

    [12] Gross C G. Genealogy of the “grandmother cell”[J]. Neuroscientist, 2002, 8(5): 512-518.

    [13] Minsky S P. Perceptrons: an introduction to computational geometry[M]. UAS: MIT Press, 1972.

    [14] Olshausen B A. Sparse codes and spikes[J]. MIT Press, 2002: 257-272.

    [15] Hall M, Frank E, Holmes G, et al. The WEKA data mining software: an update[J].ACM Sigkdd Explorations Newsletter, 2009, 11(1): 10-18.

    [16] Schlimmer J C. Concept acquisition through representational adjustment[D]. USA: University of California, 1987.

    [17] Tan M, Eshelman L. Using weighted networks to represent classification knowledge in noisy domains[C]//Proceedings of the Fifth International Conference on Machine Learning, 1988: 121-134.

    Incremental clustering algorithm of neural network

    LIU Peilei1,2, TANG Jintao1, XIE Songxian1, WANG Ting1

    (1. College of Computer, National University of Defense Technology, Changsha 410073, China;2. Teaching and Research Section of Information Resource Management, Department of Information Construction,Academy of National Defense Information, Wuhan 430010, China)

    Neural network model is powerful in problem modelling. But the traditional back propagating algorithm can only execute batch supervised learning, and its time expense is very high. According to these problems, a novel incremental neural network model and the corresponding clustering algorithm were put forward. This model was supported by biological evidences, and it was built on the foundation of novel neuron’s activation function and the synapse adjusting function. Based on this, an adaptive incremental clustering algorithm was put forward, in which mechanisms such as “winner-take-all” were introduced. As a result, “catastrophic forgetting” problem was successfully solved in the incremental clustering process. Experiment results on classic datasets show that this algorithm’s performance is comparable with traditional clustering models such as K-means. Especially, its time and space expenses on incremental tasks are much lower than traditional clustering models.

    neural network; incremental learning; clustering algorithm; time expense

    10.11887/j.cn.201605021

    http://journal.nudt.edu.cn

    2015-09-28

    國(guó)家自然科學(xué)基金資助項(xiàng)目(61532001,61472436)

    劉培磊(1984—),男,江蘇連云港人,博士研究生,E-mail:plliu@nudt.edu.cn;王挺(通信作者),男,教授,博士,博士生導(dǎo)師,E-mail:tingwang@nudt.edu.cn

    TP393

    A

    1001-2486(2016)05-137-06

    猜你喜歡
    增量神經(jīng)元聚類
    提質(zhì)和增量之間的“辯證”
    《從光子到神經(jīng)元》書評(píng)
    自然雜志(2021年6期)2021-12-23 08:24:46
    “價(jià)增量減”型應(yīng)用題點(diǎn)撥
    躍動(dòng)的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
    基于DBSACN聚類算法的XML文檔聚類
    基于均衡增量近鄰查詢的位置隱私保護(hù)方法
    基于改進(jìn)的遺傳算法的模糊聚類算法
    基于二次型單神經(jīng)元PID的MPPT控制
    毫米波導(dǎo)引頭預(yù)定回路改進(jìn)單神經(jīng)元控制
    德州儀器(TI)發(fā)布了一對(duì)32位增量-累加模數(shù)轉(zhuǎn)換器(ADC):ADS1262和ADS126
    视频中文字幕在线观看| tube8黄色片| 一本久久精品| 国产一区亚洲一区在线观看| av有码第一页| 美女视频免费永久观看网站| 大片免费播放器 马上看| 美女国产视频在线观看| 你懂的网址亚洲精品在线观看| 赤兔流量卡办理| 一边摸一边做爽爽视频免费| 久久精品久久精品一区二区三区| 99香蕉大伊视频| 国产男女超爽视频在线观看| 国产亚洲精品第一综合不卡 | 日韩成人伦理影院| 蜜桃国产av成人99| 美女内射精品一级片tv| 日韩三级伦理在线观看| 纵有疾风起免费观看全集完整版| 国产免费又黄又爽又色| 国产精品一二三区在线看| 亚洲综合精品二区| 高清av免费在线| 亚洲精品久久久久久婷婷小说| 宅男免费午夜| 国产爽快片一区二区三区| 亚洲综合精品二区| 一级毛片电影观看| 中文字幕人妻熟女乱码| 满18在线观看网站| 亚洲久久久国产精品| 精品亚洲乱码少妇综合久久| 成年人午夜在线观看视频| 一级毛片电影观看| 看非洲黑人一级黄片| 狠狠婷婷综合久久久久久88av| 精品人妻在线不人妻| 婷婷成人精品国产| 亚洲,一卡二卡三卡| 国产亚洲欧美精品永久| 成人国产麻豆网| 成人毛片60女人毛片免费| 欧美老熟妇乱子伦牲交| 亚洲图色成人| 九色亚洲精品在线播放| 久久99热这里只频精品6学生| 亚洲精品乱久久久久久| 欧美日韩视频精品一区| 最近最新中文字幕大全免费视频 | 成年av动漫网址| 在现免费观看毛片| 色视频在线一区二区三区| 亚洲av.av天堂| 18在线观看网站| 成人亚洲欧美一区二区av| 男女午夜视频在线观看 | 日韩熟女老妇一区二区性免费视频| 亚洲国产毛片av蜜桃av| 丝袜在线中文字幕| 国产精品久久久久成人av| 精品第一国产精品| 伦理电影免费视频| 午夜免费鲁丝| 午夜激情久久久久久久| 哪个播放器可以免费观看大片| 国产有黄有色有爽视频| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 久久久久精品久久久久真实原创| 中国三级夫妇交换| 丝袜人妻中文字幕| 免费高清在线观看日韩| 另类亚洲欧美激情| av在线app专区| 亚洲激情五月婷婷啪啪| 久久人人97超碰香蕉20202| 人妻系列 视频| 一区二区三区乱码不卡18| av卡一久久| 精品第一国产精品| 少妇的逼好多水| 日本vs欧美在线观看视频| 国产熟女午夜一区二区三区| 1024视频免费在线观看| 日本黄大片高清| 国产av码专区亚洲av| 久久久国产精品麻豆| 中国美白少妇内射xxxbb| 亚洲国产看品久久| 日本91视频免费播放| 高清毛片免费看| 欧美亚洲日本最大视频资源| 少妇 在线观看| 国产精品一区www在线观看| 国产精品久久久久成人av| 日韩欧美精品免费久久| 久久人人爽av亚洲精品天堂| 中文精品一卡2卡3卡4更新| 国产成人免费观看mmmm| 美女国产视频在线观看| 亚洲欧美成人综合另类久久久| 大香蕉久久成人网| 亚洲一区二区三区欧美精品| 在线看a的网站| 伊人亚洲综合成人网| av.在线天堂| 免费高清在线观看日韩| 欧美日本中文国产一区发布| 国产成人一区二区在线| av视频免费观看在线观看| 日韩一区二区视频免费看| 日韩精品免费视频一区二区三区 | 丝瓜视频免费看黄片| 女的被弄到高潮叫床怎么办| 久久99热6这里只有精品| 男人爽女人下面视频在线观看| 亚洲高清免费不卡视频| 国产成人免费无遮挡视频| 人人妻人人添人人爽欧美一区卜| 校园人妻丝袜中文字幕| 制服人妻中文乱码| 男女高潮啪啪啪动态图| 黑人猛操日本美女一级片| 丰满乱子伦码专区| 日本猛色少妇xxxxx猛交久久| 各种免费的搞黄视频| 国产麻豆69| 看非洲黑人一级黄片| 日本av免费视频播放| 视频在线观看一区二区三区| 亚洲一码二码三码区别大吗| 波野结衣二区三区在线| 日韩熟女老妇一区二区性免费视频| 精品酒店卫生间| 日韩,欧美,国产一区二区三区| 免费久久久久久久精品成人欧美视频 | 两个人免费观看高清视频| 久久狼人影院| h视频一区二区三区| 80岁老熟妇乱子伦牲交| 午夜视频国产福利| 人妻 亚洲 视频| 成人午夜精彩视频在线观看| 一区二区日韩欧美中文字幕 | 精品少妇黑人巨大在线播放| 亚洲成av片中文字幕在线观看 | 成人无遮挡网站| 王馨瑶露胸无遮挡在线观看| 王馨瑶露胸无遮挡在线观看| 丝袜美足系列| 日日摸夜夜添夜夜爱| 91久久精品国产一区二区三区| www.熟女人妻精品国产 | 国产色爽女视频免费观看| 老女人水多毛片| 国产高清三级在线| 欧美97在线视频| 秋霞伦理黄片| 国产有黄有色有爽视频| 香蕉国产在线看| 91国产中文字幕| 亚洲天堂av无毛| 亚洲av成人精品一二三区| 日韩精品有码人妻一区| 久久久久精品久久久久真实原创| 日本wwww免费看| 一本—道久久a久久精品蜜桃钙片| 各种免费的搞黄视频| 一级片'在线观看视频| av一本久久久久| 免费大片18禁| av在线播放精品| 91精品伊人久久大香线蕉| 久久韩国三级中文字幕| 午夜91福利影院| 在现免费观看毛片| 午夜激情av网站| 国产无遮挡羞羞视频在线观看| 欧美亚洲日本最大视频资源| 三上悠亚av全集在线观看| 丁香六月天网| av在线老鸭窝| 午夜福利视频在线观看免费| 亚洲欧美色中文字幕在线| 久久狼人影院| 亚洲人成网站在线观看播放| 91精品三级在线观看| 国产在线视频一区二区| 老司机影院毛片| 免费高清在线观看日韩| 人体艺术视频欧美日本| 肉色欧美久久久久久久蜜桃| 边亲边吃奶的免费视频| 国产永久视频网站| 制服诱惑二区| 人人妻人人澡人人看| 免费不卡的大黄色大毛片视频在线观看| 高清av免费在线| 色视频在线一区二区三区| 王馨瑶露胸无遮挡在线观看| 国产片特级美女逼逼视频| 亚洲五月色婷婷综合| 欧美亚洲日本最大视频资源| 亚洲美女搞黄在线观看| 日日啪夜夜爽| 在线观看免费视频网站a站| 午夜免费男女啪啪视频观看| 不卡视频在线观看欧美| 色网站视频免费| 男的添女的下面高潮视频| 高清av免费在线| 精品国产国语对白av| 一级毛片我不卡| 水蜜桃什么品种好| 中文字幕免费在线视频6| 男女午夜视频在线观看 | 亚洲国产av影院在线观看| 国产精品人妻久久久影院| 中文字幕最新亚洲高清| 国产成人免费无遮挡视频| 中文字幕精品免费在线观看视频 | 欧美xxⅹ黑人| 国产精品国产三级专区第一集| 亚洲美女视频黄频| 亚洲内射少妇av| 国产精品女同一区二区软件| 成人无遮挡网站| 亚洲人与动物交配视频| 飞空精品影院首页| 国产色爽女视频免费观看| 国产毛片在线视频| 国产成人精品在线电影| 一级毛片黄色毛片免费观看视频| 国产精品 国内视频| 两性夫妻黄色片 | 国产综合精华液| 一区二区三区四区激情视频| 国产在视频线精品| 国产成人欧美| 人妻一区二区av| 中文欧美无线码| 国产成人a∨麻豆精品| 久久久国产欧美日韩av| 精品福利永久在线观看| 国产日韩一区二区三区精品不卡| 九九爱精品视频在线观看| 中文字幕人妻丝袜制服| 国国产精品蜜臀av免费| 亚洲精品成人av观看孕妇| 久久精品国产鲁丝片午夜精品| 久久这里有精品视频免费| 久久精品人人爽人人爽视色| 久久久亚洲精品成人影院| 日韩伦理黄色片| 免费av中文字幕在线| 少妇猛男粗大的猛烈进出视频| 欧美国产精品va在线观看不卡| 啦啦啦啦在线视频资源| 欧美精品高潮呻吟av久久| 免费在线观看完整版高清| 成人亚洲欧美一区二区av| 大香蕉久久成人网| 国产成人91sexporn| av一本久久久久| 精品国产国语对白av| 久久人人爽人人片av| 亚洲国产精品国产精品| 中文字幕人妻丝袜制服| 自拍欧美九色日韩亚洲蝌蚪91| 在线观看美女被高潮喷水网站| av国产久精品久网站免费入址| 亚洲欧美日韩另类电影网站| 精品亚洲成国产av| 亚洲精品美女久久av网站| 伊人亚洲综合成人网| 亚洲一级一片aⅴ在线观看| 一二三四中文在线观看免费高清| 国产精品久久久久久久久免| 赤兔流量卡办理| 成人毛片60女人毛片免费| 男人操女人黄网站| 国产一区亚洲一区在线观看| 91精品伊人久久大香线蕉| 乱人伦中国视频| 99国产精品免费福利视频| 高清黄色对白视频在线免费看| 99香蕉大伊视频| 夫妻午夜视频| 欧美日韩国产mv在线观看视频| 丰满饥渴人妻一区二区三| 在线观看一区二区三区激情| 亚洲久久久国产精品| 精品福利永久在线观看| 日韩不卡一区二区三区视频在线| 丰满乱子伦码专区| 成人无遮挡网站| 纯流量卡能插随身wifi吗| av视频免费观看在线观看| 色网站视频免费| 日本与韩国留学比较| 国产精品国产三级国产av玫瑰| 视频中文字幕在线观看| 老司机影院成人| 国产精品蜜桃在线观看| 国产精品国产av在线观看| 国产熟女欧美一区二区| 日本午夜av视频| 国产综合精华液| 51国产日韩欧美| 又黄又爽又刺激的免费视频.| 看免费成人av毛片| 亚洲一区二区三区欧美精品| 国产欧美另类精品又又久久亚洲欧美| 亚洲情色 制服丝袜| 国产老妇伦熟女老妇高清| 欧美日韩亚洲高清精品| 秋霞伦理黄片| 国产有黄有色有爽视频| 国产熟女午夜一区二区三区| 久久午夜综合久久蜜桃| 丝袜脚勾引网站| 国产日韩欧美亚洲二区| 少妇高潮的动态图| 国产黄频视频在线观看| 国产国拍精品亚洲av在线观看| 婷婷色综合www| 亚洲美女搞黄在线观看| 精品少妇黑人巨大在线播放| 亚洲精品自拍成人| 又粗又硬又长又爽又黄的视频| av卡一久久| 另类精品久久| 日韩欧美一区视频在线观看| 黑丝袜美女国产一区| 婷婷色综合大香蕉| 9色porny在线观看| 国产黄色视频一区二区在线观看| 国产亚洲av片在线观看秒播厂| 十八禁网站网址无遮挡| 婷婷色麻豆天堂久久| 国产精品欧美亚洲77777| 在现免费观看毛片| 免费黄频网站在线观看国产| 性高湖久久久久久久久免费观看| 成人手机av| 亚洲情色 制服丝袜| 免费黄色在线免费观看| 五月开心婷婷网| 桃花免费在线播放| 久久久久网色| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | av女优亚洲男人天堂| 两个人免费观看高清视频| 天天躁夜夜躁狠狠久久av| 午夜久久久在线观看| 亚洲精品第二区| 国产伦理片在线播放av一区| 秋霞伦理黄片| 看非洲黑人一级黄片| 王馨瑶露胸无遮挡在线观看| 国产成人精品一,二区| 男女啪啪激烈高潮av片| 久久99热这里只频精品6学生| 亚洲图色成人| 男的添女的下面高潮视频| √禁漫天堂资源中文www| 51国产日韩欧美| 国产精品不卡视频一区二区| 亚洲美女黄色视频免费看| 久久99热这里只频精品6学生| 三上悠亚av全集在线观看| 久久鲁丝午夜福利片| 亚洲av成人精品一二三区| 亚洲国产最新在线播放| 国产成人精品一,二区| 日韩av不卡免费在线播放| 中文字幕最新亚洲高清| 晚上一个人看的免费电影| 插逼视频在线观看| 精品久久蜜臀av无| 亚洲欧美一区二区三区国产| 亚洲,欧美精品.| 99香蕉大伊视频| 99九九在线精品视频| 久久久a久久爽久久v久久| 亚洲国产精品一区二区三区在线| 国产激情久久老熟女| 免费黄色在线免费观看| 99国产精品免费福利视频| 成人国产麻豆网| av不卡在线播放| 久久av网站| 搡女人真爽免费视频火全软件| 亚洲欧美清纯卡通| 亚洲欧美成人精品一区二区| 精品一区二区免费观看| 少妇人妻精品综合一区二区| 国产欧美亚洲国产| 亚洲综合色网址| 欧美xxxx性猛交bbbb| 99国产精品免费福利视频| 极品人妻少妇av视频| 老司机亚洲免费影院| 久久亚洲国产成人精品v| 久久久久久伊人网av| 中文乱码字字幕精品一区二区三区| 赤兔流量卡办理| 免费观看a级毛片全部| 午夜老司机福利剧场| 亚洲人成网站在线观看播放| 日韩中字成人| 99久久精品国产国产毛片| 国产又色又爽无遮挡免| 制服诱惑二区| 91精品伊人久久大香线蕉| 在线观看一区二区三区激情| 久久久亚洲精品成人影院| 日日摸夜夜添夜夜爱| 丝袜喷水一区| 免费高清在线观看视频在线观看| 黄色毛片三级朝国网站| 久久精品国产鲁丝片午夜精品| 永久网站在线| 中国国产av一级| 国产一级毛片在线| 精品国产一区二区三区久久久樱花| 777米奇影视久久| 激情视频va一区二区三区| 免费高清在线观看日韩| 九色成人免费人妻av| 亚洲精品456在线播放app| 午夜福利在线观看免费完整高清在| 啦啦啦在线观看免费高清www| 麻豆精品久久久久久蜜桃| 国产免费现黄频在线看| 国产亚洲欧美精品永久| 9热在线视频观看99| www.av在线官网国产| 有码 亚洲区| 国产欧美日韩一区二区三区在线| 日本黄大片高清| 黄色毛片三级朝国网站| 精品一区二区三卡| 午夜av观看不卡| 国产在视频线精品| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 女人被躁到高潮嗷嗷叫费观| 大话2 男鬼变身卡| 亚洲精品av麻豆狂野| 久久狼人影院| 精品国产乱码久久久久久小说| 国产片特级美女逼逼视频| 成年人免费黄色播放视频| 午夜日本视频在线| 亚洲av男天堂| 国产无遮挡羞羞视频在线观看| 日本黄大片高清| 日韩成人av中文字幕在线观看| 国产又爽黄色视频| av免费观看日本| 中文乱码字字幕精品一区二区三区| 18禁国产床啪视频网站| 亚洲精品乱久久久久久| 日韩制服丝袜自拍偷拍| 亚洲av中文av极速乱| av女优亚洲男人天堂| 免费高清在线观看日韩| 欧美日韩视频高清一区二区三区二| 久久婷婷青草| 色婷婷av一区二区三区视频| 97精品久久久久久久久久精品| av.在线天堂| 91精品伊人久久大香线蕉| 午夜免费男女啪啪视频观看| 亚洲伊人久久精品综合| 激情五月婷婷亚洲| 天天影视国产精品| 日韩不卡一区二区三区视频在线| 如何舔出高潮| 午夜av观看不卡| 国产乱来视频区| 久久久久久久久久久久大奶| www日本在线高清视频| 美女脱内裤让男人舔精品视频| 两个人看的免费小视频| 亚洲欧美成人精品一区二区| 一级片免费观看大全| 久久久久久久精品精品| 夜夜爽夜夜爽视频| 日本wwww免费看| 亚洲精品成人av观看孕妇| 你懂的网址亚洲精品在线观看| 亚洲成人手机| 欧美激情国产日韩精品一区| 黑人高潮一二区| 久久久久久久国产电影| av播播在线观看一区| 麻豆精品久久久久久蜜桃| 最新的欧美精品一区二区| 国产成人aa在线观看| 欧美最新免费一区二区三区| 人人澡人人妻人| 亚洲,欧美精品.| 亚洲内射少妇av| 精品一区二区三卡| 搡女人真爽免费视频火全软件| 蜜桃国产av成人99| 免费人妻精品一区二区三区视频| 亚洲欧美日韩另类电影网站| 91午夜精品亚洲一区二区三区| www日本在线高清视频| 国产精品久久久久久久电影| 好男人视频免费观看在线| a级片在线免费高清观看视频| 18禁裸乳无遮挡动漫免费视频| 亚洲美女搞黄在线观看| 久久精品国产自在天天线| 一边摸一边做爽爽视频免费| 伊人亚洲综合成人网| 欧美国产精品va在线观看不卡| 精品国产露脸久久av麻豆| 国产成人免费无遮挡视频| 久久久久久久久久成人| 黑人猛操日本美女一级片| 亚洲国产毛片av蜜桃av| 亚洲国产av新网站| 晚上一个人看的免费电影| 91国产中文字幕| 热re99久久精品国产66热6| 免费高清在线观看视频在线观看| 九色亚洲精品在线播放| 日本黄大片高清| 亚洲国产色片| 亚洲一码二码三码区别大吗| 国产在视频线精品| av有码第一页| 日本av手机在线免费观看| 久久亚洲国产成人精品v| 欧美少妇被猛烈插入视频| 日韩欧美一区视频在线观看| 免费人妻精品一区二区三区视频| 少妇人妻精品综合一区二区| 男女下面插进去视频免费观看 | 不卡视频在线观看欧美| 青春草亚洲视频在线观看| 男女无遮挡免费网站观看| 国产一区亚洲一区在线观看| 丁香六月天网| 亚洲国产av影院在线观看| 狠狠精品人妻久久久久久综合| 91aial.com中文字幕在线观看| 黄网站色视频无遮挡免费观看| 亚洲av中文av极速乱| 国产 精品1| 日韩av不卡免费在线播放| 国产精品久久久久久精品电影小说| 亚洲国产精品一区二区三区在线| 高清欧美精品videossex| 波野结衣二区三区在线| 一区二区三区四区激情视频| 99re6热这里在线精品视频| 欧美日韩视频高清一区二区三区二| 在线精品无人区一区二区三| 国产成人免费无遮挡视频| 久久鲁丝午夜福利片| 91精品国产国语对白视频| 黄色一级大片看看| 久久97久久精品| 久久鲁丝午夜福利片| 在线观看免费高清a一片| 90打野战视频偷拍视频| 欧美日韩国产mv在线观看视频| 99国产综合亚洲精品| 一本大道久久a久久精品| 午夜福利在线观看免费完整高清在| 亚洲av免费高清在线观看| 天天操日日干夜夜撸| 国产精品久久久久久精品电影小说| 日韩一本色道免费dvd| 秋霞在线观看毛片| 黄片无遮挡物在线观看| 国产无遮挡羞羞视频在线观看| 国产精品无大码| 啦啦啦啦在线视频资源| 国产熟女午夜一区二区三区| 亚洲国产欧美日韩在线播放| 一区在线观看完整版| 婷婷色av中文字幕| 哪个播放器可以免费观看大片| 婷婷色av中文字幕| 日本色播在线视频| 国产成人欧美| 欧美人与性动交α欧美精品济南到 | 亚洲经典国产精华液单| 婷婷色综合www| 男的添女的下面高潮视频| 性色av一级| 少妇被粗大猛烈的视频| 男人舔女人的私密视频| 少妇人妻久久综合中文| 国产色婷婷99| 一级毛片电影观看| 午夜福利,免费看| 看免费av毛片| 久久精品人人爽人人爽视色| 热re99久久国产66热| 99精国产麻豆久久婷婷| 最近手机中文字幕大全| 亚洲欧美精品自产自拍| a级毛片黄视频| 亚洲激情五月婷婷啪啪| 妹子高潮喷水视频| 欧美日韩精品成人综合77777| av线在线观看网站| 亚洲av福利一区|