• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合BERT和自編碼網(wǎng)絡(luò)的短文本聚類研究

    2022-01-25 18:54:42朱良奇黃季濤馬莉媛史志才
    關(guān)鍵詞:集上編碼器短文

    朱良奇,黃 勃,黃季濤,馬莉媛,史志才,2

    1.上海工程技術(shù)大學(xué) 電子電氣工程學(xué)院,上海 201620

    2.上海信息安全綜合管理技術(shù)重點(diǎn)實(shí)驗(yàn)室,上海 200240

    隨著互聯(lián)網(wǎng)和移動(dòng)終端的快速發(fā)展,網(wǎng)絡(luò)深入人心,越來越多的人在線上完成交易,如網(wǎng)絡(luò)購物、在線觀影以及外賣等,所以產(chǎn)生了大量的行為數(shù)據(jù),比如,購物評(píng)價(jià)、外賣評(píng)價(jià)以及影評(píng)等等,且以短文本居多。通過挖掘這些文本數(shù)據(jù)中潛在的信息,有助于企業(yè)發(fā)現(xiàn)新的商機(jī),對(duì)于政府可以及時(shí)發(fā)現(xiàn)輿情事件并做出正確疏導(dǎo)有重要意義。其次,網(wǎng)絡(luò)的發(fā)展,導(dǎo)致數(shù)據(jù)爆炸式增長,每天充斥著各種各樣的新聞報(bào)道,對(duì)于準(zhǔn)確地將各種新聞進(jìn)行分類展示,便于人們快速獲取熱點(diǎn)信息。正是上述的問題以及需求,對(duì)大量的短文本數(shù)據(jù)做出快速、準(zhǔn)確的聚類迫在眉睫。

    短文本相比于長文本包含的字符數(shù)更少,文本描述更加隨意,各個(gè)實(shí)體間的關(guān)系會(huì)更加模糊,完整的語義信息更加難以準(zhǔn)確提取。傳統(tǒng)的空間向量模型基于詞出現(xiàn)的頻率等方法進(jìn)行文本向量化[1],應(yīng)用于短文本的表示,容易出現(xiàn)高維稀疏,造成語義鴻溝,對(duì)于下游的文本聚類或者分類等任務(wù)會(huì)直接導(dǎo)致準(zhǔn)確率下降。并且傳統(tǒng)的聚類方法將特征表示和聚類分為兩個(gè)步驟分別處理,這樣容易造成聚類模型和特征不匹配,以上的兩個(gè)原因?qū)е伦罱K聚類效果不盡人意。

    針對(duì)以上短文本聚類過程出現(xiàn)的向量表征和模型匹配問題,本文提出一種BERT-AK模型,具體如下:

    (1)首先利用預(yù)訓(xùn)練模型BERT(bidirectional encoder representations from transformers)[2]的多頭注意力機(jī)制和動(dòng)態(tài)詞向量等特性獲取具體語境的短文本向量表示,實(shí)現(xiàn)從數(shù)據(jù)空間到特征空間轉(zhuǎn)換。

    (2)構(gòu)建一個(gè)降維自編碼網(wǎng)絡(luò)AutoEncoder,利用自監(jiān)督學(xué)習(xí)方法,訓(xùn)練一個(gè)特征提取器Encoder,把輸入的768維的高維向量進(jìn)一步轉(zhuǎn)換為低維稠密向量,用于下游聚類任務(wù)。

    (3)聯(lián)合訓(xùn)練聚類網(wǎng)絡(luò)。利用Maaten和Hinton[3]提出的學(xué)生分布Q擬合文獻(xiàn)[4]提出的樣本點(diǎn)的輔助目標(biāo)分布P,最后以這兩個(gè)分布的KL散度為損失函數(shù),迭代聯(lián)合訓(xùn)練編碼器Encoder和聚類模型K-Means。

    1 相關(guān)工作

    有學(xué)者利用詞袋模型BoW(bag of words)和詞頻-逆文檔頻率TF-IDF(term frequency-inverse document frequency)[1]對(duì)短文本進(jìn)行向量化表示,由于短文本本身字符數(shù)少的特性,導(dǎo)致利用上述的方法得到的文本向量高維且稀疏,利用這些文本向量進(jìn)行相似度計(jì)算的時(shí)候,往往不能準(zhǔn)確地反映樣本間真正的距離[5],會(huì)產(chǎn)生較大的誤差。Hu等[6]和Banerjee等[7]提出通過利用維基百科的相應(yīng)數(shù)據(jù)擴(kuò)充短文本數(shù)據(jù),彌補(bǔ)短文本信息不足問題,增強(qiáng)短文本的表達(dá)能力。同樣利用引入外部知識(shí),增強(qiáng)文本表達(dá)的還有Hotho等[8]和Wei等[9]提出利用本體方法論來擴(kuò)充短文本的信息表示,提高短文本的表示能力,以及Kozlowski等[10]和Zheng等[11]分別提出利用語料的主題和語義信息對(duì)短文本信息增強(qiáng),但是這些方法都需要很強(qiáng)的自然語言處理相關(guān)知識(shí)儲(chǔ)備,不同的數(shù)據(jù)源,需要不同的外部知識(shí),不具一般性,導(dǎo)致成本過高。

    近年,隨著深度學(xué)習(xí)的快速發(fā)展,詞嵌入方法[12],對(duì)于解決文本表示有很大的提升,通過在大量的語料中利用無監(jiān)督的方法訓(xùn)練詞之間的語義關(guān)系,得到的詞向量更加稠密,更能表示該詞的語義信息。本質(zhì)上也是利用外部知識(shí)增強(qiáng)當(dāng)前的文本表示方法,但是更具一般性和高效性。文獻(xiàn)[4]提出深度嵌入聚類方法,利用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)文本的特征表示和聚類目標(biāo),該方法實(shí)現(xiàn)了從數(shù)據(jù)空間到低維特征空間的映射,然后迭代優(yōu)化聚類目標(biāo)。詞向量是文本表示的基礎(chǔ),傳統(tǒng)的詞向量化的方式有詞袋模型BoW以及靜態(tài)詞向量模型Word2Vec[13]等,由于前兩種詞表征方式都是從詞頻角度出發(fā)對(duì)詞進(jìn)行向量化,對(duì)于詞匯相對(duì)少的短文本,得到的詞向量是高維稀疏的,而且難以捕捉詞之間的語義和語法聯(lián)系,不利于下游任務(wù)的使用。而Word2Vec雖然是在大規(guī)模語料上訓(xùn)練得到的詞向量,但是由于模型結(jié)構(gòu)的原因,得到的是靜態(tài)的詞向量,對(duì)于包含多義詞的文本向量表征不準(zhǔn)確。BERT[2]預(yù)訓(xùn)練模型,該模型在億級(jí)別規(guī)模的語料上無監(jiān)督訓(xùn)練,并且利用掩碼方式,同時(shí)利用上下文信息提取語義關(guān)系,實(shí)現(xiàn)根據(jù)環(huán)境動(dòng)態(tài)提取詞向量,和獲取詞之間的潛在語義關(guān)系,模型表現(xiàn)出很強(qiáng)的魯棒性,在很多自然語言處理任務(wù)中取得了最好的結(jié)果[14-16]。本文提出采用BERT初始化文本向量表示,并在下游聚類任務(wù)中設(shè)計(jì)自編碼網(wǎng)絡(luò)進(jìn)一步降維和抽取稠密特征,最后將編碼器和聚類算法聯(lián)合微調(diào)模型,以提高準(zhǔn)確度。

    2 方法

    2.1 BERT預(yù)訓(xùn)練模型

    BERT預(yù)訓(xùn)練模型是谷歌2018年提出的大型多任務(wù)語言模型[2],模型的結(jié)構(gòu)如圖1所示。為了同時(shí)捕獲詞和句子兩個(gè)目標(biāo)的特征信息表示,提出了MLM(masked language model)和NSP(next sentence prediction)任務(wù),其中,MLM通過將輸入句子中15%的詞采用以下三種策略掩蓋,具體的,該詞有10%的可能被替換為隨機(jī)詞,80%的可能被MASK字符串替換和10%的可能被保留的方式來實(shí)現(xiàn)掩碼效果,以提高模型的預(yù)測(cè)能力。NSP任務(wù)是因?yàn)樵谝恍﹩柎鹑蝿?wù)上需要兩個(gè)句子的關(guān)系,所以BERT模型通過訓(xùn)練下一個(gè)句子預(yù)測(cè)任務(wù),提高模型對(duì)于連續(xù)句子識(shí)別能力,提升在問答和推理等任務(wù)上的性能。

    輸入包括三部分,如圖1所示,分別為詞條的詞嵌入(token embedding)、片段嵌入(segment embedding)和位置編碼嵌入(position embedding)。其中詞條的嵌入包括每個(gè)詞的向量嵌入和不在詞表中的詞的字符嵌入,片段嵌入是為了當(dāng)輸入為兩個(gè)句子時(shí),用于后期訓(xùn)練該模型的NSP任務(wù)。位置編碼嵌入是由于BERT利用Self-Attention機(jī)制,實(shí)現(xiàn)了輸入句子中詞之間相對(duì)距離都是1,解決了文本長距離依賴問題,但是丟失了原本的語序信息,對(duì)每個(gè)詞加入位置信息作為位置編碼,給模型提供詞之間的相對(duì)位置,提高了文本表征中信息的完整性。

    如圖1所示,BERT的核心模塊便是Transformer塊,通過堆疊12個(gè)或24個(gè)該模塊,形成深度神經(jīng)網(wǎng)絡(luò)提取文本之間的語義信息。Transformer[17]是2017年谷歌提出的一種新的語言模型,通過引入自注意力機(jī)制Self-Attention解決了傳統(tǒng)自然語言處理問題的長程依賴問題,并且為了提高模型對(duì)于不同位置的識(shí)別能力,計(jì)算公式如式(1)所示:

    圖1 BERT結(jié)構(gòu)圖Fig.1 BERT infrastructure diagram

    其中,Q∈Rn×dk是查詢向量,可表示為Q=[q1,q2,…,qn],T,K∈Rm×dk和V∈Rm×dv分別表示為K=[k1,k2,…,kn]T和V=[v1,v2,…,vn]T。Attention將一個(gè)n×dk的序列編碼為一個(gè)n×dv的序列,為了防止計(jì)算過程中內(nèi)積很大時(shí)梯度小的問題,加入dk作為調(diào)節(jié)因子。

    為了進(jìn)一步提高模型對(duì)于不同特征的關(guān)注,從而引入多頭注意力機(jī)制,使模型可以專注于不同特征,不同注意力頭head按照公式(2)進(jìn)行拼接。相比于其他的語言模型,BERT通過引入大量的外部知識(shí)信息和從輸入的上下文同時(shí)提取詞的表示信息,最后獲得詞更加完整的表征信息。

    其中,headi的計(jì)算公式如式(3)所示,對(duì)每個(gè)headi拼接得到最終的多頭注意力輸出,作為文本向量的表征,然后輸入到前饋網(wǎng)絡(luò)進(jìn)行下一步的計(jì)算。

    2.2 自編碼網(wǎng)絡(luò)AutoEncoder

    神經(jīng)網(wǎng)絡(luò)的初始化對(duì)于模型結(jié)果至關(guān)重要,因此本文利用自編碼網(wǎng)絡(luò)實(shí)現(xiàn)對(duì)于特征提取器的參數(shù)初始化操作。自編碼網(wǎng)絡(luò)分為兩部分,由編碼器(Encoder)和解碼器(Decoder)組成,并且兩個(gè)網(wǎng)絡(luò)呈對(duì)稱結(jié)構(gòu)。編碼器和解碼器通常都是三層神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和輸出層組成,如圖2所示。其中,編碼器的輸出是解碼器的輸入,編碼器和解碼器的輸出可以分別表示為公式(4)和(5)所示,自編碼網(wǎng)絡(luò)通過編碼器提取高維特征并降維處理輸出文本特征Zi,解碼器通過對(duì)稱的網(wǎng)絡(luò)結(jié)構(gòu),對(duì)編碼器的輸入X進(jìn)行重構(gòu),得到X′,目的是利用神經(jīng)網(wǎng)絡(luò)擬合一個(gè)恒等函數(shù),提高編碼器的特征提取能力。其中重構(gòu)過程采用均方誤差作為損失函數(shù),為了防止模型過擬合,本文采用L2范數(shù)進(jìn)行正則化,提高模型在測(cè)試集的表現(xiàn)。計(jì)算公式如式(6)所示。

    圖2 自編碼網(wǎng)絡(luò)Fig.2 Self coding network

    其中,We和Wh是權(quán)重矩陣,be和bh是偏置向量,f1和f2是映射函數(shù)。

    其中,λ為懲罰因子,控制模型的復(fù)雜度。n為批量樣本個(gè)數(shù),Xi為輸入向量,Xi′為解碼器的擬合分布。W為模型的參數(shù)。

    2.3 模型搭建

    利用自編碼網(wǎng)絡(luò)初始化特征提取器Encoder,相比于隨機(jī)初始化,對(duì)于下游任務(wù)表現(xiàn)出更好的結(jié)果。本文所提出的BERT_AE_K-Means模型如圖3,利用上述訓(xùn)練好的編碼器Encoder對(duì)文本數(shù)據(jù)表示Embedding進(jìn)一步做特征降維處理,然后通過將該部分和聚類網(wǎng)絡(luò)Kmeans相結(jié)合,根據(jù)聚類結(jié)果反向調(diào)整網(wǎng)絡(luò)參數(shù)。該過程可以抽象為以下過程。

    圖3 BERT-AK模型框架結(jié)構(gòu)圖Fig.3 Frame structure of BERT-AK model

    (1)初始化K-Means聚類算法的簇心uj。由于基于劃分的K-Means聚類算法對(duì)于初始簇心的選取十分敏感,因此本文在不同的簇心下,利用K-Means進(jìn)行100次實(shí)驗(yàn)預(yù)估,計(jì)算劃分誤差最小的簇心作為初始的聚類簇心,然后計(jì)算每個(gè)樣本點(diǎn)i屬于簇j的概率qij,計(jì)算公式如式(7),得到樣本點(diǎn)的概率分布Q。

    其中,zi表示樣本點(diǎn)的特征向量,uj表示簇心向量,v是t分布的自由度,本文為取值為1。

    (2)本文中的自監(jiān)督學(xué)習(xí)的目標(biāo)分布采用Xie等[4]所提出的輔助目標(biāo)分布P,該分布相對(duì)于步驟(1)得到的樣本點(diǎn)的軟分布Q,P更近似于原數(shù)據(jù)分布[4],所以作為自訓(xùn)練階段的輔助目標(biāo)具有合理性。輔助目標(biāo)分布的計(jì)算公式如式(8)所示:

    其中,qij表示樣本i屬于簇心j的估計(jì)概率。

    (3)聯(lián)合訓(xùn)練編碼器Encoder和聚類網(wǎng)絡(luò)K-Means。由于需要度量兩個(gè)分布Q和P之間的差異,本文采用KL散度(KL-divergence)作為損失函數(shù)訓(xùn)練模型,計(jì)算公式如式(9)所示:

    其中,P是估計(jì)分布,Q是輔助目標(biāo)分布,pij是樣本屬于簇心j的近似概率,qij是樣本i屬于簇心j的估計(jì)概率值。

    3 實(shí)驗(yàn)結(jié)果及分析

    3.1 實(shí)驗(yàn)數(shù)據(jù)和步驟

    本文在4個(gè)短文本數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn):(1)Search-Snippets,該數(shù)據(jù)集來自谷歌搜索引擎,一共有12 295個(gè)短文本,包含8個(gè)不同類別[18]。(2)StackOverflow,該數(shù)據(jù)集是一些問答案例的標(biāo)題數(shù)據(jù),發(fā)布于Kaggle平臺(tái),一共有16 407個(gè)短文本,分別來自20個(gè)不同類別[19]。(3)BioMedical,該數(shù)據(jù)集發(fā)布于BioASQ官方網(wǎng)站,來自生物醫(yī)學(xué)相關(guān)領(lǐng)域,一共包含20個(gè)類別和19 448個(gè)樣本[20]。(4)Tweet,該數(shù)據(jù)集由2 472個(gè)短文本組成,包含89個(gè)類別[20]。關(guān)于數(shù)據(jù)集的詳細(xì)信息如表1所示,其中N表示每個(gè)數(shù)據(jù)集包含的類別個(gè)數(shù),T表示每個(gè)數(shù)據(jù)集包含的文本數(shù)量,L表示每一個(gè)數(shù)據(jù)集的樣本平均長度。

    表1 短文本數(shù)據(jù)集Table 1 Short text dataset

    本文實(shí)驗(yàn)中,利用BERT預(yù)訓(xùn)練模型獲取詞的上下文動(dòng)態(tài)詞向量表征,將模型[CLS]標(biāo)簽輸出的768維向量作為短文本的向量表示,該標(biāo)簽是BERT模型輸出的用于文本分類的包含全局信息的文本表示。由于當(dāng)前得到的文本向量表示維度高,直接利用聚類算法聚類,不但準(zhǔn)確率低,而且會(huì)導(dǎo)致模型的時(shí)間復(fù)雜度過高,因此本文提出利用AutoEncoder模型對(duì)上述的文本向量做特征提取和降維,自編碼網(wǎng)絡(luò)的內(nèi)部分為Encoder和Decoder部分,Encoder模塊包含輸入層,隱藏層和輸出層,神經(jīng)元個(gè)數(shù)分別是768、1 000和128,特別的,編碼器的輸出作為解碼器的輸入,Decoder模塊同樣包含三層網(wǎng)絡(luò),神經(jīng)元的個(gè)數(shù)分別是128、1 000和768,實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的向量表征V進(jìn)行重構(gòu)。訓(xùn)練過程中,設(shè)置批處理大小為64,學(xué)習(xí)率為0.001,優(yōu)化算法為隨機(jī)梯度下降算法(stochastic gradient descent,SGD)。經(jīng)過30次迭代優(yōu)化,得到特征提取器Encoder,然后利用該編碼器對(duì)輸入的文本向量V進(jìn)行降維和特征提取,然后輸入到聚類網(wǎng)絡(luò),利用聚類結(jié)果反向優(yōu)化編碼器和聚類模型的參數(shù),進(jìn)行聯(lián)合訓(xùn)練優(yōu)化。該階段模型的損失函數(shù)設(shè)置為KL散度,通過不斷優(yōu)化模型輸出的樣本估計(jì)分布Q和輔助目標(biāo)分布P之間的距離,提高編碼器對(duì)于當(dāng)前數(shù)據(jù)的特征提取能力和聚類的準(zhǔn)確度。

    3.2 對(duì)比實(shí)驗(yàn)和評(píng)價(jià)指標(biāo)

    3.2.1 對(duì)比實(shí)驗(yàn)

    本文一共設(shè)置了6組對(duì)比實(shí)驗(yàn),分別在四個(gè)短文本數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),對(duì)比模型詳細(xì)介紹如下:

    前兩組對(duì)比模型是基線模型,分別利用TF-IDF和Word2Vec獲取詞向量,然后基于詞向量對(duì)文本進(jìn)行特征表示,然后直接利用K-Means聚類算法進(jìn)行聚類。

    STC2[19]是一種基于詞嵌入和卷積神經(jīng)網(wǎng)絡(luò)的短文本聚類算法,在聚類的過程中利用卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)文本表示。

    GSDPMM[20]是一種用于短文本聚類的基于狄利克雷過程的多項(xiàng)式混合模型,該模型不需要提前指定簇的個(gè)數(shù),由于模型的設(shè)計(jì)原因,通常趨向于產(chǎn)生更多的簇。

    SIF-Auto[21]是一種利用SIF詞向量表示方法進(jìn)行文本表示,然后利用自編碼網(wǎng)絡(luò)進(jìn)行特征提取,最后進(jìn)行聚類的算法。

    BERT_K-Means和BERT_AE_K-Means兩個(gè)模型是本文提出的文本表示方法,均采用預(yù)訓(xùn)練模型BERT提取文本的語義表示,第一個(gè)模型相比第二個(gè)沒有經(jīng)過自編碼網(wǎng)絡(luò)進(jìn)行特征提取和降維,用來驗(yàn)證提取到的高階特征對(duì)下游文本聚類的重要性。

    3.2.2 評(píng)價(jià)指標(biāo)

    本文在四個(gè)數(shù)據(jù)集上進(jìn)行了多次實(shí)驗(yàn),選用聚類準(zhǔn)確率(accuracy,ACC)和標(biāo)準(zhǔn)互信息(normalized mutual information,NMI)作為模型評(píng)價(jià)指標(biāo)。聚類準(zhǔn)確率ACC的計(jì)算公式如下:

    其中,N是樣本個(gè)數(shù),Ci是模型對(duì)樣本點(diǎn)xi分配到的簇標(biāo),yi是樣本點(diǎn)xi的真實(shí)標(biāo)簽,map(Ci)用于將模型得到的簇標(biāo)映射為與yi相同的形式。δ(x,y)是判別函數(shù),定義如式(11)所示,用于判斷聚類得到的類別和真實(shí)標(biāo)簽是否相同。

    標(biāo)準(zhǔn)互信息NMI計(jì)算公式如下:

    其中,H(·)為信息熵,H(C),H(D)用于將互信息值歸一化到[0,1]范圍內(nèi)。I(C,D)定義為C和D之間的互信息值,計(jì)算公式如式(13)所示:

    當(dāng)聚類模型把數(shù)據(jù)C和D完美劃分為兩部分的時(shí)候,標(biāo)準(zhǔn)互信息值取到最大值為1。

    3.3 實(shí)驗(yàn)結(jié)果分析

    本文為了實(shí)驗(yàn)結(jié)果的可靠性,每個(gè)模型的結(jié)果都是取10次實(shí)驗(yàn)的平均值作為模型最終的結(jié)果,同時(shí),在相同的數(shù)據(jù)集上做了6組對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)的結(jié)果分別如表2和表3所示。通過K-Means、Word2Vec_K-Means和BERT_K-Means三個(gè)實(shí)驗(yàn),驗(yàn)證文本的不同向量表示對(duì)于文本聚類的重要性,從表2中可以看到3個(gè)實(shí)驗(yàn)中BERT_K-Means效果最好,相比于Word2Vec_KMeans模型在SearchSnippet數(shù)據(jù)集上準(zhǔn)確率提高了24個(gè)百分點(diǎn),而Word2Vec_K-Means模型相比于K-Means也提高了20個(gè)百分點(diǎn),從實(shí)驗(yàn)結(jié)果可以看到,在短文本上,直接利用基于詞頻的文本表示效果最差,利用大量語料進(jìn)行預(yù)訓(xùn)練可以有效地提高文本表示的能力,從而提高下游的文本聚類的效果。

    實(shí)驗(yàn)GSDPMM和STC2以及SIF-Auto是近年提出的在這4個(gè)數(shù)據(jù)集上取得不錯(cuò)結(jié)果的方法,本文將其作為部分對(duì)比實(shí)驗(yàn),驗(yàn)證本文提出的特征提取和聚類方法的有效性,從表2和表3中可以看到GSDPMM在Tweet數(shù)據(jù)集上均表現(xiàn)出了最好的結(jié)果,因?yàn)門weet數(shù)據(jù)集包含89個(gè)類別,相比其他數(shù)據(jù)集樣本數(shù)多出4倍,而GSDPMM模型趨向于產(chǎn)生更多的簇,因此在該數(shù)據(jù)上取得了最好的結(jié)果,其中ACC和NMI值均比本文提出的模型高不到1個(gè)百分點(diǎn)。本文提出的方法在其他3個(gè)數(shù)據(jù)集上均取得了最好的結(jié)果,其中ACC在StackOver-Flow數(shù)據(jù)集上比最好的對(duì)比模型SIF-Auto的結(jié)果提升3個(gè)百分點(diǎn),NMI值在BioMedical數(shù)據(jù)集上相比對(duì)比模型SIF_Auto提升2.8個(gè)百分點(diǎn)。

    表2 模型在數(shù)據(jù)集上的準(zhǔn)確率對(duì)比Table 2 Accuracy comparison of models on datasets %

    表3 模型在數(shù)據(jù)集上的標(biāo)準(zhǔn)互信息對(duì)比Table 3 Standard mutual information comparison of models on datasets %

    最后兩組實(shí)驗(yàn)BERT_K-Means和BERT_AE_KMeans進(jìn)行對(duì)比驗(yàn)證本文提出的自編碼網(wǎng)絡(luò)對(duì)于文本特征提取和降維的有效性,通過該模塊進(jìn)行特征提取和降維之后,文本的表示向量更適合下游的應(yīng)用。從表2和表3均可以看到,聚類準(zhǔn)確率在各個(gè)數(shù)據(jù)集上均有提升,并且在除了Tweet數(shù)據(jù)集外,其他3個(gè)數(shù)據(jù)集上取得了對(duì)比實(shí)驗(yàn)中最好的效果,其中NMI值在StackOverflow數(shù)據(jù)集上比BERT_K-Means提升超過4個(gè)百分點(diǎn),ACC提升6個(gè)百分點(diǎn)。說明了本文提出的對(duì)文本表示進(jìn)行特征提取和降維方法可以有效地提高文本表示能力,從而提高了聚類算法的性能。

    上述實(shí)驗(yàn)驗(yàn)證了本文所提出的文本表示和高階特征提取方法對(duì)于提高聚類準(zhǔn)確度方面的有效性,同時(shí)為了驗(yàn)證模型的計(jì)算效率,本文選取近年提出的對(duì)比實(shí)驗(yàn)STC2、SIF_Auto與本文所 提出的BERT_K-Means和BERT_AE_K-Means模型在四個(gè)數(shù)據(jù)集各一萬條樣本上進(jìn)行運(yùn)行時(shí)間測(cè)試,對(duì)比結(jié)果如圖4所示。

    圖4 各個(gè)模型運(yùn)行時(shí)間Fig.4 Running time of each model

    從圖4中可以看到,本文所提出的BERT_AE_KMeans模型在四個(gè)數(shù)據(jù)集上的運(yùn)行時(shí)間均低于BERT_K-Means,略高于STC2和SIF_Auto兩個(gè)對(duì)比實(shí)驗(yàn),這是由于BERT預(yù)訓(xùn)練模型輸出的是768維的高維特征向量,需要更多的計(jì)算時(shí)間,而相比BERT_K-Means,本文通過AutoEncoder模塊提取高階特征后,不但減少了計(jì)算量,而且聚類模型更容易收斂,所以運(yùn)行時(shí)間低于BERT_K-Means模型。因此可以看出本文所提出的模型在提高聚類準(zhǔn)確度的同時(shí),時(shí)間復(fù)雜度并沒有大幅提高。

    為了更加直觀地看到聚類結(jié)果的變化,本文在SearchSnippet數(shù)據(jù)集上將對(duì)比實(shí)驗(yàn)下的聚類結(jié)果進(jìn)行降維處理,利用python的Sklearn庫中的集成模型t-SNE將樣本數(shù)據(jù)特征降維到2維空間,可視化如圖5所示,可以直觀地看到基于詞頻統(tǒng)計(jì)的TF-IDF模型所得到的聚類效果最糟糕,沒有有效地將各個(gè)類別的數(shù)據(jù)劃分開,這是因?yàn)閷?duì)于短文本數(shù)據(jù)集,樣本數(shù)據(jù)所包含的詞匯數(shù)量少,能夠體現(xiàn)文本意思的核心詞匯不足,通過詞頻統(tǒng)計(jì)的文本向量化表征方法導(dǎo)致核心語義詞匯并不能體現(xiàn)出高的權(quán)重,因此這種基于統(tǒng)計(jì)的文本表示方式所得到的聚類效果不好。STC2模型利用卷積網(wǎng)絡(luò)提取文本信息的特征,相比于圖5(b),聚類算法直接作用于數(shù)據(jù)空間,前者提取特征之后得到的聚類效果更加明顯,各個(gè)簇的邊界曲線更加清楚。圖5(d)采用SIF進(jìn)行文本表示之后利用自編碼網(wǎng)絡(luò)提取文本的高階特征表示,有效地提高了聚類的效果。圖5(e)是本文采用預(yù)訓(xùn)練模型BERT進(jìn)行文本表示之后,直接利用K-Means進(jìn)行聚類,和圖5(b)相對(duì)比,可以明顯看出預(yù)訓(xùn)練模型BERT利用上下文環(huán)境信息動(dòng)態(tài)獲取文本表示比利用Word2Vec得到的文本表示更有利于下游的聚類,各個(gè)簇的邊界更加清晰。圖5(f)是本文提出的模型BERT_AE_K-Means聚類得到的結(jié)果,通過和圖5(e)相比,進(jìn)一步驗(yàn)證本文提出采用自編碼網(wǎng)絡(luò)對(duì)于BERT得到的文本向量提取高階特征之后,可以再次提升聚類模型的有效性,在SearchSnippet數(shù)據(jù)集上表現(xiàn)出最好的聚類效果,得到的簇的邊界更加清晰。

    圖5 在SearchSnippets數(shù)據(jù)集上聚類結(jié)果的對(duì)比圖Fig.5 Comparison of clustering results on SearchSnippets dataset

    通過以上實(shí)驗(yàn)可以發(fā)現(xiàn)文本聚類任務(wù)中,對(duì)于文本的向量化表征十分重要,本文相比于傳統(tǒng)的基于詞頻統(tǒng)計(jì)的向量表征方法和基于Word2Vec的靜態(tài)詞向量方法,充分利用大型預(yù)訓(xùn)練模型BERT提取詞之間高維空間的語義和語法等信息,對(duì)于下游的文本聚類任務(wù)效果的提升尤為重要,以及配合本文提出的特征抽取、降維和聚類微調(diào)方法,在文本聚類任務(wù)上準(zhǔn)確度有了較大的提升。本文將聚類準(zhǔn)確率和標(biāo)準(zhǔn)互信息值在各個(gè)模型的縱向?qū)Ρ冉Y(jié)果可視化如圖6和圖7所示,從圖中可以直觀地發(fā)現(xiàn),本文所提出模型獲得更高的準(zhǔn)確率。

    圖6 模型的聚類準(zhǔn)確率縱向?qū)Ρ葓DFig.6 Accuracy comparison chart of model on dataset

    圖7 模型的聚類標(biāo)準(zhǔn)互信息縱向?qū)Ρ葓DFig.7 Standard mutual information comparison chart of model on dataset

    4 結(jié)論

    本文提出了一種組合模型用來解決短文本聚類問題,通過利用預(yù)訓(xùn)練模型BERT初始化文本向量表征,將文本數(shù)據(jù)空間轉(zhuǎn)換到特征空間,提取詞之間的高維語義關(guān)系,然后將得到的文本特征向量輸入到自編碼網(wǎng)絡(luò)訓(xùn)練特征映射編碼器,通過自編碼網(wǎng)絡(luò)的自監(jiān)督學(xué)習(xí)完成編碼器Encoder的訓(xùn)練,最后將編碼器和聚類模型相結(jié)合。利用聚類網(wǎng)絡(luò)K-Means計(jì)算每個(gè)樣本點(diǎn)的估計(jì)概率分布Q和輔助目標(biāo)分布P,利用KL散度作為損失函數(shù)聯(lián)合訓(xùn)練編碼器Encoder和聚類模型。本文的模型在4個(gè)公開的數(shù)據(jù)集上,聚類準(zhǔn)確率ACC和標(biāo)準(zhǔn)互信息NMI基本都高于對(duì)比實(shí)驗(yàn)結(jié)果,在數(shù)據(jù)集SearchSnippet上,通過t-SNE方法對(duì)文本數(shù)據(jù)進(jìn)行特征降維到2維空間,進(jìn)行可視化,可以看到本文提出的模型的聚類效果更好,類之間的分割更加明確,本文的研究和提出的模型具有一定的意義。

    猜你喜歡
    集上編碼器短文
    Cookie-Cutter集上的Gibbs測(cè)度
    鏈完備偏序集上廣義向量均衡問題解映射的保序性
    KEYS
    基于FPGA的同步機(jī)軸角編碼器
    Keys
    復(fù)扇形指標(biāo)集上的分布混沌
    基于PRBS檢測(cè)的8B/IOB編碼器設(shè)計(jì)
    JESD204B接口協(xié)議中的8B10B編碼器設(shè)計(jì)
    電子器件(2015年5期)2015-12-29 08:42:24
    多總線式光電編碼器的設(shè)計(jì)與應(yīng)用
    短文改錯(cuò)
    女性生殖器流出的白浆| 成年美女黄网站色视频大全免费| 亚洲精品日韩在线中文字幕| 一级毛片电影观看| 女性被躁到高潮视频| 蜜桃国产av成人99| 国产精品人妻久久久久久| 国产免费福利视频在线观看| 午夜激情久久久久久久| 精品久久久精品久久久| 丝袜喷水一区| 永久网站在线| 久久久国产一区二区| 亚洲综合精品二区| 国产一区有黄有色的免费视频| 在线天堂中文资源库| 日本与韩国留学比较| 啦啦啦在线观看免费高清www| 在线观看美女被高潮喷水网站| 9热在线视频观看99| 国产成人精品一,二区| 波野结衣二区三区在线| 看非洲黑人一级黄片| 午夜免费鲁丝| 国产成人欧美| 久久久a久久爽久久v久久| 国产精品不卡视频一区二区| 日本黄色日本黄色录像| av福利片在线| 99九九在线精品视频| 亚洲精品国产av蜜桃| 99国产精品免费福利视频| 亚洲精品日韩在线中文字幕| 视频中文字幕在线观看| 亚洲精品国产av成人精品| 亚洲图色成人| 人人妻人人澡人人爽人人夜夜| 99香蕉大伊视频| 人人澡人人妻人| 国产乱来视频区| 赤兔流量卡办理| 精品人妻偷拍中文字幕| 搡老乐熟女国产| 水蜜桃什么品种好| 亚洲欧美成人精品一区二区| 久久久久久久久久久久大奶| www.熟女人妻精品国产 | 精品亚洲乱码少妇综合久久| 岛国毛片在线播放| 国产精品秋霞免费鲁丝片| 啦啦啦中文免费视频观看日本| 天堂俺去俺来也www色官网| 久久久欧美国产精品| 一级,二级,三级黄色视频| 少妇的逼好多水| 成年人午夜在线观看视频| 天天影视国产精品| 天天躁夜夜躁狠狠久久av| 国产国拍精品亚洲av在线观看| 午夜老司机福利剧场| 国产乱人偷精品视频| 国产精品一区二区在线观看99| 亚洲国产av影院在线观看| 免费久久久久久久精品成人欧美视频 | 久久久久视频综合| 热re99久久国产66热| 国产爽快片一区二区三区| 成人免费观看视频高清| 亚洲成国产人片在线观看| 一本大道久久a久久精品| 丁香六月天网| 精品熟女少妇av免费看| 国产精品三级大全| 99热全是精品| 国产毛片在线视频| 亚洲色图 男人天堂 中文字幕 | 男女无遮挡免费网站观看| 亚洲精品aⅴ在线观看| 欧美精品一区二区免费开放| 亚洲精品一区蜜桃| 另类精品久久| 免费不卡的大黄色大毛片视频在线观看| 菩萨蛮人人尽说江南好唐韦庄| 多毛熟女@视频| 日日爽夜夜爽网站| 咕卡用的链子| 狂野欧美激情性bbbbbb| 欧美日韩亚洲高清精品| 久久久久久久大尺度免费视频| 亚洲图色成人| 亚洲丝袜综合中文字幕| 国产高清不卡午夜福利| 母亲3免费完整高清在线观看 | 99re6热这里在线精品视频| 制服丝袜香蕉在线| 欧美bdsm另类| 男女国产视频网站| 超碰97精品在线观看| 黄色一级大片看看| 视频区图区小说| 在线观看免费高清a一片| 18禁在线无遮挡免费观看视频| 一级毛片黄色毛片免费观看视频| 五月开心婷婷网| 久久av网站| 国产精品.久久久| 日本免费在线观看一区| 亚洲精品,欧美精品| 极品人妻少妇av视频| 亚洲欧洲精品一区二区精品久久久 | 亚洲高清免费不卡视频| 欧美精品亚洲一区二区| 中文字幕免费在线视频6| 亚洲人成网站在线观看播放| 久久精品人人爽人人爽视色| 只有这里有精品99| 中文精品一卡2卡3卡4更新| 久久青草综合色| 国产一级毛片在线| 国产av码专区亚洲av| 久久久久视频综合| 蜜桃国产av成人99| 满18在线观看网站| 天美传媒精品一区二区| 少妇精品久久久久久久| 免费高清在线观看视频在线观看| 国产免费一区二区三区四区乱码| 久久狼人影院| 免费观看a级毛片全部| 精品卡一卡二卡四卡免费| 丝袜喷水一区| a级毛片在线看网站| 国产综合精华液| 免费黄网站久久成人精品| 99视频精品全部免费 在线| 国产欧美另类精品又又久久亚洲欧美| 国产精品久久久久久精品古装| 黄色配什么色好看| 少妇的逼好多水| 丰满饥渴人妻一区二区三| 精品人妻熟女毛片av久久网站| 国产 一区精品| 91精品国产国语对白视频| 精品99又大又爽又粗少妇毛片| 欧美日韩一区二区视频在线观看视频在线| 亚洲内射少妇av| 国产日韩欧美视频二区| 色网站视频免费| 亚洲综合色网址| 亚洲欧美日韩另类电影网站| 亚洲成av片中文字幕在线观看 | 国产国拍精品亚洲av在线观看| 黄网站色视频无遮挡免费观看| 欧美激情极品国产一区二区三区 | 国产av一区二区精品久久| 亚洲美女黄色视频免费看| 丝袜美足系列| 97超碰精品成人国产| 免费人妻精品一区二区三区视频| 男男h啪啪无遮挡| 国产一区有黄有色的免费视频| 国产黄色免费在线视频| 午夜老司机福利剧场| 国产av一区二区精品久久| 日本午夜av视频| 国产免费一区二区三区四区乱码| kizo精华| 最近最新中文字幕免费大全7| 久久精品夜色国产| 女性生殖器流出的白浆| 黑人猛操日本美女一级片| 成人二区视频| 性高湖久久久久久久久免费观看| 亚洲综合色网址| 妹子高潮喷水视频| 欧美日韩综合久久久久久| 久久久国产一区二区| 亚洲精品中文字幕在线视频| 国产成人精品无人区| 黑人欧美特级aaaaaa片| 免费黄频网站在线观看国产| 亚洲天堂av无毛| 亚洲综合精品二区| 久久久久国产网址| 欧美少妇被猛烈插入视频| 国产爽快片一区二区三区| 国产免费一级a男人的天堂| 亚洲情色 制服丝袜| 国产爽快片一区二区三区| 天天操日日干夜夜撸| 精品第一国产精品| 国产日韩欧美亚洲二区| 免费观看在线日韩| 一级a做视频免费观看| 蜜桃国产av成人99| 女人久久www免费人成看片| 亚洲欧洲国产日韩| 亚洲国产精品成人久久小说| 久久久久久久久久久免费av| 中文字幕最新亚洲高清| 少妇精品久久久久久久| 成人国产麻豆网| 在现免费观看毛片| 岛国毛片在线播放| 国国产精品蜜臀av免费| 高清在线视频一区二区三区| 你懂的网址亚洲精品在线观看| 天天影视国产精品| 午夜福利,免费看| 水蜜桃什么品种好| 内地一区二区视频在线| 亚洲,欧美,日韩| 日产精品乱码卡一卡2卡三| 午夜久久久在线观看| 丝袜脚勾引网站| 国产又爽黄色视频| 天堂中文最新版在线下载| 大码成人一级视频| 久久午夜综合久久蜜桃| 五月伊人婷婷丁香| 国产精品一区二区在线不卡| 曰老女人黄片| 国产淫语在线视频| 制服丝袜香蕉在线| 一级片'在线观看视频| 人妻人人澡人人爽人人| 国产黄色视频一区二区在线观看| 9色porny在线观看| 中国国产av一级| 美女内射精品一级片tv| 美女视频免费永久观看网站| av视频免费观看在线观看| 香蕉丝袜av| 美女国产视频在线观看| 免费观看无遮挡的男女| 狠狠精品人妻久久久久久综合| 在线观看一区二区三区激情| 国产色爽女视频免费观看| 亚洲久久久国产精品| 丝袜人妻中文字幕| 亚洲av成人精品一二三区| 久久久久久久久久久久大奶| 亚洲综合色网址| 午夜91福利影院| 久久久久久人妻| 考比视频在线观看| 亚洲精品中文字幕在线视频| 男女午夜视频在线观看 | 一区二区av电影网| 高清不卡的av网站| 亚洲国产欧美日韩在线播放| 精品一区二区三卡| 久久人人爽人人片av| 一级爰片在线观看| 伦精品一区二区三区| 两性夫妻黄色片 | 在线精品无人区一区二区三| 亚洲一区二区三区欧美精品| 狂野欧美激情性xxxx在线观看| 少妇人妻精品综合一区二区| 中国美白少妇内射xxxbb| 免费人妻精品一区二区三区视频| 国产成人av激情在线播放| 18禁动态无遮挡网站| 90打野战视频偷拍视频| 女人精品久久久久毛片| 亚洲四区av| 国产成人精品一,二区| 永久免费av网站大全| 男女边吃奶边做爰视频| 国产精品国产三级国产专区5o| 人妻一区二区av| 最新中文字幕久久久久| 午夜福利影视在线免费观看| 国产精品久久久av美女十八| 免费观看av网站的网址| 免费不卡的大黄色大毛片视频在线观看| 精品一区二区三区视频在线| 久久人人爽人人片av| 亚洲欧美一区二区三区国产| 精品人妻在线不人妻| 久久久亚洲精品成人影院| 亚洲内射少妇av| 亚洲国产成人一精品久久久| 久久久国产欧美日韩av| 亚洲精品美女久久av网站| 在线天堂最新版资源| 成人国产麻豆网| av天堂久久9| a级毛色黄片| 久久av网站| 少妇高潮的动态图| 亚洲一区二区三区欧美精品| 街头女战士在线观看网站| 最近最新中文字幕免费大全7| 啦啦啦在线观看免费高清www| 美女福利国产在线| 三上悠亚av全集在线观看| 国产日韩欧美在线精品| 久久亚洲国产成人精品v| 欧美日韩视频精品一区| 久久精品国产自在天天线| 一级毛片 在线播放| av一本久久久久| 丰满饥渴人妻一区二区三| 国产午夜精品一二区理论片| 免费人妻精品一区二区三区视频| 精品人妻熟女毛片av久久网站| 22中文网久久字幕| 天美传媒精品一区二区| 国产在线一区二区三区精| 日本-黄色视频高清免费观看| av片东京热男人的天堂| 午夜福利在线观看免费完整高清在| 在线看a的网站| 国产成人免费观看mmmm| 人人妻人人澡人人看| 久久99热这里只频精品6学生| 亚洲精品日本国产第一区| 亚洲精品中文字幕在线视频| 国产日韩欧美在线精品| 亚洲成色77777| 亚洲精品日韩在线中文字幕| 日韩三级伦理在线观看| 国产亚洲精品久久久com| 亚洲av福利一区| 欧美精品av麻豆av| 国产精品国产三级国产专区5o| 久久久精品免费免费高清| 国产黄频视频在线观看| 免费观看性生交大片5| 亚洲av福利一区| av电影中文网址| 亚洲人成网站在线观看播放| 哪个播放器可以免费观看大片| 亚洲精品国产av成人精品| 18+在线观看网站| 国产精品国产三级专区第一集| 国产精品久久久久久久电影| 国产精品秋霞免费鲁丝片| 91精品国产国语对白视频| 亚洲伊人色综图| 久久国产精品大桥未久av| 各种免费的搞黄视频| 美女国产高潮福利片在线看| 成人午夜精彩视频在线观看| 一级毛片我不卡| 26uuu在线亚洲综合色| 人妻人人澡人人爽人人| 热99久久久久精品小说推荐| 一区二区av电影网| 亚洲五月色婷婷综合| 久久久国产精品麻豆| 国产亚洲午夜精品一区二区久久| 蜜桃国产av成人99| 制服丝袜香蕉在线| 亚洲色图综合在线观看| 国产淫语在线视频| 26uuu在线亚洲综合色| 丝袜脚勾引网站| 女性生殖器流出的白浆| 国产精品欧美亚洲77777| 国产欧美日韩一区二区三区在线| 寂寞人妻少妇视频99o| 日韩成人av中文字幕在线观看| videos熟女内射| 1024视频免费在线观看| 黄片播放在线免费| 欧美精品高潮呻吟av久久| 免费观看在线日韩| 国产免费福利视频在线观看| 男女高潮啪啪啪动态图| 久久人人97超碰香蕉20202| 天堂中文最新版在线下载| 国产精品欧美亚洲77777| 天堂俺去俺来也www色官网| 亚洲精品久久成人aⅴ小说| 精品熟女少妇av免费看| 成人国产麻豆网| 国产1区2区3区精品| 乱码一卡2卡4卡精品| 国产白丝娇喘喷水9色精品| 久久精品国产自在天天线| 久久 成人 亚洲| 久久久精品免费免费高清| 亚洲精品久久久久久婷婷小说| 91精品国产国语对白视频| 精品一品国产午夜福利视频| 69精品国产乱码久久久| 丝袜脚勾引网站| 久久久久久久久久人人人人人人| 激情五月婷婷亚洲| 男女午夜视频在线观看 | 最后的刺客免费高清国语| 国产毛片在线视频| 在线观看三级黄色| 纯流量卡能插随身wifi吗| 男女啪啪激烈高潮av片| 国语对白做爰xxxⅹ性视频网站| 欧美人与善性xxx| 亚洲欧洲日产国产| 亚洲图色成人| av播播在线观看一区| 男人爽女人下面视频在线观看| 在线天堂中文资源库| 亚洲欧洲精品一区二区精品久久久 | 插逼视频在线观看| 亚洲精品日本国产第一区| 免费观看av网站的网址| 亚洲成人手机| 精品一品国产午夜福利视频| 99热国产这里只有精品6| 中文乱码字字幕精品一区二区三区| 国产高清三级在线| 狠狠婷婷综合久久久久久88av| 色吧在线观看| 日韩免费高清中文字幕av| 亚洲少妇的诱惑av| 肉色欧美久久久久久久蜜桃| 大片电影免费在线观看免费| 国产在视频线精品| 老熟女久久久| 边亲边吃奶的免费视频| 国产综合精华液| 亚洲欧美色中文字幕在线| 99香蕉大伊视频| 国产精品久久久久久精品古装| 国产一区二区在线观看日韩| 免费黄频网站在线观看国产| 精品久久国产蜜桃| 亚洲在久久综合| 久久青草综合色| 亚洲人成77777在线视频| 国语对白做爰xxxⅹ性视频网站| 久久99一区二区三区| 国产成人aa在线观看| 成人手机av| 亚洲美女搞黄在线观看| 亚洲精品乱久久久久久| 国产精品国产av在线观看| 日韩成人av中文字幕在线观看| videosex国产| 国产精品熟女久久久久浪| 久久久亚洲精品成人影院| 性色av一级| 99香蕉大伊视频| 涩涩av久久男人的天堂| 亚洲内射少妇av| 午夜福利,免费看| 卡戴珊不雅视频在线播放| 日本免费在线观看一区| 少妇人妻精品综合一区二区| 最黄视频免费看| 十八禁高潮呻吟视频| 爱豆传媒免费全集在线观看| 亚洲丝袜综合中文字幕| 亚洲综合色网址| 一个人免费看片子| 男人操女人黄网站| 老司机影院成人| 亚洲成av片中文字幕在线观看 | 亚洲国产日韩一区二区| 免费黄频网站在线观看国产| 女人久久www免费人成看片| 精品一区在线观看国产| 国产xxxxx性猛交| 我的女老师完整版在线观看| 内地一区二区视频在线| 免费观看a级毛片全部| 国产69精品久久久久777片| 国产精品 国内视频| 亚洲国产精品成人久久小说| 制服丝袜香蕉在线| av不卡在线播放| 一级毛片黄色毛片免费观看视频| 久久午夜福利片| 国产欧美亚洲国产| 最近中文字幕高清免费大全6| 久久精品国产亚洲av涩爱| 精品国产露脸久久av麻豆| 亚洲av成人精品一二三区| 九九爱精品视频在线观看| 91国产中文字幕| 亚洲人与动物交配视频| 日产精品乱码卡一卡2卡三| a级毛色黄片| 欧美精品一区二区免费开放| 性色av一级| 成人黄色视频免费在线看| 婷婷成人精品国产| 丝袜人妻中文字幕| 一边摸一边做爽爽视频免费| 久久免费观看电影| 在线免费观看不下载黄p国产| 蜜臀久久99精品久久宅男| 国产无遮挡羞羞视频在线观看| 波多野结衣一区麻豆| 亚洲精品国产av蜜桃| 一级,二级,三级黄色视频| 99九九在线精品视频| 女性生殖器流出的白浆| 天堂8中文在线网| 人人妻人人爽人人添夜夜欢视频| 久久综合国产亚洲精品| 国产午夜精品一二区理论片| 成人18禁高潮啪啪吃奶动态图| 午夜福利视频在线观看免费| 桃花免费在线播放| 久久久久久人妻| 国产国语露脸激情在线看| 欧美日韩亚洲高清精品| 国产极品粉嫩免费观看在线| 老熟女久久久| 爱豆传媒免费全集在线观看| 午夜福利乱码中文字幕| 狂野欧美激情性xxxx在线观看| 久热这里只有精品99| 夫妻午夜视频| 熟女av电影| 久久99热这里只频精品6学生| 亚洲国产日韩一区二区| 成人18禁高潮啪啪吃奶动态图| 久久av网站| 啦啦啦中文免费视频观看日本| 性高湖久久久久久久久免费观看| 午夜福利视频精品| 人人妻人人澡人人爽人人夜夜| 一区二区三区乱码不卡18| 国产av精品麻豆| 又黄又粗又硬又大视频| 国产av精品麻豆| 最近手机中文字幕大全| 欧美日本中文国产一区发布| 中文字幕最新亚洲高清| 宅男免费午夜| 欧美日韩视频高清一区二区三区二| 高清视频免费观看一区二区| 久久久久久久精品精品| 黄色一级大片看看| 好男人视频免费观看在线| 美女脱内裤让男人舔精品视频| 王馨瑶露胸无遮挡在线观看| 在线天堂最新版资源| 亚洲av免费高清在线观看| 亚洲精品aⅴ在线观看| 亚洲欧美一区二区三区国产| 国产极品天堂在线| 亚洲精品中文字幕在线视频| 最黄视频免费看| 久久精品国产鲁丝片午夜精品| 国产精品国产三级国产av玫瑰| 亚洲第一av免费看| 九色成人免费人妻av| 18+在线观看网站| 欧美日韩视频高清一区二区三区二| 黄色配什么色好看| 亚洲高清免费不卡视频| av.在线天堂| 美女国产高潮福利片在线看| 最新的欧美精品一区二区| 亚洲av综合色区一区| 日本vs欧美在线观看视频| 久久亚洲国产成人精品v| 一本大道久久a久久精品| 国产 一区精品| 久久国产精品男人的天堂亚洲 | 久久av网站| 99久国产av精品国产电影| 最黄视频免费看| 国产av一区二区精品久久| 99九九在线精品视频| 成人手机av| 青春草视频在线免费观看| 美女福利国产在线| 欧美亚洲 丝袜 人妻 在线| 丁香六月天网| 免费观看性生交大片5| 22中文网久久字幕| 精品人妻一区二区三区麻豆| 色视频在线一区二区三区| 天天操日日干夜夜撸| 久久精品国产亚洲av天美| 男女高潮啪啪啪动态图| 香蕉丝袜av| 久久久久久久大尺度免费视频| 免费av中文字幕在线| 色网站视频免费| 999精品在线视频| 亚洲欧洲日产国产| 精品国产露脸久久av麻豆| 亚洲精品456在线播放app| 久久久久视频综合| 少妇高潮的动态图| 日韩一区二区三区影片| 各种免费的搞黄视频| 国产成人精品福利久久| 欧美成人午夜精品| 爱豆传媒免费全集在线观看| 少妇高潮的动态图| 黄网站色视频无遮挡免费观看| 少妇的丰满在线观看| 久久久久国产网址| 久久人人爽人人片av| 777米奇影视久久| 久久女婷五月综合色啪小说| 国产精品国产三级国产专区5o| 自拍欧美九色日韩亚洲蝌蚪91| 久久久久国产网址| 欧美成人午夜精品| 国产成人精品婷婷| 久久久久久久久久人人人人人人| 欧美亚洲日本最大视频资源| 男女高潮啪啪啪动态图| 午夜福利在线观看免费完整高清在| 久久人人97超碰香蕉20202|