• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的文本分類綜述

    2021-07-27 02:59:54賈澎濤
    關(guān)鍵詞:卷積向量神經(jīng)網(wǎng)絡(luò)

    賈澎濤,孫 煒

    (西安科技大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,陜西 西安 710600)

    0 引 言

    機(jī)器學(xué)習(xí)是一門多領(lǐng)域交叉學(xué)科,涉及概率論、統(tǒng)計(jì)學(xué)、逼近論、凸分析、算法復(fù)雜度理論等多門學(xué)科,是人工智能的核心,是使計(jì)算機(jī)具有智能的根本途徑。機(jī)器學(xué)習(xí)主要應(yīng)用在計(jì)算機(jī)視覺(jué)與自然語(yǔ)言處理等方面中,其中自然語(yǔ)言處理中的文本分類是近幾年的研究熱點(diǎn)[1]。文本分類是由Lunhn等人在1957年提出。在1961年,Maron[2]發(fā)表了第一篇關(guān)于自動(dòng)文本分類的文章。文本分類是用電腦對(duì)文本集(或其他實(shí)體或物件)按照一定的分類體系或標(biāo)準(zhǔn)進(jìn)行自動(dòng)分類標(biāo)記,文本分類技術(shù)有著廣泛的應(yīng)用前景[3],它是信息過(guò)濾、信息檢索和文檔分類等領(lǐng)域的技術(shù)支持。

    近年來(lái),國(guó)內(nèi)外學(xué)者對(duì)文本分類問(wèn)題做了許多的探索和研究,主要包括傳統(tǒng)的機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法?;跈C(jī)器學(xué)習(xí)的文本分類主要包括文本表示、特征選擇和構(gòu)造分類器。文本表示的主要方法有布爾模型(Boolean Model)、概率模型(Probabilistic Model)和向量空間模型(Vector Space Model)。特征選擇的方法主要為:特征頻率、文檔頻率、信息增益、互信息、CHI統(tǒng)計(jì)、期望交叉熵、文本證據(jù)權(quán)、優(yōu)勢(shì)率、低損降維法和頻率差法等[4],其中CHI統(tǒng)計(jì)方法和信息增益法是最常用的2個(gè)特征選擇指標(biāo)。在基于機(jī)器學(xué)習(xí)的文本分類中,機(jī)器學(xué)習(xí)算法主要有樸素貝葉斯、邏輯回歸、支持向量機(jī)和K-近鄰算法,這些算法在文本分類的過(guò)程中存在一些優(yōu)缺點(diǎn)[5]。基于樸素貝葉斯的文本分類,主要優(yōu)點(diǎn)是執(zhí)行速度快、算法簡(jiǎn)單且分類精度較高,由于對(duì)特征項(xiàng)之間的獨(dú)立性假設(shè),可能會(huì)使分類效果不好?;贙NN的文本分類[6],主要優(yōu)點(diǎn)是算法穩(wěn)定、分類精度高,適用于類域的交叉或重疊較多的文本集。但當(dāng)樣本不平衡時(shí),大容量樣本占多數(shù)時(shí),可能會(huì)導(dǎo)致分類錯(cuò)誤。基于支持向量機(jī)的文本情感分類[7],主要優(yōu)點(diǎn)是參數(shù)少、速度快,對(duì)線性可分?jǐn)?shù)據(jù),其分類效果明顯,可以降低高維空間問(wèn)題的求解難度,具有較好的泛化推廣能力。但該方法需要大量的存儲(chǔ)空間,如果數(shù)據(jù)量很大,訓(xùn)練時(shí)間就會(huì)比較長(zhǎng)。

    基于機(jī)器學(xué)習(xí)的文本分類方法忽略了詞與詞之間的關(guān)系以及句子和句子間的關(guān)系,對(duì)高維數(shù)據(jù)的處理和泛化能力都比較差。在2006年,Hinton等人[8]提出的深度學(xué)習(xí)的概念,解決了以往淺層結(jié)構(gòu)算法對(duì)復(fù)雜函數(shù)的表示能力有限等問(wèn)題。自此之后,基于深度學(xué)習(xí)的文本分類研究逐漸取代傳統(tǒng)機(jī)器學(xué)習(xí)方法成為文本分類領(lǐng)域的主流研究方向,所使用的深度學(xué)習(xí)模型包括卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、注意力機(jī)制等其他模型。卷積神經(jīng)網(wǎng)絡(luò)(CNN)最初在圖像領(lǐng)域取得巨大成功,它的核心在于捕捉局部相關(guān)性,類似于文本中的N-Gram。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是以序列數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸且所有節(jié)點(diǎn)(循環(huán)單元)按鏈?zhǔn)竭B接遞歸神經(jīng)網(wǎng)絡(luò)。注意力機(jī)制(Attention Mechanisms)是自然語(yǔ)言處理領(lǐng)域中一種常用的建模長(zhǎng)時(shí)間記憶機(jī)制,通過(guò)計(jì)算不同時(shí)刻詞向量的概率權(quán)重,使不同的詞得到不同的關(guān)注,從而提高隱藏層特征提取的質(zhì)量。這些深度學(xué)習(xí)模型用于文本分類領(lǐng)域都取得了較好的實(shí)驗(yàn)效果。

    1 基于深度學(xué)習(xí)的文本分類

    深度學(xué)習(xí)(Deep Learning)作為機(jī)器學(xué)習(xí)的分支,主要利用包含復(fù)雜結(jié)構(gòu)或由多隱層感知器構(gòu)成的多個(gè)處理層對(duì)數(shù)據(jù)進(jìn)行高層抽象,從而取代手工獲取文本特征?;谏疃葘W(xué)習(xí)的文本分類主要利用深度學(xué)習(xí)模型的自動(dòng)獲取特征表達(dá)能力,替代傳統(tǒng)方法中復(fù)雜的人工特征工程,提高分類的效率。深度學(xué)習(xí)模型用于文本分類的主要過(guò)程有文本預(yù)處理、文本表示、構(gòu)建深度學(xué)習(xí)模型和性能評(píng)價(jià)等步驟,如圖1所示。

    圖1 文本分類的主要過(guò)程

    2 數(shù)據(jù)集的選擇

    數(shù)據(jù)集的選擇對(duì)文本分類實(shí)驗(yàn)結(jié)果有著重要的影響,目前文本分類常用的開(kāi)源數(shù)據(jù)集如下:

    1)Amazon Review Dataset包含數(shù)百萬(wàn)條亞馬遜客戶評(píng)論和星級(jí)評(píng)定,該數(shù)據(jù)集主要用來(lái)了解如何訓(xùn)練FastText用于情感分析。

    2)IMDB數(shù)據(jù)集包含用于自然語(yǔ)言處理或文本分析的5萬(wàn)條影評(píng),包括用于訓(xùn)練的25000條觀點(diǎn)鮮明的影評(píng)和用于測(cè)試的25000條影評(píng),該數(shù)據(jù)集是用于文本分類中使用率最高的數(shù)據(jù)集,所有的深度學(xué)習(xí)模型都可使用。

    3)NLPCC2013是微博語(yǔ)料,標(biāo)注了7種心情,共有14000條微博,45431個(gè)句子,在情感分析中經(jīng)常使用。

    4)20Newsgroups包含20組不同主題的英文新聞數(shù)據(jù),主要用于英文新聞分類研究。

    5)SST-1為情感分類數(shù)據(jù)集,包含11800條電影評(píng)論語(yǔ)句,有非常積極、積極、中性、消極和非常消極5類。目前,該數(shù)據(jù)集在S-LSTM[9]和文獻(xiàn)[10]所提出的模型上表現(xiàn)不錯(cuò)。

    6)Yelp數(shù)據(jù)集可用于個(gè)人、教育和學(xué)術(shù)等用途,它是Yelp的小部分商家、評(píng)論和用戶數(shù)據(jù),在自然語(yǔ)言處理中可用于推斷語(yǔ)義、商戶屬性和情感。

    3 文本預(yù)處理和文本表示

    3.1 文本預(yù)處理

    文本預(yù)處理是從文本中提取關(guān)鍵詞來(lái)表示文本的處理過(guò)程,文本預(yù)處理根據(jù)語(yǔ)言不同分為中文文本預(yù)處理和英文文本預(yù)處理。英文文本預(yù)處理主要對(duì)英文進(jìn)行分詞,其步驟為根據(jù)空格拆分單詞、刪除停用詞、詞干提取或詞元化。Martin在1980年提出的波特詞干提取算法[11]在簡(jiǎn)單性和效率之間取得了平衡,所以它是最受歡迎和最廣泛使用的英語(yǔ)詞干提取法。

    中文文本預(yù)處理通常要經(jīng)過(guò)分詞、去除停用詞、低頻詞過(guò)濾等過(guò)程。分詞的方法有隱馬爾科夫模型(HMM)[12]和隨機(jī)場(chǎng)模型(CRF)[13]這些傳統(tǒng)的分詞方法。近年來(lái),隨著基于深度學(xué)習(xí)算法的中文分詞方法的提出,其分詞效果優(yōu)于傳統(tǒng)的分詞方法,例如,Peng等人[14]提出使用長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)(LSTM)來(lái)獲取中文分詞的特征,并使用CRF來(lái)共同解碼標(biāo)簽,其分類結(jié)果比傳統(tǒng)的分詞效果有明顯的提高。

    3.2 文本表示

    文本表示是文本分類的基礎(chǔ),要將自然語(yǔ)言處理問(wèn)題轉(zhuǎn)化成機(jī)器可學(xué)習(xí)的數(shù)學(xué)模型,首先要對(duì)詞和文本進(jìn)行向量化建模。傳統(tǒng)文本表示主要使用布爾模型、概率模型和向量空間模型,忽略了詞語(yǔ)間語(yǔ)義關(guān)系,存在數(shù)據(jù)高維稀疏問(wèn)題[15]。近年來(lái),詞向量成為文本表示的主流,詞向量[16]是一種分布式的詞表示形式,即將單詞表示為在連續(xù)空間上的低維稠密向量形式,可以直接刻畫詞與詞之間的相似度,大大緩解了維數(shù)災(zāi)難的問(wèn)題,彌補(bǔ)淺層表示學(xué)習(xí)的不足。詞向量主要包括Word2vec和Doc2vec這2種模型。

    Word2vec是谷歌在2013年發(fā)布的詞向量訓(xùn)練工具,能夠從大規(guī)模未經(jīng)標(biāo)注的語(yǔ)料中高效地生成詞的向量形式,并提供了CBOW和Skip-gram這2種模型[17]。Doc2vec又叫Paragraph Vector,是Le等人[18]基于Word2vec模型提出的一個(gè)無(wú)監(jiān)督學(xué)習(xí)算法,用于預(yù)測(cè)一個(gè)向量來(lái)表示不同的文檔。該模型優(yōu)點(diǎn)是不用固定句子長(zhǎng)度,可以接受不同長(zhǎng)度的句子做訓(xùn)練樣本。Doc2vec模型通過(guò)增加一個(gè)段落向量,彌補(bǔ)Word2vec模型在詞向量處理階段忽略單詞之間排列順序的缺陷,增強(qiáng)模型表示文本語(yǔ)義的準(zhǔn)確性和完整性[19]。除了上述模型應(yīng)用于詞向量,還有Joulin等人[20]提出的詞向量訓(xùn)練和文本分類的工具FastText,也可以用于詞向量提取。

    4 深度學(xué)習(xí)模型

    基于深度學(xué)習(xí)的文本分類中,將經(jīng)過(guò)文本預(yù)處理和文本表示的數(shù)據(jù)集,輸入到深度學(xué)習(xí)模型中,最后使用Softmax進(jìn)行分類,完成文本分類。

    4.1 基于CNN的文本分類

    Kim[21]最先提出的CNN分類模型用于文本分類,該模型包含以下部分:輸入層、卷積層、池化層、全連接層。其主要過(guò)程如圖2所示,CNN用于文本分類的主要算法過(guò)程如算法1所示。與傳統(tǒng)方法相比,CNN模型在很多數(shù)據(jù)集和任務(wù)中都取得了較好的效果,適用于大多數(shù)的文本分類場(chǎng)景和短文本分類。

    圖2 CNN用于文本分類的過(guò)程

    算法1 基于CNN算法的文本分類。

    輸入:無(wú)標(biāo)簽的數(shù)據(jù)集D,訓(xùn)練集D-train,測(cè)試集D-test。

    輸出:測(cè)試集的情感標(biāo)簽。

    1.將訓(xùn)練集和測(cè)試集中的數(shù)據(jù)進(jìn)行預(yù)處理。

    2.通過(guò)初始化Word2vec的參數(shù),獲取模型,并且得到所有詞匯的詞向量。

    3.初始化CNN的參數(shù),訓(xùn)練模型。

    4.For Sentences L in D-train:

    a)對(duì)于L中的每個(gè)詞匯,找到其對(duì)應(yīng)的詞向量,放入輸入層。

    b)通過(guò)CNN的卷積層、池化層和全連接層,在全連接層加上Softmax層,計(jì)算分類類別的概率值。

    c)訓(xùn)練階段結(jié)束,將模型用來(lái)預(yù)測(cè)測(cè)試集。

    End for

    5.導(dǎo)出模型,用于測(cè)試集的情感分類。

    6.For Sentences L in D-test:

    a)對(duì)于L中的每個(gè)詞匯,找到其對(duì)應(yīng)的詞向量,放入輸入層。

    b)通過(guò)CNN的卷積層、池化層和全連接層,在全連接層加上softmax層,計(jì)算分類類別的概率值。

    End for

    CNN用于文本分類關(guān)鍵的2層是卷積層和池化層,卷積層可以進(jìn)行特征提取,池化層進(jìn)行降維。這樣可以減少訓(xùn)練參數(shù),而且可以提取更高層次的文本特征。在Kim提出模型之后,Zhang[22]也提出了CNN模型用于文本分類,與Kim的不同之處在于并沒(méi)有把句子轉(zhuǎn)化為一個(gè)向量,而是仍然按照句子矩陣的形式排列,所以在選卷積核的時(shí)候,對(duì)應(yīng)核的長(zhǎng)度就是這個(gè)詞向量的維度。Kim和Zhang等人提出的CNN模型都是淺層的卷積神經(jīng)網(wǎng)絡(luò)用于文本分類,文獻(xiàn)[23-24]提出了基于字符級(jí)的深層卷積神經(jīng)網(wǎng)絡(luò)(VDCNN),與淺層的卷積神經(jīng)網(wǎng)絡(luò)對(duì)比,深層卷積網(wǎng)絡(luò)的分類效果有著顯著的提升。同時(shí),Johnson等人[25]提出了深度金字塔卷積神經(jīng)網(wǎng)絡(luò)(DPCNN),該模型的復(fù)雜度較低,分類效果也較為出色。Yao等人[26]提出了基于圖的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)GCN;Ma等人[27]結(jié)合樹(shù)結(jié)構(gòu)模型提出了基于依賴的卷積神經(jīng)網(wǎng)絡(luò)模型DBCNN;同時(shí),Mou等人[28]提出了基于樹(shù)狀結(jié)構(gòu)的卷積模型(TBCNN)來(lái)提高特征提取表現(xiàn);文獻(xiàn)[29]提出了結(jié)合XGBoost的卷積神經(jīng)網(wǎng)絡(luò),在數(shù)據(jù)集THUCNews上表現(xiàn)出較好的分類效果。這些方法都是通過(guò)對(duì)CNN的改進(jìn)或者與其他方法的融合,最終提高了文本分類效果。

    4.2 基于RNN的文本分類

    RNN是由Jordan等人[30]在Hopfield網(wǎng)絡(luò)結(jié)合存儲(chǔ)概念和分布式并行處理理論下建立的循環(huán)神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)及其變體結(jié)構(gòu)用于文本分類的過(guò)程如圖3所示。RNN對(duì)于文本前后關(guān)系中“距離”較近的關(guān)系能較好地表現(xiàn)出來(lái),但對(duì)于過(guò)長(zhǎng)文本則效果不佳,因此在長(zhǎng)文本中常用的是LSTM或GRU模型。

    圖3 RNN用于文本分類的過(guò)程

    RNN主要是處理序列數(shù)據(jù),具有處理變長(zhǎng)輸入和發(fā)掘長(zhǎng)期依賴的能力,但同時(shí)RNN面臨梯度爆炸或梯度消失等問(wèn)題。許多RNN的變體被提出用來(lái)克服RNN的不足之處,并且獲得了很好的表現(xiàn)。例如Koutnik等人[31]提出了CW-RNNs,其使用時(shí)鐘頻率來(lái)驅(qū)使RNN獲得優(yōu)于序列LSTM的結(jié)果表現(xiàn)。Socher等人[32]提出了一種遞歸神經(jīng)網(wǎng)絡(luò)模型,通過(guò)一種樹(shù)結(jié)構(gòu)來(lái)捕捉句子語(yǔ)義,取得了較好的效果。單向的RNN只能利用一個(gè)方向的信息,而雙向的RNN可以同時(shí)利用過(guò)去時(shí)刻和未來(lái)時(shí)刻2個(gè)方向上的信息,從而使得最終的分類結(jié)果更加準(zhǔn)確。對(duì)此,Schuster等人[33]提出雙向循環(huán)神經(jīng)網(wǎng)絡(luò),模型包含2個(gè)不同方向的隱藏層,可以充分學(xué)習(xí)到文本的上下文信息。

    4.3 基于LSTM的文本分類

    長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)由Schmidhuber[34]在1997年提出,是一種特殊的RNN,其結(jié)構(gòu)有3個(gè)門函數(shù):遺忘門、輸入門和輸出門。與RNN相比,有效地解決長(zhǎng)期記憶依賴和反向傳播中的梯度消失等問(wèn)題,在自然語(yǔ)言處理中所用到的RNN大部分是LSTM,在長(zhǎng)文本和篇章級(jí)中的文本處理效果更好,各個(gè)分類任務(wù)中都適用。在文本分類任務(wù)中,LSTM每一層的輸入對(duì)應(yīng)一篇文本的詞Xi,將最后一個(gè)詞的隱狀態(tài)Ht,輸入到全連接層Softmax,輸出分類結(jié)果[35]。

    Zhang等人[36]提出了基于句子狀態(tài)的LSTM,該模型融入了詞和句子的語(yǔ)義相關(guān)性,取得了不錯(cuò)的效果。Miyato等人[37-38]通過(guò)引入對(duì)抗和虛擬對(duì)抗,提升了LSTM的性能,得到更好的分類效果。文獻(xiàn)[39]提出了P-LSTM模型;文獻(xiàn)[40]提出了結(jié)合樹(shù)結(jié)構(gòu)的Tree-LSTM;文獻(xiàn)[9]提出了S-LSTM模型并通過(guò)記憶單元反映歷史信息。這3個(gè)文獻(xiàn)提出的模型是LSTM的變體結(jié)構(gòu),通過(guò)結(jié)構(gòu)的改變提高模型對(duì)文本的分類能力。除了單向LSTM,還可以有雙向的LSTM。文獻(xiàn)[41]首次將雙向LSTM神經(jīng)網(wǎng)絡(luò)模型應(yīng)用于分類問(wèn)題,并取得了較單向LSTM神經(jīng)網(wǎng)絡(luò)模型更為出色的分類結(jié)果。文獻(xiàn)[42]將Word2vec、TF-IDF與LDA這3種模型提取的特征向量組合成輸入矩陣,輸入到Bi-LSTM,該方法在新聞簡(jiǎn)訊數(shù)據(jù)上表現(xiàn)出較好的分類效果。

    4.4 基于GRU的文本分類

    門控循環(huán)單元(GRU)是LSTM網(wǎng)絡(luò)的一種效果很好的變體。它與LSTM網(wǎng)絡(luò)相比,只有2個(gè)門函數(shù):更新門和重置門。其結(jié)構(gòu)更加簡(jiǎn)單,可以節(jié)省很多時(shí)間,因此也是當(dāng)前非常流形的一種網(wǎng)絡(luò)。GRU既然是LSTM的變體,因此也是可以解決RNN網(wǎng)絡(luò)中的長(zhǎng)依賴問(wèn)題,這2種模型的算法過(guò)程如算法2所示。

    算法2 基于LSTM或GRU算法的文本分類。

    輸入:無(wú)標(biāo)簽的數(shù)據(jù)集D,訓(xùn)練集D-train,測(cè)試集D-test。

    輸出:測(cè)試集的情感標(biāo)簽。

    1.將訓(xùn)練集和測(cè)試集中的數(shù)據(jù)進(jìn)行預(yù)處理。

    2.通過(guò)初始化Word2vec的參數(shù),獲取模型,并且得到所有詞匯的詞向量。

    3.初始化LSTM或者GRU的參數(shù),訓(xùn)練模型。

    4.For Sentences L in D-train:

    a)對(duì)于L中的每個(gè)詞匯,找到其對(duì)應(yīng)的詞向量,放入輸入層。

    b)通過(guò)多層LSTM或者GRU產(chǎn)生輸出,將輸出與softmax層進(jìn)行全連接,計(jì)算分類類別的概率值。

    c)訓(xùn)練階段結(jié)束,將模型用來(lái)預(yù)測(cè)測(cè)試集。

    End for

    5.導(dǎo)出模型,用于測(cè)試集的情感分類。

    6.For Sentences L in D-test:

    a)對(duì)于L中的每個(gè)詞匯,找到其對(duì)應(yīng)的詞向量,放入輸入層。

    b)通過(guò)多層LSTM或者GRU產(chǎn)生輸出,將輸出與softmax層進(jìn)行全連接,計(jì)算分類類別的概率值。

    End for

    GRU是由Cho等人[43]提出的,它的參數(shù)相對(duì)于LSTM更少,而且在收斂方面表現(xiàn)更優(yōu)。文獻(xiàn)[44]構(gòu)造了一種基于棧結(jié)構(gòu)的GRU神經(jīng)網(wǎng)絡(luò)模型,使用樹(shù)形結(jié)構(gòu)來(lái)捕捉長(zhǎng)期依賴信息;文獻(xiàn)[45]提出了一種基于全關(guān)注的雙向GRU(Bi-GRU)神經(jīng)網(wǎng)絡(luò)(FABG)。該模型使用Bi-GRU來(lái)學(xué)習(xí)文本的語(yǔ)義信息,并使用全關(guān)注機(jī)制來(lái)學(xué)習(xí)Bi-GRU在每個(gè)步驟中先前和當(dāng)前輸出的權(quán)重,從而使每個(gè)步驟的表示都可以獲取重要信息并忽略無(wú)關(guān)的信息,增強(qiáng)了分類效果;文獻(xiàn)[46]提出了將均值原型網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)相結(jié)合,并在Yelp數(shù)據(jù)集和新聞數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。這3個(gè)文獻(xiàn)提出的改進(jìn)是GRU結(jié)構(gòu)改進(jìn)或與其他模型融合。除此之外,GRU和Attention的結(jié)合,也表現(xiàn)出較出色的文本能力。例如,孫明敏[47]提出了GRU和Attention的結(jié)合,將經(jīng)過(guò)預(yù)處理的詞向量輸入GRU模型中,在隱藏層引入Attention,GRU-Attention模型的表現(xiàn)性能優(yōu)于經(jīng)典的GRU模型。同時(shí)文獻(xiàn)[48]提出的基于GRU和注意力機(jī)制的混合模型是用來(lái)解決這種多標(biāo)簽情感分類任務(wù),并通過(guò)NLP&CC提供的數(shù)據(jù)集進(jìn)行測(cè)試,可以取得良好的效果,驗(yàn)證了該模型的有效性。

    4.5 引入注意力機(jī)制的文本分類

    注意力機(jī)制的主要目的是利用有限的注意力資源從大量信息中快速篩選出高價(jià)值的信息,在文本分類工作中依然適用。Bahdanau等人[49]首次將Attention機(jī)制應(yīng)用于自然語(yǔ)言處理領(lǐng)域中。Luong等人[50]在機(jī)器翻譯中定義了全局Attention和局部Attention的概念。

    2017年谷歌團(tuán)隊(duì)提出的自注意力機(jī)制受到了大家廣泛關(guān)注[51],該模型中沒(méi)有采用常見(jiàn)的RNN和CNN網(wǎng)絡(luò),而是采用自注意力機(jī)制進(jìn)行文本分類,這樣可以減少訓(xùn)練的時(shí)間。隨后,Shen等人[52]提出了定向自注意網(wǎng)絡(luò)(DiSAN),可以將序列壓縮成一個(gè)向量表示,并在多種句子編碼方法中獲得較高測(cè)試精度。Tan等人[53]將自注意力機(jī)制應(yīng)用到語(yǔ)義角色標(biāo)注任務(wù)上,使用深度注意力網(wǎng)絡(luò)進(jìn)行標(biāo)注,并在多個(gè)數(shù)據(jù)集上取得優(yōu)異的結(jié)果。自注意力機(jī)制與深度學(xué)習(xí)模型混合使用,在文本分類中也取得了不錯(cuò)的結(jié)果。比如,賈紅雨等人[54]提出了一種結(jié)合自注意力機(jī)制的循環(huán)卷積神經(jīng)網(wǎng)絡(luò)文本分類模型RCNN_A,在該文獻(xiàn)中,將注意力矩陣和詞向量矩陣相結(jié)合作為后續(xù)結(jié)構(gòu)的輸入,很好地解決了特征表征不突出的問(wèn)題。文獻(xiàn)[55]提出了基于字向量的Self-Attention和Bi-LSTM用于中文文本情感分析,分類效果比單獨(dú)使用LSTM、CNN等神經(jīng)網(wǎng)絡(luò)有所提高。文獻(xiàn)[56]在文獻(xiàn)[55]的基礎(chǔ)上提出了基于句向量的Self-Attention+Bi-LSTM的模型并添加CNN網(wǎng)絡(luò),該模型的分類效果優(yōu)于文獻(xiàn)[55]。

    HAN模型總共包含3層,分別是詞匯層、句子層和輸出層,其中詞匯層和句子層都包含一層encoder和一層attention層。HAN是目前文本分類中較新穎且效果較好的模型。Yang等人[57]針對(duì)文本分類任務(wù)提出了一個(gè)層次化attention機(jī)制模型,該模型有2個(gè)層次的attention機(jī)制,分別存在于詞層次和句子層次。Pappas等人[58]在2017年提出了一個(gè)多語(yǔ)言層次注意網(wǎng)絡(luò)學(xué)習(xí)文檔結(jié)構(gòu),使用共享編碼器和跨語(yǔ)言的共享注意機(jī)制。除了上述的單獨(dú)使用,層次注意力機(jī)制與RNN/CNN等模型進(jìn)行混合使用,也取得了不錯(cuò)的分類效果。例如,趙勤魯?shù)热薣59]提出了LSTM和層次注意力機(jī)制結(jié)合,利用LSTM對(duì)文本的詞語(yǔ)與詞語(yǔ)和句子與句子的特征信息進(jìn)行提取,然后使用分層的注意力機(jī)制網(wǎng)絡(luò)層分別對(duì)文本中重要的詞語(yǔ)和句子進(jìn)行選擇,最后使用softmax分類器進(jìn)行文本分類。文獻(xiàn)[60]提出了Bi-GRU和Attention機(jī)制,該模型分別對(duì)句子和文檔進(jìn)行分層建模。

    4.6 基于混合模型的文本分類

    隨著深度學(xué)習(xí)用于文本分類的研究,許多研究者發(fā)現(xiàn)只使用CNN、RNN、LSTM和GRU這些單一的深度學(xué)習(xí)模型,分類效果無(wú)法進(jìn)一步提升。所以學(xué)者提出了將這些深度學(xué)習(xí)模型進(jìn)行混合,CNN用于文本分類時(shí)具有從全局信息中提取局部特征的能力,但其無(wú)法捕獲長(zhǎng)距離依賴關(guān)系[61]。而RNN、LSTM和GRU可以捕獲長(zhǎng)度的信息,Attention機(jī)制可以使特征提取更加全面。所以經(jīng)常將CNN、RNN、LSTM、GRU和Attention結(jié)合用于文本分類。

    RNN與CNN的結(jié)合在文本分類中較少,下面提到的文獻(xiàn)中利用該模型都取得了不錯(cuò)的分類效果。Lai等人[62]提出了一種循環(huán)卷積神經(jīng)網(wǎng)絡(luò)用于文本分類,該模型選擇的是Bi-RNN和CNN的結(jié)合,利用了2種模型的優(yōu)點(diǎn),提升了文本分類的性能。文獻(xiàn)[63]提出了一種基于卷積注意的情緒分類模型,該結(jié)構(gòu)將RNN與基于卷積的注意力模型相結(jié)合,進(jìn)一步將注意力模型進(jìn)行疊加,構(gòu)建用于情緒分析的分層注意力模型。

    在文本分類任務(wù)中,CNN和LSTM的結(jié)合是最為常見(jiàn)的。Zhang等人[64]提出了LSTM和CNN的混合模型,文獻(xiàn)[65]也提出了CNN和LSTM的混合模型,這2篇論文都是結(jié)合了CNN和LSTM的優(yōu)點(diǎn),不同之處在于文獻(xiàn)[64]中的LSTM-CNN,LSTM使用在CNN之前,將其輸出矩陣輸入至CNN中進(jìn)行文本特征的提取。文獻(xiàn)[65]的CNN-LSTM模型中,CNN使用在LSTM層之前,將CNN的輸出矩陣作為L(zhǎng)STM的輸入。彭玉青等人[66]提出了一種深層超深卷積神經(jīng)網(wǎng)絡(luò)(VDCNN)與長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)相結(jié)合的混合模型,是深層的CNN的應(yīng)用,該混合模型表現(xiàn)出比淺層CNN更好的文本效果。上述的文獻(xiàn)都只是CNN和單向的LSTM的混合,文獻(xiàn)[67]提出了Bi-LSTM-CNN方法,采用Bi-LSTM模型獲得2個(gè)方向的表示,然后通過(guò)卷積神經(jīng)網(wǎng)絡(luò)將2個(gè)方向的表示組合成一個(gè)新的表達(dá)式。Felbo等人[68]提出了2層的Bi-LSTM和Attention的結(jié)合,在表情符號(hào)對(duì)文本情感分類效果上有較好的應(yīng)用。Wang等人[69]提出了一種包含CNN、雙向LSTM(BiLSTM)、注意機(jī)制和卷積層的新型統(tǒng)一架構(gòu),稱為基于注意的雙向長(zhǎng)短時(shí)記憶卷積層(AC-BiLSTM)。

    除了CNN和RNN/LSTM的結(jié)合,CNN和GRU結(jié)合在文本分類中表現(xiàn)出其特有的優(yōu)勢(shì)。比如,文獻(xiàn)[70]提出了CNN和Bi-GRU的結(jié)合,在譚松波博士的酒店評(píng)論語(yǔ)料中取得了不錯(cuò)的結(jié)果。楊東等人[10]提出的Attention-based C-GRU用于文本分類,該模型結(jié)合CNN中的卷積層和GRU,通過(guò)引入Attention機(jī)制,突出了關(guān)鍵詞和優(yōu)化特征提取過(guò)程。文獻(xiàn)[71]提出了LDA進(jìn)行文本表示,帶有門控循環(huán)單元(GRU)的CNN被用作分類器進(jìn)行的文本情感分類,該方法有效提高了其準(zhǔn)確性。

    5 基于預(yù)訓(xùn)練模型的文本分類

    預(yù)訓(xùn)練模型從最開(kāi)始的Word2vec、Glove到通用語(yǔ)言文本分類模型ULMFiT[72]和ELMo[73]等。預(yù)訓(xùn)練一般分為2步,首先用某個(gè)較大的數(shù)據(jù)集訓(xùn)練好模型,使模型訓(xùn)練到一個(gè)良好的狀態(tài),下一步則根據(jù)不同的任務(wù),改造預(yù)訓(xùn)練模型,用這個(gè)任務(wù)的數(shù)據(jù)集在預(yù)訓(xùn)練模型上進(jìn)行微調(diào)。Transformer模型由Vaswani等人[74]提出,是一種完全基于自注意力機(jī)制所構(gòu)建的,它不但可以并行運(yùn)算而且可以捕獲長(zhǎng)距離特征依賴。同時(shí)BERT、XLNeT和ERNIE等模型都是對(duì)Transformer的一種改造。

    5.1 BERT模型

    BERT[75]是基于Transformer的雙向深度語(yǔ)言模型,可以捕獲雙向上下文語(yǔ)義,其模型結(jié)構(gòu)如圖4所示。BERT模型在機(jī)器翻譯、文本分類、文本相似性等多個(gè)自然語(yǔ)言處理任務(wù)中表現(xiàn)優(yōu)異,是目前預(yù)訓(xùn)練方法常用的模型。Liu等人[76]將預(yù)訓(xùn)練的BERT模型和多任務(wù)學(xué)習(xí)進(jìn)行結(jié)合,以求獲取更好的效果。文獻(xiàn)[77]研究了BERT在多個(gè)文本分類任務(wù)上的表現(xiàn),詳細(xì)分析了BERT的特點(diǎn)與優(yōu)勢(shì)。

    圖4 BERT模型結(jié)構(gòu)圖

    雖然BERT在文本分類中獲得較好的效果,但也有一定的缺點(diǎn),比如,在訓(xùn)練時(shí)的收斂速度較慢;因?yàn)樵陬A(yù)訓(xùn)練過(guò)程和生成過(guò)程不一致,導(dǎo)致在自然語(yǔ)言生成任務(wù)中效果不佳,不能完成文檔級(jí)別的NLP任務(wù),所以適用于句子和段落級(jí)別的任務(wù)。

    5.2 XLNet模型

    XLNet[78]是一種廣義自回歸的語(yǔ)言模型,是基于Transformer-XL[79]構(gòu)建的,而Transformer-XL是對(duì)Transformer的改進(jìn),解決了Transformer的字符之間的最大依賴距離受輸入長(zhǎng)度的限制和訓(xùn)練效率下降的問(wèn)題。因?yàn)門ransformer-XL的測(cè)試速度更快,可以捕獲更長(zhǎng)的上下文長(zhǎng)度,所以XLNet在包含長(zhǎng)文本序列的任務(wù)中表現(xiàn)更為突出,同時(shí)在文本分類、情感分析、問(wèn)答以及自然語(yǔ)言推理上都達(dá)到最先進(jìn)的水平。

    文獻(xiàn)[80]利用對(duì)比研究法,從模型側(cè)和實(shí)驗(yàn)側(cè)分別比較傳統(tǒng)模型與該模型在CR、MR、MPQA、Subj、SST-2和TREC這6個(gè)數(shù)據(jù)集上的效果差異,結(jié)果表明XLNet表現(xiàn)最優(yōu)。

    5.3 ERNIE模型

    ERNIE[81]是一種知識(shí)增強(qiáng)語(yǔ)義表示模型,其核心是由Transformer構(gòu)成,該模型結(jié)構(gòu)主要包括下層和上層2個(gè)模塊,其中下層模塊的文本編碼器主要負(fù)責(zé)捕獲來(lái)自輸入標(biāo)記的基本詞匯以及語(yǔ)句信息;上層模塊的知識(shí)編碼器負(fù)責(zé)從下層獲取的知識(shí)信息集成到文本信息中,以便將標(biāo)記和實(shí)體的異構(gòu)信息表示成一個(gè)統(tǒng)一的特征空間中。該模型在文獻(xiàn)[81]中的關(guān)系提取任務(wù)中獲得較高的準(zhǔn)確率。

    雖然ERNIE是以中文語(yǔ)料訓(xùn)練得出的一種語(yǔ)言模型,但它在英文語(yǔ)料中的基準(zhǔn)測(cè)試中,也超過(guò)了BERT和XLNet這2個(gè)模型。ERNIE在處理中文語(yǔ)料時(shí),通過(guò)對(duì)預(yù)測(cè)漢字進(jìn)行建模,學(xué)習(xí)到更大語(yǔ)義單元的完整語(yǔ)義表示,在語(yǔ)言推斷、語(yǔ)義相似度以及文本分類等多個(gè)NLP中文任務(wù)上具有優(yōu)異表現(xiàn)。

    5.4 其他預(yù)訓(xùn)練模型

    除了上述3個(gè)預(yù)訓(xùn)練模型,還有一些其他的預(yù)訓(xùn)練模型,比如最新提出的T5和BPT。

    T5[82](Transfer Text-to-Text Transformer)模型是谷歌新提出來(lái)的,使用Transfer learning來(lái)完成各種自然語(yǔ)言處理任務(wù),可以將NLP任務(wù)都轉(zhuǎn)換成Text-to-Text形式,使用同樣的模型,同樣的損失函數(shù),同樣的訓(xùn)練過(guò)程,同樣的解碼過(guò)程來(lái)完成所有NLP任務(wù)。

    BPT[83]將Transformer視為一個(gè)圖神經(jīng)網(wǎng)絡(luò),旨在提高自注意力機(jī)制的效率。在實(shí)驗(yàn)過(guò)程中,BPT在中英機(jī)器翻譯上達(dá)到了SOTA的成績(jī)(BLEU評(píng)分:19.84);該模型結(jié)合Glove在IMDb數(shù)據(jù)集情緒分析的準(zhǔn)確率達(dá)到了92.12%。

    6 結(jié)束語(yǔ)

    本文對(duì)基于深度學(xué)習(xí)的文本分類領(lǐng)域中具有代表性的算法作了一個(gè)比較全面的綜述,并分析了各類技術(shù)的主要特點(diǎn)。基于深度學(xué)習(xí)的文本分類提出了豐富的文本分類的相關(guān)理論,并為其他相關(guān)領(lǐng)域的研究提供了新技術(shù)和新思路,研究前景廣闊。近年來(lái)雖然有很多研究人員致力于該方面的研究,取得了很多的研究成果,但仍有一些問(wèn)題需要在未來(lái)的研究任務(wù)中得到突破:

    1)提出新的模型和新方法。對(duì)于深度學(xué)習(xí),提出新的模型用于文本分類,提高分類的精度。

    2)算法的運(yùn)行效率和算法的精度之間的權(quán)衡。目前文本分類的研究中考慮更多的是算法的有效性(比如正確率、召回率、準(zhǔn)確率),算法的運(yùn)行效率也是未來(lái)文本分類研究需要考慮的一個(gè)因素。因此模型的深度優(yōu)化依然是深度學(xué)習(xí)領(lǐng)域的研究課題。

    3)文本分類的研究和它的實(shí)際應(yīng)用在某種程度上存在脫節(jié),比如對(duì)于信息檢索來(lái)說(shuō),文本分類中采用的數(shù)據(jù)量對(duì)比實(shí)際需要搜索的網(wǎng)頁(yè)數(shù)量,對(duì)于小的數(shù)據(jù)集上比較高效的算法對(duì)于大的數(shù)據(jù)集不一定成立。所以,如何保證算法在大的數(shù)據(jù)集上仍有較好的分類效果是值得研究和突破的。

    4)深度學(xué)習(xí)的可解釋性。深度學(xué)習(xí)模型在特征提取、語(yǔ)義挖掘方面有著獨(dú)特的優(yōu)勢(shì),在文本分類任務(wù)中取得了不俗的成績(jī)。然而,深度學(xué)習(xí)在訓(xùn)練過(guò)程中難以復(fù)現(xiàn),可解釋性較差。

    5)跨語(yǔ)種或多語(yǔ)種的文本分類。跨語(yǔ)言的文本分類在跨國(guó)組織和企業(yè)中的應(yīng)用越來(lái)越多。將在源語(yǔ)言中訓(xùn)練的分類模型應(yīng)用于目標(biāo)語(yǔ)言的分類任務(wù),其挑戰(zhàn)性在于源語(yǔ)言數(shù)據(jù)的特征空間與目標(biāo)語(yǔ)言數(shù)據(jù)之間缺乏重疊[84]。

    猜你喜歡
    卷積向量神經(jīng)網(wǎng)絡(luò)
    向量的分解
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    聚焦“向量與三角”創(chuàng)新題
    神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    向量垂直在解析幾何中的應(yīng)用
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
    向量五種“變身” 玩轉(zhuǎn)圓錐曲線
    復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
    狂野欧美激情性bbbbbb| 免费人妻精品一区二区三区视频| 国产精品av久久久久免费| 亚洲美女黄色视频免费看| 久久久国产一区二区| 美国免费a级毛片| 日韩中文字幕欧美一区二区 | 高清在线视频一区二区三区| 美女高潮到喷水免费观看| 国产黄色免费在线视频| 久久久精品94久久精品| 亚洲精品日本国产第一区| 97在线人人人人妻| 国产av精品麻豆| 又大又黄又爽视频免费| av在线播放精品| 久久久久精品性色| 日韩一区二区视频免费看| 伦理电影大哥的女人| 欧美人与性动交α欧美精品济南到| 日韩中文字幕视频在线看片| av电影中文网址| 亚洲图色成人| 美女高潮到喷水免费观看| 日本午夜av视频| 亚洲精品国产色婷婷电影| 一边摸一边抽搐一进一出视频| 国产在线一区二区三区精| 伦理电影大哥的女人| 最黄视频免费看| 国产人伦9x9x在线观看| 侵犯人妻中文字幕一二三四区| av在线app专区| 久久国产精品大桥未久av| 99热国产这里只有精品6| 久久久久久久精品精品| 国产精品蜜桃在线观看| 日本黄色日本黄色录像| 国产国语露脸激情在线看| av国产精品久久久久影院| 超碰97精品在线观看| 考比视频在线观看| 亚洲精品,欧美精品| 国产男女内射视频| 777久久人妻少妇嫩草av网站| 免费黄频网站在线观看国产| 国产av码专区亚洲av| 国产极品粉嫩免费观看在线| 精品少妇内射三级| 丁香六月天网| 成年美女黄网站色视频大全免费| 亚洲免费av在线视频| 9191精品国产免费久久| 日韩制服丝袜自拍偷拍| 欧美激情高清一区二区三区 | 日韩视频在线欧美| 久久精品国产亚洲av高清一级| 免费不卡黄色视频| 亚洲四区av| 精品人妻一区二区三区麻豆| 久久国产精品大桥未久av| 99热网站在线观看| 中文字幕av电影在线播放| 如何舔出高潮| 国产免费现黄频在线看| 成人国语在线视频| 无限看片的www在线观看| 十八禁高潮呻吟视频| 国产男女超爽视频在线观看| 亚洲成国产人片在线观看| 又黄又粗又硬又大视频| 国产日韩欧美在线精品| 国产免费福利视频在线观看| av网站在线播放免费| av女优亚洲男人天堂| 午夜福利乱码中文字幕| 十八禁人妻一区二区| 制服人妻中文乱码| 亚洲国产成人一精品久久久| 看十八女毛片水多多多| 午夜福利视频在线观看免费| 黄频高清免费视频| 男女边吃奶边做爰视频| 午夜激情av网站| 国产精品久久久人人做人人爽| 亚洲精品aⅴ在线观看| 国产精品亚洲av一区麻豆 | 满18在线观看网站| 2018国产大陆天天弄谢| 青春草国产在线视频| 欧美老熟妇乱子伦牲交| 操出白浆在线播放| 亚洲自偷自拍图片 自拍| 国产成人系列免费观看| 久久天躁狠狠躁夜夜2o2o | 女人爽到高潮嗷嗷叫在线视频| 国产乱人偷精品视频| 国产免费现黄频在线看| 少妇的丰满在线观看| 国产精品嫩草影院av在线观看| av在线老鸭窝| 亚洲国产欧美一区二区综合| 黄色怎么调成土黄色| 亚洲精品中文字幕在线视频| 精品酒店卫生间| 人人妻人人澡人人看| 王馨瑶露胸无遮挡在线观看| www.自偷自拍.com| 国产女主播在线喷水免费视频网站| 大片电影免费在线观看免费| 性色av一级| 日韩,欧美,国产一区二区三区| 亚洲天堂av无毛| 国产成人a∨麻豆精品| 免费黄网站久久成人精品| 国产成人精品福利久久| 可以免费在线观看a视频的电影网站 | 老司机靠b影院| 欧美黑人欧美精品刺激| 精品国产乱码久久久久久小说| 国产成人免费无遮挡视频| 精品亚洲乱码少妇综合久久| 欧美精品人与动牲交sv欧美| 久久人人爽av亚洲精品天堂| 亚洲精品一区蜜桃| 国产女主播在线喷水免费视频网站| 国产激情久久老熟女| 少妇人妻精品综合一区二区| 高清视频免费观看一区二区| 视频区图区小说| 日本爱情动作片www.在线观看| 亚洲情色 制服丝袜| 成年美女黄网站色视频大全免费| 久久精品国产亚洲av高清一级| 亚洲熟女精品中文字幕| 各种免费的搞黄视频| 丰满迷人的少妇在线观看| 免费在线观看视频国产中文字幕亚洲 | av视频免费观看在线观看| 欧美激情高清一区二区三区 | 丝袜在线中文字幕| 午夜福利乱码中文字幕| 免费观看av网站的网址| 99精品久久久久人妻精品| av天堂久久9| 日本欧美国产在线视频| 国产无遮挡羞羞视频在线观看| 亚洲第一av免费看| 国产成人精品在线电影| 日韩中文字幕视频在线看片| 亚洲精品中文字幕在线视频| 亚洲欧美精品自产自拍| 午夜久久久在线观看| 黄网站色视频无遮挡免费观看| 欧美人与善性xxx| 国产 一区精品| 国产1区2区3区精品| 欧美av亚洲av综合av国产av | 老司机靠b影院| 叶爱在线成人免费视频播放| 制服人妻中文乱码| 免费黄频网站在线观看国产| 国产一区二区三区av在线| 国产1区2区3区精品| 美女午夜性视频免费| 超色免费av| 色播在线永久视频| 亚洲第一青青草原| 最近最新中文字幕免费大全7| 国产精品熟女久久久久浪| 亚洲人成网站在线观看播放| 日本av免费视频播放| 亚洲欧美一区二区三区久久| 久久亚洲国产成人精品v| 成人黄色视频免费在线看| 欧美日韩国产mv在线观看视频| 国产xxxxx性猛交| 久久精品亚洲av国产电影网| 最近手机中文字幕大全| 免费在线观看完整版高清| 日韩一卡2卡3卡4卡2021年| 丝袜脚勾引网站| 精品少妇黑人巨大在线播放| 高清av免费在线| 亚洲欧美激情在线| 90打野战视频偷拍视频| 久久ye,这里只有精品| 嫩草影视91久久| 国产成人精品无人区| 久久综合国产亚洲精品| av在线老鸭窝| 日韩伦理黄色片| 曰老女人黄片| 欧美最新免费一区二区三区| svipshipincom国产片| 欧美成人精品欧美一级黄| 亚洲av电影在线进入| 一级毛片电影观看| tube8黄色片| 只有这里有精品99| 欧美乱码精品一区二区三区| a级片在线免费高清观看视频| 国产欧美日韩综合在线一区二区| 成年人午夜在线观看视频| 在线精品无人区一区二区三| 亚洲综合色网址| 999精品在线视频| 欧美日韩一区二区视频在线观看视频在线| 精品一区在线观看国产| 在线观看人妻少妇| 最黄视频免费看| 久久久久精品性色| 丝袜美腿诱惑在线| 欧美久久黑人一区二区| 精品一品国产午夜福利视频| 菩萨蛮人人尽说江南好唐韦庄| 一边摸一边抽搐一进一出视频| 欧美乱码精品一区二区三区| 男女床上黄色一级片免费看| 免费久久久久久久精品成人欧美视频| 女人被躁到高潮嗷嗷叫费观| 天天躁夜夜躁狠狠久久av| 欧美日韩视频高清一区二区三区二| 女人高潮潮喷娇喘18禁视频| 两性夫妻黄色片| 天天躁日日躁夜夜躁夜夜| 1024香蕉在线观看| 777米奇影视久久| 中文字幕亚洲精品专区| av网站免费在线观看视频| 毛片一级片免费看久久久久| a级片在线免费高清观看视频| 亚洲国产av新网站| 国产亚洲av高清不卡| 欧美日韩综合久久久久久| 黑人猛操日本美女一级片| 熟妇人妻不卡中文字幕| 国产精品一国产av| 亚洲五月色婷婷综合| 丝袜美腿诱惑在线| 嫩草影院入口| 岛国毛片在线播放| av一本久久久久| 国产在线一区二区三区精| 久久99精品国语久久久| 中文乱码字字幕精品一区二区三区| 高清视频免费观看一区二区| 欧美精品av麻豆av| 欧美黑人精品巨大| 爱豆传媒免费全集在线观看| 另类精品久久| 国产欧美亚洲国产| 一级毛片 在线播放| 捣出白浆h1v1| 免费人妻精品一区二区三区视频| 777米奇影视久久| 亚洲自偷自拍图片 自拍| 青春草视频在线免费观看| 最近中文字幕2019免费版| 人人妻人人澡人人看| 色播在线永久视频| 极品少妇高潮喷水抽搐| 午夜福利在线免费观看网站| 亚洲一级一片aⅴ在线观看| 欧美乱码精品一区二区三区| 午夜影院在线不卡| 纵有疾风起免费观看全集完整版| 日韩大片免费观看网站| 曰老女人黄片| 宅男免费午夜| 黄片无遮挡物在线观看| 精品一区二区三区av网在线观看 | 精品卡一卡二卡四卡免费| 国产野战对白在线观看| 亚洲精品美女久久av网站| 高清在线视频一区二区三区| 亚洲国产日韩一区二区| 日本wwww免费看| 久久午夜综合久久蜜桃| 另类精品久久| 亚洲成色77777| 又大又黄又爽视频免费| 精品久久久精品久久久| 国产免费又黄又爽又色| 纵有疾风起免费观看全集完整版| 大码成人一级视频| 无限看片的www在线观看| 精品一品国产午夜福利视频| 国产黄频视频在线观看| 亚洲 欧美一区二区三区| 亚洲图色成人| 国产伦人伦偷精品视频| 国产人伦9x9x在线观看| 新久久久久国产一级毛片| 中文字幕人妻熟女乱码| 亚洲成人一二三区av| 日韩一本色道免费dvd| 欧美乱码精品一区二区三区| 亚洲成人av在线免费| 9色porny在线观看| 亚洲第一青青草原| 黑人猛操日本美女一级片| 久久国产精品男人的天堂亚洲| 最黄视频免费看| 久久精品久久久久久久性| 国产成人精品久久二区二区91 | 免费黄网站久久成人精品| 十八禁人妻一区二区| 下体分泌物呈黄色| 伊人亚洲综合成人网| 中文字幕精品免费在线观看视频| 成人免费观看视频高清| 亚洲精品av麻豆狂野| 久久亚洲国产成人精品v| 啦啦啦在线观看免费高清www| 天天躁夜夜躁狠狠躁躁| av福利片在线| 美女视频免费永久观看网站| 国产一区二区三区av在线| 777久久人妻少妇嫩草av网站| 欧美日韩亚洲综合一区二区三区_| 日本av手机在线免费观看| 人妻 亚洲 视频| 色综合欧美亚洲国产小说| 精品亚洲成国产av| 国产精品亚洲av一区麻豆 | 成人国产av品久久久| 久久性视频一级片| 亚洲精品在线美女| 欧美日韩视频精品一区| 亚洲熟女毛片儿| a级毛片在线看网站| 在现免费观看毛片| 欧美精品一区二区大全| 国产精品熟女久久久久浪| 国产成人精品在线电影| 欧美日韩国产mv在线观看视频| 久久鲁丝午夜福利片| 国产人伦9x9x在线观看| 黄片小视频在线播放| 亚洲欧洲精品一区二区精品久久久 | 国产熟女欧美一区二区| av国产久精品久网站免费入址| 亚洲在久久综合| 男女高潮啪啪啪动态图| 亚洲欧美成人精品一区二区| 欧美精品av麻豆av| 亚洲男人天堂网一区| 国产亚洲最大av| 欧美在线黄色| 免费久久久久久久精品成人欧美视频| 欧美在线黄色| 又粗又硬又长又爽又黄的视频| 亚洲少妇的诱惑av| 桃花免费在线播放| tube8黄色片| 十分钟在线观看高清视频www| 九九爱精品视频在线观看| 青草久久国产| 久久久久久人人人人人| 国产国语露脸激情在线看| 男人舔女人的私密视频| 久久久精品国产亚洲av高清涩受| 久久人人97超碰香蕉20202| 视频区图区小说| 九九爱精品视频在线观看| 婷婷色综合大香蕉| 99久久人妻综合| 成人黄色视频免费在线看| 欧美日韩av久久| 大陆偷拍与自拍| 午夜免费鲁丝| 一二三四中文在线观看免费高清| 晚上一个人看的免费电影| 天堂中文最新版在线下载| 两个人看的免费小视频| 欧美av亚洲av综合av国产av | 精品国产超薄肉色丝袜足j| 成年美女黄网站色视频大全免费| 国产成人av激情在线播放| 亚洲精品一区蜜桃| 大香蕉久久成人网| av在线播放精品| 国产成人欧美| 男女边摸边吃奶| 丰满少妇做爰视频| 国产精品麻豆人妻色哟哟久久| 亚洲天堂av无毛| 曰老女人黄片| 欧美最新免费一区二区三区| 日韩av免费高清视频| 悠悠久久av| 免费观看av网站的网址| 久久99热这里只频精品6学生| 在线观看人妻少妇| 两性夫妻黄色片| 久久久久精品性色| 亚洲成色77777| www.熟女人妻精品国产| 97在线人人人人妻| 欧美日韩视频精品一区| 曰老女人黄片| 成人亚洲精品一区在线观看| 两个人看的免费小视频| 免费少妇av软件| 又大又黄又爽视频免费| 秋霞在线观看毛片| 夫妻性生交免费视频一级片| 国产精品欧美亚洲77777| 天天影视国产精品| www.精华液| kizo精华| 久久热在线av| av有码第一页| 中文字幕精品免费在线观看视频| 久久精品国产亚洲av高清一级| 老司机亚洲免费影院| 伊人亚洲综合成人网| 99热全是精品| 两性夫妻黄色片| 在线亚洲精品国产二区图片欧美| 人人妻人人澡人人看| av在线app专区| av又黄又爽大尺度在线免费看| 免费少妇av软件| 免费av中文字幕在线| kizo精华| 精品少妇久久久久久888优播| 老汉色av国产亚洲站长工具| netflix在线观看网站| 狠狠婷婷综合久久久久久88av| 人妻人人澡人人爽人人| 成人亚洲欧美一区二区av| 日韩欧美精品免费久久| 国产成人精品久久久久久| 免费日韩欧美在线观看| 亚洲七黄色美女视频| 欧美日韩国产mv在线观看视频| 一本一本久久a久久精品综合妖精| 亚洲欧美成人综合另类久久久| 色婷婷久久久亚洲欧美| 国产精品一区二区在线观看99| av一本久久久久| 在线观看一区二区三区激情| 在线观看免费午夜福利视频| 丰满饥渴人妻一区二区三| 午夜福利网站1000一区二区三区| 日本黄色日本黄色录像| av天堂久久9| 亚洲精品美女久久av网站| 99久久99久久久精品蜜桃| av.在线天堂| 免费在线观看视频国产中文字幕亚洲 | 欧美成人精品欧美一级黄| 日本一区二区免费在线视频| 国产一区有黄有色的免费视频| 亚洲综合色网址| 国产一卡二卡三卡精品 | 精品国产一区二区三区四区第35| 国产精品免费大片| 亚洲,欧美精品.| 久久韩国三级中文字幕| 在线天堂最新版资源| 国产精品99久久99久久久不卡 | 自线自在国产av| 日韩中文字幕视频在线看片| 亚洲成人国产一区在线观看 | 蜜桃国产av成人99| 七月丁香在线播放| 久久国产精品男人的天堂亚洲| 国产精品三级大全| 捣出白浆h1v1| 亚洲四区av| 天天躁夜夜躁狠狠久久av| 亚洲熟女毛片儿| 日韩不卡一区二区三区视频在线| 精品亚洲成国产av| 国产片内射在线| 捣出白浆h1v1| 久久精品亚洲熟妇少妇任你| 国产精品偷伦视频观看了| 韩国精品一区二区三区| 熟女少妇亚洲综合色aaa.| 人人妻人人爽人人添夜夜欢视频| 国产成人a∨麻豆精品| 欧美日韩亚洲综合一区二区三区_| 在线 av 中文字幕| 成人手机av| 亚洲精品一区蜜桃| 高清av免费在线| 成人午夜精彩视频在线观看| 我的亚洲天堂| 国产熟女欧美一区二区| 国产黄色视频一区二区在线观看| 91国产中文字幕| av线在线观看网站| 国产亚洲欧美精品永久| 91精品三级在线观看| 亚洲综合精品二区| 亚洲激情五月婷婷啪啪| 如何舔出高潮| 国产男人的电影天堂91| 亚洲国产精品999| 99九九在线精品视频| a级毛片在线看网站| 在线亚洲精品国产二区图片欧美| 一本色道久久久久久精品综合| 日韩欧美一区视频在线观看| 啦啦啦在线免费观看视频4| 大话2 男鬼变身卡| 国产亚洲一区二区精品| 国产一区二区在线观看av| 久热这里只有精品99| 黄色毛片三级朝国网站| 亚洲av欧美aⅴ国产| 欧美成人精品欧美一级黄| 桃花免费在线播放| 尾随美女入室| 99久久99久久久精品蜜桃| 日韩av不卡免费在线播放| 国产一级毛片在线| e午夜精品久久久久久久| 成人午夜精彩视频在线观看| 久久97久久精品| 男女下面插进去视频免费观看| 国产精品一二三区在线看| 午夜老司机福利片| 日韩欧美一区视频在线观看| 毛片一级片免费看久久久久| 国产女主播在线喷水免费视频网站| 久久久精品区二区三区| 亚洲一级一片aⅴ在线观看| 国产精品国产av在线观看| 中文字幕高清在线视频| 亚洲国产欧美一区二区综合| 丝瓜视频免费看黄片| 欧美少妇被猛烈插入视频| 90打野战视频偷拍视频| 精品少妇一区二区三区视频日本电影 | 看免费av毛片| 纵有疾风起免费观看全集完整版| 老汉色∧v一级毛片| 自拍欧美九色日韩亚洲蝌蚪91| 久久av网站| 免费在线观看视频国产中文字幕亚洲 | 午夜免费男女啪啪视频观看| 国产av国产精品国产| 满18在线观看网站| 999久久久国产精品视频| 黑人猛操日本美女一级片| 免费高清在线观看日韩| 秋霞在线观看毛片| 亚洲国产av影院在线观看| 精品一品国产午夜福利视频| 国产免费视频播放在线视频| 1024视频免费在线观看| av卡一久久| 亚洲精品aⅴ在线观看| 欧美亚洲日本最大视频资源| av又黄又爽大尺度在线免费看| 国产毛片在线视频| 色婷婷久久久亚洲欧美| 久久精品久久久久久噜噜老黄| 男人添女人高潮全过程视频| 中文字幕av电影在线播放| 日韩一本色道免费dvd| 国产爽快片一区二区三区| 丰满乱子伦码专区| 免费高清在线观看日韩| 精品国产超薄肉色丝袜足j| 国产男人的电影天堂91| 捣出白浆h1v1| 国产精品一区二区精品视频观看| 日韩精品有码人妻一区| 久久精品aⅴ一区二区三区四区| 丁香六月欧美| 亚洲av国产av综合av卡| 无遮挡黄片免费观看| 久久青草综合色| 久久免费观看电影| 伊人久久国产一区二区| 天堂8中文在线网| 亚洲精品aⅴ在线观看| 国产欧美日韩一区二区三区在线| 久久久国产一区二区| 成人亚洲精品一区在线观看| 麻豆精品久久久久久蜜桃| 日韩精品有码人妻一区| avwww免费| 嫩草影院入口| 两性夫妻黄色片| avwww免费| 欧美乱码精品一区二区三区| 国产精品成人在线| 精品一区二区三卡| 午夜日韩欧美国产| 香蕉国产在线看| 欧美黑人精品巨大| 一本久久精品| 香蕉国产在线看| 人妻 亚洲 视频| 婷婷色综合www| 99热国产这里只有精品6| 1024香蕉在线观看| 国产老妇伦熟女老妇高清| 69精品国产乱码久久久| 成人午夜精彩视频在线观看| netflix在线观看网站| 波多野结衣一区麻豆| 国产精品久久久人人做人人爽| 欧美日韩国产mv在线观看视频| 大香蕉久久成人网| 一区福利在线观看| 亚洲精品国产av成人精品| 国产 一区精品|