• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    CNN-BiGRU網(wǎng)絡(luò)中引入注意力機(jī)制的中文文本情感分析

    2019-11-15 04:49:03王麗亞劉昌輝蔡敦波盧濤
    計(jì)算機(jī)應(yīng)用 2019年10期
    關(guān)鍵詞:注意力機(jī)制卷積神經(jīng)網(wǎng)絡(luò)

    王麗亞 劉昌輝 蔡敦波 盧濤

    .

    摘 要:傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(CNN)中同層神經(jīng)元之間信息不能互傳,無法充分利用同一層次上的特征信息,缺乏句子體系特征的表示,從而限制了模型的特征學(xué)習(xí)能力,影響文本分類效果。針對(duì)這個(gè)問題,提出基于CNN-BiGRU聯(lián)合網(wǎng)絡(luò)引入注意力機(jī)制的模型,采用CNN-BiGRU聯(lián)合網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)。首先利用CNN提取深層次短語特征,然后利用雙向門限循環(huán)神經(jīng)網(wǎng)絡(luò)(BiGRU)進(jìn)行序列化信息學(xué)習(xí)以得到句子體系的特征和加強(qiáng)CNN池化層特征的聯(lián)系,最后通過增加注意力機(jī)制對(duì)隱藏狀態(tài)加權(quán)計(jì)算以完成有效特征篩選。在數(shù)據(jù)集上進(jìn)行的多組對(duì)比實(shí)驗(yàn)結(jié)果表明,該方法取得了91.93%的F1值,有效地提高了文本分類的準(zhǔn)確率,時(shí)間代價(jià)小,

    具有很好的應(yīng)用能力。

    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);雙向門限循環(huán)神經(jīng)網(wǎng)絡(luò);注意力機(jī)制;中文文本情感分析

    中圖分類號(hào):TP391.1

    文獻(xiàn)標(biāo)志碼:A

    Abstract: In the traditional Convolutional Neural Network (CNN), the information cannot be transmitted to each other between the neurons of the same layer, the feature information at the same layer cannot be fully utilized, making the lack of the representation of the characteristics of the sentence system. As the result, the feature learning ability of model is limited and the text classification effect is influenced. Aiming at the problem, a model based on joint network CNN-BiGRU and attention mechanism was proposed. In the model, the CNN-BiGRU joint network was used for feature learning. Firstly, deep-level phrase features were extracted by CNN. Then, the Bidirectional Gated Recurrent Unit (BiGRU) was used for the serialized information learning to obtain the characteristics of the sentence system and strengthen the association of CNN pooling layer features. Finally, the effective feature filtering was completed by adding attention mechanism to the hidden state weighted calculation. Comparative experiments show that the method achieves 91.93% F1 value and effectively improves the accuracy of text classification with small time cost and good application ability.

    Key words: Convolutional Neural Network (CNN); Bidirectional Gated Recurrent Unit (BiGRU); attention mechanism; Chinese text sentiment analysis

    0 引言

    隨著互聯(lián)網(wǎng)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)迎來夢(mèng)寐以求的大數(shù)據(jù)時(shí)代,其中,文本情感分析[1]是一個(gè)重要的研究方向,能有效地分析文本所包含的情感信息,同時(shí)具有很高的商業(yè)價(jià)值。

    文本情感分析是自然語言處理(Natural Language Processing, NLP)領(lǐng)域的一個(gè)重要研究方向,主要目的是從原始文本中提取出評(píng)論人的主觀情感,即對(duì)某個(gè)對(duì)象是積極還是消極的態(tài)度。主要分析方法可分為三類:基于有監(jiān)督的學(xué)習(xí)、基于語言學(xué)和基于深度學(xué)習(xí)的方法[2-3]。Pang等[4]針對(duì)電影評(píng)論,通過詞袋模型分別加上貝葉斯、最大熵、支持向量機(jī)等各種分類器取得較好的分類效果。Bengio等[5]最早使用神經(jīng)網(wǎng)絡(luò)構(gòu)建語言模型。Mikolov等[6-7]2013年在Log-Bilinear模型[8]的基礎(chǔ)上提出了word2vec技術(shù)。Kalchbrenner等[9]提出動(dòng)態(tài)卷積神經(jīng)網(wǎng)絡(luò)(Dynamic Convolutional Neural Network, DCNN)的模型處理長(zhǎng)度不同的文本,將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)應(yīng)用于NLP。Kim[10]對(duì)比了不同詞向量構(gòu)造方法,利用提前訓(xùn)練的詞向量作為輸入,通過CNN實(shí)現(xiàn)句子級(jí)的文本分類。但傳統(tǒng)CNN無法深度學(xué)習(xí)池化后的特征,本文采用CNN-BiGRU聯(lián)合網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)。

    Lee等[11]利用基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)和CNN訓(xùn)練文本的向量,通過普通人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)實(shí)現(xiàn)文本分類,說明了添加文本序列信息可以提高分類的準(zhǔn)確率。普通RNN可以有效地利用近距離的語義特征[12-13],但存在梯度消失的不足,

    為解決這一問題,RNN出現(xiàn)了多個(gè)變種循環(huán)神經(jīng)網(wǎng)絡(luò)模型。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)[14],在文本上可以提取長(zhǎng)距離的語義特征。

    Zhou等[15]提出C-LSTM進(jìn)行文本分類,但忽略了文本上下文的特征聯(lián)系。雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Bidirectional LSTM, BiLSTM)[16]則由前向傳播和后向傳播的兩個(gè)LSTM組合而成,提取全局特征彌補(bǔ)了LSTM的不足;但網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,所需參數(shù)多,時(shí)間代價(jià)大。Cho等[12]提出了門限循環(huán)單元(Gated Recurrent Unit,GRU),GRU網(wǎng)絡(luò)結(jié)構(gòu)相對(duì)LSTM更加簡(jiǎn)單,能有效縮短模型訓(xùn)練時(shí)間。雙向門限循環(huán)神經(jīng)網(wǎng)絡(luò)(Bidirectional Gated Recurrent Unit, BiGRU)則是由正向GRU、反向GRU、正反向GRU的輸出狀態(tài)連接層組成的神經(jīng)網(wǎng)絡(luò)。

    綜上,BiGRU相對(duì)于BiLSTM的網(wǎng)絡(luò)結(jié)構(gòu)較為簡(jiǎn)單,時(shí)間代價(jià)小。因此,本文采用BiGRU學(xué)習(xí)CNN池化后的特征得到句子體系的特征表示。

    Bahdanau等[17]最早提出了注意力機(jī)制理論,并將其應(yīng)用到機(jī)器翻譯領(lǐng)域。Mnih等[18]在RNN模型上使用了注意力機(jī)制來進(jìn)行圖像分類,使得注意力機(jī)制真正意義上流行了起來。Xu等[19]展示了如何使用學(xué)習(xí)得到的注意力機(jī)制為模型生成過程提供更多可解釋性;Luong等[20]提出了全局、局部?jī)煞N注意力機(jī)制,促進(jìn)了基于注意力機(jī)制的模型在NLP的應(yīng)用。胡榮磊等[21]將LSTM和前饋?zhàn)⒁饬δP拖嘟Y(jié)合,提出了一種文本情感分析方案。王偉等[22]提出BiGRU-Attention模型進(jìn)行情感分類。陳潔等[23]提出了基于并行混合神經(jīng)網(wǎng)絡(luò)模型的短文本情感分析方法,

    以上結(jié)合注意力機(jī)制進(jìn)行情感分析的模型,皆說明了通過引入注意力機(jī)制能有效地提高了情感分類的準(zhǔn)確度。

    由于利用傳統(tǒng)CNN或BiGRU網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)時(shí),CNN在局部特征提取上較BiGRU具有優(yōu)勢(shì),但缺乏句子體系的特征表示,而一個(gè)模型對(duì)特征的學(xué)習(xí)能力會(huì)直接影響文本分類效果,所用本文提出聯(lián)合網(wǎng)絡(luò)引入注意力機(jī)制的模型進(jìn)行情感分析。

    本文的主要工作如下:

    1)針對(duì)中文文本,提出了CNN-BiGRU聯(lián)合網(wǎng)絡(luò)模型學(xué)習(xí)文本特征,充分利用CNN局部特征的強(qiáng)學(xué)習(xí)能力,使用BiGRU網(wǎng)絡(luò)獲取此層次前后向特征,提取句子體系的特征表示,從而提高文本情感分析的準(zhǔn)確率,并在時(shí)間代價(jià)上驗(yàn)證了此網(wǎng)絡(luò)的有效性。

    2)在聯(lián)合網(wǎng)絡(luò)模型上引入注意力模型,獲取文本中的重點(diǎn)特征,降低噪聲特征的干擾,從而進(jìn)一步提高文本情感分析的準(zhǔn)確率。

    1 詞向量

    本文實(shí)驗(yàn)采用谷歌開源工具word2vec來構(gòu)建文本詞向量。word2vec技術(shù)包括兩種模型:連續(xù)詞袋模型(CBOW)和Skip-gram模型。CBOW模型根據(jù)上下文預(yù)測(cè)一個(gè)詞,而Skip-gram模型正好相反,是利用當(dāng)前詞來預(yù)測(cè)周圍的詞。本文使用Skip-gram模型。

    Skip-gram模型分為輸入層、投影層和輸出層,模型結(jié)構(gòu)如圖1所示。

    如果上下文窗口大小設(shè)置為4,且設(shè)當(dāng)前詞W(t)所對(duì)應(yīng)的向量形式為V(W(t)),其周圍4個(gè)詞所對(duì)應(yīng)的向量形式為V(W(t+2))、V(W(t+1))、V(W(t-1))、V(W(t-2)),則Skip-gram模型通過中間詞預(yù)測(cè)周圍詞,是利用中間詞向量V(W(t))的條件概率值來求解,如式(1)所示:

    2 聯(lián)合網(wǎng)絡(luò)引入注意力機(jī)制模型本文提出了CNN-BiGRU聯(lián)合網(wǎng)絡(luò)引入注意力機(jī)制(C-BG-A)的文本情感分析方法。

    結(jié)構(gòu)主要可分為CNN-BiGRU聯(lián)合網(wǎng)絡(luò)特征學(xué)習(xí)和CNN-BiGRU-Attention特征篩選。

    2.1 CNN-BiGRU聯(lián)合網(wǎng)絡(luò)特征學(xué)習(xí)本文利用CNN提取局部短語特征。CNN是一種前饋神經(jīng)網(wǎng)絡(luò),模型結(jié)構(gòu)主要包括輸入層、卷積層、池化層、全連接層和輸出層五部分,CNN的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

    1)輸入層。將嵌入層的輸出作為輸入,句子中每個(gè)詞的詞向量為xi∈Rn×d,其中n是詞數(shù),d是向量維度,本文定為100維。

    2)卷積層。通過設(shè)置好大小的濾波器來完成對(duì)輸入文本句子特征的提取,如式(2)所示:

    其中:ω是卷積核;h是卷積核的尺寸;

    xi:i+h-1是i到i+h-1個(gè)詞組成的句子向量;b是偏置項(xiàng);通過卷積層后,得到特征矩陣c=[c1,c2,…,cn-h+1]。

    3)池化層。通過對(duì)卷積層之后得到的句子局部特征矩陣c進(jìn)行下采樣,求得局部值的最優(yōu)解Mi。這里采用MaxPooling技術(shù),如式(3)所示:

    由于BiGRU輸入必須是序列化結(jié)構(gòu),池化將中斷序列結(jié)構(gòu)c,所以需要添加全連接層,將池化層后的向量Mi連接成特征矩陣U,如式(4)所示:

    將新的連續(xù)高階窗口U作為BiGRU的輸入。BiGRU由正向GRU、反向GRU、正反向GRU的輸出狀態(tài)連接層組成,網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

    若記t時(shí)刻正向GRU輸出的隱藏狀態(tài)為t,反向GRU輸出的隱藏狀態(tài)為t,則BiGRU輸出的隱藏狀態(tài)ht,其具體的計(jì)算過程如式(5)~(7)所示:

    GRU是對(duì)LSTM的一種改進(jìn),它也存在一個(gè)貫穿始終的記憶狀態(tài)單元(Memory Unit),該記憶單元用更新門代替原來LSTM中的遺忘門和輸入門,即在網(wǎng)絡(luò)結(jié)構(gòu)上要比LSTM更為簡(jiǎn)單,且所需參數(shù)減少,從而能夠提高模型訓(xùn)練速度。GRU的原理如圖4所示。其具體的計(jì)算過程如式(8)~(11)所示:

    其中:wz、wr、w為權(quán)值矩陣;zt為更新門;rt為重置門;t為備選激活函數(shù);ht為激活函數(shù);Ut為t時(shí)刻GRU的輸入;

    σ為sigmoid激活函數(shù)。

    2.2 CNN-BiGRU-Attention特征篩選

    注意力機(jī)制通過對(duì)文本向量的語義編碼分配不同的注意力權(quán)重,以區(qū)分文本中信息的重要性大小,提高分類的準(zhǔn)確率。本文使用前饋?zhàn)⒁饬δP?,注意力模型結(jié)構(gòu)如圖5所示。

    1)生成目標(biāo)注意力權(quán)重vt,如式(12)所示:

    其中:σ是一種注意力學(xué)習(xí)函數(shù)tanh;ht是CNN-BiGRU網(wǎng)絡(luò)輸出的特征向量。

    2)注意力權(quán)重概率化,通過softmax函數(shù)生成概率向量pt,如式(13)所示:

    3)注意力權(quán)重配置,將生成的注意力權(quán)重配置給對(duì)應(yīng)的隱層狀態(tài)語義編碼ht,使模型生成的注意力權(quán)重發(fā)揮作用,αt是ht的加權(quán)平均值,權(quán)值是pt,如式(14)所示:

    2.3 C-BG-A模型

    C-BG-A模型網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。主要包括三個(gè)部分:一是CNN+BiGRU的網(wǎng)絡(luò)構(gòu)建;二是引入注意力模型;三是用sigmoid分類器進(jìn)行分類。

    下面針對(duì)C-BG-A模型進(jìn)行詳細(xì)介紹:

    1)將文本輸入到word2vec模型中訓(xùn)練,句子中每個(gè)詞的詞向量為xi∈Rn×d,其中n是詞數(shù),d是向量維度,則句子矩陣S可表示為

    2)添加CNN層,利用式(2)~(3)得到局部短語特征矩陣Mi。

    3)添加全連接層,利用式(4)將局部短語特征Mi拼接成序列結(jié)構(gòu)U。

    4)添加BiGRU層,利用式(5)~(11)學(xué)習(xí)序列U得到句子特征表示Hct。

    5)引入注意力機(jī)制,利用式(12)~(14)得到Hct的加權(quán)平均值A(chǔ)ct。

    6)經(jīng)過dropout層后,得到特征向量A。

    7)添加Dense層,參數(shù)為1,激活函數(shù)為sigmoid函數(shù),對(duì)文本特征進(jìn)行分類:

    p(y|A,w,b)=sigmoid(w·A+b)

    8)模型損失函數(shù)定為對(duì)數(shù)損失函數(shù),模型會(huì)通過更新參數(shù)權(quán)值矩陣w和偏置向量b,從而達(dá)到優(yōu)化模型的效果。

    2.4 模型訓(xùn)練本文將情感分析問題看成一個(gè)二分類的問題,分類函數(shù)選為sigmoid函數(shù),如式(15)所示:

    其中:樣本是{x, y}, y是消極0或者積極1,x是樣本特征向量;ω代表可訓(xùn)練參數(shù)。

    模型訓(xùn)練的目標(biāo)實(shí)質(zhì)就是最小化損失函數(shù)。本文在編譯模型時(shí),損失函數(shù)為對(duì)數(shù)損失函數(shù),一般是與sigmoid相對(duì)應(yīng)的損失函數(shù)。

    訓(xùn)練模型參數(shù)ω如式(16)所示:

    其中:yi為輸入xi的真實(shí)類別,hω(xi)為預(yù)測(cè)輸入xi屬于類別1的概率。

    模型的優(yōu)化器選為Adam(Adaptive moment estimation),Adam優(yōu)化算法是一種計(jì)算每個(gè)參數(shù)的自適應(yīng)學(xué)習(xí)率的方法,結(jié)合了AdaGrad和RMSProp兩種優(yōu)化算法的優(yōu)點(diǎn)。參數(shù)的更新不受梯度的伸縮變換影響,變化平穩(wěn),如式(17)~(21)所示:

    評(píng)價(jià)函數(shù)為accuracy函數(shù),用于評(píng)估當(dāng)前訓(xùn)練模型的性能。

    3 實(shí)驗(yàn)與分析在帶有情感標(biāo)簽的中文購物評(píng)論文本上,對(duì)提出的C-BG-A模型情感分析方法進(jìn)行驗(yàn)證與分析。實(shí)驗(yàn)環(huán)境配置數(shù)據(jù)如表1所示。

    3.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)

    實(shí)驗(yàn)數(shù)據(jù)來自網(wǎng)絡(luò)購物的評(píng)論,數(shù)據(jù)內(nèi)容對(duì)象類型有酒店、牛奶、書籍、手機(jī)等。評(píng)論情感標(biāo)簽分為兩類[0,1],消極的情感為0,積極的情感為1。例如:“地理位置優(yōu)越,交通方便,飯店環(huán)境好,服務(wù)優(yōu)良,洗衣迅捷”,情感為積極,“手機(jī)系統(tǒng)差,容易壞.部分按鍵不靈活,半年后就會(huì)出現(xiàn)在大問題.”,情感為消極。數(shù)據(jù)集設(shè)置為:總數(shù)21105條,訓(xùn)練集16884條,驗(yàn)證集2000條,測(cè)試集2221條。

    3.2 參數(shù)設(shè)置參數(shù)設(shè)置會(huì)直接影響后續(xù)模型的分類效果,具體的參數(shù)設(shè)置如表2所示。

    3.3 評(píng)價(jià)指標(biāo)

    準(zhǔn)確度(Accuracy)、精確度(Precision)、召回率(Recall)、F值(Fθ)這4個(gè)模型評(píng)測(cè)指標(biāo)是NLP模型評(píng)估的常用標(biāo)準(zhǔn)。設(shè)總的測(cè)試集個(gè)數(shù)為TP+TN+FP+FN,其具體含義如表3所示。

    3.4 對(duì)比實(shí)驗(yàn)設(shè)置實(shí)驗(yàn)設(shè)置以下多組對(duì)比實(shí)驗(yàn),包括傳統(tǒng)機(jī)器學(xué)習(xí)算法支持向量機(jī)(Support Vector Machine,SVM)與深度學(xué)習(xí)網(wǎng)絡(luò)的比較,單一網(wǎng)絡(luò)與聯(lián)合網(wǎng)絡(luò)的比較,及與引入注意力模型的網(wǎng)絡(luò)對(duì)比。網(wǎng)絡(luò)輸入均是利用word2vec訓(xùn)練的詞向量。

    1)SVM[24]:采用傳統(tǒng)機(jī)器學(xué)習(xí)算法SVM進(jìn)行情感分析。

    2)BiLSTM[16]:?jiǎn)我坏腂iLSTM網(wǎng)絡(luò)。

    3)BiGRU:?jiǎn)我坏腂iGRU網(wǎng)絡(luò)。

    4)CNN[25]:?jiǎn)我坏腃NN網(wǎng)絡(luò)。

    5)CNN+BiLSTM:先添加一個(gè)CNN網(wǎng)絡(luò),再添加一個(gè)BiLSTM網(wǎng)絡(luò)。

    6)CNN+BiGRU:先添加一個(gè)CNN網(wǎng)絡(luò),再添加一個(gè)BiGRU網(wǎng)絡(luò)。

    7)CNN+BiLSTM+Attention(CNN+BiLSTM+Att):先添加一個(gè)CNN網(wǎng)絡(luò),再添加一個(gè)BiLSTM網(wǎng)絡(luò),最后引入Attention機(jī)制。

    8)CNN+BiGRU+Attention(C-BG-A):先添加一個(gè)CNN網(wǎng)絡(luò),再添加一個(gè)BiGRU網(wǎng)絡(luò),最后引入Attention機(jī)制。

    3.5 實(shí)驗(yàn)結(jié)果分析

    實(shí)驗(yàn)在測(cè)試集上計(jì)算出Accuracy值、Precision值、Recall值、F1值,對(duì)比結(jié)果如表4所示。

    從表4顯示的8組模型對(duì)比結(jié)果可看出:從兩個(gè)綜合評(píng)測(cè)指標(biāo)Accuracy、F1上來看,C-BG-A準(zhǔn)確率達(dá)到92.03%,F(xiàn)1值達(dá)到91.93%,均優(yōu)于對(duì)比模型。SVM雖然取得較好的分類效果,但基于深度學(xué)習(xí)的7組模型明顯優(yōu)于SVM。第5、6與之前3組模型的對(duì)比,體現(xiàn)出本文提出的CNN-BiGRU聯(lián)合網(wǎng)絡(luò)提取特征的優(yōu)勢(shì),因?yàn)镃NN對(duì)文本特征的強(qiáng)學(xué)習(xí)能力有助于聯(lián)合模型對(duì)深層次特征的學(xué)習(xí),而雙向循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)序列化特征前后的學(xué)習(xí)能力,在聯(lián)合模型對(duì)CNN提取的特征進(jìn)行再加工時(shí),起到正影響的作用。第7、8與5、6組的對(duì)比,可知在聯(lián)合模型的基礎(chǔ)上添加注意力機(jī)制能有效地提高模型分類的準(zhǔn)確度,因?yàn)樽⒁饬C(jī)制分配給特征不同的權(quán)重,讓模型學(xué)習(xí)到了特征之間的輕重不同之分,有助于模型快速掌握重要的特征。第8與7組的比較,說明利用BiGRU學(xué)習(xí)CNN池化后的特征較BiLSTM效果更佳。

    為了更直觀地反映基于深度學(xué)習(xí)的7組模型的優(yōu)劣,本文選擇繪畫驗(yàn)證集的準(zhǔn)確率(val_acc)和損失率(val_loss)變化圖。準(zhǔn)確率的變化如圖7所示,損失率的變化如圖8所示。

    從圖7可看出:總體上7組模型準(zhǔn)確度都不斷上升,第二次迭代后均達(dá)86%以上,其中C-BG-A模型的準(zhǔn)確度均達(dá)90%以上,且趨勢(shì)平穩(wěn),不如其余6組模型波動(dòng)性大??梢奀-BG-A模型在提取文本特征上更為優(yōu)秀和穩(wěn)定,在短時(shí)間內(nèi)準(zhǔn)確度可達(dá)較高水平且趨勢(shì)穩(wěn)定,即在迭代次數(shù)較少的情況下也可以達(dá)到較高的準(zhǔn)確度,在第5次迭代時(shí)達(dá)到最高值92.93%。

    從圖7中也可發(fā)現(xiàn),有BiGRU參與的模型準(zhǔn)確度都能快速達(dá)到較高水平且波幅較平穩(wěn),相對(duì)與BiLSTM表現(xiàn)更好。模型損失率是越小越好。從圖8中可看出:CNN模型的波動(dòng)最大,其余6組都較為集中;細(xì)看可發(fā)現(xiàn),C-BG-A模型的損失率第1次迭代結(jié)果就達(dá)到0.2552,第2次迭代結(jié)果為最低值0.2051,且趨勢(shì)平穩(wěn)。綜合圖7~8的分析結(jié)果,C-BG-A模型具有收斂性快、準(zhǔn)確度高、穩(wěn)定性強(qiáng)的特點(diǎn),相比較其他6組模型在文本分類上更具有優(yōu)勢(shì)。

    為了量化模型的優(yōu)劣,本文在測(cè)試集上進(jìn)行預(yù)測(cè),樣本總數(shù)為2221。實(shí)驗(yàn)統(tǒng)計(jì)了預(yù)測(cè)結(jié)果的TP值、FP值、TN值、FN值、Right值、Wrong值,Right為模型預(yù)測(cè)正確的樣本數(shù),Wrong為模型預(yù)測(cè)錯(cuò)誤的樣本數(shù)。輸出結(jié)果為預(yù)測(cè)樣本是1概率,為方便統(tǒng)計(jì),將值大于0.5的定為1,其余為0。預(yù)測(cè)值統(tǒng)計(jì)的結(jié)果如表5所示。

    表5中,C-BG-A模型預(yù)測(cè)正確最多,錯(cuò)誤最少,可見C-BG-A模型最優(yōu)。

    針對(duì)模型的時(shí)間代價(jià)分析,本文給出5組對(duì)比模型完成每次迭代所需時(shí)間的對(duì)比圖,如圖9所示。

    實(shí)驗(yàn)盡可能統(tǒng)一其運(yùn)行條件,在減少因各方面因素不同對(duì)其影響的情況下進(jìn)行統(tǒng)計(jì)。從圖9模型的時(shí)間代價(jià)來看,單模型迭代所用時(shí)間均為最少,其中,BiGRU所用時(shí)間最短,因?yàn)槠渚W(wǎng)絡(luò)結(jié)構(gòu)最為簡(jiǎn)單。C-BG-A多數(shù)保持在117s/epoch。在時(shí)間代價(jià)上,C-BG-A比CNN+BiLSTM+Attention更有優(yōu)勢(shì),說明選擇BiGRU模型能有效地縮短模型的訓(xùn)練時(shí)間,具有高效性。

    利用模型對(duì)真實(shí)單句進(jìn)行預(yù)測(cè),展示了模型真實(shí)的運(yùn)用功能。選句子時(shí)要避免與原數(shù)據(jù)中的句子相同,否則會(huì)影響評(píng)估模型性能。為方便了解輸出結(jié)果含義,將值大于0.5的定為positive,其余定為negative。單句測(cè)試結(jié)果如表6所示。

    預(yù)測(cè)結(jié)果句子情緒從表6單句測(cè)試結(jié)果上來看,C-BG-A模型對(duì)隨機(jī)所選的單句的預(yù)測(cè)結(jié)果都是正確的,從而更加直觀地說明了C-BG-A能在中文文本分類問題上的成功應(yīng)用。

    綜上,針對(duì)本文所用數(shù)據(jù)集,利用CNN-BiGRU聯(lián)合模型提取特征優(yōu)于單模型CNN或BiGRU,再引入注意力機(jī)制能進(jìn)一步地提高文本分類的準(zhǔn)確率,且模型具有高效性和很好的應(yīng)用能力。

    4 結(jié)語

    本文提出了一種C-BG-A模型的中文文本情感分析方法。利用CNN局部特征的強(qiáng)學(xué)習(xí)能力,提取短語體系的特征。再利用BiGRU深度學(xué)習(xí)CNN中池化后連接組成的特征,加強(qiáng)短語特征之間的聯(lián)系,從而使模型學(xué)習(xí)到更深層次的句子體系特征表示。最后引入注意力機(jī)制進(jìn)行特征篩選,降低噪聲干擾。

    在中文網(wǎng)絡(luò)購物評(píng)論文本上進(jìn)行訓(xùn)練和測(cè)試,實(shí)驗(yàn)結(jié)果表明本文模型有效地提高了文本情感分類準(zhǔn)確率,且時(shí)間代價(jià)小。但由于本文模型使用的CNN網(wǎng)絡(luò)深度不夠,如何使用更深的CNN網(wǎng)絡(luò)作為聯(lián)合對(duì)象進(jìn)一步提高分類準(zhǔn)確率,是下一步工作的目標(biāo)。

    參考文獻(xiàn)(References)

    [1] 魏韡, 向陽, 陳千. 中文文本情感分析綜述[J]. 計(jì)算機(jī)應(yīng)用, 2011, 31(12): 3321-3323. (WEI W, XIANG Y, CHEN Q. Survey on Chinese text sentiment analysis[J]. Journal of Computer Applications, 2011, 31(12): 3321-3323.)

    [2] TURNEY P D. Thumbs up or thumbs down?: semantic orientation applied to unsupervised classification of reviews[C]// Proceedings of the 40th Annual Meeting on Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2002: 417-424.

    [3] NI X, XUE G, LING X, et al. Exploring in the weblog space by detecting informative and affective articles[C]// Proceedings of the 16th International Conference on World Wide Web. New York: ACM, 2007: 281-290.

    [4] PANG B, LEE L, VAITHYANATHAN S. Thumbs up?: sentiment classification using machine learning techniques[C]// Proceedings of the ACL-02 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2002: 79-86.

    [5] BENGIO Y, DUCHARME R, VINCENT P, et al. A neural probabilistic language model[J]. Journal of Machine Learning Research, 2003, 3: 1137-1155.

    [6] MIKOLOV T, CHEN K, CORRADO G, et al. Efficient estimation of word representations in vector space[EB/OL]. [2017-08-04]. http://www.surdeanu.info/mihai/teaching/ista555-spring15/readings/mikolov2013.pdf.

    [7] MIKOLOV T, SUTSKEVER I, CHEN K, et al. Distributed representations of words and phrases and their compositionality [EB/OL]. [2019-01-10]. http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf.

    [8] MNIH A, HINTON G E. A scalable hierarchical distributed language model[C]// Proceedings of the 21st International Conference on Neural Information Processing. New York: Curran Associates Inc., 2008: 1081-1088.

    [9] KALCHBRENNER N, GREFENSTETTE E, BLUNSOM P. A convolutional neural network for modelling sentences[C]// Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2014: 655-665.

    [10] KIM Y. Convolutional neural networks for sentence classification[C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Proceeding. Stroudsburg, PA: Association for Computational Linguistics, 2014: 1746-1751.

    [11] LEE J Y, DERNONCOURT F. Sequential short-text classification with recurrent and convolutional neural networks[C]// Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2016, 515-520.

    [12] CHO K, van MERRIENBOER B, GULCEHRE C, et al. Learning phrase representions using RNN encoder-decoder for statistical machine translation [C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing.Stroudsburg, PA: Association for Computational Linguistics, 2014: 1724-1734.

    [13] EBRAHIMI J, DOU D. Chain based RNN for relation classification[C]// Proceedings of the 2015 Annual Conference of the North American Chapter of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2015: 1244-1249.

    [14] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.

    [15] ZHOU C, SUN C, LIU Z, et al. A C-LSTM neural network for text classification[EB/OL].[2019-01-09].https://arxiv.org/abs/1511.08630.

    [16] XIAO Z, LIANG P. Chinese sentiment analysis using bidirectional LSTM with word embedding[C]// Proceedings of the 2016 International Conference on Cloud Computing and Security, LNSC 10040. Berlin: Springer, 2016: 601-610.

    [17] BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate[EB/OL]. [2018-03-20]. https://arxiv.org/pdf/1409.0473v7.pdf.

    [18] MNIH V, HEESS N, GRAVES A, et al. Recurrent models of visual attention[C]// Proceedings of the 27th International Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2014: 2204-2212.

    [19] XU K, BA J, KIROS R, et al. Show, attend and tell: neural image caption generation with visual attention[EB/OL]. [2018-03-20]. https://arxiv.org/pdf/1502.03044.pdf.

    [20] LUONG M PHAM H, MANNING C D. Effective approaches to attention-based neural machine translation[C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 1412-1421.

    [21] 胡榮磊, 芮璐, 齊筱, 等. 基于循環(huán)神經(jīng)網(wǎng)絡(luò)和注意力模型的文本情感分析[J/OL]. 計(jì)算機(jī)應(yīng)用研究, 2019, 36(11). [2018-12-10]. http://www.arocmag.com/article/02-2019-11-025.html. (HU R L, RUI L, QI X, et al. Text sentiment analysis based on recurrent neural network and attention model[J/OL]. Application Research of Computers, 2019, 36(11). [2018-12-10]. http://www.arocmag.com/article/02-2019-11-025.html.)

    [22] 王偉, 孫玉霞, 齊慶杰, 等. 基于BiGRU-Attention神經(jīng)網(wǎng)絡(luò)的文本情感分類模型[J/OL]. 計(jì)算機(jī)應(yīng)用研究, 2018, 36(12) [2018-12-10]. http://www.arocmag.com/article/02-2019-12-045.html (WANG W, SUN Y X, QI Q J, et al. Text sentiment classification model based on BiGRU-Attention neural network[J/OL]. Application Research of Computers, 2018, 36(12)[2018-12-10]. http://www.arocmag.com/article/02-2019-12-045.html.)

    [23] 陳潔, 邵志清, 張歡歡, 等. 基于并行混合神經(jīng)網(wǎng)絡(luò)模型的短文本情感分析[J/OL]. 計(jì)算機(jī)應(yīng)用, 2019. [2018-12-10]. http://kns.cnki.net/kcms/detail/51.1307.TP.20190329.1643.008.html. (CHEN J, SHAO Z Q, ZHANG H H, et al. Short text sentiment analysis based on parallel hybrid neural network model[J/OL]. Journal of Computer Applications, 2019. [2018-12-10]. http://kns.cnki.net/kcms/detail/51.1307.TP.20190329.1643.008.html.)

    [24] 常丹, 王玉珍. 基于SVM的用戶評(píng)論情感分析方法研究[J]. 棗莊學(xué)院學(xué)報(bào), 2019, 36(2): 73-78. (CHANG D, WANG Y Z. Research on the method of user comment sentiment analysis based on SVM[J]. Journal of Zaozhuang University, 2019, 36(2): 73-78.)

    [25] 王煜涵, 張春云, 趙寶林, 等. 卷積神經(jīng)網(wǎng)絡(luò)下的Twitter文本情感分析[J]. 數(shù)據(jù)采集與處理, 2018, 33(5): 921-927. (WANG Y H, ZHANG C Y, ZHAO B L, et al. Sentiment analysis of twitter data based on CNN[J]. Journal of Data Acquisition and Processing, 2018, 33(5): 921-927.)

    猜你喜歡
    注意力機(jī)制卷積神經(jīng)網(wǎng)絡(luò)
    面向短文本的網(wǎng)絡(luò)輿情話題
    基于自注意力與動(dòng)態(tài)路由的文本建模方法
    基于深度學(xué)習(xí)的問題回答技術(shù)研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
    軟件工程(2017年11期)2018-01-05 08:06:09
    InsunKBQA:一個(gè)基于知識(shí)庫的問答系統(tǒng)
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    久久99热这里只有精品18| 十八禁国产超污无遮挡网站| av免费在线看不卡| 十八禁网站网址无遮挡 | 大片免费播放器 马上看| 丝袜美腿在线中文| 一二三四中文在线观看免费高清| 免费不卡的大黄色大毛片视频在线观看 | 国产黄片美女视频| www.av在线官网国产| 伦精品一区二区三区| 欧美潮喷喷水| 国产欧美日韩精品一区二区| 成年女人在线观看亚洲视频 | 亚洲国产成人一精品久久久| 亚洲av不卡在线观看| 韩国高清视频一区二区三区| 人妻系列 视频| 99热这里只有是精品在线观看| 亚洲图色成人| 天堂网av新在线| 久久久久久久久中文| 少妇的逼水好多| 最近最新中文字幕大全电影3| 成人亚洲精品av一区二区| 91在线精品国自产拍蜜月| 国产精品.久久久| 熟妇人妻不卡中文字幕| 国产91av在线免费观看| 亚洲不卡免费看| 日韩欧美国产在线观看| 欧美一级a爱片免费观看看| 久久久欧美国产精品| 免费看光身美女| 亚洲三级黄色毛片| 91av网一区二区| 美女大奶头视频| 午夜日本视频在线| 日韩精品青青久久久久久| 国产精品福利在线免费观看| 日韩伦理黄色片| 男人舔女人下体高潮全视频| 少妇裸体淫交视频免费看高清| 亚洲精品成人av观看孕妇| 欧美变态另类bdsm刘玥| 欧美日韩在线观看h| 听说在线观看完整版免费高清| 午夜激情欧美在线| 久久精品国产亚洲av涩爱| 日本与韩国留学比较| 狂野欧美激情性xxxx在线观看| 能在线免费观看的黄片| 99热这里只有是精品在线观看| 久久久久久久大尺度免费视频| 欧美高清性xxxxhd video| 久久精品国产鲁丝片午夜精品| 久久久久久久亚洲中文字幕| 欧美人与善性xxx| 免费无遮挡裸体视频| 免费av不卡在线播放| 国产精品久久久久久久电影| av.在线天堂| 波野结衣二区三区在线| 建设人人有责人人尽责人人享有的 | 三级毛片av免费| 日韩欧美 国产精品| 久久久久久九九精品二区国产| 亚洲精品第二区| 性色avwww在线观看| 激情五月婷婷亚洲| 日韩精品有码人妻一区| 亚洲第一区二区三区不卡| 肉色欧美久久久久久久蜜桃 | 亚洲不卡免费看| 免费观看精品视频网站| 国产成人一区二区在线| 免费无遮挡裸体视频| 男人舔女人下体高潮全视频| 久久国内精品自在自线图片| 成人欧美大片| 国产av在哪里看| 噜噜噜噜噜久久久久久91| 51国产日韩欧美| 久久这里有精品视频免费| 午夜福利在线观看免费完整高清在| 我的女老师完整版在线观看| 亚洲欧美中文字幕日韩二区| 国产亚洲精品av在线| 午夜日本视频在线| 丝袜美腿在线中文| 天堂网av新在线| 永久免费av网站大全| 欧美精品国产亚洲| 亚洲欧洲国产日韩| 国产高清有码在线观看视频| 伊人久久国产一区二区| 我的老师免费观看完整版| 欧美精品国产亚洲| 成年免费大片在线观看| 看十八女毛片水多多多| av又黄又爽大尺度在线免费看| av卡一久久| 丝瓜视频免费看黄片| 一个人看的www免费观看视频| 又大又黄又爽视频免费| 插阴视频在线观看视频| 午夜久久久久精精品| 国产熟女欧美一区二区| 亚洲精品乱久久久久久| 非洲黑人性xxxx精品又粗又长| 午夜免费观看性视频| 人妻夜夜爽99麻豆av| 午夜激情久久久久久久| 国产麻豆成人av免费视频| 久久久久久久久中文| 亚洲乱码一区二区免费版| 国产精品精品国产色婷婷| 亚洲一区高清亚洲精品| 国产精品.久久久| 免费av毛片视频| 午夜福利视频1000在线观看| 中文字幕久久专区| 汤姆久久久久久久影院中文字幕 | 国产精品麻豆人妻色哟哟久久 | 亚洲成人一二三区av| 日韩,欧美,国产一区二区三区| 欧美bdsm另类| 在线 av 中文字幕| 久久久久久久久中文| 国产一区二区三区av在线| 一夜夜www| 国产91av在线免费观看| 三级国产精品欧美在线观看| 乱人视频在线观看| 别揉我奶头 嗯啊视频| 国产av码专区亚洲av| 五月玫瑰六月丁香| 成人av在线播放网站| 97超碰精品成人国产| 亚洲成人精品中文字幕电影| 一本久久精品| 久久久精品免费免费高清| 久久久午夜欧美精品| 淫秽高清视频在线观看| videossex国产| 丰满少妇做爰视频| 国产成人精品福利久久| 九九在线视频观看精品| 91aial.com中文字幕在线观看| 国产成人福利小说| 插阴视频在线观看视频| 国产黄色视频一区二区在线观看| 欧美成人精品欧美一级黄| 亚洲在线观看片| 亚洲av二区三区四区| 日韩一本色道免费dvd| 七月丁香在线播放| 国内少妇人妻偷人精品xxx网站| 可以在线观看毛片的网站| 国产亚洲av片在线观看秒播厂 | 国产一区有黄有色的免费视频 | 汤姆久久久久久久影院中文字幕 | 最近的中文字幕免费完整| 尤物成人国产欧美一区二区三区| 黄色一级大片看看| 亚洲精品,欧美精品| 有码 亚洲区| 亚洲精品久久午夜乱码| 大又大粗又爽又黄少妇毛片口| 国产成人精品一,二区| 国产探花极品一区二区| 亚洲av日韩在线播放| 免费av毛片视频| 精品久久久久久久久av| 大片免费播放器 马上看| 亚洲人与动物交配视频| 国产大屁股一区二区在线视频| 91精品一卡2卡3卡4卡| 欧美三级亚洲精品| 亚洲怡红院男人天堂| 视频中文字幕在线观看| 久久人人爽人人片av| 国产淫语在线视频| 熟妇人妻久久中文字幕3abv| 黑人高潮一二区| 国产精品国产三级国产专区5o| 国产精品.久久久| 久久久久久久久久黄片| 日韩一区二区三区影片| 夜夜看夜夜爽夜夜摸| 噜噜噜噜噜久久久久久91| 蜜桃久久精品国产亚洲av| 插逼视频在线观看| 美女xxoo啪啪120秒动态图| 久久精品国产鲁丝片午夜精品| 日韩欧美 国产精品| 青青草视频在线视频观看| 精品人妻一区二区三区麻豆| 国产女主播在线喷水免费视频网站 | 国产成年人精品一区二区| 久久综合国产亚洲精品| 免费黄色在线免费观看| 91精品一卡2卡3卡4卡| 国产精品综合久久久久久久免费| 国产成年人精品一区二区| 一区二区三区免费毛片| videos熟女内射| 精品酒店卫生间| 国产精品无大码| 激情五月婷婷亚洲| 三级国产精品片| 成人午夜精彩视频在线观看| 久久久午夜欧美精品| 国产一区二区亚洲精品在线观看| 亚洲人与动物交配视频| 亚洲性久久影院| 亚洲美女搞黄在线观看| 国产精品1区2区在线观看.| 神马国产精品三级电影在线观看| 激情五月婷婷亚洲| 精品久久久噜噜| 亚洲欧美日韩无卡精品| 成年人午夜在线观看视频 | 国产成人免费观看mmmm| 亚洲一区高清亚洲精品| 国产精品综合久久久久久久免费| 亚洲综合精品二区| 欧美+日韩+精品| 色吧在线观看| 亚洲精品国产av蜜桃| 午夜福利网站1000一区二区三区| 精品久久久久久久末码| 尾随美女入室| 亚洲av福利一区| 国产精品久久久久久久久免| 亚洲激情五月婷婷啪啪| 国产精品嫩草影院av在线观看| 精品少妇黑人巨大在线播放| 久久久久久久午夜电影| 亚洲人成网站高清观看| 精品久久久久久久久亚洲| 男人爽女人下面视频在线观看| 女人久久www免费人成看片| 久久久精品94久久精品| 国产色婷婷99| 亚洲一级一片aⅴ在线观看| 久久精品久久久久久久性| 亚洲欧美一区二区三区黑人 | 亚洲av日韩在线播放| av在线播放精品| 成人午夜精彩视频在线观看| 亚洲熟妇中文字幕五十中出| 久久精品国产鲁丝片午夜精品| 国产精品福利在线免费观看| 国产淫片久久久久久久久| 国产精品一区二区三区四区免费观看| 99九九线精品视频在线观看视频| 天堂av国产一区二区熟女人妻| 国产精品av视频在线免费观看| 99热6这里只有精品| 亚洲国产高清在线一区二区三| 91在线精品国自产拍蜜月| 可以在线观看毛片的网站| www.色视频.com| 韩国高清视频一区二区三区| 久久久亚洲精品成人影院| 国语对白做爰xxxⅹ性视频网站| 国产成人一区二区在线| 亚洲欧洲日产国产| 国产成人a区在线观看| 日日啪夜夜撸| 免费大片18禁| 亚洲av免费高清在线观看| 男女国产视频网站| 亚洲人与动物交配视频| 看黄色毛片网站| av在线观看视频网站免费| 深爱激情五月婷婷| 中文字幕亚洲精品专区| .国产精品久久| 亚洲自偷自拍三级| 午夜激情福利司机影院| 日韩欧美国产在线观看| 一区二区三区免费毛片| 亚洲人成网站在线播| 国产成人一区二区在线| 日韩欧美 国产精品| 五月玫瑰六月丁香| 日本黄色片子视频| 伦理电影大哥的女人| 男人舔女人下体高潮全视频| 能在线免费看毛片的网站| a级毛色黄片| 内射极品少妇av片p| 精品午夜福利在线看| 日韩亚洲欧美综合| 啦啦啦韩国在线观看视频| 日韩人妻高清精品专区| 国产高清国产精品国产三级 | 纵有疾风起免费观看全集完整版 | 国产免费又黄又爽又色| 国产真实伦视频高清在线观看| 成人av在线播放网站| 成年女人看的毛片在线观看| 精品久久久精品久久久| 国产高清不卡午夜福利| av卡一久久| 特级一级黄色大片| a级毛片免费高清观看在线播放| 黄色欧美视频在线观看| 黑人高潮一二区| 又爽又黄a免费视频| 婷婷色综合大香蕉| 欧美极品一区二区三区四区| 美女主播在线视频| 国产精品久久久久久久久免| 五月伊人婷婷丁香| 国产单亲对白刺激| 哪个播放器可以免费观看大片| 三级国产精品片| 男女边摸边吃奶| 久久久色成人| 日本黄大片高清| 一本久久精品| 成年女人看的毛片在线观看| 日本欧美国产在线视频| 三级国产精品欧美在线观看| 在线免费十八禁| 寂寞人妻少妇视频99o| 在线观看免费高清a一片| 亚洲最大成人中文| 69人妻影院| 免费看不卡的av| 色哟哟·www| 免费少妇av软件| 国产精品国产三级国产av玫瑰| 亚洲图色成人| 久久久成人免费电影| 午夜福利成人在线免费观看| 精品人妻视频免费看| 久久99热6这里只有精品| 久久精品人妻少妇| 国产乱来视频区| 日日啪夜夜撸| 免费看av在线观看网站| 亚洲精品成人久久久久久| 亚洲精品456在线播放app| 国产精品国产三级专区第一集| 最近的中文字幕免费完整| 男女啪啪激烈高潮av片| 亚洲精品第二区| ponron亚洲| 五月天丁香电影| 日本-黄色视频高清免费观看| 欧美成人一区二区免费高清观看| 夜夜看夜夜爽夜夜摸| 午夜免费激情av| 一级毛片黄色毛片免费观看视频| 国产精品熟女久久久久浪| 国产一级毛片七仙女欲春2| 久久国内精品自在自线图片| 永久免费av网站大全| 国产精品熟女久久久久浪| 天堂中文最新版在线下载 | 三级毛片av免费| 国产精品综合久久久久久久免费| 非洲黑人性xxxx精品又粗又长| 国产精品综合久久久久久久免费| 在线免费观看不下载黄p国产| 午夜福利高清视频| 免费黄色在线免费观看| 亚洲自拍偷在线| 国产精品一二三区在线看| 丝袜美腿在线中文| 国产激情偷乱视频一区二区| 亚洲内射少妇av| 亚洲三级黄色毛片| 国产黄a三级三级三级人| 成人欧美大片| 有码 亚洲区| 国产在线男女| 偷拍熟女少妇极品色| 熟妇人妻久久中文字幕3abv| 国产高清有码在线观看视频| 免费av不卡在线播放| 大片免费播放器 马上看| 免费av不卡在线播放| 午夜福利在线观看吧| 国产精品一区二区三区四区免费观看| 亚洲国产最新在线播放| 亚洲电影在线观看av| 免费观看的影片在线观看| 精品熟女少妇av免费看| 国产成人aa在线观看| 久久精品人妻少妇| 女人被狂操c到高潮| av国产免费在线观看| 国产v大片淫在线免费观看| 最新中文字幕久久久久| 国产综合懂色| 国产亚洲午夜精品一区二区久久 | 亚洲精品视频女| 少妇人妻精品综合一区二区| 美女大奶头视频| 精品99又大又爽又粗少妇毛片| 亚洲欧洲国产日韩| 在线观看人妻少妇| 色哟哟·www| kizo精华| 欧美激情在线99| av天堂中文字幕网| 久久国内精品自在自线图片| 91午夜精品亚洲一区二区三区| 午夜激情欧美在线| 国产一区二区三区av在线| 午夜福利成人在线免费观看| 丰满人妻一区二区三区视频av| 一级爰片在线观看| 狂野欧美激情性xxxx在线观看| 欧美日本视频| 国产高清有码在线观看视频| 熟女电影av网| 成人性生交大片免费视频hd| 2022亚洲国产成人精品| 99久国产av精品| 少妇丰满av| 精品亚洲乱码少妇综合久久| xxx大片免费视频| 波多野结衣巨乳人妻| 免费看美女性在线毛片视频| 一个人看的www免费观看视频| 亚洲综合精品二区| 中文字幕av成人在线电影| 麻豆av噜噜一区二区三区| 免费观看a级毛片全部| 99热这里只有精品一区| xxx大片免费视频| 80岁老熟妇乱子伦牲交| 日本av手机在线免费观看| 亚洲色图av天堂| 一级毛片我不卡| av在线蜜桃| 免费在线观看成人毛片| 又大又黄又爽视频免费| 日本一本二区三区精品| a级毛片免费高清观看在线播放| 特级一级黄色大片| 午夜老司机福利剧场| 国内精品美女久久久久久| 国产美女午夜福利| 五月伊人婷婷丁香| 男女那种视频在线观看| 男女国产视频网站| 人人妻人人看人人澡| 九色成人免费人妻av| 黄色欧美视频在线观看| 别揉我奶头 嗯啊视频| 91午夜精品亚洲一区二区三区| 精品久久久久久久末码| 久久精品国产亚洲av涩爱| 亚洲欧洲日产国产| 精品一区二区三卡| 国产精品av视频在线免费观看| 亚洲精品中文字幕在线视频 | 免费观看av网站的网址| 亚洲国产最新在线播放| 人人妻人人澡人人爽人人夜夜 | 少妇丰满av| 超碰97精品在线观看| 国产亚洲5aaaaa淫片| 国产黄色视频一区二区在线观看| 91av网一区二区| av女优亚洲男人天堂| 亚洲精品日韩在线中文字幕| 麻豆精品久久久久久蜜桃| 少妇丰满av| 天堂网av新在线| 国产精品精品国产色婷婷| 国产成人freesex在线| 性色avwww在线观看| 日韩人妻高清精品专区| 99久国产av精品| 久久久久久久久久黄片| 啦啦啦韩国在线观看视频| 丰满乱子伦码专区| 秋霞伦理黄片| 久久精品久久久久久噜噜老黄| 婷婷六月久久综合丁香| 免费看日本二区| 亚洲激情五月婷婷啪啪| av国产久精品久网站免费入址| 成年版毛片免费区| 嫩草影院新地址| 日韩国内少妇激情av| 乱人视频在线观看| 老师上课跳d突然被开到最大视频| 亚洲真实伦在线观看| 成人鲁丝片一二三区免费| 国产一级毛片七仙女欲春2| 免费观看的影片在线观看| 亚洲第一区二区三区不卡| 成人av在线播放网站| 久久精品人妻少妇| 久久久久性生活片| 国产永久视频网站| 国产免费一级a男人的天堂| 亚洲国产最新在线播放| 在线天堂最新版资源| 插阴视频在线观看视频| 精品国产露脸久久av麻豆 | 狂野欧美白嫩少妇大欣赏| 国内少妇人妻偷人精品xxx网站| 麻豆成人午夜福利视频| 欧美精品一区二区大全| 能在线免费看毛片的网站| 精品国产露脸久久av麻豆 | 十八禁国产超污无遮挡网站| 国产成年人精品一区二区| 免费人成在线观看视频色| 男女边吃奶边做爰视频| 国产高清三级在线| 国产亚洲91精品色在线| 国产高清三级在线| 床上黄色一级片| 国产精品不卡视频一区二区| 国产精品一区二区三区四区久久| 天堂av国产一区二区熟女人妻| 校园人妻丝袜中文字幕| 国产精品一区二区在线观看99 | 三级毛片av免费| 国产极品天堂在线| 亚洲人与动物交配视频| 国产永久视频网站| 久久精品夜色国产| 久久99精品国语久久久| 国产黄色视频一区二区在线观看| av在线蜜桃| 在线免费十八禁| 我的老师免费观看完整版| 91久久精品国产一区二区三区| 久久鲁丝午夜福利片| 床上黄色一级片| 啦啦啦韩国在线观看视频| 亚洲国产欧美人成| 精品欧美国产一区二区三| 免费大片黄手机在线观看| 两个人视频免费观看高清| 日日摸夜夜添夜夜添av毛片| 一个人观看的视频www高清免费观看| 色网站视频免费| 一二三四中文在线观看免费高清| 看免费成人av毛片| 91久久精品国产一区二区成人| 久久久久久久久久人人人人人人| 禁无遮挡网站| 亚洲精品aⅴ在线观看| 国产麻豆成人av免费视频| 亚洲精品,欧美精品| 亚洲精品456在线播放app| 热99在线观看视频| 精品99又大又爽又粗少妇毛片| 久久久久久伊人网av| 国产日韩欧美在线精品| 国国产精品蜜臀av免费| 亚洲欧美成人精品一区二区| 国产黄片视频在线免费观看| 亚洲成色77777| 国内精品宾馆在线| 亚洲精品视频女| 久久草成人影院| 国产精品久久久久久精品电影| 成人综合一区亚洲| 日韩强制内射视频| 国产伦一二天堂av在线观看| 日日干狠狠操夜夜爽| 国产高清不卡午夜福利| 五月天丁香电影| 亚洲真实伦在线观看| 亚洲人成网站在线播| 亚洲精品乱久久久久久| 中文字幕av在线有码专区| 国产综合精华液| 大陆偷拍与自拍| a级毛色黄片| 国产精品一区二区三区四区久久| 国产精品.久久久| 日韩一区二区三区影片| 亚洲国产欧美在线一区| h日本视频在线播放| 99热这里只有是精品在线观看| 日韩三级伦理在线观看| 少妇高潮的动态图| a级毛色黄片| 久久人人爽人人爽人人片va| 亚洲经典国产精华液单| 青春草国产在线视频| 亚洲国产欧美在线一区| 成人亚洲精品一区在线观看 | 精品不卡国产一区二区三区| 亚洲最大成人手机在线| 国产黄色免费在线视频| 又爽又黄无遮挡网站| 日韩制服骚丝袜av| 久久精品熟女亚洲av麻豆精品 | 亚洲一区高清亚洲精品| 亚洲怡红院男人天堂| 美女被艹到高潮喷水动态| 18禁在线播放成人免费| 伦理电影大哥的女人| 最近手机中文字幕大全| 边亲边吃奶的免费视频| 日本黄色片子视频| 精品国产三级普通话版| 男女那种视频在线观看| 一级二级三级毛片免费看|