• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于特征選擇和深度信念網(wǎng)絡(luò)的文本情感分類算法

    2019-09-04 10:14:27向進(jìn)勇楊文忠吾守爾斯拉木
    計(jì)算機(jī)應(yīng)用 2019年7期
    關(guān)鍵詞:特征選擇深度學(xué)習(xí)

    向進(jìn)勇 楊文忠 吾守爾?斯拉木

    摘 要:由于人類語(yǔ)言的復(fù)雜性,文本情感分類算法大多都存在因?yàn)槿哂喽斐傻脑~匯量過(guò)大的問題。深度信念網(wǎng)絡(luò)(DBN)通過(guò)學(xué)習(xí)輸入語(yǔ)料中的有用信息以及它的幾個(gè)隱藏層來(lái)解決這個(gè)問題。然而對(duì)于大型應(yīng)用程序來(lái)說(shuō),DBN是一個(gè)耗時(shí)且計(jì)算代價(jià)昂貴的算法。針對(duì)這個(gè)問題,提出了一種半監(jiān)督的情感分類算法,即基于特征選擇和深度信念網(wǎng)絡(luò)的文本情感分類算法(FSDBN)。首先使用特征選擇方法(文檔頻率(DF)、信息增益(IG)、卡方統(tǒng)計(jì)(CHI)、互信息(MI))過(guò)濾掉一些不相關(guān)的特征從而使詞匯表的復(fù)雜性降低;然后將特征選擇的結(jié)果輸入到DBN中,使得DBN的學(xué)習(xí)階段更加高效。將所提算法應(yīng)用到中文以及維吾爾語(yǔ)中,實(shí)驗(yàn)結(jié)果表明在酒店評(píng)論數(shù)據(jù)集上,F(xiàn)SDBN在準(zhǔn)確率方面比DBN提高了1.6%,在訓(xùn)練時(shí)間上比DBN縮短一半。

    關(guān)鍵詞:深度信念網(wǎng)絡(luò);深度學(xué)習(xí);特征選擇;半監(jiān)督的情感分類算法;受限波爾茲曼機(jī);文本情感分類

    中圖分類號(hào): TP391.1

    文獻(xiàn)標(biāo)志碼:A

    英文標(biāo)題

    Text sentiment classification algorithm based on feature selection and deep belief network

    英文作者名

    XIANG Jinyong1,2, YANG Wenzhong1*, SILAMU·Wushouer2第三作者的名字書寫,與文后文獻(xiàn)17的寫法不同,此處表述是否正確?請(qǐng)核實(shí)。英文作者的書寫,在落款中,是姓氏大寫,名字要小寫,照此規(guī)定,中文姓名中,哪個(gè)是姓氏,哪個(gè)是名字,也請(qǐng)明確。回復(fù):維吾爾族姓名中點(diǎn)后面的是父親的名字

    英文地址(

    Abstract: Because of the complexity of human language, text sentiment classification algorithms mostly have the problem of excessively huge vocabulary due to redundancy. Deep Belief Network (DBN) can solve this problem by learning useful information in the input corpus and its hidden layers. However, DBN is a time-consuming and computationally expensive algorithm for large applications. Aiming at this problem, a semi-supervised sentiment classification algorithm called text sentiment classification algorithm based on Feature Selection and Deep Belief Network (FSDBN) was proposed. Firstly, the feature selection methods including Document Frequency (DF), Information Gain (IG), CHI-square statistics (CHI) and Mutual Information (MI) were used to filter out some irrelevant features to reduce the complexity of vocabulary. Then, the results of feature selection were input into DBN to make the learning phase of DBN more efficient. The proposed algorithm was applied to Chinese and Uygur language. The experimental results on hotel review dataset show that the accuracy of FSDBN is 1.6% higher than that of DBN and the training time of FSDBN halves that of DBN.

    Key words: Deep Belief Network (DBN); Deep Learning (DL); Feature Selection (FS); semi-supervised sentiment classification algorithm; Restricted Boltzmann Machine (RBM); text sentiment classification

    0 引言

    如今,互聯(lián)網(wǎng)上社交媒體的數(shù)據(jù)量大幅度增長(zhǎng)。個(gè)人和組織試圖從這些大型數(shù)據(jù)集中提取有用的信息,以便作出更好的判斷并提高客戶滿意度。例如,在決定是否購(gòu)買產(chǎn)品或服務(wù)之前,客戶會(huì)查看其他人對(duì)產(chǎn)品的評(píng)論。同樣,產(chǎn)品的制造商也使用這些信息來(lái)提高產(chǎn)品的服務(wù)和質(zhì)量。然而,由于網(wǎng)絡(luò)上有大量的可用數(shù)據(jù),人們手工的去標(biāo)注這些數(shù)據(jù)是不現(xiàn)實(shí)的,因此,文本情感分類(確定文檔中表達(dá)的情緒是積極的、中立的還是消極的)將對(duì)商業(yè)智能應(yīng)用程序、推薦系統(tǒng)和消息過(guò)濾應(yīng)用程序有幫助和益處。

    為了構(gòu)建一個(gè)準(zhǔn)確的情感性分類器,在過(guò)去的幾年里,許多研究者嘗試將深度學(xué)習(xí)算法與機(jī)器學(xué)習(xí)算法相結(jié)合[1-4]。深度學(xué)習(xí)算法具有處理數(shù)百萬(wàn)個(gè)參數(shù)的能力,可以極大地提高模型預(yù)測(cè)的能力。其中一個(gè)典型的例子是Socher等[4]提出的基于情感樹的遞歸神經(jīng)網(wǎng)絡(luò)訓(xùn)練,它能準(zhǔn)確預(yù)測(cè)文本情感,準(zhǔn)確率達(dá)85%以上;然而在有監(jiān)督訓(xùn)練方法中需要大量的標(biāo)記訓(xùn)練數(shù)據(jù),手工標(biāo)記這些數(shù)據(jù)常常是困難和費(fèi)時(shí)的。

    文獻(xiàn)[5]中提出了半監(jiān)督學(xué)習(xí)的新方法,它的目的是利用大量的未標(biāo)記數(shù)據(jù)和標(biāo)記數(shù)據(jù)構(gòu)建文本情感分類器。文獻(xiàn)[6]稱半監(jiān)督深度學(xué)習(xí)模型可以在獲得良好的性能的同時(shí)避免上述問題。然而目前的深度學(xué)習(xí)算法對(duì)于大型應(yīng)用程序來(lái)說(shuō)計(jì)算成本很高。

    此外,大多數(shù)分類算法使用固定大小的數(shù)字特征向量作為輸入,而不是使用原始的變長(zhǎng)文本文檔,因此,有必要將一個(gè)文檔語(yǔ)料庫(kù)轉(zhuǎn)換為一個(gè)矩陣,每個(gè)文檔表示一行,每個(gè)詞語(yǔ)表示一列,每一列表示詞語(yǔ)在語(yǔ)料庫(kù)中發(fā)生的情況。由于人類語(yǔ)言的復(fù)雜性,特征項(xiàng)的維度可能超過(guò)1萬(wàn)維度,而其中大多數(shù)是嘈雜的或冗余的。這將導(dǎo)致分類錯(cuò)誤的數(shù)量和計(jì)算時(shí)間的增加。

    為了克服上述缺陷,使學(xué)習(xí)階段更高效、更準(zhǔn)確,必須進(jìn)行有效的特征選擇,其目的是過(guò)濾訓(xùn)練集中出現(xiàn)的非必要特征項(xiàng),只選擇有意義的特征項(xiàng)。Forman[7]提出了多種特征選擇的方法。結(jié)果表明,采用特征選擇方法可以通過(guò)消除噪聲特征來(lái)減少輸入數(shù)據(jù)的維數(shù),從而提高分類算法的性能,因此,本文提出的方法可以更快地訓(xùn)練出分類模型,減少內(nèi)存消耗,并得到更高的結(jié)果精度。

    1 相關(guān)工作

    在本章中,介紹相關(guān)特征選擇算法和半監(jiān)督深度學(xué)習(xí)的理論背景。

    1.1 特征選擇

    特征選擇是通過(guò)選擇相關(guān)特征的子集來(lái)簡(jiǎn)化模型構(gòu)建的過(guò)程。它有兩個(gè)主要角色:第一個(gè)作用是通過(guò)減少詞匯輸入的大小來(lái)提高分類器的訓(xùn)練過(guò)程的效率;第二個(gè)作用是通過(guò)過(guò)濾不重要的術(shù)語(yǔ)或噪聲特征來(lái)提高預(yù)測(cè)精度,因此,可以縮短訓(xùn)練時(shí)間,也可以得到更好的模型表示。特征選擇是一種比較常用的特征維數(shù)約減的方法,選擇出更具有代表特征。特征選擇的好壞對(duì)情感文本分類的效果有很大的影響。

    基本上,特征選擇技術(shù)可以分為三類:過(guò)濾技術(shù)、包裝技術(shù)和嵌入技術(shù)。在學(xué)習(xí)算法之前,使用基于過(guò)濾的技術(shù)作為預(yù)處理步驟。根據(jù)一些標(biāo)準(zhǔn)對(duì)特征進(jìn)行排序,如果它們的分?jǐn)?shù)超過(guò)適當(dāng)?shù)念A(yù)先定義的閾值,就會(huì)進(jìn)行選擇。包裝器技術(shù)使用一種學(xué)習(xí)算法來(lái)選擇和評(píng)估所有特性中的一個(gè)子集。嵌入式技術(shù)作為訓(xùn)練過(guò)程的一部分進(jìn)行特征選擇。

    在這三種類型中,基于過(guò)濾的方法是最適合的,因?yàn)樗?jiǎn)單、快速,并且獨(dú)立于分類器。它具有良好的可擴(kuò)展性,可以有效地應(yīng)用于大型應(yīng)用。文獻(xiàn)[8-9]對(duì)特征選擇的方法進(jìn)行了研究,基于過(guò)濾器的技術(shù)有文檔頻率(Document Frequency, DF)[9-10]、信息增益(Information Gain, IG)[10]、卡方統(tǒng)計(jì)(CHI-square statistics, CHI)[11-12]、互信息(Mutual Information, MI)[13]等,在所有特征選擇算法中,本文使用文檔頻率、信息增益、卡方統(tǒng)計(jì)、互信息作為基于特征選擇和深度信念網(wǎng)絡(luò)的文本情感分類算法(text sentiment classification algorithm based on Feature Selection and Deep Belief Network, FSDBN)框架中的特征選擇方法,用實(shí)驗(yàn)證明哪種特征選擇方法與深度信念網(wǎng)絡(luò)(Deep Belief Network, DBN)結(jié)合可以取得最好的文本情感分類效果。

    1.1.1 文檔頻率

    文檔頻率方法的基本思想是:統(tǒng)計(jì)每個(gè)詞的文檔頻率值,根據(jù)預(yù)先設(shè)定的最小文檔頻率值以及最大的文檔頻率值來(lái)除去一些沒有代表的特征,如果特征t的文檔頻率值在最小和最大閾值之間,則保留此特征t;否則就刪去此特征。這種方法理解與實(shí)現(xiàn)起來(lái)比較簡(jiǎn)單,適用于大規(guī)模數(shù)據(jù)集,閾值的設(shè)定可能會(huì)影響到特征選擇的效果,從而影響到文本分類的效果。

    1.1.2 信息增益

    信息增益(IG)能夠度量某個(gè)特征包含類別信息的多少,一個(gè)特征詞的信息增益等于該特征出現(xiàn)前后的信息熵之差,通常會(huì)對(duì)某一文檔、類別或是整個(gè)數(shù)據(jù)集來(lái)計(jì)算,根據(jù)IG方法的定義,某個(gè)特征的信息增益越大說(shuō)明該特征對(duì)于分類就越重要。

    信息增益的公式(1)如下,針對(duì)某個(gè)具體的類別ci,對(duì)于特征t的信息增益如式(1):

    其中表示特征t不出現(xiàn),那么特征t對(duì)于整個(gè)訓(xùn)練集的信息增益如式(2):

    1.1.3 卡方統(tǒng)計(jì)

    卡方統(tǒng)計(jì)(CHI)能表示兩個(gè)變量的相關(guān)性,CHI兼顧了特征存在與特征不存在時(shí)的情況。根據(jù)CHI的定義以及公式可知特征與類別的CHI值越大,就表示這個(gè)特征就越重要。

    文獻(xiàn)[10]分別根據(jù)卡方統(tǒng)計(jì)(CHI)以及互信息(MI)的特征選擇方法給語(yǔ)料中的中文特征詞賦予了一定的權(quán)重。

    有的研究人員也使用了改進(jìn)的卡方特征選擇技術(shù)[12]來(lái)避免卡方統(tǒng)計(jì)量的缺點(diǎn)“低頻詞缺陷問題”(它只統(tǒng)計(jì)文檔是否出現(xiàn)詞而不管出現(xiàn)幾次)。這會(huì)使得它對(duì)低頻詞有所偏袒(因?yàn)樗浯罅说皖l詞的作用),甚至它會(huì)出現(xiàn)一些情況,一個(gè)詞在一類文章的每篇文檔中只出現(xiàn)一次,其卡方值卻大過(guò)了在該類文章99%的文檔中出現(xiàn)了10次的詞,其實(shí)后面的詞才是更具代表性的,但只因?yàn)樗霈F(xiàn)的文檔數(shù)比前面的文檔中詞少了“1”,特征選擇的時(shí)候就可能篩掉后面的詞而保留前者)。

    1.1.4 互信息

    互信息(MI)是信息論中的一個(gè)概念,表示的是一個(gè)隨機(jī)變量中包含另一個(gè)隨機(jī)變量的信息量。在文本情感分析任務(wù)中,特征項(xiàng)跟情感類別之間的互信息量可以表示特征項(xiàng)推測(cè)出情感類別的能力,若特征項(xiàng)與情感類別的互信息為0,這就可以表示特征項(xiàng)不包含任何的特征信息,對(duì)文本情感分類沒有任何的貢獻(xiàn)。如果互信息越大,表示特征項(xiàng)包含的情感信息越大,類別間的區(qū)分程度也就越大。特征項(xiàng)t與情感類別C之間的互信息量計(jì)算公式(4)如下:

    不管使用什么樣的特征選擇技術(shù),最終的目的就是減少特征的空間,消除噪聲從而提高分類器的性能。本文使用這四種特征選擇方法與深度信念網(wǎng)絡(luò)結(jié)合實(shí)現(xiàn)半監(jiān)督的文本情感分類。

    1.2 半監(jiān)督深度學(xué)習(xí)

    半監(jiān)督深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,它利用少量的標(biāo)記數(shù)據(jù)和大量的未標(biāo)記數(shù)據(jù)。半監(jiān)督深度學(xué)習(xí)算法的一個(gè)著名例子是深度信念網(wǎng)絡(luò)(DBN),它是由Hinton等最近提出的。DBN是由限制玻爾茲曼機(jī)(Restricted Boltzmann Machine, RBM)構(gòu)造的許多隱藏層組成的。該模型利用大量未標(biāo)注數(shù)據(jù),克服領(lǐng)域依賴和缺乏標(biāo)注數(shù)據(jù)缺陷,同時(shí)獲得良好的性能[14]。

    1.2.1 受限玻爾茲曼機(jī)

    受限玻爾茲曼機(jī)(Restricted Boltzmann Machine, RBM)是一種基于能量的生成隨機(jī)模型,其目標(biāo)是了解其輸入集的概率分布。它由一個(gè)輸入層(可見層)和一個(gè)隱藏層組成,通過(guò)對(duì)稱加權(quán)連接,但同一層神經(jīng)元之間沒有連接。圖1顯示了RBM的網(wǎng)絡(luò)模型。

    為了訓(xùn)練一個(gè)網(wǎng)絡(luò)模型,最廣泛使用的算法被稱為對(duì)比散度(Contrastive Divergence, CD)。訓(xùn)練RBM的目的是優(yōu)化網(wǎng)絡(luò)中的權(quán)向量,以最小化誤差。為了在盡可能保持輸入數(shù)據(jù)分布的同時(shí)降低網(wǎng)絡(luò)的能量,在訓(xùn)練數(shù)據(jù)的對(duì)數(shù)似然時(shí)應(yīng)用了隨機(jī)梯度上升,關(guān)于方程的更多細(xì)節(jié)可以參閱文獻(xiàn)[15]。

    1.2.2 深度信念網(wǎng)絡(luò)

    為了獲取更好的性能,一組受限制的玻爾茲曼機(jī)器可以定義為深度信念網(wǎng)絡(luò)(DBN)。為了構(gòu)建DBN,本文可以按照以下步驟[16]。

    利用一組RBMs作為構(gòu)建塊,貪婪地分層無(wú)監(jiān)督學(xué)習(xí)構(gòu)造DBN。該學(xué)習(xí)算法有效地利用了未標(biāo)記數(shù)據(jù),在輸入數(shù)據(jù)中提供了大量的模式,從而比隨機(jī)數(shù)據(jù)產(chǎn)生更好的初始權(quán)值。

    利用基于梯度下降算法的有監(jiān)督學(xué)習(xí)方法,根據(jù)指數(shù)損失函數(shù)訓(xùn)練DBN。模型的權(quán)值通過(guò)標(biāo)記數(shù)據(jù)來(lái)細(xì)化,目的是進(jìn)行模式分類。

    圖2顯示了具有一個(gè)輸入層的DBN的貪婪分層無(wú)監(jiān)督訓(xùn)練過(guò)程,即輸入層x和三個(gè)隱藏層即從下到上分別是h1、h2和h3。較淺的顏色層代表已經(jīng)過(guò)訓(xùn)練的層,而較深的顏色層則是經(jīng)過(guò)訓(xùn)練的層從圖中看不出來(lái),請(qǐng)明確是否描述正確?。經(jīng)過(guò)貪婪的分層無(wú)監(jiān)督學(xué)習(xí),h3(x)是x的表示。然后,在頂部添加一個(gè)輸出層,并使用標(biāo)記評(píng)論來(lái)細(xì)化權(quán)重,以提高識(shí)別能力。圖3顯示了完整的DBN。

    作者說(shuō):圖3與圖2位置放反了。因此,調(diào)整圖形的編號(hào)即可。

    在文本情感分類研究中,DBN采用以詞袋模型表示的矩陣作為輸入。前幾層期望從輸入中提取低層次的特性,而上一層則需要提煉以前學(xué)過(guò)的特性模式,從而生成更復(fù)雜的特征。最后,在輸出層預(yù)測(cè)評(píng)論的情緒傾向,無(wú)論是積極的還是消極的。

    2 基于特征選擇和深度信念網(wǎng)絡(luò)的分類算法

    本章將介紹基于特征選擇的深度信念網(wǎng)絡(luò)(FSDBN)的主要設(shè)計(jì)流程。圖4是顯示執(zhí)行文本情感分類任務(wù)的框架。大多數(shù)任務(wù)與其他文本分類方法相似,分別包括特征提取、數(shù)據(jù)分隔、模型訓(xùn)練和測(cè)試。然而,在本文題注的算法中有兩個(gè)新的任務(wù),即特征選擇和縮減。每個(gè)任務(wù)的細(xì)節(jié)如下所述。

    2.1 特征提取

    在文本情感分類應(yīng)用中,需要將變長(zhǎng)文檔轉(zhuǎn)換為適合于分類算法的固定大小的數(shù)字特征向量。對(duì)基于文本的輸入進(jìn)行特征提取的常用技術(shù)是詞袋技術(shù),該技術(shù)通過(guò)單詞出現(xiàn)來(lái)描述文檔,而忽略了單詞的相對(duì)位置信息。有兩個(gè)主要任務(wù),包括特征定義和加權(quán)分?jǐn)?shù)計(jì)算。在本文的模型中,本文算法將標(biāo)記的詞語(yǔ)應(yīng)用為“特征”(中文使用結(jié)巴進(jìn)行分詞、維吾爾語(yǔ)提取unigram)。

    想要提取特性,首先進(jìn)行分詞(中文使用結(jié)巴進(jìn)行分詞、維吾爾語(yǔ)提取unigram),然后把所有的特征生成一個(gè)字典,在一個(gè)文檔中,如果該特征出現(xiàn)就賦值為1;否則為0。此外,根據(jù)每個(gè)詞匯表降序排列的次數(shù)排序的前2%詞匯表將被刪除,因?yàn)樗鼈冎械拇蠖鄶?shù)都是停止詞(例如“的”“是”),或者它們可能是特定領(lǐng)域或通用的詞(例如,酒店評(píng)論中的“酒店”)。從理論上講,停用詞可以出現(xiàn)在正訓(xùn)練數(shù)據(jù)集或負(fù)訓(xùn)練數(shù)據(jù)集中,而不帶有任何情緒信息,這可能會(huì)增加分類錯(cuò)誤率,因?yàn)樗鼈兊那榫w含糊不清。在此過(guò)程之后,一個(gè)文檔語(yǔ)料庫(kù)就形成了一個(gè)二進(jìn)制值矩陣,每個(gè)文檔表示一行,每個(gè)特性或標(biāo)記在語(yǔ)料庫(kù)中表示一列。

    2.2 數(shù)據(jù)劃分

    為了使得到的結(jié)果更加具有說(shuō)服力,在中文文本情感分類中,本文選取譚松波博士收集整理的酒店評(píng)論語(yǔ)料、京東上獲取的書集書籍評(píng)論語(yǔ)料、淘寶上獲取的電腦評(píng)論語(yǔ)料。

    為了驗(yàn)證模型FSDBN在維吾爾語(yǔ)文本情感分類中的有效性。相對(duì)于中文和英文來(lái)說(shuō)維吾爾語(yǔ)的文本情感開放語(yǔ)料較少,本實(shí)驗(yàn)所使用的維吾爾語(yǔ)文本情感語(yǔ)料是由伊爾夏提·吐爾貢等[17]在這三個(gè)維文網(wǎng)站(Alkuy、TianShan、Putbal)上收集的評(píng)論數(shù)據(jù),然后經(jīng)過(guò)維吾爾族大學(xué)生進(jìn)行手工篩選,最終形成了pos類5000多條句子以及neg類5000多條句子。

    在這四個(gè)數(shù)據(jù)集中,本文選取3000個(gè)標(biāo)簽評(píng)論(即在每個(gè)數(shù)據(jù)集中,有1500個(gè)正面和1500個(gè)負(fù)面)。

    由于所提出的分類器是一種半監(jiān)督學(xué)習(xí)算法,利用未標(biāo)記和標(biāo)記數(shù)據(jù)構(gòu)造分類器,因此,本文方法將數(shù)據(jù)集劃分為三個(gè)集,包括未標(biāo)記訓(xùn)練集、標(biāo)記訓(xùn)練集和標(biāo)記測(cè)試集。將每個(gè)3000個(gè)評(píng)論的數(shù)據(jù)集隨機(jī)劃分為10個(gè)大小相等的文檔,同時(shí)為了交叉驗(yàn)證的目的,仍然在每份文檔中保持平衡的類分布。在每一輪中,本文算法選擇一份文檔作為標(biāo)記數(shù)據(jù)集,然后隨機(jī)選擇這份文檔中的一半評(píng)論作為標(biāo)記訓(xùn)練數(shù)據(jù)集,另一半作為標(biāo)記測(cè)試數(shù)據(jù)集。其余9個(gè)折疊被用作未標(biāo)記的數(shù)據(jù)集。

    2.3 特征選擇和特征約減

    為了提高分類精度,本文的目標(biāo)是通過(guò)特征選擇和特征約減來(lái)消除可能導(dǎo)致分類誤差的噪聲特征。在本文的框架中,本文使用文檔頻率、信息增益、卡方統(tǒng)計(jì)、互信息特征選擇來(lái)確定哪些特征與情感分類最相關(guān),以獲得最高的分類準(zhǔn)確性。

    本文提出的分類算法經(jīng)過(guò)特征選擇算法來(lái)選擇前n%的特征來(lái)構(gòu)建文本情感分類模型,而其他的則不用于分析。每個(gè)數(shù)據(jù)集的最佳n百分比值如表3所示見3.4節(jié)實(shí)驗(yàn)。值得注意的是,本文之所以使用帶標(biāo)簽的訓(xùn)練數(shù)據(jù)集來(lái)進(jìn)行特征選擇,僅僅是因?yàn)樵撍惴ɑ诒O(jiān)督學(xué)習(xí)方法,并且避免了測(cè)試集出現(xiàn)過(guò)擬合問題。

    2.4 模型訓(xùn)練和測(cè)試

    本文框架中使用的情感分類模型是基于深度信念網(wǎng)絡(luò)的。首先,學(xué)習(xí)算法使用無(wú)標(biāo)記的訓(xùn)練評(píng)論執(zhí)行貪婪的分層無(wú)監(jiān)督學(xué)習(xí);然后,利用基于梯度下降法的監(jiān)督學(xué)習(xí)方法,通過(guò)帶指數(shù)損失函數(shù)的訓(xùn)練來(lái)改進(jìn)模型的權(quán)值;在完全構(gòu)建預(yù)測(cè)模型后,利用標(biāo)記數(shù)據(jù)對(duì)模型進(jìn)行測(cè)試;最后的分類結(jié)果使用十倍交叉驗(yàn)證在F值方面的平均。第3章將介紹DBN的學(xué)習(xí)參數(shù)和結(jié)構(gòu)。

    3 實(shí)驗(yàn)以及討論

    在本章中,為了驗(yàn)證本文提出的FSDBN算法的性能,將其在準(zhǔn)確率和訓(xùn)練時(shí)間方面與其他算法半監(jiān)督學(xué)習(xí)算法[1,4,18-20]進(jìn)行比較。

    3.1 實(shí)驗(yàn)設(shè)置

    本文實(shí)驗(yàn)的目的是評(píng)估本文提出的框架與5種半監(jiān)督學(xué)習(xí)情感分類器在準(zhǔn)確性以及訓(xùn)練時(shí)間方面的性能表現(xiàn),這5種半監(jiān)督的文本情感分類器分別是:深度信念網(wǎng)絡(luò)(DBN)、混合深信念網(wǎng)絡(luò)(Hybrid Deep Belief Network, HDBN)[4]、半監(jiān)督譜學(xué)習(xí)(semi-supervised spectral learning)[18]、轉(zhuǎn)換式支持向量機(jī)(Transductive Support Vector Machine, TSVM)[19]、個(gè)人/非個(gè)人觀點(diǎn)(Personal/Impersonal Views, PIV)[20]。分類器具體概述如下。

    譜學(xué)習(xí)利用數(shù)據(jù)矩陣特征向量中的信息檢測(cè)結(jié)構(gòu),進(jìn)行半監(jiān)督聚類和分類。

    TSVM利用未標(biāo)記數(shù)據(jù)提高了支持向量機(jī)(Support Vector Machine, SVM)的泛化精度。與SVM類似,它使用帶標(biāo)記的訓(xùn)練數(shù)據(jù)學(xué)習(xí)了一個(gè)大范圍的超平面分類器,但同時(shí)迫使這個(gè)超平面遠(yuǎn)離未帶標(biāo)記的數(shù)據(jù)。譜學(xué)習(xí)和TSVM方法是半監(jiān)督情緒分類的兩種基本方法。

    PIV采用個(gè)人和非個(gè)人的觀點(diǎn)構(gòu)建半監(jiān)督分類器。個(gè)人觀點(diǎn)包括直接表達(dá)說(shuō)話人對(duì)目標(biāo)對(duì)象的感受和偏好的句子,而非個(gè)人觀點(diǎn)則集中于對(duì)目標(biāo)對(duì)象的陳述進(jìn)行評(píng)價(jià)。

    DBN是在第1章中提出的經(jīng)典深度學(xué)習(xí)方法。

    HDBN是RBM和卷積RBM(Convolutional RBM, CRBM)的混合深度網(wǎng)絡(luò)結(jié)構(gòu),底層由RBMs構(gòu)造,可以快速減少尺寸,提取輸入信息;然后,使用CRBM在上層抽象更復(fù)雜的信息;最后,利用基于梯度下降法的有監(jiān)督學(xué)習(xí)方法對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行了指數(shù)損失函數(shù)的微調(diào)。

    同樣,用于評(píng)估的5種文本情感分類器的數(shù)據(jù)集是酒店評(píng)論數(shù)據(jù)、書集書籍評(píng)論數(shù)據(jù)是書集?還是書籍?全文應(yīng)該統(tǒng)一,請(qǐng)明確?;貜?fù):書集改為書籍、電腦評(píng)論數(shù)據(jù)以及維吾爾語(yǔ)評(píng)論數(shù)據(jù)。

    3.2 參數(shù)設(shè)置

    為了比較結(jié)果,本文提出的模型中使用的學(xué)習(xí)參數(shù)與文獻(xiàn)[3-4,21]相同。在訓(xùn)練前的步驟中,本文對(duì)所有的隱藏層和輸出層執(zhí)行貪婪的分層無(wú)監(jiān)督學(xué)習(xí),epoch=30。在有監(jiān)督學(xué)習(xí)階段,將epoch設(shè)置為30,學(xué)習(xí)率為0.1,每個(gè)epoch設(shè)置為0.9。使用的DBN結(jié)構(gòu)為100-100-200-2,表示三個(gè)隱藏層中的神經(jīng)元單元數(shù)分別為100、100和200,輸出層中的神經(jīng)元單元數(shù)分別為2(正、負(fù))。

    3.4 實(shí)驗(yàn)結(jié)果

    在從分類準(zhǔn)確率和訓(xùn)練時(shí)間方面詳細(xì)分析實(shí)驗(yàn)結(jié)果和分析結(jié)果之前,首先要論證特征選擇和縮減對(duì)輸入維數(shù)大小的影響。

    不同的特征保留率對(duì)文本情感分類的準(zhǔn)確性以及模型的訓(xùn)練時(shí)間有著一定的影響,在4個(gè)文本情感分析數(shù)據(jù)集上,特征保留率對(duì)文本情感分類準(zhǔn)確性的影響。如表2所示。

    從表2中可以看出使用不同的特征選擇方法進(jìn)行特征選擇以及特征約減得到的F值不同。比如說(shuō)使用文檔頻率方法在4個(gè)數(shù)據(jù)集上特征保留率為40%、40%、50%以及30%取得最好的分類效果。故根據(jù)表2可以得到表3 FSDBN模型在不同特征選擇方法下的特征保留率。

    使用特征選擇可使得特征數(shù)目減少。它展示了本文提出的降維方法的性能,該方法可以過(guò)濾掉大多數(shù)無(wú)用的特征。表3顯示了在4個(gè)數(shù)據(jù)集上以及4種特征選擇方法特征減少到原特征的多少時(shí)文本情感的分類效果最好。

    3.4.1 F值

    采用半監(jiān)督學(xué)習(xí)方法對(duì)4個(gè)情感分類數(shù)據(jù)集進(jìn)行10倍交叉驗(yàn)證的分類準(zhǔn)確性結(jié)果如表4所示。

    實(shí)驗(yàn)證明了在三個(gè)數(shù)據(jù)集上本文提出的方法FSDNBN在準(zhǔn)確率上都有所提升并且在兩個(gè)數(shù)據(jù)集上的特征選擇算法都是信息增益。

    從表4可以看出,F(xiàn)SDBN在三個(gè)標(biāo)記為粗體的數(shù)據(jù)集中執(zhí)行了最好的精度結(jié)果。另一方面,DBN、HDBN和FSDBN可以在所有數(shù)據(jù)集中執(zhí)行得很好。結(jié)果證明了深層架構(gòu)在情感分類中的強(qiáng)大功能。

    3.4.2 訓(xùn)練時(shí)間

    DBN與FSDBN的訓(xùn)練時(shí)間(從執(zhí)行特征提取到構(gòu)建完整模型)結(jié)果如圖65所示。比較而言,除了要訓(xùn)練的特性數(shù)量和網(wǎng)絡(luò)結(jié)構(gòu)外,本文在相同的環(huán)境和相同的參數(shù)設(shè)置中運(yùn)行它們。對(duì)于要訓(xùn)練的特性數(shù)量,對(duì)于DBN,本文使用了完整的特性集,而不進(jìn)行任何的特性選擇和減少,但是對(duì)于FSDBN,本文采用了第2章中描述的方法。

    表格(有表名)

    表4 半監(jiān)督文本情感分類算法的F值表4與圖5是否存在重復(fù)表達(dá)現(xiàn)象,若存在重復(fù)表達(dá),請(qǐng)只保留一種表達(dá)方式。正文中的引用文字部分和描述需作相應(yīng)修改或刪除。

    在圖65中,可以看到FSDBN在所有數(shù)據(jù)集中花費(fèi)的訓(xùn)練時(shí)間比DBN少得多。FSDBN的平均速度可以提高2倍多,在使用維吾爾語(yǔ)評(píng)論數(shù)據(jù)集時(shí)幾乎可以提高4倍。這是因?yàn)榫S吾爾語(yǔ)評(píng)論數(shù)據(jù)集比其他3個(gè)數(shù)據(jù)集具有更多的特性,因此,使用FSDBN,刪除了更多的特征,這使得與DBN相比,訓(xùn)練時(shí)間更短,同時(shí)仍然保持了良好的準(zhǔn)確率。

    特別地,顯著提高FSDBN訓(xùn)練時(shí)間的主要因素是它更簡(jiǎn)單的深層結(jié)構(gòu),它替換了幾個(gè)隱藏層,但是增加了本文提出的特征選擇方法。

    根據(jù)實(shí)驗(yàn)結(jié)果,可以看出本文提出的FSDBN比其他半監(jiān)督情緒分類算法更快、更準(zhǔn)確。

    4 結(jié)語(yǔ)

    為了解決文本情感分類問題,本文提出了一種名為FSDBN文本情感分類算法,使用基于過(guò)濾器的特征選擇技術(shù)替換了DBNs中的幾個(gè)隱藏層,然后,過(guò)濾掉不必要的特性,只選擇有意義的特性。實(shí)驗(yàn)結(jié)果表明,在特征選擇和約簡(jiǎn)的輔助下,F(xiàn)SDBN的學(xué)習(xí)階段效率更高。FSDBN的分類精度高于基本的半監(jiān)督學(xué)習(xí)算法,如光譜學(xué)習(xí)、TSVM和個(gè)人PIV。此外,F(xiàn)SDBN的性能略好于其他深度學(xué)習(xí)算法DBN和混合深度信念網(wǎng)絡(luò)(HDBN)。此外,還可以觀察到,與傳統(tǒng)的DBN相比,F(xiàn)SDBN花費(fèi)的訓(xùn)練時(shí)間要少得多。在未來(lái)的工作中,計(jì)劃將本文的算法并行化并在GPU平臺(tái)上運(yùn)行,以加速其計(jì)算。目標(biāo)是解決現(xiàn)實(shí)世界中的大量問題,具有更好的標(biāo)度能力,同時(shí)仍能保持良好的分類準(zhǔn)確率。這里的特征選擇方法只使用了文檔頻率、信息增益、卡方統(tǒng)計(jì)以及互信息,還可以使用其他的特征選擇方法。

    參考文獻(xiàn) (References)

    [1] HINTON G, OSINDERO S, TEH Y. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18(7): 1527-1554.

    [2] ZHOU S, CHEN Q, WANG X, et al. Hybrid deep belief networks for semi-supervised sentiment classification[C]// Proceeding of the 2014 25th International Conference on Computational Linguistic. Stroudsburg, PA: Association for Computational Linguistics, 2014: 1341-1349.

    [3] ZHOU S, CHEN Q, WANG X. Active deep networks for semisupervised sentiment classification.[C]// Proceedings of the 2010 23rd International Conference on Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2010: 1515-1523.

    [4] SOCHER R, PERELYGIN A, WU J J. et al. Recursive deep models for semantic compositionality over a sentiment treebank [C]// Proceedings of the 2013 International Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2013: 1631-1642.

    [5] DASGUPTA, S, NG V. Mine the easy, classify the hard: a semisupervised approach to automatic sentiment classification [C]// Proceedings of the 2009 47th International Conference on Annual Meeting of the Association for Computational Linguistics and Proceedings of the 2009/4th International Joint Conference on Natural Language of the Asian Federation of Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2009: 701-709.

    [6] PANG B, LEE L, VAITHYANATHAN S. Thumbs up?: sentiment classification using machine learning techniques [C]// Proceedings of the 2002 International Conference on Association for Computational Linguistics on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2002: 79-86.

    [7] FORMAN G. An extensive empirical study of feature selection metrics for text classification[J]. The Journal of Machine Learning Research, 2003: 1289-1305.

    [8] YANG Y, PEDERSEN J O. A comparative study on feature selection in text categorization[C]// Proceedings of the 1997 14th International Conference on Machine Learning. San Francisco, CA: Morgan Kaufmann, 1997: 412-420.

    [9] 周茜,趙明生,扈旻.中文文本分類中的特征選擇研究[J].中文信息學(xué)報(bào),2004,18(3):17-23.(ZHOU Q, ZHAO M S, HU M. Research on feature selection in Chinese text classification [J]. Journal of Chinese Information Processing, 2004, 18(3): 17-23.)

    [10] 吳金源,冀俊忠,趙學(xué)武,等.基于特征選擇技術(shù)的情感詞權(quán)重計(jì)算[J].北京工業(yè)大學(xué)學(xué)報(bào),2016,42(1):142-151.(WU J Y, JI J Z, ZHAO X W, et al. Weight calculation of affective words based on feature selection technique[J]. Journal of Beijing University of Technology, 2016, 42(1):142-151.)

    [11] 周愛武,馬那那,劉慧婷.基于卡方統(tǒng)計(jì)的情感文本分類[J].微電子學(xué)與計(jì)算機(jī),2017,34(8):57-61.(ZHOU A W, MA N N, LIU H T. Emotional text classification based on chi-square statistics [J]. Microelectronics and Computer, 2017, 34(8): 57-61.)

    [12] 裴英博,劉曉霞.文本分類中改進(jìn)型CHI特征選擇方法的研究[J].計(jì)算機(jī)工程與應(yīng)用,2011,47(4):128-130.(PEI Y B, LIU X X. Research on improved CHI feature selection method in text classification [J]. Computer Engineering and Application, 2011, 47(4): 128-130.)

    [13] BAGHERI A, SARAEE M, de JONG F. Sentiment classification in Persian: introducing a mutual information-based method for feature selection[C]// Proceedings of the 2013 21th International Conference on Electrical Engineering. Piscataway, NJ: IEEE, 2013: 1-6.

    [14] BLIZER J, DREDZE M, PEREIRA F. Biographies, bollywood, boomboxes and blenders: domain adaptation for sentiment classification[C]// Proceedings of the 2007 International Conference on Association for Computational Linguistic. Stroudsburg, PA: Association for Computational Linguistics, 2007: 440-447.

    [15] LOPES N, RIBEIRO B, GONALVES J. Restricted Boltzmann machines and deep belief networks on multi-core processors [C]// Proceedings of the 2012 International Joint Conference on Neural Networks Piscataway, NJ: IEEE, 2012: 1-7.

    [16] 張慶慶,劉西林.基于深度信念網(wǎng)絡(luò)的文本情感分類研究[J].西北工業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2016,36(1):62-66.(ZHANG Q Q, LIU X L. Research on text emotion classification based on deep belief network[J]. Journal of Northwest Polytechnic University (Social Science Edition), 2016, 36(1): 62-66.)

    [17] 伊爾夏提·吐爾貢,吾守爾·斯拉木,熱西旦木·吐爾洪太,等.維吾爾文情感語(yǔ)料庫(kù)的構(gòu)建與分析[J].計(jì)算機(jī)與現(xiàn)代化,2017(4):67-72.(TUERGONG Y, SILAMU W, TUSERHONGTAI R文獻(xiàn)的書寫中,是姓氏大寫,名字取首字母大寫,請(qǐng)明確中文姓氏中,哪個(gè)是姓氏,哪個(gè)是名字?, et al. Construction and analysis of Uighur affective corpus [J]. Computer and Modernization, 2017(4): 67-72.)

    [18] KAMVAR S D, DAN K, MANNING C D. Spectral learning[C]// Proceedings of the 2003 International Joint Conference on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann, 2003: 561-566.

    [19] COLLOBERT R, SINZ F, WESTON J, et al. Large scale transductive SVMs[J]. The Journal of Machine Learning Research, 2006, 7: 1687-1712.

    [20] LI S, HUANG C R, ZHOU G, et al. Employing personal/impersonal views in supervised and semi-supervised sentiment classification[C]// Proceedings of the 2010 48th International Joint Conference on Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2010: 414-423.

    [21] RUANGKANOKMAS P, ACHALAKUL T, AKKARAJITSAKUL K. Deep belief networks with feature selection for sentiment classification[C]// Proceedings of the 2017 48th International Conference on Intelligent Systems, Modelling and Simulation. Piscataway, NJ: IEEE, 2017: 9-14.

    猜你喜歡
    特征選擇深度學(xué)習(xí)
    Kmeans 應(yīng)用與特征選擇
    電子制作(2017年23期)2017-02-02 07:17:06
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    基于GA和ELM的電能質(zhì)量擾動(dòng)識(shí)別特征選擇方法
    聯(lián)合互信息水下目標(biāo)特征選擇算法
    基于特征選擇聚類方法的稀疏TSK模糊系統(tǒng)
    手机成人av网站| а√天堂www在线а√下载| 午夜老司机福利片| 成人亚洲精品一区在线观看| 精品乱码久久久久久99久播| 88av欧美| 精品久久久久久久毛片微露脸| 91精品三级在线观看| 国产精品久久久人人做人人爽| 午夜免费观看网址| 少妇粗大呻吟视频| 免费在线观看影片大全网站| 激情在线观看视频在线高清| 欧美乱色亚洲激情| 欧美绝顶高潮抽搐喷水| 欧美日本视频| 日日夜夜操网爽| 一级毛片精品| 中文字幕av电影在线播放| 黑人操中国人逼视频| 欧美乱码精品一区二区三区| 日韩欧美在线二视频| 黄色丝袜av网址大全| 国产日韩一区二区三区精品不卡| 91大片在线观看| 欧美色欧美亚洲另类二区 | 老熟妇仑乱视频hdxx| 色老头精品视频在线观看| 午夜激情av网站| 亚洲最大成人中文| 免费在线观看日本一区| 啦啦啦观看免费观看视频高清 | 欧美成人免费av一区二区三区| 国产亚洲av嫩草精品影院| 满18在线观看网站| 黄色视频,在线免费观看| 久久久久久久午夜电影| 欧美日韩亚洲综合一区二区三区_| АⅤ资源中文在线天堂| 国产精品二区激情视频| 天天添夜夜摸| 国产成人精品久久二区二区91| 性色av乱码一区二区三区2| 国产精品久久久久久人妻精品电影| 大陆偷拍与自拍| 国产精品久久久久久人妻精品电影| 久久久久九九精品影院| 成人手机av| x7x7x7水蜜桃| 女人被狂操c到高潮| 色尼玛亚洲综合影院| 精品一区二区三区av网在线观看| 91精品国产国语对白视频| 日韩国内少妇激情av| 国产精品野战在线观看| 国产熟女xx| 亚洲精品一卡2卡三卡4卡5卡| 伊人久久大香线蕉亚洲五| 亚洲伊人色综图| 无遮挡黄片免费观看| 国产精品香港三级国产av潘金莲| avwww免费| 乱人伦中国视频| 免费av毛片视频| 久久久久久久午夜电影| 亚洲av熟女| 制服诱惑二区| 国产极品粉嫩免费观看在线| 在线观看免费午夜福利视频| 久久久国产成人精品二区| 一卡2卡三卡四卡精品乱码亚洲| 天堂影院成人在线观看| 久久 成人 亚洲| 日韩国内少妇激情av| 亚洲人成网站在线播放欧美日韩| 韩国精品一区二区三区| 久久国产乱子伦精品免费另类| 国产精品久久久av美女十八| 男人舔女人下体高潮全视频| 亚洲成av片中文字幕在线观看| 色综合站精品国产| 午夜亚洲福利在线播放| 免费搜索国产男女视频| 热99re8久久精品国产| 色综合欧美亚洲国产小说| 欧美大码av| 国产伦一二天堂av在线观看| 国产精品1区2区在线观看.| 精品一区二区三区视频在线观看免费| 天天躁夜夜躁狠狠躁躁| 国产亚洲精品第一综合不卡| 美女午夜性视频免费| av有码第一页| 69av精品久久久久久| 别揉我奶头~嗯~啊~动态视频| 久久草成人影院| 伦理电影免费视频| 精品久久久久久久人妻蜜臀av | 亚洲熟女毛片儿| 999久久久国产精品视频| 色在线成人网| 亚洲国产精品999在线| 村上凉子中文字幕在线| 两个人免费观看高清视频| 国产黄a三级三级三级人| 久久久久久久精品吃奶| 人成视频在线观看免费观看| 亚洲人成电影免费在线| 老司机午夜福利在线观看视频| 天堂影院成人在线观看| 无限看片的www在线观看| 伦理电影免费视频| 欧美一级毛片孕妇| 午夜日韩欧美国产| 午夜福利影视在线免费观看| 欧美日本中文国产一区发布| 亚洲久久久国产精品| 美女高潮到喷水免费观看| 美女免费视频网站| 日韩欧美一区视频在线观看| 中文字幕人妻丝袜一区二区| 国产一区二区三区综合在线观看| 久久人妻福利社区极品人妻图片| 国产精品 国内视频| 亚洲黑人精品在线| 日韩有码中文字幕| 无人区码免费观看不卡| bbb黄色大片| 国产av在哪里看| 精品少妇一区二区三区视频日本电影| 日本黄色视频三级网站网址| 99久久久亚洲精品蜜臀av| 欧美av亚洲av综合av国产av| 日本 av在线| 亚洲精品美女久久久久99蜜臀| 少妇裸体淫交视频免费看高清 | 少妇的丰满在线观看| 国产麻豆69| 九色国产91popny在线| 不卡av一区二区三区| 亚洲 欧美 日韩 在线 免费| 波多野结衣高清无吗| 97人妻精品一区二区三区麻豆 | 黑人巨大精品欧美一区二区mp4| 久久久久久免费高清国产稀缺| 久久久国产欧美日韩av| 午夜福利一区二区在线看| 国产精品二区激情视频| 久久中文字幕一级| 国产成人精品久久二区二区91| 精品国产一区二区久久| 黄色丝袜av网址大全| 韩国av一区二区三区四区| 日韩中文字幕欧美一区二区| 色在线成人网| 亚洲中文av在线| 高清毛片免费观看视频网站| 亚洲欧美激情综合另类| 老司机福利观看| 午夜福利影视在线免费观看| 激情视频va一区二区三区| 亚洲av成人不卡在线观看播放网| 国产高清激情床上av| 久久久精品欧美日韩精品| 1024视频免费在线观看| 久久这里只有精品19| 黄色a级毛片大全视频| 看黄色毛片网站| 久久婷婷成人综合色麻豆| 精品久久久久久,| 久久精品影院6| 亚洲精华国产精华精| 中出人妻视频一区二区| 午夜成年电影在线免费观看| 亚洲国产日韩欧美精品在线观看 | 十八禁人妻一区二区| 三级毛片av免费| 精品国产乱子伦一区二区三区| 侵犯人妻中文字幕一二三四区| 亚洲国产毛片av蜜桃av| 黄色视频不卡| 真人一进一出gif抽搐免费| 日韩欧美在线二视频| 欧美日本视频| 老司机靠b影院| 少妇被粗大的猛进出69影院| 欧美日韩乱码在线| 免费在线观看亚洲国产| 50天的宝宝边吃奶边哭怎么回事| 757午夜福利合集在线观看| 好男人电影高清在线观看| 18禁国产床啪视频网站| 亚洲七黄色美女视频| 99在线视频只有这里精品首页| 欧洲精品卡2卡3卡4卡5卡区| 国产1区2区3区精品| 美女国产高潮福利片在线看| 欧美一区二区精品小视频在线| 国产成+人综合+亚洲专区| 亚洲精品中文字幕在线视频| 在线永久观看黄色视频| 精品国产乱码久久久久久男人| 一进一出抽搐动态| 亚洲欧美日韩高清在线视频| 一边摸一边抽搐一进一出视频| 乱人伦中国视频| www.999成人在线观看| 亚洲国产精品成人综合色| 国产亚洲欧美98| 中文字幕高清在线视频| 一级黄色大片毛片| 国产不卡一卡二| 国产精品精品国产色婷婷| 久久这里只有精品19| 免费一级毛片在线播放高清视频 | 亚洲欧美一区二区三区黑人| 99久久精品国产亚洲精品| 日日摸夜夜添夜夜添小说| 一区二区三区高清视频在线| 日本精品一区二区三区蜜桃| 好男人在线观看高清免费视频 | 免费观看精品视频网站| 一级黄色大片毛片| 国产又爽黄色视频| 午夜福利免费观看在线| 国产成人精品久久二区二区91| 精品日产1卡2卡| 亚洲国产精品合色在线| 人人妻,人人澡人人爽秒播| 变态另类丝袜制服| 禁无遮挡网站| 美女扒开内裤让男人捅视频| 国产精品亚洲美女久久久| ponron亚洲| 国产又色又爽无遮挡免费看| 久久久久久大精品| 97超级碰碰碰精品色视频在线观看| ponron亚洲| 久久久水蜜桃国产精品网| 一本久久中文字幕| av天堂久久9| 少妇 在线观看| 亚洲成人国产一区在线观看| av视频在线观看入口| 这个男人来自地球电影免费观看| 亚洲成a人片在线一区二区| 成人精品一区二区免费| 午夜福利高清视频| 国产精品日韩av在线免费观看 | 亚洲精品一卡2卡三卡4卡5卡| av视频免费观看在线观看| 亚洲中文av在线| 成人手机av| 国内精品久久久久精免费| 日韩中文字幕欧美一区二区| 亚洲av成人av| 操出白浆在线播放| 黑人欧美特级aaaaaa片| 国产视频一区二区在线看| 日本 av在线| 久久天躁狠狠躁夜夜2o2o| 国产人伦9x9x在线观看| 成年版毛片免费区| 国产不卡一卡二| 最近最新免费中文字幕在线| 久久久久国产一级毛片高清牌| 精品高清国产在线一区| av中文乱码字幕在线| 嫩草影院精品99| 最新在线观看一区二区三区| 亚洲一区二区三区不卡视频| 日韩精品青青久久久久久| 制服丝袜大香蕉在线| 成年女人毛片免费观看观看9| 99国产精品一区二区三区| 男女下面进入的视频免费午夜 | 国产av一区二区精品久久| 日韩高清综合在线| 色尼玛亚洲综合影院| 国产一区二区三区视频了| 两个人免费观看高清视频| 免费看十八禁软件| 中文字幕最新亚洲高清| 岛国在线观看网站| 午夜福利18| 黄频高清免费视频| 成人亚洲精品av一区二区| 曰老女人黄片| avwww免费| 丝袜人妻中文字幕| 亚洲情色 制服丝袜| 亚洲一区二区三区色噜噜| 精品国产美女av久久久久小说| 午夜福利在线观看吧| 最近最新中文字幕大全电影3 | 精品国内亚洲2022精品成人| 91字幕亚洲| 琪琪午夜伦伦电影理论片6080| 老司机午夜十八禁免费视频| 9191精品国产免费久久| 天天躁夜夜躁狠狠躁躁| 亚洲九九香蕉| 两人在一起打扑克的视频| av超薄肉色丝袜交足视频| 日韩av在线大香蕉| 黄色丝袜av网址大全| 国产99白浆流出| 天堂动漫精品| 极品人妻少妇av视频| 国产熟女xx| 亚洲片人在线观看| 桃红色精品国产亚洲av| 日日夜夜操网爽| 涩涩av久久男人的天堂| 嫩草影院精品99| 免费在线观看亚洲国产| 岛国在线观看网站| av视频免费观看在线观看| 国产欧美日韩一区二区精品| 看片在线看免费视频| 亚洲成人精品中文字幕电影| 大型av网站在线播放| 中文字幕最新亚洲高清| 国产成人欧美| 亚洲av电影在线进入| 亚洲一区高清亚洲精品| 欧美最黄视频在线播放免费| 99国产极品粉嫩在线观看| 国产一区二区在线av高清观看| 亚洲欧美激情综合另类| 少妇熟女aⅴ在线视频| 丰满的人妻完整版| 18禁黄网站禁片午夜丰满| 亚洲国产日韩欧美精品在线观看 | 丁香六月欧美| 国产成人系列免费观看| a在线观看视频网站| 国产精品电影一区二区三区| 亚洲五月色婷婷综合| 久久香蕉国产精品| 老司机福利观看| 久久久久久免费高清国产稀缺| 亚洲av日韩精品久久久久久密| 久久草成人影院| 成年版毛片免费区| 啦啦啦 在线观看视频| e午夜精品久久久久久久| 777久久人妻少妇嫩草av网站| 久久香蕉精品热| 久久久久久久午夜电影| 操美女的视频在线观看| 欧美不卡视频在线免费观看 | 国产aⅴ精品一区二区三区波| 亚洲全国av大片| 国产成人精品无人区| 天堂影院成人在线观看| 伊人久久大香线蕉亚洲五| 男女之事视频高清在线观看| 一卡2卡三卡四卡精品乱码亚洲| 亚洲三区欧美一区| 国产精品一区二区免费欧美| 999久久久精品免费观看国产| 99精品欧美一区二区三区四区| 日本撒尿小便嘘嘘汇集6| 欧美激情久久久久久爽电影 | 成人18禁在线播放| 黄色 视频免费看| 99国产综合亚洲精品| 亚洲国产精品久久男人天堂| 国产精品影院久久| 色精品久久人妻99蜜桃| 啦啦啦韩国在线观看视频| 国产在线观看jvid| a在线观看视频网站| 怎么达到女性高潮| 在线观看免费视频网站a站| 一本久久中文字幕| 欧美日本视频| 丰满的人妻完整版| 人人妻人人澡人人看| 777久久人妻少妇嫩草av网站| 99在线人妻在线中文字幕| 午夜久久久在线观看| 日本免费一区二区三区高清不卡 | 亚洲av五月六月丁香网| 国产亚洲欧美在线一区二区| www.精华液| 国产精品综合久久久久久久免费 | 桃色一区二区三区在线观看| 中文字幕精品免费在线观看视频| 国产一卡二卡三卡精品| 国产精品秋霞免费鲁丝片| 999久久久精品免费观看国产| 午夜亚洲福利在线播放| 老司机午夜福利在线观看视频| 国产亚洲av高清不卡| av在线天堂中文字幕| 久久久久久久久免费视频了| 91成人精品电影| tocl精华| 欧美激情久久久久久爽电影 | 国产精品久久电影中文字幕| 亚洲人成网站在线播放欧美日韩| 久久久精品欧美日韩精品| 久久草成人影院| 国产亚洲av高清不卡| 精品国产乱码久久久久久男人| 50天的宝宝边吃奶边哭怎么回事| 欧美在线黄色| 欧美激情高清一区二区三区| 精品久久久久久成人av| 老司机靠b影院| 亚洲一码二码三码区别大吗| 50天的宝宝边吃奶边哭怎么回事| 啦啦啦免费观看视频1| 在线观看免费午夜福利视频| 无限看片的www在线观看| 99国产精品免费福利视频| 可以免费在线观看a视频的电影网站| 亚洲成人久久性| 久久精品91无色码中文字幕| 国产伦一二天堂av在线观看| 欧美日本中文国产一区发布| 精品久久久久久成人av| 人人妻,人人澡人人爽秒播| 18禁裸乳无遮挡免费网站照片 | 天堂影院成人在线观看| 免费看a级黄色片| 中文字幕人妻熟女乱码| 侵犯人妻中文字幕一二三四区| 国产成人精品在线电影| 人妻丰满熟妇av一区二区三区| 欧美av亚洲av综合av国产av| 女警被强在线播放| 亚洲中文字幕一区二区三区有码在线看 | 日韩一卡2卡3卡4卡2021年| 亚洲专区国产一区二区| 少妇裸体淫交视频免费看高清 | 女人被狂操c到高潮| 97碰自拍视频| 亚洲五月婷婷丁香| 欧美乱色亚洲激情| 天堂√8在线中文| 色尼玛亚洲综合影院| 97碰自拍视频| 国产色视频综合| 国产乱人伦免费视频| 极品教师在线免费播放| 久久伊人香网站| 少妇粗大呻吟视频| 嫁个100分男人电影在线观看| 国产伦一二天堂av在线观看| 欧美日本中文国产一区发布| 欧美另类亚洲清纯唯美| 天天躁狠狠躁夜夜躁狠狠躁| 一级黄色大片毛片| 亚洲国产欧美一区二区综合| 欧美精品啪啪一区二区三区| 亚洲av第一区精品v没综合| 国产精品乱码一区二三区的特点 | e午夜精品久久久久久久| 亚洲精品在线观看二区| 国内精品久久久久久久电影| 18禁观看日本| 美女 人体艺术 gogo| 日韩精品青青久久久久久| 亚洲欧美激情综合另类| 午夜影院日韩av| 无人区码免费观看不卡| 嫩草影视91久久| 精品一区二区三区四区五区乱码| 好男人电影高清在线观看| 大香蕉久久成人网| 九色亚洲精品在线播放| 变态另类丝袜制服| 两个人看的免费小视频| 精品一区二区三区视频在线观看免费| 夜夜夜夜夜久久久久| 久久久久久免费高清国产稀缺| 欧美乱妇无乱码| 不卡一级毛片| 一级作爱视频免费观看| 国产成人欧美| 在线观看免费午夜福利视频| 999久久久国产精品视频| 国产极品粉嫩免费观看在线| 天天躁夜夜躁狠狠躁躁| 久久香蕉激情| 老熟妇仑乱视频hdxx| 国产国语露脸激情在线看| 自线自在国产av| 久9热在线精品视频| 黄色 视频免费看| 久9热在线精品视频| 黄色 视频免费看| 99精品久久久久人妻精品| 亚洲成人久久性| 精品熟女少妇八av免费久了| 日本黄色视频三级网站网址| 亚洲五月婷婷丁香| 久久精品91蜜桃| 禁无遮挡网站| 激情视频va一区二区三区| 成年人黄色毛片网站| 丝袜在线中文字幕| 日本一区二区免费在线视频| 日韩免费av在线播放| 国产成人av教育| 欧美日本亚洲视频在线播放| 十分钟在线观看高清视频www| 国产精品久久久av美女十八| 精品一区二区三区四区五区乱码| 亚洲伊人色综图| 18禁黄网站禁片午夜丰满| 日本免费一区二区三区高清不卡 | 在线观看66精品国产| 国产成人影院久久av| 一级a爱视频在线免费观看| 男女下面插进去视频免费观看| 又黄又爽又免费观看的视频| 中文字幕另类日韩欧美亚洲嫩草| 亚洲自偷自拍图片 自拍| 亚洲九九香蕉| 不卡av一区二区三区| 色播亚洲综合网| 国产精品一区二区精品视频观看| 51午夜福利影视在线观看| 777久久人妻少妇嫩草av网站| 老鸭窝网址在线观看| 一边摸一边做爽爽视频免费| 欧美成狂野欧美在线观看| 色哟哟哟哟哟哟| 午夜精品久久久久久毛片777| 久久国产精品影院| 这个男人来自地球电影免费观看| 中文亚洲av片在线观看爽| 后天国语完整版免费观看| 免费在线观看影片大全网站| 亚洲人成伊人成综合网2020| 国产在线观看jvid| 国产亚洲欧美精品永久| 男人舔女人下体高潮全视频| 成人18禁在线播放| 日韩欧美三级三区| 精品一区二区三区av网在线观看| 久久久水蜜桃国产精品网| 中文字幕av电影在线播放| 亚洲av电影在线进入| 一区二区三区国产精品乱码| 国产成年人精品一区二区| 免费观看精品视频网站| 亚洲熟妇中文字幕五十中出| 9色porny在线观看| www.999成人在线观看| 国产1区2区3区精品| 丝袜美腿诱惑在线| 亚洲午夜精品一区,二区,三区| 日本 欧美在线| 亚洲欧美精品综合一区二区三区| 欧美成人一区二区免费高清观看 | 免费少妇av软件| 大码成人一级视频| 色综合亚洲欧美另类图片| 欧美一级a爱片免费观看看 | 无限看片的www在线观看| 亚洲七黄色美女视频| 国语自产精品视频在线第100页| 18美女黄网站色大片免费观看| 亚洲欧美精品综合一区二区三区| 99riav亚洲国产免费| 久久婷婷成人综合色麻豆| 亚洲一卡2卡3卡4卡5卡精品中文| 嫩草影视91久久| 色综合欧美亚洲国产小说| 日本欧美视频一区| 国产人伦9x9x在线观看| 国产一区二区三区综合在线观看| 一区二区三区国产精品乱码| 国内毛片毛片毛片毛片毛片| 亚洲专区字幕在线| 夜夜爽天天搞| 国产视频一区二区在线看| 99在线视频只有这里精品首页| 午夜免费成人在线视频| av片东京热男人的天堂| 中文字幕人成人乱码亚洲影| 日本在线视频免费播放| 中文字幕人妻丝袜一区二区| 免费观看精品视频网站| 亚洲人成77777在线视频| 欧美日韩瑟瑟在线播放| a在线观看视频网站| 亚洲成人久久性| 极品人妻少妇av视频| 巨乳人妻的诱惑在线观看| 级片在线观看| 变态另类丝袜制服| 欧美日本视频| 国产成人精品无人区| 亚洲中文字幕日韩| 午夜精品久久久久久毛片777| av天堂在线播放| 欧美另类亚洲清纯唯美| 国产精品免费一区二区三区在线| 国产精品野战在线观看| 大陆偷拍与自拍| 色老头精品视频在线观看| 国产亚洲av嫩草精品影院| 97碰自拍视频| 自拍欧美九色日韩亚洲蝌蚪91| 少妇被粗大的猛进出69影院| 麻豆一二三区av精品| 51午夜福利影视在线观看| 亚洲熟女毛片儿| 日韩一卡2卡3卡4卡2021年|