• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于BERT 模型與知識蒸餾的意圖分類方法

    2021-05-17 05:30:42廖勝蘭吉建民陳小平
    計算機工程 2021年5期
    關(guān)鍵詞:標簽準確率向量

    廖勝蘭,吉建民,俞 暢,陳小平

    (1.中國科學(xué)技術(shù)大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,合肥 230026;2.中國科學(xué)技術(shù)大學(xué) 軟件學(xué)院,合肥 230031)

    0 概述

    隨著人工智能領(lǐng)域的發(fā)展,越來越多的語音助手、聊天機器人和服務(wù)機器人等融入到人類的生活中。與這些語音助手、機器人進行交流的過程稱為人機交互,而人機交互的第一步就是機器人需要理解用戶的語義意圖?,F(xiàn)有的人機交互對話系統(tǒng)主要有任務(wù)導(dǎo)向型對話系統(tǒng)和非任務(wù)導(dǎo)向型聊天對話系統(tǒng)兩種。在任務(wù)型導(dǎo)向?qū)υ捪到y(tǒng)中,當有目的地要求機器人完成某項工作時,機器人必須先理解用戶的意圖。例如,手機上的語音助手需要理解用戶的意圖是查天氣還是撥打電話,餐廳的機器人需要理解用戶的意圖是點餐還是結(jié)賬。因此,意圖識別是人機交互系統(tǒng)中極為重要的模塊,并且作為對話系統(tǒng)中的意圖識別模塊,需要具有快速的響應(yīng)能力。

    意圖識別也叫做意圖分類,是一種特殊的文本分類。因為在任務(wù)型導(dǎo)向?qū)υ捪到y(tǒng)中,用戶意圖通常具有文本較短、目的性強等特點。意圖分類從傳統(tǒng)的模板匹配方法到統(tǒng)計學(xué)習(xí)方法,再到目前流行的深度學(xué)習(xí)方法,已經(jīng)有大量的研究團隊提出了許多經(jīng)典的模型。隨著自然語言處理領(lǐng)域深度學(xué)習(xí)模型的發(fā)展,谷歌公司(Google)在2018 年提出的BERT(Bidirectional Encoder Representations from Transformers)模型,使得大規(guī)模的預(yù)訓(xùn)練方法成為自然語言處理領(lǐng)域的主流方法[1]。

    雖然BERT 模型在自然語言處理領(lǐng)域的各項任務(wù)上都能取得很好的效果,但是由于其模型龐大,訓(xùn)練需要大量數(shù)據(jù)且耗費大量資源,因此高校及中小企業(yè)的科研團隊難以從頭預(yù)訓(xùn)練BERT。因此,如何利用預(yù)訓(xùn)練過的BERT 模型來應(yīng)用到特定任務(wù)上成為一個值得探討的課題。根據(jù)文獻[1]中的實驗結(jié)果,基于BERT 進行微調(diào)的教師模型能得到比Text-CNN[2]和Text-RCNN(Recurrent Convolution Neural Network)[3]等經(jīng)典模型更高的準確率,但是由于模型規(guī)模依然龐大,在任務(wù)中預(yù)測的時間也相應(yīng)更長,在應(yīng)用到實際任務(wù)時受到延時等影響。因此,用教師模型在預(yù)訓(xùn)練及微調(diào)中獲得的知識,來指導(dǎo)原有小規(guī)模模型訓(xùn)練,從而提升小規(guī)模模型的性能。這種訓(xùn)練方法稱為知識蒸餾(Knowledge Distillation,KD)[4]。

    在知識蒸餾的過程中,除原有的小規(guī)模數(shù)據(jù)集外,本文利用一種序列生成對抗網(wǎng)絡(luò)(sequence Generative Adversarial Network,seqGAN)[5]模型來生成更多的領(lǐng)域內(nèi)的無標簽文本。無標簽文本作為原有數(shù)據(jù)集的擴充,沒有類別標注,可利用擁有大量知識的教師模型來預(yù)測數(shù)據(jù)的類別,作為擴展數(shù)據(jù)訓(xùn)練學(xué)生模型。通過無標簽文本,教師模型中的知識可以更好地遷移到學(xué)生模型,本文選取經(jīng)典的文本分類模型作為學(xué)生模型,對于教師模型,則對預(yù)訓(xùn)練的BERT 模型進行改進,并在實驗過程中對改進模型的性能進行分析和比較。

    1 意圖分類與預(yù)訓(xùn)練模型

    1.1 意圖分類

    傳統(tǒng)的意圖分類方法主要是基于手工模板和專家規(guī)則的方法,能夠在小數(shù)據(jù)集上較快實現(xiàn),但是由于模板和規(guī)則具有領(lǐng)域特征,因此難以維護,可移植性較差。文獻[6]研究發(fā)現(xiàn),即使在同一領(lǐng)域內(nèi),不同的表達方式也會導(dǎo)致規(guī)則模板數(shù)量增加,因此會耗費大量的資源。所以,傳統(tǒng)的方法雖然只需要少量數(shù)據(jù),但是與領(lǐng)域任務(wù)高度相關(guān),且依賴于人工資源。

    統(tǒng)計學(xué)習(xí)方法開始興起后,特征工程加淺層分類器的機器學(xué)習(xí)模型成為主流。特征工程是指對語料文本進行特征提取,如字、詞特征、N-Gram、TFIDF(Term Frequency-Inverse Document Frequency)特征權(quán)重等。分類器的訓(xùn)練依賴于特征工程中提取的文本特征,常用的分類器有支持向量機(Support Vector Machine,SVM)[7]、邏輯斯蒂克回歸(Logistic Regression,LR)[8]、樸素貝葉斯(Na?ve Bayes,NB)[9]和集成模型Adaboost[10]等。許多研究者在特征的降維和分類器的設(shè)計方面做了大量的工作,例如YANG 對各種特征選擇方法,包括信息增益、互信息和卡方統(tǒng)計量等,從實驗上進行了分析和比較[11]。

    由于自然語言的離散性質(zhì),深度學(xué)習(xí)很難直接應(yīng)用到自然語言處理領(lǐng)域。因此,如何解決文本的連續(xù)表示是一個難題。詞向量的分布式表示提出后[12],深度學(xué)習(xí)模型可以提取到文本更深層的特征,從而進行高準確率的分類。隨著深度學(xué)習(xí)模型在自然語言處理領(lǐng)域的發(fā)展和應(yīng)用,越來越多的學(xué)者將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[2]、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)[13]和其變體長短時記憶(Long Short-Term Memory,LSTM)[14]、門控循環(huán)單元(Gated Recurrent Unit,GRU)[15]和注意力機制[16]等應(yīng)用于意圖識別任務(wù)中。深度學(xué)習(xí)模型可以免去復(fù)雜的人工特征工程,直接在網(wǎng)絡(luò)中進行特征提取,實現(xiàn)端到端的訓(xùn)練過程。

    1.2 預(yù)訓(xùn)練模型

    從詞向量的分布式訓(xùn)練開始,預(yù)訓(xùn)練模型逐漸被人們熟知。最早的CBOW(Continuous Bag of Words)和Skip-gram 模型分別通過利用上下文預(yù)測中心詞和利用中心詞預(yù)測上下文作為訓(xùn)練目標,對無標簽數(shù)據(jù)進行訓(xùn)練,得到每個詞含有語義信息的詞向量表示[17]。但是這樣訓(xùn)練得到的詞向量是靜態(tài)的,無法解決不同語境下的一詞多義性問題。因此,文獻[18]提出一個雙向LSTM(Bi-LSTM)的語言模型,稱為ELMO(Embedding from Language Models)。ELMO 模型的雙向LSTM 結(jié)構(gòu)產(chǎn)生的詞向量包含左側(cè)上文信息和右側(cè)下文信息,是上下文相關(guān)的動態(tài)詞向量,并且輸入語句中每個單詞都能得到對應(yīng)的3 個詞向量,從底層到頂層分別包含了不同層次的語義信息,可以分別用于特定任務(wù)上的詞向量輸入。

    但是ELMO 模型基于循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其中單元是LSTM,難以并行訓(xùn)練,自研究人員提出Transformer 模型[19]后,自注意力結(jié)構(gòu)的高度并行化訓(xùn)練大幅提升了模型的訓(xùn)練速度,因此該模型具有更深的深度和更強的語義表達能力。Transformer 模型在許多任務(wù)上都代替了原來基于RNN 的模型。隨后,基于Transformer 塊結(jié)構(gòu)的GPT(Generative Pre-Training)[20]模型和BERT 模型[1]相繼提出。GPT模型是單向的語言模型,相比循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉到更長的語義信息,計算速度更快。但是GPT 模型的單向特征會忽略上下文信息,限制了其在更多應(yīng)用場景的效果。

    BERT 模型則是一個基于Transformer 結(jié)構(gòu)的雙向語言模型,采用了掩碼語言模型(Masked Language Model,MLM)和下一句預(yù)測(Next Sentence Predict,NSP)兩個方法作為預(yù)訓(xùn)練過程中的任務(wù),并且使用更強大的機器訓(xùn)練更大規(guī)模的數(shù)據(jù),使得BERT 的結(jié)果達到了全新的高度。在BERT 模型之后,許多研究團隊提出諸多改進方案,包括對語言模型改進用于語言生成的MASS 模型[21]、融合知識圖譜進行改進的ERNIE 模型[22]和用于多任務(wù)學(xué)習(xí)的MTDNN 模型[23]等。

    圖1 基于知識蒸餾的意圖分類框架Fig.1 Intent classification framework based on knowledge distillation

    2 模型框架

    2.1 知識蒸餾訓(xùn)練方法

    知識蒸餾的概念最早在計算機視覺領(lǐng)域被提出[4],可以被看作一種模型壓縮方法。“教師-學(xué)生”框架將復(fù)雜的、學(xué)習(xí)能力強的教師網(wǎng)絡(luò)學(xué)到的特征表示知識“蒸餾”出來,傳遞給參數(shù)量小、學(xué)習(xí)能力弱的學(xué)生網(wǎng)絡(luò)。

    對于一般的分類問題,數(shù)據(jù)的標簽是一個“onehot”類別,也即一條數(shù)據(jù)的類別是固定的,稱為“硬標簽”。但在很多實際情況下,一條數(shù)據(jù)有一定的概率可能屬于其他的類別。比如,在手寫體識別任務(wù)中,一個模糊的“3”圖片,由于形狀的相似性,它有一定的概率屬于“2”或“5”類別。因此,在蒸餾過程中,訓(xùn)練完成的教師網(wǎng)絡(luò)在預(yù)測時將soft Max 層的標簽概率分布信息提供給學(xué)生模型作為指導(dǎo)。這些標簽概率分布包含了類別間信息,文獻[4]將其稱為軟標簽。這種軟標簽中包含的特征信息是“one-hot”類別標簽中沒有的,也是學(xué)生模型難以學(xué)到的。因此,通過將大型模型的軟標簽信息傳遞給學(xué)生模型,可以提高學(xué)生模型的學(xué)習(xí)能力,起到模型壓縮的效果,使得將網(wǎng)絡(luò)部署到客戶端成為可能。

    本文所提出的知識蒸餾框架如圖1 所示。

    知識蒸餾框架步驟以下:

    步驟1對于實驗真實數(shù)據(jù)集D,使用seqGAN模型生成大量領(lǐng)域內(nèi)的相似無標簽數(shù)據(jù),構(gòu)成D′(詳細見本文第3 節(jié))。

    步驟2用真實數(shù)據(jù)集D對教師模型進行微調(diào),得到一個準確率高、學(xué)習(xí)到大量領(lǐng)域知識的模型。

    步驟3用教師模型對生成的無標簽數(shù)據(jù)集D′進行預(yù)測,對每條數(shù)據(jù)進行標注。

    步驟4將數(shù)據(jù)集D和D′合并為D″。

    步驟5用所有數(shù)據(jù)D″對學(xué)生模型S 進行訓(xùn)練,同時用數(shù)據(jù)所屬類別硬標簽和教師模型預(yù)測得到的軟標簽組成損失函數(shù),作為訓(xùn)練目標。

    步驟6在不需要標注新的數(shù)據(jù),以及不需要其他計算資源的條件下,得到一個準確率高的學(xué)生模型。

    損失函數(shù)Loss 如式(1)所示:

    其中,λ表示兩種損失函數(shù)的平衡參數(shù),si表示學(xué)生模型對于當前數(shù)據(jù)的輸出,yi表示one-hot 編碼的分類硬標簽,ti表示教師模型對當前數(shù)據(jù)的輸出,即軟標簽,cross entropy 表示交叉墑?chuàng)p失函數(shù),Ldistill表示教師與學(xué)生之間知識蒸餾的損失函數(shù),LCE表示學(xué)生模型的輸出與標注的分類硬標簽之間的交叉墑?chuàng)p失函數(shù)。

    從損失函數(shù)公式可以看出,模型的目標不僅使預(yù)測類別與標注標簽一致,還需要盡量與教師模型的輸出分布保持一致。

    2.2 教師模型

    本文中的教師模型采用的是大規(guī)模預(yù)訓(xùn)練模型BERT[1]及其變體。許多研究工作已經(jīng)證明,語言模型的預(yù)訓(xùn)練可以提高許多自然語言處理任務(wù)的性能。預(yù)訓(xùn)練是指在大量的無標簽文本上,以預(yù)測下一個單詞為目標來進行模型的訓(xùn)練,這樣可以學(xué)習(xí)到每個單詞的上下文表示,稱為詞向量。訓(xùn)練得到的詞向量和模型參數(shù)包含了許多在預(yù)訓(xùn)練階段學(xué)到的有用的語義信息?;谶@樣預(yù)訓(xùn)練后的模型,只需要用少量的領(lǐng)域數(shù)據(jù)對模型進行微調(diào),即可將模型運用到具體任務(wù)中。

    BERT 模型結(jié)構(gòu)如圖2 所示。該模型是一種基于Transformer 結(jié)構(gòu)[19]的語言表示模型,以掩碼單詞預(yù)測和下一句預(yù)測作為訓(xùn)練目標,捕捉了文本中的詞級別和句子級別的語義表示。BERT 最重要的部分就是雙向Transformer 編碼結(jié)構(gòu),Transformer 舍棄了RNN 的循環(huán)式網(wǎng)絡(luò)結(jié)構(gòu),完全基于注意力機制來對一段文本進行建模。Transformer 中的注意力機制稱為自注意力,核心思想是計算一句話中的每個詞對于其他詞的相互關(guān)系,從而調(diào)整每個詞的重要性來獲取上下文相關(guān)的詞向量。自注意力機制可以實現(xiàn)計算資源的并行化,加速訓(xùn)練過程,并通過對位置進行編碼添加時序信息。

    圖2 BERT 模型示意圖Fig.2 Schematic diagram of BERT model

    本文所用的是在中文維基百科數(shù)據(jù)上進行了預(yù)訓(xùn)練后的Bert-base-Chinese 模型。模型結(jié)構(gòu)是12 個Transformer 模塊層,768 個隱層,12 個self-attention中的head,一共有1.1 億個參數(shù)。

    BERT 模型的輸出包括兩種,一種是字符級向量,即輸入的每個字符對應(yīng)一個向量,另外一種是句子級向量,即BERT 模型輸出最左邊“[CLS]”特殊符號的向量,文獻[1]認為這個向量可以代表整個句子的語義。因此,對于分類任務(wù)一般重點關(guān)注句子級向量,即分類標識[CLS]的輸出向量h。將這個向量h傳給一個softmax 分類器就可以得到分類結(jié)果的輸出。

    本文實驗對標準的BERT 模型進行改進,在BERT 的輸出層取所有輸入字符對應(yīng)的輸出向量,然后再接上一個文本分類器。本文選取長短時記憶網(wǎng)絡(luò)LSTM、卷積神經(jīng)網(wǎng)絡(luò)Text-CNN[2]和循環(huán)卷積神經(jīng)網(wǎng)絡(luò)Text-RCNN[3]這3 個模型作為BERT 之后的分類器,將BERT 輸出的向量進行計算后得到分類結(jié)果。因此,改進的模型分別稱為BERT+LSTM、BERT+CNN、BERT+RCNN。原始BERT 模型和各個改進模型在數(shù)據(jù)集上微調(diào)后的模型準確率在實驗部分給出。

    2.3 學(xué)生模型

    雖然對BERT 等預(yù)訓(xùn)練模型進行簡單的微調(diào)可以得到較高的準確率,但是這些預(yù)訓(xùn)練模型規(guī)模龐大,預(yù)測速度慢??紤]到在實際應(yīng)用場景中的延時、響應(yīng)速度等問題,預(yù)訓(xùn)練模型即使微調(diào)后也難以運用到實際應(yīng)用場景中。例如,在對話系統(tǒng)中,意圖識別模塊需要對用戶話語進行意圖的分類,從而決定當前對話狀態(tài)并給出相應(yīng)的回答。在這種智能對話系統(tǒng)的情境下,用戶的滿意度就取決于系統(tǒng)的響應(yīng)速度以及對話的準確性。因此,在移動終端、可攜帶設(shè)備等多個場景下,分類模型的預(yù)測速度不能太慢,模型的規(guī)模也不能太大。因此,選用幾個經(jīng)典的小規(guī)模文本分類模型作為學(xué)生模型,通過用教師模型所學(xué)到的知識對學(xué)生進行指導(dǎo)訓(xùn)練,即為“知識蒸餾”。

    本文采取兩個經(jīng)典的文本分類模型作為學(xué)生模型,即基于文本的卷積神經(jīng)網(wǎng)絡(luò)Text-CNN 和基于文本的循環(huán)卷積神經(jīng)網(wǎng)絡(luò)Text-RCNN(Text Recurrent Convolution Neural Network)。這兩個模型規(guī)模不大,且分類準確率高,在許多文本分類任務(wù)上都能夠使用。

    Text-CNN 模型由KIM 等人在2014 年提出[2],其將圖像領(lǐng)域的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到自然語言處理領(lǐng)域。該模型將一個句子及其單詞的詞向量看作一個矩陣作為模型的輸入,通過卷積層和池化層提取語義特征進行句子的分類。Text-CNN 由于卷積網(wǎng)絡(luò)的并行化計算,執(zhí)行效率高且分類效果較好。Text-RCNN[3]則是一個結(jié)合了RNN 和CNN 各自優(yōu)點的模型。該模型首先利用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bi-RNN)來捕捉前后上下文表征,得到一個包含上下文信息和本身詞向量表示的“詞向量”。接著使用CNN 網(wǎng)絡(luò)中濾波器filter_size=1 的卷積層,并利用最大池化操作得到與文檔最相關(guān)的向量表征,即獲取潛在的最相關(guān)語義表示。由于雙向神經(jīng)網(wǎng)絡(luò)的編碼使得Text-RCNN 模型能夠捕捉文本中的上下文語義信息,尤其是詞袋模型無法得到的語序含義。

    本文運用Text-CNN 和Text-RCNN 模型在進行意圖分類的訓(xùn)練過程中使用的分詞工具是結(jié)巴分詞,詞嵌入技術(shù)是word2vec[17],其他的一些訓(xùn)練參數(shù)在實驗部分給出。

    3 seqGAN 模型

    生成對抗網(wǎng)絡(luò)是GOODELLOW 等人在2014 年提出的一種生成式模型[24],最開始用于圖像生成領(lǐng)域。該模型由一個生成網(wǎng)絡(luò)和一個判別網(wǎng)絡(luò)組成。生成網(wǎng)絡(luò)模仿真實數(shù)據(jù)生成相似的樣本分布以欺騙判別網(wǎng)絡(luò),判別網(wǎng)絡(luò)在迭代中不斷更新以區(qū)分生成樣本和真實數(shù)據(jù)。生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)相互博弈,直至達到那什均衡[25]。

    但是傳統(tǒng)的生成對抗網(wǎng)絡(luò)很難應(yīng)用于自然語言處理領(lǐng)域。因為自然語言數(shù)據(jù)本身是離散性質(zhì)的,所以判別器進行判別后的結(jié)果難以通過生成器進行梯度回傳。因此,文獻[5]提出一個使用強化學(xué)習(xí)中的獎勵機制來代替梯度回傳的seqGAN 模型。seqGAN 以循環(huán)神經(jīng)網(wǎng)絡(luò)RNN 作為生成網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)CNN 作為判別網(wǎng)絡(luò),可以用于自然語言文本生成。

    本文采用文獻[25]中的生成對抗網(wǎng)絡(luò)框架,對現(xiàn)有數(shù)據(jù)通過文本生成的方式進行擴充。擴充后的文本樣例如表1 所示,雖然個別生成序列不符合中文語法的現(xiàn)象,但是大部分生成的文本在句子結(jié)構(gòu)和包含內(nèi)容方面能與真實的意圖文本相似。由于生成的文本雖然符合真實數(shù)據(jù)集的分布,但是沒有標注的類別,因此用真實數(shù)據(jù)微調(diào)后的教師模型對生成文本進行預(yù)測,預(yù)測得到的類別就作為這條語句的標簽。

    表1 真實數(shù)據(jù)與生成數(shù)據(jù)的示例Table 1 Examples of real and generated data

    4 實驗設(shè)置

    4.1 實驗數(shù)據(jù)

    本文采用真實的電力業(yè)務(wù)問詢語句作為數(shù)據(jù)集。數(shù)據(jù)集從電力公司供電營業(yè)廳采集,人工整理和標注后得到所有數(shù)據(jù)及其所屬的業(yè)務(wù)類別。數(shù)據(jù)集包括9 577條語句以及35 個業(yè)務(wù)類別,數(shù)據(jù)集中語句的平均長度為18.41 個字。除了真實數(shù)據(jù)集外,在第3 節(jié)提出了利用seqGAN 模型生成數(shù)據(jù)的數(shù)據(jù)增強方法。基于此方法生成了10 000 條相似的領(lǐng)域內(nèi)數(shù)據(jù)作為擴充,真實數(shù)據(jù)與生成數(shù)據(jù)的示例見表1。

    4.2 模型參數(shù)

    4.2.1 教師模型參數(shù)

    本文采用在中文維基百科數(shù)據(jù)上進行了預(yù)訓(xùn)練后的Bert-base-Chinese 模型作為BERT 基準模型。模型一共12 層,隱層為768 維,采用12 頭模式,共1.1 億個參數(shù)。模型的優(yōu)化方式采用BertAdam 算法對參數(shù)進行更新和微調(diào),初始學(xué)習(xí)率均為2e-5,預(yù)熱參數(shù)warmup 為0.1。微調(diào)訓(xùn)練時采用批量訓(xùn)練的方法,且批量大小為32,Dropout 比率默認設(shè)置為0.1。而改進后的教師模型則是分別在BERT 模型最后一層加上了Text-CNN 模型、一個雙向LSTM 層和Text-RCNN 模型,構(gòu)成了BERT+CNN、BERT+LSTM 和BERT+RCNN 模型。

    4.2.2 學(xué)生模型參數(shù)

    本文采用Text-CNN 模型和Text-RCNN 模型作為學(xué)生模型。模型訓(xùn)練時批處理大小為64。其中Text-CNN 模型卷積核尺寸如下[3-5]:每個尺寸下的個數(shù)為100,學(xué)習(xí)率為0.001,用結(jié)巴分詞工具分詞后采用word2vec 詞向量,詞向量維度為300。同樣,Text-RCNN 模型也采用300 維的word2vec 詞向量,隱層維度為256,學(xué)習(xí)率為0.001。

    4.2.3 知識蒸餾參數(shù)

    本文利用知識蒸餾技術(shù)進行“教師-學(xué)生”架構(gòu)的訓(xùn)練。根據(jù)式(1),軟硬標簽的損失函數(shù)都采用交叉墑函數(shù),平衡參數(shù)選為0.5。

    5 實驗結(jié)果

    本文采用準確率作為實驗?zāi)P偷脑u估標準,準確率表示分類正確的數(shù)據(jù)占所有數(shù)據(jù)的比例。

    首先用真實的意圖分類數(shù)據(jù)集對教師模型和學(xué)生模型分別進行訓(xùn)練,得到這些模型單獨訓(xùn)練時的準確率,結(jié)果如表2 所示,原始的Bert-base-Chinese 模型在數(shù)據(jù)集上微調(diào)可以達到92.5%的準確率。將BERT和Text-RCNN 相結(jié)合的教師模型在數(shù)據(jù)集上微調(diào)得到了教師模型中的最高準確率93.7%。學(xué)生模型中則是Text-RCNN 模型的準確率最高,達到87.1%。

    表2 教師模型和學(xué)生模型的準確率Table 2 Comparisom of accuracy of teacher model and student model

    得到了教師模型和學(xué)生模型的性能后,采用這些教師模型和學(xué)生模型進行知識蒸餾的指導(dǎo)訓(xùn)練。在訓(xùn)練過程中,分為使用生成數(shù)據(jù)和不使用生成數(shù)據(jù)兩種,分別對應(yīng)表3 中的da(with data-aug)和woda(without data-aug)。知識蒸餾訓(xùn)練得到的結(jié)果如表3 所示。表3 中學(xué)生模型分別為Text-CNN 和Text-RCNN。“without KD”表示學(xué)生模型單獨訓(xùn)練時的結(jié)果,作為基準。表中第3 行開始是兩個學(xué)生模型分別在4 個教師模型的指導(dǎo)下進行知識蒸餾訓(xùn)練得到的結(jié)果,其中加粗字體為最優(yōu)結(jié)果。

    表3 知識蒸餾訓(xùn)練結(jié)果Table 3 Training results by knowledge distillation %

    可見,本文提出的訓(xùn)練方法普遍可以使得學(xué)生模型準速率有所提高。其中,用準確率最高的教師模型BERT+RCNN 來指導(dǎo)準確率最高的學(xué)生模型Text-RCNN 訓(xùn)練,并且將生成數(shù)據(jù)作為擴充,可以達到最高的90.9%準確率,比單獨的Text-RCNN 學(xué)生模型要高出3.8 個百分點。

    從實驗結(jié)果可以看出,雖然學(xué)生模型無法超越教師模型的準確率,但是可以在教師模型的指導(dǎo)下有所提升,接近教師模型的準確率。學(xué)生模型的參數(shù)少、規(guī)模小,準確率最高的教師模型BERT+RCNN的參數(shù)量是學(xué)生模型Text-RCNN 的86 倍,如表2 所示。在實際應(yīng)用時學(xué)生模型預(yù)測速度更快,更有利于部署到移動端等實際場景。

    6 結(jié)束語

    基于對話系統(tǒng)中的意圖分類問題,本文采用大規(guī)模預(yù)訓(xùn)練模型和“教師-學(xué)生”框架的知識蒸餾等技術(shù),構(gòu)建基于BERT 模型的知識蒸餾意圖分類模型。采用BERT 及其變體作為教師模型,Text-CNN和Text-RCNN 兩個經(jīng)典的文本分類模型作為學(xué)生模型,以知識蒸餾的方式進行指導(dǎo)訓(xùn)練。另外,采用seqGAN 生成對抗網(wǎng)絡(luò)來生成領(lǐng)域內(nèi)數(shù)據(jù),增加了訓(xùn)練時的數(shù)據(jù)量。在真實的用戶意圖數(shù)據(jù)集上進行實驗,結(jié)果表明,本文模型可以使得學(xué)生模型準確率最高提升3.8%,接近教師模型的分類性能。由于數(shù)據(jù)集的標注耗費人力資源,目前公開的領(lǐng)域數(shù)據(jù)集都面臨著規(guī)模較小的問題,下一步將研究更有效的數(shù)據(jù)生成方法來擴充數(shù)據(jù)集。

    猜你喜歡
    標簽準確率向量
    向量的分解
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
    2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
    聚焦“向量與三角”創(chuàng)新題
    無懼標簽 Alfa Romeo Giulia 200HP
    車迷(2018年11期)2018-08-30 03:20:32
    高速公路車牌識別標識站準確率驗證法
    不害怕撕掉標簽的人,都活出了真正的漂亮
    海峽姐妹(2018年3期)2018-05-09 08:21:02
    標簽化傷害了誰
    向量垂直在解析幾何中的應(yīng)用
    亚洲美女视频黄频| 精品乱码久久久久久99久播| 精品国产三级普通话版| 90打野战视频偷拍视频| 精品久久久久久久末码| 国产成人影院久久av| 亚洲欧美精品综合久久99| netflix在线观看网站| 天天一区二区日本电影三级| 亚洲 欧美 日韩 在线 免费| 男女床上黄色一级片免费看| 母亲3免费完整高清在线观看| 99热只有精品国产| 九九久久精品国产亚洲av麻豆 | 色哟哟哟哟哟哟| h日本视频在线播放| 国产精品亚洲一级av第二区| 亚洲成人免费电影在线观看| 黑人操中国人逼视频| 欧美激情久久久久久爽电影| 一级黄色大片毛片| 欧美激情久久久久久爽电影| 精品一区二区三区视频在线观看免费| 日韩国内少妇激情av| 国产精品亚洲一级av第二区| 婷婷精品国产亚洲av在线| 午夜a级毛片| 偷拍熟女少妇极品色| 在线免费观看不下载黄p国产 | 极品教师在线免费播放| 国产单亲对白刺激| 日韩精品中文字幕看吧| 黄色女人牲交| 免费观看的影片在线观看| 黄色丝袜av网址大全| 国产精品国产高清国产av| 亚洲成人精品中文字幕电影| 性色av乱码一区二区三区2| 亚洲成a人片在线一区二区| 国产1区2区3区精品| 人妻夜夜爽99麻豆av| 精品乱码久久久久久99久播| 亚洲国产色片| 欧美高清成人免费视频www| www.自偷自拍.com| 在线观看美女被高潮喷水网站 | 可以在线观看毛片的网站| 日韩精品中文字幕看吧| 18禁国产床啪视频网站| 精品一区二区三区视频在线 | 麻豆久久精品国产亚洲av| 免费电影在线观看免费观看| 真人一进一出gif抽搐免费| 中文字幕最新亚洲高清| 国产精品亚洲一级av第二区| 九色成人免费人妻av| 亚洲欧美日韩高清专用| 看黄色毛片网站| 精品电影一区二区在线| 在线观看美女被高潮喷水网站 | а√天堂www在线а√下载| 国产69精品久久久久777片 | 一级作爱视频免费观看| 国产探花在线观看一区二区| 亚洲精品在线观看二区| 成人午夜高清在线视频| 日韩欧美国产在线观看| 中文亚洲av片在线观看爽| 1024香蕉在线观看| 一级作爱视频免费观看| 国产精品亚洲美女久久久| 国内少妇人妻偷人精品xxx网站 | 久久午夜亚洲精品久久| 波多野结衣高清无吗| 久久久久国产精品人妻aⅴ院| 成人特级黄色片久久久久久久| 国产成人系列免费观看| 久久香蕉国产精品| 国产精品av久久久久免费| 免费看美女性在线毛片视频| 两个人视频免费观看高清| 亚洲狠狠婷婷综合久久图片| 99国产综合亚洲精品| 香蕉丝袜av| 成年人黄色毛片网站| aaaaa片日本免费| 欧美大码av| svipshipincom国产片| 脱女人内裤的视频| 级片在线观看| 免费在线观看日本一区| 午夜日韩欧美国产| 又黄又粗又硬又大视频| 国产精品99久久99久久久不卡| 国产高清视频在线播放一区| 午夜影院日韩av| 欧美日韩黄片免| 久久人人精品亚洲av| 久久久成人免费电影| 成年女人永久免费观看视频| 免费观看人在逋| 综合色av麻豆| 丰满的人妻完整版| 一区二区三区高清视频在线| 国内少妇人妻偷人精品xxx网站 | 在线观看美女被高潮喷水网站 | 黄色成人免费大全| 欧美三级亚洲精品| 人人妻人人澡欧美一区二区| 色噜噜av男人的天堂激情| 变态另类丝袜制服| 久久天躁狠狠躁夜夜2o2o| 99久久精品国产亚洲精品| av黄色大香蕉| 曰老女人黄片| 99久久精品热视频| 18禁裸乳无遮挡免费网站照片| 国产av一区在线观看免费| 国产精品一区二区精品视频观看| 九九久久精品国产亚洲av麻豆 | 一级毛片高清免费大全| 日韩欧美 国产精品| 成年女人永久免费观看视频| 午夜激情欧美在线| 免费在线观看成人毛片| 脱女人内裤的视频| 国语自产精品视频在线第100页| 亚洲最大成人中文| 亚洲真实伦在线观看| 欧美黄色片欧美黄色片| 91久久精品国产一区二区成人 | 99在线人妻在线中文字幕| 最近最新中文字幕大全免费视频| 久久性视频一级片| 国产精品 欧美亚洲| 亚洲欧美日韩高清在线视频| 国产伦精品一区二区三区四那| 婷婷亚洲欧美| 国产野战对白在线观看| 国产黄a三级三级三级人| 午夜福利视频1000在线观看| 高清在线国产一区| 最近最新中文字幕大全电影3| 一个人看视频在线观看www免费 | 午夜福利在线观看免费完整高清在 | 婷婷亚洲欧美| 久久国产乱子伦精品免费另类| 亚洲国产看品久久| 综合色av麻豆| 国产高清有码在线观看视频| 久久午夜亚洲精品久久| 一卡2卡三卡四卡精品乱码亚洲| 欧美日本视频| 网址你懂的国产日韩在线| 欧美+亚洲+日韩+国产| 国产一区二区激情短视频| 观看美女的网站| 亚洲人成伊人成综合网2020| 黑人操中国人逼视频| 两个人的视频大全免费| 91麻豆精品激情在线观看国产| 国产精品日韩av在线免费观看| 国模一区二区三区四区视频 | 999久久久国产精品视频| 久久亚洲精品不卡| 欧美黑人欧美精品刺激| 久久久精品欧美日韩精品| 嫁个100分男人电影在线观看| 丰满人妻熟妇乱又伦精品不卡| 网址你懂的国产日韩在线| 美女午夜性视频免费| 欧美在线一区亚洲| 成人性生交大片免费视频hd| 丰满人妻熟妇乱又伦精品不卡| 在线观看舔阴道视频| 成人国产一区最新在线观看| 日本 av在线| 国产精品爽爽va在线观看网站| 中国美女看黄片| 两人在一起打扑克的视频| 伦理电影免费视频| 怎么达到女性高潮| 国产精品一区二区精品视频观看| 一区二区三区高清视频在线| 亚洲美女视频黄频| 夜夜爽天天搞| 伦理电影免费视频| av福利片在线观看| 国产真人三级小视频在线观看| 九九热线精品视视频播放| 女警被强在线播放| 中文在线观看免费www的网站| av天堂中文字幕网| 欧美在线黄色| 国内毛片毛片毛片毛片毛片| 真人一进一出gif抽搐免费| 午夜成年电影在线免费观看| 国产熟女xx| 亚洲专区中文字幕在线| 亚洲av日韩精品久久久久久密| 禁无遮挡网站| 亚洲欧美精品综合久久99| 亚洲自偷自拍图片 自拍| 美女大奶头视频| 欧美激情在线99| 国产69精品久久久久777片 | 国产一区二区在线观看日韩 | 国产精品免费一区二区三区在线| 日日干狠狠操夜夜爽| 高清毛片免费观看视频网站| 色播亚洲综合网| 99久久综合精品五月天人人| 国产亚洲精品av在线| 国产精品亚洲美女久久久| 一级毛片精品| av天堂中文字幕网| 九九久久精品国产亚洲av麻豆 | а√天堂www在线а√下载| 国产视频内射| 一级毛片精品| 亚洲中文字幕日韩| 一区福利在线观看| 成人午夜高清在线视频| 午夜成年电影在线免费观看| 亚洲精品一卡2卡三卡4卡5卡| 国产蜜桃级精品一区二区三区| 午夜免费激情av| 香蕉久久夜色| 免费高清视频大片| 国产精品 欧美亚洲| 久久欧美精品欧美久久欧美| 一本一本综合久久| 欧美日韩综合久久久久久 | 脱女人内裤的视频| 丰满人妻一区二区三区视频av | 男女那种视频在线观看| 国产主播在线观看一区二区| 久久久久性生活片| 国产乱人视频| 一本一本综合久久| 午夜两性在线视频| 亚洲精华国产精华精| 久久精品国产综合久久久| 1024香蕉在线观看| 老司机福利观看| 一进一出抽搐gif免费好疼| 69av精品久久久久久| 国产精品野战在线观看| 亚洲激情在线av| 性欧美人与动物交配| 日本黄大片高清| 一个人观看的视频www高清免费观看 | 身体一侧抽搐| 中国美女看黄片| 成人永久免费在线观看视频| 噜噜噜噜噜久久久久久91| 日本一本二区三区精品| 丰满的人妻完整版| 日韩欧美在线二视频| 男女午夜视频在线观看| 中文字幕精品亚洲无线码一区| av天堂中文字幕网| 在线观看美女被高潮喷水网站 | 中文字幕精品亚洲无线码一区| 亚洲成人免费电影在线观看| 中国美女看黄片| 99国产精品一区二区三区| 国产av不卡久久| 精品久久久久久久久久久久久| 亚洲真实伦在线观看| 亚洲色图 男人天堂 中文字幕| 欧美日韩精品网址| 亚洲七黄色美女视频| 一级毛片精品| 床上黄色一级片| 高清在线国产一区| 九九久久精品国产亚洲av麻豆 | 男人舔奶头视频| 欧美乱妇无乱码| 黄色成人免费大全| 国产精品 国内视频| 一本综合久久免费| av在线天堂中文字幕| 可以在线观看毛片的网站| 国产私拍福利视频在线观看| www.精华液| 日本与韩国留学比较| 欧美日韩福利视频一区二区| 99久久久亚洲精品蜜臀av| 性色avwww在线观看| 婷婷亚洲欧美| 亚洲国产精品成人综合色| 亚洲av成人一区二区三| 亚洲精品色激情综合| 99热这里只有精品一区 | 亚洲人成电影免费在线| 国产亚洲精品久久久久久毛片| 69av精品久久久久久| 无限看片的www在线观看| 色综合站精品国产| 淫妇啪啪啪对白视频| 国产精品久久久人人做人人爽| 狂野欧美激情性xxxx| 波多野结衣高清无吗| 麻豆成人午夜福利视频| 亚洲电影在线观看av| 一个人观看的视频www高清免费观看 | 日韩成人在线观看一区二区三区| 色视频www国产| 日韩免费av在线播放| 两性夫妻黄色片| 又紧又爽又黄一区二区| 亚洲精品久久国产高清桃花| 日本成人三级电影网站| a级毛片在线看网站| 亚洲va日本ⅴa欧美va伊人久久| 欧美日韩中文字幕国产精品一区二区三区| 成人一区二区视频在线观看| 19禁男女啪啪无遮挡网站| 国产综合懂色| 亚洲av免费在线观看| 久久伊人香网站| avwww免费| 老司机福利观看| 在线视频色国产色| 91麻豆av在线| 国产真人三级小视频在线观看| 美女高潮的动态| ponron亚洲| 国产淫片久久久久久久久 | 午夜精品一区二区三区免费看| 1024香蕉在线观看| 国产在线精品亚洲第一网站| 国产成年人精品一区二区| 国产高清videossex| 一级a爱片免费观看的视频| 亚洲一区高清亚洲精品| 久久国产乱子伦精品免费另类| aaaaa片日本免费| 男人舔奶头视频| 国产麻豆成人av免费视频| 国内少妇人妻偷人精品xxx网站 | 国内揄拍国产精品人妻在线| 久久伊人香网站| 精品国产三级普通话版| 亚洲第一电影网av| 黄片小视频在线播放| 黄色丝袜av网址大全| 九九久久精品国产亚洲av麻豆 | 亚洲国产精品999在线| av片东京热男人的天堂| 亚洲乱码一区二区免费版| 亚洲人成伊人成综合网2020| 久久久国产欧美日韩av| 精品日产1卡2卡| 精品久久久久久,| 欧美黄色淫秽网站| www日本黄色视频网| www国产在线视频色| 在线视频色国产色| 美女扒开内裤让男人捅视频| 亚洲国产看品久久| 亚洲精品乱码久久久v下载方式 | 青草久久国产| 色哟哟哟哟哟哟| 精品一区二区三区视频在线 | 女生性感内裤真人,穿戴方法视频| 亚洲乱码一区二区免费版| 亚洲欧美激情综合另类| 日韩欧美精品v在线| 亚洲成a人片在线一区二区| 2021天堂中文幕一二区在线观| 午夜激情福利司机影院| 亚洲自拍偷在线| 欧美中文日本在线观看视频| 亚洲成人中文字幕在线播放| 亚洲国产精品久久男人天堂| 美女黄网站色视频| 国产精品电影一区二区三区| 中文字幕熟女人妻在线| 国产亚洲精品综合一区在线观看| 久久中文字幕人妻熟女| 日韩国内少妇激情av| 亚洲av熟女| 国产黄片美女视频| 18禁裸乳无遮挡免费网站照片| 日韩中文字幕欧美一区二区| 真人一进一出gif抽搐免费| 每晚都被弄得嗷嗷叫到高潮| 99热6这里只有精品| 女人高潮潮喷娇喘18禁视频| 精品日产1卡2卡| 久久亚洲精品不卡| 男女那种视频在线观看| 国产精品日韩av在线免费观看| 亚洲中文日韩欧美视频| 91av网站免费观看| 曰老女人黄片| 美女cb高潮喷水在线观看 | 国产成人欧美在线观看| 久久亚洲精品不卡| 九色国产91popny在线| 波多野结衣高清作品| 精品国产乱子伦一区二区三区| 变态另类丝袜制服| 欧美乱码精品一区二区三区| 国内毛片毛片毛片毛片毛片| 老熟妇乱子伦视频在线观看| 日本一二三区视频观看| 999久久久国产精品视频| 免费在线观看亚洲国产| 欧美av亚洲av综合av国产av| 久久伊人香网站| 美女黄网站色视频| 国产av麻豆久久久久久久| 舔av片在线| 不卡av一区二区三区| 亚洲av熟女| 在线观看66精品国产| 久久性视频一级片| www.自偷自拍.com| 欧美成人免费av一区二区三区| 男女做爰动态图高潮gif福利片| 国产av一区在线观看免费| 亚洲av美国av| 丁香六月欧美| 国产黄色小视频在线观看| 亚洲一区二区三区不卡视频| 99久久无色码亚洲精品果冻| 999久久久精品免费观看国产| 久9热在线精品视频| 亚洲专区中文字幕在线| 免费看日本二区| 国产又色又爽无遮挡免费看| 中文字幕最新亚洲高清| 国产亚洲欧美在线一区二区| 日韩国内少妇激情av| 最近最新免费中文字幕在线| 国产极品精品免费视频能看的| 18禁黄网站禁片午夜丰满| 亚洲美女黄片视频| 欧美另类亚洲清纯唯美| 五月玫瑰六月丁香| 国产熟女xx| 岛国在线免费视频观看| 99视频精品全部免费 在线 | 午夜a级毛片| 99久久成人亚洲精品观看| 一进一出好大好爽视频| 99精品在免费线老司机午夜| 制服丝袜大香蕉在线| 欧美不卡视频在线免费观看| 一个人观看的视频www高清免费观看 | 亚洲片人在线观看| 亚洲男人的天堂狠狠| 久久久久久久久久黄片| 日日摸夜夜添夜夜添小说| 国产精品女同一区二区软件 | 99精品久久久久人妻精品| 亚洲精品一区av在线观看| 欧美一级毛片孕妇| 亚洲av美国av| 韩国av一区二区三区四区| 欧美在线一区亚洲| 午夜福利在线观看免费完整高清在 | 麻豆国产97在线/欧美| 99久久99久久久精品蜜桃| 亚洲欧美日韩卡通动漫| 成人特级黄色片久久久久久久| 可以在线观看的亚洲视频| 免费看a级黄色片| 欧美极品一区二区三区四区| www.999成人在线观看| 久久精品国产综合久久久| 免费搜索国产男女视频| 成人av一区二区三区在线看| 久久草成人影院| 国产91精品成人一区二区三区| 一级毛片精品| 欧美激情在线99| 国产午夜福利久久久久久| 免费在线观看成人毛片| 久久婷婷人人爽人人干人人爱| xxx96com| 偷拍熟女少妇极品色| 在线观看66精品国产| 久99久视频精品免费| 亚洲成人中文字幕在线播放| 亚洲av成人精品一区久久| 亚洲性夜色夜夜综合| 婷婷亚洲欧美| 国产真实乱freesex| 国产成人系列免费观看| 黑人欧美特级aaaaaa片| 免费看美女性在线毛片视频| 亚洲成人免费电影在线观看| 日本撒尿小便嘘嘘汇集6| 在线观看一区二区三区| 淫妇啪啪啪对白视频| 叶爱在线成人免费视频播放| 欧美日韩综合久久久久久 | 我的老师免费观看完整版| 国产精品亚洲av一区麻豆| 1024香蕉在线观看| 亚洲国产日韩欧美精品在线观看 | av黄色大香蕉| 噜噜噜噜噜久久久久久91| 国产精品1区2区在线观看.| 久99久视频精品免费| 中文字幕人成人乱码亚洲影| 一级毛片女人18水好多| 搡老妇女老女人老熟妇| 欧美日韩黄片免| 性欧美人与动物交配| 亚洲,欧美精品.| 国产亚洲精品一区二区www| 18禁裸乳无遮挡免费网站照片| 人人妻,人人澡人人爽秒播| 亚洲国产中文字幕在线视频| 五月玫瑰六月丁香| 免费看光身美女| 亚洲色图 男人天堂 中文字幕| 欧美av亚洲av综合av国产av| 精品一区二区三区av网在线观看| 男女之事视频高清在线观看| 精品国产亚洲在线| 成年女人毛片免费观看观看9| 国产成年人精品一区二区| 久久精品亚洲精品国产色婷小说| 性色avwww在线观看| 免费看a级黄色片| 最新美女视频免费是黄的| 国产精品av久久久久免费| 熟女电影av网| 久久久国产成人精品二区| 亚洲精品色激情综合| 又黄又粗又硬又大视频| 精品欧美国产一区二区三| 国产成人系列免费观看| 人妻丰满熟妇av一区二区三区| 一夜夜www| 欧美日韩黄片免| 婷婷丁香在线五月| 国产一区二区在线av高清观看| 手机成人av网站| 热99re8久久精品国产| 婷婷六月久久综合丁香| 黑人操中国人逼视频| 十八禁人妻一区二区| 精品人妻1区二区| 观看免费一级毛片| 搡老妇女老女人老熟妇| 99久久久亚洲精品蜜臀av| 欧美极品一区二区三区四区| 国产精品日韩av在线免费观看| 国产精品一区二区精品视频观看| 亚洲人成伊人成综合网2020| 免费电影在线观看免费观看| 搞女人的毛片| 国产真实乱freesex| 热99在线观看视频| 国产亚洲精品av在线| 免费观看的影片在线观看| 美女免费视频网站| 免费在线观看日本一区| 老鸭窝网址在线观看| 国产精品影院久久| 一本精品99久久精品77| 精品国产乱码久久久久久男人| 亚洲一区二区三区色噜噜| 老司机午夜福利在线观看视频| АⅤ资源中文在线天堂| 又黄又爽又免费观看的视频| 精品熟女少妇八av免费久了| 精品国产三级普通话版| 级片在线观看| 制服丝袜大香蕉在线| 成人av一区二区三区在线看| 国内久久婷婷六月综合欲色啪| 国产精品爽爽va在线观看网站| 亚洲熟女毛片儿| www国产在线视频色| 亚洲精品国产精品久久久不卡| 精品福利观看| 夜夜夜夜夜久久久久| 岛国视频午夜一区免费看| 一本综合久久免费| 国产真实乱freesex| 在线永久观看黄色视频| 国产伦一二天堂av在线观看| 欧美乱妇无乱码| 国产主播在线观看一区二区| 欧美乱码精品一区二区三区| 最近在线观看免费完整版| 在线观看一区二区三区| 黑人操中国人逼视频| 后天国语完整版免费观看| 男女做爰动态图高潮gif福利片| 国产午夜精品论理片| 成人性生交大片免费视频hd| 国产欧美日韩一区二区三| 日本熟妇午夜| 久久这里只有精品19| 国产精品免费一区二区三区在线| 757午夜福利合集在线观看| 精品一区二区三区四区五区乱码| 久久中文看片网| 激情在线观看视频在线高清| 久久这里只有精品19| 日本精品一区二区三区蜜桃| 色老头精品视频在线观看| 欧美色欧美亚洲另类二区| 天堂√8在线中文| 女同久久另类99精品国产91| 精品午夜福利视频在线观看一区|