• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    任務型對話系統(tǒng)中的自然語言生成研究進展綜述

    2022-03-10 01:25:30覃立波黎州揚婁杰銘禹棋贏車萬翔
    中文信息學報 2022年1期
    關鍵詞:單詞模板領域

    覃立波,黎州揚,婁杰銘,禹棋贏,車萬翔

    (哈爾濱工業(yè)大學 計算學部,黑龍江 哈爾濱 150001)

    0 引言

    任務型對話系統(tǒng)能夠幫助用戶完成特定任務,所以近年來受到學術界和工業(yè)界的廣泛關注。傳統(tǒng)的模塊化任務型對話系統(tǒng)[1]主要包括四個模塊: 自然語言理解模塊[2-4];對話狀態(tài)跟蹤模塊[5-7];策略學習模塊[8-10]和自然語言生成模塊(NLG)[11-13]。本文主要關注任務型對話系統(tǒng)中的NLG模塊(ToDNLG),其是模塊化任務型對話系統(tǒng)中最重要的模塊之一,用于將系統(tǒng)生成的對話動作轉(zhuǎn)化為用戶可以理解的自然語言回復。如表1所示,輸入包含對話動作inform和槽值對(name=Blue Spice,priceRange=low,familyFriendly=yes),ToDNLG的作用是將輸入轉(zhuǎn)換為對應的自然語言回復: “The Blue Spice is a low cost venue. It is a family friendly location.”

    表1 樣例示例

    近年來,隨著深度神經(jīng)網(wǎng)絡和預訓練語言模型的發(fā)展,ToDNLG的研究已取得了重大突破。但目前仍缺乏對ToDNLG現(xiàn)有方法和最新趨勢的全面調(diào)研。為了回顧現(xiàn)有進展,并幫助研究人員在未來開展新的工作,本文首次對ToDNLG近10年來的發(fā)展進行了全面的調(diào)研和總結。而且,盡管目前ToDNLG模型在標準數(shù)據(jù)集上取得了顯著效果, 但在實際應用中仍有許多問題需要解決。例如,現(xiàn)有神經(jīng)模型無法對生成的回復進行解釋,也無法在低資源場景下獲得滿意的效果。因此,本文對ToDNLG的前沿和挑戰(zhàn)進行了詳細總結,也為ToDNLG后續(xù)研究帶來了新的理解和思考。最后,目前ToDNLG研究領域中沒有一個開源的資源庫來幫助研究人員快速了解進展,故本文也構建了ToDNLG模塊的相關研究資源庫。我們希望該資源庫能夠促進該領域的發(fā)展。

    綜上所述,本文貢獻可以總結為以下幾點:

    (1) 整體總結: 據(jù)我們所知,本文的工作第一次對ToDNLG方向近10年的發(fā)展進行詳細總結,包括非深度學習年代的ToDNLG模型和基于深度學習的ToDNLG模型。

    (2) 前沿和挑戰(zhàn): 本文討論并分析了現(xiàn)有ToDNLG的局限性,并且探討了一些新的前沿領域和面臨的挑戰(zhàn)。供研究人員了解ToDNLG領域的最新進展、前沿和挑戰(zhàn)。

    (3) 豐富的資源: 我們收集了關于ToDNLG的豐富資源,包括開源實現(xiàn)、數(shù)據(jù)集和論文清單(1)https://github.com/yizhen20133868/Awesome-TOD -NLG-Survey。據(jù)我們所知,這是首個ToDNLG社區(qū)的開源資源庫。。

    本文組織結構如下: 第1節(jié)概述ToDNLG的背景;第2節(jié)介紹ToDNLG現(xiàn)有工作的全面調(diào)研成果;第3節(jié)討論新的前沿領域及其挑戰(zhàn);第4節(jié)對全文進行總結。

    1 背景

    1.1 任務定義

    M={D,(s1,v1),…,(sn,vn)}

    (1)

    ToDNLG的輸出是將輸入的MR經(jīng)過一系列變化,轉(zhuǎn)換成句法正確、語義準確、語句流暢的自然語言回復y=[y1,…,yT],其中,yi是回復y中的第i個詞,T是生成回復的長度。綜上所述,ToDNLG任務的形式化定義如式(2)所示。

    y=NLG(M)

    (2)

    1.2 數(shù)據(jù)集描述

    目前深度學習方法中常用到的數(shù)據(jù)集有Hotel[11],Restaurant[11], Laptop[12], Television[12]和E2E[14], 具體描述如下:

    Hotel和Restaurant數(shù)據(jù)集的背景為在舊金山市的酒店、餐廳預訂; Laptop和Television數(shù)據(jù)集的背景為購買筆記本電腦、電視產(chǎn)品;E2E數(shù)據(jù)集的背景為餐廳預訂。

    以上數(shù)據(jù)集詳細統(tǒng)計如表2所示。

    表2 數(shù)據(jù)集統(tǒng)計

    1.3 常用指標

    ToDNLG任務的常用指標為BLEU[15]和Slot Error Rate(ERR)。

    ? BLEU: BLEU指標是N-gram相似度的指標,用來衡量生成句子的流暢度。

    ? Slot Error Rate (ERR): 用來衡量生成句子與輸入的slot-pairs的匹配程度,如式(3)所示。

    (3)

    其中,N是MR中所含槽值對的數(shù)量,p和q分別是生成回復中缺少和多余的槽位數(shù)量。

    2 方法分類

    任務型對話中的自然語言生成方法可以劃分為傳統(tǒng)方法和深度學習方法兩大類。其中傳統(tǒng)方法包括: (1)基于模板的方法; (2)基于句子規(guī)劃的方法; (3)基于類的方法; (4)基于短語的方法。深度學習方法包括: (1)基于解碼器的方法; (2)基于序列到序列的方法; (3)基于Transformer的方法。

    2.1 傳統(tǒng)方法

    2.1.1 基于模板的方法

    基于模板的方法(Template-based)是一種根據(jù)人工設計的模板直接生成自然語言的方法。每個模板分為兩部分: (1)固定的自然語言模板; (2)需要根據(jù)對話動作中的槽值進行填充的槽位。此方法生成語言的步驟如下: 通過輸入的對話動作選擇合適的模板,再根據(jù)對話動作中的信息填充槽位。

    基于模板的方法是最樸素的ToDNLG方法,在早期的對話系統(tǒng)中比較常見。Reiter[16]首次在論文中提出了基于模板的概念。Axelrod等人[17]在IBM公司的航班信息系統(tǒng)中加入基于模板的對話系統(tǒng)。Baptist等人[18]在開發(fā)對話系統(tǒng)GENESIS-Ⅱ時使用基于模板的方法提高外語和非傳統(tǒng)語言的生成質(zhì)量。Becker等人[19]將詞匯化擴展到整個短語,并提出了基于模板的部分派生方法。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:簡單、高效,產(chǎn)生的回復精準、易控制且質(zhì)量較高(依賴于模板集的質(zhì)量)。

    缺點:可移植性差,不同的領域需要編寫不同的模板,人工編寫和維護的工作量較大。

    2.1.2 基于句子規(guī)劃的方法

    基于句子規(guī)劃的方法(Plan-based)通過引入句法樹的結構,自動加入語言結構的信息,使得生成的句子更加流暢?;诰渥右?guī)劃的方法包括三個模塊: (1)句子規(guī)劃生成模塊; (2)句子規(guī)劃排序模塊; (3)表層實現(xiàn)器模塊。

    句子規(guī)劃生成模塊:句子規(guī)劃生成模塊包含一系列人工設置的語句合并操作規(guī)則,這些合并操作可以將一系列較低層的謂詞變元表示逐層地組合成更高層的深層句法結構。句子規(guī)劃通常以句子規(guī)劃樹的形式呈現(xiàn)。句子規(guī)劃樹是二叉樹,內(nèi)部結點表示語句合成操作。句子規(guī)劃生成模塊會先將MR進行一些可能的排序,而后將其作為句子規(guī)劃樹的葉子節(jié)點,并轉(zhuǎn)化為基本短句。最后再層級地加入作為非葉子節(jié)點的語句合成操作,從而生成不同的句子規(guī)劃樹。

    句子規(guī)劃排序模塊: 此模塊的任務是對句子規(guī)劃生成模塊生成的一系列句子進行排序,并將得分最高的句子送給最后的表層實現(xiàn)模塊進行自然語言生成。排序器的具體實現(xiàn)通常使用RankBoost算法[20],這種方法可以進行自動訓練和排序,將最好的句子規(guī)劃輸入下一個模塊。

    表層實現(xiàn)器模塊: 此模塊是將接收到的上一模塊輸出的句子規(guī)劃轉(zhuǎn)換成自然語言形式的最終回復。轉(zhuǎn)換過程是基于各個語句合并操作的規(guī)則,在句子規(guī)劃樹上,自底向上、逐層地將所有子節(jié)點合并成父節(jié)點,最終生成自然語言回復。

    在基于句子規(guī)劃的方法中,Reed等人[21]首次提出了句子規(guī)劃概念,構造了簡單的分層規(guī)劃框架;Reed[22]總結了基于句子規(guī)劃方法顯著性的含義和實現(xiàn)。Walker等人[20]提出了SPoT結構,將基于規(guī)劃的方法分為了隨機句子規(guī)劃生成器和排序器,并提出了基于反饋自動訓練的方法,提升了方法的效果。Stent等人[23]基于SPoT為對話系統(tǒng)構建句子規(guī)劃器時,引入了更多的修辭關系組合,以建模句子內(nèi)部的復雜信息。Fran?ois等人[24]在處理對話系統(tǒng)時,將基于句子規(guī)劃和基于模板的方法結合起來,并使訓練過程可訓練,因而模型能自動適應特定的領域。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:基于句子規(guī)劃的方法使用了句法樹,可以建模和生成復雜的語言結構。

    缺點:同樣需要大量的領域知識,可移植性和可拓展性差,對于新領域需要大量的人工工作,且效果并不一定優(yōu)于基于模板的方法。

    2.1.3 基于類的方法 (Class-based)

    基于類的方法(Class-based)是一種統(tǒng)計方法,使用語言模型進行自然語言生成。此方法先構建話語類(Utterance Class)和單詞類(Word Class)的集合,并為語料庫中的語料標注話語類和單詞類,然后將處理好的語料庫依次輸入兩個模塊: (1)內(nèi)容規(guī)劃模塊,(2)表層生成模塊。

    內(nèi)容規(guī)劃模塊:此模塊的輸入是系統(tǒng)回復的話語類別,輸出是系統(tǒng)回復中應包含的單詞類數(shù)量及應包含的單詞類。該模塊使用一個雙階段的語言模型來決定回復中應該包含哪些單詞類。

    在第一個階段中,模型根據(jù)給定的話語類別統(tǒng)計出單詞類的概率分布P(n|c),其中,c是待生成的系統(tǒng)回復的話語類別,n是系統(tǒng)回復應該包含的單詞類的數(shù)量,再通過概率分布預測本句應該包含的單詞類的數(shù)量。在第二個階段中,使用bi-gram語言模型,單詞類集合的概率分布為P(Sn|Sn-1),其中,Sn-1是前一條語句的單詞類集合,Sn是待預測的當前語句的單詞類集合。根據(jù)前一條語句中的單詞類集合的概率分布預測系統(tǒng)回復中應該包含的單詞類,參數(shù)估計一般使用最大似然法。為了減少待估計的參數(shù)數(shù)量,通常會做一些獨立性假設,將估計單詞類集合轉(zhuǎn)化為估計P(si|sk),其中,si、sk是單個單詞類別;i,k分別是預測單詞類集合和前一條語句中單詞類集合的下標。

    表層生成模塊: 此模塊的任務是使用語言模型隨機生成回復。訓練階段,先對語料進行去詞匯化(將單詞替換成相應的單詞類),再對每一個話語類別,使用去詞匯化后的語料建立N-gram語言模型。針對某一個話語類別生成回復的時候,使用相應類別的語言模型,用集束搜索的策略生成多個回復,再結合內(nèi)容規(guī)劃模塊的結果,設計一些啟發(fā)式的標準,對語言模型生成的多個回復進行打分,選擇最高分的回復。最后用真實的值來填充其中的單詞類,得到最終的自然語言回復。

    基于類的方法由Oh等人[25]首次提出,他們在表層生成中使用了語言模型,減少了標記工作,增加了生成語言的速度。Barzilay等人[26]受到生物信息學的啟發(fā),將多序列對齊技術應用于映射字典獲取問題,提高結果字典的準確性和表達能力,而且多種語言表達的存在有助于系統(tǒng)學習多種表達概念的方式。Belz[27]使用基于類的自然語言生成模型,半自動地創(chuàng)建了五個不同版本的天氣預報生成器,且最好的生成器性能超過了專家預測。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:相比于之前的方法,基于類的方法使用了語言模型,在生成結果的流暢度、多樣性上都有明顯提升。

    缺點:每個領域都需要手工創(chuàng)建類別集合,可移植性和可拓展性差。此外,語言模型的計算效率低,稀疏問題未能得到很好的解決,且該方法的獨立性假設過強。

    2.1.4 基于短語的方法

    基于短語的方法 (Phrase-based)是一種基于統(tǒng)計的數(shù)據(jù)驅(qū)動型方法,將人工工作從模板的設計和維護轉(zhuǎn)移到數(shù)據(jù)標注上。該方法在訓練前需要對訓練集中的句子以短語為單位進行對齊標注;訓練時,將標注的結果,即一系列無序的強制語義堆(Mandatory Semantic Stack)送給語言生成模塊生成自然語言回復。基于對齊標注數(shù)據(jù)進行語言生成比較簡單,比較通用的方法是使用動態(tài)貝葉斯網(wǎng)絡[28]生成回復。主要包括數(shù)據(jù)對齊標注和語言生成模塊。

    數(shù)據(jù)對齊標注:基于短語的方法需要對齊標注的數(shù)據(jù),即用一個基于堆的語義表達去約束語義概念序列。每一個句子會被自動映射到一個短語層次的語義堆(Phrase-Level Semantic Stacks)。

    語言生成模塊:此模塊的任務是輸入一個含有多個強制語義堆的集合,生成最可能的回復序列。

    基于短語的方法由Fran?ois等人[28]首次提出,他們構造了一個統(tǒng)計語言生成器BAGEL,并使用貝葉斯網(wǎng)絡進行學習,在小部分數(shù)據(jù)訓練中和人類評估的效果接近。Du?ek等人[29]提出的基于句法的方法是對基于短語方法的改進,它可以使模型利用大規(guī)模來對齊的標注數(shù)據(jù)。Lampouras等人[30]加入了模仿學習的方法進行結構性預測,并調(diào)整了局部最優(yōu)學習搜索框架,在三個數(shù)據(jù)集上都達到了與最優(yōu)方法相近的結果。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:該方法是數(shù)據(jù)驅(qū)動的方法,不依賴手工寫成的生成器,可以用較少的參數(shù)建模長距離的依賴關系和特定領域的慣用短語。

    缺點:需要大量的語義對齊處理,難以移植和拓展。標注數(shù)據(jù)的方法對結果影響很大,需要進行大量標注方式的嘗試。

    2.2 深度學習方法

    隨著深度學習技術的迅速發(fā)展,ToDNLG模塊的研究趨勢也從需要大量特征工程的傳統(tǒng)方法中轉(zhuǎn)移到基于深度學習的方法上來。

    深度學習方法主要包括: (1)基于解碼器(Decoder-based)的方法; (2)基于序列到序列(Seq2Seq-based)的方法; (3)基于Transformer的方法。其中基于解碼器的方法首次開啟了ToDNLG深度學習時代,基于序列到序列的方法首次借鑒了機器翻譯領域的相關技術來提高性能,而基于Transformer的方法很好地解決了之前自回歸方法因無法并行而效率低下的問題,以及模型上界不高的缺點。

    接下來我們將詳細描述這三種方法及其優(yōu)缺點。

    2.2.1 基于解碼器的方法

    如圖1(a)所示,基于解碼器的方法使用簡單的編碼方式(如One-hot向量)來表示輸入,不需要通過編碼器將輸入進一步變化。而是直接使用RNN構造的解碼器[31]來生成回復。此類方法通常分為語言生成模塊和重排序模塊。

    圖1 深度學習方法結構圖

    語言生成模塊的輸入為語義表示,輸出是多個可能的去詞化(delexicalisation)的語句。該模塊輸入MR表示的編碼,應用RNN及其衍生的神經(jīng)網(wǎng)絡結構,如LSTM、GRU[31-33]等,使用隨機生成或集束搜索的方式輸出多個可能的句子。而重排序模塊的任務是將生成的多個去詞化語句進行打分并排序,選出最好的語句并輸出語句。一般使用CNN或者Backward RNN進行重排序。

    Wen等人[34]首次將基于解碼器的方法應用到ToDNLG任務中,提出了Recurrent Generation Model,如圖2所示。Wen等人使用one-hot編碼分別將對話動作DA和slot type進行編碼,然后再將所有生成的one-hot向量拼接在一起,作為輸入的MRs表示。為了能讓模型在生成時能考慮到輸入的MR語義信息,他們對RNN cell進行了修改,使其能夠接受MR表示中的信息。在每個生成的時刻,生成的詞表示是基于去詞化后總詞表的one-hot向量,并使用一個門控向量來控制每個時刻接收多少MR信息。生成多個可能的句子后,使用CNN或者Backward RNN進行重排序。當使用CNN時,一般的做法是經(jīng)過卷積層、池化層和全連接層,生成表示候選句所含MR表示的multi-one-hot向量。這個multi-one-hot向量以模型輸入的MR表示作為參考進行評分。而Backward RNN的方法會將輸入的去詞化語句逆序輸入到RNN模塊,通過計算后向RNNLM的對數(shù)似然進行重排序。Wen等人[11]基于Recurrent Generation Model,進一步對LSTM cell進行了改進,提出了SC-LSTM模型。SC-LSTM cell引入了語義控制模塊。對于每個時刻輸入的語義信息,使用GloVe詞向量[35]編碼,然后根據(jù)當前輸入的單詞和上一時刻的隱層來得到門控值,通過門控的方式傳遞,更新當前的語義控制向量。而語義控制向量則會參與到LSTM cell的當前狀態(tài)計算中,從而達到語義信息控制的目的。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:開創(chuàng)了在ToDNLG使用神經(jīng)網(wǎng)絡方法的先河,同時使用了語言模型和神經(jīng)網(wǎng)絡方法,生成的語句具有多樣性,且減少了人工特征干預。

    缺點:使用語義控制的one-hot編碼含有的信息較少,設計較為簡單;生成語句的標準太簡單,搜索空間小,有時無法得到較好的結果。此外,模型無法應對二值化的或者無法去詞化的slot情況。

    2.2.2 基于序列到序列(Seq2Seq)的方法

    隨著Seq2Seq類的模型在機器翻譯等領域取得了較好的效果[36-38],近年來有一些工作開始探索Seq2Seq在任務型對話自然語言生成中的應用,如圖1(b)所示。

    該類方法在編碼器端,對于輸入的MR,DA使用one-hot向量表示,而對于每個槽值對,對它的槽位和槽值分開進行編碼操作,然后將它們的表示相加得到這個槽值對的表示。在解碼時,采用自回歸的方式,引入注意力機制,生成回復。

    Du?ek等人[39]探索了用Seq2Seq方法生成句子規(guī)劃樹和直接生成自然語言回復這兩種方式的優(yōu)劣性,如圖3所示。其工作首先對輸入的MR進行處理,對于每個槽值對,都將對話動作表示加入其中,形成DA-slot type-slot value三元組,然后將這些三元組拼接形成輸入序列。編碼器使用LSTM編碼,解碼器使用LSTM結構和注意力(attention)機制進行解碼,使用句子級別的注意力分數(shù)與每個詞的加權和,生成自然語言。實驗結果表明,使用Seq2Seq方法比直接生成自然語言回復的方式更好。Wen等人[40]參考內(nèi)容選取領域的研究,提出了適應于ToDNLG的一種基于注意力機制的Encoder-Decoder架構,取得了比基于解碼器的方法更好的效果。Du?ek等人[41]從他們的上一個模型出發(fā),引入了語言模型的信息。他們在保持模型總體框架不變的情況下,對輸入進行了改進,將用戶的話語拼接在輸入的MR三元組前面,作為前置的上文;且新增加了一個上文編碼器,單獨對用戶話語進行編碼。然后將兩個編碼器的結果進行拼接得到解碼器的輸入。Tran等人[42]對Wen等人[40]的工作的了進一步的修改,他們在Encoder與Decoder之間增加了一個聚合模塊Aggregator。Aggregator的目標是更好地利用語義信息對當前時刻輸入的詞進行處理。Agarwal等人[43]提出了Char2Char的生成模型,將MR轉(zhuǎn)為字母級別的輸入,從而免去了去詞化步驟,輸出時也采用了字母級別的生成。Juraska等人[44]提出了Slug2Slug模型,認為槽位與回復語句中片段的語義對齊十分重要,他們將這個對齊引入到數(shù)據(jù)預處理和重排序模塊中,在E2E數(shù)據(jù)集上取得了當時的最佳效果。

    圖3 Du?ek等人文中的模型結構圖及示例

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:相較于Decoder-based模型,Seq2Seq模型通過注意力機制的encoder-decoder架構,能夠更好地編碼MR輸入,并且將輸入中包含的語義信息加入到解碼階段中,獲得了較好的效果。

    缺點:對于MR輸入,只將其視為一個序列進行編碼,而忽略了其中的結構化信息。Encoder-decoder采用的自回歸建模范式無法并行化處理,導致模型訓練的時間較長。

    2.2.3 基于Transformer的方法

    隨著Transformer結構的提出和發(fā)展,其在ToDNLG生成領域的各種變體也受到了廣泛關注,如圖1(c)所示。

    圖4 Chen等人文中的模型結構圖及示例

    Chen等人[45]提出了SC-HDSA,如圖4所示。之前關于MR的利用中,大部分工作忽略了MR之間的關系,將MR視為序列輸入。而Chen等人關注MR的結構信息,使用了一個圖式的結構來掌握語義信息,將MR分為領域—對話動作—槽位三層結構。在解碼時,聯(lián)合帶有多抽頭注意力的分層Transformer語言生成結構。標準的Transformer結構將不同的多抽頭輸出拼接成一個輸出向量。SC-HDSA模型則是在每一層根據(jù)輸入的分層MR結構,激活特定的多抽頭,從而更好地控制信息傳遞的方向,獲得了較好的效果。Peng等人[46]提出SC-GPT模型,將MR平鋪輸入到GPT預訓練模型中,使用序列到序列的方法直接獲得結果。Kale等人[47]認為預訓練模型在預訓練階段使用的語料和微調(diào)時語料中的MR結構化輸入有所區(qū)別,他們嘗試使用了基于模板的轉(zhuǎn)化方式。使用Text-to-Text Transfer Transformer(T5)構造的encoder-decoder模型進行訓練,獲得了比SC-GPT模型更好的效果。

    該方法的優(yōu)缺點總結如下:

    優(yōu)點:Transformer-based的模型可以通過預訓練機制提高模型建模語言的能力,跨時序的注意力機制能夠?qū)Y構化的MR輸入進行更好的處理,達到了目前最好的效果。

    缺點:基于Transformer-based的模型需要更多的數(shù)據(jù)進行訓練,并且基于預訓練Transformer-based的模型需要更多的計算資源。

    基于深度學習方法的ToDNLG實驗結果總結如表3所示。

    表3 基于深度學習方法的ToDNLG實驗結果總結

    3 前沿及挑戰(zhàn)

    3.1 跨領域ToDNLG

    由于深度學習和預訓練模型的發(fā)展,現(xiàn)有ToDNLG已經(jīng)取得了很好的性能。但現(xiàn)有的ToDNLG模型依賴于大量的標注數(shù)據(jù)進行訓練,限制了它們擴展領域的靈活性。且在真實應用場景中,為每個新領域收集豐富的標注數(shù)據(jù)集是不可取的。因此跨領域ToDNLG研究越來越受到關注。跨領域ToDNLG旨在利用多個源領域下的訓練語料來幫助學習一個或多個目標領域的自然語言生成。

    Wen等人[40]首次進行多領域ToDNLG的探索,他們提出首先將模型在合成的跨領域數(shù)據(jù)集上進行訓練,然后在領域內(nèi)數(shù)據(jù)集上進行微調(diào)的做法。這個方法在一定程度上能夠?qū)崿F(xiàn)多領域之間的知識遷移。Tran等人[48]提出了一個對抗式訓練方法,加入多個適應步驟,并構建了相似度評價標準產(chǎn)生域不變特征,幫助生成器從源域到目標域進行有效的學習。Tseng等人[49]利用條件變分自動編碼器架構,在生成過程中用句子層面的全局隱變量信息來改進基于解碼器的模型。當測試在遷移領域內(nèi)傳達所需信息的能力時,模型顯示出很好的效果。

    跨領域的ToDNLG主要面臨的挑戰(zhàn)如下:

    領域數(shù)量龐大: 在應用場景中,領域數(shù)量會迅速擴增,如何在巨大的領域之中遷移有利的領域知識,而避免有害的負遷移是一個值得探索的問題。

    Zero-shot跨領域遷移: 當目標領域沒有任何標注語料,如何建模源領域和目標領域的相關性進行有效的遷移是一個挑戰(zhàn)。

    3.2 可解釋ToDNLG

    如今,端到端神經(jīng)網(wǎng)絡已經(jīng)在ToDNLG中取得了很好的表現(xiàn)。然而,現(xiàn)有的模型都采用神經(jīng)網(wǎng)絡,往往被視為一個黑盒結構?;谏窠?jīng)網(wǎng)絡的ToDNLG模型無法對每個單詞的生成產(chǎn)生合理可信的解釋,不具備良好的可解釋性。

    為了解決這個問題,Li等人[50]提出了一個新的框架——異構渲染機(HRM)。HRM由一個渲染器集和一個模式切換器組成。在每一個生成步驟均顯式地判斷每個生成單詞的類型。通過這個過程,模型可以清楚地解釋每一個單詞的來源和生成過程。該工作邁出了可解釋性ToDNLG的第一步,非常具有啟發(fā)意義。

    可解釋性ToDNLG主要面臨的挑戰(zhàn)如下:

    性能損失: HRM盡管在一定程度上提高了模型的可解釋性,但是也降低了準確率,如何在提高可解釋性的同時又不降低模型的性能是一個有意義的課題。

    端到端訓練: 現(xiàn)有可解釋性模型為了顯式地解釋每一步生成,無法進行端到端的訓練。如何進行整體端到端的訓練是一個值得被探索的研究方向。

    3.3 多任務學習

    多任務學習指的是通過聯(lián)合學習多個相關的任務來提高各個任務的學習方法,已經(jīng)在自然語言處理領域取得了很好的效果。近些年來,在ToDNLG領域,也有一些研究人員利用多任務學習去學習其他任務的知識,并將其遷移到ToDNLG上來提高ToDNLG的性能。

    Zhu等人[51]提出NLG-LM架構,同時訓練ToDNLG和語言模型(LM),借助同時訓練語言模型來保證生成流暢的句子。Su等人[52]提出使用對偶監(jiān)督學習來同時建模NLU和ToDNLG任務,利用ToDNLG的對偶任務NLU的知識來提升NLG的性能。

    多任務學習ToDNLG主要面臨的挑戰(zhàn)如下:

    有效遷移:如何找到合適相關的其他任務來完成多任務學習,從而進行有效遷移,是一個挑戰(zhàn)。

    高效率:多任務學習往往通過犧牲時間效率來提高性能。如何利用多任務學習的優(yōu)勢,又保證單任務學習的時間效率值得被關注。

    3.4 低資源ToDNLG

    目前基于神經(jīng)網(wǎng)絡的ToDNLG模型都依賴于大量的標注數(shù)據(jù)進行訓練,但是在真實應用中,很難對每一個新的場景去標注充足的數(shù)據(jù)。因此,如何在少量訓練數(shù)據(jù)下進行ToDNLG模型的訓練,也能取得不錯的效果是目前的一個研究趨勢。

    Peng等人[46]提出SC-GPT,直接利用預訓練模型GPT來進行小樣本ToDNLG訓練。將MR展平為序列作為輸入來生成回復。該方法是對小樣本ToDNLG領域的首次探索。Xu等人[53]認為,盡管SC-GPT模型在小樣本ToDNLG上的應用取得了一定的效果,但模型沒有進一步提升效果的能力。因此想嘗試使用數(shù)據(jù)增廣的方式來提高小樣本ToDNLG的效果。將自訓練的神經(jīng)檢索模型與小樣本NLU結合,能夠自動地從開放域的文本中自動創(chuàng)建ToDNLG的數(shù)據(jù)。該方法與前人的方法是正交的,可以將這些新數(shù)據(jù)與前人方法結合來獲得更好的效果。

    低資源ToDNLG主要面臨的挑戰(zhàn)如下:

    結構融入:低資源場景下,如何有效融入ToDNLG的結構信息來提高性能,目前還沒有得到足夠的關注。

    泛化性:低資源場景下,如何使訓練的ToDNLG模型具有良好的泛化性是一個值得關注的課題。

    3.5 復雜ToDNLG

    目前的ToDNLG模型均只能考慮較為簡單的場景: 即輸入單個MR,也就是包含一個對話動作和與其對應的槽值對來進行對話系統(tǒng)回復的生成。但是現(xiàn)實場景較為復雜,在生成回復時,往往可能需要考慮多個MR輸入,也就是多個對話動作和對應的槽值對,這樣能夠滿足一些真實復雜場景的需求。近些年來,也有一些研究人員在該復雜ToDNLG方向進行了探索。

    Balakrishnan等人[54]首次考慮了多個MR輸入ToDNLG,提出了一個新的數(shù)據(jù)集,對多個MR進行處理,包括定義這些MR之間的關系,如約束關系、并列關系等。這篇文章是復雜ToDNLG方向的首個探索,具有推動該領域發(fā)展的意義。

    復雜ToDNLG主要面臨的挑戰(zhàn)如下:

    復雜建模:如何有效地建模多個MR之間的關系是一個待解決的挑戰(zhàn)。

    4 總結

    本文完成了任務型對話系統(tǒng)中的自然語言生成模塊(ToDNLG)全面調(diào)研?;趯ψ罱ぷ鞯南到y(tǒng)分析,本文首先對近10年的ToDNLG方法進行了總結歸納。此外,考慮到最近ToDNLG系統(tǒng)的局限性,本文分析并討論了該研究領域的發(fā)展趨勢。最后,本文提供一個開源網(wǎng)站,包括ToDNLG數(shù)據(jù)集、論文、基線項目,希望該網(wǎng)站能夠促進ToDNLG社區(qū)的發(fā)展。

    猜你喜歡
    單詞模板領域
    鋁模板在高層建筑施工中的應用
    鋁模板在高層建筑施工中的應用
    單詞連一連
    領域·對峙
    青年生活(2019年23期)2019-09-10 12:55:43
    看圖填單詞
    看完這些單詞的翻譯,整個人都不好了
    鋁模板在高層建筑施工中的應用
    城市綜改 可推廣的模板較少
    新常態(tài)下推動多層次多領域依法治理初探
    肯定與質(zhì)疑:“慕課”在基礎教育領域的應用
    久久人人精品亚洲av| 国产真人三级小视频在线观看| 国产免费av片在线观看野外av| 亚洲av成人av| 成年人黄色毛片网站| 亚洲国产精品久久男人天堂| 午夜激情av网站| 麻豆久久精品国产亚洲av| 国产99白浆流出| 国产99白浆流出| 美女免费视频网站| 少妇裸体淫交视频免费看高清 | 一本综合久久免费| 久久久久久人人人人人| 美女黄网站色视频| 精品久久久久久久末码| 欧美日韩亚洲国产一区二区在线观看| 黑人操中国人逼视频| 国产99白浆流出| 91麻豆精品激情在线观看国产| 大型av网站在线播放| e午夜精品久久久久久久| 国产精品电影一区二区三区| 国产高清视频在线播放一区| 国产黄a三级三级三级人| 久久精品成人免费网站| 亚洲第一电影网av| 黄色成人免费大全| 国产高清激情床上av| 亚洲九九香蕉| 少妇的丰满在线观看| 中文字幕高清在线视频| 午夜免费成人在线视频| 舔av片在线| 国产精品美女特级片免费视频播放器 | 两性午夜刺激爽爽歪歪视频在线观看 | 两个人视频免费观看高清| 亚洲欧美激情综合另类| 久久 成人 亚洲| 国产午夜福利久久久久久| 欧美黑人精品巨大| 中亚洲国语对白在线视频| 久久久久国产一级毛片高清牌| 亚洲国产日韩欧美精品在线观看 | 成人特级黄色片久久久久久久| 亚洲片人在线观看| 夜夜爽天天搞| 日韩有码中文字幕| 黄色丝袜av网址大全| 久久 成人 亚洲| 欧美不卡视频在线免费观看 | xxx96com| 一进一出抽搐gif免费好疼| 亚洲av成人av| 国内精品久久久久久久电影| 国产免费男女视频| 国产一区在线观看成人免费| 中亚洲国语对白在线视频| 国产久久久一区二区三区| 婷婷亚洲欧美| 国产91精品成人一区二区三区| 亚洲五月天丁香| 亚洲精品国产一区二区精华液| 国产精品乱码一区二三区的特点| 亚洲国产精品999在线| 香蕉丝袜av| 两人在一起打扑克的视频| 国产亚洲精品av在线| 男人舔奶头视频| 国产精品爽爽va在线观看网站| 亚洲成人久久爱视频| 亚洲 欧美一区二区三区| 国产精品综合久久久久久久免费| 黄色视频,在线免费观看| x7x7x7水蜜桃| 国产免费男女视频| 国产一区在线观看成人免费| 18美女黄网站色大片免费观看| 久久久久精品国产欧美久久久| 国产精品1区2区在线观看.| 国内揄拍国产精品人妻在线| 嫁个100分男人电影在线观看| 蜜桃久久精品国产亚洲av| 精品福利观看| 99精品欧美一区二区三区四区| 在线观看免费日韩欧美大片| 丁香六月欧美| 91字幕亚洲| 视频区欧美日本亚洲| 99久久国产精品久久久| 中文字幕av在线有码专区| 嫩草影视91久久| 舔av片在线| 又爽又黄无遮挡网站| 中文资源天堂在线| av国产免费在线观看| 51午夜福利影视在线观看| 亚洲精品国产一区二区精华液| 曰老女人黄片| 国产精品一区二区三区四区久久| 精品熟女少妇八av免费久了| 国产成+人综合+亚洲专区| 亚洲成人精品中文字幕电影| 亚洲精华国产精华精| 午夜久久久久精精品| 日韩中文字幕欧美一区二区| videosex国产| 精品日产1卡2卡| 免费无遮挡裸体视频| 国产免费av片在线观看野外av| 一本久久中文字幕| 日日摸夜夜添夜夜添小说| 神马国产精品三级电影在线观看 | 又紧又爽又黄一区二区| 深夜精品福利| 欧美丝袜亚洲另类 | 国产一区在线观看成人免费| 禁无遮挡网站| 国产亚洲精品一区二区www| 少妇人妻一区二区三区视频| 国产成人影院久久av| 精品久久久久久久久久免费视频| 神马国产精品三级电影在线观看 | 一区二区三区激情视频| 国产一区二区激情短视频| 很黄的视频免费| 亚洲专区字幕在线| 免费av毛片视频| 午夜精品在线福利| 男男h啪啪无遮挡| 国产亚洲精品第一综合不卡| 日韩高清综合在线| 黄色毛片三级朝国网站| 97人妻精品一区二区三区麻豆| 免费搜索国产男女视频| 50天的宝宝边吃奶边哭怎么回事| 久久国产乱子伦精品免费另类| 成人午夜高清在线视频| 怎么达到女性高潮| 亚洲成人精品中文字幕电影| 成人手机av| 日日爽夜夜爽网站| 女人高潮潮喷娇喘18禁视频| 俺也久久电影网| 99精品在免费线老司机午夜| 精华霜和精华液先用哪个| www.www免费av| 免费在线观看日本一区| 搡老岳熟女国产| 18美女黄网站色大片免费观看| 啦啦啦观看免费观看视频高清| www.自偷自拍.com| 麻豆av在线久日| 窝窝影院91人妻| 亚洲自拍偷在线| 最近最新免费中文字幕在线| 两个人看的免费小视频| 亚洲 国产 在线| av视频在线观看入口| xxx96com| 午夜福利在线在线| 俺也久久电影网| 精品高清国产在线一区| 国产精品av视频在线免费观看| 禁无遮挡网站| 搡老熟女国产l中国老女人| 国产av一区二区精品久久| 麻豆国产av国片精品| 国产伦一二天堂av在线观看| www.999成人在线观看| 狠狠狠狠99中文字幕| 中文字幕最新亚洲高清| 免费看a级黄色片| 色播亚洲综合网| 国产探花在线观看一区二区| 精品久久久久久,| 岛国在线免费视频观看| 99热这里只有是精品50| 成人国产一区最新在线观看| 久久久久久大精品| 成人av在线播放网站| 91老司机精品| 亚洲欧美日韩无卡精品| 国产熟女午夜一区二区三区| 国产精品一区二区精品视频观看| 久久香蕉国产精品| 国产高清videossex| 国产一级毛片七仙女欲春2| 国产一区二区三区在线臀色熟女| 午夜久久久久精精品| 亚洲av成人不卡在线观看播放网| 俺也久久电影网| 久久精品国产综合久久久| 久久精品国产亚洲av香蕉五月| 麻豆国产av国片精品| 欧美 亚洲 国产 日韩一| 亚洲激情在线av| 在线看三级毛片| 黄色成人免费大全| 免费观看人在逋| 日本一本二区三区精品| 精华霜和精华液先用哪个| 久久午夜亚洲精品久久| 午夜激情av网站| 色综合站精品国产| 天堂影院成人在线观看| 久久久国产欧美日韩av| 1024手机看黄色片| 国语自产精品视频在线第100页| 变态另类丝袜制服| 丰满人妻熟妇乱又伦精品不卡| www.自偷自拍.com| 香蕉国产在线看| 日韩国内少妇激情av| 在线免费观看的www视频| 国产区一区二久久| 国产高清视频在线播放一区| 色精品久久人妻99蜜桃| 欧美日韩国产亚洲二区| 亚洲熟妇熟女久久| www.熟女人妻精品国产| 欧美av亚洲av综合av国产av| 免费在线观看黄色视频的| 亚洲一区中文字幕在线| 亚洲九九香蕉| 国产激情偷乱视频一区二区| 男女床上黄色一级片免费看| 欧美成人免费av一区二区三区| 亚洲一区二区三区色噜噜| 成人午夜高清在线视频| 国产亚洲精品一区二区www| 岛国视频午夜一区免费看| 亚洲第一欧美日韩一区二区三区| 午夜福利在线在线| 别揉我奶头~嗯~啊~动态视频| 久久久久国产精品人妻aⅴ院| 亚洲精品美女久久av网站| 国产激情久久老熟女| 嫩草影视91久久| 日韩大码丰满熟妇| 日韩精品中文字幕看吧| 免费看美女性在线毛片视频| 国产激情偷乱视频一区二区| www.999成人在线观看| 欧美另类亚洲清纯唯美| 无遮挡黄片免费观看| 亚洲一卡2卡3卡4卡5卡精品中文| 国产亚洲精品久久久久久毛片| 极品教师在线免费播放| 国产激情偷乱视频一区二区| 十八禁网站免费在线| 国产激情久久老熟女| av天堂在线播放| 黄片大片在线免费观看| 亚洲国产精品合色在线| 国内毛片毛片毛片毛片毛片| 麻豆一二三区av精品| 一进一出好大好爽视频| 中出人妻视频一区二区| 成人国产一区最新在线观看| 最近在线观看免费完整版| 欧美日韩精品网址| 国内毛片毛片毛片毛片毛片| 黑人操中国人逼视频| 中文字幕人妻丝袜一区二区| √禁漫天堂资源中文www| 国产精品久久久久久亚洲av鲁大| 禁无遮挡网站| 中文亚洲av片在线观看爽| 亚洲狠狠婷婷综合久久图片| 成人欧美大片| 日韩欧美一区二区三区在线观看| 美女扒开内裤让男人捅视频| 亚洲精品一区av在线观看| 91国产中文字幕| 一本大道久久a久久精品| 床上黄色一级片| 国产精品 欧美亚洲| 久久国产乱子伦精品免费另类| 别揉我奶头~嗯~啊~动态视频| 在线a可以看的网站| 免费看美女性在线毛片视频| 亚洲av成人一区二区三| 九九热线精品视视频播放| 国产精品一区二区免费欧美| 99久久精品热视频| 狂野欧美激情性xxxx| 好男人电影高清在线观看| 欧美成人一区二区免费高清观看 | 亚洲成人精品中文字幕电影| 久久这里只有精品19| 亚洲人成网站在线播放欧美日韩| 啪啪无遮挡十八禁网站| 老熟妇乱子伦视频在线观看| 天天添夜夜摸| 亚洲av中文字字幕乱码综合| 1024香蕉在线观看| 日本在线视频免费播放| 国产不卡一卡二| 在线看三级毛片| 一区二区三区高清视频在线| 制服诱惑二区| 亚洲国产高清在线一区二区三| 国产精品久久久久久人妻精品电影| 国产熟女xx| 九色成人免费人妻av| 成人18禁高潮啪啪吃奶动态图| 在线视频色国产色| 国产日本99.免费观看| 999精品在线视频| 十八禁人妻一区二区| 又黄又爽又免费观看的视频| 亚洲欧美一区二区三区黑人| 久久精品亚洲精品国产色婷小说| 国产精品爽爽va在线观看网站| 国产成人av激情在线播放| 在线永久观看黄色视频| 亚洲国产精品久久男人天堂| 国产主播在线观看一区二区| 99热这里只有精品一区 | 国产精品一及| 天堂影院成人在线观看| 亚洲成人国产一区在线观看| 丰满人妻熟妇乱又伦精品不卡| 国产成人系列免费观看| 亚洲一区高清亚洲精品| 亚洲国产精品999在线| 美女 人体艺术 gogo| 精品一区二区三区视频在线观看免费| 免费看十八禁软件| 中文亚洲av片在线观看爽| 色精品久久人妻99蜜桃| 欧美日韩瑟瑟在线播放| 两个人视频免费观看高清| 国产免费男女视频| 舔av片在线| 麻豆一二三区av精品| 天堂√8在线中文| 亚洲人成网站高清观看| 18禁国产床啪视频网站| 国产激情久久老熟女| 美女免费视频网站| 国产一区二区激情短视频| 亚洲在线自拍视频| 久久久水蜜桃国产精品网| 观看免费一级毛片| 欧美黄色片欧美黄色片| 日本一本二区三区精品| 久久精品国产亚洲av香蕉五月| 色综合欧美亚洲国产小说| 最好的美女福利视频网| 性欧美人与动物交配| 国产三级在线视频| 欧美黄色淫秽网站| 一级a爱片免费观看的视频| 欧美3d第一页| 久久久国产欧美日韩av| 99久久精品国产亚洲精品| 神马国产精品三级电影在线观看 | 美女午夜性视频免费| www国产在线视频色| 两个人的视频大全免费| 麻豆成人午夜福利视频| 国产三级中文精品| 两人在一起打扑克的视频| 99国产极品粉嫩在线观看| 99久久国产精品久久久| 亚洲真实伦在线观看| 国产日本99.免费观看| 97碰自拍视频| bbb黄色大片| 国产三级中文精品| 97超级碰碰碰精品色视频在线观看| 午夜视频精品福利| 国内精品久久久久久久电影| 最好的美女福利视频网| www国产在线视频色| 18禁黄网站禁片免费观看直播| 国产69精品久久久久777片 | 欧美成人性av电影在线观看| 日韩精品中文字幕看吧| 国模一区二区三区四区视频 | 国产精品,欧美在线| 欧美国产日韩亚洲一区| 国产精品免费一区二区三区在线| 国内久久婷婷六月综合欲色啪| 久久婷婷人人爽人人干人人爱| 精品久久久久久成人av| 在线永久观看黄色视频| 久久国产精品人妻蜜桃| 国产av不卡久久| 免费一级毛片在线播放高清视频| 国产黄a三级三级三级人| 脱女人内裤的视频| 90打野战视频偷拍视频| 又黄又粗又硬又大视频| 久久久久久久精品吃奶| 黑人巨大精品欧美一区二区mp4| 午夜免费激情av| 一区二区三区激情视频| av福利片在线| 午夜影院日韩av| e午夜精品久久久久久久| 亚洲欧美日韩无卡精品| √禁漫天堂资源中文www| 搡老岳熟女国产| 国产麻豆成人av免费视频| 一区二区三区激情视频| 一个人免费在线观看电影 | 一级a爱片免费观看的视频| 亚洲欧美精品综合久久99| 18禁黄网站禁片免费观看直播| 99热这里只有精品一区 | 长腿黑丝高跟| 麻豆国产97在线/欧美 | 人人妻,人人澡人人爽秒播| 国产成人aa在线观看| 此物有八面人人有两片| 精品欧美一区二区三区在线| 婷婷六月久久综合丁香| 制服人妻中文乱码| 天堂√8在线中文| 国产1区2区3区精品| 视频区欧美日本亚洲| 欧美日韩国产亚洲二区| 亚洲aⅴ乱码一区二区在线播放 | 别揉我奶头~嗯~啊~动态视频| 91字幕亚洲| 精品一区二区三区四区五区乱码| 少妇人妻一区二区三区视频| 国产精品亚洲av一区麻豆| 色哟哟哟哟哟哟| 精品久久久久久久末码| 一级毛片精品| 久久天堂一区二区三区四区| 在线看三级毛片| 久热爱精品视频在线9| 亚洲性夜色夜夜综合| 成人18禁在线播放| 免费在线观看完整版高清| 免费在线观看日本一区| 亚洲狠狠婷婷综合久久图片| 色老头精品视频在线观看| 亚洲黑人精品在线| 午夜两性在线视频| 无人区码免费观看不卡| 国产精品久久久av美女十八| 丰满人妻熟妇乱又伦精品不卡| 亚洲精品色激情综合| 成人欧美大片| 国产伦人伦偷精品视频| 国产精品一区二区精品视频观看| 精品久久久久久久末码| 亚洲av日韩精品久久久久久密| 日日摸夜夜添夜夜添小说| 亚洲av电影在线进入| 超碰成人久久| 国产精品久久视频播放| 久久国产精品影院| 男人的好看免费观看在线视频 | 国产成人一区二区三区免费视频网站| 在线视频色国产色| 中文在线观看免费www的网站 | 欧美高清成人免费视频www| 国内毛片毛片毛片毛片毛片| 国产精品98久久久久久宅男小说| 国产成人影院久久av| 精品电影一区二区在线| 少妇的丰满在线观看| 黄色女人牲交| 国产激情欧美一区二区| 日韩欧美免费精品| 亚洲专区国产一区二区| 18禁裸乳无遮挡免费网站照片| 国产精品1区2区在线观看.| 母亲3免费完整高清在线观看| 亚洲国产高清在线一区二区三| 高清毛片免费观看视频网站| 成人特级黄色片久久久久久久| 高清毛片免费观看视频网站| 日韩欧美国产一区二区入口| 成人三级做爰电影| 亚洲男人天堂网一区| 亚洲午夜理论影院| a级毛片在线看网站| 亚洲国产高清在线一区二区三| 国产成人一区二区三区免费视频网站| 国产一区二区在线观看日韩 | 亚洲五月婷婷丁香| 婷婷精品国产亚洲av在线| 人妻久久中文字幕网| 久久久久久久久久黄片| 国产亚洲精品一区二区www| 一个人观看的视频www高清免费观看 | 欧美乱色亚洲激情| 亚洲五月天丁香| 人妻夜夜爽99麻豆av| 国产视频内射| 他把我摸到了高潮在线观看| 精品国内亚洲2022精品成人| 日本免费a在线| 久久香蕉精品热| 99热6这里只有精品| 日本 av在线| 一级毛片精品| 国产精品久久久久久人妻精品电影| 精品国产超薄肉色丝袜足j| 国产视频内射| 国产精品一及| 欧美日本视频| a在线观看视频网站| 欧美一区二区精品小视频在线| 精品久久蜜臀av无| 久久中文看片网| 淫妇啪啪啪对白视频| 久久中文字幕人妻熟女| 欧美成人午夜精品| 国产成人aa在线观看| av欧美777| 免费观看精品视频网站| 一个人免费在线观看的高清视频| 欧美日韩精品网址| 在线观看日韩欧美| 国产一区二区在线观看日韩 | 亚洲成av人片在线播放无| 夜夜爽天天搞| 成人国产一区最新在线观看| 日本在线视频免费播放| 亚洲av电影在线进入| 亚洲精品一卡2卡三卡4卡5卡| 女警被强在线播放| avwww免费| 黄色毛片三级朝国网站| 日韩欧美免费精品| 小说图片视频综合网站| 国产日本99.免费观看| 91麻豆精品激情在线观看国产| 看黄色毛片网站| 久久亚洲真实| 亚洲全国av大片| 亚洲精品国产一区二区精华液| 哪里可以看免费的av片| www日本在线高清视频| 国产熟女午夜一区二区三区| 亚洲成人中文字幕在线播放| 久久久精品大字幕| 亚洲av熟女| 12—13女人毛片做爰片一| 人妻久久中文字幕网| 亚洲精品国产精品久久久不卡| 成人高潮视频无遮挡免费网站| 久久久久九九精品影院| av中文乱码字幕在线| 国产高清videossex| 俄罗斯特黄特色一大片| 成人特级黄色片久久久久久久| av片东京热男人的天堂| 亚洲男人天堂网一区| 欧美绝顶高潮抽搐喷水| 国产欧美日韩一区二区精品| avwww免费| 天堂av国产一区二区熟女人妻 | 超碰成人久久| 国产欧美日韩一区二区精品| 男人舔女人下体高潮全视频| 日日爽夜夜爽网站| 久久亚洲真实| 女人高潮潮喷娇喘18禁视频| 九色国产91popny在线| 精品国产乱码久久久久久男人| 久久精品91蜜桃| 国产69精品久久久久777片 | 欧美成狂野欧美在线观看| 一级a爱片免费观看的视频| 国内精品久久久久精免费| 欧美成人性av电影在线观看| 好男人电影高清在线观看| 国产精品永久免费网站| 嫩草影院精品99| 黑人巨大精品欧美一区二区mp4| 久久久久性生活片| 中文字幕人妻丝袜一区二区| 成人高潮视频无遮挡免费网站| 国产成人aa在线观看| 一进一出好大好爽视频| 欧美日韩国产亚洲二区| 麻豆成人午夜福利视频| 日本 av在线| 久久久久免费精品人妻一区二区| 欧美成狂野欧美在线观看| 啦啦啦免费观看视频1| 国产激情偷乱视频一区二区| 亚洲精品久久国产高清桃花| 女人高潮潮喷娇喘18禁视频| 91老司机精品| 母亲3免费完整高清在线观看| 97碰自拍视频| 国产在线精品亚洲第一网站| 亚洲一码二码三码区别大吗| 神马国产精品三级电影在线观看 | 听说在线观看完整版免费高清| 夜夜看夜夜爽夜夜摸| 精品午夜福利视频在线观看一区| 老汉色av国产亚洲站长工具| 成年版毛片免费区| 最新在线观看一区二区三区| 五月玫瑰六月丁香| 精品福利观看| 久久久久久亚洲精品国产蜜桃av| 波多野结衣高清作品| 亚洲av五月六月丁香网| 热99re8久久精品国产| 91麻豆精品激情在线观看国产| 757午夜福利合集在线观看| 日本一区二区免费在线视频|