• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合粗細(xì)粒度信息的長答案選擇神經(jīng)網(wǎng)絡(luò)模型

    2021-05-27 06:28:24張益嘉錢凌飛林鴻飛
    中文信息學(xué)報(bào) 2021年4期
    關(guān)鍵詞:細(xì)粒度準(zhǔn)確率向量

    孫 源,王 健,張益嘉,錢凌飛,林鴻飛

    (大連理工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,遼寧 大連 116024)

    0 引言

    問答系統(tǒng)的構(gòu)建一直都是自然語言處理領(lǐng)域中一個(gè)具有挑戰(zhàn)性的任務(wù),同時(shí)還在工業(yè)界有著廣泛的應(yīng)用(如智能助理,聊天機(jī)器人等)。答案選擇[1]作為多數(shù)問答系統(tǒng)構(gòu)建過程中的關(guān)鍵步驟,也一直受到廣泛的關(guān)注。該問題可以定義為:給定一個(gè)問題及這個(gè)問題的候選答案,組成問題-答案對,計(jì)算問題-答案對的相關(guān)性評分,最終根據(jù)問題與其所有候選答案的相關(guān)性評分選擇最適合該問題的答案。

    長答案選擇是答案選擇任務(wù)的一個(gè)變種。如表1所示,不同于選擇一個(gè)實(shí)體或單個(gè)句子的傳統(tǒng)答案選擇任務(wù),長答案選擇任務(wù)選擇的通常是一段多句的長文本(如描述)。這種長答案通常出現(xiàn)在社區(qū)問答系統(tǒng)中,如在StackExchange學(xué)術(shù)論壇上的平均答案長度為229[2]。答案的文本長度和句子數(shù)量都有所增大的特點(diǎn)對當(dāng)前的針對較短答案的答案選擇神經(jīng)網(wǎng)絡(luò)模型提出了新的挑戰(zhàn)。

    表1 長答案選擇(上)與傳統(tǒng)答案選擇(下)對比

    大多數(shù)的答案選擇問題是通過文本對匹配的方法解決的。該方法可以被分為兩個(gè)主要步驟:①將問題序列和答案序列編碼為相應(yīng)的表示向量。②計(jì)算兩個(gè)表示向量的相關(guān)性評分。早期研究者們使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural networks,RNN)及其變種等深度學(xué)習(xí)模型提取序列的上下文或時(shí)序信息,接著用拼接、池化等操作獲取整個(gè)序列的向量表示。然后使用余弦相似度、神經(jīng)網(wǎng)絡(luò)匹配等方法獲取兩個(gè)序列的相關(guān)性得分,最后通過得分對答案池中的答案排序,選擇其中得分最高的答案[1,3]。

    如何利用注意力機(jī)制捕捉重要信息的能力來對文本序列更好地建模,是近期研究者們主要研究的問題[4]。該方法在答案選擇領(lǐng)域的應(yīng)用主要分為兩類:①使用注意力機(jī)制捕捉問題序列和答案序列之間的關(guān)鍵信息,從而增大關(guān)鍵信息的權(quán)重并減小無用信息的權(quán)重。如Wang等[5]在使用RNN編碼答案序列的上下文信息前,使用注意力機(jī)制獲取答案中每個(gè)單詞相對問題的權(quán)重,并對其加權(quán)。②使兩個(gè)序列之間的信息得到交互。這種方法的思想主要是計(jì)算一個(gè)序列相對另一序列的對齊信息,然后通過原序列信息和對齊序列信息之間的融合(拼接原向量和對齊信息向量后使用多層感知機(jī)、拼接后池化等操作)獲得該序列的另一序列感知表示[6-7]。兩種方法都能通過讓模型關(guān)注更重要的信息提升答案選擇的準(zhǔn)確率。

    盡管上述方法在許多的文本匹配任務(wù)中取得了較好的效果,但由于長答案選擇領(lǐng)域中答案通常較長(200以上),即使引入了注意力機(jī)制,將一個(gè)長序列編碼為向量通常也不能很好地獲取該序列的所有重要信息,研究者們采用比較-聚合框架來解決這個(gè)問題[2,8-9]。這種方法的思想是:通過對細(xì)粒度的文本(單詞或n元單詞)建模,比較這些細(xì)粒度文本之間的相似度,獲取細(xì)粒度文本的相關(guān)性矩陣,然后聚合(池化、使用神經(jīng)網(wǎng)絡(luò)如CNN等操作)該相關(guān)性矩陣來進(jìn)行下一步的決策。這類方法的主要貢獻(xiàn)是有效利用了長句中更多的重要信息。盡管這種方法擁有長文本匹配效果好、模型參數(shù)少、擬合速度更快等優(yōu)勢,但也有過于關(guān)注細(xì)粒度的比較結(jié)果而缺失對全局信息把握的缺點(diǎn)。使得這類方法在帶有一定推理性質(zhì)的更加復(fù)雜的長答案選擇任務(wù)中表現(xiàn)較差。

    綜上所述,現(xiàn)有的方法在長答案選擇任務(wù)上取得了一定進(jìn)展,但都有所不足。使用傳統(tǒng)答案選擇的句子建模方法將一段話編碼為一個(gè)長度與單詞數(shù)量相近的向量,即便能充分發(fā)揮注意力機(jī)制的優(yōu)勢,難免也會丟失一些重要信息。而針對長句設(shè)計(jì)的比較-聚合框架更加關(guān)注的是n元短語和短語之間的相關(guān)性,即便在聚合時(shí)使用相對復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,也很難不丟失全局性的語義信息,從而只關(guān)注句子中n元短語的相關(guān)性匹配,缺失了一定的推理能力。

    為了保持傳統(tǒng)句子建模中把握句子粗粒度信息和比較-聚合框架中處理細(xì)粒度信息這兩種匹配方法各自的優(yōu)點(diǎn),本文結(jié)合兩種方法的思想,設(shè)計(jì)了一個(gè)將比較細(xì)粒度相關(guān)性融入到句子建模過程中的模型(coarse-fine-grained information fusing model,CIFM)。在不使用預(yù)訓(xùn)練模型、外部語義特征、堆疊更深層模型等復(fù)雜方法的前提下,取得了很好的效果。同時(shí)設(shè)計(jì)了一個(gè)在句子建模的過程中不引入多余訓(xùn)練參數(shù)的細(xì)粒度級別相關(guān)性預(yù)測方法,在有效控制模型復(fù)雜度的前提下進(jìn)一步提升了預(yù)測的效果。

    1 模型描述

    本節(jié)將介紹我們所提出的粗細(xì)粒度特征融合模型,圖1是模型的整體結(jié)構(gòu)。該模型主要由三個(gè)部分組成。分別是N個(gè)具有相同結(jié)構(gòu)的特征萃取塊(圖中虛線部分)、細(xì)粒度級別的預(yù)測層和粗粒度級別的預(yù)測層。在本次實(shí)驗(yàn)中我們使用詞向量將輸入的問題和答案兩個(gè)序列中的每個(gè)單詞映射為詞表示,分別記為Q∈n×e和A∈m×e。其中n和m分別是問題句子和答案句子的長度,e為詞向量的長度。接下來我們將逐一介紹模型的主要組成部分。

    圖1 粗細(xì)粒度特征融合模型架構(gòu)

    1.1 特征萃取塊

    一個(gè)特征萃取塊(如圖2所示)是由獲取上下文信息的編碼器和獲得兩個(gè)句子交互信息的對齊融合層組成的。該模塊的輸入為問題序列和答案序列,輸出為上下文編碼器編碼的特征序列。為了更加清晰地表述模型結(jié)構(gòu),圖中省略了與虛-實(shí)線左側(cè)對稱的部分。本文提出的模型使用了多個(gè)特征萃取塊(圖2虛線所示)來獲取更高維度的特征以及采用基于注意力機(jī)制的對齊、融合操作獲得兩個(gè)序列間的對齊特征。

    圖2 特征萃取塊

    研究者們在實(shí)驗(yàn)中發(fā)現(xiàn),原始的詞向量、富含上下文信息的編碼器輸出向量和對齊后的句子信息殘差向量都在文本匹配的過程中占有重要位置[6]。因此,我們在本次實(shí)驗(yàn)中使用與之相同的加強(qiáng)版殘差鏈接。編碼器的輸入除了詞向量外還拼接了上個(gè)模塊中對齊融合層的輸出,對齊融合層的輸入拼接了編碼器的輸入和輸出,具體表示為:

    (1)

    (2)

    其中,[]表示向量的拼接操作,第一個(gè)模塊的編碼器輸入為單獨(dú)的詞向量,其余模塊將詞向量和對齊融合層輸出的特征向量拼接作為輸入。i表示第i個(gè)特征萃取塊,in表示該模塊的輸入,out表示該模塊的輸出。

    在這次實(shí)驗(yàn)中,我們使用兩層CNN作為提取上下文信息的編碼器。相較于其他常用編碼上下文的神經(jīng)網(wǎng)絡(luò)(如RNN及其變種),CNN具有能夠很好地抓住局部信息、可以并行操作等優(yōu)點(diǎn)。在實(shí)驗(yàn)中我們也嘗試了RNN及其變種,但模型的效果在運(yùn)行時(shí)間增加的情況下沒有明顯提升,因此我們采用CNN作為編碼器編碼句子的上下文信息。

    eij=F(ai)F(qj)T

    (3)

    (4)

    為了更加充分地利用原句信息和對齊信息之間的差異,與文獻(xiàn)[6]相同,我們使用式(5)~式(8)的方式進(jìn)行對齊后的融合操作。

    1.2 細(xì)粒度預(yù)測層

    該層的主要操作是對細(xì)粒度相關(guān)性比較結(jié)果聚合,解決答案句子過長導(dǎo)致的句子編碼信息丟失問題。該層的輸入為特征萃取塊的輸出,即上下文編碼器編碼后的問題序列特征和答案序列特征。輸出為基于答案序列的細(xì)粒度相關(guān)性評分和基于問題序列的細(xì)粒度相關(guān)性評分。

    Wang等[8]所提出的應(yīng)用于長文本匹配的比較-聚合方法取得了很好的效果。受到該方法的啟發(fā),我們設(shè)計(jì)了一個(gè)沒有訓(xùn)練參數(shù)引入的細(xì)粒度級別的預(yù)測層,該層的結(jié)構(gòu)如圖3所示,圖中長方形為表示向量,正方形為相關(guān)性分?jǐn)?shù),虛線部分表示兩個(gè)向量的點(diǎn)乘運(yùn)算。具體描述如下。

    圖3 細(xì)粒度預(yù)測層

    其中,n為問題長度,q′j為問題第j個(gè)token的答案對齊特征。基于答案序列的細(xì)粒度相關(guān)性評分獲取方法和基于問題序列的細(xì)粒度相關(guān)性評分獲取方法相同,這里不做過多敘述。

    相較于文獻(xiàn)[8]的方法,我們的方法采用了問題的答案感知和答案的問題感知兩種對齊方式,分別獲得了基于問題序列和基于答案序列的細(xì)粒度相關(guān)性評分。我們在實(shí)驗(yàn)中發(fā)現(xiàn),使用基于兩種序列的預(yù)測方式,而不是使用基于問題序列或答案序列的單一方式,能有效提升預(yù)測準(zhǔn)確率。

    除此之外,相較于文獻(xiàn)[8]使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行細(xì)粒度級別相關(guān)性評分的聚合操作,我們采取了平均池化操作。這樣做可以在不損失預(yù)測準(zhǔn)確率的前提下有效地減少模型的復(fù)雜度。

    為了充分地利用每一層特征萃取塊萃取的特征,我們對其每層輸出的上下文表示向量都做一次細(xì)粒度級別的預(yù)測。

    1.3 粗粒度預(yù)測層

    該層的操作主要分為兩步。首先分別獲得答案序列和問題序列的向量表示,其次使用多層感知機(jī)(multilayer perceptron,MLP)獲得兩個(gè)序列的粗粒度相關(guān)性評分。

    受注意力機(jī)制的啟發(fā),我們設(shè)計(jì)了一個(gè)自動獲取句子序列中每個(gè)token的權(quán)重的方法。獲取到的權(quán)重用于將序列的矩陣表示加權(quán)平均為相應(yīng)的向量表示。這種加權(quán)池化的操作相較于最大池化能減少有效信息的丟失,從而增加模型預(yù)測的準(zhǔn)確率。該層的結(jié)構(gòu)如圖4所示,圖中長方形為表示向量,正方形為相關(guān)性分?jǐn)?shù),虛線部分表示兩個(gè)向量的點(diǎn)乘運(yùn)算,具體描述如下:

    圖4 粗粒度預(yù)測層

    其中,w_qj為問題的第j個(gè)token的權(quán)重,q為問題序列的向量表示,m為答案序列的長度。問題序列的向量表示獲取方法與之相同,這里不做過多敘述。

    最后,拼接兩個(gè)句子特征向量,輸入到兩層的前饋神經(jīng)網(wǎng)絡(luò),獲得粗粒度相關(guān)性評分。我們還嘗試使用向量點(diǎn)乘來衡量兩個(gè)句子向量的相關(guān)性,但實(shí)驗(yàn)結(jié)果表明由兩層的前饋神經(jīng)網(wǎng)絡(luò)構(gòu)成的神經(jīng)網(wǎng)絡(luò)匹配器可以更好地衡量由最大池化產(chǎn)生的高維抽象特征之間的相關(guān)性。具體操作如式(16)所示。

    psentence=MLP([q;a])

    (16)

    其中,MLP為多層感知機(jī)。我們在實(shí)驗(yàn)中發(fā)現(xiàn),還未經(jīng)過對齊信息交互的上下文編碼特征在長句匹配中有重要作用。因此,相較于文獻(xiàn)[6]使用對其融合后的特征向量進(jìn)行粗粒度預(yù)測,我們選擇了特征萃取塊中上下文編碼器的輸出作為粗粒度預(yù)測層的輸入,同時(shí)對每個(gè)特征萃取塊的輸出都做一次粗粒度預(yù)測,保證了對齊信息的利用。

    為了更好地衡量每個(gè)預(yù)測層的預(yù)測結(jié)果所占權(quán)重以及在訓(xùn)練中自動獲取這個(gè)權(quán)重,我們使用自獲取權(quán)重的加權(quán)平均,即拼接所有預(yù)測層的預(yù)測結(jié)果并輸入到單層的前饋神經(jīng)網(wǎng)絡(luò)中。這樣做的好處是可以學(xué)習(xí)到特定任務(wù)所需的預(yù)測層權(quán)重。綜上,該模型的最終預(yù)測結(jié)果如式(17)所示。

    (17)

    2 實(shí)驗(yàn)分析

    2.1 實(shí)驗(yàn)設(shè)定

    2.1.1數(shù)據(jù)集及評價(jià)標(biāo)準(zhǔn)

    我們在三個(gè)不同的長答案選擇數(shù)據(jù)集上評估我們的模型。數(shù)據(jù)集詳細(xì)信息見表2,其中答案長度為數(shù)據(jù)集中所有答案的平均長度。為了維持在每個(gè)數(shù)據(jù)集上進(jìn)行模型對比的公平性,我們延續(xù)了每個(gè)數(shù)據(jù)集本身常用的評價(jià)方法,具體如下。

    表2 數(shù)據(jù)集詳細(xì)信息

    InsuranceQA[1]是一個(gè)有關(guān)保險(xiǎn)問答的數(shù)據(jù)集,它在答案選擇領(lǐng)域得到了廣泛的使用。在本次實(shí)驗(yàn)中,我們使用近期更新的第二版。其中每一個(gè)問題的候選答案池大小為500。為了保證對比的公平性,和已存在的實(shí)驗(yàn)[2]一樣,使用正確率來對模型在這個(gè)數(shù)據(jù)集上的結(jié)果進(jìn)行評估。FiQA[10]是金融領(lǐng)域的社區(qū)問答數(shù)據(jù)集。我們采取文獻(xiàn)[11]的方法對數(shù)據(jù)進(jìn)行了簡單的預(yù)處理。處理后的結(jié)果如表2所示。我們使用常用的檢索評價(jià)指標(biāo)MAP(mean average precision)和MRR(mean reciprocal rank)來對模型的效果進(jìn)行評估。WikiPassageQA[12]是一個(gè)近期的相關(guān)篇章檢索任務(wù),該任務(wù)的問題和傳統(tǒng)的社區(qū)問答問題同樣是非實(shí)體問題,答案長度也和社區(qū)問答領(lǐng)域的長度相當(dāng)。在這個(gè)數(shù)據(jù)集上,我們使用與FiQA數(shù)據(jù)集相同的指標(biāo)進(jìn)行模型效果的評估。

    2.1.2 對比實(shí)驗(yàn)

    對比實(shí)驗(yàn)可分為兩類,一類是對比使用傳統(tǒng)文本匹配方式即建模句子表示的方法。在這類實(shí)驗(yàn)中我們分別對比了基于長短期記憶網(wǎng)絡(luò)(long short-term memory,LSTM)的方法[13]和基于CNN的方法[6]。兩種方法都使用池化操作來獲得句子表示,但在預(yù)測相關(guān)性時(shí)有所不同。其中文獻(xiàn)[13]使用余弦相似度來刻畫兩個(gè)句子的相關(guān)性,而文獻(xiàn)[6]拼接兩個(gè)向量,使用雙層前饋神經(jīng)網(wǎng)絡(luò)構(gòu)成的神經(jīng)網(wǎng)絡(luò)匹配器完成預(yù)測。

    第二類對比了使用比較-聚合框架思想的方法。CNN能很好地獲取局部的上下文信息,這在使用比較-聚合思想的模型中是至關(guān)重要的。因此在本次實(shí)驗(yàn)中我們對比了兩個(gè)基于CNN的現(xiàn)階段最高水準(zhǔn)的模型[2,8]。

    本次實(shí)驗(yàn)中的對比試驗(yàn)均使用原作者的開源代碼,并在實(shí)驗(yàn)前根據(jù)原作者提出的實(shí)驗(yàn)結(jié)果進(jìn)行代碼的有效性驗(yàn)證,保證了實(shí)驗(yàn)的公平性和有效性。

    2.1.3 訓(xùn)練與參數(shù)設(shè)置

    為了緩解正負(fù)樣本不平衡的問題(如InsuranceQA數(shù)據(jù)集中平均正負(fù)樣本比例接近1∶60),我們采用與文獻(xiàn)[13]相同的負(fù)樣本采樣方式。即為每個(gè)正例挑選一個(gè)“最錯(cuò)誤”的負(fù)例。挑選方式為:在每個(gè)問題的候選答案池中隨機(jī)選擇一部分錯(cuò)誤樣例,放入當(dāng)前模型中進(jìn)行預(yù)測,選擇其中預(yù)測結(jié)果最高的作為“最錯(cuò)誤”的負(fù)例。為保證實(shí)驗(yàn)的公平性,我們在本文的所有實(shí)驗(yàn)中均使用以上方式挑選訓(xùn)練樣本。其中除文獻(xiàn)[13]的實(shí)驗(yàn)采用max-margin hinge loss訓(xùn)練模型外,其他模型均采用交叉熵?fù)p失函數(shù)。所有模型參數(shù)的訓(xùn)練均使用隨機(jī)梯度下降法。

    對比實(shí)驗(yàn)?zāi)P偷某瑓?shù)設(shè)定均與其相關(guān)論文相同,對于文本匹配領(lǐng)域的模型[6]來說,超參數(shù)的設(shè)定與其答案選擇任務(wù)設(shè)置的參數(shù)相同。本文實(shí)驗(yàn)使用了3塊特征萃取塊,詞向量由FastText[14]初始化,其中編碼器使用兩層窗口大小為3的CNN,實(shí)驗(yàn)中所有隱層大小為150,激活函數(shù)為ReLU,學(xué)習(xí)率為0.005,batch_size大小為64。

    2.2 實(shí)驗(yàn)結(jié)果與分析

    實(shí)驗(yàn)結(jié)果如表3所示。我們的模型相較于基于比較-聚合框架的模型在三個(gè)數(shù)據(jù)集上都有很大的性能提升(如在InsuranceQA數(shù)據(jù)集上對比兩個(gè)模型分別有5.71%和8.60%的準(zhǔn)確率提升),這說明了在長答案選擇任務(wù)中,僅僅關(guān)注問題和答案的細(xì)粒度匹配結(jié)果是不夠的。細(xì)粒度匹配的結(jié)果在全局信息的指導(dǎo)下才能更好地對整個(gè)句子之間的相關(guān)性進(jìn)行判斷。

    表3 實(shí)驗(yàn)結(jié)果

    相較于傳統(tǒng)的句子建模方法,我們的模型在融入了細(xì)粒度比較信息后性能也有所提升。例如在WikiPassageQA數(shù)據(jù)集上,我們的模型較RE2[6]有6.34%的MAP值提升。可以看出細(xì)粒度信息的融入能緩解長句子建模為向量時(shí)重要信息把握不足的缺點(diǎn)。同時(shí)我們的模型在不引入額外參數(shù)的情況下融合了細(xì)粒度信息,這在很大程度上降低了模型的復(fù)雜度。

    因此,在長答案選擇任務(wù)中,相較于單一使用細(xì)粒度信息或粗粒度信息的方法,我們的模型能更有效地聚合這兩種重要信息,使該任務(wù)的準(zhǔn)確率得到提升。

    2.3 消融實(shí)驗(yàn)

    為了驗(yàn)證本文提出模型每個(gè)部分的有效性,我們對模型進(jìn)行了消融性研究。該研究將分6個(gè)部分與原模型進(jìn)行對比,分別是:①僅僅使用一層特征萃取塊;②不使用細(xì)粒度級別的預(yù)測結(jié)果;③僅使用第一個(gè)特征萃取塊的上下文感知向量進(jìn)行細(xì)粒度級別的預(yù)測;④僅使用最后一個(gè)特征萃取塊的上下文感知向量進(jìn)行細(xì)粒度級別的預(yù)測;⑤不使用粗粒度級別的預(yù)測結(jié)果;⑥采用算術(shù)平均而不是神經(jīng)網(wǎng)絡(luò)對最后的兩類預(yù)測結(jié)果進(jìn)行聚合。

    該消融實(shí)驗(yàn)是在答案池長度為500的InsuranceQA數(shù)據(jù)集上進(jìn)行的,和上文所述相同,我們采用準(zhǔn)確率作為模型效果評估的指標(biāo)。實(shí)驗(yàn)的結(jié)果如表4所示。

    表4 InsuranceQA數(shù)據(jù)集上的消融實(shí)驗(yàn)結(jié)果

    續(xù)表

    第一組消融對比實(shí)驗(yàn)的結(jié)果說明,僅僅使用一層特征萃取塊不能充分獲取序列所有的重要信息,以及未能利用到問題序列和答案序列的對齊信息。減少特征萃取塊的數(shù)量同時(shí)會減少細(xì)粒度級別預(yù)測的次數(shù),這也可能是性能下降的原因之一。我們在實(shí)驗(yàn)中還測試了增加特征萃取塊數(shù)量的影響,實(shí)驗(yàn)結(jié)果表明模型的表現(xiàn)并非與萃取塊的數(shù)量成正相關(guān),過多的萃取塊除了會增加模型的復(fù)雜度外還有可能引入一些錯(cuò)誤信息。

    第2組到第4組的對比實(shí)驗(yàn)體現(xiàn)了細(xì)粒度級別預(yù)測的重要性。在不使用細(xì)粒度級別預(yù)測時(shí),我們的模型和文獻(xiàn)[6]的模型需要訓(xùn)練的參數(shù)是相同的,在不引入多余訓(xùn)練參數(shù)的前提下,我們的模型比文獻(xiàn)[6]的模型在InsuranceQA數(shù)據(jù)集上的準(zhǔn)確率提升了3.30個(gè)百分點(diǎn),相比不使用細(xì)粒度預(yù)測提升了4.29個(gè)百分點(diǎn),這足以證明細(xì)粒度級別預(yù)測在長句匹配中占有重要地位。同時(shí)可以發(fā)現(xiàn),僅僅使用一層細(xì)粒度級別預(yù)測,如第3組和第4組對比實(shí)驗(yàn),雖然相較不使用細(xì)粒度級別預(yù)測(第2組實(shí)驗(yàn))性能有所提升(分別提升1.25個(gè)百分點(diǎn)和0.70個(gè)百分點(diǎn)),但很明顯不能充分利用每一個(gè)特征萃取塊所提取的信息。

    第5組對比實(shí)驗(yàn)的結(jié)果表明,不使用句子的全局信息會導(dǎo)致預(yù)測的準(zhǔn)確率大幅度下降(6.71個(gè)百分點(diǎn))。直觀來看,單詞或n元單詞之間的相關(guān)性也不能準(zhǔn)確地衡量句子和句子之間的相關(guān)性。因此,以句子的全局信息為主并輔以單詞或n元單詞之間的相關(guān)性信息,能更好地解決長答案選擇問題。

    我們同樣測試了使用每個(gè)預(yù)測結(jié)果的算術(shù)平均數(shù)作為最終的預(yù)測結(jié)果(第6組)。實(shí)驗(yàn)結(jié)果表明這樣做同樣不能很好地利用粗細(xì)粒度級別信息。在實(shí)驗(yàn)中我們還觀察到對于不同的數(shù)據(jù)集,每個(gè)預(yù)測結(jié)果在聚合過程中所占的比重是不同的。由此我們推斷神經(jīng)網(wǎng)絡(luò)可以更好地對粗細(xì)粒度級別預(yù)測的關(guān)系進(jìn)行建模,從而得到一個(gè)任務(wù)相關(guān)的關(guān)系最優(yōu)解。

    2.4 長答案選擇效果分析

    我們還在答案池長度為100的InsuranceQA數(shù)據(jù)集上分析了答案長度與CIFM(結(jié)合粗細(xì)粒度信息)、RE2(使用粗粒度信息即句子建模)、COALA(使用細(xì)粒度級別預(yù)測)三個(gè)模型預(yù)測準(zhǔn)確率的關(guān)系,結(jié)果如圖5所示,其中答案長度小于50的樣例因?yàn)閿?shù)量過少而沒有參與統(tǒng)計(jì)。

    圖5 InsuranceQA數(shù)據(jù)集上答案長度與準(zhǔn)確率的關(guān)系

    實(shí)驗(yàn)結(jié)果表明,細(xì)粒度信息對準(zhǔn)確率的提升主要集中于對答案長度大于100的樣本預(yù)測。這也驗(yàn)證了我們所提出的細(xì)粒度級別預(yù)測相對于僅使用句子建模的方法[6]能更好地應(yīng)對長句之間的匹配。同時(shí)相較于只使用細(xì)粒度級別預(yù)測的方法[2],實(shí)驗(yàn)結(jié)果在各個(gè)長度部分都有所提升,這也說明了句子全局信息在衡量句子之間相關(guān)性時(shí)占有很重要的地位。

    為了進(jìn)一步分析答案長度與模型預(yù)測準(zhǔn)確率的關(guān)系,我們將整個(gè)InsuranceQA數(shù)據(jù)集分為答案長度小于100、答案長度在100與200之間、答案長度大于200這三部分,重新對模型進(jìn)行訓(xùn)練,最后結(jié)果如圖6所示。

    圖6 拆分InsuranceQA后重新訓(xùn)練的答案長度與準(zhǔn)確率關(guān)系

    可以看出,我們的模型在三部分?jǐn)?shù)據(jù)集上的答案選擇準(zhǔn)確率仍處于領(lǐng)先地位。其中在答案長度100到200這一長答案選擇任務(wù)主流區(qū)間中,CIFM相較于RE2的準(zhǔn)確率提升從3.30%到4.59%。因此,我們的模型在訓(xùn)練更加普遍的長答案選擇任務(wù)中更具優(yōu)勢。而在答案長度大于200這部分?jǐn)?shù)據(jù)集上,我們的模型相較于RE2的性能提升有所下降,可能的原因是訓(xùn)練數(shù)據(jù)的缺乏(這部分訓(xùn)練集占整個(gè)InsuranceQA數(shù)據(jù)集的13%左右)。與之相同,所有模型的預(yù)測準(zhǔn)確率都受到了訓(xùn)練數(shù)據(jù)減少的影響。但我們的模型在訓(xùn)練答案長度過長(大于200)的答案選擇任務(wù)時(shí)受到訓(xùn)練集數(shù)量的影響較大,這可能是未來需要改進(jìn)的缺點(diǎn)之一。

    2.5 錯(cuò)誤分析與展望

    在類似句子主題之間相互匹配的長句選擇上,我們的模型有較高的準(zhǔn)確率。而錯(cuò)誤的選擇主要集中在帶有推理性質(zhì)的長句選擇上。例如:

    問題:why is my car insurance claim being investigated ?

    (譯文:為什么我的汽車保險(xiǎn)索賠被調(diào)查?)

    答案1(模型給出的最優(yōu)答案):the insurance company first investigates to determine the coverage they have on the vehicle.then they determine responsibility in the case of a crash.then they determine the extent of damage.because the adjuster handles numerous claims they can spot a claim that requires additional investigation.if fraud is suspected the investigation takes a much deeper look into the circumstances of the crash.

    (譯文:保險(xiǎn)公司首先調(diào)查確定他們的保險(xiǎn)范圍,然后他們確定事故的責(zé)任方,接著確定損壞程度。富有經(jīng)驗(yàn)的理賠員會發(fā)現(xiàn)需要進(jìn)一步調(diào)查的保險(xiǎn)索賠。如果可能存在欺詐行為,就需要對車禍情況進(jìn)一步調(diào)查。)

    答案2(Ground Truth):hard to answer such a question without any details.but in general,I wouldn’t worry too much about it.fraud is so out of control,that they have to investigate certain claims.during the claims process,companies have their set of “red flags” that triggers further investigation.as long as you have nothing to hide,you shouldn’t worry about it too much.they may ask for things such as:- bank statements - proof of residency - receipt from last oil change - etc.,etc.,etc..sometimes innocent minor things can trigger a red flag,and it ends up being no big deal.other times,fraud is suspected.and sometimes,a high dollar amount of loss can trigger an investigation simply for due diligence.so don’t sweat it.if you have nothing to hide,give them what they want and you should be fine.

    (譯文:在沒有細(xì)節(jié)的情況下很難回答這個(gè)問題。但正常情況下我不會對此感到擔(dān)憂。欺詐行為橫行,因此保險(xiǎn)公司需要調(diào)查清楚情況。在理賠階段,公司有一些“紅燈標(biāo)志”會觸發(fā)進(jìn)一步的調(diào)查。只要你沒什么隱瞞的,就不需要擔(dān)心。他們可能會需要諸如:-銀行對賬單-居住證明-上次加油收據(jù)等。有時(shí)一些小事也會觸發(fā)警報(bào),但這沒什么。有時(shí)是被懷疑欺詐;有時(shí)為了盡職調(diào)查,高額損失也會觸發(fā)警報(bào)。所以不用擔(dān)心。給他們想要的,理賠會正常進(jìn)行。)

    以下我們簡稱答案1(模型給出的最優(yōu)答案)為錯(cuò)誤答案,答案2(Ground Truth)為正確答案。

    正確答案與錯(cuò)誤答案都有與問題相匹配的主題,例如調(diào)查、索賠等。但在總體上,錯(cuò)誤答案闡述的是車禍理賠調(diào)查的過程,而正確答案所闡述的才是問題所問的為什么被調(diào)查。這種帶有一定推理性質(zhì)的預(yù)測是該模型不能有效處理的問題。即使一些句子建模方法如文獻(xiàn)[6]等提出的模型在一些自然語言推理任務(wù)如文本蘊(yùn)含中有很好的效果,但在長文本如篇章推理方面還有所欠缺。

    在不能有效推理的前提下,錯(cuò)誤的相關(guān)性推斷也可能導(dǎo)致模型選擇了錯(cuò)誤的答案。例如,因?yàn)檎_答案中沒有任何與問題里汽車保險(xiǎn)相關(guān)的信息,無論是在細(xì)粒度匹配過程中還是在句子建模過程中都會因?yàn)檫@部分信息的缺失而降低最后的相關(guān)性預(yù)測結(jié)果。與之相較,錯(cuò)誤答案中由于帶有“車禍”信息,可能會增加與問題之間的相關(guān)性評分。由“車禍”信息增加的相關(guān)性顯然是不合理的,但該模型并不能對其進(jìn)行有效的分辨。這種情況在只使用細(xì)粒度信息的模型中很常見,因?yàn)閷渥尤中畔⒌娜笔?,模型只能通過判斷細(xì)粒度信息之間的相關(guān)性而對結(jié)果進(jìn)行判斷,缺少對全局的把握,從而引入錯(cuò)誤的相關(guān)性判斷。

    綜上所述,如何能在保持主題匹配準(zhǔn)確度的同時(shí),加強(qiáng)模型的推理能力是未來提升長文本選擇效果的可行性研究方案之一。例如,對待為什么我的汽車保險(xiǎn)索賠被調(diào)查這一問題,可以使用注意力機(jī)制將匹配的重心放在為什么、保險(xiǎn)索賠、調(diào)查等方面,而不是汽車保險(xiǎn)方面。除此之外,還可以加大對粒度大小的進(jìn)一步研究,如以句子為粒度對多句的答案序列進(jìn)行劃分,通過聚合問題序列與多個(gè)答案句子之間的相關(guān)性比較結(jié)果,對問題序列和答案序列的相關(guān)性進(jìn)行評估。

    3 結(jié)論

    我們提出了一個(gè)同時(shí)使用粗細(xì)粒度信息進(jìn)行預(yù)測的長答案選擇模型,有效解決了建模句子方法信息抓取不全和細(xì)粒度相關(guān)性比較缺失全局信息的問題。設(shè)計(jì)了一個(gè)不引入多余訓(xùn)練參數(shù)的細(xì)粒度預(yù)測方法,該方法不但可以有效提升長答案選擇任務(wù)的準(zhǔn)確率,還可以為其他相關(guān)長句研究提供新思路,在3個(gè)相關(guān)領(lǐng)域數(shù)據(jù)集上都取得了當(dāng)前最高水平的評估結(jié)果。同時(shí)還分析了在答案長度較長情況下模型的有效性。此外我們還對模型的常見錯(cuò)誤進(jìn)行分析,并提出了未來進(jìn)一步可能的研究方向。

    猜你喜歡
    細(xì)粒度準(zhǔn)確率向量
    融合判別性與細(xì)粒度特征的抗遮擋紅外目標(biāo)跟蹤算法
    向量的分解
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
    細(xì)粒度的流計(jì)算執(zhí)行效率優(yōu)化方法
    2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
    聚焦“向量與三角”創(chuàng)新題
    高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
    基于雙線性卷積網(wǎng)絡(luò)的細(xì)粒度圖像定位
    支持細(xì)粒度權(quán)限控制且可搜索的PHR云服務(wù)系統(tǒng)
    日韩欧美 国产精品| 国产av不卡久久| 国产不卡一卡二| 高清午夜精品一区二区三区 | 1000部很黄的大片| 亚洲成人av在线免费| 免费一级毛片在线播放高清视频| 精品少妇黑人巨大在线播放 | 成年版毛片免费区| 成人一区二区视频在线观看| 国产色婷婷99| 丝袜喷水一区| 日韩欧美国产在线观看| 老女人水多毛片| 日韩欧美在线乱码| 亚洲在线观看片| 国产亚洲av片在线观看秒播厂 | 色哟哟·www| 久久精品影院6| 91精品一卡2卡3卡4卡| 亚洲国产色片| 深夜精品福利| 亚洲欧美日韩无卡精品| 色综合色国产| 国产白丝娇喘喷水9色精品| 免费观看在线日韩| 久久精品国产自在天天线| 热99在线观看视频| 黄色视频,在线免费观看| 少妇猛男粗大的猛烈进出视频 | 久久人人精品亚洲av| 午夜福利在线在线| 久久人人精品亚洲av| 日韩欧美精品v在线| 高清日韩中文字幕在线| 九九在线视频观看精品| 国产精品一区二区在线观看99 | 18禁裸乳无遮挡免费网站照片| 亚洲av一区综合| 我要搜黄色片| 天美传媒精品一区二区| 午夜老司机福利剧场| 国产老妇伦熟女老妇高清| 一级av片app| 国产老妇伦熟女老妇高清| 狂野欧美白嫩少妇大欣赏| 国产真实乱freesex| 久久人人爽人人片av| 久久久久久久久久久丰满| 99久久精品一区二区三区| 国产精品一区二区三区四区免费观看| 天堂中文最新版在线下载 | 亚洲中文字幕一区二区三区有码在线看| 夜夜看夜夜爽夜夜摸| 国内精品一区二区在线观看| 黄色一级大片看看| ponron亚洲| www.色视频.com| 我的女老师完整版在线观看| 美女xxoo啪啪120秒动态图| 激情 狠狠 欧美| 91在线精品国自产拍蜜月| 午夜免费激情av| 久久精品久久久久久久性| 日韩视频在线欧美| 国产精品不卡视频一区二区| 高清午夜精品一区二区三区 | 中文字幕制服av| 成人综合一区亚洲| 人妻制服诱惑在线中文字幕| 不卡一级毛片| 麻豆久久精品国产亚洲av| 久久精品国产清高在天天线| or卡值多少钱| av卡一久久| 人妻少妇偷人精品九色| 国产91av在线免费观看| 久久午夜福利片| 欧美精品国产亚洲| 亚洲精品粉嫩美女一区| 99riav亚洲国产免费| 日韩制服骚丝袜av| 九九在线视频观看精品| 深夜a级毛片| 国产精品国产三级国产av玫瑰| 成人漫画全彩无遮挡| 日韩高清综合在线| 麻豆成人午夜福利视频| 精品免费久久久久久久清纯| 午夜福利视频1000在线观看| 成熟少妇高潮喷水视频| 久久久精品大字幕| 国产免费男女视频| 国产成人精品久久久久久| 波多野结衣高清无吗| 哪个播放器可以免费观看大片| 五月伊人婷婷丁香| 淫秽高清视频在线观看| 一边摸一边抽搐一进一小说| 美女内射精品一级片tv| 亚洲七黄色美女视频| 欧美成人a在线观看| 在现免费观看毛片| 亚洲精品乱码久久久v下载方式| 日韩成人伦理影院| 99国产极品粉嫩在线观看| 高清日韩中文字幕在线| 欧美一区二区亚洲| 麻豆成人午夜福利视频| 精品人妻熟女av久视频| 日韩欧美国产在线观看| 看免费成人av毛片| 亚洲乱码一区二区免费版| 99在线人妻在线中文字幕| 亚洲av一区综合| 一级毛片我不卡| 麻豆av噜噜一区二区三区| 日韩大尺度精品在线看网址| 欧美一级a爱片免费观看看| 国产欧美日韩精品一区二区| 精品久久久久久久人妻蜜臀av| 国产午夜精品论理片| 不卡视频在线观看欧美| 成年女人看的毛片在线观看| 深夜a级毛片| 一夜夜www| 人妻少妇偷人精品九色| 精品99又大又爽又粗少妇毛片| 国产午夜精品一二区理论片| 日本黄色视频三级网站网址| 一区二区三区高清视频在线| 国产蜜桃级精品一区二区三区| 国产一区二区激情短视频| 日本色播在线视频| 欧美日本亚洲视频在线播放| 欧美bdsm另类| 亚州av有码| 日本爱情动作片www.在线观看| 精品人妻熟女av久视频| 免费黄网站久久成人精品| www.av在线官网国产| www.色视频.com| 1024手机看黄色片| 免费看光身美女| 久久久久久久久大av| 精品欧美国产一区二区三| 麻豆一二三区av精品| 成人三级黄色视频| 国产亚洲精品久久久com| 午夜免费男女啪啪视频观看| 五月伊人婷婷丁香| 人妻少妇偷人精品九色| 人人妻人人澡人人爽人人夜夜 | 成年版毛片免费区| 久久久久久大精品| 亚洲天堂国产精品一区在线| 久久99蜜桃精品久久| 卡戴珊不雅视频在线播放| 又黄又爽又刺激的免费视频.| 国产乱人视频| 亚洲aⅴ乱码一区二区在线播放| av黄色大香蕉| 只有这里有精品99| 男人的好看免费观看在线视频| 成人欧美大片| 久久亚洲精品不卡| 最近的中文字幕免费完整| 日韩国内少妇激情av| 国产精品一及| 三级毛片av免费| www.av在线官网国产| av又黄又爽大尺度在线免费看 | 女的被弄到高潮叫床怎么办| 一区二区三区高清视频在线| 精品久久久久久久末码| 精品久久久久久久人妻蜜臀av| 3wmmmm亚洲av在线观看| 国产黄色视频一区二区在线观看 | 91av网一区二区| 18禁裸乳无遮挡免费网站照片| 赤兔流量卡办理| www日本黄色视频网| 美女cb高潮喷水在线观看| 小蜜桃在线观看免费完整版高清| 国产成人91sexporn| 午夜爱爱视频在线播放| 人人妻人人澡人人爽人人夜夜 | 日本免费一区二区三区高清不卡| 中国美女看黄片| 亚洲人成网站在线观看播放| 国内揄拍国产精品人妻在线| 欧美色视频一区免费| 熟妇人妻久久中文字幕3abv| 黑人高潮一二区| 成年免费大片在线观看| 国产精品一区二区三区四区免费观看| 亚洲最大成人av| 欧美高清性xxxxhd video| 色哟哟哟哟哟哟| 嫩草影院新地址| 国产精品麻豆人妻色哟哟久久 | 麻豆久久精品国产亚洲av| 亚洲av一区综合| 十八禁国产超污无遮挡网站| 少妇被粗大猛烈的视频| 亚洲成人久久爱视频| 亚洲在线观看片| 亚洲精品日韩av片在线观看| 美女cb高潮喷水在线观看| 尾随美女入室| 国产av不卡久久| 秋霞在线观看毛片| 岛国毛片在线播放| 国产亚洲91精品色在线| 国产精品永久免费网站| 日韩av不卡免费在线播放| 天天躁日日操中文字幕| 麻豆成人av视频| 国产一区亚洲一区在线观看| 啦啦啦啦在线视频资源| 天堂中文最新版在线下载 | 亚洲av中文字字幕乱码综合| 国产精品,欧美在线| 麻豆av噜噜一区二区三区| av.在线天堂| 免费大片18禁| 看片在线看免费视频| 搡女人真爽免费视频火全软件| 国产片特级美女逼逼视频| 国产毛片a区久久久久| 亚洲欧洲日产国产| 国产色爽女视频免费观看| 国产真实伦视频高清在线观看| 99久久精品国产国产毛片| 不卡视频在线观看欧美| 丰满乱子伦码专区| 中文字幕久久专区| 99久久精品热视频| 中文字幕制服av| 22中文网久久字幕| 亚洲最大成人手机在线| 国产成人freesex在线| 中文精品一卡2卡3卡4更新| 性欧美人与动物交配| 不卡一级毛片| 一本久久精品| 老熟妇乱子伦视频在线观看| 在线观看美女被高潮喷水网站| 男女那种视频在线观看| 日韩制服骚丝袜av| 中文字幕免费在线视频6| 日韩人妻高清精品专区| 午夜精品在线福利| 日本成人三级电影网站| 变态另类丝袜制服| 亚洲欧美精品综合久久99| 亚洲一区二区三区色噜噜| 深夜精品福利| 蜜桃亚洲精品一区二区三区| 只有这里有精品99| 久99久视频精品免费| 人人妻人人澡人人爽人人夜夜 | 亚洲成人精品中文字幕电影| 老司机影院成人| 亚洲经典国产精华液单| 精品免费久久久久久久清纯| 国产午夜精品论理片| 欧美精品国产亚洲| 亚洲av成人精品一区久久| 在线观看一区二区三区| 国产亚洲欧美98| 日韩欧美 国产精品| 97热精品久久久久久| 国产精品99久久久久久久久| 国产视频首页在线观看| 精品久久久久久久人妻蜜臀av| 日韩欧美三级三区| 亚洲久久久久久中文字幕| 国产av在哪里看| 99久国产av精品国产电影| 国产白丝娇喘喷水9色精品| 欧美性感艳星| 久久久欧美国产精品| 久久久久久久久久黄片| 高清在线视频一区二区三区 | 国产精品一及| 在线播放国产精品三级| 26uuu在线亚洲综合色| 一级黄片播放器| 亚洲第一区二区三区不卡| 少妇猛男粗大的猛烈进出视频 | 欧美成人一区二区免费高清观看| 岛国毛片在线播放| 我要搜黄色片| 伦精品一区二区三区| 亚洲欧洲日产国产| 欧美一级a爱片免费观看看| 日韩制服骚丝袜av| 亚洲图色成人| 成人国产麻豆网| 成年免费大片在线观看| 久久99精品国语久久久| 成人av在线播放网站| av.在线天堂| 好男人视频免费观看在线| 国产免费男女视频| 九九热线精品视视频播放| 又黄又爽又刺激的免费视频.| 热99在线观看视频| 高清毛片免费看| 18禁黄网站禁片免费观看直播| 美女 人体艺术 gogo| 国产精品一区二区性色av| 一区二区三区免费毛片| h日本视频在线播放| 免费看美女性在线毛片视频| 久久久久久久久中文| 久久人人爽人人爽人人片va| 免费观看精品视频网站| 国产精品一区二区三区四区久久| av在线老鸭窝| 美女黄网站色视频| 99热这里只有是精品50| 国产成年人精品一区二区| 级片在线观看| 男女做爰动态图高潮gif福利片| 99久国产av精品| 免费看a级黄色片| 三级毛片av免费| 日韩欧美 国产精品| 给我免费播放毛片高清在线观看| 日本黄色视频三级网站网址| 亚洲最大成人手机在线| 精品一区二区三区人妻视频| 男人和女人高潮做爰伦理| 国产精品久久久久久久电影| 久久国内精品自在自线图片| 国内精品美女久久久久久| 午夜老司机福利剧场| 一个人看的www免费观看视频| 日日干狠狠操夜夜爽| 内射极品少妇av片p| 久久久精品欧美日韩精品| 免费一级毛片在线播放高清视频| 国产精品一区二区三区四区久久| 青春草视频在线免费观看| 国产精品人妻久久久影院| 精品人妻一区二区三区麻豆| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 麻豆久久精品国产亚洲av| 免费观看的影片在线观看| 在线观看66精品国产| 69av精品久久久久久| 两性午夜刺激爽爽歪歪视频在线观看| 嫩草影院新地址| 国产探花极品一区二区| 丝袜美腿在线中文| 看十八女毛片水多多多| 97热精品久久久久久| 一级黄色大片毛片| 插阴视频在线观看视频| av.在线天堂| 免费观看的影片在线观看| 你懂的网址亚洲精品在线观看 | 真实男女啪啪啪动态图| 亚州av有码| 国产精品麻豆人妻色哟哟久久 | 只有这里有精品99| 亚洲一区高清亚洲精品| 亚洲精品日韩av片在线观看| 中文字幕免费在线视频6| 久久精品国产自在天天线| 成人亚洲精品av一区二区| 精品久久久久久久久亚洲| 久久久久久久久久成人| 欧美性猛交╳xxx乱大交人| 国产综合懂色| 欧美日韩精品成人综合77777| 性插视频无遮挡在线免费观看| 男女视频在线观看网站免费| 精品久久久久久久人妻蜜臀av| 日韩欧美一区二区三区在线观看| 精品日产1卡2卡| 亚洲激情五月婷婷啪啪| 男插女下体视频免费在线播放| 搞女人的毛片| 有码 亚洲区| 又爽又黄a免费视频| 男人舔奶头视频| 免费观看的影片在线观看| 亚洲av二区三区四区| 校园人妻丝袜中文字幕| 赤兔流量卡办理| 亚洲18禁久久av| 精品久久久久久成人av| 人人妻人人澡欧美一区二区| 久久午夜亚洲精品久久| 婷婷精品国产亚洲av| 18禁在线播放成人免费| 欧美最黄视频在线播放免费| 草草在线视频免费看| 成人鲁丝片一二三区免费| 1000部很黄的大片| 亚洲精品久久国产高清桃花| 中国美白少妇内射xxxbb| 国产亚洲91精品色在线| 亚洲精品乱码久久久v下载方式| 99国产极品粉嫩在线观看| 午夜精品在线福利| 伦理电影大哥的女人| 九九热线精品视视频播放| 国产日韩欧美在线精品| 久久精品久久久久久噜噜老黄 | 夜夜爽天天搞| 久久这里有精品视频免费| 26uuu在线亚洲综合色| 亚洲成a人片在线一区二区| 色哟哟哟哟哟哟| 国产成人a∨麻豆精品| 观看免费一级毛片| 亚洲欧美精品专区久久| 简卡轻食公司| 国产亚洲精品av在线| 久久久成人免费电影| 欧美成人精品欧美一级黄| 最好的美女福利视频网| 人妻少妇偷人精品九色| 麻豆久久精品国产亚洲av| 国产成人影院久久av| 网址你懂的国产日韩在线| 最近中文字幕高清免费大全6| 欧美日本视频| 床上黄色一级片| 真实男女啪啪啪动态图| 日韩精品有码人妻一区| 99热这里只有是精品在线观看| 国产精品综合久久久久久久免费| 国产亚洲av嫩草精品影院| 亚洲av二区三区四区| 两个人视频免费观看高清| 成人永久免费在线观看视频| 国产视频首页在线观看| 欧美最黄视频在线播放免费| 亚洲18禁久久av| 丝袜喷水一区| 国产精品一及| 日本在线视频免费播放| 亚洲成人中文字幕在线播放| 亚洲一区高清亚洲精品| 欧美又色又爽又黄视频| 成人av在线播放网站| 日本黄大片高清| 最后的刺客免费高清国语| .国产精品久久| 国产精品久久视频播放| 亚洲经典国产精华液单| 91在线精品国自产拍蜜月| 欧美激情国产日韩精品一区| 最近视频中文字幕2019在线8| 麻豆一二三区av精品| 麻豆国产97在线/欧美| 大又大粗又爽又黄少妇毛片口| 国产成年人精品一区二区| 久久人妻av系列| 免费av毛片视频| 中文字幕制服av| 日韩中字成人| 极品教师在线视频| 国产精品无大码| 国产精品一二三区在线看| 亚洲精品日韩在线中文字幕 | 日韩一本色道免费dvd| 久久久色成人| 国产午夜福利久久久久久| 久久精品国产鲁丝片午夜精品| 黄片无遮挡物在线观看| 秋霞在线观看毛片| 91午夜精品亚洲一区二区三区| 国产淫片久久久久久久久| 九九在线视频观看精品| 欧美成人一区二区免费高清观看| 看十八女毛片水多多多| 一区二区三区四区激情视频 | 成人午夜高清在线视频| 久久亚洲国产成人精品v| 国产视频首页在线观看| 少妇的逼水好多| 九九热线精品视视频播放| 麻豆一二三区av精品| a级毛片a级免费在线| 日韩一区二区视频免费看| 亚洲国产欧美人成| 免费人成在线观看视频色| 一边亲一边摸免费视频| 午夜精品一区二区三区免费看| 国产私拍福利视频在线观看| 午夜久久久久精精品| 亚洲av男天堂| 尤物成人国产欧美一区二区三区| 日韩精品有码人妻一区| 中文字幕免费在线视频6| 26uuu在线亚洲综合色| 欧美高清性xxxxhd video| 精品国产三级普通话版| 亚洲不卡免费看| 国产伦精品一区二区三区视频9| 蜜桃久久精品国产亚洲av| 午夜a级毛片| 蜜桃久久精品国产亚洲av| 男女下面进入的视频免费午夜| 亚洲欧美精品综合久久99| 国产一区二区在线观看日韩| 中文字幕制服av| 在线观看一区二区三区| 免费黄网站久久成人精品| 国产伦精品一区二区三区视频9| 国内久久婷婷六月综合欲色啪| 午夜a级毛片| 直男gayav资源| 国产精品一及| 国产高清三级在线| 国产成年人精品一区二区| 国产探花在线观看一区二区| 国产高清视频在线观看网站| 大又大粗又爽又黄少妇毛片口| 国产黄a三级三级三级人| 国产精品野战在线观看| 久久久精品94久久精品| 国产午夜精品论理片| 超碰av人人做人人爽久久| 久久久久国产网址| 久久午夜福利片| 国产精品电影一区二区三区| 爱豆传媒免费全集在线观看| 国产高清三级在线| 国产亚洲91精品色在线| 国产欧美日韩精品一区二区| 亚洲国产欧美人成| 18+在线观看网站| 日韩成人av中文字幕在线观看| www.av在线官网国产| 欧美xxxx黑人xx丫x性爽| 免费观看在线日韩| 国产老妇伦熟女老妇高清| 欧美+亚洲+日韩+国产| 99热这里只有是精品在线观看| 亚洲精品日韩av片在线观看| 亚洲av电影不卡..在线观看| 亚洲欧洲国产日韩| 国产av一区在线观看免费| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 男人狂女人下面高潮的视频| www日本黄色视频网| 色尼玛亚洲综合影院| 免费av毛片视频| 日本一本二区三区精品| 亚洲av成人av| 亚洲丝袜综合中文字幕| 国产精品爽爽va在线观看网站| 国产成人一区二区在线| 亚洲av第一区精品v没综合| 日本熟妇午夜| 91久久精品国产一区二区成人| 在线观看免费视频日本深夜| 男插女下体视频免费在线播放| 两个人的视频大全免费| 久久人人爽人人片av| 成人三级黄色视频| 色尼玛亚洲综合影院| 亚洲18禁久久av| 少妇的逼水好多| 天美传媒精品一区二区| h日本视频在线播放| 日本欧美国产在线视频| 久久精品人妻少妇| 成年免费大片在线观看| 男女下面进入的视频免费午夜| 老师上课跳d突然被开到最大视频| 久久久久久久久大av| 99热精品在线国产| 青春草亚洲视频在线观看| 婷婷亚洲欧美| 午夜免费激情av| 日本免费一区二区三区高清不卡| 人妻系列 视频| 婷婷色综合大香蕉| 中文字幕免费在线视频6| 久久久久久伊人网av| 日韩大尺度精品在线看网址| 亚洲最大成人av| 黄色配什么色好看| 一本久久中文字幕| 麻豆久久精品国产亚洲av| 久久人人爽人人片av| 少妇被粗大猛烈的视频| 午夜久久久久精精品| 久久精品国产亚洲av香蕉五月| 成人二区视频| www日本黄色视频网| 蜜桃亚洲精品一区二区三区| 国产亚洲5aaaaa淫片| 免费在线观看成人毛片| 91av网一区二区| 最近最新中文字幕大全电影3| 男女边吃奶边做爰视频| 日本熟妇午夜| 国产精华一区二区三区| 男人舔奶头视频| 国产91av在线免费观看| 国产精品人妻久久久影院| 免费av观看视频| 国产成人a∨麻豆精品| 精品一区二区三区人妻视频| 日本黄色片子视频| 国产成人91sexporn|