• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多尺度相似度特征的答案選擇算法

    2018-06-07 08:30:37陳柯錦侯俊安
    關(guān)鍵詞:卷積向量矩陣

    陳柯錦, 侯俊安, 郭 智, 梁 霄

    (1. 中國科學(xué)院電子學(xué)研究所, 北京 100190; 2. 中國科學(xué)院大學(xué), 北京 100049;3. 中國科學(xué)院空間信息處理與應(yīng)用系統(tǒng)技術(shù)重點實驗室, 北京 100190;4. 中國人民解放軍92269部隊, 北京 100141)

    0 引 言

    隨著互聯(lián)網(wǎng)的發(fā)展,迎來了大數(shù)據(jù)時代,互聯(lián)網(wǎng)已經(jīng)成為人們獲取信息和知識的重要途徑。數(shù)據(jù)的豐富給用戶帶來便利的同時,也使得用戶獲取到真實需要信息的難度增加,亟需一種快速、準(zhǔn)確的信息獲取方法。傳統(tǒng)的搜索引擎基于關(guān)鍵字匹配,采取排序算法向用戶呈現(xiàn)相關(guān)信息,這種方法帶來了大量冗余的信息,需要用戶花費大量時間從中篩選答案。智能問答系統(tǒng)理解用戶自然語言方式的提問,直接返回用戶所需答案,能夠更好地滿足用戶的需求。

    近年來,隨著神經(jīng)網(wǎng)絡(luò)的發(fā)展,基于深度學(xué)習(xí)的問答系統(tǒng)成為當(dāng)前自然語言處理及相關(guān)領(lǐng)域的研究熱點之一?;谙嚓P(guān)技術(shù),許多有影響力的問答系統(tǒng)相繼誕生,比如蘋果的Siri,百度的小度,微軟的小冰以及IBM的Watson等等。根據(jù)問答系統(tǒng)依賴的數(shù)據(jù)組織形式不同,問答系統(tǒng)分為基于Web檢索的問答系統(tǒng)、基于社區(qū)的問答系統(tǒng)以及基于知識圖譜的問答系統(tǒng)。3種問答系統(tǒng)都會通過分析問題,對答案粗篩選,得到一些候選答案,而如何對候選答案排序,從中獲取正確答案,這就需要答案選擇技術(shù)。答案選擇是問答系統(tǒng)中的關(guān)鍵技術(shù),該任務(wù)定義為針對一個給定的問題,在眾多的候選答案中選出最佳候選答案。從定義可以看出,答案選擇可以歸結(jié)為排序問題,目標(biāo)是計算問題與候選答案的相似度,通過相似度對候選答案排序。本文重點研究檢索式問答和社區(qū)問答中的答案選擇任務(wù),該類答案選擇任務(wù)的候選答案通常以短文本形式給出,其示例如圖1所示。

    圖1 答案選擇示例

    Fig.1 Example of question answer selection

    答案選擇是自然語言處理中典型的語義相似度計算任務(wù),目前存在兩大難點。第一,問題和答案的長度不對稱,通常情況下,答案中冗余信息較多。答案選擇中的問題長度通常較短,一般在5~15個單詞,而候選答案長度往往大于問題長度,主要在20~50個字符。其主要原因在于答案通常會對問題的相關(guān)背景進(jìn)行詳細(xì)描述。正如圖1所示,對于問題“陶淵明出生在什么朝代?”,正確答案不僅給出了陶淵明的出生朝代,還給出了陶淵明的相關(guān)介紹。傳統(tǒng)的模型通常學(xué)習(xí)問題和答案句子級的特征向量,通過計算向量的相似度對候選答案排序。該類方法學(xué)習(xí)到的聯(lián)合特征包含了大量的冗余特征,通常情況下,冗余特征的相似度較低,鑒于此,考慮問題和答案的局部相似度對消除冗余特征尤為重要。第二,候選答案之間的語義相似度較高。如圖1所示,錯誤答案同樣屬于在陶淵明背景下的描述,其與正確答案的語義關(guān)聯(lián)性較強(qiáng),因此,基于關(guān)鍵字匹配或者基于詞袋模型分類的方法很難解決此類問題。

    本文為了解決以上難點,基于深度學(xué)習(xí)的方法,提出一種基于多尺度相似度的深度學(xué)習(xí)模型。本文將在第2部分介紹答案選擇的相關(guān)工作;第3部分將詳細(xì)介紹模型的具體設(shè)計;第4部分介紹答案選擇的評價方法和實驗結(jié)果;第5部分對全文進(jìn)行總結(jié)。

    1 相關(guān)工作

    答案選擇受到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,相關(guān)研究工作主要分為兩類:一類是基于特征工程,通常借助于語言工具或者其他外部資源對特征進(jìn)行抽取;另一類是基于深度學(xué)習(xí)模型,使用深度學(xué)習(xí)模型生成問題和答案的分布式表示,從而計算其相似度。

    1.1 基于特征工程的答案選擇方法

    由于最初的詞袋模型無法理解深層的語義特征,因此第一類工作相繼而出。第1類工作主要基于特征工程挖掘問題和答案的語法和語義特征,例如,文獻(xiàn)[1]利用問題和答案的依存句法樹(dependency parse trees,DPT)對問題和答案進(jìn)行特征提取。類似的,文獻(xiàn)[2]提出一種判別模型來計算問題和答案的句法樹的編輯距離,基于編輯距離特征訓(xùn)練分類器,最后完成問答對的分類。文獻(xiàn)[3]首次將WordNet引入答案選擇任務(wù)中,通過挖掘語義關(guān)系完成問題和答案中詞的對齊,然后使用淺層語義分析得到同義詞的語義相似度,從而提升答案選擇的準(zhǔn)確率。

    1.2 基于深度學(xué)習(xí)的答案選擇方法

    基于特征工程的答案選擇方法雖然取得了較好的效果,但由于其無法挖掘問題和答案的深層次的非線性特征,再者,模型的泛化能力較差。因此,近年來,基于深度學(xué)習(xí)的答案選擇方法成為學(xué)術(shù)界研究的主流方法。文獻(xiàn)[4]首次將卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)[5]應(yīng)用到答案選擇任務(wù),模型主要通過卷積網(wǎng)絡(luò)學(xué)習(xí)問題和答案的二元語法特征,將問題和答案的特征通過相似矩陣聚合得到相似度。文獻(xiàn)[6]的基本思想與文獻(xiàn)[4]相同,模型主要由全連接網(wǎng)絡(luò)和卷積網(wǎng)絡(luò)構(gòu)成,并對全連接網(wǎng)絡(luò)和卷積網(wǎng)絡(luò)的連接順序以及問答相應(yīng)網(wǎng)絡(luò)權(quán)重是否共享進(jìn)行實驗與分析。隨著長短期記憶單元(long short-term memory,LSTM)[7]和注意力機(jī)制[8]在自然語言處理諸多任務(wù)上廣泛應(yīng)用,相關(guān)工作也相繼涌現(xiàn)。文獻(xiàn)[9]采用雙向長短期記憶單元(bidirectional LSTM,BiLSTM)提取問題和答案的語義特征,并通過答案學(xué)習(xí)問題的注意力權(quán)重,顯著提升了答案選擇的準(zhǔn)確率。在此之后,文獻(xiàn)[10]提出一種CNN和LSTM的混合網(wǎng)絡(luò)模型,并對CNN和LSTM的連接順序以及是否引入注意力機(jī)制進(jìn)行了對比實驗。文獻(xiàn)[11]為了解決以往答案選擇中池化方法丟失較多信息的不足,提出一種注意力池化的方法,取得了較好的效果。

    第2類方法目前的工作通常直接提取問題和答案的整句特征來計算相似度,本文則從挖掘問答各個尺度下特征的相似度出發(fā),對生成的相似度矩陣進(jìn)行學(xué)習(xí),從局部相似度得到最終的聯(lián)合相似度。

    2 本文方法

    2.1 方法概述

    本文方法通過CNN或BiLSTM提取問題和答案各個尺度下特征,與以往直接計算問答句子級特征相似度不同,本文采用一種相似度計算方法計算問答相應(yīng)尺度下特征相似度,進(jìn)而得到相似度矩陣,最后通過3種不同模型對相似度矩陣學(xué)習(xí),從局部特征相似度得到問答整體相似度。

    本文模型整體框架如圖2所示。

    圖2 模型整體框架圖Fig.2 Framework of our model

    2.2 卷積神經(jīng)網(wǎng)絡(luò)

    傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)采用全連接的方式導(dǎo)致網(wǎng)絡(luò)的訓(xùn)練參數(shù)過多,為了解決該問題,卷積網(wǎng)絡(luò)采取局部連接和參數(shù)共享方式,極大減少了網(wǎng)絡(luò)訓(xùn)練參數(shù),此外,卷積神經(jīng)網(wǎng)絡(luò)更擅長于提取局部特征。

    本文采用卷積網(wǎng)絡(luò)作為特征提取的底層模型,對問題和答案的詞嵌入矩陣分別采取一維卷積神經(jīng)網(wǎng)絡(luò)對特征提取,卷積核的長度等于詞嵌入維度,特征提取示意圖如圖3所示。

    圖3 不同窗口大小下卷積神經(jīng)網(wǎng)絡(luò)特征提取示意圖Fig.3 Illustration of extracted features by the CNN model in different filter length

    圖3中左側(cè)是對問題或答案進(jìn)行詞嵌入初始化后的矩陣Xn×k,其中n表示句子中單詞的個數(shù),k表示詞嵌入維度。當(dāng)使用卷積核Wh×k對矩陣Xn×k進(jìn)行卷積操作可以得到n-h+1個特征,其具體表達(dá)式為

    ci=f(Wh×k*Xi∶i+k-1+b)

    (1)

    式中,Wh×k表示卷積網(wǎng)絡(luò)卷積核;h表示窗口大小;k為詞嵌入維度;Xi∶i+k-1為語句中第i到i+k-1單詞的詞向量構(gòu)成的矩陣;b為網(wǎng)絡(luò)偏置向量;f為激活函數(shù),本次實驗中采用tanh;ci為最終提取到的特征。通過對整個特征矩陣進(jìn)行卷積操作后,得到特征向量f={c1,c2,…,cn-h+1}。類似的,通過設(shè)定卷積網(wǎng)絡(luò)的窗口大小和濾波器個數(shù),可以得到問題和答案不同尺度下的特征向量,即

    (2)

    式中,j表示卷積網(wǎng)絡(luò)窗口大小;m表示第m組濾波器。由于卷積網(wǎng)絡(luò)窗口大小不同,所以特征的尺度也不同。本文實驗中將問題各尺度特征聚合得到如式(3)所示問題特征矩陣,同理,可以得到答案特征矩陣。以往的方法通過池化對特征降維得到聯(lián)合特征,最后直接計算問答聯(lián)合特征的相似度,本文實驗則是將問題和答案相應(yīng)尺度下的特征聚合成相似度矩陣,通過對相似度矩陣學(xué)習(xí)得到最終的相似度,即

    (3)

    2.3 雙向長短期記憶單元

    對于自然語言的理解,需要關(guān)注上下文信息,循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)[12]當(dāng)前時刻的輸出跟其前面時刻的輸出有著緊密聯(lián)系,其具備一定記憶能力,能有效解決序列化問題。而LSTM則是為了解決RNN中的梯度消失的問題,由文獻(xiàn)[13]提出改進(jìn)模型。LSTM結(jié)構(gòu)圖如圖4所示。

    圖4 LSTM結(jié)構(gòu)圖Fig.4 LSTM architecture

    本文采用的LSTM為Graves 等[14]使用的改進(jìn)模型,對于輸入t時刻序列xt={x1,x2,…,xn},其在本文模型中表示為第t個單詞的詞嵌入向量,隱狀態(tài)向量ht在t時刻的更新公式為

    it=σ(Wixt+Uist-1+bi)

    (4)

    ft=σ(Wfxt+Ufst-1+bf)

    (5)

    ot=σ(Woxt+Uost-1+bo)

    (6)

    (7)

    ht=ot*tanh(Ct)

    (8)

    LSTM當(dāng)前時刻的輸出能有效利用前面時刻的信息,為了充分利用文本上下文信息,采取雙向LSTM,即對輸入從正反兩個方向使用LSTM學(xué)習(xí),最后將其聚合得

    (9)

    QBiLSTM=[h1,h2,…,ht]

    (10)

    2.4 相似度矩陣學(xué)習(xí)模型

    本文提出3種相似度矩陣學(xué)習(xí)模型,分別為相似度矩陣特征聚合(similarity matrix feature concatenating,SMFC)模型,相似度矩陣特征分開學(xué)習(xí)(similarity matrix separate learning,SMSL)模型,相似度矩陣問題特征學(xué)習(xí)(similarity matrix question learning,SMQL)模型,3種模型對相似度矩陣學(xué)習(xí)得到聯(lián)合相似度,相似度矩陣的計算方法如式(11)~式(14)所示,其物理意義為問題和答案各尺度特征的余弦相似度矩陣,相似度矩陣的行向代表問題特征,列向代表答案特征,矩陣元素大小代表該行問題特征和該列答案特征的余弦相似度大小。

    Qsum=row_sum(Q⊙Q)

    (11)

    Asum=col_sum(A⊙A)

    (12)

    Pqa=element_max(QsumAsum,ε)

    (13)

    SIMQA=element_div(QAT,Pqa)

    (14)

    式中,Q代表問題特征矩陣;A為答案特征矩陣,當(dāng)特征提取層為CNN時,特征矩陣如式(3)所示;當(dāng)特征提取層為BiLSTM時,特征矩陣如式(10)所示。ε為精度矩陣,防止式(14)中出現(xiàn)運算異常情況,col_sum表示對矩陣列向求和得到行向量,row_sum表示對矩陣行向求和得到列向量,element_max為矩陣與矩陣之間對應(yīng)元素取最大值運算,element_div為矩陣與矩陣之間對應(yīng)元素相除,SIMQA為相似度矩陣,其中Pqa、SIMQA和QAT的維度為n×n,n為式(3)或式(10)中特征矩陣的特征向量總數(shù)。

    2.4.1 相似度矩陣特征聚合模型

    該模型的基本結(jié)構(gòu)是對相似度矩陣分別進(jìn)行列向最大池化和行向最大池化,然后聚合得到聯(lián)合特征,最后將其送入全連接層學(xué)習(xí)得到相似度。本文采取3種方法對特征聚合,其分別為向量對應(yīng)相加(sum)、向量對應(yīng)相乘(mul)和向量拼接(concat),其方法如式(15)~式(19)所示,SMFC模型如圖5所示。

    x1={a0,a1,…,an}

    (15)

    x2={b0,b1,…,bn}

    (16)

    sum(x1,x2)={a0+b0,a1+b1,…,an+bn}

    (17)

    mul(x1,x2)={a0×b0,a1×b1,…,an×bn}

    (18)

    concat(x1,x2)={a0,a1,…,an,b0,…,bn}

    (19)

    對相似度矩陣做行向最大池化,可以得到問題特征在答案中的最大相似度。同理,列向量最大池化可以得到答案中特征在問題中的最大相似度。相似度的大小直接反映了該局部特征的匹配程度,通過對局部特征的最大相似度學(xué)習(xí)可以有效抑制冗余特征,得到更為準(zhǔn)確的聯(lián)合相似度,這是一種從局部相似度解決全局相似度的學(xué)習(xí)模型。

    圖5 相似度矩陣特征聚合模型Fig.5 SMFC model

    2.4.2 相似度矩陣特征分開學(xué)習(xí)模型

    SMFC中采用最大池化方法得到局部特征的最大相似度,該方法忽略了局部特征出現(xiàn)的頻次。如圖6所示,“F-35”在答案中出現(xiàn)次數(shù)為兩次,而“戰(zhàn)斗機(jī)”出現(xiàn)次數(shù)為一次,通常頻次較高的特征對問答相似度計算的重要程度更高?;谏鲜鰡栴},本模型使用卷積網(wǎng)絡(luò)代替最大池化,對相似特征矩陣和轉(zhuǎn)置后的相似特征矩陣分別進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),得到問題和答案的相似度分布特征,然后放入全連接網(wǎng)絡(luò)得到最終特征,最后通過GESD計算特征相似度,GESD為文獻(xiàn)[6]提出的相似度計算方法,如式(20)所示,SMSL模型結(jié)構(gòu)如圖7所示。

    (20)

    式中,x和y分別表示SMSL模型中兩個全連接層輸出的特征向量,其分別代表問題和答案的相似度分布特征;γ和c分別為公式超參,實驗中γ和c都設(shè)置為1。

    圖6 采用不同顏色表示問答局部相似特征

    Fig.6 Different colors indicate the local similarity degree between the question and answers

    2.4.3 相似度矩陣問題特征學(xué)習(xí)模型

    答案選擇中,對于判斷答案是否是該問題的正確匹配,人們通常會關(guān)注問題的特征在答案中是否有相似特征,而對于答案中的冗余信息并不關(guān)注。例如,在圖6的問題中“F-35”“戰(zhàn)斗機(jī)”和“多少”此類局部特征的相似度的大小對整體相似度的影響遠(yuǎn)遠(yuǎn)大于答案中“美國”“洛希德·馬丁”等特征,所以只對相似度矩陣的問題相似度學(xué)習(xí),可以減少冗余,消除噪聲,與此同時,簡化了模型,降低了模型復(fù)雜度。

    圖7 相似度矩陣特征分開學(xué)習(xí)模型Fig.7 SMSL model

    本文采用3種方式對問題相似度學(xué)習(xí),分別為最大池化、平均池化和CNN模型,最后將其接入全連接層學(xué)習(xí),其模型結(jié)構(gòu)如圖8所示。

    圖8 相似度矩陣問題特征學(xué)習(xí)模型Fig.8 SMQL model

    2.5 模型訓(xùn)練方法與損失函數(shù)

    本文采取噪聲對比估計方法對模型進(jìn)行訓(xùn)練,其方法描述如下:對給定問題Q,在訓(xùn)練中選取正確答案A+和錯誤答案A-,應(yīng)用本文模型分別計算(Q,A+)和(Q,A-)的相似度得到S+和S-,本文模型的訓(xùn)練的目標(biāo)是使得正確問答對的相似值大于錯誤問答對的相似值,因此本文將問答相似度的距離與間隔M比較,得到如式(24)所示的損失函數(shù),當(dāng)S+-S->M時,不更新網(wǎng)絡(luò)參數(shù),反之采用隨機(jī)梯度下降法更新。

    S+=sim(Q,A+)

    (21)

    S-=sim(Q,A-)

    (22)

    (23)

    Loss=max(0,M-S++S-)

    (24)

    對于間隔M,與以往采取固定間隔的方法不同,本文采取如式(23)所示的方法,其中α、β為模型超參。該方法使得間隔M與相似度的距離有關(guān),當(dāng)S+-S->β時,間隔M隨著S+-S-的增大而快速減小,與此同時,訓(xùn)練誤差也相應(yīng)減小,而當(dāng)S+-S-≤β時,M值最大,模型得到較大的訓(xùn)練誤差。

    3 實驗結(jié)果與分析

    3.1 實驗數(shù)據(jù)

    本次實驗采用百度的公開數(shù)據(jù)集WebQA[15]。WebQA是一個大規(guī)模的中文人工標(biāo)注問答數(shù)據(jù)集,其來源主要為百度知道。所有問題的候選答案由搜索引擎對問題檢索的前3頁結(jié)果清洗得到,最后通過人工將候選答案標(biāo)注為正確答案和錯誤答案。本次實驗對WebQA數(shù)據(jù)集進(jìn)一步清洗,主要清洗工作為糾正錯誤標(biāo)注,最終形成如表1所示規(guī)模的訓(xùn)練數(shù)據(jù)集。

    表1 WebQA數(shù)據(jù)集

    其中驗證集是訓(xùn)練數(shù)據(jù)集隨機(jī)抽取10% 獲得,測試集為WebQA數(shù)據(jù)集的Test_lr清洗得到,Test_lr為WebQA人工標(biāo)注測試集,其候選答案包含正確答案和同等語義背景下的錯誤答案。圖1為WebQA數(shù)據(jù)集示例。

    3.2 實驗評價指標(biāo)

    本文實驗評價指標(biāo)采用信息檢索中的平均準(zhǔn)確率均值(mean average precision,MAP)和平均倒數(shù)排名(mean reciprocal rank,MRR),在本文實驗中,MAP代表問答對相似度排序中準(zhǔn)確率的均值,其計算方法如式(25)所示。MRR代表的是問答對相似度排序中的第一個正確答案的位置得分平均值,即關(guān)注系統(tǒng)返回正確答案的位置,位置越靠前評分越高,位置的倒數(shù)為單個評分值,最后統(tǒng)計求和,其計算方法為

    (25)

    (26)

    式中,n為問題總數(shù);qi為第i個問題;prec(qi)為第i個問題的候選答案相似度排序的準(zhǔn)確率,正確答案排在第一位則得分為1,否則為0。rank(qi)為第i個問題的候選答案排序結(jié)果中正確答案的排名。

    3.3 實驗設(shè)計

    本文在整理后的WebQA數(shù)據(jù)集上,應(yīng)用文獻(xiàn)[6]提出的CNN模型和文獻(xiàn)[9]提出的BiLSTM方法作為實驗的基線模型,并在此基礎(chǔ)上分別添加SMFC,SMSL和SMQL方法作對比驗證實驗。對于SMFC方法,本文采用向量求和,向量拼接和向量相乘3種聚合方法,而對于SMQL的方法采取CNN、最大池化和平均池化3種方法對相似度矩陣進(jìn)行特征提取。

    3.4 實驗結(jié)果

    本次實驗的實驗環(huán)境為GeForce GTX 1080、Intel Core i7-6700k 4.0GHZ、內(nèi)存16G的PC。本文模型詞向量采用WebQA中已訓(xùn)練好的詞向量初始化,該詞向量是通過五元語法的神經(jīng)語言模型[16]訓(xùn)練得到,詞向量維度為64維。本次實驗網(wǎng)絡(luò)學(xué)習(xí)采用隨機(jī)梯度下降法(stochastic gradient descent,SGD),其初始學(xué)習(xí)率設(shè)置為lr=0.1,網(wǎng)絡(luò)訓(xùn)練的批大小設(shè)置為100,問題截取長度設(shè)置為50,答案截取長度設(shè)置為50。網(wǎng)絡(luò)迭代次數(shù)設(shè)置為200,采取早停止(early-stop)[17]策略。最后相似度計算公式采用GESD,文獻(xiàn)[6]在之前實驗已經(jīng)證明,采用GESD作為相似度計算公式的實驗結(jié)果優(yōu)于其他相似度計算公式。

    本實驗將CNN作為底層特征提取的實驗結(jié)果如表2所示,其中CNN使用的是一維的卷積網(wǎng)絡(luò),其窗口大小設(shè)置為1、2、3和5,濾波器個數(shù)設(shè)置為500,激活函數(shù)使用tanh。對于SMQL中相似度特征學(xué)習(xí)的1-CNN網(wǎng)絡(luò)參數(shù)設(shè)置,本文將窗口大小設(shè)置為1,濾波器個數(shù)200。SMSL中對相似度特征學(xué)習(xí)的CNN參數(shù)設(shè)置與SMQL相同,但網(wǎng)絡(luò)參數(shù)不共享。SMQL和SMFC的全連接網(wǎng)絡(luò)采用dropout機(jī)制,dropout設(shè)置為0.5,網(wǎng)絡(luò)的激活函數(shù)設(shè)置為tanh。

    表2 基于CNN的相似特征學(xué)習(xí)模型實驗結(jié)果

    實驗結(jié)果表明,添加了相似度特征學(xué)習(xí)方法有效地提升了實驗結(jié)果,其中采用SMQL和SMFC方法提升明顯,相比于基線模型,其MAP值提升了3.2%~4.7%,SMFC采取向量對應(yīng)相加聚合(sum)方式優(yōu)于其他聚合方式,其MAP值提升了4.3%,SMQL采取最大池化方法對問題的相似度特征學(xué)習(xí)得到了本次實驗的最優(yōu)結(jié)果,MAP值提升了4.7%,這也證實了問答相似度矩陣中問題的相似度特征的重要性,抽取問題特征實質(zhì)為一種粗糙的特征篩選,能夠防止模型過擬合,除此之外,相比與本文其他方法,SMQL訓(xùn)練周期也較短,模型復(fù)雜度更低。

    為了進(jìn)一步驗證相似度特征學(xué)習(xí)方法的有效性,本文將BiLSTM作為底層特征抽取,添加相似度特征學(xué)習(xí)方法進(jìn)行對比實驗。實驗中LSTM的隱層維度設(shè)置為141,添加dropout機(jī)制,dropout設(shè)置為0.5。實驗結(jié)果如表3所示。

    從實驗結(jié)果可以看到,添加了相似度特征學(xué)習(xí)方法同樣適用于BiLSTM模型,基于相似度特征學(xué)習(xí)的BiLSTM模型的MAP值相比于基線模型都有提升,SMFC采取向量拼接方式聚合特征的實驗結(jié)果最好,相比于基線模型提升了1.9%,這也證實了本文模型的有效性。

    表3 基于BiLSTM的相似特征學(xué)習(xí)模型實驗結(jié)果

    4 結(jié) 論

    答案選擇是問答系統(tǒng)中的關(guān)鍵技術(shù),本文提出了一種基于相似度特征的深度學(xué)習(xí)模型。該方法相比于傳統(tǒng)的深度學(xué)習(xí)模型,不僅對問題和答案的特征進(jìn)行提取,而且對各個尺度的特征的相似度進(jìn)行訓(xùn)練,從局部相似度得到聯(lián)合相似度。從特征學(xué)習(xí)、特征聚合和特征篩選3個方面出發(fā),本文提出了3種相似度特征訓(xùn)練模型,其分別為SMSL模型、SMFC模型和SMQL模型。實驗證明,本文方法在CNN和BiLSTM模型的基礎(chǔ)上都有明顯提升,其中CNN模型采用SMQL方法得到68.2%的MAP值,相比于基線模型提升了4.7%。

    參考文獻(xiàn):

    [1] WANG M, SMITH N A. What is the jeopardy model? a quasi-synchronous grammar for QA[C]∥Proc.of the Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, 2007: 22-32.

    [2] HEILMAN M, SMITH N A. Tree edit models for recognizing textual entailments, paraphrases, and answers to questions[C]∥Proc.of the Annual Conference of the North American Chapter of the Association for Computational Linguistics, 2010: 1011-1019.

    [3] YIH W, CHANG M W, MEEK C, et al. Question answering using enhanced lexical semantic models[C]∥Proc.of the 51st Annual Meeting of the Association for Computational Linguistics, 2013: 1744-1753.

    [4] YU L, HERMANN K M, BLUNSOM P, et al. Deep learning for answer sentence selection[J]. Computer Science, 2014.

    [5] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

    [6] FENG M, XIANG B, GLASS M R, et al. Applying deep learning to answer selection: A study and an open task[C]∥Proc.of the IEEE Automatic Speech Recognition and Understanding, 2015: 813-820.

    [7] GERS F A, SCHMIDHUBER J, CUMMINS F. Learning to forget: continual prediction with LSTM[J]. Neural Computation, 2000, 12(10): 2451-71.

    [8] BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate[J]. Computer Science, 2014.

    [9] TAN M, SANTOS C D, XIANG B, et al. LSTM-based deep learning models for non-factoid answer selection[J]. Computer Science, 2015.

    [10] TAN M, DOS SANTOS C, XIANG B, et al. Improved representation learning for question answer matching[C]∥Proc.of the 54th Annual Meeting of the Association for Computational Linguistics, 2016.

    [11] DOS SANTOS C N, TAN M, XIANG B, et al. Attentive pooling networks[J]. CoRR, abs/1602.03609, 2016, 2(3): 4.

    [12] MEDSKER L, JAIN L. Recurrent neural networks[J]. Design and Applications, 2001.

    [13] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural computation, 1997, 9(8): 1735-1780.

    [14] GRAVES A. Generating sequences with recurrent neural networks[J]. Computer Science, 2014.

    [15] LI P, LI W, HE Z, et al. Dataset and neural recurrent sequence labeling model for open-domain factoid question answering[J]. arXiv Preprint arXiv:160706275,2016.

    [16] BENGIO Y, DUCHARME R, VINCENT P, et al. A neural probabilistic language model[J]. Journal of machine learning research, 2003, 3(2): 1137-1155.

    [17] PRECHELT L. Early stopping-but when?[M]. Berlin Heidelberg: Springer,1998: 55-69.

    猜你喜歡
    卷積向量矩陣
    向量的分解
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    聚焦“向量與三角”創(chuàng)新題
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    初等行變換與初等列變換并用求逆矩陣
    向量垂直在解析幾何中的應(yīng)用
    向量五種“變身” 玩轉(zhuǎn)圓錐曲線
    矩陣
    南都周刊(2015年4期)2015-09-10 07:22:44
    矩陣
    南都周刊(2015年3期)2015-09-10 07:22:44
    午夜免费男女啪啪视频观看| 亚洲伊人久久精品综合| 看非洲黑人一级黄片| 亚洲欧美精品专区久久| av又黄又爽大尺度在线免费看| 我要看日韩黄色一级片| 日韩 亚洲 欧美在线| 久久久久久久国产电影| 大香蕉久久网| 少妇人妻一区二区三区视频| 深爱激情五月婷婷| 人妻系列 视频| 免费少妇av软件| 亚洲av二区三区四区| 久久99蜜桃精品久久| 日韩大片免费观看网站| 亚洲婷婷狠狠爱综合网| 在线亚洲精品国产二区图片欧美 | 少妇丰满av| 偷拍熟女少妇极品色| 好男人在线观看高清免费视频| 欧美成人精品欧美一级黄| 80岁老熟妇乱子伦牲交| 成人毛片60女人毛片免费| 国产精品av视频在线免费观看| 久久综合国产亚洲精品| 久久精品国产亚洲网站| kizo精华| 亚洲激情五月婷婷啪啪| 久久久久久久午夜电影| 免费在线观看成人毛片| 精品久久久久久久人妻蜜臀av| 亚洲成色77777| 亚洲欧美日韩无卡精品| 免费观看性生交大片5| 久久久久性生活片| 中文资源天堂在线| av免费观看日本| 我要看日韩黄色一级片| 天堂俺去俺来也www色官网| 秋霞伦理黄片| 交换朋友夫妻互换小说| www.色视频.com| 午夜免费鲁丝| 亚洲精品第二区| 精品一区二区三卡| av.在线天堂| 又大又黄又爽视频免费| 国产成人免费无遮挡视频| 国产精品一二三区在线看| a级一级毛片免费在线观看| 久久久久久久久久久免费av| 亚洲精品乱久久久久久| 国产精品久久久久久精品电影小说 | 国产高清有码在线观看视频| 如何舔出高潮| www.av在线官网国产| 一区二区三区精品91| 色哟哟·www| 免费观看的影片在线观看| 丝瓜视频免费看黄片| 国产成人一区二区在线| 亚洲欧美日韩无卡精品| 亚洲,一卡二卡三卡| 亚洲精品456在线播放app| 欧美高清成人免费视频www| 国产免费一级a男人的天堂| 18禁裸乳无遮挡动漫免费视频 | 久久久久久九九精品二区国产| 大码成人一级视频| 最后的刺客免费高清国语| av黄色大香蕉| 亚洲av日韩在线播放| 国产精品人妻久久久影院| 久久午夜福利片| 在线亚洲精品国产二区图片欧美 | 大片免费播放器 马上看| 插阴视频在线观看视频| 日日啪夜夜爽| 免费av不卡在线播放| 搡女人真爽免费视频火全软件| 国产成人免费无遮挡视频| 亚洲av不卡在线观看| 久久精品国产亚洲av涩爱| 亚洲精品,欧美精品| 一边亲一边摸免费视频| 精品一区在线观看国产| 免费大片18禁| 啦啦啦中文免费视频观看日本| 嫩草影院新地址| 午夜免费鲁丝| 亚洲国产最新在线播放| 亚洲四区av| 日本黄色片子视频| 极品少妇高潮喷水抽搐| 亚洲,欧美,日韩| av天堂中文字幕网| 国产高清不卡午夜福利| 成年版毛片免费区| av福利片在线观看| 欧美激情久久久久久爽电影| 大话2 男鬼变身卡| av在线观看视频网站免费| 视频区图区小说| 只有这里有精品99| 亚洲怡红院男人天堂| 五月玫瑰六月丁香| 亚州av有码| 视频区图区小说| 亚洲av.av天堂| 欧美日韩视频精品一区| 亚洲一区二区三区欧美精品 | 久久韩国三级中文字幕| 日韩av免费高清视频| 少妇的逼好多水| 69av精品久久久久久| 亚洲四区av| 美女高潮的动态| 久久久a久久爽久久v久久| 波多野结衣巨乳人妻| 国产精品一区二区在线观看99| 制服丝袜香蕉在线| 日韩欧美精品v在线| 菩萨蛮人人尽说江南好唐韦庄| 日韩伦理黄色片| 久久精品久久久久久噜噜老黄| 国国产精品蜜臀av免费| 丝袜美腿在线中文| 韩国av在线不卡| 免费黄频网站在线观看国产| 国产一区二区三区综合在线观看 | 国产精品麻豆人妻色哟哟久久| 一个人看视频在线观看www免费| 日韩欧美 国产精品| 日韩制服骚丝袜av| 国产av国产精品国产| 最近的中文字幕免费完整| av在线老鸭窝| 国产精品偷伦视频观看了| 在线观看美女被高潮喷水网站| 亚洲国产成人一精品久久久| 亚洲国产高清在线一区二区三| 国产国拍精品亚洲av在线观看| 水蜜桃什么品种好| 女人久久www免费人成看片| 七月丁香在线播放| 国产乱来视频区| 看免费成人av毛片| 最近最新中文字幕免费大全7| 99久国产av精品国产电影| 日韩一区二区视频免费看| 日日啪夜夜撸| 亚洲高清免费不卡视频| 又黄又爽又刺激的免费视频.| 国产免费福利视频在线观看| 久久久久久久精品精品| 欧美一级a爱片免费观看看| 久久久久久九九精品二区国产| 99九九线精品视频在线观看视频| 国产综合懂色| 自拍偷自拍亚洲精品老妇| av在线播放精品| 极品少妇高潮喷水抽搐| 神马国产精品三级电影在线观看| 王馨瑶露胸无遮挡在线观看| 国产在线男女| 搡女人真爽免费视频火全软件| 在线 av 中文字幕| 日韩,欧美,国产一区二区三区| 精品一区二区免费观看| 高清欧美精品videossex| 国产乱来视频区| 欧美一区二区亚洲| 少妇猛男粗大的猛烈进出视频 | 国产一区二区三区综合在线观看 | 亚洲va在线va天堂va国产| 精品久久久久久久人妻蜜臀av| 精华霜和精华液先用哪个| 亚洲va在线va天堂va国产| 免费少妇av软件| 高清午夜精品一区二区三区| 亚洲真实伦在线观看| 亚洲成人中文字幕在线播放| 国产黄a三级三级三级人| 性插视频无遮挡在线免费观看| 超碰97精品在线观看| 97超碰精品成人国产| freevideosex欧美| 精品一区在线观看国产| 久久久久性生活片| 内射极品少妇av片p| 在线观看一区二区三区| 91久久精品国产一区二区成人| 日日撸夜夜添| 美女xxoo啪啪120秒动态图| 久久久久精品性色| 丝袜喷水一区| 麻豆久久精品国产亚洲av| 最近最新中文字幕免费大全7| 最近手机中文字幕大全| 乱码一卡2卡4卡精品| 日本-黄色视频高清免费观看| 亚洲av.av天堂| 一区二区三区乱码不卡18| 精品亚洲乱码少妇综合久久| 日本免费在线观看一区| 18禁裸乳无遮挡动漫免费视频 | 不卡视频在线观看欧美| 亚洲综合色惰| 黄色视频在线播放观看不卡| 久久久欧美国产精品| 国产黄频视频在线观看| 国精品久久久久久国模美| 亚洲成人一二三区av| 人人妻人人爽人人添夜夜欢视频 | 色视频在线一区二区三区| 最后的刺客免费高清国语| 精品亚洲乱码少妇综合久久| 人体艺术视频欧美日本| 亚洲精品乱久久久久久| 男人和女人高潮做爰伦理| 日本三级黄在线观看| 日韩国内少妇激情av| 午夜日本视频在线| 夫妻午夜视频| 精品一区二区三区视频在线| 精品人妻一区二区三区麻豆| 欧美xxⅹ黑人| 亚洲欧洲日产国产| 免费黄色在线免费观看| 亚洲精华国产精华液的使用体验| 国产极品天堂在线| 亚洲精品国产成人久久av| 国产老妇伦熟女老妇高清| 亚洲三级黄色毛片| 国产午夜精品一二区理论片| 三级男女做爰猛烈吃奶摸视频| 亚洲欧美成人综合另类久久久| 亚洲精品影视一区二区三区av| 日本三级黄在线观看| 亚洲成人av在线免费| 亚洲国产精品专区欧美| 国产精品成人在线| 毛片一级片免费看久久久久| 黄色视频在线播放观看不卡| 国产又色又爽无遮挡免| 汤姆久久久久久久影院中文字幕| 一级毛片久久久久久久久女| 免费黄网站久久成人精品| 欧美xxⅹ黑人| 国产高清国产精品国产三级 | 久久精品人妻少妇| 街头女战士在线观看网站| 九色成人免费人妻av| 亚洲欧美中文字幕日韩二区| 联通29元200g的流量卡| 交换朋友夫妻互换小说| 久久精品综合一区二区三区| 熟女人妻精品中文字幕| 97超碰精品成人国产| 精华霜和精华液先用哪个| 18禁在线无遮挡免费观看视频| 亚洲精品一二三| 中国三级夫妇交换| 久久精品国产亚洲av天美| 婷婷色麻豆天堂久久| av国产久精品久网站免费入址| 久久亚洲国产成人精品v| 欧美精品国产亚洲| 亚洲国产精品国产精品| 亚洲av成人精品一二三区| 麻豆精品久久久久久蜜桃| 我的老师免费观看完整版| 天天躁日日操中文字幕| 熟女av电影| 高清av免费在线| av线在线观看网站| 日韩中字成人| 欧美成人精品欧美一级黄| 神马国产精品三级电影在线观看| 国产美女午夜福利| av网站免费在线观看视频| 性色avwww在线观看| 亚洲最大成人中文| 久久久精品欧美日韩精品| 精品久久久噜噜| 欧美日韩在线观看h| 欧美日韩国产mv在线观看视频 | 久久99蜜桃精品久久| 欧美日韩视频高清一区二区三区二| 国产精品一二三区在线看| 欧美一级a爱片免费观看看| 国产精品一区二区性色av| 欧美另类一区| 色视频www国产| 国产探花极品一区二区| 亚洲欧美成人综合另类久久久| 老司机影院成人| 国产精品不卡视频一区二区| 久久精品国产自在天天线| 国产综合精华液| 一级片'在线观看视频| 久久久久网色| 欧美日本视频| 国产乱人视频| 九九在线视频观看精品| 精品国产三级普通话版| 97热精品久久久久久| 精品久久久久久久人妻蜜臀av| 少妇人妻一区二区三区视频| 亚洲国产最新在线播放| 可以在线观看毛片的网站| 国产真实伦视频高清在线观看| 听说在线观看完整版免费高清| 亚洲欧洲日产国产| a级毛色黄片| 99视频精品全部免费 在线| 日本猛色少妇xxxxx猛交久久| 国产精品蜜桃在线观看| 欧美日韩一区二区视频在线观看视频在线 | 日产精品乱码卡一卡2卡三| 在线观看国产h片| 国产日韩欧美亚洲二区| 国产精品福利在线免费观看| 在现免费观看毛片| 日韩,欧美,国产一区二区三区| 欧美国产精品一级二级三级 | av国产久精品久网站免费入址| 波多野结衣巨乳人妻| 亚洲一级一片aⅴ在线观看| 久热久热在线精品观看| 中文天堂在线官网| 有码 亚洲区| 高清在线视频一区二区三区| 亚洲av日韩在线播放| 啦啦啦中文免费视频观看日本| 99热这里只有是精品50| 少妇被粗大猛烈的视频| 欧美成人一区二区免费高清观看| 好男人在线观看高清免费视频| 欧美xxxx性猛交bbbb| 女人久久www免费人成看片| 国产精品国产三级国产av玫瑰| 国产免费一级a男人的天堂| 亚洲av电影在线观看一区二区三区 | 亚洲精品成人av观看孕妇| 嘟嘟电影网在线观看| 九草在线视频观看| 自拍欧美九色日韩亚洲蝌蚪91 | 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 少妇熟女欧美另类| 观看免费一级毛片| 亚洲精品视频女| 18禁在线无遮挡免费观看视频| 99热这里只有是精品50| 午夜福利网站1000一区二区三区| 又粗又硬又长又爽又黄的视频| 亚洲精品456在线播放app| 一级毛片黄色毛片免费观看视频| 国产精品精品国产色婷婷| 亚洲av中文字字幕乱码综合| 亚洲精品国产色婷婷电影| 日韩一区二区视频免费看| 午夜激情久久久久久久| 久久这里有精品视频免费| 在线观看三级黄色| 国产淫语在线视频| 亚洲精品国产成人久久av| 久久久精品免费免费高清| 一级片'在线观看视频| 亚洲av成人精品一区久久| 婷婷色麻豆天堂久久| 男人和女人高潮做爰伦理| 不卡视频在线观看欧美| 夫妻午夜视频| 99热这里只有是精品50| 26uuu在线亚洲综合色| 精品人妻熟女av久视频| 黄色配什么色好看| 免费电影在线观看免费观看| a级毛色黄片| 国产av码专区亚洲av| 久久久精品94久久精品| 中文字幕制服av| 在线观看av片永久免费下载| 欧美成人a在线观看| 久久久久久久久久久免费av| 王馨瑶露胸无遮挡在线观看| 在线播放无遮挡| 免费电影在线观看免费观看| 菩萨蛮人人尽说江南好唐韦庄| 最近手机中文字幕大全| 18+在线观看网站| 美女主播在线视频| 春色校园在线视频观看| 天天一区二区日本电影三级| 日韩三级伦理在线观看| 干丝袜人妻中文字幕| 肉色欧美久久久久久久蜜桃 | 国产91av在线免费观看| 亚洲激情五月婷婷啪啪| 亚洲国产色片| 亚洲电影在线观看av| 69av精品久久久久久| 久热这里只有精品99| 久久久成人免费电影| 免费看日本二区| 亚洲精品乱码久久久久久按摩| 亚洲综合精品二区| 久久久欧美国产精品| 亚洲av免费在线观看| 女人被狂操c到高潮| 日韩av不卡免费在线播放| 91在线精品国自产拍蜜月| 欧美97在线视频| 欧美日韩在线观看h| 亚洲成人久久爱视频| av福利片在线观看| 天美传媒精品一区二区| 国产伦精品一区二区三区四那| 七月丁香在线播放| 国产欧美日韩一区二区三区在线 | 国产爽快片一区二区三区| 亚洲国产av新网站| 一级爰片在线观看| 国产亚洲午夜精品一区二区久久 | av在线播放精品| 三级经典国产精品| 日本一二三区视频观看| 国内少妇人妻偷人精品xxx网站| 少妇人妻精品综合一区二区| 97人妻精品一区二区三区麻豆| 久热久热在线精品观看| 九九久久精品国产亚洲av麻豆| 熟妇人妻不卡中文字幕| 国产黄色免费在线视频| 欧美一区二区亚洲| 久久人人爽av亚洲精品天堂 | 日本色播在线视频| 亚洲aⅴ乱码一区二区在线播放| 亚洲久久久久久中文字幕| 搞女人的毛片| 亚洲天堂av无毛| 亚洲精品影视一区二区三区av| 免费黄网站久久成人精品| 成人亚洲欧美一区二区av| 日本wwww免费看| 午夜福利视频1000在线观看| 成年女人在线观看亚洲视频 | 国产成人免费无遮挡视频| 精品一区二区三卡| 国产极品天堂在线| 久久99热这里只频精品6学生| 欧美激情在线99| 久久久精品欧美日韩精品| 夜夜爽夜夜爽视频| 亚洲精品日韩av片在线观看| 99热全是精品| 日韩一本色道免费dvd| 久久久色成人| 在线天堂最新版资源| 欧美成人一区二区免费高清观看| 伦理电影大哥的女人| av在线播放精品| 天天一区二区日本电影三级| 国产亚洲午夜精品一区二区久久 | 五月玫瑰六月丁香| 国产在线一区二区三区精| 五月伊人婷婷丁香| 日本黄色片子视频| 日韩一本色道免费dvd| 午夜老司机福利剧场| 欧美+日韩+精品| 国产一区亚洲一区在线观看| 在线观看人妻少妇| 国产精品秋霞免费鲁丝片| 狠狠精品人妻久久久久久综合| 亚洲精品日韩在线中文字幕| 色婷婷久久久亚洲欧美| 你懂的网址亚洲精品在线观看| 欧美zozozo另类| 小蜜桃在线观看免费完整版高清| 一边亲一边摸免费视频| 成人美女网站在线观看视频| 我的女老师完整版在线观看| 国产爽快片一区二区三区| 26uuu在线亚洲综合色| 欧美 日韩 精品 国产| 精品久久久久久久久亚洲| 韩国高清视频一区二区三区| 91aial.com中文字幕在线观看| 少妇人妻精品综合一区二区| 边亲边吃奶的免费视频| 婷婷色综合www| 亚洲成色77777| 我要看日韩黄色一级片| 成人午夜精彩视频在线观看| 日本wwww免费看| 丝瓜视频免费看黄片| 亚洲美女视频黄频| 亚洲国产精品国产精品| 美女国产视频在线观看| 亚洲国产精品国产精品| 亚洲国产av新网站| 女的被弄到高潮叫床怎么办| av免费观看日本| 美女视频免费永久观看网站| 婷婷色麻豆天堂久久| 下体分泌物呈黄色| 在线看a的网站| 2021少妇久久久久久久久久久| 国产精品久久久久久久电影| 一级毛片我不卡| 免费观看在线日韩| 美女cb高潮喷水在线观看| 成人毛片a级毛片在线播放| 一级av片app| 日韩三级伦理在线观看| 欧美激情国产日韩精品一区| 99久久精品国产国产毛片| 国产精品福利在线免费观看| 最近最新中文字幕大全电影3| 国产高清国产精品国产三级 | 国产精品无大码| 极品少妇高潮喷水抽搐| 91久久精品国产一区二区三区| 五月开心婷婷网| 久久久色成人| 哪个播放器可以免费观看大片| 在线观看人妻少妇| 亚洲av电影在线观看一区二区三区 | 2018国产大陆天天弄谢| 免费看光身美女| 五月天丁香电影| 亚洲真实伦在线观看| 美女高潮的动态| 国产 一区精品| 中文字幕免费在线视频6| 久久久久久久久久成人| 国产男人的电影天堂91| 成人午夜精彩视频在线观看| 午夜亚洲福利在线播放| 亚洲欧美日韩东京热| 国产免费一区二区三区四区乱码| 成年女人看的毛片在线观看| 亚洲成人久久爱视频| 久久热精品热| 91精品国产九色| 少妇人妻久久综合中文| av在线老鸭窝| 欧美国产精品一级二级三级 | 欧美性感艳星| 91狼人影院| 少妇猛男粗大的猛烈进出视频 | 2021少妇久久久久久久久久久| 男人舔奶头视频| 蜜桃亚洲精品一区二区三区| www.色视频.com| 国产欧美日韩精品一区二区| 免费大片18禁| 美女脱内裤让男人舔精品视频| 亚洲欧美一区二区三区国产| 日本午夜av视频| 又黄又爽又刺激的免费视频.| 噜噜噜噜噜久久久久久91| 伦精品一区二区三区| 一个人观看的视频www高清免费观看| 欧美三级亚洲精品| 亚洲精品第二区| 久久精品久久久久久噜噜老黄| 日本一本二区三区精品| 国产精品爽爽va在线观看网站| 黄色配什么色好看| 一级毛片我不卡| 91午夜精品亚洲一区二区三区| 极品教师在线视频| 99久久中文字幕三级久久日本| 久久精品熟女亚洲av麻豆精品| 一级二级三级毛片免费看| 亚洲成色77777| 中文乱码字字幕精品一区二区三区| 精品国产一区二区三区久久久樱花 | 中文欧美无线码| 久久久久久久国产电影| 亚洲精品色激情综合| kizo精华| 色播亚洲综合网| 国产女主播在线喷水免费视频网站| 国产视频内射| 亚洲欧美成人综合另类久久久| 男女无遮挡免费网站观看| 欧美性猛交╳xxx乱大交人| 国产黄片美女视频| 一本一本综合久久| 国产黄色免费在线视频| 欧美成人午夜免费资源| 自拍欧美九色日韩亚洲蝌蚪91 | 国产精品99久久99久久久不卡 | 最新中文字幕久久久久| 国产成人a区在线观看| 国产精品爽爽va在线观看网站| 免费大片黄手机在线观看| 丰满少妇做爰视频| 中文天堂在线官网| 国产v大片淫在线免费观看| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 纵有疾风起免费观看全集完整版| 简卡轻食公司| 日本色播在线视频| 老师上课跳d突然被开到最大视频| 精品一区在线观看国产| 色综合色国产| 18禁在线无遮挡免费观看视频| 国产女主播在线喷水免费视频网站| 99热这里只有是精品在线观看|