• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合語義信息的矩陣分解詞向量學習模型

    2017-12-05 11:21:46陳培景麗萍
    智能系統(tǒng)學報 2017年5期
    關(guān)鍵詞:知識庫正確率語料庫

    陳培,景麗萍

    (北京交通大學 交通數(shù)據(jù)分析與挖掘北京市重點實驗室,北京 100044)

    融合語義信息的矩陣分解詞向量學習模型

    陳培,景麗萍

    (北京交通大學 交通數(shù)據(jù)分析與挖掘北京市重點實驗室,北京 100044)

    詞向量在自然語言處理中起著重要的作用,近年來受到越來越多研究者的關(guān)注。然而,傳統(tǒng)詞向量學習方法往往依賴于大量未經(jīng)標注的文本語料庫,卻忽略了單詞的語義信息如單詞間的語義關(guān)系。為了充分利用已有領(lǐng)域知識庫(包含豐富的詞語義信息),文中提出一種融合語義信息的詞向量學習方法(KbEMF),該方法在矩陣分解學習詞向量的模型上加入領(lǐng)域知識約束項,使得擁有強語義關(guān)系的詞對獲得的詞向量相對近似。在實際數(shù)據(jù)上進行的單詞類比推理任務(wù)和單詞相似度量任務(wù)結(jié)果表明,KbEMF比已有模型具有明顯的性能提升。

    自然語言處理;詞向量;矩陣分解;語義信息;知識庫

    詞向量是單詞在實數(shù)空間所表示的一個低維連續(xù)向量,它能夠同時捕獲單詞的語義信息和語法信息。近年來,詞向量已被廣泛地應(yīng)用于各種各樣的自然語言處理任務(wù)中[1-5],如命名實體識別、情感分析、機器翻譯等。在處理上述任務(wù)的過程中通常需要用到更大單位級別(如短語、句子、段落、篇章)的向量表示,這些向量則可以由詞向量組合獲得。因此學習優(yōu)質(zhì)的詞向量非常重要。

    現(xiàn)有的詞向量學習方法是利用單詞的上下文信息預測該單詞含義,并且使上下文信息相似的單詞含義也相似,因此對應(yīng)的詞向量在空間距離上更靠近?,F(xiàn)有的詞向量學習方法大致可以分為基于神經(jīng)網(wǎng)絡(luò)學習詞向量和基于矩陣分解學習詞向量。基于神經(jīng)網(wǎng)絡(luò)學習詞向量是根據(jù)上下文與目標單詞之間的關(guān)系建立語言模型,通過訓練語言模型獲得詞向量[6-12]。但有效詞向量的獲取是建立在訓練大規(guī)模文本語料庫的基礎(chǔ)上,這無疑使計算成本很高。近年來提出的 CBOW和skip-gram模型[11]去除了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中非線性隱層,使算法復雜度大大降低,并且也獲得了高效的詞向量。CBOW根據(jù)上下文預測目標單詞,skip-gram根據(jù)目標單詞預測上下文單詞。基于矩陣分解的詞向量學習模型[13-15]是通過分解從文本語料庫中提取的矩陣(如共現(xiàn)矩陣或由共現(xiàn)矩陣生成的PMI矩陣)得到低維連續(xù)的詞向量,并且文獻[13]和文獻[14]證明了矩陣分解的詞向量學習模型與skip-gram完全等價。

    上述模型學習的詞向量已被有效地應(yīng)用于自然語言處理任務(wù)中,然而這些模型在學習詞向量的過程中僅使用了文本語料庫信息,卻忽略了單詞間的語義信息。一旦遇到下列情形很難保證所得詞向量的質(zhì)量:1)含義不同甚至完全相反的單詞(good/bad)往往出現(xiàn)在相似的上下文中,那么它們的詞向量必然十分相似,這明顯與現(xiàn)實世界相悖;2)對于兩個含義相似的單詞,其中一個出現(xiàn)在語料庫中的次數(shù)極少,另外一個卻頻繁出現(xiàn),或者它們出現(xiàn)在不同的上下文中,那么最終它們學得的詞向量會有很大差別;3)大量上下文噪音的存在使學得的詞向量不能準確反映出單詞間的真實關(guān)系,甚至會誤導整個詞向量的訓練過程。

    為解決上述問題,本文考慮從領(lǐng)域知識庫提取語義信息并融入到詞向量學習的過程中。這會給詞向量的學習帶來下列優(yōu)勢。

    首先,知識庫明確定義了單詞的語義關(guān)系(knife/fork都屬于餐具,animal/dog具有范疇包含關(guān)系等),引入這些語義關(guān)系約束詞向量的學習,使學到的詞向量具有更準確的關(guān)系。另外,相似單詞出現(xiàn)在不同的上下文中或者出現(xiàn)頻次存在較大差異帶來的詞向量偏差問題,都可以通過知識庫豐富的語義信息予以修正。再者,知識庫是各領(lǐng)域的權(quán)威專家構(gòu)建的,具有更高的可靠性。因此,引入語義信息約束詞向量的學習是很有必要的。

    目前融合語義信息學習詞向量已有一些研究成果。Bian 等[16]利用單詞結(jié)構(gòu)信息、語法信息及語義信息學習詞向量,并取得了良好的效果。Xu等[17]分別給取自于知識庫的兩類知識信息(R-NET和C-NET)建立正則約束函數(shù),并將它們與skip-gram模型聯(lián)合學習詞向量,提出了RC-NET模型。Yu 等[18]將單詞間的語義相似信息融入到CBOW的學習過程中,提出了高質(zhì)量的詞向量聯(lián)合學習模型RCM。Liu 等[19]通過在訓練skip-gram模型過程中加入單詞相似性排序信息約束詞向量學習,提出了SWE模型,該模型通過單詞間的3種語義關(guān)系,即近反義關(guān)系、上下位關(guān)系及類別關(guān)系獲取單詞相似性排序信息。Faruqui 等[20]采用后處理的方式調(diào)整已經(jīng)預先訓練好的詞向量,提出了Retro模型,該模型可以利用任意知識庫信息調(diào)整由任意詞向量模型訓練好的詞向量,而無需重新訓練詞向量。

    以上研究都是通過拓展神經(jīng)網(wǎng)絡(luò)詞向量學習模型構(gòu)建的。與之不同,本文提出的KbEMF模型是基于矩陣分解學習詞向量。該模型以Li 等[13]提出的EMF模型為框架加入領(lǐng)域知識約束項,使具有較強語義關(guān)系的詞對學習到的詞向量在實數(shù)空間中的距離更近,也就是更加近似。與Faruqui 等采用后處理方式調(diào)整訓練好的詞向量方式不同,KbEMF是一個同時利用語料庫和知識庫學習詞向量的聯(lián)合模型,并且在單詞類比推理和單詞相似度量兩個實驗任務(wù)中展示了它的優(yōu)越性。

    1 矩陣分解詞向量學習模型相關(guān)背景

    KbEMF模型是通過擴展矩陣分解詞向量學習模型構(gòu)建的,本節(jié)介紹有關(guān)矩陣分解學習詞向量涉及的背景知識。

    共現(xiàn)矩陣對于一個特定的訓練語料庫T,V是從該語料庫中提取的全部單詞生成的詞匯表,當上下文窗口設(shè)定為L時,對任意的wi∈V,它的上下文單詞為wi-L,…,wi-1,wi+1,…,wi+L,則共現(xiàn)矩陣X的每個元素值#(w,c)表示w和c的共現(xiàn)次數(shù),即上下文單詞c出現(xiàn)在目標單詞w上下文中的次數(shù),#(w)=∑c∈V#(w,c)表示出現(xiàn)在w上下文中全部c的次數(shù)。同樣地,#(c)=∑w∈V#(w,c)表示c作為上下文出現(xiàn)在語料庫中的次數(shù)。

    EMF模型skip-gram模型學得的詞向量在多項自然語言處理任務(wù)中都取得了良好的表現(xiàn),卻沒有清晰的理論原理解釋。由此,EMF從表示學習的角度出發(fā),重新定義了skip-gram模型的目標函數(shù),將其精確地解釋為矩陣分解模型,把詞向量解釋為softmax損失下顯示詞向量dw關(guān)于表示字典C的一個隱表示,并直接顯式地證明了skip-gram就是分解詞共現(xiàn)矩陣學習詞向量的模型。這一證明為進一步推廣及拓展skip-gram提供了堅實理論基礎(chǔ)。EMF目標函數(shù)用(1)式表示:

    2 融合語義信息的矩陣分解詞向量學習模型

    2.1 提取語義信息并構(gòu)建語義矩陣

    本文選擇WordNet做先驗知識庫。WordNet是一個覆蓋范圍較廣的英語詞匯語義網(wǎng),它把含義相同的單詞組織在同義詞集合中,每個同義詞集合都代表一個基本的語義概念,并且這些集合之間也由各種關(guān)系(例如整體部分關(guān)系、上下文關(guān)系)連接。

    本文基于同義詞集合及集合間的關(guān)系詞構(gòu)建一個語義關(guān)系矩陣S∈V×V,它的每一個元素Sij=S(wi,wj)表示詞匯表V中第i個單詞wi與第j個單詞wj之間的語義相關(guān)性。如果Sij=0表示單詞wi與wj沒有語義相關(guān)性,反之Sij≠0則表示單詞wi與wj具有相關(guān)性。簡單起見,本文將語義關(guān)系矩陣S構(gòu)建成0-1矩陣,如果單詞wi與wj具有上述語義關(guān)系則令Sij=1,否則Sij=0。

    2.2 構(gòu)建語義約束模型

    tr(WTSrowW)+tr(WTScolW)-2tr(WTSW)=

    tr(WT(Srow+Scol-2S)W)

    最終所得語義約束模型為

    式中:tr(·)表示矩陣的跡;Si表示語義矩陣S第i行全部元素值的加和,即S的第i行和;Sj表示語義矩陣S第j列全部元素值的加和,即S的第j列和;Srow表示以Si為對角元素值的對角矩陣,Scol表示以Sj為對角元素值的對角矩陣。

    2.3 模型融合

    將語義約束模型R與EMF相結(jié)合,得到融合語義信息的矩陣分解詞向量學習模型KbEMF:

    式中γ是語義組合權(quán)重,表示語義約束模型在聯(lián)合模型中所占的比重大小。γ在詞向量學習過程中扮演相當重要的角色,該參數(shù)設(shè)置值過小時會弱化先驗知識對詞向量學習的影響,若過大則會破壞詞向量學習的通用性,無論哪種情況都不利于詞向量的學習。該模型目標在于最小化目標函數(shù)O,采用變量交替迭代策略求取最優(yōu)解。當γ=0時表示沒有融合語義信息,即為EMF模型。

    2.4 模型求解

    目標函數(shù),即式(3)不是關(guān)于C和W的聯(lián)合凸函數(shù),但卻是關(guān)于C或W的凸函數(shù),因此本文采用被廣泛應(yīng)用于矩陣分解的變量交替迭代優(yōu)化策略求取模型的最優(yōu)解。分別對C、W求偏導數(shù),得到

    在一次循環(huán)中先對W迭代更新,直到目標函數(shù)O對W收斂為止,然后對C迭代更新,再次使目標函數(shù)O對C收斂,至此一次循環(huán)結(jié)束,依此循環(huán)下去直到最終目標函數(shù)關(guān)于C和W都收斂為止。

    算法KbEMF算法的偽代碼

    輸入共現(xiàn)矩陣X,語義關(guān)系矩陣S,學習率η,最大迭代次數(shù)K,k;

    輸出WK,CK。

    1)隨機初始化:W0,C0

    2)fori= 1 toK,執(zhí)行

    3)Wi=Wi-1

    4)forj= 1 tok, 執(zhí)行

    6)j=j+1

    7)Ci=Ci-1

    8)forj=1 tok, 執(zhí)行

    10)j=j+1

    11)i=i+1

    3 實驗與結(jié)果

    本節(jié)主要展示融合語義信息后獲取的詞向量在單詞類比推理和單詞相似度量任務(wù)上的性能表現(xiàn)。首先介紹實驗數(shù)據(jù)集及實驗設(shè)置,然后分別描述每個實驗的任務(wù)和結(jié)果,并分析實驗結(jié)果。

    3.1 數(shù)據(jù)集

    本實驗選擇Enwik91作為訓練語料庫,經(jīng)過去除原始語料庫中HTML元數(shù)據(jù)、超鏈接等預處理操作后,得到一個詞匯量將近13億的訓練數(shù)據(jù)集。然后通過設(shè)置單詞過濾詞頻限制詞匯表的大小,把低于設(shè)定過濾詞頻的單詞剔除詞匯表,因此,不同過濾詞頻產(chǎn)生不同大小的詞匯表。

    本實驗選用WordNet2作為知識庫,WordNet2有120 000同義詞集合,其中包含150 000單詞。本文借助JWI3從WordNet2中抽取單詞間的語義關(guān)系:同一個同義詞集合內(nèi)單詞對的同義關(guān)系,以及不同集合間單詞對的上下位關(guān)系。

    不同的實驗任務(wù)所用的測試數(shù)據(jù)集也不相同。

    在單詞類比推理任務(wù)中,本文使用的測試集為谷歌查詢數(shù)據(jù)集(Google query dataset4),該數(shù)據(jù)集包含19 544個問題,共14種關(guān)系類型,其中5種語義關(guān)系,9種語法關(guān)系。在單詞相似度量任務(wù)中,本文使用下列3個數(shù)據(jù)集:Luong 等[24]使用的稀有單詞,F(xiàn)inkelstein 等[25]使用的Wordsim-353 (WS353)數(shù)據(jù)集(RW),Huang等[6]發(fā)布的上下文單詞相似數(shù)據(jù)集(SCWS)。它們分別包含2003、2034、353個單詞對及相應(yīng)的人工標注的相似度分值。

    3.2 實驗設(shè)置

    下列實驗展示了由KbEMF獲取的詞向量在不同任務(wù)中的性能表現(xiàn)。為保持實驗效果的一致性,所有模型設(shè)置相同的參數(shù)。詞向量維數(shù)統(tǒng)一設(shè)置為200,學習率設(shè)置為6×10-7,上下文窗口為5,迭代次數(shù)設(shè)置為300。

    另外,語義組合權(quán)重的大小也對實驗有重要影響。對于單詞類比推理和單詞相似度量任務(wù)本文均采取相同的實驗策略尋找最佳語義組合權(quán)重,下面以單詞類比推理任務(wù)為例詳細說明最佳語義組合權(quán)重找尋的實驗過程。設(shè)定γ∈[0.01,100],首先實驗γ=0.01,0.1,1,10,100的單詞推理正確率,如圖1 (b)所示,γ=0.01,0.1,1時KbEMF沒有提升實驗效果,因為語義信息所起作用太小;在γ=100時KbEMF實驗效果反而更差,這是過分強調(diào)語義信息破壞了詞向量的通用性;只有在γ=10時KbEMF效果較好,則最佳語義組合權(quán)重在γ=10附近的可能性最大。然后在γ∈[1,10]和γ∈[10,100]采取同樣的策略繼續(xù)尋找下去,最終會得到最佳組合權(quán)重。實驗結(jié)果表明,不同任務(wù)在不同詞頻下的最優(yōu)語義組合權(quán)重也不同。

    3.3 單詞類比推理

    給出一個問題a∶b∶∶c∶d,a、b、c、d各表示一個單詞其中d是未知的,類比推理任務(wù)的目標在于找到一個最合適的d使得a,b,c,d的詞向量滿足vec(d)與vec(b)-vec(a)+vec(c)的余弦距離最近。例如,語義推理Germary∶Berlin∶∶France∶d,則需要找出一個向量vec(d),使它與vec(Berlin)-vec(Germary)+vec(France)最近似,如果vec(d)對應(yīng)的d是Paris則推理正確。同理,又如語法推理quick:quickly∶∶slow∶d,如果找到d是slowly則推理正確。該實驗任務(wù)的評價指標是推理出單詞d的正確率,正確率越高,則KbEMF學得的詞向量越好。

    本實驗評估了不同參數(shù)設(shè)置對KbEMF 模型影響,圖1是詞頻為6 000次時,分別改變模型中詞向量維度及語義組合權(quán)重所繪制的。

    從圖1 (a)可以看出,詞向量維度小于200時,隨著詞向量維度增加單詞推理正確率在提升,詞向量維度在200~350之間實驗效果趨向于穩(wěn)定,因此在同時兼顧實驗速度與效果的情況下,本文選擇學習200維度的詞向量。

    (a)向量維度

    (b)語義組合權(quán)重圖1 KbEMF在不同向量維度和語義組合權(quán)重的正確率Fig.1 Performance when incorporating semantic knowledge related to word analogical reasoning for different vector sizes and semantic combination weights

    圖1 (b)中隨著語義組合權(quán)重增大,單詞推理正確率在提升,繼續(xù)增大正確率反而減小,說明過大或過小的語義組合權(quán)重都不利于學習詞向量。從該實驗還可以看出,語義組合權(quán)重在[5,20]之間單詞推理正確率最高,詞向量在該任務(wù)中表現(xiàn)最優(yōu)。

    圖2展示了在不同過濾詞頻下,KbEMF的單詞推理正確率均在不同程度上高于EMF,尤其在詞頻為3 500時效果最佳。對于不同詞頻,該實驗均設(shè)置語義組合權(quán)重γ=10,盡管該參數(shù)值在某些詞頻下不是最優(yōu)的,卻在一定程度上說明本文模型的普遍適用性。

    圖2 不同過濾詞頻下EMF與KbEMF的正確率對比Fig.2 Performance of KbEMF compared to EMF for different word frequencies

    下面通過將KbEMF與EMF、Retro(CBOW)、 Retro(Skip-gram)5、SWE進行比較來說明KbEMF的優(yōu)越性。Retro根據(jù)知識庫信息對預先訓練好的詞向量進行微調(diào),該模型的缺點在于無法在語料庫學習詞向量階段利用豐富的語義信息。雖然SWE同時利用了語義信息和語料庫信息學習詞向量,但該模型的基礎(chǔ)框架skip-gram只考慮了語料庫的局部共現(xiàn)信息。本文提出的KbEMF則克服了上述模型的弱點,同時利用語料信息和語義信息學習詞向量,并且它所分解的共現(xiàn)矩陣覆蓋了語料庫的全局共現(xiàn)信息。表1展示了詞頻為3 500時KbEMF與EMF、Retro(CBOW)、 Retro(Skip-gram)5、SWE的單詞推理正確率。

    表1 KbEMF與其他方法的單詞推理正確率

    表1中KbEMF對應(yīng)的單詞推理正確率最高,這說明該模型所獲取的詞向量質(zhì)量最優(yōu)。

    3.4 單詞相似度量

    單詞相似度量是評估詞向量優(yōu)劣的又一經(jīng)典實驗。該實驗把人工標注的詞對相似度作為詞對相似度的標準值,把計算得到的詞對向量余弦值作為詞對相似度的估計值,然后計算詞對相似度的標準值與估計值之間的斯皮爾曼相關(guān)系數(shù)(spearman correlation coefficient),并將它作為詞向量優(yōu)劣的評價指標。斯皮爾曼相關(guān)系數(shù)的值越高表明單詞對相似度的估計值與標準值越一致,學習的詞向量越好。

    由于單詞相似度量希望相似度高或相關(guān)度高的詞對間彼此更靠近,語義信息的融入使具有強語義關(guān)系的詞對獲得更相似的詞向量。那么計算所得的關(guān)系詞對向量的余弦值越大,詞對相似度的標準值與估計值之間的斯皮爾曼相關(guān)系數(shù)就越高。

    與單詞類比推理實驗過程類似,通過調(diào)整KbEMF模型參數(shù)(詞向量維度、語義組合權(quán)重以及單詞過濾詞頻),獲得單詞相似度量實驗中表現(xiàn)優(yōu)異的詞向量。

    本實驗比較了KbEMF與SWE、Retro在單詞相似度量任務(wù)中的性能表現(xiàn),結(jié)果展示在表2中。由于不同數(shù)據(jù)集下最佳語義組合權(quán)重不同,該實驗針對數(shù)據(jù)集WS353/SCWS/RW分別設(shè)置語義組合權(quán)重為γ=1,γ=1,γ=15。

    表2不同數(shù)據(jù)集下KbEMF與其他方法的斯皮爾曼相關(guān)系數(shù)

    Table2SpearmancorrelationcoefficientsofKbEMFcomparedtootherapproachesondifferentdatasets

    方法數(shù)據(jù)集WS353SCWSRWEMF0.79180.64740.6786Retro(CBOW)0.78160.66850.6071Retro(Skip?gram)0.69300.64490.7143SWE0.79650.65930.6429KbEMF0.79990.67400.7500

    表2中KbEMF在上述3個數(shù)據(jù)集的斯皮爾曼相關(guān)系數(shù)均有所提升,因為KbEMF相比較Retro在語料庫學習詞向量階段就融入了語義知識庫信息,相較于SWE則運用了語料庫全局的共現(xiàn)信息,因此表現(xiàn)最好。尤其KbEMF在RW上的斯皮爾曼相關(guān)系數(shù)提升顯著,這說明語義知識庫信息的融入有助于改善學習稀有單詞的詞向量。

    4 結(jié)束語

    學習高效的詞向量對自然語言處理至關(guān)重要。僅依賴語料庫學習詞向量無法很好地體現(xiàn)單詞本身的含義及單詞間復雜的關(guān)系,因此本文通過從豐富的知識庫提取有價值的語義信息作為對單一依賴語料庫信息的約束監(jiān)督,提出了融合語義信息的矩陣分解詞向量學習模型,該模型大大改善了詞向量的質(zhì)量。在實驗中將Enwik9作為訓練文本語料庫并且將WordNet作為先驗知識庫,將學到的詞向量用于單詞相似度量和單詞類比推理兩項任務(wù)中,充分展示了本文模型的優(yōu)越性。

    在后續(xù)的研究工作中,我們將繼續(xù)探索結(jié)合其他知識庫(如PPDB、WAN等),從中抽取更多類型的語義信息(如部分整體關(guān)系、多義詞等),進而定義不同更有針對性的語義約束模型,進一步改善詞向量。并將它們用于文本挖掘和自然語言處理任務(wù)中。

    [1]TURIAN J, RATINOV L, BENGIO Y. Word representations: a simple and general method for semi-supervised learning[C]//Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics. Uppsala, Sweden, 2010: 384-394.

    [2]LIU Y, LIU Z, CHUA T S, et al. Topical word embeddings[C]//Association for the Advancement of Artificial Intelligence. Austin Texas, USA, 2015: 2418-2424.

    [3]MAAS A L, DALY R E, PHAM P T, et al. Learning word vectors for sentiment analysis[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics. Portland Oregon, USA, 2011: 142-150.

    [4]DHILLON P, FOSTER D P, UNGAR L H. Multi-view learning of word embeddings via cca[C]//Advances in Neural Information Processing Systems. Granada, Spain,2011: 199-207.

    [5]BANSAL M, GIMPEL K, LIVESCU K. Tailoring continuous word representations for dependency parsing[C]//Meeting of the Association for Computational Linguistics. Baltimore Maryland, USA, 2014: 809-815.

    [6]HUANG E H, SOCHER R, MANNING C D, et al. Improving word representations via global context and multiple word prototypes[C]//Meeting of the Association for Computational Linguistics. Jeju Island, Korea, 2012: 873-882.

    [7]MNIH A, HINTON G. Three new graphical models for statistical language modelling[C]//Proceedings of the 24th International Conference on Machine Learning. New York, USA, 2007: 641-648.

    [8]MNIH A, HINTON G. A scalable hierarchical distributed language model[C]//Advances in Neural Information Processing Systems. Vancouver, Canada, 2008:1081-1088.

    [9]BENGIO Y, DUCHARME R, VINCENT P, et al. A neural probabilistic language model[J]. Journal of machine learning research, 2003, 3(02): 1137-1155.

    [10]COLLOBERT R, WESTON J, BOTTOU L, et al. Natural language processing (almost) from scratch[J]. Journal of machine learning research, 2011, 12(8): 2493-2537.

    [11]MIKOLOV T, CHEN K, CORRADO G, ET AL. Efficient estimation of word representations in vector space[C]//International Conference on Learning Representations. Scottsdale, USA,2013.

    [12]BAIN J, Gao B, Liu T Y. Knowledge-powered deep learning for word embedding[C]//Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Springer, Berlin, Heidelberg, 2014: 132-148.

    [13]LI Y, XU L, TIAN F, ET AL. Word embedding revisited: a new representation learning and explicit matrix factorization perspective[C]//International Conference on Artificial Intelligence. Buenos Aires, Argentina, 2015: 3650-3656.

    [14]LEVY O, GOLDBERG Y. Neural word embedding as implicit matrix factorization[C]//Advances in Neural Information Processing Systems. Montreal Quebec, Canada, 2014: 2177-2185.

    [15]PENNINGTON J, SOCHER R, MANNING C. Glove: global vectors for word representation[C]//Conference on Empirical Methods in Natural Language Processing. Doha, Qatar, 2014: 1532-1543.

    [16]BIAN J, GAO B, LIU T Y. Knowledge-powered deep learning for word embedding[C]//Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Berlin, Germany, 2014: 132-148.

    [17]XU C, BAI Y, BIAN J, et al. Rc-net: a general framework for incorporating knowledge into word representations[C]//Proceedings of the 23rd ACM International Conference on Conference on Information and Knowledge Management. Shanghai, China,2014: 1219-1228.

    [18]YU M, DREDZE M. Improving lexical embeddings with semantic knowledge[C]//Meeting of the Association for Computational Linguistics. Baltimore Maryland, USA,2014: 545-550.

    [19]LIU Q, JIANG H, WEI S, et al. Learning semantic word embeddings based on ordinal knowledge constraints[C]//The 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference of the Asian Federation of Natural Language Processing. Beijing, China, 2015: 1501-1511.

    [20]FARUQUI M, DODGE J, JAUHAR S K, et al. Retrofitting word vectors to semantic lexicons[C]//The 2015 Conference of the North American Chapter of the Association for Computational Linguistics. Colorado, USA, 2015: 1606-1615.

    [21]LEE D D, SEUNG H S. Algorithms for non-negative matrix factorization[C]//Advances in Neural Information Processing Systems.Vancouver, Canada, 2001: 556-562.

    [22]MNIH A, SALAKHUTDINOV R. Probabilistic matrix factorization[C]//Advances in Neural Information Processing Systems. Vancouver, Canada, 2008: 1257-1264.

    [23]SREBRO N, RENNIE J D M, JAAKKOLA T. Maximum-margin matrix factorization [J]. Advances in neural information processing systems, 2004, 37(2):1329-1336.

    [24]LUONG T, SOCHER R, MANNING C D. Better word representations with recursive neural networks for morphology[C]//Seventeenth Conference on Computational Natural Language Learning. Sofia, Bulgaria,2013: 104-113.

    [25]FINKELSTEIN R L. Placing search in context:the concept revisited[J]. ACM transactions on information systems, 2002, 20(1): 116-131.

    陳培,女,1990年生,碩士研究生,主要研究方向為自然語言處理、情感分析。

    景麗萍,女,1978年生,教授,博士,主要研究方向為數(shù)據(jù)挖掘、文本挖掘、生物信息學、企業(yè)智能。

    Wordrepresentationlearningmodelusingmatrixfactorizationtoincorporatesemanticinformation

    CHEN Pei, JING Liping

    (Beijing Key Lab of Traffic Data Analysis and Mining, Beijing Jiaotong University, Beijing 100044, China)

    Word representation plays an important role in natural language processing and has attracted a great deal of attention from many researchers due to its simplicity and effectiveness. However, traditional methods for learning word representations generally rely on a large amount of unlabeled training data, while neglecting the semantic information of words, such as the semantic relationship between words. To sufficiently utilize knowledge bases that contain rich semantic word information in existing fields, in this paper, we propose a word representation learning method that incorporates semantic information (KbEMF). In this method, we use matrix factorization to incorporate field knowledge constraint items into a learning word representation model, which identifies words with strong semantic relationships as being relatively approximate to the obtained word representations. The results of word analogy reasoning tasks and word similarity measurement tasks obtained using actual data show the performance of KbEMF to be superior to that of existing models.

    natural language processing; word representation; matrix factorization; semantic information; knowledge base

    10.11992/tis.201706012

    http://kns.cnki.net/kcms/detail/23.1538.TP.20170831.1051.002.html

    TP391

    A

    1673-4785(2017)05-0661-07

    中文引用格式:陳培,景麗萍.融合語義信息的矩陣分解詞向量學習模型J.智能系統(tǒng)學報, 2017, 12(5): 661-667.

    英文引用格式:CHENPei,JINGLiping.WordrepresentationlearningmodelusingmatrixfactorizationtoincorporatesemanticinformationJ.CAAItransactionsonintelligentsystems, 2017, 12(5): 661-667.

    2017-06-06. < class="emphasis_bold">網(wǎng)絡(luò)出版日期

    日期:2017-08-31.

    國家自然科學基金項目(61370129,61375062,61632004);長江學者和創(chuàng)新團隊發(fā)展計劃資助項目(IRT201206).

    景麗萍.E-mial: lpjing@bjtu.edu.cn.

    猜你喜歡
    知識庫正確率語料庫
    門診分診服務(wù)態(tài)度與正確率對護患關(guān)系的影響
    《語料庫翻譯文體學》評介
    基于TRIZ與知識庫的創(chuàng)新模型構(gòu)建及在注塑機設(shè)計中的應(yīng)用
    把課文的優(yōu)美表達存進語料庫
    生意
    品管圈活動在提高介入手術(shù)安全核查正確率中的應(yīng)用
    天津護理(2016年3期)2016-12-01 05:40:01
    生意
    故事會(2016年15期)2016-08-23 13:48:41
    高速公路信息系統(tǒng)維護知識庫的建立和應(yīng)用
    基于Drupal發(fā)布學者知識庫關(guān)聯(lián)數(shù)據(jù)的研究
    圖書館研究(2015年5期)2015-12-07 04:05:48
    基于JAVAEE的維吾爾中介語語料庫開發(fā)與實現(xiàn)
    語言與翻譯(2015年4期)2015-07-18 11:07:45
    国产伦理片在线播放av一区| 国产日韩欧美在线精品| 91麻豆精品激情在线观看国产 | 亚洲精品国产av蜜桃| 亚洲伊人色综图| 赤兔流量卡办理| 亚洲精品美女久久av网站| 久久人妻熟女aⅴ| 亚洲精品久久久久久婷婷小说| 国产一区二区在线观看av| www.熟女人妻精品国产| 日韩免费高清中文字幕av| 欧美 亚洲 国产 日韩一| 97精品久久久久久久久久精品| 国产无遮挡羞羞视频在线观看| 国产精品一二三区在线看| 久久精品亚洲av国产电影网| 伊人久久大香线蕉亚洲五| 国产精品久久久久成人av| 国产99久久九九免费精品| 国产精品 欧美亚洲| 国产亚洲欧美精品永久| 久久久精品94久久精品| 欧美性长视频在线观看| 韩国精品一区二区三区| 久久久久精品人妻al黑| 日韩大码丰满熟妇| 亚洲国产中文字幕在线视频| 亚洲自偷自拍图片 自拍| 国产无遮挡羞羞视频在线观看| 搡老岳熟女国产| 亚洲精品美女久久av网站| 交换朋友夫妻互换小说| 亚洲av男天堂| 好男人视频免费观看在线| 国产精品一二三区在线看| 在线观看一区二区三区激情| 国产精品九九99| 这个男人来自地球电影免费观看| 免费黄频网站在线观看国产| 久久女婷五月综合色啪小说| 精品国产乱码久久久久久小说| 国产亚洲午夜精品一区二区久久| 欧美精品啪啪一区二区三区 | 国产成人av激情在线播放| 五月天丁香电影| 国产一级毛片在线| 日韩精品免费视频一区二区三区| 大陆偷拍与自拍| 一区二区三区精品91| 亚洲精品乱久久久久久| 美国免费a级毛片| 国产无遮挡羞羞视频在线观看| 国产深夜福利视频在线观看| 一边摸一边做爽爽视频免费| 中文字幕人妻丝袜制服| 精品少妇黑人巨大在线播放| 亚洲第一青青草原| 19禁男女啪啪无遮挡网站| 人妻一区二区av| 国产亚洲欧美在线一区二区| 99精品久久久久人妻精品| 制服人妻中文乱码| 天堂俺去俺来也www色官网| 成人午夜精彩视频在线观看| 天天躁夜夜躁狠狠久久av| av又黄又爽大尺度在线免费看| av在线播放精品| 秋霞在线观看毛片| 国产成人一区二区在线| 婷婷色综合大香蕉| 亚洲成人手机| 99久久人妻综合| 国产在线视频一区二区| 精品国产一区二区久久| 99九九在线精品视频| 亚洲精品国产av蜜桃| 亚洲精品美女久久av网站| 欧美成狂野欧美在线观看| 成人影院久久| 久久人人爽人人片av| 久久久精品免费免费高清| 天堂中文最新版在线下载| 国产精品成人在线| 青青草视频在线视频观看| 久久人人爽人人片av| 国产精品久久久人人做人人爽| 国产女主播在线喷水免费视频网站| 国产精品.久久久| 你懂的网址亚洲精品在线观看| 两人在一起打扑克的视频| 国产成人免费无遮挡视频| 国产片特级美女逼逼视频| 日本欧美视频一区| 免费女性裸体啪啪无遮挡网站| 亚洲免费av在线视频| 99九九在线精品视频| 亚洲伊人色综图| 午夜福利在线免费观看网站| 各种免费的搞黄视频| 最近手机中文字幕大全| 日本五十路高清| 老司机影院毛片| 人人妻人人澡人人看| 日日夜夜操网爽| 欧美日韩亚洲高清精品| 亚洲av电影在线进入| 又大又黄又爽视频免费| 国产免费一区二区三区四区乱码| 久久国产精品男人的天堂亚洲| 大香蕉久久网| 国产精品.久久久| 亚洲欧美一区二区三区久久| 9色porny在线观看| 男女高潮啪啪啪动态图| 一区二区三区四区激情视频| a级毛片黄视频| 久久久久久人人人人人| 国产爽快片一区二区三区| 搡老岳熟女国产| 精品少妇黑人巨大在线播放| 在线观看免费午夜福利视频| 婷婷色综合www| 涩涩av久久男人的天堂| cao死你这个sao货| 激情五月婷婷亚洲| 欧美日韩亚洲高清精品| 天堂中文最新版在线下载| 国产一区亚洲一区在线观看| 一边摸一边做爽爽视频免费| 一二三四社区在线视频社区8| 婷婷色麻豆天堂久久| 可以免费在线观看a视频的电影网站| 两个人看的免费小视频| 国产99久久九九免费精品| 高清欧美精品videossex| 美女高潮到喷水免费观看| 亚洲第一青青草原| 国产在线视频一区二区| 亚洲av日韩精品久久久久久密 | 国产福利在线免费观看视频| 桃花免费在线播放| 2021少妇久久久久久久久久久| 精品人妻1区二区| 国产精品一区二区在线观看99| 国产一区二区在线观看av| 最近手机中文字幕大全| 熟女av电影| 国产一区二区三区av在线| 啦啦啦视频在线资源免费观看| 老熟女久久久| 国产男女超爽视频在线观看| 免费高清在线观看日韩| 五月天丁香电影| 99久久99久久久精品蜜桃| 五月天丁香电影| 中文字幕制服av| 国产xxxxx性猛交| 国产一区二区激情短视频 | 大片电影免费在线观看免费| 熟女少妇亚洲综合色aaa.| 久久热在线av| 黄色a级毛片大全视频| 日本欧美国产在线视频| 男人舔女人的私密视频| 人妻一区二区av| 亚洲国产精品一区二区三区在线| 香蕉国产在线看| 欧美日韩亚洲国产一区二区在线观看 | 高清欧美精品videossex| 国产无遮挡羞羞视频在线观看| 久久狼人影院| 日韩av不卡免费在线播放| 成人18禁高潮啪啪吃奶动态图| 每晚都被弄得嗷嗷叫到高潮| 久久人妻熟女aⅴ| 精品久久蜜臀av无| 国产免费视频播放在线视频| 不卡av一区二区三区| 亚洲三区欧美一区| 欧美精品高潮呻吟av久久| 人妻一区二区av| 丝袜人妻中文字幕| 一级毛片我不卡| 国产主播在线观看一区二区 | 飞空精品影院首页| 美女脱内裤让男人舔精品视频| 国产精品人妻久久久影院| 九色亚洲精品在线播放| 看十八女毛片水多多多| 欧美另类一区| av线在线观看网站| 中国美女看黄片| 看免费av毛片| 日本欧美视频一区| 国产一区二区三区av在线| 大片免费播放器 马上看| 欧美97在线视频| 18在线观看网站| 久久 成人 亚洲| 久久久国产欧美日韩av| 在线观看免费日韩欧美大片| 亚洲国产欧美网| h视频一区二区三区| 少妇裸体淫交视频免费看高清 | 九草在线视频观看| 精品久久久久久电影网| 美国免费a级毛片| 飞空精品影院首页| 永久免费av网站大全| 国产精品一区二区免费欧美 | 黄色视频不卡| 国产精品三级大全| 精品亚洲乱码少妇综合久久| 亚洲人成电影观看| 婷婷色综合www| 国产一卡二卡三卡精品| 桃花免费在线播放| 超碰97精品在线观看| 久久国产精品大桥未久av| 91麻豆av在线| 天堂俺去俺来也www色官网| 国产男女超爽视频在线观看| 久久热在线av| 成年av动漫网址| 男女床上黄色一级片免费看| 亚洲中文av在线| 美女福利国产在线| 男人舔女人的私密视频| 大陆偷拍与自拍| 国产成人欧美在线观看 | 国产精品久久久久成人av| 女人高潮潮喷娇喘18禁视频| 看十八女毛片水多多多| 在线观看免费午夜福利视频| 国产1区2区3区精品| 乱人伦中国视频| 你懂的网址亚洲精品在线观看| 日韩中文字幕视频在线看片| 欧美人与性动交α欧美软件| 精品一区二区三卡| 最近最新中文字幕大全免费视频 | av在线老鸭窝| 欧美激情高清一区二区三区| 免费观看a级毛片全部| 少妇的丰满在线观看| 久久精品国产综合久久久| 啦啦啦啦在线视频资源| 国产91精品成人一区二区三区 | 女人久久www免费人成看片| 可以免费在线观看a视频的电影网站| 日韩一区二区三区影片| 欧美xxⅹ黑人| 91精品国产国语对白视频| 美女午夜性视频免费| 久久久亚洲精品成人影院| 国产av国产精品国产| 青春草视频在线免费观看| 国产福利在线免费观看视频| 成年人黄色毛片网站| 国产不卡av网站在线观看| 国产有黄有色有爽视频| bbb黄色大片| 欧美久久黑人一区二区| 国产精品一区二区精品视频观看| 日本欧美视频一区| 国产成人精品在线电影| 菩萨蛮人人尽说江南好唐韦庄| 热re99久久国产66热| 国产高清videossex| 日本vs欧美在线观看视频| 啦啦啦中文免费视频观看日本| 韩国高清视频一区二区三区| 丝袜喷水一区| 久久亚洲国产成人精品v| 亚洲av国产av综合av卡| 午夜久久久在线观看| 欧美日韩av久久| 欧美老熟妇乱子伦牲交| 一边亲一边摸免费视频| 精品人妻一区二区三区麻豆| 免费人妻精品一区二区三区视频| 777久久人妻少妇嫩草av网站| 亚洲av日韩精品久久久久久密 | 一级a爱视频在线免费观看| 日韩熟女老妇一区二区性免费视频| 大片电影免费在线观看免费| 免费黄频网站在线观看国产| 国产精品秋霞免费鲁丝片| 久久久久国产精品人妻一区二区| 亚洲一码二码三码区别大吗| 少妇猛男粗大的猛烈进出视频| 免费黄频网站在线观看国产| 亚洲av成人精品一二三区| 国产日韩欧美视频二区| 肉色欧美久久久久久久蜜桃| 99久久综合免费| 亚洲人成网站在线观看播放| 777米奇影视久久| 久久久久久人人人人人| 最新的欧美精品一区二区| 免费在线观看视频国产中文字幕亚洲 | 一个人免费看片子| 国产精品秋霞免费鲁丝片| 国产亚洲一区二区精品| 一级片免费观看大全| 亚洲国产最新在线播放| 午夜福利免费观看在线| 日日爽夜夜爽网站| 免费看不卡的av| 少妇的丰满在线观看| 国产爽快片一区二区三区| 国产精品国产三级专区第一集| 热99国产精品久久久久久7| 大香蕉久久网| 亚洲 欧美一区二区三区| 少妇被粗大的猛进出69影院| 熟女少妇亚洲综合色aaa.| 精品人妻1区二区| 麻豆国产av国片精品| 一级a爱视频在线免费观看| 肉色欧美久久久久久久蜜桃| 欧美乱码精品一区二区三区| 日韩,欧美,国产一区二区三区| 男女边吃奶边做爰视频| avwww免费| 国产精品秋霞免费鲁丝片| 亚洲自偷自拍图片 自拍| 宅男免费午夜| 久久午夜综合久久蜜桃| 两个人免费观看高清视频| 久久久久视频综合| 在线观看人妻少妇| e午夜精品久久久久久久| 国产欧美日韩一区二区三区在线| 久久精品成人免费网站| 人妻人人澡人人爽人人| 精品国产一区二区三区久久久樱花| 亚洲,一卡二卡三卡| 免费看不卡的av| av网站在线播放免费| 精品亚洲成a人片在线观看| 免费观看a级毛片全部| 亚洲三区欧美一区| 久久99精品国语久久久| 一边摸一边做爽爽视频免费| 最新的欧美精品一区二区| 亚洲欧美中文字幕日韩二区| 亚洲国产精品一区二区三区在线| 欧美精品啪啪一区二区三区 | 嫩草影视91久久| 人体艺术视频欧美日本| 久久久国产一区二区| 亚洲精品日本国产第一区| 午夜免费男女啪啪视频观看| 成人手机av| 大片免费播放器 马上看| 美女中出高潮动态图| 18在线观看网站| 看免费av毛片| 亚洲精品美女久久av网站| 两个人看的免费小视频| 亚洲男人天堂网一区| 伦理电影免费视频| 日本五十路高清| 伊人亚洲综合成人网| 国产一区二区 视频在线| 女人被躁到高潮嗷嗷叫费观| 亚洲人成77777在线视频| 爱豆传媒免费全集在线观看| www日本在线高清视频| 免费看不卡的av| 女人精品久久久久毛片| 麻豆乱淫一区二区| 国产高清不卡午夜福利| 爱豆传媒免费全集在线观看| 一区二区三区激情视频| 人人妻人人澡人人爽人人夜夜| 午夜久久久在线观看| 中文字幕制服av| 麻豆av在线久日| 久久99热这里只频精品6学生| 亚洲图色成人| 五月开心婷婷网| 狂野欧美激情性xxxx| 午夜91福利影院| 亚洲精品久久成人aⅴ小说| 日本午夜av视频| 亚洲精品日本国产第一区| 免费女性裸体啪啪无遮挡网站| 人妻人人澡人人爽人人| 免费观看av网站的网址| 免费日韩欧美在线观看| 最近最新中文字幕大全免费视频 | 欧美在线一区亚洲| 亚洲国产精品成人久久小说| 欧美精品一区二区大全| 97精品久久久久久久久久精品| 久久久亚洲精品成人影院| 水蜜桃什么品种好| 免费看十八禁软件| 天堂俺去俺来也www色官网| 妹子高潮喷水视频| 免费看十八禁软件| 在线观看www视频免费| 91国产中文字幕| 亚洲精品在线美女| 欧美日韩视频精品一区| 狠狠精品人妻久久久久久综合| 在线观看免费午夜福利视频| 国产在线一区二区三区精| 极品人妻少妇av视频| 人人妻,人人澡人人爽秒播 | 老司机在亚洲福利影院| 国产主播在线观看一区二区 | av网站免费在线观看视频| 久久午夜综合久久蜜桃| 久久久久久久大尺度免费视频| 免费女性裸体啪啪无遮挡网站| 激情五月婷婷亚洲| 老熟女久久久| 汤姆久久久久久久影院中文字幕| 欧美日韩视频高清一区二区三区二| 97在线人人人人妻| 国产精品久久久久久人妻精品电影 | 狠狠精品人妻久久久久久综合| 久久免费观看电影| 精品一区在线观看国产| 青春草亚洲视频在线观看| 水蜜桃什么品种好| 在线看a的网站| 免费一级毛片在线播放高清视频 | 少妇 在线观看| 大陆偷拍与自拍| 脱女人内裤的视频| 成年动漫av网址| 首页视频小说图片口味搜索 | 欧美亚洲 丝袜 人妻 在线| 中文字幕av电影在线播放| 久久精品熟女亚洲av麻豆精品| 99热国产这里只有精品6| 激情视频va一区二区三区| 免费女性裸体啪啪无遮挡网站| 中文字幕色久视频| 日本五十路高清| 电影成人av| 久久精品亚洲熟妇少妇任你| 看十八女毛片水多多多| 亚洲精品av麻豆狂野| 男人添女人高潮全过程视频| 观看av在线不卡| 亚洲欧美日韩另类电影网站| 成人免费观看视频高清| 亚洲欧洲日产国产| 午夜影院在线不卡| 午夜av观看不卡| 在线 av 中文字幕| 亚洲中文字幕日韩| 免费在线观看影片大全网站 | 亚洲av成人精品一二三区| 国产日韩欧美视频二区| 狠狠婷婷综合久久久久久88av| 免费在线观看日本一区| 久久亚洲精品不卡| 久久久久久亚洲精品国产蜜桃av| 亚洲精品成人av观看孕妇| 久久精品国产亚洲av高清一级| 啦啦啦视频在线资源免费观看| 午夜福利一区二区在线看| 最新在线观看一区二区三区 | 精品人妻熟女毛片av久久网站| 黑人猛操日本美女一级片| 免费黄频网站在线观看国产| 人人妻人人澡人人看| 在线亚洲精品国产二区图片欧美| 女人精品久久久久毛片| 久热这里只有精品99| 久久综合国产亚洲精品| 赤兔流量卡办理| 高清av免费在线| 国产一区有黄有色的免费视频| 久久这里只有精品19| 一区二区三区激情视频| 精品福利永久在线观看| 丰满少妇做爰视频| 美女高潮到喷水免费观看| 久久久久久久久免费视频了| 久久久精品免费免费高清| 亚洲国产欧美在线一区| 韩国高清视频一区二区三区| 免费看十八禁软件| 99国产精品一区二区三区| 亚洲av日韩精品久久久久久密 | 热re99久久精品国产66热6| cao死你这个sao货| 2021少妇久久久久久久久久久| 大型av网站在线播放| 亚洲成人免费电影在线观看 | 少妇精品久久久久久久| 男女边吃奶边做爰视频| 成年人免费黄色播放视频| av电影中文网址| 一级,二级,三级黄色视频| 丝袜在线中文字幕| 亚洲免费av在线视频| 久久久精品免费免费高清| 免费在线观看日本一区| 国产三级黄色录像| 国产成人免费无遮挡视频| 大香蕉久久网| 啦啦啦中文免费视频观看日本| 亚洲,欧美,日韩| 国产精品一区二区在线不卡| 另类亚洲欧美激情| 爱豆传媒免费全集在线观看| 精品人妻一区二区三区麻豆| 久久久精品国产亚洲av高清涩受| 久久久久久人人人人人| 观看av在线不卡| 999精品在线视频| 欧美成狂野欧美在线观看| 国产无遮挡羞羞视频在线观看| 日韩制服骚丝袜av| av欧美777| 精品少妇久久久久久888优播| 精品国产一区二区三区久久久樱花| 水蜜桃什么品种好| 欧美日韩一级在线毛片| 国产成人系列免费观看| 久久国产精品人妻蜜桃| 亚洲av日韩精品久久久久久密 | 热99久久久久精品小说推荐| 少妇猛男粗大的猛烈进出视频| 永久免费av网站大全| 999精品在线视频| 18禁裸乳无遮挡动漫免费视频| 国产91精品成人一区二区三区 | 成人18禁高潮啪啪吃奶动态图| 国产成人精品在线电影| 狂野欧美激情性bbbbbb| 亚洲一卡2卡3卡4卡5卡精品中文| 国产真人三级小视频在线观看| 人人澡人人妻人| 欧美激情高清一区二区三区| 国产亚洲一区二区精品| 成人国产av品久久久| 黄色视频在线播放观看不卡| 老司机午夜十八禁免费视频| 精品国产一区二区三区四区第35| 一级毛片女人18水好多 | 水蜜桃什么品种好| 女警被强在线播放| 午夜福利乱码中文字幕| 久久精品久久精品一区二区三区| 亚洲国产精品一区二区三区在线| 丝袜在线中文字幕| 久久久国产一区二区| 亚洲精品美女久久av网站| 国产精品熟女久久久久浪| 国产色视频综合| 欧美av亚洲av综合av国产av| 精品一区在线观看国产| 男女床上黄色一级片免费看| 啦啦啦在线观看免费高清www| 黄色a级毛片大全视频| 久久毛片免费看一区二区三区| 国产亚洲欧美精品永久| 免费少妇av软件| 啦啦啦在线观看免费高清www| 国产真人三级小视频在线观看| 亚洲综合色网址| av欧美777| 成人影院久久| 男女床上黄色一级片免费看| 色视频在线一区二区三区| 国产欧美日韩精品亚洲av| 一区二区三区四区激情视频| 久久精品人人爽人人爽视色| 女人爽到高潮嗷嗷叫在线视频| 51午夜福利影视在线观看| 欧美 亚洲 国产 日韩一| 另类精品久久| 国产成人精品久久二区二区91| 欧美日韩精品网址| 中国美女看黄片| 国产黄色视频一区二区在线观看| 精品福利永久在线观看| 国产老妇伦熟女老妇高清| 久久精品国产亚洲av高清一级| 亚洲欧美精品综合一区二区三区| 亚洲一区二区三区欧美精品| 婷婷成人精品国产| 一区二区三区精品91| a 毛片基地| 中文欧美无线码| 欧美成人精品欧美一级黄| 精品国产乱码久久久久久小说| av线在线观看网站| 国产男人的电影天堂91| 午夜福利一区二区在线看| e午夜精品久久久久久久| 欧美av亚洲av综合av国产av| 2018国产大陆天天弄谢| 尾随美女入室| av国产久精品久网站免费入址| 人成视频在线观看免费观看| 国产成人欧美| 日韩大片免费观看网站| 亚洲第一青青草原| 亚洲成人手机| 天天躁夜夜躁狠狠久久av| 亚洲精品一卡2卡三卡4卡5卡 | 亚洲国产欧美日韩在线播放| 一区二区av电影网| 亚洲精品一区蜜桃|