• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于知識增強(qiáng)的文本隱喻識別圖編碼方法

    2023-01-30 10:23:50黃河燕
    計算機(jī)研究與發(fā)展 2023年1期
    關(guān)鍵詞:細(xì)粒度義項句法

    黃河燕 劉 嘯 劉 茜

    (北京理工大學(xué)計算機(jī)學(xué)院 北京 100081)

    (北京海量語言信息處理與云計算工程研究中心 北京 100081)

    (北京理工大學(xué)東南信息技術(shù)研究院 福建莆田 351100)(hhy63@bit.edu.cn)

    隱喻(metaphor)是一種在自然語言中廣泛存在的語言現(xiàn)象.當(dāng)借用某一概念的屬性和特點來看待和使用另一個概念時,隱喻現(xiàn)象就發(fā)生了[1].文本隱喻識別(metaphor detection)作 為 自 然 語 言 處 理 (natural language processing,NLP)中的一個重要語義理解任務(wù),獲得越來越多研究者的廣泛關(guān)注.其目標(biāo)是:從文本中識別出表現(xiàn)為隱喻的詞匯.表1給出了4條包含隱喻詞匯的文本樣例,其中粗體顯示的單詞“went(出現(xiàn))”“kill(終止)”“invested(投入)”“forged(建立)”表示隱喻現(xiàn)象,在句子中體現(xiàn)出了該單詞原本所不具有的語義.

    Table 1 Examples of Sentences with Metaphor Words表1 包含隱喻詞匯的文本樣例

    隱喻識別方法的發(fā)展大致分為3個階段:

    1)早期隱喻識別研究處于特征向量構(gòu)建階段.傳統(tǒng)隱喻識別方法采用人工編制的特征抽取器,將輸入文本轉(zhuǎn)化為特征向量,包括上下文特征[2]、詞性特征[3]、屬性特征[4]、語音視覺特征[5]等,對在特定上下文中出現(xiàn)的詞或短語進(jìn)行隱喻現(xiàn)象的識別.

    2)隨著深度學(xué)習(xí)在自然語言處理中的流行,隱喻識別的研究進(jìn)入樸素序列建模階段.該階段的方法[6-8]一般利用文本表示學(xué)習(xí)替代人工編制的特征抽取器,將每個詞轉(zhuǎn)化為詞向量,使用卷積神經(jīng)網(wǎng)絡(luò)(convolution neural network, CNN)、 循 環(huán) 神 經(jīng) 網(wǎng) 絡(luò)(recurrent neural network,RNN)等基礎(chǔ)算法搭建編碼器,對輸入的文本進(jìn)行序列編碼和建模,進(jìn)而利用全連接網(wǎng)絡(luò)實現(xiàn)分類.

    3)在外部知識融合階段,研究者發(fā)現(xiàn)單純的神經(jīng)網(wǎng)絡(luò)方法受到數(shù)據(jù)集規(guī)模和標(biāo)注稀疏性問題的制約,由此衍生出探索外部知識結(jié)合神經(jīng)網(wǎng)絡(luò)模型尋求突破的方法.有研究者探索了基于預(yù)訓(xùn)練引入其他任務(wù)知識的方式[9-10]和結(jié)合粗粒度句法知識的方法[11].

    然而,現(xiàn)有的隱喻識別深度學(xué)習(xí)模型對詞法和句法知識的利用不充分,主要體現(xiàn)為2個局限性:

    1)忽略了詞級別的義項知識.一詞多義現(xiàn)象在自然語言處理中是常見的現(xiàn)象和難點.隱喻現(xiàn)象的判定就與詞義有關(guān),若一個詞在上下文中所表現(xiàn)的含義不為它本義,那么這種現(xiàn)象很可能就是隱喻.現(xiàn)有的隱喻識別深度學(xué)習(xí)方法沒有顯式地利用詞義項知識,在建模過程中會對區(qū)分詞義產(chǎn)生困難,從而產(chǎn)生對更大標(biāo)注數(shù)據(jù)規(guī)模的需求.

    2)忽略了細(xì)粒度句法知識.句法分析中的關(guān)系具有設(shè)定完備的標(biāo)簽和方向性,它們是句法知識中的重要組成部分,可以幫助在文本建模時的信息傳遞.但是,現(xiàn)有的隱喻識別方法舍棄了句法分析中關(guān)系的標(biāo)簽和方向性,僅僅利用了粗類別的句法知識,使得模型難以對復(fù)雜語境進(jìn)行建模.

    針對2個局限,本文提出基于知識增強(qiáng)的圖編碼方法(knowledge-enhanced graph encoding method,KEG)來進(jìn)行文本中的隱喻識別.該方法首先利用預(yù)訓(xùn)練語言模型為輸入文本構(gòu)建上下文向量,利用詞義項知識訓(xùn)練得到語義向量,拼接形成文本語義表示;然后,根據(jù)細(xì)粒度句法知識構(gòu)建信息圖,利用圖循環(huán)神經(jīng)網(wǎng)絡(luò)建模輸入文本序列,通過邊感注意力機(jī)制和邊綁定權(quán)重進(jìn)行細(xì)粒度上下文計算,迭代進(jìn)行信息傳遞,得到代表詞信息的節(jié)點向量和代表句子信息的全局向量;最后,利用條件隨機(jī)場進(jìn)行序列建模,計算和解碼最佳輸出標(biāo)簽序列,實現(xiàn)隱喻識別.

    本文將所提出的KEG模型在4個國際公開數(shù)據(jù)集 VUA-VERB[12],VUA-ALLPOS[12],TroFi[13], MOH-X[5]上分別與3類先進(jìn)的隱喻識別方法進(jìn)行了對比.實驗結(jié)果表明,KEG模型在這4個數(shù)據(jù)集上的F1值和準(zhǔn)確率均獲得提升,在圖編碼方法中結(jié)合詞義項知識和細(xì)粒度句法知識對隱喻識別的性能有明顯增強(qiáng).

    本文的主要貢獻(xiàn)分為3個方面:

    1)提出融合細(xì)粒度句法信息的圖編碼方法,提出邊感注意力機(jī)制和邊綁定權(quán)重在圖神經(jīng)網(wǎng)絡(luò)中進(jìn)行細(xì)粒度上下文計算,并利用句子級別細(xì)粒度句法知識構(gòu)建信息圖實現(xiàn)信息傳遞,進(jìn)而實現(xiàn)了對復(fù)雜語境的高效建模.

    2)利用詞義項知識學(xué)習(xí)詞義向量,并利用注意力機(jī)制將詞義向量和上下文向量結(jié)合,增強(qiáng)文本的語義表示,降低對一詞多義現(xiàn)象建模的困難,以此獲得融合了語境信息和詞義信息的文本表示.

    3)相比于先進(jìn)的隱喻識別方法,本文提出的KEG模型在國際公開數(shù)據(jù)集VUA-VERB,VUA-ALLPOS,TroFi,MOH-X上均獲得提升.

    1 相關(guān)工作

    本節(jié)將從隱喻識別方法和數(shù)據(jù)集構(gòu)建這2個方面介紹相關(guān)工作.

    1.1 隱喻識別方法

    早期的隱喻識別方法主要是基于特征向量的方法,依賴人工設(shè)計的特征提取器,將文本轉(zhuǎn)化為特征向量,進(jìn)而針對在特定上下文中的單個詞或短語,實現(xiàn)隱喻識別.例如,Dunn[14]設(shè)計了文本特征,以回歸任務(wù)的設(shè)定實現(xiàn)句子級隱喻識別.Jang等人[2]提出了一種顯式利用對話中的全局上下文來檢測隱喻的方法.Klebanov等人[3]利用語義分類來做動詞的隱喻分類,從正交的一元語法(1-gram)特征開始,嘗試了各種定義動詞語義類的方法(語法的、基于資源的、分布的),并測量了這些類對一篇文章中的所有動詞分類為隱喻或非隱喻的有效性.Bulat等人[4]提出了第1種基于屬性規(guī)范的隱喻識別方法.Shutova等人[5]提出了第1種同時從語言和視覺數(shù)據(jù)中提取知識的隱喻識別方法.Gutiérrez等人[15]探討文本隱喻的上下文構(gòu)成在組合分布語義模型框架中的特殊性,并提出了一種將隱喻特征作為向量空間中的線性變換來學(xué)習(xí)的方法.但是受制于設(shè)計特征提取器的復(fù)雜性和涵蓋面的不完全性,該類方法難以遷移到新數(shù)據(jù)集上.

    隨著深度學(xué)習(xí)在自然語言處理中的飛速發(fā)展和廣泛應(yīng)用,隱喻識別的方法逐步轉(zhuǎn)向利用文本表示學(xué)習(xí)來代替人工設(shè)計的特征向量的方法.此外,序列建模的方式也在隱喻識別中逐步流行.本文稱該階段的隱喻識別方法為樸素序列建模的方法.例如,Rei等人[8]提出一種詞對級別的隱喻識別方法,提出了第1個用于捕獲隱喻含義組合的神經(jīng)網(wǎng)絡(luò)架構(gòu),并在MOH數(shù)據(jù)集[16]和TSV數(shù)據(jù)集[17]上進(jìn)行測試.Gao等人[7]提出利用雙向長短期記憶網(wǎng)絡(luò)(long short-term memory,LSTM)做序列標(biāo)注,并結(jié)合注意力機(jī)制實現(xiàn)詞級別分類的文本隱喻識別方法.Mao等人[6]提出結(jié)合2種語言學(xué)理論的神經(jīng)網(wǎng)絡(luò)模型,針對SPV理論[18]設(shè)計了基于上下文和目標(biāo)詞的多頭窗口注意力機(jī)制,針對MIP理論[19]設(shè)計了基于詞本意和語境含義的表示結(jié)合方法.雖然深度學(xué)習(xí)的方法可以避免大量的手工特征,但是樸素序列建模的方法忽略了在自然語言處理領(lǐng)域中長期積累并被廣泛證明有效的各類知識.

    近年來,結(jié)合知識的方法在隱喻識別中取得了更好的性能.這類方法主要可以分為2種類型:1)通過引入其他任務(wù)中的知識來輔助隱喻識別.例如,Chen等人[9]提出利用2個數(shù)據(jù)集相互微調(diào)BERT模型[20],并利用習(xí)語檢測任務(wù)(idiom detection)的標(biāo)注數(shù)據(jù)對BERT模型進(jìn)一步微調(diào).Su等人[10]提出利用孿生Transformer編碼器[21]編碼文本,并在閱讀理解任務(wù)的框架下利用預(yù)訓(xùn)練的RoBERTa初始化模型權(quán)重[22],同時為每一個詞級別分類設(shè)計查詢文本和上下文文本,進(jìn)而實現(xiàn)隱喻識別.這類方法在ACL2020會議的隱喻識別評測任務(wù)[23]中取得了靠前的排名.2)結(jié)合粗粒度句法知識的方法.例如,Rohanian等人[11]提出使用多詞表達(dá)式(multiword experssion,MWE)結(jié)構(gòu)信息結(jié)合省略類別的句法信息,利用圖卷積神經(jīng)網(wǎng)絡(luò)[24]進(jìn)行編碼,從而實現(xiàn)隱喻識別.該類方法沒有考慮到詞級別義項知識在隱喻識別中的潛力,也忽略了句法信息中的細(xì)粒度信息對復(fù)雜語境建模的有效性.本文將從這2種類型入手,利用知識增強(qiáng)的圖編碼方法實現(xiàn)文本隱喻識別.

    1.2 數(shù)據(jù)集構(gòu)建

    數(shù)據(jù)集構(gòu)建在隱喻識別中是一個重要的研究方向,分為單語數(shù)據(jù)集構(gòu)建和多語數(shù)據(jù)集構(gòu)建2個方面.

    在單語數(shù)據(jù)集方面,Steen等人[25]構(gòu)建了VUAMC數(shù)據(jù)集,具有萬級的標(biāo)注實例,被用于NAACL2018會議[12]和ACL2020會議[23]的隱喻識別評測任務(wù)中.Birke等人[13]基于《華爾街日報》的新聞內(nèi)容構(gòu)建了TroFi語料庫.Mohammad等人[16]針對動詞構(gòu)建了一個句子級別的隱喻識別標(biāo)注語料庫MOH,Shutova等人[5]在此基礎(chǔ)上針對“動詞–主語”和“動詞–賓語”對進(jìn)一步標(biāo)注了MOH-X數(shù)據(jù)集.Klebanov等人[26]利用240篇非英語母語作者完成的文章作為語料,標(biāo)注了TOEFL隱喻識別語料庫,被用于ACL2020會議[23]的隱喻識別評測任務(wù)中.

    在多語隱喻識別標(biāo)注方面,Tsvetkov等人[17]針對“主語–謂語–賓語”三元組構(gòu)建了一個句子級別的隱喻識別標(biāo)注的語料庫,包含英語訓(xùn)練集和英語、俄語、西班牙語、波斯語測試集.Levin等人[27]在這4個語種上,針對多種詞對級別,構(gòu)建了隱喻識別標(biāo)注語料庫CCM,包括“主語–動詞”“動詞–賓語”“動詞–副詞”“名詞–形容詞”“名詞–名詞”“名詞–復(fù)合詞”等類型.之后Mohler等人[28]構(gòu)建了英語、俄語、西班牙語、波斯語的多種詞對級別的隱喻識別標(biāo)注語料庫LCC,包括動詞、名詞、多詞表達(dá)式、形容詞、副詞之間的詞對.

    此外,還有研究者針對隱喻現(xiàn)象中的屬性構(gòu)建了數(shù)據(jù)集.例如,Parde等人[29]在VUAMC語料庫之上,針對有句法關(guān)系的詞對,標(biāo)注了規(guī)模較大的隱喻重要性(metaphor novelty)語料庫.Tredici等人[30]探討了隱喻性與動詞分布特征之間的關(guān)系,引入語料庫衍生指標(biāo)POM,標(biāo)注了某個動詞所在的任何表達(dá)式的隱喻性上限.

    為了與各類先進(jìn)的隱喻識別方法進(jìn)行對比,本文采用了被廣泛用于實驗對比的VUAMC數(shù)據(jù)集、TroFi數(shù)據(jù)集和MOH-X數(shù)據(jù)集進(jìn)行實驗.

    2 本文方法

    在本節(jié)中,我們主要介紹基于知識增強(qiáng)的圖編碼方法在文本隱喻識別中的應(yīng)用,將帶標(biāo)簽的有向句法信息融入圖神經(jīng)網(wǎng)絡(luò)中,并提出KEG模型.

    2.1 基本定義

    本文提出基于知識增強(qiáng)的文本隱喻識別圖編碼方法.本文用S={s1,s2,…,sn}表示長度為n個詞的句子.文本隱喻識別任務(wù)是為句子S中的每一個詞si計算一個0-1標(biāo)簽yi,表示該詞是否為隱喻.

    2.2 總體框架

    圖1所示為KEG模型整體網(wǎng)絡(luò)結(jié)構(gòu),主要分為3 個部分:1)文本編碼層;2)圖網(wǎng)絡(luò)層;3)解碼層.對于一個句子S={s1,s2,…,sn},首先在文本編碼層中結(jié)合知識轉(zhuǎn)換為上下文向量序列Ec={ec1,ec2,…,ecn}和語義向量序列Es={es1,es2,…,esn},進(jìn)而將兩者進(jìn)行拼接得到詞表示序列E={e1,e2,…,en};接著構(gòu)建句子S對應(yīng)的信息圖GS,利用圖網(wǎng)絡(luò)層結(jié)合圖信息進(jìn)行編碼,得到圖編碼向量序列Q={q1,q2,…,qn};最后利用解碼層對圖編碼向量序列進(jìn)行解碼,獲取各個單詞對應(yīng)的預(yù)測標(biāo)簽Y={y1,y2,…,yn},其中yi∈{L,M}, L 表示不存在隱喻(literal), M 表示隱喻(metaphorical).

    Fig.1 Overall network framework of KEG圖1 KEG整體網(wǎng)絡(luò)架構(gòu)圖

    2.3 文本編碼層

    本文采用的語義表示分為上下文向量和語義向量2個部分.

    2.3.1 上下文向量構(gòu)建

    預(yù)訓(xùn)練語言模型在自然語言處理任務(wù)中十分廣泛,取得了良好的成績和明顯的效果.本文采用BERT模型[20]計算上下文向量.BERT模型是一個預(yù)訓(xùn)練編碼器,由多層Transformer編碼層[21]堆疊而成.具體地,對于一個句子S={s1,s2,…,sn},首先進(jìn)行詞塊(word piece)劃分;然后將詞塊序列輸入 BERT 模型,獲得最后一層Transformer編碼層的輸出向量序列作為詞塊上下文向量序列;最后取每個詞的第1個詞塊上下文向量作為該詞的上下文向量,從而形成句子S的上下文向量序列Ec={ec1,ec2,…,ecn}.

    2.3.2 語義向量構(gòu)建

    語義向量構(gòu)建如圖2所示.雖然上下文向量中蘊(yùn)含了語境信息,但是缺少語義知識.本文利用語義知識對上下文向量進(jìn)行增強(qiáng),即利用WordNet中每個詞的義項標(biāo)注信息訓(xùn)練義項向量.本文繼承Chen等人[31]的方法,首先利用skip-gram算法[32]訓(xùn)練詞向量,使用WordNet中每個義項的自然語言釋義文本中詞向量的平均值作為義項向量的初始值;然后利用義項 初 始 值 設(shè) 計 了 詞 義 消 歧(word dense disambiguation,WSD)模塊,用其在Wikipedia語料庫上產(chǎn)生詞義消歧結(jié)果;最后修改skip-gram的目標(biāo)函數(shù),從而重新訓(xùn)練詞向量和義項向量.獲得預(yù)訓(xùn)練的義項向量之后,對句子S中的每一個詞si通過詞根(lemma)匹配查找所有可能的義項,然后使用注意力機(jī)制根據(jù)上下文向量計算語義向量,具體的計算公式為

    其中,Wc為模型參數(shù), ?ec為上下文向量的維度, αij為義項向量的權(quán)重.

    Fig.2 Structure of the encoding layer圖2 文本編碼層結(jié)構(gòu)

    其中 [⊕ ]為向量拼接操作.

    2.4 圖網(wǎng)絡(luò)層

    圖神經(jīng)網(wǎng)絡(luò)作為編碼器在許多自然語言處理中有著很大的應(yīng)用價值.其在自然語言處理領(lǐng)域的經(jīng)典應(yīng)用[11,33-34]中通常使用依存分析(dependency parsing)工具,將句子轉(zhuǎn)化成依存樹,以詞作為節(jié)點,使用粗 粒 度 句 法 知 識(coarse-grained syntactic knowledge)構(gòu)建信息圖,進(jìn)而指導(dǎo)圖神經(jīng)網(wǎng)絡(luò)的信息傳遞.

    由于堆疊圖神經(jīng)網(wǎng)絡(luò)會導(dǎo)致模型參數(shù)增加,從而增加過擬合的風(fēng)險,本文擴(kuò)展圖循環(huán)神經(jīng)網(wǎng)絡(luò)[35-36]作為圖網(wǎng)絡(luò)層的編碼器.一個圖循環(huán)神經(jīng)網(wǎng)絡(luò)以一個圖的鄰接矩陣、詞表示e、 初始時刻的節(jié)點向量h0和全局向量g0作為輸入,利用多層之間參數(shù)共享的特性,經(jīng)過K次迭代式狀態(tài)傳遞,輸出最終時刻的節(jié)點向量hK和全局向量gK.

    同時,針對目前圖神經(jīng)網(wǎng)絡(luò)方法在自然語言處理應(yīng)用中僅僅利用到粗粒度句法知識的局限,本文提出將細(xì)粒度句法知識(fine-grained syntactic knowledge)與圖循環(huán)神經(jīng)網(wǎng)絡(luò)(graph recurrent neural network)相結(jié)合的方法,首先利用邊感注意力機(jī)制(edge-aware attention mechanism)和邊綁定權(quán)重(edge-tied weight)進(jìn)行細(xì)粒度上下文計算,接著利用圖循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)合細(xì)粒度信息進(jìn)行K次狀態(tài)傳遞.下面,本文將從圖構(gòu)建、細(xì)粒度上下文計算和狀態(tài)傳遞3個方面介紹圖網(wǎng)絡(luò)層.

    2.4.1 圖構(gòu)建

    首先為句子S={s1,s2,…,sn}構(gòu)造一個信息圖GS.其中,節(jié)點為句子S中的詞,邊為詞之間的關(guān)系.本文繼承圖神經(jīng)網(wǎng)絡(luò)在自然語言處理中的經(jīng)典應(yīng)用方法[11,33-34],利用句子S的依存樹TS作為信息圖GS的基本結(jié)構(gòu),并在圖中每個節(jié)點上增加了自環(huán) [s elf].但是與傳統(tǒng)構(gòu)圖方法不同的是,本文一方面保留了依存樹TS中邊的方向信息;另一方面在圖中加入了代表文本序列順序的邊 [s eq],從而將序列建模信息與句法信息相結(jié)合.信息圖GS的 鄰接矩陣中從節(jié)點i到節(jié)點j的有向邊 類型aij為:

    其中 n ull 表示有向邊 不存在.

    2.4.2 細(xì)粒度上下文計算

    本節(jié)提出利用邊感注意力機(jī)制和邊綁定權(quán)重進(jìn)行細(xì)粒度上下文計算,其中結(jié)合的細(xì)粒度句法知識包括有向信息和句法類別信息.具體地,本節(jié)將為句子S中的詞si構(gòu) 造時刻t的傳入上下文向量和傳出上下文向量.

    首先利用基于雙線性(bilinear)的邊感注意力機(jī)制分別計算傳入和傳出邊的權(quán)重和.

    其中,Win和Wout為模型參數(shù), ?h為節(jié)點向量ht?1的維度,type(i,j)表示信息圖GS中有向邊 類型,T表示向量和矩陣的轉(zhuǎn)置操作.

    接著,時刻t的傳入和傳出上下文向量和被表示為時刻t? 1的節(jié)點向量ht?1與有向邊類別權(quán)重k的帶權(quán)和.具體計算公式為

    其中初始節(jié)點向量h0被初始化為零向量0.

    2.4.3 狀態(tài)傳遞

    本文擴(kuò)展經(jīng)典的圖循環(huán)神經(jīng)網(wǎng)絡(luò)[35-36],結(jié)合細(xì)粒度上下文進(jìn)行狀態(tài)傳遞.本文以時刻t? 1到時刻t為例進(jìn)行說明.本文提出的圖網(wǎng)絡(luò)層分別采用2個門控循環(huán)單元[37](gated recurrent unit,GRU)作為節(jié)點向量ht和全局向量gt的更新框架.圖3為圖循環(huán)神經(jīng)網(wǎng)絡(luò)的狀態(tài)傳遞示例圖.

    Fig.3 Layer structure of the graph recurrent neural network圖3 圖循環(huán)神經(jīng)網(wǎng)絡(luò)層結(jié)構(gòu)

    為了更新句子S中詞si所 對應(yīng)的的節(jié)點向量,首先將拼接詞表示ei、 細(xì)粒度上下文向量和、時刻t?1的全局向量gt?1得到含有更新信息的向量,然后 分別計算重置門和更新門的狀態(tài),最后計算時刻t的節(jié)點向量具體更新過程為:

    其中Wr,Ur,Wz,Uz,Wμ,Uμ為模型參數(shù), ⊙ 為向量和矩陣的元素積(element-wise product)操作,初始全局向量g0也被初始化為零向量0.

    相似地,本文為了更新句子S對應(yīng)的全局向量gt,首先將節(jié)點向量求平均得到全局更新信息向量dt,然后分別計算重置門和更新門的狀態(tài),最后計算時刻t的全局向量gt.具體更新過程為:

    最終,經(jīng)過K次狀態(tài)傳遞,圖網(wǎng)絡(luò)層輸出最終的節(jié)點向量hK和全局向量gK.

    2.5 解碼層

    由于任務(wù)目標(biāo)是對句子S中每一個詞進(jìn)行二分類判斷是否隱喻,最終本方法產(chǎn)生一個標(biāo)簽序列本文采用條件隨機(jī)場(condition random field,CRF)[38]作為解碼層.

    首先采用前饋網(wǎng)絡(luò)將圖網(wǎng)絡(luò)層輸出的每個詞所對應(yīng)的最終節(jié)點向量轉(zhuǎn)化為輸出分值向量.解碼層中對一個標(biāo)簽序列的評分為

    其中Wy和A為模型參數(shù).為了描述得更具一般性和簡潔性,本文在序列的首尾加入了表示標(biāo)簽序列開始和終結(jié)的特殊標(biāo)志 [s tart]和 [e nd]作為和.

    其中Z為包含所有可能的標(biāo)簽序列的集合.在測試階段和驗證階段,通過維特比算法(Viterbi algorithm)對輸出標(biāo)簽序列進(jìn)行解碼.

    3 實驗與分析

    3.1 數(shù)據(jù)集

    實驗中使用的數(shù)據(jù)集包括NAACL2018評測任務(wù)中使用的VUA-VERB和VUA-ALLPOS數(shù)據(jù)集[12]、TroFi數(shù)據(jù)集[13]和MOH-X數(shù)據(jù)集[5].數(shù)據(jù)統(tǒng)計信息如表2所示,包括數(shù)據(jù)集中單詞(token)總數(shù)、數(shù)據(jù)集中句子總數(shù)、標(biāo)注為隱喻的數(shù)量、標(biāo)注為隱喻的數(shù)量占所有標(biāo)注結(jié)果中的百分比、平均每個句子中的單詞數(shù).在實驗中按照相關(guān)工作[6-7,9-12,23]對VUA-VERB和VUA-ALLPOS數(shù)據(jù)集進(jìn)行訓(xùn)練集、開發(fā)集、測試集劃分,并在TroFi和MOH-X數(shù)據(jù)集上進(jìn)行10折交叉驗證.

    Table 2 Statistics of Datasets表2 數(shù)據(jù)集統(tǒng)計信息

    VUA-VERB和VUA-ALLPOS數(shù)據(jù)集[12]分別源于依照MIP規(guī)則[19]對句子為單位所標(biāo)注的VUAMC阿姆斯特丹隱喻語料庫[25],具有超過2000個被標(biāo)注為隱喻的不同詞匯.NAACL2018會議的隱喻識別評測任務(wù)[12]首次基于VUAMC語料庫設(shè)置了VERB和ALLPOS這2個賽道,并分別形成了VUA-VERB和VUA-ALLPOS數(shù)據(jù)集,并被沿用于ACL2020會議的隱喻識別評測任務(wù)[23]中.

    TroFi數(shù)據(jù)集[13]是由包含1987—1989年《華爾街日報》新聞內(nèi)容的第1版WSJ語料庫[39]中的句子組成,標(biāo)注人員針對每個句子中的動詞進(jìn)行了隱喻標(biāo)注.TroFi數(shù)據(jù)集只有50個被標(biāo)注為隱喻的不同詞匯,且其中句子的平均長度是本文所采用的數(shù)據(jù)集中最長的.

    MOH-X數(shù)據(jù)集[5]來源于MOH數(shù)據(jù)集[16],其中的句子來自WordNet中義項的例句.在該數(shù)據(jù)集中,標(biāo)注人員針對每個句子中的“動詞–主語”對和“動詞–賓語”對進(jìn)行了隱喻標(biāo)注,得到了214個不同的詞匯.MOH-X數(shù)據(jù)集中句子的平均長度是本文所采用的數(shù)據(jù)集中最短的.

    3.2 實驗設(shè)置及超參數(shù)

    本文所提出的模型在實驗中所使用的超參數(shù)均由在VUA-VERB的測試集上針對F1值的格搜索(grid search)得出,具體數(shù)值如表3 所示.

    模型采用BERT-Large的權(quán)值初始化上下文向量構(gòu)建模塊,并在訓(xùn)練時采用學(xué)習(xí)率熱身(warm-up)方法,即總共訓(xùn)練50個回合(epoch),在前5個回合中,模型各部分的學(xué)習(xí)率從0開始線性增長至最大值,并在之后的回合中線性衰減至0.本文采用AdamW算法[40]對參數(shù)進(jìn)行優(yōu)化.在后續(xù)的實驗中,為了保證公平起見,根據(jù)開發(fā)集上的評測結(jié)果選擇一組F1值最高的模型參數(shù),然后在測試集上評測使用了這組參數(shù)的模型并記錄各項指標(biāo).為了減少模型中隨機(jī)種子對結(jié)果的影響,后續(xù)實驗結(jié)果表格中的值為3次運(yùn)行結(jié)果的平均值.

    Table 3 Hyper-Parameters Used in Our Experiment表3 本文實驗中使用的超參數(shù)

    3.3 評價指標(biāo)

    與相關(guān)工作[6-7,9-12,23]相同,本文采用精確率(precision,P)、召回率(recall,R)、F1 值和準(zhǔn)確率(accuracy,Acc)作為實驗的評價指標(biāo).

    對測試集中的每一個標(biāo)注結(jié)果,本文提出的模型會對其進(jìn)行二分類,產(chǎn)生一個預(yù)測結(jié)果.將標(biāo)注結(jié)果與預(yù)測結(jié)果一致,且為隱喻的詞數(shù)量記為TP,不為隱喻的詞數(shù)量記為TN;標(biāo)注結(jié)果與預(yù)測結(jié)果不一致,且預(yù)測結(jié)果為隱喻的詞數(shù)量記為FP,不為隱喻的詞數(shù)量記為FN.則精確率P、召回率R、F1值、準(zhǔn)確率Acc分別計算得到:

    3.4 KEG與SOTA方法比較

    為了驗證本文提出的KEG模型的有效性,本文設(shè)置3組對比模型,包含了3類SOTA方法.

    第1組是樸素序列建模的方法,其中的模型均未采用詞級別義項知識或句子級別細(xì)粒度句法知識,具體模型為:

    1)RNN_ELMo[7]將GloVe向量[41]和 ELMo 向量[42]拼接作為詞級別特征,使用雙向LSTM進(jìn)行編碼,對輸出的隱狀態(tài)采用softmax分類器進(jìn)行序列分類.

    2)RNN_BERT[20]依照RNN_ELMo的序列分類框架,將BERT-Large模型后4層輸出向量作為特征.

    3)RNN_HG[6]在 RNN_ELMo 模 型的基礎(chǔ) 上 ,在利用雙向LSTM對詞級別特征進(jìn)行編碼之后,將雙向LSTM輸出的隱狀態(tài)與GloVe向量拼接,然后采用softmax分類器進(jìn)行序列分類.

    4)RNN_MHCA[6]在 RNN_ELMo模型的基礎(chǔ)上強(qiáng)化了softmax分類器的輸入,利用多頭注意力機(jī)制為雙向LSTM輸出的隱狀態(tài)計算了上下文向量,并將它們拼接后輸入softmax分類器.

    第2組是采用其他任務(wù)的知識來輔助增強(qiáng)隱喻識別的方法,具體模型為:

    1)Go Figure![9]是在 ACL2020 會議的隱喻識別評測任務(wù)[23]中VUA榜單排名第2的模型,采用基于微調(diào)預(yù)訓(xùn)練BERT模型的多任務(wù)架構(gòu),將習(xí)語識別作為輔助任務(wù),引入其他修辭語言(figurative language)識別任務(wù)的知識,通過學(xué)習(xí)到更具一般性的BERT參數(shù)增強(qiáng)隱喻識別的效果.

    2)DeepMet-S[10]是一個基于 RoBERTa[22]的閱讀理解(reading comprehension)式隱喻識別模型,其多模型集成(ensemble)的結(jié)果在ACL2020會議的隱喻識別評測任務(wù)[23]中VUA榜單排名第1.DeepMet-S將需要被識別的句子作為上下文,為句中每一個需要進(jìn)行隱喻識別的詞建立了問題提示(prompt),利用其他任務(wù)的知識進(jìn)行隱喻識別.

    第3組是結(jié)合粗粒度句法知識的方法,具體為:

    1)GCN_BERT[11]首先利用預(yù)訓(xùn)練BERT模型對詞進(jìn)行編碼,然后利用粗類別依存分析結(jié)果結(jié)合注意力機(jī)制為句子構(gòu)建了僅含無類別邊的信息圖,并采用圖卷積神經(jīng)網(wǎng)絡(luò)[24]進(jìn)行編碼.

    2)MWE[11]在GCN_BERT的基礎(chǔ)上,利用額外的圖卷積神經(jīng)網(wǎng)絡(luò)[24]編碼了屬于粗類別句法知識的多詞表達(dá)式結(jié)構(gòu)信息,并與原網(wǎng)絡(luò)的編碼進(jìn)行拼接.

    表4展示了本文提出的KEG模型與上述3組SOTA模型的對比結(jié)果.

    在第1組對比實驗中,與樸素序列建模方法進(jìn)行比較,KEG模型在4個數(shù)據(jù)集上均取得了更高的F1值,在除VUA-ALLPOS數(shù)據(jù)集之外也取得了更高的準(zhǔn)確率.相比于RNN_HG和RNN_MHCA,在F1值方面分別提升了 8.1,1.2,4.3,1.8個百分點.這體現(xiàn)了知識增強(qiáng)的圖編碼方法相對樸素序列建模方法有助于提升隱喻識別的性能.樸素序列建模方法僅依靠詞向量將文本轉(zhuǎn)化為輸入向量,雙向LSTM進(jìn)行序列建模,會出現(xiàn)長距離依賴關(guān)系難以捕獲的問題.而KEG不僅豐富了輸入向量,也利用句法知識和信息圖能更直接捕獲到文本中的依賴關(guān)系,是樸素序列建模方法不具備的優(yōu)勢.

    Table 4 Experimental Results of KEG and SOTA Methods表4 KEG與SOTA方法對比的實驗結(jié)果 %

    在第2組對比實驗中,還比較了采用其他任務(wù)知識來增強(qiáng)隱喻識別的方法.從實驗結(jié)果來看,第2組中結(jié)合知識的方法在VUA-VERB上明顯優(yōu)于第1組中的樸素序列建模方法.此外,相比結(jié)合習(xí)語識別進(jìn)行多任務(wù)建模的Go Figure!模型,KEG在VUA-VERB和VUA-ALLPOS上的F1值分別提升了1.4和2.1個百分點.相比于閱讀理解架構(gòu)的DeepMet-S,KEG在VUA-VERB和VUA-ALLPOS上的F1值分別提升了1.7和2.0個百分點.這表明結(jié)合知識是可以有效提升隱喻識別的性能,而且本文提出的KEG引入詞級別和句子級別2方面的知識在VUA-VERB和VUAALLPOS數(shù)據(jù)集上可以取得更優(yōu)的效果.

    在第3組對比實驗中,比較了結(jié)合粗粒度句法知識的方法.KEG在TroFi和MOH-X上均取得了更優(yōu)的F1值和準(zhǔn)確率.MWE的各項指標(biāo)均高于GCN_BERT.相比于MWE模型,KEG分別在F1值方面提升了3.9和1.6個百分點,在準(zhǔn)確率方面提升了2.7和1.1個百分點.MWE和GCN_BERT均基于堆疊的圖卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行隱喻識別,僅利用句法分析中的無向關(guān)系構(gòu)建信息圖,還舍棄了細(xì)粒度的類別信息.本文提出的KEG擴(kuò)展了圖循環(huán)神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行圖編碼,利用循環(huán)迭代的方式達(dá)到堆疊圖卷積神經(jīng)網(wǎng)絡(luò)的目的,包含更少的參數(shù),降低了過擬合的風(fēng)險.此外,KEG可以建模細(xì)粒度的句法知識,對信息的利用率更高.KEG還利用詞級別義項知識豐富了輸入向量,是MWE所不具備的優(yōu)勢.

    綜上可見,本文提出的KEG模型優(yōu)于對比的3類SOTA方法,本文提出的詞級別義項知識和細(xì)粒度句法知識應(yīng)用于隱喻識別任務(wù)具有一定的優(yōu)越性.

    3.5 狀態(tài)傳遞次數(shù)K對比分析

    狀態(tài)傳遞次數(shù)K是本文提出的KEG模型中的一個重要超參數(shù).為了驗證狀態(tài)傳遞次數(shù)對實驗結(jié)果的影響,在3.4節(jié)的實驗基礎(chǔ)上,本節(jié)設(shè)置不同的狀態(tài)傳遞次數(shù)K值,得到不同的實驗結(jié)果,如表5所示:

    Table 5 Experimental Results With Different State Transition Times表5 對比不同狀態(tài)傳遞次數(shù)的實驗結(jié)果%

    實驗結(jié)果表明,當(dāng)狀態(tài)傳遞次數(shù)K從1增大到3時,在4個數(shù)據(jù)集上的F1值和準(zhǔn)確率均有所提升,其中F1值提升了9.1,3.0,5.2,3.0個百分點,準(zhǔn)確率提升了 4.2,1.1,1.6,3.5個百分點.增大狀態(tài)傳遞次數(shù)K可以使模型學(xué)習(xí)到句子中距離更長的依賴關(guān)系,這證明了在一定范圍內(nèi)增加狀態(tài)傳遞次數(shù)有利于提升模型的性能.當(dāng)狀態(tài)傳遞次數(shù)K從3增大到5時,在4個數(shù)據(jù)集上的F1值和準(zhǔn)確率并沒有觀察到明顯提升.而且增大狀態(tài)傳遞次數(shù)K會導(dǎo)致模型運(yùn)行所需時間變長.所以,實驗中的狀態(tài)傳遞次數(shù)K并不是越大越好.由于在4個數(shù)據(jù)集上,狀態(tài)傳遞次數(shù)K= 3時取得了較優(yōu)的F1值和準(zhǔn)確率,并且在K> 3時評價指標(biāo)均無明顯提升.考慮到模型運(yùn)行時間,本文在所有數(shù)據(jù)集上統(tǒng)一選擇了狀態(tài)傳遞次數(shù)K= 3時的實驗結(jié)果作為KEG性能的對比和分析.

    3.6 上下文向量對比分析

    本文提出的KEG方法中構(gòu)建了上下文向量.為了驗證上下文向量對實驗結(jié)果的影響,本文在KEG的基礎(chǔ)上分別使用word2vec[32](記為KEG-word2vec),GloVe[41](記為KEG-GloVe),ELMo[42](記為KEG-ELMo)算法訓(xùn)練的詞向量替換上下文向量,與使用BERT構(gòu)建上下文向量的KEG進(jìn)行對比,實驗結(jié)果如表6所示.

    Table 6 Experimental Results of Constructing Word Vectors and Context Vectors表6 詞向量和上下文向量構(gòu)建方法的實驗結(jié)果 %

    根據(jù)實驗結(jié)果,使用BERT構(gòu)建上下文向量的KEG相對于使用word2vec訓(xùn)練詞向量的方法,在4個數(shù)據(jù)集上均有性能提升,F(xiàn)1值提升了5.2,1.4,2.9,4.3個百分點,準(zhǔn)確率提升了 4.4,2.2,1.8,3.0個百分點.原因在于,KEG-word2vec通過靜態(tài)查表的方式將每個詞轉(zhuǎn)化為對應(yīng)的詞向量,同一個詞在不同上下文中產(chǎn)生的詞向量相同;而KEG則利用BERT中的編碼器動態(tài)地根據(jù)上下文的內(nèi)容實時計算一個向量表示,具有更強(qiáng)的編碼能力.

    對比KEG-word2vec和KEG-GloVe可以發(fā)現(xiàn),這2個模型在4個數(shù)據(jù)集上的性能相差不多,F(xiàn)1值和準(zhǔn)確率的差距均不超過0.5個百分點.經(jīng)過分析,這2個模型相似,都采用了靜態(tài)查表轉(zhuǎn)化詞向量的方式,產(chǎn)生相同維度的詞向量,并在訓(xùn)練過程中對詞向量進(jìn)行微調(diào).

    若將BERT方法替換為ELMo方法構(gòu)建上下文向量,在4個數(shù)據(jù)集上的性能有所下降,F(xiàn)1值下降了3.0,0.4,1.5,1.5 個百分點,準(zhǔn)確率下降了 1.9,1.1,0.6,0.9個百分點.KEG與KEG-ELMo相比,使用的編碼器參數(shù)更多,產(chǎn)生的上下文向量維度更大,進(jìn)而有利于對上下文建模.

    3.7 詞級別義項知識對比分析

    為了驗證詞級別義項知識對實驗結(jié)果的影響,本文在KEG的基礎(chǔ)上去掉利用詞級別義項知識構(gòu)造的語義向量(記為KEG-NOS),實驗結(jié)果與KEG進(jìn)行對比,如表7所示:

    Table 7 Experimental Results of KEG With and Without Lexicon Word Sense Knowledge表7 KEG有無詞級別義項知識的實驗結(jié)果 %

    從表7分析可知,在KEG基礎(chǔ)上去掉利用詞級別義項知識構(gòu)造的語義向量,在4個數(shù)據(jù)集上都出現(xiàn)了性能下降,其中F1值下降了 8.4,2.7,4.4,3.0個百分點,準(zhǔn)確率下降了 4.0,0.7,0.8,2.8個百分點.由此可見,引入詞級別義項知識有助于隱喻識別.其原因在于,詞級別義項知識歸納了每個詞常用的幾種義項,并通過訓(xùn)練詞義向量的方式,將常用的義項編碼成向量.進(jìn)而通過注意力機(jī)制在當(dāng)前上下文環(huán)境下對各義項進(jìn)行加權(quán),利用義項知識對上下文表示進(jìn)行補(bǔ)充,具備更強(qiáng)的語境表現(xiàn)力,從而有助于隱喻識別的性能提升.

    3.8 細(xì)粒度句法知識對比分析

    本文提出的KEG方法中為了指導(dǎo)圖神經(jīng)網(wǎng)絡(luò)的信息傳遞,引入了細(xì)粒度句法知識來構(gòu)建信息圖.為了驗證細(xì)粒度句法知識對實驗結(jié)果的影響,本文設(shè)置了2組對比實驗:在第1組中,在KEG的基礎(chǔ)上,采用圖神經(jīng)網(wǎng)絡(luò)經(jīng)典應(yīng)用[11,33-34]中利用粗粒度句法知識的方法構(gòu)建信息圖(記為KEG-CSK);在第2組中,采用無向完全圖(undirected completed graph)作為信息圖(記為KEG-UCG),實驗結(jié)果對比如表8所示.

    由表8可見,對比KEG-CSK與KEG,利用粗粒度句法知識的方法構(gòu)建信息圖會在4個數(shù)據(jù)集上造成性能下降,其中F1值下降了 8.0,3.8,4.8,3.6個百分點,準(zhǔn)確率下降了 5.4,2.6,1.5,3.3個百分點.通過分析,相對于KEG-CSK,本文提出的KEG中利用細(xì)粒度句法知識涵蓋了更為細(xì)致的信息,即有向邊和細(xì)粒度的邊類型標(biāo)簽,并且通過KEG中的邊感注意力機(jī)制和邊綁定權(quán)重實現(xiàn)了在每次狀態(tài)傳遞中有向邊貢獻(xiàn)的計算,進(jìn)而從出、入2個視角分別計算了上下文表示向量,具有更強(qiáng)的語境建模能力,有助于提升隱喻識別性能.

    Table 8 Experimental Results of KEG With and Without Fine-Grained Syntactic Knowledge表8 KEG有無細(xì)粒度句法知識的實驗結(jié)果 %

    另一方面,通過對比KEG-CSK和KEG-UCG可以發(fā)現(xiàn),利用句法知識構(gòu)建信息圖比直接利用完全圖作為信息圖時的性能更好,F(xiàn)1值提升了1.6,0.9,0.6,1.0個百分點,準(zhǔn)確率提升了 0.7,0.8,0.7,1.2個百分點.經(jīng)過分析,利用完全圖作為信息圖時,由于沒有考慮到不同邊的貢獻(xiàn)可能不同,經(jīng)過多次狀態(tài)傳遞之后,各點的節(jié)點向量會趨于相似,喪失了其表示的獨立性.利用粗粒度句法信息構(gòu)建信息圖以先驗知識指導(dǎo)的形式對完全圖進(jìn)行剪枝,刪除了在狀態(tài)轉(zhuǎn)移中作用小的邊,保護(hù)了節(jié)點向量的獨立性,進(jìn)而產(chǎn)生了更好的性能.這證明了計算信息圖中邊貢獻(xiàn)的必要性和融入句法知識對性能提升的有效性.

    3.9 解碼方式對比分析

    本文提出的KEG方法中采用了條件隨機(jī)場作為解碼層.為了驗證解碼方式對實驗結(jié)果的影響,本文按照文獻(xiàn)[7]中提出的位置分類架構(gòu),在KEG的基礎(chǔ)上,將一個序列的解碼拆分成多次給定位置的預(yù)測(KEG-C).具體地,在單次給定位置的預(yù)測中,首先在模型的文本編碼層加入位置向量,并在解碼時采用注意力機(jī)制,針對給定位置計算了所有詞的最終節(jié)點向量的加權(quán)和,進(jìn)而利用類似式(19)的方式計算輸出分值進(jìn)行訓(xùn)練和測試.本節(jié)中將預(yù)測給定位置的KEG-C與序列解碼的KEG進(jìn)行對比,對比實驗結(jié)果如表9所示:

    Table 9 Experimental Results of Two Decoding Methods表9 2種解碼方式的實驗結(jié)果%

    從表9可以看出,利用序列解碼的KEG比預(yù)測給定位置的KEG-C在4個數(shù)據(jù)集上的性能方面稍顯優(yōu)勢,F(xiàn)1 值提升了 0.5,0.6,0.7,0.2個百分點,準(zhǔn)確率提升了 0.2,0.6,0.3,0.1個百分點.經(jīng)過分析,在訓(xùn)練時,KEG利用序列解碼的方式將序列標(biāo)簽作為整體進(jìn)行優(yōu)化,將多個位置的標(biāo)簽監(jiān)督信號聚合之后進(jìn)行梯度下降;而KEG-C中的預(yù)測給定位置的方式在優(yōu)化過程中顯得較為分散,所以可能需要更長的訓(xùn)練時間才能達(dá)到與KEG相似的性能.但是由于使用的數(shù)據(jù)集規(guī)模相同,僅僅延長訓(xùn)練時間可能會增大模型過擬合的風(fēng)險.因此,在這種情況下,采用序列解碼的方式有助于模型學(xué)習(xí)到更健壯的監(jiān)督信號,從而有助于隱喻識別.

    4 結(jié) 論

    本文提出一種基于知識增強(qiáng)的文本隱喻識別圖編碼方法.該方法包含3個部分,分別是文本編碼層、圖網(wǎng)絡(luò)層和解碼層.在文本編碼層,利用了預(yù)訓(xùn)練語言模型計算輸入文本的上下文向量,與通過skipgram和詞義消歧共同訓(xùn)練得到的詞義向量進(jìn)行拼接,融合了詞義項知識,增強(qiáng)了語義表示.在圖網(wǎng)絡(luò)層,相比于傳統(tǒng)圖神經(jīng)網(wǎng)絡(luò)建模文本的方法,構(gòu)造了引入細(xì)粒度句法知識的信息圖,并設(shè)計了邊感注意力機(jī)制和邊綁定權(quán)重計算細(xì)粒度上下文;結(jié)合圖循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行迭代式狀態(tài)傳遞,并通過多層之間參數(shù)共享的特性,降低了模型參數(shù),降低了過擬合的風(fēng)險,有助于有效建模復(fù)雜語境.在解碼層,利用了條件隨機(jī)場對序列標(biāo)簽進(jìn)行計算.實驗證明,本文提出的方法在4個國際公開數(shù)據(jù)集上性能均有提升.

    作者貢獻(xiàn)聲明:黃河燕指導(dǎo)并修改論文;劉嘯提出了算法思路和實驗方案,完成實驗并撰寫論文;劉茜提出算法和方案指導(dǎo)意見并修改論文.

    猜你喜歡
    細(xì)粒度義項句法
    “玄”“懸”二字含義不同
    鄉(xiāng)音(2024年12期)2024-12-31 00:00:00
    融合判別性與細(xì)粒度特征的抗遮擋紅外目標(biāo)跟蹤算法
    句法與句意(外一篇)
    中華詩詞(2021年3期)2021-12-31 08:07:22
    述謂結(jié)構(gòu)與英語句法配置
    細(xì)粒度的流計算執(zhí)行效率優(yōu)化方法
    句法二題
    中華詩詞(2018年3期)2018-08-01 06:40:40
    詩詞聯(lián)句句法梳理
    中華詩詞(2018年11期)2018-03-26 06:41:32
    基于雙線性卷積網(wǎng)絡(luò)的細(xì)粒度圖像定位
    小心兩用成語中的冷義項
    支持細(xì)粒度權(quán)限控制且可搜索的PHR云服務(wù)系統(tǒng)
    国产一区亚洲一区在线观看| 日本av手机在线免费观看| 青春草亚洲视频在线观看| 六月丁香七月| 久久精品久久久久久久性| 别揉我奶头 嗯啊视频| 91精品一卡2卡3卡4卡| 成年女人看的毛片在线观看| 美女国产视频在线观看| 亚洲高清免费不卡视频| 亚洲人成网站在线播| 国产成人午夜福利电影在线观看| 91久久精品电影网| 深夜精品福利| 国产成人影院久久av| 国产美女午夜福利| 精品国内亚洲2022精品成人| 在线天堂最新版资源| 亚洲成人中文字幕在线播放| 亚洲无线在线观看| 久99久视频精品免费| 国内久久婷婷六月综合欲色啪| 亚洲欧美成人精品一区二区| 欧美又色又爽又黄视频| 亚洲精品国产成人久久av| 一级毛片我不卡| 干丝袜人妻中文字幕| 欧美潮喷喷水| 国内精品美女久久久久久| 久久精品久久久久久噜噜老黄 | 成人午夜高清在线视频| 欧美丝袜亚洲另类| 国产精品人妻久久久久久| 熟女电影av网| 草草在线视频免费看| 国产精品精品国产色婷婷| 免费观看的影片在线观看| 亚洲精品456在线播放app| 成人一区二区视频在线观看| ponron亚洲| 国产成人91sexporn| 一个人免费在线观看电影| 熟女人妻精品中文字幕| 可以在线观看毛片的网站| 夫妻性生交免费视频一级片| 精品一区二区免费观看| 午夜福利在线观看吧| 成人鲁丝片一二三区免费| 免费一级毛片在线播放高清视频| 身体一侧抽搐| 有码 亚洲区| 18禁裸乳无遮挡免费网站照片| 中出人妻视频一区二区| 内射极品少妇av片p| 日韩人妻高清精品专区| 国产一区二区激情短视频| 毛片女人毛片| 精品久久久久久久久久久久久| 日韩成人伦理影院| 欧美日本亚洲视频在线播放| 久久久久久久久大av| 国产av在哪里看| 性欧美人与动物交配| 色视频www国产| 国产乱人偷精品视频| 国产欧美日韩精品一区二区| 久久久久久久久久成人| 人人妻人人澡人人爽人人夜夜 | 欧美又色又爽又黄视频| 亚洲乱码一区二区免费版| 夫妻性生交免费视频一级片| 在线a可以看的网站| 全区人妻精品视频| 亚洲激情五月婷婷啪啪| 久久99精品国语久久久| eeuss影院久久| 久久中文看片网| 九九热线精品视视频播放| 校园人妻丝袜中文字幕| 国产精品久久视频播放| 午夜免费激情av| 99在线视频只有这里精品首页| 亚洲欧美日韩卡通动漫| 国内精品一区二区在线观看| 久久亚洲国产成人精品v| 久久久久国产网址| 三级国产精品欧美在线观看| 午夜福利在线在线| 哪个播放器可以免费观看大片| 亚洲欧洲国产日韩| 亚洲av熟女| 18禁在线无遮挡免费观看视频| 午夜爱爱视频在线播放| 成人性生交大片免费视频hd| 久久精品夜色国产| 免费观看精品视频网站| 边亲边吃奶的免费视频| 淫秽高清视频在线观看| 三级毛片av免费| av专区在线播放| 一进一出抽搐gif免费好疼| 黑人高潮一二区| 禁无遮挡网站| 观看免费一级毛片| 国产免费一级a男人的天堂| 在线免费观看的www视频| 日韩欧美精品免费久久| 精品久久久噜噜| 国产午夜福利久久久久久| 亚洲一级一片aⅴ在线观看| 中文字幕熟女人妻在线| 高清日韩中文字幕在线| 国产乱人偷精品视频| 国产单亲对白刺激| 中文在线观看免费www的网站| 免费一级毛片在线播放高清视频| 成人高潮视频无遮挡免费网站| 小说图片视频综合网站| 国产爱豆传媒在线观看| 亚洲欧美日韩无卡精品| 99久久中文字幕三级久久日本| 狂野欧美激情性xxxx在线观看| 日韩av在线大香蕉| 麻豆成人午夜福利视频| 亚洲欧美精品综合久久99| 青春草视频在线免费观看| 亚洲一区二区三区色噜噜| 国产国拍精品亚洲av在线观看| 一本一本综合久久| 欧美潮喷喷水| 国产真实伦视频高清在线观看| 国产精品女同一区二区软件| 亚洲久久久久久中文字幕| 免费无遮挡裸体视频| 国产精品av视频在线免费观看| 免费搜索国产男女视频| 亚洲不卡免费看| 变态另类成人亚洲欧美熟女| АⅤ资源中文在线天堂| 日本撒尿小便嘘嘘汇集6| 亚洲,欧美,日韩| 少妇人妻一区二区三区视频| 久久午夜福利片| 精品久久久久久久久久久久久| 国产精品久久久久久久电影| 成人特级av手机在线观看| 午夜激情福利司机影院| 国产伦一二天堂av在线观看| 国产精品av视频在线免费观看| 最后的刺客免费高清国语| 国产综合懂色| 色哟哟哟哟哟哟| 国产成人福利小说| 女的被弄到高潮叫床怎么办| 高清午夜精品一区二区三区 | 99久国产av精品| 国产伦在线观看视频一区| 91aial.com中文字幕在线观看| 日本免费a在线| 如何舔出高潮| 天堂中文最新版在线下载 | 夜夜夜夜夜久久久久| 中国美白少妇内射xxxbb| 91av网一区二区| 免费搜索国产男女视频| 成人欧美大片| 五月伊人婷婷丁香| 老司机影院成人| 小蜜桃在线观看免费完整版高清| avwww免费| 99riav亚洲国产免费| 国产在线精品亚洲第一网站| 人人妻人人澡欧美一区二区| 高清毛片免费观看视频网站| 久久久久久久久中文| 深夜a级毛片| 少妇猛男粗大的猛烈进出视频 | 国内揄拍国产精品人妻在线| 在线免费观看的www视频| 免费人成视频x8x8入口观看| 亚洲图色成人| 亚洲精品自拍成人| 性插视频无遮挡在线免费观看| 男女那种视频在线观看| 午夜福利在线在线| 六月丁香七月| 看黄色毛片网站| 国产午夜精品久久久久久一区二区三区| 舔av片在线| 日韩欧美在线乱码| 亚洲精品国产成人久久av| 插逼视频在线观看| 日韩成人av中文字幕在线观看| 成人亚洲精品av一区二区| 变态另类成人亚洲欧美熟女| 国内精品宾馆在线| av.在线天堂| 国产淫片久久久久久久久| 深爱激情五月婷婷| av在线天堂中文字幕| 国产精品人妻久久久影院| 黄片无遮挡物在线观看| 熟女电影av网| 国产av在哪里看| 久久久久久伊人网av| 九九热线精品视视频播放| 久久久久精品性色| 亚洲性久久影院| 亚洲美女视频黄频| 午夜激情福利司机影院| 国产成人午夜福利电影在线观看| 亚洲精品456在线播放app| 免费观看无遮挡的男女| 国产视频首页在线观看| 精品久久久久久电影网| 亚洲精品自拍成人| 美女脱内裤让男人舔精品视频| 在线天堂最新版资源| 肉色欧美久久久久久久蜜桃| 另类亚洲欧美激情| 十八禁高潮呻吟视频| 久久人人爽人人片av| 最近手机中文字幕大全| 亚洲精品久久午夜乱码| 自拍欧美九色日韩亚洲蝌蚪91| 国产 一区精品| 永久免费av网站大全| 99国产综合亚洲精品| 国产又色又爽无遮挡免| 中文字幕人妻熟人妻熟丝袜美| 嘟嘟电影网在线观看| 九色亚洲精品在线播放| av女优亚洲男人天堂| 美女福利国产在线| 成人漫画全彩无遮挡| 亚洲精品乱久久久久久| 国产极品粉嫩免费观看在线 | 国产深夜福利视频在线观看| 美女福利国产在线| 免费av中文字幕在线| 精品人妻熟女毛片av久久网站| 国产深夜福利视频在线观看| 18禁动态无遮挡网站| 999精品在线视频| 热re99久久精品国产66热6| 一级黄片播放器| 最近的中文字幕免费完整| 麻豆精品久久久久久蜜桃| 韩国av在线不卡| 欧美亚洲日本最大视频资源| 99热这里只有是精品在线观看| 麻豆精品久久久久久蜜桃| 九九爱精品视频在线观看| 涩涩av久久男人的天堂| 丝袜喷水一区| 亚洲国产精品999| 尾随美女入室| 亚洲av二区三区四区| 亚洲成人av在线免费| 亚洲中文av在线| 伊人久久精品亚洲午夜| 黄色配什么色好看| 免费av不卡在线播放| 大香蕉久久网| 99视频精品全部免费 在线| 寂寞人妻少妇视频99o| 亚洲精品aⅴ在线观看| 纵有疾风起免费观看全集完整版| 22中文网久久字幕| 黄片无遮挡物在线观看| 国产一区二区在线观看日韩| 色婷婷av一区二区三区视频| 国产男人的电影天堂91| 亚洲国产欧美在线一区| 草草在线视频免费看| 精品国产乱码久久久久久小说| 高清午夜精品一区二区三区| 黄色一级大片看看| 精品一区二区三卡| 久热这里只有精品99| 中文字幕人妻熟人妻熟丝袜美| av专区在线播放| 精品一区二区三卡| 国产日韩欧美亚洲二区| 下体分泌物呈黄色| 性色avwww在线观看| 国产精品人妻久久久影院| 美女国产视频在线观看| 菩萨蛮人人尽说江南好唐韦庄| 青青草视频在线视频观看| 91久久精品国产一区二区成人| 我的女老师完整版在线观看| 最新中文字幕久久久久| 久久99一区二区三区| 久久鲁丝午夜福利片| 国产成人freesex在线| 97超碰精品成人国产| 精品久久久噜噜| 久久久a久久爽久久v久久| 麻豆乱淫一区二区| 亚洲国产欧美在线一区| 黑人高潮一二区| 日韩成人av中文字幕在线观看| 狂野欧美白嫩少妇大欣赏| 在线观看人妻少妇| 日韩欧美一区视频在线观看| 91精品三级在线观看| 永久免费av网站大全| 少妇丰满av| 亚洲情色 制服丝袜| 热99国产精品久久久久久7| 纯流量卡能插随身wifi吗| 考比视频在线观看| 免费高清在线观看日韩| 国产午夜精品久久久久久一区二区三区| 中文精品一卡2卡3卡4更新| 国产高清有码在线观看视频| 欧美 亚洲 国产 日韩一| 亚洲精品456在线播放app| 久久婷婷青草| 高清午夜精品一区二区三区| 视频区图区小说| 国产日韩一区二区三区精品不卡 | a级毛片黄视频| 久久精品国产鲁丝片午夜精品| 国产成人freesex在线| 91国产中文字幕| 大片电影免费在线观看免费| 少妇猛男粗大的猛烈进出视频| 在线观看www视频免费| 秋霞伦理黄片| 久久99一区二区三区| 日韩中文字幕视频在线看片| 国产成人a∨麻豆精品| 国产精品国产三级国产专区5o| 人妻 亚洲 视频| 伊人亚洲综合成人网| 精品久久久久久久久亚洲| 少妇人妻 视频| 99久久综合免费| 久久久久久久国产电影| 少妇的逼水好多| 精品熟女少妇av免费看| 亚洲色图 男人天堂 中文字幕 | 亚洲精品一二三| 狠狠婷婷综合久久久久久88av| 精品国产乱码久久久久久小说| 久久久精品94久久精品| 丰满少妇做爰视频| 在线亚洲精品国产二区图片欧美 | 国产精品秋霞免费鲁丝片| 亚洲av电影在线观看一区二区三区| 国产精品久久久久久精品电影小说| 国产精品麻豆人妻色哟哟久久| 亚洲人成77777在线视频| 日韩伦理黄色片| 国产精品女同一区二区软件| 啦啦啦啦在线视频资源| h视频一区二区三区| 免费高清在线观看日韩| 久久久久精品久久久久真实原创| 青青草视频在线视频观看| 亚洲精品成人av观看孕妇| 国产高清三级在线| 最近中文字幕2019免费版| 国产一区二区在线观看av| 美女内射精品一级片tv| 亚洲精品中文字幕在线视频| 天天影视国产精品| 国产av精品麻豆| 亚洲国产av新网站| 国产精品女同一区二区软件| 秋霞在线观看毛片| 午夜免费男女啪啪视频观看| 国产精品久久久久久久电影| 日韩不卡一区二区三区视频在线| 黑人欧美特级aaaaaa片| 日韩免费高清中文字幕av| 午夜影院在线不卡| 国产av码专区亚洲av| 我的女老师完整版在线观看| 亚洲精品av麻豆狂野| 丰满饥渴人妻一区二区三| 岛国毛片在线播放| 国产极品粉嫩免费观看在线 | 下体分泌物呈黄色| 久久精品熟女亚洲av麻豆精品| 日韩av不卡免费在线播放| 国产精品免费大片| 亚洲欧美日韩另类电影网站| 国产成人午夜福利电影在线观看| 中文天堂在线官网| 多毛熟女@视频| 国产精品久久久久久精品古装| 国产毛片在线视频| 搡女人真爽免费视频火全软件| 国产高清国产精品国产三级| 少妇人妻精品综合一区二区| 午夜影院在线不卡| av播播在线观看一区| 日韩欧美精品免费久久| 日本91视频免费播放| 九草在线视频观看| 精品久久久久久电影网| 能在线免费看毛片的网站| 久久精品国产a三级三级三级| 国产在线视频一区二区| 日韩不卡一区二区三区视频在线| 午夜老司机福利剧场| 黑人巨大精品欧美一区二区蜜桃 | 丝袜喷水一区| 欧美三级亚洲精品| 丁香六月天网| 国产欧美日韩一区二区三区在线 | 精品久久久久久电影网| 卡戴珊不雅视频在线播放| 久久国产精品男人的天堂亚洲 | videosex国产| 亚洲欧美成人综合另类久久久| 一本久久精品| 亚洲少妇的诱惑av| 天天操日日干夜夜撸| 欧美另类一区| 美女视频免费永久观看网站| 午夜免费男女啪啪视频观看| 午夜日本视频在线| 亚洲色图综合在线观看| 亚洲国产精品国产精品| 色网站视频免费| 欧美精品国产亚洲| 国产视频内射| 欧美日韩综合久久久久久| 2018国产大陆天天弄谢| 免费黄色在线免费观看| 精品人妻熟女毛片av久久网站| 最黄视频免费看| 亚洲,一卡二卡三卡| 极品少妇高潮喷水抽搐| 亚洲欧美一区二区三区黑人 | av黄色大香蕉| 亚洲精品乱码久久久久久按摩| 国产男女内射视频| 建设人人有责人人尽责人人享有的| 亚洲精华国产精华液的使用体验| 亚洲精品视频女| 久久精品久久精品一区二区三区| 香蕉精品网在线| 精品人妻偷拍中文字幕| 99九九线精品视频在线观看视频| 欧美丝袜亚洲另类| 欧美人与善性xxx| 日本色播在线视频| 成人影院久久| 美女视频免费永久观看网站| 国产有黄有色有爽视频| 精品午夜福利在线看| 99国产精品免费福利视频| 久久精品熟女亚洲av麻豆精品| 亚洲av中文av极速乱| 激情五月婷婷亚洲| 日日啪夜夜爽| 天天躁夜夜躁狠狠久久av| 青春草亚洲视频在线观看| 亚洲国产精品国产精品| 久久免费观看电影| 国产高清国产精品国产三级| 黑人巨大精品欧美一区二区蜜桃 | 午夜免费男女啪啪视频观看| 亚洲伊人久久精品综合| 亚洲五月色婷婷综合| 成年人免费黄色播放视频| 亚州av有码| 秋霞在线观看毛片| 成人免费观看视频高清| 午夜久久久在线观看| 久热久热在线精品观看| 成年美女黄网站色视频大全免费 | 男人添女人高潮全过程视频| 超色免费av| 中文字幕精品免费在线观看视频 | 又黄又爽又刺激的免费视频.| 日产精品乱码卡一卡2卡三| 插阴视频在线观看视频| 另类亚洲欧美激情| 精品一区二区免费观看| 简卡轻食公司| 久久久国产精品麻豆| 成人影院久久| 亚洲第一av免费看| 69精品国产乱码久久久| 亚洲四区av| 国产在线视频一区二区| 啦啦啦在线观看免费高清www| 亚洲国产欧美日韩在线播放| 我的老师免费观看完整版| 午夜免费鲁丝| 成年女人在线观看亚洲视频| 色婷婷av一区二区三区视频| 丰满饥渴人妻一区二区三| 寂寞人妻少妇视频99o| 精品少妇内射三级| 国产又色又爽无遮挡免| 亚洲精品乱久久久久久| 精品99又大又爽又粗少妇毛片| 亚洲激情五月婷婷啪啪| 一区二区三区乱码不卡18| 欧美激情极品国产一区二区三区 | xxx大片免费视频| 在线亚洲精品国产二区图片欧美 | 黄色视频在线播放观看不卡| .国产精品久久| 日日爽夜夜爽网站| 午夜福利,免费看| 97在线视频观看| 免费人成在线观看视频色| 我的女老师完整版在线观看| 97在线人人人人妻| 日本与韩国留学比较| 精品久久久精品久久久| 国产探花极品一区二区| av一本久久久久| 欧美一级a爱片免费观看看| 亚洲欧洲国产日韩| 久久精品夜色国产| 亚洲第一区二区三区不卡| xxxhd国产人妻xxx| 少妇被粗大的猛进出69影院 | 黄色一级大片看看| 亚洲国产av新网站| 精品一区二区三区视频在线| 国产成人精品在线电影| 在线观看美女被高潮喷水网站| 日韩电影二区| 久久精品久久久久久噜噜老黄| 欧美日韩国产mv在线观看视频| 高清视频免费观看一区二区| 国产一区亚洲一区在线观看| 久久精品夜色国产| 中文字幕人妻丝袜制服| 在线观看免费高清a一片| 国产毛片在线视频| 91久久精品国产一区二区三区| 免费黄频网站在线观看国产| 日本wwww免费看| 久热久热在线精品观看| 18在线观看网站| 狂野欧美激情性bbbbbb| 两个人的视频大全免费| 亚洲精品国产av成人精品| 老司机影院毛片| 国产综合精华液| 中国美白少妇内射xxxbb| 色哟哟·www| 男女无遮挡免费网站观看| 国产一区亚洲一区在线观看| 午夜精品国产一区二区电影| 如日韩欧美国产精品一区二区三区 | 国产成人精品无人区| 国产在视频线精品| 久久精品人人爽人人爽视色| 亚洲,一卡二卡三卡| 日日摸夜夜添夜夜添av毛片| 午夜久久久在线观看| 亚洲第一av免费看| 99久久中文字幕三级久久日本| 乱人伦中国视频| 人人妻人人澡人人看| 九九爱精品视频在线观看| 亚洲熟女精品中文字幕| 三级国产精品片| 日韩人妻高清精品专区| 2021少妇久久久久久久久久久| 高清午夜精品一区二区三区| 大片免费播放器 马上看| 国产白丝娇喘喷水9色精品| 91在线精品国自产拍蜜月| 久久久久久久久久成人| 久久ye,这里只有精品| 国产av一区二区精品久久| 日韩av免费高清视频| 日韩精品免费视频一区二区三区 | 久久精品人人爽人人爽视色| av国产精品久久久久影院| 日韩成人伦理影院| 99九九线精品视频在线观看视频| 久久久欧美国产精品| 丰满乱子伦码专区| 日韩一区二区视频免费看| 国产成人精品婷婷| 一级毛片aaaaaa免费看小| 国产成人精品婷婷| 亚洲丝袜综合中文字幕| 亚洲av在线观看美女高潮| 街头女战士在线观看网站| 啦啦啦啦在线视频资源| 超色免费av| 亚洲精品456在线播放app| 哪个播放器可以免费观看大片| 亚洲成人一二三区av| 欧美人与性动交α欧美精品济南到 | 久久久久网色| 日韩在线高清观看一区二区三区| 人人妻人人澡人人看| 啦啦啦啦在线视频资源| 免费观看在线日韩| 美女内射精品一级片tv| 欧美老熟妇乱子伦牲交| 亚洲av.av天堂| 美女视频免费永久观看网站| 国产精品.久久久| 日本猛色少妇xxxxx猛交久久| 久久精品国产鲁丝片午夜精品| 中国三级夫妇交换| 老女人水多毛片| 一级片'在线观看视频|