• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合小句對(duì)齊知識(shí)的漢英神經(jīng)機(jī)器翻譯

    2022-02-21 08:25:24苗國(guó)義劉明童陳鈺楓徐金安張玉潔馮文賀
    關(guān)鍵詞:源端小句漢英

    苗國(guó)義 劉明童 陳鈺楓 徐金安,? 張玉潔 馮文賀

    融合小句對(duì)齊知識(shí)的漢英神經(jīng)機(jī)器翻譯

    苗國(guó)義1劉明童2陳鈺楓1徐金安1,?張玉潔1馮文賀3

    1.北京交通大學(xué)計(jì)算機(jī)與信息技術(shù)學(xué)院, 北京 100044; 2.創(chuàng)新工場(chǎng)人工智能工程院, 北京 100080; 3.廣東外語(yǔ)外貿(mào)大學(xué)語(yǔ)言工程與計(jì)算實(shí)驗(yàn)室, 廣州 510420; ?通信作者, E-mail: jaxu@bjtu.edu.cn

    針對(duì)當(dāng)前神經(jīng)機(jī)器翻譯在捕捉復(fù)雜句內(nèi)小句間的語(yǔ)義和結(jié)構(gòu)關(guān)系方面存在不足, 導(dǎo)致復(fù)雜句長(zhǎng)文本翻譯的篇章連貫性不佳的問(wèn)題, 提出一種融合小句對(duì)齊知識(shí)的漢英神經(jīng)機(jī)器翻譯方法。首先提出手工和自動(dòng)相結(jié)合的標(biāo)注方案, 構(gòu)建大規(guī)模小句對(duì)齊的漢英平行語(yǔ)料庫(kù), 為模型訓(xùn)練提供豐富的小句級(jí)別的漢英雙語(yǔ)對(duì)齊知識(shí); 然后設(shè)計(jì)一種基于小句對(duì)齊學(xué)習(xí)的神經(jīng)機(jī)器翻譯模型, 通過(guò)融合小句對(duì)齊知識(shí), 增強(qiáng)模型學(xué)習(xí)復(fù)雜句內(nèi)小句間語(yǔ)義結(jié)構(gòu)關(guān)系的能力。在 WMT17, WMT18 和 WMT19 漢英翻譯任務(wù)中的實(shí)驗(yàn)表明, 所提出的方法可以有效地提升神經(jīng)機(jī)器翻譯的性能。進(jìn)一步的評(píng)測(cè)分析顯示, 所提方法能有效地提高漢英神經(jīng)機(jī)器翻譯在復(fù)雜句翻譯上的篇章連貫性。

    神經(jīng)機(jī)器翻譯; 小句對(duì)齊; 結(jié)構(gòu)關(guān)系; 篇章連貫性

    當(dāng)前, 機(jī)器翻譯模型一般基于平行的對(duì)齊語(yǔ)料建模[1-5], 模型依賴(lài)學(xué)習(xí)單語(yǔ)詞與詞之間的語(yǔ)義關(guān)聯(lián)以及雙語(yǔ)間詞語(yǔ)語(yǔ)義的對(duì)齊信息, 將一種語(yǔ)言翻譯為另一種語(yǔ)言, 特別地, 神經(jīng)機(jī)器翻譯通過(guò)注意力機(jī)制自動(dòng)學(xué)習(xí)對(duì)齊信息, 展示出優(yōu)越的性能。然而, 由于現(xiàn)有平行語(yǔ)料缺少小句(clause)級(jí)別的對(duì)齊信息, 使得模型難以自動(dòng)學(xué)習(xí)和獲取篇章結(jié)構(gòu)信息, 以致在翻譯復(fù)雜句時(shí)往往性能較低。

    近年來(lái), 神經(jīng)機(jī)器翻譯在上下文信息表示和學(xué)習(xí)方面取得很大的進(jìn)展。Jean 等[6]和 Zhang 等[7]引入額外編碼器模塊, 對(duì)更大的上下文進(jìn)行編碼, 并分別應(yīng)用在基于 RNN 和 Transformer 的神經(jīng)翻譯模型中。Miculicich 等[8]利用層次注意力結(jié)構(gòu)模型, 通過(guò)詞級(jí)和句子級(jí)分層注意力表示, 融合多個(gè)上下文, 并提高句子的語(yǔ)義表示能力。Shi 等[9]利用對(duì)抗學(xué)習(xí)方法來(lái)提高句子表示以及雙語(yǔ)對(duì)齊學(xué)習(xí)能力。最近, Bao 等[10]提出 G-Transformer 模型, 把整個(gè)篇章信息融入句子的表示中來(lái)提高對(duì)長(zhǎng)文本語(yǔ)義的理解和翻譯。然而, 只通過(guò)增加上下文信息不能有效地解決篇章翻譯連貫性等問(wèn)題。從理論上看, 篇章一般以小句而非大句(sentence)為基礎(chǔ)單位。從雙語(yǔ)差異來(lái)看, 雙語(yǔ)的篇章差異集中在復(fù)雜句層面。從漢英翻譯來(lái)看, 雙語(yǔ)的主從句差異、連接詞差異和指代差異等集中體現(xiàn)在復(fù)雜句層面[11-12]。

    圖 1 給出一個(gè)漢英復(fù)雜句錯(cuò)譯的例子。一個(gè)由多個(gè)小句構(gòu)成的復(fù)雜中文長(zhǎng)句被當(dāng)前性能世界一流的谷歌神經(jīng)翻譯系統(tǒng)翻譯成多個(gè)孤立小句, 小句間的邏輯語(yǔ)義關(guān)系嚴(yán)重偏離源語(yǔ)言句子的表達(dá)。例如, 人工譯文中由“although”引導(dǎo)的主從結(jié)構(gòu)關(guān)系被機(jī)器錯(cuò)誤地翻譯成由“and”和“but”引導(dǎo)的并列結(jié)構(gòu)關(guān)系。圖 1 的例子清楚地表明, 目前神經(jīng)機(jī)器翻譯無(wú)法有效地捕捉復(fù)雜句語(yǔ)境下小句間的篇章結(jié)構(gòu)關(guān)系以及源語(yǔ)言與目標(biāo)語(yǔ)言之間的篇章結(jié)構(gòu)對(duì)齊知識(shí)。小句是語(yǔ)篇中基本的篇章結(jié)構(gòu)單位[13], 基于小句的學(xué)習(xí)對(duì)機(jī)器翻譯有重要的意義[11-12], 但當(dāng)前的神經(jīng)機(jī)器翻譯研究并沒(méi)有關(guān)注這一點(diǎn)。

    針對(duì)以上問(wèn)題, 本文提出一種融合小句對(duì)齊知識(shí)的漢英神經(jīng)機(jī)器翻譯方法。在數(shù)據(jù)層面, 針對(duì)訓(xùn)練數(shù)據(jù)稀缺的問(wèn)題, 我們標(biāo)注了 4M 句對(duì)基于小句對(duì)齊的漢英復(fù)雜句平行語(yǔ)料, 將漢英雙語(yǔ)小句對(duì)齊知識(shí)顯式地標(biāo)注于平行語(yǔ)料庫(kù)中, 為模型訓(xùn)練提供豐富的小句級(jí)別的結(jié)構(gòu)對(duì)齊知識(shí)。在模型層面, 我們?cè)O(shè)計(jì)一種基于小句對(duì)齊學(xué)習(xí)的神經(jīng)機(jī)器翻譯模型, 通過(guò)增強(qiáng)源端基于小句成分的句子語(yǔ)義表示, 以及增強(qiáng)源端和目標(biāo)端小句對(duì)齊學(xué)習(xí)來(lái)有效地融合小句對(duì)齊知識(shí), 鼓勵(lì)模型學(xué)習(xí)復(fù)雜句內(nèi)小句間的語(yǔ)義結(jié)構(gòu)信息, 提高模型對(duì)復(fù)雜句長(zhǎng)文本翻譯的篇章連貫性和銜接性。

    1 基于小句對(duì)齊的漢英平行語(yǔ)料庫(kù)構(gòu)建方法

    本文采用標(biāo)注式建模方式, 從 WMT 公開(kāi)數(shù)據(jù)集中抽取 4M 對(duì)復(fù)雜句對(duì)。首先采用人工方式標(biāo)注小規(guī)模語(yǔ)料, 然后訓(xùn)練模型自動(dòng)對(duì)復(fù)雜句對(duì)進(jìn)行大規(guī)模標(biāo)注, 形成大規(guī)模基于小句對(duì)齊的漢英平行語(yǔ)料, 為神經(jīng)機(jī)器翻譯模型提供顯式漢英小句對(duì)齊知識(shí)。我們參考馮文賀[11]的小句切分與對(duì)齊方案, 采用“源語(yǔ)優(yōu)先”的對(duì)齊策略, 首先按既定的漢語(yǔ)基本篇章單位進(jìn)行切分, 然后參考漢語(yǔ)切分結(jié)果切分英語(yǔ)小句, 并進(jìn)行漢英小句對(duì)齊。為獲得自動(dòng)標(biāo)注的大規(guī)模語(yǔ)料, 先進(jìn)行小規(guī)模的人工標(biāo)注, 手工標(biāo)注 10 萬(wàn)對(duì)復(fù)雜句的小句切分和對(duì)齊信息, 在其上進(jìn)行模型訓(xùn)練和方法驗(yàn)證。然后, 用本文方法進(jìn)行其余所有數(shù)據(jù)的自動(dòng)標(biāo)注。

    1.1 基于序列標(biāo)注的漢英小句識(shí)別方法

    小句識(shí)別任務(wù)也稱(chēng)為基本語(yǔ)篇單位(elementary discourse unit, EDU)識(shí)別。受 Li 等[14]的啟發(fā), 本文采用基于 Bi-LSTM-CRF 的序列標(biāo)注模型來(lái)識(shí)別和切分漢英小句。我們把小句識(shí)別視為序列標(biāo)注任務(wù), 從而實(shí)現(xiàn)小句邊界的自動(dòng)識(shí)別。如果一個(gè)詞在小句的結(jié)束位置, 則定義該詞標(biāo)簽為“Y”; 如果一個(gè)詞在小句內(nèi)部, 但不在小句結(jié)束位置, 則定義該詞標(biāo)簽為“N”。針對(duì)模型設(shè)計(jì), 我們充分考慮詞的詞性特征和句法特征對(duì)小句邊界的影響。首先, 利用斯坦福句法分析器 Stanford CoreNLP[15]獲取輸入句子中每個(gè)詞的詞性(part of speech, POS)特征和句法特征, 其中句法特征由父結(jié)點(diǎn)短語(yǔ)標(biāo)記表示; 然后, 把預(yù)訓(xùn)練所得的詞向量和詞性以及句法特征向量相加, 送入雙向 LSTM (Bi-LSTM)[16]層去學(xué)習(xí)詞的上下文特征表示; 最后, Bi-LSTM 輸出結(jié)果被送入 CRF[17]層, 做二分類(lèi)來(lái)預(yù)測(cè)當(dāng)前詞是否屬于小句的邊界。將此模型用在本文手工標(biāo)注的 10 萬(wàn)句對(duì)數(shù)據(jù)上, 為測(cè)試算法的準(zhǔn)確性, 將數(shù)據(jù)集分成 10份, 輪流將其中 9 份作為訓(xùn)練數(shù)據(jù), 1 份作為測(cè)試數(shù)據(jù)。對(duì) 10 萬(wàn)句對(duì)數(shù)據(jù)進(jìn)行 10 次 10 折交叉驗(yàn)證, 經(jīng)過(guò)對(duì)每個(gè)可能切分的位置進(jìn)行判斷, 中文小句識(shí)別效果達(dá)到=92.0,=93.6, F1=92.8, 英文小句的識(shí)別效果達(dá)到=94.6,=93.0, F1=93.8。

    圖1 漢英神經(jīng)機(jī)器翻譯復(fù)雜句錯(cuò)譯的示例

    1.2 基于詞對(duì)齊學(xué)習(xí)的漢英小句對(duì)齊方法

    漢英小句識(shí)別完成后, 需要做漢英小句對(duì)齊, 并為每個(gè)小句打上對(duì)齊標(biāo)簽和序號(hào)。傳統(tǒng)的句對(duì)齊方法包括基于長(zhǎng)度特征、詞匯特征和位置特征等方法。本文采用 Ding 等[18]提出的基于詞匯特征的句對(duì)齊方法, 把雙語(yǔ)詞對(duì)齊知識(shí)融入漢英小句對(duì)齊模型。我們先使用基于統(tǒng)計(jì)的詞對(duì)齊工具 Giza++[19], 在大規(guī)模漢英平行語(yǔ)料上學(xué)習(xí)到一個(gè)雙語(yǔ)對(duì)齊詞典。然后設(shè)計(jì)一個(gè)由兩個(gè)雙向 RNN (Bi-directional RNN)[20]構(gòu)成的編碼器。對(duì)漢英句對(duì)上每個(gè)詞x在雙語(yǔ)詞典中查找其對(duì)齊詞y, 這樣源語(yǔ)小句和目標(biāo)語(yǔ)小句都會(huì)產(chǎn)生一個(gè)對(duì)應(yīng)的對(duì)齊詞匯序列。把源語(yǔ)小句和目標(biāo)語(yǔ)小句每個(gè)詞與其對(duì)齊詞的詞向量拼接后, 送入編碼器的兩個(gè)雙向 RNN 進(jìn)行訓(xùn)練。利用余弦距離, 計(jì)算源語(yǔ)與目標(biāo)語(yǔ)小句間的語(yǔ)義相關(guān)度矩陣。語(yǔ)義相關(guān)度矩陣經(jīng)過(guò)最大池化, 轉(zhuǎn)換成一個(gè)向量, 并被送入多層感知機(jī), 最終預(yù)測(cè)兩個(gè)小句是否對(duì)齊。為提高漢英小句對(duì)齊精度, 在對(duì)齊模型預(yù)測(cè)的基礎(chǔ)上, 本文也加入基于小句長(zhǎng)度特征和位置特征的輔助判斷機(jī)制。通過(guò)對(duì)本文手工標(biāo)注的 10萬(wàn)句對(duì)數(shù)據(jù)進(jìn)行 10 次 10 折交叉驗(yàn)證測(cè)試, 漢英小句對(duì)齊效果達(dá)到=91.4,=89.8, F1=90.6。

    圖2 給出一個(gè)漢英小句對(duì)齊的標(biāo)注示例。源和目標(biāo)句子都是由多個(gè)小句構(gòu)成的小句復(fù)合體(復(fù)雜句), 復(fù)雜句內(nèi)不同小句由標(biāo)號(hào)切分開(kāi), 漢英小句通過(guò)相同的標(biāo)號(hào)對(duì)齊。由圖 2 可見(jiàn), 標(biāo)點(diǎn)并不是小句切分的唯一依據(jù), 通常是依據(jù)詞之間的語(yǔ)義關(guān)聯(lián)切分小句。

    本文通過(guò)以上標(biāo)注方法, 采用手工和自動(dòng)相結(jié)合的方式, 將小句對(duì)齊知識(shí)顯式地標(biāo)注在 4M 句對(duì)復(fù)雜句平行語(yǔ)料中, 為漢英神經(jīng)機(jī)器翻譯提供豐富的蘊(yùn)含小句結(jié)構(gòu)對(duì)齊知識(shí)的訓(xùn)練數(shù)據(jù)。另外, 平行語(yǔ)料中所選擇的每條復(fù)雜句都是多個(gè)小句的復(fù)合體, 可以視為具有完整小句關(guān)聯(lián)結(jié)構(gòu)的篇章單位, 對(duì)模型學(xué)習(xí)篇章層面的語(yǔ)義結(jié)構(gòu)知識(shí)是有意義的。

    2 融合小句對(duì)齊知識(shí)的神經(jīng)機(jī)器翻譯模型

    為使模型有效地學(xué)習(xí)到小句對(duì)齊知識(shí), 我們?cè)O(shè)計(jì)一種基于小句對(duì)齊學(xué)習(xí)的神經(jīng)機(jī)器翻譯模型。一方面, 增強(qiáng)源端基于小句成分的句子語(yǔ)義表示; 另一方面, 增強(qiáng)源端與目標(biāo)端小句對(duì)齊學(xué)習(xí)。兩方面結(jié)合起來(lái), 可以更好地提高翻譯模型對(duì)復(fù)雜句內(nèi)小句間結(jié)構(gòu)信息的感知和學(xué)習(xí)能力。圖 3 給出融合小句對(duì)齊知識(shí)的神經(jīng)機(jī)器翻譯模型架構(gòu)。

    2.1 增強(qiáng)源端基于小句成分的句子語(yǔ)義表示

    本文在 Transformer[4]架構(gòu)的基礎(chǔ)上, 提出一種多路協(xié)同自注意力機(jī)制(Multi-way Coordination Self-Attention, MC-SefAtt)來(lái)增強(qiáng)編碼器源語(yǔ)言句子基于小句成分的語(yǔ)義表示, 具體方法如下。

    編碼器由相同的層堆疊構(gòu)成。在編碼器輸入層, 把輸入句子的詞序列每個(gè)詞的詞嵌入融合位置編碼作為輸入。由于標(biāo)注數(shù)據(jù)含有大量的小句對(duì)齊標(biāo)簽, 考慮到標(biāo)簽蘊(yùn)含豐富的小句層面的語(yǔ)義結(jié)構(gòu)信息, 我們把每個(gè)標(biāo)簽視為標(biāo)簽詞(如結(jié)構(gòu)連接詞), 隨其他詞按正常方式輸入。

    圖2 基于復(fù)雜句的漢英小句對(duì)齊標(biāo)注示例

    圖3 融合小句對(duì)齊知識(shí)的神經(jīng)機(jī)器翻譯模型架構(gòu)圖及提出的兩種注意力機(jī)制示意圖

    同時(shí), 與式(1)并行計(jì)算每個(gè)小句序列W內(nèi)的點(diǎn)乘自注意力。計(jì)算公式如下:

    ,分別表示從每個(gè)小句序列W轉(zhuǎn)換得到的query, key和value的矩陣表示, 1≤≤; Mask 為掩碼矩陣, 其作用是掩碼掉小句以外其他的詞表示, 使得當(dāng)前詞只與對(duì)應(yīng)小句內(nèi)部的詞做相關(guān)性計(jì)算。

    =LayerNorm(FFN()+)。(4)

    2.2 增強(qiáng)源端和目標(biāo)端小句對(duì)齊學(xué)習(xí)

    與編碼器類(lèi)似, 解碼器也由相同的層堆疊構(gòu)成。本文在解碼器每層的自注意力機(jī)制子層和全連接前饋神經(jīng)網(wǎng)絡(luò)子層之間設(shè)計(jì)一個(gè)編碼器-解碼器小句對(duì)齊注意力子層(clause aligned cross attention, CA-CrossAtt)來(lái)對(duì)雙語(yǔ)之間小句對(duì)齊信息進(jìn)行建模, 借助第1節(jié)在平行數(shù)據(jù)中標(biāo)注的小句對(duì)齊標(biāo)簽, 通過(guò)正則化的方法提高雙語(yǔ)小句間的注意力對(duì)齊權(quán)重, 鼓勵(lì)模型更好地從大規(guī)模標(biāo)注數(shù)據(jù)中學(xué)習(xí)基于小句的結(jié)構(gòu)對(duì)齊知識(shí), 從而提高神經(jīng)機(jī)器翻譯對(duì)復(fù)雜句的翻譯能力。

    與編碼器輸入層處理方法類(lèi)似, 解碼器輸入層把目標(biāo)語(yǔ)言詞序列每個(gè)詞的詞嵌入融合位置編碼作為輸入, 將每個(gè)標(biāo)簽視為標(biāo)簽詞, 隨其他詞按正常方式輸入。

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 實(shí)驗(yàn)數(shù)據(jù)

    當(dāng)前常用的篇章級(jí)機(jī)器翻譯訓(xùn)練數(shù)據(jù)包括 TED 演講數(shù)據(jù)集(TED Talks)、中英字幕數(shù)據(jù)集(TVSUB)、WMT 公開(kāi)評(píng)測(cè)任務(wù)提供的 News-Commentary 數(shù)據(jù)集以及 Europarl 數(shù)據(jù)集等, 但這些都是規(guī)模受限數(shù)據(jù)集, 并且用于漢英翻譯任務(wù)的數(shù)據(jù)非常稀缺。針對(duì)這種情況, 我們從 WMT 大規(guī)模公開(kāi)數(shù)據(jù)集 Uni-ted Nations Parallel Corpus v1.0 中篩選 4M 句對(duì)漢英復(fù)雜句平行句對(duì), 并在上面標(biāo)注小句對(duì)齊標(biāo)簽(見(jiàn)1.1 節(jié)和 1.2 節(jié))。本文用該標(biāo)注數(shù)據(jù)集作為訓(xùn)練數(shù)據(jù), 使用中到英翻譯方向的 WMT newsdev2017-ZHEN 作為驗(yàn)證集, 使用 WMT newstest2017-ZHEN, newstest2018-ZHEN 和 newstest 2019-ZHEN 這 3 個(gè)測(cè)試集驗(yàn)證模型性能。為驗(yàn)證本文方法的有效性, 基線(xiàn)系統(tǒng)都采用 4M 標(biāo)注數(shù)據(jù)去掉小句對(duì)齊標(biāo)簽后的數(shù)據(jù)集進(jìn)行訓(xùn)練。數(shù)據(jù)集統(tǒng)計(jì)信息見(jiàn)表 1。

    3.2 實(shí)驗(yàn)設(shè)置

    采用 BPE[21]子詞切分方法, 源端和目標(biāo)端詞表均設(shè)為 40K; 編碼器和解碼器都設(shè)為 6 層, 多頭注意力頭數(shù)設(shè)為 8, 隱層維度和前饋神經(jīng)網(wǎng)絡(luò)維度分別設(shè)為 512 和 2048; 訓(xùn)練集的 Batch Size 設(shè)為 64, 采用 Adam Optimizer[22]優(yōu)化器, 優(yōu)化器初始學(xué)習(xí)率設(shè)為 0.00005, Dropout[23]比率設(shè)為 0.1; 其他設(shè)置采用 Vaswani[4]系統(tǒng)的默認(rèn)設(shè)置。本文模型的基線(xiàn)系統(tǒng)Transformer 采用開(kāi)源框架 OpenNMT[24]。

    表1 數(shù)據(jù)集統(tǒng)計(jì)信息

    3.3 主要實(shí)驗(yàn)結(jié)果

    本文選擇對(duì)字母大小寫(xiě)不敏感的 BLEU-4[25]評(píng)價(jià)指標(biāo)對(duì)譯文進(jìn)行質(zhì)量評(píng)估, 使用 multi-bleu.pl 腳本進(jìn)行計(jì)算。與已公開(kāi)發(fā)表的神經(jīng)機(jī)器翻譯方面的工作進(jìn)行性能比較(表 2)??梢钥闯? 與 Bahdanau等[2]的基于 RNN 的神經(jīng)機(jī)器翻譯模型 RNNSearch相比, 我們的模型在 BLEU 值上平均取得 2.99 個(gè)點(diǎn)的提升。與 Gehring 等[3]提出的基于卷積神經(jīng)結(jié)構(gòu)的翻譯模型 ConvS2S 相比, 我們的模型平均提高2.19 個(gè)點(diǎn)。與 Vaswani 等[4]提出的完全基于自注意力機(jī)制的 Transformer (base)模型相比, 我們的模型平均獲得 1.57 個(gè)點(diǎn)的提升。與 Shi 等[9]提出的基于對(duì)抗學(xué)習(xí)的句對(duì)齊學(xué)習(xí)方法相比, 我們的模型平均取得 0.59 個(gè)點(diǎn)的提升。由于本文模型中兩種注意力機(jī)制都沒(méi)有新增任何參數(shù), 僅在標(biāo)簽輸入時(shí)引入極少量參數(shù), 因此本文方法比基線(xiàn)系統(tǒng)的得分明顯提高, 可以排除單純因參數(shù)量增加導(dǎo)致效果提升這一因素, 驗(yàn)證了本文方法的有效性。與已有方法相比, 本文方法關(guān)注小句間語(yǔ)義結(jié)構(gòu)在整個(gè)篇章層次結(jié)構(gòu)中的重要作用, 通過(guò)小句的增強(qiáng)表示和小句對(duì)齊學(xué)習(xí), 有效地提升了機(jī)器翻譯的性能。

    表2 WMT漢-英翻譯任務(wù)上的主要評(píng)測(cè)結(jié)果

    說(shuō)明: 粗體數(shù)字為最優(yōu)結(jié)果。

    3.4 模型各個(gè)部分有效性分析

    我們分析了模型中各個(gè)部分對(duì)最終神經(jīng)機(jī)器翻譯性能的影響, 實(shí)驗(yàn)結(jié)果如表 3 所示。

    從表 3 容易看出, 通過(guò)增強(qiáng)源端基于小句成分的句子表示和學(xué)習(xí)源端與目標(biāo)端小句對(duì)齊知識(shí), 本文模型有效地改進(jìn)了機(jī)器翻譯性能。模型(1)在基線(xiàn)系統(tǒng)(Transformer)基礎(chǔ)上使用多路協(xié)同自注意力機(jī)制(MC-SefAtt), 在句級(jí)語(yǔ)義表示的基礎(chǔ)上融入小句級(jí)語(yǔ)義表示, BLEU 值比基線(xiàn)系統(tǒng)平均提升 0.48個(gè)點(diǎn), 表明引入小句語(yǔ)義表示可以增強(qiáng)源語(yǔ)言句子表示能力, 并改進(jìn)神經(jīng)機(jī)器翻譯模型的性能。模型(2)在基線(xiàn)系統(tǒng)的基礎(chǔ)上使用編碼器-解碼器小句對(duì)齊注意力機(jī)制(CA-CrossAtt), 增強(qiáng)了編碼器和解碼器在小句層面的對(duì)齊學(xué)習(xí)能力, 捕獲更多源端和目標(biāo)端小句級(jí)語(yǔ)義關(guān)聯(lián)特征, BLEU 值比基線(xiàn)系統(tǒng)平均提升 1.05 個(gè)點(diǎn)。模型(3)在基線(xiàn)系統(tǒng)的基礎(chǔ)上同時(shí)采用 MC-SefAtt 和 CA-CrossAtt 兩種注意力機(jī)制, 編碼器編碼能力和解碼器預(yù)測(cè)能力進(jìn)一步提升, BLEU 值比基線(xiàn)系統(tǒng)平均提升 1.57 個(gè)點(diǎn)。實(shí)驗(yàn)結(jié)果表明, 本文提出的融合小句對(duì)齊知識(shí)的方法, 可以使模型有效地學(xué)到雙語(yǔ)小句層面的語(yǔ)義結(jié)構(gòu)對(duì)齊特征, 從而提高神經(jīng)機(jī)器翻譯的精度。

    3.5 編碼器-解碼器小句對(duì)齊注意力分析

    本文在模型中使用基于小句對(duì)齊的編碼器-解碼器注意力機(jī)制, 并采用正則化方法, 使用參數(shù)調(diào)節(jié)和分配注意力權(quán)重。圖 4 展示在 newstest2019測(cè)試集上不同取值對(duì)模型性能的影響。當(dāng)從 0增至 0.7 時(shí), 模型獲得 0.6 個(gè) BLEU 點(diǎn)的提升, 表明當(dāng)更多注意力分布在小句對(duì)齊信息上時(shí), 模型性能得到提升; 但當(dāng)取值超過(guò) 0.7 時(shí), 模型性能開(kāi)始下降。我們認(rèn)為過(guò)多的注意力分布在小句對(duì)齊上會(huì)損害模型的性能, 因此把值設(shè)為 0.7 來(lái)優(yōu)化編碼器-解碼器注意力機(jī)制, 以便提升模型的翻譯性能。

    表3 模型各個(gè)部分有效性分析結(jié)果

    圖4 不同λ取值對(duì)模型性能的影響

    圖5 翻譯實(shí)例對(duì)比

    3.6 實(shí)例分析

    為了進(jìn)一步驗(yàn)證模型在復(fù)雜句上的翻譯能力, 我們進(jìn)行翻譯實(shí)例對(duì)比和分析。圖 5 給出一個(gè)復(fù)雜句翻譯實(shí)例, 容易看出, Transformer (基線(xiàn)系統(tǒng))的譯文中, 子句 5 與 6 之間出現(xiàn)嚴(yán)重的語(yǔ)義結(jié)構(gòu)關(guān)系錯(cuò)誤(紅色標(biāo)記), 并且子句 6 中出現(xiàn)漏譯, 這些翻譯錯(cuò)誤被本文模型糾正過(guò)來(lái)(藍(lán)色標(biāo)記)。該實(shí)例進(jìn)一步驗(yàn)證了本文模型通過(guò)小句對(duì)齊知識(shí)的學(xué)習(xí), 能更好地感知和學(xué)到復(fù)雜句內(nèi)小句間的結(jié)構(gòu)關(guān)系, 從而提高對(duì)復(fù)雜句的翻譯性能, 提升復(fù)雜句長(zhǎng)文本翻譯的篇章連貫性。同時(shí)也驗(yàn)證了本文模型通過(guò)細(xì)粒度的小句對(duì)齊學(xué)習(xí), 進(jìn)一步提升源語(yǔ)言和目標(biāo)語(yǔ)言句子間的對(duì)齊建模能力, 使翻譯充分性[26]得到提高, 在一定程度上緩解了機(jī)器翻譯的漏譯問(wèn)題, 也提高了簡(jiǎn)單句的翻譯效果。

    4 結(jié)語(yǔ)

    針對(duì)當(dāng)前漢英復(fù)雜句機(jī)器翻譯中存在的篇章連貫性問(wèn)題, 本文提出一種融合小句對(duì)齊知識(shí)的神經(jīng)機(jī)器翻譯解決方法。在數(shù)據(jù)層面, 采用小規(guī)模手工和大規(guī)模自動(dòng)的方式標(biāo)注 4M 句對(duì)基于小句對(duì)齊的漢英復(fù)雜句平行語(yǔ)料, 將漢英雙語(yǔ)小句結(jié)構(gòu)對(duì)齊知識(shí)顯式地標(biāo)注于平行語(yǔ)料庫(kù)中, 為漢英機(jī)器翻譯貢獻(xiàn)了小句對(duì)齊的平行雙語(yǔ)數(shù)據(jù)資源。在模型層面, 提出一種基于小句對(duì)齊學(xué)習(xí)的神經(jīng)機(jī)器翻譯模型, 充分利用標(biāo)注語(yǔ)料庫(kù)提供的小句對(duì)齊信息, 通過(guò)增強(qiáng)源端基于小句成分的句子語(yǔ)義表示和源端與目標(biāo)端小句對(duì)齊學(xué)習(xí)來(lái)有效融合小句對(duì)齊知識(shí), 訓(xùn)練模型學(xué)習(xí)更多復(fù)雜句內(nèi)小句層面的語(yǔ)義結(jié)構(gòu)特征。在 WMT17, WMT18 和 WMT19 翻譯任務(wù)公開(kāi)測(cè)試集上的實(shí)驗(yàn)結(jié)果表明, 本文方法能夠有效地提升漢英神經(jīng)機(jī)器翻譯的性能。分析結(jié)果表明, 本文方法在增強(qiáng)復(fù)雜句長(zhǎng)文本翻譯的篇章連貫性方面有明顯的改進(jìn), 對(duì)提高篇章翻譯的效果有很大的幫助。本文提出的模型通過(guò)細(xì)粒度的小句對(duì)齊學(xué)習(xí), 增強(qiáng)了源端和目標(biāo)端句子間的語(yǔ)義對(duì)齊建模能力, 使機(jī)器翻譯漏譯問(wèn)題得到改善, 也提升了簡(jiǎn)單句的翻譯精度。

    今后的工作中, 我們將考慮在小句對(duì)齊的基礎(chǔ)上, 顯式地建?;谛【涞恼Z(yǔ)義結(jié)構(gòu)信息, 進(jìn)一步提高神經(jīng)機(jī)器翻譯對(duì)復(fù)雜句長(zhǎng)文本的翻譯性能。

    [1]Sutskever I, Vinyals O, Le Q V.Sequence to sequence learning with neural networks // NIPS.Montreal, 2014: 3104-3112

    [2]Bahdanau D, Cho K, Bengio Y.Neural machine translation by jointly learning to align and translate // ICLR.San Diego, 2015: 1-15

    [3]Gehring J, Auli M, Grangier D, et al.Convolutional sequence to sequence learning // Proceedings of the 34th International Conference on Machine Learning.Sydney, 2017: 1243-1252

    [4]Vaswani A, Shazeer N, Parmar N, et al.Attention is all you need // NIPS.Los Angeles, 2017: 5998-6008

    [5]Zhang W, Feng Y, Meng F, et al.Bridging the gap between training and inference for neural machine translation // Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics.Florence, 2019: 4334-4343

    [6]Jean S, Lauly S, Firat O, et al.Does neural machine translation benefit from larger context? [EB/OL].(2017-04-17)[2021-03-05].https://arxiv.org/abs/1704.05135

    [7]Zhang Jiacheng, Luan Huanbo, Sun Maosong, et al.Improving the transformer translation model with document-level context // EMNLP.Brussels, 2018: 533-542

    [8]Miculicich L, Ram D, Pappas N, et al.Document-level neural machine translation with hierarchical attention networks // EMNLP.Brussels, 2018: 2947-2954

    [9]Shi X, Huang H, Jian P, et al.Improving neural machine translation with sentence alignment learning.Neurocomputing, 2021, 420: 15-26

    [10]Bao Guangsheng, Zhang Yue, Teng Zhiyang, et al.G-transformer for document-level machine translation [EB/OL].(2021-05-31)[2021-06-01].https://arxiv.org/abs/2105.14761

    [11]馮文賀.漢英篇章結(jié)構(gòu)平行語(yǔ)料庫(kù)構(gòu)建與應(yīng)用研究.北京: 科學(xué)出版社, 2019

    [12]葛詩(shī)利, 宋柔.基于成分共享的英漢小句對(duì)齊語(yǔ)料庫(kù)標(biāo)注體系研究.中文信息學(xué)報(bào), 2020, 34(6): 27-35

    [13]Mann W, Thompson S A.Rhetorical structure theory: toward a functional theory of text organization.Text, 1988, 8(3): 243-281

    [14]Li Y, Lai C, Feng J, et al.Chinese and English elementary discourse units segmentation based on Bi-LSTM-CRF model // Proceedings of the 19th Chinese National Conference on Computational Linguistics.Haikou, 2020: 1068-1078

    [15]Manning C D, Mihai S, John B, et al.The Stanford CoreNLP natural language processing toolkit // Pro-ceedings of the 52nd Annual Meeting of the Asso-ciation for Computational Linguistics.Baltimore, 2014: 55-60

    [16]Hochreiter S, Schmidhuber J.Long short-term me-mory.Neural Computation, 1997, 9(8): 1735-1780

    [17]Lafferty J, Mccallum A, Pereira F.Probabilistic models for segmenting and labeling sequence data // Proceedings of the Eighteenth International Confer-ence on Machine Learning.Williamstown, 2001: 282-289

    [18]Ding Y, Li J, Gong Z, et al.Improving neural sen-tence alignment with word translation.Frontiers of Computer Science, 2020, 15(1): 1-10

    [19]Och F J, Ney H.A systematic comparison of various statistical alignment models.Computational Lingui-stics, 2003, 29(1): 19-51

    [20]Cho K, van Merri?nboer B, Gulcehre C, et al.Learn-ing phrase representations using RNN encoderdeco-der for statistical machine translation // Proceedings of the 2014 Conference on Empirical Methods in Natu-ral Language Processing.Doha, 2014: 1724-1734

    [21]Sennrich R, Haddow B, Birch A.Neural machine translation of rare words with subword units // Pro-ceedings of the 54th Annual Meeting of the Associa-tion for Computational Linguistics.Berlin, 2016: 1715-1725

    [22]Kingma D P, Ba J.Adam: a method for stochastic optimization [EB/OL].(2014-12-22)[2021-03-06].https://arxiv.org/abs/1412.6980

    [23]Srivastava N, Hinton G, Krizhevsky A, et al.Dropout: a simple way to prevent neural networks from over-fitting.The Journal of Machine Learning Research, 2014, 15(1): 1929-1958

    [24]Klein G, Kim Y, Deng Y, et al.OpenNMT: open-source toolkit for neural machine translation // Pro-ceedings of ACL 2017: System Demonstrations.Van-couver, 2017: 67-72

    [25]Papineni K, Roukos S, Ward T, et al.BLEU: a method for automatic evaluation of machine translation // Proceedings of the 40th Annual Meeting on Associa-tion for Computational Linguistics.Philadelphia, 2002: 311-318

    [26]Tu Z, Liu Y, Shang L, et al.Neural machine transla-tion with reconstruction // Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence.San Francisco, 2017: 3097-3103

    Incorporating Clause Alignment Knowledge into Chinese-English Neural Machine Translation

    MIAO Guoyi1, LIU Mingtong2, CHEN Yufeng1, XU Jin’an1,?, ZHANG Yujie1, FENG Wenhe3

    1.School of Computer and Information Technology, Beijing Jiaotong University, Beijing 100044; 2.Sinovation Ventures AI Institute, Beijing, 100080; 3.Laboratory of Language Engineering and Computing, Guangdong University of Foreign Studies, Guangzhou 510420; ? Corresponding author, E-mail: jaxu@bjtu.edu.cn

    Currently, neural machine translation (NMT) is insufficient in capturing the semantic and structural relationships between clauses in complex sentences, which often results in poor discourse coherence of long and complex sentence translation.To address this problem, the paper proposes a Chinese-English NMT approach by integrating the clause alignment knowledge into NMT.Firstly, a labeling scheme combining manual and automatic annotation is introduced to annotate a large-scale clause aligned Chinese-English parallel corpus that provides rich clause-level Chinese-English bilingual alignment knowledge for model training.Then, a NMT model is designed based on clause alignment learning for enhancing the ability of the model to learn the semantic structure relationships between clauses within complex sentences.Experimental results on WMT17, WMT18 and WMT19 Chinese-English translation tasks demonstrate that proposed method can significantly improve the NMT performance.Evaluation and analysis show that proposed method can effectively improve the discourse coherence of complex sentence in Chinese-English machine translation.

    neural machine translation; clause alignment; structural relationship; discourse coherence

    10.13209/j.0479-8023.2021.111

    2021-06-09;

    2021-08-13

    國(guó)家重點(diǎn)研發(fā)計(jì)劃(2020AAA0108001)、國(guó)家自然科學(xué)基金(61976015, 61976016, 61876198, 61370130)和廣東省基礎(chǔ)與應(yīng)用基礎(chǔ)研究基金(2020A1515011056)資助

    猜你喜歡
    源端小句漢英
    融合源端句法和語(yǔ)義角色信息的AMR解析
    基于仿真分析的傳輸線(xiàn)電路特性研究
    短語(yǔ)
    主述位理論視角下的英漢小句翻譯研究
    話(huà)劇《雷雨》的語(yǔ)氣研究
    飛機(jī)燃油系統(tǒng)對(duì)多路輸入信號(hào)源選擇的方法
    科技視界(2016年22期)2016-10-18 15:53:02
    話(huà)題鏈在漢英篇章翻譯中的統(tǒng)攝作用
    從目的論看環(huán)保公示語(yǔ)的漢英翻譯
    漢英文字的幽默修辭功能淺探
    不同體裁語(yǔ)篇的小句主位結(jié)構(gòu)與大學(xué)英語(yǔ)寫(xiě)作
    18禁在线无遮挡免费观看视频| 丰满人妻一区二区三区视频av| 我要看日韩黄色一级片| 能在线免费观看的黄片| 久久精品熟女亚洲av麻豆精品 | 国产一区有黄有色的免费视频 | 秋霞伦理黄片| 亚洲最大成人中文| www日本黄色视频网| 久久精品影院6| 亚洲婷婷狠狠爱综合网| 国产精品久久电影中文字幕| 久久精品国产亚洲av涩爱| 又粗又爽又猛毛片免费看| 国产精品国产三级国产av玫瑰| av卡一久久| 99久国产av精品| 91狼人影院| 久久精品人妻少妇| 国产精品精品国产色婷婷| 亚洲国产精品成人久久小说| 美女被艹到高潮喷水动态| 黄色日韩在线| 国产成人免费观看mmmm| 春色校园在线视频观看| 老女人水多毛片| 国产黄片美女视频| 少妇丰满av| 日韩成人av中文字幕在线观看| 久久久久性生活片| 国产精品不卡视频一区二区| 日本黄大片高清| 日韩大片免费观看网站 | 91精品一卡2卡3卡4卡| 精品人妻偷拍中文字幕| 国产av不卡久久| 毛片女人毛片| 一级毛片aaaaaa免费看小| 麻豆久久精品国产亚洲av| 日韩三级伦理在线观看| 国产成人aa在线观看| 国产伦精品一区二区三区四那| 国产精品久久久久久久电影| 变态另类丝袜制服| 最近的中文字幕免费完整| a级一级毛片免费在线观看| 麻豆久久精品国产亚洲av| 中文精品一卡2卡3卡4更新| 男女视频在线观看网站免费| 午夜免费激情av| 三级国产精品片| 亚洲精华国产精华液的使用体验| 国产爱豆传媒在线观看| 日韩强制内射视频| 如何舔出高潮| 小说图片视频综合网站| 国产男人的电影天堂91| 老司机影院成人| 国产日韩欧美在线精品| 国产三级中文精品| 国产黄色小视频在线观看| 国产69精品久久久久777片| 亚洲无线观看免费| 亚洲成人中文字幕在线播放| 国产精品久久视频播放| 成人综合一区亚洲| 国产精品一区二区性色av| 黑人高潮一二区| 精品欧美国产一区二区三| 久久精品国产鲁丝片午夜精品| 国产欧美日韩精品一区二区| 亚洲,欧美,日韩| 黄色配什么色好看| 国产精品久久久久久久电影| 亚洲精品成人久久久久久| 日本黄大片高清| 黄片wwwwww| 麻豆国产97在线/欧美| 亚洲国产精品成人综合色| 成人av在线播放网站| 成人av在线播放网站| 秋霞在线观看毛片| 美女高潮的动态| 午夜精品国产一区二区电影 | 插逼视频在线观看| av天堂中文字幕网| 国产高潮美女av| 黄片无遮挡物在线观看| 26uuu在线亚洲综合色| 免费av毛片视频| 国产一区二区在线av高清观看| 观看美女的网站| 99在线视频只有这里精品首页| 三级国产精品片| 十八禁国产超污无遮挡网站| 亚洲国产日韩欧美精品在线观看| 免费无遮挡裸体视频| 两个人的视频大全免费| 免费观看a级毛片全部| 亚洲国产欧洲综合997久久,| 天美传媒精品一区二区| 在现免费观看毛片| 秋霞在线观看毛片| 最近的中文字幕免费完整| 亚洲av成人精品一区久久| 身体一侧抽搐| 青青草视频在线视频观看| 久久草成人影院| 亚洲av二区三区四区| 国产私拍福利视频在线观看| 热99re8久久精品国产| 久久久久免费精品人妻一区二区| 久久精品国产自在天天线| 性插视频无遮挡在线免费观看| 久久久久久久久久久丰满| 熟女电影av网| 噜噜噜噜噜久久久久久91| 久久久国产成人精品二区| 九草在线视频观看| 长腿黑丝高跟| 国产视频内射| 人人妻人人澡人人爽人人夜夜 | 国产精品一及| 乱系列少妇在线播放| kizo精华| 欧美bdsm另类| 熟女人妻精品中文字幕| 日本熟妇午夜| 日本wwww免费看| 春色校园在线视频观看| 麻豆成人av视频| 国内揄拍国产精品人妻在线| 久99久视频精品免费| 97超碰精品成人国产| 日本午夜av视频| 国模一区二区三区四区视频| 免费一级毛片在线播放高清视频| av国产免费在线观看| 亚洲五月天丁香| 亚洲人成网站高清观看| 国产 一区精品| 亚洲高清免费不卡视频| 天堂av国产一区二区熟女人妻| 国产亚洲5aaaaa淫片| 成人午夜高清在线视频| 国产探花在线观看一区二区| av免费观看日本| videossex国产| 午夜精品一区二区三区免费看| av.在线天堂| 菩萨蛮人人尽说江南好唐韦庄 | 国产精品一区二区三区四区免费观看| 我的老师免费观看完整版| 日本免费一区二区三区高清不卡| 亚洲精品色激情综合| 禁无遮挡网站| 国产亚洲av片在线观看秒播厂 | 亚洲国产成人一精品久久久| 大香蕉久久网| 男人舔女人下体高潮全视频| 免费观看人在逋| 国产黄色视频一区二区在线观看 | 99久久精品热视频| 美女内射精品一级片tv| 女的被弄到高潮叫床怎么办| 午夜久久久久精精品| 亚洲av日韩在线播放| 淫秽高清视频在线观看| 久久久a久久爽久久v久久| 日韩人妻高清精品专区| 成人午夜高清在线视频| 久久这里有精品视频免费| 亚洲国产精品sss在线观看| 日韩高清综合在线| 麻豆成人av视频| 国产精品一及| 99热6这里只有精品| 天天一区二区日本电影三级| 有码 亚洲区| 91精品国产九色| 欧美日韩一区二区视频在线观看视频在线 | 中文乱码字字幕精品一区二区三区 | 尾随美女入室| 国产一区亚洲一区在线观看| 午夜福利成人在线免费观看| 波多野结衣高清无吗| 色播亚洲综合网| 国产色婷婷99| 日韩精品有码人妻一区| 99热全是精品| 夫妻性生交免费视频一级片| 一个人免费在线观看电影| 高清在线视频一区二区三区 | 亚洲欧美清纯卡通| 亚洲无线观看免费| 欧美精品国产亚洲| 九九爱精品视频在线观看| 我的老师免费观看完整版| 搡老妇女老女人老熟妇| 可以在线观看毛片的网站| 精品久久久久久久久亚洲| 大香蕉97超碰在线| 色综合色国产| av在线天堂中文字幕| 亚洲精品一区蜜桃| 日韩欧美精品v在线| 亚洲精品国产av成人精品| 中文资源天堂在线| 亚洲国产欧美在线一区| 亚洲精品一区蜜桃| 日本午夜av视频| 久久久国产成人免费| 天天一区二区日本电影三级| 久久久久久久午夜电影| 男插女下体视频免费在线播放| 亚洲国产成人一精品久久久| 波多野结衣巨乳人妻| ponron亚洲| 女人十人毛片免费观看3o分钟| 天堂网av新在线| 欧美日本亚洲视频在线播放| 国产精品久久久久久精品电影小说 | 欧美精品国产亚洲| 久久草成人影院| 两个人的视频大全免费| 丰满少妇做爰视频| 欧美激情久久久久久爽电影| 嫩草影院精品99| 最近最新中文字幕大全电影3| 男女啪啪激烈高潮av片| 插阴视频在线观看视频| 伦理电影大哥的女人| 精品久久国产蜜桃| 又黄又爽又刺激的免费视频.| 亚洲精品乱码久久久久久按摩| 69av精品久久久久久| av免费观看日本| 岛国在线免费视频观看| 看片在线看免费视频| 久久婷婷人人爽人人干人人爱| 国产中年淑女户外野战色| 一夜夜www| 国产高清不卡午夜福利| 美女cb高潮喷水在线观看| 国产精品国产三级专区第一集| 伦精品一区二区三区| 国内精品一区二区在线观看| 一级爰片在线观看| 啦啦啦啦在线视频资源| 国产精品一及| 欧美精品一区二区大全| 国产一区二区在线观看日韩| 免费观看人在逋| 成人无遮挡网站| 少妇熟女欧美另类| 啦啦啦观看免费观看视频高清| 全区人妻精品视频| 美女黄网站色视频| 亚洲四区av| 国产高清三级在线| 日本黄色视频三级网站网址| 国产免费视频播放在线视频 | 夜夜看夜夜爽夜夜摸| 成人特级av手机在线观看| 99热全是精品| 成人毛片a级毛片在线播放| 搡老妇女老女人老熟妇| 日韩一区二区视频免费看| 国产极品天堂在线| 成人性生交大片免费视频hd| 欧美日韩一区二区视频在线观看视频在线 | 亚洲av.av天堂| 麻豆av噜噜一区二区三区| 老司机影院毛片| 亚洲av电影在线观看一区二区三区 | 深爱激情五月婷婷| 啦啦啦韩国在线观看视频| 男女下面进入的视频免费午夜| 国产一区二区三区av在线| 亚洲色图av天堂| 国产午夜福利久久久久久| 我的女老师完整版在线观看| 亚洲精品久久久久久婷婷小说 | 国产成人精品婷婷| 中文精品一卡2卡3卡4更新| 色哟哟·www| 国产一级毛片七仙女欲春2| 99久久精品热视频| 最近中文字幕高清免费大全6| 午夜激情欧美在线| 精品久久久噜噜| 小蜜桃在线观看免费完整版高清| 久久精品91蜜桃| 亚洲欧洲国产日韩| 久久综合国产亚洲精品| 一本一本综合久久| 在线播放国产精品三级| 国内精品一区二区在线观看| 国内揄拍国产精品人妻在线| 汤姆久久久久久久影院中文字幕 | 久久久久国产网址| 午夜a级毛片| 亚洲婷婷狠狠爱综合网| 天堂影院成人在线观看| eeuss影院久久| 人妻少妇偷人精品九色| 国产免费福利视频在线观看| 性色avwww在线观看| 国产探花极品一区二区| or卡值多少钱| 亚洲成av人片在线播放无| 亚洲av成人av| 一级爰片在线观看| 亚洲自偷自拍三级| 真实男女啪啪啪动态图| 亚洲伊人久久精品综合 | av天堂中文字幕网| 亚洲国产精品成人综合色| 午夜免费男女啪啪视频观看| 亚洲国产欧美人成| 国产精品电影一区二区三区| 五月玫瑰六月丁香| 十八禁国产超污无遮挡网站| 国产私拍福利视频在线观看| 久久人妻av系列| 久久久久精品久久久久真实原创| 晚上一个人看的免费电影| 国产精品国产三级专区第一集| 亚洲成人久久爱视频| 日本免费在线观看一区| 18禁裸乳无遮挡免费网站照片| 久久久久国产网址| or卡值多少钱| 中文字幕免费在线视频6| 免费无遮挡裸体视频| 美女黄网站色视频| 国产精品伦人一区二区| av.在线天堂| 搡老妇女老女人老熟妇| 成人综合一区亚洲| 国产精品福利在线免费观看| 一个人观看的视频www高清免费观看| 久久久久久久久久久丰满| 国产精品国产高清国产av| 热99在线观看视频| 好男人在线观看高清免费视频| 看黄色毛片网站| 91久久精品电影网| 一级二级三级毛片免费看| 蜜桃久久精品国产亚洲av| 亚洲欧美精品自产自拍| 日韩强制内射视频| 久久久久久久国产电影| 亚洲中文字幕一区二区三区有码在线看| 欧美性猛交黑人性爽| 最近的中文字幕免费完整| 国产老妇伦熟女老妇高清| 国产精品麻豆人妻色哟哟久久 | 国产探花极品一区二区| 亚洲av.av天堂| 免费观看的影片在线观看| 国产在线男女| 亚洲精品aⅴ在线观看| 狂野欧美白嫩少妇大欣赏| av在线蜜桃| 在线观看一区二区三区| 汤姆久久久久久久影院中文字幕 | 国产午夜精品久久久久久一区二区三区| 伦理电影大哥的女人| kizo精华| 身体一侧抽搐| 亚洲精品色激情综合| 在线免费观看不下载黄p国产| a级毛色黄片| 亚洲国产日韩欧美精品在线观看| 精品不卡国产一区二区三区| 亚洲av.av天堂| 97热精品久久久久久| a级毛色黄片| 国产精品不卡视频一区二区| 22中文网久久字幕| 国产精品一区二区三区四区久久| 日本欧美国产在线视频| 美女被艹到高潮喷水动态| 日韩一本色道免费dvd| 偷拍熟女少妇极品色| 久久草成人影院| 三级经典国产精品| 五月玫瑰六月丁香| 亚洲人与动物交配视频| 亚洲无线观看免费| av播播在线观看一区| 狠狠狠狠99中文字幕| 真实男女啪啪啪动态图| 国产 一区精品| 99国产精品一区二区蜜桃av| 国产高清视频在线观看网站| 日韩欧美精品免费久久| 啦啦啦韩国在线观看视频| 亚洲精品亚洲一区二区| 欧美一区二区亚洲| 91精品国产九色| 亚洲色图av天堂| 国产精品一区二区三区四区久久| 国产单亲对白刺激| 成人亚洲欧美一区二区av| 在线免费观看的www视频| 免费观看的影片在线观看| 人妻制服诱惑在线中文字幕| 淫秽高清视频在线观看| 乱码一卡2卡4卡精品| 哪个播放器可以免费观看大片| 好男人在线观看高清免费视频| 国产精品国产高清国产av| 精品一区二区免费观看| 99久国产av精品国产电影| 国产精品人妻久久久久久| 日本色播在线视频| 亚洲五月天丁香| 国产在线男女| 久久国产乱子免费精品| 久久午夜福利片| 国产免费又黄又爽又色| 在线观看av片永久免费下载| 午夜亚洲福利在线播放| 午夜久久久久精精品| 男女啪啪激烈高潮av片| 一二三四中文在线观看免费高清| av在线老鸭窝| 91在线精品国自产拍蜜月| av国产久精品久网站免费入址| 精品久久久噜噜| 神马国产精品三级电影在线观看| 欧美激情在线99| 日本熟妇午夜| 成年版毛片免费区| 久久久成人免费电影| 日韩 亚洲 欧美在线| 成人高潮视频无遮挡免费网站| 久久人人爽人人爽人人片va| 麻豆精品久久久久久蜜桃| 中文欧美无线码| 免费看美女性在线毛片视频| 直男gayav资源| 国产三级在线视频| 一级二级三级毛片免费看| 久久精品国产亚洲av天美| 岛国毛片在线播放| 长腿黑丝高跟| 又爽又黄无遮挡网站| 欧美不卡视频在线免费观看| 国产精品人妻久久久影院| 久久99热6这里只有精品| 国产av码专区亚洲av| 免费观看性生交大片5| 精品人妻一区二区三区麻豆| 日本免费一区二区三区高清不卡| 日韩av在线大香蕉| 亚洲在线自拍视频| 国产一区二区三区av在线| 亚洲最大成人手机在线| 三级男女做爰猛烈吃奶摸视频| 一夜夜www| 免费人成在线观看视频色| 七月丁香在线播放| 日本三级黄在线观看| 亚洲四区av| 老女人水多毛片| 免费看a级黄色片| 国产精品久久视频播放| 欧美日韩国产亚洲二区| 七月丁香在线播放| 又爽又黄无遮挡网站| 三级国产精品欧美在线观看| 一二三四中文在线观看免费高清| 中文字幕av在线有码专区| 久久久精品大字幕| 色综合亚洲欧美另类图片| 国产精品久久久久久久久免| 亚洲欧美精品自产自拍| 最近中文字幕高清免费大全6| 大又大粗又爽又黄少妇毛片口| 中文亚洲av片在线观看爽| 黄片wwwwww| 精品一区二区三区视频在线| 黄色一级大片看看| 久久久精品欧美日韩精品| 国产大屁股一区二区在线视频| 国产精品福利在线免费观看| 国产精品嫩草影院av在线观看| 色网站视频免费| 久久99热这里只频精品6学生 | 亚洲人成网站在线播| 国产午夜精品久久久久久一区二区三区| 午夜精品在线福利| 男人和女人高潮做爰伦理| 两性午夜刺激爽爽歪歪视频在线观看| 青春草亚洲视频在线观看| 可以在线观看毛片的网站| 国产精品一及| 中文字幕制服av| 久久久午夜欧美精品| 亚洲精品国产av成人精品| 色综合色国产| 听说在线观看完整版免费高清| 直男gayav资源| 国产 一区精品| 在线免费十八禁| 国产精品久久久久久久电影| 国产精品久久视频播放| 网址你懂的国产日韩在线| 视频中文字幕在线观看| 国产伦精品一区二区三区四那| 我的女老师完整版在线观看| 欧美另类亚洲清纯唯美| 精品国产三级普通话版| 久久久欧美国产精品| 亚洲自偷自拍三级| 亚洲激情五月婷婷啪啪| 成人午夜高清在线视频| 国产午夜精品一二区理论片| 国产精品,欧美在线| 亚洲一区高清亚洲精品| 亚洲激情五月婷婷啪啪| 最近2019中文字幕mv第一页| 中文精品一卡2卡3卡4更新| 久久精品国产99精品国产亚洲性色| 日韩一本色道免费dvd| 2021少妇久久久久久久久久久| 国产高清不卡午夜福利| 91在线精品国自产拍蜜月| 亚洲国产日韩欧美精品在线观看| 日本猛色少妇xxxxx猛交久久| 国产大屁股一区二区在线视频| 久久亚洲精品不卡| 国产精品伦人一区二区| 欧美三级亚洲精品| 六月丁香七月| 久久鲁丝午夜福利片| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 国产亚洲av片在线观看秒播厂 | 国产精品一区二区三区四区免费观看| 欧美性猛交╳xxx乱大交人| 日韩成人伦理影院| 亚洲最大成人av| 国产午夜精品一二区理论片| 有码 亚洲区| 天堂网av新在线| 97超视频在线观看视频| 天堂影院成人在线观看| 国产成人免费观看mmmm| 高清毛片免费看| 最新中文字幕久久久久| 久久久国产成人精品二区| 人人妻人人澡欧美一区二区| 少妇人妻精品综合一区二区| 男的添女的下面高潮视频| 午夜免费激情av| 人体艺术视频欧美日本| 成人无遮挡网站| 少妇高潮的动态图| 久久6这里有精品| 欧美激情久久久久久爽电影| 精品免费久久久久久久清纯| 特级一级黄色大片| 亚洲av一区综合| 丝袜美腿在线中文| 日韩,欧美,国产一区二区三区 | 啦啦啦韩国在线观看视频| 亚洲av福利一区| 久久人妻av系列| 久久久久久久久久黄片| 国产精品麻豆人妻色哟哟久久 | 亚洲欧美成人综合另类久久久 | 日本与韩国留学比较| 亚洲最大成人手机在线| 国产一级毛片七仙女欲春2| 国产老妇伦熟女老妇高清| 边亲边吃奶的免费视频| 国产精品久久久久久精品电影小说 | 别揉我奶头 嗯啊视频| 亚洲精品乱码久久久久久按摩| 在线免费十八禁| 日韩一本色道免费dvd| 麻豆成人午夜福利视频| 人人妻人人澡人人爽人人夜夜 | 久久久久久久久大av| 在线免费观看不下载黄p国产| 国产爱豆传媒在线观看| 国产老妇伦熟女老妇高清| 两个人的视频大全免费| 亚洲国产色片| 黄色日韩在线| 最后的刺客免费高清国语| 中文亚洲av片在线观看爽| 大香蕉97超碰在线| 精品一区二区三区人妻视频| 亚洲18禁久久av| 成人综合一区亚洲| 天堂√8在线中文| 久久亚洲国产成人精品v| 欧美一区二区亚洲| 日本熟妇午夜| 国产精品美女特级片免费视频播放器| 亚洲中文字幕日韩| 日韩亚洲欧美综合| 日韩av在线免费看完整版不卡| 午夜激情福利司机影院| 少妇丰满av| 国产精品一区www在线观看| 永久免费av网站大全| 国产精品美女特级片免费视频播放器| av在线观看视频网站免费| 女的被弄到高潮叫床怎么办| www.色视频.com|