• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合詞匯特征的生成式摘要模型

    2019-06-11 08:27江躍華丁磊李嬌娥杜皓晅高凱
    關(guān)鍵詞:注意力機(jī)制自然語言處理

    江躍華 丁磊 李嬌娥 杜皓晅 高凱

    摘要:為了能在摘要生成過程中利用詞匯特征(包含n-gram和詞性信息)識別更多重點(diǎn)詞匯內(nèi)容,進(jìn)一步提高摘要生成質(zhì)量,提出了一種基于sequence-to-sequence(Seq2Seq)結(jié)構(gòu)和attention機(jī)制的、融合了詞匯特征的生成式摘要算法。算法的輸入層將詞性向量與詞向量合并后作為編碼器層的輸入,編碼器層由雙向LSTM組成,上下文向量由編碼器的輸出和卷積神經(jīng)網(wǎng)絡(luò)提取的詞匯特征向量構(gòu)成。模型中的卷積神經(jīng)網(wǎng)絡(luò)層控制詞匯信息,雙向LSTM控制句子信息,解碼器層使用單向LSTM為上下文向量解碼并生成摘要。實(shí)驗(yàn)結(jié)果顯示,在公開數(shù)據(jù)集和自采數(shù)據(jù)集上,融合詞匯特征的摘要生成模型性能優(yōu)于對比模型,在公開數(shù)據(jù)集上的ROUGE-1,ROUGE-2,ROUGE-L分?jǐn)?shù)分別提升了0.024,0.033,0.030。因此,摘要的生成不僅與文章的語義、主題等特征相關(guān),也與詞匯特征相關(guān),所提出的模型在融合關(guān)鍵信息的生成式摘要研究中具有一定的參考價值。

    關(guān)鍵詞:自然語言處理;文本摘要;注意力機(jī)制;LSTM;CNN

    中圖分類號:TP319文獻(xiàn)標(biāo)志碼:A

    Abstract: In order to use lexical features (including n-gram and part of speech information) to identify more key vocabulary content in the summarization generation process to further improve the quality of the summarization, an algorithm based on sequence-to-sequence (Seq2Seq) structure and attention mechanism and combining lexical features is proposed. The input layer of the algorithm combines the part of speech vector with the word vector, which is the input of the encoder layer. The encoder layer is composed of bi-directional LSTM, and the context vector is composed of the output of the encoder and the lexical feature vector extracted from the convolution neural network. The convolutional neural network layer in the model controls the lexical information, the bi-directional LSTM controls the sentence information, and the decoder layer uses unidirectional LSTM to decode the context vector and generates the summarization. The experiments on public dataset and the self-collected dataset show that the performance of the summarization generation model considering lexical feature is better than that of the contrast model. The ROUGE-1, ROUGE-2 and ROUGE-L scores on the public dataset are improved by 0.024, 0.033 and 0.030, respectively. Therefore, the generation of summarization is not only related to the semantics and themes of the article, but also to the lexical features.The proposed model provides a certain reference value in the research of generating summarization of integrating key infromation.

    Keywords:natural language processing; text summarization; attention mechanism; LSTM; CNN

    近年來,由于互聯(lián)網(wǎng)技術(shù)的迅猛發(fā)展以及用戶規(guī)模的爆發(fā)式增長,互聯(lián)網(wǎng)的數(shù)據(jù)呈現(xiàn)指數(shù)級增長。文本是目前形式多樣的信息數(shù)據(jù)中最主要的存在形式。如何能從海量的文本數(shù)據(jù)中挖掘出重要而且是用戶關(guān)心的話題和信息,對于提升閱讀效率、消化海量信息是非常有幫助的。文本摘要是文本信息自動抽取的主要任務(wù)之一,它追求以更加精簡、精確的方式,用少量文本盡可能地表述原文含義。按照產(chǎn)生方式的不同,文本自動摘要可分為抽取式和生成式摘要。其中,抽取式摘要主要是指從原文中抽取出和文章主題相關(guān)的內(nèi)容,在不超過一定字?jǐn)?shù)的限制下,盡可能地讓抽取的句子覆蓋到原文所有含義,并按順序排列生成一段摘要文本;生成式摘要則是通過讓模型學(xué)習(xí)原文中所表達(dá)的含義,推斷所需要生成的摘要內(nèi)容,由模型自動生成一段摘要文本。根據(jù)任務(wù)的不同,文本摘要也可分單文檔摘要和多文檔摘要。通常,人們在閱讀文章時,一方面要保留句子的大部分信息,另一方面要關(guān)注句子中重要的詞匯信息。在生成摘要時,應(yīng)對原文中的短語按照詞性做不同的處理,例如對名詞、動詞等有實(shí)際意義的詞匯信息,在生成摘要時保留信息;對于介詞、虛詞等無明顯含義的詞匯應(yīng)保留較少的信息。

    在Seq2Seq框架和attention機(jī)制的基礎(chǔ)之上提出了使用卷積神經(jīng)網(wǎng)絡(luò)提取詞匯特征,并將其融合在上下文中的方法,對原文的詞匯特征進(jìn)行提取,并和基礎(chǔ)框架所提取的句子特征一起構(gòu)成上下文特征矩陣,目的在于使用上下文信息時既要保留文本的序列信息,同時也要保留重點(diǎn)詞匯特征信息。

    1相關(guān)工作

    在生成單文檔摘要時,可通過深度學(xué)習(xí)的方式實(shí)現(xiàn),即使用大規(guī)模的數(shù)據(jù)集,以數(shù)據(jù)驅(qū)動的方式訓(xùn)練神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)原文淺層語義并生成摘要。在相關(guān)工作中,RUSH等[1]和CHOPRA等[2]使用Seq2Seq框架,在編碼器端給定輸入的句子,在解碼器端輸出摘要的每個詞,并以局部注意力機(jī)制提升效果。NALLAPATI等[3]融入傳統(tǒng)的TF-IDF,POS、命名實(shí)體等特征來提升效果,引入Pointer解決未知詞和低頻詞。HU等[4]提供了一個新的中文短文本摘要數(shù)據(jù)集(數(shù)據(jù)來源為新浪微博),并根據(jù)正文和摘要之間的相關(guān)性進(jìn)行了人工評分。YAO等[5]總結(jié)了近幾年文本摘要領(lǐng)域的新方法,從抽取式和生成式、單文檔和多文檔這幾方面進(jìn)行評價,包括數(shù)據(jù)集和評價方法等。摘要生成時,其輸出句子的長度較難把控,為解決這個問題,KIKUCHI等[6]提出在解碼器端,將原摘要的長度信息輸入到LSTM中進(jìn)行控制,取得了較好的結(jié)果。ZENG 等[7]考慮到人工編寫摘要時通常需要先對全文內(nèi)容通讀以了解文章主題,提出將全文信息通過RNN編碼為一個向量,再進(jìn)行解碼。SEE等[8]通過在輸出端對下一個詞的生成或復(fù)制的概率進(jìn)行預(yù)測,解決OOV(out-of-vocabulary)和低頻詞的問題。GEHRING等[9]將編碼器和解碼器用卷積神經(jīng)網(wǎng)絡(luò)替代,達(dá)到了接近state-of-the-art的表現(xiàn)。CHANG等[10]在生成中文摘要時,當(dāng)編碼器輸入詞時可使模型獲得較多的信息,解碼器輸出字時可壓縮并精簡文章的內(nèi)容。MA等[11]在訓(xùn)練時將摘要內(nèi)容進(jìn)行自編碼,監(jiān)督生成的原始內(nèi)容編碼,使編碼器生成的內(nèi)容更加接近參考摘要。PAULUS等[12]提出內(nèi)注意力機(jī)制解決重復(fù)詞語的問題,訓(xùn)練方法中融合了監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)以提升效果。WANG等[13]以convolutional sequence to sequence(ConvS2S)為基礎(chǔ),將主題信息融入其中,使用強(qiáng)化學(xué)習(xí)訓(xùn)練方法優(yōu)化。FAN等[14]根據(jù)用戶寫作摘要的風(fēng)格,包括摘要長度、用詞等特征生成摘要。GAO等[15]提出了讀者感知生成摘要的任務(wù),設(shè)計(jì)了一個名為讀者感知摘要生成器(RASG)的對抗性學(xué)習(xí)模型,將讀者的評論納入生成式摘要。針對PECH(產(chǎn)品感知答案生成)任務(wù),GAO等[16]設(shè)計(jì)了一種基于對抗性學(xué)習(xí)的模型PAAG,提出一種基于注意力機(jī)制的閱讀審查方式,用來捕獲給定的問題中與評論相關(guān)度最高的詞語。

    和上述工作不同的是,筆者提出基于Seq2Seq的框架,在上下文特征中加入由卷積神經(jīng)網(wǎng)絡(luò)提取的詞匯特征,根據(jù)詞性信息判斷詞匯的重要性,進(jìn)而保留文章的重點(diǎn)內(nèi)容,完成文本摘要的生成。

    2融合詞匯特征模型

    以Seq2Seq為基礎(chǔ)框架模型,結(jié)構(gòu)如圖1所示。在輸入層,使用詞性向量和詞向量進(jìn)行疊加,構(gòu)成整個網(wǎng)絡(luò)的輸入向量。在編碼器端,分為2部分:一部分使用雙向LSTM[17]模型,對分詞后的源文本內(nèi)容進(jìn)行句子級別的淺層表征學(xué)習(xí);另一部分使用卷積神經(jīng)網(wǎng)絡(luò)對所有詞匯提取n-gram和詞性特征,最后將2部分學(xué)習(xí)到的特征矩陣融合在一起,構(gòu)成上下文向量。在輸出摘要時使用單向的LSTM,每個時間步都需要對上下文特征矩陣進(jìn)行注意力權(quán)重的分配,進(jìn)而生成詞匯。

    2.1構(gòu)建輸入層向量

    融合短語特征的自動摘要模型的輸入由2部分構(gòu)成,第1部分將分詞后的源文本轉(zhuǎn)換成詞向量,使用xw={xw1,xw2,…,xwn}來表示;第2部分將源文本的詞性轉(zhuǎn)換為向量,用xp={xp1,xp2,…,xpn}表示,其中n表示輸入詞性的索引。最后,對輸入序列的詞向量和詞性向量連接,得到帶有詞性特征的輸入向量wp,如式(1)所示。wpn=∑ni=1[xwi;xpi]。 ????????????????????????????(1)2.2Seq2Seq模型

    編碼器使用雙向LSTM模型,輸入的是帶有詞性特征的向量,通常將編碼器所有輸出的隱藏狀態(tài)作為原始句子的淺層語義表示,在解碼器端對該向量進(jìn)行解碼。由于模型所使用的是雙向LSTM,每個時間步都接收來自前一時刻或后一時刻的隱層狀態(tài),所以在每個時間步需要對前向和后向的各個隱層狀態(tài)向量進(jìn)行連接,得到包含前后語義的隱藏狀態(tài)。式(2)中t,t+1表示后一時刻的隱層向量,式(3)中t,t-1表示前一時刻的隱層向量,式(4)中t表示當(dāng)前時刻融合前向和后向的隱層向量,對于解碼器同樣使用LSTM神經(jīng)網(wǎng)絡(luò)進(jìn)行解碼。t,t=LSTM(wpi,t+1,t+1),(2)

    t,t=LSTM(wpi,t-1,t-1),(3)

    t=[t:t]。(4)式(5)中st表示解碼器端的隱藏向量,ct表示LSTM中的狀態(tài)向量。式(6)中yt表示每個時間步輸出的摘要序列詞匯。st=LSTM(ct,yt-1,st-1),(5)

    yt=softmag(g[ct;st])。(6)2.3融合詞匯特征

    借鑒LIN 等[18]的工作內(nèi)容,依據(jù)其設(shè)定的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),卷積核的大小依次設(shè)定為k=1,k=3,使卷積神經(jīng)網(wǎng)絡(luò)能提取詞匯的n-gram的特征。在卷積層,將包含詞性的詞性序列作為基本單位輸入到網(wǎng)絡(luò)中,使用多個與輸入向量維度相一致的卷積單元學(xué)習(xí)詞匯特征。假設(shè)整個輸入序列的長度為n,對于每個卷積單元,經(jīng)過一次卷積后,生成與輸入矩陣大小相同的特征矩陣,最后將多個卷積結(jié)果和編碼器的隱層狀態(tài)連接,使用全連接層學(xué)習(xí)多種特征融合。h=(W[g1,g2,g3,]+b)。(7)式(7)中h為最終的編碼器隱層向量,維度為m×n,m代表輸入向量的維度,n表示輸入序列的長度,其中g(shù)1,g2,g3表示由卷積層輸出的特征矩陣。表示激活函數(shù)GLU[19]。得到融合詞匯特征和句子特征的隱層向量后,引入注意力機(jī)制[20]來捕獲輸出內(nèi)容與上下文向量的關(guān)聯(lián)程度。ct=∑Ni=1αtihi, ???????????????????????????????(8)

    αt=exp(eij)∑Tk=1exp(eik),(9)

    eij=α(si-1,hj)。(10)式(8)—式(10)中,ct表示當(dāng)前時刻的上下文向量,eij表示解碼器端隱層狀態(tài)st-1和編碼器隱層狀態(tài)hj之間的相關(guān)系數(shù)。當(dāng)輸出摘要時,需要將得到上下文的向量ct輸入到解碼器的LSTM單元中。

    2.4損失函數(shù)

    本文訓(xùn)練的模型采用反向傳播方式,目標(biāo)函數(shù)(代價函數(shù))為交叉熵代價函數(shù),將yt作為輸出生成的摘要詞匯,X為源文本輸入序列,模型訓(xùn)練的目標(biāo)是在給定輸入語句的情況下最大化每個輸出摘要詞的概率。式(11)中k表示同一個訓(xùn)練批次句子的索引,t表示句中輸入詞匯的索引。Δ=-1N∑Nk=1∑Tt=1log[p(y(k)t|y(k)

    3實(shí)驗(yàn)

    3.1數(shù)據(jù)集描述

    本文模型所使用的第一個數(shù)據(jù)集是大規(guī)模的中文短文本摘要數(shù)據(jù)集LCSTS[4],主要是收集自新浪微博的內(nèi)容,總共包含超過240多萬條摘要文本內(nèi)容。每對摘要文本中,其原始內(nèi)容少于140個字,摘要則由人工編寫。數(shù)據(jù)集共分為3部分,第1部分約240萬對,第2部分約1萬對,第3部分約1千對,其中第2部分和第3部分由人工方式對標(biāo)題和正文之間的相關(guān)度按照1至5進(jìn)行評分,得分越高相關(guān)度越高。按照HU等[4]的工作內(nèi)容,將數(shù)據(jù)集分割為訓(xùn)練集、驗(yàn)證集和測試集。另外,還使用第2個數(shù)據(jù)集,以人工方式收集并整理20條微博內(nèi)容供模型測試使用,參考摘要和原文內(nèi)容的抽取方式與LCSTS[4]數(shù)據(jù)集的抽取方式相同。

    3.2實(shí)驗(yàn)參數(shù)設(shè)置

    模型中詞向量的維度為512,詞性向量的維度為50,經(jīng)過網(wǎng)絡(luò)合并輸出后的特征維度為562。以每64個樣本為一個批次的方式進(jìn)行模型訓(xùn)練,設(shè)置Adam[21]的學(xué)習(xí)率為 0.001,設(shè)置代價函數(shù)的懲罰項(xiàng)為0.001。同時設(shè)置編碼器的LSTM神經(jīng)網(wǎng)絡(luò)層數(shù)為3層,解碼器的LSTM神經(jīng)網(wǎng)絡(luò)為1層,每個卷積層的輸出維度與輸入向量維度保持一致。該摘要生成模型運(yùn)行在Ubuntu 16.04系統(tǒng),運(yùn)行環(huán)境為PyTorch0.4和NVIDIA GTX 1080ti顯卡。

    3.3評價指標(biāo)設(shè)定

    實(shí)驗(yàn)借鑒RUSH等[1]的工作內(nèi)容,使用自動文本摘要的相關(guān)評測標(biāo)準(zhǔn)ROUGE[22]。該評測方法基于生成摘要和參考摘要中n-gram的共現(xiàn)信息來評價摘要質(zhì)量,現(xiàn)在被廣泛應(yīng)用于DUC評測任務(wù)。評測標(biāo)準(zhǔn)包括ROUGE-N,ROUGE-L等。其中N表示N元詞,而L表示最長公共序列。ROUGE-N的計(jì)算方式為ROUGE-N=∑S∈sumref∑gramn∈Scountmatch(gramn)∑S∈sumref∑gramn∈Scount(gramn),(12)式中:sumref表示參考摘要;countmatch(gramn)表示由模型生成的摘要和標(biāo)準(zhǔn)參考摘要中共同出現(xiàn)的n元詞個數(shù),count(gramn)則表示標(biāo)準(zhǔn)參考摘要中出現(xiàn)n元詞的個數(shù)。ROUGE-L表示模型生成摘要與標(biāo)準(zhǔn)參考摘要之間,最長的公共序列長度與參考摘要長度之間的比值。ROUGE-L相比于ROUGE-N考慮了摘要中詞語的次序,評價更為合理。

    4實(shí)驗(yàn)結(jié)果及分析

    本文所使用的對比模型是RNN[14]和RNN content[14]。其中,RNN content使用了上下文向量Content,將所有的編碼器輸出作為解碼器的輸入;RNN(W)使用的是jieba分詞后的文本進(jìn)行訓(xùn)練;RNN(C)使用基于詞的方法訓(xùn)練模型。Seq2Seq是本文所實(shí)現(xiàn)的基于Seq2Seq并結(jié)合注意力機(jī)制的模型,其編碼器和解碼器使用的分別為雙向LSTM和單向LSTM。

    表1給出的是不同模型的ROUGE測度值。本文所提出的融合詞匯特征的摘要生成模型與其他4種模型相比,性能有所提升。從表1中可以看出,使用雙向LSTM作為解碼器的Seq2Seq模型,要比單向的RNN作為編碼器的模型在ROUGE-1,ROUGE-2和ROUGE-L上分別提升0.013,0.020,0.019,說明使用雙向LSTM更能捕捉文章特征信息。融合詞匯特征的模型(HN)在基于Seq2Seq框架的基礎(chǔ)上,增加詞匯特征的融合要比不使用詞匯特征的模型在ROUGE-1,ROUGE-2和ROUGE-L上的指標(biāo)均有所提升。實(shí)驗(yàn)效果證明融合詞匯特征的模型比無詞匯特征的模型效果要更好一些。

    這里給出另一組與圖2中的實(shí)驗(yàn)結(jié)果樣例。源文本是:昨晚,南車、北車陸續(xù)發(fā)布公告。據(jù)一財(cái)記者多方了解,公告所提到的“籌劃重大事項(xiàng)”,正是醞釀將南北車合并,合并一事由國務(wù)院要求推進(jìn),并由國務(wù)委員王勇負(fù)責(zé)督辦,而合并背后的導(dǎo)火索,是兩家公司在海外市場競相壓價的“惡性競爭”。生成的摘要內(nèi)容:避免海外惡性競爭國務(wù)委員牽頭推南北車合并。圖2縱軸代表生成的摘要內(nèi)容,橫軸代表原文內(nèi)容,由于篇幅所限,只截取具有代表性的內(nèi)容。從圖2中可以看到,在生成的摘要詞匯和原文詞匯間注意力權(quán)重的不同,如原文內(nèi)容中的“合并一事由國務(wù)院要求推進(jìn)”與摘要中的“國務(wù)委員牽頭推南北車合并”,這兩段文本間色塊的深度明顯大于其他部分,表示這兩段內(nèi)容間有較強(qiáng)的關(guān)聯(lián)性。但圖2中也有一些注意力權(quán)重未能達(dá)到預(yù)期效果,如原文中的“由國務(wù)院”的“由”字和摘要中“南北車”的“車”字相關(guān)性最高,導(dǎo)致權(quán)重分配錯誤的原因可能是因?yàn)樵谀P陀?xùn)練過程中,對一些頻繁出現(xiàn)的搭配進(jìn)行了錯誤的學(xué)習(xí),解決途徑之一是增加訓(xùn)練集,以降低某些錯誤固定搭配的比例。

    表3所示的為本文所實(shí)現(xiàn)的HN模型和Seq2Seq模型在測試集2上的ROUGE分?jǐn)?shù)。從表3中可看到HN模型生成摘要的ROUGE分?jǐn)?shù)比Seq2Seq的要更高一點(diǎn)。說明本文所實(shí)現(xiàn)的模型在其他測試集上,也比單純的結(jié)合注意力機(jī)制的Seq2Seq模型更優(yōu)。但測試集1的ROUGE分?jǐn)?shù)明顯高于測試集2上的分?jǐn)?shù),主要由于測試集2為人工收集的數(shù)據(jù)集,考慮到成本問題,只有20條,數(shù)據(jù)不具有廣泛的代表性,僅作為比較模型的優(yōu)劣程度的指標(biāo)。

    5結(jié)語

    筆者提出的融合詞匯特征的模型應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)從原文本中提取詞匯特征,采用雙向LSTM提取句子特征,然后將詞匯特征與句子特征相融合,以達(dá)到利用詞匯特征尋找文章中重點(diǎn)內(nèi)容的需求。通過與其他模型相比較,證明了融合詞匯特征的模型是有效的。

    雖然所提出的模型達(dá)到了預(yù)期效果,但仍然有較大的提升空間,首先本文的模型只是通過非線性函數(shù)融合句子特征和詞匯特征,未對詞匯特征的權(quán)重進(jìn)行進(jìn)一步優(yōu)化,以后可考慮使用多層次注意力機(jī)制,對詞匯特征進(jìn)一步提取。其次在做摘要任務(wù)時,需要考慮文章的主題信息,而且如果文章內(nèi)容較長時,在模型的訓(xùn)練過程中通常會出現(xiàn)梯度爆炸或梯度消失等問題,也不利于模型提取重要信息。未來可進(jìn)一步考慮在長文本內(nèi)容中,使用劃分文章段落和句子的層次結(jié)構(gòu)的方法縮短序列,達(dá)到分塊提取重要信息的需求,同時可加入文章主題信息作為監(jiān)督,保證模型生成的摘要和文章主題相一致。

    參考文獻(xiàn)/References:

    [1]RUSH A M, CHOPRA S, WESTON J. A neural attention model for abstractive sentence summarization[C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon:[s.n.], 2015:379-389.

    [2]CHOPRA S, AULI M, RUSH A M. Abstractive sentence summarization with attentive recurrent neural networks[C]// Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies. San Diego:[s.n.], 2016: 93-98.

    [3]NALLAPATI R, ZHOU B, SANTOS C N D, et al. Abstractive text summarization using sequence-to-sequence rnns and beyond[C]//Proceedings of the 20th SIGNLL Conference on Computational Natural Language Learning. Berlin:[s.n.],2016:280-290.

    [4]HU Baotian, CHEN Qingcai, ZHU Fangze. LCSTS:A large scale Chinese short text summarization dataset[C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon:[s.n.],2015: 1967-1972.

    [5]YAO Jinge, WAN Xiaojun, XIAO Jianguo. Recent advances in document summarization[J]. Knowledge and Information Systems, 2017, 53(2): 297-336.

    [6]KIKUCHI Y, NEUBIG G, SASANO R, et al. Controlling output length in neural encoder-decoders[C]//Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Austin:[s.n.], 2016:1328-1338.

    [7]ZENG Wenyuan, LUO Wenjie, FIDLER S, et al. Efficient summarization with read-again and copy mechanism[C]// Proceedings of the International Conference on Learning Representations.[S.l.]:[s.n.],2017:1-13.

    [8]SEE A, LIU P J, MANNING C D. Get to the point: Summarization with pointer-generator networks[C]// Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. [S.l.]:[s.n.],2017:1073-1083.

    [9]GEHRING J, AULI M, GRANGIER D, et al. Convolutional sequence to sequence learning[C]//Proceedings of the 34th International Conference on Machine Learning. [S.l.]:[s.n.],2017: 1243-1252.

    [10]CHANG C T, HUANG C C, HSU J Y J, et al. A hybrid word-character model for abstractive summarization[EB/OL]. https://arxiv.org/pdf/1802.09968v2.pdf, 2018-02-28.

    [11]MA Shuming, SUN Xu, LIN Junyang, et al. Autoencoder as assistant supervisor: Improving text representation for Chinese social media text summarization[C]//Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Short Papers). Melbourne:[s.n.], 2018:725-731.

    [12]PAULUS R, XIONG Caiming, SOCHER R. A deep reinforced model for abstractive summarization[C]//Proceedings of Sixth International Conference on Learning Representations. [S.l.]:[s.n.],2017:1-13.

    [13]WANG Li, YAO Junlin, TAO Yunzhe, et al. A reinforced topic-aware convolutional sequence-to-sequence model for abstractive text summarization[C]//Proceedings of the 27th International Joint Conference on Artificial Intelligence (IJCAI). [S.l.]:[s.n.], 2018: 4453-4460.

    [14]FAN A, GRANGIER D, AULI M. Controllable abstractive summarization[C]//Proceedings of the 2nd Workshop on Neural Machine Translation and Generation. Melbourne:[s.n.],2017:45-54.

    [15]GAO Shen, CHEN Xiuying, LI Piji, et al. Abstractive text summarization by incorporating reader comments[EB/OL]. https://arxiv.org/pdf/1812.05407v1.pdf, 2018-12-13.

    [16]GAO Shen, CHEN Xiuying, LI Piji,et al. Product-aware answer generation in e-commerce question-answering[C]//Proceedings of the 12th ACM International Conference on Web Search and Data Mining.[S.l.]:[s.n.],2019:07696.

    [17]HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.

    [18]LIN Junyang, SUN Xu, MA Shuming, et al. Global encoding for abstractive summarization[C]//Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics(Short Papers). Melbourne:[s.n.], 2018:163-169.

    [19]DAUPHIN Y N, FAN A, AULI M, et al. Language modeling with gated convolutional networks[C]//Proceedings of the 34th International Conference on Machine Learning. Sydney:[s.n.], 2017: 933-941.

    [20]BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate[C]// Proceedings of International Conference on Learning Representations.San Diego:[s.n.], 2015:14090473V6.

    [21]KINGMA D P, BA J L. Adam: A method for stochastic optimization[C]//Proceedings of International Conference on Learning Representations.San Diego:[s.n.], 2015:1412.6980V9.

    [22]LIN C Y, HOVY E. Automatic evaluation of summaries using N-gram co-occurrence statistics[C]//Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology.Stroudsburg:[s.n.], 2003:71-78.第40卷第2期河北科技大學(xué)學(xué)報(bào)Vol.40,No.2

    2019年4月Journal of Hebei University of Science and TechnologyApr. 2019

    猜你喜歡
    注意力機(jī)制自然語言處理
    基于深度學(xué)習(xí)的問題回答技術(shù)研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    基于注意力機(jī)制的雙向LSTM模型在中文商品評論情感分類中的研究
    InsunKBQA:一個基于知識庫的問答系統(tǒng)
    基于組合分類算法的源代碼注釋質(zhì)量評估方法
    面向機(jī)器人導(dǎo)航的漢語路徑自然語言組塊分析方法研究
    漢哈機(jī)器翻譯中的文字轉(zhuǎn)換技術(shù)研究
    HowNet在自然語言處理領(lǐng)域的研究現(xiàn)狀與分析
    深爱激情五月婷婷| 久久久久久久久久成人| 国产精品日韩av在线免费观看| 老熟妇仑乱视频hdxx| 国产乱人伦免费视频| 欧美日本视频| 欧美潮喷喷水| 国产av一区在线观看免费| 亚洲人成伊人成综合网2020| 波多野结衣高清作品| 欧美一区二区国产精品久久精品| 国产女主播在线喷水免费视频网站 | 99在线视频只有这里精品首页| 亚州av有码| 婷婷六月久久综合丁香| 精品人妻偷拍中文字幕| 99久久久亚洲精品蜜臀av| 免费av不卡在线播放| 99久久九九国产精品国产免费| 18+在线观看网站| 干丝袜人妻中文字幕| 少妇人妻精品综合一区二区 | 一级av片app| 好男人在线观看高清免费视频| 色播亚洲综合网| 免费不卡的大黄色大毛片视频在线观看 | av在线观看视频网站免费| 精品久久久久久久久久免费视频| 国产在视频线在精品| 久久精品国产亚洲av天美| av黄色大香蕉| 深夜精品福利| 在线免费观看的www视频| 亚洲自拍偷在线| 成人国产麻豆网| 日日啪夜夜撸| 男女边吃奶边做爰视频| 国产成人aa在线观看| 午夜福利在线在线| 国产精品一区二区性色av| 三级男女做爰猛烈吃奶摸视频| 免费无遮挡裸体视频| 成人国产综合亚洲| 久久精品国产亚洲av涩爱 | 日本黄大片高清| 亚洲最大成人中文| 18+在线观看网站| 尾随美女入室| 日日摸夜夜添夜夜添av毛片 | 成年女人永久免费观看视频| 美女高潮喷水抽搐中文字幕| 亚州av有码| 色吧在线观看| 国产精品,欧美在线| 国内揄拍国产精品人妻在线| 国产主播在线观看一区二区| 97超视频在线观看视频| 久久精品夜夜夜夜夜久久蜜豆| 婷婷六月久久综合丁香| 国产精品免费一区二区三区在线| 免费av毛片视频| 此物有八面人人有两片| 亚洲国产高清在线一区二区三| 在线天堂最新版资源| 欧美日韩综合久久久久久 | 黄片wwwwww| 悠悠久久av| 日韩欧美国产一区二区入口| 波多野结衣高清无吗| 91av网一区二区| 97超视频在线观看视频| 久久久久久久久大av| 亚洲av美国av| 99热网站在线观看| 色在线成人网| 亚洲真实伦在线观看| 国产午夜精品久久久久久一区二区三区 | 99久久精品热视频| 男人舔奶头视频| 一区二区三区高清视频在线| 国产高潮美女av| 在线天堂最新版资源| 国产免费一级a男人的天堂| 亚洲av中文av极速乱 | 99久久精品国产国产毛片| 亚洲五月天丁香| 中文字幕av成人在线电影| 亚洲av成人av| 婷婷精品国产亚洲av| 99热这里只有是精品50| 最后的刺客免费高清国语| 全区人妻精品视频| 婷婷亚洲欧美| 亚洲电影在线观看av| av在线蜜桃| 人人妻,人人澡人人爽秒播| 日本黄大片高清| 久久欧美精品欧美久久欧美| 2021天堂中文幕一二区在线观| 久久国产乱子免费精品| 日韩欧美精品v在线| 国产高清激情床上av| 日本精品一区二区三区蜜桃| 国产黄a三级三级三级人| 男女边吃奶边做爰视频| 亚洲aⅴ乱码一区二区在线播放| netflix在线观看网站| 精品久久久久久久末码| 午夜亚洲福利在线播放| 一区二区三区四区激情视频 | 欧美变态另类bdsm刘玥| 91精品一卡2卡3卡4卡| 黄色一级大片看看| 女人久久www免费人成看片| 国产精品一区二区三区四区免费观看| 国产精品99久久久久久久久| 国产精品女同一区二区软件| 一边亲一边摸免费视频| 91久久精品国产一区二区三区| 美女xxoo啪啪120秒动态图| 亚洲色图综合在线观看| 国产精品免费大片| 国产亚洲最大av| 久久青草综合色| 国产高清国产精品国产三级 | 成人一区二区视频在线观看| 欧美人与善性xxx| 一个人看的www免费观看视频| 99国产精品免费福利视频| 人人妻人人爽人人添夜夜欢视频 | 亚洲国产精品一区三区| 有码 亚洲区| 丰满乱子伦码专区| 欧美性感艳星| 狂野欧美激情性xxxx在线观看| 18禁在线播放成人免费| 久久 成人 亚洲| 久久国内精品自在自线图片| 亚洲精品国产av成人精品| 丝袜脚勾引网站| 97精品久久久久久久久久精品| 日韩一区二区三区影片| 久久久久久久大尺度免费视频| 久久久久久久久久久丰满| 国产欧美日韩精品一区二区| 日韩欧美一区视频在线观看 | 日韩电影二区| 欧美+日韩+精品| 国产白丝娇喘喷水9色精品| 夫妻性生交免费视频一级片| 22中文网久久字幕| 精华霜和精华液先用哪个| 亚洲国产av新网站| 国产精品三级大全| 深爱激情五月婷婷| 91精品伊人久久大香线蕉| 日本一二三区视频观看| 熟女人妻精品中文字幕| 干丝袜人妻中文字幕| 麻豆国产97在线/欧美| 爱豆传媒免费全集在线观看| 一级二级三级毛片免费看| 久久韩国三级中文字幕| 日韩亚洲欧美综合| 婷婷色av中文字幕| av在线老鸭窝| av视频免费观看在线观看| 99re6热这里在线精品视频| 色网站视频免费| 日韩av在线免费看完整版不卡| 亚洲天堂av无毛| 日韩三级伦理在线观看| 人人妻人人添人人爽欧美一区卜 | 麻豆精品久久久久久蜜桃| 亚洲国产成人一精品久久久| 丝袜喷水一区| 尾随美女入室| 人体艺术视频欧美日本| 国产黄频视频在线观看| 我的女老师完整版在线观看| 国产黄片视频在线免费观看| 成年人午夜在线观看视频| 如何舔出高潮| 成人一区二区视频在线观看| 大香蕉久久网| 中文字幕av成人在线电影| 精品一区二区免费观看| 国产高清国产精品国产三级 | 黄色日韩在线| 久久99精品国语久久久| 国产成人免费观看mmmm| 99九九线精品视频在线观看视频| 亚洲婷婷狠狠爱综合网| 免费在线观看成人毛片| 又爽又黄a免费视频| 在线精品无人区一区二区三 | 亚洲精品日本国产第一区| 狠狠精品人妻久久久久久综合| 国产无遮挡羞羞视频在线观看| av在线老鸭窝| 亚洲最大成人中文| 2022亚洲国产成人精品| 亚洲精品自拍成人| 日韩三级伦理在线观看| 免费观看无遮挡的男女| 日韩一区二区三区影片| 黄色欧美视频在线观看| h日本视频在线播放| 久久久亚洲精品成人影院| 男女下面进入的视频免费午夜| 18禁在线播放成人免费| 下体分泌物呈黄色| 中文字幕免费在线视频6| 国产伦理片在线播放av一区| 成年美女黄网站色视频大全免费 | 又黄又爽又刺激的免费视频.| 国产一区二区三区综合在线观看 | 精品午夜福利在线看| av在线播放精品| 久久99热6这里只有精品| 秋霞伦理黄片| 国产高潮美女av| 久久久久精品久久久久真实原创| 我要看日韩黄色一级片| 99久国产av精品国产电影| 在线亚洲精品国产二区图片欧美 | 久久人人爽av亚洲精品天堂 | 精品熟女少妇av免费看| av国产免费在线观看| 亚洲精品国产成人久久av| 国产在视频线精品| 久久久久久久国产电影| 欧美老熟妇乱子伦牲交| 中文字幕av成人在线电影| 国产欧美另类精品又又久久亚洲欧美| 亚洲aⅴ乱码一区二区在线播放| 丰满少妇做爰视频| 麻豆乱淫一区二区| 在线观看免费视频网站a站| 夜夜看夜夜爽夜夜摸| 九九久久精品国产亚洲av麻豆| 亚洲精品久久午夜乱码| 国产精品99久久99久久久不卡 | 欧美97在线视频| 九草在线视频观看| 亚洲美女黄色视频免费看| 国产精品三级大全| 亚洲欧美清纯卡通| 国产 一区 欧美 日韩| 成人免费观看视频高清| 国产精品福利在线免费观看| 国产亚洲最大av| 水蜜桃什么品种好| 久久毛片免费看一区二区三区| 国产免费福利视频在线观看| 免费不卡的大黄色大毛片视频在线观看| 美女福利国产在线 | 国产伦精品一区二区三区四那| 久久人妻熟女aⅴ| 精品一区二区免费观看| 天堂8中文在线网| 秋霞在线观看毛片| 国产精品麻豆人妻色哟哟久久| 日韩制服骚丝袜av| 亚洲伊人久久精品综合| 六月丁香七月| 亚洲不卡免费看| 久久国产精品大桥未久av | 一本色道久久久久久精品综合| 女人十人毛片免费观看3o分钟| 国产v大片淫在线免费观看| 日韩成人伦理影院| 亚洲精品亚洲一区二区| 2018国产大陆天天弄谢| 久久久色成人| 国产成人a区在线观看| 亚洲成色77777| 亚洲美女视频黄频| av国产久精品久网站免费入址| 欧美成人精品欧美一级黄| 国产成人一区二区在线| 午夜日本视频在线| 免费av中文字幕在线| 精品人妻熟女av久视频| 国产伦精品一区二区三区四那| 国产女主播在线喷水免费视频网站| 日韩中文字幕视频在线看片 | 女人久久www免费人成看片| 性高湖久久久久久久久免费观看| 国产真实伦视频高清在线观看| 免费av中文字幕在线| 女性被躁到高潮视频| 黄色视频在线播放观看不卡| 国产高清三级在线| 久久av网站| 男女免费视频国产| 国产男人的电影天堂91| 国产在视频线精品| 少妇精品久久久久久久| 午夜福利在线观看免费完整高清在| 亚洲精品色激情综合| 亚洲国产色片| 日本欧美视频一区| 三级国产精品欧美在线观看| 又粗又硬又长又爽又黄的视频| 国产在视频线精品| av专区在线播放| 日韩av不卡免费在线播放| 日韩大片免费观看网站| 成人无遮挡网站| 久久精品国产鲁丝片午夜精品| 国产精品一区二区在线观看99| 99久久精品热视频| 国产精品久久久久久av不卡| 久久精品国产a三级三级三级| 国产高清不卡午夜福利| 国产精品av视频在线免费观看| 亚洲精品久久午夜乱码| 亚洲人成网站在线播| 网址你懂的国产日韩在线| 亚洲精品乱久久久久久| 国产精品嫩草影院av在线观看| 大又大粗又爽又黄少妇毛片口| 你懂的网址亚洲精品在线观看| 日韩中文字幕视频在线看片 | 国产精品99久久久久久久久| 国产 一区精品| 国产免费视频播放在线视频| 18禁动态无遮挡网站| 亚洲av日韩在线播放| 青春草亚洲视频在线观看| 少妇熟女欧美另类| 国产伦在线观看视频一区| 亚洲一区二区三区欧美精品| 久久综合国产亚洲精品| 精品99又大又爽又粗少妇毛片| 肉色欧美久久久久久久蜜桃| 国产精品欧美亚洲77777| 久久精品国产亚洲网站| 亚洲久久久国产精品| 草草在线视频免费看| 女人十人毛片免费观看3o分钟| 伊人久久国产一区二区| 成年美女黄网站色视频大全免费 | 18+在线观看网站| 亚洲一区二区三区欧美精品| 偷拍熟女少妇极品色| 久久久久久人妻| 精品国产一区二区三区久久久樱花 | 两个人的视频大全免费| 夫妻午夜视频| 一级av片app| 国产精品一区二区在线观看99| 国产成人免费观看mmmm| 日韩免费高清中文字幕av| 久久这里有精品视频免费| 街头女战士在线观看网站| 女人十人毛片免费观看3o分钟| 精品人妻一区二区三区麻豆| 欧美精品人与动牲交sv欧美| 日韩强制内射视频| 色视频www国产| 亚洲国产高清在线一区二区三| 2018国产大陆天天弄谢| 久久99热6这里只有精品| 免费av不卡在线播放| av又黄又爽大尺度在线免费看| 久久人人爽人人片av| 黄色一级大片看看| 国产欧美另类精品又又久久亚洲欧美| 国产美女午夜福利| 国产在线视频一区二区| 久久久久久伊人网av| 国内精品宾馆在线| 在线播放无遮挡| 亚洲成人中文字幕在线播放| 亚洲va在线va天堂va国产| 午夜视频国产福利| 美女主播在线视频| 国产亚洲精品久久久com| 国产午夜精品一二区理论片| 欧美精品一区二区免费开放| 男男h啪啪无遮挡| 中文字幕久久专区| 亚洲真实伦在线观看| 亚洲成人手机| 国产免费又黄又爽又色| 亚洲欧美精品专区久久| 久久韩国三级中文字幕| 国产欧美日韩精品一区二区| 亚洲成人中文字幕在线播放| 高清欧美精品videossex| 另类亚洲欧美激情| 亚洲欧美成人综合另类久久久| 欧美xxxx性猛交bbbb| 国产精品人妻久久久影院| 99热这里只有是精品在线观看| 亚洲色图av天堂| 国产亚洲欧美精品永久| 美女视频免费永久观看网站| 欧美三级亚洲精品| 少妇裸体淫交视频免费看高清| 国产精品麻豆人妻色哟哟久久| 亚洲欧美精品专区久久| 一级毛片我不卡| 高清视频免费观看一区二区| 亚洲精品乱久久久久久| 韩国高清视频一区二区三区| 全区人妻精品视频| 色视频在线一区二区三区| 在线观看人妻少妇| 国产精品国产三级专区第一集| 亚洲国产最新在线播放| 国产av一区二区精品久久 | 高清av免费在线| 2021少妇久久久久久久久久久| 中国美白少妇内射xxxbb| 中文欧美无线码| 欧美性感艳星| 少妇精品久久久久久久| 少妇人妻一区二区三区视频| 大香蕉97超碰在线| 伦精品一区二区三区| 一本—道久久a久久精品蜜桃钙片| 热re99久久精品国产66热6| 久久人妻熟女aⅴ| 久久97久久精品| 亚洲av中文字字幕乱码综合| 精品国产三级普通话版| 亚洲欧美中文字幕日韩二区| 一个人看视频在线观看www免费| 日本wwww免费看| 韩国高清视频一区二区三区| 欧美xxⅹ黑人| 国产免费视频播放在线视频| 欧美高清成人免费视频www| 日韩精品有码人妻一区| 国产乱来视频区| 色婷婷久久久亚洲欧美| 美女中出高潮动态图| 一区二区av电影网| 国产乱来视频区| 全区人妻精品视频| 日本av手机在线免费观看| 精品视频人人做人人爽| 九九久久精品国产亚洲av麻豆| 麻豆精品久久久久久蜜桃| 国产高清三级在线| 免费看光身美女| 国产精品欧美亚洲77777| 在线亚洲精品国产二区图片欧美 | 亚洲精品456在线播放app| 寂寞人妻少妇视频99o| 欧美性感艳星| 欧美97在线视频| 久久精品久久久久久噜噜老黄| 成人国产av品久久久| 大片免费播放器 马上看| 国产成人午夜福利电影在线观看| 日韩大片免费观看网站| 国产v大片淫在线免费观看| 男女边摸边吃奶| 日韩免费高清中文字幕av| h日本视频在线播放| 偷拍熟女少妇极品色| 国产淫语在线视频| 国产成人91sexporn| 国产一级毛片在线| 国产永久视频网站| 丰满少妇做爰视频| 久久鲁丝午夜福利片| 一级毛片电影观看| 亚洲av成人精品一区久久| 欧美日韩精品成人综合77777| 能在线免费看毛片的网站| 亚洲性久久影院| 少妇的逼好多水| 精品亚洲成国产av| 日日啪夜夜撸| 久久久久精品性色| 亚洲国产高清在线一区二区三| 卡戴珊不雅视频在线播放| 人人妻人人看人人澡| 丰满人妻一区二区三区视频av| 久久精品久久久久久久性| 成人亚洲精品一区在线观看 | 美女高潮的动态| 亚洲激情五月婷婷啪啪| 在现免费观看毛片| 亚洲av二区三区四区| 久久6这里有精品| 免费大片黄手机在线观看| 欧美性感艳星| 熟女av电影| 欧美另类一区| 国产成人午夜福利电影在线观看| 国产欧美日韩精品一区二区| 少妇人妻 视频| a 毛片基地| 两个人的视频大全免费| 狂野欧美白嫩少妇大欣赏| 91午夜精品亚洲一区二区三区| 国产中年淑女户外野战色| 国产精品成人在线| 久热久热在线精品观看| 在线观看一区二区三区| 日日啪夜夜爽| 国产精品一及| 欧美成人午夜免费资源| 精品久久久久久久久亚洲| 亚洲精品456在线播放app| 欧美日韩精品成人综合77777| 如何舔出高潮| 草草在线视频免费看| tube8黄色片| 中文精品一卡2卡3卡4更新| 亚洲av中文字字幕乱码综合| 亚洲av电影在线观看一区二区三区| 日韩成人伦理影院| 日本av手机在线免费观看| 亚洲成色77777| 亚洲第一av免费看| 我的女老师完整版在线观看| 精品久久久噜噜| 欧美少妇被猛烈插入视频| h视频一区二区三区| 国产精品精品国产色婷婷| 精品少妇黑人巨大在线播放| 亚洲精品久久午夜乱码| 亚洲av二区三区四区| 久久国内精品自在自线图片| 男的添女的下面高潮视频| 少妇熟女欧美另类| 亚洲欧美精品专区久久| 内地一区二区视频在线| 各种免费的搞黄视频| 中文在线观看免费www的网站| 黑人高潮一二区| 成人午夜精彩视频在线观看| 高清av免费在线| 亚洲精品一二三| 日本爱情动作片www.在线观看| 免费大片黄手机在线观看| 美女内射精品一级片tv| av天堂中文字幕网| 国产亚洲精品久久久com| 中文字幕av成人在线电影| 妹子高潮喷水视频| 欧美日韩精品成人综合77777| 欧美极品一区二区三区四区| 色婷婷av一区二区三区视频| 亚洲av在线观看美女高潮| 99久久中文字幕三级久久日本| 国产亚洲av片在线观看秒播厂| 久久女婷五月综合色啪小说| 亚洲怡红院男人天堂| 亚洲成人一二三区av| 久久精品久久久久久噜噜老黄| 国产91av在线免费观看| 免费人妻精品一区二区三区视频| 国产69精品久久久久777片| 国产极品天堂在线| 韩国av在线不卡| 亚洲欧美精品专区久久| 蜜桃亚洲精品一区二区三区| 久久国产乱子免费精品| 蜜桃亚洲精品一区二区三区| 少妇丰满av| 新久久久久国产一级毛片| 我的女老师完整版在线观看| 国产高清三级在线| 欧美精品国产亚洲| 国产淫语在线视频| 久久久精品94久久精品| 91精品一卡2卡3卡4卡| 久久久久久久精品精品| 不卡视频在线观看欧美| 欧美zozozo另类| 三级经典国产精品| 亚洲高清免费不卡视频| 最近中文字幕2019免费版| 男人和女人高潮做爰伦理| 亚洲av欧美aⅴ国产| 久久精品国产亚洲网站| 成人黄色视频免费在线看| 国产91av在线免费观看| 七月丁香在线播放| 成人一区二区视频在线观看| 丰满乱子伦码专区| 日日摸夜夜添夜夜添av毛片| 久久影院123| 欧美激情极品国产一区二区三区 | 亚洲色图综合在线观看| 国产精品一区二区在线观看99| 亚洲婷婷狠狠爱综合网| 你懂的网址亚洲精品在线观看| 久久国内精品自在自线图片| 国产永久视频网站| 久久精品国产亚洲网站| 成人黄色视频免费在线看| 成年av动漫网址| 国产精品一及| 少妇精品久久久久久久| 免费久久久久久久精品成人欧美视频 | 少妇裸体淫交视频免费看高清| 大香蕉久久网| av国产久精品久网站免费入址| 高清午夜精品一区二区三区| 久久久色成人| freevideosex欧美| 欧美 日韩 精品 国产| 免费播放大片免费观看视频在线观看| 老师上课跳d突然被开到最大视频| 久久久久视频综合| 小蜜桃在线观看免费完整版高清|