• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于層級(jí)池化序列匹配的知識(shí)圖譜復(fù)雜問(wèn)答最優(yōu)查詢圖選擇方法

    2024-11-26 00:00:00王冬周思航黃健張中杰

    摘 要: 在處理知識(shí)圖譜復(fù)雜問(wèn)答任務(wù)時(shí),傳統(tǒng)的查詢圖語(yǔ)義解析方法需要在排序階段對(duì)大量結(jié)構(gòu)復(fù)雜的候選查詢圖進(jìn)行語(yǔ)義編碼,用以獲得各自多維特征表示。然而,在編碼過(guò)程中采用的全局最大或平均池化操作通常存在對(duì)代表性特征提取能力不足的問(wèn)題。針對(duì)以上問(wèn)題,提出一種基于層級(jí)池化序列匹配的最優(yōu)查詢圖選擇方法。在實(shí)現(xiàn)候選查詢圖的交互建模過(guò)程中,同時(shí)采用層級(jí)池化滑動(dòng)窗口技術(shù)分層提取問(wèn)句和查詢圖序列對(duì)的局部顯著性特征與全局語(yǔ)義特征,使得到的特征向量更好地用于候選查詢圖的語(yǔ)義匹配打分。所提方法在兩個(gè)流行的復(fù)雜問(wèn)答數(shù)據(jù)集MetaQA和WebQuestionsSP上開(kāi)展廣泛實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明:引入層級(jí)池化操作能夠有效提取復(fù)雜查詢圖序列的代表性語(yǔ)義特征,增強(qiáng)原有排序模型的交互編碼能力,有助于進(jìn)一步提升知識(shí)圖譜復(fù)雜問(wèn)答系統(tǒng)的性能。

    關(guān)鍵詞: 知識(shí)圖譜復(fù)雜問(wèn)答; 查詢圖語(yǔ)義解析; 層級(jí)池化; 交互編碼

    中圖分類號(hào): TP 391

    文獻(xiàn)標(biāo)志碼: A

    DOI:10.12305/j.issn.1001-506X.2024.08.16

    Hierarchical pooling sequence matching based optimal selection method of

    query graph for complex question answering over knowledge graph

    WANG Dong, ZHOU Sihang, HUANG Jian*, ZHANG Zhongjie

    (School of Intelligence Science, National University of Defense Technology, Changsha 410073, China)

    Abstract: When dealing with complex question answering task over knowledge graph, traditional semantic parsing method for query graphs requires encoding massive candidate query graphs with complex structures in the ranking stage to obtain their respective multi-dimensional feature representations. However, the global maximum or average pooling operation used during the encoding process often suffers from insufficient extracting capability for representative feature. To address the aforementioned problem, an optimal selection method for query graphs based on hierarchical pooling sequence matching is proposed. Meanwhile, sliding window technique based on hierarchical pooling is adopted to hierarchically extract local salient features and global semantic features of question and query graph sequence pairs during the interactive modeling of candidate query graphs, making the resulting feature vectors better used for semantic matching scoring of candidate query graphs. The proposed method is extensively evaluated on two popular complex question answering datasets, MetaQA and WebQuestionsSP. Experiment results show that by introducing hierarchical pooling operation, representative semantic features of complex query graph sequences can be effectively extracted, and the interactive encoding capability of the original ranking model can be enhanced, which helps further improve the performance of complex question answering systems over knowledge graph.

    Keywords: complex question answering over knowledge graph; semantic parsing for query graph; hierarchical pooling; interactive encoding

    0 引 言

    在大數(shù)據(jù)時(shí)代,傳統(tǒng)搜索引擎檢索信息的方法越來(lái)越難以滿足用戶對(duì)精確答案的需求。而知識(shí)圖譜問(wèn)答(knowledge graph question answering, KGQA)[1-3作為一種高級(jí)的信息檢索方式,是依靠人工智能快速發(fā)展而產(chǎn)生的新技術(shù),可以支持用戶便捷地獲取相對(duì)細(xì)粒度的知識(shí),使其在眾多人機(jī)交互的實(shí)際智能應(yīng)用中發(fā)揮出強(qiáng)大的作用。基于知識(shí)圖譜的問(wèn)答系統(tǒng)試圖理解用戶的問(wèn)題意圖,自動(dòng)將自然語(yǔ)言問(wèn)題轉(zhuǎn)化為標(biāo)準(zhǔn)的可執(zhí)行查詢語(yǔ)句,然后通過(guò)結(jié)構(gòu)化查詢將知識(shí)圖譜中與所提問(wèn)題相關(guān)的實(shí)體、屬性值等信息,作為問(wèn)題可能的答案反饋給用戶。在學(xué)界和工業(yè)界的共同關(guān)注下,KGQA逐步成為近年來(lái)的研究熱點(diǎn)[4-5。

    早期KGQA的研究主要集中在回答簡(jiǎn)單的問(wèn)題[6-7,即只需要根據(jù)一個(gè)事實(shí)三元組就能回答問(wèn)題,例如“斯蒂芬·庫(kù)里目前在哪一支NBA球隊(duì)效力?”這個(gè)簡(jiǎn)單問(wèn)題可以直接從一個(gè)事實(shí)三元組(斯蒂芬·庫(kù)里,效力于,金州勇士)推出答案。而隨著問(wèn)題難度增大,越來(lái)越多研究者們開(kāi)始關(guān)注如何在知識(shí)圖譜上解決復(fù)雜問(wèn)答(complex question answering, CQA)任務(wù),在回答復(fù)雜問(wèn)題的過(guò)程中通常涉及多個(gè)實(shí)體、多個(gè)語(yǔ)義關(guān)系或不同的聚合操作(例如比較大小、統(tǒng)計(jì)數(shù)量、判斷等)[8,主要包括多跳類、約束類等復(fù)雜問(wèn)題類型。

    為應(yīng)對(duì)CQA中的多跳問(wèn)題,需正確預(yù)測(cè)答案檢索的多跳關(guān)系路徑。在基于信息檢索的問(wèn)答方法中,Xu等[9通過(guò)強(qiáng)化傳統(tǒng)的鍵值對(duì)記憶網(wǎng)絡(luò)提出一個(gè)可解釋推理方法,該方法采用新的查詢更新策略考慮了過(guò)去多跳推理過(guò)程中已尋址的鍵值信息。而Sun等[10-11提出在迭代構(gòu)建的問(wèn)題子圖上利用圖卷積網(wǎng)絡(luò)(graph convolutional network, GCN)進(jìn)行多跳推理,但該方法在構(gòu)建子圖時(shí)容易犧牲掉對(duì)答案實(shí)體的召回。為設(shè)計(jì)多跳推理框架,EmbedKGQA[12分別學(xué)習(xí)知識(shí)圖譜嵌入和問(wèn)題嵌入,最后將其結(jié)合起來(lái),與評(píng)分模型選擇答案,但在面對(duì)過(guò)長(zhǎng)關(guān)系路徑或約束類復(fù)雜問(wèn)題時(shí),該模型的表示學(xué)習(xí)效率仍有待提高。而TransferNet[13會(huì)計(jì)算每個(gè)路徑關(guān)系在當(dāng)前查詢狀態(tài)下的激活概率,然后在這些激活關(guān)系之間實(shí)現(xiàn)答案實(shí)體分?jǐn)?shù)的傳遞。以上方法在處理多跳問(wèn)答任務(wù)時(shí)擁有較好的性能,但在長(zhǎng)關(guān)系路徑的形成過(guò)程中難免會(huì)積累與傳播由逐跳推理產(chǎn)生的預(yù)測(cè)誤差。

    為了更好地將復(fù)雜問(wèn)題解析為表達(dá)能力更強(qiáng)的邏輯形式,許多研究者提出使用基于查詢圖的語(yǔ)義解析方法來(lái)處理約束類復(fù)雜問(wèn)題[8,一般可以分為查詢圖生成和查詢圖選擇兩個(gè)階段。在階段性查詢圖生成方法[14的基礎(chǔ)上,Bao等[15提出多約束查詢圖模型,通過(guò)增加約束條件類型,使模型可以生成更多結(jié)構(gòu)復(fù)雜的候選查詢圖,并使用排序模型來(lái)選擇候選集中的最優(yōu)查詢圖。Maheshwari等[16則根據(jù)動(dòng)態(tài)的問(wèn)題表示以及候選查詢圖的結(jié)構(gòu),使用槽匹配方法對(duì)生成的查詢圖進(jìn)行排序。Qin等[17基于關(guān)系子圖提出一種新的查詢圖生成方法。而Lan等[18提出一種同時(shí)掛載約束和擴(kuò)展關(guān)系路徑的方法,有效地減小了查詢圖生成的搜索空間。然而,這些方法在查詢圖生成階段,會(huì)枚舉出規(guī)定跳步范圍內(nèi)所有可能結(jié)構(gòu)的候選查詢圖,不可避免地引入了一些拓?fù)浣Y(jié)構(gòu)不同但語(yǔ)義表達(dá)高度相似的噪聲查詢圖,削弱了排序模型的預(yù)測(cè)準(zhǔn)確率。針對(duì)這個(gè)問(wèn)題,Chen等[19和Li等[20提出將查詢圖的語(yǔ)義結(jié)構(gòu)預(yù)測(cè)問(wèn)題定義為抽象查詢圖生成或分類排序問(wèn)題,通過(guò)濾除操作減少候選查詢圖中的結(jié)構(gòu)噪聲干擾。雖然經(jīng)過(guò)以上改進(jìn),噪聲干擾問(wèn)題有了較大的改進(jìn),但以上兩種方法仍缺少對(duì)于查詢圖選擇階段的性能提升,導(dǎo)致最后選擇的最優(yōu)查詢圖可能并非是問(wèn)題對(duì)應(yīng)的正例查詢圖,限制了KGQA系統(tǒng)整體性能的進(jìn)一步提升。

    為提升最優(yōu)查詢圖選擇的精準(zhǔn)度,部分研究者為查詢圖選擇階段設(shè)計(jì)了性能更加良好的查詢圖排序模型,并將問(wèn)句和候選查詢圖的語(yǔ)義相似度作為評(píng)判最優(yōu)查詢圖的重要依據(jù)。其中,Luo等[21提出在統(tǒng)一的向量表示框架內(nèi)對(duì)問(wèn)句和查詢圖進(jìn)行編碼,并從局部和全局視角出發(fā),利用雙向門(mén)控循環(huán)單元(bidirectional gate recurrent unit, BiGRU)獲得問(wèn)句或查詢圖的最終特征表示,并結(jié)合其他人工定義特征參與最后的排序打分。Jia等[22基于Transformers的雙向編碼器表示(bidirectional encoder representations from Transformers, BERT)[23排序模型實(shí)現(xiàn)問(wèn)句和查詢圖的交互編碼,同時(shí)引入全局排序策略,使BERT模型能從候選集合中更好地識(shí)別出最優(yōu)查詢圖。文獻(xiàn)[18]和文獻(xiàn)[22]以序列對(duì)形式進(jìn)行編碼,雖然可以彌補(bǔ)查詢圖缺失的部分問(wèn)句信息,但在對(duì)查詢圖進(jìn)行語(yǔ)義編碼之前,還需要提前迭代生成查詢圖序列或設(shè)定查詢圖子序列的編碼順序,這些編碼前的準(zhǔn)備工作使得問(wèn)句和查詢圖的交互建模過(guò)程變得復(fù)雜且缺乏一定的適用性。此外,隨著問(wèn)句難度的增加,其對(duì)應(yīng)候選查詢圖的圖結(jié)構(gòu)和序列表示也會(huì)變得更加復(fù)雜,以上排序模型如果在編碼過(guò)程中仍采用常見(jiàn)的平均或最大池化操作來(lái)降采樣提取問(wèn)句或查詢圖復(fù)雜序列的特征向量,將無(wú)法全面地表征其代表性語(yǔ)義特征,最終影響候選查詢圖與問(wèn)句之間的語(yǔ)義相似度匹配結(jié)果。

    為簡(jiǎn)化問(wèn)句和查詢圖序列的交互建模過(guò)程,本文考慮直接使用兩個(gè)問(wèn)答數(shù)據(jù)集中的邏輯形式SPARQL[24或關(guān)系路徑來(lái)描述候選查詢圖序列,并在不增加額外人工特征的情況下,提出一種基于層級(jí)池化序列匹配的最優(yōu)查詢圖選擇方法。該方法利用層級(jí)池化滑動(dòng)窗口分層提取問(wèn)句和查詢圖序列對(duì)的代表性語(yǔ)義特征向量,并通過(guò)實(shí)驗(yàn)結(jié)果驗(yàn)證了本文提出的最優(yōu)查詢圖選擇方法對(duì)于提升復(fù)雜問(wèn)答系統(tǒng)性能的有效性。

    本文的主要貢獻(xiàn)如下:

    (1) 本文提出一種序列對(duì)交互編碼方法。在編碼前,問(wèn)句和查詢圖按要求以序列對(duì)形式進(jìn)行線性預(yù)處理,然后再基于BERT模型對(duì)問(wèn)句和查詢圖序列對(duì)進(jìn)行交互建模。此時(shí),序列對(duì)中的問(wèn)句信息可直接作為查詢圖的補(bǔ)充信息,而無(wú)需引入額外的人工編碼特征。

    (2) 此外,提出一種基于層級(jí)池化的查詢圖排序模型。利用層級(jí)池化滑動(dòng)窗口技術(shù),有效提取問(wèn)句和查詢圖序列對(duì)的局部顯著和全局特征信息,用于增強(qiáng)排序時(shí)候選查詢圖的語(yǔ)義表征。

    (3) 提出融合層級(jí)池化序列匹配方法來(lái)構(gòu)建基于知識(shí)圖譜的復(fù)雜問(wèn)答系統(tǒng)。相較于其他最優(yōu)方法,本文所提方法在MetaQA和WebQuestionsSP問(wèn)答數(shù)據(jù)集上均獲得了較好的性能指標(biāo)。例如,將MetaQA 3-hop和WebQuestionsSP的Hits@1值分別提升至99.8%和71.7%。

    1 系統(tǒng)總體方案

    1.1 復(fù)雜問(wèn)答任務(wù)定義

    給定一個(gè)可用的知識(shí)圖譜[25-26,CQA任務(wù)被定義為用令牌化序列的形式回答復(fù)雜的自然語(yǔ)言問(wèn)題[27-29。一般情況下,KGQA假設(shè)問(wèn)題的答案都能在知識(shí)圖譜的實(shí)體集中檢索到。與通過(guò)單跳查詢即可得到答案的簡(jiǎn)單問(wèn)答不同,CQA任務(wù)通常涉及多個(gè)事實(shí)三元組,需要從主題實(shí)體開(kāi)始,經(jīng)過(guò)由多個(gè)中間關(guān)系和中間實(shí)體組成的關(guān)系路徑,才能推斷出最終答案,有時(shí)候還需要關(guān)注關(guān)系路徑上添加的約束條件或聚合計(jì)算。

    以圖1中的兩個(gè)復(fù)雜問(wèn)題為例,問(wèn)題1“What is the population of China’s capital?”是一個(gè)典型的復(fù)雜多跳問(wèn)題,需要從主題實(shí)體“China”出發(fā),經(jīng)過(guò)“Is_Capital_of→Has_Population”這個(gè)兩跳的關(guān)系路徑,才能到達(dá)最后答案實(shí)體。而圖1中問(wèn)題2“How many rivers flow through China and India?”則是一個(gè)具有約束條件和聚合計(jì)算的復(fù)雜問(wèn)題,以“river”作為答案類型約束,需分別找到問(wèn)題“rivers flow through China”和問(wèn)題“rivers flow through India”的實(shí)體集合,然后對(duì)兩個(gè)實(shí)體集合求交集,并統(tǒng)計(jì)交集中元素的個(gè)數(shù),才能得到問(wèn)題2的最終答案。

    1.2 基于查詢圖的語(yǔ)義解析方法

    與基于模板的語(yǔ)義解析方法不同[30-31,基于查詢圖的語(yǔ)義解析方法并不受限于復(fù)雜問(wèn)題的跳步數(shù)和約束條件數(shù),因此對(duì)于復(fù)雜問(wèn)題具有較好的表達(dá)能力。作為一種圖結(jié)構(gòu)形式的邏輯形式,查詢圖與知識(shí)圖譜模式緊密匹配,是可執(zhí)行查詢語(yǔ)言SPARQL[24的替代方案。

    由表1可知,查詢圖gq可以看作由頂點(diǎn)集合Vq和邊集合Eq構(gòu)成,其中Vq主要包括知識(shí)圖譜實(shí)體、知識(shí)圖譜類型、變量等,而Eq由知識(shí)圖譜關(guān)系和一些內(nèi)置屬性組成。如果能正確創(chuàng)建并識(shí)別出問(wèn)題對(duì)應(yīng)的最優(yōu)查詢圖(正例查詢圖),將其轉(zhuǎn)換為可執(zhí)行查詢語(yǔ)句,則可在已知知識(shí)圖譜上檢索到問(wèn)題答案。

    1.3 基于知識(shí)圖譜的復(fù)雜問(wèn)答系統(tǒng)框架

    為了能正確選擇問(wèn)題的最優(yōu)查詢圖,典型的查詢圖語(yǔ)義解析方法通常會(huì)在最后選擇階段,采用神經(jīng)網(wǎng)絡(luò)排序模型計(jì)算問(wèn)句和每個(gè)候選查詢圖之間的語(yǔ)義匹配得分。但隨著問(wèn)題難度的增大,候選查詢圖的語(yǔ)義圖結(jié)構(gòu)變得復(fù)雜,候選集合中也將產(chǎn)生更多的噪聲查詢圖。此外,若排序模型仍采用常用的語(yǔ)義編碼方法來(lái)表征候選查詢圖,將無(wú)法全面地提取其代表性復(fù)雜語(yǔ)義特征,降低了語(yǔ)義匹配時(shí)最優(yōu)查詢圖的識(shí)別準(zhǔn)確率。為此,本文主要針對(duì)查詢圖語(yǔ)義特征提取問(wèn)題,提出一種基于層級(jí)池化序列匹配的最優(yōu)查詢圖選擇方法,用以增強(qiáng)KGQA排序模型對(duì)于復(fù)雜語(yǔ)義結(jié)構(gòu)查詢圖語(yǔ)義特征的提取能力,并在此基礎(chǔ)之上,構(gòu)建基于知識(shí)圖譜的復(fù)雜問(wèn)答系統(tǒng),其系統(tǒng)組成和工作流程如圖2所示,主要包括候選查詢圖集合生成與最優(yōu)查詢圖選擇這兩個(gè)階段。圖2中,在已知知識(shí)圖譜上執(zhí)行CQA任務(wù),由用戶輸入問(wèn)題Q。在候選查詢圖集合生成階段,首先需根據(jù)問(wèn)句Q的語(yǔ)義解析結(jié)果,結(jié)合候選查詢圖生成模塊的一系列操作步驟,構(gòu)建相應(yīng)的候選查詢圖集合G={g1,g2,…,gn},其中g(shù)n表示生成的第n個(gè)候選查詢圖。然后,利用構(gòu)建的查詢圖結(jié)構(gòu)預(yù)測(cè)分類器[20對(duì)問(wèn)句Q的查詢圖拓?fù)浣Y(jié)構(gòu)進(jìn)行預(yù)測(cè),并以預(yù)測(cè)結(jié)果標(biāo)簽作為結(jié)構(gòu)約束條件,對(duì)候選集合G中的噪聲查詢圖執(zhí)行過(guò)濾操作,從而通過(guò)篩選得到新的候選查詢圖集合G*。當(dāng)?shù)竭_(dá)最優(yōu)查詢圖選擇階段時(shí),該階段的處理工作主要由查詢圖排序模型執(zhí)行完成,通常包括3個(gè)子任務(wù),分別是:① 序列化預(yù)處理。使用問(wèn)答數(shù)據(jù)集提供多跳關(guān)系或使用描述性查詢圖語(yǔ)言SPARQL來(lái)表示候選查詢圖的語(yǔ)義信息,將其和問(wèn)句分別轉(zhuǎn)換為詞元序列后,再以序列對(duì)的形式實(shí)現(xiàn)問(wèn)句序列和候選查詢圖序列的拼接;② 基于層級(jí)池化的序列對(duì)交互編碼。在利用排序模型對(duì)問(wèn)句和查詢圖序列對(duì)編碼時(shí),通過(guò)增加層級(jí)池化滑動(dòng)窗口操作,以增強(qiáng)候選查詢圖交互建模的語(yǔ)義特征提取能力;③ 語(yǔ)義相似度匹配。使用余弦距離來(lái)衡量候選查詢圖和問(wèn)句之間的語(yǔ)義相似度,根據(jù)余弦相似度來(lái)選擇最優(yōu)查詢圖,將其轉(zhuǎn)化為可執(zhí)行查詢語(yǔ)句后,并在知識(shí)圖譜上完成答案的檢索和返回。接下來(lái),本文將展開(kāi)介紹圖2中復(fù)雜問(wèn)答系統(tǒng)主要模塊的設(shè)計(jì)方案及其工作原理。

    2 候選查詢圖集合生成

    2.1 查詢圖生成

    區(qū)別于完全依賴問(wèn)句的語(yǔ)義理解,查詢圖生成旨在充分利用知識(shí)圖譜中實(shí)體關(guān)系減小問(wèn)句解析的搜索空間,并通過(guò)匹配和搜索知識(shí)圖譜,逐步擴(kuò)展查詢圖。如圖2所示,查詢圖生成過(guò)程實(shí)質(zhì)上簡(jiǎn)化了語(yǔ)義匹配問(wèn)題,并有助于實(shí)現(xiàn)自身與排序方法的融合。通過(guò)完成焦點(diǎn)鏈接、核心關(guān)系路徑抽取和約束掛載3個(gè)主要步驟[14,21,即可生成問(wèn)句Q對(duì)應(yīng)的候選查詢圖。

    首先,本文對(duì)問(wèn)句Q進(jìn)行焦點(diǎn)鏈接,通過(guò)識(shí)別出問(wèn)題涉及的實(shí)體詞、類型詞、時(shí)間詞和序數(shù)詞來(lái)獲取不同類型的語(yǔ)義約束。接著,從識(shí)別出的主題實(shí)體出發(fā),將其在知識(shí)圖譜中規(guī)定跳步數(shù)范圍內(nèi)所有的關(guān)系路徑進(jìn)行提取,并將其作為候選核心推理鏈。最后,將實(shí)體約束、類型約束、時(shí)間約束和序數(shù)約束依次掛載到核心推理鏈上完成問(wèn)句Q最后的語(yǔ)義解析,將得到的多個(gè)不同查詢圖共同組成候選集合G。

    值得注意的是,這種傳統(tǒng)的查詢圖生成方法會(huì)產(chǎn)生大量語(yǔ)義結(jié)構(gòu)有歧義的噪聲查詢圖,盡管其與正確查詢圖有相同的拓?fù)涑煞郑窃肼暱赡軙?huì)使得查詢圖表達(dá)的語(yǔ)義差別很大。因此,候選查詢圖集合G需要經(jīng)過(guò)噪聲過(guò)濾后才能被輸入查詢圖排序模型。

    2.2 查詢圖語(yǔ)義結(jié)構(gòu)預(yù)測(cè)

    如果能提前預(yù)測(cè)問(wèn)句Q對(duì)應(yīng)查詢圖的語(yǔ)義結(jié)構(gòu),則可利用其作為約束條件來(lái)指導(dǎo)噪聲過(guò)濾操作,通過(guò)減少查詢圖候選集合G中語(yǔ)義結(jié)構(gòu)的噪聲干擾,提高復(fù)雜問(wèn)答系統(tǒng)排序模型對(duì)最優(yōu)查詢圖的選擇準(zhǔn)確率。

    為實(shí)現(xiàn)噪聲過(guò)濾操作,這里可將問(wèn)句對(duì)應(yīng)查詢圖的語(yǔ)義結(jié)構(gòu)預(yù)測(cè)任務(wù)看作是一個(gè)多分類問(wèn)題,即不同類別標(biāo)簽可對(duì)應(yīng)不同的查詢圖語(yǔ)義結(jié)構(gòu)。如圖3所示,列舉了6種查詢圖語(yǔ)義結(jié)構(gòu)(S1~S6),基本涵蓋了MetaQA問(wèn)題類型的100%和WebQuestionsSP問(wèn)題類型的77.02%[20,WebQuestionsSP中定義的3種問(wèn)題類型為S1、S2、S3;MetaQA中定義的5種問(wèn)題類型為S1、S2、S4、S5、S6。其中,e表示一個(gè)實(shí)體,r表示所有類型的關(guān)系,v表示中間變量或答案變量,C表示一個(gè)約束條件。本文將以上列舉的查詢圖結(jié)構(gòu)作為監(jiān)督學(xué)習(xí)標(biāo)簽,并參考文獻(xiàn)[20]中設(shè)計(jì)的基于BERT模型的分類器對(duì)輸入問(wèn)題Q執(zhí)行結(jié)構(gòu)預(yù)測(cè)分類任務(wù),期間將采用不同的編碼器分別提取問(wèn)句和實(shí)體的語(yǔ)義編碼信息,并基于信息融合方法得到編碼增強(qiáng)后的向量表示。

    如圖4所示,基于BERT的結(jié)構(gòu)預(yù)測(cè)分類器主要由3個(gè)模塊組成,其中問(wèn)句編碼器負(fù)責(zé)對(duì)問(wèn)句Q進(jìn)行語(yǔ)義編碼,并在最后隱藏狀態(tài)輸出問(wèn)句的向量表示eq。實(shí)體編碼器可采用不同的知識(shí)嵌入預(yù)訓(xùn)練模型來(lái)抽取問(wèn)句實(shí)體e的向量表示eh。而RotatE[32預(yù)訓(xùn)練模塊被用來(lái)進(jìn)行信息融合,利用eh和eq分別計(jì)算得到尾實(shí)體向量表示et和問(wèn)句信息融合后的最終向量表示F,后者將被輸入到全連接層進(jìn)行Softmax預(yù)測(cè)分類,并在G中濾除與預(yù)測(cè)標(biāo)簽不同的查詢圖,從而得到新的候選查詢圖集合G*。

    3 最優(yōu)查詢圖選擇

    為了正確返回用戶的問(wèn)題查詢,需要從候選集合G*中選擇最優(yōu)查詢圖執(zhí)行答案檢索,為此提出新的查詢圖選擇方法是很有必要的。在本文設(shè)計(jì)的方法中,首先對(duì)候選查詢圖按照規(guī)定格式進(jìn)行序列化處理。然后,通過(guò)層級(jí)池化操作實(shí)現(xiàn)問(wèn)句和查詢圖序列對(duì)的交互建模,并將得到的序列對(duì)語(yǔ)義特征向量用于最后的相似度匹配任務(wù)。

    3.1 查詢圖序列化預(yù)處理

    在使用排序模型對(duì)問(wèn)句和查詢圖編碼之前,需要預(yù)先對(duì)兩者進(jìn)行序列化預(yù)處理。然而,在序列化預(yù)處理之前,文獻(xiàn)[21]需提前對(duì)問(wèn)句進(jìn)行依存句法分析,以及對(duì)查詢圖進(jìn)行語(yǔ)義組件分割,而文獻(xiàn)[22]則需要同時(shí)設(shè)定查詢圖子序列的編碼順序。為簡(jiǎn)化以上預(yù)處理工作,本文考慮使用問(wèn)答數(shù)據(jù)集提供的邏輯形式SPARQL[33或關(guān)系路徑來(lái)描述候選查詢圖。首先,需將問(wèn)句和查詢圖分別做以下處理:① 問(wèn)句序列化處理,可得到qs=[w1,w2,…,wm], 其中wm表示問(wèn)句中的第m個(gè)單詞。② 查詢圖序列化處理,可得到gs=[u1,u2,…,un],其中un表示查詢圖序列被“空格”或特殊字符(如“.”和“_”)分割后的第n個(gè)組成單元。

    如圖5所示,給定一個(gè)問(wèn)題的查詢圖(andrew jackson,politician.party,political_party_tenure.party, V),其對(duì)應(yīng)的查詢圖序列由u1=andrew,u2=jackson,u3=politician,…,u7=tenure,u8=party,u9=V這9個(gè)單元組成。此時(shí),最優(yōu)查詢圖選擇問(wèn)題將轉(zhuǎn)變?yōu)楹蜻x查詢圖序列與問(wèn)句序列間的語(yǔ)義匹配問(wèn)題。

    描述性查詢語(yǔ)言SPARQL和關(guān)系路徑盡管可以較好地表征候選查詢圖的查詢語(yǔ)義,但是二者在語(yǔ)義表達(dá)能力上仍然與問(wèn)句有一定差別,若直接對(duì)SPARQL或關(guān)系路徑表示的查詢圖序列g(shù)s進(jìn)行語(yǔ)義編碼,編碼結(jié)果將無(wú)法全面地表征查詢圖本身復(fù)雜的語(yǔ)義特征,進(jìn)而影響排序階段與問(wèn)句序列的語(yǔ)義匹配。由于原始問(wèn)句序列中已包含豐富的語(yǔ)義信息,其本身與查詢圖在語(yǔ)義層面的天然關(guān)聯(lián)性,使其可以作為補(bǔ)充的信息源增強(qiáng)查詢圖序列的語(yǔ)義編碼。因此,本文采用問(wèn)句和查詢圖序列對(duì)交互建模的方法,在無(wú)需設(shè)計(jì)其他人工特征的情況下,可以在一定程度上彌補(bǔ)查詢圖序列編碼時(shí)缺失的問(wèn)句語(yǔ)義交互信息。將問(wèn)句序列qs=[w1,w2,…,wm]和候選查詢圖集合G*中的每個(gè)查詢圖序列g(shù)s=[u1,u2,…,un]拼接成序列對(duì)ps=[[CLS],w1,w2,…,wm,[SEP],u1,u2,…,un,[SEP]],然后經(jīng)過(guò)BERT模型[23進(jìn)行語(yǔ)義編碼,并使用[CLS]節(jié)點(diǎn)的輸出向量P=[v1,v2,…,vL]∈RLd作為問(wèn)句和查詢圖序列對(duì)的語(yǔ)義特征表示,其中L表示ps的序列長(zhǎng)度,d表示序列單詞嵌入表示后的特征維度,而vk∈Rd表示ps第k個(gè)單詞的特征向量。

    3.2 層級(jí)池化交互編碼

    采用序列對(duì)交互建模方法雖然有利于增強(qiáng)候選查詢圖的語(yǔ)義表征,但同時(shí)也增大了其語(yǔ)義特征向量的計(jì)算維度。尤其在CQA任務(wù)中,查詢圖對(duì)應(yīng)的序列對(duì)語(yǔ)義特征向量P的向量維度會(huì)隨著問(wèn)題難度增大而不斷增大。面對(duì)這種情形,最優(yōu)查詢圖選擇階段的排序模型[14,20-21通常會(huì)在執(zhí)行語(yǔ)義相似度匹配任務(wù)前,針對(duì)第3.1節(jié)中候選查詢圖的多維語(yǔ)義特征向量P進(jìn)行額外的降采樣處理,如采用最基本的最大池化[34或平均池化35操作,以達(dá)到進(jìn)一步提取代表性特征向量和降低多維向量計(jì)算維度的目的。

    如圖6所示,當(dāng)采用圖中列舉的常用池化方法對(duì)輸入的查詢圖序列對(duì)特征向量[v1,v2,…,vL]進(jìn)行池化處理時(shí),將得到降采樣后的代表性語(yǔ)義特征向量vout。可知,最大池化通常提取連續(xù)特征向量的局部顯著性特征,而缺乏對(duì)全局特征信息的描述。相反,平均池化則是對(duì)全局范圍內(nèi)的樣本特征進(jìn)行平均處理,而忽略了局部顯著性特征信息。而在圖3(c)中,連接池化[36則通過(guò)連接最大池化和平均池化的輸出結(jié)果來(lái)平衡局部特征與全局特征的提取。然而,以上3種池化方法仍然缺乏對(duì)于長(zhǎng)文本序列詞序信息的提取[37。

    實(shí)際上,問(wèn)句和查詢圖序列對(duì)ps本身的局部詞序信息在很多時(shí)候也會(huì)影響查詢圖排序模型的語(yǔ)義匹配結(jié)果。因此,為了能兼顧查詢圖序列對(duì)的局部顯著性特征和全局特征,可針對(duì)ps的特征向量P進(jìn)行基于滑動(dòng)窗口的層級(jí)池化操作。以圖7為例,描述了層級(jí)池化方法中(最大-平均)層級(jí)池化的交互編碼過(guò)程,即在特征向量P上按照固定滑動(dòng)步長(zhǎng)s,設(shè)置多個(gè)跨度范圍為m的滑動(dòng)窗口,用于分別獲取當(dāng)前窗口下的局部池化信息,然后對(duì)有限的局部窗口特征向量執(zhí)行全局池化操作。很顯然,通過(guò)設(shè)計(jì)滑動(dòng)窗口來(lái)實(shí)現(xiàn)層級(jí)池化操作,既有利于降低長(zhǎng)序列特征向量的計(jì)算維度,又可以滿足特征向量局部特征與全局特征的分層提取。

    對(duì)于層級(jí)池化操作前的序列對(duì)語(yǔ)義特征向量P,定義vi:i+m-1={vi,vi+1,…,vi+m-1}為包含m個(gè)連續(xù)詞元向量的滑動(dòng)窗口,通過(guò)設(shè)定滑動(dòng)步長(zhǎng)s,整個(gè)向量序列可以被分割為一系列窗口大小為m的局部窗口v1:m,v1+s:m+s,v1+2s:m+2s,…,vL-m+1:L。

    首先,在每個(gè)局部窗口v1+ks:m+ks上做最大池化操作:

    vmaxkj=maxm+ksi=1+ks vij(1)

    式中:vij是特征向量vi的第j個(gè)分量;vmaxk是局部窗口最大池化特征向量;vmaxkj表示vmaxk的第j個(gè)分量。

    在對(duì)所有局部窗口進(jìn)行最大池化操作后,接著對(duì)所有的局部最大池化特征向量vmaxk執(zhí)行全局平均池化操作:

    f(ps)=1N∑Nk=1vmaxk(2)

    式中: f(ps)為查詢圖序列對(duì)層級(jí)池化后最終輸出的語(yǔ)義特征向量,與特征向量vi維度相同。

    另一種(平均-最大)層級(jí)池化方法的處理步驟則與上述(最大-平均)層級(jí)池化方法相反。如圖8所示,其優(yōu)先對(duì)每個(gè)局部滑動(dòng)窗口執(zhí)行平均池化操作,然后再對(duì)所有的局部平均池化特征向量進(jìn)行最大池化??芍?,(平均-最大)層級(jí)池化雖然改變了(最大-平均)層級(jí)池化的特征分層提取順序,但同樣可實(shí)現(xiàn)局部顯著特征與全局特征的互補(bǔ)融合。本文將采用以上兩種基于滑動(dòng)窗口的層級(jí)池化方法對(duì)語(yǔ)義特征向量P進(jìn)行降采樣處理,并將分層提取的代表性特征向量f(ps)輸入至排序模型,用于計(jì)算候選查詢圖與問(wèn)句的語(yǔ)義相似度。此外,考慮到將滑動(dòng)窗口作為實(shí)現(xiàn)層級(jí)池化交互編碼的重要組件,本文將在實(shí)驗(yàn)部分針對(duì)不同窗口參數(shù)設(shè)置對(duì)問(wèn)答系統(tǒng)排序模型性能的影響,開(kāi)展相應(yīng)的測(cè)試工作。

    3.3 候選查詢圖排序

    這里使用三元組損失函數(shù)Triplet loss[38來(lái)訓(xùn)練基于BERT的層級(jí)池化排序模型,實(shí)際上該查詢圖排序模型有3個(gè)輸入,分別是問(wèn)句的語(yǔ)義表示f(qs),正例查詢圖序列對(duì)的語(yǔ)義表示f(p+s)和負(fù)例查詢圖序列對(duì)的語(yǔ)義表示f(ps),并通過(guò)最小化Triplet loss來(lái)優(yōu)化BERT模型的特征提取。

    Triplet loss=max(f(qs)-f(p+s)-f(qs)-f(p-s)+α, 0)(3)

    式中:·表示歐氏距離;α是一個(gè)邊距超參數(shù),本文默認(rèn)設(shè)置為1。在訓(xùn)練過(guò)程中,Triplet loss逐漸縮小f(qs)和f(p+s)之間的距離,并同時(shí)增大f(qs)和f(p-s)之間的距離。在測(cè)試階段,本文將計(jì)算問(wèn)句序列與其候選集合中每個(gè)查詢圖序列對(duì)之間的語(yǔ)義相似度得分,選擇得分最高的候選查詢圖作為最優(yōu)查詢圖。

    4 實(shí)驗(yàn)設(shè)計(jì)

    本文在兩個(gè)廣泛使用的KGQA公測(cè)數(shù)據(jù)集MetaQA[39和WebQuestionsSP[40上對(duì)所提層級(jí)池化序列匹配方法展開(kāi)性能測(cè)試,并與目前復(fù)雜問(wèn)答領(lǐng)域中7個(gè)最先進(jìn)的模型進(jìn)行比較。同時(shí),開(kāi)展一系列拓展實(shí)驗(yàn),如池化方法對(duì)比實(shí)驗(yàn)、滑動(dòng)窗口參數(shù)測(cè)試和負(fù)例查詢圖影響測(cè)試,用來(lái)探究不同條件下層級(jí)池化序列匹配方法對(duì)于查詢圖排序模型性能的影響。

    4.1 實(shí)驗(yàn)設(shè)置

    4.1.1 數(shù)據(jù)集

    MetaQA是一個(gè)大規(guī)模KGQA數(shù)據(jù)集,包含了1跳簡(jiǎn)單問(wèn)題和2跳、3跳的復(fù)雜問(wèn)題,共有超過(guò)40萬(wàn)個(gè)問(wèn)答對(duì)。本文使用MetaQA的普通版本,提供了關(guān)于電影領(lǐng)域的43 233個(gè)實(shí)體、9種關(guān)系類型以及134 741個(gè)三元組。

    WebQuestionsSP對(duì)WebQuestions數(shù)據(jù)集中每個(gè)問(wèn)句增加了相應(yīng)的SPARQL查詢,除了簡(jiǎn)單問(wèn)題,還包含部分帶有約束條件的復(fù)雜問(wèn)題。為便于實(shí)驗(yàn),本文使用了Saxena等[12提供的輕量級(jí)版本,這個(gè)版本數(shù)據(jù)集有180萬(wàn)個(gè)實(shí)體和570萬(wàn)個(gè)三元組。

    實(shí)驗(yàn)中,MetaQA和WebQuestionsSP數(shù)據(jù)集均按照訓(xùn)練集、驗(yàn)證集和測(cè)試集進(jìn)行劃分,具體劃分情況如表2所示。

    4.1.2 參數(shù)設(shè)置

    本文問(wèn)答系統(tǒng)中關(guān)于查詢圖語(yǔ)義結(jié)構(gòu)預(yù)測(cè)分類器的模型參數(shù)可參考文獻(xiàn)[20]進(jìn)行設(shè)置,并且在實(shí)驗(yàn)中為BERT排序模型設(shè)計(jì)了一個(gè)額外層級(jí)池化層,其中層級(jí)池化層的滑動(dòng)窗口尺寸和步長(zhǎng)分別設(shè)置為3和2。本文使用AdamW作為基于層級(jí)池化的排序模型訓(xùn)練的優(yōu)化器,設(shè)置學(xué)習(xí)率為2×10-5,最大訓(xùn)練回合數(shù)為10次,并且采用梯度裁剪將梯度的最大L2范數(shù)限制為1。另外,在構(gòu)建本文排序模型的訓(xùn)練數(shù)據(jù)時(shí),需按照1∶150的比例創(chuàng)建正、負(fù)例候選查詢圖集合,其中負(fù)例查詢圖從過(guò)濾后的候選查詢圖集合G*中隨機(jī)選取。

    4.1.3 基準(zhǔn)模型

    本文將在兩個(gè)數(shù)據(jù)集上,對(duì)基于本文方法構(gòu)建的問(wèn)答系統(tǒng)與以下典型模型進(jìn)行性能比較。

    在基于信息檢索方法中,PullNet[10利用“Pull”操作自主抽取與問(wèn)題相關(guān)的子圖,最后利用GCN對(duì)節(jié)點(diǎn)進(jìn)行表示學(xué)習(xí),進(jìn)而判斷答案是否正確;EmbedKGQA[12通過(guò)結(jié)合知識(shí)嵌入來(lái)提高推理性能,并在沒(méi)有邏輯形式的幫助下,將CQA任務(wù)當(dāng)成鏈接預(yù)測(cè)任務(wù)推理出最后答案;TransferNet[13提出了一個(gè)有效且可解釋的復(fù)雜問(wèn)答模型,可以在統(tǒng)一的模型框架中同時(shí)在標(biāo)簽或文本形式的關(guān)系圖上進(jìn)行多跳問(wèn)答。

    在基于查詢圖的語(yǔ)義解析方法中,QGG(query graph generation)[18是一種改進(jìn)的分階段查詢圖生成方法,可以同時(shí)添加約束條件和擴(kuò)展關(guān)系路徑;SSKGQA[20同樣通過(guò)預(yù)測(cè)查詢圖語(yǔ)義結(jié)構(gòu)的方法來(lái)濾除噪聲查詢圖干擾,但在最優(yōu)查詢圖選擇階段,并非采用序列對(duì)形式對(duì)問(wèn)句和查詢圖進(jìn)行層級(jí)池化交互編碼。

    在強(qiáng)調(diào)多跳路徑推理的問(wèn)答方法中,通過(guò)Uhop[41設(shè)計(jì)了一種多跳推理停止機(jī)制,能有效增強(qiáng)模型對(duì)于更長(zhǎng)關(guān)系路徑的推理能力;通過(guò)NSM[42提出利用教師網(wǎng)絡(luò)提供的中間監(jiān)督信號(hào)來(lái)緩解稀疏獎(jiǎng)勵(lì)問(wèn)題,并以此提高學(xué)生網(wǎng)絡(luò)的學(xué)習(xí)能力。

    4.2 現(xiàn)有方法對(duì)比實(shí)驗(yàn)

    在MetaQA和WebQuestionsSP問(wèn)答數(shù)據(jù)集上開(kāi)展性能測(cè)試,本文方法與其他方法的對(duì)比結(jié)果如表3所示,1-hop、2-hop、3-hop分別表示1跳、2跳、3跳問(wèn)題。

    很顯然,PullNet和EmbedKGQA在MetaQA數(shù)據(jù)集上取得不錯(cuò)的性能,但在WebQuestionsSP上性能略顯不足,表明僅僅通過(guò)聚合子圖特征或者依靠關(guān)系路徑的嵌入表示實(shí)現(xiàn)復(fù)雜問(wèn)題的建模和推理是不夠的。在處理多跳數(shù)據(jù)集MetaQA時(shí),NSM憑借其雙向推理機(jī)制,使其在MetaQA 2-hop取得了最佳性能,并將EmbedKGQA在MetaQA 3-hop時(shí)的Hits@1提高了4.1%。然而,對(duì)于更加復(fù)雜的WebQuestionsSP問(wèn)題,由于在關(guān)系路徑推理過(guò)程中依然存在單跳預(yù)測(cè)的錯(cuò)誤傳播,使得NSM和Uhop的模型性能有待提高。盡管QGG和本文方法在WebQuestions-SP數(shù)據(jù)集上均取得最佳性能,但前者在迭代生成候選查詢圖時(shí)仍然可能產(chǎn)生大量語(yǔ)義結(jié)構(gòu)不同的噪聲查詢圖,并且還需要結(jié)合其他人工定義特征來(lái)選擇最優(yōu)查詢圖。相反,本文方法在不加入額外人工定義特征的情況下,仍然可以在兩個(gè)問(wèn)答數(shù)據(jù)集上取得較好的性能,并且將SSKGQA在MetaQA 3-hop和WebQuestionsSP的Hits@1值分別提高到99.8%和71.7%,表明通過(guò)引入層級(jí)池化交互編碼機(jī)制可以在一定程度上提升原有問(wèn)答模型的系統(tǒng)性能。

    4.3 池化方法對(duì)比實(shí)驗(yàn)

    為驗(yàn)證本文所提層級(jí)池化方法對(duì)于基于BERT的排序模型性能的影響,可選擇與其他常用池化方法,如平均池化、最大池化以及連接池化等方法進(jìn)行對(duì)比實(shí)驗(yàn),不同方法在MetaQA和WebQuestionsSP上的實(shí)驗(yàn)結(jié)果如圖9所示。

    圖9 不同池化方法下的性能測(cè)試結(jié)果

    Fig.9 Performance test results with different pooling methods從整體來(lái)看,兩種層級(jí)池化方法和平均池化方法要優(yōu)于其他對(duì)比方法,無(wú)論是針對(duì)單跳簡(jiǎn)單問(wèn)題或多跳/約束類復(fù)雜問(wèn)題,層級(jí)池化方法都能很好地提取查詢圖序列對(duì)的語(yǔ)義特征。而最大池化方法性能最差,表明全局特征信息與詞序信息對(duì)于查詢圖復(fù)雜序列語(yǔ)義表征的重要性。平均池化方法由于缺乏文本序列的局部顯著性特征,因此在處理MetaQA 3-hop與WebQuestionsSP復(fù)雜問(wèn)題時(shí)性能要低于層級(jí)池化方法。此外,相較于(平均-最大)層級(jí)池化方法,(最大-平均)層級(jí)池化方法在兩個(gè)數(shù)據(jù)集上均取得最高Hits@1值,表明首先對(duì)查詢圖長(zhǎng)序列進(jìn)行基于局部滑動(dòng)窗口的最大池化處理,然后再對(duì)局部最大特征進(jìn)行平均處理,能更好地兼顧查詢圖復(fù)雜序列的局部顯著性特征、全局整體特征以及序列詞序信息。

    4.4 滑動(dòng)窗口參數(shù)測(cè)試

    接下來(lái),為了研究層級(jí)池化方法中超參數(shù)對(duì)于基于BERT的排序模型性能的影響,本文將在WebQuestionsSP公測(cè)數(shù)據(jù)集上對(duì)(最大-平均)層級(jí)池化排序模型開(kāi)展參數(shù)敏感性測(cè)試,其中滑動(dòng)窗口大小m的取值范圍為[2,5],滑動(dòng)步長(zhǎng)s的取值范圍為[1,5],實(shí)驗(yàn)結(jié)果如圖10所示,圖10以柱狀圖的形式展示了不同參數(shù)條件下的Hits@1準(zhǔn)確率。

    由圖10可知,在相同窗口尺寸下,隨著滑動(dòng)步長(zhǎng)的增加,層級(jí)池化排序模型的性能基本保持不變,表明滑動(dòng)步長(zhǎng)參數(shù)對(duì)模型性能影響較小。相反,在相同滑動(dòng)步長(zhǎng)下,當(dāng)滑動(dòng)窗口大小設(shè)置為3時(shí),獲得最優(yōu)準(zhǔn)確率,繼續(xù)增大窗口大小可能會(huì)引入過(guò)多的序列片段噪聲,從而影響最后的編碼結(jié)果,導(dǎo)致排序模型性能下降,因此層級(jí)池化操作在實(shí)際應(yīng)用中應(yīng)優(yōu)先調(diào)整滑動(dòng)窗口尺寸大小。

    4.5 負(fù)例查詢圖影響測(cè)試

    通過(guò)分析候選查詢圖集合G*可知,每一個(gè)問(wèn)句可能在知識(shí)圖譜中生成大量的負(fù)例查詢圖,并且在使用三重?fù)p失函數(shù)對(duì)基于BERT的層級(jí)池化排序模型進(jìn)行訓(xùn)練時(shí),也需要確定參與模型訓(xùn)練的負(fù)樣本數(shù)量。因此,將本文設(shè)計(jì)的層級(jí)池化排序模型與SSKGQA[20的排序模型在數(shù)據(jù)集WebQuestionsSP上進(jìn)行對(duì)比測(cè)試,分析不同數(shù)量負(fù)例查詢圖對(duì)于兩個(gè)排序模型的性能影響,實(shí)驗(yàn)結(jié)果如圖11所示。

    在一定范圍內(nèi),兩個(gè)排序模型的Hits@1性能會(huì)隨著負(fù)樣本數(shù)量的增加而提高,但負(fù)樣本超過(guò)一定數(shù)量時(shí),可能會(huì)增加模型訓(xùn)練的計(jì)算壓力,使得排序模型性能有略微下降的趨勢(shì)。同時(shí),在相同數(shù)量負(fù)樣本條件下,層級(jí)池化排序模型的性能始終優(yōu)于SSKGQA的排序模型,表明層級(jí)池化排序模型只需要使用少量的負(fù)樣本即可獲得較高的Hits@1,且當(dāng)n=150時(shí),層級(jí)池化排序模型獲得最高Hits@1值。

    5 結(jié) 論

    本文面向知識(shí)圖譜復(fù)雜問(wèn)答任務(wù)中查詢圖語(yǔ)義特征提取能力不足的問(wèn)題,提出一種新的最優(yōu)查詢圖選擇方法。在具體實(shí)現(xiàn)中,首先通過(guò)預(yù)測(cè)給定問(wèn)題的查詢圖語(yǔ)義結(jié)構(gòu)來(lái)進(jìn)行過(guò)濾,得到噪聲較少的候選查詢圖集合。然后,使用基于BERT的層級(jí)池化排序模型,抽取查詢圖復(fù)雜序列的代表性語(yǔ)義特征,在語(yǔ)義建模過(guò)程中引入基于層級(jí)池化的序列對(duì)交互編碼機(jī)制,增強(qiáng)查詢圖復(fù)雜序列的局部顯著和全局語(yǔ)義特征表征能力。同時(shí),在MetaQA和WebQuestionsSP上開(kāi)展大量實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明本文所提最優(yōu)查詢圖選擇方法能夠進(jìn)一步提高知識(shí)圖譜復(fù)雜問(wèn)答系統(tǒng)的性能,驗(yàn)證了所提方法的有效性。

    參考文獻(xiàn)

    [1]ZHANG J, CHEN B, ZHANG L X, et al. Neural, symbolic and neural-symbolic reasoning on knowledge graphs[J]. AI Open, 2021, 2: 14-35.

    [2]王智悅, 于清, 王楠, 等. 基于知識(shí)圖譜的智能問(wèn)答研究綜述[J]. 計(jì)算機(jī)工程與應(yīng)用, 2020, 56(23): 1-11.

    WANG Z Y, YU Q, WANG N, et al. Survey of intelligent question answering research based on knowledge graph[J]. Computer Engineering and Applications, 2020, 56(23): 1-11.

    [3]薩日娜, 李艷玲, 林民. 知識(shí)圖譜推理問(wèn)答研究綜述[J]. 計(jì)算機(jī)科學(xué)與探索, 2022, 16(8): 1727-1741.

    SA R N, LI Y L, LIN M. A Survey of question answering based on knowledge graph reasoning[J]. Computer Science and Technology, 2022, 16(8): 1727-1741.

    [4]劉勝. 聯(lián)合邏輯形式解析和答案生成的知識(shí)圖譜問(wèn)答方法及應(yīng)用[D]. 杭州: 浙江大學(xué), 2023.

    LIU S. Knowledge graph question answering method and application based on logical form parsing and answer generation[D]. Hangzhou: Zhejiang University, 2023.

    [5]CAO X, ZHAO Y S, SHEN B. Improving and evaluating complex question answering over knowledge bases by constructing strongly supervised data[J]. Neural Computing and Applications, 2023, 35(7): 5513-5533.

    [6]LAN Y S, WANG S H, JIANG J. Knowledge base question answering with topic units[C]∥Proc.of the 28th International Joint Conference on Artificial Intelligence, 2019: 5046-5052.

    [7]LAN Y S, WANG S H, JIANG J. Knowledge base question answering with a matching-aggregation model and question-specific contextual relations[J]. IEEE/ACM Trans.on Audio, Speech, and Language Processing, 2019, 27(10): 1629-1638.

    [8]LAN Y S, HE G, JIANG J, et al. A survey on complex know-ledge base question answering: methods, challenges and solutions[C]∥Proc.of the 30th International Joint Conference on Artificial Intelligence, 2021: 4483-4491.

    [9]XU K, LAI Y X, FENG Y S, et al. Enhancing key-value memory neural networks for knowledge based question answering[C]∥Proc.of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019: 2937-2947.

    [10]SUN H, BEDRAX-WEISS T, COHEN W W. PullNet: open domain question answering with iterative retrieval on know-ledge bases and text[C]∥Proc.of the Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, 2019: 2380-2390.

    [11]SUN H, DHINGRA B, ZAHEER M, et al. Open domain question answering using early fusion of knowledge bases and text[C]∥Proc.of the Conference on Empirical Methods in Na-tural Language Processing, 2018: 4231-4242.

    [12]SAXENA A, TRIPATHI A, TALUKDAR P. Improving multi-hop question answering over knowledge graphs using knowledge base embeddings[C]∥Proc.of 58th Annual Meeting of the Association for Computational Linguistics, 2020: 4498-4507.

    [13]SHI J X, CAO S L, HOU L, et al. TransferNet: an effective and transparent framework for multi-hop question answering over relation graph[C]∥Proc.of the Conference on Empirical Methods in Natural Language Processing, 2021: 4149-4158.

    [14]YIH S W, CHANG M W, HE X, et al. Semantic parsing via staged query graph generation: question answering with know-ledge base[C]∥Proc.of the 53rd Annual Meeting of the ACL and the 7th International Joint Conference on Natural Language Processing, 2015: 1321-1331.

    [15]BAO J W, DUAN N, YAN Z, et al. Constraint-based question answering with knowledge graph[C]∥Proc.of the 26th International Conference on Computational Linguistic: Technical Papers, 2016: 2503-2514.

    [16]MAHESHWARI G, TRIVED P, LUKOVNIKOV D, et al. Learning to rank query graphs for complex question answering over knowledge graphs[C]∥Proc.of the 18th International Semantic Web Conference, 2019: 26-30.

    [17]QIN K, LI C, PAVLU V, et al. Improving query graph generation for complex question answering over knowledge base[C]∥Proc.of the Conference on Empirical Methods in Natural Language Processing, 2021: 4201-4207.

    [18]LAN Y S, JIANG J. Query graph generation for answering multi-hop complex questions from knowledge bases[C]∥Proc.of the 58th Annual Meeting of the Association for Computational Linguistics, 2020: 969-974.

    [19]CHEN Y R, LI H Y, HUA Y C, et al. Formal query building with query structure prediction for complex question answering over knowledge base[C]∥Proc.of the 29th International Joint Conference on Artificial Intelligence, 2021: 3751-3758.

    [20]LI M, JI S H. Semantic structure based query graph prediction for question answering over knowledge graph[C]∥Proc.of the 29th International Conference on Computational Linguistics, 2022: 1569-1579.

    [21]LUO K Q, LIN F L, LUO X S, et al. Knowledge base question answering via encoding of complex query graphs[C]∥Proc.of the Conference on Empirical Methods in Natural Language Processing, 2018: 2185-2194.

    [22]JIA Y H, CHEN W L. Better query graph selection for know-ledge base question answering[EB/OL]. [2022-10-22]. https:∥doi.org/10.48550/arXiv.2204.12662.

    [23]DEVLIN J, CHANG M W, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[C]∥Proc.of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019: 4171-4186.

    [24]YIN X, GROMANN D, RUDOLPH S. Neural machine translating from natural language to SPARQL[J]. Future Generation Computer Systems, 2021, 117: 510-519.

    [25]馬玉鳳, 向南, 豆亞杰, 等. 軍事系統(tǒng)工程中的知識(shí)圖譜應(yīng)用及研究[J]. 系統(tǒng)工程與電技術(shù), 2022, 44(1): 146-153.

    MA Y F, XIANG N, DOU Y J, et al. Application and research of knowledge graph in military system engineering[J]. Systems Engineering and Electronics, 2022, 44(1): 146-153.

    [26]封皓君, 段立, 張碧瑩, 等. 雙向循環(huán)進(jìn)化的實(shí)體鏈接及知識(shí)推理框架[J]. 系統(tǒng)工程與電技術(shù), 2022, 44(9): 2878-2885.

    FENG H J, DUAN L, ZHANG B Y, et al. Bidirectional cyclic evolutionary framework of entity linking and knowledge reasoning[J]. Systems Engineering and Electronics, 2022, 44(9): 2878-2885.

    [27]HUA Y, LI Y F, HAFFARI G, et al. Few-shot complex know-ledge base question answering via meta reinforcement learning[C]∥Proc.of the Conference on Empirical Methods in Natural Language Processing, 2020: 5827-5837.

    [28]HUA Y, LI Y F, QI G, et al. Less is more: data-efficient complex question answering over knowledge bases[J]. Journal of Web Semantics, 2020, 65: 100612.

    [29]ZHANG Q X, WENG X Y, ZHOU G Y, et al. RL: an adaptive reinforcement learning framework for complex question answering over knowledge base[J]. Information Processing and Management, 2022, 59(3): 102933.

    [30]BAST H, HAUSSMANN E. More accurate question answering on freebase[C]∥Proc.of the 24th ACM International on Conference on Information and Knowledge Management, 2015: 1431-1440.

    [31]JIA Z, ABUJABAL A, SAHA R R, et al. Temporal question answering over knowledge bases[C]∥Proc.of the 27th ACM International Conference on Information and Knowledge Management, 2018: 1807-1810.

    [32]SUN Z, DENG Z H, NIE J Y, et al. Rotate: knowledge graph embedding by relational rotation in complex space[EB/OL]. [2022-10-22]. https:∥doi.org/10.48550/arXiv.1902.10197.

    [33]楊東華, 鄒開(kāi)發(fā), 王宏志, 等. 基于Seq2Seq模型的SparQL查詢預(yù)測(cè)[J]. 軟件學(xué)報(bào), 2021, 32(3): 805-817.

    YANG D H, ZOU K F, WANG H Z, et al. SparQL query prediction based on Seq2Seq model[J]. Journal of Software, 2021, 32(3): 805-817.

    [34]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

    [35]SNELL J, SWERSKY K, ZEMEL R, et al. Prototypical networks for few-shot learning[C]∥Proc.of the 31st International Conference on Neural Information Processing Systems, 2017: 4080-4090.

    [36]SHEN D H, WANG G Y, WANG W L, et al. Baseline needs more love: on simple word-embedding-based models and associated pooling mechanisms[C]∥Proc.of the 56th Annual Meeting of the Association for Computational Linguistics, 2018: 440-450.

    [37]PAN C Y, HUANG J, GONG J X. Few-shot learning with hierarchical pooling induction network[J]. Multimedia Tools and Applications, 2022, 81(23): 32937-32952.

    [38]SCHROFF F, KALENICHENKO D, PHILBIN J. Facenet: a unified embedding for face recognition and clustering[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 815-823.

    [39]ZHANG Y, DAI H, KOZAREVA Z, et al. Variational reasoning for question answering with knowledge graph[C]∥Proc.of the 32nd AAAI Conference on Artificial Intelligence, 2018.

    [40]YIH W, RICHARDSON M, MEEK C, et al. The value of semantic parse labeling for knowledge base question answering[C]∥Proc.of the 54th Annual Meeting of the Association for Computational Linguistics, 2016: 201-206.

    [41]CHEN Z Y, CHANG C H, CHEN Y P, et al. UHop: an unrestricted-hop relation extraction framework for knowledge-based question answering[C]∥Proc.of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019: 345-356.

    [42]HE G L, LAN Y S, JIANG J, et al. Improving multi-hop knowledge base question answering by learning intermediate supervision signals[C]∥Proc.of the 14th ACM International Conference on Web Search and Data Mining, 2021: 553-561.

    作者簡(jiǎn)介

    王 冬(1989—),男,博士研究生,主要研究方向?yàn)橹R(shí)圖譜、知識(shí)推理與問(wèn)答。

    周思航(1991—),男,助理研究員,博士,主要研究方向?yàn)橹R(shí)圖譜、模式識(shí)別、機(jī)器學(xué)習(xí)。

    黃 健(1971—),女,研究員,博士,主要研究方向?yàn)榉植际椒抡媾c任務(wù)規(guī)劃、知識(shí)圖譜。

    張中杰(1988—),男,講師,博士,主要研究方向?yàn)閿?shù)據(jù)挖掘。

    老女人水多毛片| 波多野结衣av一区二区av| 成年动漫av网址| 久久女婷五月综合色啪小说| 哪个播放器可以免费观看大片| 丰满乱子伦码专区| 在线 av 中文字幕| 国产乱人偷精品视频| 久久鲁丝午夜福利片| 伊人亚洲综合成人网| 亚洲成国产人片在线观看| av卡一久久| 黄色 视频免费看| 亚洲精品一二三| 免费观看av网站的网址| 日韩大片免费观看网站| 性色avwww在线观看| 久久久久久人妻| 国产精品二区激情视频| 1024视频免费在线观看| 菩萨蛮人人尽说江南好唐韦庄| 欧美日韩精品成人综合77777| 亚洲国产精品国产精品| 麻豆乱淫一区二区| 久久久久久久国产电影| 波多野结衣av一区二区av| 女人久久www免费人成看片| av网站免费在线观看视频| 日韩中字成人| 日韩中文字幕视频在线看片| 国产一区二区 视频在线| av国产久精品久网站免费入址| 最近2019中文字幕mv第一页| 亚洲国产精品国产精品| 国产精品二区激情视频| 国产高清不卡午夜福利| 午夜福利网站1000一区二区三区| 欧美日韩成人在线一区二区| 大香蕉久久成人网| 亚洲美女黄色视频免费看| 香蕉国产在线看| 在线观看三级黄色| 黄色毛片三级朝国网站| 亚洲精品第二区| 日日啪夜夜爽| 欧美av亚洲av综合av国产av | 夫妻午夜视频| 成人漫画全彩无遮挡| 99久久综合免费| 狂野欧美激情性bbbbbb| 日韩电影二区| 国产亚洲欧美精品永久| 国产一区有黄有色的免费视频| 久久精品国产综合久久久| 久久国产亚洲av麻豆专区| av女优亚洲男人天堂| 狂野欧美激情性bbbbbb| 黄网站色视频无遮挡免费观看| 亚洲欧美中文字幕日韩二区| 婷婷成人精品国产| 最近手机中文字幕大全| 精品国产乱码久久久久久男人| 欧美人与善性xxx| 成人午夜精彩视频在线观看| 久久久a久久爽久久v久久| 巨乳人妻的诱惑在线观看| 五月伊人婷婷丁香| 欧美黄色片欧美黄色片| 国产高清不卡午夜福利| 久久久国产精品麻豆| 不卡视频在线观看欧美| 欧美亚洲 丝袜 人妻 在线| 免费人妻精品一区二区三区视频| 午夜av观看不卡| 午夜福利在线观看免费完整高清在| 男的添女的下面高潮视频| 日本av免费视频播放| 亚洲伊人久久精品综合| 午夜久久久在线观看| 国产男女内射视频| 国产av国产精品国产| 99久国产av精品国产电影| 韩国av在线不卡| 亚洲国产看品久久| 人人妻人人爽人人添夜夜欢视频| 热99久久久久精品小说推荐| 国产一区二区激情短视频 | 晚上一个人看的免费电影| 人妻系列 视频| 香蕉精品网在线| 国产日韩欧美亚洲二区| 精品一品国产午夜福利视频| 久久亚洲国产成人精品v| 亚洲成av片中文字幕在线观看 | 边亲边吃奶的免费视频| 欧美精品人与动牲交sv欧美| av福利片在线| 性少妇av在线| 青春草亚洲视频在线观看| 水蜜桃什么品种好| 欧美 日韩 精品 国产| 午夜精品国产一区二区电影| 国产在线一区二区三区精| 青春草视频在线免费观看| 熟女av电影| 国产高清不卡午夜福利| 91国产中文字幕| 亚洲国产欧美在线一区| av又黄又爽大尺度在线免费看| 欧美另类一区| 亚洲精品久久午夜乱码| 久久 成人 亚洲| 99久久综合免费| 欧美日韩精品网址| 三级国产精品片| 久久精品久久久久久久性| 如何舔出高潮| 极品少妇高潮喷水抽搐| 丝袜喷水一区| 黄片小视频在线播放| 久久精品人人爽人人爽视色| 日本黄色日本黄色录像| 色网站视频免费| 交换朋友夫妻互换小说| 亚洲av欧美aⅴ国产| 日本wwww免费看| 一边亲一边摸免费视频| 国产精品一区二区在线不卡| 久久99热这里只频精品6学生| 亚洲,一卡二卡三卡| 高清不卡的av网站| 777久久人妻少妇嫩草av网站| tube8黄色片| 宅男免费午夜| 欧美激情高清一区二区三区 | 99re6热这里在线精品视频| 秋霞在线观看毛片| 精品国产超薄肉色丝袜足j| 欧美在线黄色| 久久久久国产网址| 精品国产露脸久久av麻豆| 最黄视频免费看| 亚洲av男天堂| 在线观看国产h片| 女性被躁到高潮视频| 老司机影院成人| 亚洲一区中文字幕在线| 少妇的逼水好多| 国产福利在线免费观看视频| 只有这里有精品99| 十分钟在线观看高清视频www| 久久青草综合色| 黄网站色视频无遮挡免费观看| 久久毛片免费看一区二区三区| 日韩一区二区视频免费看| 免费看不卡的av| 亚洲人成77777在线视频| 日本免费在线观看一区| 国产熟女午夜一区二区三区| 免费人妻精品一区二区三区视频| 免费看不卡的av| 永久网站在线| 日本午夜av视频| 中国国产av一级| 老司机亚洲免费影院| 久久久久久久国产电影| 亚洲人成网站在线观看播放| 天天操日日干夜夜撸| 国产成人精品无人区| 国产淫语在线视频| 国产在线免费精品| 久久久久久久久久久久大奶| 国产成人91sexporn| 一边亲一边摸免费视频| 综合色丁香网| 午夜激情av网站| 精品亚洲成国产av| 岛国毛片在线播放| 国产av码专区亚洲av| av国产精品久久久久影院| 在线观看免费日韩欧美大片| 免费在线观看黄色视频的| 在线观看三级黄色| 亚洲,一卡二卡三卡| 亚洲欧美精品综合一区二区三区 | 色哟哟·www| 热re99久久国产66热| 啦啦啦啦在线视频资源| 精品亚洲成国产av| 国产白丝娇喘喷水9色精品| 男的添女的下面高潮视频| 七月丁香在线播放| 亚洲婷婷狠狠爱综合网| 亚洲一区中文字幕在线| 伊人久久大香线蕉亚洲五| 国产毛片在线视频| 男女免费视频国产| 精品人妻一区二区三区麻豆| www日本在线高清视频| 国产精品嫩草影院av在线观看| 久久久久国产精品人妻一区二区| av在线app专区| 精品少妇黑人巨大在线播放| 欧美bdsm另类| 免费在线观看视频国产中文字幕亚洲 | 免费人妻精品一区二区三区视频| 伦精品一区二区三区| 亚洲美女黄色视频免费看| 亚洲欧洲日产国产| 黄色毛片三级朝国网站| 国产一级毛片在线| 国产精品二区激情视频| 天天操日日干夜夜撸| 亚洲伊人久久精品综合| 黄色毛片三级朝国网站| 日韩一区二区三区影片| 成年动漫av网址| 久久精品国产亚洲av高清一级| 精品久久久久久电影网| 卡戴珊不雅视频在线播放| 一二三四在线观看免费中文在| 一级a爱视频在线免费观看| 少妇人妻久久综合中文| √禁漫天堂资源中文www| videossex国产| 亚洲精品国产av蜜桃| 日韩,欧美,国产一区二区三区| 国产精品一国产av| 亚洲色图综合在线观看| 国产成人欧美| 黄色配什么色好看| 菩萨蛮人人尽说江南好唐韦庄| 韩国av在线不卡| 精品国产露脸久久av麻豆| 国产精品女同一区二区软件| 成年动漫av网址| 日韩不卡一区二区三区视频在线| 建设人人有责人人尽责人人享有的| 国产av码专区亚洲av| 天堂8中文在线网| 波多野结衣av一区二区av| 国产一区二区三区av在线| 免费在线观看视频国产中文字幕亚洲 | 大香蕉久久成人网| 国产片特级美女逼逼视频| www.av在线官网国产| 多毛熟女@视频| 国产乱人偷精品视频| 两性夫妻黄色片| 99久国产av精品国产电影| 岛国毛片在线播放| 成人18禁高潮啪啪吃奶动态图| 丝袜喷水一区| 亚洲伊人久久精品综合| 国产爽快片一区二区三区| 国产极品天堂在线| 欧美精品亚洲一区二区| 中文字幕人妻丝袜制服| 亚洲国产欧美网| 亚洲精品一二三| 成年女人毛片免费观看观看9 | 国产亚洲欧美精品永久| 午夜福利视频在线观看免费| 搡女人真爽免费视频火全软件| 亚洲欧美日韩另类电影网站| 纵有疾风起免费观看全集完整版| 亚洲欧美清纯卡通| 免费高清在线观看日韩| 91精品国产国语对白视频| 热99久久久久精品小说推荐| 亚洲欧洲日产国产| 日韩电影二区| 欧美精品国产亚洲| 久久精品国产亚洲av天美| 欧美亚洲 丝袜 人妻 在线| 色婷婷久久久亚洲欧美| 精品国产露脸久久av麻豆| 亚洲 欧美一区二区三区| h视频一区二区三区| 一级毛片 在线播放| 久久久久久人人人人人| 国产精品偷伦视频观看了| 成年人午夜在线观看视频| 99精国产麻豆久久婷婷| 大片免费播放器 马上看| 午夜福利,免费看| 一级片'在线观看视频| 99久久人妻综合| 街头女战士在线观看网站| 男人爽女人下面视频在线观看| 国产成人精品在线电影| 久久国产亚洲av麻豆专区| 国产成人一区二区在线| 久久久久人妻精品一区果冻| 国产又色又爽无遮挡免| 欧美中文综合在线视频| 亚洲国产看品久久| 久久久国产一区二区| videos熟女内射| 成人国产麻豆网| 超碰97精品在线观看| 日韩人妻精品一区2区三区| 一级毛片我不卡| 久久这里有精品视频免费| 捣出白浆h1v1| 中文字幕制服av| 国产成人一区二区在线| 国产极品天堂在线| av片东京热男人的天堂| 国产1区2区3区精品| 日本91视频免费播放| 亚洲精品视频女| 亚洲精品av麻豆狂野| 日日啪夜夜爽| 亚洲精品自拍成人| 久久人人爽av亚洲精品天堂| 蜜桃国产av成人99| 熟女电影av网| 9191精品国产免费久久| 性高湖久久久久久久久免费观看| 久久97久久精品| 伦精品一区二区三区| 国产高清国产精品国产三级| 亚洲视频免费观看视频| 制服人妻中文乱码| 亚洲男人天堂网一区| av一本久久久久| 日韩精品免费视频一区二区三区| 欧美中文综合在线视频| 精品人妻在线不人妻| 亚洲成国产人片在线观看| 欧美成人午夜免费资源| 少妇人妻 视频| 国产欧美日韩一区二区三区在线| 看非洲黑人一级黄片| 欧美成人午夜精品| 婷婷色麻豆天堂久久| a级毛片黄视频| 黄频高清免费视频| 久久午夜福利片| 免费大片黄手机在线观看| 两个人看的免费小视频| 国产精品二区激情视频| xxxhd国产人妻xxx| 久久鲁丝午夜福利片| 天美传媒精品一区二区| 久久久久精品人妻al黑| 国产1区2区3区精品| 黄色配什么色好看| 啦啦啦视频在线资源免费观看| 亚洲精品美女久久久久99蜜臀 | 肉色欧美久久久久久久蜜桃| av电影中文网址| 九草在线视频观看| 熟女少妇亚洲综合色aaa.| 国产精品嫩草影院av在线观看| 国产一区亚洲一区在线观看| 国精品久久久久久国模美| 麻豆精品久久久久久蜜桃| 日韩欧美一区视频在线观看| 黄片无遮挡物在线观看| 国产成人a∨麻豆精品| av国产精品久久久久影院| 中国国产av一级| 国产成人aa在线观看| 国产精品国产av在线观看| 夫妻午夜视频| 美女xxoo啪啪120秒动态图| 欧美 日韩 精品 国产| 香蕉丝袜av| 国产成人免费观看mmmm| 性高湖久久久久久久久免费观看| 国产精品国产三级专区第一集| 9色porny在线观看| 亚洲少妇的诱惑av| 汤姆久久久久久久影院中文字幕| 天天躁日日躁夜夜躁夜夜| 国产不卡av网站在线观看| 色婷婷av一区二区三区视频| 啦啦啦啦在线视频资源| 亚洲欧美一区二区三区黑人 | 在线观看人妻少妇| 在线观看三级黄色| 两个人免费观看高清视频| 久久久久国产一级毛片高清牌| 亚洲欧美日韩另类电影网站| 老汉色av国产亚洲站长工具| 色吧在线观看| 免费黄网站久久成人精品| 制服丝袜香蕉在线| 有码 亚洲区| 伊人久久大香线蕉亚洲五| 伊人亚洲综合成人网| 精品久久蜜臀av无| 亚洲精品第二区| 中文字幕人妻丝袜制服| 日日爽夜夜爽网站| 欧美老熟妇乱子伦牲交| www.精华液| av在线app专区| 日韩大片免费观看网站| 成年动漫av网址| 色哟哟·www| 精品一品国产午夜福利视频| 最近最新中文字幕免费大全7| 婷婷成人精品国产| 亚洲精品aⅴ在线观看| 久久久久久久久免费视频了| 亚洲精品一区蜜桃| 成人毛片a级毛片在线播放| 可以免费在线观看a视频的电影网站 | 欧美成人午夜免费资源| 亚洲精品一区蜜桃| 伊人亚洲综合成人网| 啦啦啦视频在线资源免费观看| 国产成人欧美| 亚洲精品一区蜜桃| 国产男女超爽视频在线观看| 久久午夜综合久久蜜桃| 欧美日韩国产mv在线观看视频| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 日韩制服骚丝袜av| 五月天丁香电影| 国产成人精品福利久久| 又粗又硬又长又爽又黄的视频| 欧美亚洲日本最大视频资源| 亚洲一区二区三区欧美精品| 精品卡一卡二卡四卡免费| 午夜福利,免费看| 熟女少妇亚洲综合色aaa.| 免费少妇av软件| 性少妇av在线| 婷婷色av中文字幕| 午夜福利网站1000一区二区三区| 久久精品久久精品一区二区三区| 欧美成人精品欧美一级黄| 精品国产露脸久久av麻豆| 男男h啪啪无遮挡| 日韩电影二区| 少妇人妻 视频| 亚洲欧美一区二区三区国产| 国产成人精品久久二区二区91 | 啦啦啦在线观看免费高清www| 久久人人97超碰香蕉20202| 国产精品无大码| 欧美精品亚洲一区二区| 精品国产露脸久久av麻豆| 久久97久久精品| 午夜福利一区二区在线看| 成人黄色视频免费在线看| 大片免费播放器 马上看| 国产在线视频一区二区| 日韩中文字幕视频在线看片| 少妇熟女欧美另类| 国产成人精品无人区| 91精品伊人久久大香线蕉| 久久婷婷青草| 日本vs欧美在线观看视频| 中文字幕制服av| 午夜av观看不卡| 黄网站色视频无遮挡免费观看| 一级,二级,三级黄色视频| 亚洲国产色片| 国产av精品麻豆| 久久国产亚洲av麻豆专区| 香蕉丝袜av| 狂野欧美激情性bbbbbb| 少妇被粗大猛烈的视频| 天天躁狠狠躁夜夜躁狠狠躁| 男女高潮啪啪啪动态图| 美女高潮到喷水免费观看| 男女无遮挡免费网站观看| 有码 亚洲区| 伦精品一区二区三区| 好男人视频免费观看在线| 大话2 男鬼变身卡| 丰满饥渴人妻一区二区三| 日韩精品有码人妻一区| 亚洲第一av免费看| 久久综合国产亚洲精品| 最近中文字幕2019免费版| 97人妻天天添夜夜摸| 一区在线观看完整版| av在线app专区| 国产精品 欧美亚洲| 国产毛片在线视频| 美国免费a级毛片| 1024视频免费在线观看| 伊人久久大香线蕉亚洲五| 自拍欧美九色日韩亚洲蝌蚪91| 熟女av电影| 亚洲婷婷狠狠爱综合网| a级毛片在线看网站| 如何舔出高潮| xxx大片免费视频| 一区二区日韩欧美中文字幕| 2018国产大陆天天弄谢| h视频一区二区三区| 搡女人真爽免费视频火全软件| 中文字幕另类日韩欧美亚洲嫩草| 99久久综合免费| 免费看不卡的av| 18禁裸乳无遮挡动漫免费视频| 丝瓜视频免费看黄片| 色婷婷av一区二区三区视频| 精品亚洲成国产av| 亚洲国产av新网站| 亚洲欧美中文字幕日韩二区| 成年人免费黄色播放视频| 午夜久久久在线观看| 久久青草综合色| 一区二区日韩欧美中文字幕| 欧美精品av麻豆av| 黄片小视频在线播放| 日韩中文字幕视频在线看片| 日韩精品免费视频一区二区三区| 91久久精品国产一区二区三区| 欧美+日韩+精品| av片东京热男人的天堂| 国产日韩欧美亚洲二区| 女人精品久久久久毛片| 丝袜喷水一区| 免费不卡的大黄色大毛片视频在线观看| 丁香六月天网| 日韩一卡2卡3卡4卡2021年| 亚洲欧美日韩另类电影网站| 亚洲国产欧美日韩在线播放| 国产精品国产三级专区第一集| av女优亚洲男人天堂| 免费观看在线日韩| 热re99久久国产66热| 尾随美女入室| 国产精品女同一区二区软件| kizo精华| 日韩欧美一区视频在线观看| 少妇人妻 视频| 国产爽快片一区二区三区| 成人国产av品久久久| 成年动漫av网址| 国产激情久久老熟女| 日韩电影二区| 亚洲精品乱久久久久久| 国产乱人偷精品视频| 精品久久蜜臀av无| 国产精品不卡视频一区二区| 免费观看无遮挡的男女| freevideosex欧美| 中文精品一卡2卡3卡4更新| 乱人伦中国视频| 大香蕉久久成人网| 侵犯人妻中文字幕一二三四区| 男女啪啪激烈高潮av片| 777久久人妻少妇嫩草av网站| 大话2 男鬼变身卡| 在线 av 中文字幕| 亚洲国产精品一区二区三区在线| 男人爽女人下面视频在线观看| 中文天堂在线官网| 韩国av在线不卡| 国产精品一国产av| 999久久久国产精品视频| 日韩制服骚丝袜av| 丝袜喷水一区| 熟女少妇亚洲综合色aaa.| 人妻 亚洲 视频| 亚洲,一卡二卡三卡| 伊人亚洲综合成人网| av线在线观看网站| 中文字幕最新亚洲高清| 一级毛片黄色毛片免费观看视频| 国产亚洲一区二区精品| 久久久久视频综合| 黄色一级大片看看| 亚洲精品第二区| 成人国产av品久久久| 九色亚洲精品在线播放| 亚洲美女视频黄频| 欧美老熟妇乱子伦牲交| 国产在视频线精品| 91aial.com中文字幕在线观看| 国产精品麻豆人妻色哟哟久久| 日韩成人av中文字幕在线观看| 日本-黄色视频高清免费观看| 香蕉精品网在线| 亚洲内射少妇av| 国产成人精品福利久久| 亚洲精品第二区| av免费在线看不卡| 深夜精品福利| 欧美国产精品va在线观看不卡| 亚洲天堂av无毛| 亚洲国产看品久久| 丝袜美足系列| 久久精品亚洲av国产电影网| 亚洲第一av免费看| 在线观看免费高清a一片| 这个男人来自地球电影免费观看 | 久久久久国产网址| 九色亚洲精品在线播放| 日日撸夜夜添| 国产在线视频一区二区| 国产老妇伦熟女老妇高清| 亚洲美女视频黄频| 高清视频免费观看一区二区| 女性被躁到高潮视频| 99热国产这里只有精品6| 亚洲第一av免费看| 久久人人爽av亚洲精品天堂| 久久久久久久久久人人人人人人| 亚洲精品中文字幕在线视频| 国产精品 欧美亚洲| 中文字幕人妻丝袜制服| 精品99又大又爽又粗少妇毛片| 伦理电影免费视频| 亚洲国产精品一区二区三区在线|