• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    知識圖譜補(bǔ)全技術(shù)研究綜述

    2023-03-06 12:14:00吳國棟劉涵偉何章偉李景霞王雪妮
    關(guān)鍵詞:三元組張量圖譜

    吳國棟,劉涵偉,何章偉,李景霞,王雪妮

    (安徽農(nóng)業(yè)大學(xué) 信息與計(jì)算機(jī)學(xué)院,合肥 230036)

    1 引 言

    自Google于2012年5月首先提出了知識圖譜(knowledge graph)[1]概念以來,知識圖譜在搜索引擎[2]、問答系統(tǒng)[3,4]、對話系統(tǒng)[5]、推薦系統(tǒng)[6,7]、知識推理[8,9]、實(shí)體對齊[10]、事件預(yù)測[11,12]等方面都有著良好的表現(xiàn).知識圖譜是一種有向異構(gòu)信息網(wǎng)絡(luò),含有豐富的實(shí)體、概念及其之間的各種語義關(guān)系[13].知識圖譜(KG)正成為實(shí)現(xiàn)人工智能(AI)的首要驅(qū)動(dòng)力.與人腦一樣,KG將成為機(jī)器的大腦,這些機(jī)器可以相互連接,執(zhí)行認(rèn)知推理,最重要的是,可以從大量異構(gòu)數(shù)據(jù)中獲取見解.許多KG構(gòu)建于AI相關(guān)應(yīng)用中,例如,推薦系統(tǒng)、問答、語義搜索和排名和閱讀理解[14].從廣義上來說,知識圖譜是將現(xiàn)實(shí)世界中的概念,實(shí)體和相互關(guān)系用結(jié)構(gòu)化形式表述出來,通過學(xué)習(xí)人類認(rèn)識世界的方式,增強(qiáng)互聯(lián)網(wǎng)對海量信息的管理、組織和理解能力.知識圖是事實(shí)的結(jié)構(gòu)化表示,由實(shí)體、關(guān)系和語義描述組成.實(shí)體可以是現(xiàn)實(shí)世界中的對象和抽象概念,關(guān)系表示實(shí)體之間的關(guān)系和實(shí)體的語義描述,它們的關(guān)系包含定義明確的類型和屬性[15].知識圖譜主要由實(shí)體節(jié)點(diǎn)和實(shí)體間關(guān)系組成,由實(shí)體-關(guān)系-實(shí)體來構(gòu)成最基本的三元組結(jié)構(gòu),通過目標(biāo)函數(shù)將實(shí)體和關(guān)系分別以低維的向量來表示.Trans系列的知識圖譜表示方法均采用同樣的函數(shù)思想,Trans方法主要有TransE、TransH、TransR、CtransR、TransD、TransA以及TransG等.

    隨著網(wǎng)絡(luò)容量的爆炸式增長,傳統(tǒng)知識圖譜的缺點(diǎn)也逐漸暴露出來,首先是計(jì)算效率的問題.在使用知識圖譜計(jì)算實(shí)體之間的語義關(guān)系時(shí),通常需要設(shè)計(jì)一種特殊的圖算法來實(shí)現(xiàn).然而,該圖算法計(jì)算復(fù)雜度高,可擴(kuò)展性差.當(dāng)知識圖達(dá)到較大規(guī)模時(shí),很難滿足實(shí)時(shí)計(jì)算的需要.其次是數(shù)據(jù)稀疏性問題.與其他大規(guī)模數(shù)據(jù)一樣,大規(guī)模知識圖也面臨著嚴(yán)重的數(shù)據(jù)稀疏問題,這使得實(shí)體的語義或推理關(guān)系的計(jì)算極不準(zhǔn)確.為了應(yīng)對這些挑戰(zhàn),知識圖嵌入技術(shù)被提出并引起了人們的廣泛關(guān)注,因?yàn)樗軌驅(qū)⒅R圖嵌入到稠密的低維特征空間,并且能夠有效地計(jì)算低維空間中實(shí)體之間的語義關(guān)系,有效地解決計(jì)算復(fù)雜性和數(shù)據(jù)稀疏性問題[15].

    知識圖嵌入的關(guān)鍵思想是在連續(xù)向量空間中嵌入包含實(shí)體和關(guān)系的知識圖譜組件,以簡化操作,同時(shí)保留知識圖譜的固有結(jié)構(gòu).這些實(shí)體和關(guān)系嵌入可以進(jìn)一步用于各種任務(wù)[16].

    知識圖譜雖在現(xiàn)代科學(xué)中起著越來越重要的作用,但一個(gè)數(shù)據(jù)豐富且準(zhǔn)確的知識圖譜其建立過程需要大量的技術(shù)甚至人力,多數(shù)知識圖譜在建立后仍然存在著內(nèi)容不夠完善的問題,知識圖譜補(bǔ)全技術(shù)就是為了通過算法來對圖譜補(bǔ)充新的知識,從而減少構(gòu)建知識圖譜所需的人工成本.

    知圖圖譜(KG)包含大量的事實(shí)三元組(頭實(shí)體、關(guān)系、尾實(shí)體),廣泛應(yīng)用于許多領(lǐng)域,如電子商務(wù)、金融和社交網(wǎng)絡(luò).由于知識圖通常是不完整的,手動(dòng)查找所有事實(shí)三元組的成本很高,因此如何自動(dòng)執(zhí)行知識圖補(bǔ)全(KGC)備受關(guān)注[17].

    知識圖譜補(bǔ)全技術(shù)(knowledge graph completion)是知識獲取中的一個(gè)重要的應(yīng)用,現(xiàn)階段知識圖譜的補(bǔ)全方式主要依靠通過實(shí)體和關(guān)系的低維嵌入,對知識圖譜中的實(shí)體與關(guān)系進(jìn)行預(yù)測.知識圖譜往往被定義成(頭實(shí)體h,關(guān)系r,尾實(shí)體t)所構(gòu)成的三元組,知識圖譜補(bǔ)全技術(shù)就是對這三元組的缺失部分進(jìn)行補(bǔ)全[18],它能夠讓知識圖譜變得更加完整,雖然人工干預(yù)構(gòu)建出的特征會(huì)具有較好的可解釋性,但耗費(fèi)資源太多.與之相比,通過表示學(xué)習(xí)技術(shù)可以自動(dòng)地根據(jù)任務(wù)構(gòu)建特征,但其往往又缺乏可解釋性.如何找到更有效的知識圖譜補(bǔ)全技術(shù),是一個(gè)非常值得研究的課題.

    2 知識圖譜補(bǔ)全技術(shù)相關(guān)研究

    知識圖譜補(bǔ)全(KGC)可以解決知識圖中數(shù)據(jù)稀疏的問題.近年來,針對KGC任務(wù)提出了大量模型[19],本文從模型構(gòu)造方法的視角,將已有知識圖譜補(bǔ)全技術(shù)的相關(guān)研究分為Trans結(jié)構(gòu)、神經(jīng)網(wǎng)絡(luò)和張量分解3種構(gòu)造方法.其中TransE模型在鏈接預(yù)測方面表現(xiàn)很好,并且參數(shù)少、操作簡單;但TransE 方法在處理復(fù)雜關(guān)系方面,準(zhǔn)確度較低,如在處理一對多、多對一、多對多和自反等復(fù)雜關(guān)系時(shí),TransE模型難以精準(zhǔn)推算出具有相同關(guān)系的實(shí)體.神經(jīng)網(wǎng)絡(luò)模型其結(jié)構(gòu)復(fù)雜多樣,不同的模型具有不同的特性,但主體上都是通過聚合的方式,來捕捉鄰域節(jié)點(diǎn)信息.這類模型常會(huì)用到多層信息傳遞,大量的參數(shù)加重了模型的訓(xùn)練負(fù)擔(dān),但模型因加入了非線性計(jì)算,能取得較好的預(yù)測效果.張量分解模型是通過多維矩陣的組合和計(jì)算,來表示三元組內(nèi)部關(guān)系,模型結(jié)構(gòu)簡單,計(jì)算效率高,在大規(guī)模數(shù)據(jù)計(jì)算上也有不錯(cuò)的效果,與Trans模型一樣使用線性計(jì)算的方式,可以作為解碼器來使用,但對復(fù)雜的數(shù)據(jù)關(guān)系難以處理,使用時(shí)有一定的局限性.

    已有知識圖譜補(bǔ)全技術(shù)的主要研究如表1所示.

    表1 知識圖譜補(bǔ)全相關(guān)模型Table 1 Model about knowledge graph completion

    2.1 Trans結(jié)構(gòu)模型的知識圖譜補(bǔ)全

    2.1.1 多語義環(huán)境中Trans結(jié)構(gòu)模型的改進(jìn)

    Trans結(jié)構(gòu)也被人稱為翻譯結(jié)構(gòu),最早的Trans結(jié)構(gòu)的模型是TransE[20],模型將知識圖譜中的三元組定義為(頭實(shí)體head,關(guān)系標(biāo)簽label,尾實(shí)體tail),并簡寫為(h,r,t).通過三元組向量化,頭實(shí)體h加上關(guān)系r便可得到尾實(shí)體t,即h+r=t,這樣可以通過一個(gè)實(shí)體和關(guān)系來預(yù)測另一個(gè)實(shí)體,即h+r≈t.

    因?yàn)門ransE模型較為簡單,只是三元組內(nèi)的向量疊加,所以難以處理一對多或多對多的復(fù)雜關(guān)系.TransH[21]相對于TransE在這一方面做出了改進(jìn),TransH同樣假設(shè)了三元組(頭節(jié)點(diǎn)h,關(guān)系r,尾節(jié)點(diǎn)t)其中關(guān)系r會(huì)對應(yīng)一個(gè)矩陣Wr(可以理解為一種超平面),以矩陣相乘的方式進(jìn)行投影.但TransH依舊只關(guān)注了同一個(gè)語義環(huán)境下的三元組(投影在同一平面),而TransR[22]則在此基礎(chǔ)上將三元組分在不同的實(shí)體空間(entity space)和關(guān)系空間(relation space)中,并對關(guān)系空間中的頭尾實(shí)體映射一一建立不同的關(guān)系向量,從而達(dá)到相同的頭尾實(shí)體在不同的語義環(huán)境下會(huì)有不同的關(guān)系表示.

    由于實(shí)體在不同語義環(huán)境中會(huì)有不同的關(guān)系,因此在通過頭實(shí)體和關(guān)系預(yù)測尾實(shí)體時(shí),會(huì)產(chǎn)生多種可能結(jié)果.CrossE[26]提出了使用交互矩陣,來提取頭實(shí)體和關(guān)系向量對應(yīng)的語義向量,進(jìn)而得到相應(yīng)的尾實(shí)體.

    2.1.2 復(fù)數(shù)域上Trans結(jié)構(gòu)模型的擴(kuò)展

    eiθ=cosθ+isinθ

    (1)

    2.1.3 多步路徑中Trans結(jié)構(gòu)模型的擴(kuò)展

    ci=f(W[ci-1;ri]),ri∈p

    (2)

    其中c1=r1,P=cn為最終的關(guān)系嵌入.模型使用向量距離差作為評分函數(shù)(能量函數(shù)),評分函數(shù)如公式(3)所示:

    E(h,p,t)=‖P-(t-h)‖=‖P-r‖=E(p,r)

    (3)

    (4)

    同樣的,利用公式(4)也可以計(jì)算出從頭實(shí)體h到尾實(shí)體t的路徑可靠度,如公式(5)所示:

    (5)

    圖1 路徑可靠性的傳播圖Fig.1 Propagation diagram of path reliability

    2.2 神經(jīng)網(wǎng)絡(luò)模型的知識圖譜補(bǔ)全

    2.2.1 基于卷積神經(jīng)網(wǎng)絡(luò)的知識圖譜補(bǔ)全

    (6)

    p=σ(ψr(es,eo))

    (7)

    ConvKB[33]則在ConvE的基礎(chǔ)上進(jìn)行了改進(jìn),不再是對單個(gè)實(shí)體和關(guān)系的拼接計(jì)算,而是將一個(gè)三元組看作為整體,拼接為一個(gè)三列矩陣作為卷積輸入,最后計(jì)算評分.將不同的嵌入向量進(jìn)行拼接(Conact)并重塑(Reshape),雖然讓實(shí)體關(guān)系間產(chǎn)生了交互性,但拼接和重塑都無法保證向量的整體都參與到了交互中,ConvR[32]則是將關(guān)系r的嵌入作為卷積核,保證關(guān)系和實(shí)體之間的交互最大化.

    InteractE[34]結(jié)合了之前模型的卷積處理方式,通過排列、重塑特征和循環(huán)卷積進(jìn)一步改善卷積神經(jīng)網(wǎng)絡(luò)在知識圖譜補(bǔ)全上的應(yīng)用.InteractE提出了3種重塑函數(shù)(Reshaping Function):Stack、Alternate以及Chequer.設(shè)實(shí)體嵌入h和關(guān)系嵌入r分別為es=(a1,…,ad)和er=(b1,…,bd),通過重塑函數(shù)φ改變張量維度,如公式(8)所示:

    φ(es,er):Rd×Rd→Rm×n

    (8)

    Stack將實(shí)體嵌入和關(guān)系嵌入重塑并拼接為(m/2)×n的矩陣,單個(gè)嵌入重塑為2d=m×n的矩陣,最后拼接重塑后的矩陣.

    Alternate采用交替堆疊的方式拼接重塑的矩陣,先將實(shí)體嵌入和關(guān)系嵌入任重塑為m×n的矩陣,在每行依次交替拼接,可以看作是兩種嵌入頻率為1的條件下交替出現(xiàn).

    Chequer對實(shí)體嵌入和關(guān)系嵌入直接拆分為單個(gè)單元,再交替堆疊,從而保證重塑的矩陣中不會(huì)有相鄰的兩個(gè)相同的嵌入單元.

    圖2(a)~圖2(d)分別為ConvE、ConvKB、ConvR和InteractE 4種模型的卷積操作以及交互方式,三元組(h,r,t)在不同模型下采取了不同的拼接和重塑(Conact & Reshape)策略,其中ConvR模型直接將關(guān)系向量作為卷積核,InteractE則采用3種重塑方式進(jìn)行特征獲取.

    圖2 4種模型的卷積操作以及交互方式Fig.2 Convolution operation and interaction mode of four models

    傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)更多的是應(yīng)用在圖像處理上,原因是卷積核為不可拆分的固定維度張量,但應(yīng)用于知識圖譜上時(shí),輸入張量的邊角和輸入中心區(qū)域與卷積核的交互程度產(chǎn)生的差異,會(huì)導(dǎo)致卷積神經(jīng)網(wǎng)絡(luò)沒有均勻地捕捉實(shí)體和關(guān)系的嵌入特征.InteractE采用了循環(huán)卷積運(yùn)算,卷積核不受邊界限制,從而捕捉三元組中更多的特征信息.圖3展示了標(biāo)準(zhǔn)卷積和循環(huán)卷積的區(qū)別.

    2.2.2 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的知識圖譜補(bǔ)全

    多數(shù)知識圖譜補(bǔ)全往往針對的是單個(gè)三元組的補(bǔ)全,即預(yù)測實(shí)體間的直接關(guān)系,而對實(shí)體間的長期關(guān)系沒有過多的關(guān)注.在知識圖譜中,實(shí)體間存在類似序列的關(guān)系,也就是語義信息會(huì)沿路徑傳播,而單個(gè)三元組難以包含在路徑中傳播的語義信息.對于路徑關(guān)系處理,常用的是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),而RSN[37]將循環(huán)神經(jīng)網(wǎng)絡(luò)與殘差學(xué)習(xí)相結(jié)合,通過隨機(jī)游走的方式來捕獲實(shí)體間的長期依賴關(guān)系.

    常見的RNN循環(huán)神經(jīng)網(wǎng)絡(luò)[49]分為輸入層、隱藏層和輸出層3大部分,通常上一次的輸出只作為下一次輸入的一部分,來確保節(jié)點(diǎn)間的語義信息可以有效保存.RNN原理如公式(9)所示:

    ht=tanh(Whht-1+Wxxt+b)

    (9)

    其中ht為當(dāng)前層的輸出,ht-1為上一層的輸出,Wh為ht-1的權(quán)重矩陣,用來調(diào)整上一層信息的占比.xt為當(dāng)前層的輸入,Wx為輸入的權(quán)重矩陣.

    顯然,傳統(tǒng)的RNN每次都會(huì)迭代上一層的信息,但隨著層數(shù)的堆疊,最早的信息會(huì)多次與權(quán)重矩陣進(jìn)行運(yùn)算,導(dǎo)致信息占比不斷減少,對路徑語義信息的捕捉效率也不斷降低.而且RNN忽略了知識圖譜中的三元組結(jié)構(gòu),只是對路徑節(jié)點(diǎn)的信息進(jìn)行捕捉記錄.

    對于關(guān)系路徑,往往是一條實(shí)體與關(guān)系相互間隔排列的路徑,也就是說關(guān)系路徑中的排列元素可能是實(shí)體,也可能是關(guān)系.RSN結(jié)合殘差學(xué)習(xí)的方式提出了跳躍機(jī)制,對節(jié)點(diǎn)和關(guān)系進(jìn)行區(qū)分.對于實(shí)體節(jié)點(diǎn)的嵌入,RSN不僅將其作為當(dāng)前層的輸出,而且在下一層的關(guān)系嵌入中加入實(shí)體信息,讓實(shí)體信息有效參與到神經(jīng)網(wǎng)絡(luò)運(yùn)算中,而這種實(shí)體跳躍關(guān)系鏈接的方式就是RSN的跳躍機(jī)制.RSN的遞歸公式如公式(10)所示:

    (10)

    RSN通過隨機(jī)游走來對知識圖譜進(jìn)行補(bǔ)全,常見的無偏置的隨機(jī)游走通過均勻的概率分布選擇下一個(gè)實(shí)體,RSN采用偏置隨機(jī)游走,利用二階隨機(jī)游走的想法,并引入深度偏置來控制采樣的路徑深度.二階隨機(jī)游走與一階不同的是,一階隨機(jī)游走只依賴當(dāng)前節(jié)點(diǎn),而二階隨機(jī)游走會(huì)捕捉到當(dāng)前節(jié)點(diǎn)與上一個(gè)節(jié)點(diǎn),相對一階隨機(jī)游走提高了精度.常規(guī)的隨機(jī)游走[50](Conventional random walks)如公式(11)所示:

    (11)

    其中ei為隨機(jī)游走的第i層實(shí)體,r為關(guān)系,Γ為知識圖譜中的三元組集合,πei→ei+1表示對ei到ei+1之間的非歸一化轉(zhuǎn)移概率.對所有的三元組隨機(jī)進(jìn)行概率抽樣.

    RSN中提到的偏置隨機(jī)游走(Biased random walks)通過二階隨機(jī)游走來提高精度,并采用偏置來控制采樣的路徑大小,二階隨機(jī)游走如公式(12)所示:

    (12)

    其中d(a,b)表示實(shí)體a和b之間的最短路徑距離,值的范圍為{0,1,2},且控制隨機(jī)游走路徑方向的超參數(shù)α∈(0,1),μd(ei-1,ei+1)中較大的值代表隨機(jī)游走的方向.

    2.2.3 基于圖神經(jīng)網(wǎng)絡(luò)的知識圖譜補(bǔ)全

    深度學(xué)習(xí)的研究領(lǐng)域不斷擴(kuò)大,圖神經(jīng)網(wǎng)絡(luò)[51](GNN,Graph Neural Network)突破了卷積神經(jīng)網(wǎng)絡(luò)[52](CNN,Convolutional Neural Network)的局限性,不再像卷積神經(jīng)網(wǎng)絡(luò)那樣只能應(yīng)用于歐幾里得數(shù)據(jù)上,而是通過聚合圖結(jié)構(gòu)的數(shù)據(jù)來捕捉信息,其中圖卷積網(wǎng)絡(luò)[53](GCN,Graph Convolution Network)是將圖中的數(shù)據(jù)通過映射函數(shù)來聚合自身和鄰域的特征信息.GCN的消息傳遞如公式(13)所示:

    (13)

    gm(hi,hj)=Whj

    (14)

    從上述公式可以看出,GCN對鄰域聚合的方式是通過統(tǒng)一的函數(shù)來處理,對于鄰域中不同的節(jié)點(diǎn)以及關(guān)系并沒有進(jìn)行有效的區(qū)分.R-GCN[39](Relational Graph Convolutional Network)改進(jìn)了傳統(tǒng)GCN的信息聚合方式,對節(jié)點(diǎn)間的不同關(guān)系進(jìn)行分類,每種關(guān)系中的節(jié)點(diǎn)都有對應(yīng)的信息聚合方法.R-GCN將不同類型的邊設(shè)定一個(gè)獨(dú)立的權(quán)重矩陣,使得聚合鄰域節(jié)點(diǎn)時(shí)權(quán)重矩陣會(huì)記錄相種關(guān)系相關(guān)的節(jié)點(diǎn)信息,R-GCN的信息傳遞如公式(15)所示:

    (15)

    圖4中網(wǎng)格節(jié)點(diǎn)表示聚合的當(dāng)前節(jié)點(diǎn),深色節(jié)點(diǎn)和斜線填充的節(jié)點(diǎn)為當(dāng)前節(jié)點(diǎn)的鄰域,對不同關(guān)系構(gòu)成的鄰域(從rel_1到rel_N組關(guān)系鄰域,且根據(jù)方向再劃分為in和out兩種)進(jìn)行特征提取,并按照分配的權(quán)重矩陣加權(quán)求和,最后通過激活函數(shù)獲得最終特征.

    圖4 R-GCN的節(jié)點(diǎn)特征信息聚合過程Fig.4 Aggregation process of node characteristic information in R-GCN

    R-GCN的作用更多的是作為一種編碼器,通過多個(gè)矩陣來聚合不同關(guān)系的信息.但由于每種關(guān)系需要一個(gè)權(quán)重矩陣,導(dǎo)致R-GCNs訓(xùn)練時(shí)所需要的參數(shù)過多,而且R-GCN聚合的目標(biāo)是實(shí)體節(jié)點(diǎn),對關(guān)系本身的信息沒有進(jìn)行捕捉.在知識圖譜中,因?yàn)椴煌瑢?shí)體之間的關(guān)系會(huì)因?yàn)閷?shí)體語義環(huán)境而變化,所以關(guān)系本身是具有方向的.TransGCN[40]在R-GCN的基礎(chǔ)上提出實(shí)體更新和關(guān)系更新,而且定義了相對于實(shí)體的關(guān)系方向,對于實(shí)體節(jié)點(diǎn)vi,從其他節(jié)點(diǎn)指向vi的關(guān)系為incoming關(guān)系,而從vi指向其他節(jié)點(diǎn)的稱為outgoing關(guān)系.而且TransGCN更加重視知識圖譜中的三元組結(jié)構(gòu),TransGCN將GCN與Trans模型相結(jié)合,并定義Trans模型的三元組轉(zhuǎn)換方式,如公式(16)所示:

    (16)

    其中° 和*代表頭實(shí)體h向尾實(shí)體t和尾實(shí)體t向頭實(shí)體h轉(zhuǎn)換的操作符號,會(huì)與不同Trans模型結(jié)合時(shí)賦予不同的操作方法.

    TransGCN在更新實(shí)體和關(guān)系節(jié)點(diǎn)時(shí)采用了消息傳遞神經(jīng)網(wǎng)絡(luò)框架[54](MPNN,Message Passing Neural Networks).MPNN是一個(gè)用于深度學(xué)習(xí)的算法框架,主要作用類似神經(jīng)網(wǎng)絡(luò)中的前饋網(wǎng)絡(luò),將三元組的嵌入作為消息傳遞內(nèi)容,再與相應(yīng)的實(shí)體或邊結(jié)合,從而達(dá)到實(shí)體與邊的更新.消息更新公式如公式(17)所示:

    (17)

    公式中m為消息嵌入,M為消息更新矩陣,l為隱藏層層數(shù),vj為頭實(shí)體特征,vi為尾實(shí)體特征,rk為關(guān)系特征,Γ(vi)為與節(jié)點(diǎn)vi相關(guān)聯(lián)的三元組集合.

    有了傳遞的消息嵌入,就可以將消息與實(shí)體特征結(jié)合,獲得新的實(shí)體特征.實(shí)體更新公式如(18)所示,其中U為實(shí)體更新的權(quán)重矩陣.

    (18)

    對于關(guān)系更新,TransGCN直接采用一個(gè)變換矩陣W1來做為更新權(quán)重矩陣,關(guān)系更新公式如(19)所示:

    (19)

    TransGCN的更新方式如圖5所示,圖5(c)節(jié)點(diǎn)和邊對應(yīng)圖5(a)和圖5(b)的嵌入對象,虛線表示Incoming關(guān)系,實(shí)線表示Outgoing關(guān)系.圖5(a)中的深色實(shí)體為要更新的節(jié)點(diǎn)特征,° 和*為Trans模型的轉(zhuǎn)換公式換算符.

    圖5 TransGCN的更新方式Fig.5 Update mode of TransGCN

    TransGCN不僅僅改進(jìn)了R-GCN在知識圖譜的嵌入方式,而且還作為編碼器與Trans模型相結(jié)合,將公式(16)中的操作符° 和*進(jìn)行替換,就可以將Trans模型公式代入消息傳遞公式中.作者選取了TransE和RotatE兩種模型,其頭實(shí)體和尾實(shí)體的轉(zhuǎn)換公式分別如如公式(20)和公式(21)所示:

    (20)

    (21)

    2.3 張量分解模型的知識圖譜補(bǔ)全

    2.3.1 張量分解模型對潛在因子的獲取

    張量分解模型則是將整個(gè)知識圖譜張量化,通過張量的形式來表示三元組以及內(nèi)部的關(guān)系,整個(gè)知識圖譜可以被看做是一個(gè)三階二元張量,每個(gè)元素代表一個(gè)三元組.經(jīng)典的張量模型RESCAL[41]將兩個(gè)實(shí)體(頭實(shí)體和尾實(shí)體)向量化,從而構(gòu)成一個(gè)含有關(guān)系的域.假設(shè)有E1…En這 n個(gè)實(shí)體,R1…Rm為實(shí)體E所構(gòu)成的m個(gè)域中的關(guān)系,通過張量模型分解潛在因子來獲取新的關(guān)系嵌入.張量分解如公式(22)所示:

    χk≈ARkAT,fork=1,…,m

    (22)

    其中χk為待分解矩陣,A為分解的中的潛在實(shí)體特征,Rk則是一個(gè)非對稱矩陣.通過分解矩陣,RESCAL可以從兩個(gè)對照的三元組(其中一個(gè)為殘缺三元組,缺少關(guān)系)中預(yù)測新的關(guān)系.如圖6所示,小明、小紅都有上司在同一飯店聚餐,而小紅也參與了飯店聚餐,通過RESCAL將小紅和飯店構(gòu)成一個(gè)待分解的矩陣,再利用小明和飯店作為分解的部分矩陣,來推測小明和飯店之間的關(guān)系(虛線為推測的關(guān)系).

    圖6 RESCAL應(yīng)用示例Fig.6 Application example of RESCAL

    2.3.2 張量分解模型在復(fù)數(shù)域上的擴(kuò)展

    為了解決DisMult中的這一問題,ComplEx[46]引入了復(fù)數(shù)域,將實(shí)體用復(fù)數(shù)向量表示,這樣非對稱關(guān)系也可以通過共軛向量來解決.在關(guān)系為r,實(shí)體為s和o的三元組(s,r,o)中,ComplEx將張量分解中的適用關(guān)系擴(kuò)展到了多類型,對于關(guān)系則有嵌入向量ωr∈CK,其中CK表示K維度的復(fù)向量空間,實(shí)體嵌入則用es和eo表示,模型的評分函數(shù)如公式(23)所示:

    (23)

    2.3.3 張量分解模型的一般性擴(kuò)展

    TuckER模型在張量分解中表現(xiàn)更具有一般性,RESCAL、DisMult和ComplEx都是在三階二元張量中進(jìn)行三元組補(bǔ)全,TuckER也不例外,模型利用塔克分解(Tucker Decomposition)來處理張量分解問題.塔克分解在三階的情況下會(huì)將張量拆分為一個(gè)核心張量和3個(gè)分部矩陣,如公式(24)所示:

    (24)

    其中,待分解的原始張量χ∈RI×J×K,核心張量Z∈RP×Q×R,分部矩陣分別為A∈RI×P,B∈RJ×Q,C∈RK×R.符號×n為第n個(gè)情況下的乘法,?為向量內(nèi)積運(yùn)算符.

    模型將塔克分解中的3個(gè)分部矩陣作為三元組對應(yīng)的3個(gè)嵌入矩陣,即實(shí)體嵌入矩陣E=A=C,關(guān)系嵌入矩陣R=B,核心張量Z=W.而對于三元組(s,r,o)就有對應(yīng)的向量表示es,wr.eo.es,wr和eo分別為3個(gè)嵌入矩陣的向量表示,由此也可定義TuckER的評分函數(shù)如公式(25)所示:

    φ(es,r,eo)=W×1es×2wr×3eo

    (25)

    最后通過激活函數(shù)獲得概率p=σ(φ(es,r,eo))作為三元組預(yù)測的真實(shí)性概率.

    3 已有知識圖譜補(bǔ)全技術(shù)比較

    3.1 知識圖譜補(bǔ)全性能的常用指標(biāo)

    1)Mean Rank:通過評分函數(shù)f()來計(jì)算三元組的得分(比如真實(shí)性),從實(shí)體集合中取出部分實(shí)體代替原有的三元組中的尾實(shí)體(或頭實(shí)體),并對替換后的三元組計(jì)算得分,分越底排名越靠前,再對所有與測試集相符的排名次數(shù)求和取均值就為Mean Rank,值越低表示模型性能越好.

    2)Hits:與Mean Rank類似,通過相同的評分函數(shù)來計(jì)算排名,排在測試集中前k名的三元組個(gè)數(shù)之和在所有三元組中的比例則為Hits@k.Hits的值越高說明符合排名內(nèi)的三元組可能越多,模型效果越好.

    3.2 知識圖譜補(bǔ)全常用數(shù)據(jù)集

    1)WordNet:WordNet是以英文為主的一種數(shù)據(jù)集,早在1995年就被提出并建立,該數(shù)據(jù)集將英文中的各種詞匯作為實(shí)體對象,通過不同詞匯之間的關(guān)系來構(gòu)建知識圖譜.作為一個(gè)由詞匯構(gòu)成的語義網(wǎng)絡(luò),WordNet在構(gòu)建處就明確了6種語義關(guān)系信息,分別為同義關(guān)系(synonymy)、反義關(guān)系(antonymy)、上下關(guān)系(hyponymy & hypernymy)、部分與整體關(guān)系(meronymy & holonymy)、方式關(guān)系(troponymy)和蘊(yùn)含關(guān)系(entailment).論文中使用的往往是WordNet的子集,例如WN11、WN18、WN18RR等.

    2)Freebase:Freebase是一個(gè)超大規(guī)模的知識圖譜數(shù)據(jù)集,含有超過1.25億個(gè)三元組,關(guān)系種類超過4000,而實(shí)體屬性超過7000.Freebase屬于百科類型的知識圖譜,建立的初衷就是為了記錄地球上所有的知識,里面涉及了多種學(xué)科知識,比如人文、地理.由于Freebase本身數(shù)據(jù)量較為龐大,實(shí)驗(yàn)往往會(huì)采用Freebase的子集,例如FB15K、FB15K-237、FB1M等.常用公共數(shù)據(jù)集信息如表2所示.

    表2 常用公共數(shù)據(jù)集Table 2 Common public datasets

    對于數(shù)據(jù)集的選擇,各個(gè)模型往往選取特定的關(guān)系種類來體現(xiàn)模型的優(yōu)勢,所以使用的數(shù)據(jù)集以子集為主.本文從各個(gè)模型實(shí)驗(yàn)中選取了4個(gè)常用的數(shù)據(jù)集作為實(shí)驗(yàn)對比,分別為WordNet的子集WN18、WN18RR和Freebase的子集FB15K、FB15K-237.WN18包含了18種詞語關(guān)系,WN18RR對WN18的關(guān)系進(jìn)行了刪選,因?yàn)閃N18包含了許多互為逆的三元組,比如(合肥,屬于,中國)和(中國,包含,合肥)就是一對互逆的三元組,這種三元組在數(shù)據(jù)處理的過程中對關(guān)系取逆就可以得到,因此WN18RR刪除了可以通過關(guān)系取逆的三元組.類似的FB15K也刪除了類似可以關(guān)系取逆的三元組,但Freebase本身內(nèi)容較多,F(xiàn)B15K依舊保留了1345中關(guān)系.FB15K-237則是在原有基礎(chǔ)上進(jìn)一步刪減數(shù)據(jù),保留了237種關(guān)系.

    3.3 不同知識圖譜補(bǔ)全技術(shù)實(shí)驗(yàn)分析

    文章中的實(shí)驗(yàn)結(jié)果是作者在公開數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)得出的,將知識圖譜補(bǔ)全常用的3種指標(biāo)Mean Rank、Hits和MRR作為評測標(biāo)準(zhǔn),總結(jié)各個(gè)模型的在WN18、WN18RR、FB15K和FB15K-237 4個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)數(shù)據(jù),對比模型的訓(xùn)練效果.其中Raw表示包含負(fù)樣本的初始的三元組數(shù)據(jù),因?yàn)槿藶闃?gòu)造的三元組不一定不存在,也有可能是真實(shí)數(shù)據(jù),所以也可以作為訓(xùn)練數(shù)據(jù).Filter則表示的是刪除過負(fù)樣本的真實(shí)數(shù)據(jù).具體的實(shí)驗(yàn)結(jié)果如表3~表6所示.

    表3 數(shù)據(jù)集下不同模型實(shí)驗(yàn)結(jié)果Table 3 Experimental results of each model in WN18 dataset

    表4 WN18RR數(shù)據(jù)集下不同模型實(shí)驗(yàn)結(jié)果Table 4 Experimental results of each model in WN18RR dataset

    表5 FB15K數(shù)據(jù)集下不同模型實(shí)驗(yàn)結(jié)果Table 5 Experimental results of each model in FB15K dataset

    表6 FB15K-237數(shù)據(jù)集下不同模型實(shí)驗(yàn)結(jié)果Table 6 Experimental results of each model in FB15K-237 dataset

    表3所用的數(shù)據(jù)集為WN18,其中DisMult數(shù)據(jù)來源于ComplEx,WN18作為WordNet的一個(gè)子集,所構(gòu)成的關(guān)系種類并不多,因此復(fù)雜的模型并不一定可以在WordNet上取得很好的效果,從Hits@10的數(shù)據(jù)中可以看出,神經(jīng)網(wǎng)絡(luò)模型和張量分解模型的表現(xiàn)較好,如ConvR模型、R-GCN模型、TuckER模型及ComplEx模型等,但在MRR上神經(jīng)網(wǎng)絡(luò)模型的得分較低,如R-GCN模型及DisMult模型.

    Trans結(jié)構(gòu)模型中的RotatE在Hits@10上排到了第1名,它在Hits@1和Hits@3以及MRR 3種評價(jià)指標(biāo)中也均表現(xiàn)很好,張量分解模型在Hits@10和MRR兩種評價(jià)指標(biāo)上均表現(xiàn)良好,其中TuckER的MRR評分最高,在Hits@1和Hits@3上也排到了第1名.這也在一定程度上說明了張量分解模型比較適用關(guān)系較少的知識圖譜.

    表4中TransE的數(shù)據(jù)來源于ConvKB的實(shí)驗(yàn)數(shù)據(jù),表中數(shù)據(jù)集WN18RR是在WN18的基礎(chǔ)上去除了可逆關(guān)系的三元組,進(jìn)一步簡化了關(guān)系的復(fù)雜度,Trans模型在Mean Rank指標(biāo)上表現(xiàn)較好,而在另兩個(gè)指標(biāo)中TransE的分值較低,RotatE則在Hit@3及Hit@1中表現(xiàn)較好,神經(jīng)網(wǎng)絡(luò)模型中的TransGCN在Hits@10以及Hits@3評價(jià)指標(biāo)中均排到了第1名,而ConvKB在MRR評價(jià)指標(biāo)中分值較低,神經(jīng)網(wǎng)絡(luò)模型中的ConvKB在MRR中表現(xiàn)較差,而Trans結(jié)構(gòu)中的TransE在Hits@1中表現(xiàn)則最差,其他的神經(jīng)網(wǎng)絡(luò)模型和張量分解模型沒有太大的區(qū)別.同時(shí),可以看出,張量分解模型的改進(jìn)有一定的成效,DisMult、ComplEx和TuckER的評價(jià)分?jǐn)?shù)穩(wěn)步上升.

    如表5所示,F(xiàn)B15K中所含的實(shí)體個(gè)數(shù)為14951個(gè),數(shù)量上要少于WN18和WN18RR,但關(guān)系種類遠(yuǎn)大于WordNet的這兩個(gè)子集,共有1345種,而且訓(xùn)練所需的三元組也較多.可以看出,神經(jīng)網(wǎng)絡(luò)模型中實(shí)驗(yàn)數(shù)據(jù)整體較為穩(wěn)定,張量分解模型中的DisMult在MRR中,及Trans模型中的TransE在Hit@10中都表現(xiàn)較差;而張量分解模型中的TuckER則在Hit@10中表現(xiàn)良好.從整體上看,神經(jīng)網(wǎng)絡(luò)模型更適合于關(guān)系復(fù)雜的知識圖譜,主要因?yàn)樯窠?jīng)網(wǎng)絡(luò)模型對關(guān)系語義的捕捉更加精確.

    表6中的FB15K-237對FB15K的關(guān)系種類進(jìn)行了較大的縮減,訓(xùn)練規(guī)模也有所減小,大多數(shù)模型都有較好的訓(xùn)練效果,尤其近幾年出現(xiàn)的模型評分較高,這也在一定程度上反應(yīng)了知識圖譜補(bǔ)全技術(shù)的最新發(fā)展.其中TransE實(shí)驗(yàn)數(shù)據(jù)來源于ConvKB,DisMult、ComplEx實(shí)驗(yàn)數(shù)據(jù)來源于TuckER.

    4 已有知識圖譜補(bǔ)全技術(shù)存在的主要問題

    4.1 模型關(guān)系復(fù)雜性高

    知識圖譜是通過關(guān)系來連接數(shù)據(jù),而知識圖譜中的關(guān)系種類較為復(fù)雜,單一結(jié)構(gòu)的模型在處理多種關(guān)系時(shí),往往會(huì)出現(xiàn)很多問題,如TransE模型難以處理一對多的關(guān)系,DisMult雖然使用了對角矩陣,也難以處理非對稱關(guān)系.模型的結(jié)構(gòu)在一定程度上會(huì)對關(guān)系的處理產(chǎn)生影響,單一結(jié)構(gòu)的模型在數(shù)據(jù)處理上更有效率,而往往會(huì)受限于對關(guān)系種類的處理.如何改進(jìn)現(xiàn)有知識圖譜補(bǔ)全模型,使得模型可以學(xué)習(xí)更大規(guī)模的關(guān)系種類,成為知識圖譜補(bǔ)全技術(shù)的一個(gè)主要研究方向.

    4.2 語義信息難以獲取

    知識圖譜本質(zhì)上也是圖,作為一種非歐數(shù)據(jù)結(jié)構(gòu),采用傳統(tǒng)的歐式幾何處理方法會(huì)產(chǎn)生維度過高,計(jì)算復(fù)雜等問題.在知識圖譜補(bǔ)全技術(shù)中,一些模型采用分割處理的方式,只對圖譜中的一部分幾何結(jié)構(gòu)進(jìn)行處理,例如Trans模型多是是通過一組或多組類似的假三元組,來擬合真實(shí)三元組.但這種方式往往割裂了不同三元組之間的關(guān)系,難以擬合圖譜中語義信息的獲取.

    4.3 訓(xùn)練代價(jià)高

    大規(guī)模知識圖譜結(jié)構(gòu)復(fù)雜,數(shù)據(jù)龐大,從數(shù)據(jù)收集、數(shù)據(jù)清洗、對比分析到圖譜的構(gòu)建,整個(gè)流程自動(dòng)化程度不高,知識圖譜補(bǔ)全技術(shù)往往將知識圖譜拆分為多組三元組,因其結(jié)構(gòu)及數(shù)據(jù)本身的復(fù)雜性,導(dǎo)致補(bǔ)全模型的訓(xùn)練效率低.這在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型上表現(xiàn)較為明顯,神經(jīng)網(wǎng)絡(luò)對一個(gè)三元組往往會(huì)有多層的信息傳遞和計(jì)算,這雖然增強(qiáng)了對關(guān)鍵信息捕捉的能力,但一定程度上加重了模型訓(xùn)練負(fù)擔(dān),使得模型訓(xùn)練代價(jià)高.

    4.4 模型可擴(kuò)展性、通用性差

    大多數(shù)知識圖譜補(bǔ)全模型(例如Trans模型和張量分解模型)都是對同一時(shí)間點(diǎn)的圖譜內(nèi)容進(jìn)行補(bǔ)全,模型在訓(xùn)練時(shí)也只是針對訓(xùn)練集中已有的三元組,無法推測出數(shù)據(jù)中未知的三元組數(shù)據(jù),這種靜態(tài)的補(bǔ)全方式難以適應(yīng)外界環(huán)境的變化,模型的可擴(kuò)展性差.現(xiàn)實(shí)世界中,環(huán)境復(fù)雜多變,要求知識圖譜的補(bǔ)全技術(shù),能夠適應(yīng)外部環(huán)境的變化而動(dòng)態(tài)變化.同時(shí),當(dāng)前知識圖譜的構(gòu)建仍然高度依賴領(lǐng)域?qū)<抑R,模型通常具有較強(qiáng)的行業(yè)屬性,其通用性較差.

    4.5 路徑數(shù)量增長過快

    在知識圖譜中進(jìn)行路徑查找,可以進(jìn)行更加復(fù)雜的知識推理,但在大規(guī)模的圖譜中存在路徑數(shù)量增長過快及冗余信息過多等問題.傳統(tǒng)的路徑查找方法主要是PRA方法(Path Ranking Algorithm),但對于規(guī)模較大的知識圖譜,這種路徑查找方法會(huì)帶來路徑數(shù)量的過快增長與冗余信息過多,進(jìn)而會(huì)導(dǎo)致特征空間急劇膨脹.

    5 知識圖譜補(bǔ)全技術(shù)未來主要研究方向

    5.1 復(fù)雜關(guān)系處理研究

    TransE和RESCAL中對實(shí)體和關(guān)系的處理都是進(jìn)行單一的向量化,通過向量的簡單計(jì)算來表示三元組中各元素之間的關(guān)系,這種處理雖然極大的減輕了數(shù)據(jù)訓(xùn)練時(shí)的復(fù)雜度,但缺乏對復(fù)雜關(guān)系的有效處理,TransH、TransR、DisMult等模型都做出了一定的改進(jìn),而在一些較為特殊的關(guān)系中(例如對稱關(guān)系),RotatE、ComplEx等一些模型引入了復(fù)數(shù)域的概念,通過共軛向量的特殊性質(zhì)來表示更多實(shí)體間關(guān)系.

    5.2 上下文語義信息獲取研究

    傳統(tǒng)的張量分解模型主要以線性變換為主,這種方式往往會(huì)導(dǎo)致模型處理后的結(jié)果缺乏表現(xiàn)力,而且張量之間的相乘難以保證每個(gè)張量的元素之間都會(huì)產(chǎn)生交互,因而需要非線性的處理方式,神經(jīng)網(wǎng)絡(luò)模型就可以有效的彌補(bǔ)這一缺憾.ConvE最早提出了將卷積神經(jīng)網(wǎng)絡(luò)用于知識圖譜補(bǔ)全技術(shù)中,而ConvE使用的是較為傳統(tǒng)的卷積模型,對三元組的處理僅僅是向量化拼接成新的張量,這種做法對知識圖譜中的豐富語義信息捕捉不夠連貫,元素之間的信息聚合更多的是割裂的.ConvKB、ConvR以及InteractE進(jìn)一步改進(jìn)了三元組的處理方式和卷積神經(jīng)網(wǎng)絡(luò),彌補(bǔ)了之前的不足.

    同樣的,圖神經(jīng)網(wǎng)絡(luò)也開始應(yīng)用于這一領(lǐng)域中,較為經(jīng)典的模型R-GCN,通過對關(guān)系分類來聚合實(shí)體節(jié)點(diǎn).由于知識圖譜中的關(guān)系種類繁多,這導(dǎo)致R-GCN需要大量的參數(shù)(R-GCN中每個(gè)關(guān)系都有對應(yīng)的權(quán)重矩陣)來參與數(shù)據(jù)訓(xùn)練,增加了模型的訓(xùn)練的時(shí)間復(fù)雜度.TransGCN雖然減少了R-GCN的參數(shù)使用,但本身對圖神經(jīng)網(wǎng)絡(luò)的更新方式?jīng)]有做出更多的改變,而是與其他模型更好的結(jié)合起來,將圖神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)知識圖譜補(bǔ)全中的編碼功能.

    5.3 節(jié)點(diǎn)間長期的依賴關(guān)系捕獲方式研究

    上述的模型中多數(shù)都是將目光集中在單個(gè)三元組上,而多個(gè)關(guān)系密切的三元組所形成的鏈路路徑也應(yīng)當(dāng)被視為一個(gè)研究的重點(diǎn).PTransE和RSN將多步路徑引入到了知識圖譜補(bǔ)全技術(shù)中,知識圖譜的構(gòu)成本身就具備較強(qiáng)的邏輯性,實(shí)體間的邏輯關(guān)系也可以被看作是一種序列關(guān)系,PTransE和RSN這兩個(gè)模型都提到了循環(huán)神經(jīng)網(wǎng)絡(luò)的使用,不同的是RSN對循環(huán)神經(jīng)網(wǎng)絡(luò)做出了改進(jìn),而PTransE更多的是結(jié)合多個(gè)模型.在路徑的信息聚合中難免會(huì)遇到一個(gè)問題——如何選取有效的路徑作為信息聚合對象?兩種模型也給出了不同的方式,PTransE通過路徑資源算法來評估路徑的“價(jià)值”,以此來作為是否作為有效信息的衡量標(biāo)準(zhǔn),而RSN則是通過隨機(jī)游走和噪聲估計(jì)的方式聚合路徑信息.

    5.4 多模型融合研究

    經(jīng)典的知識圖譜補(bǔ)全模型往往都存在著一定的局限性,如R-GCN是通過聚合周圍節(jié)點(diǎn)信息得到節(jié)點(diǎn)嵌入,適用于編碼器,而RESCAL、DisMult等模型則是通過映射的方式將三元組轉(zhuǎn)換為低維向量組合,可以作為解碼器使用,類似的TransGCN將GCN和Trans模型在信息傳遞的過程中結(jié)合,通過Trans模型解開GCN編碼.將多種較為基礎(chǔ)的模型進(jìn)行有效的融合可以彌補(bǔ)原有模型的不足,進(jìn)一步拓展模型的功能.

    5.5 模型的可擴(kuò)展性、通用性研究

    現(xiàn)實(shí)世界往往是動(dòng)態(tài)變化的,要求所構(gòu)建的知識圖譜能夠適應(yīng)這種動(dòng)態(tài)變化的特征.傳統(tǒng)用于靜態(tài)知識圖譜補(bǔ)全的方法,在捕獲動(dòng)態(tài)信息方面有著較大的局限性,不能直接運(yùn)用于這種動(dòng)態(tài)的、甚至是多模態(tài)的知識圖譜補(bǔ)全方面.近年來,出現(xiàn)了一些新的知識圖譜補(bǔ)全技術(shù)[58,59],采用類似遷移學(xué)習(xí)的思想,借助神經(jīng)網(wǎng)絡(luò)模型,以獲取不同動(dòng)態(tài)場景中特征信息,對數(shù)據(jù)集中未知的關(guān)系和實(shí)體進(jìn)行補(bǔ)全預(yù)測,以提高模型的可擴(kuò)展性,然而,實(shí)際效果都不是非常理想,模型的通用性也較差.如何將知識圖譜補(bǔ)全技術(shù)運(yùn)用于動(dòng)態(tài)、多模態(tài)環(huán)境,以提高知識圖譜補(bǔ)全模型的可擴(kuò)展性,及如何將知識圖譜技術(shù)運(yùn)用于現(xiàn)實(shí)世界中的不同領(lǐng)域,以提高知識圖譜補(bǔ)全模型的通用性,都是未來值得研究的重要方向.

    6 結(jié)束語

    本文對已有知識圖譜補(bǔ)全技術(shù)相關(guān)的主要研究進(jìn)行了分析與討論,指出了已有知識圖譜補(bǔ)全技術(shù)不同模型各自的優(yōu)點(diǎn)與不足.從知識圖譜補(bǔ)全模型復(fù)雜關(guān)系處理、上下文語義信息獲取、節(jié)點(diǎn)間長期依賴關(guān)系的捕獲、模型的可擴(kuò)展性與通用性等方面,展望了未來知識圖譜補(bǔ)全技術(shù)主要研究方向,以期對知識圖譜補(bǔ)全技術(shù)研究提供一點(diǎn)借鑒與幫助.

    猜你喜歡
    三元組張量圖譜
    基于語義增強(qiáng)雙編碼器的方面情感三元組提取
    軟件工程(2024年12期)2024-12-28 00:00:00
    基于帶噪聲數(shù)據(jù)集的強(qiáng)魯棒性隱含三元組質(zhì)檢算法*
    偶數(shù)階張量core逆的性質(zhì)和應(yīng)用
    繪一張成長圖譜
    四元數(shù)張量方程A*NX=B 的通解
    關(guān)于余撓三元組的periodic-模
    補(bǔ)腎強(qiáng)身片UPLC指紋圖譜
    中成藥(2017年3期)2017-05-17 06:09:01
    擴(kuò)散張量成像MRI 在CO中毒后遲發(fā)腦病中的應(yīng)用
    主動(dòng)對接你思維的知識圖譜
    三元組輻射場的建模與仿真
    熟女少妇亚洲综合色aaa.| 国产精品亚洲美女久久久| 欧美日韩乱码在线| 午夜福利在线在线| 夜夜躁狠狠躁天天躁| 99riav亚洲国产免费| 最新中文字幕久久久久| 国产成+人综合+亚洲专区| 日本在线视频免费播放| 成年人黄色毛片网站| 噜噜噜噜噜久久久久久91| 两个人的视频大全免费| 午夜激情福利司机影院| 偷拍熟女少妇极品色| 91麻豆精品激情在线观看国产| 国产高潮美女av| 久久精品亚洲精品国产色婷小说| 国产视频内射| 搡老妇女老女人老熟妇| 国产91精品成人一区二区三区| 少妇高潮的动态图| 两个人看的免费小视频| 18禁黄网站禁片午夜丰满| 两个人视频免费观看高清| 日韩欧美一区二区三区在线观看| 1000部很黄的大片| 窝窝影院91人妻| 国产麻豆成人av免费视频| 免费观看人在逋| 国产精品,欧美在线| 99久久九九国产精品国产免费| 少妇的丰满在线观看| 欧美成狂野欧美在线观看| 久久亚洲精品不卡| 动漫黄色视频在线观看| 中文在线观看免费www的网站| 久久久色成人| 国产精品爽爽va在线观看网站| 日韩欧美在线二视频| 国产男靠女视频免费网站| 欧美成人免费av一区二区三区| 久久九九热精品免费| 露出奶头的视频| 一a级毛片在线观看| 两个人的视频大全免费| 日本熟妇午夜| 日韩欧美在线二视频| 国内精品久久久久久久电影| 啪啪无遮挡十八禁网站| 哪里可以看免费的av片| 少妇丰满av| 老汉色∧v一级毛片| 欧美+日韩+精品| 久久国产精品人妻蜜桃| 99热6这里只有精品| 18禁裸乳无遮挡免费网站照片| 综合色av麻豆| 成人国产一区最新在线观看| 日日摸夜夜添夜夜添小说| 国产v大片淫在线免费观看| 桃红色精品国产亚洲av| 少妇裸体淫交视频免费看高清| 亚洲av美国av| 精品人妻偷拍中文字幕| 99久久九九国产精品国产免费| 久久精品国产综合久久久| 亚洲国产中文字幕在线视频| 成人av在线播放网站| 欧美xxxx黑人xx丫x性爽| 1000部很黄的大片| 亚洲va日本ⅴa欧美va伊人久久| 天堂影院成人在线观看| 日韩av在线大香蕉| 欧美午夜高清在线| 欧美日本亚洲视频在线播放| 欧美日韩综合久久久久久 | 99国产极品粉嫩在线观看| 又黄又爽又免费观看的视频| 日本一本二区三区精品| 色视频www国产| 欧美性猛交╳xxx乱大交人| 熟女电影av网| 高清在线国产一区| aaaaa片日本免费| 美女cb高潮喷水在线观看| 国产伦人伦偷精品视频| 欧美av亚洲av综合av国产av| 麻豆久久精品国产亚洲av| 激情在线观看视频在线高清| av专区在线播放| 一本精品99久久精品77| 亚洲欧美激情综合另类| 久久亚洲精品不卡| 狂野欧美白嫩少妇大欣赏| 亚洲欧美一区二区三区黑人| 亚洲国产欧洲综合997久久,| 男人舔女人下体高潮全视频| 成人av一区二区三区在线看| 久久香蕉精品热| 一区二区三区国产精品乱码| 99热这里只有精品一区| 黄片大片在线免费观看| 久久精品国产自在天天线| 人妻夜夜爽99麻豆av| 欧美最新免费一区二区三区 | 成人欧美大片| 一卡2卡三卡四卡精品乱码亚洲| 在线观看免费午夜福利视频| 久久99热这里只有精品18| 国产伦在线观看视频一区| 国产av一区在线观看免费| 免费电影在线观看免费观看| 亚洲国产精品999在线| 午夜日韩欧美国产| 日本黄大片高清| 欧美绝顶高潮抽搐喷水| 日韩欧美在线乱码| 啦啦啦观看免费观看视频高清| 精品无人区乱码1区二区| 免费观看人在逋| 深夜精品福利| 久久久成人免费电影| 日本与韩国留学比较| 色哟哟哟哟哟哟| 婷婷精品国产亚洲av| 精品熟女少妇八av免费久了| 亚洲精品日韩av片在线观看 | xxxwww97欧美| tocl精华| 一边摸一边抽搐一进一小说| 精品免费久久久久久久清纯| 欧美最新免费一区二区三区 | 色播亚洲综合网| 欧美黄色片欧美黄色片| 国产高清激情床上av| 精品电影一区二区在线| 欧美日韩精品网址| 窝窝影院91人妻| 午夜亚洲福利在线播放| 国产精品一区二区三区四区久久| 日本黄色视频三级网站网址| 黄色丝袜av网址大全| 夜夜夜夜夜久久久久| 麻豆国产av国片精品| 男人的好看免费观看在线视频| 琪琪午夜伦伦电影理论片6080| 深夜精品福利| 亚洲自拍偷在线| 亚洲精品在线观看二区| 一本综合久久免费| svipshipincom国产片| 国产麻豆成人av免费视频| 国产真人三级小视频在线观看| av中文乱码字幕在线| 黄色日韩在线| 91九色精品人成在线观看| 亚洲成av人片在线播放无| 蜜桃久久精品国产亚洲av| 成人欧美大片| 日韩欧美国产在线观看| 亚洲一区高清亚洲精品| 男女之事视频高清在线观看| 中文字幕人成人乱码亚洲影| 熟妇人妻久久中文字幕3abv| 99久久九九国产精品国产免费| 国产欧美日韩精品一区二区| 高潮久久久久久久久久久不卡| 国产成人a区在线观看| 看免费av毛片| 精品福利观看| 欧美一区二区精品小视频在线| 成人三级黄色视频| 99国产精品一区二区蜜桃av| 九九久久精品国产亚洲av麻豆| 99久久精品热视频| 色综合亚洲欧美另类图片| 在线免费观看的www视频| 国产成人系列免费观看| 精品不卡国产一区二区三区| 怎么达到女性高潮| 美女 人体艺术 gogo| 一区二区三区免费毛片| www日本黄色视频网| 亚洲精品一区av在线观看| 午夜福利高清视频| 91久久精品电影网| 欧美日韩综合久久久久久 | tocl精华| 国产高清有码在线观看视频| 国产精品爽爽va在线观看网站| 久久精品综合一区二区三区| 身体一侧抽搐| 免费人成在线观看视频色| 老司机福利观看| 久久精品国产清高在天天线| 男人舔奶头视频| 又紧又爽又黄一区二区| 久久精品亚洲精品国产色婷小说| 国产亚洲欧美98| 午夜福利视频1000在线观看| 男人和女人高潮做爰伦理| 母亲3免费完整高清在线观看| 国产精品 国内视频| 噜噜噜噜噜久久久久久91| 一个人免费在线观看电影| 在线免费观看的www视频| 99热只有精品国产| 免费高清视频大片| 最好的美女福利视频网| 手机成人av网站| 国产又黄又爽又无遮挡在线| 亚洲人成电影免费在线| 亚洲熟妇中文字幕五十中出| 亚洲精品在线美女| 午夜日韩欧美国产| 啦啦啦韩国在线观看视频| www.www免费av| 欧美色视频一区免费| 一边摸一边抽搐一进一小说| 丝袜美腿在线中文| 色播亚洲综合网| 欧美xxxx黑人xx丫x性爽| 精品电影一区二区在线| 变态另类成人亚洲欧美熟女| 国产高潮美女av| 国产欧美日韩精品一区二区| 精品国内亚洲2022精品成人| 成人亚洲精品av一区二区| 一边摸一边抽搐一进一小说| 最近在线观看免费完整版| 欧美成狂野欧美在线观看| 国产精品久久视频播放| 三级毛片av免费| 免费高清视频大片| 12—13女人毛片做爰片一| АⅤ资源中文在线天堂| 欧美日韩中文字幕国产精品一区二区三区| av专区在线播放| 国产主播在线观看一区二区| 少妇高潮的动态图| 国产在线精品亚洲第一网站| 男人的好看免费观看在线视频| 亚洲成av人片免费观看| 一边摸一边抽搐一进一小说| 亚洲欧美日韩高清专用| 18禁黄网站禁片午夜丰满| 日本免费a在线| 十八禁人妻一区二区| 国产亚洲av嫩草精品影院| 亚洲五月天丁香| 国产精品久久久久久精品电影| 老汉色av国产亚洲站长工具| 欧美乱码精品一区二区三区| 亚洲专区国产一区二区| 久9热在线精品视频| 久久精品夜夜夜夜夜久久蜜豆| 国产91精品成人一区二区三区| 国产国拍精品亚洲av在线观看 | 欧美乱色亚洲激情| 国产毛片a区久久久久| 精品福利观看| 成人精品一区二区免费| 又黄又爽又免费观看的视频| 亚洲国产日韩欧美精品在线观看 | 可以在线观看毛片的网站| 日日夜夜操网爽| 国产精品99久久久久久久久| 欧美激情久久久久久爽电影| 欧美乱码精品一区二区三区| 欧美激情久久久久久爽电影| 在线a可以看的网站| 亚洲中文字幕一区二区三区有码在线看| 在线天堂最新版资源| 老汉色∧v一级毛片| 午夜日韩欧美国产| 一级毛片女人18水好多| 成人永久免费在线观看视频| 国产精品1区2区在线观看.| 亚洲 欧美 日韩 在线 免费| 国产视频一区二区在线看| xxx96com| 成人欧美大片| 熟女人妻精品中文字幕| 国产成人影院久久av| 日韩av在线大香蕉| 久久久久九九精品影院| 亚洲精华国产精华精| 久99久视频精品免费| 精品熟女少妇八av免费久了| 成年女人毛片免费观看观看9| 国产亚洲欧美98| 国产av一区在线观看免费| 午夜激情福利司机影院| 亚洲国产精品久久男人天堂| 窝窝影院91人妻| 757午夜福利合集在线观看| 日韩欧美在线二视频| 天堂影院成人在线观看| 国模一区二区三区四区视频| 色综合亚洲欧美另类图片| 久久国产乱子伦精品免费另类| 国产午夜福利久久久久久| 欧美绝顶高潮抽搐喷水| 首页视频小说图片口味搜索| 亚洲精华国产精华精| 桃红色精品国产亚洲av| 桃红色精品国产亚洲av| 欧美成人性av电影在线观看| 亚洲精品亚洲一区二区| 又黄又粗又硬又大视频| 亚洲欧美日韩东京热| 美女被艹到高潮喷水动态| 免费av观看视频| 在线国产一区二区在线| 亚洲av电影不卡..在线观看| 国产综合懂色| 国产精品永久免费网站| 禁无遮挡网站| 久久精品91无色码中文字幕| 美女cb高潮喷水在线观看| 国产精品嫩草影院av在线观看 | 亚洲乱码一区二区免费版| 变态另类成人亚洲欧美熟女| 精品福利观看| 中文亚洲av片在线观看爽| 在线观看免费视频日本深夜| 国内少妇人妻偷人精品xxx网站| 亚洲在线自拍视频| 午夜精品一区二区三区免费看| 免费人成在线观看视频色| 亚洲美女黄片视频| 波多野结衣高清无吗| 亚洲美女黄片视频| 国产高清激情床上av| 国产蜜桃级精品一区二区三区| 身体一侧抽搐| 悠悠久久av| 久久欧美精品欧美久久欧美| 在线观看66精品国产| 色哟哟哟哟哟哟| 成人av一区二区三区在线看| 老汉色∧v一级毛片| 亚洲va日本ⅴa欧美va伊人久久| 国产精品98久久久久久宅男小说| 小说图片视频综合网站| 波多野结衣高清无吗| 免费人成在线观看视频色| 一级黄片播放器| 免费看十八禁软件| 男人的好看免费观看在线视频| 97超级碰碰碰精品色视频在线观看| 色av中文字幕| 青草久久国产| 欧美3d第一页| 欧美日韩福利视频一区二区| xxxwww97欧美| 男插女下体视频免费在线播放| 欧美黄色淫秽网站| 亚洲第一电影网av| 国产伦精品一区二区三区四那| 99在线视频只有这里精品首页| 特大巨黑吊av在线直播| 久久久国产成人免费| 别揉我奶头~嗯~啊~动态视频| 亚洲一区高清亚洲精品| 亚洲天堂国产精品一区在线| 久久久精品欧美日韩精品| 2021天堂中文幕一二区在线观| 国产精品一及| 亚洲 国产 在线| 日韩 欧美 亚洲 中文字幕| 18禁黄网站禁片免费观看直播| 热99在线观看视频| 一级a爱片免费观看的视频| 手机成人av网站| 精品一区二区三区av网在线观看| 日韩欧美在线二视频| 国产色婷婷99| 亚洲av电影不卡..在线观看| 免费观看人在逋| 深夜精品福利| 成人无遮挡网站| 无人区码免费观看不卡| 精品一区二区三区av网在线观看| 黄色成人免费大全| 精华霜和精华液先用哪个| 天天添夜夜摸| 日本三级黄在线观看| 成人国产一区最新在线观看| 一区二区三区免费毛片| netflix在线观看网站| avwww免费| 18禁黄网站禁片午夜丰满| 欧美日韩精品网址| 国产三级黄色录像| 一个人观看的视频www高清免费观看| 国产精品亚洲av一区麻豆| 99久久精品一区二区三区| 九九在线视频观看精品| 欧美bdsm另类| 最近视频中文字幕2019在线8| 给我免费播放毛片高清在线观看| 69av精品久久久久久| 别揉我奶头~嗯~啊~动态视频| 99热6这里只有精品| 窝窝影院91人妻| 色综合婷婷激情| 日韩精品中文字幕看吧| 免费看a级黄色片| 国产精品一及| 俺也久久电影网| 国产亚洲精品av在线| 久久久久久久久大av| 一区二区三区免费毛片| 日韩欧美在线乱码| 日本 av在线| 国产成人系列免费观看| 亚洲国产欧洲综合997久久,| 日韩欧美精品v在线| 深爱激情五月婷婷| 成年人黄色毛片网站| av视频在线观看入口| 在线看三级毛片| 精品久久久久久久人妻蜜臀av| 三级国产精品欧美在线观看| 黄色女人牲交| 国产精品久久久久久人妻精品电影| 99久久精品国产亚洲精品| 国产欧美日韩精品一区二区| 动漫黄色视频在线观看| 日本 av在线| 天美传媒精品一区二区| 少妇的丰满在线观看| 国产欧美日韩精品一区二区| 不卡一级毛片| 久久精品国产清高在天天线| 母亲3免费完整高清在线观看| 狂野欧美激情性xxxx| 看免费av毛片| 成年女人看的毛片在线观看| 国产精品一及| 最后的刺客免费高清国语| 久久草成人影院| 免费在线观看日本一区| 91字幕亚洲| 亚洲,欧美精品.| 91久久精品国产一区二区成人 | 国内揄拍国产精品人妻在线| 偷拍熟女少妇极品色| 亚洲精品456在线播放app | 国产精品影院久久| 亚洲18禁久久av| 最近在线观看免费完整版| 欧美成人免费av一区二区三区| 看片在线看免费视频| 国产探花极品一区二区| 欧美+亚洲+日韩+国产| 午夜福利18| av视频在线观看入口| 看黄色毛片网站| 久久久久久久久大av| 久久九九热精品免费| 老司机午夜福利在线观看视频| 又黄又粗又硬又大视频| 日本五十路高清| 少妇的逼好多水| 久久午夜亚洲精品久久| 亚洲成人中文字幕在线播放| 天堂动漫精品| 91久久精品国产一区二区成人 | 日韩欧美在线乱码| 大型黄色视频在线免费观看| 久久久久久国产a免费观看| 成人特级av手机在线观看| 又爽又黄无遮挡网站| 国内精品一区二区在线观看| 日本 av在线| 亚洲精品日韩av片在线观看 | 亚洲七黄色美女视频| 少妇的逼水好多| 国产高清视频在线观看网站| 欧美另类亚洲清纯唯美| 久久国产乱子伦精品免费另类| 国产麻豆成人av免费视频| 人妻夜夜爽99麻豆av| 十八禁人妻一区二区| 少妇高潮的动态图| 观看美女的网站| 9191精品国产免费久久| 日韩中文字幕欧美一区二区| 最近最新中文字幕大全免费视频| 麻豆一二三区av精品| 99国产极品粉嫩在线观看| tocl精华| 国产伦在线观看视频一区| 国产三级黄色录像| 狂野欧美激情性xxxx| 日本免费一区二区三区高清不卡| 亚洲无线在线观看| 夜夜躁狠狠躁天天躁| 久久久久久人人人人人| 男插女下体视频免费在线播放| 免费av观看视频| 中文字幕人妻丝袜一区二区| 国产麻豆成人av免费视频| 我的老师免费观看完整版| 成年女人永久免费观看视频| xxx96com| 亚洲 国产 在线| 性色avwww在线观看| 亚洲人成网站高清观看| 成人国产一区最新在线观看| 精品久久久久久久毛片微露脸| 国产激情偷乱视频一区二区| 久久久久亚洲av毛片大全| 97超视频在线观看视频| 色视频www国产| 亚洲精品在线观看二区| 两个人视频免费观看高清| 久久久久国产精品人妻aⅴ院| АⅤ资源中文在线天堂| 国产麻豆成人av免费视频| 国产综合懂色| 色噜噜av男人的天堂激情| 亚洲精华国产精华精| 亚洲av中文字字幕乱码综合| 黄色成人免费大全| 欧美xxxx黑人xx丫x性爽| 男女视频在线观看网站免费| 天堂影院成人在线观看| 天堂网av新在线| 美女黄网站色视频| 女警被强在线播放| 又粗又爽又猛毛片免费看| 最新在线观看一区二区三区| 中文亚洲av片在线观看爽| 国产精品久久视频播放| 欧美日本视频| 免费看美女性在线毛片视频| 91麻豆av在线| 亚洲成人中文字幕在线播放| 成熟少妇高潮喷水视频| 久久这里只有精品中国| 亚洲国产精品久久男人天堂| 日韩欧美国产一区二区入口| 很黄的视频免费| 免费在线观看影片大全网站| 最近在线观看免费完整版| 黄色成人免费大全| 制服丝袜大香蕉在线| 99国产精品一区二区三区| 免费av毛片视频| 亚洲成a人片在线一区二区| 一区二区三区激情视频| 一个人免费在线观看的高清视频| 中文字幕人妻熟人妻熟丝袜美 | 香蕉久久夜色| 日本a在线网址| av在线蜜桃| 91麻豆av在线| 国产一区二区亚洲精品在线观看| h日本视频在线播放| 在线免费观看不下载黄p国产 | 亚洲无线在线观看| 午夜免费成人在线视频| 午夜激情福利司机影院| 全区人妻精品视频| 久久久国产成人免费| 大型黄色视频在线免费观看| 久9热在线精品视频| 成人三级黄色视频| 中文字幕久久专区| 成年女人永久免费观看视频| 一级黄色大片毛片| av片东京热男人的天堂| 丁香欧美五月| 成人一区二区视频在线观看| 色精品久久人妻99蜜桃| 久久精品91蜜桃| 最新在线观看一区二区三区| 宅男免费午夜| 欧美最黄视频在线播放免费| 国产精品爽爽va在线观看网站| 日本成人三级电影网站| 亚洲av免费高清在线观看| 91av网一区二区| 精品人妻一区二区三区麻豆 | 91av网一区二区| 色av中文字幕| 中文字幕熟女人妻在线| 亚洲成人免费电影在线观看| 国产成人影院久久av| av国产免费在线观看| 成人精品一区二区免费| 国产国拍精品亚洲av在线观看 | АⅤ资源中文在线天堂| a级一级毛片免费在线观看| 国模一区二区三区四区视频| 在线视频色国产色| 蜜桃亚洲精品一区二区三区| 欧美日韩中文字幕国产精品一区二区三区| 久久香蕉精品热| 一本一本综合久久| 亚洲美女视频黄频| 99久久99久久久精品蜜桃| 搡老妇女老女人老熟妇| 久久精品人妻少妇| 国产精品一区二区免费欧美| 亚洲熟妇熟女久久| 国产亚洲精品一区二区www| 国产三级在线视频| 婷婷精品国产亚洲av在线| 夜夜爽天天搞| 99国产精品一区二区三区| 91久久精品国产一区二区成人 |