安敬民 李冠宇
(大連海事大學(xué)信息科學(xué)技術(shù)學(xué)院 遼寧 大連 116026)
目前隨著傳感器和計算機技術(shù)的高速發(fā)展和普及,普適計算時代正在到來。普適計算要求傳感器等設(shè)備能夠感知到用戶的上下文信息及其變化[1]。在普適計算的環(huán)境中,傳感器采集的上下文具有異構(gòu)、多變和數(shù)量大等特點。在對具有這些特點的上下文進行推理時,推理過程中獲取信息的不完整性和上下文模型的弱可擴展性是主要的兩個問題。推理結(jié)果的準(zhǔn)確性很大程度上取決于所構(gòu)建的上下文本體模型的方法。但就目前而言,在現(xiàn)有的上下文建模技術(shù)當(dāng)中主要有基于邏輯[2]的、基于證據(jù)論[3]的以及基于本體語言[4]的上下文建模和基于元情景構(gòu)建本體[5]等,這些方法主要目的都是強調(diào)如何提高推理出的知識和信息最后結(jié)果的準(zhǔn)確性,但是忽略了在獲取上下文信息的過程中,對上下文信息是否完整的重視,推理的對象信息不夠完整,推理的結(jié)果自然會存在不準(zhǔn)確性;同時也忽略了對模型推理出新知識后的處理。如何能讓模型本體處于不斷的學(xué)習(xí)狀態(tài),那就必須保證本體有很好吸納新知識和信息的能力,即具有好的可擴展性。信息不完整性和模型弱擴展性的致因主要有兩個方面:(1) 在收集的上下文信息過程中,遺漏了部分上下文隱含的有用信息,對上下文信息的不確定性處理程度不夠;(2) 因為上下文本身由于類型不同,存在異構(gòu)性,所以無論是從上下文本體模型內(nèi)部的上下文之間還是內(nèi)部上下文與外界上下文之間考慮,都具有差協(xié)同性的特點,使得模型本身不具備好的可擴展性。
本文針對上述兩個問題,提出以下觀點:(1) 引入粗糙形式概念分析,對上下文進行粗糙處理,即將獲取到的上下文作為形式背景,對形式背景做冪集運算,得到多個隱含的形式背景(上下文),再排除無價值的形式背景,最終得到含有有用信息被隱含的上下文;(2) 引入概念代數(shù),對上下文深度形式化表示,利用概念代數(shù)的運算規(guī)則(組成運算和關(guān)系運算)將深度形式化的上下文構(gòu)建成概念網(wǎng),再將其轉(zhuǎn)化為本體模型。概念網(wǎng)具有良好的可擴展性,可實現(xiàn)本體內(nèi)部的擴展,同時可實現(xiàn)與外界不同本體之間兼容性,可進行通信和互操作。
設(shè)形式背景為一個三元組,為B=(O,A,R),其中O為形式對象,A為屬性集合,R為O與A之間的二元關(guān)系R?O×A[6]。
定義1若二元組C=(M,N)滿足:M?O,N?A,令M={a∈A|?o∈M,oRa},N={o∈O|?a∈N,oRa},其中,M是O中所有的對象集,N是A中所有的屬性集,則C被稱為B中的一個精確形式概念[6]。其中M,N分別被稱為C的外延和內(nèi)涵。
在精確形式概念中,引入上近似外延和下近似外延,進而擴展引出了粗糙形式概念。
定義2若設(shè)形式背景B=(O,A,R),若三元組D=(M上,M下,N)滿足:M上={o∈O|?a∈N,oRa},M下={o∈O|?a∈N,oRa},N={a∈A|?o?M上,?o∈M下,oRa},則D被稱為形式背景B的一個粗糙形式概念[7-8]。其中M上、M下、N分別被稱為粗糙形式概念的上近似外延、下近似外延和內(nèi)涵。
定義3上下文是含有語義的情景(語境),可形式化表示為Θ=(O1,A1,R1),其中O1為全部對象集,A1為全部屬性或狀態(tài)集,R1為對象和屬性之間的關(guān)系集[9]。形式背景的形式化定義如1.1節(jié)所述,二者在形式化定義上的結(jié)構(gòu)是同構(gòu)的且元素是相似的,本文提出Θ→B。
定義4根據(jù)Wille的形式概念分析[6],形式背景可以用形式概念分析處理為一個形式概念為二元組(O,A),對其進行擴展,在概念代數(shù)中一個語義環(huán)境的形式概念C表示為一個五元組C=(M,N,Rc,Ri,Ro)[9-11],其中M?O是對象集,N?A是屬性集合;Rc?M×N,表示對象與屬性之間的關(guān)系,Ri?N×N1(N1是其他概念C1的內(nèi)涵),表示概念C與C1的輸入關(guān)系(這里的關(guān)系是從人類認(rèn)知角度出發(fā)的,是指腦內(nèi)部與外部的關(guān)系,本文將概念視作腦內(nèi)知識,其他均為腦外概念),其中N1?O且N1?N,也即從其他概念到概念C的關(guān)系;Rc恰與Ri相反,是輸出關(guān)系[9-12]。
定義5一個語義環(huán)境B下的概念代數(shù)CA定義為一個三元組,CA=(C,OP,B)=({O,A,Rc,Ri,Ro},{OPr,OPc},B)[9-11],其中OPr、OPc分別表示關(guān)系運算集和組合運算集,具體含義如下所述:
關(guān)系運算集OPr={?,?/,,?,=,?,~}[9-11]。集合中的元素分別表示概念之間的相關(guān)和不相關(guān),若C1?C2則A1∩A2≠φ,反之A1∩A2=φ,則C1?/C2;子概念與超概念,C1C2,即A2?A1,則C1為C2的子概念,C2為C1的超概念以及等價,(C1=C2)(A2=A1)∧(O1=O2),則C1與C2等價;一致,(C1?C2)(C1C2)∨(C1?C2)和類比,(C1~C2)( #(A1∩A2)/#(A1∪A2),即內(nèi)涵交集與并集的比值,比值在0到1之間,如果值為1,則是等價關(guān)系。還包括因果關(guān)系(—°)和行為關(guān)系(do:?),C1—°C2表示C1是C2的因,C1do?C2表示C2是C1的一種行為的被作用對象(?表示to do)[12]。
利用概念的關(guān)系運算,可判斷概念之間的關(guān)系,進而對概念進行關(guān)聯(lián)組合。
上述概念代數(shù)相關(guān)的運算規(guī)則,在本體實際應(yīng)用中,文獻[12]上已經(jīng)得到了較好的驗證,所以合理使用這些規(guī)則構(gòu)建上下文本體是可行的。而且,上述各規(guī)則與已經(jīng)在本體中經(jīng)常使用的形式概念中的關(guān)系有著天然的對應(yīng)關(guān)系。如繼承關(guān)系對應(yīng)kind-of關(guān)系;組合與分解對應(yīng)part-of關(guān)系;泛化和特化對應(yīng)kind-of關(guān)系;實例化對應(yīng)instance-of關(guān)系[12]。
定義6概念網(wǎng)CN是使用概念代數(shù)規(guī)則構(gòu)成的,CN形式化表示為:CN={a|P→Q,R}。其中,P,Q分別表示n個概念的集合,R是上述綜述的概念代數(shù)運算規(guī)則;也即表示規(guī)則R下P集合對Q集合的映射所構(gòu)成的集合CN。
上下文表示事物的狀態(tài)或?qū)傩?,可以是過去的狀態(tài),也可以是現(xiàn)在的狀態(tài)[13]。而形式背景定義為一個三元組,形如B=(O,A,R),其中O為對象,A屬性或狀態(tài),R為對象和屬性之間的某種關(guān)系,所以根據(jù)對應(yīng)關(guān)系,可以把上下文視為一個形式背景,可以用形式概念分析(FCA)處理,在本文定義3中已經(jīng)提出。
Studer[14]提出的本體概念中,包含四部分:概念模型,是指領(lǐng)域的主要概念;明確的,是指概念有明確定義;形式化,是指本體中的數(shù)據(jù)、信息以及概念計算機可讀; 共享,是指領(lǐng)域內(nèi)共識。
定義7令f(S)={x|x?S},S是任意一個集合,則稱f(S)為S的冪集[15]。若集合S中有n個元素,則它的冪集個數(shù)為2n個,如S={a,b},那么它的冪集f(S)={{a},,{a,b},{}}。
一個集合的冪集就是包括了所有它的子集,所以屬性集的冪集包括了它的所有屬性可能的組合,不僅保留了原屬性集還補充了一些隱含的屬性集合,這樣保證了形式背景概念抽取的完整性[7],進而可以較好地處理概念的不確定性。
粗糙形式概念可以由三元組D表示,如D=(M上,M下,N),其中M上上近似外延和M下下近似外延組成其外延部分;上近似外延和下近似外延需要通過從形式背景中抽取其屬性(內(nèi)涵)來計算得出,本文利用王丹等[7]提出的方法,構(gòu)造了粗糙形式概念抽取方法框架圖,如圖1所示。
圖1 粗糙形式概念抽取方法框架圖
如將一個上下文作為一個形式背景,抽取出對象集O={1,2},屬性集A={a,b},將形式背景用二維表表示,如表1所示。
表1 形式背景
由屬性集可求得冪集P(A)={{a},,{a,b},{}},再求的上近似外延和下近似外延,如表2所示。
表2 內(nèi)涵與上近似外延和下近似外延計算表
然后合成粗糙形式概念,除去空集(無意義),得到三種定義良好的粗糙形式概念,具體如表3所示。
表3 形式背景對應(yīng)的粗糙形式概念
表3中具有良好定義的粗糙形式概念RFC1、RFC2及RFC3都可以將其作為一條上下文。其中,RFC3是初始得到的上下文,RFC1及RFC2是隱含的上下文。
基于RFCA的上下文抽取的關(guān)鍵步驟如下:
(1) 發(fā)現(xiàn)新的上下文,從上下文庫提出將新的上下文寫入庫申請;將該上下文從申請隊列中取出做準(zhǔn)備。
(2) 上下文庫中的啟發(fā)性知識對該上下文進行判斷,若不滿足一致性,則直接刪除該上下文;否則,將該上下文交到形式背景處理模塊,執(zhí)行(3)。
(3) 將滿足一致性的上下文作為形式背景,使用2.2節(jié)所述的方法,將形式背景中的對象和屬性抽取出來,對屬性進行冪集計算,計算出上近似外延和下近似外延,最后合成粗糙形式概念。
(4) 將合成的粗糙形式概念逐一轉(zhuǎn)換成上下文的格。
至此,一次上下文更新或者對一個新的上下文處理就完成了。
算法1基于RFCA上下文抽取算法
輸入:一個語義情景(上下文)
輸出:一個或多個粗糙形式概念
1.Begin:
2.(O,A)=f_constructFormalContext(O,A,R);
3.objectSet=f_construct(O);
4.attributeSet=f_construct(A);
5.A_powerSet=f_constructPowerSet(attribute);
6.for(i=1;i 7. { M= objectSet[i]; N= A_powerSet[i]; 8. if(DKE(M,N)==1) 9. { down_extention=M; 10. connotation =N; } 11. else if(DKE(M,N)==0) 12. { up_extention=M; connotation =N; } 13. else loop; } 14 .End 算法1中,輸入一個上下文,使用函數(shù)f_constructFormalContext()將該上下文的三元組中的對象和屬性抽取出來,然后利用構(gòu)造函數(shù)f_constructPowerSet()對屬性集進行冪集計算;將對象集以及屬性集的冪集做笛卡爾積運算(DKE()),判斷是部分相關(guān)還是完全相關(guān),進而得到對象的上近似集(up_extention)和對象的下近似集(down_extention)),最后輸出一個或多個粗糙形式概念(M上/下,N)。 上述是概念代數(shù)中的運算規(guī)則,本文將其引入到上下文本體建模當(dāng)中,將一個上下文視為一個形式背景,利用概念代數(shù)對形式背景進行深度形式化(深度形式化表示的上下文是一個概念)和利用運算規(guī)則進行復(fù)雜計算(含有語境)。將一個概念作為起點,將與其有關(guān)聯(lián)關(guān)系(上述提到的7+9=16種運算關(guān)系)的外部概念聯(lián)系起來,并做概念的語法和語義沖突處理。從一個獨立的概念不斷擴展成多個概念的關(guān)系集合,最后成為一個概念網(wǎng)(CN)-本體。如圖2所示。 圖2 基于概念代數(shù)的上下文本體建模框架圖 利用上下文存儲庫中的啟發(fā)性知識判斷上下文是否滿足一致性[1],若不滿足一致性需要則直接刪除,對于滿足一致性的上下文,使用Jena對其解析,得到OWL表示的對象集,屬性集和對象與屬性的關(guān)系集。將上述得到的結(jié)果構(gòu)建形式背景,其對應(yīng)關(guān)系如表4所示。對得到的形式背景使用概念代數(shù)CA進行擴展和深度形式化。 表4 上下文與形式背景對應(yīng)關(guān)系 對由上下文抽象化(如3.1節(jié)所述)得到的形式背景,使用概念代數(shù)對其運算,得到形式背景的概念代數(shù)表示,與初始概念關(guān)聯(lián)合并,借用WordNet知識庫對概念進一步判斷概念間關(guān)系,如有沖突,需要使用WordNet或者領(lǐng)域?qū)<疫M行處理,否則合成構(gòu)建概念網(wǎng)。 關(guān)于概念網(wǎng)中概念間相互關(guān)聯(lián)的關(guān)聯(lián)規(guī)則[12]如下: 規(guī)則1:根據(jù)WordNet判斷概念之間(內(nèi)部概念和外部概念)關(guān)系,以當(dāng)前概念為核心,若其他概念為上位詞,利用泛化表示;若為下位詞,用繼承(擴展、裁剪或替換)表示。 規(guī)則2:對整體和局部關(guān)系,以當(dāng)前概念網(wǎng)為核心,若為上位詞,利用組合表示;若為下位詞利用分解表示。 規(guī)則3:對于概念之間的屬性關(guān)系,需要進一步判斷,是屬于因果關(guān)系還是行為關(guān)系(do:?,一個對象作用于另一個對象)。 以上概念之間的關(guān)聯(lián)規(guī)則在文獻[12]中用于原有本體之間的合并(以一個本體為核心);而本文目的在于構(gòu)建新的本體,所以本文以一個概念為核心構(gòu)建概念網(wǎng)表示的本體。提出適用本文方法的形式背景概念代數(shù)表示-概念與內(nèi)部概念構(gòu)成概念網(wǎng)(CN)算法描述如下: (1) 初始化概念網(wǎng)L,初始化內(nèi)部概念C1,以為C1中心。 (2) 對上下文抽象化,得到對象,屬性以及其之間的關(guān)系,構(gòu)建形式背景B。 (3) 對B進行概念代數(shù)運算,深度形式化,記為Ci(i=2,3,4,…)。 (4) 將Ci加入到概念網(wǎng)L中,與C1或者已有的概念網(wǎng)進行關(guān)聯(lián)。 (5) 根據(jù)WordNet判斷新加入的概念與L中已有的概念是否關(guān)聯(lián),如果不相關(guān),刪除此概念,不加入到概念網(wǎng)L中轉(zhuǎn)到執(zhí)行(2);如果相關(guān)執(zhí)行(6)。 (6) 新概念節(jié)點加入到概念網(wǎng)L中,根據(jù)概念網(wǎng)L原有的概念之間關(guān)系(局部概念網(wǎng))以及WordNet,依據(jù)人的常識以及領(lǐng)域?qū)<业闹R判斷新節(jié)點與原有節(jié)點的關(guān)聯(lián)關(guān)系(上述第1節(jié)所述的概念代數(shù)運算規(guī)則)。 (7) 運用概念代數(shù)的組成運算和關(guān)系運算對概念節(jié)點進行運算并關(guān)聯(lián)。 (8) 轉(zhuǎn)到執(zhí)行(2);上下文存儲庫沒有新的上下文,結(jié)束。 算法2基于概念代數(shù)的上下文本體建模算法 輸入:內(nèi)部概念C;上下文存儲庫ContextDB 輸出:概念網(wǎng)CN 1.Begin: 2. N=relate(C2,C1); 3. i=3; 4. while(ContextDB[i]>0) 5.{ If( hasrealitionWordNet(Ci,N)) 6. { If( hasrealitionWordNet(Ci,N) .equals(enqivalent)) 7. N=relate(N,Ci); 8. else i++; continue;} 9. else loop:i++;} 10.End 算法2中,輸入內(nèi)部概念與ContextDB,以已有的內(nèi)部概念C1和C2為核心,在上下文存儲庫中有新的上下文(ContextDB[i]>0)時,先后判斷與原有概念網(wǎng)是否相關(guān),具體與哪個結(jié)點相關(guān);利用函數(shù)relate()(該函數(shù)是使用上述概念代數(shù)的關(guān)系運算和組成運算定義的復(fù)合函數(shù))將現(xiàn)有的概念與原概念網(wǎng)關(guān)聯(lián),最后輸出加入新節(jié)點的概念網(wǎng)。 利用上述構(gòu)建本體算法以及第1節(jié)介紹的概念代數(shù)的關(guān)系運算和組成運算規(guī)則給出以Knowledge這個概念為內(nèi)部概念(核心)的一個概念網(wǎng)(局部),如圖3所示。 圖3 “knowledge”概念網(wǎng)-本體(局部)圖 圖3中: E:extensionT1:tailoringobjectT:tailoring,A:attribute-ofD:decomposionI:instance-of,do:表示行為。 對圖3給出的概念網(wǎng),給出其形式化表示,如下: classicalChinesedo:spokeninEnglish; 在上下文本體建模過程中,利用R-FCA將獲取到的上下文進行粗糙處理是構(gòu)建模型的基礎(chǔ),所以它的實用性決定了構(gòu)建的上下文本體的性能。 本文根據(jù)上述所提出方法的原理以及算法,結(jié)合文獻[3] 給出的數(shù)據(jù)集,分為6組測試用例,分別為100,300,…,900,1 000個上下文(文獻[3]與文獻[16]已經(jīng)做過對比實驗,本文只給出與文獻[3]的對比實驗)。先對其進行上下文隱含概念的抽取,并使用Jena推理機解析得到具體可用的上下文(現(xiàn)實中存在的符合人的邏輯思維的對象與屬性的組合)。再使用文獻[3]提出的上下文推理方法(由于本文是對用于構(gòu)建本體的上下文做處理來提高原有推理方法的準(zhǔn)確率,所以只選擇文獻[3]的推理方法進行對比實驗,以證實本文提出方法的有效性),對二者進行推理準(zhǔn)確率統(tǒng)計,實驗結(jié)果如圖4所示。 圖4 推理結(jié)果實驗分析 本體的可擴展性對比實驗,根據(jù)對本體中的原有概念結(jié)點在新加入概念之后,各個節(jié)點的變化情況做統(tǒng)計,利用式(1),計算出本體結(jié)構(gòu)的改變率,改變率越小說明可擴展性越好,如圖5所示。 圖5 本體擴展性對比實驗 (1) 式中:p(i)是本體結(jié)構(gòu)第i次實驗改變率,M是第i次在新加入概念節(jié)點后本體中原概念結(jié)點結(jié)構(gòu)發(fā)生變化個數(shù),N是第i次實驗之前本體中概念結(jié)點總數(shù)。 如圖4所示,由實驗發(fā)現(xiàn),文獻[3]中是將得來的數(shù)據(jù)直接用于推理;本文提出先對上下文進行粗糙形式概念處理得到隱含而有用的粗糙上下文再進行推理。從實驗結(jié)果上,當(dāng)數(shù)據(jù)集為100時,二者準(zhǔn)確率差值近似為0,但是當(dāng)測試用例數(shù)量為300時,準(zhǔn)確率差值1%,隨著用例不斷加大,為500,…,900甚至1 000時,二者準(zhǔn)確率相差了5%,說明本文的方法在原方法上準(zhǔn)確率提高5%。通過因果分析,可以發(fā)現(xiàn),由于不同的上下文含有的對象個數(shù)和屬性個數(shù)不同,屬性個數(shù)多的上下文通過粗糙處理后得到的隱含上下文信息就多(如:一個上下文中含有n個屬性,通過粗糙處理可得到2n個上下文),而且經(jīng)過Jena解析之后雖然會去除一些沒有價值的上下文,但是有用的上下文個數(shù)仍然很多。 根據(jù)本文的數(shù)據(jù)集,經(jīng)過實驗得到有價值的上下文分別為248、525、923、1 346、1 921和2 298,所以使用本文的方法處理上下文再進行推理時,信息源明顯增大,推理的準(zhǔn)確率自然變高。當(dāng)構(gòu)建上下文本體時,如果對含有屬性較多的上下文不做粗糙處理,那么丟失上下文中那些有用信息的數(shù)量就非常巨大,而且直接對后繼的模型推理造成推理結(jié)果不全面和不完整。從實驗效果上看,采用本文所提的方法獲取隱含的上下文信息是可行的、有效的。 如圖5所示,本文對文獻[3,5]中構(gòu)建的上下文本體與本文提出的基于粗糙FCA-概念代數(shù)的上下文本體進行了本體可擴展性對比實驗,并用式(1)分別計算出文獻[3,5]和本文的方法的本體結(jié)構(gòu)改變率。數(shù)據(jù)集共分為6組,為100,200,…,600(個RDF),具體實驗結(jié)果如表5所示。 表5 本體結(jié)構(gòu)改變率實驗對比結(jié)果表 表5各組實驗數(shù)據(jù)的結(jié)果表明,本文提出的方法 的本體結(jié)構(gòu)改變率明顯低于文獻[3]和文獻[5],所以在本體可擴展性方面要優(yōu)于前二者。本文使用概念代數(shù)構(gòu)建本體,利用數(shù)學(xué)運算計算概念間的關(guān)聯(lián)關(guān)系,并改變概念網(wǎng)的結(jié)構(gòu),使得本體每次只需局部變化而非整體變化,致使本體具有較好的可擴展性。 粗糙形式概念分析對形式背景進行冪集計算,可以將上下文中隱含的有用信息提取出來,得出多個有用上下文;概念代數(shù)將形式背景高度形式化,再將已經(jīng)高度形式化的概念,以網(wǎng)狀形式進行構(gòu)建,進而直接得到本體且具有較好的可擴展性和協(xié)同性。本文將粗糙形式概念分析和概念代數(shù)二者結(jié)合來構(gòu)建上下文本體,目的是從收集上下文到構(gòu)建上下文本體的過程中,對上下文都做不完整性處理,使得所得到的上下文本體含有更多有用和有效的上下文,進而提高本體推理的正確性,使本體可以提供更全面和準(zhǔn)確的服務(wù)。通過本文理論和實驗驗證,證實將二者結(jié)合是可行的和有效的。同時本文為構(gòu)建本體前期和后期的處理方法提供了新的視角。本文存在的不足是未在該方法的效率上進行驗證分析。 [1] 張慧,李冠宇,王元剛.語用網(wǎng)驅(qū)動的上下文感知系統(tǒng)設(shè)計[J].計算機應(yīng)用研究,2015,32(5):1412-1416. [2] 胡博,王智學(xué),董慶超,等.基于描述邏輯的上下文知識獲取與推理方法[J].計算機科學(xué),2013,40(4):199-203. [3] 李艷娜,喬秀全,李曉峰.基于證據(jù)理論的上下文本體建模以及不確定性推理方法[J].電子與信息學(xué)報,2010,32(8):1806-1811. [4] Hervás R,Bravo J,Fontecha J.A Context Model based on Ontological Languages:a Proposal for Information Visualization[J].Journal of Universal Computerence,2010,16(16):1539-1555. [5] Lu Z J,Li G Y,Pan Y.A Method of Meta-Context Ontology Modeling and Uncertainty Reasoning in SWoT[C]//International Conference on Cyber-Enabled Distributed Computing and Knowledge Discovery.IEEE,2017:128-135. [6] 甘特爾,威爾.形式概念分析[M].馬垣,譯.科學(xué)出版社,2007. [7] 王丹,黃映輝,李冠宇.粗糙形式概念抽取的屬性集合冪集方法[J].計算機工程與設(shè)計,2011,32(9):3162-3165. [8] 曲開社,翟巖慧,梁吉業(yè),等.形式概念分析對粗糙集理論的表示及擴展[J].軟件學(xué)報,2007,18(9):2174-2182. [9] Wang Y.On concept algebra:A denotational mathematical structure for knowledge and software modeling[J].International Journal of Cognitive Informatics and Natural Intelligence (IJCINI),2008,2(2):1-19. [10] Wang Y.On concept algebra and knowledge representation[C]//Cognitive Informatics,2006.ICCI 2006.5th IEEE International Conference on.IEEE,2006,1:320-331. [11] Tian Y,Wang Y,Hu K.A knowledge representation tool for autonomous machine learning based on concept algebra[M]//Transactions on Computational Science V.Springer Berlin Heidelberg,2009:143-160. [12] 韓國栓,李冠宇,王元剛.概念代數(shù)在本體合并中的應(yīng)用[J].計算機應(yīng)用與軟件,2014,31(10):53-57. [13] Delbru R,Tummarello G,Polleres A.Context-dependent owl reasoning in sindice-experiences and lessons learnt[C]//International Conference on Web Reasoning and Rule Systems.Springer Berlin Heidelberg,2011:46-60. [14] Staab S,Studer R,Schnurr H P,et al.Knowledge processes and ontologies[J].IEEE Intelligent systems,2001,16(1):26-34. [15] 蘇北.Z規(guī)格說明中冪集算子自動求精的研究與實現(xiàn)[D].沈陽:沈陽工業(yè)大學(xué),2006. [16] Jousselme A L,Grenier D,Bossé é.A new distance between two bodies of evidence[J].Information fusion,2001,2(2):91-101.3 基于CA的上下文本體建模
3.1 上下文深度抽象化
3.2 上下文本體模型
4 實驗驗證與分析
5 結(jié) 語