• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于tri-training和極限學習機的跨領域信任預測

    2022-09-06 07:30:58童向榮
    計算機研究與發(fā)展 2022年9期
    關鍵詞:分類器信任標簽

    王 巖 童向榮

    (煙臺大學計算機與控制工程學院 山東煙臺 264005)

    (yixinwon@163.com)

    當前各種網上活動中用戶與用戶之間的交往必不可少.在互聯(lián)網生活中,無法輕易判斷陌生用戶是否可信.許多學者利用神經網絡、強化學習以及矩陣分解等方法預測用戶間的信任關系或者判斷用戶的喜好,為用戶推薦喜歡的內容,其需要利用用戶的各種信息,比如用戶鄰居的偏好、用戶項目點擊量和用戶評價等信息.這些工作大多基于一個領域,但是實際上用戶有各種各樣的社交領域,一個用戶存在于多個不同的社交網絡,雖然領域不同,但是當一個網絡中的交易信息過少,則缺少標簽,利用其他網絡的信息幫助系統(tǒng)預測是有必要的.

    目前信任評估的研究已涌現(xiàn)出大量的研究成果,但通過其他領域預測信任關系的研究成果卻很少.Liu等人[1]利用非對稱tri-training模型進行跨網絡的信任預測,該模型利用BP神經網絡作為分類器,整個模型一共有3個分類器,前2個用于預測偽標簽,第3個用于預測目標網絡的用戶關系.利用BP神經網絡結合非對稱tri-training構建模型的方法存在2個問題:1)BP神經網絡回溯訓練找到最優(yōu)解需要時間長;2)該模型只有2個分類器產生偽標簽,需要設置專家閾值.

    受tri-training、非對稱tri-training以及Liu等人的啟發(fā),本文擴展非對稱tri-training模型,將tri-training作為框架中的一部分,分類器利用速度更快、泛化性更強的極限學習機.模型有4個分類器,首先通過tri-training模型利用源網絡的共同特征訓練前3個分類器;然后用訓練好的分類器預測目標網絡訓練集樣本,產生偽標簽,利用“少數(shù)服從多數(shù)”原則將偽標簽樣本加入到目標網絡偽標簽樣本集中;再次用加入特殊特征的偽標簽樣本集對第4個分類器進行訓練;最后利用第4個分類器對目標網絡進行預測.

    本文的主要貢獻有4個方面:

    1) 擴展了基本的tri-training模型框架.原始的非對稱tri-training一共有3個分類器,其中前2個用于產生偽標簽,第3個進行分類.我們將產生偽標簽的分類模型改為tri-training模型,然后第4個分類器進行分類,形成最后的模型框架.

    2) BPtri-training的算法定義了分類器專家閾值,需根據實驗確定閾值,且網絡不同,閾值可能也不相同.而我們采用“少數(shù)服從多數(shù)”投票機制選擇tri-training中的偽標簽,這樣解決了由于預測不同網絡需要設置不同閾值的問題.

    3) 框架內分類器采用極限學習機,其速度更快,結構更為簡單,且泛化能力更強.

    4) 利用類似遷移學習機制保存訓練模型,即保存輸出矩陣β,將訓練模型應用到異構領域預測信任關系.

    1 相關工作

    信任是判斷人與人之間交往的一個重要指標,童向榮等人[2]認為信任的表示分為3種:第1種用邏輯表示,將信任認為是二值的,即信任和不信任,用1和0表示,還可以分為信任、不信任和不清楚,分別用1,-1,0來表示.第2種用級別表示,即信任被認為是一個離散區(qū)間值,一般有[-1,1]和[0,1]2種情況:前一種情況認為絕對不信任是-1,半信半疑是0,而絕對信任是1;后一種情況,0是不信任,1是信任.第3種用概率表示,即某個用戶對另外一個用戶的信任程度,概率值越大,表明用戶對另一用戶的信任值越高,概率為1表示完全信任,概率為0表示用戶對另一用戶完全不信任.例如,關系R=u,v,p表示用戶u對用戶v信任的概率是p.本文采用二值邏輯表示信任關系,即1和0.

    信任預測應用廣泛,一些學者將其應用于電子商務[3]、醫(yī)療物聯(lián)網[4]和廣告判斷[5].在信任預測問題中,大多數(shù)學者基于一個網絡進行信任預測研究,比如Liu等人[6]考慮了用戶評分的本地上下文信息以及用戶的全局偏好建立用戶相似度模型,有效解決了用戶評分少導致的信任評估不準確問題.Ardissono等人[7]基于信任的推薦系統(tǒng),在公開匿名信息的基礎上增加了關于信任的證據,即個人貢獻質量和多維全局聲譽.由于社會關系的稀疏和不平衡,Wang等人[8]量化信任和不信任的相關因素,將這些特征作為證據輸入到神經網絡中,利用Dempster-Shafer理論進行信任和不信任預測.亓法欣等人[9]提出一種利用強化學習增強信任值以提高推薦性能的方法.Wen等人[10]提出了一種高效的開源支持向量機(support vector machine, SVM)軟件工具包,稱為ThunderSVM,它利用了圖形處理單元和多核CPU的高性能,幫助用戶輕松有效地應用SVM解決問題.

    在不同領域的信任預測研究中,2017年Saito等人[11]在tri-training的基礎上提出了一種用于無監(jiān)督域自適應的非對稱tri-training算法,該算法的目標是對與標記源樣本具有不同特征的未標記目標樣本進行分類.Liu等人[1]在2020年設計了一個新的非對稱tri-training模型,其結合了源網絡和目標網絡的共同特征以及目標網絡的特殊特征預測目標網絡的社會關系,他們利用BP神經網絡作為構建非對稱tri-training的分類器.

    如何通過一個網絡的信息預測另一個網絡的信息,重點是保存訓練的模型,將其用于目標網絡的預測.在過去幾年中,關于遷移學習的研究取得了巨大的成功.通過使用遷移學習方法,可以通過信息豐富的源網絡預測信息稀疏的目標網絡的關系.Tang等人[12-13]開發(fā)了一種框架,基于因子圖模型社會理論合并預測社會關系,稱為TranFG.該算法通過訓練源網絡獲得初始模型,然后將初始模型應用于預測目標網絡的關系.Chen等人[14]通過從源域訓練樣本得到初始模型,然后使用該模型用于訓練目標域樣本得到偽標簽,接著將偽標記的樣本合并迭代地重新訓練模型,直到收斂為止,該方法也稱為co-training.像co-training一樣,Zhou等人[15]在2005年提出了一種半監(jiān)督學習算法tri-training,構建了3個分類器,用于為無標簽數(shù)據貼上標簽.對于未標記的數(shù)據,Lee[16]證明偽標記代表選擇了具有最大預測概率的類別,它等效于熵正則化.本節(jié)將對前人所做的一些工作進行簡要介紹.

    1.1 tri-training

    tri-training[15]是一種半監(jiān)督學習算法,該算法的特點是使用了3個分類器,利用訓練集訓練3個分類器,其中訓練集樣本采用可重復采樣選取,將測試樣本利用訓練好的3個分類器以“少數(shù)服從多數(shù)”的原則產生預測結果,最終3個分類器通過投票機制作為1個分類器進行使用.

    該算法的優(yōu)點是有3個分類器、利用投票機制、符合現(xiàn)實情況且效率高、不需要設置相關閾值、速度快、提高了模型的學習性能、保證學習效率.

    1.2 非對稱tri-training

    非對稱tri-training[11]是一種無監(jiān)督自適應的算法,在tri-training的基礎上構建,同樣有3個分類器,分類器采用基本的BP神經網絡,功能和tri-training的3個分類器不同,非對稱tri-training的主要思想是:1)利用源網絡的有標簽樣本訓練得到前2個分類器.2)輸入目標域的樣本到訓練好的分類器,產生偽標簽.如果2個分類器對同一個樣本產生的偽標簽相同,將樣本加入到偽標簽樣本集中;如果不同,則判斷分類器的置信度是否大于設定的專家閾值,符合條件的樣本同樣也會加入到偽標簽樣本集合中.產生的偽標簽樣本集和源域樣本集會集合重復訓練前2個分類器,直到達到收斂.3)利用偽標簽樣本集訓練得到第3個分類器,利用第3個分類器預測目標網絡.

    該算法產生偽標簽樣本判斷條件限制多,涉及不同網絡閾值的設置問題,且采用BP神經網絡運行速度慢,所以本文模型在其基礎上擴展,使用速度快、泛化性強的極限學習機作為分類器.

    1.3 極限學習機

    極限學習機(extreme learning machine, ELM)[17]分類器采用隨機權值和偏差,對于輸出層權重通過廣義逆矩陣理論計算得到,不用反復修改權重.如圖1所示:

    Fig. 1 ELM architecture[18]圖1 ELM結構[18]

    極限學習機從下到上分別是輸入層、隱藏層、輸出層.其中輸入層輸入N個樣本,隨機生成權重W和偏置b,隱藏層本文設置L個神經元,β是連接隱藏層和輸出層的權重矩陣,輸入測試樣本,得到新的H(x),與矩陣β進行點乘,最終得到分類結果.相比Liu等人[1]利用BP神經網絡作為分類器,我們利用極限學習機作為分類器,其速度更快且泛化能力更強.

    假設有N個任意樣本(xi,yi),樣本特征xi=(xi1,xi2,…,xin)T∈n,n是樣本的特征個數(shù),樣本標簽yi=(yi1,yi2,…,yim)T∈m,m是分類結果個數(shù),ELM隨機生成權重Wi=(wi1,wi2,…,wiL)T和偏置因子bi=(bi1,bi2,…,biL)T,Wi符合[-1,1]的正態(tài)分布,bi符合[-0.6,0.6]的正態(tài)分布.

    一個有L個隱層節(jié)點的單隱層ELM可以表示為

    Hβ=Y,

    (1)

    其中,H是隱層節(jié)點的輸出,β為輸出權重,Y為期望輸出.H,β,Y分別表示為:

    (2)

    (3)

    (4)

    其中,g(W·x+b)是隱藏層的激活函數(shù),采用sigmoid函數(shù),表示為

    (5)

    (6)

    由于權重和偏置矩陣是隨機生成,且ELM不會反向迭代更新參數(shù),一次迭代求出權重矩陣β,即最終輸出權重矩陣確定為

    (7)

    其中,H+是矩陣H的Moore-Penrose廣義逆.

    2 問題描述與基本定義

    本節(jié)給出了問題的基本描述,介紹了網絡間的共同屬性和特殊屬性.

    2.1 問題描述

    如圖2所示,已標記的源網絡有合作和不合作2種社會關系,未標記的目標網絡有信任和不信任關系,問題是如何通過已標記的源網絡預測未標記的目標網絡的社會關系.基本思路是結合tri-training模型和非對稱tri-training模型利用類似遷移學習的方法對網絡進行預測,分類器采用速度更快的極限學習機.首先利用tri-training模型和“少數(shù)服從多數(shù)”投票機制產生目標網絡偽標簽,然后利用偽標記目標網絡訓練分類器ELM4,最后預測目標網絡.

    Fig. 2 Different networks for relationship prediction圖2 不同網絡進行關系預測

    2.2 基本定義

    定義1.社交網絡.由圖D=(V,E)表示,其中V表示用戶集合,E表示邊集合,即節(jié)點u和節(jié)點v之間的邊e(u,v)∈E(D).Γ(u)={v:v∈V,e(u,v)∈E(D)}表示節(jié)點u的鄰居集.

    預測網絡的關系需要結合網絡的特征,但是由于網絡的不同,所有網絡有共同特征,個別網絡有特殊特征,定義2~5是根據社交網絡的結構特征總結的定義.

    在社交網絡中,嵌入性[19]用于測量2個用戶之間共同鄰居的數(shù)量.在現(xiàn)實世界中,2個人越親密,他們就越有共同的朋友.因此,邊e(u,v)∈E(D)的嵌入值可以描述為:

    定義2.嵌入性.給定一個社交網絡圖D=(V,E),邊e(u,v)∈E(D)的嵌入值為

    Embeddness(u,v)=|Γ(u)∩Γ(v)|.

    (8)

    式(8)表示,2個用戶之間的共同鄰居越多,表示他們越有可能成為朋友.嵌入性在不同的網絡中有較好的表達和泛化能力.幾乎每一個社交網絡都有此特征,利用它作為基本的結構特征.

    聚類系數(shù)用于衡量節(jié)點聚集的程度.同樣,邊聚類系數(shù)可以直接反映2個用戶朋友的朋友圈之間的緊密程度,節(jié)點u的聚類系數(shù)和e(u,v)∈E(D)的邊聚類系數(shù)定義為:

    定義3.節(jié)點聚類系數(shù).對于一個節(jié)點u,其聚類系數(shù)為

    (9)

    其中,eu表示與節(jié)點u相鄰節(jié)點之間的邊數(shù).

    定義4.邊聚類系數(shù).對于社交網絡中的邊e(u,v)∈E(D),Cu,Cv分別表示節(jié)點u和節(jié)點v的聚類系數(shù),所以邊聚類系數(shù)Cuv表示為

    Cuv=Cu+Cv.

    (10)

    與邊聚類系數(shù)相比,鏈接性(Linkness)[20]不僅評估節(jié)點的公共鄰居的數(shù)量,而且也關注每個節(jié)點的其他鄰居的數(shù)量.所以Linkness可以作為特殊屬性來提高目標網絡的預測性能.

    Fig. 3 ELMtri-training model圖3 ELMtri-training模型

    定義5.Linkness.對于一條邊e(u,v)∈E(D),D的子圖Duv=D[Γ(u)∪Γ(v)-Γ(u)∩Γ(v)-{u,v}],所以邊e(u,v)的Linkness為

    (11)

    每個網絡的結構特征取決于網絡中節(jié)點的分布,在線社交網絡中,用戶之間頻繁的交互影響著網絡的結構.因此,為了預測目標網絡的社會關系類型,將定義2~5的特征用于模型中分類器的輸入.

    3 跨領域信任預測模型

    本節(jié)主要介紹網絡框架以及訓練算法的詳細步驟.

    3.1 網絡框架說明

    標記的源網絡表示為Dsou=(Vsou,Esl,Xsou,Ysou),目標網絡表示為Dtar=(Vtar,Etu,Xtar,Ytar).其中,Vsou是源網絡的用戶集合,Esl?Vsou×Vsou是源網絡中標記關系的集合;Vtar和Etu?Vtar×Vtar分別是目標網絡中的用戶集合和目標網絡未標記關系集合;Xsou和Xtar分別是源網絡和目標網絡的關系屬性矩陣,每一行對應一個關系,每一列是一個屬性.作為二進制分類(標簽類型為0或1)的問題,Ysou和Ytar分別表示源網絡和目標網絡的關系矩陣,由0和1組成.0表示不信任、敵人、不支持或不合作關系,1表示信任、朋友、支持或合作關系.xi表示源網絡中的第i個樣本,yi表示邊的類型.目標網絡中樣本的xi和yi與源網絡中的含義相同.標記的源樣本集可以表示為S={(xi,yi)}~Dsou,其中i∈[0,Nsou].同時,T是目標網絡Dtar的未標記樣本的空間,并且T={(xi)}~Dsou,其中i∈[0,Ntar].

    根據2.2節(jié)中的定義,構建擴展非對稱ELMtri-training模型,如圖3所示,模型的構建分為2個部分:

    1) tri-training模型.利用已標記源網絡樣本訓練得到3個不同的分類器,然后輸入帶有共同特征的目標網絡樣本到3個分類器,產生3個偽標簽,通過“少數(shù)服從多數(shù)”原則投票選取偽標簽.

    2) 擴展非對稱tri-training模型.將tri-training投票產生的偽標簽樣本加入到偽標簽樣本訓練集Tlabel中,利用含有共同特征和特殊特征的Tlabel訓練第4個分類器,最后輸入目標網絡測試集得到預測結果.

    Fig. 4 Detailed process of ELMtri-training model圖4 ELMtri-training模型的詳細過程

    3.2 訓練算法

    算法1描述了ELM1的訓練過程,極限學習機ELM2,ELM3,ELM4與ELM1過程相同.

    算法1.ELM1的算法過程.

    輸出:預測結果.

    ① 隨機生成輸入權重W和偏置b;

    ② 根據輸入的x以及權重W和偏置b計算隱藏層的矩陣H;

    ③ 計算隱藏層輸出權重矩陣β=H+Y;

    ④ 輸入目標網絡樣本重復步驟①②,計算得到的新矩陣H′與權重矩陣β相乘得到目標網絡預測結果.

    算法2.ELMtri-training算法.

    輸出:ELM4的預測結果.

    ① 初始化分類器權重W、偏置b;/*每個分類器權重隨機生成,各不相同*/

    ② 利用S樣本集訓練ELM1,ELM2,ELM3得到βELM1,βELM2,βELM3;

    ③ 通過算法1利用Ttrain計算得到HELM1,HELM2,HELM3和YELM1,YELM2,YELM3;

    ④ for (j=1;j≤len(Ttrain);j++) do

    ⑦ else

    ⑩ end if

    算法2的主要步驟:

    1) 初始化分類器權重為[-1,1]正態(tài)分布,偏置為[-0.6,0.6]正態(tài)分布,每個分類器權重偏置隨機分配各不相同,利用已標記的源網絡樣本訓練得到前3個分類器ELM1,ELM2,ELM3,源網絡樣本采取可重復取樣選取1萬個樣本,目標網絡選取未標記樣本數(shù)量r=10 000.

    2) 使用ELM1,ELM2,ELM3訓練產生的分類器h1,h2,h3標記目標樣本.tri-training模型中3個分類器h1,h2,h3對同一目標樣本預測結果利用投票機制選取,將符合條件的樣本加入到偽標簽樣本集Tlabel中.

    3) 利用具有共同特征和特殊特征Tlabel訓練ELM4得到分類器h4,輸入Ttest計算得到預測結果.

    3.3 復雜度分析

    本節(jié)將從時間復雜度與空間復雜度2個方面分析算法復雜性.

    1) 時間復雜度方面.實驗部分已對BP神經網絡和ELM進行了速度比較,ELM的運算時間小于BP神經網絡的運算時間,假設ELM運行預測一個樣本的時間為M,需要運算的數(shù)據量是N,則時間開銷為O(M×N),ELM1,ELM2,ELM3的總時間開銷為O(3M×(Nsou+Ttrain)),ELM4的時間開銷為O(M×(Tlabel+Ttest)),相加為O(M×(3Nsou+3Ttrain+Tlabel+Ttest)).

    2) 空間復雜度方面.模型需要存儲源樣本S、目標樣本T和偽標簽樣本Tlabel,每次計算隨機生成的權重W和b無需存儲,4個分類器生成的矩陣β需要存儲,所以總空間復雜度是O(S+T+Tlabel+βELM1+βELM2+βELM3+βELM4).

    4 實驗與結果

    本節(jié)對6種數(shù)據集進行分析,說明數(shù)據集的共同特征以及特殊特征,對評價指標進行說明,列出ELMtri-training算法和其他算法的速度以及準確率對比、特殊特征加入對結果的影響,以及本文模型穩(wěn)定性分析.實驗在Intel?CoreTMi5-6200U CPU@2.30 GHz 2.40 GHz和4 GB RAM的PC上進行.

    4.1 數(shù)據集分析

    實驗采用6種不同類型的數(shù)據集,它們是Alpha,OTC,Epinions,Slashdot,DBLP,WikiVote,以上6個數(shù)據集來自Leskove和Rok[21].所有數(shù)據集都包含2種類型的標簽,Alpha,OTC,Epinions網絡中的信任關系,Slashdot網絡中的友誼關系,DBLP網絡的同一社區(qū)中的合作關系以及WikiVote網絡中的支持關系.實驗數(shù)據集節(jié)點及關系數(shù)量如表1所示:

    Table 1 Statistics of Six Datasets表1 6個數(shù)據集的數(shù)據集統(tǒng)計

    參考文獻[1]的分析結果,實驗使用的6個數(shù)據集可以分為4種類型:1)Alpha和OTC網絡具有較高的平均聚類系數(shù)和較低的平均路徑長度,表現(xiàn)出小世界現(xiàn)象,說明用戶與普通鄰居之間的關系更緊密,可將邊聚類系數(shù)和Linkness作為特殊屬性.2)DBLP具有較高的平均聚類系數(shù)和較高的平均路徑長度,可將邊聚類系數(shù)作為特殊屬性.3)Epinions的平均聚集系數(shù)低,平均路徑長度長.4)WikiVote和Slashdot網絡具有較低的平均聚類系數(shù)和較低的平均路徑長度.其中Alpha,OTC,DBLP有特殊屬性,其他3個網絡只有網絡共同屬性.

    參考6個網絡的結構特征和數(shù)據集特征,表2列出其共同特征,表3和表4列出Alpha,OTC,DBLP的特殊特征.

    Table 2 Common Features表2 共同特征

    Table 3 Special Features of Alpha and OTC表3 Alpha和OTC的特殊特征

    Table 4 Special Features of DBLP表4 DBLP的特殊特征

    4.2 評價指標

    實驗使用3個測量指標,分別為精度(Precision)、召回率(Recall)、F1度量(F1_score),分別表示為:

    (12)

    (13)

    (14)

    其中,TP表示將網絡中值為1的預測為1的數(shù)量,TN表示將網絡中值為1的預測為0的數(shù)量,F(xiàn)P表示將網絡中值為0的預測為1的數(shù)量,F(xiàn)N表示將網絡中值為0的預測為0的數(shù)量.

    4.3 特殊特征作用

    本節(jié)的實驗測試訓練ELM4時加入特殊特征對信任預測是否有提升作用.為保證實驗準確性,設置2次實驗偽標簽樣本加入特殊特征與否,其他參數(shù)保持一致,實驗從源網絡和目標網絡分別抽取1萬個樣本,前3個分類器在2個實驗中生成的權重相同,源網絡2次實驗隨機抽取的樣本相同,隱藏層神經元個數(shù)設置為100,使實驗結果差距更明顯,且每次測試不同源網絡預測信任關系時,目標網絡樣本7∶3的樣本不變.

    Alpha,OTC,DBLP這3個網絡有特殊特征,將源網絡和目標網絡組成的實驗對:OTC-Alpha,Alpha-OTC以及Alpha-DBLP作為實驗例子,實驗分別從Precision,Recall和F1_score測試Tlabel中特殊特征的加入對結果是否有影響.由圖5可以看出,一共有9個對比,其中7次加入特殊特征比沒有加入特殊特征時指標高,由此可得出加入特殊特征對于信任的預測性能有提升,所以實驗加入了特殊特征來進行.

    Fig. 5 Add special feature comparison圖5 加入特殊特征對比

    4.4 算法速度對比

    實驗在Epinions中選取1 000個樣本,按照7∶3的比例分為訓練樣本和測試樣本,構建一個輸入節(jié)點為8、隱藏節(jié)點為300、輸出節(jié)點為2的BP神經網絡,迭代次數(shù)設置為300,將ELMtri-training模型的一個ELM分類器與SVM,Random Forest,ThunderSVM對比,如表5所示,BP神經網絡和ELM預測的結果準確率相同,但是運算時間差距較大,ThunderSVM速度雖然快,但是準確率比ELM低,所以ELMtri-training模型采用ELM分類器.

    Table 5 Speed Comparison表5 速度對比

    4.5 數(shù)據集測試

    實驗分別在源網絡和目標網絡中隨機選取1萬個樣本,為保證實驗的現(xiàn)實性,目標網絡每次隨機分配7∶3的訓練集和測試集,實驗結果取5次實驗中最好的一次.

    將所提的算法與SVM,Random Forest,TranFG,ThunderSVM,BPtri-training算法進行比較.實驗與文獻[1]中的實驗結果進行對比,實驗結果表示于表6~11,其中6個網絡分別用作目標網絡.

    Table 6 Trust Relationship Prediction Results in TargetNetwork Alpha表6 Alpha作為目標網絡的信任關系預測結果

    續(xù)表6

    Table 7 Trust Relationship Prediction Results in TargetNetwork OTC表7 OTC作為目標網絡的信任關系預測結果

    Table 8 Trust Relationship Prediction Results in TargetNetwork Epinions表8 Epinions作為目標網絡的信任關系預測結果

    續(xù)表8

    Table 9 Trust Relationship Prediction Results in TargetNetwork Slashdot表9 Slashdot作為目標網絡的信任關系預測結果

    續(xù)表9

    Table 10 Trust Relationship Prediction Results in TargetNetwork DBLP表10 DBLP作為目標網絡的信任關系預測結果

    Table 11 Trust Relationship Prediction Results in TargetNetwork WikiVote表11 WikiVote作為目標網絡的信任關系預測結果

    續(xù)表11

    由表6~11中的結果,可發(fā)現(xiàn)ELMtri-training在Alpha,OTC,Epinions,DBLP數(shù)據集上大多數(shù)情況的表現(xiàn)比其他算法優(yōu)秀,在Slashdot和WikiVote數(shù)據集上大部分Recall比其他算法高,Precision和F1_score比BPtri-training低,且在同一目標網絡,不同源網絡的情況下所提模型較為穩(wěn)定.結果表明,無論源網絡和目標網絡是否為同一類型,ELMtri-training模型都具有穩(wěn)定的性能.

    根據表6~11的測試數(shù)據,分別計算6種算法在同一目標網絡同一指標的方差,測試模型對于不同目標網絡預測的穩(wěn)定性.圖6~8分別表示3個指標在6種算法以及不同目標網絡的穩(wěn)定性,其中橫軸是目標網絡,縱軸是方差.由圖6~8可以看出,ELMtri-training模型的方差多數(shù)比其他算法低,且波動很小,穩(wěn)定性優(yōu)于其余5種算法.

    Fig. 6 Precision stability圖6 精度穩(wěn)定性

    Fig. 7 Recall stability圖7 召回率穩(wěn)定性

    Fig. 8 F1_score stability圖8 F1度量穩(wěn)定性

    5 總 結

    本文基于非對稱tri-training和tri-training模型構建ELMtri-training模型,模型外部框架為擴展非對稱tri-training模型,模型包含4個ELM分類器,前3個用于tri-training模型.輸入源網絡樣本到tri-training模型中訓練產生分類器,然后輸入目標網絡訓練樣本產生偽標簽,通過投票機制將偽標簽樣本加入目標網絡偽標簽訓練集,輸入加入特殊特征的偽標簽樣本訓練第4個分類器,最后輸入目標網絡測試樣本預測得到結果.利用類似遷移學習方法保存輸出矩陣和訓練的分類器.通過實驗結果對比,所提出的算法在大多數(shù)情況下優(yōu)于已有的預測算法,且對于不同的源網絡和相同的目標網絡,預測結果相對比較穩(wěn)定,說明此模型的可擴展性以及穩(wěn)定性比較好.模型可以考慮用于推薦系統(tǒng),未來工作可以尋找網絡間的共同特征和特殊特征方面的優(yōu)化,使得預測結果更加準確.

    作者貢獻聲明:王巖提出算法思路,負責完成實驗并撰寫論文;童向榮提出系統(tǒng)思路,調整論文框架,指導并修改論文.

    猜你喜歡
    分類器信任標簽
    表示信任
    無懼標簽 Alfa Romeo Giulia 200HP
    車迷(2018年11期)2018-08-30 03:20:32
    不害怕撕掉標簽的人,都活出了真正的漂亮
    海峽姐妹(2018年3期)2018-05-09 08:21:02
    BP-GA光照分類器在車道線識別中的應用
    電子測試(2018年1期)2018-04-18 11:52:35
    嚶嚶嚶,人與人的信任在哪里……
    桃之夭夭B(2017年2期)2017-02-24 17:32:43
    從生到死有多遠
    加權空-譜與最近鄰分類器相結合的高光譜圖像分類
    結合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
    標簽化傷害了誰
    基于多進制查詢樹的多標簽識別方法
    計算機工程(2015年8期)2015-07-03 12:20:27
    万载县| 金堂县| 乐亭县| 溧水县| 宝鸡市| 当雄县| 定襄县| 安徽省| 易门县| 杭锦后旗| 田林县| 阜新市| 雅安市| 周至县| 固镇县| 阿坝县| 邹平县| 岳阳市| 博野县| 包头市| 屯门区| 大洼县| 东莞市| 麟游县| 象山县| 新竹市| 玛沁县| 商南县| 西贡区| 余庆县| 石首市| 油尖旺区| 沁源县| 昌江| 南雄市| 鸡东县| 北川| 三穗县| 安仁县| 陇南市| 乌鲁木齐市|