• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      圖正則化字典對學(xué)習(xí)的輕度認(rèn)知功能障礙預(yù)測

      2019-04-10 08:39:34魏彩鋒孫永聰曾憲華
      智能系統(tǒng)學(xué)報(bào) 2019年2期
      關(guān)鍵詞:正則字典復(fù)雜度

      魏彩鋒,孫永聰,曾憲華

      (1. 重慶郵電大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,重慶 400065; 2. 重慶郵電大學(xué) 計(jì)算智能重慶市重點(diǎn)實(shí)驗(yàn)室,重慶400065)

      目前,多媒體技術(shù)飛速發(fā)展,圖像數(shù)量呈指數(shù)級增長,圖像分類技術(shù)也得到了飛速發(fā)展。圖像分類方法主要包括分類器的設(shè)計(jì)和特征提取兩個(gè)部分,目前對圖像分類的研究主要集中在分類器性能的改進(jìn)和改善特征提取方法兩方面。稀疏編碼(字典學(xué)習(xí))[1-10]是圖像分類的有效技術(shù)之一,用于圖像分類的字典學(xué)習(xí)算法也可以分為2類:1)學(xué)習(xí)字典把原始圖像映射到有利于圖像分類的空間上,用傳統(tǒng)的分類器去分類;2)用稀疏系數(shù)所表示出來的樣本屬性進(jìn)行分類。

      在用于圖像分類的字典學(xué)習(xí)算法中,字典和編碼系數(shù)的設(shè)計(jì)從中起著關(guān)鍵作用[3]?;谙∈璞硎镜姆诸愃惴╗4],將整個(gè)訓(xùn)練樣本作為字典,利用測試樣本在字典上的重構(gòu)誤差分類。在字典中的每個(gè)原子都是一個(gè)樣本,由于樣本數(shù)量的限制,字典原子中有相同或相似的,還有一些則不包含在內(nèi)造成分類錯(cuò)誤。而Aharon M等提出的KSVD算法[5]學(xué)習(xí)的字典具有自適應(yīng)性,能夠更好對信號進(jìn)行稀疏表示。雖然,使用重構(gòu)誤差作為損失函數(shù),可以用于圖像分類,但是還有許多因素沒有考慮到。Yang等[6]提出Fisher字典學(xué)習(xí)在自適應(yīng)字典基礎(chǔ)上,考慮到相同的樣本之間的類內(nèi)散度較小,類間散度大,在目標(biāo)函數(shù)上加入了識別系數(shù)項(xiàng),提高分類能力。Jiang等[7]提出的LC-KVD算法,在KSVD算法[5]基礎(chǔ)上加入了標(biāo)簽約束項(xiàng)。在文獻(xiàn)[8]中,由于分別學(xué)習(xí)特征影射矩陣和字典,會(huì)影響特征影射矩陣的判別信息,提出了同時(shí)學(xué)習(xí)投影矩陣和字典,為了能夠提取更多的判別信息,加入圖正則項(xiàng)。構(gòu)建近鄰圖,近鄰且同類相似度為1,近鄰但不同類相似度為-1,其他為0。在文獻(xiàn)[9]中圖正則化中的相似度矩陣定義為兩近鄰樣本的相似度為兩樣本之間的歐氏距離,不近鄰樣本之間的相似度為0。使用不同的相似矩陣,分類效果也不同。另一方面,由于字典學(xué)習(xí)[3-9]大多是使用編碼系數(shù)的0或1范數(shù)作正則項(xiàng),在訓(xùn)練和測試階段效率較低,運(yùn)行時(shí)間長。2014年在NIPS上Gu等[10]提出了字典對學(xué)習(xí),聯(lián)合學(xué)習(xí)一個(gè)綜合字典和分析字典,用分析字典去分析編碼,由于綜合字典的重構(gòu)效果比較好,使用綜合字典去重構(gòu)圖像。它不僅減少了在訓(xùn)練和測試階段的時(shí)間復(fù)雜度,也提高了模型的分類能力。但是,字典對學(xué)習(xí)模型沒有考慮圖像的幾何近鄰?fù)負(fù)潢P(guān)系。為了提高模型的分類能力,基于同類樣本的系數(shù)之間的距離小,不同類系數(shù)之間的距離大的思想,提出了基于圖正則化字典對學(xué)習(xí)(GDPL)算法。

      在最近的綜合研究[11]中,用十倍交叉驗(yàn)證的方法評估輕度認(rèn)知功能障礙(MCI)到阿爾茲海默癥(AD)的預(yù)測,只有4種方法的實(shí)驗(yàn)結(jié)果比隨機(jī)分類的結(jié)果好,因此,提出新的方法提高M(jìn)CIAD的預(yù)測是十分必要的。在圖像分類中,并不是所有的特征都與識別分類有關(guān),其中有一些是無關(guān)特征,將這些特征用于分類會(huì)出現(xiàn)過擬合現(xiàn)象。由于稀疏表示中表示系數(shù)具有稀疏性,將本文提出的圖正則化字典對學(xué)習(xí)算法用于輕度認(rèn)知功能障礙預(yù)測。

      1 相關(guān)工作

      1.1 字典學(xué)習(xí)

      設(shè) X =[X1···Xk···XK]∈ Rp×n是一個(gè) K 類 p 維的訓(xùn)練樣本,第 k 類樣本 Xk=[x1···xi···xnk],Xk∈ Rp×nk,k=1,2,···,K 是第 k類訓(xùn)練 nk樣本,n=n1+n2+···+nk+···+nK。字典學(xué)習(xí)模型的分類任務(wù)是通過利用訓(xùn)練數(shù)據(jù)的類標(biāo)簽信息學(xué)習(xí)一個(gè)有效的數(shù)據(jù)表示模型去進(jìn)行分類。在使用字典學(xué)習(xí)算法的圖像分類研究中,如何設(shè)計(jì)對特征提取有效的字典和編碼系數(shù)是決定算法性能的關(guān)鍵因素[1]。對于字典學(xué)習(xí)算法設(shè)計(jì)考慮的有三方面:1)稀疏表示殘差(重構(gòu)誤差)小,使樣本在稀疏表示時(shí)盡可能的接近原始樣本;2)對表示系數(shù)約束,使表示系數(shù)稀疏;3)考慮能夠更好提取更多的判別信息的判別項(xiàng)。用于圖像分類的判別字典學(xué)習(xí)模型[6-7,12-13]可通常以表示為:

      式中: λ 、η 是常量(平衡因子);Y 是樣本 X 的標(biāo)簽向量;D 是學(xué)習(xí)的綜合字典;A 是 X 在綜合字典 D上的編碼系數(shù)矩陣。在訓(xùn)練模型時(shí),數(shù)據(jù)保真項(xiàng)||X-DA|是為了保證字典 D 的表示能力,使訓(xùn)練數(shù)據(jù)的重構(gòu)誤差最小,重構(gòu)出來的圖像盡可能的接近原始樣本。正則項(xiàng)用于約束編碼系數(shù)的稀疏性,其通常應(yīng)用范數(shù)表示為:

      式中: || ·||p是編碼系數(shù) A 正則項(xiàng)的常用形式(p <2),使編碼系數(shù) A 在重建誤差滿足要求的情況下盡可能地稀疏。 f (D,A,Y) 是字典學(xué)習(xí)用于分類的判別函數(shù)項(xiàng),保證 D 和 A 的判別能力。

      1.2 字典對學(xué)習(xí)

      在1.1中描述的判別式字典學(xué)習(xí)模型是學(xué)習(xí)一個(gè)共享字典,對系數(shù)的約束都是使用 l0或者是l1范數(shù)對編碼系數(shù)進(jìn)行系數(shù)正則化約束,使訓(xùn)練模型在訓(xùn)練階段和測試階段效率降低。Gu等[10]為了提高模型在訓(xùn)練階段和測試階段的效率和整體的識別能力,提出了聯(lián)合學(xué)習(xí)一個(gè)綜合字典和分析字典的字典對學(xué)習(xí)(DPL),不使用 l0或者是l1范數(shù)對編碼系數(shù)進(jìn)行稀疏正則化,而是找到一個(gè)分析字典 P,使訓(xùn)練樣本X 在分析字典 P上線性投影得出編碼系數(shù) A,即 A = PX 保持稀疏性,重建誤差與判別約束保證下使訓(xùn)練樣本 X 的稀疏表示變的更加有效且解決了out-of-sample問題。字典對模型描述表示如下:

      式中: f (D,P,X,Y) 表示判別函數(shù)。D 和 P 是一個(gè)字典對:分析字典 P 用于編碼 X,綜合字典 D 用于重構(gòu) X。學(xué)習(xí)一個(gè)結(jié)構(gòu)綜合字典D=[D1···Dk···DK] 和 結(jié)構(gòu)分析字典 P =[P1···Pk···PK],其中 { Dk,Pk} 是第 k 類的子字典對。對于分析字典P 使其滿足第 i (i ≠k)類樣本在第 k 類的子字典Pk上的投影系數(shù)為空,即 PkXi≈ 0,?k≠ i,也就是編碼系數(shù)矩陣 PX 接近塊正交。對于合成字典D,使其子字典 Dk與投影編碼矩陣 PkXk能夠很好的重構(gòu)樣本 Xk,要求字典對有最小的重構(gòu)誤差:

      因此,DPL模型的目標(biāo)函數(shù)可以寫為:

      式中: Xk是 Xk在整個(gè)訓(xùn)練集中的補(bǔ)集;λ 是一個(gè)標(biāo)準(zhǔn)常量; di是合成字典的第 i 個(gè)原子。

      2 圖正則化字典對學(xué)習(xí)

      字典對學(xué)習(xí)只考慮圖像的重構(gòu)誤差和不同類的分析字典和樣本的投影系數(shù)盡可能的小,沒有考慮原始樣本的近鄰幾何結(jié)構(gòu),引入圖正則化,使低維表示能夠保留原始樣本的近鄰結(jié)構(gòu)。

      2.1 圖正則化字典對學(xué)習(xí)

      在流形學(xué)習(xí)中,假設(shè)兩個(gè)高維空間的相鄰的兩點(diǎn),在其對應(yīng)的低維空間仍保持其在高維空間的幾何近鄰?fù)負(fù)潢P(guān)系。為了使樣本之間可區(qū)分,并同時(shí)保持原始圖像的幾何近鄰結(jié)構(gòu),且使同類樣本在分析字典 P 上的投影系數(shù)之間距離小,不同類之間的距離大。對編碼系數(shù)的圖正則項(xiàng)約束表示為:

      式中:n 是所有樣本總數(shù);u 和 v 是第 u (v) 訓(xùn)練樣本; P xu和 P xv是訓(xùn)練樣本 xu和 xv在分析字典 P的投影,即分析編碼系數(shù)。

      在大多數(shù)圖正則項(xiàng),都是對數(shù)據(jù)集構(gòu)建近鄰圖[9],用圖的邊的權(quán)值表示數(shù)據(jù)之間的關(guān)聯(lián)度。但是本文利用樣本總數(shù)去平衡類內(nèi)和類間的距離,已經(jīng)證明能夠提高在字典上的編碼系數(shù)的判別能力[12],因此,本文中相似度矩陣 S 是依據(jù)xu和 xv的標(biāo)簽保證相應(yīng)系數(shù)之間的相似性[12]。用訓(xùn)練集構(gòu)建近鄰圖,用標(biāo)簽信息判讀樣本是否近鄰。如果 xu和 xv標(biāo)簽相同,則為近鄰,相似度為Suv=1/nl(xu); 如果 xu和 xv標(biāo)簽不同,則不近鄰,相似度為 Suv=-1/(n-nl(xu))。 相似度矩陣 S 的第 u 行v列的元素為:

      式 中 : l (xu) 和 l ( xv) 表 示 的 是 樣 本 xu和 xv的 類 標(biāo)簽; nl(xu)是訓(xùn)練樣本中標(biāo)簽為 l ( xu) 的樣本總數(shù)。矩陣 L =C∑-S , 其中 C =diag{c1,c2,···,cn} 是對角矩陣,且 cv=v=1Suv。

      在DPL算法的基礎(chǔ)上,構(gòu)建近鄰圖保持原始圖像間的近鄰關(guān)系,由此提出了圖正則化字典對學(xué)習(xí)(GDPL)算法。GDPL算法的目標(biāo)函數(shù)可寫為:

      式中: λ 和 β 是平衡因子,在公式(9)中的第1項(xiàng)是重構(gòu)誤差項(xiàng),重構(gòu)誤差項(xiàng)盡可能的小,使重構(gòu)出來的圖像與原圖像盡可能的接近。 Xˉk是 Xk在整個(gè)訓(xùn)練樣本上的補(bǔ)集,第2項(xiàng)是第 K 類以外的訓(xùn)練樣本,在第 K 類的分析字典上的編碼系數(shù)盡可能小,使編碼系數(shù)盡可能的稀疏。第3項(xiàng)是圖正則項(xiàng),使圖像在字典上的編碼系數(shù)仍舊保持原始圖像的近鄰關(guān)系。

      引入變量編碼系數(shù) A, 使 A =PX ,目標(biāo)函數(shù)可以寫為下面式子:

      式 中 : t r(·) 表 示 矩 陣 的 跡 。 矩 陣 L =C-S,C=diag{c1,c2,···,cn}該對角矩陣的對角元素是 S 的行(列)的元素之和。

      2.2 圖正則化字典對學(xué)習(xí)

      在流形學(xué)習(xí)中,假設(shè)兩個(gè)高維空間的相鄰的兩隨機(jī)初始化分析字典 P 和綜合字典 D,之后,迭代更新編碼系數(shù) A 和 { P ,D}。

      1) 固定綜合字典 Dk和分析字典 Pk,更新編碼系數(shù) Ak, 由于含有 Ak的式子前面有相同的系數(shù) α,在計(jì)算的過程中可以消去,所以可以利用式(10)解出 Ak:

      2) 固定編碼系數(shù) Ak, 更新綜合字典 Dk和分析字典 Pk。

      對 Pk封閉求解,即

      對 Pk求導(dǎo),得

      式中: γ =10e-4,I 是單位矩陣,在公式加入(一個(gè)極小的常數(shù))是為了保證逆運(yùn)算有解。

      在公式(13)中用交替方向乘子算法(AMMD)[8]對 D 優(yōu)化求解。具體的求解過程如下所示:

      對 Dk求導(dǎo):

      對 Sk求導(dǎo):

      2.3 圖正則化字典對學(xué)習(xí)訓(xùn)練算法

      由于算法中的圖正則項(xiàng),需要先用訓(xùn)練樣本構(gòu)建近鄰圖,計(jì)算出相似矩陣 S 和拉普拉斯矩陣L。利用目標(biāo)函數(shù)優(yōu)化過程進(jìn)行迭代更新,學(xué)習(xí)字典對 { P ,D}。圖正則化字典對學(xué)習(xí)算法的訓(xùn)練過程在算法1中詳細(xì)描述。

      算法1 GDPL訓(xùn)練算法

      輸入訓(xùn)練樣本 X =[X1X2···XK],訓(xùn)練樣本標(biāo)簽信息 Y =[Y1Y2···Yk], 參數(shù) α ,τ,λ,β,子字典原子數(shù) m。最大迭代次數(shù)max。

      1) 利用樣本標(biāo)簽信息構(gòu)建近鄰圖。根據(jù)樣本標(biāo)簽信息判斷樣本是否為近鄰點(diǎn)。若 xu和 xv標(biāo)簽相同,則為近鄰點(diǎn),相似度 Suv=1/nl(xu); 若 xu和xv標(biāo)簽不相同,則不是近鄰點(diǎn),相似度 Suv=-1/(n∑-nl(xu))。對 角 矩 陣 C =diag{c1,c2,···,cn}, 其 中 cv=v=1Suv,拉普拉斯矩陣 L =C-S。

      2) 初始化:隨機(jī)生成綜合字典 D0和分析字典 P0, 迭代次數(shù) t = 0。

      3)Fori=1:K

      While 未收斂(具體的在收斂性分析中)執(zhí)行下面步驟:

      1) 固定字典 Dk和 Pk, 由目標(biāo)函數(shù)中含有Ak的式子求解得出式(10),根據(jù)式(10),更新編碼系數(shù) Ak;

      2) 固定編碼系數(shù) Ak, 由式(11)中 Dk使用ADMM算法得出式(14)更新字典 Dk;在ADMM算法中 Dk、 Sk、 Tk根據(jù)式(14)、(15)、(13)中最后一個(gè)式子更新直到達(dá)到ADMM算法的收斂條件停止。

      3) 固定編碼系數(shù) Ak, 由式(11)中 Pk解出式(12),根據(jù)式(12)更新字典 Pk;

      End While

      End For

      輸出綜合字典 D,分析字典 P。

      2.4 分類方法

      在圖像分類中,并不是所有的特征都與識別分類有關(guān),其中有一些是無關(guān)特征,將這些特征用于分類會(huì)出現(xiàn)過擬合現(xiàn)象。另一方面,稀疏表示是在超完備字典中用盡可能少的原子去表示原來的圖像信號,其中的表示系數(shù)具有稀疏性。用表示系數(shù)作為特征去分類,可以減少無關(guān)特征的影響,提高模型的判別能力。用ADNI1數(shù)據(jù)集進(jìn)行驗(yàn)證,具體的實(shí)驗(yàn)結(jié)果在第4部分中,使用編碼系數(shù)用分類器分類效果比直接使用分類器[14]的效果好。

      在分類模型中,輸入訓(xùn)練樣本 X 使用算法1訓(xùn)練出來的綜合字典 D 和分析字典 P,由 A,計(jì)算出訓(xùn)練集在分析字典上的投影系數(shù)即稀疏表示中的編碼系數(shù) Atrain=PX , 由測試樣本 Xtest和分析字典 P,可以計(jì)算出測試集的編碼系數(shù) Atest=PXtest。將編碼系數(shù)作為特征,用分類器對測試樣本進(jìn)行分類。

      3 算法分析

      本節(jié)主要對提出的圖正則化字典對算法(GDPL)進(jìn)行時(shí)間復(fù)雜度分析和收斂性分析,該算法通過聯(lián)合學(xué)習(xí)一個(gè)綜合字典和分析字典,將樣本在分析字典上的投影作為表示系數(shù),減小了算法的時(shí)間復(fù)雜度。

      3.1 時(shí)間復(fù)雜度分析

      在GDPL算法中主要是計(jì)算訓(xùn)練階段的時(shí)間復(fù)雜度。在訓(xùn)練階段 Ak和 { Pk,Dk} 交替更新,每次更新過程相同,在此以一次更新為例。固定{Pk,Dk} 由 式(10)更新 Ak, Ak更新的時(shí)間復(fù)雜度是一個(gè)逆矩陣和一個(gè)矩陣相乘的時(shí)間復(fù)雜度即m×m 的矩陣, {Dk+τI} 的 時(shí)間復(fù)雜度為 O (m3),在 m ×nk的矩陣 { τ PkXk+Xk} 中 , PkXk的時(shí)間復(fù)雜度為 O (mpnk),Xk的時(shí)間復(fù)雜度也是 O (mpnk),所以矩陣 { τ PkXk+Xk} 的 時(shí)間復(fù)雜度為 O (mpnk)。矩陣 (Dk+τI)-1和 ( τ PkXk+Xk) 相乘的時(shí)間復(fù)雜度為 O (m2nk), 整個(gè)更新 Ak的時(shí)間復(fù)雜度為O(m3+mpnk+m2nk)。 固定 Ak, 更新 { Pk,Dk}。 Pk由式(12)進(jìn)行更新,在式(14)中 p ×p 的矩陣(τXk+λ3+γI+βXLXT)的 時(shí) 間 復(fù) 雜 度 為O(p2nk+p2(n-nk)+pn2+p2n),但是在迭代過程中該矩陣值不變,在初始化階段提前計(jì)算出來,在迭代過程中不需要重復(fù)計(jì)算,因此不影響更新 Pk的時(shí)間復(fù)雜度。只需計(jì)算(τXk+λ3+γI+βXLXT)逆矩陣的時(shí)間復(fù)雜度為 O (p3)。 Ak的時(shí)間復(fù)雜度為 O (mnp),兩矩陣相乘的時(shí)間復(fù)雜度為O(mp2), 更新 Pk的時(shí)間復(fù)雜度為 O (mnkp+p3+mp2)。使用ADMM更新 Dk,將ADMM算法中迭代更新次數(shù)記為H,ADDM算法中,主要計(jì)算在式(13)中 D 更新過程的時(shí)間復(fù)雜度。 Dk根據(jù)式(14)更新的,式(14)中 Xk、 Ak、 ( Ak+ρI) 的逆矩陣、 Xk(Akk+ρI)-1的時(shí)間復(fù)雜度分別為O(pnkm)、 O (m2nk)、 O (m3)、 O (pm2), 更新 Dk整個(gè)過程的時(shí)間復(fù)雜度為 O (H(pmnk+m2nk+m3+pm2))。

      3.2 收斂性分析

      在目標(biāo)函數(shù)式(1)中對于 { ( D,P),(A)} 的迭代更新是一個(gè)雙凸問題。在優(yōu)化求解的過程中,固定A對 D 和 P 求解是一個(gè)凸問題;固定 D和 P對 A求解也是一個(gè)凸問題,因此目標(biāo)函數(shù)是一個(gè)雙凸問題。根據(jù)文獻(xiàn)[10]的補(bǔ)充材料,收斂時(shí)目標(biāo)函數(shù)的能量值達(dá)到一個(gè)局部最小值。為了避免在更新過程中達(dá)到收斂條件,不同類之間單個(gè)樣本的能量不在同一個(gè)數(shù)量級上,所以,本文的收斂條件是單個(gè)樣本的能量到達(dá)某一局部最小。目標(biāo)函數(shù)中各項(xiàng)的曲線如圖1所示。圖1只是以GDPL算法過程中使用其中一類迭代過程中的目標(biāo)函數(shù)值畫出曲線為例。算法1中while后面的收斂條件為前后兩次迭代的整個(gè)目標(biāo)函數(shù)值之差小于0,單個(gè)樣本的重構(gòu)誤差的絕對值小于1,保證目標(biāo)函數(shù)值在每次迭代過程中逐漸減小,最大迭代次數(shù)為50。

      圖1 目標(biāo)函數(shù)值隨迭代次數(shù)變化Fig.1 The value of the objective function varies with the number of iterations

      圖1 中單個(gè)樣本的整個(gè)目標(biāo)函數(shù)值在開始到40次的變化趨勢是平行趨于0,之后變成一個(gè)比較大的負(fù)值,由于相似度矩陣不是半正定矩陣,由此使圖正則項(xiàng)的值變成負(fù)值,并引起其他項(xiàng)的變化。并且由于圖像的損失函數(shù)一般都不會(huì)小于0,所以,從圖1可以看出算法在2~40次之間是局部收斂的。所以,有的實(shí)驗(yàn)在第2次迭代就達(dá)到最優(yōu)值。

      4 實(shí)驗(yàn)結(jié)果與分析

      為了驗(yàn)證圖正則化字典對學(xué)習(xí)算法在圖像分類中的性能,本文在ADNI1數(shù)據(jù)集上進(jìn)行驗(yàn)證。ADNI由國際老年研究所、生物醫(yī)學(xué)成像和生物工程研究所、美國食品和藥物管理局、民營醫(yī)藥企業(yè)和非營利組織在2003年啟動(dòng),資金為60萬美元。ADNI的主要目標(biāo)是測試是否能通過組合MRI、PET、其他生物標(biāo)志物,以及臨床和神經(jīng)心理學(xué)評估來測定MCI和早期AD的進(jìn)展。

      在ADNI1[14]中,根據(jù)MCI患者在36個(gè)月之后的狀態(tài),將36個(gè)月之后仍表現(xiàn)出MCI的狀態(tài),則記為SMCI;36個(gè)月后表現(xiàn)為AD的病況,記為PMCI;沒有36個(gè)月之后的信息的患者,記為uMCI。實(shí)驗(yàn)中只利用表1中顯示的有標(biāo)簽的164個(gè)PMCI患者信息和100個(gè)SMCI患者信息,對MCI進(jìn)展進(jìn)行識別,提前預(yù)測AD。

      表1 PMCI和SMCI相關(guān)信息Table1 PMCI and SMCI related information

      所有實(shí)驗(yàn)是使用中全局生物標(biāo)志[14]和表1中顯示的 Age、MMSE、CDR-SB、RAVLT、FAQ、ADAS-cog信息的結(jié)合生物標(biāo)志作為特征表示樣本,使用算法1中學(xué)習(xí)的字典對 { D ,P},計(jì)算出樣本的編碼系數(shù)作為特征。在實(shí)驗(yàn)中選擇較常用的分類器 SVM[11,14-17]、LDA[17]、KNN 作為比較方法。為了避免實(shí)驗(yàn)結(jié)果的隨機(jī)性,運(yùn)行100次10倍交叉驗(yàn)證取最終的平均準(zhǔn)確率(ACC)和平均ROC曲線下面的面積(AUC),對于分類器的性能進(jìn)行評價(jià)。

      為了驗(yàn)證提出的基于圖正則化的字典對學(xué)習(xí)方法的實(shí)驗(yàn)效果比其他的實(shí)驗(yàn)效果好,直接使用結(jié)合生物標(biāo)志用SVM、LDA、KNN分類器分類,使用DPL方法訓(xùn)練出來的字典對上的稀疏系數(shù)作為特征用分類器(SVM、LDA、KNN)做出的實(shí)驗(yàn)效果,和使用GDPL方法訓(xùn)練出來的字典對上的稀疏系數(shù)作為特征用SVM、LDA、KNN分類的實(shí)驗(yàn)結(jié)果。最終的實(shí)驗(yàn)結(jié)果是取100次10倍交叉驗(yàn)證結(jié)果的平均值,對于具體實(shí)驗(yàn)數(shù)據(jù)的精確度取小數(shù)點(diǎn)后3位。

      在使用字典對算法訓(xùn)練字典的過程中,算法中參數(shù)設(shè)置是選擇一個(gè)參數(shù)變化,固定其他參數(shù),進(jìn)行遍歷。選取3次十倍交叉驗(yàn)證平均準(zhǔn)確率最好。經(jīng)過遍歷參數(shù),算法中的參數(shù)設(shè)置如表2、3所示。

      表2 使用DPL稀疏系數(shù)作為特征的參數(shù)設(shè)置Table2 Parameter setting using DPL algorithm

      表3 使用GDPL稀疏系數(shù)作為特征的參數(shù)設(shè)置Table3 Parameter setting of the GDPL algorithm

      1) 為了驗(yàn)證在基于圖正則化的字典對(GDPL)算法學(xué)習(xí)的字典對上的系數(shù)作為特征效果比直接用結(jié)合生物標(biāo)志作為特征的實(shí)驗(yàn)效果好。本文使用準(zhǔn)確率(ACC)和ROC曲線下的面積(AUC)作為評價(jià)標(biāo)準(zhǔn)。

      從圖2可以看出直接用結(jié)合生物標(biāo)志作為特征的準(zhǔn)確率與使用字典對學(xué)習(xí)方法的準(zhǔn)確率相差較大,使用SVM和GDPL+SVM的實(shí)驗(yàn)結(jié)果相差了2個(gè)百分點(diǎn),K近鄰(KNN)和GDPL+KNN相差了6個(gè)百分點(diǎn)。用GDPL方法的準(zhǔn)確率比DPL方法的準(zhǔn)確率高。從圖2整體上看使用GDPL方法的實(shí)驗(yàn)效果比DPL方法和直接使用綜合特征的效果好。圖3從算法AUC性能評價(jià),從中可以看出使用GDPL的稀疏系數(shù)作為特征的實(shí)驗(yàn)中,除了SVM外,其他的方法都比使用DPL的效果好,其中KNN的AUC最高到達(dá)92.1%。從圖2、3中整體的結(jié)果可以看出GDPL方法的實(shí)驗(yàn)結(jié)果比DPL的實(shí)驗(yàn)結(jié)果好。

      圖2 不同方法上的準(zhǔn)確率 (ACC)Fig.2 The accuracy of different methods

      圖3 不同方法上的ROC曲線下的面積(AUC)Fig.3 Area under ROC curve in different methods

      2) 將結(jié)合生物標(biāo)志直接作為特征用SVM、LDA、KNN分類,使用DPL方法的稀疏系數(shù)作為特征的分類方法記為DPL+SVM、DPL+LDA、DPL+KNN,和使用GDPL方法的稀疏系數(shù)作為特征的分類方法記為GDPL+SVM、GDPL+LDA、GDPL+KNN,所用實(shí)驗(yàn)結(jié)果都是記錄使用100次十倍交叉驗(yàn)證的結(jié)果(平均值)畫出的盒形圖。使用準(zhǔn)確率(ACC)、ROC曲線下面的面積(AUC)對于分類器的性能進(jìn)行評估,具體實(shí)驗(yàn)結(jié)果在圖4、5中顯示。

      從圖4中整體上可以看出使用GDPL算法的稀疏系數(shù)作為特征的平均準(zhǔn)確率比DPL算法的稍微好一點(diǎn),比直接使用結(jié)合生物標(biāo)志作為特征的平均準(zhǔn)確率高,GDPL+KNN算法的平均準(zhǔn)確率最高達(dá)到了83.7%。圖5顯示ROC曲線下的面積(AUC)最好的是GDPL+KNN算法,AUC達(dá)到92.1%。在圖4、5,100次實(shí)驗(yàn)結(jié)果中GDPL+KNN算法結(jié)果相對集中穩(wěn)定。整體上看使用GDPL方法訓(xùn)練出來的字典對上的稀疏系數(shù)作為特征的實(shí)驗(yàn)結(jié)果比直接使用結(jié)合生物標(biāo)志特征的結(jié)果好,GDPL+KNN實(shí)驗(yàn)結(jié)果最好,并且結(jié)果比較集中穩(wěn)定,每次實(shí)驗(yàn)的結(jié)果的變化不大。

      圖4 使用100次十倍交叉驗(yàn)證的ACC畫出的箱型圖Fig.4 Box plot for the ACC of 100 times 10-fold cross-validation

      圖5 使用100次10倍交叉驗(yàn)證的AUC畫出的箱型圖Fig.5 Box plot for the AUC of 100 times 10-fold cross-validation

      5 結(jié)束語

      本文實(shí)驗(yàn)結(jié)果表明在字典對學(xué)習(xí)算法中加入圖正則項(xiàng),可以提高字典對模型的識別能力,能夠更好地對圖像進(jìn)行分類。另一方面,使用在字典對上的稀疏系數(shù)作為特征對輕度認(rèn)知功能障礙預(yù)測可以取得更好的效果,并且在GDPL算法上的稀疏系數(shù)作為特征的實(shí)驗(yàn)結(jié)果比DPL上的實(shí)驗(yàn)結(jié)果好。隨著科技的發(fā)展,圖像資源越來越豐富,用戶想在大量的圖像中找到需要的圖像信息比較困難。在現(xiàn)實(shí)生活中帶標(biāo)簽的數(shù)據(jù)相對于不帶標(biāo)簽的數(shù)據(jù)少很多,獲得帶標(biāo)簽的圖像比較困難。并且訓(xùn)練樣本較少不能獲得足夠的特征去學(xué)習(xí)字典,下一步可以將無標(biāo)簽的樣本用于實(shí)驗(yàn)中,學(xué)習(xí)一個(gè)更完備的字典,提高模型的識別能力。可以進(jìn)行半監(jiān)督字典對學(xué)習(xí),提高模型的判別能力。

      猜你喜歡
      正則字典復(fù)雜度
      開心字典
      家教世界(2023年28期)2023-11-14 10:13:50
      開心字典
      家教世界(2023年25期)2023-10-09 02:11:56
      一種低復(fù)雜度的慣性/GNSS矢量深組合方法
      剩余有限Minimax可解群的4階正則自同構(gòu)
      類似于VNL環(huán)的環(huán)
      求圖上廣探樹的時(shí)間復(fù)雜度
      我是小字典
      正版字典
      讀者(2016年14期)2016-06-29 17:25:50
      某雷達(dá)導(dǎo)51 頭中心控制軟件圈復(fù)雜度分析與改進(jìn)
      出口技術(shù)復(fù)雜度研究回顧與評述
      博罗县| 广丰县| 香港 | 德令哈市| 吉木乃县| 富民县| 东乌珠穆沁旗| 郧西县| 峨山| 湟源县| 上饶市| 定州市| 郁南县| 子长县| 贵港市| 平果县| 娄烦县| 双鸭山市| 寿阳县| 红河县| 犍为县| 淮滨县| 柳河县| 兴安盟| 元阳县| 阿克陶县| 确山县| 浦城县| 融水| 南宫市| 湖州市| 平阴县| 翁牛特旗| 永嘉县| 盘锦市| 辽中县| 凤庆县| 福清市| 淮安市| 报价| 陕西省|