• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      粒子群和遺傳算法優(yōu)化支持向量機(jī)的破產(chǎn)預(yù)測

      2013-08-30 10:00:22楊鐘瑾
      計算機(jī)工程與應(yīng)用 2013年18期
      關(guān)鍵詞:遺傳算法準(zhǔn)確率向量

      楊鐘瑾

      YANG Zhongjin

      廣東財經(jīng)大學(xué) 信息學(xué)院,廣州 510320

      School of Information Science and Technology,Guangdong University of Finance and Economics,Guangzhou 510320,China

      1 引言

      破產(chǎn)預(yù)測能讓人類做出理性的決策,從而最小化風(fēng)險造成的損失。破產(chǎn)預(yù)測廣泛應(yīng)用于各行各業(yè),尤其在學(xué)術(shù)界和商界備受關(guān)注。但是,現(xiàn)實世界所面對的破產(chǎn)預(yù)測問題經(jīng)常是復(fù)雜多變和難于捉摸。由于統(tǒng)計模型方法固有的缺陷,因此難于勝任破產(chǎn)預(yù)測。與傳統(tǒng)的統(tǒng)計模型方法相比,雖然神經(jīng)網(wǎng)絡(luò)[1]對破產(chǎn)預(yù)測的效果有所改進(jìn),但是神經(jīng)網(wǎng)絡(luò)具有以下的缺點:(1)難以構(gòu)建合適的預(yù)測模型;(2)常常陷入局部極小值;(3)經(jīng)驗風(fēng)險最小化原則的運用不能確保良好的推廣能力;(4)不容易正確選定訓(xùn)練集的大小。

      支持向量機(jī)[2]是一種新型的破產(chǎn)預(yù)測智能技術(shù),不僅備受矚目,而且日益盛行。支持向量機(jī)以統(tǒng)計學(xué)習(xí)理論為基礎(chǔ),與神經(jīng)網(wǎng)絡(luò)明顯不同之處在于運用結(jié)構(gòu)風(fēng)險最小化原理,克服了神經(jīng)網(wǎng)絡(luò)容易陷入局部極小值的問題,提高了推廣能力。同時,在運用支持向量機(jī)構(gòu)建預(yù)測模型時,在正確選定了核函數(shù)[3]的基礎(chǔ)上,只需選擇最優(yōu)參數(shù)。因此,相對神經(jīng)網(wǎng)絡(luò)而言,支持向量機(jī)更簡易快捷。目前,啟發(fā)式優(yōu)化技術(shù)[4-5]得到眾多研究者的追捧,其中粒子群優(yōu)化[6]和遺傳算法[7]等最為流行,它們都具有并行處理的特征。與其他的優(yōu)化技術(shù)相比,粒子群優(yōu)化有許多優(yōu)點:減少內(nèi)存、快速運算、容易與其他優(yōu)化技術(shù)集成和易于實現(xiàn)。同樣,遺傳算法也具有以下優(yōu)點:有效地掃描和探測復(fù)雜空間、避免陷入局部極小值、出色地平衡效果與效率之間的關(guān)系和不乏靈活性。

      Shin等人運用支持向量機(jī)預(yù)測公司破產(chǎn),所得預(yù)測準(zhǔn)確率超過神經(jīng)網(wǎng)絡(luò)與其他統(tǒng)計預(yù)測方法[8]。Min和Lee采用柵格搜索技術(shù)尋找支持向量機(jī)最優(yōu)的核函數(shù)參數(shù)值,并在此基礎(chǔ)上構(gòu)建破產(chǎn)預(yù)測模型,實驗結(jié)果顯示支持向量機(jī)的預(yù)測準(zhǔn)確率高于神經(jīng)網(wǎng)絡(luò)與其他統(tǒng)計預(yù)測方法[9]。Min等人集成遺傳算法與支持向量機(jī)來預(yù)測破產(chǎn),采用遺傳算法優(yōu)化特征子集和支持向量機(jī)的參數(shù),預(yù)測結(jié)果表明這種方法優(yōu)于其他沒有優(yōu)化方法[10]。楊和蒙采用支持向量機(jī)在商業(yè)銀行構(gòu)建破產(chǎn)預(yù)測模型,并將結(jié)果與BP神經(jīng)網(wǎng)絡(luò)相比,研究結(jié)果表明支持向量機(jī)優(yōu)于BP神經(jīng)網(wǎng)絡(luò)[11]。Wu等人采用真值遺傳算法優(yōu)化支持向量機(jī)的參數(shù),同時構(gòu)建優(yōu)化的破產(chǎn)預(yù)測模型,實驗結(jié)果顯示這種模型的預(yù)測準(zhǔn)確率強于神經(jīng)網(wǎng)絡(luò)和常規(guī)支持向量機(jī)[12]。魯和徐建立基于支持向量機(jī)的企業(yè)破產(chǎn)分析預(yù)測系統(tǒng)模型,實證表明該模型具有良好的預(yù)測能力和較強的實用性[13]。Gao等人揉合K-最近鄰與支持向量機(jī)對公司破產(chǎn)進(jìn)行預(yù)測,這種預(yù)測方法比傳統(tǒng)支持向量機(jī)有更好的分類性能[14]。Zhong等人運用支持向量機(jī)構(gòu)建破產(chǎn)預(yù)測模型,實驗結(jié)果顯示該種模型性能優(yōu)于傳統(tǒng)統(tǒng)計模型[15]。Yoon和Kwon運用柵格搜索方法尋找支持向量機(jī)的最優(yōu)參數(shù),并建立模型預(yù)測小企業(yè)的破產(chǎn),這種引薦模型的預(yù)測性能優(yōu)于其他模型[16]。Chaudhuri和De運用模糊支持向量機(jī)預(yù)測上市大公司的破產(chǎn),與其他方法相比,這種方法改進(jìn)了預(yù)測準(zhǔn)確率[17]。Moradi等人運用支持向量機(jī)預(yù)測上市公司的破產(chǎn),結(jié)果顯示該方法的平均預(yù)測準(zhǔn)確率高于辨別分析方法[18]。

      預(yù)測準(zhǔn)確率取決于支持向量機(jī)的推廣能力,支持向量機(jī)的推廣能力又深受相關(guān)參數(shù)選擇所左右。在很多情況下,為某一個問題而選擇最優(yōu)參數(shù)是藝術(shù)多于科學(xué),而且這其中經(jīng)常涉及大量的嘗試和失敗。因此,預(yù)測模型的優(yōu)化經(jīng)常導(dǎo)致昂貴的過程。本研究將運用粒子群算法和遺傳算法優(yōu)化支持向量機(jī)的參數(shù),構(gòu)建優(yōu)化的支持向量機(jī)預(yù)測模型,采用來自UCI機(jī)器學(xué)習(xí)數(shù)據(jù)庫[19]的樣本數(shù)據(jù)并進(jìn)行歸一化數(shù)據(jù)預(yù)處理,將這些引薦方法與隨意選擇相關(guān)參數(shù)方法進(jìn)行比較研究,同時與輸入未經(jīng)預(yù)處理的樣本原值數(shù)據(jù)方法比較,由此提出有效優(yōu)化支持向量機(jī)的方法,進(jìn)而加快支持向量機(jī)的學(xué)習(xí)速度和提高支持向量機(jī)的推廣性能,從此提高破產(chǎn)預(yù)測準(zhǔn)確率。

      2 支持向量機(jī)

      支持向量機(jī)和核函數(shù)方法日愈流行,二者珠聯(lián)璧合成為核函數(shù)支持向量機(jī)[20],同時成功地在預(yù)測領(lǐng)域應(yīng)用。在模式分類與回歸分析方面,支持向量機(jī)基于統(tǒng)計學(xué)習(xí)理論和運用VC維思想。支持向量機(jī)的基本思想是構(gòu)造一個超平面作為決策面,由此最大化兩類樣本的間隔。核函數(shù)具有平滑和相似性度量的作用,支持向量機(jī)主要由核函數(shù)確定。在特征空間中,選擇不同形式的核函數(shù)就會構(gòu)成不同的支持向量機(jī),因而也構(gòu)造出不同的超平面。

      在預(yù)測領(lǐng)域,徑向基核函數(shù)是一種常用的核函數(shù),該核函數(shù)的表達(dá)式如下:

      其中,γ是核參數(shù)。

      在支持向量機(jī)的學(xué)習(xí)過程中,破產(chǎn)公司和非破產(chǎn)公司的樣本數(shù)據(jù)連續(xù)地被輸入,這些輸入數(shù)據(jù)通過非線性核函數(shù)映射到特征空間。在高維特征空間中尋找破產(chǎn)公司和非破產(chǎn)公司樣本之間的最大間隔,由此構(gòu)造超平面的一個最優(yōu)分界來增強分類性能。因此,可以運用支持向量機(jī)預(yù)測破產(chǎn)。

      圖1 運用支持向量機(jī)和歸一化輸入數(shù)據(jù)預(yù)測破產(chǎn)模型

      運用支持向量機(jī)預(yù)測破產(chǎn)模型如圖1,預(yù)測模型從混合樣本數(shù)據(jù)集中讀取數(shù)據(jù),接著歸一化預(yù)處理這些數(shù)據(jù),隨后已預(yù)處理數(shù)據(jù)被送進(jìn)輸入空間并轉(zhuǎn)換為輸入向量。輸入向量經(jīng)由核函數(shù)映射到高維特征空間,在高維特征空間中,通過優(yōu)化獲得一個超平面來分離破產(chǎn)公司和非破產(chǎn)公司的樣本,從而實現(xiàn)破產(chǎn)預(yù)測功能。

      3 粒子群算法和遺傳算法

      3.1 粒子群算法

      粒子群算法是一種新穎且有效的優(yōu)化智能技術(shù),算法思想來自由個體組成的群體與周邊環(huán)境以及個體之間互動行為的啟示。

      在求解優(yōu)化問題時,個體不僅在搜索空間里有確定的位置,而且具有一定的運動速度,這些個體被稱為粒子。根據(jù)粒子本身具有最佳性能時所處位置與鄰近全局最優(yōu)粒子的位置,粒子動態(tài)地調(diào)整它的狀態(tài)。這個迭代過程直到尋獲最優(yōu)解或是超出了計算限值才終止。在搜索空間里,每個粒子都是一個潛在解,而粒子適應(yīng)度是評價這些解優(yōu)劣的標(biāo)準(zhǔn)。粒子適應(yīng)度計算公式如下:

      在此,f(t)為第t回合迭代時當(dāng)前粒子的適應(yīng)度,y(t)表示第t回合迭代時當(dāng)前粒子的實際輸出,d(t)代表第t回合迭代時當(dāng)前粒子的期望輸出。

      3.2 遺傳算法

      遺傳算法是一種具有隨機(jī)全局搜索性能的優(yōu)化智能技術(shù),它模擬自然生物進(jìn)化原理——適者生存,優(yōu)勝劣汰。遺傳算法根據(jù)這個進(jìn)化原理,將優(yōu)化問題的求解表示為個體在種群里優(yōu)勝劣汰的過程,通過對個體進(jìn)行選擇、交叉和變異等遺傳操作,實現(xiàn)種群中個體一代接一代地進(jìn)化,最終獲得問題的最優(yōu)解或滿意解。

      選擇操作確定了新個體基因的來源,在每一代中,選擇操作根據(jù)種群里個體適應(yīng)度的評價水平選出優(yōu)良個體。交叉操作是新個體產(chǎn)生的主要途徑,并且決定遺傳算法的全局搜索性能,交叉操作是將來自父母代的不同個體基因進(jìn)行交換和重組,由此產(chǎn)生下一代的新個體。變異操作增加了種群變化的途徑,決定局部搜索性能并促進(jìn)遺傳算法收斂于全局最優(yōu)。變異操作是依據(jù)存在于染色體中某個體基因的變異概率而改變這個基因的值,由此產(chǎn)生新的個體。

      4 粒子群算法和遺傳算法優(yōu)化支持向量機(jī)

      正則化參數(shù)C和核參數(shù)γ是支持向量機(jī)的重要參數(shù),這兩個參數(shù)對支持向量機(jī)的預(yù)測性能具有深遠(yuǎn)的影響。在本研究中,將分別運用粒子群算法和遺傳算法優(yōu)化正則化參數(shù)C和核參數(shù)γ,然后運用優(yōu)化參數(shù)的支持向量機(jī)預(yù)測破產(chǎn)。

      4.1 支持向量機(jī)參數(shù)

      參數(shù)選擇對支持向量機(jī)的推廣能力至關(guān)重要,因此錯誤選定參數(shù)將極大減弱支持向量機(jī)的推廣能力。優(yōu)化支持向量機(jī)模型是指為增強推廣能力而選定最優(yōu)參數(shù)的過程,決定支持向量機(jī)模型性能的參數(shù)主要是正則化參數(shù)C和核參數(shù)γ。正則化參數(shù)C協(xié)調(diào)最小學(xué)習(xí)誤差與最小模型復(fù)雜度之間的關(guān)系,如果參數(shù)C賦值過小,那么就會因為模型過于簡單而引起實踐風(fēng)險過高;如果參數(shù)C賦值過大,那么就會因為模型過于復(fù)雜而過度學(xué)習(xí)。核參數(shù)γ隱式定義了從輸入空間到高維特征空間的非線性映射,通常也將這個高水平參數(shù)稱為超參數(shù),如果參數(shù)γ取值過小,那么就會對上界域產(chǎn)生過大影響。雖然支持向量機(jī)目前發(fā)展得很好,但其目前尚缺乏結(jié)構(gòu)化方法來實現(xiàn)參數(shù)的最優(yōu)選擇[21]。在實際應(yīng)用中,這些最優(yōu)參數(shù)的選擇缺乏堅實的理論指導(dǎo),往往經(jīng)過多次實驗和錯誤后才能選定。在此,分別通過粒子群算法和遺傳算法優(yōu)化這些參數(shù)。

      4.2 粒子群算法優(yōu)化支持向量機(jī)過程

      粒子群算法依據(jù)以下公式調(diào)整每個粒子的速度和位置:

      其中,i=1,2,…,m ,d=1,2,…,D ;w 為慣性因子;c1,c2是取值為正的學(xué)習(xí)因子;r1,r2是取值范圍為[0,1]的隨機(jī)數(shù);vid(t+1)和vid(t)分別代表在第(t+1)回合和第t回合迭代時,第i個粒子在第d維度的速度;xid(t+1)和 xid(t)分別代表在第(t+1)回合和第t回合迭代時,第i個粒子在第d維度的位置;pibd(t)表示第t回合迭代時,第i個粒子在第d維度的最佳位置;pgbd(t)表示第t回合迭代時,整個粒子群在第d維度的最佳位置。

      運用粒子群算法優(yōu)化支持向量機(jī)參數(shù)過程的概要如圖2。

      4.3 遺傳算法優(yōu)化支持向量機(jī)過程

      圖3描繪了運用遺傳算法優(yōu)化支持向量機(jī)參數(shù)過程的概要。

      4.4 性能評價

      采用預(yù)測準(zhǔn)確率作為評價支持向量機(jī)預(yù)測模型性能的指標(biāo),同時運用7重交叉校驗方法計算和評價模型的預(yù)測準(zhǔn)確率,這種校驗方法確保樣本數(shù)據(jù)集中的每個樣本數(shù)據(jù)都做并且只做一次檢驗,因此最低程度地減少了因特別選擇訓(xùn)練子集和檢驗子集所帶來的結(jié)果偏差。在此,PCR表示預(yù)測準(zhǔn)確率,TQ是指檢驗樣本總數(shù),CQ代表被正確預(yù)測的檢驗樣本個數(shù)。預(yù)測準(zhǔn)確率的計算公式如下:

      5 結(jié)果和討論

      利用Matlab編寫程序和進(jìn)行仿真,相關(guān)方法在運行Windows XP的個人計算機(jī)(AMD Athlon 64 3200+2 GHz processor;4 GB RAM)上實施與測試。

      圖2 粒子群優(yōu)化支持向量機(jī)參數(shù)算法流程圖

      實驗仿真數(shù)據(jù)源自UCI機(jī)器學(xué)習(xí)數(shù)據(jù)庫的澳大利亞信用數(shù)據(jù)集,實驗仿真數(shù)據(jù)集由383個破產(chǎn)樣本數(shù)據(jù)與307個非破產(chǎn)樣本數(shù)據(jù)所構(gòu)成,這個混合數(shù)據(jù)集共包含690個樣本數(shù)據(jù)。在支持向量機(jī)的7重交叉校驗仿真實驗中,分別從混合數(shù)據(jù)集中選取370個破產(chǎn)樣本數(shù)據(jù)和295個非破產(chǎn)樣本數(shù)據(jù)作為測試樣本數(shù)據(jù),這665個樣本數(shù)據(jù)首先隨機(jī)地分成各自含有95個樣本數(shù)據(jù)的7個子集。每一重交叉校驗仿真實驗都選取7個子集中的一個子集作為檢驗集,剩下的6個子集共同構(gòu)成訓(xùn)練集。最后所得預(yù)測準(zhǔn)確率是7重交叉校驗預(yù)測準(zhǔn)確率的平均值。

      圖3 遺傳算法優(yōu)化支持向量機(jī)參數(shù)算法流程圖

      在此,粒子群算法和遺傳算法的相關(guān)參數(shù)值是根據(jù)預(yù)測對象與所獲得實驗結(jié)果而選擇設(shè)置。在運用粒子群算法優(yōu)化支持向量機(jī)參數(shù)過程中,粒子維度設(shè)置為2,目標(biāo)粒子適應(yīng)度設(shè)置為0.001,最大迭代回合設(shè)置為3,粒子群數(shù)目設(shè)置為15,學(xué)習(xí)因子c1與學(xué)習(xí)因子c2都設(shè)置為1.48,最小慣性因子與最大慣性因子分別設(shè)置為0.4和0.9。在運用遺傳算法優(yōu)化支持向量機(jī)參數(shù)過程中,通過Genetic Algorithm(GA)Toolbox[22]應(yīng)用軟件解決優(yōu)化問題。采用二進(jìn)制字符串編碼形式,遺傳算法的主要參數(shù)分別設(shè)置為:個體數(shù)目等于20,最大代數(shù)等于10,變量維數(shù)等于2,變量二進(jìn)制位數(shù)等于20,代溝等于0.9。采用隨機(jī)全體采樣選擇操作方法,同時采用單點交叉操作方法,并將交叉概率設(shè)置為0.7。

      在破產(chǎn)預(yù)測過程中,預(yù)測模型運用二進(jìn)制支持向量機(jī)并通過STPRtool[23]應(yīng)用軟件實現(xiàn),這些支持向量機(jī)由SVMlight[24]軟件包(5.00版本)[25]所構(gòu)建,SVMlight軟件包是處理復(fù)雜問題的強大優(yōu)化工具[26]。預(yù)測模型的支持向量機(jī)采用徑向基核函數(shù)。表1給出了每一個預(yù)測模型的模型名稱(MN)、輸入數(shù)據(jù)類型(IDT)、輸入向量個數(shù)(IVN)、正則化參數(shù)(C)、核參數(shù)(γ)和輸出向量個數(shù)(OVN),同時該表也分別列出了各個預(yù)測模型的預(yù)測準(zhǔn)確率(PCR)與平均每一回合模型優(yōu)化時間(TIME)。

      表1 性能比較

      從表1可以得到以下觀點:

      (1)采用經(jīng)歸一化預(yù)處理數(shù)據(jù)時,運用粒子群算法優(yōu)化支持向量機(jī)參數(shù)所獲得的預(yù)測模型PSOPDSVM的預(yù)測準(zhǔn)確率是86.616 5%,平均每一回合模型優(yōu)化時間為1 253.896 s;運用遺傳算法優(yōu)化支持向量機(jī)參數(shù)所獲得的預(yù)測模型GAOPDSVM的預(yù)測準(zhǔn)確率是86.315 8%,平均每一回合模型優(yōu)化時間為3 026.719 s;而隨意設(shè)置支持向量機(jī)參數(shù)所獲得的預(yù)測模型CSOPDSVM的預(yù)測準(zhǔn)確率僅是79.548 9%。

      (2)采用原值數(shù)據(jù)時,運用粒子群算法優(yōu)化支持向量機(jī)參數(shù)所獲得的預(yù)測模型PSOODSVM的預(yù)測準(zhǔn)確率是84.360 9%,平均每一回合模型優(yōu)化時間為7 991.406 3 s;運用遺傳算法優(yōu)化支持向量機(jī)參數(shù)所獲得的預(yù)測模型GAOODSVM的預(yù)測準(zhǔn)確率是74.887 2%,平均每一回合模型優(yōu)化時間為11 852.156 s;而隨意設(shè)置支持向量機(jī)參數(shù)所獲得的預(yù)測模型CSOODSVM的預(yù)測準(zhǔn)確率只是69.172 9%。

      (3)當(dāng)采用經(jīng)歸一化預(yù)處理數(shù)據(jù)時,模型PSOPDSVM的預(yù)測準(zhǔn)確率比模型GAOPDSVM和模型CSOPDSVM的預(yù)測準(zhǔn)確率分別高出0.300 7%和7.067 6%,模型GAOPDSVM比模型CSOPDSVM的預(yù)測準(zhǔn)確率高出6.766 9%。模型PSOPDSVM的平均每一回合模型優(yōu)化時間比模型GAOPDSVM的平均每一回合模型優(yōu)化時間約少1.4倍。

      (4)當(dāng)采用原值數(shù)據(jù)時,模型PSOODSVM的預(yù)測準(zhǔn)確率比模型GAOODSVM和模型CSOODSVM的預(yù)測準(zhǔn)確率分別高出9.473 7%和15.188%,模型GAOODSVM比模型CSOODSVM的預(yù)測準(zhǔn)確率高出5.714 3%。模型PSOODSVM的平均每一回合模型優(yōu)化時間比模型GAOODSVM的平均每一回合模型優(yōu)化時間約少0.5倍。

      (5)預(yù)測模型PSOPDSVM的預(yù)測準(zhǔn)確率比預(yù)測模型PSOODSVM的預(yù)測準(zhǔn)確率高2.255 6%,預(yù)測模型GAOPDSVM的預(yù)測準(zhǔn)確率比預(yù)測模型GAOODSVM的預(yù)測準(zhǔn)確率高11.428 6%,預(yù)測模型CSOPDSVM的預(yù)測準(zhǔn)確率比預(yù)測模型CSOODSVM的預(yù)測準(zhǔn)確率高10.376%。模型PSOODSVM的平均每一回合模型優(yōu)化時間比模型PSOPDSVM的平均每一回合模型優(yōu)化時間約多5.4倍,模型GAOODSVM的平均每一回合模型優(yōu)化時間比模型GAOPDSVM的平均每一回合模型優(yōu)化時間約多2.9倍。

      (6)在預(yù)測準(zhǔn)確率方面,運用粒子群算法優(yōu)化支持向量機(jī)參數(shù)所獲得的預(yù)測模型比運用遺傳算法優(yōu)化支持向量機(jī)參數(shù)與隨意設(shè)置支持向量機(jī)參數(shù)所獲得的預(yù)測模型高,運用遺傳算法優(yōu)化支持向量機(jī)參數(shù)所獲得的預(yù)測模型比隨意設(shè)置支持向量機(jī)參數(shù)所獲得的預(yù)測模型高,采用經(jīng)歸一化預(yù)處理數(shù)據(jù)比采用原值數(shù)據(jù)高。

      (7)在模型優(yōu)化時間方面,運用粒子群算法優(yōu)化支持向量機(jī)參數(shù)比運用遺傳算法優(yōu)化支持向量機(jī)參數(shù)少,采用經(jīng)歸一化預(yù)處理數(shù)據(jù)比采用原值數(shù)據(jù)少。

      6 結(jié)論和未來研究

      本文介紹了運用粒子群算法和遺傳算法優(yōu)化支持向量機(jī)參數(shù)的研究。此外,針對破產(chǎn)預(yù)測構(gòu)建了二進(jìn)制支持向量機(jī),采用源自UCI機(jī)器學(xué)習(xí)數(shù)據(jù)庫的破產(chǎn)和非破產(chǎn)混合樣本數(shù)據(jù)集,分別輸入未經(jīng)預(yù)處理的原值數(shù)據(jù)和經(jīng)歸一化預(yù)處理的數(shù)據(jù)進(jìn)行仿真實驗,運用7重交叉校驗方法計算和客觀地評價模型的預(yù)測準(zhǔn)確率。仿真實驗證明,運用粒子群算法和遺傳算法優(yōu)化支持向量機(jī)參數(shù)有效地加速學(xué)習(xí)和提高推廣性能,從而進(jìn)一步提高破產(chǎn)預(yù)測準(zhǔn)確率。同時,采用經(jīng)歸一化預(yù)處理數(shù)據(jù)可以進(jìn)一步提高破產(chǎn)預(yù)測準(zhǔn)確率。實驗結(jié)果比較分析表明,在支持向量機(jī)預(yù)測模型優(yōu)化方面,無論是預(yù)測準(zhǔn)確率或模型優(yōu)化時間,粒子群算法都強于遺傳算法。

      支持向量機(jī)由于不同核函數(shù)的構(gòu)造和選擇而各異,核函數(shù)的合理構(gòu)造與正確選擇是支持向量機(jī)執(zhí)行學(xué)習(xí)過程的重要一步,并且對支持向量機(jī)性能有至深的影響。為特定問題而構(gòu)造和選擇核函數(shù)是一個耗時與耗力的過程,因此,如何構(gòu)造與如何選擇最優(yōu)核函數(shù)是亟需有待進(jìn)一步研究的重要問題。

      [1]Haykin S.Neural networks:a comprehensive foundation[M].Upper Saddle River,NJ,USA:Prentice Hall,1998.

      [2]Vapnik V.The nature of statistical learning theory[M].New York:Springer-Verlag,1995.

      [3]Schoelkopf B,Smola A.Learning with kernels[M].Cambridge,Massachusetts:The MIT Press,2002.

      [4]Jiao Licheng,Li Yangyang,Gong Maoguo,et al.Quantum-inspired immune clonal algorithm for global optimization[J].IEEE Transactions on Systems,Man,and Cybernetics,Part B(Cybernetics),2008,38(5):1234-1253.

      [5]Karaboga D,Basturk B.On the performance of artificial bee colony algorithm[J].Applied Soft Computing,2008,8(1):687-697.

      [6]Kennedy J,Eberhart R C.Particle swarm optimization[C]//Proceedings of IEEE International Conference on Neural Networks.Piscataway:IEEE Press,1995:1942-1948.

      [7]Goldberg D E.Genetic algorithms in search,optimization and machine learning[M].New York:Addison-Wesley,1989.

      [8]Shin K,Lee T S,Kim H.An application of support vector machines in bankruptcy prediction model[J].Expert Systems with Applications,2005,28(1):127-135.

      [9]Min J H,Lee Y.Bankruptcy prediction using support vector machine with optimal choice of kernel function parameters[J].Expert Systems with Applications,2005,28(4):603-614.

      [10]Min S,Lee J,Han I.Hybrid genetic algorithms and support vector machines for bankruptcy prediction[J].Expert Systems with Applications,2006,31(3):652-660.

      [11]楊毓,蒙肖蓮.用支持向量機(jī)(SVM)構(gòu)建企業(yè)破產(chǎn)預(yù)測模型[J].金融研究,2006(10):65-75.

      [12]Wu C,Tzeng G,Goo Y,et al.A real-valued genetic algorithm to optimize the parameters of support vector machine for predicting bankruptcy[J].Expert Systems with Applications,2007,32(2):397-408.

      [13]魯海波,徐云.基于支持向量機(jī)的企業(yè)破產(chǎn)分析[J].數(shù)學(xué)的實踐與認(rèn)識,2007,37(12):13-18.

      [14]Gao Zhong,Cui Meng,Po Laiman.Enterprise bankruptcy prediction using noisy-tolerant Support Vector Machine[C]//2008 International Seminar on Future Information Technology and Management Engineering.Leicestershire:IEEE Press,2008:153-156.

      [15]Zhong Ping,Xi Bin,Cen Yong.Support Vector Machines modeling for prediction[J].International Journal of Systems and Control,2008,1:42-47.

      [16]Yoon J S,Kwon Y S.A practical approach to bankruptcy prediction for small businesses:substituting the unavailable financial data for credit card sales information[J].Expert Systems with Applications,2010,37(5):3624-3629.

      [17]Chaudhuri A,De K.Fuzzy Support Vector Machine for bankruptcy prediction[J].Applied Soft Computing,2011,11(2):2472-2486.

      [18]Moradi M,Sardasht M S,Ebrahimpou M.An application of Support Vector Machines in bankruptcy prediction evidence from Iran[J].World Applied Sciences Journal,2012,17(6):710-717.

      [19]Asuncion A,Newman D J.UCI machine learning repository[EB/OL].[2012-03-14].http://archive.ics.uci.edu/ml/datasets.html.

      [20]楊鐘瑾.核函數(shù)支持向量機(jī)[J].計算機(jī)工程與應(yīng)用,2008,44(33):1-6.

      [21]顧亞祥,丁世飛.支持向量機(jī)研究進(jìn)展[J].計算機(jī)科學(xué),2011,38(2):14-17.

      [22]Andrew C,Peter F,Hartmut P,et al.Genetic Algorithm toolbox user’s guide[R].Sheffield:University of Sheffield,1994.

      [23]Franc V,Hlava V.STPRtool[EB/OL].(2004-12-14).http://cmp.felk.cvut.cz/cmp/cmp software.html.

      [24]Joachims T.Making large-scale SVM learning practical[C]//Advances in Kernel Methods—Support Vector Learning.Cambridge,MA:MIT Press,1999:169-184.

      [25]Joachims T.SVMlight software[EB/OL].(2002-03-14).http://svmlight.joachims.org/.

      [26]Franc V,Hlava V.Statistical pattern recognition toolbox for Matlab user’s guide[EB/OL].(2004-06-24).ftp://cmp.felk.cvut.cz/pub/cmp/articles/.

      猜你喜歡
      遺傳算法準(zhǔn)確率向量
      向量的分解
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
      聚焦“向量與三角”創(chuàng)新題
      高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
      基于自適應(yīng)遺傳算法的CSAMT一維反演
      一種基于遺傳算法的聚類分析方法在DNA序列比較中的應(yīng)用
      基于遺傳算法和LS-SVM的財務(wù)危機(jī)預(yù)測
      向量垂直在解析幾何中的應(yīng)用
      玛纳斯县| 赫章县| 孝感市| 达尔| 商城县| 阿拉善右旗| 巴青县| 英德市| 竹山县| 临沭县| 永和县| 石景山区| 江华| 炎陵县| 德阳市| 建宁县| 饶平县| 郁南县| 鹤山市| 得荣县| 论坛| 衢州市| 宜川县| 武义县| 兴宁市| 临漳县| 高碑店市| 永泰县| 青岛市| 邵东县| 开平市| 松溪县| 高雄县| 桦川县| 多伦县| 望奎县| 区。| 汉中市| 东安县| 宽甸| 巫山县|