• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進型柯西變異灰狼優(yōu)化算法訓練的多層感知器*

    2021-06-25 10:06:22王櫟橋張達敏王依柔
    計算機工程與科學 2021年6期
    關鍵詞:感知器柯西灰狼

    王櫟橋,張達敏,樊 英,徐 航,王依柔

    (貴州大學大數(shù)據(jù)與信息工程學院,貴州 貴陽 550025)

    1 引言

    神經(jīng)網(wǎng)絡NN(Neural Network)是智能計算領域最偉大的發(fā)明之一,它模仿了人類大腦的神經(jīng)元并主要用于解決分類問題和進行數(shù)據(jù)預測。1943年,神經(jīng)網(wǎng)絡的概念被首次提出。從此,神經(jīng)網(wǎng)絡得到迅速發(fā)展,不同類型的神經(jīng)網(wǎng)絡相繼被提出,多層感知器神經(jīng)網(wǎng)絡MLP NN(MultiLayer Perceptron NN)是該領域最著名的分類器之一,已經(jīng)有廣泛的研究應用。一般來說MLP分為2大類:有監(jiān)督的和無監(jiān)督的[1]。訓練器負責訓練MLP。多年來,反向傳播技術及其變體[2]在MLP神經(jīng)網(wǎng)絡訓練中發(fā)揮著重要作用。然而,基于梯度下降及其變種的方法存在收斂速度慢、易陷入局部極小值、對初始參數(shù)[3]的依賴性強等缺點。因此,群智能算法是高維問題中最適用的訓練器之一,因為它具有隨機性,可以有效地避免局部最優(yōu)。另一方面,單解算法和多解算法是隨機方法的2大類。在高維問題[4]中,多解算法相比較單解算法可以防止訓練器陷入局部最優(yōu)。有大量著名的多解群智能算法被用來訓練神經(jīng)網(wǎng)絡[5 - 11],盡管各種群智能算法之間存在差異,但是,群智能算法都是將解空間內(nèi)的尋優(yōu)過程劃分為探索和開發(fā)2個階段。在很多情況下,由于群智能算法的隨機性,開發(fā)和搜索2個階段之間沒有明確的界限[12],2個階段之間的不平衡使得算法陷入局部最優(yōu)[13]。這些基于群智能的隨機優(yōu)化算法在很大程度上降低了陷入局部最優(yōu)的概率,但它們在收斂速度和收斂精度方面仍然不盡人意[14]。

    灰狼優(yōu)化GWO(Grey Wolf Optimizer)算法是以最優(yōu)個體(α狼)引導的算法,其帶領狼群進行局部探索。在訓練MLP的過程中GWO算法使用的線性遞減收斂函數(shù)導致全局探索能力不足而不能得到最優(yōu)解。針對這一缺點,為了平衡算法的局部開發(fā)和全局探索能力[15],本文使用余弦收斂函數(shù)代替線性遞減收斂函數(shù);同時,在訓練MLP模型時,其解空間的極值可能分布在臨近的位置,本文引入柯西變異算子有效提升算法的局部開發(fā)能力和抵抗陷入局部最優(yōu)的能力。為了提升算法的魯棒性,本文嘗試將柯西變異算子和余弦收斂因子引入到GWO中,對其位置更新方程進行改進,并將改進型柯西變異灰狼優(yōu)化IGWO(Improved Cauchy variant Grey Wolf Optimizer)算法作為MLP的學習算法對其進行訓練。數(shù)值實驗結果表明,IGWO算法作為MLP的訓練器時能明顯提升分類準確率,并有較好的魯棒性。相對于其他常見的智能算法其訓練時長也有所縮短。

    2 灰狼優(yōu)化算法

    灰狼優(yōu)化算法是通過對狼群的種群層次結構、捕食過程、圍捕及攻擊行為進行分析研究,建立的過程簡單、參數(shù)設置較少的快速智能算法模型[16]?;依莾?yōu)化算法通過對種群中的個體的適應度值降序排列,將排列第1的定義為α狼,即頭狼,將領導狼群的動作。第2的定義為β狼,第3的定義為δ狼,它們將協(xié)助α狼,剩余的為ω狼。所以,假設在M維的空間中,共計N匹狼組成的狼群,將其所在的位置記為X,第i匹狼所在的位置表示為Xi=(xi1,xi2,…,xim,…,xiM)。

    灰狼優(yōu)化算法模擬了灰狼的包圍策略,提出了模擬灰狼包圍行為的搜索方程。其行動方式可以描述為:

    A=2ar1-a

    (1)

    C=2r2

    (2)

    a=2-t/tmax

    (3)

    Di=|C·Xp(t)-X(t)|

    (4)

    Xi(t+1)=Xp(t)-ADi

    (5)

    式(1)~式(5)描述的為圍獵過程,其中A和C是系數(shù)向量;r1和r2是[0,1]的隨機向量;tmax是最大迭代次數(shù);a為從2線性遞減至0的收斂因子。Xp(t)表示獵物的位置向量;Xi是狼群中i狼的位置。

    狼群狩獵過程可以被描述為:

    (6)

    (7)

    (8)

    式(6) ~式(8)中,Xi(t)代表狼群中各ω狼的當前位置,Xi(t+1)為狩獵行為后的位置。Xα(t)、Xβ(t)和Xδ(t)分別代表當前時刻α狼、β狼和δ狼的位置,C1、C2和C3是(0,1)的隨機數(shù),A1、A2和A3是系數(shù)向量。

    3 改進型柯西變異灰狼優(yōu)化(IGWO)算法

    3.1 余弦收斂函數(shù)

    收斂因子a影響狼的全局搜索能力和局部搜索能力。不同的a(t)的減速率對應不同的算法搜索性能。在灰狼優(yōu)化算法中收斂因子a線性遞減,隨著迭代次數(shù)的增加,收斂速度由慢變快,這能平衡算法全局探索和局部開發(fā)[17]。在訓練MLP時,本文引用一種基于余弦的收斂因子公式,如式(9)所示。

    a(t)=2×cos((t/tmax)*(π/2))

    (9)

    其中,a(t)是第t代收斂因子,tmax是最大迭代次數(shù)。

    使用余弦收斂因子代替常規(guī)線性收斂因子,能夠保證有一個大的收斂因子,有利于全局探索;相反,一個小的收斂因子則有利于局部開發(fā)。使用余弦收斂因子能平衡GWO算法全局探索和局部開發(fā)能力。

    3.2 引入柯西變異算子

    灰狼優(yōu)化算法容易早熟,陷入局部最優(yōu),因此本文在算法中引入了柯西變異算子。根據(jù)柯西分布的特點,柯西變異因子是對潛在最優(yōu)灰狼個體的局部區(qū)域進行搜索,在一定的潛在最優(yōu)解范圍內(nèi)產(chǎn)生隨機擾動,增強了算法的局部搜索能力,并測試了其最優(yōu)位置[18]??挛鳟愖兓诳挛鞲怕拭芏群瘮?shù),如式(10)所示:

    (10)

    其中,x0是位置參數(shù),γ是一個大于0的隨機變量,x是一個實數(shù)。本文中取x0=0,γ=1,其為標準柯西分布。通過分析其概率密度函數(shù),可知其沒有特定的均值和方差,但眾數(shù)和中值都等于位置參數(shù),即x0。其分布函數(shù)如式(11)所示:

    (11)

    柯西分布和正態(tài)分布相比較,柯西分布的整體分布更加均勻,對稱軸的最大值相對于高斯分布較為平緩,而2邊曲線所對應的拖尾概率較大。這樣的分布特點,使柯西分布具有較大的散布特性。本文將會加入的擾動公式如式(12)和式(13)所示:

    Xibset(t)=Xi(t)+Xi(t)*G(x)

    (12)

    (13)

    其中,f(Xi(t))表示i狼在第t次迭代時的適應度值。通過局部擾動,引導算法跳出局部最優(yōu)。

    3.3 自適應位置更新公式

    本文引用了一種自適應調(diào)整策略,將適應度值的倒數(shù)作為更新公式的權重系數(shù)[19],這樣增加了3匹頭狼的位置優(yōu)勢,使適應度值高于種群平均適應度值的狼的位置更新趨向最優(yōu)解,提高算法的收斂速度。所以,用式(14)代替式(8)作為狼群位置更新公式。

    (14)

    其中,f(Xi(t))代表i狼在第t代時的適應度值,fα、fβ和fδ分別表示第t代時α、β和δ3匹頭狼的適應度值。favg代表第t代種群中所有狼的適應度平均值。

    3.4 IGWO的算法實現(xiàn)

    綜上所述,本文提出的IGWO算法實現(xiàn)過程如算法1所示。

    算法1基于改進型柯西變異的灰狼優(yōu)化算法IGWO

    Step1算法參數(shù)初始化,灰狼種群規(guī)模N;最大迭代次數(shù)tmax;變量空間維度M;空間變量的上界和下界ub和lb。

    Step2初始化種群。

    Step3令迭代次數(shù)t=1。

    Step4當t

    Step5計算狼群中適應度值{f(Xi),i=1,2,…,N}, 其中適應度值最高的個體為α狼,β狼與δ狼。

    Step6利用式(9)更新收斂因子a(t)。

    Step7利用式(6),式(7)和式(14)更新當前迭代次數(shù)中各狼的位置。

    Step8計算當前迭代次數(shù)中各狼的適應度值{f(Xi(t)),i=1,2,…,N}。

    Step9找出位置更新后的α狼,β狼與δ狼。

    Step10根據(jù)式(14)更新狼群,令t=t+1。

    Step11若達到最大迭代次數(shù),則結束;否則跳轉(zhuǎn)Step 4。

    利用IGWO算法訓練多層感知器的流程如圖1所示。

    Figure 1 MLP trained by IGWO algorithm

    4 基于柯西變異灰狼優(yōu)化算法訓練的多層感知器

    對于多層感知器MLP,由于數(shù)據(jù)空間樣本多為高維空間,多模式,同時也有可能存在數(shù)據(jù)被噪聲干擾,有冗余數(shù)據(jù)和數(shù)據(jù)丟失的情況。訓練MLP的主要目的是更新權重和偏置,這是一個極具挑戰(zhàn)性的優(yōu)化問題。本文使用智能優(yōu)化算法優(yōu)化MLP的訓練[20],將各個節(jié)點的權重和偏置編碼為輸入向量V,如式(15)所示:

    V={W,θ}={w1,1,w1,2,…,wn,n,θ1,θ2,…,θn}

    (15)

    其中,wi,j表示為節(jié)點i和節(jié)點j相連的權重。θj表示節(jié)點j的偏置,n為節(jié)點總數(shù)。為了檢驗算法訓練MLP的效果,定義以下變量:

    定義1(均方差MSE(Mean Square Error)) 通過將樣本的數(shù)據(jù)輸入MLP的輸入層,將MLP的輸出數(shù)據(jù)與目標結果比較,若輸出數(shù)據(jù)與目標結果越接近,則訓練效果越好,反之訓練效果越差。MSE定義如式(16)所示:

    (16)

    定義2(訓練器分類準確率CA(Classification Accuracies)) 這是衡量算法分類器性能的重要指標,在不同的問題中,也可能被稱為“精度”或“準確率”。其定義如式(17)所示:

    (17)

    其中,Si代表著樣本中待分類的假設集合S中第i個屬性的個數(shù)。Ti表示數(shù)據(jù)集中正確分類的樣本個數(shù)。

    5 實驗結果和討論

    5.1 測試問題及實驗設置

    (1)實驗問題設置。

    為了測試本文IGWO算法訓練MLP的性能,選擇了3個分類問題進行測試,分別為:3位奇偶校驗問題(XOR)、鳶尾花分類問題(Iris)和心臟病UCI問題HD UCI(Heart Disease UCI)。對于多層感知器的網(wǎng)絡結構設置,隱藏層節(jié)點數(shù)為2k+1,其中k為數(shù)據(jù)集的特征個數(shù)。對于XOR問題、Iris問題,多層感知器的結構為3-7-1、4-9-3;對于HD問題,使用22-45-1和22-16-1結構的MLP作為訓練對象。XOR問題設置的目的是討論簡單結構MLP中智能算法作為訓練器的性能;Iris問題設置的目的是測試對于輸出層有多個節(jié)點的情況智能算法的性能;HD問題設置的目的是當面對節(jié)點數(shù)量較大的MLP時測試智能算法訓練器的性能表現(xiàn)。因此,對于4種不同結構的多層感知器智能算法種群規(guī)模分別設置為50,200,200,200。最大迭代次數(shù)分別為250,500,650,650。

    (2)對比算法參數(shù)設置。

    同時作為對比,本文選擇了PSO (Particle Swarm Optimization)[5]、GA (Genetic Algorithm)[6,7]、ACO (Ant Colony Optimization)[8,9]、PBIL (Population-Based Incremental Learning)[10]、ES (Evolutionary Strategy)、BBO (Biogeography-Based Optimization)[11]和GWO[16]算法作為MLP的訓練器對3個不同的研究問題進行實驗。根據(jù)大量參考文獻選取經(jīng)驗值,在訓練中各個算法的參數(shù)設置如下:

    對于PSO,c1和c2的值設置為2,r1和r2為0~1的隨機數(shù),ω從0.9線性遞減到0.4,初始粒子速度在0~1隨機生成。

    對于BBO算法,最大遷入率為1,最大遷出率為1,變異概率為0.005,遷移概率取值為0~1,步長為2。

    對于ACO算法,信息素值為10-6,信息素常數(shù)為20,探索常數(shù)為1,全局信息素衰減率為0.9,局部信息素衰減率為0.5,信息素敏感度α=1,信息素敏感度β=5。

    對于GA算法,單點交叉,交叉概率為1,初始變異概率為0.01。

    對于PBIL算法,學習率r0=0.05,變異概率為0.5,變異速率為0.1,最大變異率V0=0.4,學習速率調(diào)整時系統(tǒng)熵的閾值ε=10-6。

    對于ES算法,每次新一代產(chǎn)生后代的數(shù)量為10,保留至下一代的精英數(shù)量為2,突變成功概率為0.005,進化步長σ=1。

    5.2 XOR問題

    3位奇偶校驗問題是一個著名的非線性標準測試問題。本文把3位奇偶校驗問題的MLP結構設置為3-7-1,即3個輸入,7個隱藏層節(jié)點和1個輸出層節(jié)點,并分別對8種算法進行30次獨立實驗,選取的統(tǒng)計參數(shù)有:平均值、中值、標準差和最好值,統(tǒng)計結果如表1所示,平均收斂趨勢和分類準確率如圖2和圖3所示。

    由圖2可以看出,ACO、ES、PSO、PBIL和GA算法的收斂速度遠不及其余3個算法的。BBO和GWO算法的收斂精度遜色于IGWO算法。但是,通過表2可以看出,在達到相同分類準確率的情況下,IGWO算法的平均訓練時長比BBO算法的短。圖3是各個智能算法作為MLP的訓練器,進行30次獨立運算的MES的收斂曲線。通過表2可知,IGWO在平均值、中值和最優(yōu)值上都是最佳的。

    雖然在標準差上能看出BBO算法具有較好的魯棒性,但是收斂精度不如IGWO的,由表1可知各個算法實際所用時長,其中PBIL算法所用時間最短,但是其分類準確率只有65.42%。同時具有較好魯棒性的BBO算法訓練所消耗的時間也是最長的。IGWO算法在更短時間內(nèi)得到了更好的收斂精度,分類準確率達到100%。與GWO算法相比,IGWO的尋優(yōu)性能得到了很大的提高,達到了性能改善的目的。

    Figure 2 MSE convergence curve of each algorithm for XOR problem

    Figure 3 Classification accuracy of each algorithm for XOR problem

    Table 1 MSE and classification accuracy of intelligent algorithms for XOR problem

    Table 2 MSE and classification accuracy of intelligent algorithms running independently 30 times for Iris problem

    5.3 Iris問題

    鳶尾花問題數(shù)據(jù)集有150個訓練樣本,共4個基本特征。本文選擇MLP的結構為4-9-3來對該問題進行分類。其統(tǒng)計結果如表2所示,平均收斂趨勢和分類準確率如圖4和圖5所示。

    Figure 4 MSE convergence curve of each algorithm for Iris problem

    Figure 5 Classification accuracy of each algorithm for Iris problem

    由表2可知,對于Iris問題,從8種算法獨立運行30次的結果來看,IGWO的平均值、中值和最優(yōu)值都比其余7種算法的好,這表明了在處理多輸出節(jié)點的MLP問題時,IGWO算法的收斂精度都高于其他7個算法的,同時在MLP的測試樣本分類準確率上IGWO也要高于其他算法。同時,IGWO與GWO具有相近的標準差,表明IGWO算法繼承了GWO算法的強魯棒性,且比ACO、ES、PSO、PBIL和GA算法的魯棒性要好。雖然IGWO的標準差不如GWO和BBO的,排名第3。從訓練時長看,BBO算法消耗的時間遠遠多于IGWO算法的。由圖4和圖5 8種算法對Iris分類問題的分類收斂曲線可知,ACO、ES、PSO、PBIL和GA算法的收斂速度和收斂精度較差,BBO和GWO算法的收斂精度相近,IGWO收斂精度最高。而BBO的穩(wěn)定性好于GWO和IGWO的。從圖5中可以看出,雖然IGWO的魯棒性與GWO相近,不如BBO算法,但IGWO擁有更快的收斂速度,IGWO的收斂精度和魯棒性遠高于ACO、ES、PSO、PBIL和GA算法的。這充分驗證了IGWO算法的強魯棒性、分類可靠性和高效性。

    5.4 HD問題

    心臟病問題HD UCI來自克利夫蘭數(shù)據(jù)庫,是迄今為止ML(Machine Learning)研究人員使用的唯一數(shù)據(jù)庫。這個數(shù)據(jù)庫包含76個屬性。使用2種不同結構的MLP作為訓練對象,22-16-1結構MLP是一種收斂形的結構,其隱藏層個數(shù)為輸入層與輸出層節(jié)點數(shù)總和的2/3。22-45-1結構MLP選擇的是常規(guī)的隱藏層節(jié)點數(shù),其選取節(jié)點數(shù)為2k+1,k為數(shù)據(jù)集的特征個數(shù)。

    使用8種不同的智能算法訓練結構為22-16-1的MLP處理HD分類問題,其統(tǒng)計結果如表3所示,平均收斂趨勢和分類準確率如圖6和圖7所示;訓練結構為22-45-1的MLP處理HD分類問題的統(tǒng)計結果如表4所示,平均收斂趨勢和分類準確率如圖8和圖9所示所示。

    由表3和表4可以看出,在HD分類問題中,22-16-1結構MLP的MSE和分類準確率不如22-45-1結構的,雖然其較少的節(jié)點數(shù)降低了智能算法探索的解空間維度,使算法的訓練時長縮短了,但是其訓練后的MSE和分類準確率不如22-45-1結構的MLP。22-16-1結構的MLP不能完全區(qū)別特征,導致訓練后的MSE和分類準確率不如22-45-1結構的MLP。

    Figure 6 MSE convergence curve of MLP with 22-16-1 structure training by each algorithm for HD problem

    Figure 7 Classification accuracy of MLP with 22-16-1 structure training by each algorithm for HD problem

    Figure 8 MSE convergence curve of MLP with 22-45-1 structure training by each algorithm for HD problem

    Figure 9 Classification accuracy of MLP with 22-45-1 structure training by each algorithm for HD problem

    Table 3 MSE and classification accuracy of MLP with 22-16-1 structure training by each algorithm for HD problem

    Table 4 MSE and classification accuracy of MLP with 22-45-1 structure training by each algorithm for HD problem

    從8種算法訓練的22-16-1結構MLP處理HD問題獨立運行30次的統(tǒng)計結果來看,IGWO的平均值、中值和最優(yōu)值都比其余7種算法的好,這些都表明了在處理大量關聯(lián)節(jié)點的MLP問題時IGWO算法的收斂精度高于其他7個算法的,同時在MLP的測試樣本分類準確率上IGWO也要高于其他算法的。BBO算法在標準差上的表現(xiàn)體現(xiàn)出其魯棒性良好,但是由表4可知,在訓練耗時上其表現(xiàn)不如GWO和IGWO算法的,在分類準確率上其不如GWO的。IGWO的標準差低于GWO的,其穩(wěn)定性更高。

    由圖6~圖9中8種算法訓練22-16-1結構MLP處理HD分類問題的MSE收斂曲線可知,ACO算法的收斂速度和收斂精度最差,然后依次為GA、PSO、ES和PBIL算法。同時BBO算法和GWO算法的收斂精度不如IGWO算法的。

    以上統(tǒng)計結果表明,IGWO算法訓練22-45-1結構的MLP處理HD問題性能較好。IGWO算法的尋優(yōu)性能和訓練速度得到了很大的提高,達到了性能改善的目的。

    5.5 IGWO算子性能分析

    表5和表6分別展示了GWO算法及其各個改進算法訓練多層感知器,處理XOR分類問題和Iris分類問題獨立運行30次后的MSE、分類準確率的平均值。表5中,GWO算法及其改進算法訓練MLP處理XOR問題的最大迭代次數(shù)為200次,選擇200作為最大迭代次數(shù)是因為此時分類準確率已經(jīng)達到100%,前文中最大迭代次數(shù)為250次是為了對比其他智能算法。表7展示了GWO算法及其改進算法訓練22-16-1結構MLP處理HD分類問題獨立運行30次后的MSE和分類準確率的平均值。表8展示了GWO算法及其改進算法訓練22-45-1結構MLP處理HD分類問題獨立運行30次后的MSE和分類準確率的平均值。

    其中,NGWO是將GWO算法的線性收斂因子替換為余弦收斂因子,如式(9)所示。CGWO是在GWO算法中增加了柯西變異算子式(13)。EGWO是將GWO算法的位置更新公式替換為式(14)。IGWO是將余弦收斂因子、柯西變異算子和位置更新公式替換都加入GWO算法中。

    Table 5 MSE and classification accuracy of GWO and its improved algorithms running independently 30 times for XOR problem

    Table 6 MSE and classification accuracy of GWO and its improved algorithms running independently 30 times for Iris problem

    Table 7 MSE and classification accuracy of MLPwith 22-16-1 structure trained by GWO and its improved algorithms for HD problem

    Table 8 MSE and classification accuracy of MLP with 22-45-1 structure trained by GWO and its improved algorithms for HD problem

    通過表5可知,GWO及其改進算法訓練多層感知器處理XOR分類問題的分類準確率已經(jīng)達到100%。從MSE的角度看,加入柯西變異算子可以提升局部探索能力,得到的最優(yōu)值更??;標準差也反映了單獨加入柯西變異算子會使算法魯棒性降低;為了保證魯棒性,同時加入余弦收斂因子和位置更新公式(式(14)),可以從多次訓練的標準差看出使用位置更新公式(式(14))和余弦收斂因子可以提升魯棒性。通過表6可知,GWO及其改進算法訓練多層感知器處理Iris分類問題的準確率均在90%以上。從MSE的角度看,Iris分類問題相較于XOR問題使用的MLP的節(jié)點數(shù)較多,對于訓練算法而言其解空間維度更高??梢钥闯鼋饪臻g維度提升以后,柯西變異算子提升局部探索的能力依然有效,能找到更優(yōu)的最優(yōu)值,但是通過標準差可以看出,加入柯西變異算子對魯棒性存在影響。從標準差看,加入余弦收斂因子和使用位置更新公式(式(14))可以提升算法魯棒性。改進后的IGWO算法訓練多層感知器處理Iris分類問題能在保證魯棒性的同時提升準確率和降低MSE。通過表7和表8可知,GWO及其改進算法訓練不同結構的訓練多層感知器處理HD分類問題時,22-16-1結構MLP在同樣訓練后的表現(xiàn)不如22-45-1結構MLP,是因為收斂形的MLP結構不能完全區(qū)分特征。為了處理HD分類問題,2種MLP的節(jié)點數(shù)量有大幅提升,對于訓練算法而言其解空間維度更高。從MSE的最優(yōu)值可以看出,處理高維解空間時,柯西變異算子提升局部探索的能力依然有效。從30次獨立運算的標準差可以看出,使用余弦收斂因子和更新公式(式(14))處理高維解空間能提升算法魯棒性。IGWO算法訓練大量節(jié)點的多層感知器處理HD分類問題時能在保證魯棒性的同時提升分類準確率和降低MSE。

    6 結束語

    使用啟發(fā)式算法作為MLP的訓練器是一個可行的方向,本文算法在GWO算法基礎上加入柯西變異算子提升算法跳出局部最優(yōu)的能力,加入余弦收斂因子平衡局部開發(fā)和全局探索能力,并通過位置更新公式(式(14))提升算法收斂速度,縮短訓練時間。然后選取3個不同MLP結構的分類問題:XOR問題、Iris分類問題和HD分類問題進行實驗,用于評估改進灰狼優(yōu)化算法的優(yōu)化性能和魯棒性。實驗結果表明,與幾個經(jīng)典智能算法相比,本文IGWO算法訓練的MLP,在分類準確率和收斂精度方面具有更好的性能,同時具有較好的魯棒性。雖然BBO算法的穩(wěn)定性很高,是最好的,但是其收斂結果不如IGWO算法的。并且在訓練器所用時間上,IGWO算法作為訓練器時,其并不會因為節(jié)點數(shù)的增加而導致訓練時間大幅增加。同時,面對高維解空間時柯西變異算子對局部探索能力的提升依然有效,余弦因子和更新公式(式(14))保證了算法魯棒性,結合了這些改進的IGWO算法是一個優(yōu)秀的MLP訓練器。

    猜你喜歡
    感知器柯西灰狼
    火箭貯箱噴涂機器人直接示教運動感知器設計與分析
    柯西積分判別法與比較原理的應用
    柯西不等式在解題中的應用
    柯西不等式的變形及應用
    感知器在礦井突水水源識別中的應用
    谷谷雞和小灰狼
    小太陽畫報(2019年1期)2019-06-11 10:29:48
    AI超市
    尿濕感知器
    灰狼的大大噴嚏
    柯西不等式的應用
    额济纳旗| 张北县| 宁陕县| 宝丰县| 苏州市| 淄博市| 鄂尔多斯市| 盖州市| 宁国市| 大足县| 吴忠市| 昌都县| 忻城县| 珲春市| 云林县| 乃东县| 小金县| 章丘市| 尚志市| 临沂市| 建湖县| 鹿邑县| 抚远县| 鄂伦春自治旗| 砚山县| 鹿泉市| 博兴县| 麟游县| 徐水县| 武宁县| 清远市| 绥芬河市| 定襄县| 双鸭山市| 阜城县| 米脂县| 上饶县| 旌德县| 迭部县| 孟州市| 莒南县|