韋子豪,王 端,王東東,潘翠杰
(1.中國原子能科學(xué)研究院,北京 102413;2.核工業(yè)研究生部,北京 102413)
壓水堆核電廠投入運(yùn)行后,在每個(gè)堆芯壽期末均要停堆換料。堆芯換料過程中,將產(chǎn)生大量的換料方案,而換料方案的選擇直接關(guān)系到核電廠運(yùn)行的安全性和經(jīng)濟(jì)性。一個(gè)優(yōu)選的堆芯裝載方案,可較好地展平堆芯功率分布、增加卸料燃耗深度、延長堆芯換料周期、提高燃料利用率,從而提高核電經(jīng)濟(jì)性和安全性。
堆芯優(yōu)化裝載方案的搜索是一項(xiàng)十分費(fèi)時(shí)的工作,因?yàn)閲?yán)格說來,壓水堆堆芯換料方案設(shè)計(jì)是一個(gè)多變量、非線性的動(dòng)態(tài)整數(shù)規(guī)劃問題,現(xiàn)代數(shù)學(xué)理論已證明這類問題是NP-難問題[1-2]。典型3區(qū)裝料的壓水堆堆芯含193個(gè)燃料組件,即使在堆芯1/4對稱布置且無可燃毒物的條件下,也有1043量級的堆芯換料方案,而且當(dāng)堆芯燃料通道增加時(shí),換料方案將會(huì)以指數(shù)甚至更多的形式增加[3],這使得在眾多的換料方案中快速找到1個(gè)全局最優(yōu)的方案變得十分困難。
目前,國際上已圍繞該問題利用各種優(yōu)化方法開展了大量的研究,總的來說,主要分為確定性優(yōu)化算法和隨機(jī)優(yōu)化算法,如線性規(guī)劃、非線性規(guī)劃、動(dòng)態(tài)規(guī)劃、直接搜索、專家系統(tǒng)等屬于確定性優(yōu)化算法[4-6],而隨機(jī)優(yōu)化算法則主要包括模擬退火算法、遺傳算法、粒子群算法、神經(jīng)網(wǎng)絡(luò)等[7-14]。但迄今為止,尚未有快速搜索出全局最優(yōu)解的通用方法,其中有兩個(gè)需要解決的主要問題。一是堆芯換料方案的優(yōu)化建模問題,如何根據(jù)實(shí)際問題的需要建立合適的優(yōu)化模型。優(yōu)化模型主要包括目標(biāo)函數(shù)、約束條件和決策變量三要素。在換料優(yōu)化模型中,決策變量就是換料方案,另外兩個(gè)要素的選擇需仔細(xì)研究。二是優(yōu)化算法的選擇和計(jì)算效率問題。在換料優(yōu)化模型中,目標(biāo)函數(shù)與部分約束條件不能用堆芯排布方式的明確數(shù)學(xué)函數(shù)表示,它們的值僅能是已知堆芯排布方式的前提下,通過求解復(fù)雜的多群中子擴(kuò)散方程和燃耗方程獲得,這不僅導(dǎo)致依靠數(shù)學(xué)表達(dá)式的確定性優(yōu)化算法使用受限,同時(shí)也是整個(gè)優(yōu)化計(jì)算中最耗時(shí)的部分,使得快速、準(zhǔn)確搜索出全局最優(yōu)解成為一個(gè)非常困難的問題。
本文主要研究優(yōu)化算法的選擇和效率問題,自主設(shè)計(jì)一整套堆芯換料的智能優(yōu)化程序,首先利用神經(jīng)網(wǎng)絡(luò)算法建立預(yù)測模型,再設(shè)計(jì)遺傳算法快速搜索最優(yōu)的堆芯燃料組件排布方式。通過神經(jīng)網(wǎng)絡(luò)與遺傳算法結(jié)合的復(fù)合搜索算法改變傳統(tǒng)依賴物理過程計(jì)算堆芯參數(shù)的做法所帶來低效和復(fù)雜化的不利局面,快速高效地提供數(shù)量和質(zhì)量兼?zhèn)涞膬?yōu)化換料方案,為智能化篩選換料方案提供新的可行方案。
為維持反應(yīng)堆可控鏈?zhǔn)胶朔磻?yīng),堆芯裝載多組燃料組件,這些組件按照一定的規(guī)律以陣列形式排布。如圖1所示,壓水堆堆芯上百個(gè)燃料組件的排列形狀通常近似八邊形陣列。
圖1 堆芯燃料組件陣列Fig.1 Core fuel assembly matrix
燃料組件排布存在著一定的規(guī)律,以秦山二期壓水堆為例,其排布方式呈1/8對稱分布,因此僅需考慮其中1/8部分,如圖2所示。共涉及4大類燃料組件E、F、G、H,除了新燃料組件H,同一燃耗次數(shù)的組件燃耗深度也存在差別,因此增加數(shù)字編號區(qū)分。由于組件僅能在固定區(qū)域進(jìn)行調(diào)換,故將這1/8部分分為3個(gè)區(qū)域,以Ⅰ、Ⅱ、Ⅲ表示(標(biāo)記為D12的組件是對稱中心,固定不變,不將其納入考慮范圍之內(nèi))。
圖2 1/8堆芯組件排布示意圖Fig.2 Schematic diagram of 1/8 core fuel assembly arrangement
圖2中共有16種不同燃耗深度的組件,為簡便起見,若假設(shè)5個(gè)H組件的燃耗深度也不相同,則根據(jù)排列組合關(guān)系,可計(jì)算排布方式總數(shù)為6!×10!×4!=6.27×1010,其中,6!、10!、4!分別是Ⅰ、Ⅱ、Ⅲ區(qū)組件的排布方式總數(shù)。對于627億種組合的排布方式,如果全部計(jì)算選擇最優(yōu)解,則會(huì)失去時(shí)效性與經(jīng)濟(jì)性。按如下3個(gè)步驟進(jìn)行改進(jìn):1) 在所有排布方式中均勻抽樣,選擇10 000種組合作為樣本;2) 建立高精度BP神經(jīng)網(wǎng)絡(luò)模型,根據(jù)樣本數(shù)據(jù)進(jìn)行訓(xùn)練,模擬堆芯排布-關(guān)鍵參數(shù)對應(yīng)關(guān)系;3) 使用遺傳算法快速搜索最優(yōu)換料方案。
樣本抽樣過程為:從3個(gè)區(qū)所有排布方式中各隨機(jī)抽取1種方式并進(jìn)行組合,獲得1個(gè)樣本,重復(fù)抽樣10 000次,即可獲得10 000個(gè)一定程度上反映整個(gè)組合空間的樣本。從這個(gè)過程可看到,作為樣本數(shù)據(jù)僅提供輸入輸出的對應(yīng)關(guān)系,不會(huì)涉及其中包含的復(fù)雜物理過程。
利用CASMO5程序計(jì)算每種排布方式下的堆芯關(guān)鍵參數(shù),包括有效增殖因數(shù)(keff)、組件功率峰因子(Rad)和棒功率峰因子(FΔH),這3種參數(shù)與堆芯排布方式一起,生成學(xué)習(xí)樣本。
1) 樣本總體特征
從樣本數(shù)據(jù)讀取其中獨(dú)立的1/8排布信息作為輸入,keff、Rad和FΔH作為標(biāo)簽,考察樣本標(biāo)簽的分布規(guī)律。圖3示出原始數(shù)據(jù)分布直方圖。
2) 樣本平衡處理
對于keff數(shù)據(jù)進(jìn)行細(xì)致考察發(fā)現(xiàn),其最大值為1.202 02,最小值為1.123 65,精度為0.000 01,意味著樣本最多7 838個(gè)不同的數(shù)據(jù),而實(shí)際是僅有4 304個(gè),并且根據(jù)圖3可知,值集中,一些值僅有1、2個(gè)。對樣本進(jìn)行如下平衡處理:(1) 該值在樣本中僅有1個(gè),進(jìn)入訓(xùn)練集;(2) 該值在樣本中存在N個(gè),進(jìn)入訓(xùn)練集的概率為(1/N)-1/2。如果未進(jìn)入訓(xùn)練集,則進(jìn)入測試集。
最終獲得的keff數(shù)據(jù)訓(xùn)練集和測試集樣本分布如圖4所示。可看出,訓(xùn)練樣本分布更均勻,方差更大。
圖3 原始數(shù)據(jù)分布直方圖Fig.3 Raw data distribution histogram
圖4 處理后的樣本分布直方圖Fig.4 Processed data distribution histogram
同樣對Rad、FΔH數(shù)據(jù)進(jìn)行平衡處理,但由于它們更加集中,為不破壞原始數(shù)據(jù)的分布,采用簡化的平衡樣本的方式:從標(biāo)簽在均值±1左右的樣本中選取1 000組作為測試集,其余作為訓(xùn)練集。
3) 輸入向量選擇
在文獻(xiàn)[15]中,將E、F、G、H 4種組件表示-1到1的等差數(shù)列,即-1、-1/3、1/3、1。這種方法過于簡化,對預(yù)測精度有較大影響,因此本文使用4位二進(jìn)制數(shù)表示16種不同燃耗深度的組件,對應(yīng)情況列于表1。這樣,每個(gè)包含20個(gè)組件的排布方式x=(1,1,1,1,0,0,0,0,…,1,0,1,1,1,0,0,1)T均是1個(gè)80維的輸入向量。
表1 組件與編碼對應(yīng)關(guān)系Table 1 Correspondence between component and coding
4) 輸出向量的處理
每個(gè)樣本標(biāo)簽為3個(gè)關(guān)鍵參數(shù),為提高精度,采用3套不同網(wǎng)絡(luò)訓(xùn)練,分別設(shè)置輸出層為1個(gè)節(jié)點(diǎn),輸出向量長度為1。
理論研究證明,多層前饋網(wǎng)絡(luò)即能以任意精度逼近任意復(fù)雜度的連續(xù)函數(shù)(萬能逼近定理)[16]。但要使神經(jīng)網(wǎng)絡(luò)能較精準(zhǔn)地?cái)M合1個(gè)復(fù)雜函數(shù),設(shè)置其網(wǎng)絡(luò)結(jié)構(gòu)如隱藏層數(shù)、節(jié)點(diǎn)數(shù)量等,并進(jìn)行有效訓(xùn)練是比較困難的,目前尚未有通用辦法,僅能根據(jù)經(jīng)驗(yàn)反復(fù)嘗試。為更快速獲得較好的模型,對訓(xùn)練的模型提出評價(jià)指標(biāo)。本文主要使用的誤差是絕對誤差:
(1)
式中,ypredict、ylabel分別為預(yù)測值、真實(shí)值。
1) 敏感性與適應(yīng)性分析
利用神經(jīng)網(wǎng)絡(luò)算法解決問題時(shí),要求輸入輸出數(shù)據(jù)之間強(qiáng)的相關(guān)性,一般需進(jìn)行特征分析和選擇,本問題中輸入數(shù)據(jù)為燃料組件的類型與排布規(guī)律,對輸出數(shù)據(jù)有決定性的影響,因此是強(qiáng)相關(guān)的特征,比較可靠。輸出數(shù)據(jù)的3個(gè)堆芯關(guān)鍵參數(shù)在精度上不同,對噪音干擾的敏感性也不同。keff精度要求高,因此模型預(yù)測產(chǎn)生的誤差也同樣要求嚴(yán)苛,而對于其余兩個(gè)參數(shù)數(shù)據(jù)則可降低標(biāo)準(zhǔn)。本文認(rèn)為,模型對keff預(yù)測的平均誤差不高于0.05,對FΔH預(yù)測的平均誤差不高于0.5,而對Rad預(yù)測的平均誤差不高于0.5即是可靠的。
另外,對于與訓(xùn)練樣本相似或相鄰的數(shù)據(jù),擬合結(jié)果是相對精確的,但對于整個(gè)解空間的極值(這些值在訓(xùn)練樣本中沒有或很少),擬合的結(jié)果會(huì)差一些,而且受模型優(yōu)劣的影響較大。
2) 評價(jià)指標(biāo)
用以下6個(gè)指標(biāo)評價(jià)模型的優(yōu)劣。(1) 訓(xùn)練誤差(MAEtrain)與測試誤差(MAEtest),即10 000組樣本在訓(xùn)練模型中最終對應(yīng)的訓(xùn)練誤差和測試誤差,它們能反映訓(xùn)練情況,之間的差距還能反映擬合情況,即過擬合或欠擬合。(2) 模型最大誤差(MAEmax),即模型在所有樣本中的最大絕對誤差。(3) 模型平均誤差(MAEavg),即模型在所有樣本中產(chǎn)生的平均誤差。(4) 驗(yàn)證數(shù)據(jù)(td),即一些未參與訓(xùn)練的關(guān)鍵數(shù)據(jù),如CASMO5計(jì)算出的當(dāng)前堆芯最優(yōu)數(shù)據(jù)為:keff=1.127 21,Rad=1.20,F(xiàn)ΔH=1.388。另外一些表征樣本邊界的數(shù)據(jù),即樣本中標(biāo)簽極值,如keff樣本最大值為1.202 02,Rad樣本最小值為1.28,即為樣本邊界數(shù)據(jù)(bd)。(5) 超閾值誤差數(shù)量(ot),即超過一定絕對誤差閾值(如0.1)的樣本數(shù)量。(6) 模型預(yù)測極限(lp),即模型能預(yù)測到的整個(gè)解空間中最值。由于實(shí)際全局最優(yōu)解難以確認(rèn),以遺傳算法搜索到的最值作為替代。
泛化誤差為模型在一些未知數(shù)據(jù)上預(yù)測的誤差,是模型優(yōu)劣最核心的評價(jià)標(biāo)準(zhǔn)。但需預(yù)測的數(shù)據(jù)僅有輸入已知,標(biāo)簽未知,無法計(jì)算誤差。因此,1個(gè)模型優(yōu)劣的評判也是神經(jīng)網(wǎng)絡(luò)算法所面臨的現(xiàn)實(shí)問題之一。除了通常使用的訓(xùn)練誤差和測試誤差之外,實(shí)驗(yàn)發(fā)現(xiàn)以上幾個(gè)指標(biāo)也可從不同方位給出一個(gè)模型的訓(xùn)練情況和泛化能力。
因此,在使用遺傳算法搜索最優(yōu)結(jié)構(gòu)時(shí),使用的適應(yīng)度應(yīng)綜合考慮這些指標(biāo),為此,可擬定適應(yīng)度函數(shù)如下:
(2)
式中:MAEtrain為訓(xùn)練誤差;MAEtest為測試誤差;MAEmax為樣本總體的最大誤差;MAEavg為樣本總體的平均誤差;|xp1-bd|為對邊界值的誤差;|xp2-td|為對驗(yàn)證數(shù)據(jù)的誤差;ot為誤差超過0.05的樣本數(shù)量;lp為模型預(yù)測的極限值;δi(i=1,2,…,8)為各項(xiàng)系數(shù),代表各項(xiàng)的影響權(quán)重。
對于keff數(shù)據(jù),由于精度較高,基于奧卡姆剃刀原則,單隱層BP神經(jīng)網(wǎng)絡(luò)即可訓(xùn)練出一個(gè)比較滿意的模型。但Rad和FΔH的樣本精度低、方差小,為更好學(xué)習(xí)到數(shù)據(jù)特征,使用深度神經(jīng)網(wǎng)絡(luò)(DNN)模型,其拓?fù)浣Y(jié)構(gòu)如圖5所示。
圖5 包含3個(gè)隱藏層的BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.5 Schematic diagram of BP neural network structure with three hidden layers
經(jīng)實(shí)驗(yàn)確定的keff、Rad和FΔH預(yù)測模型的結(jié)構(gòu)列于表2。
圖6為keff、Rad和FΔH訓(xùn)練過程誤差和學(xué)習(xí)率的變化,使用dropout減少過擬合,使用持續(xù)減小的學(xué)習(xí)率使模型盡可能向全局最優(yōu)收斂,可見訓(xùn)練的收斂情況表現(xiàn)比較理想,得到的最佳模型是較為可靠的,其中模型的評價(jià)指標(biāo)列于表3。模型對樣本的平均誤差均小于0.05,與敏感性分析中預(yù)期的值相符合,對邊界值和特殊的驗(yàn)證數(shù)據(jù)的預(yù)測誤差也很小,說明模型擁有一定的泛化能力。
表2 3個(gè)預(yù)測模型網(wǎng)絡(luò)結(jié)構(gòu)信息Table 2 Structure information of three predictive models
注:隱藏層后括號內(nèi)為dropout節(jié)點(diǎn)重置率,即不進(jìn)行參數(shù)調(diào)整的神經(jīng)元比例
圖6 keff(a)、Rad(b)與FΔH(c)模型訓(xùn)練中收斂情況數(shù)據(jù)圖Fig.6 Figures of convergence in model training in keff (a), Rad (b) and FΔH (c) data
表3 模型的評價(jià)指標(biāo)
Table 3 Evaluation index of models
關(guān)鍵參數(shù)MAEtrainMAEtestMAEmaxMAEavgbdtdotlpkeff0.001 10.001 10.003 20.001 11.201 02(1.202 02)1.128 13(1.127 21)01.206 89Rad0.0440.0430.110.0441.3(1.28)1.23(1.20)301.143FΔH0.0490.0460.120.0481.403(1.411)1.422(1.388)141.321 7
注:括號內(nèi)為對應(yīng)樣本的標(biāo)簽值
1) 優(yōu)化目標(biāo)[17-18]
本文數(shù)據(jù)針對的是秦山二期平衡循環(huán)(換料周期12月),堆內(nèi)無可燃毒物,因此以參數(shù)keff、Rad和FΔH作為優(yōu)化目標(biāo)。具體目標(biāo)是,在可行域范圍內(nèi),搜索使堆芯參數(shù)最優(yōu)的組件排布方式,使keff最大化,Rad和FΔH最小化。以f(x)表示目標(biāo)函數(shù),則表達(dá)式為:
f(x)=?kefffkeff(x)+?RadfRad(x)+
?FΔHfFΔH(x)+δ
(3)
式中:δ為1個(gè)常量,用以保證f(x)為正值;?keff、?Rad、?FΔH為3個(gè)堆芯參數(shù)的適應(yīng)度所占的權(quán)重。以f(x)的最大化為目標(biāo),其約束條件為?keff≥0,?Rad≤0,?FΔH≤0。
權(quán)重的正負(fù)決定對應(yīng)參數(shù)的優(yōu)化方向,權(quán)重絕對值的大小決定參數(shù)的重要程度。
2) 適應(yīng)度選擇與尺度變換
單純以目標(biāo)函數(shù)為適應(yīng)度會(huì)發(fā)生早熟和停滯現(xiàn)象,因此引入簡單的適應(yīng)度尺度變換。最終確定適應(yīng)度計(jì)算公式為:
fitness=f4(x)=(2fkeff(x)-
3fRad(x)-5fFΔH(x)+24)4
(4)
遺傳算法認(rèn)為生物進(jìn)化的本質(zhì)是染色體的選擇、交配與突變。借助該思想,遺傳算法主要包含的算子為選擇、交叉和變異算子。而在第1.1節(jié)已指出,將不同燃耗次數(shù)組件以E、F、G和H表示,不同燃耗深度的組件則使用字母與數(shù)字結(jié)合標(biāo)記,因此1個(gè)20個(gè)組件的排布方式可使用按照一定順序連接形成1個(gè)基因序列,即對應(yīng)遺傳算法的編碼,如“H02F34F26F35-G02E34H01H08G10G04F32H05E07G19F07-H04F01E36F29G27”。
1) 選擇算子
使用輪盤賭選擇與最優(yōu)保存策略結(jié)合的選擇算子。輪盤賭選擇使用隨機(jī)采樣方法,即蒙特卡羅方法,從N個(gè)個(gè)體中有放回的隨機(jī)抽取N次,作為下一算子的輸入,每個(gè)個(gè)體被抽取的概率由其適應(yīng)度決定,其公式為:
(5)
式中:fi為第i個(gè)個(gè)體經(jīng)過尺度變換后的適應(yīng)度;Pi為其被選中的概率。
進(jìn)行輪盤賭選擇前,將當(dāng)前適應(yīng)度最高的個(gè)體保存,作為新一代種群的1個(gè)個(gè)體,保證適應(yīng)度最高的個(gè)體總參與遺傳、變異,這就是最優(yōu)保留策略。
2) 交叉算子
使用保留基因片段的方法進(jìn)行交叉,即在子代中保留父代被選擇保留的基因段。在父代(1)中選擇保留的基因段,在子代(1’)中將保留并保持位置不變,并將父代(2)中與這些保留基因相同的基因去掉,然后將剩下的基因按照一定的順序(如原來的順序)填充到子代(1’)余下的位置形成新的子代(1’),同理可獲得子代(2’)。與一般的交叉算子不同,為使生成的子代依然滿足約束條件,即包含在解空間中,要在保留1個(gè)父代的基因后,對另一個(gè)父代基因進(jìn)行篩選。
每次保存的基因均應(yīng)保持一定的長度以保持父代基因的特征,不同的長度意味著信息的不同的保留率,可在實(shí)驗(yàn)中檢驗(yàn)不同信息保留率對搜索結(jié)果的影響。本文對3個(gè)區(qū)的基因設(shè)置不同的交叉概率參數(shù),以向量Pc=(pc1,pc2,pc3)T表示,其中元素分別表示Ⅰ、Ⅱ、Ⅲ區(qū)的交叉概率。在迭代進(jìn)行過程中,根據(jù)一定規(guī)則改變交叉概率,有利于算法平衡全局搜索能力與搜索時(shí)間的關(guān)系,本文在前期以較高的概率進(jìn)行交叉,而后期則逐步降低交叉的發(fā)生概率。當(dāng)發(fā)生交叉時(shí),使用保留上一代1/2的基因信息。
3) 變異算子
設(shè)置變異概率向量Pm=(pm1,pm2,pm3)T,分別對染色體的3個(gè)區(qū)間進(jìn)行變異操作,即隨機(jī)選擇兩個(gè)不同位置,交換該位置上的1對基因順序從而生成新的1代。變異前后個(gè)別組件發(fā)生調(diào)換而產(chǎn)生變異,與交叉類似,變異隨著時(shí)間的進(jìn)行,其概率有所變動(dòng)以改變其局部搜索的能力,在迭代后期可適當(dāng)增加這一能力以盡可能在局部上達(dá)到最優(yōu)。
遺傳算法的流程如圖7所示。
對于圖7,有如下兩點(diǎn)說明。1) 通過抽樣數(shù)據(jù)獲取學(xué)習(xí)數(shù)據(jù)集,通過數(shù)據(jù)處理生成訓(xùn)練集和測試集,使用訓(xùn)練集對預(yù)測模型進(jìn)行訓(xùn)練,當(dāng)在測試集的絕對平均誤差小于1個(gè)預(yù)設(shè)的預(yù)定值時(shí)獲得最終的預(yù)測模型。2) 遺傳算法通過隨機(jī)數(shù)初始化一定規(guī)模的種群,獲得輸入Xm,將Xm作為預(yù)測模型的輸入獲得預(yù)測值,從而根據(jù)適應(yīng)度計(jì)算公式計(jì)算出適應(yīng)度。種群根據(jù)適應(yīng)度進(jìn)行3個(gè)算子的變換,并記錄過程中最優(yōu)的解。當(dāng)?shù)螖?shù)或最優(yōu)解滿足停止條件時(shí),停止迭代,輸出結(jié)果。
設(shè)置原始雜交概率Pc=(0.6,0.9,0.5)T,變異概率Pm=(0.05,0.1,0.05)T,種群數(shù)量N=100~400,迭代次數(shù)為200~1 000,進(jìn)行多次搜索,搜索時(shí)間為5~10 min。其中1個(gè)結(jié)果的情況如圖8所示。表4列出優(yōu)選的換料方案對比。圖9為其中1個(gè)最優(yōu)解(預(yù)測值1)對應(yīng)的排布方式,圖9a為基因序列按照從右到左、從上到下的順序填充的1/8堆芯,圖9b為基因序列對應(yīng)的完整堆芯。
圖8a指出遺傳算法在迭代300次左右、耗時(shí)數(shù)min內(nèi)可搜索到最優(yōu)解,圖8b指出適應(yīng)度限制了對keff的最大化搜索,因此如果需要可改變適應(yīng)度函數(shù)以獲得更高的keff。表4列出本文提供的集中優(yōu)選堆芯方案和對應(yīng)的參數(shù)的預(yù)測值,在誤差范圍內(nèi)與目標(biāo)值相當(dāng)或更好。
圖7 神經(jīng)網(wǎng)絡(luò)-遺傳復(fù)合算法的總流程圖Fig.7 General flowchart of neural network-genetic composite algorithm
圖8 復(fù)合算法的適應(yīng)度變化曲線Fig.8 Fitness curve of composite algorithm
表4 優(yōu)選的換料方案對比
Table 4 Comparison of preferred refueling scheme
項(xiàng)目keffRadFΔH目標(biāo)真實(shí)值1.127 211.201.388目標(biāo)預(yù)測值1.128 19±0.001 101.23±0.041.422±0.048最優(yōu)預(yù)測值11.136 76±0.001 101.166±0.0401.353±0.048最優(yōu)預(yù)測值21.134 89±0.001 101.187±0.0401.360±0.048最優(yōu)預(yù)測值31.135 03±0.001 101.184±0.0401.335±0.048
圖9 其中1個(gè)最優(yōu)解(預(yù)測值1)對應(yīng)的排布方式Fig.9 One of optimal solutions (prediction 1) corresponding arrangement
實(shí)驗(yàn)表明,采用神經(jīng)網(wǎng)絡(luò)-遺傳復(fù)合算法可預(yù)測不同堆芯排布方式下的關(guān)鍵參數(shù),并利用生物的遺傳進(jìn)化機(jī)制,在大量排布方式下快速搜索更優(yōu)的堆芯排布方式。1個(gè)訓(xùn)練很好的神經(jīng)網(wǎng)絡(luò)模型對超出樣本數(shù)據(jù)所在區(qū)間外的預(yù)測精度會(huì)下降,導(dǎo)致搜索的范圍不能太大。解決這一問題的方法是,根據(jù)已獲得的最優(yōu)結(jié)果再次訓(xùn)練網(wǎng)絡(luò)、再次搜索,不斷迭代,向更優(yōu)的結(jié)果靠近,直到搜索到全局最優(yōu)解,這是下一步的工作。
建立自適應(yīng)神經(jīng)網(wǎng)絡(luò)提供堆芯參數(shù),再結(jié)合改進(jìn)的遺傳算法進(jìn)行堆芯換料方案的篩選,快速、準(zhǔn)確選擇較優(yōu)的堆芯換料方案。其結(jié)果可推廣至任意堆芯堆型、任意關(guān)鍵參數(shù)預(yù)測,并且可很容易地優(yōu)化修改目標(biāo)函數(shù),篩選符合實(shí)際需要的換料方案。該方法不需特定領(lǐng)域的專業(yè)知識(shí),僅要有足夠多的數(shù)據(jù),即可實(shí)現(xiàn)精度較高的快速預(yù)測,但需對模型作進(jìn)一步的敏感性分析和適應(yīng)性研究。