• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度學習的含能材料生成焓預測方法

      2021-02-03 07:40:02徐雅斌孫勝杰
      含能材料 2021年1期
      關鍵詞:庫侖原子矩陣

      徐雅斌,孫勝杰,武 裝

      (1. 北京信息科技大學計算機學院,北京 100101;2. 網(wǎng)絡文化與數(shù)字傳播北京市重點實驗室,北京 100101;3. 北京材料基因工程高精尖創(chuàng)新中心北京信息科技大學,北京 100101)

      1 引言

      含能材料是一種在被加熱激發(fā)后,不需要外界物質(zhì)的參與即可通過自身的化學反應釋放出能量的材料。作為炸藥、火箭和導彈等推進劑配方的重要組分[1],在民用、國防、航天及空間站等領域已有廣泛應用。如何提高能量始終是含能材料研究的一個主要目標和研究課題[2]。

      在含能材料的研制過程中,生成焓是其能量性質(zhì)的重要參數(shù)[3]。利用生成焓可以判斷物質(zhì)的相對穩(wěn)定性、可以知道化學反應中的能量變化,這對于了解、控制和利用化學物質(zhì)及化學反應是非常關鍵的。因此,獲取含能材料的生成焓至關重要。目前,傳統(tǒng)的含能材料生成焓獲取方法,主要基于量子化學理論,使用高精度計算方法,如:原子化方法[4]、氧彈量熱法[5]、等鍵反應方法[6]、半經(jīng)驗分子軌道理論(PM3)和分子力學(MM2)方法相結合的方法[7]等進行計算。但是這種方法需要首先利用密度泛函、Gess 定律、PM3 和MM2 等方法獲取出計算生成焓的中間元素,之后再進行具體生成焓的計算。因此,在進行中間元素的計算時,不能保證計算的準確度,同時也會產(chǎn)生很大的計算量。

      隨著機器學習的不斷發(fā)展,逐漸有人使用機器學習的方法對含能材料的生成焓進行預測。文獻[8-10]中均采用人工神經(jīng)網(wǎng)絡分別對非芳香族多硝基化合物、芳香族多硝基化合物和高氮化合物的生成焓進行預測。Wan Zhong-yu 等[11]結合半經(jīng)驗(AM1)方法和分子描述符,使用多元逐步回歸(MSR)方法對化合物的生 成 焓 進 行 預 測。DUAN Xue-mei 等[12]結 合Hartree-Fock/密度泛函理論(DFT)和線性回歸方法來準確預測生成焓。Yalamanchi 等[13]將支持向量回歸(SVR)方法和人工神經(jīng)網(wǎng)絡(ANN)方法進行對比,通過兩次10 折交叉驗證(10-fold CV)對三類無環(huán)和閉殼碳氫化合物的生成焓進行了預測,得到了性能更好的SVR 方法。以上文獻均采用機器學習方法對含能材料的生成焓進行預測。但是,這種方法存在大量人工干預且特征提取復雜的問題。

      利用深度學習方法對材料的性質(zhì)進行預測的現(xiàn)象越來越多。閆海等[14]提出將卷積神經(jīng)網(wǎng)絡(CNN)應用于有限元代理模型,預測平面隨機分布短纖維增強聚氨酯復合材料的有效彈性參數(shù),并針對訓練過程出現(xiàn)的過擬合問題,提出了一種數(shù)據(jù)增強的方法。宋新寬等[15]提出利用CNN 方法快速預測多孔材料內(nèi)有效擴散系數(shù),可根據(jù)多孔材料微觀結構圖直接預測有效擴散系數(shù)。胡石雄等[16]提出采用拼接的方法把一維數(shù)據(jù)轉(zhuǎn)換成二維圖像數(shù)據(jù),然后使用一種Inception 結構作為CNN 的卷積層,另外使用全連接網(wǎng)絡對提取特征進行補充,實現(xiàn)對熱軋帶鋼的抗拉強度的預測。以上均采用單純的CNN 進行性能預測,有效避免了復雜的人工干預和特征選取問題。但是,這種方法往往只專注于提取數(shù)據(jù)的深度特征,而忽略了數(shù)據(jù)之間的相關性。

      晏臻等[17]提出CNN 和長短期記憶網(wǎng)絡(LSTM)相結合的短時交通流量預測模型,通過CNN 挖掘相鄰路口交通流量的空間關聯(lián)性,通過LSTM 模型挖掘交通流量的時序特征,將提取的時空特征進行特征融合,實現(xiàn)短期流量預測。石文浩等[18]提出首先使用一維卷積神經(jīng)網(wǎng)絡(1D-CNN)來提取輸入矩陣的局部特征,并抽象成全局特征,然后使用雙向長短期記憶網(wǎng)絡(Bi-LSTM)結合正反方向互補的信息,對miRNA-lncRNA 的互作關系進行預測。張鵬等[19]提出首先使用滑動窗口截取的方法獲取數(shù)據(jù),然后分別通過CNN 和LSTM 這兩種模型分別得到特征向量,最后使用Attention 機制,將這兩個特征向量融合成特征圖,從而對QAR 數(shù)據(jù)中的飛機俯仰角進行預測。李梅等[20]針對時序數(shù)據(jù)特征,提出一種基于注意力機制的CNN 聯(lián)合LSTM 的神經(jīng)網(wǎng)絡預測模型,融合粗細粒度特征實現(xiàn)準確的時間序列預測。

      研究和分析發(fā)現(xiàn),采用CNN 和LSTM 的融合模型雖然可以利用CNN 提取數(shù)據(jù)特征,又可以使用LSTM考慮數(shù)據(jù)之間的相關性,但是單向的LSTM 不能處理上下文數(shù)據(jù)對預測結果的影響,而雙向LSTM 在性能優(yōu)化方面有所欠缺。使用Attention 機制可以有效優(yōu)化模型性能。

      針對目前在材料性能預測方面存在的問題,本文提出一種基于Attention 機制的卷積神經(jīng)網(wǎng)絡(CNN)和雙向長短期記憶神經(jīng)網(wǎng)絡(Bi-LSTM)融合模型對含能材料的生成焓進行預測。該模型以搜集和爬取到的含能材料分子結構的原子三維坐標為基礎,首先對獲取的坐標數(shù)據(jù)進行庫侖矩陣的轉(zhuǎn)換,數(shù)據(jù)的填充、截取和歸一化;然后,利用CNN 提取數(shù)據(jù)中的深層特征;接下來,利用Bi-LSTM 考慮數(shù)據(jù)間的相關性;最后利用Attention 機制對特征的權重系數(shù)進行合理的優(yōu)化,由此獲得預測結果。

      本文的主要內(nèi)容如下:

      (1)提出一種基于CNN 與Bi-LSTM 的融合模型,對含能材料的生成焓進行預測,既可以全面克服數(shù)據(jù)特征提取的困難,又可以充分考慮數(shù)據(jù)間的相關性,有效實現(xiàn)“結構—性能”的預測目標。

      (2)針對無法對含能材料特征向量的重要程度進行合理評判的問題,使用Attention 機制對融合模型特征向量的權重進行計算,得出不同特征向量對預測結果的重要程度,從而提高含能材料生成焓預測的準確度。

      (3)為了避免含能材料分子的原子坐標受到平移、旋轉(zhuǎn)、交換索引順序等操作的影響,進而對生成焓的預測結果造成一定的誤差,選擇將原子坐標數(shù)據(jù)轉(zhuǎn)換成表示分子內(nèi)笛卡爾坐標系的庫侖矩陣,從而保證每種含能材料分子均對應唯一的結構數(shù)據(jù)。

      2 數(shù)據(jù)搜集與預處理

      2.1 數(shù)據(jù)搜集

      首先,通過查詢國內(nèi)外知名的含能材料期刊和雜志(如:《Journal of Energetic Materials》、《含能材料》、《火炸藥學報》等),搜集有關含能材料的實驗數(shù)據(jù),并將這些數(shù)據(jù)保存下來。

      由于本文的設計的目標是根據(jù)含能材料的分子結構預測出對應的生成焓數(shù)值,而文獻中搜集到的數(shù)據(jù)并不包括這些材料的分子結構。因此,需要根據(jù)保存的“PubChem 數(shù)據(jù)庫ID”在PubChem 數(shù)據(jù)庫中批量爬取對應分子結構的原子三維坐標。

      然而,在搜集數(shù)據(jù)的過程中發(fā)現(xiàn),對于某些材料來說,在不同的文獻中給出的生成焓數(shù)值是不一樣的,這可能受限于當時的實驗條件和測量精度。但是由于無法判斷哪些文獻給出的生成焓數(shù)值是正確的,因此無法直接用于模型的訓練,需要通過高通量計算方法確定正確的生成焓數(shù)值。因為本文中要預測的性質(zhì)屬于熱力學性質(zhì),原子體系也不大,所以選擇使用專門的組合方法,即高斯(Gaussian)G4 方法。由此計算出在標準狀態(tài)(298 K)下分子結構對應的生成焓數(shù)值,同時將生成焓的單位統(tǒng)一為kJ·mol-1。

      2.2 庫侖矩陣的轉(zhuǎn)換

      在數(shù)據(jù)的預處理階段,必須考慮某些額外操作(例如:平移、旋轉(zhuǎn)、交換索引順序等)對分子結構坐標的影響,甚至可能會對生成焓的預測結果造成一定的誤差。而庫侖矩陣則是一種用來表示分子內(nèi)笛卡爾坐標系集合與核電荷的矩陣。其中,對角元素可以看作是原子與其自身的相互作用,本質(zhì)上是原子能與核電荷的多項式擬合,非對角線元素代表核之間的庫侖排斥。同時,庫侖矩陣不受原子的平移、旋轉(zhuǎn)和交換索引順序的影響,每種分子對應的庫侖矩陣是固定不變的[21]。其轉(zhuǎn)換公式為:

      在進行訓練之前,需要根據(jù)公式(1)將每個含能材料的三維坐標數(shù)據(jù)轉(zhuǎn)換對應的庫侖矩陣。以化合物1,3,5-三嗪(C3H3N3)為例,將其坐標數(shù)據(jù)轉(zhuǎn)換為庫侖矩陣后的實驗數(shù)據(jù),如表1 所示。表示為一個對稱矩陣,其中第i行和第i列共同代表一個原子的數(shù)據(jù)。

      表1 轉(zhuǎn)換為庫侖矩陣后的實驗數(shù)據(jù)Table 1 The experimental data converted to coulomb matrix. au

      2.3 數(shù)據(jù)的填充、截取與歸一化處理

      對數(shù)據(jù)進行分析發(fā)現(xiàn),每種材料分子中的原子數(shù)量是不一致的,材料分子中原子數(shù)量的分布情況如圖1 所示。

      圖1 材料分子中原子數(shù)量的分布情況Fig.1 The distribution of the number of atoms in the material molecule

      由圖1 可以看出,分子數(shù)量較多的原子數(shù)量主要集中在6~24,而在這批數(shù)據(jù)集中,原子數(shù)量的最大值和中位數(shù)均為16 個。因此,在將原子坐標轉(zhuǎn)換成庫侖矩陣之前,將原子數(shù)量為6~16 的原子坐標進行補0,填充到16 個原子坐標;而對原子數(shù)量為16~24 的原子坐標,則進行數(shù)據(jù)的截取。由于生成焓數(shù)值的大小主要依據(jù)材料分子中N—N 鍵、N—C 鍵、N=N 鍵和N#N 鍵等化學鍵的個數(shù),即C 原子和N 原子的多少和位置。因此,在進行數(shù)據(jù)的截取時,選擇只刪除H 原子對應的庫侖矩陣信息。

      之后,為了消除奇異樣本數(shù)據(jù)導致的不良影響,使得數(shù)據(jù)被限定在一定的范圍內(nèi),使用max-min 歸一化方法對轉(zhuǎn)換成庫侖矩陣之后的數(shù)據(jù)進行處理。其計算公式為:

      其中,Xnorm為歸一化后的數(shù)據(jù),X為原始數(shù)據(jù),Xmax、Xmin分別為原始數(shù)據(jù)集的最大值和最小值。

      最后,將每條數(shù)據(jù)中經(jīng)過歸一化處理之后的庫侖矩陣作為模型的輸入向量。

      3 模型設計

      3.1 模型結構

      針對含能材料分子結構中存在的特征不明顯、提取難度大的問題,以及分子結構間的相關性難以考慮和分析的問題,我們提出一種基于Attention 機制的CNN 和Bi-LSTM 融合模型實現(xiàn)生成焓預測。模型的結構如圖2 所示,主要分為輸入層、卷積神經(jīng)網(wǎng)絡(CNN)層、Bi-LSTM 層、Attention 層、全連接層和輸出層。

      圖2 生成焓預測模型架構Fig.2 Enthalpy of formation prediction model architecture

      3.2 卷積神經(jīng)網(wǎng)絡(CNN)層

      在進行含能材料生成焓預測時,選擇含能材料分子結構即原子三維坐標轉(zhuǎn)換成的庫侖矩陣作為模型的輸入數(shù)據(jù),實際上就是依靠材料分子的庫侖矩陣判斷出各種原子鍵是否存在以及數(shù)量的多少,也就是數(shù)據(jù)中的特征。然而,這種數(shù)據(jù)存在特征不明顯、提取難度大的問題。因此,為了充分提取出數(shù)據(jù)中的特征,我們首先使用CNN 對含能材料的數(shù)據(jù)進行特征提取。CNN 是一種通過卷積操作提取特征,再利用池化層學習數(shù)據(jù)局部特征的前饋神經(jīng)網(wǎng)絡。無需對輸入數(shù)據(jù)進行大量預處理,即可以學習到大量的特征信息。本文中的卷積層采用四層卷積的形式,為了防止數(shù)據(jù)的過擬合,在卷積層中添加一個Dropout 層。由于Re-LU 函數(shù)具有便于稀疏化及有效減少梯度似然值的優(yōu)勢,故卷積層的激活函數(shù)選用ReLU 函數(shù)。

      3.3 雙向長短期記憶神經(jīng)網(wǎng)絡(Bi-LSTM)層

      Bi-LSTM 是對LSTM 的一種改 進,由前向LSTM 和后向LSTM 組合而成,可以有效地考慮前后數(shù)據(jù)之間的相關性。

      在含能材料分子結構數(shù)據(jù)中,包括兩個方面的相關性:

      (1)在含能材料的分子結構中,N—N 鍵、N—C鍵、N=N 鍵和N#N 鍵等化學鍵是生成焓主要的能量來源。而在輸入數(shù)據(jù)即材料分子的庫侖矩陣中,這些化學鍵是否存在以及數(shù)量的多少恰恰取決于N 原子與C 原子數(shù)據(jù)之間的相關性。因此,在含能材料的分子結構數(shù)據(jù)中,每個原子數(shù)據(jù)之間的相關性是必須要考慮的。

      (2)在進行含能材料生成焓的預測時,數(shù)據(jù)對應的分子結構之間的差距并不大,往往只是增加或減少幾個原子或者改變幾個原子的位置,從而對生成焓的大小造成一定的影響。因此,當我們想要預測一個分子結構對應的生成焓時,其余分子結構數(shù)據(jù)與對應的生成焓值會對本次預測結果起到一定的輔助作用。所以,分子結構數(shù)據(jù)之間的相關性是我們要考慮的另一個重要問題。

      基于以上內(nèi)容,在提取出數(shù)據(jù)特征之后,為了充分考慮數(shù)據(jù)間的相關性,選擇使用Bi-LSTM 對提取出的特征進行深層學習。Bi-LSTM 結構如圖3 所示:

      圖3 Bi-LSTM 結構圖Fig.3 Bi-LSTM structure

      Bi-LSTM 層的輸入數(shù)據(jù)即為CNN 層的輸出數(shù)據(jù)P。Bi-LSTM 由 多 個LSTM 組 成,在 每 個LSTM 中 有 輸入門i、遺忘門f、輸出門o和記憶狀態(tài)c,隱層狀態(tài)ht的更新公式為:

      其中,WI,WF,WO,WC,UI,UF,UO,UC均為相應的權重矩陣;bI,bF,bO,bC為偏置向量;σ,tanh 是激活函數(shù);ht-1為上一時刻的隱藏狀態(tài),rt為臨時記憶狀態(tài);⊙是按位乘運算。

      3.4 Attention 機制

      Attention 機制是模仿人類注意力而提出的一種解決問題的辦法。簡單地說,就是從大量信息中快速篩選出高價值信息,通過利用高價值的信息提高計算的準確度。更進一步說,就是利用高價值信息解決計算資源的高效分配問題。

      在本模型的設計中,為了提升預測結果的準確度,使用Attention 機制中的權重分配原則計算不同特征向量對應的權重值,使得越重要的特征所對應的注意力值越大,從而突出重要特征對預測結果的影響,提高預測結果的準確率。

      Attention 機制層的輸入數(shù)據(jù)即為Bi-LSTM 層的輸出數(shù)據(jù)H。Attention 機制的結構如圖4 所示:

      圖4 Attention 機制結構圖Fig.4 The structure of the Attention mechanism

      首先,生成目標注意力權重vt;

      其中,uv和wv均為權重系數(shù),bv為偏置數(shù),tanh 為激活函數(shù)。

      其次,將注意力權重概率化,通過softmax 函數(shù)生成概率向量at;

      之后,進行注意力權重的配置,將生成的注意力權重配置給對應的隱層狀態(tài)輸出ht,使模型生成的注意力權重發(fā)揮作用,得到對隱層狀態(tài)輸出進行加權平均后的向量st。

      最后,將向量st作為Attention 層的輸出,并進入下一層。

      3.5 全連接層

      使用全連接層對Attention 機制的輸出st進行計算,獲得最終的預測結果y。在得到預測結果后,選用自適應優(yōu)化算法(adaptive moment estimation,Adam)對模型參數(shù)進行優(yōu)化。激活函數(shù)采用sigmoid 函數(shù),最終的預測結果可表示為:

      式中,wy為權重矩陣,by為偏置向量。

      損失函數(shù)選擇均方誤差函數(shù)(Mean Squared Error,MSE),計算公式為:

      該函數(shù)對于異常值(即預測值和實際值的誤差遠大于其他誤差的數(shù)據(jù)點)更加敏感,平方和的計算結果會給異常值賦予更大的權重,模型會朝著減小異常值誤差的方向更新。另外,該函數(shù)損失的梯度會隨著損失的增大而增大,而損失趨于0 時則會減小。因此在訓練結束時,該函數(shù)會更加穩(wěn)定和精確。

      4 結果與討論

      4.1 實驗數(shù)據(jù)與實驗環(huán)境

      從3.1 中提到的國內(nèi)外知名的含能材料期刊中進行數(shù)據(jù)的搜集,之后經(jīng)過高斯(Gaussian)G4 計算和庫侖矩陣轉(zhuǎn)換等處理,最終共獲得了1026 條可用數(shù)據(jù)。接下來,為了充分利用Bi-LSTM 提取出數(shù)據(jù)間的相關性,根據(jù)生成焓值的大小,對所有數(shù)據(jù)進行一次升序操作。最后,在進行模型的訓練時,按照9∶1 的比例將數(shù)據(jù)集劃分為訓練集和測試集,之后利用10 折交叉驗證將訓練集再次劃分成訓練集和驗證集。

      實 驗 環(huán) 境 為:CPU 型 號 為 Intel? Core ?i5-8259U CPU@2.3GHz,內(nèi)存為16 GB,操作系統(tǒng)為macOS 10.15,開發(fā)語言為Python3,開發(fā)環(huán)境為PyCharm,數(shù)據(jù)庫為MySQL。

      4.2 評價指標

      實驗選取平均絕對誤差MAE、平均絕對百分誤差MAPE、均方根誤差RMSE 和均方根對數(shù)誤差RMSLE作為評價標準。四種指標越小,表明預測值越接近真實值,證明模型性能越好,特征表達能力越強。

      4.3 參數(shù)優(yōu)化實驗

      為了選擇最優(yōu)的批處理量(bitch_size),選擇了6 種批處理量(4、8、12、16、20、24)分別進行10 折交叉驗證。在相同的實驗環(huán)境下,不同批處理量對應的平均絕對誤差MAE 的情況如圖5 所示。

      圖5 不同批處理量對應的平均絕對誤差Fig.5 Mean absolute error(MAE)corresponding to different batch throughput

      從圖5 中可以看出,當批處理量為8 時,具有最低的平均絕對誤差MAE,因此選擇本模型的批處理大小為8。

      為了選擇最優(yōu)的訓練輪次(epochs),使本模型具有較高的預測準確度,在相同的實驗環(huán)境下,針對不用的訓練輪次(25、50、75、100、125、150、175、200)進行實驗,得到不同訓練輪次下的生成焓預測效果(平均絕對誤差MAE、平均絕對百分誤差MAPE、均方根誤差RMSE 和均方根對數(shù)誤差EMSLE),實驗結果如圖6所示。

      圖6 不同訓練輪次的預測效果Fig.6 Prediction effect of different training rounds 1)MAE is mean absolute error;2)MAPE/1000 is mean absolute percentage error/1000;3)RMSE is root mean square error;4)RMSLE is root mean squared logarithmic error.

      從圖6 可以看出,隨著訓練輪數(shù)的不斷增大,平均絕對誤差、平均絕對百分誤差、均方根誤差和均方根對數(shù)誤差的值不斷減小,并在訓練輪次為150 的時候達到最小值,之后每個指標隨著訓練輪數(shù)的增加又開始不斷增大。因此,當訓練輪數(shù)為150 時,本模型的生成焓預測效果最好。

      綜上,獲得最佳的批處理量(bitch_size)為8,最佳的訓練輪數(shù)(epochs)為150。在此參數(shù)的基礎上,利用測試集中的103 個數(shù)據(jù)對生成焓的真實值(y_true)和預測值(y_predict)進行對比,實驗結果如圖7 所示。

      由圖7 可以看出,此時測試集上生成焓的真實值和預測值的數(shù)據(jù)曲線較為擬合,說明此時模型參數(shù)已達到最優(yōu)值,生成焓預測的效果最佳。

      圖7 最佳參數(shù)下測試集的預測效果圖Fig.7 The prediction effect diagram of test set under the optimal parameter

      4.4 對比實驗

      為驗證本模型在含能材料生成焓預測的有效性和優(yōu)勢,利用本文數(shù)據(jù)集并采用10 折交叉驗證方法,分別 將 文 獻[13]、文 獻[16]中 的 方 法 以 及CNN、Bi-LSTM、CNN-BiLSTM 方法和本文方法,在相同的實驗環(huán)境下進行生成焓預測的對比實驗,實驗結果如圖8 所示。

      由圖8 可以看出,文獻[13]和文獻[16]中使用的傳統(tǒng)機器學習方法的實驗誤差更高,這兩種方法的平均MAE、MAPE、RMSE 和RMSLE 分 別 為0.0554、2.44%、0.0755 和0.056。這是由于傳統(tǒng)的機器學習方法對顯性的數(shù)據(jù)特征有著很大的依賴性,需要使用更加具有代表性的數(shù)據(jù)特征才能獲得更好的實驗效果。然而本次實驗的數(shù)據(jù)集是含能材料分子的庫侖矩陣,并不能提取出顯性的數(shù)據(jù)特征,導致其預測效果較差。

      CNN 和Bi-LSTM 方法獲得的實驗誤差相對較低,這兩種方法的平均MAE、MAPE、RMSE 和RMSLE 分別為0.0496、2.05%、0.0719 和0.0375,并且Bi-LSTM 方法的實驗誤差低于CNN 方法。這是由于CNN 和Bi-LSTM 方法均可以提取出數(shù)據(jù)中的隱含特征,可以更好地對數(shù)據(jù)特征進行學習和訓練。另外,Bi-LSTM方法還可以充分考慮含能材料分子庫侖矩陣中數(shù)據(jù)之間的相關性,因而具有比CNN 更好的預測效果。

      而CNN-BiLSTM 方法是CNN 和Bi-LSTM 的融合模型,可以同時擁有CNN 和Bi-LSTM 方法的優(yōu)勢,因而可以獲得比兩者更好的實驗效果。最后,本方法在CNN-BiLSTM 方法的基礎上,利用Attention 機制對特征向量的權重進行分配和優(yōu)化,進而對不同特征向量的重要程度進行了合理的考慮。因此,采用本方法在對含能材料的生成焓進行預測具有非常明顯的優(yōu)勢。

      圖8 不同模型的生成焓預測效果對比圖Fig.8 Enthalpy of formation prediction effect comparison diagram of different model

      5 結論

      (1)鑒于傳統(tǒng)生成焓獲取方法(如:實驗測試法和高精度計算方法)存在的時間、資源大量損耗和安全方面的問題,提出一種基于深度學習的含能材料生成焓預測方法,實現(xiàn)了“結構-性能”的預測目標;

      (2)將代表分子結構的坐標數(shù)據(jù)轉(zhuǎn)換成庫侖矩陣,可有效避免結構數(shù)據(jù)受到平移、旋轉(zhuǎn)、交換索引順序等操作的影響;

      (3)根據(jù)提出的基于Attention 機制的CNN 和Bi-LSTM 融合模型對含能材料的生成焓進行預測時,既可以有效提取數(shù)據(jù)的特征,又能充分考慮數(shù)據(jù)間的相關性,同時還能夠突出重要特征對預測結果的影響。

      (4)對比實驗結果表明,本文方法在各個評價指標上均取得了最低的預測誤差,表明生成焓的預測效果最好。后期將對數(shù)據(jù)集進行進一步的擴充,同時進一步優(yōu)化模型,提高含能材料生成焓的預測效果。

      猜你喜歡
      庫侖原子矩陣
      原子究竟有多小?
      原子可以結合嗎?
      帶你認識原子
      1976年唐山強震群震后庫侖應力演化及其與2020年古冶5.1級地震的關系
      地震研究(2021年1期)2021-04-13 01:04:46
      初等行變換與初等列變換并用求逆矩陣
      基于粘彈庫侖應力變化的后續(xù)最大地震震級估計及2008、2014年于田2次7.3級地震之間關系的討論
      中國地震(2015年1期)2015-11-08 11:11:18
      矩陣
      南都周刊(2015年4期)2015-09-10 07:22:44
      矩陣
      南都周刊(2015年3期)2015-09-10 07:22:44
      矩陣
      南都周刊(2015年1期)2015-09-10 07:22:44
      一種周期庫侖作用勢優(yōu)化法的改進
      計算物理(2014年1期)2014-03-11 17:01:03
      耿马| 依安县| 河北省| 通化县| 长沙市| 博湖县| 嵊州市| 蒙阴县| 察雅县| 楚雄市| 木兰县| 吴江市| 缙云县| 烟台市| 上蔡县| 黔西县| 封开县| 江川县| 井研县| 绥德县| 白银市| 英吉沙县| 柞水县| 浦县| 永顺县| 稻城县| 余干县| 四平市| 图木舒克市| 苏尼特左旗| 舟山市| 台南市| 上蔡县| 洛隆县| 宁晋县| 恩平市| 德兴市| 乌兰县| 乐平市| 二手房| 中方县|