杜柳青 李仁杰 余永維
(重慶理工大學(xué)機(jī)械工程學(xué)院,重慶 400054)
高端裝備制造業(yè)對(duì)機(jī)床精度要求越來(lái)越高。機(jī)床誤差大致可分為:幾何和運(yùn)動(dòng)學(xué)誤差、熱誤差、切削力引起的誤差及其他誤差。其中,熱誤差所導(dǎo)致的機(jī)床總加工幾何誤差為最主要因素[1-2]。國(guó)內(nèi)外學(xué)者通過(guò)研究熱誤差的產(chǎn)生機(jī)制,提出了理論熱誤差模型,JORGENSEN[3]考慮不同潤(rùn)滑條件下利用集中質(zhì)量法對(duì)某機(jī)床主軸系統(tǒng)進(jìn)行了穩(wěn)態(tài)求解;KIM等[4-5]采用質(zhì)量集中法對(duì)機(jī)床絲杠系統(tǒng)建模,并與有限元模型進(jìn)行對(duì)比。也有學(xué)者通過(guò)研究熱誤差的主要產(chǎn)生原因即溫度與主軸熱漂移的關(guān)系,提出了經(jīng)驗(yàn)熱誤差模型,李彬等[6]建立了遺傳算法(Gentic optimization algorithm, GA)優(yōu)化小波神經(jīng)網(wǎng)絡(luò)(Wavelet neural network, WNN)的數(shù)控機(jī)床熱誤差模型,在某型號(hào)五軸擺動(dòng)臥式加工中心進(jìn)行實(shí)驗(yàn),驗(yàn)證該模型具有精度高、抗擾動(dòng)能力和魯棒性強(qiáng)等優(yōu)點(diǎn)。夏軍勇等[7]通過(guò)對(duì)機(jī)床進(jìn)給系統(tǒng)的熱特性分析,得到隨時(shí)間的延長(zhǎng),溫升與熱變形之間的關(guān)系會(huì)逐漸趨于穩(wěn)定,但不可能達(dá)到絕對(duì)穩(wěn)態(tài)的結(jié)論。此外,機(jī)床工作環(huán)境的變化也會(huì)導(dǎo)致機(jī)床溫度敏感點(diǎn)的變化,在不同轉(zhuǎn)速下的機(jī)床主軸熱特性以及機(jī)床在空載與負(fù)載狀態(tài)下的熱特性都具有極大的不確定性。
近年來(lái),深度學(xué)習(xí)模型在機(jī)床狀態(tài)監(jiān)測(cè)與誤差預(yù)測(cè)領(lǐng)域得到了應(yīng)用,與傳統(tǒng)的數(shù)學(xué)模型、神經(jīng)網(wǎng)絡(luò)模型相比,深度學(xué)習(xí)模型能更好地對(duì)原始數(shù)據(jù)進(jìn)行特征提取,縮短了對(duì)特征提取所需的時(shí)間,同時(shí)也減少了由于領(lǐng)域知識(shí)限制等而導(dǎo)致的特征信息丟失,這些均對(duì)模型的質(zhì)量與性能產(chǎn)生影響。杜柳青等[8]采用深度自編碼器(Stacked automatic encoder, SAE)對(duì)篩選出的溫度敏感點(diǎn)進(jìn)行特征重構(gòu),利用遺傳算法對(duì)BP神經(jīng)網(wǎng)絡(luò)進(jìn)行參數(shù)尋優(yōu),建立了SAE-GA-BP熱誤差模型。余永維等[9]利用相空間重構(gòu)原理建立模型輸入向量,提出并建立了基于長(zhǎng)短時(shí)記憶(Long short term memory, LSTM)網(wǎng)絡(luò)的時(shí)序深度學(xué)習(xí)數(shù)控機(jī)床運(yùn)動(dòng)精度預(yù)測(cè)模型,實(shí)驗(yàn)表明,預(yù)測(cè)相對(duì)誤差不超過(guò)7.96%。余永維等[10]提出一種基于Faster R-CNN的數(shù)控機(jī)床運(yùn)動(dòng)誤差溯因模型,實(shí)現(xiàn)了對(duì)數(shù)控機(jī)床圓運(yùn)動(dòng)軌跡的實(shí)時(shí)準(zhǔn)確識(shí)別。杜柳青等[11]提出無(wú)監(jiān)督初始權(quán)值共享的并聯(lián)深度網(wǎng)絡(luò)訓(xùn)練方法,建立的并聯(lián)深度信念網(wǎng)絡(luò)熱誤差模型具有較高的預(yù)測(cè)精度與魯棒補(bǔ)償效果。陳英義等[12]引入小波變換對(duì)原始數(shù)據(jù)進(jìn)行降噪,利用CNN挖掘變量之間的關(guān)系,利用LSTM對(duì)溶解含氧量進(jìn)行預(yù)測(cè),建立的溶解含氧量預(yù)測(cè)模型決定系數(shù)達(dá)0.954。高浩然[13]建立了基于機(jī)床能耗數(shù)據(jù)的LSTM熱誤差模型,解決了卷積神經(jīng)網(wǎng)絡(luò)模型的誤差累計(jì)問(wèn)題,模型預(yù)測(cè)精度在5 μm以內(nèi)。卷積神經(jīng)網(wǎng)絡(luò)通過(guò)卷積核的共享可以有效提取出高維數(shù)據(jù)的深層次特征。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)作為循環(huán)網(wǎng)絡(luò)的變體,解決了傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network, RNN)的梯度消失、梯度爆炸等問(wèn)題,能更好地解決長(zhǎng)時(shí)間序列問(wèn)題,從而被廣泛應(yīng)用在語(yǔ)音識(shí)別、機(jī)器翻譯等領(lǐng)域。程成[14]利用注意力機(jī)制(Attention mechanism, AM)和ConvLSTM實(shí)現(xiàn)對(duì)傳感器數(shù)據(jù)的時(shí)空特征提取,建立發(fā)動(dòng)機(jī)剩余壽命預(yù)測(cè)模型,引入注意力機(jī)制ConvLSTM模型的RMSE與原模型相比降低了14.07%。機(jī)床誤差信息也屬于連續(xù)的長(zhǎng)時(shí)間序列,利用LSTM的時(shí)間序列特征提取能力,能有效彌補(bǔ)CNN在特定時(shí)空?qǐng)鼍跋绿卣魈崛〉牟蛔鉡15-16]。
本文提出一種基于注意力機(jī)制的長(zhǎng)短時(shí)記憶卷積神經(jīng)網(wǎng)絡(luò)熱誤差模型。利用CNN提取原始數(shù)據(jù)中的深層次空間特征,利用LSTM提取原始數(shù)據(jù)中的長(zhǎng)時(shí)間序列特征,引入注意力機(jī)制使模型著重于某時(shí)刻局部的重要特征,以高的重要特征權(quán)重,使得模型具有更高的預(yù)測(cè)精度。在模型中引入正則化與循環(huán)學(xué)習(xí)率的訓(xùn)練方法,在提高訓(xùn)練速度的同時(shí)避免模型過(guò)擬合。通過(guò)實(shí)驗(yàn)驗(yàn)證該模型的有效性與可行性。
提出了一種基于注意力機(jī)制的時(shí)空卷積熱誤差模型(圖1),該模型具有兩個(gè)支路:支路1為卷積神經(jīng)網(wǎng)絡(luò)支路,輸入傳感器采集的圖像化溫度數(shù)據(jù),通過(guò)3個(gè)卷積層和2個(gè)池化層,提取原始高維溫度數(shù)據(jù)中的多維度空間特征輸出到全連接層中;支路2為長(zhǎng)短時(shí)記憶網(wǎng)絡(luò),輸入數(shù)據(jù)為時(shí)間序列溫度數(shù)據(jù),經(jīng)過(guò)LSTM層后提取出長(zhǎng)時(shí)間序列溫度數(shù)據(jù)中的時(shí)序特征輸出到全連接層中。支路1與支路2融合在全連接層后輸入到注意力層中進(jìn)行重要特征重構(gòu),最后將重構(gòu)得到的特征輸入回歸層得到熱誤差預(yù)測(cè)值。
LSTM神經(jīng)網(wǎng)絡(luò)是一種特殊類型的RNN,具有利用反饋連接來(lái)學(xué)習(xí)長(zhǎng)期依賴性的能力。RNN存在梯度消失問(wèn)題的困擾,該問(wèn)題限制了模型學(xué)習(xí)遠(yuǎn)程依賴關(guān)系。因此,LSTM通過(guò)在存儲(chǔ)單元上存儲(chǔ)有用的信息并消除不必要的信息來(lái)解決該問(wèn)題,從而獲得比傳統(tǒng)RNN更好的性能[17-18]。
每個(gè)LSTM單元都由1個(gè)存儲(chǔ)單元和3個(gè)主門組成:輸入門、輸出門和遺忘門。通過(guò)這種結(jié)構(gòu),LSTM通過(guò)確定一些信息必須“忘記”而另一些信息必須“記住”來(lái)創(chuàng)建受控信息流,從而設(shè)法學(xué)習(xí)長(zhǎng)期依賴關(guān)系。遺忘門ft控制在時(shí)刻t-1必須消失或必須保留在存儲(chǔ)單元上的過(guò)去信息,即
ft=σ(Ugxt+Wght-1+bg)
(1)
式中xt——溫度序列數(shù)據(jù)
W*、U*——權(quán)重矩陣
b*——偏置
σ——sigmoid激活函數(shù)
it=σ(Uixi+Wiht-i+bi)
(2)
(3)
(4)
式中 ⊙——逐元數(shù)乘積
輸出門ot控制可以將一些信息用于存儲(chǔ)單元的輸出,并將LSTM網(wǎng)絡(luò)提取的長(zhǎng)時(shí)序溫度數(shù)據(jù)特征向量fLSTM輸出到特征融合層。
ot=σ(Uoxt+Woht-1+bo)
(5)
最后,構(gòu)成存儲(chǔ)單元輸出的隱藏狀態(tài)ht為
ht=ot⊙tanh(ct)
(6)
如多個(gè)LSTM層堆疊在一起,則每個(gè)LSTM層的存儲(chǔ)狀態(tài)ct和ht隱藏狀態(tài)都作為輸入轉(zhuǎn)發(fā)到下一個(gè)LSTM層。
卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)由輸入層、卷積層(Convolution layer)、池化層(Pooling layer)、全連接層(Full connect layer)以及輸出層組成,其網(wǎng)絡(luò)結(jié)構(gòu)可根據(jù)目標(biāo)對(duì)象不同而調(diào)整,卷積層與池化層可交替連接存在一個(gè)或多個(gè)。卷積層是實(shí)現(xiàn)特征提取的關(guān)鍵,其建立依賴于卷積核的設(shè)計(jì),卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn)之一是共享卷積核,優(yōu)勢(shì)是處理高維數(shù)據(jù)快。每個(gè)卷積核提取對(duì)應(yīng)輸入圖像的一個(gè)特征,網(wǎng)絡(luò)輸入經(jīng)過(guò)卷積層后生成的新圖像稱特征圖,每個(gè)下層的特征圖是由上層的幾個(gè)特征圖形成映射。特征圖的每個(gè)神經(jīng)元與其輸入進(jìn)行局部連接,并通過(guò)對(duì)應(yīng)的連接權(quán)值與局部輸入進(jìn)行加權(quán)求和再加上偏置值,得到該神經(jīng)元輸入值,該過(guò)程等同于卷積過(guò)程,卷積層的映射公式為
(7)
式中x——特征圖k——卷積核
Mi——感受野*——卷積運(yùn)算符號(hào)
f(·)——激活函數(shù)
采用ReLU型激活函數(shù)加速網(wǎng)絡(luò)的收斂,計(jì)算公式為
(8)
池化層也稱為下采樣層,能夠減小溫度特征圖的尺寸,在盡可能保留較多原始特征信息的同時(shí)降低特征的維度,減少了運(yùn)算量,并且具有平移不變性的特點(diǎn)。池化層映射公式為
(9)
式中 down(·)——池化函數(shù)
β——權(quán)重b——偏置
全連接層的功能是將多維的特征圖展成單一維度的向量,向下傳遞進(jìn)入全連接層網(wǎng)絡(luò),其公式為
xl=f(wlxl-1+bl)
(10)
采用sigmoid激活函數(shù)得到CNN網(wǎng)絡(luò)提取的空間溫度數(shù)據(jù)特征fCNN,并輸入到特征融合層。
注意力機(jī)制[19]是為了網(wǎng)絡(luò)在每一步挑選信息時(shí)都能從更大的信息集里挑出有用信息。對(duì)輸入模型的特征信息進(jìn)行權(quán)重的重新分配,對(duì)重要的特征分配更多的注意力,突出典型關(guān)鍵特征對(duì)結(jié)果的影響。在時(shí)間序列的數(shù)據(jù)中引入注意力機(jī)制能更好地使模型關(guān)注到更有用的信息。Attention機(jī)制主要由3個(gè)階段組成,第1階段計(jì)算輸入特征相似度,輸入特征向量為CNN與LSTM兩條支路提取的特征融合xk=(fLSTM,fCNN)=[x1,x2,…,xk],計(jì)算公式為
sk=g(xk)=activation(Wxk+b)
(11)
為了更好地使模型注意到每個(gè)時(shí)刻的時(shí)間與空間特征,激活函數(shù)activation設(shè)置為sigmoid。
第2階段根據(jù)第1階段產(chǎn)生的不同特征值相似度分?jǐn)?shù)進(jìn)行數(shù)值轉(zhuǎn)換,通過(guò)softmax歸一化函數(shù)的內(nèi)在機(jī)制使重要特征元素的權(quán)重更加突出,計(jì)算方法為
(12)
第3階段對(duì)第2階段得到的特征權(quán)重進(jìn)行加權(quán)求和計(jì)算即可得到Attention數(shù)值,即經(jīng)由Attention層進(jìn)行重要性特征重構(gòu)后的特征值。
(13)
提出的AM-CNN-LSTM模型具有良好的泛化性,適用于變化狀態(tài)下的熱誤差預(yù)測(cè),在此通過(guò)G460L型數(shù)控車床進(jìn)行實(shí)驗(yàn)數(shù)據(jù)采集。實(shí)驗(yàn)所建立的數(shù)據(jù)采集系統(tǒng)如圖2所示。溫度傳感器采用Fluke公司的PT100,測(cè)量精度為±0.2℃;位移傳感器型號(hào)為ML33-B-B2-3,測(cè)量精度為0.5 μm,采集到的模擬數(shù)據(jù)信號(hào)經(jīng)過(guò)ART公司USB3120數(shù)據(jù)采集卡后轉(zhuǎn)換為數(shù)字信號(hào),由LabVIEW數(shù)據(jù)采集軟件存儲(chǔ)與顯示。
傳感器布置如圖3所示,在主軸徑向與軸向方向分別布置2個(gè)電渦流位移傳感器用于測(cè)量主軸徑向與軸向熱誤差。溫度傳感器的布置貼近所有的激勵(lì)熱源,對(duì)同一激勵(lì)熱源處測(cè)點(diǎn)間隔一定距離均勻分布布置,難以測(cè)量的激勵(lì)熱源位置采用相近溫度測(cè)點(diǎn)布置方法,溫度傳感器T1~T16布置如表1所示。
表1 傳感器布置位置
采集數(shù)據(jù)時(shí),機(jī)床主軸以恒定的轉(zhuǎn)速(1 500、3 000 r/min)空轉(zhuǎn),數(shù)據(jù)采樣間隔為30 s,總測(cè)量時(shí)間為240 min。根據(jù)上述實(shí)驗(yàn)方法,在不同的季節(jié)內(nèi)共測(cè)得12批次原始數(shù)據(jù),如表2所示。
表2 數(shù)據(jù)采集實(shí)驗(yàn)參數(shù)
將數(shù)據(jù)采集系統(tǒng)的數(shù)據(jù)轉(zhuǎn)換為增量形式后保存,得到12批次的熱誤差如圖4所示。從圖4中可以看出,在不同季節(jié)下機(jī)床主軸達(dá)到相對(duì)熱平衡狀態(tài)所需時(shí)間在150 min左右,達(dá)到平衡狀態(tài)下的熱誤差隨季節(jié)溫度的增加而增加。第7批次的溫度如圖5所示。從圖5可以看出,機(jī)床溫度具有較大的耦合性且鄰近主軸位置溫度測(cè)點(diǎn)的溫度變化最大。
所建立AM-CNN-LSTM熱誤差模型基于TensorFlow框架,集成開發(fā)環(huán)境為Pycharm,實(shí)驗(yàn)硬件配置為Intel Core i3-7100 CPU,8 GB內(nèi)存。
為了提高網(wǎng)絡(luò)學(xué)習(xí)速度,避免原始數(shù)據(jù)中存在的異常數(shù)據(jù)和不同數(shù)據(jù)維度導(dǎo)致網(wǎng)絡(luò)在訓(xùn)練過(guò)程中無(wú)法收斂,將12個(gè)批次的數(shù)據(jù)進(jìn)行最大最小歸一化處理,計(jì)算公式為
(14)
式中Xmax、Xmin——原始數(shù)據(jù)中的最大值與最小值
將歸一化后的數(shù)據(jù)80%用于訓(xùn)練,20%用于驗(yàn)證。根據(jù)本文提出的基于注意力機(jī)制的時(shí)空卷積熱誤差模型(圖1),支路1為CNN模型,模型輸入為(4,4)圖像化溫度,通過(guò)數(shù)據(jù)增強(qiáng)方法將原始圖像尺寸增大到(12,12)。將輸入模型的數(shù)據(jù)進(jìn)行隨機(jī)打亂,以提取原始數(shù)據(jù)的多維特征。采用Adam優(yōu)化方法對(duì)網(wǎng)絡(luò)的超參數(shù)進(jìn)行更新,采用循環(huán)學(xué)習(xí)率[20](Cyclical learning rates, CLR)用以加快模型的訓(xùn)練。CLR方法是使學(xué)習(xí)率在合理的邊界值之間循環(huán)變化,采用周期性學(xué)習(xí)率可以提高模型的精度,而無(wú)需進(jìn)行手動(dòng)調(diào)整且迭代的次數(shù)少。
支路2為L(zhǎng)STM模型,模型的輸入為(1,16)的溫度向量,步長(zhǎng)設(shè)置為8,共設(shè)置2個(gè)LSTM層深度不斷加深,激活函數(shù)設(shè)置為tanh。為防止過(guò)擬合,在訓(xùn)練過(guò)程中加入Dropout操作和BatchNormalization批正則化方法,保留概率參數(shù)為0.7,批尺寸為24,訓(xùn)練次數(shù)為120,CLR中最小學(xué)習(xí)率為0.001,最大學(xué)習(xí)率為0.008,半個(gè)學(xué)習(xí)率循環(huán)步長(zhǎng)為20,在整個(gè)訓(xùn)練周期中共有3個(gè)學(xué)習(xí)率調(diào)整周期,且保證最后一個(gè)周期中對(duì)應(yīng)的學(xué)習(xí)率達(dá)到最小,從而保證模型收斂于一個(gè)局部最優(yōu)解,學(xué)習(xí)率循環(huán)模式為三角形減半下降模式。
2個(gè)支路各自提取出4個(gè)空間與時(shí)間上的特征后輸入到Attention層中進(jìn)行特征權(quán)重系數(shù)分配。最后在全連接層中采用sigmoid激活函數(shù)得到具有時(shí)間連續(xù)性的熱誤差。
為了進(jìn)行驗(yàn)證對(duì)比,建立了4種熱誤差模型,如表3所示。LSTM模型為傳統(tǒng)的3層長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng);ConvLSTM模型為時(shí)空長(zhǎng)短時(shí)記憶網(wǎng)絡(luò),將權(quán)重與輸入之間的點(diǎn)乘操作變換為卷積操作,模型的輸入變?yōu)闇囟葓D像。CNN-LSTM模型為長(zhǎng)短時(shí)記憶卷積神經(jīng)網(wǎng)絡(luò),輸入數(shù)據(jù)經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取特征后輸入到長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)中進(jìn)行熱誤差的預(yù)測(cè)。這3種模型都采用循環(huán)學(xué)習(xí)率、Dropout操作和BatchNormalization批正則化方法,訓(xùn)練數(shù)據(jù)集設(shè)置、各項(xiàng)參數(shù)設(shè)置均與AM-CNN-LSTM相同。圖6為模型訓(xùn)練損失值對(duì)比。由圖6可知,經(jīng)過(guò)120輪訓(xùn)練后所有模型都達(dá)到了收斂狀態(tài)。
表3 熱誤差模型信息
圖7為CNN與LSTM兩條支路在所提取的特征在融合層的特征值熱力圖,熱力圖中顏色越深代表特征值越大,對(duì)模型的影響也越大。圖8為融合層特征經(jīng)過(guò)Attention層后對(duì)特征進(jìn)行重要性分配后的特征熱力圖,隨著測(cè)量序列節(jié)點(diǎn)的變化,熱力圖中顏色表明不同的特征在不同的序列節(jié)點(diǎn)被賦予不同的權(quán)重,更好地挖掘了空間層次的信息[21-22]。
利用熱誤差模型預(yù)測(cè)得到熱誤差曲線如圖9所示。從圖9可以看出,熱誤差模型都能對(duì)長(zhǎng)時(shí)間序列下熱誤差進(jìn)行較為準(zhǔn)確的預(yù)測(cè),可以提取出原始數(shù)據(jù)中點(diǎn)時(shí)間序列特征,由于獲取了原始數(shù)據(jù)在不同時(shí)間空間狀態(tài)下的特征,AM-CNN-LSTM模型預(yù)測(cè)效果最好,預(yù)測(cè)出的熱誤差曲線更接近真實(shí)的測(cè)量曲線。LSTM模型僅提取出原始數(shù)據(jù)中的時(shí)序特征的預(yù)測(cè)值波動(dòng)幅度較大。CNN-LSTM模型由于在CNN輸出階段將特征圖轉(zhuǎn)換為特征向量,丟失了一部分特征信息,且模型的輸入數(shù)據(jù)是隨機(jī)打亂進(jìn)入模型訓(xùn)練的,也丟失了一部分時(shí)序特征,使得模型的預(yù)測(cè)效果低于AM-CNN-LSTM模型。
為了進(jìn)一步評(píng)估模型的性能,采用平均絕對(duì)誤差(Mean absolute error, MAE)、均方根誤差(Root mean squared error, RMSE)、均方差(Mean squared error, MSE)和納什系數(shù)(Nash-sutcliffe efficiency coefficient, NSE)對(duì)模型的性能進(jìn)行量化的評(píng)定,計(jì)算公式為
(15)
(16)
(17)
(18)
(19)
式中yi——實(shí)際值ypre——預(yù)測(cè)值
k——預(yù)測(cè)值個(gè)數(shù)
NSE越接近1表示模型的預(yù)測(cè)效果越好,精度越高。式(19)用于描述數(shù)據(jù)相對(duì)增長(zhǎng)量,反映2組數(shù)據(jù)在不同情況下的變化情況。
4種模型的殘差對(duì)比如圖10所示。從圖10可以看出,當(dāng)機(jī)床接近達(dá)到相對(duì)熱誤差平衡狀態(tài)時(shí),4種熱誤差模型都提取到了相同的特征,但AM-CNN-LSTM模型對(duì)特征的還原能力最強(qiáng)。CNN-LSTM模型殘差波動(dòng)范圍最大,為-5.447 3~4.500 8 μm。AM-CNN-LSTM模型的殘差波動(dòng)范圍最小,為-2.416 1~1.355 3 μm,AM-CNN-LSTM模型的殘差相較于CNN-LSTM模型下降62.09%。證明模型預(yù)測(cè)精度在2.4 μm以內(nèi)[23-24]。
表4為模型性能評(píng)價(jià)。由表4可以看出,CNN-LSTM模型的MSE、RMSE、MAE均為最大,模型的各方面性能表現(xiàn)較差。ConvLSTM模型的預(yù)測(cè)精度較好,由于將原始輸入時(shí)間序列轉(zhuǎn)換為圖像序列,通過(guò)卷積操作的方式也能提取部分時(shí)間與空間特征,模型的MSE和MAE也相較LSTM和CNN-LSTM模型有一定的下降。ConvLSTM模型的預(yù)測(cè)精度與殘差波動(dòng)范圍與AM-CNN-LSTM模型都較為接近,在局部預(yù)測(cè)效果上優(yōu)于AM-CNN-LSTM模型,但是考慮不同時(shí)間的適用性等綜合因素,AM-CNN-LSTM模型的綜合性能更優(yōu)。
表4 4種模型性能評(píng)價(jià)結(jié)果
AM-CNN-LSTM模型的納什系數(shù)最高,達(dá)到了0.985 5,表明模型對(duì)原始數(shù)據(jù)的解釋能力最好,模型精度高。相較于LSTM、ConvLSTM和CNN-LSTM模型,由式(19)計(jì)算可知納什系數(shù)分別提高了3.05%、1.06%和2.98%。原始溫度數(shù)據(jù)來(lái)自不同季節(jié)不同轉(zhuǎn)速下,也使得模型具有良好的泛化性。與LSTM模型相對(duì)比,融合模型在熱誤差預(yù)測(cè)中性能有了較大提升,融合深度學(xué)習(xí)模型能從原始數(shù)據(jù)中挖掘更深層空間狀態(tài)特征和更全面的時(shí)間狀態(tài)特征,證明了融合深度學(xué)習(xí)模型在熱誤差建模領(lǐng)域的應(yīng)用可行性和有效性。
(1)相較于LSTM模型、ConvLSTM模型和CNN-LSTM模型,AM-CNN-LSTM模型相對(duì)預(yù)測(cè)精度分別提高了3.05%、1.06%和2.98%。
(2)采用不同深度學(xué)習(xí)模型來(lái)提取高維溫度數(shù)據(jù)中的不同特征,將模型融合后得到的特征映射效果優(yōu)于原始單一深度學(xué)習(xí)模型。
農(nóng)業(yè)機(jī)械學(xué)報(bào)2021年5期