朱俊鵬, 趙洪利,杜 鑫,蔣 勇
(1.裝備學(xué)院 a.研究生管理大隊; b.訓(xùn)練部, 北京101416; 2.中國人民解放軍駐二院中心軍事代表室, 北京 100854; 3. 95801部隊, 北京 100076)
【信息科學(xué)與控制工程】
長短時記憶神經(jīng)網(wǎng)絡(luò)在衛(wèi)星軌道預(yù)報中的研究
朱俊鵬1a, 趙洪利1b,杜 鑫2,蔣 勇3
(1.裝備學(xué)院 a.研究生管理大隊; b.訓(xùn)練部, 北京101416; 2.中國人民解放軍駐二院中心軍事代表室, 北京 100854; 3. 95801部隊, 北京 100076)
目前的衛(wèi)星軌道預(yù)報主要依靠動力學(xué)模型。由于模型與實際衛(wèi)星所在空間環(huán)境變化存在差異,故通過動力學(xué)模型預(yù)報的軌道與實際軌道的偏差較大;尤其低軌衛(wèi)星,由于空間環(huán)境復(fù)雜多變,預(yù)報誤差更大;利用深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)作為軌道預(yù)報的工具,通過對衛(wèi)星軌道數(shù)據(jù)的訓(xùn)練學(xué)習(xí),掌握數(shù)據(jù)之間隱含的關(guān)系預(yù)測未來數(shù)據(jù);將深度學(xué)習(xí)的長短時記憶神經(jīng)網(wǎng)絡(luò)模型優(yōu)化,并將預(yù)報數(shù)據(jù)與實際數(shù)據(jù)進(jìn)行對比分析,將預(yù)報20 d的誤差由之前最大值的300 km降低到5 km以下,提高了神經(jīng)網(wǎng)絡(luò)預(yù)報衛(wèi)星軌道的精度。
軌道預(yù)報;低軌衛(wèi)星;深度學(xué)習(xí);長短時記憶神經(jīng)網(wǎng)絡(luò)
在衛(wèi)星追蹤和測控應(yīng)用方面,要根據(jù)對衛(wèi)星預(yù)報的狀態(tài)量分析衛(wèi)星所在區(qū)域以及所過境地區(qū),以此指揮設(shè)備對衛(wèi)星所在區(qū)域進(jìn)行追蹤和測控[1]。目前,受限于我國衛(wèi)星地面測控站的地理分布現(xiàn)狀,對衛(wèi)星無法做到全天候的測控,為了掌握衛(wèi)星運(yùn)行情況,需要提前對衛(wèi)星軌道進(jìn)行預(yù)報。這在衛(wèi)星過境、衛(wèi)星測控等方面有著重要的意義。
1.1 衛(wèi)星軌道預(yù)報現(xiàn)狀
當(dāng)前的衛(wèi)星軌道預(yù)報方法主要是基于物理模型的軌道預(yù)報,主要分為數(shù)值軌道模型和解析軌道模型兩大類[2]。
數(shù)值軌道法模型是軌道預(yù)報的經(jīng)典方法,采用數(shù)值積分算法對軌道力學(xué)模型進(jìn)行積分解算。Adams-Cowell類型的積分方法是目前精密定軌常用方法。隨著航天器測量、定軌精度的提升,軌道力學(xué)模型中的攝動力在不斷完善,數(shù)值解的精度也有了一定提高,而由于算法的逐步積分解算,長時間預(yù)報需要逐步遞進(jìn)計算造成計算效果緩慢,且無法看到軌道根數(shù)隨時間變化的規(guī)律。
解析軌道模型是將軌道根數(shù)隨時間的變化規(guī)律用解析函數(shù)表述。知道初始時刻的軌道根數(shù),用常數(shù)變易法求解微分方程,得到模型的解析表達(dá)式。解析法優(yōu)點(diǎn)在于解的形式可以明顯表達(dá)根數(shù)隨時間變化的規(guī)律,有助于了解各種攝動對根數(shù)的影響,并且計算效率高。由于推導(dǎo)分析解的過程比較繁瑣,并且高階解難以推導(dǎo)出來,解的精度比數(shù)值解低。
在航天應(yīng)用領(lǐng)域,解析軌道模型運(yùn)用比較廣泛。通過北美防空司令部(NORAD)提供的兩條軌道根數(shù)(TLE)進(jìn)行軌道預(yù)測。TLE采用特定方法去掉了周期擾動項的平均軌道根數(shù)[3]。
為了得到高精度的預(yù)報結(jié)果,預(yù)報模型必須以同樣的方法重建這些擾動,因此TLE必須使用特定的軌道預(yù)報模型預(yù)報空間目標(biāo)某一時刻的狀態(tài),該模型為SGP4/SDP4模型[4]。由于美國并未公布TLE算法,且給出的都是TLE的瞬時值,導(dǎo)致軌道預(yù)測的計算精度有待提高,預(yù)報精度不高。目前在解決此問題上,主要有擴(kuò)展卡爾曼濾波、無跡卡爾曼濾波、容積卡爾曼濾波等幾種方法,其核心思想都是將SGP4模型當(dāng)作黑箱處理,將觀測數(shù)據(jù)相當(dāng)于該模型的輸出,將問題轉(zhuǎn)化為已知輸出求輸入的問題[5]。濾波的軌道精度隨著時間的延長發(fā)生的偏移就大,最大能達(dá)到10 km以上,就需要不斷對TLE進(jìn)行修正,降低了模型的計算效率。
1.2 軌道預(yù)報趨勢
由1.1節(jié)可見,在改進(jìn)軌道預(yù)報精度上,常用方法就是通過衛(wèi)星的物理原理、所在空間外在其他因素攝動力影響來建立動力學(xué)模型。然而從攝動力模型的研究可以看出,各個攝動力系統(tǒng)的狀態(tài)方程、數(shù)學(xué)模型目前是不明確的。此方案設(shè)計周期長,模型建立難度大,無法同時兼顧計算的精度和速度。
隨著深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)近幾年的發(fā)展,神經(jīng)網(wǎng)絡(luò)在處理非線性、高維性的問題時不需知道其輸入和輸出函數(shù)之間的結(jié)構(gòu)關(guān)系和相關(guān)參數(shù),只要通過神經(jīng)網(wǎng)絡(luò)的訓(xùn)練學(xué)習(xí)掌握其輸入輸出函數(shù)的內(nèi)在聯(lián)系。在輸入訓(xùn)練集以外的數(shù)據(jù)時,神經(jīng)網(wǎng)絡(luò)可以獲得正確的映射關(guān)系。近年來,神經(jīng)網(wǎng)絡(luò)在圖像及視頻識別、股票分析等方面作用巨大,深度神經(jīng)網(wǎng)絡(luò)在模式識別等方面的成功應(yīng)用也表明了其在數(shù)學(xué)模型不明確系統(tǒng)中的有效性。本文將深度長短時記憶神經(jīng)網(wǎng)絡(luò)模型引入到對衛(wèi)星軌道預(yù)報的研究中,擺脫動力學(xué)模型,由神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)獲取數(shù)據(jù)中隱含的規(guī)律進(jìn)行預(yù)報,改善動力學(xué)預(yù)報模型的不足。
2.1 基本結(jié)構(gòu)原理
長短期記憶神經(jīng)網(wǎng)絡(luò)(Long Short-Term Memory Neural Network,LSTM)由循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,RNNs)改造而來。循環(huán)神經(jīng)網(wǎng)絡(luò)具有時序概念,也被稱作深度網(wǎng)絡(luò),其深度主要表現(xiàn)在時序邏輯的輸入和輸出之間,且每一個時序可理解為單獨(dú)的一層[6]。RNNs神經(jīng)網(wǎng)絡(luò)具有前向傳播和反向傳播特征[7]。前向傳播即按照時序逐一進(jìn)行計算,后向傳播主要將最后一個時序積累的計算殘差傳遞回來并修正前面輸出層的權(quán)值。通過反向傳播能夠進(jìn)行端到端的訓(xùn)練,當(dāng)?shù)谝粭l時序數(shù)據(jù)輸入后,通過隱含層的反饋能影響第二層,第二條時序數(shù)據(jù)輸入后會影響第三層,以此類推;最后一層時序數(shù)據(jù)輸入后,隱含層輸出反饋依次往前對每一層的輸出進(jìn)行權(quán)值微調(diào),從而提高輸出層的精確度。
這種微調(diào)主要是通過輸出數(shù)據(jù)與原始數(shù)據(jù)的誤差函數(shù),通過對多元自變量進(jìn)行偏微分運(yùn)算,降低誤差函數(shù)的誤差值[8]。偏微分從最后一層開始,依次往前計算,前一層的權(quán)值微調(diào)依賴于后一層的反饋。由于偏微分從最后一層依次開始,對于時序序列較長的數(shù)據(jù)集,偏微分的結(jié)果在最后趨向于零,造成梯度消失,使得剩下的層數(shù)無法微調(diào),造成訓(xùn)練數(shù)據(jù)無法收斂,由于前面的層數(shù)并未得到修正,誤差依然存在。使用RNNs神經(jīng)網(wǎng)絡(luò)對衛(wèi)星軌道數(shù)據(jù)進(jìn)行預(yù)測時,會使得前期的數(shù)據(jù)存在較大偏差。
2.2 LSTM模型構(gòu)造
LSTM由輸入層、隱含層、輸出層組成,與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)不同的是,隱含層包括一個可將信息存儲較久的存儲模塊。存儲模塊中的存儲單元具有自連接、自適應(yīng)和邏輯門控制信息流能力[9]。在輸入和輸出層有兩個邏輯門分別控制輸入和輸出對存儲模塊的激活和調(diào)用。存儲單元的核心是內(nèi)部狀態(tài)的自連接,被稱為自連接記憶單元(Constant Error Carousel,CEC)。自連接記憶單元的激活代表存儲狀態(tài)的激活。由于自連接記憶單元的存在,邏輯門通過學(xué)習(xí)可以實現(xiàn)自主的開啟和關(guān)閉,因此RNNs神經(jīng)網(wǎng)絡(luò)中的梯度消失問題得到了解決。具體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
圖1 LSTM神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
在衛(wèi)星軌道數(shù)據(jù)預(yù)測中,將歷史數(shù)據(jù)(地心慣性系下X,Y,Z軸方向的值)作為輸入。LSTM神經(jīng)網(wǎng)絡(luò)的主要目的是在先驗信息的條件下對下一個時間序列數(shù)據(jù)進(jìn)行預(yù)測,不是通過多少個步驟進(jìn)行數(shù)據(jù)的預(yù)測。為了實現(xiàn)這個目標(biāo),輸入的時序數(shù)據(jù)將通過下面的公式迭代計算[10]:
it=σ(Wixxt+Wimmt-1+Wicct-1+bi)
ft=σ(Wfxxt+Wfmmt-1+Wfcct-1+bf)
ot=σ(Woxxt+Wommt-1+Wocct-1+bo)
ct=ft⊙ct-1+it⊙g(Wcxxt+Wcmmt-1+bc)
mt=ot⊙h(ct)
(1)
在LSTM中,首先構(gòu)建了3個門用來控制信息的流通量,it,ft,ot,分別為輸入門、遺忘門和輸出門,不同的門對信息流的控制有不同的作用,具體如下:
1) 輸入門it:主要控制流入存儲單元(memory cell)的信息量。
2) 遺忘門ft:主要控制前一時刻的存儲單元(memory cell)累積到當(dāng)前時刻存儲單元(memory cell)的量。
3) 輸出門ot:主要控制某一時刻存儲單元(memory cell)中的信息流可以流入當(dāng)前隱藏狀態(tài)mt中。
ct是存儲單元激活函數(shù),xt代表輸入特征向量,mt代表隱藏的輸出向量。式(1)表達(dá)了LSTM網(wǎng)絡(luò)結(jié)構(gòu)中歷史信息積累,主要通過存儲單元(memory cell)自連接積累。在累積過程中,通過忘記門限制上一時刻的存儲單元信息,并靠輸入門限制新信息。這也反映了存儲單元的自連接是線性累積。
式(1)表達(dá)了當(dāng)前的隱藏狀態(tài)mt是由ct計算而來,由于ct是以線性的方式自我更新的,故先將其加入帶有非線性功能的h(·)中,接著靠輸出門ot的過濾得到當(dāng)前隱藏狀態(tài)mt。
W為權(quán)值矩陣,b為誤差向量,主要用來在輸入層、輸出層和存儲模塊中建立連接,對預(yù)測信息流中的數(shù)據(jù)進(jìn)行修正。
式(1)中⊙代表由兩個矢量生成標(biāo)量的過程,σ(·)為標(biāo)準(zhǔn)的邏輯函數(shù),定義如式(2)所示[10]:
(2)
g(·)和h(·)都為邏輯函數(shù),且取值范圍分別為[-2,2]和[-1,1],如式(3),式(4)所示[11]:
(3)
(4)
在一個存儲單元內(nèi)部分別有著3個不同的邏輯門,分別是輸入門、輸出門和遺忘門。當(dāng)輸入的信息流過期后,遺忘門能夠重置存儲模塊中的信息,同時也對CEC的參數(shù)進(jìn)行修正;當(dāng)遺忘門打開時,存儲單元將輸入門的數(shù)據(jù)寫入;當(dāng)遺忘門關(guān)閉時,存儲單元會清除之前的內(nèi)容。輸出門打開時,神經(jīng)網(wǎng)絡(luò)的其他部分將數(shù)據(jù)讀入存儲單元;而當(dāng)輸入門打開時,神經(jīng)網(wǎng)絡(luò)的其他部分將讀取存儲單元中的數(shù)據(jù)。
3.1 LSTM分析
雖然LSTM神經(jīng)網(wǎng)絡(luò)為RNNs的反饋誤差提供了更加有效的學(xué)習(xí)過程,使得在出現(xiàn)梯度下降的情況下,反饋權(quán)值不會很快消失;但是,從理論上來說,LSTM神經(jīng)網(wǎng)絡(luò)依然無法完全擺脫梯度消失的可能性。隨著數(shù)據(jù)量的增大,訓(xùn)練層數(shù)的增多,時間步長的不可調(diào)整,一方面會降低LSTM神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的效率,一方面影響數(shù)據(jù)預(yù)測的精度,雖然加多訓(xùn)練層數(shù)能彌補(bǔ)訓(xùn)練精度的不足,但降低了訓(xùn)練效率,且訓(xùn)練結(jié)果的精度在訓(xùn)練層數(shù)達(dá)到某一值后,訓(xùn)練精度將無法再提升,出現(xiàn)過擬合的情況,一般的訓(xùn)練層數(shù)為2層最好。
為了驗證LSTM在衛(wèi)星軌道預(yù)報的性能,結(jié)合實際對衛(wèi)星地心慣性坐標(biāo)系X,Y,Z的數(shù)據(jù)分別進(jìn)行LSTM神經(jīng)網(wǎng)絡(luò)預(yù)測。實驗對象為TacSat 2美國科學(xué)成像衛(wèi)星,于2006年12月發(fā)射,軌道高度為413 km×424 km的近圓軌道,實驗中以UTC時間2007年7月1日12:00:00至2017年10月8日12:00:00共100 d數(shù)據(jù)作為學(xué)習(xí)樣本。由STK的高精度軌道預(yù)報器(HPOP)計算出100 d的衛(wèi)星軌道X,Y,Z的值,訓(xùn)練樣本以1 min間隔采樣,進(jìn)行未來20 d的預(yù)測,選擇X、Y、Z軸進(jìn)行軌道數(shù)據(jù)預(yù)測,X軸預(yù)測結(jié)果的局部如圖2所示,其誤差分析主要根據(jù)訓(xùn)練次數(shù),記錄最大絕對誤差以及訓(xùn)練時間。如表1所示。
表1 LSTM訓(xùn)練性能分析
圖2 LSTM預(yù)測數(shù)據(jù)對比
由圖2可知,預(yù)報數(shù)據(jù)整體預(yù)報趨勢隨真實數(shù)據(jù)周期性變化,這說明LSTM神經(jīng)網(wǎng)絡(luò)通過學(xué)習(xí)能夠掌握原始數(shù)據(jù)周期性變化的內(nèi)在關(guān)聯(lián),學(xué)習(xí)能力比較突出。圓形的預(yù)報數(shù)據(jù)與菱形的真實數(shù)據(jù)擬合的效果較差,由于Y軸刻度較大,故可以分析出預(yù)報數(shù)據(jù)的精度對于衛(wèi)星軌道預(yù)報還遠(yuǎn)遠(yuǎn)不夠。由表1分析可知其訓(xùn)練誤差在100次時好于20次、50次。當(dāng)其訓(xùn)練層數(shù)超過100次后,在150次、200次時訓(xùn)練結(jié)果精度出現(xiàn)反彈,造成訓(xùn)練誤差回升,層數(shù)的增加也使得訓(xùn)練時長隨之增加。不論是時效性還是精確性都無法滿足衛(wèi)星軌道預(yù)報的需求。
3.2 LSTM優(yōu)化
結(jié)合上述分析缺點(diǎn),本文提出一種新的LSTM神經(jīng)模型構(gòu)建方案,從LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)分析可知,每一個時刻之間時間步長T是一個賦值變量,在訓(xùn)練前由人為設(shè)定。由于輸入數(shù)據(jù)之間關(guān)系的不可預(yù)知性,其下一時刻數(shù)據(jù)與前某些時刻數(shù)據(jù)的相關(guān)性也非一成不變,造成訓(xùn)練精度存在誤差,所以這樣的時間步長在訓(xùn)練過程中不夠靈活。
要提高訓(xùn)練精度就要使得步長T能根據(jù)數(shù)據(jù)的變化規(guī)律賦予相應(yīng)的變化權(quán)值。因此需要在前一時刻的輸出層和本時刻的隱含層之間對步長T進(jìn)行更新。將數(shù)據(jù)的變化規(guī)律引入到步長T的變化中,讓T的變化率與數(shù)據(jù)的變化率保持一致,就能保證T能準(zhǔn)確的確立與前面相關(guān)數(shù)據(jù)的關(guān)聯(lián)性。設(shè)前一層輸出層輸出的結(jié)果向量為f(x),對其進(jìn)行一階求導(dǎo),表示出數(shù)據(jù)之間變化率。根據(jù)數(shù)據(jù)的變化率確定T的取值,如下式所示:
(5)
相比較之前的模型,不會出現(xiàn)局部最優(yōu)解,模型的收斂也會更加準(zhǔn)確。具體模型結(jié)構(gòu)如圖3所示。
在每一層LSTM神經(jīng)網(wǎng)絡(luò)中,可將數(shù)據(jù)分為N段,每段數(shù)據(jù)的值作為步長T的初值,在時刻t輸入一段數(shù)據(jù),放入隱含層中進(jìn)行訓(xùn)練。隱含層中為LSTM邏輯門,隨著t時刻進(jìn)行,進(jìn)入網(wǎng)絡(luò)中的數(shù)據(jù)增加。根據(jù)式(5)可知,步長T的值也在增加,且隱含層的數(shù)據(jù)不斷累加,因此步長T能最大限度保持與前面數(shù)據(jù)的關(guān)聯(lián)性,再由LSTM結(jié)合數(shù)據(jù)前后關(guān)系進(jìn)行學(xué)習(xí),就能不斷掌握數(shù)據(jù)變化規(guī)律,直到全部數(shù)據(jù)學(xué)習(xí)結(jié)束。
圖3 改進(jìn)的LSTM模型結(jié)構(gòu)
本節(jié)主要講預(yù)報數(shù)據(jù)與真實數(shù)據(jù)的比較分析。由3.1節(jié)可知在衛(wèi)星軌道預(yù)報中,樣本數(shù)據(jù)和比較數(shù)據(jù)均來自STK中的高精度軌道預(yù)報器(HPOP)。在以往的低軌衛(wèi)星研究中,多以HPOP為生成標(biāo)準(zhǔn)軌道,作為驗證各種軌道預(yù)報方法精度的標(biāo)準(zhǔn)數(shù)據(jù)。故在實驗中,采用HPOP的數(shù)據(jù)作為實驗的數(shù)據(jù)來源,一來作為樣本數(shù)據(jù)在模型精度上比SGP4動力學(xué)模型高,二來作為比較數(shù)據(jù),更加貼合實際軌道數(shù)據(jù)。
實驗過程中,實驗對象、實驗數(shù)據(jù)與3.1節(jié)相同,對未來5 d、10 d、20 dX,Y,Z軸數(shù)據(jù)進(jìn)行預(yù)報,并將預(yù)報值與真實值進(jìn)行誤差對比分析。
圖4為對衛(wèi)星X軸的5 d、10 d、20 d誤差分析圖,隨著預(yù)報時長增加,預(yù)報誤差也增加,但增加的幅度較小。相比改進(jìn)前的網(wǎng)絡(luò),X軸的最大誤差已經(jīng)控制在5 km以下,這說明預(yù)測數(shù)據(jù)與真實數(shù)據(jù)有著較好的擬合度。
圖4 X軸預(yù)報誤差分析圖
圖5為對衛(wèi)星Y軸的5 d、10 d、20 d誤差分析圖,在對Y軸的長期預(yù)報中,最大誤差也控制在5 km以下。隨著預(yù)測的時長增加,改進(jìn)的網(wǎng)絡(luò)沒有出現(xiàn)明顯的發(fā)散,穩(wěn)定性較好。
圖5 Y軸預(yù)報誤差分析圖
圖6為對衛(wèi)星Z軸的5 d、10 d、20 d誤差分析圖,對Z軸的誤差分析中,其最大誤差也控制在5 km以下,且Z軸誤差變化平穩(wěn),這是因為Z軸數(shù)據(jù)本身的特性比較有規(guī)律,在Z軸的長期預(yù)測中沒有出現(xiàn)發(fā)散,表明改進(jìn)的神經(jīng)網(wǎng)絡(luò)具有較好的收斂性。
圖6 Z軸預(yù)報誤差分析圖
在衛(wèi)星軌道預(yù)報中,評價預(yù)報誤差的標(biāo)準(zhǔn)主要有均值、均方值以及最大值。均值指在某一時間段里,預(yù)報誤差絕對值的平均值。均方值指在一定時間段里誤差平方的平均值。最大值為預(yù)報時間段內(nèi)誤差的最大值,即最壞情況。由于均方值通常用來表征誤差分布情況,具有較好的說服力,故在對衛(wèi)星軌道預(yù)報誤差的分析中采用誤差的均方值分析,計算公式如下:
(6)
誤差評定標(biāo)準(zhǔn)的引入,是對衛(wèi)星預(yù)報分析的重要指標(biāo)之一。根據(jù)衛(wèi)星預(yù)報數(shù)據(jù)誤差隨時間的變化情況,不僅能分析出預(yù)測值相比于真實值的變化情況,還能直觀的與改進(jìn)前的LSTM神經(jīng)網(wǎng)絡(luò)算法進(jìn)行預(yù)測精度的對比。
本實驗針對衛(wèi)星軌道數(shù)據(jù)X,Y,Z分別進(jìn)行了5 d、10 d、20 d不同時長的預(yù)測分析。為分析改進(jìn)的LSTM神經(jīng)網(wǎng)絡(luò)預(yù)測誤差隨時間的變化情況,對預(yù)測不同時長的X,Y,Z的數(shù)據(jù)分別進(jìn)行計算,計算出誤差的均方值。其計算結(jié)果如表2所示。
表2 預(yù)報數(shù)據(jù)均方誤差 km
由表2可以看出:X,Y,Z軸的均方誤差隨著預(yù)測時間的增長,也在緩慢增長,在衛(wèi)星預(yù)報軌道數(shù)據(jù)中,其預(yù)測的精度也會隨著預(yù)報時長的增加而下降;但從數(shù)值上分析可知,X,Y,Z軸長期預(yù)報的均方誤差與短期預(yù)報誤差的差分別為2.28 km、3.67 km和2.36 km。數(shù)據(jù)的變化量很小,這說明在實驗時長內(nèi),軌道預(yù)報數(shù)據(jù)的收斂性比較好,并未隨著預(yù)測時間的成倍增長而快速發(fā)散。改進(jìn)的LSTM神經(jīng)網(wǎng)絡(luò)有著較好的收斂性,且100次的學(xué)習(xí)訓(xùn)練時間僅為5 min,相比改進(jìn)前的15 min有了很大的提高。
將基于SGP4的動力學(xué)模型進(jìn)行了仿真,對其誤差進(jìn)行了對比。在實驗中采用HPOP模型的數(shù)據(jù)作為比較數(shù)據(jù),計算了SGP4模型預(yù)報5 d、10 d、20 d的總位置預(yù)報誤差,以每15 min為采樣間隔,仿真結(jié)果如圖7所示。
比較分析可得,動力學(xué)模型SGP4計算結(jié)果是發(fā)散的,主要是因為其誤差隨著時間的累積不斷增大。在短期的預(yù)報中,動力學(xué)模型的預(yù)報精度在2 km以下,神經(jīng)網(wǎng)絡(luò)的最大預(yù)報誤差在3 km以上,故動力學(xué)模型精度要好于神經(jīng)網(wǎng)絡(luò)的預(yù)報精度。在中期預(yù)報中,動力學(xué)模型的最大誤差在4 km左右,而神經(jīng)網(wǎng)絡(luò)預(yù)報誤差也在4 km左右,二者效果相當(dāng)。在長期預(yù)報中,動力學(xué)模型的誤差隨著積累,達(dá)到了6 km以上,而神經(jīng)網(wǎng)絡(luò)預(yù)報并沒有出現(xiàn)嚴(yán)重的發(fā)散情況,最大誤差控制在5 km之內(nèi),相比動力學(xué)模型來說有著較好的預(yù)報精度。
圖7 動力學(xué)模型誤差分析
本文給出了利用長短時記憶神經(jīng)網(wǎng)絡(luò)進(jìn)行軌道預(yù)報的思路和改進(jìn)的模型,將衛(wèi)星軌道數(shù)據(jù)的某一段較長的歷史軌道數(shù)據(jù)作為訓(xùn)練的樣本,對后期軌道數(shù)據(jù)進(jìn)行預(yù)報,其預(yù)報精度基本達(dá)到人們對于衛(wèi)星過境、測控的使用精度,在應(yīng)用上有著一定的指導(dǎo)意義,由于預(yù)報擺脫了動力學(xué)模型,使得衛(wèi)星在精密定軌,交會對接上,其誤差還存在較大的偏差,這在下一步的研究中還需對神經(jīng)網(wǎng)絡(luò)模型、訓(xùn)練參數(shù)、樣本數(shù)據(jù)等各方面影響訓(xùn)練精度的因素進(jìn)一步研究。
[1] 曹磊.基于深度神經(jīng)網(wǎng)絡(luò)補(bǔ)償模型的軌道預(yù)報技術(shù)[D].南京:南京航空航天大學(xué),2014.
[2] 張守建,趙磊.基于Kalman濾波的低軌衛(wèi)星運(yùn)動學(xué)精密定軌快速算法[J].大地測量與地球動力學(xué),2016,36(5):408-410.
[3] DOORNBOS E,KLINKRAD H,VISSER P.Use of Two-Line Element Data for Thermosphere Neutral Density Model Calibration[J].Advances in Space Research,2008,41(7):1115-1122.
[4] 劉 衛(wèi),繆元興.SGP4/SDP4模型預(yù)報可靠性分析[J].天文研究與技術(shù),2011,8(2):128-131.
[5] 管洪杰,姚志成,劉巖,等.基于容積卡爾曼濾波(CKF)算法的衛(wèi)星軌道實時預(yù)報方法[J].科學(xué)技術(shù)與工程,2013,13(32):9622-9625.
[6] 陳巧紅,孫超紅,余仕敏,等.基于遞歸神經(jīng)網(wǎng)絡(luò)的廣告點(diǎn)擊率預(yù)估研究[J].浙江理工大學(xué)學(xué)報(自然科學(xué)版),2016,35(6):880-885.
[7] MA X,TAO Z,WANG Y,et al.Long Short-term Memory Neural Network for Traffic Speed Prediction using Remote Microwave Sensor Data[J].Transportation Research Part C,2015,54(9):187-197.
[8] LIPTON Z C,BERKOWITZ J,ELKAN C.A Critical Review of Recurrent Neural Networks for Sequence Learning[J].Computer Science,2015(10):51-54.
[9] LIPTON Z C,KALE D C,ELKAN C,et al.Learning to Diagnose with LSTM Recurrent Neural Networks[J].Computer Science,2015(2):101-104.
[10] SAK H,SENIOR A W.Processing Acoustic Sequences using Long Short-term Memory (LSTM) Neural Networks that Include Recurrent Projection Layers:,US 9620108 B2[P].2017.
[11] SAK H,SENIOR A,BEAUFAYS F.Long Short-term Memory Recurrent Neural Network Architectures for Large Scale Acoustic Modeling[J].Computer Science,2014(9):338-342.
ApplicationofLongShort-TermMemoryNeuralNetworktoOrbitPredictionofSatellite
ZHU Junpeng1a, ZHAO Hongli1b, DU Xing2, JIANG Yong3
(1.a.Department of Graduate Management; b.Training Department, Academy of Equipment of PLA, Beijing 101416, China; 2.The Military Representative Office of PLA in the Second Research Institute of CASIC, Beijing 100854, China; 3.The No. 95801stTroops of PLA, Beijing 100076, China)
The current satellite orbit prediction mainly depends on the dynamic model. Because of the difference between the model and the actual spatial environment, the dynamic model predicted the track, and the actual track has a greater deviation. Especially LEO, and due to the complexity of the space environment, the prediction error is bigger. Using the neural network of deep learning as a tool for orbit prediction, it can predict the future data by training the satellite orbit data and grasp the implicit relationship between the data. The prediction of the long short-term memory neural network model is carried out. By comparing the prediction data and the actual data, the prediction error is reduced from 300 km to 5 km, which greatly improves the accuracy of the prediction.
orbit prediction; LEO; deep learning; long short-term memory neural network
2017-07-05;
2017-08-11
朱俊鵬(1993—),男,碩士研究生,主要從事信息網(wǎng)絡(luò)安全研究。
10.11809/scbgxb2017.10.026
本文引用格式:朱俊鵬,趙洪利,杜鑫,等.長短時記憶神經(jīng)網(wǎng)絡(luò)在衛(wèi)星軌道預(yù)報中的研究[J].兵器裝備工程學(xué)報,2017(10):127-132.
formatZHU Junpeng, ZHAO Hongli, DU Xing, et al.Application of Long Short-Term Memory Neural Network to Orbit Prediction of Satellite[J].Journal of Ordnance Equipment Engineering,2017(10):127-132.
TJ417
A
2096-2304(2017)10-0127-06
(責(zé)任編輯楊繼森)