• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于神經(jīng)網(wǎng)絡的上證綜指預測模型研究

      2023-02-15 05:49:04趙騰哲首都經(jīng)濟貿(mào)易大學統(tǒng)計學院
      消費導刊 2023年1期
      關(guān)鍵詞:雙層卷積神經(jīng)網(wǎng)絡

      趙騰哲 首都經(jīng)濟貿(mào)易大學統(tǒng)計學院

      在金融市場,特別是股票市場中,如何精準地選擇股票來規(guī)劃自己的投資計劃,以達到規(guī)避風險和獲得更多收益的目標,是人們所關(guān)注的重點。

      國外將機器學習應用于金融市場的研究比較早。2015年Michel Ballings等[1]使用單一分類器模型(神經(jīng)網(wǎng)絡,邏輯回歸,支持向量機和K近鄰)和集成方法(隨機森林,AdaBoost和Kernel Factory)對未來一年股價方向進行預測。Nikola Milosevic[2]提出了一種機器學習輔助方法,以長期評估股票的未來價格。Badre Labiad等[3]采用了隨機森林、梯度增強樹和支持向量機來預測摩洛哥股票市場的短期變化,證明了隨機森林和梯度增強樹比支持向量機適用于短期預測。Sujin Pyo等[4]使用人工神經(jīng)網(wǎng)絡,使用帶有多項式和徑向基函數(shù)核的支持向量機模型預測了韓國綜合股票價格指數(shù)200(KOSPI 200)的價格趨勢。Uma Gurav等[5]基于股票市場投資風險的最小化與預測誤差的最小化緊密相關(guān)的事實,采用機器學習的方法對于動態(tài)股票市場進行預測。Keywan等[6]講述了機器學習的理論和方法,進行實例演示,說明投資者如何在避免模型過擬合時運用機器學習算法準確地預測股票的收益。Dominik Wolff等[7]使用隨機森林,正則Logistic回歸等模型對1999年至2019年期間標準普爾500指數(shù)歷史成份股的每周數(shù)據(jù)進行了股票特征訓練,以預測特定股票在接下來的一周內(nèi)是否跑贏大盤。2020年Wenjie Lu等[8]提出了一種CNN-BiLSTM-AM的方法來預測第二天的股票收盤價。Doron Avramov等[9]基于深度學習的投資成功地識別了與大多數(shù)異常現(xiàn)象一致的錯誤定價股票。韓山杰等[10]基于TensorFlow,構(gòu)建多層感知器模型,用于預測每日收盤股價。彭燕等[11]證實了股票的調(diào)整不是按照均勻的時間過程推進,而是具有自身的推進過程,幫助投資者進一步的了解實際股價并且構(gòu)建合適的股票投資策略。馮宇旭等[12]將LSTM用于滬深300指數(shù)的股價預測中,獲得了比較好的預測效果。2021年趙紅蕊等[13]提出了一種在結(jié)合長短期記憶網(wǎng)絡和卷積神經(jīng)網(wǎng)絡的基礎上引入注意力機制的股票預測混合模型。胡聿文等[14]提出一種基于PCA和LASSO的LSTM神經(jīng)網(wǎng)絡股票價格預測模型,提高股票價格的預測精度。方義秋等[15]提出了一種聯(lián)合RMSE損失LSTM-CNN的方法,在預測效果上具有良好的可行性和普適性。李瀟俊等[16]發(fā)現(xiàn)基于LSTM模型和GRU模型構(gòu)建的混合循環(huán)神經(jīng)網(wǎng)站模型在長期預測上具有更高的預測精度。2022年,曹超凡等[17]融合卷積神經(jīng)網(wǎng)絡和長短時記憶網(wǎng)絡,構(gòu)建CNN-LSTM模型的基礎上,引入多向延遲嵌入的張量處理技術(shù)MDT,驗證了引入MDT技術(shù)的有效性和可行性。嚴冬梅等[18]提出一種結(jié)合自注意力機制和殘差網(wǎng)絡的生成式對抗神經(jīng)網(wǎng)絡模型。能不同程度地減少預測誤差。

      上述文獻中所使用的模型多為多種神經(jīng)網(wǎng)絡的混合模型,例如CNN-LSTM神經(jīng)網(wǎng)絡。然而LSTM作為一種預測時間序列數(shù)據(jù)的神經(jīng)網(wǎng)絡,其本身對數(shù)據(jù)的擬合效果非常好,加入其他網(wǎng)絡可能令預測結(jié)果變差。針對上述問題,本文選擇適當加深維度后的模型,與當前預測效果好的混合模型進行對比,使用上證綜指進行分析,讓模型自主尋找最優(yōu)的超參數(shù),從預測模型的擬合精度和程度分別判斷模型好壞。結(jié)果顯示文章所使用的模型都有較高的預測精度,充分證明了加深模型深度比模型混合對于股價的預測效果提升更加明顯,為股價預測的神經(jīng)網(wǎng)絡模型的優(yōu)化方向提供思路。

      一、神經(jīng)網(wǎng)絡模型

      (一)循環(huán)神經(jīng)網(wǎng)絡

      循環(huán)神經(jīng)網(wǎng)絡(RNN)是一種專門用來處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡,相比與于普通前饋神經(jīng)網(wǎng)絡,其可以接受自身和其他神經(jīng)元的信息,構(gòu)成了循環(huán)結(jié)構(gòu),可以有效地挖掘出數(shù)據(jù)中的時序信息,因此在語音識別、語言模型、機器翻譯等方面表現(xiàn)良好。

      但在使用RNN處理問題時一般存在一系列問題,例如“長期依賴”問題。長期是指所預測的目標在序列靠前的位置,但在多次傳播以后,循環(huán)神經(jīng)網(wǎng)絡難以學習到時間久遠的信息,從而無法進行準確的預測,同時梯度消失和梯度爆炸是困擾RNN模型訓練的關(guān)鍵原因之一。由于RNN的權(quán)值矩陣循環(huán)相乘導致矩陣高次冪,在多次傳播后,大部分情況下梯度傾向于消失,小部分情況下趨于爆炸。

      LSTM神經(jīng)網(wǎng)絡提出的動機是為了解決上面提到的問題。為了解決長期依賴問題,LSTM引入了門機制,不同于RNN全盤接受信息,LSTM加入了門之后,對所輸入的信息進行了選擇,從而可以獲取較遠的序列的信息。

      LSTM計算過程如下:

      (1)選擇忘記過去某些信息

      ht?1是LSTM神經(jīng)元單元在最后時刻的最終輸出值,xt是當前時刻的輸入,σ是激活函數(shù),ft是當前時刻遺忘門的輸出,W是權(quán)重,B為偏差。

      (2)記憶現(xiàn)在的某些信息

      it是當前時刻的輸入門輸出是當前時刻的候選單元狀態(tài)。

      (3)將過去與現(xiàn)在的記憶進行合并

      Ct是當前時刻的單元狀態(tài),Ct?1是先前時刻的單元狀態(tài)。

      (4)計算得到輸出值

      ot是輸出門的輸出值,ht是當前時刻的輸出。

      GRU則進一步簡化了LSTM,將遺忘門和輸入門合二為一,只保留了更新門和重置門兩種門操作。在LSTM中長期記憶會影響到某一時刻的模型輸出,而GRU則直接把某一時刻的長期記憶作為輸出,一邊修改長期記憶一邊進行輸出,所以這使得GRU比LSTM具有更少的輸入(LSTM有三個輸入,GRU只有兩個)和更簡單的結(jié)構(gòu),運算量也相對減少。

      GRU運算過程如下:

      先使用上一時刻的輸出和當前時刻的輸入X做出兩個獨立的門出來。Zt為重置門,tR為更新門。

      (2)先生成臨時激活值,可以發(fā)現(xiàn)Rt越大,之前的信息就帶入越多。

      (3)加權(quán)生成最后的輸出

      (二)卷積神經(jīng)網(wǎng)絡

      卷積神經(jīng)網(wǎng)絡是一種前饋神經(jīng)網(wǎng)絡,在自然語言處理和圖像處理方面具有優(yōu)異的表現(xiàn)。卷積結(jié)構(gòu)減少了神經(jīng)網(wǎng)絡占用的內(nèi)存,局部感受野和權(quán)值共享成功減少了參數(shù)的數(shù)量,提高了模型的效率,防止參數(shù)過多導致模型過擬合。

      卷積神經(jīng)網(wǎng)絡主要由卷積層、池化層和全連接層構(gòu)成。其中卷積層和池化層是卷積神經(jīng)網(wǎng)絡獨有。卷積核是卷積層中的主要部分,超參數(shù)主要為卷積核大小、填充和步長,通過卷積層的卷積操作,可以提取出數(shù)據(jù)特征,但提取出的特征維度高,池化層的主要目的就是為了降低特征維度,減少計算量,降低神經(jīng)網(wǎng)絡的訓練成本,通常會在卷積層的后面加一個池化層。池化層的超參數(shù)主要為池大小、填充和激活函數(shù)。

      卷積神經(jīng)網(wǎng)絡的訓練過程如下:

      1.向模型輸入數(shù)據(jù),卷積神經(jīng)網(wǎng)絡使用梯度下降算法,因此需要對輸入數(shù)據(jù)進行標準化,提升卷積神經(jīng)網(wǎng)絡的表現(xiàn)。

      2.初始化模型的權(quán)值和閾值,固定學習率等超參數(shù)。

      3.輸入數(shù)據(jù)依次通過卷積層、池化層和全連接層得到輸出值。

      4.計算輸出值與目標值之間的誤差,依次計算各個層之間的誤差,計算出權(quán)值和閾值的調(diào)整量,對其更新。

      5.訓練多次后,判斷模型的結(jié)果是否符合預期,未滿足繼續(xù)迭代,滿足后訓練結(jié)束,保存權(quán)值和閾值。

      (三)模型評價指標

      為了對各類模型做出更加準確的評價,筆者采用三種評價指標來衡量模型的擬合效果,分別是和R2。

      三種指標的公式分別如下:

      二、實驗過程

      (一)數(shù)據(jù)選取與處理

      本實驗選擇上證綜指(000,001)作為實驗數(shù)據(jù),選取的數(shù)據(jù)來源于Choice金融終端,數(shù)據(jù)較為可靠,數(shù)據(jù)時間范圍從1991年7月1日至2020年8月31日共7127個交易日。每條數(shù)據(jù)包含8個變量:開盤價、最高價、最低價格、收盤價、成交量、成交金額、漲跌額和漲跌幅。本實驗以前6627個交易日的數(shù)據(jù)作為訓練集,以后500個交易日的數(shù)據(jù)作為測試集。部分樣本數(shù)據(jù)展示如表1所示。

      表1 樣本數(shù)據(jù)

      本文對數(shù)據(jù)建模的過程如下:

      1.輸入訓練所需要的數(shù)據(jù)。

      2.對數(shù)據(jù)進行預處理,由于數(shù)據(jù)各個變量值之間相差較大,為了使訓練后的模型更加準確,對數(shù)據(jù)做標準化處理。

      3.初始化神經(jīng)網(wǎng)絡的權(quán)重和偏置,設置好網(wǎng)絡層數(shù),通過隨機搜索找到合適的范圍,通過網(wǎng)格搜索找到最優(yōu)隱藏單元數(shù)等,設置超參數(shù)。

      4.將數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡中,設置學習率衰減策略和早停法,便于更好的擬合模型和防止產(chǎn)生過擬合,通過神經(jīng)網(wǎng)絡得到輸出值。

      5.判斷模型迭代是否完成或者達到設定要求,滿足條件后完成訓練,更新并保存神經(jīng)網(wǎng)絡;未滿足條件更新模型的權(quán)重和偏置繼續(xù)訓練。

      6.將預測的數(shù)據(jù)輸入訓練好的模型,并進行標準化處理。

      7.通過訓練好的模型得到預測值,對預測值做反標準化,與真實的預測值進行比較,計算相應的,判斷哪種模型對數(shù)據(jù)的擬合效果更好

      8.為防止神經(jīng)網(wǎng)絡擬合出現(xiàn)極端值的情況,整個過程共循環(huán)10次,記錄的數(shù)值,計算平均值,使結(jié)果更具說服力。

      (二)模型參數(shù)

      在本實驗中,神經(jīng)網(wǎng)絡的訓練參數(shù)都相同,迭代次數(shù)為100次,損失函數(shù)為MAE,優(yōu)化器選擇Adam,批量大小為64,時間步長為10,初始學習率為0.001。在卷積神經(jīng)網(wǎng)絡中卷積層包含32個卷積核,內(nèi)核大小為1,激活函數(shù)為tanh,填充為same,池化層大小為1,激活函數(shù)為tanh,填充為same,神經(jīng)網(wǎng)絡中的隱藏單元數(shù)均為256。

      在設定隱藏單元數(shù)時,運用隨機搜索和網(wǎng)格搜索,令模型自主選擇最優(yōu)的參數(shù),筆者為了兼顧運算的時間和擬合效果,將單元數(shù)上限設置為256。

      為了使擬合效果更好,筆者采用學習率衰減策略,逐步降低學習率,以求達到最好的擬合效果,同時防止擬合次數(shù)過多產(chǎn)生過擬合現(xiàn)象,采用早停法進行限制。

      由于神經(jīng)網(wǎng)絡每次訓練的初始權(quán)重和參數(shù)都不同,為了能夠避免出現(xiàn)極端數(shù)值,筆者采用多次訓練的方法,將每次訓練的結(jié)果置于數(shù)據(jù)框中,共訓練10次,求取各個評價指標的均值作為最終結(jié)果(見表2)。

      表2 神經(jīng)網(wǎng)絡參數(shù)

      (三)結(jié)果展示

      筆者利用處理后的訓練集數(shù)據(jù)分別對CNN、RNN、LSTM、CNN-RNN、CNN-LSTM、雙層RNN和雙層LSTM進行訓練后,利用訓練完成的模型對測試集數(shù)據(jù)進行預測,并將真實值與預測值進行比較(見圖1-圖7)。

      圖1 CNN

      圖2 RNN

      圖3 LSTM

      圖4 CNN-RNN

      圖5 CNN-LSTM

      圖6 雙層RNN

      圖7 雙層LSTM

      在九種預測方法中,實值和預測值的折線擬合度從低到高排序分別為CNN、CNN-RNN、CNN-LSTM、雙層RNN、RNN、單層LSTM和雙層LSTM。雙層LSTM的擬合程度最好,預測值和真實值幾乎相互重合,CNN的擬合程度最差。根據(jù)每種方法的預測值和實際值,每種方法的評價指標都可以為計算得到后,所有方法的比較結(jié)果見表3、圖8-10所示。

      圖8 MAE圖

      圖9 RMSE圖

      圖10 R2圖

      從表3和圖8-10中可以看出,CNN的MAE,RMSE最大,R2最小,雙層LSTM的MAE,RMSE最小,R2最大,在所有模型中,使用CNN來提取特征或者直接進行預測的模型的擬合結(jié)果都比其他模型差,通過對比RNN和LSTM,可以發(fā)現(xiàn),不管是單獨使用LSTM和RNN模型,還是與CNN結(jié)合使用,LSTM模型的擬合結(jié)果均要優(yōu)于RNN模型。

      表3 預測誤差表

      同時,在使用雙層模型進行處理的過程中,雙層LSTM的模型優(yōu)于單層LSTM,但RNN的結(jié)果與之相反,說明在某種程度上,加深神經(jīng)網(wǎng)絡層數(shù)會帶來一定的改善,但也要具體問題具體分析。

      總體而言,循環(huán)神經(jīng)網(wǎng)絡預測股價具有良好的性能,但當數(shù)據(jù)的變量較少時,使用CNN作為特征提取的方法并不能優(yōu)化模型,反而不如單純的循環(huán)神經(jīng)網(wǎng)絡。當神經(jīng)網(wǎng)絡擬合結(jié)果達不到預想程度時,可以適當加深神經(jīng)網(wǎng)絡的層數(shù)進行嘗試,可能會有更好的結(jié)果。因此,在利用前十天的數(shù)據(jù)來預測下一天的收盤價,神經(jīng)網(wǎng)絡可以很好地預測第二天的收盤價,為投資者的投資提供參考,同時對于預測上證指數(shù)而言,雙層LSTM是一種最好的選擇。

      結(jié)語

      本文根據(jù)股票價格數(shù)據(jù)的時間特征,使用CNN、CNN-RNN、CNN-LSTM、雙層RNN、RNN、單層LSTM和雙層LSTM模型來預測股票收盤價,本文以上證綜指的相關(guān)數(shù)據(jù)為例,以開盤價、最高價、最低價格、收盤價、成交量、成交金額、漲跌額和漲跌幅作為變量,充分利用股票數(shù)據(jù)的時間序列特征,使用前十天的數(shù)據(jù),預測第二天的收盤價。在所有模型當中,雙層LSTM模型對于股價的預測具有更好的效果。實驗結(jié)果表明CNN不適用于預測時間序列數(shù)據(jù);LSTM模型均優(yōu)于RNN模型,說明LSTM模型可以更好地擬合時間序列數(shù)據(jù)。相較于利用CNN提取特征的CNN-RNN、CNN-LSTM,雙層RNN、RNN、單層LSTM和雙層LSTM模型,對于股價的預測具有更好的效果,說明多種神經(jīng)網(wǎng)絡混合不會確切的改善結(jié)果。對比雙層RNN、單層RNN、單層LSTM和雙層LSTM模型的結(jié)果,單層RNN、雙層LSTM模型的比雙層RNN要小、比單層LSTM要大,證實了適當加深神經(jīng)網(wǎng)絡深度才會使預測精度提高,這些結(jié)論會為投資者為決策提供幫助。因此,在對神經(jīng)網(wǎng)絡的優(yōu)化過程中,先選擇適當?shù)纳窠?jīng)網(wǎng)絡,例如RNN、LSTM預測序列數(shù)據(jù),CNN預測圖像數(shù)據(jù),其次適當加深神經(jīng)網(wǎng)絡的深度和調(diào)參,最后采用多種神經(jīng)網(wǎng)絡結(jié)合的方法,按照這種順序可使神經(jīng)網(wǎng)絡模型的結(jié)果更加準確。

      本文也存在著一些不足之處:第一,本文所考慮的只是上證指數(shù),雖然基本可以代表市場的整體情況,但近年來隨著股票市場的發(fā)展,越來越多的股票加入,所做的模型和方法亟待進一步的擴展和研究;第二,本文只考慮了股價數(shù)據(jù)對收盤價的影響,而沒有將新聞和國家政策等因素納入預測之中。未來的工作將會著重在這些方面進行解決,同時會研究模型在其他時間序列數(shù)據(jù),例如汽油價格,黃金價格,是否會有更好的表現(xiàn)。

      猜你喜歡
      雙層卷積神經(jīng)網(wǎng)絡
      基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
      墨爾本Fitzroy雙層住宅
      神經(jīng)網(wǎng)絡抑制無線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于傅里葉域卷積表示的目標跟蹤算法
      基于神經(jīng)網(wǎng)絡的拉矯機控制模型建立
      重型機械(2016年1期)2016-03-01 03:42:04
      次級通道在線辨識的雙層隔振系統(tǒng)振動主動控制
      復數(shù)神經(jīng)網(wǎng)絡在基于WiFi的室內(nèi)LBS應用
      傳統(tǒng)Halbach列和雙層Halbach列的比較
      基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡的PID整定
      休宁县| 石楼县| 平江县| 仙桃市| 宜君县| 专栏| 望奎县| 余江县| 长寿区| 合山市| 巴塘县| 卓尼县| 建平县| 勃利县| 修武县| 东山县| 上饶县| 当阳市| 永康市| 莆田市| 揭东县| 兴仁县| 广饶县| 吉安县| 固始县| 隆德县| 泗水县| 衢州市| 米易县| 慈利县| 天镇县| 绿春县| 宁津县| 上思县| 朝阳县| 金寨县| 礼泉县| 庆安县| 集贤县| 麻江县| 阿合奇县|