• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于一維卷積神經(jīng)網(wǎng)絡(luò)與長短期記憶網(wǎng)絡(luò)結(jié)合的電池荷電狀態(tài)預(yù)測方法

    2021-07-02 00:36:42倪水平李慧芳
    計算機(jī)應(yīng)用 2021年5期
    關(guān)鍵詞:神經(jīng)元卷積神經(jīng)網(wǎng)絡(luò)

    倪水平,李慧芳

    (河南理工大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院,河南焦作 454003)

    (*通信作者電子郵箱lihuifang1112@163.com)

    0 引言

    美國先進(jìn)電池聯(lián)合會(United States Advanced Battery,USABC)將電池荷電狀態(tài)(State-Of-Charge,SOC)定義為:電池在一定放電倍率下,剩余電量與在相同條件下額定電量的比值。對電池SOC的準(zhǔn)確穩(wěn)定估計有助于保護(hù)電池不會因為過沖過放而引起電池?fù)p傷,這是電池管理的重要環(huán)節(jié)[1]。影響電池SOC 的因素有很多。在電池能夠正常使用的情況下,影響電池SOC預(yù)測的最主要因素是電流、電壓、電阻和環(huán)境溫度等。本文在室溫下對電池進(jìn)行循環(huán)充放電實驗得到電流、電壓、電阻以及對應(yīng)的SOC,通過電流、電壓、電阻預(yù)測電池SOC。電流、電壓、電阻與電池SOC 之間具有非線性映射關(guān)系。

    傳統(tǒng)的安時積分法具有累計誤差的缺陷[2],且需要提前獲得電池的初始SOC[3];傳統(tǒng)的開路電壓法需要相當(dāng)長的測量時間[4];現(xiàn)有的Kalman 濾波法的計算量大[5]且需要預(yù)先建立復(fù)雜的電池模型[6-7],這會影響電池的SOC 估計精確度。神經(jīng)網(wǎng)絡(luò)法具有較強(qiáng)的非線性映射能力,反向傳播神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network,BPNN)方法[8-10]被用于電池SOC 預(yù)測。隨著深度學(xué)習(xí)中卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)與循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)在多個領(lǐng)域的廣泛應(yīng)用,與深度學(xué)習(xí)相關(guān)的算法被用于電池SOC 的預(yù)測。RNN 可以有效保存歷史輸入信息,且具有時序記憶能力[11],但SimpleRNN(Simple Recurrent Neural Network)會隨著時間步的延長而發(fā)生信息丟失。長短期記憶(Long Short-Term Memory,LSTM)神經(jīng)網(wǎng)絡(luò)依賴于過去樣本的輸入且有效解決了SimpleRNN 無法捕獲長期依賴性的問題[12]。CNN 通過設(shè)置多個不同的卷積核達(dá)到充分提取輸入信息中不同特征之間深層高級特征的目的[13],CNN 結(jié)合RNN 的網(wǎng)絡(luò)模型同時具有提取輸入數(shù)據(jù)中高級特征和保存歷史輸入信息的能力。

    針對電池SOC 預(yù)測精確度與穩(wěn)定性問題,本文提出一種將一維卷積神經(jīng)網(wǎng)絡(luò)(one-Dimensional Convolutional Neural Network,1D CNN)與LSTM 結(jié) 合 的1D CNN-LSTM(one-Dimensional Convolutional Neural Network combined with Long Short-Term Memory)模型預(yù)測電池SOC,利用1D CNN 提取數(shù)據(jù)的空間特征,LSTM保存歷史輸入信息。該方法在充分使用輸入數(shù)據(jù)的特征信息的同時,又能保存歷史輸入信息并與當(dāng)前的輸入信息一起映射到當(dāng)前的預(yù)測SOC。與BPNN 模型、1D CNN 模型、門控循環(huán)單元(Gated Recurrent Unit,GRU)模型、1D CNN 與GRU 結(jié) 合 的1D CNN-GRU(one-Dimensional Convolutional Neural Network combined with Gated Recurrent Unit)模型、LSTM 模型和SimpleRNN 模型相比,1D CNN-LSTM模型具有更準(zhǔn)確穩(wěn)定的SOC預(yù)測效果。

    1 1D CNN-LSTM聯(lián)合深度神經(jīng)網(wǎng)絡(luò)

    1D CNN 與LSTM 循環(huán)神經(jīng)網(wǎng)絡(luò)聯(lián)合 的1D CNN-LSTM 深度神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示。輸入層Ct、Vt和Rt分別表示第t個樣本的電流、電壓和電阻。隱藏層由1D CNN 層與LSTM 層組成。一層全連接層(Fully Connected Layer,F(xiàn)CL)作為輸出層用于回歸預(yù)測,該層將輸出預(yù)測值SOC。

    圖1 1D CNN-LSTM模型結(jié)構(gòu)Fig.1 Structure of 1D CNN-LSTM model

    1.1 1D CNN提取數(shù)據(jù)空間特征

    CNN是由LeCun等[14]在深度學(xué)習(xí)研究中首次提出的一種成功的深度學(xué)習(xí)架構(gòu),同時也是一種有效用于特征提取和模式識別的前饋神經(jīng)網(wǎng)絡(luò)[15],最常應(yīng)用在圖像領(lǐng)域中的監(jiān)督學(xué)習(xí)問題上,例如計算機(jī)視覺、圖像識別等。CNN可通過卷積層的濾波器提取輸入數(shù)據(jù)之間的相互關(guān)系。

    CNN 使用少量參數(shù)捕捉輸入數(shù)據(jù)的空間特征,并將其組合起來形成高級數(shù)據(jù)特征,最終將這些高級數(shù)據(jù)特征輸入全連接層進(jìn)行進(jìn)一步的回歸預(yù)測或分類預(yù)測。

    典型的CNN 結(jié)構(gòu)由輸入層、卷積層、池化層、全連接層和輸出層組成。經(jīng)過多個濾波器操作之后,CNN 可以通過逐層的卷積和池化操作提取數(shù)據(jù)特征。濾波器可根據(jù)輸入數(shù)據(jù)的大小以及提取特征的需要設(shè)置適當(dāng)?shù)拇翱诖笮∫约按翱诨瑒拥牟椒笮 5湫途矸e神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

    圖2 典型卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Structure of typical CNN

    由于CNN 已經(jīng)成功地應(yīng)用于二維圖像的處理方面,因此也可以將相同的思想用于處理一維數(shù)據(jù)[16]。在卷積層中,輸入的數(shù)據(jù)信息在流向下一層之前需要經(jīng)過卷積操作和激活函數(shù)的計算。該操作如式(1)所示:

    式中:Wcnn表示濾波器的權(quán)重系數(shù),即卷積核;xt表示第t個輸入樣本數(shù)據(jù)信息;*表示xt與Wcnn之間的離散卷積運算;bcnn為偏置參數(shù),將在對模型進(jìn)行訓(xùn)練時通過學(xué)習(xí)獲得;σcnn表示激活函數(shù);ht表示卷積操作結(jié)束后的輸出數(shù)據(jù)。單個輸入樣本由電流、電壓和電阻組成。含有3 個神經(jīng)元節(jié)點的一維卷積層的計算過程如圖3所示。

    圖3 一維卷積層機(jī)制Fig.3 1D convolutional layer mechanism

    每個神經(jīng)元均包含一個濾波器。輸入數(shù)據(jù)將與每一個濾波器作卷積操作,結(jié)果將會被堆疊在一起作為輸出數(shù)據(jù)。例如,當(dāng)使用濾波器(-1,0),滑動窗口的步長為1,沒有偏置參數(shù)時,則第1 個輸出為C1×(-1) +V1× 0=-C1,第2 個輸出為V1×(-1) +R1× 0=-V1;當(dāng)使用濾波器(0,1),窗口的滑動步長為1,沒有偏置參數(shù)時,則第1 個輸出為C1×0+V1×1=V1,第2 個輸出為V1×0+R1×1=R1;當(dāng)使用濾波器(1,0),窗口的滑動步長為1,沒有偏置參數(shù)時,則第1 個輸出為C1×1+V1×0=C1,第2個輸出為V1× 1+R1× 0=V1。

    一個卷積層通常包含多個具有相同維度大小的不同的濾波器[16]。為獲取不同的數(shù)據(jù)特征,在一維卷積層中設(shè)置相同大小的不同濾波器。濾波器的大小不能超過單個樣本數(shù)據(jù)的大小。若輸入的單個樣本數(shù)據(jù)維度為p,濾波器窗口的高度為q,則經(jīng)過一維卷積操作后輸出的單個樣本數(shù)據(jù)維度為p-q+1。如圖3 所示,一個一維卷積層中設(shè)置3 個高度(q)均為2 的濾波器,輸入的樣本數(shù)據(jù)維度(p)為3,則該樣本數(shù)據(jù)經(jīng)過一個濾波器時輸出的特征樣本維度為3-2+1=2。

    由于本文中樣本數(shù)據(jù)的單個樣本高度為3,本文將濾波器的高度設(shè)置為2。不同的濾波器會提取不同的數(shù)據(jù)特征。卷積層的卷積操作可以可視化為一個相同大小的滑動窗口,以一定的步長沿著輸入數(shù)據(jù)移動。對于窗口的每次停留,輸入數(shù)據(jù)被檢查的部分將會和過濾器之間作內(nèi)部積的計算,并將計算結(jié)果作為輸出數(shù)據(jù)的一個特征元素。

    對于空間維度較低的數(shù)據(jù),可以使用卷積層來提取數(shù)據(jù)特征,而無需添加池化層。

    1.2 LSTM保存歷史輸入信息

    SimpleRNN 可有效解決非線性數(shù)值型時間序列的回歸預(yù)測問題,但在對模型進(jìn)行訓(xùn)練的過程中,隨著時間步的推移,會發(fā)生梯度下降或者梯度爆炸的現(xiàn)象。這將會使得前期的歷史輸入信息發(fā)生丟失或者產(chǎn)生無效信息,從而導(dǎo)致預(yù)測結(jié)果錯誤。隨著SimpleRNN 層的增加,網(wǎng)絡(luò)最終將變得不可訓(xùn)練。為解決上述問題,Hochreiter等[17]提出了LSTM算法,該算法可以將數(shù)據(jù)信息存儲到更長的時間步長。LSTM 卷積神經(jīng)網(wǎng)絡(luò)的展開圖如圖4 所示,其中Xn與hn分別表示模型的第n個輸入數(shù)據(jù)與輸入數(shù)據(jù)所對應(yīng)的輸出數(shù)據(jù)。

    圖4 LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)Fig.4 LSTM recurrent neural network

    對于有規(guī)律的數(shù)值型時間序列,即當(dāng)時間(序列順序)對數(shù)據(jù)很重要時,Xn表示一個數(shù)據(jù)批量,這一個數(shù)據(jù)批量組成一個樣本;當(dāng)序列順序?qū)π蛄袛?shù)據(jù)不重要時,Xn表示單個樣本點。如本文的實驗數(shù)據(jù)為序列順序不重要的序列數(shù)據(jù),則Xn表示由電流、電壓和電阻組成的單個樣本,hn表示第n個樣本的預(yù)測值SOC。LSTM的單元結(jié)構(gòu)如圖5所示。

    圖5 LSTM單元結(jié)構(gòu)Fig.5 LSTM cell structure

    LSTM單元可使用有效信息填充狀態(tài)單元,也可刪除無效信息。這個過程中使用的結(jié)構(gòu)稱為門限。門限由1個sigmoid函數(shù)點乘1 個矩陣組成。sigmoid 函數(shù)輸出1 個0 到1 之間的數(shù)值來描述每個信息通過門限的程度,其中0 表示所有信息禁止通過,1表示所有信息通過。

    LSTM的更新公式如式(2)~(6)所示:

    其中:σ和tanh 分別表示sigmoid 激活函數(shù)和雙曲正切激活函數(shù);W和b分別表示權(quán)值矩陣和偏置參數(shù);xt表示LSTM 單元在t時刻的輸入;ht表示在t時刻xt對應(yīng)單元的輸出;ct表示LSTM 在t時刻的狀態(tài)單元。整個LSTM 單元包括3個門限,即遺忘門ft、輸入門it和輸出門ot。

    2 實驗環(huán)境與實驗數(shù)據(jù)集

    2.1 實驗環(huán)境

    實驗硬件設(shè)施使用Intel Xeon Gold 5118 CPU@2.30 GHz服務(wù)器,Window10 旗艦版64 位操作系統(tǒng),16 GB 運行內(nèi)存和500 GB 硬盤。編程軟件為Jupyter Notebook,并以基于TensorFlow 的深度學(xué)習(xí)框架Keras 作為支撐,實現(xiàn)1D CNNLSTM聯(lián)合神經(jīng)網(wǎng)絡(luò)仿真模型的構(gòu)建。

    2.2 實驗數(shù)據(jù)集

    本文從美國馬里蘭(Maryland)大學(xué)的高級生命周期工程中心(Center for Advanced Life Cycle Engineering,CALCE)[18]電池研究小組獲取K2 型號LiFePO4 電池的部分測試數(shù)據(jù)作為本文的實驗數(shù)據(jù),在恒溫下對K2 型號LiFePO4 電池進(jìn)行恒流放電,再進(jìn)行恒壓充電,一次放電過程和一次充電過程為一個充放電循環(huán)。CALCE 電池研究小組已對K2 型號LiFePO4電池進(jìn)行多次循環(huán)充放電實驗并記錄了實驗數(shù)據(jù)。

    獲取CALCE中編號為K2-016的數(shù)據(jù)包中的部分?jǐn)?shù)據(jù),共包括16 219 個樣本數(shù)據(jù)。將這16 219 個樣本劃分為訓(xùn)練集、驗證集和測試集3 個數(shù)據(jù)集,其中訓(xùn)練集包含11 364 個樣本,驗證集包含2 430 個樣本,測試集包含2 425 個樣本。訓(xùn)練集的電流、電壓、電阻和實際SOC 分別如圖6(a)、圖6(b)、圖7(a)和圖7(b)所示。

    圖7 訓(xùn)練集電阻和實際SOCFig.7 Resistance and actual SOC of training set

    測試集的電流、電壓、電阻和實際SOC 分別如圖8(a)、圖8(b)、圖8(c)和圖8(d)所示。

    圖8 測試集電流、電壓、電阻和實際SOCFig.8 Current,voltage,resistance and actual SOC of test set

    SOC 與電流、電壓和電阻的關(guān)系分別如圖9(a)、圖9(b)和圖9(c)所示。圖9中的電流、電壓、電阻和實際SOC 均為測試集中的數(shù)據(jù)。

    圖9 SOC與電流、電壓、電阻的關(guān)系Fig.9 Relation between SOC and current,voltage,resistance

    2.3 實驗數(shù)據(jù)預(yù)處理

    電池剩余電量SOC 保持在0~1的數(shù)值,而電流、電壓和電阻的取值范圍差別較大,為提高算法的訓(xùn)練速度和靈敏性,因此需要對原始訓(xùn)練集、驗證集和測試集的輸入數(shù)據(jù)(電流、電壓、電阻)作標(biāo)準(zhǔn)化處理。因為在模型訓(xùn)練過程中使用取值范圍差別較大的數(shù)據(jù)時,模型雖會自動適應(yīng)這種取值范圍不同的數(shù)據(jù),但模型的學(xué)習(xí)過程將會變得困難。這里選用的數(shù)據(jù)標(biāo)準(zhǔn)化處理方法如式(7)所示:

    表1 原始電流、電壓和電阻Tab.1 Origin current,voltage and resistance

    表2 標(biāo)準(zhǔn)化后的電流、電壓和電阻Tab.2 Standardized current,voltage and resistance

    3 1D CNN-LSTM模型設(shè)置

    在1D CNN-LSTM 模型中,設(shè)置一層具有192 個神經(jīng)元節(jié)點的1D CNN 層,一層具有64 個神經(jīng)元節(jié)點的LSTM 層,一層具有一個節(jié)點的全連接層(又稱為密集連接層)。為防止模型在訓(xùn)練過程中發(fā)生過擬合,設(shè)置LSTM 層的層間dropout 值為0.5,循環(huán)dropout 值為0.2;設(shè)置模型最大迭代步數(shù)為10 000;模型訓(xùn)練時的批處理大小為64。

    為加快模型收斂,并降低模型學(xué)習(xí)周期,相比于Sigmoid等激活函數(shù),采用修正線性單元(Rectified Linear Unit,ReLU)激活函數(shù)會明顯減少模型整個學(xué)習(xí)過程中的計算量[19]。因此在1D CNN 層與LSTM 層均設(shè)置ReLU 非線性激活函數(shù)。ReLU函數(shù)如式(8)所示:

    其中:x表示上一層神經(jīng)網(wǎng)絡(luò)的輸出向量。ReLU 使得輸入的正值不變,負(fù)值變?yōu)?,這種操作將減少參數(shù)間的依存關(guān)系,使神經(jīng)網(wǎng)絡(luò)具有稀疏性,緩解過擬合問題。

    在模型訓(xùn)練、驗證和測試的過程中,在前向傳播的最后一步使用均方誤差(Mean Square Error,MSE)作為模型誤差函數(shù)。并使用平均絕對誤差(Mean Absolute Error,MAE)作為驗證模型電池SOC 預(yù)測效果的指標(biāo)函數(shù)。MSE 與MAE 如式(9)和式(10)所示:

    其中:yk和分別表示在k時刻的實際SOC 與預(yù)測SOC。MSE和MAE 均可用來衡量預(yù)測目標(biāo)與實際目標(biāo)之間的偏差。MSE是實際目標(biāo)和預(yù)測目標(biāo)之間差的平方,然后再求和平均,平方數(shù)據(jù)更容易作微分操作,因此MSE 常被用作回歸預(yù)測時的損失函數(shù)。MAE 是絕對誤差的平均值,能較好地反映預(yù)測目標(biāo)與實際目標(biāo)之間誤差的實際情況。

    在1D CNN-LSTM 模型訓(xùn)練的過程中,使用Adam[20]優(yōu)化函數(shù)更新模型的權(quán)重與偏置。Adam 的更新過程如式(11)~(15)所示:

    其中:mt和nt分別表示t時刻梯度的一階矩估計和二階矩估計,是E[ft(θt)]和E的近似表示;分別表示對mt和nt的修正,是對期望的近似無偏估計;θt表示模型參數(shù)。Adam 函數(shù)為Keras 深度學(xué)習(xí)框架中的內(nèi)置函數(shù)可直接調(diào)用,且Adam 中的參數(shù)使用文獻(xiàn)[20]中得到的參數(shù)設(shè)置作為默認(rèn)參數(shù)設(shè)置,其中學(xué)習(xí)率α為0.001,衰減因子β1和β2分別為0.9和0.999,常量ε為10-8。

    ③戶外廁所應(yīng)布置在院子角落,盡量位于居室和廚房下風(fēng)向,以保證廁所面南、向陽、通風(fēng)的要求,儲糞池位置選擇要考慮宜于清掏和出渣需要。

    1D CNN-LSTM模型的訓(xùn)練過程如下所示。

    步驟1 隨機(jī)初始化模型參數(shù)。設(shè)置完成1D CNN-LSTM模型;隨機(jī)初始化模型的權(quán)重和偏差。

    步驟2 模型前向傳播過程。計算1D CNN-LSTM 模型隱藏層與輸出層的輸出。

    步驟3 模型反向傳播過程。計算隱藏層和輸出層的誤差以及偏導(dǎo)數(shù)。

    步驟4 權(quán)重訓(xùn)練。將通過反向傳播得到的偏導(dǎo)數(shù)用于更新網(wǎng)絡(luò)權(quán)重和偏差。

    步驟5 判斷是否達(dá)到最大迭代步數(shù)。若達(dá)到最大迭代步數(shù),則模型訓(xùn)練結(jié)束,否則將目前的迭代步數(shù)增加1,并回到步驟2。

    3.1 模型最佳迭代步數(shù)選擇

    使用訓(xùn)練集(11 364樣本)訓(xùn)練設(shè)置完成的1D CNN-LSTM模型,使用驗證集(2 430 樣本)驗證模型每一步的訓(xùn)練效果。為防止模型在驗證集上發(fā)生過擬合,最后使用測試集(2 425樣本)測試最終模型。

    為確定合適的訓(xùn)練步數(shù),圖10 繪制訓(xùn)練集與驗證集在模型訓(xùn)練過程中每一步的MSE,訓(xùn)練步數(shù)從0 步增加到10 000步。如圖10 所示,MSE 在模型訓(xùn)練到300 步以后迅速下降到0.01%以下。模型的訓(xùn)練MSE 和驗證MSE 在4 000~6 500 和8 200~8 900 這兩個訓(xùn)練步數(shù)區(qū)間內(nèi)觀測到波動,MSE 突然增加,但很快穩(wěn)定下來,之后又增加。說明Adam 優(yōu)化算法從一個局部最優(yōu)值跳躍到另一個局部最優(yōu)值。訓(xùn)練和驗證MSE均在6 500 步到8 200 步之間達(dá)到全局最小值。本文將1D CNN-LSTM模型的最佳訓(xùn)練步數(shù)設(shè)置為7 000步。

    圖10 訓(xùn)練步數(shù)從0到10 000時模型訓(xùn)練MSE值與驗證MSE值Fig.10 Training MSE and verification MSE of model when training step number varies from 0 to 10 000

    3.2 隱藏層中節(jié)點數(shù)量設(shè)置

    1D CNN-LSTM 模型隱藏層中有1D CNN 層 和LSTM 層。1D CNN 層中神經(jīng)元節(jié)點個數(shù)的設(shè)置與LSTM 層中神經(jīng)元節(jié)點個數(shù)的設(shè)置都將影響模型的SOC 估計效果。分別對1D CNN 層與LSTM 層中神經(jīng)元節(jié)點數(shù)量的設(shè)置進(jìn)行分析。將LSTM 層的神經(jīng)元節(jié)點數(shù)量設(shè)為N1,1D CNN 層的神經(jīng)元節(jié)點數(shù)量設(shè)為N2。

    在1D CNN-LSTM 模型隱藏層中,分析LSTM 層中設(shè)置不同神經(jīng)元節(jié)點數(shù)量對1D CNN-LSTM 模型SOC 預(yù)測結(jié)果的影響,只改變N1的大小并固定模型中的其他設(shè)置。設(shè)置一層具有64 個神經(jīng)元節(jié)點的1D CNN 層,濾波器高度為2;設(shè)置一層具有N1個神經(jīng)元節(jié)點的LSTM 層,N1取6、64、192、320;批處理大小為64。LSTM 層中設(shè)置不同神經(jīng)元節(jié)點數(shù)量的模型預(yù)測誤差如圖11所示。

    圖11 LSTM層中設(shè)置不同神經(jīng)元節(jié)點數(shù)量的模型預(yù)測誤差Fig.11 Model prediction error under different numbers of neuron nodes of LSTM layer

    隨著LSTM 層神經(jīng)元節(jié)點數(shù)量N1的增加,MSE、MAE與最大誤差開始呈現(xiàn)下降的趨勢,但隨著N1的持續(xù)增加,這3個指標(biāo)又呈現(xiàn)上升的趨勢。當(dāng)N1為64 時,1D CNN-LSTM 模型的指標(biāo)MSE、MAE 和最大誤差均保持最小。LSTM 層中設(shè)置不同節(jié)點數(shù)量時的1D CNN-LSTM模型MSE、MAE和最大誤差如圖12所示。

    圖12 LSTM層中設(shè)置不同神經(jīng)元節(jié)點數(shù)量時模型MSE、MAE和最大誤差Fig.12 MSE,MAE and maximum error of model under different numbers of neuron nodes of LSTM layer

    同理,分析1D CNN 層中設(shè)置不同神經(jīng)元節(jié)點數(shù)量對1D CNN-LSTM 模型SOC 預(yù)測結(jié)果的影響,只改變N2的大小并固定模型中的其他設(shè)置。設(shè)置一層具有64 個神經(jīng)元節(jié)點的LSTM 層;設(shè)置一層具有N2個神經(jīng)元節(jié)點的1D CNN 層,濾波器高度為2,N2取6、64、192、320;批處理大小為64。

    1D CNN 層中設(shè)置不同節(jié)點數(shù)量時的模型MSE、MAE 和最大誤差如表3 所示。隨著1D CNN 層神經(jīng)元節(jié)點數(shù)量N2的增加,MSE、MAE 與最大誤差開始呈現(xiàn)下降的趨勢;但隨著N2的持續(xù)增加,這3 個指標(biāo)又呈現(xiàn)上升的趨勢。雖然當(dāng)N2為192 時,1D CNN-LSTM 模型的指標(biāo)MAE 較N2為64 時有所升高,但模型的指標(biāo)MSE 與最大誤差均下降,當(dāng)模型指標(biāo)MSE較小時,模型具有更好的穩(wěn)定性。為提高1D CNN-LSTM 模型預(yù)測準(zhǔn)確度與穩(wěn)定性,并避免由于模型過于復(fù)雜而導(dǎo)致模型過擬合,應(yīng)適當(dāng)?shù)卦龃驨1和N2。

    表3 1D CNN層中設(shè)置不同節(jié)點數(shù)量時的MSE、MAE和最大誤差Tab.3 MSE,MAE and maximum error of model under different numbers of neuron nodes of 1D CNN layer

    通過上述分析,本文將模型中的1D CNN 層神經(jīng)元節(jié)點數(shù)量設(shè)置為192,LSTM層神經(jīng)元節(jié)點數(shù)量設(shè)置為64。

    3.3 批處理大小設(shè)置

    批處理大小為一次訓(xùn)練時的樣本數(shù)量,將整個樣本分成幾個小批量,輸入到1D CNN-LSTM 模型中。在模型訓(xùn)練過程中分析不同批處理大小對1D CNN-LSTM 模型SOC 預(yù)測結(jié)果的影響,將只改變批處理大小的設(shè)置并固定模型中的其他設(shè)置。根據(jù)上述對隱藏層節(jié)點數(shù)量設(shè)置的研究,設(shè)置一層具有192個神經(jīng)元節(jié)點的1D CNN 層,濾波器高度為2;設(shè)置一層具有64 個神經(jīng)元節(jié)點的LSTM 層;批處理大小取64 和192。設(shè)置不同批處理大小的模型預(yù)測誤差如圖13所示。

    圖13 設(shè)置不同批處理大小的模型預(yù)測誤差Fig.13 Predicted errors under different batch sizes

    設(shè)置不同批處理大小的1D CNN-LSTM模型MSE、MAE和最大誤差如表4 所示。隨著批處理大小的增加,模型的MSE、MAE 和最大誤差均呈現(xiàn)升高趨勢,即模型的SOC 預(yù)測效果在變差。因此本文將批處理大小設(shè)置為64。

    表4 設(shè)置不同批處理大小時的模型MSE、MAE和最大誤差Tab.4 MSE,MAE and maximum error of model under different batch sizes

    3.4 隱藏層層數(shù)設(shè)置

    在1D CNN-LSTM 模型隱含層中,分析隱藏層中層數(shù)的設(shè)置對1D CNN-LSTM 模型SOC 預(yù)測結(jié)果的影響,只改變隱藏層的層數(shù)設(shè)置并固定模型中的其他設(shè)置。設(shè)1D CNN 層的層數(shù)為M1,設(shè)LSTM層的層數(shù)為M2。

    分析1D CNN 層與LSTM 層的層數(shù)的設(shè)置對模型SOC 預(yù)測結(jié)果的影響,只改變M1與M2的大小并固定模型中的其他設(shè)置。設(shè)置M1層具有192 個神經(jīng)元節(jié)點的1D CNN 層,濾波器高度為2;設(shè)置M2層具有64個神經(jīng)元節(jié)點的LSTM 層;批處理大小取64;M1取1和2。M2取1和2。如圖14為M1與M2分別取不同值時模型的預(yù)測誤差。

    圖14 設(shè)置不同隱藏層數(shù)量時的模型預(yù)測誤差Fig.14 Prediction errors under different hidden layer numbers

    設(shè)置不同隱藏層層數(shù)時的模型MSE、MAE 和最大誤差如表5 所示。當(dāng)M1與M2均為1 時,1D CNN-LSTM 模型的3 個指標(biāo)均保持最小;當(dāng)M1為1 且M2為2 時,模型的3 個指標(biāo)均升高;當(dāng)M1為2且M2為1時,模型的MSE、MAE和最大誤差升高的幅度更明顯。M1和M2數(shù)量的增加并沒有提高模型的預(yù)測精確度。

    表5 設(shè)置不同隱藏層層數(shù)時的模型MSE、MAE和最大誤差Tab.5 MSE,MAE and maximum error of model under different hidden layer numbers

    通過實驗分析,本文將在1D CNN-LSTM 模型中設(shè)置一層1D CNN層與一層LSTM層。

    4 對比實驗分析

    對比分析1D CNN-LSTM 模型與1D CNN 模型、BPNN 模型、1D CNN-GRU 模型、LSTM 模型、GRU 模型和SimpleRNN 模型的電池SOC預(yù)測效果。

    BPNN 模型、1D CNN 模型與1D CNN-LSTM 模型的SOC預(yù)測誤差如圖15所示。

    圖15 1D CNN-LSTM模型、1D CNN模型和BPNN模型的預(yù)測誤差Fig.15 Prediction errors of 1D CNN-LSTM model,1D CNN model and BPNN model

    與1D CNN-LSTM模型相比,1D CNN模型與BPNN模型不依賴于過去樣本的輸入,圖15 中顯示這兩種模型預(yù)測誤差值具有較大波動。1D CNN-LSTM 模型因為有LSTM 層的存在而具有保存歷史輸入信息的能力。相比之下,1D CNN-LSTM 模型的SOC 預(yù)測值更準(zhǔn)確和平滑。1D CNN-LSTM 模型的最大預(yù)測誤差為0.99%。與1D CNN 模型和BPNN 模型相比,1D CNN-LSTM模型的最大預(yù)測誤差率分別降低了1.05個百分點和1.31個百分點。

    1D CNN-LSTM 模型與1D CNN-GRU 模型因為有LSTM 與GRU 的存在才具有保存歷史輸入信息的能力。LSTM 與GRU均是為了優(yōu)化SimpleRNN 而提出的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。針對本文的電池SOC 預(yù)測問題,LSTM 與GRU 具有不同的預(yù)測效果。在本文的實驗中,1D CNN-LSTM 模型比1D CNN-GRU 模型更適合電池SOC 的預(yù)測。與1D CNN-GRU 模型相比,1D CNN-LSTM 模型的最大預(yù)測誤差率降低了1.95 個百分點。1D CNN-LSTM 模型和1D CNN-GRU 模型的電池SOC 預(yù)測誤差如圖16所示。

    圖16 1D CNN-LSTM模型和1D CNN-GRU模型的預(yù)測誤差Fig.16 Prediction errors of 1D CNN-LSTM model and 1D CNN-GRU model

    1D CNN-LSTM 模型、1D CNN 模型、BPNN 模型、1D CNNGRU 模型、LSTM 模型、GRU 模型和SimpleRNN 模型的MSE、MAE 和最大誤差如表6 所示。BPNN 模型為典型的非線性映射模型,全部由全連接層組成,該模型不具有從輸入數(shù)據(jù)中提取高級數(shù)據(jù)特征的能力,也不具有保存歷史輸入信息的能力。1D CNN模型由一維卷積層和全連接層組成,該模型則能夠從輸入數(shù)據(jù)中提取高級數(shù)據(jù)特征。由表6 可知,LSTM 模型、GRU 模型和SimpleRNN 模型的MSE、MAE 和最大誤差均較大,其最大誤差分別達(dá)到了27.61%、62.75%和47.84%,因此僅使用循環(huán)神經(jīng)網(wǎng)絡(luò)的模型不能降低SOC 的預(yù)測誤差,可將CNN 與RNN 相結(jié)合達(dá)到降低電池SOC 預(yù)測誤差的目的。1D CNN-LSTM 模型由一維卷積層與LSTM 層和全連接層組成,1D CNN-GRU 模型由一維卷積層與GRU 層和全連接層組成,由表6 可知,與1D CNN 模型、BPNN 模型、1D CNN-GRU 模型、LSTM 模型、GRU 模型和SimpleRNN 模型相比,1D CNN-LSTM模型的最大預(yù)測誤差率分別降低了1.05、1.31、1.95、26.62、61.76 和46.85 個百分點。對比模型的具體參數(shù)設(shè)置如表7所示。

    表6 七種電池SOC預(yù)測模型的MSE、MAE和最大誤差Tab.6 MSE,MAE and maximum error of 7 kinds of battery SOC prediction models

    上述7 種電池SOC 預(yù)測模型的輸出層中均設(shè)置一層僅含有一個節(jié)點且無激活函數(shù)的全連接層輸出預(yù)測值SOC,且所有模型均具有相同的優(yōu)化函數(shù)、隱層激活函數(shù)、誤差函數(shù)和批處理大小。7種電池SOC預(yù)測模型設(shè)置如表7所示。

    表7 七種電池SOC預(yù)測模型設(shè)置Tab.7 Settings of 7 kinds of battery SOC prediction models

    5 結(jié)語

    針對電池的SOC 預(yù)測穩(wěn)定性及準(zhǔn)確度問題,本文提出一維CNN 與LSTM 結(jié)合的SOC 預(yù)測模型,該方法通過一維CNN有效地提取數(shù)據(jù)的高級數(shù)據(jù)特征,達(dá)到充分獲取輸入數(shù)據(jù)中重要信息的目的,并通過使用LSTM 循環(huán)神經(jīng)網(wǎng)絡(luò)保存歷史輸入信息,使前期的輸入信息與當(dāng)前的輸入一起映射到當(dāng)前的輸出。通過分析模型中隱藏層層數(shù)、1D CNN 層與LSTM 層神經(jīng)元節(jié)點數(shù)、和批處理大小的變化對1D CNN-LSTM 模型SOC 預(yù)測效果的影響,最終確定模型的最優(yōu)設(shè)置。1D CNNLSTM 模型的MSE、MAE 和最大預(yù)測誤差分別為0.002 9%、0.402 7%和0.99%。滿足電池SOC 的估計要求。為進(jìn)一步降低電池SOC 的預(yù)測誤差,可進(jìn)一步考慮將注意力機(jī)制應(yīng)用于電池SOC 的預(yù)測,注意力機(jī)制具有關(guān)注輸入數(shù)據(jù)中重要信息的能力,并結(jié)合循環(huán)神經(jīng)網(wǎng)絡(luò)達(dá)到降低電池SOC 預(yù)測誤差的目的。

    猜你喜歡
    神經(jīng)元卷積神經(jīng)網(wǎng)絡(luò)
    《從光子到神經(jīng)元》書評
    自然雜志(2021年6期)2021-12-23 08:24:46
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    躍動的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
    復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
    基于二次型單神經(jīng)元PID的MPPT控制
    毫米波導(dǎo)引頭預(yù)定回路改進(jìn)單神經(jīng)元控制
    欧美三级亚洲精品| 嫩草影院入口| 大香蕉久久网| 日本爱情动作片www.在线观看| 80岁老熟妇乱子伦牲交| 又粗又硬又长又爽又黄的视频| 国产免费又黄又爽又色| 国产成年人精品一区二区| av黄色大香蕉| 色吧在线观看| 在线观看一区二区三区激情| 黑人高潮一二区| av黄色大香蕉| 亚州av有码| 男人添女人高潮全过程视频| 精品午夜福利在线看| 亚洲人成网站高清观看| 免费不卡的大黄色大毛片视频在线观看| 涩涩av久久男人的天堂| 日韩大片免费观看网站| 亚洲人成网站高清观看| 一边亲一边摸免费视频| 免费少妇av软件| xxx大片免费视频| 青春草视频在线免费观看| 欧美国产精品一级二级三级 | 亚洲精品自拍成人| 少妇熟女欧美另类| 97人妻精品一区二区三区麻豆| 亚洲久久久久久中文字幕| 日本wwww免费看| 在线亚洲精品国产二区图片欧美 | 一个人看的www免费观看视频| 午夜老司机福利剧场| 免费观看在线日韩| 人妻少妇偷人精品九色| 国产极品天堂在线| 特大巨黑吊av在线直播| 亚洲国产av新网站| 国产色婷婷99| 激情五月婷婷亚洲| 天天一区二区日本电影三级| 欧美成人a在线观看| 美女脱内裤让男人舔精品视频| 国产精品嫩草影院av在线观看| 在线观看av片永久免费下载| .国产精品久久| 新久久久久国产一级毛片| 大码成人一级视频| 亚洲人成网站在线观看播放| 在线观看美女被高潮喷水网站| 精品酒店卫生间| 一区二区三区乱码不卡18| 男的添女的下面高潮视频| 99热这里只有是精品在线观看| 精品国产乱码久久久久久小说| av在线app专区| 国产黄a三级三级三级人| 欧美日本视频| av卡一久久| 亚洲精品aⅴ在线观看| 天堂俺去俺来也www色官网| 日韩精品有码人妻一区| 夜夜爽夜夜爽视频| 舔av片在线| 国产黄片美女视频| 久久精品国产亚洲网站| 久久精品国产亚洲av天美| 日韩一区二区三区影片| 日韩欧美精品免费久久| 欧美性猛交╳xxx乱大交人| 最近最新中文字幕免费大全7| 91午夜精品亚洲一区二区三区| 内地一区二区视频在线| 97在线视频观看| 亚洲av二区三区四区| 在线免费观看不下载黄p国产| 国内揄拍国产精品人妻在线| 精品一区二区三卡| 欧美zozozo另类| 交换朋友夫妻互换小说| 好男人视频免费观看在线| 久久久久久久久大av| 天天一区二区日本电影三级| 日韩一区二区视频免费看| 国产久久久一区二区三区| 99热全是精品| 热99国产精品久久久久久7| av在线播放精品| 国产极品天堂在线| 国产成人精品一,二区| 国产成人免费无遮挡视频| 男女啪啪激烈高潮av片| 在线观看人妻少妇| 午夜免费鲁丝| 久久热精品热| 新久久久久国产一级毛片| 综合色丁香网| 交换朋友夫妻互换小说| 丝瓜视频免费看黄片| 噜噜噜噜噜久久久久久91| 成年女人看的毛片在线观看| 久热久热在线精品观看| 国产男女内射视频| 免费av不卡在线播放| 久久99精品国语久久久| 九九久久精品国产亚洲av麻豆| 国产精品三级大全| 美女脱内裤让男人舔精品视频| 国产一级毛片在线| 欧美少妇被猛烈插入视频| 国产av码专区亚洲av| 91精品国产九色| 亚洲精品国产成人久久av| 亚洲电影在线观看av| 18禁动态无遮挡网站| 91久久精品国产一区二区三区| 插逼视频在线观看| 久久久久久久大尺度免费视频| 日本猛色少妇xxxxx猛交久久| av福利片在线观看| 极品教师在线视频| 精品一区在线观看国产| 天天躁夜夜躁狠狠久久av| 99热这里只有精品一区| av在线天堂中文字幕| 中文天堂在线官网| 国产高清三级在线| 成人无遮挡网站| 国产精品爽爽va在线观看网站| 日本一二三区视频观看| 日本三级黄在线观看| 国产成人午夜福利电影在线观看| 三级经典国产精品| 中文天堂在线官网| 国产精品国产三级国产av玫瑰| 人妻制服诱惑在线中文字幕| 国产乱来视频区| 色哟哟·www| 国产高潮美女av| 免费少妇av软件| 国内精品宾馆在线| 免费电影在线观看免费观看| 看十八女毛片水多多多| 特大巨黑吊av在线直播| 校园人妻丝袜中文字幕| 亚洲成人精品中文字幕电影| a级一级毛片免费在线观看| 日本欧美国产在线视频| 色吧在线观看| 日本-黄色视频高清免费观看| 亚洲美女搞黄在线观看| 欧美zozozo另类| 久久精品久久久久久噜噜老黄| 亚洲欧美日韩东京热| 久久精品久久久久久久性| 久久综合国产亚洲精品| 中文字幕av成人在线电影| 99久久精品一区二区三区| 日韩亚洲欧美综合| 爱豆传媒免费全集在线观看| 亚洲国产高清在线一区二区三| 最近最新中文字幕大全电影3| 亚洲高清免费不卡视频| 成人国产麻豆网| 三级经典国产精品| 国产在线一区二区三区精| 日本av手机在线免费观看| 婷婷色综合大香蕉| 五月开心婷婷网| 别揉我奶头 嗯啊视频| 美女内射精品一级片tv| 国内揄拍国产精品人妻在线| 女人久久www免费人成看片| 蜜桃久久精品国产亚洲av| 在线观看免费高清a一片| 少妇丰满av| av天堂中文字幕网| 国产日韩欧美亚洲二区| 一本久久精品| 啦啦啦在线观看免费高清www| 欧美精品一区二区大全| 国产黄色免费在线视频| 麻豆久久精品国产亚洲av| 国内精品美女久久久久久| 男的添女的下面高潮视频| 亚洲精品日韩在线中文字幕| 亚洲精品久久久久久婷婷小说| 久久鲁丝午夜福利片| av在线app专区| 国产美女午夜福利| 亚洲av一区综合| 精品久久久久久电影网| 身体一侧抽搐| 国产毛片在线视频| 别揉我奶头 嗯啊视频| 在线 av 中文字幕| 嫩草影院精品99| 欧美日韩在线观看h| 男的添女的下面高潮视频| 中文精品一卡2卡3卡4更新| 夫妻午夜视频| 久久精品综合一区二区三区| 舔av片在线| 国产高清有码在线观看视频| 王馨瑶露胸无遮挡在线观看| 国产老妇伦熟女老妇高清| 久久99热6这里只有精品| av国产久精品久网站免费入址| .国产精品久久| 亚洲天堂国产精品一区在线| 狂野欧美白嫩少妇大欣赏| 欧美xxxx性猛交bbbb| 丝袜喷水一区| 日本黄大片高清| 九色成人免费人妻av| 中文乱码字字幕精品一区二区三区| 真实男女啪啪啪动态图| 波野结衣二区三区在线| 少妇丰满av| 禁无遮挡网站| 国产日韩欧美在线精品| 午夜福利网站1000一区二区三区| 一级a做视频免费观看| av女优亚洲男人天堂| 国产 一区 欧美 日韩| 亚洲精品成人av观看孕妇| av卡一久久| 国产亚洲最大av| 视频区图区小说| 国产乱人视频| 波野结衣二区三区在线| 亚洲欧美日韩无卡精品| 国产高清国产精品国产三级 | 欧美xxxx黑人xx丫x性爽| 97在线人人人人妻| 亚洲av日韩在线播放| 欧美少妇被猛烈插入视频| 久久99热这里只有精品18| 男女边摸边吃奶| 99精国产麻豆久久婷婷| 人妻一区二区av| 中文字幕久久专区| 极品教师在线视频| 久久久久精品性色| 嫩草影院入口| 成人漫画全彩无遮挡| 18禁裸乳无遮挡动漫免费视频 | 日韩欧美精品免费久久| 99九九线精品视频在线观看视频| 亚洲av男天堂| 少妇人妻一区二区三区视频| 国产午夜福利久久久久久| 高清视频免费观看一区二区| 联通29元200g的流量卡| 亚洲伊人色综图| 亚洲精品在线美女| a级毛片黄视频| 王馨瑶露胸无遮挡在线观看| 9色porny在线观看| 午夜av观看不卡| 亚洲,欧美,日韩| 久久精品熟女亚洲av麻豆精品| 毛片一级片免费看久久久久| 精品一区二区三区四区五区乱码 | 午夜福利影视在线免费观看| 人人澡人人妻人| 国产激情久久老熟女| 99久久精品国产亚洲精品| 免费高清在线观看视频在线观看| 在线天堂最新版资源| 国产在线视频一区二区| 80岁老熟妇乱子伦牲交| 一个人免费看片子| 成年av动漫网址| 亚洲欧美精品综合一区二区三区| 一区二区三区乱码不卡18| 黄色怎么调成土黄色| av一本久久久久| 亚洲av福利一区| 一区二区av电影网| 黄片无遮挡物在线观看| 电影成人av| 欧美xxⅹ黑人| 夫妻性生交免费视频一级片| 91精品三级在线观看| 亚洲视频免费观看视频| 国产精品香港三级国产av潘金莲 | 国产精品久久久久久精品电影小说| 91精品国产国语对白视频| 久久影院123| 国产男女内射视频| 久久久久国产一级毛片高清牌| 又大又黄又爽视频免费| 成人黄色视频免费在线看| 一级,二级,三级黄色视频| 亚洲av日韩在线播放| 欧美日韩亚洲综合一区二区三区_| 啦啦啦 在线观看视频| 国产成人一区二区在线| 80岁老熟妇乱子伦牲交| 亚洲国产看品久久| 少妇精品久久久久久久| 免费黄网站久久成人精品| 国产精品国产三级国产专区5o| 国产老妇伦熟女老妇高清| 国语对白做爰xxxⅹ性视频网站| 中文字幕av电影在线播放| 日本av手机在线免费观看| 成人漫画全彩无遮挡| 国产视频首页在线观看| 国产激情久久老熟女| 一级片'在线观看视频| 爱豆传媒免费全集在线观看| 女人精品久久久久毛片| 极品人妻少妇av视频| 久久精品久久久久久噜噜老黄| 69精品国产乱码久久久| 中文欧美无线码| 黄片无遮挡物在线观看| 久久性视频一级片| 大香蕉久久成人网| 大香蕉久久成人网| 成人手机av| 两性夫妻黄色片| 亚洲一级一片aⅴ在线观看| 最近手机中文字幕大全| 少妇精品久久久久久久| videosex国产| 一区在线观看完整版| 国产人伦9x9x在线观看| www日本在线高清视频| 乱人伦中国视频| 国产av精品麻豆| 国产成人精品久久久久久| 美女大奶头黄色视频| 国产黄色免费在线视频| 超色免费av| 婷婷色综合大香蕉| 一区二区av电影网| 国产97色在线日韩免费| 777米奇影视久久| www.熟女人妻精品国产| 国产一区二区 视频在线| 天美传媒精品一区二区| 国产成人免费无遮挡视频| 大片免费播放器 马上看| 亚洲综合精品二区| 国产又爽黄色视频| 高清黄色对白视频在线免费看| 少妇人妻久久综合中文| 卡戴珊不雅视频在线播放| 啦啦啦啦在线视频资源| 久久精品aⅴ一区二区三区四区| 亚洲七黄色美女视频| 亚洲成国产人片在线观看| 一边摸一边抽搐一进一出视频| 亚洲精品中文字幕在线视频| 日日啪夜夜爽| 两个人免费观看高清视频| 不卡视频在线观看欧美| 精品国产露脸久久av麻豆| 欧美精品一区二区大全| 欧美精品一区二区免费开放| 国产精品秋霞免费鲁丝片| 国产精品人妻久久久影院| av一本久久久久| 久久 成人 亚洲| 在现免费观看毛片| 亚洲三区欧美一区| 韩国精品一区二区三区| 日韩电影二区| 精品少妇黑人巨大在线播放| 亚洲av电影在线进入| 久久久久久久久久久久大奶| 黄片无遮挡物在线观看| 国产一区二区在线观看av| 熟女少妇亚洲综合色aaa.| 久久影院123| 好男人视频免费观看在线| 中文乱码字字幕精品一区二区三区| 久久人人爽人人片av| 纯流量卡能插随身wifi吗| 国产又爽黄色视频| 91精品三级在线观看| av.在线天堂| 亚洲人成电影观看| 日韩一卡2卡3卡4卡2021年| 欧美国产精品一级二级三级| 91精品国产国语对白视频| 一边摸一边抽搐一进一出视频| 欧美亚洲日本最大视频资源| 丁香六月天网| 亚洲国产精品999| 欧美激情高清一区二区三区 | 精品卡一卡二卡四卡免费| 丝袜脚勾引网站| 18禁动态无遮挡网站| 日韩电影二区| 伦理电影大哥的女人| 伊人亚洲综合成人网| 日韩不卡一区二区三区视频在线| 亚洲精品国产一区二区精华液| 高清不卡的av网站| 五月天丁香电影| 女人被躁到高潮嗷嗷叫费观| 亚洲第一av免费看| 在线精品无人区一区二区三| 国产有黄有色有爽视频| 日本av免费视频播放| 久久久国产一区二区| 国产成人免费无遮挡视频| 一二三四在线观看免费中文在| 久久久久久人妻| 亚洲美女视频黄频| 伦理电影免费视频| 精品久久久精品久久久| 久久久久久免费高清国产稀缺| 91成人精品电影| 日本黄色日本黄色录像| 老鸭窝网址在线观看| 日日撸夜夜添| 色视频在线一区二区三区| a级毛片黄视频| 99久久人妻综合| 欧美黄色片欧美黄色片| 高清黄色对白视频在线免费看| 操出白浆在线播放| 在线观看国产h片| 日本欧美国产在线视频| 久久人人97超碰香蕉20202| 国产一卡二卡三卡精品 | 青草久久国产| 国产成人啪精品午夜网站| 精品久久久精品久久久| 国产精品蜜桃在线观看| 国产成人午夜福利电影在线观看| 国产有黄有色有爽视频| 国产极品粉嫩免费观看在线| 制服人妻中文乱码| 丝袜脚勾引网站| 少妇精品久久久久久久| 久久久国产精品麻豆| 如日韩欧美国产精品一区二区三区| 欧美中文综合在线视频| av不卡在线播放| 老熟女久久久| 欧美激情极品国产一区二区三区| 国产黄色免费在线视频| 高清av免费在线| 不卡av一区二区三区| 男女午夜视频在线观看| 五月开心婷婷网| 91aial.com中文字幕在线观看| 多毛熟女@视频| 国产精品久久久久久精品电影小说| 亚洲成人免费av在线播放| 色94色欧美一区二区| 日韩伦理黄色片| 日本爱情动作片www.在线观看| 亚洲三区欧美一区| 午夜福利一区二区在线看| 久久99一区二区三区| 可以免费在线观看a视频的电影网站 | 日韩大片免费观看网站| 亚洲国产欧美网| 老熟女久久久| 国产成人精品在线电影| 一区二区av电影网| 美女福利国产在线| 中文字幕制服av| 国产欧美亚洲国产| 国产99久久九九免费精品| 蜜桃国产av成人99| 天堂中文最新版在线下载| 丰满迷人的少妇在线观看| 新久久久久国产一级毛片| 亚洲色图 男人天堂 中文字幕| 我要看黄色一级片免费的| 国产日韩欧美在线精品| 大话2 男鬼变身卡| 午夜激情久久久久久久| 黄色视频在线播放观看不卡| 欧美黑人精品巨大| 亚洲激情五月婷婷啪啪| 久久ye,这里只有精品| 亚洲熟女毛片儿| 欧美人与善性xxx| 欧美日韩一级在线毛片| 国产免费视频播放在线视频| 久久久久久人妻| 国产av精品麻豆| xxx大片免费视频| 欧美日韩精品网址| 热99久久久久精品小说推荐| 欧美亚洲 丝袜 人妻 在线| 丰满迷人的少妇在线观看| avwww免费| 男女边吃奶边做爰视频| 亚洲精品久久成人aⅴ小说| 久久久久精品国产欧美久久久 | 中文精品一卡2卡3卡4更新| 欧美在线黄色| 亚洲精品国产一区二区精华液| 久久精品熟女亚洲av麻豆精品| 国产精品免费大片| 精品一品国产午夜福利视频| 男女高潮啪啪啪动态图| 久久亚洲国产成人精品v| 国产日韩一区二区三区精品不卡| 一本一本久久a久久精品综合妖精| 在线观看国产h片| 不卡视频在线观看欧美| 精品少妇内射三级| 免费观看人在逋| av女优亚洲男人天堂| 这个男人来自地球电影免费观看 | 交换朋友夫妻互换小说| 无限看片的www在线观看| 欧美日韩综合久久久久久| 毛片一级片免费看久久久久| 国产成人精品在线电影| 9191精品国产免费久久| 黑丝袜美女国产一区| 亚洲国产最新在线播放| 久久国产精品大桥未久av| 99久久99久久久精品蜜桃| 亚洲人成77777在线视频| 久久精品久久精品一区二区三区| 亚洲av日韩精品久久久久久密 | 搡老乐熟女国产| 亚洲欧美成人精品一区二区| 综合色丁香网| 不卡视频在线观看欧美| 久久热在线av| 精品人妻熟女毛片av久久网站| 国产免费视频播放在线视频| 90打野战视频偷拍视频| 日韩一区二区三区影片| av在线观看视频网站免费| 婷婷成人精品国产| 亚洲av成人精品一二三区| 日日啪夜夜爽| 777米奇影视久久| 亚洲欧美色中文字幕在线| 一级片'在线观看视频| 久久天堂一区二区三区四区| 丰满迷人的少妇在线观看| 19禁男女啪啪无遮挡网站| 欧美日韩国产mv在线观看视频| 亚洲欧美一区二区三区黑人| 久热爱精品视频在线9| 一级片免费观看大全| 少妇人妻精品综合一区二区| 成人黄色视频免费在线看| 丝瓜视频免费看黄片| 黄频高清免费视频| e午夜精品久久久久久久| 日本91视频免费播放| 国产亚洲午夜精品一区二区久久| 18禁国产床啪视频网站| 看免费av毛片| 波野结衣二区三区在线| 在线 av 中文字幕| 亚洲精品视频女| 中文字幕亚洲精品专区| 日韩制服骚丝袜av| 亚洲国产看品久久| 久久热在线av| 国产不卡av网站在线观看| 色视频在线一区二区三区| 国产成人一区二区在线| 天天躁日日躁夜夜躁夜夜| 午夜免费男女啪啪视频观看| 一本色道久久久久久精品综合| 中文字幕制服av| 精品久久久久久电影网| 校园人妻丝袜中文字幕| 国产免费视频播放在线视频| 欧美另类一区| 国产日韩欧美视频二区| 久久鲁丝午夜福利片| 国产男人的电影天堂91| 亚洲五月色婷婷综合| 亚洲图色成人| 黄片无遮挡物在线观看| 校园人妻丝袜中文字幕| 国产精品国产av在线观看| 午夜激情久久久久久久| av线在线观看网站| 观看av在线不卡| 妹子高潮喷水视频| 国产福利在线免费观看视频| 多毛熟女@视频| 九色亚洲精品在线播放| 人人妻人人澡人人爽人人夜夜| 中文字幕最新亚洲高清| 亚洲伊人色综图| 亚洲av日韩在线播放| 国产免费视频播放在线视频| 在线天堂中文资源库| 啦啦啦在线免费观看视频4| videosex国产| 日日摸夜夜添夜夜爱| 亚洲人成77777在线视频| 香蕉国产在线看| 中文字幕av电影在线播放| 国产不卡av网站在线观看| 亚洲av福利一区| 国产一区有黄有色的免费视频| 国产麻豆69| 日韩 亚洲 欧美在线| 老熟女久久久| 国产精品无大码| 免费黄色在线免费观看|