• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度學(xué)習(xí)的翼型氣動(dòng)系數(shù)預(yù)測(cè)

      2018-04-25 12:03:14錢煒祺
      關(guān)鍵詞:池化氣動(dòng)卷積

      陳 海, 錢煒祺, 何 磊

      (中國(guó)空氣動(dòng)力研究與發(fā)展中心, 四川 綿陽(yáng) 621000)

      0 引 言

      機(jī)翼氣動(dòng)系數(shù)的計(jì)算是翼型設(shè)計(jì)與研究的主要內(nèi)容,對(duì)提高飛行性能具有重要意義。傳統(tǒng)方法通過計(jì)算流體力學(xué)(Computational Fluid Dynamics,CFD)計(jì)算或風(fēng)洞試驗(yàn)得到翼型氣動(dòng)系數(shù),這一方法雖然被證明是有效的,但卻存在計(jì)算量大和試驗(yàn)成本高等缺點(diǎn)。近年來,隨著神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,一種以智能學(xué)習(xí)為基礎(chǔ)的預(yù)測(cè)方法逐漸進(jìn)入人們視野。這一方法以翼型設(shè)計(jì)參數(shù)和氣動(dòng)系數(shù)作為學(xué)習(xí)對(duì)象,通過神經(jīng)網(wǎng)絡(luò)或支持向量機(jī)(Support Vector Machine,SVM)建立預(yù)測(cè)模型,對(duì)未知翼型的氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè),從而避免了大量的數(shù)值運(yùn)算和試驗(yàn)。文獻(xiàn)[1]以雷諾數(shù)、迎角、馬赫數(shù)為建模設(shè)計(jì)輸入,建立了BP 神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型,對(duì)二維翼型NACA63-215的升力系數(shù)和阻力系數(shù)進(jìn)行了預(yù)測(cè)。文獻(xiàn)[2]建立了RBF神經(jīng)網(wǎng)絡(luò)模型,用來預(yù)測(cè)在特定的振幅下,從波谷到波峰運(yùn)動(dòng)中,減縮頻率范圍1~5下任意一位移點(diǎn)的機(jī)翼升力系數(shù)和阻力系數(shù)。文獻(xiàn)[3]和文獻(xiàn)[4]將迎角、馬赫數(shù)、雷諾數(shù)、翼型幾何形狀為設(shè)計(jì)輸入,建立了神經(jīng)網(wǎng)絡(luò)模型,對(duì)翼型的氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè)。文獻(xiàn)[5]將進(jìn)化規(guī)劃算法與支持向量回歸算法相結(jié)合,用于預(yù)測(cè)具有不同幾何參數(shù)的機(jī)翼在不同迎角情況下的升力、阻力和滾轉(zhuǎn)力矩系數(shù)。以上方法為參數(shù)化學(xué)習(xí)方法,在建立預(yù)測(cè)模型和對(duì)翼型氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè)時(shí)均需要翼型的設(shè)計(jì)參數(shù),如果設(shè)計(jì)參數(shù)過多,將給預(yù)測(cè)模型的建立帶來困難。并且當(dāng)翼型設(shè)計(jì)方法發(fā)生變化時(shí),即翼型參數(shù)的種類和數(shù)量等發(fā)生變化時(shí),已建立起來的預(yù)測(cè)模型將失效。同時(shí),以上方法為淺層學(xué)習(xí)方法,其算法復(fù)雜度將隨著樣本數(shù)量和模型精度的提高呈指數(shù)級(jí)增長(zhǎng)。

      2006年以來,隨著機(jī)器學(xué)習(xí)和大數(shù)據(jù)的發(fā)展,深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)的一個(gè)分支,得到了廣泛的認(rèn)可和蓬勃的發(fā)展[6]。深度學(xué)習(xí)包含多種模型,主要有基于受限玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)[7]的深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)[8]、基于自動(dòng)編碼器(Auto-Encoder,AE)的堆疊自動(dòng)編碼器(Stacked Auto-Encoders,SAE)[9]、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[10]、遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,RNN)[11]等。將深度學(xué)習(xí)應(yīng)用于翼型氣動(dòng)系數(shù)預(yù)測(cè),建立圖形化的預(yù)測(cè)模型,能夠克服上述方法的不足,提高預(yù)測(cè)精度。在各種深度學(xué)習(xí)模型中,CNN能夠直接將圖像作為輸入,并且能夠通過卷積核有效提取圖像中的特征,因此,特別適合翼型圖像處理。

      本文以翼型圖像作為輸入,建立CNN預(yù)測(cè)模型,對(duì)翼型特征進(jìn)行提取與分類,最后通過回歸分析預(yù)測(cè)翼型的氣動(dòng)系數(shù)。該方法為非參數(shù)化方法,不受翼型設(shè)計(jì)方法和設(shè)計(jì)參數(shù)的影響,在迎角、馬赫數(shù)和雷諾數(shù)一定的情況下,只要給出翼型圖像,就能夠利用預(yù)測(cè)模型預(yù)測(cè)出翼型的氣動(dòng)系數(shù)。并且,借助于深度學(xué)習(xí)技術(shù),能夠有效解決由于訓(xùn)練層數(shù)和樣本數(shù)的增大而帶來的算法復(fù)雜度急劇增加的問題。

      1 CNN基本原理

      作為神經(jīng)網(wǎng)絡(luò)領(lǐng)域的一個(gè)重要研究分支,CNN每一層的特征都由上一層的局部區(qū)域通過共享權(quán)值的卷積核激勵(lì)得到,即通過提取輸入數(shù)據(jù)的局部特征,并逐層組合抽象生成高層特征,這類似于生物神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別過程。同時(shí),CNN模型的容量可以通過改變網(wǎng)絡(luò)的深度和廣度來調(diào)整,能夠有效降低網(wǎng)絡(luò)模型的學(xué)習(xí)復(fù)雜度,具有更少的網(wǎng)絡(luò)連接數(shù)和權(quán)值參數(shù)。因此,CNN在圖像處理、語(yǔ)音識(shí)別、特征提取等領(lǐng)域得到了廣泛的應(yīng)用。

      1.1 CNN的結(jié)構(gòu)

      如圖1所示,一個(gè)典型的CNN模型由輸入層、卷積層、池化層、全連接層和輸出層組成,根據(jù)具體問題的不同,CNN可能會(huì)有多個(gè)卷積層和池化層交替出現(xiàn),并含有多個(gè)全連接層。

      1) 數(shù)據(jù)輸入層(Data Input Layer)。在做圖像分析時(shí),CNN的輸入為原始圖像X,如果是彩色圖則為三維RGB矩陣數(shù)據(jù),如果是灰度圖則為一維矩陣數(shù)據(jù)。數(shù)據(jù)輸入層還需要對(duì)圖像數(shù)據(jù)進(jìn)行歸一化和去均值化的處理。

      2) 卷積層(Convolutional Layer)。卷積層是CNN的核心組成部分,通過不同的卷積核,來獲取圖像的特征。卷積核相當(dāng)于一個(gè)濾波器,不同的濾波器提取不同特征。

      本文用Hi表示CNN第i層的特征圖(Feature Maps)(H0=X)。Hi的產(chǎn)生過程可以通過以下公式表示[12]:

      Hi=f(Hi-1?Wi+bi)

      (1)

      傳統(tǒng)CNN中的非線性激勵(lì)函數(shù)通常采用sigmoid、tanh或softsign等飽和非線性函數(shù)[13],近幾年多采用不飽和非線性函數(shù)ReLU(Rectified Linear Units)[14-15]。在訓(xùn)練時(shí),ReLU可以通過簡(jiǎn)單的閾值化的激活來實(shí)現(xiàn)參數(shù)稀疏化,比傳統(tǒng)的飽和非線性函數(shù)有更快的收斂速度[16],因此在訓(xùn)練整個(gè)網(wǎng)絡(luò)時(shí),訓(xùn)練速度也比傳統(tǒng)的方法快。

      3) 池化層(Pooling Layer)。CNN通過卷積層提取輸入圖像的特征后,就可以使用這些特征訓(xùn)練網(wǎng)絡(luò)。但是實(shí)際上訓(xùn)練CNN面臨的重要問題是龐大的計(jì)算量,特別是對(duì)于尺寸很大的圖像,網(wǎng)絡(luò)的訓(xùn)練速度會(huì)很慢。為了進(jìn)一步減少運(yùn)算數(shù)據(jù)量,降低網(wǎng)絡(luò)訓(xùn)練時(shí)間,CNN采用了在卷積層后面連接一個(gè)池化層(又稱下采樣層或次采樣層,Sub-sample Layer)的方式來減少數(shù)據(jù)量。池化的基本原理是根據(jù)圖像相對(duì)不變性的屬性,對(duì)圖像相鄰區(qū)域的特征信息進(jìn)行聚合統(tǒng)計(jì)。

      常用的池化方法有平均池化和最大池化等。平均池化即對(duì)池化區(qū)域內(nèi)的像素值求平均;最大池化即對(duì)池化區(qū)域內(nèi)的像素值求最大值。特征提取時(shí),平均池化通過保留圖像背景信息能減少因池化區(qū)域的受限造成估值方差而產(chǎn)生的誤差,而最大池化可以通過保留圖像紋理信息來減少卷積層參數(shù)誤差造成的估計(jì)均值偏移而產(chǎn)生的誤差[19]。

      4) 全連接層(Full Connected Layer)。全連接層由多個(gè)神經(jīng)元組成。通過CNN逐層提取到的特征輸出到全連接層,這樣使得整個(gè)CNN可以采用梯度下降法等算法進(jìn)行全局訓(xùn)練。

      5) 輸出層(Output Layer)。輸出層用于樣本的預(yù)測(cè)輸出,根據(jù)輸出模型的不同,可以用作回歸分析,也可以用作圖像分類等。

      1.2 CNN的訓(xùn)練過程

      CNN的訓(xùn)練過程如圖2所示。

      CNN的訓(xùn)練過程包括前向計(jì)算和誤差反向傳播兩大步驟。前向計(jì)算主要是通過圖像的卷積和池化操作實(shí)現(xiàn)圖像特征的提取和映射,根據(jù)問題的不同可以進(jìn)行多次卷積和池化操作,多次的提取過程能夠從圖像中提取到更多的有用信息;其次,將提取到的特征傳遞到全連接層,構(gòu)建常規(guī)的神經(jīng)網(wǎng)絡(luò)模型;最后,通過輸出層對(duì)數(shù)據(jù)信息進(jìn)行變換和計(jì)算,得到預(yù)測(cè)結(jié)果。誤差反向傳播主要是將預(yù)測(cè)結(jié)果與期望結(jié)果進(jìn)行對(duì)比得到的預(yù)測(cè)誤差,通過梯度下降等算法進(jìn)行反向傳遞,更新網(wǎng)絡(luò)權(quán)值和偏置。在完成前向計(jì)算和誤差反向傳播后,如果未達(dá)結(jié)束條件,則繼續(xù)上述步驟對(duì)CNN進(jìn)行訓(xùn)練。CNN訓(xùn)練是否結(jié)束是通過對(duì)誤差閾值或迭代次數(shù)的判斷來實(shí)現(xiàn)的,本文使用后者作為結(jié)束條件。

      圖2 CNN的訓(xùn)練過程Fig.2 Training process of CNN

      一般情況下,CNN輸入圖像的訓(xùn)練樣本數(shù)量都很大,通用的處理方式是通過設(shè)定批量大小(batch size),將輸入樣本分成若干批次(batch),分批將圖像數(shù)據(jù)送入CNN進(jìn)行訓(xùn)練,訓(xùn)練完成之后即進(jìn)行誤差反向傳播和權(quán)值更新。輸入一批樣本完成訓(xùn)練稱為一次循環(huán)(iteration),輸入所有樣本完成訓(xùn)練稱為一次迭代(epoch)。設(shè)訓(xùn)練樣本數(shù)為ntrain,批量大小為mbatch,一次迭代的批次數(shù)量為nbatch,完成CNN訓(xùn)練的循環(huán)總次數(shù)為niteration,迭代次數(shù)為nepoch,則它們之間的關(guān)系可用如下兩式描述:

      (2)

      niteration=nepoch·nbatch

      (3)

      一般情況下,迭代次數(shù)越多,網(wǎng)絡(luò)擬合能力越強(qiáng),預(yù)測(cè)精度越高,但也需要耗費(fèi)更多的時(shí)間。

      本文建立基于CNN的圖形化預(yù)測(cè)方法對(duì)翼型氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè),并與參數(shù)化方法進(jìn)行比較的流程如圖3所示。

      2 翼型氣動(dòng)系數(shù)預(yù)測(cè)模型

      2.1 翼型圖像輸入

      本文為圖形化預(yù)測(cè)方法,輸入數(shù)據(jù)為翼型圖像。由于翼型圖像的橫坐標(biāo)和縱坐標(biāo)相差一個(gè)數(shù)量級(jí),因此將縱坐標(biāo)(即翼型厚度)放大10倍后進(jìn)行作圖和計(jì)算,以減小訓(xùn)練模型的擬合誤差。圖4隨機(jī)給出了12個(gè)翼型圖像及其法向力系數(shù)CN。

      圖3 翼型氣動(dòng)系數(shù)預(yù)測(cè)流程Fig.3 Prediction flow of airfoil aerodynamic coefficients

      圖4 12個(gè)翼型圖像及法向力系數(shù)(翼型厚度放大10倍)Fig.4 12 images and normal force coefficients of airfoil

      本文中用于仿真的翼型圖像通過翼型函數(shù)生成,選取的基準(zhǔn)翼型為NACA0012,型函數(shù)為Hicks-Henne[20-21]函數(shù),型函數(shù)數(shù)目為4。氣動(dòng)力系數(shù)在迎角為2°、馬赫數(shù)為0.4、雷諾數(shù)為6.5×106的條件下,采用自主研發(fā)的流體計(jì)算軟件MBNS2D[22]計(jì)算得到。

      2.2 CNN結(jié)構(gòu)設(shè)計(jì)

      本文設(shè)計(jì)的CNN結(jié)構(gòu)如圖5所示。

      圖5 設(shè)計(jì)的CNN結(jié)構(gòu)Fig.5 Designed structure of CNN

      1) 輸入層。輸入層為翼型圖像,其分辨率越高,建立的預(yù)測(cè)模型越準(zhǔn)確,但建模時(shí)間和預(yù)測(cè)時(shí)間都會(huì)相應(yīng)的增加,因此需要選擇適中的分辨率。本文輸入翼型圖像選取為85×85像素的灰度圖像,即85×85的二維矩陣,取值在0~255之間。

      2) 卷積層1。大尺寸的卷積核可以帶來更大的局部感受區(qū)域,但也意味著更多的參數(shù),會(huì)使網(wǎng)絡(luò)速度變慢;卷積核數(shù)量越多,能夠描述的特征也越豐富,但計(jì)算量也會(huì)相應(yīng)的增加,同時(shí)存在過擬合的風(fēng)險(xiǎn)。因此,需要選擇適當(dāng)?shù)木矸e核大小和卷積數(shù)量。本文根據(jù)輸入圖像的分辨率,選取卷積核大小為6×6,卷積核數(shù)量為40,步長(zhǎng)為1。經(jīng)過卷積響應(yīng)和非線性激勵(lì)函數(shù)ReLU運(yùn)算后,得到40個(gè)分辨率為80×80的特征圖。其中,ReLU函數(shù)的計(jì)算公式為:

      f(x)=max(0,x)

      (4)

      其函數(shù)曲線如圖6所示。

      圖6 ReLU激勵(lì)函數(shù)曲線Fig.6 Curve of activation function ReLU

      3) 池化層1。池化區(qū)域越大,步長(zhǎng)越長(zhǎng),意味著特征圖分辨率的降幅越大,運(yùn)算速度越快,但也會(huì)丟失更多的信息,存在欠擬合的風(fēng)險(xiǎn)。因此,需要選擇適當(dāng)?shù)某鼗瘏?shù)。本文選取池化區(qū)域大小為2×2,步長(zhǎng)為2,即相鄰池化區(qū)域不重疊。經(jīng)過池化處理后,得到40個(gè)分辨率為40×40的特征圖。

      4) 卷積層2。選取卷積核大小為5×5,卷積核數(shù)量為80,步長(zhǎng)為1。經(jīng)過卷積響應(yīng)和非線性激勵(lì)函數(shù)ReLU運(yùn)算后,得到80個(gè)分辨率為36×36的特征圖。

      5) 池化層2。選取池化區(qū)域大小為2×2,步長(zhǎng)為2。經(jīng)過池化處理后,得到80個(gè)分辨率為18×18的特征圖。

      6) 全連接層。全連接層的神經(jīng)元個(gè)數(shù)取決于池化層2中特征圖的分辨率及數(shù)量,本文設(shè)置一個(gè)全連接層,其神經(jīng)元個(gè)數(shù)為25 920個(gè)。

      7) 輸出層。本文的輸出層用作回歸分析,對(duì)翼型的氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè),其采用的激活函數(shù)為均方差(Mean Square Error,MSE):

      (5)

      其中,ti是期望值,yi是預(yù)測(cè)值。

      3 仿真分析

      3.1 CNN模型訓(xùn)練

      本文生成的翼型圖像及其氣動(dòng)系數(shù)樣本集總數(shù)為6561個(gè)。將這6561個(gè)樣本的順序打亂,隨機(jī)選擇6000個(gè)圖像作為訓(xùn)練樣本,將法向力系數(shù)作為其期 望值,對(duì)CNN進(jìn)行訓(xùn)練;剩下的561個(gè)翼型圖像及其法向力系數(shù)作為測(cè)試樣本,對(duì)CNN的預(yù)測(cè)能力進(jìn)行測(cè)試。訓(xùn)練方法選擇動(dòng)量隨機(jī)梯度下降法(StochNastic Gradient Descent with Momentum,SGDM)[23],動(dòng)量參數(shù)設(shè)置為0.9;圖像輸入的批量大小設(shè)置為10,即每批輸入10個(gè)翼型圖像樣本進(jìn)行訓(xùn)練;迭代次數(shù)設(shè)置為30次;學(xué)習(xí)率設(shè)置為1×10-5;L2正則化參數(shù)設(shè)置為1×10-4;卷積核初始化權(quán)值設(shè)置為滿足均值為0,標(biāo)準(zhǔn)差為0.01的高斯分布隨機(jī)數(shù),偏置初始化為0。

      本文用于建模和仿真的計(jì)算機(jī)配置為:Intel Core i7-4470 3.7GHz CPU、16GB 內(nèi)存、NVIDIA Quadro K620顯卡。通過以上訓(xùn)練參數(shù),采用顯卡GPU運(yùn)算,建立CNN預(yù)測(cè)模型的時(shí)間大約為10分鐘,比利用CPU建立預(yù)測(cè)模型的時(shí)間快大約20倍。訓(xùn)練過程中,每批樣本的均方根誤差(Root Mean Square Error,RMSE)隨循環(huán)次數(shù)的變化曲線如圖7

      所示。其中,RMSE通過下式計(jì)算得到:

      (6)

      圖7 CNN訓(xùn)練過程中均方根誤差變化曲線Fig.7 RMSEs of CNN training process

      為了便于觀察,圖7中只給出了200次循環(huán)(即1/3次迭代)內(nèi)的RMSE變化情況。從圖中可以看出,經(jīng)過200次循環(huán)后,RMSE已下降到0.01以下,并且還有繼續(xù)下降的趨勢(shì)。

      3.2 CNN預(yù)測(cè)

      CNN訓(xùn)練完成后,將561個(gè)測(cè)試翼型的圖像輸入CNN模型,即可得到其法向力系數(shù),預(yù)測(cè)時(shí)間不到1 s。圖8為測(cè)試翼型法向力系數(shù)的預(yù)測(cè)值與期望值示意圖。從圖中可以看出,預(yù)測(cè)值與期望值幾乎重合,預(yù)測(cè)精度非常高。

      圖8 預(yù)測(cè)結(jié)果Fig.8 Prediction results

      圖9為測(cè)試翼型的法向力系數(shù)誤差曲線。從圖中可以看出,最大誤差不超過1.25×10-3。

      圖9 預(yù)測(cè)誤差曲線Fig.9 Prediction errors

      為了進(jìn)一步驗(yàn)證本文提出的圖形化方法,將該方法與線性回歸、支持向量機(jī)等參數(shù)化方法進(jìn)行了對(duì)比,其對(duì)比情況如表1所示。

      表1 預(yù)測(cè)結(jié)果對(duì)比Table 1 Comparison of prediction results

      表1中,RMSE為總的測(cè)試樣本均方根誤差,將式(9)中的mbatch更換為測(cè)試樣本數(shù)ntest即可計(jì)算得到;EP為誤差百分比,通過下式計(jì)算得到:

      (7)

      從表1中可以看出,參數(shù)化方法中效果最好的線性回歸方法,其EP和RMSE均大于本文提出的圖形化方法,其他參數(shù)化方法的EP和RMSE則更大。從而進(jìn)一步說明了本文提出的圖形化方法具有更好的擬合和預(yù)測(cè)效果。

      4 結(jié) 論

      本文提出了一種基于深度學(xué)習(xí)的翼型氣動(dòng)系數(shù)預(yù)測(cè)方法。該方法不依賴于翼型的設(shè)計(jì)方法和設(shè)計(jì)參數(shù),能夠在只給出翼型圖像的基礎(chǔ)上預(yù)測(cè)出翼型氣動(dòng)系數(shù),并且具有很高的預(yù)測(cè)精度。

      通過本文的研究,說明深度學(xué)習(xí)在翼型氣動(dòng)系數(shù)預(yù)測(cè)方面具有很好的應(yīng)用前景,可以通過增加網(wǎng)絡(luò)層數(shù)、卷積核數(shù)量、迭代次數(shù)、全連接層數(shù)量、Dropout技術(shù)等措施,增加網(wǎng)絡(luò)的擬合能力,適應(yīng)更加復(fù)雜的翼型。

      參考文獻(xiàn):

      [1]Huang J H, Su H L, Zhao X H.Aerodynamic coefficient prediction of airfoil using BP neural network[J].Advances in Aeronautical Science and Engineering, 2010, 1(1): 36-39.(in Chinese)黃繼鴻, 蘇紅蓮, 趙新華.基于BP神經(jīng)網(wǎng)絡(luò)的翼型空氣動(dòng)力系數(shù)預(yù)測(cè)[J].航空工程進(jìn)展, 2010, 1(1): 36-39.

      [2]Liu X.Simulation of airfoil plunging aerodynamic parameter prediction based on neural network[J].Computer Simulation, 2015, 32(12): 61-71.(in Chinese)劉昕.基于神經(jīng)網(wǎng)絡(luò)的機(jī)翼氣動(dòng)參數(shù)預(yù)測(cè)仿真研究[J].計(jì)算機(jī)仿真, 2015, 32(12): 61-71.

      [3]Wallach R, Mattos B S, Girardi R M, et al.Aerodynamic coefficient prediction of transport aircraft using neural network[C]//44th AIAA Aerospace Sciences Meeting and Exhibit.Reno: AIAA, 2006: 658-675.

      [4]Santos M C, Mattos B S, Girardi R M.Aerodynamic coefficient prediction of airfoils using neural networks[C]//46th AIAA Aerospace Sciences Meeting and Exhibit.Reno: AIAA, 2008: 887-902.

      [5]AndréS E, Salcedo-Sanz S, Monge F, et al.Efficient aerodynamic design through evolutionary programming and support vector[J].Expert Systems with Applications, 2012, 39(12): 10700-10708.

      [6]Hinton G E, Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science, 2006, 313(5786): 504-507.

      [7]Hinton G E.A practical guide to training Restricted Boltzmann Machines[EB/OL].http://www.cs.toronto.edu/~hinton/absps/guideTR.pdf.2010-08-02/2017-05-01.

      [8]Hinton G E, Osindero S, Teh Y W.A fast learning algorithm for deep belief nets[J].Neural Computation, 2006, 18(7): 1527-1554.

      [9]Vincent P, Larochelle H, Lajoie I, et al.Stacked denoising AutoEncoders: learning useful representations in a deep network with a local denoising criterion[J].Journal of Machine Learning Research, 2010, 11(6): 3371-34.

      [10]Lecun Y, Bottou L, Bengio Y, et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE, 1998, 86(11): 2278-2324.

      [11]Sutskever I.Training recurrent neural networks[D].Toronto: University of Toronto, 2013.

      [12]Li Y D, Hao Z B, Lei H.Survey of convolutional neural network[J].Journal of Computer Applications, 2016, 36(9): 2508-2515.(in Chinese)李彥冬, 郝宗波, 雷航.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)應(yīng)用, 2016, 36(9): 2508-2515.

      [13]Glorot X, Bengio Y.Understanding the difficulty of training deep feedforward neural networks[C]//International Conference on Artificial Intelligence and Statistics.Brookline, MA: 2010: 249-256.

      [14]Nair V, Hinton G E.Rectified linear units improve restricted Boltzmann machines[C]//Proceedings of the 27th International Conference on Machine Learning.Haifa, ILMS: 2010: 807-814.

      [15]Krizhevsky A, Sutskever I, Hinton G E.Imagenet classification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems.NY: Curran Associates, 2012: 1097-1105.

      [16]Yin B C, Wang W T,Wang L C.Review of Deep Learning[J].Journal of Beijing University of Technology, 2015, 41(1): 48-59.(in Chinese)尹寶才, 王文通, 王立春.深度學(xué)習(xí)研究綜述[J].北京工業(yè)大學(xué)學(xué)報(bào), 2015, 41(1): 48-59.

      [17]Lu H T, Zhang Q C.Applications of deep convolutional neural network in computer vision[J].Journal of Data Acquisition and Processing, 2016, 31(1): 1-17.(in Chinese)盧宏濤, 張秦川.深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺中的應(yīng)用研究綜述[J].數(shù)據(jù)采集與處理, 2016, 31(1): 1-17.

      [18]Wu W Z.Application research of convolution neural network in image classification[D].Chengdu: University of Electronic Science and Technology, 2015.(in Chinese)吳正文.卷積神經(jīng)網(wǎng)絡(luò)在圖像分類中的應(yīng)用研究[D].成都: 電子科技大學(xué), 2015.

      [19]Boureau Y, Bach F, Lecun Y, et al.Learning mid-level features for recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition.San Francisco: IEEE, 2010: 13-18.

      [20]Hicks R M, Henne P A.Wing design by numerical optimization[J].Journal of Aircraft, 1978, 15(7): 407-412.

      [21]Wang J J, Gao Z H.Analysis and improvement of HicksHenne airfoil parameterization method[J].Aeronautical Computing Technique, 2010, 40(4): 46-49.(in Chinese)王建軍, 高正紅.HicksHenne翼型參數(shù)化方法分析及改進(jìn)[J].航空計(jì)算技術(shù), 2010, 40(4): 46-49.

      [22]Wang J T,Yi X ,Xiao Z Y, et al.Numerical simulation of ice shedding from ARJ21-700[J].ACTA Aerodynamica Sinica, 2013, 31(4): 430-436.(in Chinese)王建濤, 易賢, 肖中云, 等.ARJ21-700飛機(jī)冰脫落數(shù)值模擬[J].空氣動(dòng)力學(xué)學(xué)報(bào), 2013, 31(4): 430-436.

      [23]Murphy K P.Machine learning: a probabilistic perspective[M].Cambridge: the MIT Press, 2012.

      猜你喜歡
      池化氣動(dòng)卷積
      基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
      基于Sobel算子的池化算法設(shè)計(jì)
      中寰氣動(dòng)執(zhí)行機(jī)構(gòu)
      卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      基于NACA0030的波紋狀翼型氣動(dòng)特性探索
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
      基于反饋線性化的RLV氣動(dòng)控制一體化設(shè)計(jì)
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      大港区| 南投市| 清水河县| 隆尧县| 阜康市| 巴南区| 抚顺市| 乐都县| 华容县| 兰溪市| 陆河县| 余姚市| 酒泉市| 平顶山市| 尤溪县| 拉孜县| 黄浦区| 岳阳市| 六安市| 利川市| 鄂托克前旗| 乌拉特后旗| 霍山县| 泰来县| 罗田县| 石家庄市| 惠安县| 沈丘县| 肥西县| 廉江市| 扎兰屯市| 尤溪县| 马公市| 汉沽区| 罗甸县| 忻城县| 郑州市| 乐业县| 昌都县| 定西市| 嘉黎县|