陳 海, 錢煒祺, 何 磊
(中國(guó)空氣動(dòng)力研究與發(fā)展中心, 四川 綿陽(yáng) 621000)
機(jī)翼氣動(dòng)系數(shù)的計(jì)算是翼型設(shè)計(jì)與研究的主要內(nèi)容,對(duì)提高飛行性能具有重要意義。傳統(tǒng)方法通過計(jì)算流體力學(xué)(Computational Fluid Dynamics,CFD)計(jì)算或風(fēng)洞試驗(yàn)得到翼型氣動(dòng)系數(shù),這一方法雖然被證明是有效的,但卻存在計(jì)算量大和試驗(yàn)成本高等缺點(diǎn)。近年來,隨著神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,一種以智能學(xué)習(xí)為基礎(chǔ)的預(yù)測(cè)方法逐漸進(jìn)入人們視野。這一方法以翼型設(shè)計(jì)參數(shù)和氣動(dòng)系數(shù)作為學(xué)習(xí)對(duì)象,通過神經(jīng)網(wǎng)絡(luò)或支持向量機(jī)(Support Vector Machine,SVM)建立預(yù)測(cè)模型,對(duì)未知翼型的氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè),從而避免了大量的數(shù)值運(yùn)算和試驗(yàn)。文獻(xiàn)[1]以雷諾數(shù)、迎角、馬赫數(shù)為建模設(shè)計(jì)輸入,建立了BP 神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型,對(duì)二維翼型NACA63-215的升力系數(shù)和阻力系數(shù)進(jìn)行了預(yù)測(cè)。文獻(xiàn)[2]建立了RBF神經(jīng)網(wǎng)絡(luò)模型,用來預(yù)測(cè)在特定的振幅下,從波谷到波峰運(yùn)動(dòng)中,減縮頻率范圍1~5下任意一位移點(diǎn)的機(jī)翼升力系數(shù)和阻力系數(shù)。文獻(xiàn)[3]和文獻(xiàn)[4]將迎角、馬赫數(shù)、雷諾數(shù)、翼型幾何形狀為設(shè)計(jì)輸入,建立了神經(jīng)網(wǎng)絡(luò)模型,對(duì)翼型的氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè)。文獻(xiàn)[5]將進(jìn)化規(guī)劃算法與支持向量回歸算法相結(jié)合,用于預(yù)測(cè)具有不同幾何參數(shù)的機(jī)翼在不同迎角情況下的升力、阻力和滾轉(zhuǎn)力矩系數(shù)。以上方法為參數(shù)化學(xué)習(xí)方法,在建立預(yù)測(cè)模型和對(duì)翼型氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè)時(shí)均需要翼型的設(shè)計(jì)參數(shù),如果設(shè)計(jì)參數(shù)過多,將給預(yù)測(cè)模型的建立帶來困難。并且當(dāng)翼型設(shè)計(jì)方法發(fā)生變化時(shí),即翼型參數(shù)的種類和數(shù)量等發(fā)生變化時(shí),已建立起來的預(yù)測(cè)模型將失效。同時(shí),以上方法為淺層學(xué)習(xí)方法,其算法復(fù)雜度將隨著樣本數(shù)量和模型精度的提高呈指數(shù)級(jí)增長(zhǎng)。
2006年以來,隨著機(jī)器學(xué)習(xí)和大數(shù)據(jù)的發(fā)展,深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)的一個(gè)分支,得到了廣泛的認(rèn)可和蓬勃的發(fā)展[6]。深度學(xué)習(xí)包含多種模型,主要有基于受限玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)[7]的深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)[8]、基于自動(dòng)編碼器(Auto-Encoder,AE)的堆疊自動(dòng)編碼器(Stacked Auto-Encoders,SAE)[9]、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[10]、遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,RNN)[11]等。將深度學(xué)習(xí)應(yīng)用于翼型氣動(dòng)系數(shù)預(yù)測(cè),建立圖形化的預(yù)測(cè)模型,能夠克服上述方法的不足,提高預(yù)測(cè)精度。在各種深度學(xué)習(xí)模型中,CNN能夠直接將圖像作為輸入,并且能夠通過卷積核有效提取圖像中的特征,因此,特別適合翼型圖像處理。
本文以翼型圖像作為輸入,建立CNN預(yù)測(cè)模型,對(duì)翼型特征進(jìn)行提取與分類,最后通過回歸分析預(yù)測(cè)翼型的氣動(dòng)系數(shù)。該方法為非參數(shù)化方法,不受翼型設(shè)計(jì)方法和設(shè)計(jì)參數(shù)的影響,在迎角、馬赫數(shù)和雷諾數(shù)一定的情況下,只要給出翼型圖像,就能夠利用預(yù)測(cè)模型預(yù)測(cè)出翼型的氣動(dòng)系數(shù)。并且,借助于深度學(xué)習(xí)技術(shù),能夠有效解決由于訓(xùn)練層數(shù)和樣本數(shù)的增大而帶來的算法復(fù)雜度急劇增加的問題。
作為神經(jīng)網(wǎng)絡(luò)領(lǐng)域的一個(gè)重要研究分支,CNN每一層的特征都由上一層的局部區(qū)域通過共享權(quán)值的卷積核激勵(lì)得到,即通過提取輸入數(shù)據(jù)的局部特征,并逐層組合抽象生成高層特征,這類似于生物神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別過程。同時(shí),CNN模型的容量可以通過改變網(wǎng)絡(luò)的深度和廣度來調(diào)整,能夠有效降低網(wǎng)絡(luò)模型的學(xué)習(xí)復(fù)雜度,具有更少的網(wǎng)絡(luò)連接數(shù)和權(quán)值參數(shù)。因此,CNN在圖像處理、語(yǔ)音識(shí)別、特征提取等領(lǐng)域得到了廣泛的應(yīng)用。
如圖1所示,一個(gè)典型的CNN模型由輸入層、卷積層、池化層、全連接層和輸出層組成,根據(jù)具體問題的不同,CNN可能會(huì)有多個(gè)卷積層和池化層交替出現(xiàn),并含有多個(gè)全連接層。
1) 數(shù)據(jù)輸入層(Data Input Layer)。在做圖像分析時(shí),CNN的輸入為原始圖像X,如果是彩色圖則為三維RGB矩陣數(shù)據(jù),如果是灰度圖則為一維矩陣數(shù)據(jù)。數(shù)據(jù)輸入層還需要對(duì)圖像數(shù)據(jù)進(jìn)行歸一化和去均值化的處理。
2) 卷積層(Convolutional Layer)。卷積層是CNN的核心組成部分,通過不同的卷積核,來獲取圖像的特征。卷積核相當(dāng)于一個(gè)濾波器,不同的濾波器提取不同特征。
本文用Hi表示CNN第i層的特征圖(Feature Maps)(H0=X)。Hi的產(chǎn)生過程可以通過以下公式表示[12]:
Hi=f(Hi-1?Wi+bi)
(1)
傳統(tǒng)CNN中的非線性激勵(lì)函數(shù)通常采用sigmoid、tanh或softsign等飽和非線性函數(shù)[13],近幾年多采用不飽和非線性函數(shù)ReLU(Rectified Linear Units)[14-15]。在訓(xùn)練時(shí),ReLU可以通過簡(jiǎn)單的閾值化的激活來實(shí)現(xiàn)參數(shù)稀疏化,比傳統(tǒng)的飽和非線性函數(shù)有更快的收斂速度[16],因此在訓(xùn)練整個(gè)網(wǎng)絡(luò)時(shí),訓(xùn)練速度也比傳統(tǒng)的方法快。
3) 池化層(Pooling Layer)。CNN通過卷積層提取輸入圖像的特征后,就可以使用這些特征訓(xùn)練網(wǎng)絡(luò)。但是實(shí)際上訓(xùn)練CNN面臨的重要問題是龐大的計(jì)算量,特別是對(duì)于尺寸很大的圖像,網(wǎng)絡(luò)的訓(xùn)練速度會(huì)很慢。為了進(jìn)一步減少運(yùn)算數(shù)據(jù)量,降低網(wǎng)絡(luò)訓(xùn)練時(shí)間,CNN采用了在卷積層后面連接一個(gè)池化層(又稱下采樣層或次采樣層,Sub-sample Layer)的方式來減少數(shù)據(jù)量。池化的基本原理是根據(jù)圖像相對(duì)不變性的屬性,對(duì)圖像相鄰區(qū)域的特征信息進(jìn)行聚合統(tǒng)計(jì)。
常用的池化方法有平均池化和最大池化等。平均池化即對(duì)池化區(qū)域內(nèi)的像素值求平均;最大池化即對(duì)池化區(qū)域內(nèi)的像素值求最大值。特征提取時(shí),平均池化通過保留圖像背景信息能減少因池化區(qū)域的受限造成估值方差而產(chǎn)生的誤差,而最大池化可以通過保留圖像紋理信息來減少卷積層參數(shù)誤差造成的估計(jì)均值偏移而產(chǎn)生的誤差[19]。
4) 全連接層(Full Connected Layer)。全連接層由多個(gè)神經(jīng)元組成。通過CNN逐層提取到的特征輸出到全連接層,這樣使得整個(gè)CNN可以采用梯度下降法等算法進(jìn)行全局訓(xùn)練。
5) 輸出層(Output Layer)。輸出層用于樣本的預(yù)測(cè)輸出,根據(jù)輸出模型的不同,可以用作回歸分析,也可以用作圖像分類等。
CNN的訓(xùn)練過程如圖2所示。
CNN的訓(xùn)練過程包括前向計(jì)算和誤差反向傳播兩大步驟。前向計(jì)算主要是通過圖像的卷積和池化操作實(shí)現(xiàn)圖像特征的提取和映射,根據(jù)問題的不同可以進(jìn)行多次卷積和池化操作,多次的提取過程能夠從圖像中提取到更多的有用信息;其次,將提取到的特征傳遞到全連接層,構(gòu)建常規(guī)的神經(jīng)網(wǎng)絡(luò)模型;最后,通過輸出層對(duì)數(shù)據(jù)信息進(jìn)行變換和計(jì)算,得到預(yù)測(cè)結(jié)果。誤差反向傳播主要是將預(yù)測(cè)結(jié)果與期望結(jié)果進(jìn)行對(duì)比得到的預(yù)測(cè)誤差,通過梯度下降等算法進(jìn)行反向傳遞,更新網(wǎng)絡(luò)權(quán)值和偏置。在完成前向計(jì)算和誤差反向傳播后,如果未達(dá)結(jié)束條件,則繼續(xù)上述步驟對(duì)CNN進(jìn)行訓(xùn)練。CNN訓(xùn)練是否結(jié)束是通過對(duì)誤差閾值或迭代次數(shù)的判斷來實(shí)現(xiàn)的,本文使用后者作為結(jié)束條件。
圖2 CNN的訓(xùn)練過程Fig.2 Training process of CNN
一般情況下,CNN輸入圖像的訓(xùn)練樣本數(shù)量都很大,通用的處理方式是通過設(shè)定批量大小(batch size),將輸入樣本分成若干批次(batch),分批將圖像數(shù)據(jù)送入CNN進(jìn)行訓(xùn)練,訓(xùn)練完成之后即進(jìn)行誤差反向傳播和權(quán)值更新。輸入一批樣本完成訓(xùn)練稱為一次循環(huán)(iteration),輸入所有樣本完成訓(xùn)練稱為一次迭代(epoch)。設(shè)訓(xùn)練樣本數(shù)為ntrain,批量大小為mbatch,一次迭代的批次數(shù)量為nbatch,完成CNN訓(xùn)練的循環(huán)總次數(shù)為niteration,迭代次數(shù)為nepoch,則它們之間的關(guān)系可用如下兩式描述:
(2)
niteration=nepoch·nbatch
(3)
一般情況下,迭代次數(shù)越多,網(wǎng)絡(luò)擬合能力越強(qiáng),預(yù)測(cè)精度越高,但也需要耗費(fèi)更多的時(shí)間。
本文建立基于CNN的圖形化預(yù)測(cè)方法對(duì)翼型氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè),并與參數(shù)化方法進(jìn)行比較的流程如圖3所示。
本文為圖形化預(yù)測(cè)方法,輸入數(shù)據(jù)為翼型圖像。由于翼型圖像的橫坐標(biāo)和縱坐標(biāo)相差一個(gè)數(shù)量級(jí),因此將縱坐標(biāo)(即翼型厚度)放大10倍后進(jìn)行作圖和計(jì)算,以減小訓(xùn)練模型的擬合誤差。圖4隨機(jī)給出了12個(gè)翼型圖像及其法向力系數(shù)CN。
圖3 翼型氣動(dòng)系數(shù)預(yù)測(cè)流程Fig.3 Prediction flow of airfoil aerodynamic coefficients
圖4 12個(gè)翼型圖像及法向力系數(shù)(翼型厚度放大10倍)Fig.4 12 images and normal force coefficients of airfoil
本文中用于仿真的翼型圖像通過翼型函數(shù)生成,選取的基準(zhǔn)翼型為NACA0012,型函數(shù)為Hicks-Henne[20-21]函數(shù),型函數(shù)數(shù)目為4。氣動(dòng)力系數(shù)在迎角為2°、馬赫數(shù)為0.4、雷諾數(shù)為6.5×106的條件下,采用自主研發(fā)的流體計(jì)算軟件MBNS2D[22]計(jì)算得到。
本文設(shè)計(jì)的CNN結(jié)構(gòu)如圖5所示。
圖5 設(shè)計(jì)的CNN結(jié)構(gòu)Fig.5 Designed structure of CNN
1) 輸入層。輸入層為翼型圖像,其分辨率越高,建立的預(yù)測(cè)模型越準(zhǔn)確,但建模時(shí)間和預(yù)測(cè)時(shí)間都會(huì)相應(yīng)的增加,因此需要選擇適中的分辨率。本文輸入翼型圖像選取為85×85像素的灰度圖像,即85×85的二維矩陣,取值在0~255之間。
2) 卷積層1。大尺寸的卷積核可以帶來更大的局部感受區(qū)域,但也意味著更多的參數(shù),會(huì)使網(wǎng)絡(luò)速度變慢;卷積核數(shù)量越多,能夠描述的特征也越豐富,但計(jì)算量也會(huì)相應(yīng)的增加,同時(shí)存在過擬合的風(fēng)險(xiǎn)。因此,需要選擇適當(dāng)?shù)木矸e核大小和卷積數(shù)量。本文根據(jù)輸入圖像的分辨率,選取卷積核大小為6×6,卷積核數(shù)量為40,步長(zhǎng)為1。經(jīng)過卷積響應(yīng)和非線性激勵(lì)函數(shù)ReLU運(yùn)算后,得到40個(gè)分辨率為80×80的特征圖。其中,ReLU函數(shù)的計(jì)算公式為:
f(x)=max(0,x)
(4)
其函數(shù)曲線如圖6所示。
圖6 ReLU激勵(lì)函數(shù)曲線Fig.6 Curve of activation function ReLU
3) 池化層1。池化區(qū)域越大,步長(zhǎng)越長(zhǎng),意味著特征圖分辨率的降幅越大,運(yùn)算速度越快,但也會(huì)丟失更多的信息,存在欠擬合的風(fēng)險(xiǎn)。因此,需要選擇適當(dāng)?shù)某鼗瘏?shù)。本文選取池化區(qū)域大小為2×2,步長(zhǎng)為2,即相鄰池化區(qū)域不重疊。經(jīng)過池化處理后,得到40個(gè)分辨率為40×40的特征圖。
4) 卷積層2。選取卷積核大小為5×5,卷積核數(shù)量為80,步長(zhǎng)為1。經(jīng)過卷積響應(yīng)和非線性激勵(lì)函數(shù)ReLU運(yùn)算后,得到80個(gè)分辨率為36×36的特征圖。
5) 池化層2。選取池化區(qū)域大小為2×2,步長(zhǎng)為2。經(jīng)過池化處理后,得到80個(gè)分辨率為18×18的特征圖。
6) 全連接層。全連接層的神經(jīng)元個(gè)數(shù)取決于池化層2中特征圖的分辨率及數(shù)量,本文設(shè)置一個(gè)全連接層,其神經(jīng)元個(gè)數(shù)為25 920個(gè)。
7) 輸出層。本文的輸出層用作回歸分析,對(duì)翼型的氣動(dòng)系數(shù)進(jìn)行預(yù)測(cè),其采用的激活函數(shù)為均方差(Mean Square Error,MSE):
(5)
其中,ti是期望值,yi是預(yù)測(cè)值。
本文生成的翼型圖像及其氣動(dòng)系數(shù)樣本集總數(shù)為6561個(gè)。將這6561個(gè)樣本的順序打亂,隨機(jī)選擇6000個(gè)圖像作為訓(xùn)練樣本,將法向力系數(shù)作為其期 望值,對(duì)CNN進(jìn)行訓(xùn)練;剩下的561個(gè)翼型圖像及其法向力系數(shù)作為測(cè)試樣本,對(duì)CNN的預(yù)測(cè)能力進(jìn)行測(cè)試。訓(xùn)練方法選擇動(dòng)量隨機(jī)梯度下降法(StochNastic Gradient Descent with Momentum,SGDM)[23],動(dòng)量參數(shù)設(shè)置為0.9;圖像輸入的批量大小設(shè)置為10,即每批輸入10個(gè)翼型圖像樣本進(jìn)行訓(xùn)練;迭代次數(shù)設(shè)置為30次;學(xué)習(xí)率設(shè)置為1×10-5;L2正則化參數(shù)設(shè)置為1×10-4;卷積核初始化權(quán)值設(shè)置為滿足均值為0,標(biāo)準(zhǔn)差為0.01的高斯分布隨機(jī)數(shù),偏置初始化為0。
本文用于建模和仿真的計(jì)算機(jī)配置為:Intel Core i7-4470 3.7GHz CPU、16GB 內(nèi)存、NVIDIA Quadro K620顯卡。通過以上訓(xùn)練參數(shù),采用顯卡GPU運(yùn)算,建立CNN預(yù)測(cè)模型的時(shí)間大約為10分鐘,比利用CPU建立預(yù)測(cè)模型的時(shí)間快大約20倍。訓(xùn)練過程中,每批樣本的均方根誤差(Root Mean Square Error,RMSE)隨循環(huán)次數(shù)的變化曲線如圖7
所示。其中,RMSE通過下式計(jì)算得到:
(6)
圖7 CNN訓(xùn)練過程中均方根誤差變化曲線Fig.7 RMSEs of CNN training process
為了便于觀察,圖7中只給出了200次循環(huán)(即1/3次迭代)內(nèi)的RMSE變化情況。從圖中可以看出,經(jīng)過200次循環(huán)后,RMSE已下降到0.01以下,并且還有繼續(xù)下降的趨勢(shì)。
CNN訓(xùn)練完成后,將561個(gè)測(cè)試翼型的圖像輸入CNN模型,即可得到其法向力系數(shù),預(yù)測(cè)時(shí)間不到1 s。圖8為測(cè)試翼型法向力系數(shù)的預(yù)測(cè)值與期望值示意圖。從圖中可以看出,預(yù)測(cè)值與期望值幾乎重合,預(yù)測(cè)精度非常高。
圖8 預(yù)測(cè)結(jié)果Fig.8 Prediction results
圖9為測(cè)試翼型的法向力系數(shù)誤差曲線。從圖中可以看出,最大誤差不超過1.25×10-3。
圖9 預(yù)測(cè)誤差曲線Fig.9 Prediction errors
為了進(jìn)一步驗(yàn)證本文提出的圖形化方法,將該方法與線性回歸、支持向量機(jī)等參數(shù)化方法進(jìn)行了對(duì)比,其對(duì)比情況如表1所示。
表1 預(yù)測(cè)結(jié)果對(duì)比Table 1 Comparison of prediction results
表1中,RMSE為總的測(cè)試樣本均方根誤差,將式(9)中的mbatch更換為測(cè)試樣本數(shù)ntest即可計(jì)算得到;EP為誤差百分比,通過下式計(jì)算得到:
(7)
從表1中可以看出,參數(shù)化方法中效果最好的線性回歸方法,其EP和RMSE均大于本文提出的圖形化方法,其他參數(shù)化方法的EP和RMSE則更大。從而進(jìn)一步說明了本文提出的圖形化方法具有更好的擬合和預(yù)測(cè)效果。
本文提出了一種基于深度學(xué)習(xí)的翼型氣動(dòng)系數(shù)預(yù)測(cè)方法。該方法不依賴于翼型的設(shè)計(jì)方法和設(shè)計(jì)參數(shù),能夠在只給出翼型圖像的基礎(chǔ)上預(yù)測(cè)出翼型氣動(dòng)系數(shù),并且具有很高的預(yù)測(cè)精度。
通過本文的研究,說明深度學(xué)習(xí)在翼型氣動(dòng)系數(shù)預(yù)測(cè)方面具有很好的應(yīng)用前景,可以通過增加網(wǎng)絡(luò)層數(shù)、卷積核數(shù)量、迭代次數(shù)、全連接層數(shù)量、Dropout技術(shù)等措施,增加網(wǎng)絡(luò)的擬合能力,適應(yīng)更加復(fù)雜的翼型。
參考文獻(xiàn):
[1]Huang J H, Su H L, Zhao X H.Aerodynamic coefficient prediction of airfoil using BP neural network[J].Advances in Aeronautical Science and Engineering, 2010, 1(1): 36-39.(in Chinese)黃繼鴻, 蘇紅蓮, 趙新華.基于BP神經(jīng)網(wǎng)絡(luò)的翼型空氣動(dòng)力系數(shù)預(yù)測(cè)[J].航空工程進(jìn)展, 2010, 1(1): 36-39.
[2]Liu X.Simulation of airfoil plunging aerodynamic parameter prediction based on neural network[J].Computer Simulation, 2015, 32(12): 61-71.(in Chinese)劉昕.基于神經(jīng)網(wǎng)絡(luò)的機(jī)翼氣動(dòng)參數(shù)預(yù)測(cè)仿真研究[J].計(jì)算機(jī)仿真, 2015, 32(12): 61-71.
[3]Wallach R, Mattos B S, Girardi R M, et al.Aerodynamic coefficient prediction of transport aircraft using neural network[C]//44th AIAA Aerospace Sciences Meeting and Exhibit.Reno: AIAA, 2006: 658-675.
[4]Santos M C, Mattos B S, Girardi R M.Aerodynamic coefficient prediction of airfoils using neural networks[C]//46th AIAA Aerospace Sciences Meeting and Exhibit.Reno: AIAA, 2008: 887-902.
[5]AndréS E, Salcedo-Sanz S, Monge F, et al.Efficient aerodynamic design through evolutionary programming and support vector[J].Expert Systems with Applications, 2012, 39(12): 10700-10708.
[6]Hinton G E, Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science, 2006, 313(5786): 504-507.
[7]Hinton G E.A practical guide to training Restricted Boltzmann Machines[EB/OL].http://www.cs.toronto.edu/~hinton/absps/guideTR.pdf.2010-08-02/2017-05-01.
[8]Hinton G E, Osindero S, Teh Y W.A fast learning algorithm for deep belief nets[J].Neural Computation, 2006, 18(7): 1527-1554.
[9]Vincent P, Larochelle H, Lajoie I, et al.Stacked denoising AutoEncoders: learning useful representations in a deep network with a local denoising criterion[J].Journal of Machine Learning Research, 2010, 11(6): 3371-34.
[10]Lecun Y, Bottou L, Bengio Y, et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE, 1998, 86(11): 2278-2324.
[11]Sutskever I.Training recurrent neural networks[D].Toronto: University of Toronto, 2013.
[12]Li Y D, Hao Z B, Lei H.Survey of convolutional neural network[J].Journal of Computer Applications, 2016, 36(9): 2508-2515.(in Chinese)李彥冬, 郝宗波, 雷航.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)應(yīng)用, 2016, 36(9): 2508-2515.
[13]Glorot X, Bengio Y.Understanding the difficulty of training deep feedforward neural networks[C]//International Conference on Artificial Intelligence and Statistics.Brookline, MA: 2010: 249-256.
[14]Nair V, Hinton G E.Rectified linear units improve restricted Boltzmann machines[C]//Proceedings of the 27th International Conference on Machine Learning.Haifa, ILMS: 2010: 807-814.
[15]Krizhevsky A, Sutskever I, Hinton G E.Imagenet classification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems.NY: Curran Associates, 2012: 1097-1105.
[16]Yin B C, Wang W T,Wang L C.Review of Deep Learning[J].Journal of Beijing University of Technology, 2015, 41(1): 48-59.(in Chinese)尹寶才, 王文通, 王立春.深度學(xué)習(xí)研究綜述[J].北京工業(yè)大學(xué)學(xué)報(bào), 2015, 41(1): 48-59.
[17]Lu H T, Zhang Q C.Applications of deep convolutional neural network in computer vision[J].Journal of Data Acquisition and Processing, 2016, 31(1): 1-17.(in Chinese)盧宏濤, 張秦川.深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺中的應(yīng)用研究綜述[J].數(shù)據(jù)采集與處理, 2016, 31(1): 1-17.
[18]Wu W Z.Application research of convolution neural network in image classification[D].Chengdu: University of Electronic Science and Technology, 2015.(in Chinese)吳正文.卷積神經(jīng)網(wǎng)絡(luò)在圖像分類中的應(yīng)用研究[D].成都: 電子科技大學(xué), 2015.
[19]Boureau Y, Bach F, Lecun Y, et al.Learning mid-level features for recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition.San Francisco: IEEE, 2010: 13-18.
[20]Hicks R M, Henne P A.Wing design by numerical optimization[J].Journal of Aircraft, 1978, 15(7): 407-412.
[21]Wang J J, Gao Z H.Analysis and improvement of HicksHenne airfoil parameterization method[J].Aeronautical Computing Technique, 2010, 40(4): 46-49.(in Chinese)王建軍, 高正紅.HicksHenne翼型參數(shù)化方法分析及改進(jìn)[J].航空計(jì)算技術(shù), 2010, 40(4): 46-49.
[22]Wang J T,Yi X ,Xiao Z Y, et al.Numerical simulation of ice shedding from ARJ21-700[J].ACTA Aerodynamica Sinica, 2013, 31(4): 430-436.(in Chinese)王建濤, 易賢, 肖中云, 等.ARJ21-700飛機(jī)冰脫落數(shù)值模擬[J].空氣動(dòng)力學(xué)學(xué)報(bào), 2013, 31(4): 430-436.
[23]Murphy K P.Machine learning: a probabilistic perspective[M].Cambridge: the MIT Press, 2012.