• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進的卷積神經(jīng)網(wǎng)絡(luò)的鋼號識別

      2018-06-13 10:36:42任偉建陳建玲孫勤江
      關(guān)鍵詞:個數(shù)像素卷積

      任偉建, 宋 月, 陳建玲, 任 璐, 孫勤江

      (1. 東北石油大學(xué) a. 電氣信息工程學(xué)院; b. 黑龍江省網(wǎng)絡(luò)化與智能控制重點實驗室, 黑龍江 大慶 163318;2. 中海石油(中國)有限公司天津分公司 渤海研究院, 天津 300452;3. 海洋石油工程股份有限公司 設(shè)計公司, 天津 300450; 4. 中海石油(中國)有限公司 天津分公司, 天津 300452)

      0 引 言

      石油管線作為油田物資中的一個重要組成部分, 隨著油氣田開發(fā)建設(shè)、生產(chǎn)規(guī)模不斷擴大, 物資管理任務(wù)進一步加重, 管線管理的要求也進一步提高。雖然目前已經(jīng)有倉儲管理信息系統(tǒng), 但針對管線身份識別大多還是通過人眼識別的方式。人眼識別在一定程度上被認為是最可靠的方式, 但該方式無法避免地存在人為抄寫錯誤以及工作量巨大等缺點。近年來, 學(xué)者們提出了運用神經(jīng)網(wǎng)絡(luò)進行鋼號識別的方法。王靜鋼[1]首先提取了鋼號圖像的網(wǎng)格特征、 交叉點特征等特征矢量, 然后輸入3層BP神經(jīng)網(wǎng)絡(luò)進行識別。這類識別方法是先用一個手工設(shè)計的特征提取器提取輸入數(shù)據(jù)中相關(guān)的有用信息得到一組特征向量, 再利用一個可訓(xùn)練的分類器, 如神經(jīng)網(wǎng)絡(luò)等對這些特征向量進行分類識別[2]。該方法相對人工抄寫的方式一定程度上解放了人力, 但提取到的特征向量很大程度上決定了識別效果, 并且手工設(shè)計圖像特征不僅費時而且效率不高。

      隨著計算機的發(fā)展, 基于深度學(xué)習(xí)的模式識別已成為機器視覺和人工智能領(lǐng)域中研究的熱點, 被廣泛應(yīng)用于工業(yè)、 醫(yī)學(xué)等諸多領(lǐng)域中[3]。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)模型的一種, 是最常用的一種模型結(jié)構(gòu)。早在1998年, Lecun等[4]提出了LeNet-5模型, 成功將其應(yīng)用于銀行支票手寫數(shù)字識別任務(wù)中, 獲得了很好的效果。2012年, Krizhevsky等[5]提出AlexNet模型, 在圖像分類比賽中以巨大優(yōu)勢獲得第1名, 因此很多學(xué)者開始將卷積神經(jīng)網(wǎng)絡(luò)作為研究焦點。隨后, 新的卷積神經(jīng)網(wǎng)絡(luò)模型不斷被提出。目前對卷積神經(jīng)網(wǎng)絡(luò)的研究呈現(xiàn)兩種趨勢, 一種是增加卷積神經(jīng)網(wǎng)絡(luò)層數(shù), 構(gòu)成深度卷積神經(jīng)網(wǎng)絡(luò); 另一種是優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。雖然構(gòu)建更深層次的網(wǎng)絡(luò)可以達到更好的實驗效果, 但深度網(wǎng)絡(luò)卻需要更長的訓(xùn)練時間、 更多的計算資源和訓(xùn)練技巧。Saxe等[6]指出卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)本身是網(wǎng)絡(luò)能提取多層次、 多尺度特征的主要因素。所以設(shè)計特征學(xué)習(xí)能力更強的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)成為廣大學(xué)者的研究重點。聯(lián)和卷積神經(jīng)網(wǎng)絡(luò)與遞歸神經(jīng)網(wǎng)絡(luò)就是一種典型[7]。Socher等[8]結(jié)合卷積神經(jīng)網(wǎng)絡(luò)與遞歸神經(jīng)網(wǎng)絡(luò)提出了一種新的深度學(xué)習(xí)結(jié)構(gòu), 卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)原始圖像的淺層特征并作為遞歸神經(jīng)網(wǎng)絡(luò)的輸入, 利用遞歸神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)高層特征, 在彩色-深度圖像識別中取得了很好的識別率; 駱健等[9]在文獻[8]的基礎(chǔ)上增加卷積神經(jīng)網(wǎng)絡(luò)的輸入, 提出多尺度卷積遞歸神經(jīng)網(wǎng)絡(luò), 經(jīng)過局部對比度標準化和采樣后作為遞歸神經(jīng)網(wǎng)絡(luò)的輸入, 提取更加抽象的高層特征。雖然文獻[8,9]中提到的方法都獲得了很好的效果, 但這些方法都只是用遞歸神經(jīng)網(wǎng)絡(luò)代替一部分的卷積神經(jīng)網(wǎng)絡(luò)提取高層特征, 而忽略了卷積神經(jīng)網(wǎng)絡(luò)本身學(xué)習(xí)高層特征的能力。

      為提取輸入圖像的多樣性高層特征, 筆者提出一種改進的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu), 在卷積神經(jīng)網(wǎng)絡(luò)中引入遞歸神經(jīng)網(wǎng)絡(luò), 輸入圖像先經(jīng)過第1級卷積神經(jīng)網(wǎng)絡(luò), 通過卷積操作和采樣操作后提取原始圖像的淺層特征, 再輸入由卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)組成的第2級網(wǎng)絡(luò)學(xué)習(xí)高層特征, 最后將這兩種網(wǎng)絡(luò)學(xué)習(xí)到的特征融合后輸入到分類器中進行分類。改進后的網(wǎng)絡(luò)既能利用卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)高層特征, 同時還利用遞歸神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)低層特征的組合特征, 將兩種特征融合后能夠有效進行識別。為提高網(wǎng)絡(luò)識別精度和訓(xùn)練速度, 減少網(wǎng)絡(luò)過擬合, 筆者擬利用遷移學(xué)習(xí)理論解決小樣本集數(shù)據(jù)在卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練中樣本不足的問題。

      1 卷積神經(jīng)網(wǎng)絡(luò)

      近年來, 基于卷積神經(jīng)網(wǎng)絡(luò)的模式識別快速發(fā)展, 其高效的識別方法引起廣泛重視。傳統(tǒng)的模式識別模型是先用一個手工設(shè)計的特征提取器收集輸入數(shù)據(jù)中相關(guān)的有用信息得到一組特征向量, 然后利用一個可訓(xùn)練的分類器對這些特征向量進行分類識別。卷積神經(jīng)網(wǎng)絡(luò)的分類模型與傳統(tǒng)模型的不同之處在于卷積神經(jīng)網(wǎng)絡(luò)將特征提取與分類識別集于一體, 將特征提取過程隱藏于網(wǎng)絡(luò)中, 即輸入為原始圖像, 輸出為分類結(jié)果, 因此得到了廣泛的應(yīng)用。

      卷積神經(jīng)網(wǎng)絡(luò)每個卷積層后一般都有一個采樣層連接, 卷積層實現(xiàn)特征提取, 采樣層對提取到的特征進行采樣實現(xiàn)數(shù)據(jù)降維。卷積神經(jīng)網(wǎng)絡(luò)改變了以往的全連接方式, 采用局部連接不僅降低了參數(shù)數(shù)量, 同時更利于學(xué)習(xí)數(shù)據(jù)的局部特征。同時每層的獨立神經(jīng)元共享一個權(quán)值, 大幅降低了可學(xué)習(xí)的參數(shù)數(shù)量, 采樣層通過連續(xù)采樣操作不僅實現(xiàn)特征降維而且能實現(xiàn)對輸入圖像的旋轉(zhuǎn)、 平移、 伸縮等變換的不變性。

      1.1 卷積層

      (1)

      1.2 采樣層

      采樣層即對輸入特征圖進行采樣操作, 有K1個輸入圖, 就有K1個輸出圖, 只是每個輸出圖都變小了。表達式為

      (2)

      采樣方式包括均值采樣、 最大值采樣等, 設(shè)采樣層的核大小為k×k, 則采樣層計算方式如下

      (3)

      最大采樣f(x)=max(x[i,i+k][j,j+k])

      (4)

      1.3 LeNet-5卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

      圖1為經(jīng)典的LeNet-5卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)示意圖[4]。

      圖1 LeNet-5卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.1 Sketch map of LeNet-5 convolution neural network structure

      該網(wǎng)絡(luò)主要包含輸入層、 3個卷積層、 2個采樣層、 1個全連接層和輸出層。其中Input層為輸入層, C1、 C3及C5是由卷積神經(jīng)元組成的卷積層, S2和S4是由采樣神經(jīng)元組成的采樣層, F6是全連接層, Output為輸出層。網(wǎng)絡(luò)輸入層的輸入圖像是經(jīng)過歸一化的32×32像素大小的圖像。

      C1層。每個神經(jīng)元都是由卷積核與輸入圖中的局部鄰域連接得到, 用6個不同的可學(xué)習(xí)的卷積核與輸入圖像分別進行卷積操作則得到6個不同的特征圖。卷積層通過局部連接可以學(xué)習(xí)到數(shù)據(jù)的局部特征。卷積核大小為5×5像素, 卷積步長為1, 所以每個特征圖的大小為(32-5+1)×(32-5+1)像素, 即特征圖大小為28×28像素。

      S2層。對C1層中的每個特征圖的小區(qū)域進行子抽樣以實現(xiàn)數(shù)據(jù)降維, 并且通過選擇連續(xù)范圍進行采樣操作, 即使圖像有小的形變, 采樣的結(jié)果依然相同。這樣保持了對于輸入圖像的旋轉(zhuǎn)、 平移、 伸縮等變化的不變性。S2層與C1層有相同個數(shù)的特征圖, 特征圖中的每個單元由C1中相對應(yīng)特征圖的2×2像素鄰域采樣得到, 且不重疊采樣, 所以此層每個特征圖的大小為14×14像素。

      C3層。每個神經(jīng)元同樣采用局部連接的方式與S2層的多個特征圖相連。C3層增加特征圖個數(shù)為16個, 以補償S2層采樣帶來的特征損失并且獲得更多不同的特征。卷積核大小為5×5像素, 步長為1, 所以特征圖的大小為10×10像素。C3層中特征圖與S2層中特征圖的連接方式如表1所示, 表1中“X”表示有連接。由表1可見, C3層的前6個特征圖都是與S2層中3個相鄰的特征圖連接, 接下來的6個特征圖都是與S2層中4個相鄰的特征圖連接, 隨后的3個都是以不相鄰的4個特征圖連接, 最后一個與S2層中的所有特征圖連接。

      S4層。其功能與S2層相同, 對C3層相應(yīng)特征圖進行2×2像素區(qū)域的采樣操作, 得到16個5×5像素的特征圖;

      C5層。將特征圖增加至120個, 每個單元與S4層的全部16個特征圖的5×5鄰域相連, 得到120個大小為1×1特征圖, 構(gòu)成了S4和C5之間的全連接。

      F6層。包含84個神經(jīng)元, 每個神經(jīng)元與C5層120個特征圖全部相連, 將學(xué)習(xí)到的特征表示映射到樣本標記空間。

      最后的輸出層由歐氏徑向基函數(shù)單元組成, 每個單元代表一個類別。在手寫體識別任務(wù)中, 識別數(shù)字0~9共10個類別, 所以輸出層單元為10個, 分別輸出對應(yīng)數(shù)字的概率。

      表1 C3與S2層的連接方式

      2 改進的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

      卷積神經(jīng)網(wǎng)絡(luò)將特征提取與分類識別集于一體, 因此得到了廣泛應(yīng)用。文獻[8,9]將卷積神經(jīng)網(wǎng)絡(luò)與遞歸神經(jīng)網(wǎng)絡(luò)結(jié)合得到了很好的效果, 但都是用遞歸神經(jīng)網(wǎng)絡(luò)代替一部分卷積神經(jīng)網(wǎng)絡(luò)提取高層特征, 而忽略了卷積神經(jīng)網(wǎng)絡(luò)本身學(xué)習(xí)高層特征的能力。

      2.1 遞歸神經(jīng)網(wǎng)絡(luò)

      圖2 遞歸神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.2 Sketch map of recursive neural network structure

      遞歸神經(jīng)網(wǎng)絡(luò)類似于卷積操作和采樣操作的結(jié)合, 通過重復(fù)使用同一組權(quán)重和選擇接受域達到逐層降低特征維度的目的, 其結(jié)構(gòu)示意圖如圖2所示。其中K1為第1級網(wǎng)絡(luò)輸出的特征圖個數(shù)。最底層的特征圖大小為4×4像素,xi(i=1,2,…,16)為底層特征圖單元, 設(shè)接受域為2×2像素, 連接權(quán)重為W, 第2層網(wǎng)絡(luò)特征圖的每個單元pi(i=1,2,…,4)與底層特征圖的2×2像素接受域相連, 最終得到2×2像素大小的特征圖, 其中p1的計算公式如下

      (5)

      同理, 第2層特征圖再經(jīng)過一層遞歸神經(jīng)網(wǎng)絡(luò)后得到1×1像素大小的特征圖。

      2.2 改進后的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

      筆者對經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進行優(yōu)化, 主要包含以下兩方面:

      1) 設(shè)計兩級網(wǎng)絡(luò)模式, 在第2級網(wǎng)絡(luò)中引入遞歸神經(jīng)網(wǎng)絡(luò)。遞歸神經(jīng)網(wǎng)絡(luò)能學(xué)習(xí)有效的組合特征, 將其與卷積神經(jīng)網(wǎng)絡(luò)結(jié)合有助于網(wǎng)絡(luò)提取多樣性的特征。

      2) LeNet-5用于手寫數(shù)字識別中分類數(shù)目為10類, 所以輸出神經(jīng)元為10個。筆者實驗數(shù)據(jù)采集于管庫中的鋼管線, 主要用于油氣、 天然氣輸送。其鋼號不僅包含0~9的數(shù)字, 還包含大寫字母, 所以將輸出層神經(jīng)元改為36個。

      改進后的網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖3所示。在卷積神經(jīng)網(wǎng)絡(luò)的第一個采樣層后引入多層遞歸神經(jīng)網(wǎng)絡(luò), 原始圖像經(jīng)過第1個卷積層和采樣層后得到圖像的淺層特征, 然后將這些淺層特征同時輸入卷積神經(jīng)網(wǎng)絡(luò)和多層遞歸神經(jīng)網(wǎng)絡(luò)中學(xué)習(xí)更高層的特征, 最后將學(xué)習(xí)到的特征進行融合后輸入到分類器中進行分類。

      R1層。與卷積神經(jīng)網(wǎng)絡(luò)的采樣層S2連接, 設(shè)經(jīng)過S2層后得到的特征圖大小為m×m像素, 連接這些特征圖向量作為遞歸神經(jīng)網(wǎng)絡(luò)的R1層輸入, 設(shè)遞歸神經(jīng)網(wǎng)絡(luò)數(shù)量為K2個, 選擇接受域為l×l像素且接受域不重疊, 則特征圖經(jīng)過R1層網(wǎng)絡(luò)后維度變?yōu)閙/l×m/l像素。

      R2層。與遞歸神經(jīng)網(wǎng)絡(luò)R1層連接, 同樣是連接R1層特征圖向量作為R2層輸入, 則特征圖經(jīng)過R2層遞歸神經(jīng)網(wǎng)絡(luò)后維度變?yōu)閙/l2×m/l2像素。依次類推, 直到特征圖變?yōu)?×1像素大小。

      圖3 改進的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.3 Sketch map of improved convolution neural network structure

      2.3 遷移學(xué)習(xí)

      卷積神經(jīng)網(wǎng)絡(luò)通常采用有監(jiān)督的誤差梯度下降方法進行訓(xùn)練, 當(dāng)訓(xùn)練樣本足夠大時, 網(wǎng)絡(luò)能產(chǎn)生非常強的性能。但當(dāng)訓(xùn)練樣本不足時, 卷積神經(jīng)網(wǎng)絡(luò)則表現(xiàn)出對大量樣本的依賴特性, 形成過擬合或欠擬合網(wǎng)絡(luò)。目前為止, 鋼號數(shù)據(jù)還沒有建立像人臉、 手寫字符一樣的公共庫, 所以用于實驗的數(shù)據(jù)大多來自實驗者的親自采集, 給相關(guān)實驗工作帶來巨大困難。遷移學(xué)習(xí)理論的研究可以很好的解決卷積神經(jīng)網(wǎng)絡(luò)因訓(xùn)練樣本不足而導(dǎo)致網(wǎng)絡(luò)過擬合的問題。

      遷移學(xué)習(xí)是一種機器學(xué)習(xí)方法, 文獻[10]給出遷移學(xué)習(xí)的定義: 給定一個原始領(lǐng)域DS和一個原始學(xué)習(xí)任務(wù)TS, 一個目標領(lǐng)域DT和一個目標學(xué)習(xí)任務(wù)TT, 遷移學(xué)習(xí)的目標是使用DS和TS中的知識, 幫助改進在DT中的目標預(yù)測函數(shù)的學(xué)習(xí), 其中DS≠DT或TS≠TT, 即運用已有的知識對相關(guān)領(lǐng)域的不同問題進行求解。在卷積神經(jīng)網(wǎng)絡(luò)中, 遷移學(xué)習(xí)就是要把在特定數(shù)據(jù)集上訓(xùn)練得到的“知識”成功運用到新的領(lǐng)域[11]。筆者利用遷移學(xué)習(xí)理論解決卷積神經(jīng)網(wǎng)絡(luò)針對鋼號小樣本集訓(xùn)練樣本不足的問題。MNIST數(shù)據(jù)集是由Google實驗室和紐約大學(xué)柯朗研究所共同建立的一個手寫數(shù)字數(shù)據(jù)庫, 包含60 000張用于訓(xùn)練的手寫數(shù)字圖像, 10 000張測試圖像[12]。手寫數(shù)字與筆者要分類的鋼號圖像在形狀和線條上存在著很高的相似性, 并且卷積神經(jīng)網(wǎng)絡(luò)在手寫數(shù)字識別任務(wù)上一直表現(xiàn)優(yōu)秀。所以可以將訓(xùn)練手寫數(shù)字網(wǎng)絡(luò)得到的知識運用到鋼號識別分類中。其遷移學(xué)習(xí)流程如下: 1) 首先利用MNIST數(shù)據(jù)集對卷積神經(jīng)網(wǎng)絡(luò)初始化參數(shù)進行訓(xùn)練; 2) 將鋼號圖像輸入訓(xùn)練好的網(wǎng)絡(luò)模型中提取特征; 3) 利用提取后的特征再對網(wǎng)絡(luò)進行訓(xùn)練、 微調(diào), 實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)在MNIST數(shù)據(jù)集上的知識遷移。遷移學(xué)習(xí)理論的運用不僅解決了小樣本集訓(xùn)練過程中容易引起網(wǎng)絡(luò)過擬合的問題, 同時提高了訓(xùn)練速度和識別精度。

      3 實驗研究

      筆者的實驗是在Windows7 32位系統(tǒng)Intel i7-4790 CPU、 4 GByte內(nèi)存的計算機上進行的, 在Matalab R2010a平臺上實現(xiàn)算法的編碼。

      3.1 樣本預(yù)處理

      利用文獻[13]中的圖像定位分割方法將采集到的鋼號圖片分割為只含有單個字符的鋼號樣本數(shù)據(jù)。由于鋼號樣本屬于小樣本集, 所以還要對實驗樣本進行擴充。樣本擴充技術(shù)主要通過對原始樣本進行操作從而生成合理的虛擬樣本, 并將它們添加到原始訓(xùn)練樣本集, 達到擴充訓(xùn)練樣本集的目的, 使分類器的泛化能力提高[14,15]。為模擬不同的拍攝條件, 筆者對鋼號圖像訓(xùn)練樣本進行了平移、 旋轉(zhuǎn)和水平翻轉(zhuǎn)等幾何變換。除了通過幾何變換進行樣本擴充外, 在輸入樣本中添加噪聲同樣可以提高學(xué)習(xí)方法的泛化能力, 所以筆者還在鋼號訓(xùn)練樣本中分別加入了高斯噪聲、 椒鹽噪聲和泊松噪聲生成虛擬樣本[16]。筆者用于實驗的圖像共36類1 800張, 每類圖像50張, 經(jīng)過水平翻轉(zhuǎn)、 上下左右平移5個像素、 左右旋轉(zhuǎn)45°、 加入高斯噪聲、 椒鹽噪聲和泊松噪聲等樣本擴充后有19 800張?zhí)摂M樣本。其中17 000張作為訓(xùn)練樣本, 2 800張作為測試樣本。

      由于自然圖像易受到光照、 遮擋等不利于識別因素的影響, 圖片質(zhì)量可能會很差, 影響到最終的分類結(jié)果[14-16]。為使分類效果得到改善, 提高分類精度, 需對數(shù)據(jù)進行預(yù)處理。

      1) 將擴充后的圖像縮放成統(tǒng)一大小。筆者將訓(xùn)練樣本統(tǒng)一大小為36×36像素。

      2) 彩色圖像對識別的影響不大, 為減小計算量, 將彩色圖像轉(zhuǎn)化為灰度圖像。

      3) 將所有圖像進行均值和方差歸一化。

      4) 白化。零成分分析(ZCA: Zero Component Analysis)白化方式有著盡可能的接近原始數(shù)據(jù)的優(yōu)點, 并可降低數(shù)據(jù)的冗余性, 所以筆者采用ZCA白化。

      3.2 實驗及結(jié)果分析

      筆者將第1級卷積神經(jīng)網(wǎng)絡(luò)的卷積核大小設(shè)為5×5, 步長為1, 卷積核個數(shù)為6, 則卷積后的特征圖大小為32×32像素。采樣層采樣方式為均值采樣, 接受域為2, 最終第1級輸出6個大小為16×16像素的特征圖。將16×16像素的特征圖輸入第2級網(wǎng)絡(luò), 第2級網(wǎng)絡(luò)包含卷積神經(jīng)網(wǎng)絡(luò)和2層遞歸神經(jīng)網(wǎng)絡(luò)。設(shè)遞歸神經(jīng)網(wǎng)絡(luò)的個數(shù)為K2=30個, 遞歸神經(jīng)網(wǎng)絡(luò)接受域為4×4, 經(jīng)過2層運算變?yōu)?×1。第2層卷積神經(jīng)網(wǎng)絡(luò)的卷積核接受域設(shè)置為5×5, 步長為1, 卷積核個數(shù)設(shè)置為K3=16個。卷積后的特征圖尺寸為12×12像素, 采樣接受域設(shè)置為2×2, 采樣后的特征圖尺寸為6×6, 將卷積神經(jīng)網(wǎng)絡(luò)輸出的特征圖與遞歸神經(jīng)網(wǎng)絡(luò)輸出的特征圖進行特征融合后直接用于分類器進行分類。實驗結(jié)果如表2所示。

      表2 鋼號識別率對比

      由表2可見, 筆者提出的方法得到了較高的識別率。第2級采用遞歸神經(jīng)網(wǎng)絡(luò)比采用卷積神經(jīng)網(wǎng)絡(luò)的識別率高1.76%, 證明遞歸神經(jīng)網(wǎng)絡(luò)能學(xué)習(xí)到有效的高層特征。筆者方法對比第2級只采用卷積神經(jīng)網(wǎng)絡(luò)和第2級只采用遞歸神經(jīng)網(wǎng)絡(luò)的識別率分別高出3%和1.24%。說明多樣性的高層特征對識別精度有積極的影響。

      表3選取了一些圖像的識別結(jié)果。由表3可見, 網(wǎng)絡(luò)對于光照強度不同或圖像移動的情況下依然具有好的識別能力。但是對于圖像(4)中存在像素損失的數(shù)據(jù)沒有正確的識別, 這類樣本需額外進行處理以突出樣本特征。

      表3 圖像識別結(jié)果

      為確定網(wǎng)絡(luò)結(jié)構(gòu)對識別率的影響, 筆者還研究了遞歸神經(jīng)網(wǎng)絡(luò)個數(shù)和C3層卷積核個數(shù)對識別率的影響。實驗過程和結(jié)果如下。

      1) 固定C3層卷積核個數(shù)K3=16, 將遞歸神經(jīng)網(wǎng)絡(luò)的個數(shù)K2從5以增量5變化到45, 識別率如圖4所示。從圖4中可見, 在一定范圍內(nèi)隨遞歸神經(jīng)網(wǎng)絡(luò)的個數(shù)增加, 錯誤率也隨之降低, 當(dāng)K2=30左右時達到飽和, 錯誤率不再明顯下降。遞歸神經(jīng)網(wǎng)絡(luò)的個數(shù)和訓(xùn)練時間的關(guān)系如表4所示。由表4可見, 隨遞歸神經(jīng)網(wǎng)絡(luò)個數(shù)的增加, 訓(xùn)練所需時間也有所增加, 在K2值較小時, 隨K2的增加, 訓(xùn)練所需時間緩慢增加, 當(dāng)K2>35時, 再增加K2的數(shù)目, 時間消耗增幅變大。

      表4 遞歸神經(jīng)網(wǎng)絡(luò)個數(shù)對訓(xùn)練時間的影響

      2) 固定遞歸神經(jīng)網(wǎng)絡(luò)個數(shù)K2=30, 變化C3層卷積核個數(shù)K3, 從8以增量2變化到20, 得到的識別結(jié)果如圖5所示。由圖5可見, 當(dāng)K3=12時錯誤率就降到了4.23%, 比卷積神經(jīng)網(wǎng)絡(luò)的錯誤率降低了1.52%, 由此可見, 利用遞歸神經(jīng)網(wǎng)絡(luò)提取圖像的多樣性特征是有效的。C3層卷積核個數(shù)與訓(xùn)練時間關(guān)系如表5所示, 當(dāng)K3取8、10、12時相比表4訓(xùn)練時間明顯縮短, 說明引入遞歸神經(jīng)網(wǎng)絡(luò)后, 不僅識別精度提高了, 同時還加快了訓(xùn)練速度。隨K3的增加, 識別率上升, 但同時訓(xùn)練的時間成本也越來越大。

      圖4 遞歸神經(jīng)網(wǎng)絡(luò)個數(shù)對識別率的影響曲線 圖5 C3層卷積核個數(shù)對識別率的影響曲線圖 Fig.4 Effect of recursive neural network number on recognition rate Fig.5 Effect of convolution kernel number in C3 layer on recognition rate

      K38101214161820訓(xùn)練時間/min51.7753.2954.9658.3762.3268.9779.52

      4 結(jié) 語

      筆者在經(jīng)典網(wǎng)絡(luò)的基礎(chǔ)上改進卷積神經(jīng)網(wǎng)絡(luò), 通過引入遞歸神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)并行學(xué)習(xí)高層特征, 增加了特征的多樣性。針對鋼號樣本數(shù)據(jù)的特點, 采用幾何變化以及加噪聲的方式對樣本集進行擴充, 并利用遷移學(xué)習(xí)理論, 將MNIST數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò)學(xué)習(xí)到的知識遷移應(yīng)用于鋼號識別中, 以提高訓(xùn)練的精度和速度, 減少網(wǎng)絡(luò)過擬合。實驗證明, 改進的卷積神經(jīng)網(wǎng)絡(luò)在鋼號識別任務(wù)中獲得了較高的識別率。筆者的試驗是采用Matlab平臺進行的, 為加快訓(xùn)練速度下一步應(yīng)研究基于深度學(xué)習(xí)框架的實驗方式。并且激活函數(shù)、 網(wǎng)絡(luò)層數(shù)、 采樣方式的選擇等也一定程度上影響網(wǎng)絡(luò)的性能, 也應(yīng)進一步進行研究, 以尋找適合鋼號識別的最優(yōu)網(wǎng)絡(luò)。

      參考文獻:

      [1]王靜鋼. 無縫鋼管標記識別系統(tǒng)的設(shè)計與實現(xiàn) [D]. 北京: 北京郵電大學(xué)軟件學(xué)院, 2008.

      WANG Jinggang. Design and Implementation of Marker Recognition System of Seamless Steel Tubes [D]. Beijing: College of Software, Beijing University of Posts and Telecommunications, 2008.

      [2]王志瑞, 閆彩良. 圖像特征提取方法的綜述 [J]. 吉首大學(xué)學(xué)報: 自然科學(xué)版, 2011, 32(5): 43-47.

      WANG Zhirui, YAN Cailiang. Method of the Image Feature Extraction [J]. Journal of Jishou University: Natural Science Edition, 2011, 32(5): 43-47.

      [3]劉建偉, 劉媛, 羅雄麟. 深度學(xué)習(xí)研究進展 [J]. 計算機應(yīng)用研究, 2014, 31(7): 1921-1930,1942.

      LIU Jianwei, LIU Yuan, LUO Xionglin. Research and Development on Deep Learning [J]. Application Research of Computers, 2014, 31(7): 1921-1930,1942.

      [4]LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient Based Learning Applied to Document Recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

      [5]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet Classification with Deep Convolution Neural Networks [C]∥Neural Information Processing Systems Conference and Workshop(NIPS). USA: Curran Associates, Inc, 2012: 1106-1114.

      [6]SAXE A, KOH P W, CHEN Z, et al. On Random Weights and Unsupervised Feature Learning [C]∥International Conference on Machine Learning. USA: Curran Associates, Inc, 2011: 1089-1096.

      [7]周飛燕, 金林鵬, 董軍. 卷積神經(jīng)網(wǎng)絡(luò)研究綜述 [J]. 計算機學(xué)報, 2017, 40(7): 1-23.

      ZHOU Feiyan, JIN Linpeng, DONG Jun. Review of Convolutional Neural Network [J]. Chinese Journal of Computers, 2017, 40(7): 1-23.

      [8]SOCHER R, HUVAL B, BHAT B, et al. Convolutional Recursive Deep Learning for 3D Object Classification [C]∥Conference and Workshop on Neural Information Processing System. USA: Curran Associates, Inc, 2012: 665-673.

      [9]駱健, 蔣旻, 劉星, 等. 多尺度卷積遞歸神經(jīng)網(wǎng)絡(luò)的RGB-D物體識別 [J]. 計算機應(yīng)用研究, 2017, 34(9): 1-7.

      LUO Jian, JIANG Min, LIU Xing, et al. Multi-Scale Convolutional-Recursive Neural Networks for RGB-D Object Recognition [J]. Application Research of Computers, 2017, 34(9): 1-7.

      [10]PAN S J, YANG Q. A Survey on Transfer Learning [J]. IEEE Transactions on Knowledge and Data Engineering, 2010, 22(10): 1345-1359.

      [11]李彥冬, 郝宗波, 雷航. 卷積神經(jīng)網(wǎng)絡(luò)研究綜述 [J]. 計算機應(yīng)用, 2016, 36(9): 2508-2515,2565.

      LI Yandong, HAO Zongbo, LEI Hang. Survey of Convolution Neural Network [J]. Journal of Computer Applications, 2016, 36(9): 2508-2515,2565.

      [12]陳浩翔, 蔡建明, 劉鏗然, 等. 手寫數(shù)字深度特征學(xué)習(xí)與識別 [J]. 計算機技術(shù)與發(fā)展, 2016, 26(7): 19-23,29.

      CHEN Haoxiang, CAI Jianming, LIU Kengran, et al. Deep Learning and Recognition of Handwritten Numeral Features [J]. Computer Technology and Development, 2016, 26(7): 19-23,29.

      [13]孟潔, 程永強. 圖像定位及分割在車輛牌照識別中的應(yīng)用 [J]. 信息通信, 2015(9): 159,160.

      MENG Jie, CHENG Yongqiang. Application of Image Location and Segmentation in Vehicle License Plate Recognition [J]. Information & Communications, 2015(9): 159,160.

      [14]張琪. 卷積神經(jīng)網(wǎng)絡(luò)在車標識別技術(shù)中的研究及其小樣本下的處理策略 [D]. 安徽: 安徽大學(xué)電子信息工程學(xué)院, 2016.

      ZHANG Qi. Research on Vehicle Logo Recognition Technology Based on Convolution Neural Network and Processing Strategy on Few Samples [D]. Anhui: Shool of Electronic Information Engineering, Anhui University, 2016.

      [15]于旭, 楊靜, 謝志強. 虛擬樣本生成技術(shù)研究 [J]. 計算機科學(xué), 2011, 38(3): 16-19.

      YU Xu, YANG Jing, XIE Zhiqiang. Research on Virtual Sample Generation Technology [J]. Computer Science, 2011, 38(3): 16-19.

      [16]何鵬程. 改進的卷積神經(jīng)網(wǎng)絡(luò)模型及其應(yīng)用研究 [D]. 大連: 大連理工大學(xué)計算機科學(xué)與技術(shù)學(xué)院, 2015.

      HE Pengcheng. Research of Improved Convolution Neural Network Model and Its Application [D]. Dalian: School of Computer Science and Technology, Dalian University of Technology, 2015.

      猜你喜歡
      個數(shù)像素卷積
      趙運哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      像素前線之“幻影”2000
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      怎樣數(shù)出小正方體的個數(shù)
      等腰三角形個數(shù)探索
      怎樣數(shù)出小木塊的個數(shù)
      “像素”仙人掌
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      怎樣數(shù)出小正方體的個數(shù)
      基于傅里葉域卷積表示的目標跟蹤算法
      安乡县| 慈溪市| 凉山| 红河县| 河源市| 台南市| 高安市| 东乡族自治县| 新丰县| 兴文县| 定兴县| 榕江县| 房山区| 南安市| 仁寿县| 大埔区| 长兴县| 上饶县| 平武县| 阿克陶县| 杭州市| 安丘市| 安康市| 宿松县| 上高县| 彝良县| 牟定县| 甘肃省| 敦煌市| 白河县| 兴安盟| 永和县| 南投县| 马龙县| 县级市| 奉节县| 裕民县| 永平县| 奎屯市| 鹤峰县| 古浪县|