鐘彩 彭春富 杜微 楊興耀
摘? ?要:針對深度研究的項目特點,文章對卷積神經(jīng)網(wǎng)絡結構的研究現(xiàn)狀進行分析,總結卷積神經(jīng)網(wǎng)絡結構及優(yōu)化算法。旨在通過對這些內容的分析,針對紅細胞圖像提取特征,設計群優(yōu)化算法的卷積神經(jīng)網(wǎng)絡結構,以提高圖像檢測的科學性、準確性,展現(xiàn)深度卷積神經(jīng)網(wǎng)絡的識別算法技術的使用價值。
關鍵詞:卷積神經(jīng)網(wǎng)絡;識別算法;深度研究
在人工智能技術發(fā)展中,深度學習作為較為重要的內容,改變了傳統(tǒng)識別技術的使用狀況,通過大數(shù)據(jù)資源的利用,展現(xiàn)深度學習模型中神經(jīng)網(wǎng)絡識別的價值。在圖像識別技術運用中,其作為一種不同模式下的目標、對象研究技術,主要是通過計算機對圖像進行處理,提高數(shù)據(jù)分析的整體效果。在以往的特征提取技術運用中,存在著一些局限性的問題,通過與卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks, CNN)模型的融合,可以在梯度下降方法使用中進行各項數(shù)據(jù)參數(shù)的訓練,并實現(xiàn)對圖像以及參數(shù)的分析,展現(xiàn)深度分析的價值。因此,在當前人工智能技術中,運用卷積神經(jīng)網(wǎng)絡的識別算法,可以提高圖像識別的整體效果。
1? ? 卷積神經(jīng)網(wǎng)絡結構研究現(xiàn)狀
卷積神經(jīng)網(wǎng)絡模型算法主要由多個卷積層、下采樣層和全連接層組成,每一次的輸出是對原始輸入的一組特征表示。其中在卷積層,通過一個卷積核對來自上一層的特征圖進行卷積,然后通過一個激活函數(shù)得到卷積層的輸出特征圖,激活函數(shù)使用sigmoid函數(shù)。下采樣層將上一層的特征圖進行下采樣加權和偏置得到該層的輸出特征圖[1]。
卷積神經(jīng)網(wǎng)絡主要采用局部感知區(qū)域、共享權值以及空間域上的降采樣,對位移、縮放等狀態(tài)進行研究,該種分析方法具有穩(wěn)定不變的特點,研究中,針對細胞圖像特征值提取的項目特點,對卷積神經(jīng)網(wǎng)絡結構使用方法進行分析,由于在紅細胞定位過程中,可能有一些雜質摻雜進來,為了區(qū)別這些雜質(本項目統(tǒng)稱為非紅細胞),需要對紅細胞進行特征提取。
2? ? 卷積神經(jīng)網(wǎng)絡結構及優(yōu)化算法
2.1? 卷積神經(jīng)網(wǎng)絡概述
卷積神經(jīng)網(wǎng)絡作為一種多層次神經(jīng)網(wǎng)絡結構,通過對圖像分類以及識別算法的運用,逐漸形成了深度學習的模式,其作為前饋神經(jīng)網(wǎng)絡形式,可以充分滿足識別技術的使用需求。在卷積神經(jīng)網(wǎng)絡中,通過人體設計感受機理的分析,會提高識別技術的使用效率。例如,在人體神經(jīng)元系統(tǒng)中,神經(jīng)元感受視野是在視網(wǎng)膜的特定區(qū)域中形成的,通過卷積神經(jīng)網(wǎng)絡才可以刺激神經(jīng)元活性,提高識別算法使用的整體效果。
卷積神經(jīng)網(wǎng)絡與普通神經(jīng)網(wǎng)絡存在區(qū)別,主要由卷基層、子采樣層構成,在卷基層中,通過神經(jīng)元與部分鄰層神經(jīng)元的連接,可以形成同一特征的平面神經(jīng)元共享權值,提高識別計算的整體效果。卷積神經(jīng)網(wǎng)絡技術憑借自身優(yōu)勢被廣泛地運用在語音識別、人臉識別、運動分析、自然語言處理以及腦電波分析等領域之中。
2.2? 卷積神經(jīng)網(wǎng)絡結構
2.2.1? 卷積神經(jīng)層
在卷積操作中,其主要是將圖像以及濾波矩陣作為內積,主要目的是通過稀疏連接、權值共享以及采樣等方法,得到某種程度的位移、初度及形變。在圖像處理中,需要在系統(tǒng)中輸入width×height區(qū)域的大小數(shù)據(jù),之后按照固定權重的卷積核形成二維數(shù)據(jù),具體操作中,需要與矩陣上對應位置移動狀態(tài)進行分析,形成一種覆蓋性的圖像,直到矩陣移動完成之后得到特征圖矩陣。在卷積神經(jīng)層中,卷積核越大,相關參數(shù)的處理效果越高,但是若遇到訓練參數(shù)多、卷積核小的問題,應該保持訓練參數(shù)的精確性,為多層數(shù)據(jù)的處理以及分析效果的強化提供參考[2]。
2.2.2? ReLU激勵層
對于規(guī)范性的ReLU激活函數(shù),具體函數(shù)變化如圖1所示。具體的表達公式為(1),當輸入x>0時,輸出值為x;若輸出的數(shù)值≤0,輸出的結果為0。
y={0,max(x)}? ? ?(1)
在紅細胞圖卷積神經(jīng)網(wǎng)絡系統(tǒng)中,通常會使用ReLU激勵函數(shù)代替sigmoid函數(shù)。在ReLU激勵層中,當所輸入的數(shù)值x>0時,ReLU函數(shù)導數(shù)為恒定狀態(tài),但是sigmoid函數(shù)不是恒定的。也就是說,在ReLU函數(shù)中,可以避免其他函數(shù)兩端接近目標的問題,在導數(shù)變小的狀況下,會使訓練神經(jīng)網(wǎng)絡出現(xiàn)反向傳播的現(xiàn)象。在ReLU函數(shù)分析中,該種方法可以實現(xiàn)數(shù)據(jù)獲取快、求梯速度簡單。
2.2.3? 池化pool層
池化層作為空間下采樣層,一般會在卷基層之后,通過圖像卷積將polling小領域內特點進行整合,從而形成一種全新的特征。同時,pool層也被稱為降采樣層,該計算方法不僅可以達到降維的目的,而且也會降低卷基層的輸出維度,避免卷積輸出的誤差現(xiàn)象[3]。
2.3? 反向傳播梯度下降算法
在紅細胞神經(jīng)網(wǎng)絡參數(shù)計算中,通常會使用隨機梯度下降法,其核心目標是掌握最優(yōu)化的權重參數(shù)(W,b),將損失函數(shù)值控制在最小的狀態(tài)。參數(shù)更新的關鍵是掌握損失函數(shù)對各項權重參數(shù)導致的分析,因此,在梯度下降法計算中,公式如(2—3)。
Wij(l)=W-αJ(W,b)? ? ?(2)
bi(l)=bi(l)-αJ(W,b)? ? ?(3)
公式中的α是學習速率;Wij(l)是第l+1層的第i個神經(jīng)元以及低l層的第j個神經(jīng)元相互連接的權重參數(shù);bi(l)是第l+1層的第i個神經(jīng)元的偏置項。
在實際訓練的過程中,應該對學習率進行合理選擇。在反向傳播算法使用中,通過向前傳播計算,可以對每層網(wǎng)絡的激活數(shù)值進行傳輸,之后按照每個層級的輸入節(jié)點,進行殘差計算[4]。