陳虹麗, 劉凌風(fēng), 李浩凱, 傅薈璇
(哈爾濱工程大學(xué)智能科學(xué)與工程學(xué)院,哈爾濱150001)
指關(guān)節(jié)紋識(shí)別是當(dāng)今社會(huì)一類新興的生物特征識(shí)別技術(shù)[1-2],該生物特征由個(gè)體基因所決定,存在個(gè)體差異性,可用于身份識(shí)別技術(shù)。與常見的指紋識(shí)別[3-4]相比,指關(guān)節(jié)紋特征不像指紋一樣易于磨損、出汗潮濕,且在日常生活中不像指紋一樣到處留下接觸痕跡,指關(guān)節(jié)紋生物特征識(shí)別技術(shù)表現(xiàn)出良好的發(fā)展前景。
指關(guān)節(jié)紋識(shí)別技術(shù)雖已取得很多較好的研究成果[5-7],但主要采用的是傳統(tǒng)機(jī)器學(xué)習(xí)算法,卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像紋理特征的提取,有其本身巨大的優(yōu)勢(shì),將采用基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型,來對(duì)指背關(guān)節(jié)紋的識(shí)別進(jìn)行研究,針對(duì)網(wǎng)絡(luò)的過擬合,首次提出參數(shù)放棄法,放棄驗(yàn)證誤差增大的參數(shù),重新優(yōu)化參數(shù),直至得到泛化誤差最小點(diǎn)。
首先進(jìn)行指關(guān)節(jié)紋圖像預(yù)處理,包括感興趣區(qū)域(Region of Interest,ROI)[8-9]的提取、數(shù)據(jù)集的擴(kuò)充[10]、直方圖均衡化[11-12]等;其次,設(shè)計(jì)并搭建卷積神經(jīng)網(wǎng)絡(luò)[13-14]模型,包括輸入層、3個(gè)卷積層C1、C2、C3層、3個(gè)池化層P1、P2、P3層、2個(gè)全連接層F1、F2層,softmax輸出層一般不計(jì)入網(wǎng)絡(luò)的深度,網(wǎng)絡(luò)深度共為9層。
本實(shí)驗(yàn)采用開源的HKPU-FKP手指關(guān)節(jié)紋數(shù)據(jù)集[15-16],選取其中的100類,將每類的前10幅作為訓(xùn)練集的圖像,剩余2幅作為測(cè)試集的圖像,即訓(xùn)練集共1 000幅圖像,測(cè)試集共200幅圖像,數(shù)據(jù)集中約80%的圖片劃分為訓(xùn)練集數(shù)據(jù),約20%的圖片劃分為測(cè)試集數(shù)據(jù)。
將數(shù)據(jù)集里660類的指關(guān)節(jié)紋,取出其中100類的數(shù)據(jù)做好類別標(biāo)簽并進(jìn)行0~99順序編碼,通過水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、亮度調(diào)整、隨機(jī)旋轉(zhuǎn)等操作,將數(shù)據(jù)集擴(kuò)充到12 000張,按8∶2的比例分為訓(xùn)練集、測(cè)試集,訓(xùn)練集數(shù)據(jù)的形狀為(10 000,224,224,1),測(cè)試集數(shù)據(jù)的形狀為(2 000,224,224,1),通過不同算法實(shí)驗(yàn)結(jié)果對(duì)比,選用限制對(duì)比度的自適應(yīng)直方圖均衡化(Contrast-limited Adaptive Histogram Equalization,CLAHE)算法來提高指關(guān)節(jié)紋紋理的對(duì)比度,達(dá)到圖像灰度增強(qiáng)的目的。
實(shí)驗(yàn)選擇Adam優(yōu)化器默認(rèn)的學(xué)習(xí)速率0.001,經(jīng)過1 000次迭代訓(xùn)練完成后,卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的實(shí)驗(yàn)結(jié)果如圖1所示。圖中,橫坐標(biāo)為迭代次數(shù)(Epochs)。
測(cè)試集上的準(zhǔn)確率為
式中:n為測(cè)試集里數(shù)據(jù)的總量;m為測(cè)試集里數(shù)據(jù)被分類正確的數(shù)量。
圖1 (a)中,loss為卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練集上的損失函數(shù),val_loss為卷積神經(jīng)網(wǎng)絡(luò)在測(cè)試集上的損失函數(shù),可見,loss隨著迭代次數(shù)的增加收斂情況較好,然而val_loss有一定上升的趨勢(shì),與loss逐漸拉開一定的間隙,說明該網(wǎng)絡(luò)模型存在過擬合現(xiàn)象。
圖1 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的實(shí)驗(yàn)結(jié)果
圖1 (b)中,acc為卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練集上的準(zhǔn)確率,val_acc為卷積神經(jīng)網(wǎng)絡(luò)在測(cè)試集上的準(zhǔn)確率,可見,隨著迭代次數(shù)的增加,acc與val_acc曲線存在一定的間隙,說明該網(wǎng)絡(luò)模型在訓(xùn)練集上有一個(gè)很好的準(zhǔn)確率;在測(cè)試集上的準(zhǔn)確率與之有一定的差距,說明該網(wǎng)絡(luò)模型在未見過的數(shù)據(jù)面前表現(xiàn)不理想,網(wǎng)絡(luò)泛化能力不強(qiáng),進(jìn)一步驗(yàn)證了網(wǎng)絡(luò)模型存在過擬合現(xiàn)象。
為避免過擬合,提高網(wǎng)絡(luò)泛化能力,采用L2正則化與參數(shù)放棄法結(jié)合,對(duì)網(wǎng)絡(luò)進(jìn)行優(yōu)化。參數(shù)放棄法的基本思想是訓(xùn)練網(wǎng)絡(luò)時(shí),網(wǎng)絡(luò)訓(xùn)練與網(wǎng)絡(luò)驗(yàn)證交替進(jìn)行,當(dāng)網(wǎng)絡(luò)開始進(jìn)入過擬合時(shí),驗(yàn)證誤差就會(huì)逐漸增大,此時(shí)放棄本次參數(shù),網(wǎng)絡(luò)參數(shù)返回當(dāng)驗(yàn)證誤差取最小值時(shí)的參數(shù)。應(yīng)用參數(shù)放棄法時(shí),測(cè)試集同時(shí)也作為驗(yàn)證集,驗(yàn)證集用于監(jiān)控網(wǎng)絡(luò)訓(xùn)練進(jìn)程。圖2所示為利用參數(shù)放棄法時(shí)程序框圖。
圖2 參數(shù)放棄法優(yōu)化網(wǎng)絡(luò)程序框圖
圖中:T為訓(xùn)練集;C為驗(yàn)證集;Errornew為當(dāng)前驗(yàn)證誤差;Errorold為前次驗(yàn)證誤為權(quán)重參數(shù);?為閾值;X0為訓(xùn)練次數(shù)標(biāo)志位;k為訓(xùn)練次數(shù);E為訓(xùn)練誤差;ε為誤差代價(jià)函數(shù);R為循環(huán)次為初始權(quán)值參數(shù);Δwij為權(quán)值變化量,由優(yōu)化器求取。實(shí)驗(yàn)前,對(duì)驗(yàn)證樣本進(jìn)行了檢驗(yàn),舍棄了錯(cuò)誤的驗(yàn)證樣本。
在前面網(wǎng)絡(luò)模型的FC1、FC2全連接層后各自添加一個(gè)dropout層,設(shè)置丟棄比例為0.5,同時(shí)在FC1、FC2全連接層上使用L2正則化與參數(shù)放棄法融合,L2
正則化設(shè)置懲罰系數(shù)為0.001,并在每個(gè)卷積層、全連接層后添加一層批量標(biāo)準(zhǔn)化層(Batch Normalization,BN)。圖3所示為優(yōu)化后的卷積神經(jīng)網(wǎng)絡(luò)搭建的流程圖。
圖3 優(yōu)化后網(wǎng)絡(luò)模型的工作流程
各層訓(xùn)練參數(shù)的情況:輸入層輸入圖像的尺寸為224×224×1的灰度圖像,softmax分類器輸出層中的神經(jīng)元個(gè)數(shù)與所要識(shí)別類別的個(gè)數(shù)相等,各層參數(shù)的情況見表1。
表1 優(yōu)化后網(wǎng)絡(luò)各層的參數(shù)情況
根據(jù)表1所示優(yōu)化前、后網(wǎng)絡(luò)各層的參數(shù)情況比較,可以發(fā)現(xiàn)在所設(shè)計(jì)的9層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,新添加的BN和dropout層,對(duì)于輸出特征圖的形狀尺寸與輸入尺寸相同,即批標(biāo)準(zhǔn)化層與dropout層對(duì)特征圖的處理不會(huì)改變特征圖的形狀。
圖4 所示為優(yōu)化后的網(wǎng)絡(luò)模型經(jīng)過1 000次的迭代訓(xùn)練后的實(shí)驗(yàn)結(jié)果。
圖4 優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的實(shí)驗(yàn)結(jié)果
由圖4(a)可見,loss隨著迭代次數(shù)的增加收斂情況較好,val_loss與優(yōu)化前相比,上升的趨勢(shì)明顯被抑制,說明優(yōu)化后的網(wǎng)絡(luò)模型,對(duì)抑制過擬合有一定的效果。
由圖4(b)可見,隨著迭代次數(shù)的增加,acc與val_acc曲線,總的來看一直靠的比較近,之間的差距并不是很大,過擬合現(xiàn)象被明顯改善,說明優(yōu)化后的網(wǎng)絡(luò)模型對(duì)抑制過擬合有一定的效果。
優(yōu)化前、后的網(wǎng)絡(luò)模型分別在訓(xùn)練集和測(cè)試集上進(jìn)行評(píng)估,保留3位小數(shù),見表2。
表2 優(yōu)化前、后卷積神經(jīng)網(wǎng)絡(luò)模型的評(píng)估
從表2中模型評(píng)估來看,同樣也反映出抑制過擬合的效果,測(cè)試集的損失函數(shù)從優(yōu)化前的92.8%降到了79.2%,識(shí)別準(zhǔn)確率從優(yōu)化前的83.4%升到87.0%,準(zhǔn)確率提高了3.6%,提高了網(wǎng)絡(luò)模型對(duì)測(cè)試集新樣本的泛化能力。
本文采用開源的HKPU-FKP指關(guān)節(jié)紋數(shù)據(jù)集,針對(duì)設(shè)計(jì)一個(gè)深度為9層的卷積神經(jīng)網(wǎng)絡(luò)模型存在一定過擬合現(xiàn)象,優(yōu)化改進(jìn)網(wǎng)絡(luò)模型的結(jié)構(gòu),并通過編譯訓(xùn)練后,分析實(shí)驗(yàn)結(jié)果。優(yōu)化后的網(wǎng)絡(luò)模型起到了抑制過擬合的效果,并提高了在測(cè)試集未知數(shù)據(jù)上的準(zhǔn)確率,增強(qiáng)了網(wǎng)絡(luò)模型的泛化能力。
(1)對(duì)指關(guān)節(jié)紋圖像進(jìn)行預(yù)處理,減小輸入數(shù)據(jù)的大小,縮短訓(xùn)練時(shí)間,有利于紋理特征的提取和對(duì)網(wǎng)絡(luò)過擬合的抑制作用。
(2)在原網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上,全連接層后添加dropout層,抑制過擬合現(xiàn)象,提高該網(wǎng)絡(luò)模型泛化能力;全連接層上使用L2正則化與參數(shù)放棄法融合,限制FC1,F(xiàn)C2全連接層的權(quán)重參數(shù)規(guī)模的同時(shí)放棄驗(yàn)證誤差增大的參數(shù),避免網(wǎng)絡(luò)神經(jīng)元過度學(xué)習(xí),達(dá)到抑制網(wǎng)絡(luò)模型過擬合的目的;在卷積層、全連接層之后添加一層批標(biāo)準(zhǔn)化層(BN),為下一層的輸入數(shù)據(jù)做好歸一化處理。
(3)提出的參數(shù)放棄法,訓(xùn)練網(wǎng)絡(luò)時(shí),不僅有訓(xùn)練集數(shù)據(jù),還加入了測(cè)試集數(shù)據(jù),添加測(cè)試集數(shù)據(jù)之后,可以在訓(xùn)練過程中,根據(jù)網(wǎng)絡(luò)模型在測(cè)試集上的表現(xiàn),及時(shí)停止網(wǎng)絡(luò)過擬合,提高訓(xùn)練速度和泛化能力。
(4)本實(shí)驗(yàn)結(jié)果可以提高該生物特征的安全性。
(5)與其他生物特征相比,指關(guān)節(jié)紋特征具有表現(xiàn)穩(wěn)定、便于采集、易與手形其他特征進(jìn)行融合,相比于人臉、聲音等生物特征涉及隱私較小,人們更易于接受。
在基礎(chǔ)研究領(lǐng)域,包括一些應(yīng)用科技領(lǐng)域,要尊重科學(xué)研究靈感瞬間性、方式隨意性、路徑不確定性的特點(diǎn),允許科學(xué)家自由暢想、大膽假設(shè)、認(rèn)真求證。不要以出成果的名義干涉科學(xué)家的研究,不要用死板的制度約束科學(xué)家的研究活動(dòng)。很多科學(xué)研究要著眼長(zhǎng)遠(yuǎn),不能急功近利,欲速則不達(dá)。
——2016年5月30日,習(xí)近平在全國(guó)科技創(chuàng)新大會(huì)上的講話