• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別模型研究

      2024-08-03 00:00:00王東
      科技創(chuàng)新與應(yīng)用 2024年22期

      摘 要:生物識(shí)別技術(shù)常被用于網(wǎng)絡(luò)安全領(lǐng)域以認(rèn)證和授權(quán)訪問為目的的身份識(shí)別過程中,用戶提供的生物特征數(shù)據(jù)由數(shù)據(jù)安全系統(tǒng)采用的協(xié)議進(jìn)行處理和轉(zhuǎn)換,再與已提交和被認(rèn)證的授權(quán)用戶生物特征數(shù)據(jù)進(jìn)行比對(duì)。比對(duì)的結(jié)果決定是否授予和授予該用戶何等訪問權(quán)限。在信息安全領(lǐng)域,生物特征識(shí)別方式是一個(gè)成熟和有效的安全驗(yàn)證機(jī)制,錯(cuò)誤率低。近些年,網(wǎng)絡(luò)安全面臨著嚴(yán)峻形勢,各信息安全認(rèn)證系統(tǒng)中預(yù)存儲(chǔ)的生物特征圖像面臨著被盜取并被入侵者濫用的風(fēng)險(xiǎn)。由此,該文提出一種不涉及修改存儲(chǔ)用戶生物特征圖像的安全加固的存儲(chǔ)系統(tǒng),該系統(tǒng)將提交的生物特征圖像生成用于認(rèn)證和訪問授權(quán)的無規(guī)律密碼。為確保生物特征提取的準(zhǔn)確性,該研究還引入深度學(xué)習(xí)模型將生物特征圖像轉(zhuǎn)換成二進(jìn)制字符串形式存儲(chǔ)。該研究通過實(shí)驗(yàn)計(jì)算得出一階和二階錯(cuò)誤概率。實(shí)驗(yàn)結(jié)果表明,該文提出的加密系統(tǒng)不但實(shí)現(xiàn)可靠提取圖像中生物特征的功能,還能保證生成的二進(jìn)制字符串的高安全性和識(shí)別準(zhǔn)確度。

      關(guān)鍵詞:面部圖像;深度學(xué)習(xí)模型;卷積神經(jīng)網(wǎng)絡(luò);特征提取;生物識(shí)別

      中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):2095-2945(2024)22-0005-05

      Abstract: Biometric technology is often used in the process of identity identification for the purpose of authentication and authorized access in the field of network security, where the biometric data provided by users are processed and converted by the protocols adopted by the data security system, and then compared with the biometric data of submitted and authenticated authorized users. The result of the comparison determines how access is granted and granted to the user. In the field of information security, biometric identification is a mature and effective security verification mechanism with low error rate. In recent years, network security is facing a severe situation, and the biometric images pre-stored in various information security authentication systems are facing the risk of being stolen and abused by intruders. Therefore, this paper proposes a secure storage system which does not involve modifying and storing user biometric images, which generates irregular passwords for authentication and access authorization from the submitted biometric images. In order to ensure the accuracy of biometric extraction, this study also introduces a deep learning model to convert biometric images into binary strings for storage. In this study, the first-order and second-order error probabilities are calculated by experiments. The experimental results show that the encryption system proposed in this paper not only realizes the function of reliably extracting biometric features from the image, but also ensures the high security and recognition accuracy of the generated binary string.

      Keywords: facial image; deep learning model; convolution neural network; feature extraction; biometric recognition

      人臉識(shí)別技術(shù)作為主要的生物特征識(shí)別技術(shù)之一,被廣泛應(yīng)用于各種身份識(shí)別和安全認(rèn)證系統(tǒng)[1]。人臉識(shí)別系統(tǒng)基于比對(duì)機(jī)制確定申請(qǐng)者是否具有相應(yīng)的權(quán)限,即檢驗(yàn)申請(qǐng)者的人臉圖像的特征是否與已存儲(chǔ)的圖像信息庫中對(duì)應(yīng)圖像的生物特征具有一致性[2-3]。比對(duì)一致性的驗(yàn)證結(jié)果作為是否授予相應(yīng)授權(quán)的依據(jù)。

      人臉識(shí)別技術(shù)雖然是一種廣泛使用和成熟的技術(shù),但也存在明顯缺點(diǎn):作為基礎(chǔ)設(shè)施的人臉圖像數(shù)據(jù)的存儲(chǔ)并不安全,如果攻擊者竊取了存儲(chǔ)著人臉圖像的數(shù)據(jù)庫,也就獲得了訪問許多受保護(hù)資源的權(quán)限,合法用戶的身份被盜用。此外,攻擊者通過植入虛假的人臉數(shù)據(jù)實(shí)現(xiàn)對(duì)訪問權(quán)限的騙取。在全球網(wǎng)絡(luò)安全形勢異常嚴(yán)峻的今天,這種安全威脅普遍存在[4]。

      本文提出的加密系統(tǒng)只存儲(chǔ)和處理使用深度學(xué)習(xí)模型形成的匿名二進(jìn)制字符串(密碼、PIN碼、訪問密鑰)[1,5]。同時(shí),為確保生成的二進(jìn)制字符串形式的密鑰的可靠性和低錯(cuò)誤率。本系統(tǒng)使用了卷積神經(jīng)網(wǎng)絡(luò)生成二進(jìn)制字符串的閾值方式確保密鑰存儲(chǔ)的安全性和可靠性[6-7]。實(shí)驗(yàn)結(jié)果顯示,本系統(tǒng)的可靠性和低錯(cuò)誤率得到了實(shí)驗(yàn)的驗(yàn)證,取得了優(yōu)異的性能指標(biāo),具有在全行業(yè)推廣和加固既有數(shù)據(jù)庫系統(tǒng)的應(yīng)用價(jià)值。

      1 人臉圖像提取特征的方法

      本系統(tǒng)通過提取二進(jìn)制字符串采用以實(shí)現(xiàn)安全的臉部識(shí)別認(rèn)證和訪問授權(quán)為目的的深度學(xué)習(xí)模型,低錯(cuò)誤率確保了高可靠性。本方法的原理介紹如下。

      1.1 特征矢量提取

      根據(jù)Keras Facenet方法的臉部識(shí)別模型[8],若給定一張圖片,以X∈L表示,轉(zhuǎn)換為一組特征矢量x=φ(X)∈R,這一轉(zhuǎn)換也可以被表示為:L→R。為了進(jìn)一步分類,使用圖像之間的距離,該距離定義為對(duì)應(yīng)特征矢量之間的距離,這2個(gè)矢量x,y∈R之間的距離為它們差異的?2范數(shù)的平方,即

      由此,兩圖像間的距離可表示為

      。 (2)

      索引d常被用于比對(duì)2張圖片,如果dL(X,Y)足夠小時(shí),圖像X和Y被認(rèn)為是同一圖像,并將這種關(guān)系表示為X≡Y;相反,如果dL(X,Y)足夠大時(shí),圖像X和Y則被認(rèn)為不是同一圖像,并將這種關(guān)系表示為 X≡/Y。

      1.2 特征矢量變換

      當(dāng)需要從一個(gè)圖像Σ?{0,1}種生成一個(gè)二進(jìn)制字符串Σ并返回一個(gè)實(shí)數(shù)矢量R。因此,一個(gè)特征矢量轉(zhuǎn)換器ψ:R→Σ被引入并被用于將從圖像檢索到的特征矢量轉(zhuǎn)換為長度為ns 的二進(jìn)制字符串。這樣,如果將最終函數(shù)定義為深度學(xué)習(xí)模型ψ和特征轉(zhuǎn)換器 Φ的組合,即得到轉(zhuǎn)換公式:Φ?ψo(hù)?:L→Σ。由于深度學(xué)習(xí)模型和模糊n3d3g8nP9fQAxqF9rkjoQjbCoZN4KpiU2CGXumaH//8=提取器都需要相同的128位長度,可用N?nf=ns=128來表示嵌入大小。由此,特征矢量轉(zhuǎn)換器可用如下公式表示

      ψ(x)=i(x>0N) , (3)

      式中:i是逐元素應(yīng)用的指示函數(shù)。這一公式能夠更好地詮釋了ψ的特點(diǎn),但是在相同人臉和不同人臉之間的識(shí)別精度并不理想,有待提高。

      1.3 精度指標(biāo)

      與實(shí)數(shù)向量類似,將二進(jìn)制字符串之間的距離(二進(jìn)制距離)定義為不匹配位置的比例,即

      圖像之間的二進(jìn)制距離δL和矢量特征的二進(jìn)制距離δf分別對(duì)應(yīng)它的二進(jìn)制字符串之間的距離。因?yàn)椴浑y將方程(4)擴(kuò)展到實(shí)數(shù)矢量[0,1]N,所以此處略去了索引,不論是一個(gè)二進(jìn)制字符串還是一個(gè)實(shí)數(shù)矢量,距離都可由方程(4)確定。

      值得注意的一點(diǎn),二進(jìn)制距離取值范圍是[0,1]之間,其中0對(duì)應(yīng)相同的二進(jìn)制字符串,1對(duì)應(yīng)2個(gè)完全不同的字符串。因此,可以定義一個(gè)“相似度”量,表示為σ,其可由1 減去二進(jìn)制距離得出。σ的計(jì)算公式為

      。 (5)

      為了評(píng)估本文提出的基于大型數(shù)據(jù)集算法的準(zhǔn)確度,需要定義數(shù)據(jù)集上的累積相似度。假設(shè)有一個(gè)包含圖像和標(biāo)簽的數(shù)據(jù)集 ,若想在該數(shù)據(jù)集中測試函數(shù)ψ,則需要在該數(shù)據(jù)集中形成若干對(duì)的集合Ρ,然后將其分為相同人的圖像對(duì)集合 Psame= {(X,Y)∈P|X≡Y}和2個(gè)不同人的圖像對(duì)集合 Pdiff={(X,Y)∈P|X≡/Y}。然后,基于對(duì)這2個(gè)集合進(jìn)行評(píng)估得出平均相似度用于檢驗(yàn)效果,計(jì)算公式為

      實(shí)現(xiàn)最大化same的同時(shí),最大化差異same-diff。為了將這些規(guī)則封裝成一個(gè)單一的度量,Σscore矢量被引入,其計(jì)算公式為

      , (7)

      式中:η>1是一個(gè)參數(shù),用于調(diào)節(jié)same-diff之差對(duì)same的敏感度,結(jié)合本文實(shí)驗(yàn)的情況,η的建議值在[1,5]之間選取。

      2 改進(jìn)的特征矢量轉(zhuǎn)換器

      2.1 閾值的選取

      如圖1所示,當(dāng)N=2時(shí),如果數(shù)據(jù)按照?qǐng)D1(a)所示分布,函數(shù)i(x>0N)能夠以高精度區(qū)分不同人臉圖像的所有簇,若將相同的函數(shù)應(yīng)用于圖1(b)所示的像素?cái)?shù)據(jù)集將無法區(qū)分任何對(duì),哪怕所有的像素都位于相同的象限內(nèi)。為了防止這個(gè)問題,可以將坐標(biāo)軸移動(dòng)到左下側(cè)象限邊界附近。

      假設(shè)X是一個(gè)期望值為μ:= E[X]的隨機(jī)矢量,因此,將新的特征向量轉(zhuǎn)換器定義為

      。 (8)

      給定一組像素?cái)?shù)據(jù)集 ,可得到一組特征矢量 并將期望值近似為這個(gè)集合的均值,

      2.2 三元組損失學(xué)習(xí)

      本研究采用三元組損失函數(shù)和孿生網(wǎng)絡(luò)學(xué)習(xí)編碼函數(shù),即 ,三元組損失由以下公式定義

      根據(jù)ReLU函數(shù)得出: 。

      本研究提出的特征轉(zhuǎn)換器正是借鑒了這一方法訓(xùn)練得出的。首先,確定所需的函數(shù)ψ:RN→ΣN返回一個(gè)離散輸出(即0或1),也可以在最后一層放置一個(gè)激活函數(shù),這個(gè)激活函數(shù)會(huì)將Σ中的一個(gè)實(shí)數(shù)元素轉(zhuǎn)換成0或1,但是將任何指示函數(shù)作為激活函數(shù)可能會(huì)導(dǎo)致訓(xùn)練失敗(不會(huì)定義梯度)。因此,可行的做法是通過在神經(jīng)網(wǎng)絡(luò)的最后一層放置一個(gè)sigmoid函數(shù)來訓(xùn)練一個(gè)函數(shù)ψ:RN→[0,1]N。

      對(duì)于二進(jìn)制字符串分類最常用的損失函數(shù)是二值交叉熵?fù)p失函數(shù)[9]。假設(shè)有一個(gè)數(shù)據(jù)集

      并且每一個(gè) ,對(duì)于模型 的而致?lián)p失的計(jì)算公式為

      。(10)

      從貝葉斯視角來看,函數(shù)p(x)的值代表矢量x被標(biāo)記為1的置信度。這里,如果正確的標(biāo)簽是y=1且模型輸出p(x)=0.2,那么這個(gè)訓(xùn)練樣本的損失將是-log 0.2≈0.7;如果模型輸出p(x)=0.8,計(jì)算得出的損失將會(huì)大大降低,即-log0.8≈0.1。此時(shí),二值距離δ(x,y)代表模型將矢量x,y分類為不同人臉圖像的矢量置信度。在理想情況下,當(dāng)模型達(dá)到100%的準(zhǔn)確率時(shí),函數(shù)δ將會(huì)是

      。 (11)

      因此,借鑒二元交叉熵函數(shù),本研究計(jì)算損失矢量對(duì)的函數(shù)如式(12)所示

      。 (12)

      本研究的三元組損失公式為

      。(13)

      函數(shù)Ψ通常返回一個(gè)矢量[0,1]N,而不是ΣN。對(duì)本研究的實(shí)驗(yàn)和模型訓(xùn)練結(jié)果觀察發(fā)現(xiàn),模型返回的值要么非常接近0,要么非常接近1??蓪ⅰ稗D(zhuǎn)換”規(guī)則定義如下

      2.3 模型結(jié)構(gòu)

      本研究的模型結(jié)構(gòu)如圖2所示,這里引入了一個(gè)相對(duì)簡單的嵌入模型,該模型設(shè)置了一個(gè)長度為128位的隱藏層,用FaceScape數(shù)據(jù)集(大約16 940張圖片)中的80%進(jìn)行學(xué)習(xí)訓(xùn)練,用剩余的20%對(duì)模型準(zhǔn)確性進(jìn)行驗(yàn)證[10]。

      3 實(shí)驗(yàn)結(jié)果

      本研究使用FaceScape數(shù)據(jù)集對(duì)人臉識(shí)別模型進(jìn)行驗(yàn)證實(shí)驗(yàn),該數(shù)據(jù)集包含16 940張圖片,本研究的人臉識(shí)別模型采用了實(shí)值矢量,實(shí)驗(yàn)結(jié)果表明本研究提出的人臉識(shí)別模型比Keras Facenet 模型具有更高的精度和可靠性,實(shí)驗(yàn)結(jié)果見表1。

      表1中的第一行對(duì)應(yīng)于基于模糊提取器的轉(zhuǎn)換規(guī)則[11]。同一個(gè)人的成對(duì)圖片的平均相似度與2個(gè)不同人的成對(duì)圖片的平均相似度沒有顯著差異,差異約為6%。反過來,如果首先計(jì)算特征向量期望值μ,應(yīng)用本研究改進(jìn)的規(guī)則i(x>μ),盡管同一個(gè)人的圖片的平均相似度降低到了71.5%,此時(shí)得到的差異卻為23.5%,這里得到的結(jié)果明顯優(yōu)于第一行數(shù)據(jù)結(jié)果。最后一行的數(shù)據(jù)顯示,在保持2個(gè)相似度之間相對(duì)的差異為28.5%的情況下,采用神經(jīng)網(wǎng)絡(luò)對(duì)同一個(gè)人的一對(duì)圖片比對(duì)出的相似度高達(dá)98.4%。這種比對(duì)結(jié)果顯示出了本研究的方法具有高準(zhǔn)確度。

      4 結(jié)論

      人工智能技術(shù)已被廣泛用于醫(yī)學(xué)圖像處理、數(shù)字取證、社會(huì)工程以及許多其他應(yīng)用生物特征圖像的技術(shù)中。本研究考慮應(yīng)用深度學(xué)習(xí)模型從生物特征面部圖像生成非個(gè)人數(shù)字特征。這一研究對(duì)于提高以人臉圖像作為生物特征識(shí)別和認(rèn)證進(jìn)而授權(quán)訪問的受保護(hù)信息系統(tǒng)資源的安全機(jī)制尤為重要。本研究將從生物特征面部圖像中提取的生物特征以二進(jìn)制字符串形式存儲(chǔ)并顯示。對(duì)于同一個(gè)人的人臉圖片,這些二進(jìn)制字符串應(yīng)具有最大相似性;相反,對(duì)于不同人的人臉圖像,所映射的二進(jìn)制字符串應(yīng)呈現(xiàn)出最大的差異性。通過實(shí)驗(yàn)結(jié)果對(duì)比發(fā)現(xiàn),基于模糊提取器的閾值方案簡單生成的二進(jìn)制字符串仍具有較大改進(jìn)空間。本研究采用神經(jīng)網(wǎng)絡(luò)技術(shù),通過采用大樣本加以訓(xùn)練以生成更精準(zhǔn)的二進(jìn)制字符串形式的數(shù)字化特征。實(shí)驗(yàn)結(jié)果顯示,與之前的研究相比,本研究顯著提高了精度和性能。例如,采用基于模糊提取器方法[11],為一組相同的人臉圖像生成了90%相似的二進(jìn)制字符串,然而,不同人的一組人臉照片生成的二進(jìn)制字符串也大約有81.5%相似(見表1的第一行)。一個(gè)改進(jìn)的閾值規(guī)則改善了不同人的字符串之間的區(qū)分,匹配特征達(dá)44.8%。然而,其也導(dǎo)致同一個(gè)人的匹配特征比例降低至76.5%(見表1的第二行)。本研究使用深度學(xué)習(xí)模型顯著改善了這一特性(見表1的第三行)。對(duì)于同一個(gè)人生成的一組人臉圖像,生成的二進(jìn)制字符串的相似度達(dá)97.9%,而不同人之間的相似度百分比不降低至41.1%。值得注意的是,最重要的是這2個(gè)指標(biāo)之間的差異σsame-σdiff>50%,這是目前業(yè)內(nèi)取得的最好結(jié)果。將本研究所獲得的結(jié)果與模糊提取器相結(jié)合,成為生成可靠性高和加密強(qiáng)度高的密鑰(密鑰、PIN碼等)的有效方法,這也是本研究的顯著應(yīng)用價(jià)值之一。在嚴(yán)峻的網(wǎng)絡(luò)安全形勢下,包括人臉圖像在內(nèi)的數(shù)據(jù)存儲(chǔ)和使用存在著很多安全風(fēng)險(xiǎn),這也為本研究成果的推廣和使用提供了較廣闊的加固信息安全系統(tǒng)的應(yīng)用場景和技術(shù)舞臺(tái)。

      參考文獻(xiàn):

      [1] 郝春亮,張妍婷,張雨桐,等.網(wǎng)絡(luò)安全標(biāo)準(zhǔn)助力人臉識(shí)別規(guī)范應(yīng)用[J].信息技術(shù)與標(biāo)準(zhǔn)化,2023(7):82-84,90.

      [2] 蔡敏.移動(dòng)終端的人臉識(shí)別身份認(rèn)證技術(shù)分析[J].科學(xué)技術(shù)創(chuàng)新,2019(9):66-67.

      [3] 陳放,劉曉瑞,楊明業(yè).基于活體檢測和身份認(rèn)證的人臉識(shí)別安防系統(tǒng)[J].計(jì)算機(jī)應(yīng)用,2020,40(12):3666-3672.

      [4] 李艷紅.大數(shù)據(jù)背景下云存儲(chǔ)數(shù)據(jù)安全研究[J].網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2022(9):70-71.

      [5] 岳少博,王清河,王曉春,等.基于融合模糊聚類算法的云信息存儲(chǔ)加密仿真[J].計(jì)算機(jī)仿真,2020,37(3):449-452,469.

      [6] 魏月納.基于特征融合的人臉識(shí)別算法研究與應(yīng)用[D].無錫:江南大學(xué),2016.

      [7] 毛俊杰,劉鵬,李昌鋒.基于人臉識(shí)別和生物特征的學(xué)生身份安全認(rèn)證系統(tǒng)[J].電子設(shè)計(jì)工程,2020,28(12):30-34.

      [8] MIAKSHYN O P,ANUFRIIEV,BASHKOV Y. Face Recognition Technology Improving Using Convolutional Neural Networks[C]//2021 IEEE 3rd International Conference on Advanced Trends in Information Theory(ATIT),Kyiv,Ukraine,2021:116-120.

      [9] 張俸璽,吳丞楚,張運(yùn)澤,等.基于改進(jìn)損失函數(shù)的實(shí)體類別平衡優(yōu)化算法[J].廣西科學(xué),2023,30(1):100-105.

      [10] Introduction[EB/OL].https://facescape.nju.edu.cn.

      [11] KVZNETSOV A, ZAKHAROV D, FRONTONIE K, et al. Deep Learning Based Fuzzy Extractor for Generating Strong Keys from Biometric Face Images[C]//2022 IEEE 9th International Conference on Problems of Infocommunications, Science and Technology(PIC S&T), Kharkiv, Ukraine,2022:421-426.

      基金項(xiàng)目:廣東省教育廳特色創(chuàng)新(自科)基金項(xiàng)目(2022KTSCX157)

      作者簡介:王東(1979-),男,碩士,高級(jí)工程師。研究方向?yàn)榇髷?shù)據(jù)和云計(jì)算技術(shù)。

      盘锦市| 报价| 扬州市| 平山县| 通道| 都匀市| 米泉市| 西贡区| 马尔康县| 南通市| 青浦区| 锦州市| 永康市| 沽源县| 汉源县| 新蔡县| 元氏县| 海南省| 阳山县| 扎兰屯市| 沈阳市| 江达县| 永顺县| 墨脱县| 扶沟县| 绍兴县| 常州市| 新宁县| 耒阳市| 广昌县| 鄂伦春自治旗| 芒康县| 潞城市| 莲花县| 塔河县| 维西| 苍梧县| 阿鲁科尔沁旗| 灵宝市| 拜泉县| 泸水县|