• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于輕量級(jí)CNN 的射頻指紋識(shí)別

      2021-06-16 16:42:24孫汝杰
      電子技術(shù)與軟件工程 2021年4期
      關(guān)鍵詞:輕量化信噪比卷積

      孫汝杰

      (江蘇省交通技師學(xué)院 江蘇省鎮(zhèn)江市 212028)

      1 引言

      隨著通信技術(shù)的發(fā)展,智能設(shè)備與通信設(shè)備相互配合使得我們的生活更加便利。這也導(dǎo)致了人們更多地暴露在了黑客的攻擊之下。RFF(射頻指紋)是一種能夠可以在較長(zhǎng)時(shí)間內(nèi)獨(dú)立地表示設(shè)備的特性,可以看作是智能設(shè)備的DNA[1]。RFF 是非線(xiàn)性變化的,主要的表現(xiàn)形式為載波頻偏(CFO),同相和正交(IQ)頻偏。由于發(fā)射裝置在生產(chǎn)過(guò)程中存在不可避免的細(xì)小差異,即使同一批產(chǎn)品RFF 也不同[2],[3]。傳統(tǒng)射頻指紋識(shí)別(RFFID)方法利用特征提取數(shù)據(jù)中的射頻指紋[4]-[6],再用機(jī)器算法進(jìn)行識(shí)別。本文提出了一種基于輕量化CNN 的RFFID 方法,可在物聯(lián)網(wǎng)設(shè)備中部署應(yīng)用。

      2 系統(tǒng)模型和數(shù)據(jù)采集

      如圖1 所示,本文首先采集物聯(lián)網(wǎng)設(shè)備的信號(hào),然后建立RFF數(shù)據(jù)集,再利用神經(jīng)網(wǎng)絡(luò)對(duì)采樣信號(hào)進(jìn)行識(shí)別,最后對(duì)模型進(jìn)行修改,得到較小的輕量化模型。本文的數(shù)據(jù)集來(lái)自4 臺(tái)物聯(lián)網(wǎng)設(shè)備。每個(gè)裝置收集了大約6 萬(wàn)個(gè)樣本,每個(gè)樣本有500 個(gè)采樣點(diǎn)。

      3 本文提出的輕量化CNN方案

      3.1 CNN的結(jié)構(gòu)

      CNN 通常由卷積層、全連接層組成。詳細(xì)描述如下:

      卷積層,是進(jìn)行卷積操作的隱藏層。在二維卷積運(yùn)算中,可以將輸入的數(shù)據(jù)集看作一個(gè)大小為m×n 的矩陣(圖片可以按像素理解),卷積核是一個(gè)大小為u×v 的矩陣。一般卷積核的大小小于輸入數(shù)據(jù)集的尺寸,即1 ≤u ≤m 且1 ≤v ≤n。卷積運(yùn)算可以表示為下列公式:

      其中,y(i,j)表示卷積運(yùn)算的輸出矩陣,f(i,j)與x(i,j)分別表示的是卷積核和輸入數(shù)據(jù)的對(duì)應(yīng)下標(biāo)元素。假設(shè)輸入的數(shù)據(jù)為m×n的矩陣,卷積核是一個(gè)大小為u×v 的矩陣,不作填充時(shí),卷積步長(zhǎng)為s,那么輸出數(shù)據(jù)的維度hout×wout可以由以下公式計(jì)算得出:全連接層在整個(gè)卷積神經(jīng)網(wǎng)絡(luò)中主要起到“分類(lèi)器”的作用。工作流程為:首先將經(jīng)過(guò)卷積、激活函數(shù)、池化的深度網(wǎng)絡(luò)后的輸出結(jié)果進(jìn)行降維,即全都串聯(lián)成大小為1×N 的一維矩陣,其中N為之前輸出結(jié)果的所有元素個(gè)數(shù)。然后依據(jù)對(duì)應(yīng)的權(quán)重對(duì)全連接層的各個(gè)元素進(jìn)行加權(quán)求和,得到各個(gè)結(jié)果的預(yù)測(cè)值,最后取值最大的作為識(shí)別的結(jié)果。在實(shí)際應(yīng)用中,全連接層后的輸出層可以根據(jù)需要解決的問(wèn)題進(jìn)行自定義。

      3.2 輕量化CNN結(jié)構(gòu)

      本文采用了卷積層和全連接層兩種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。考慮到輸入數(shù)據(jù)集的大小,所以不需要使用池化層。ReLU 和Softmax 是深度學(xué)習(xí)中常用的非線(xiàn)性激活函數(shù)。公式如下:

      其中Max(·)表示選擇最大值的函數(shù),z1是訓(xùn)練樣本數(shù)。ReLu通常用于層與層之間,而Softmax 是多分類(lèi)問(wèn)題中的經(jīng)典函數(shù)。ReLU 算法在稀疏性問(wèn)題中的性能非常好,符合一定特征的中間值會(huì)放大;不一致的將直接刪除。當(dāng)梯度大,學(xué)習(xí)率設(shè)置過(guò)大大,權(quán)值會(huì)一次更新過(guò)多。由于zi是負(fù)數(shù),再加上ReLU,神經(jīng)網(wǎng)絡(luò)的輸出為零。Softmax 輸出的值之和為1,適用于多分類(lèi)。為減少過(guò)度擬合的可能性,本文使用Dropout 層來(lái)使隨機(jī)神經(jīng)元“死亡”。普通CNN 采用兩層卷積層“Conv1D”和三層全連接層。卷積核的大小分別為1×8 和1×4。本文提出的輕量化CNN 減少了全連接層的數(shù)量,用“可分離CNN”代替卷積層。

      3.3 損失函數(shù)和優(yōu)化器

      圖1:總體示意圖

      通過(guò)適當(dāng)?shù)膿p失函數(shù)和優(yōu)化器,神經(jīng)網(wǎng)絡(luò)很快就能收斂。本文使用的優(yōu)化算法是Adam, Adam 具有較高的計(jì)算效率和最少的內(nèi)存需求。此外,它適用于大數(shù)據(jù)問(wèn)題、非固定目標(biāo)問(wèn)題、小信噪比以及稀疏梯度問(wèn)題。Adam 可以寫(xiě)成:

      mt表示一階矩估計(jì);vt表示二階矩估計(jì);t 表示訓(xùn)練步長(zhǎng);β1和β2表示矩估計(jì)的指數(shù)衰減率;β1,t和 β2,t表示β1和β2的第t 次方。通常,分類(lèi)交叉熵(CCE)和二元交叉熵(BCE)是識(shí)別問(wèn)題的主要形式。本文選擇CCE 作為損失函數(shù)。CCE 可以寫(xiě)成:

      其中x 表示輸入數(shù)據(jù);yi表示的x 真實(shí)標(biāo)簽;C 表示類(lèi)別數(shù);fi(·)表示模型的預(yù)測(cè),在識(shí)別問(wèn)題中表示標(biāo)簽。

      4 仿真結(jié)果

      傳統(tǒng)CNN 和輕量化CNN 的仿真都是基于Keras 實(shí)現(xiàn)的,以Tensorflow 為后端,計(jì)算平臺(tái)為GTX1650。利用MATLAB 對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理。

      4.1 分類(lèi)性能

      在本文中,CNN 被設(shè)計(jì)成識(shí)別四種不同的設(shè)備。通過(guò)對(duì)所設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行輕量化運(yùn)算,比較了在訓(xùn)練同一組數(shù)據(jù)集的情況下輕量化前后卷積網(wǎng)絡(luò)的精度差異。此外,本文還對(duì)比了其他三種傳統(tǒng)的機(jī)器學(xué)習(xí)算法,即支持向量機(jī)(SVM)、決策樹(shù)(DT)和隨機(jī)森林(RF)。結(jié)果表明,與其他三種方法相比,CNN 方法和輕量級(jí)CNN 方法都具有很好的準(zhǔn)確性。與CNN 相比,本文實(shí)現(xiàn)的輕量級(jí)網(wǎng)絡(luò)雖然有一定的性能損失,但仍然具有更簡(jiǎn)潔的網(wǎng)絡(luò)結(jié)構(gòu)和更快的運(yùn)行速度。分類(lèi)性能如表1 所示。

      表1:各種方法的識(shí)別效果

      4.2 復(fù)雜度分析

      雖然輕量化CNN 的網(wǎng)絡(luò)復(fù)雜度遠(yuǎn)低于CNN。具體數(shù)據(jù)見(jiàn)表2。提供了三個(gè)度量:浮點(diǎn)運(yùn)算(FLOPs)、參數(shù)和模型大小。FLOPs是指浮點(diǎn)運(yùn)算的次數(shù),通常用于衡量對(duì)比在不同設(shè)備上訓(xùn)練的模型的復(fù)雜性,其計(jì)算公式取決于各層所使用的超參數(shù)。輕量化CNN的計(jì)算量?jī)H為CNN 的10.93%,說(shuō)明計(jì)算復(fù)雜度低于CNN。

      表2:兩種神經(jīng)網(wǎng)絡(luò)的參數(shù)量與FLOPs

      4.3 不同SNR下的準(zhǔn)確率

      如圖2 所示,普通CNN 的性能優(yōu)于輕量級(jí)CNN(尤其是在高信噪比環(huán)境下)。在低信噪比環(huán)境下,二者都不適用于RFF 場(chǎng)景。

      圖2:不同信噪比下兩種模型的準(zhǔn)確度對(duì)比

      5 結(jié)論

      本文提出了一種輕量化的CNN 來(lái)識(shí)別不同物聯(lián)網(wǎng)設(shè)備,并與常用的CNN 和經(jīng)典的機(jī)器學(xué)習(xí)方法進(jìn)行了比較。結(jié)果表明,CNN和輕量化CNN 在高信噪比環(huán)境下都有很好的性能。輕量化CNN 的性能優(yōu)于SVM、DT、RF 機(jī)器學(xué)習(xí)方法,比普通CNN 略差,但訓(xùn)練成本要小得多。

      猜你喜歡
      輕量化信噪比卷積
      汽車(chē)輕量化集成制造專(zhuān)題主編
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      基于深度學(xué)習(xí)的無(wú)人機(jī)數(shù)據(jù)鏈信噪比估計(jì)算法
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      一種輕量化自卸半掛車(chē)結(jié)構(gòu)設(shè)計(jì)
      低信噪比下LFMCW信號(hào)調(diào)頻參數(shù)估計(jì)
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
      瞄準(zhǔn)掛車(chē)輕量化 鑼響掛車(chē)正式掛牌成立
      保持信噪比的相位分解反褶積方法研究
      武川县| 长沙市| 海南省| 盐山县| 盈江县| 小金县| 化州市| 仁怀市| 怀来县| 梅州市| 简阳市| 城市| 黄浦区| 即墨市| 金塔县| 吴堡县| 秀山| 成安县| 陈巴尔虎旗| 蕲春县| 肥东县| 大悟县| 尚志市| 定陶县| 石台县| 桐城市| 怀集县| 涞源县| 游戏| 当涂县| 淮安市| 广灵县| 漾濞| 拉萨市| 万盛区| 临沭县| 寻乌县| 宜兰市| 柳江县| 平湖市| 龙南县|