• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      一種魯棒的多特征點(diǎn)云分類分割深度神經(jīng)網(wǎng)絡(luò)

      2021-11-18 02:19:16田鈺杰管有慶
      計(jì)算機(jī)工程 2021年11期
      關(guān)鍵詞:魯棒性注意力準(zhǔn)確率

      田鈺杰,管有慶,龔 銳

      (南京郵電大學(xué) 物聯(lián)網(wǎng)學(xué)院,南京 210023)

      0 概述

      點(diǎn)云是一種常用的三維圖形表示方式,許多場(chǎng)景都是基于點(diǎn)云進(jìn)行三維環(huán)境感知和交互的,對(duì)點(diǎn)云進(jìn)行分類和分割是目前深度學(xué)習(xí)領(lǐng)域的研究熱點(diǎn)。點(diǎn)云數(shù)據(jù)是傳感器最原始的數(shù)據(jù)形式,主要采用深度學(xué)習(xí)處理點(diǎn)云。點(diǎn)云具有無序性,可利用深度神經(jīng)網(wǎng)絡(luò)強(qiáng)大的學(xué)習(xí)能力解決點(diǎn)云數(shù)據(jù)的排序問題。PointNet[1]和Deep Set[2]利用對(duì)稱函數(shù)處理無序的點(diǎn)云,從而對(duì)其進(jìn)行優(yōu)化。PointNet++[3]對(duì)PointNet 方法進(jìn)行擴(kuò)展,通過多尺度優(yōu)化局部特征提取性能。DGCNN[4]深度神經(jīng)網(wǎng)絡(luò)根據(jù)絕對(duì)坐標(biāo)計(jì)算空間中的局部區(qū)域,通過計(jì)算點(diǎn)的邊緣特征學(xué)習(xí)邊緣特征與其他特征之間的關(guān)系。VoxNet[5]將采樣三維的點(diǎn)送入32×32×32 的三維網(wǎng)格,進(jìn)而由三維卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)進(jìn)行處理,但該網(wǎng)絡(luò)計(jì)算量較大。曾碧等[6]提出一種聚類算法融合特征的方法,通過聚類算法對(duì)學(xué)習(xí)到的特征進(jìn)行融合,用于解決點(diǎn)云室內(nèi)場(chǎng)景分割。MVCNN[7]從點(diǎn)云中采樣80 個(gè)視圖,將它們投影到二維空間并進(jìn)行二維的CNN 處理。楊曉文等[8]提出一種基于八叉樹的CNN,構(gòu)造高效的八叉樹結(jié)構(gòu)化來表示三維點(diǎn)云,將卷積計(jì)算限制在八叉樹節(jié)點(diǎn)上,不需要投影到二維空間且能減少一定的計(jì)算量。SO-Net[9]網(wǎng)絡(luò)結(jié)構(gòu)使用自組織映射(Self-Organization Map,SOM)進(jìn)行分層特征提取。

      研究者利用多層感知機(jī)(Multilayer Perceptron,MLP)提取每個(gè)點(diǎn)的語義特征以處理點(diǎn)云數(shù)據(jù),但這類方法不能很好地學(xué)習(xí)點(diǎn)的局部特征且魯棒性較差。在點(diǎn)云分類分割中,既要考慮輸入點(diǎn)的全局特征,也要考慮點(diǎn)與點(diǎn)之間的局部關(guān)系。楊軍等[10]提出一種基于上下文注意力的CNN 方法,通過上下文循環(huán)神經(jīng)網(wǎng)絡(luò)編碼機(jī)制捕捉多尺度局部區(qū)域之間的上下文特征,增強(qiáng)了模型的泛化能力。白靜等[11]提出多尺度點(diǎn)云分類網(wǎng)絡(luò)(Multi-Scale Point Cloud Classification Network,MSP-Net),使用多尺度特征對(duì)點(diǎn)云進(jìn)行分類,表明多尺度具有更好的感受野,與單尺度分類相比,其精度更高,但是沒有深入研究局部特征。文獻(xiàn)[12-13]在自然語言處理(Natural Language Processing,NLP)領(lǐng)域中引入注意力的概念。注意力方法主要有分組注意變換(GSA)[14]和多頭注意(Multi-Head Attention,MHA)[15],都是通過注意力來找到點(diǎn)云的局部聯(lián)系。

      本文提出用于多特征點(diǎn)云分類分割的深度神經(jīng)網(wǎng)絡(luò)RMFP-DNN。利用自注意力模塊提取點(diǎn)與點(diǎn)之間的局部特征,通過殘差結(jié)構(gòu)結(jié)合GSA 與MLP 以加強(qiáng)對(duì)局部特征的學(xué)習(xí)。在此基礎(chǔ)上,采用特征融合方法將局部特征的特征向量和每個(gè)點(diǎn)的特征向量相互連接,從而得到整體特征。

      1 多特征點(diǎn)云分類分割深度神經(jīng)網(wǎng)絡(luò)

      本文主要介紹RMFP-DNN 深度神經(jīng)網(wǎng)絡(luò)、RMFP-DNN 的自注意力模塊和特征融合處理過程,自注意力模塊通過殘差連接[16]結(jié)合GSA 和MLP,特征融合處理將MLP 提取的特征和自注意力模塊提取的特征連接得到整體特征。

      1.1 RMFP-DNN 深度神經(jīng)網(wǎng)絡(luò)

      點(diǎn)云的個(gè)數(shù)設(shè)為N,輸入點(diǎn)云為P∈RN×3。初始輸入為N×3(每個(gè)點(diǎn)的維度為3),由2 個(gè)分支結(jié)構(gòu)構(gòu)成特征提取,一個(gè)分支首先經(jīng)過空間變換結(jié)構(gòu)[1],將N×3 的輸入通過K 近鄰(K-Nearest Neighbor,KNN)算法[17]學(xué)習(xí)點(diǎn)云本身的位置信息,并學(xué)習(xí)到有利于分類分割的D×D的矩陣(PointNet采用3×3的矩陣),N×3和3×3經(jīng)過矩陣相乘得到N×3的輸出。空間變換結(jié)構(gòu)如圖1所示??臻g變換結(jié)構(gòu)對(duì)點(diǎn)云進(jìn)行調(diào)整,從而保證點(diǎn)云旋轉(zhuǎn)不變。

      圖1 空間變換結(jié)構(gòu)Fig.1 Spatial transformer structure

      圖2 RMFP-DNN 深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Structure of RMFP-DNN deep neural network

      1.2 自注意力模塊

      自注意力模塊在GSA 基礎(chǔ)上進(jìn)行殘差連接,引入MLP 來保證原始點(diǎn)信息的完整性,殘差的深層次結(jié)構(gòu)能加深對(duì)局部特征的學(xué)習(xí)。

      1.2.1 自注意力模塊結(jié)構(gòu)

      自注意力模塊由MLP 和GSA 組成。PointNet中,MLP 學(xué)習(xí)每個(gè)點(diǎn)單獨(dú)的特征,忽略了點(diǎn)和點(diǎn)之間的局部特征。針對(duì)這個(gè)問題,自注意力模塊通過GSA 來學(xué)習(xí)相鄰點(diǎn)的特征。自注意力模塊結(jié)構(gòu)如圖3 所示。首先將N×3 的輸入通過絕對(duì)和相對(duì)位置嵌入(Absolute and Relative Position Embedding,ARPE)[10]輸入特征集合X∈RN×c,c為特征通道數(shù)。然后通過殘差連接將輸入特征和GSA 分組變換后的特征連接起來送到MLP 中,將其結(jié)果與GSA 再做一次殘差連接送到MLP 中,最后得到輸出特征N×c。

      圖3 自注意力模塊結(jié)構(gòu)Fig.3 Structure of self-attention module

      GSA 通過挖掘輸入點(diǎn)和點(diǎn)之間的關(guān)系來進(jìn)行局部特征的學(xué)習(xí),能準(zhǔn)確地表示每個(gè)點(diǎn)的語義特征。但是原有的GSA 不能保留原始的輸入信息,所以為了保留原始信息,在RMFP-DNN 的自注意力模塊引入MLP。

      1.2.2 分組注意變換

      GSA 是自注意力模塊的重要組成部分。神經(jīng)網(wǎng)絡(luò)通過GSA 在訓(xùn)練時(shí)能學(xué)習(xí)點(diǎn)和點(diǎn)之間的局部特征。首先使用注意層[18]捕捉點(diǎn)之間的關(guān)系。將非線性變換σ加到注意層中,得到非線性注意層,如式(1)所示:

      其中:X為輸入點(diǎn)的特征集合;Q為查詢參數(shù),用于關(guān)注輸入的X,且X,Q∈RN×c;c為通道數(shù);s為按比例縮小的點(diǎn)積運(yùn)算[8]。損失函數(shù)σ使用的是指數(shù)線性單元(Exponential Linear Unit,ELU)[19]。

      PC機(jī)上還可以提供比智能手機(jī)豐富的控制功能和更人性化的人機(jī)界面,通過Internet訪問農(nóng)產(chǎn)品服務(wù)器上的視頻信息:一方面可以實(shí)時(shí)監(jiān)控農(nóng)產(chǎn)品長(zhǎng)勢(shì)與營(yíng)養(yǎng)需求,提供及時(shí)決策;另一方面可供農(nóng)業(yè)專家系統(tǒng)對(duì)自然災(zāi)害防御,農(nóng)作物病蟲害分析,農(nóng)產(chǎn)品后期可視化溯源提供依據(jù)。

      在此基礎(chǔ)上,引入通道變換[20]和分組變換[21],設(shè)g是分組數(shù),c是通道數(shù),c被g整除,每組的通道數(shù)cg=c/g,分組注意(GAttn)的定義如式(2)所示:

      其中:X按通道分成g組,Xi∈RN×cg,Wi為每組i的 可學(xué)習(xí)變換權(quán)重,所以每組的特征Xi=X(i)Wi|i=0,1,…,g-1。自注意力是使輸入特征注意到每個(gè)輸入本身,令式(1)中的Q等于X,即Atσ(Q,X)變?yōu)锳tσ(X,X)。再通過concat 連接,將每組的Atσ(Xi,Xi)連接成GAttn(X)。但這樣得到的GAttn阻止了組與組之間信息交流,引入一個(gè)無參數(shù)通道轉(zhuǎn)變算子ψ[22],在分組的基礎(chǔ)上進(jìn)行有效的分組變換。元素x∈Rc,重新定義分組x,每個(gè)x是不同通道的特征,x定義如式(3)所示:

      其中:(xicg+j|j=1,2,…,cg)為通道分組中的第(i+1)組,因?yàn)閕是從0 開始的。這樣通道轉(zhuǎn)變算子ψ定義如式(4)所示:

      式(4)通過無參數(shù)通道轉(zhuǎn)變算子ψ(x)將式(3)進(jìn)行了分組變換,將式(2)中的GAttn代入式(4)中,最后通過分組歸一化(GN)[23]得到GSA,GSA如式(5)所示:

      通過以上分組變換,GSA 能夠很好地提取點(diǎn)與點(diǎn)之間的特征。

      1.3 特征融合處理

      特征融合處理主要將MLP 提取每個(gè)點(diǎn)的特征和自注意力模塊提取點(diǎn)之間的局部特征進(jìn)行concat連接。concat連接是一個(gè)更為通用的特征融合方法。設(shè)MLP提取每個(gè)點(diǎn)的特征得到特征向量v1∈Rn,設(shè)自注意力模塊提取局部特征得到特征向量v2∈Rc,通過concat連接得到融合的特征向量v=[v1,v2]∈Rn+c,concat連接是通道數(shù)的合并,也就是特征維度的增加,而每一維度下的特征不變。如特征向量[1,2]和特征向量[3,4]經(jīng)過concat 連接后變?yōu)樘卣飨蛄浚?,2,3,4]。RMFP-DNN通過MLP提取每個(gè)點(diǎn)的特征得到N×1 024的輸出特征,2 個(gè)自注意力模塊提取點(diǎn)之間的局部特征得到N×1 024的輸出特征,經(jīng)過concat 連接后得到N×(1 024+1 024)的輸出特征,這樣通道數(shù)的增加使得點(diǎn)云有了更多的特征表示。

      融合不同尺度的特征可以提高點(diǎn)云的分類分割準(zhǔn)確率,MLP 提取每個(gè)點(diǎn)的特征,但丟失了很多局部信息,包括點(diǎn)與點(diǎn)之間的關(guān)系,導(dǎo)致點(diǎn)的語義特征不夠準(zhǔn)確。自注意力模塊學(xué)習(xí)點(diǎn)之間的局部特征,具有更強(qiáng)的語義信息,但對(duì)每個(gè)點(diǎn)的學(xué)習(xí)沒有MLP 準(zhǔn)確。因此,RMFP-DNN 采用特征融合方法,將兩者進(jìn)行融合,從而提升點(diǎn)云分類分割的準(zhǔn)確率。因?yàn)槿诤狭硕鄠€(gè)特征,在點(diǎn)云的稀疏性實(shí)驗(yàn)上,RMFPDNN 展現(xiàn)了較好的魯棒性。

      2 實(shí)驗(yàn)與分析

      使用分類數(shù)據(jù)集ModelNet40[24]和部件分割數(shù)據(jù)集ShapeNet[25]驗(yàn)證RMFP-DNN 的魯棒性和準(zhǔn)確率。

      2.1 ModelNet40 形狀分類

      ModelNet40 數(shù)據(jù)集包含40 個(gè)三維對(duì)象的類別,共有12 311 個(gè)計(jì)算機(jī)輔助設(shè)計(jì)(Computer Aided Design,CAD)模型。采用9 840 個(gè)訓(xùn)練樣本,2 471 個(gè)測(cè)試樣本。為比較RMFP-DNN 和其他方法,使用與PointNet 等方法相同的數(shù)據(jù)預(yù)處理。對(duì)于每個(gè)3D 模型,從網(wǎng)格面上均勻采樣1 024 個(gè)點(diǎn),只考慮點(diǎn)云的坐標(biāo)。用三維坐標(biāo)(x,y,z)作為每個(gè)點(diǎn)的原始屬性。在訓(xùn)練過程中,隨機(jī)旋轉(zhuǎn)并擾亂點(diǎn)的位置。所有實(shí)驗(yàn)均使用Tensorflow 框架[26]。

      在分類任務(wù)中,使用與SpiderCNN[27]中相同的訓(xùn)練設(shè)置。模型關(guān)鍵參數(shù)設(shè)置對(duì)性能有一定的影響。RMFP-DNN 的批處理大小設(shè)為16,批處理大小是每次訓(xùn)練時(shí)送入神經(jīng)網(wǎng)絡(luò)的樣本數(shù)量,數(shù)值設(shè)置較大可以使網(wǎng)絡(luò)收斂得更快,但是要根據(jù)GPU 設(shè)備的性能來選擇數(shù)值。本次實(shí)驗(yàn)的GPU 為Nvidia GTX 1080 Ti,所以批處理設(shè)置為16 可以使網(wǎng)絡(luò)收斂更快。采用交叉熵?fù)p失函數(shù)進(jìn)行訓(xùn)練,使用Adam[28]優(yōu)化算法,Adam 能夠更快速地找到最優(yōu)解,網(wǎng)絡(luò)收斂后有較好的分類準(zhǔn)確率。學(xué)習(xí)率設(shè)為0.001,學(xué)習(xí)率是指在優(yōu)化過程中更新網(wǎng)絡(luò)權(quán)重的幅度,需要根據(jù)不同的優(yōu)化算法選擇不同的學(xué)習(xí)率大小,學(xué)習(xí)率過大導(dǎo)致網(wǎng)絡(luò)不收斂,學(xué)習(xí)率過小導(dǎo)致網(wǎng)絡(luò)訓(xùn)練時(shí)間長(zhǎng)。所以自適應(yīng)地調(diào)整學(xué)習(xí)率,每隔20 個(gè)訓(xùn)練周期后學(xué)習(xí)率減半。批處理歸一化的衰減率為0.7。RMFP-DNN 模型共訓(xùn)練250 個(gè)訓(xùn)練周期,訓(xùn)練周期又稱迭代次數(shù),指數(shù)據(jù)集輸入到網(wǎng)絡(luò)需要訓(xùn)練的次數(shù)。訓(xùn)練錯(cuò)誤率和測(cè)試錯(cuò)誤率相差較小說明訓(xùn)練周期的值較合適,如果測(cè)試錯(cuò)誤率先小后大則說明訓(xùn)練周期的值設(shè)置偏大,出現(xiàn)過擬合現(xiàn)象,需要調(diào)小再訓(xùn)練。訓(xùn)練時(shí),對(duì)點(diǎn)云的坐標(biāo)進(jìn)行隨機(jī)變換用作對(duì)點(diǎn)的干擾,在訓(xùn)練時(shí)可以提高RMFP-DNN 的抗干擾能力。

      在ModelNet 40 的數(shù)據(jù)集上RMFP-DNN 和其他方法的分類準(zhǔn)確率對(duì)比如表1 所示,所有方法在1 024 個(gè)點(diǎn)上進(jìn)行訓(xùn)練。

      表1 在ModelNet 40數(shù)據(jù)集上不同方法的分類準(zhǔn)確率對(duì)比Table 1 Classification accuracy comparison among different methods on ModelNet 40 data set %

      整體分類準(zhǔn)確率是模型在所有測(cè)試集上預(yù)測(cè)正確的數(shù)量與總體數(shù)量的比值;平均分類準(zhǔn)確率是每個(gè)類別預(yù)測(cè)正確的數(shù)量與每個(gè)類別總體數(shù)量的比值。從表1可以看出,RMFP-DNN 的平均分類準(zhǔn)確率為88.9%,整體分類準(zhǔn)確率為92.6%,均優(yōu)于其他方法。

      此外,對(duì)預(yù)測(cè)結(jié)果進(jìn)行更細(xì)致分析,ModelNet 40 數(shù)據(jù)集易錯(cuò)模型分類的對(duì)比如表2 所示。在同一個(gè)易錯(cuò)模型下,比較RMFP-DNN 與其他方法的差別。從 表2 可以看出,PointNet 與SpiderCNN 方法均不能很好地識(shí)別出相似模型桌子和凳子,對(duì)易混淆模型的識(shí)別準(zhǔn)確率不高,而RMFP-DNN 方法學(xué)習(xí)了局部特征,能較好地識(shí)別這類相似性較大的模型。RMFP-DNN 可以準(zhǔn)確識(shí)別出易混淆的燈和桌子模型,其他方法卻不能。

      表2 不同方法的易錯(cuò)模型分類對(duì)比Table 2 Error-prone models classification comparison among different methods

      本文通過稀疏性實(shí)驗(yàn)比較各方法的魯棒性,將點(diǎn)云從1 024 個(gè)點(diǎn)逐漸降到128 個(gè)點(diǎn)進(jìn)行訓(xùn)練,通過對(duì)輸入稀疏點(diǎn)地學(xué)習(xí)比較RMFP-DNN 和其他方法的魯棒性。不同方法的準(zhǔn)確率對(duì)比如圖4 所示。從圖4 可以看出,當(dāng)點(diǎn)的數(shù)量從1 000 降到200 時(shí),RMFP-DNN 方法的準(zhǔn)確率降得不明顯,表現(xiàn)出較好的魯棒性,因PointNet++方法采用多尺度分組,其魯棒性與RMFP-DNN 方法相差不大,而其他方法呈明顯下降的趨勢(shì)。

      圖4 不同方法的準(zhǔn)確率對(duì)比Fig.4 Accuracy comparison among different methods

      2.2 ShapeNet 部件分割

      三維場(chǎng)景的點(diǎn)云語義分割分為部件分割和場(chǎng)景分割。部件分割是采用ShapeNet 數(shù)據(jù)集驗(yàn)證RMFP-DNN 的魯棒性和準(zhǔn)確性。ShapeNet 是評(píng)估三維部件分割的數(shù)據(jù)集,包含16個(gè)類別,共有16 681個(gè)模型和50 個(gè)分割的實(shí)例。每個(gè)對(duì)象有2~6 個(gè)部件標(biāo)簽(如桌子的桌腳、飛機(jī)的機(jī)翼等)。對(duì)2 048 個(gè)點(diǎn)進(jìn)行訓(xùn)練,數(shù)據(jù)集采用13 807 個(gè)模型用于訓(xùn)練,2 874 個(gè)模型用于測(cè)試。使用交并比(Mean Intersection over Union,MIoU)作為所有實(shí)例的平均評(píng)估指標(biāo),MIoU用來計(jì)算真實(shí)值和預(yù)測(cè)值這兩個(gè)集合的交集和并集之比,語義分割中常用MIoU 作為評(píng)價(jià)方法的指標(biāo)。通過50 個(gè)部件分割的實(shí)例來對(duì)比各個(gè)方法。

      隨機(jī)丟棄率(droupout)的數(shù)值設(shè)置為0.6,dropout 是在訓(xùn)練過程中,對(duì)神經(jīng)網(wǎng)絡(luò)單元有一定概率將其從網(wǎng)絡(luò)中丟棄,dropout 是為了防止訓(xùn)練時(shí)出現(xiàn)過擬合的現(xiàn)象。RMFP-DNN 的訓(xùn)練設(shè)置與分類類似,因根據(jù)GPU 的性能來合理選擇批處理大小,批處理大小為8,與分類時(shí)批處理大小設(shè)置不同。學(xué)習(xí)率、優(yōu)化算法和損失函數(shù)設(shè)置如同分類實(shí)驗(yàn),訓(xùn)練周期設(shè)置為200。不同方法的部件分割準(zhǔn)確率對(duì)比如表3 所示。

      表3 不同方法的部件分割準(zhǔn)確率對(duì)比Table 3 Component segmentation accuracy comparison among different methods %

      在ShapeNet 數(shù)據(jù)集上,RMFP-DNN 的交并比為85.2%,與最優(yōu)MVCNN 方法的交并比相比,降低了3 個(gè)百分點(diǎn),但其帽子、汽車、吉他、電腦和浴缸5 個(gè)部件的交并比最高。由于RMFP-DNN 引入自注意力模塊,并且結(jié)合每個(gè)點(diǎn)的特征,所以能夠較好地學(xué)習(xí)局部特征和全局特征。

      本文統(tǒng)一使用交叉熵?fù)p失函數(shù),RMFP-DNN 與其他方法在分割訓(xùn)練損失上的比較如圖5 所示。可以看出,RMFP-DNN 的損失下降為較快且穩(wěn)定的。當(dāng)網(wǎng)絡(luò)收斂時(shí),RMFP-DNN 的損失值是最小的,表明RMFP-DNN 在數(shù)據(jù)集的擬合能力上優(yōu)于其他方法。

      圖5 不同方法分割數(shù)據(jù)的訓(xùn)練損失對(duì)比Fig.5 Training loss of segmentation data comparison among different methods

      將分割結(jié)果做了可視化,RMFP-DNN 分割的部分可視化結(jié)果如圖6 所示。從圖6 可以看出,RMFPDNN 總體上具有較好的分割效果,但在部件細(xì)節(jié)部分的分割還有待提高。

      圖6 RMFP-DNN 方法的分割可視化結(jié)果Fig.6 Segmentation visualization results of RMFP-DNN method

      本文對(duì)部件分割進(jìn)行稀疏性實(shí)驗(yàn),將點(diǎn)的個(gè)數(shù)盡可能降低,觀察RMFP-DNN 是否具有魯棒性,并且與PointNet 進(jìn)行比較。RMFP-DNN 與PointNet 的分割情況如圖7 所示(彩色效果見《計(jì)算機(jī)工程》官網(wǎng)HTML 版)。將分割有誤差的點(diǎn)用紅色的點(diǎn)標(biāo)出,藍(lán)色點(diǎn)即為與真實(shí)標(biāo)簽沒有誤差的點(diǎn)。飛機(jī)模型中,PointNet 在細(xì)節(jié)部分沒有RMFP-DNN 分割的效果好,在飛機(jī)的機(jī)身和引擎部件中,PointNet 與真實(shí)的標(biāo)簽誤差較大。椅子和手槍模型中,PointNet 在部件與部件連接地方的分割有較大誤差,尤其是椅子和椅子腳的連接處存在分割誤差。在摩托車模型中,RMFP-DNN 能保持和真實(shí)分割相近的分割結(jié)果,而PointNet 在摩托車車輪部分分割存在誤差。消融下的分割實(shí)驗(yàn)可以表明RMFP-DNN 具有一定的魯棒性。

      圖7 消融下不同方法的分割可視化結(jié)果對(duì)比Fig.7 Segmentation visualization results comparison among different methods under ablation

      本文對(duì)部分殘缺點(diǎn)云進(jìn)行分割實(shí)驗(yàn),并與PointNet 進(jìn)行對(duì)比。殘缺點(diǎn)云的分割可視化結(jié)果對(duì)比如圖8 所示(彩色效果見《計(jì)算機(jī)工程》官網(wǎng)HTML 版),對(duì)所有數(shù)據(jù)集進(jìn)行截取,每個(gè)模型只取256 個(gè)點(diǎn)進(jìn)行測(cè)試,實(shí)驗(yàn)比較了4 組模型,從圖8 可以看出,相比PointNet,RMFP-DNN 分割效果具有一定的魯棒性。綜合消融下分割實(shí)驗(yàn)和殘缺的分割實(shí)驗(yàn)結(jié)果可知,RMFP-DNN 具有較好的魯棒性。

      圖8 殘缺點(diǎn)云的分割可視化結(jié)果對(duì)比Fig.8 Segmentation visualization results comparison of imperfect point cloud

      3 結(jié)束語

      本文提出一種魯棒的多特征點(diǎn)云分類分割深度神經(jīng)網(wǎng)絡(luò)RMFP-DNN。采用殘差網(wǎng)絡(luò)結(jié)構(gòu)對(duì)GSA改進(jìn)得到自注意力模塊,通過自注意力模塊學(xué)習(xí)點(diǎn)與點(diǎn)之間的局部特征,并利用多層感知機(jī)提取點(diǎn)云全局特征。在此基礎(chǔ)上,利用特征融合方法,在全連接層將所有特征進(jìn)行融合得到分類和分割的結(jié)果。實(shí)驗(yàn)結(jié)果表明,RMFP-DNN 能夠有效提高分類和分割精度,且在點(diǎn)云稀疏的情況下具有較好的魯棒性。由于自動(dòng)駕駛、VR 等真實(shí)的點(diǎn)云數(shù)據(jù)通常具有大量噪聲,因此后續(xù)將對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化,進(jìn)一步提高點(diǎn)云的抗噪聲能力并降低神經(jīng)網(wǎng)絡(luò)的復(fù)雜度。

      猜你喜歡
      魯棒性注意力準(zhǔn)確率
      讓注意力“飛”回來
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
      基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評(píng)價(jià)
      高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
      A Beautiful Way Of Looking At Things
      基于非支配解集的多模式裝備項(xiàng)目群調(diào)度魯棒性優(yōu)化
      武川县| 格尔木市| 兴宁市| 夏津县| 乾安县| 陈巴尔虎旗| 永清县| 白水县| 涟源市| 扎鲁特旗| 苏尼特右旗| 普定县| 临洮县| 乌兰县| 施甸县| 九寨沟县| 雷州市| 洞口县| 长乐市| 平罗县| 谷城县| 阳江市| 祁阳县| 长泰县| 西青区| 永平县| 孙吴县| 射洪县| 隆林| 黄浦区| 南川市| 平泉县| 高青县| 堆龙德庆县| 泰安市| 蒙自县| 阿拉善左旗| 上林县| 柞水县| 赤水市| 温宿县|