• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      顧及多尺度監(jiān)督的點(diǎn)云語(yǔ)義分割

      2024-03-25 06:50:36文陽(yáng)暉楊曉文況立群薛紅新
      激光與紅外 2024年2期
      關(guān)鍵詞:解碼類別語(yǔ)義

      文陽(yáng)暉,楊曉文,張 元,韓 燮,況立群,薛紅新

      (1.中北大學(xué),計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,山西 太原 030051;2.山西省視覺信息處理及智能機(jī)器人工程研究中心,山西 太原 030051;3.機(jī)器視覺與虛擬現(xiàn)實(shí)山西省重點(diǎn)實(shí)驗(yàn)室,山西 太原 030051)

      1 引 言

      近年來(lái),隨著無(wú)人駕駛、計(jì)算機(jī)視覺、人工智能等領(lǐng)域的快速發(fā)展,深度傳感技術(shù)日益成熟,三維點(diǎn)云的語(yǔ)義分割在計(jì)算機(jī)視覺領(lǐng)域引起了越來(lái)越多的關(guān)注[1]。伴隨大型三維點(diǎn)云數(shù)據(jù)集的出現(xiàn)以及計(jì)算機(jī)硬件的更新?lián)Q代,在點(diǎn)云語(yǔ)義分割領(lǐng)域中基于深度學(xué)習(xí)的算法逐步占據(jù)主導(dǎo)地位[2]。

      基于深度學(xué)習(xí)的點(diǎn)云分割模型,大多采用編碼器-解碼器架構(gòu),網(wǎng)絡(luò)僅由最后一層中的點(diǎn)云語(yǔ)義標(biāo)簽監(jiān)督,而其他層中的隱藏單元缺乏直接監(jiān)督,無(wú)法提取具有明確語(yǔ)義信息表示的特征,引入多尺度監(jiān)督對(duì)于點(diǎn)云分割任務(wù)是十分必要的。在二維視覺領(lǐng)域中,Kirillov等[3]提出PointRend,對(duì)低分辨率圖像進(jìn)行分割,迭代地對(duì)輸出結(jié)果采用上采樣并微調(diào)和再預(yù)測(cè),直至獲取最終結(jié)果,實(shí)現(xiàn)對(duì)不同尺度的監(jiān)督。Huang等[4]提出Unet3+,在每個(gè)解碼層后都連接了中繼監(jiān)督層,將特征上采樣至原圖大小,利用真實(shí)標(biāo)簽統(tǒng)一進(jìn)行監(jiān)督,增強(qiáng)網(wǎng)絡(luò)捕獲邊界細(xì)粒度結(jié)構(gòu)的能力。在三維視覺領(lǐng)域中,Xu等[5]提出了一種場(chǎng)景描述符,學(xué)習(xí)表示點(diǎn)云場(chǎng)景中存在的類別,監(jiān)督網(wǎng)絡(luò)最中間層,過(guò)濾不屬于場(chǎng)景中的類別,指導(dǎo)點(diǎn)級(jí)語(yǔ)義分割。

      本文提出一種以SCF-Net為基礎(chǔ)融合多尺度監(jiān)督的點(diǎn)云語(yǔ)義分割網(wǎng)絡(luò)(Multi-scale Supervision SCF-Net,MSS-SCF-Net),將點(diǎn)云類別預(yù)測(cè)任務(wù)分解成一系列點(diǎn)云感受野類別預(yù)測(cè)任務(wù),在編碼階段利用類別信息生成模塊(Category Information Generation Module,CIG)生成類別信息,在解碼階段通過(guò)類別信息預(yù)測(cè)模塊(Category Information Prediction Module,CIP)結(jié)合淺層以及深層編碼特征對(duì)各個(gè)尺度的點(diǎn)云進(jìn)行預(yù)測(cè),類別信息作為標(biāo)簽監(jiān)督隱層特征學(xué)習(xí),增強(qiáng)對(duì)點(diǎn)云特征的挖掘能力,提升網(wǎng)絡(luò)整體分割精度。

      2 相關(guān)研究

      近些年來(lái),國(guó)內(nèi)外研究人員提出了眾多基于深度學(xué)習(xí)的點(diǎn)云分割網(wǎng)絡(luò),主要包括三類方法:基于投影的網(wǎng)絡(luò)[6-7]、基于體素化的網(wǎng)絡(luò)[8-9]和基于點(diǎn)云的網(wǎng)絡(luò)。基于投影和基于體素化的網(wǎng)絡(luò)由于將點(diǎn)云轉(zhuǎn)化為其他形式的數(shù)據(jù),導(dǎo)致數(shù)據(jù)額外損失,分割效果不佳?;邳c(diǎn)云的網(wǎng)絡(luò)能夠直接對(duì)點(diǎn)云進(jìn)行語(yǔ)義分割,2017年,Qi等人[10]提出的PointNet網(wǎng)絡(luò)是該類方法的開拓者,能夠直接在點(diǎn)云數(shù)據(jù)上進(jìn)行特征學(xué)習(xí),利用共享感知機(jī)捕獲逐點(diǎn)特征,但忽略了局部特征的學(xué)習(xí)。為了加強(qiáng)局部特征提取能力,Qi等人[11]在PointNet的基礎(chǔ)上提出了PointNet++,采用分層思想,逐步擴(kuò)大感受野進(jìn)而聚合局部特征。2019年Zhao等人[12]提出了PointWeb,通過(guò)自適應(yīng)特征調(diào)整模塊在每個(gè)成對(duì)的3D點(diǎn)之間交換信息,增強(qiáng)局部鄰域的表示能力。2021年,Fan等人[13]提出SCF-Net,將點(diǎn)云以極坐標(biāo)形式表示,利用雙距離注意力池化模塊,基于幾何距離與特征距離自動(dòng)學(xué)習(xí)有效的局部特征,在室內(nèi)場(chǎng)景的語(yǔ)義分割中取得了很好的效果。2023年,敖等人[14]提出CsegNet,利用逐點(diǎn)卷積和邊緣卷積提取局部特征,有效改善邊緣不平滑現(xiàn)象。以上網(wǎng)絡(luò)模型的提出,為后續(xù)基于深度學(xué)習(xí)的點(diǎn)云語(yǔ)義分割模型指引了方向,具有重要的理論研究?jī)r(jià)值。

      3 本文方法

      3.1 結(jié)合多尺度監(jiān)督和SCF-Net的神經(jīng)網(wǎng)絡(luò)

      本文方法以SCF-Net為主干網(wǎng)絡(luò),采用帶有跳層連接的編碼器-解碼器架構(gòu),為了避免隨機(jī)采樣丟棄關(guān)鍵信息,替換為最遠(yuǎn)點(diǎn)采樣,能夠覆蓋整個(gè)點(diǎn)云,增強(qiáng)網(wǎng)絡(luò)對(duì)局部特征的提取。

      網(wǎng)絡(luò)具體結(jié)構(gòu)如圖1所示。網(wǎng)絡(luò)的輸入是大小為N×D的點(diǎn)云,其中N為點(diǎn)云個(gè)數(shù),D為特征維數(shù)。首先通過(guò)全連接層將特征維數(shù)統(tǒng)一為8,逐步利用五個(gè)編碼層對(duì)特征進(jìn)行編碼,使用最遠(yuǎn)點(diǎn)采樣算法對(duì)點(diǎn)云進(jìn)行下采樣,利用SCF模塊來(lái)學(xué)習(xí)上下文特征。同時(shí),點(diǎn)云的標(biāo)簽信息也被輸入至網(wǎng)絡(luò)中,大小為N×C,C為類別數(shù)目。輸入的標(biāo)簽信息依次經(jīng)過(guò)CIG模塊和最遠(yuǎn)點(diǎn)采樣處理。CIG模塊用于獲取點(diǎn)云感受野中的類別信息,類別信息作為標(biāo)簽監(jiān)督指導(dǎo)解碼階段點(diǎn)云特征提取。類別信息生成與編碼階段特征提取共享下采樣,生成的目標(biāo)類別信息能精確地記錄感受野的類別成分。接下來(lái),使用五個(gè)解碼層對(duì)特征進(jìn)行解碼。采用最近鄰插值進(jìn)行上采樣,利用跳躍連接與編碼層生成的中間特征進(jìn)行拼接,將拼接后的特征輸入到共享MLP。編碼特征通過(guò)五個(gè)解碼層逐漸恢復(fù)至原始分辨率。此外解碼器中每層點(diǎn)云特征將輸入到類別信息預(yù)測(cè)模塊(CIP)以獲取預(yù)測(cè)類別信息,利用編碼階段生成的目標(biāo)類別信息通過(guò)分層監(jiān)督來(lái)指導(dǎo)預(yù)測(cè),實(shí)現(xiàn)點(diǎn)級(jí)語(yǔ)義標(biāo)簽從全局到局部、從粗到細(xì)的預(yù)測(cè)。最后使用三個(gè)連續(xù)的全連接層預(yù)測(cè)最終標(biāo)簽,輸出大小為N×C的分割預(yù)測(cè)結(jié)果。

      3.2 類別信息生成模塊

      在圖像領(lǐng)域中,多尺度監(jiān)督的應(yīng)用[4,15]通常是將解碼器中每一層生成的特征上采樣到原始圖片的分辨率大小,添加輔助分類器,計(jì)算特征與真實(shí)標(biāo)簽產(chǎn)生的額外損失。然而,由于點(diǎn)云的無(wú)序性,無(wú)法像圖像那樣與下采樣后的數(shù)據(jù)具有固定的映射關(guān)系,直接將隱層點(diǎn)云上采樣至原始分辨率與真實(shí)標(biāo)簽計(jì)算損失,會(huì)對(duì)隱層特征引入錯(cuò)誤的監(jiān)督,導(dǎo)致網(wǎng)絡(luò)性能的下降[16]。

      由于無(wú)法直接將解碼器每層生成的點(diǎn)云特征上采樣到原始分辨率,對(duì)下采樣后的點(diǎn)云提供標(biāo)簽是非常重要的。當(dāng)點(diǎn)云經(jīng)過(guò)下采樣后,點(diǎn)云的標(biāo)簽僅包含自身所對(duì)應(yīng)的類別是不夠的,還需要體現(xiàn)鄰域內(nèi)其他點(diǎn)的類別。因此,本文提出了一種類別信息生成模塊,用于表示采樣點(diǎn)云感受野內(nèi)的所有類別。

      (1)

      其中,li是輸入點(diǎn)云pi的標(biāo)簽。編碼器第k層的類別信息向量可以通過(guò)公式(2)從k-1層推得而出。

      (2)

      圖2 類別信息生成模塊

      將前一層的類別信息向量輸入到類別信息生成模塊,得到后一層的類別信息向量,重復(fù)該過(guò)程,直至生成編碼器最后一層點(diǎn)云的類別信息向量。生成的向量將用于解碼階段,作為語(yǔ)義標(biāo)簽監(jiān)督指導(dǎo)解碼器以提取更加具體、明確的語(yǔ)義信息,提升網(wǎng)絡(luò)分割性能。

      3.3 多尺度監(jiān)督

      在本文的方法中,將解碼階段的點(diǎn)云類別預(yù)測(cè)任務(wù)分解成一系列點(diǎn)云感受野類別預(yù)測(cè)任務(wù),除解碼器最后一層,剩余層都需要預(yù)測(cè)當(dāng)前階段點(diǎn)云的感受野類別。隨著解碼層數(shù)的增加,點(diǎn)云感受野逐漸減小,對(duì)于解碼器的最后一層,感受野只含有自身點(diǎn),感受野類別預(yù)測(cè)轉(zhuǎn)化為最終的語(yǔ)義類別預(yù)測(cè)。

      為預(yù)測(cè)點(diǎn)云的感受野類別,本文設(shè)計(jì)了類別信息預(yù)測(cè)模塊。如圖3所示,解碼特征dk對(duì)應(yīng)于編碼特征ek,ek-1相對(duì)于ek是鄰近的淺層編碼特征,擁有更加豐富的細(xì)粒度局部結(jié)構(gòu)信息。ek+1相對(duì)于ek是鄰近的高層編碼特征,擁有更多的高層語(yǔ)義上下文信息。類別信息預(yù)測(cè)模塊如圖3所示,通過(guò)MLP和最遠(yuǎn)點(diǎn)采樣將鄰近淺層編碼特征ek-1與解碼特征dk對(duì)齊,利用MLP和最近鄰插值將鄰近高層編碼ek+1與dk對(duì)齊。將對(duì)齊后的淺層和高層特征拼接后輸入MLP,得到融合了淺層幾何信息和高層語(yǔ)義信息的增強(qiáng)特征fk,定義如式(3)所示:

      圖3 類別信息預(yù)測(cè)模塊

      fk=MLP(FPS(MLP(ek-1))⊕NI(MLP(ek+1)))

      (3)

      (4)

      利用鄰近淺層和高層編碼特征能夠進(jìn)一步改善點(diǎn)云感受野類別的預(yù)測(cè)精度。

      (5)

      除了解碼器的最后一層,剩余層都通過(guò)公式(6)計(jì)算本層類別信息向量預(yù)測(cè)所產(chǎn)生的損失函數(shù):

      (6)

      式中,N表示編碼器第k層中的采樣點(diǎn)云數(shù);C表示類別數(shù)。

      (7)

      對(duì)于解碼器的最后一層,將輸出得到的特征d0輸入到三個(gè)連續(xù)的全連接層,并使用softmax函數(shù)來(lái)預(yù)測(cè)最終語(yǔ)義類別,使用常見交叉熵?fù)p失函數(shù)來(lái)監(jiān)督網(wǎng)絡(luò)最終輸出的語(yǔ)義標(biāo)簽。網(wǎng)絡(luò)的整體損失函數(shù)如式(8)所定義:

      L=Ln+Lc

      (8)

      整體損失函數(shù)由兩部分構(gòu)成,Ln表示語(yǔ)義分割中常見交叉熵?fù)p失,Lc表示類別信息預(yù)測(cè)損失。

      4 實(shí)驗(yàn)結(jié)果與分析

      4.1 網(wǎng)絡(luò)參數(shù)設(shè)置

      算法實(shí)驗(yàn)環(huán)境如下:硬件為RTX3090 24GB GPU,軟件為UBUNTU16.04操作系統(tǒng),CUDA11.1,TensorFlow 1.15.4。網(wǎng)絡(luò)訓(xùn)練參數(shù)如下:使用初始學(xué)習(xí)率為0.01的Adam優(yōu)化器訓(xùn)練網(wǎng)絡(luò),批處理大小設(shè)置為4,網(wǎng)絡(luò)訓(xùn)練100個(gè)epoch,每個(gè)epoch后學(xué)習(xí)率下降5 %,最近鄰K大小為16。

      4.2 實(shí)驗(yàn)數(shù)據(jù)集及評(píng)價(jià)指標(biāo)

      為了驗(yàn)證所提方法有效性,在兩個(gè)大規(guī)模語(yǔ)義分割數(shù)據(jù)集S3DIS和SemanticKITTI上進(jìn)行對(duì)比驗(yàn)證。

      S3DIS數(shù)據(jù)集是一個(gè)大型室內(nèi)點(diǎn)云數(shù)據(jù)集,由斯坦福大學(xué)從室內(nèi)工作環(huán)境中采集得到,包含6個(gè)區(qū)域,由271個(gè)房間組成??傆?jì)掃描約2.73億個(gè)點(diǎn),每個(gè)點(diǎn)包含XYZ坐標(biāo)信息以及RGB顏色信息。

      SemanticKITTI是一個(gè)大規(guī)模室外場(chǎng)景數(shù)據(jù)集,通過(guò)機(jī)載激光掃描系統(tǒng)采集,擁有復(fù)雜的室外交通場(chǎng)景,包含22個(gè)點(diǎn)云序列,總計(jì)45.49億個(gè)點(diǎn),含有19個(gè)有效類別。

      語(yǔ)義分割的性能評(píng)估指標(biāo)采用總體精度(OA)、平均交并比(mIoU)、平均類精度(mAcc),可定義為:

      (9)

      (10)

      (11)

      式(9)、(10)、(11)中,N為類別數(shù);n為真實(shí)類別;m為預(yù)測(cè)類別;pnn為類別預(yù)測(cè)正確點(diǎn)數(shù);pnm表示假負(fù)例點(diǎn)數(shù);pmn表示假正例點(diǎn)數(shù)。

      4.3 實(shí)驗(yàn)結(jié)果及分析

      4.3.1 對(duì)比實(shí)驗(yàn)

      (1)S3DIS

      在S3DIS數(shù)據(jù)集上采用6折交叉驗(yàn)證方法,總體精度、平均交并比和平均類精度作為度量指標(biāo)。表1為本文方法與其他方法的度量指標(biāo)對(duì)比。由表1可知,本文方法在總體精度、平均交并比和平均類精度優(yōu)于其他方法,并且在13個(gè)類別中的5類別(窗戶、椅子、沙發(fā)、木板和雜物)取得最佳性能。與RandLA-Net相比,本文方法在mIoU提高了3.1 %,與基礎(chǔ)網(wǎng)絡(luò)SCF-Net相比,mIoU提高了1.5 %,且在12個(gè)類別中的IoU均有提升。

      表1 不同方法在S3DIS數(shù)據(jù)集上的分割精度對(duì)比(單位:%)

      圖4為本文算法與SCF-Net網(wǎng)絡(luò)的可視化分割結(jié)果圖。其中圖4(a)為輸入點(diǎn)云,圖4(b)為SCF-Net方法的分割結(jié)果,圖4(c)為本文方法的分割結(jié)果,圖4(d)為參考標(biāo)準(zhǔn)。從上至下依次為房間1、房間2和房間3??梢钥闯?相較與SCF-Net,本文方法在物體的細(xì)節(jié)處取得了更好的分割效果。在房間1中,SCF-Net將桌腿錯(cuò)誤的劃分為了雜物,圓柱與墻面連接處劃分不夠平滑,造成了圓柱的局部丟失;在房間2中,SCF-Net對(duì)于門框與墻之間的邊界劃分的不夠清晰,且書架中的局部位置出現(xiàn)分割錯(cuò)誤;在房間3中,SCF-Net錯(cuò)誤地將顏色相近的雜物劃分為了桌子。而本文方法在以上位置取得了相對(duì)較好的分割效果,說(shuō)明多尺度監(jiān)督的引入加強(qiáng)了網(wǎng)絡(luò)局部信息挖掘能力,提升了各類目標(biāo)的輪廓分割能力,對(duì)于物體連接處的分割更加平滑。

      圖4 S3DIS數(shù)據(jù)集分割結(jié)果可視化對(duì)比

      (2)SemanticKITTI

      在SemanticKITTI測(cè)試集上的對(duì)比實(shí)驗(yàn)結(jié)果如表2所示。從表2可以看出,本文方法在點(diǎn)云的平均交并比上,相比基于投影的主流方法RangeNet53++提升了3.0 %,相較于基礎(chǔ)網(wǎng)絡(luò)SCF-Net提升了1.9 %。SCF-Net采用隨機(jī)采樣處理大規(guī)模點(diǎn)云數(shù)據(jù),利用SCF模塊學(xué)習(xí)空間上下文特征,逐步擴(kuò)大點(diǎn)的感受野范圍,防止丟失關(guān)鍵點(diǎn)信息。但對(duì)于稀疏性較大的SemanticKITTI數(shù)據(jù)集,隨機(jī)采樣無(wú)法避免丟失物體邊緣信息,導(dǎo)致網(wǎng)絡(luò)出現(xiàn)錯(cuò)誤分割。本文方法采用最遠(yuǎn)點(diǎn)采樣保留物體邊緣的完整,通過(guò)對(duì)多個(gè)尺度點(diǎn)云特征進(jìn)行監(jiān)督學(xué)習(xí),促使隱藏層學(xué)習(xí)到的特征易區(qū)分、更具魯棒性,增強(qiáng)網(wǎng)絡(luò)對(duì)物體邊緣的分割能力。

      表2 不同方法在SemanticKITTI數(shù)據(jù)集上的分割精度對(duì)比(單位:%)

      將SCF-Net與本文MSS-SCF-Net在SemanticKITTI的驗(yàn)證集上進(jìn)行可視化結(jié)果對(duì)比,如圖5所示??梢钥闯?SCF-Net錯(cuò)誤地將行人識(shí)別為騎腳踏車者,而又將騎腳踏車者辨別為行人以及騎機(jī)車者,這三者在外形上極其相似且體型較小,導(dǎo)致未能正確識(shí)別。并且對(duì)于形狀類似的植被和柵欄,SCF-Net也容易將其混淆。而本文方法對(duì)于上述情況均有改善,能夠正確識(shí)別行人與騎機(jī)車者這些小目標(biāo)物體。這得益于多尺度監(jiān)督的引入,加強(qiáng)網(wǎng)絡(luò)對(duì)隱層特征的學(xué)習(xí),提升對(duì)小目標(biāo)物體及相似物體的識(shí)別能力。

      圖5 SemanticKITTI數(shù)據(jù)集分割結(jié)果可視化對(duì)比

      4.3.2 消融實(shí)驗(yàn)

      為了定量評(píng)估多尺度監(jiān)督和最遠(yuǎn)點(diǎn)采樣的有效性,對(duì)這兩種方法不同組合進(jìn)行了消融實(shí)驗(yàn)。選取S3DIS數(shù)據(jù)集區(qū)域5為測(cè)試集,其他區(qū)域?yàn)橛?xùn)練集,結(jié)果如表3所示。(1)基線方法為SCF-Net,其采用的點(diǎn)云采樣算法為隨機(jī)采樣,在區(qū)域5的mIoU為63.4 %。隨機(jī)采樣算法的使用可能會(huì)導(dǎo)致某些關(guān)鍵點(diǎn)特征丟失,使得網(wǎng)絡(luò)對(duì)物體局部描述能力下降。(2)將基線方法的隨機(jī)采樣替換為最遠(yuǎn)點(diǎn)采樣后,網(wǎng)絡(luò)在區(qū)域5的mIoU提升為64.1 %,這是因?yàn)樽钸h(yuǎn)點(diǎn)采樣能夠更好覆蓋整個(gè)點(diǎn)云,不會(huì)導(dǎo)致物體某一部分經(jīng)過(guò)下采樣后丟失,有效保留目標(biāo)幾何結(jié)構(gòu),增強(qiáng)網(wǎng)絡(luò)特征提取能力以及穩(wěn)定性。(3)將多尺度監(jiān)督引入基線方法,使得網(wǎng)絡(luò)在區(qū)域5的mIoU提升為65.2 %,原因在于多尺度監(jiān)督引入了輔助分類器,能夠判斷隱藏層中點(diǎn)云特征圖質(zhì)量的好壞,促使隱藏層學(xué)習(xí)過(guò)程更加直接透明,網(wǎng)絡(luò)提取到語(yǔ)義明確的點(diǎn)云特征。(4)將多尺度監(jiān)督與最遠(yuǎn)點(diǎn)采樣算法組合使用,網(wǎng)絡(luò)模型的分割性能得到了進(jìn)一步改善,分割精度達(dá)到最好效果,在區(qū)域6的mIoU提升至65.8 %。

      表3 S3DIS區(qū)域5的消融實(shí)驗(yàn)結(jié)果

      實(shí)驗(yàn)進(jìn)一步探究了淺層和高層編碼特征對(duì)類別信息預(yù)測(cè)模塊的影響,如表4所示,當(dāng)只利用解碼特征去預(yù)測(cè)類別信息向量時(shí),網(wǎng)絡(luò)在區(qū)域5的mIoU為64.9 %。同時(shí)考慮解碼特征以及對(duì)應(yīng)的淺層和高層編碼特征,網(wǎng)絡(luò)在區(qū)域5的mIoU提升為65.8 %。淺層編碼特征擁有更為具體的空間信息,高層編碼特征擁有更為抽象的語(yǔ)義信息,二者的結(jié)合進(jìn)一步增強(qiáng)類別信息的預(yù)測(cè)精度,從而提高整個(gè)網(wǎng)絡(luò)的分割能力。

      表4 類別信息預(yù)測(cè)模塊消融實(shí)驗(yàn)結(jié)果

      5 結(jié) 語(yǔ)

      針對(duì)室內(nèi)以及室外大場(chǎng)景的語(yǔ)義分割,本文提出了一種結(jié)合多尺度監(jiān)督和SCF-Net的神經(jīng)網(wǎng)絡(luò),將解碼階段的點(diǎn)云類別預(yù)測(cè)任務(wù)分解成一系列點(diǎn)云感受野類別預(yù)測(cè)任務(wù),通過(guò)對(duì)解碼器中每一層進(jìn)行額外的監(jiān)督,以在分割任務(wù)中提取信息豐富語(yǔ)義明確的特征,進(jìn)一步提升網(wǎng)絡(luò)對(duì)各類物體的分割效果。針對(duì)SCF-Net采用隨機(jī)采樣算法可能導(dǎo)致關(guān)鍵信息丟失這一問(wèn)題,本文將其替換為最遠(yuǎn)點(diǎn)采樣算法,能夠更好的覆蓋整個(gè)點(diǎn)云,增強(qiáng)網(wǎng)絡(luò)對(duì)局部特征的提取能力。實(shí)驗(yàn)結(jié)果表明,多尺度監(jiān)督的引入能夠有效提高網(wǎng)絡(luò)整體分割精度,促使網(wǎng)絡(luò)隱藏層學(xué)習(xí)到的特征易區(qū)分、更具魯棒性,改善網(wǎng)絡(luò)對(duì)物體邊緣的分割效果。當(dāng)然,本文提出的網(wǎng)絡(luò)模型還有很多地方需要改善,如何進(jìn)一步簡(jiǎn)化模型、降低模型復(fù)雜度是下一步的工作重點(diǎn)。

      猜你喜歡
      解碼類別語(yǔ)義
      《解碼萬(wàn)噸站》
      語(yǔ)言與語(yǔ)義
      解碼eUCP2.0
      NAD C368解碼/放大器一體機(jī)
      Quad(國(guó)都)Vena解碼/放大器一體機(jī)
      “上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
      服務(wù)類別
      認(rèn)知范疇模糊與語(yǔ)義模糊
      論類別股東會(huì)
      商事法論集(2014年1期)2014-06-27 01:20:42
      中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
      荆门市| 贵德县| 敦煌市| 怀来县| 长宁区| 蓝山县| 苏尼特右旗| 浏阳市| 通化市| 武川县| 湘潭县| 镇安县| 彩票| 乃东县| 若羌县| 泽普县| 五大连池市| 临夏县| 梁山县| 阿瓦提县| 徐闻县| 镇平县| 武清区| 长治县| 监利县| 湘潭市| 武城县| 龙山县| 黑龙江省| 攀枝花市| 崇阳县| 山东| 德化县| 平阳县| 咸阳市| 象州县| 博客| 和平县| 双辽市| 建德市| 平顶山市|