• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      融合注意力機制的弱監(jiān)督迷彩偽裝目標(biāo)檢測算法

      2022-10-20 04:08:18權(quán)冀川梁新宇郭安文王中偉
      關(guān)鍵詞:注意力監(jiān)督特征

      楊 輝,權(quán)冀川,梁新宇,郭安文,王中偉

      (1.陸軍工程大學(xué) 指揮控制工程學(xué)院,江蘇 南京 210007;2.中國人民解放軍 73658部隊)

      0 引言

      軍事上采用迷彩偽裝的目的是隱蔽自己、欺騙敵人、提高戰(zhàn)場生存能力。相對于通用的目標(biāo)檢測任務(wù),圖像中的迷彩偽裝目標(biāo)與背景環(huán)境融合度較大,實現(xiàn)其目標(biāo)檢測任務(wù)更加困難。

      目前,對迷彩偽裝目標(biāo)檢測研究的工作較少。傳統(tǒng)的檢測方法主要把迷彩偽裝目標(biāo)看作是一種具有特殊紋理結(jié)構(gòu)的目標(biāo),并針對這一特性設(shè)計相應(yīng)算法提取迷彩紋理,從而實現(xiàn)迷彩偽裝目標(biāo)的檢測。Bhajantri等人[1]將目標(biāo)的迷彩偽裝紋理作為一類物體,然后對該類物體進行檢測。Sengottuvelan等人[2]通過圖像的結(jié)構(gòu)信息,確定圖像中是否存在迷彩偽裝目標(biāo)。Wu等人[3]根據(jù)目標(biāo)在三維凸面上的灰度差異來檢測迷彩偽裝目標(biāo)。盡管傳統(tǒng)方法可以實現(xiàn)對迷彩目標(biāo)的檢測,但該類方法僅利用了圖像的淺層特征信息,其檢測效果相對較差。

      近年來的研究工作主要是使用基于深度卷積神經(jīng)網(wǎng)絡(luò)的強監(jiān)督目標(biāo)檢測算法完成迷彩偽裝目標(biāo)的檢測任務(wù)。Deng等人[4]針對迷彩偽裝目標(biāo)的特性,在RetinaNet[5]算法的基礎(chǔ)上嵌入了空間注意力和通道注意力模塊。同時,基于定位置信得分構(gòu)建了新的預(yù)測框過濾算法,有效實現(xiàn)了對迷彩偽裝人員的檢 測。Wang等 人[6]以YOLO(You Only Look Once)v5算法為基礎(chǔ),設(shè)計了一種針對迷彩偽裝目標(biāo)的檢測算法,該算法在骨干網(wǎng)絡(luò)中加入了注意力機制,同時加入非對稱卷積模塊增強了目標(biāo)的語義信息,從而提升了迷彩偽裝目標(biāo)的檢測精度。雖然強監(jiān)督目標(biāo)檢測算法比傳統(tǒng)方法的檢測效果有了很大的提升,但該類算法模型需要在大規(guī)模標(biāo)注精度高的數(shù)據(jù)集上進行訓(xùn)練,檢測結(jié)果嚴重依賴于數(shù)據(jù)集標(biāo)注的精度。目前的數(shù)據(jù)集標(biāo)注工作主要是靠人工完成,而人工標(biāo)注在很大程度上容易受人的主觀因素影響,在軍事應(yīng)用領(lǐng)域很難獲得大規(guī)模的且標(biāo)注精度高的數(shù)據(jù)集。

      在軍事領(lǐng)域,受保密等特殊條件限制,很難構(gòu)建包含迷彩偽裝目標(biāo)的大規(guī)模圖片數(shù)據(jù)集。并且,圖片中的迷彩偽裝目標(biāo)與圖片背景的融合度較大,從本質(zhì)上增加了目標(biāo)檢測的難度。同時在人工標(biāo)注時也很容易造成誤標(biāo)或漏標(biāo),嚴重影響數(shù)據(jù)集的使用效果。若在小規(guī)模且標(biāo)注精度低的數(shù)據(jù)集上訓(xùn)練強監(jiān)督目標(biāo)檢測算法,則訓(xùn)練出來的模型對迷彩偽裝目標(biāo)的檢測效果會很不理想。而弱監(jiān)督目標(biāo)檢測算法可以很好地克服強監(jiān)督目標(biāo)檢測算法的這一局限性。弱監(jiān)督目標(biāo)檢測算法只需要帶有圖像級標(biāo)簽(不需要標(biāo)注出目標(biāo)在圖像中的具體位置,只需要標(biāo)明圖像中包含物體的類別)的數(shù)據(jù)集就能實現(xiàn)目標(biāo)檢測,大幅降低了對數(shù)據(jù)集標(biāo)注的要求。因此,弱監(jiān)督目標(biāo)檢測算法比強監(jiān)督目標(biāo)檢測算法具有更強的適應(yīng)能力。

      目前,基于類激活圖[7](Class Active Mapping,CAM)的模型是弱監(jiān)督目標(biāo)檢測算法(Weakly Supervised Object Detection,WSOD)中最常用的模型之一。然而,基于CAM的模型最初是針對分類任務(wù)進行訓(xùn)練的,其設(shè)計目標(biāo)與檢測算法不一致。具體來說,分類任務(wù)更加關(guān)注來卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)深層的具有語義意義的特征。相比之下,源自CNN淺層的特征包含的語義信息較少,但語義更加豐富。在細節(jié)上,淺層特征邊緣更清晰,失真更少。但由于以下兩個缺陷,淺層和深層特征的直接融合對于WSOD是無效的:(1)由于監(jiān)督信息不足,嵌入在淺層特征中的有意義的信息容易受到背景噪聲干擾;(2)在原始區(qū)域中只有最具有辨別力的區(qū)域被激活。

      為了克服上述缺陷,本文采用了一種簡單但有效的淺層特征感知偽監(jiān)督目標(biāo)定位[8](Shallow featureaware Pseudo supervised Object Localization,SPOL)算法來實現(xiàn)迷彩偽裝目標(biāo)檢測任務(wù)。該算法最大限度地嵌入淺層的低級特征,生成的CAM區(qū)域更加廣泛和清晰,在公共數(shù)據(jù)集中取得了最好的結(jié)果,如表1所示。

      表1 SPOL算法與其他主流算法在公共數(shù)據(jù)集上的實驗對比 (%)

      然而迷彩偽裝目標(biāo)與背景相似度大,導(dǎo)致SPOL算法在該類目標(biāo)上的檢測精度較低。針對這一問題,本文分別融合了卷積塊注意力模塊(Convolutional Block Attention Module,CBAM)[12]和SE(Squeeze-and-Excitation)[13]注意力模塊,使模型更加關(guān)注迷彩偽裝目標(biāo)所在的區(qū)域,以此提高模型提取特征的能力。實驗表明,加入CBAM模塊后,算法的檢測精度提高了4.29%;加入SE模塊后,算法的檢測精度提高了8.01%;同時加入CBAM模塊和SE模塊后,該指標(biāo)提高了7.23%,從而驗證了本文算法在弱監(jiān)督迷彩偽裝目標(biāo)檢測任務(wù)中的有效性。

      1 SPOL算法結(jié)構(gòu)

      SPOL算法模型主要包括兩個階段,CAM生成和與類別無關(guān)的分割,其算法流程如圖1所示(輸入圖像首先進入CAM生成模塊(即MFF-Net1)獲得初始的CAM。然后使用高斯分布先驗獲得高斯增強的CAM。同時,將產(chǎn)生的偽標(biāo)簽作為與類別無關(guān)的分割模塊(即MFF-Net2)的監(jiān)督)。在CAM生成階段,乘法特征融合網(wǎng)絡(luò)(Multiplicative Feature Fusion Net,MFF-Net)旨在聚合淺層和深層特征。與以往的融合方法不同,MFF-Net網(wǎng)絡(luò)中的特征以協(xié)同方式處理,即具有清晰背景的深層特征幫助抑制淺層的噪聲,而淺層具有豐富局部結(jié)構(gòu)的特征使對象邊界更清晰。在與類別無關(guān)的分割階段,使用高斯先驗偽標(biāo)簽(Gaussian Prior Pseudo Label,GPPL)模塊對初始的CAM進行細化,然后將其視為類不可知分割模塊訓(xùn)練的偽標(biāo)簽。具體來說,充分利用初始的整個CAM作為加權(quán)系數(shù),通過所有坐標(biāo)的均值和方差計算得到物體的權(quán)重。然后,可以生成具有均值和方差的高斯分布,稱為高斯先驗偽標(biāo)簽。結(jié)合GPPL和原始CAM,可以得到改善的CAM。為了進一步細化這些區(qū)域,通過使用組合的GPPL和CAM作為偽標(biāo)簽設(shè)計了一個與類別無關(guān)的分割模型,在訓(xùn)練階段,具有不同大小的CAM響應(yīng)區(qū)域?qū)⒎謩e被二值化為前景和背景。同時,使用兩個預(yù)定義的閾值,其他部分將被忽略以避免訓(xùn)練期間標(biāo)簽的沖突。訓(xùn)練結(jié)束后,與初始CAM相比,獲得的對象掩碼將更加完整。最后,邊界框提取器應(yīng)用于對象掩碼以獲得最終的目標(biāo)檢測結(jié)果。

      圖1 SPOL算法流程

      1.1 乘法特征融合

      多尺度特征融合常用于強監(jiān)督的目標(biāo)檢測[14]、語義分割[15]等任務(wù)。然而,這種策略對弱監(jiān)督目標(biāo)檢測任務(wù)無效。因為來自淺層的特征包含太多的背景噪聲。如果沒有強有力的監(jiān)督,淺層的特征就會被背景噪聲所掩蓋,對最終的預(yù)測幾乎沒有效果。因此,該算法采用MFF-Net網(wǎng)絡(luò)結(jié)構(gòu)(見圖2)濾除淺層特征的背景噪聲。首先以相同的分辨率(即H×W)對不同分支(即X、Y、Z)的特征進行采樣,然后通過逐元素乘法組合到后續(xù)的分類器中。

      圖2 MFF-Net網(wǎng)絡(luò)結(jié)構(gòu)

      與以前的方法不同,MFF-Net網(wǎng)絡(luò)結(jié)構(gòu)以協(xié)同方式處理淺層和深層特征,可以很好地利用淺層特征。為了詳細說明這一點,圖3介紹了四種具有不同監(jiān)督風(fēng)格的方法。具體來說,圖3(a)是原始分類模型(例如VGG[16]和ResNet50[17]),其中只有最后一層被監(jiān)督。因為淺層特征遠離監(jiān)督并受到梯度消失問題的影響,圖3(b)顯示了深度監(jiān)督模型,其中深層和淺層特征都被直接監(jiān)督以驅(qū)動網(wǎng)絡(luò)學(xué)習(xí)更好的表示。但是由于感受野有限,淺層特征的語義較少并引入了更多的噪聲。因此,這種直接監(jiān)督對弱監(jiān)督目標(biāo)檢測效果的幫助不大。與這些方法相比,特征融合提供了一種間接監(jiān)督的形式,即在監(jiān)督之前組合不同層的特征。

      圖3 不同監(jiān)督方式

      圖3(c)和方程(3)展示常用的加法融合策略。但是,它沒有考慮多尺度特征之間的相關(guān)性。如方程(4)所示,根據(jù)鏈?zhǔn)椒▌t,在計算網(wǎng)絡(luò)權(quán)重的梯度之前,特征相加對每個分支的梯度是相同的常數(shù),與其他分支沒有相關(guān)性。也就是說,當(dāng)一個分支出錯時,不會影響其他分支。在這種情況下,網(wǎng)絡(luò)無法很好地學(xué)習(xí)每個分支,即使淺層特征是錯誤的,預(yù)測也是可以接受的。雖然它可以在測試階段提高模型的穩(wěn)定性,但在訓(xùn)練階段卻降低了模型容量并增加了算法的訓(xùn)練難度。與其他方法不同,在MFF-Net中,不同的分支通過乘法運算進行強耦合,如式(1)所示。式(2)說明了X分支的梯度不是恒定的,而是與Y和Z分支相關(guān)的。這三個分支在訓(xùn)練過程中會相互影響。當(dāng)一個分支未能捕捉到優(yōu)越的表示時,乘法機制會放大其錯誤,最終導(dǎo)致預(yù)測的錯誤。也就是說,MFF-Net為網(wǎng)絡(luò)訓(xùn)練設(shè)置了強約束,其中每個分支都必須很好地學(xué)習(xí)表示。此外,在這種情況下,Y和Z依賴于X。當(dāng)X得到更好的表示時,Y和Z將得到增強。因此,它們的融合可以產(chǎn)生更準(zhǔn)確的預(yù)測。

      1.2 基于乘法的通道注意力機制

      卷積神經(jīng)網(wǎng)絡(luò)具有強大的特征提取能力,可以同時表示前景對象和非目標(biāo)背景特征。淺層特征的某些部分是不必要的,可以視為噪聲,會嚴重干擾最終預(yù)測。因此,如圖4所示,在不同層的特征融合之前,采用通道注意力粗略地過濾掉噪聲通道。區(qū)別于一次只關(guān)注一層的傳統(tǒng)通道注意力方法,該算法設(shè)計了一個基于乘法的通道注意力(Multiplication based Channel Attention,MCA)模塊同時處理各個層。

      圖4 MCA模塊

      具體來說,對于輸入的特征圖X∈RH1×W1×C1、Y∈RH2×W2×C2和Z∈RH3×W3×C3,首 先 利 用 全 局 平 均 池化層分別實現(xiàn)X1∈R1×C1、Y1∈R1×C2和Z1∈R1×C3,然后利用3個平行的1×1 Conv層將X1、Y1和Z1分別轉(zhuǎn)移到具有相同維度R1×C′的X2、Y2和Z2。最后,利用逐元素乘法融合得到潛在的特征向量V=X2·Y2·Z2,V∈R1×C′。這種潛在的特征向量表示不同層的特征的相互耦合。因此,可以將通道注意力同時應(yīng)用于多個層。在相反的方向上,潛在的特征向量通過Sigmoid激 活函數(shù)反饋到原始維度,即X3∈R1×C3、Y3∈R1×C3和Z3∈R1×C3?;赬3、Y3、Z3,MCA模 塊使用乘法運算實現(xiàn)對每個對應(yīng)層的通道注意。

      1.3 類不可知分割引導(dǎo)的弱監(jiān)督目標(biāo)定位

      由圖1可見,雖然MFF-Net1網(wǎng)絡(luò)結(jié)構(gòu)已經(jīng)產(chǎn)生了最初的CAM,但它只關(guān)注最具辨別力的區(qū)域,還不足以提取準(zhǔn)確的定位邊界框。為了解決這個問題,進一步提出了偽監(jiān)督類不可知分割模型,它利用了另一個MFF-Net2網(wǎng)絡(luò)結(jié)構(gòu)。這個與類別無關(guān)的分割模型,丟棄了類別信息,只關(guān)注定位信息,即輸出僅代表前景或背景。該模型由偽標(biāo)簽生成模塊和類別無關(guān)的分割模塊兩部分組成。

      (1)分割偽標(biāo)簽生成。首先,通過高斯先驗偽標(biāo)簽(GPPL)模塊補充CAM。CAM上的每個點(x,y)都被視為一個樣本。位置(x,y)處的響應(yīng)對應(yīng)于其權(quán)重,通過該設(shè)置,計算所有樣本的x和y之間的均值(μx,μy)、方 差和相關(guān)系數(shù)ρ。然后,利用這些參數(shù)生成二維高斯分布,如式(5)和式(6),有助于定位物體重心并覆蓋較寬的物體區(qū)域。

      然后將原始CAM與高斯增強的CAM集成在一起,采用元素最大值來獲得完整的預(yù)測。下一步,增強的CAM被進一步轉(zhuǎn)換為具有兩個預(yù)定義閾值的3個部分,即高置信度區(qū)域?qū)?yīng)于前景,低響應(yīng)區(qū)域?qū)?yīng)于背景,沖突區(qū)域?qū)?yīng)于低置信度區(qū)域。

      (2)類不可知分割和邊界框提取。在獲得前景和背景偽分割標(biāo)簽后,對類別無關(guān)的分割模型(即MFF-Net2)進行訓(xùn)練。雖然只有一部分圖像具有像素級標(biāo)簽,但分割模型可以捕獲類似的上下文并自動覆蓋前景。模型優(yōu)化好后,可以從類不可知分割的預(yù)測掩碼中提取邊界框。最終的預(yù)測結(jié)合了提取的邊界框和來自獨立分類器的分類預(yù)測。

      1.4 損失方程

      CAM的生成過程,除了應(yīng)用分類損失外,還應(yīng)用了附加損失。通過最后一個特征圖和融合的分類特征計算兩個損失,即Laux和Lcls,如圖2所示。這兩個損失都是使用交叉熵計算的。因此,聯(lián)合損失Lc=Lcls+Laux用于優(yōu)化MFF-Net1。 對于類不可知分割,應(yīng)用二元交叉熵損失來監(jiān)督分割模型,如式(7)所示。然而,除了沖突區(qū)域外,只考慮偽前景和背景區(qū)域。具體地,對于前景和背景,wij等于1,而對于那些沖突區(qū)域,wij設(shè)置為零。最終損失沖突區(qū)域被忽略以避免誤導(dǎo)網(wǎng)絡(luò)。

      其中pij和gij分別是位置(i,j)處的預(yù)測概率和真實標(biāo)簽。

      2 改進的SPOL算法

      由于迷彩偽裝目標(biāo)與圖像背景融合度較大,SPOL算法的檢測精度相對較低。為了更進一步提高模型的檢測精度,本文在MFF-Net網(wǎng)絡(luò)模型中融入了注意力模塊,使模型更加注重迷彩偽裝目標(biāo)所在的區(qū)域,以此增強模型提取特征的能力,得到包含偽裝目標(biāo)更全面的CAM,進而提高模型的檢測精度。

      2.1 融合CBAM模塊的SPOL算法

      2.1.1 CBAM模塊

      CBAM將通道注意力和空間注意力串聯(lián)起來,通過將通道注意力圖和空間注意力圖解耦以提高計算效率,并引入全局池化利用空間全局信息。模塊結(jié)構(gòu)如圖5所示。

      圖5 CBAM結(jié)構(gòu)

      CBAM模塊有兩個連續(xù)的子模塊,通道注意力和空間注意力。給定輸入的特征圖X∈RC×H×W,它依次推斷一維通道注意力向量sc∈RC和二維空間注意力圖ss∈RH×W。通道注意力子模塊采用兩種不同的池化操作來聚合全局信息。它有兩個并行分支,分別使用MaxPool和AvgPool操作:

      式中GAPs(·)和GMPs(·)表示空間域中的全局平均池化和全局最大池化操作。空間注意力子模塊對特征的空間關(guān)系進行建模,是對通道注意力子模塊的補充。與通道注意力不同,它利用具有大內(nèi)核的卷積層來生成注意力圖。

      其中Conv(·)表示卷積運算,而GAPc(·)和GMPc(·)是通道域中的全局平均池化和全局最大池化操作。[·]表示通道上的串聯(lián)。整個注意力過程可以概括為:

      CBAM模塊依次結(jié)合通道注意力和空間注意力,可以利用特征的空間和跨通道關(guān)系強調(diào)網(wǎng)絡(luò)關(guān)注什么以及關(guān)注哪里。即強調(diào)有用的通道以及增強信息豐富的本地區(qū)域。由于其輕量級設(shè)計,CBAM模塊可以無縫集成到任何CNN架構(gòu)中,附加成本可以忽略不計。

      2.1.2 融合CBAM模塊的MFF-Net網(wǎng)絡(luò)

      原始的MFF-Net網(wǎng)絡(luò)模型采用ResNet50網(wǎng)絡(luò)提取特征。雖然該網(wǎng)絡(luò)具有很強的特征提取能力,但是相比于通用的目標(biāo),迷彩偽裝目標(biāo)和背景融合度非常大。目標(biāo)在圖像中不易識別,從而增大了網(wǎng)絡(luò)提取目標(biāo)特征的難度。為了緩解這一問題帶來的影響,本文在ResNet50網(wǎng)絡(luò)中加入CBAM模塊,讓網(wǎng)絡(luò)更加注意迷彩偽裝目標(biāo)所在的區(qū)域,以此增強網(wǎng)絡(luò)的特征提取能力,增加的具體位置如圖6所示。

      圖6 融合CBAM模塊的ResNet50網(wǎng)絡(luò)結(jié)構(gòu)

      2.2 融合SE模塊的SPOL算法

      2.2.1 SE模塊

      SENet的核心是一個SE模塊,用于收集全局信息、捕獲通道關(guān)系和提高表示能力。SE模塊分為兩部分:擠壓模塊和激勵模塊,模塊結(jié)構(gòu)如圖7所示。

      圖7 SE模塊結(jié)構(gòu)

      擠壓模塊通過全局平均池化操作收集全局空間信息。激勵模塊使用全連接層和非線性層(ReLU和Sigmoid)捕獲通道關(guān)系并輸出注意力向量。然后,將輸入的特征向量與注意力向量中的相應(yīng)元素相乘來縮放輸入特征的每個通道。一個以X為輸入和Y為輸出的擠壓和激勵塊Fse(帶有參數(shù)θ)可以表述為:

      2.2.2 融合SE模塊的MFF-Net網(wǎng)絡(luò)

      盡管在ResNet50網(wǎng)絡(luò)中融合CBAM模塊后,增強了網(wǎng)絡(luò)提取特征的能力,從而提升了算法的檢測效果,但僅在網(wǎng)絡(luò)的STAGE 0模塊后加入CBAM模塊,這導(dǎo)致后續(xù)的幾個模塊在進行特征提取操作時無法著重關(guān)注迷彩偽裝目標(biāo)所在的區(qū)域。為了進一步利用注意力機制提高模型的檢測精度,本文在MFF-Net網(wǎng)絡(luò)模型的ResNet50中融入了SE模塊,加入的具體位置如圖8所示。

      圖8 融合SE模塊的ResNet50網(wǎng)絡(luò)結(jié)構(gòu)

      2.3 融合CBAM模塊和SE模塊的SPOL算法

      為進一步驗證融合注意力模塊后目標(biāo)檢測算法的有效性,以及比較不同注意力模塊對不同尺度目標(biāo)檢測效果的影響和作用,在上述研究的基礎(chǔ)上嘗試對兩種注意力模塊進行融合,改進形成的網(wǎng)絡(luò)結(jié)構(gòu)如圖9所示。

      圖9 融合CBAM模塊和SE模塊的ResNet50網(wǎng)絡(luò)結(jié)構(gòu)

      3 實驗分析

      3.1 數(shù)據(jù)集

      實驗采用的目標(biāo)圖像來源于課題組自建數(shù)據(jù)集CSS[18],該數(shù)據(jù)集包含雨林、叢林、雪地和山地4種野外環(huán)境下多類型的迷彩偽裝目標(biāo)。從實際戰(zhàn)場偵察角度看,CSS數(shù)據(jù)集涵蓋了不同場景、不同天候、不同迷彩類型的多尺度偽裝目標(biāo),可以滿足多種迷彩偽裝目標(biāo)檢測識別的實驗需求。為了滿足弱監(jiān)督迷彩偽裝目標(biāo)檢測算法訓(xùn)練和測試的要求,本文在CSS數(shù)據(jù)集的基礎(chǔ)上進行了篩選與重新標(biāo)注,構(gòu)建了一個適合弱監(jiān)督目標(biāo)檢測算法的數(shù)據(jù)集。該數(shù)據(jù)集的訓(xùn)練集由6 100張迷彩偽裝目標(biāo)圖像組成,其中包括1 000張大目標(biāo)圖像、2 100張中目標(biāo)圖像以及3 000張小目標(biāo)圖像。為了更好地驗證本文設(shè)計的算法的有效性,構(gòu)建了兩個測試集用于算法的驗證:第一個測試集由350張迷彩偽裝目標(biāo)圖像組成,只包含大目標(biāo)和中目標(biāo)的圖像;第二個測試集包括大目標(biāo)、中目標(biāo)、小目標(biāo)三個子集,三個子集都由100張迷彩偽裝目標(biāo)圖像組成。其中,將目標(biāo)所占像素點與全圖像素點數(shù)量的百分比作為定義目標(biāo)尺度的依據(jù)。小目標(biāo)所占像素點與全圖像素點數(shù)量的比值小于或等于1%;中目標(biāo)所占像素點與全圖像素點數(shù)量的比值在1%到3%之間;大目標(biāo)所占像素點與全圖像素點數(shù)量的比值大于3%,圖10展示了不同尺度目標(biāo)的圖像樣本。

      圖10 多尺度目標(biāo)圖像樣本

      3.2 實驗環(huán)境

      搭建實驗環(huán)境,使用的服務(wù)器操作系統(tǒng)為Ubuntu18.04,使用的應(yīng)用軟件環(huán)境及工具包包含CUDA、Python3.8等,使用PyTorch深度學(xué)習(xí)框架進行實驗。實驗所用的硬件設(shè)備配置如表2所示,訓(xùn)練算法模型時的重要參數(shù)設(shè)置如表3所示。

      表2 實驗硬件環(huán)境配置

      表3 訓(xùn)練參數(shù)列表

      3.3 評價指標(biāo)

      常用的弱監(jiān)督目標(biāo)檢測評價指標(biāo)有以下三種:

      (1)Top-1定位精度(Top-1 Loc):預(yù)測的物體類別必須和物體的真實類別相同,且預(yù)測邊界框與真實框的交并比的(Intersection-over-Union,IoU)數(shù)值超過50%,即預(yù)測邊界框與真實框的重合率超過50%的比例。

      (2)Top-5定位精度(Top-5 Loc):對于預(yù)測的物體類別,取可能性最高的5類,只要這5類中包含物體的真實類別,就算分類正確。同時,預(yù)測的邊界框與真實框的IoU數(shù)值超過50%的比例。

      (3)GT-known定位精度(GT-known Loc):預(yù)測邊界框與真實框的IoU數(shù)值超過50%的比例。

      本文是在迷彩偽裝目標(biāo)數(shù)據(jù)集上進行的對比實驗,該數(shù)據(jù)集只有單類物體,故采用Top-1 Loc和GT-known Loc作為目標(biāo)檢測結(jié)果的評價標(biāo)準(zhǔn)。

      3.4 改進算法的實驗結(jié)果

      表4比較了改進算法與原始算法在弱監(jiān)督迷彩偽裝目標(biāo)圖像數(shù)據(jù)集上的實驗結(jié)果,采用的是大、中尺度目標(biāo)混合的驗證集。其中,CBAM-SPOL表示融合CBAM模塊的檢測算法,SE-SPOL表示融合SE模塊的檢測算法,CBAM-SE-SPOL表示同時融合了CBAM模塊和SE模塊的檢測算法。

      表4 不同算法的實驗結(jié)果對比 (%)

      由表4可見,融合注意力模塊后,算法的檢測精度比原始算法的檢測精度有比較明顯的提升。其中,加入CBAM模塊后,Top-1 Loc評價指標(biāo)提高了4.29%;加入SE模塊后,該指標(biāo)提高了8.01%。然而,同時加入CBAM模塊和SE模塊后,該指標(biāo)提高了7.23%,僅比只加入CBAM模塊提高2.94%,而比只加入SE模塊時降低0.78%。主要原因是,同時融合CBAM模塊和SE模塊后,在模型訓(xùn)練過程中,當(dāng)輸入圖像通過CBAM模塊時,模型會選擇性地丟棄一些不重要的信息,導(dǎo)致后續(xù)的SE模塊局限于關(guān)注CBAM模塊保留的特征信息,從而在一定程度上降低了模型提取特征的能力。但總體來說,加入注意力模塊后的MFF-Net網(wǎng)絡(luò)比原始的MFF-Net網(wǎng)絡(luò)能夠提取到更多的有效特征,可增強算法對隱蔽性高的迷彩偽裝目標(biāo)的檢測能力。

      為了驗證注意力模塊對各種尺度迷彩偽裝目標(biāo)檢測效果的影響,分別采用含有的大目標(biāo)、中目標(biāo)、小目標(biāo)圖像的子驗證集對上述四種算法進行再次驗證,并使用Top-1 Loc作為實驗結(jié)果的評價指標(biāo),實驗結(jié)果如表5所示。

      表5 不同算法對多尺度目標(biāo)的檢測結(jié)果對比 (%)

      從表5中看出,對于三種不同尺度的迷彩偽裝目標(biāo)圖像,融合注意力模塊后的算法比原始SPOL算法的檢測效果都有明顯提升。綜合比較得出,SE-SPOL算法對大目標(biāo)圖像的檢測效果最好,Top-1 Loc評價指標(biāo)提高了18.18%;CBAM-SE-SPOL算法對中目標(biāo)圖像的檢測效果有顯著的提升,評價指標(biāo)比原始SPOL算法提高了23.21%;同時,CBAM-SESPOL算法對小目標(biāo)圖像檢測效果的提升也很明顯,評價指標(biāo)提高了6.90%。產(chǎn)生上述對比效果的主要原因是:(1)大目標(biāo)在圖像中所占的像素點數(shù)量多,SE通道注意力本身對大目標(biāo)的特征提取能力很強,而CBAM模塊和SE模塊的融合,反而會使模型丟失一些迷彩偽裝目標(biāo)的特征信息,所以當(dāng)數(shù)據(jù)集主要包含大目標(biāo)圖像時,更適合用SE-SPOL算法進行檢測。(2)中目標(biāo)和小目標(biāo)在圖像中所占的像素點數(shù)量相對較少,先通過CBAM模塊使模型關(guān)注這兩類目標(biāo)在圖像中的大致區(qū)域,然后利用SE模塊進一步加強模型對這些區(qū)域的特征提取能力,會顯著改善檢測效果;所以當(dāng)數(shù)據(jù)集主要包含中目標(biāo)或小目標(biāo)時,更適合用CBAM-SE-SPOL算法進行檢測。(3)小目標(biāo)在圖像中所占像素點數(shù)量太少,同時迷彩偽裝目標(biāo)與圖像背景相似度較高,采用的圖像級標(biāo)簽不含目標(biāo)的位置信息,三點原因綜合起來會導(dǎo)致模型訓(xùn)練時很難學(xué)習(xí)到小目標(biāo)的特征。因此,雖然改進算法也能明顯改善對小目標(biāo)的檢測效果,但檢測精度還有很大的提升空間。

      3.5 目標(biāo)檢測效果分析

      圖11展示了原始算法與加入不同注意力模塊的改進算法生成的像素級偽標(biāo)簽的比較結(jié)果。從圖中可以看出,加入注意力模塊后,改進算法生成的偽標(biāo)簽圖像比SPOL算法更加清晰,覆蓋的目標(biāo)像素點更多??梢姡倪M算法中的MFF-Net2網(wǎng)絡(luò)可以學(xué)習(xí)到更全面的目標(biāo)信息,進而提升了模型的檢測精度。

      圖11 偽標(biāo)簽比較

      圖12對比了改進算法和原始算法的檢測效果。從第1行到第3行分別為大目標(biāo)圖像、中目標(biāo)圖像以及小目標(biāo)圖像。圖中,綠色方框表示目標(biāo)的真實框,紅色方框表示算法的預(yù)測邊界框,紅色數(shù)值為目標(biāo)檢測的IoU比值。對比可見,本文提出的改進算法模型對目標(biāo)的預(yù)測邊界框更加準(zhǔn)確,預(yù)測邊界框與真實框的IoU比值更大,說明預(yù)測結(jié)果與真實情況更加接近。其中,SE-SPOL算法對大目標(biāo)的檢測效果最好,IoU比值最高;CBAM-SE-SPOL算法對中、小目標(biāo)的檢測效果最好。

      圖12 檢測效果比較

      4 結(jié)論

      本文以弱監(jiān)督目標(biāo)定位任務(wù)中的SPOL算法為基礎(chǔ),針對迷彩偽裝目標(biāo)圖像這一類特殊場景,在算法中加入注意力模塊,加強模型對迷彩偽裝目標(biāo)的特征提取能力。不同算法間的實驗結(jié)果對比表明:本文的算法比原始算法在檢測精度上得了到較大的提升。下一步的研究工作是針對實際場景中大量存在的模糊圖像,研究采用去模糊算法對圖像進行增強,以進一步提高模型的檢測精度。

      猜你喜歡
      注意力監(jiān)督特征
      讓注意力“飛”回來
      突出“四個注重” 預(yù)算監(jiān)督顯實效
      如何表達“特征”
      不忠誠的四個特征
      抓住特征巧觀察
      監(jiān)督見成效 舊貌換新顏
      “揚眼”APP:讓注意力“變現(xiàn)”
      傳媒評論(2017年3期)2017-06-13 09:18:10
      夯實監(jiān)督之基
      A Beautiful Way Of Looking At Things
      監(jiān)督宜“補”不宜“比”
      浙江人大(2014年4期)2014-03-20 16:20:16
      怀宁县| 富民县| 德州市| 永春县| 江津市| 海晏县| 镇远县| 哈巴河县| 调兵山市| 普洱| 襄汾县| 嘉荫县| 宣城市| 南安市| 广平县| 长子县| 辽中县| 拜泉县| 西乌珠穆沁旗| 靖江市| 怀仁县| 岢岚县| 木里| 墨脱县| 武鸣县| 广东省| 琼结县| 岱山县| 博野县| 荥阳市| 浮山县| 遂川县| 馆陶县| 金沙县| 扎囊县| 时尚| 蒙山县| 阳高县| 郴州市| 定兴县| 鹿邑县|