• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于多感知融合的遙感影像檢測(cè)算法

      2024-09-16 00:00:00何中良趙良軍寧峰席裕斌梁剛
      無(wú)線電工程 2024年8期
      關(guān)鍵詞:遙感影像目標(biāo)檢測(cè)深度學(xué)習(xí)

      摘要:針對(duì)遙感影像復(fù)雜背景和小目標(biāo)檢測(cè)困難的問(wèn)題,提出了一種基于多感知融合的檢測(cè)算法YOLO-GT。為了提升特征圖中小目標(biāo)的特征信息,設(shè)計(jì)了包含3種感知機(jī)制的檢測(cè)頭Adaptive Scale-Aware Dynamic Head(ASADH);引入輕量級(jí)上采樣算子Content-Aware ReAssembly of Features(CARAFE),解決語(yǔ)義信息丟失問(wèn)題,提升特征金字塔網(wǎng)絡(luò)性能;為進(jìn)一步優(yōu)化模型的訓(xùn)練速度和定位精度,采用了Wise-IoU作為損失函數(shù)。實(shí)驗(yàn)結(jié)果在DIOR數(shù)據(jù)集上顯示,模型精度達(dá)90.4%,比原算法提高2.1%。這些改進(jìn)有效提高了復(fù)雜背景下遙感影像小目標(biāo)的檢測(cè)性能。","Introduction":"","Columns":"測(cè)控遙感與導(dǎo)航定位","Volume":"","Content":"

      關(guān)鍵詞:遙感影像;目標(biāo)檢測(cè);多感知融合;深度學(xué)習(xí)

      0引言

      遙感技術(shù)和深度學(xué)習(xí)的快速發(fā)展使遙感影像檢測(cè)在多領(lǐng)域廣泛應(yīng)用,旨在自動(dòng)識(shí)別和定位建筑物、道路和植被等感興趣的目標(biāo),在農(nóng)業(yè)、環(huán)境監(jiān)測(cè)、森林資源管理、工程安全和自然災(zāi)害監(jiān)測(cè)等方面有重要價(jià)值。近年來(lái),深度學(xué)習(xí)推動(dòng)了目標(biāo)檢測(cè)技術(shù)革新,涌現(xiàn)出一系列卓越算法。與傳統(tǒng)方法相比,這些算法在處理復(fù)雜場(chǎng)景、多類別目標(biāo)和遮擋等方面取得了突破。基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法主要分為一階段算法(如OverFeat、RetinaNet和YOLO系列等)和兩階段算法(如SPPnet、Fast R-CNN和Faster R-CNN),它們?cè)谀繕?biāo)檢測(cè)的流程和設(shè)計(jì)思路上存在一些區(qū)別。

      一階段算法直接從輸入圖像中預(yù)測(cè)目標(biāo)位置和類別,無(wú)需生成候選框,通過(guò)單次前向傳播實(shí)現(xiàn)目標(biāo)檢測(cè),檢測(cè)速度快,適合實(shí)時(shí)應(yīng)用。兩階段算法包括生成候選框和分類目標(biāo)2個(gè)步驟。生成候選框后,利用分類器進(jìn)行精確分類和位置調(diào)整,進(jìn)而提高檢測(cè)精度。此方法尤其適合精細(xì)定位和分類任務(wù)。

      盡管遙感影像檢測(cè)有廣泛的應(yīng)用前景,但仍存在挑戰(zhàn)。主要問(wèn)題在于背景復(fù)雜干擾以及小目標(biāo)檢測(cè)困難。復(fù)雜背景如山脈、水體等,而小目標(biāo)通常有低分辨率、低對(duì)比度和低信噪比,這些都增加了檢測(cè)難度。為應(yīng)對(duì)這些問(wèn)題,研究人員提出了創(chuàng)新方法。例如,張寅等提出了一種基于特征融合和注意力機(jī)制的算法,用于遙感圖像的小目標(biāo)檢測(cè)。該算法的目的是解決小目標(biāo)檢測(cè)中特征信息不足和定位困難的問(wèn)題。它通過(guò)增強(qiáng)特征模塊(Feature Enhance-ment Module,F(xiàn)EM)融合低層級(jí)特征圖的多重感受野特征來(lái)增強(qiáng)主干網(wǎng)絡(luò)的目標(biāo)特征提取能力,同時(shí)利用FEM增強(qiáng)小目標(biāo)的特征信息。這種算法在小目標(biāo)檢測(cè)任務(wù)中具有重要的應(yīng)用價(jià)值。馬梁等針對(duì)遙感圖像中小目標(biāo)容易受到復(fù)雜背景干擾、通用檢測(cè)算法效果不佳以及相關(guān)數(shù)據(jù)集不足等問(wèn)題提出了一種解決方案。首先,設(shè)計(jì)了一種輕量化特征提取模塊,該模塊基于動(dòng)態(tài)選擇機(jī)制,能夠自適應(yīng)地調(diào)整神經(jīng)元的感受野大小。其次,為了更好地利用不同尺度特征傳遞的信息,引入了基于自適應(yīng)特征加權(quán)融合的特征金字塔模塊,通過(guò)分組卷積的方式對(duì)各特征通道進(jìn)行分組處理,以進(jìn)一步提高圖像特征的表達(dá)準(zhǔn)確性。這些方法的結(jié)合旨在解決遙感圖像小目標(biāo)檢測(cè)問(wèn)題,從而改善檢測(cè)結(jié)果的準(zhǔn)確性和穩(wěn)定性。張上等提出了一種針對(duì)無(wú)人機(jī)遙感圖像的小目標(biāo)檢測(cè)算法,該算法輕量化且高效,通過(guò)對(duì)特征提取網(wǎng)絡(luò)和特征融合網(wǎng)絡(luò)進(jìn)行多尺度特征融合,并對(duì)感受野進(jìn)行重要改進(jìn)。這一改進(jìn)包括輕量化處理網(wǎng)絡(luò)結(jié)構(gòu)、突出底層特征圖的權(quán)重、深化多尺度特征融合,并增加小感受野,以實(shí)現(xiàn)底層和深層語(yǔ)義信息的融合,從而使模型輕量的同時(shí)提高了檢測(cè)精度。此外,還引入了EIoU來(lái)強(qiáng)調(diào)高質(zhì)量樣本的權(quán)重,并采用VariFocal Loss來(lái)在損失計(jì)算中強(qiáng)調(diào)底層正例樣本信息特征的重要性。這一算法旨在解決遙感圖像檢測(cè)的特定問(wèn)題。以上文獻(xiàn)都取得了不錯(cuò)的檢測(cè)效果,然而,在遙感影像中,由于背景往往具有復(fù)雜的紋理.結(jié)構(gòu)和噪聲,目標(biāo)物體的定位和識(shí)別仍然受到干擾。對(duì)于在復(fù)雜背景中多尺度遙感小目標(biāo)的檢測(cè)性能,仍有提升的潛力。因此,如何有效提取淺層語(yǔ)義信息以減少誤檢率和漏檢率的問(wèn)題成為當(dāng)前面對(duì)的挑戰(zhàn)。

      本文改進(jìn)了YOLOv8,提出了YOLO-GT目標(biāo)檢測(cè)算法,以解決復(fù)雜背景和小目標(biāo)檢測(cè)問(wèn)題。使用Adaptive Scale-Aware Dynamic Head(ASADH)多感知融合檢測(cè)頭適應(yīng)不同尺度物體,并得到更豐富的特征信息。采用Content-Aware ReAssembly of Features(CARAFE)輕量級(jí)上采樣,并以Wise-IoU替換CIoU作為定位損失函數(shù),提高了定位精度和訓(xùn)練速度。

      1YOLOv8目標(biāo)檢測(cè)模型

      YOLOv8代表了You Only Look Once(YOLO)系列的最新進(jìn)展,不僅具有高精度的目標(biāo)檢測(cè)能力,還能夠在實(shí)時(shí)或高速環(huán)境下執(zhí)行任務(wù)。YOLOv8引入了一系列重要的改進(jìn)和創(chuàng)新,使其在性能和效率方面取得了顯著進(jìn)步,提供了多種模型選擇,包括P5640 pixel和P6 1280 pixel的目標(biāo)檢測(cè)網(wǎng)絡(luò),以及不同尺度的模型,如N/S/M/L/X,以滿足不同應(yīng)用場(chǎng)景的需求。這種多樣性使YOLOv8非常靈活,可以應(yīng)用于各種目標(biāo)檢測(cè)任務(wù)。

      如圖1所示,YOLOv8模型分為3個(gè)主要部分:輸入端、骨干網(wǎng)絡(luò)以及頭部網(wǎng)絡(luò)。輸入端標(biāo)準(zhǔn)化圖像分辨率為640 pixelx640 pixel,骨干網(wǎng)絡(luò)采用C2f結(jié)構(gòu),將來(lái)自高層網(wǎng)絡(luò)的語(yǔ)義特征與來(lái)自低層的細(xì)節(jié)特征進(jìn)行有效的融合。頭部網(wǎng)絡(luò)包括頸部(Neck)和檢測(cè)頭(Detect)兩部分,頸部在網(wǎng)絡(luò)中扮演著特征提取和調(diào)整的角色,它進(jìn)一步處理特征圖以提高分辨率。檢測(cè)頭包括分類器和回歸器,利用頸部的特征輸出,進(jìn)行分類和位置預(yù)測(cè)。這個(gè)整體結(jié)構(gòu)協(xié)同工作,使YOLOv8能夠高效地檢測(cè)目標(biāo)??偟膩?lái)說(shuō),YOLOv8代表了YOLO系列的最新巨大進(jìn)展,為目標(biāo)檢測(cè)領(lǐng)域提供了一個(gè)強(qiáng)大的工具,具備高精度和高速度的性能,適用于各種計(jì)算機(jī)視覺(jué)應(yīng)用,包括自動(dòng)駕駛、視頻監(jiān)控、圖像識(shí)別、目標(biāo)跟蹤和實(shí)時(shí)分析等,能夠滿足不同應(yīng)用場(chǎng)景的需求。

      2算法改進(jìn)

      針對(duì)遙感影像復(fù)雜背景干擾和小目標(biāo)檢測(cè)效果較差等問(wèn)題,對(duì)YOLOv8基礎(chǔ)模型進(jìn)行優(yōu)化改進(jìn),改進(jìn)后的主要框架如圖2所示。

      2.1基于多感知融合的ASADH

      復(fù)雜的目標(biāo)檢測(cè)場(chǎng)景對(duì)目標(biāo)檢測(cè)頭提出了更高的要求。為了應(yīng)對(duì)這些挑戰(zhàn),目標(biāo)檢測(cè)頭需要具備高效檢測(cè)不同尺度物體的能力,以便能夠準(zhǔn)確地識(shí)別和定位各種大小的目標(biāo)。在這一背景下,本文提出了一種全新的檢測(cè)頭——ASADH。受DynamicHead的啟發(fā),本文在特征層級(jí)、空間位置和輸出通道之間無(wú)縫集成了多個(gè)自注意機(jī)制,從而實(shí)現(xiàn)了尺度感知、空間位置感知和任務(wù)感知的多感知融合。與傳統(tǒng)的目標(biāo)檢測(cè)頭相比,本方法充分利用了多尺度特征金字塔和自適應(yīng)注意力權(quán)重,允許模型在不同尺度上進(jìn)行特征提取和感知,使得小目標(biāo)的細(xì)節(jié)信息能夠得到更好的保留和利用,也讓模型能夠更加準(zhǔn)確地捕捉目標(biāo)的不同尺度和空間上下文信息,從而顯著提高了檢測(cè)性能。

      ASADH實(shí)現(xiàn)了多感知融合。具體來(lái)說(shuō),它包括3個(gè)關(guān)鍵模塊:尺度感知模塊、空間感知模塊和任務(wù)感知模塊。圖3展示了ASADH模塊。

      本文在尺度感知模塊添加了空洞空間卷積池化金字塔(Atrous Spatial Pyramid Pooling,ASPP)結(jié)構(gòu),ASPP從不同尺度提取輸入特征,然后將所獲取的特征進(jìn)行融合。通過(guò)這種設(shè)計(jì),使深度學(xué)習(xí)網(wǎng)絡(luò)能夠具備多樣化的感受野.進(jìn)而在多尺度上全面捕獲上下文信息。這種特性使得網(wǎng)絡(luò)在處理復(fù)雜場(chǎng)景時(shí),展現(xiàn)出更強(qiáng)大的感知和理解能力。通過(guò)ASPP進(jìn)行多尺度特征融合,將融合后的特征應(yīng)用于原始特征上,最終輸出經(jīng)過(guò)尺度注意加權(quán)的特征信息。經(jīng)過(guò)Hard Sigmoid激活函數(shù)的處理,特征圖之間完成了尺度感知。之后,經(jīng)過(guò)尺度感知處理的特征圖被送入空間感知模塊進(jìn)行進(jìn)一步處理。在這個(gè)模塊中,利用一個(gè)3x3卷積操作獲得特征圖的偏移量和特征圖偏移量的權(quán)重項(xiàng)。然后,通過(guò)一種自學(xué)習(xí)偏移量的可變形卷積對(duì)空間位置進(jìn)行采樣,實(shí)現(xiàn)了空間感知。并且,為了增強(qiáng)空間感知能力,本文引入了多尺度的特征金字塔,通過(guò)添加多個(gè)尺度的動(dòng)態(tài)卷積層,結(jié)合不同尺度的特征圖進(jìn)行融合??梢哉{(diào)整特征金字塔中的尺度范圍,確保特征金字塔包含適當(dāng)?shù)某叨龋圆蹲降竭b感影像中重要的空間信息。

      最后,在任務(wù)感知模塊中,針對(duì)特征圖的C維度(通道維度),利用非線性激活函數(shù)ReLU來(lái)調(diào)整特征圖的通道值。同時(shí),引入了自適應(yīng)的注意力權(quán)重參數(shù)和偏置參數(shù)。模型可以學(xué)習(xí)每個(gè)通道的注意力權(quán)重,并根據(jù)輸入數(shù)據(jù)的不同特征進(jìn)行動(dòng)態(tài)調(diào)整。這使模型能夠在任務(wù)感知階段更靈活地對(duì)不同通道進(jìn)行權(quán)重調(diào)整,以實(shí)現(xiàn)對(duì)特征圖的任務(wù)感知處理。通過(guò)這樣的多感知融合,ASADH能夠充分利用尺度、空間位置和任務(wù)之間的關(guān)系,提高模型的感知能力和泛化能力。具體表達(dá)式為:

      2.2輕量級(jí)上采樣算子CARAFE

      在卷積神經(jīng)網(wǎng)絡(luò)中,特征提取是一個(gè)至關(guān)重要的步驟,通過(guò)對(duì)輸入圖像進(jìn)行一系列卷積操作來(lái)提取圖像的高級(jí)特征。然而,這個(gè)過(guò)程中不可避免地會(huì)導(dǎo)致輸出圖像的尺寸減小。這種尺寸減小是為了提取更抽象的特征并表示圖像的更高級(jí)別信息。然而,在某些情況下,減小的尺寸可能不適合直接用于后續(xù)任務(wù)或應(yīng)用。為了應(yīng)對(duì)該問(wèn)題,需要將提取的特征圖恢復(fù)至原始尺寸,這一過(guò)程稱為上采樣操作。通過(guò)上采樣,特征圖不僅可以還原為原始圖像的尺寸,還能輔助深度學(xué)習(xí)模型捕捉更豐富的空間細(xì)節(jié),進(jìn)而提升預(yù)測(cè)的精確度。目前,上采樣過(guò)程中廣泛采用的方法包括插值上采樣與反卷積上采樣。

      插值上采樣方法僅根據(jù)像素位置信息確定上采樣核,未充分利用特征圖的語(yǔ)義信息,而且其感知域通常較小。反卷積上采樣方法在處理特征圖時(shí),對(duì)每個(gè)位置都使用相同的上采樣核,無(wú)法有效捕捉到特征圖的具體內(nèi)容信息。為了解決這些問(wèn)題,引入了CARAFE來(lái)替代YOLOv8模型中的原始上采樣模塊。它是一種輕量級(jí)的上采樣操作,能夠更好地利用特征圖的語(yǔ)義信息,并擴(kuò)大感受野以進(jìn)行數(shù)據(jù)特征融合。CARAFE主要包含上采樣核預(yù)測(cè)模塊和特征重組模塊。首先,給定一個(gè)上采樣倍率,將輸入形狀為HxWXC的特征圖進(jìn)入核預(yù)測(cè)模塊,用以預(yù)測(cè)出上采樣核;然后,上采樣核被應(yīng)用于特征重組模塊,對(duì)輸入特征圖進(jìn)行上采樣操作;最后,生成形狀為o-Hxo-WxC的特征圖。

      在上采樣核預(yù)測(cè)模塊中,為了降低后續(xù)計(jì)算的復(fù)雜性,先對(duì)輸入特征圖進(jìn)行通道數(shù)壓縮,將通道數(shù)從C減小到C。然后,利用卷積層進(jìn)行上采樣核的預(yù)測(cè)和內(nèi)容編碼。通過(guò)卷積層的計(jì)算,可以得到用于上采樣的核函數(shù),從而實(shí)現(xiàn)對(duì)特征圖的尺度變換和精細(xì)化處理,其中輸入通道數(shù)為C,輸出通道數(shù)為。然后,將上采樣核在空間維度展開(kāi),最終得到形狀為的上采樣核。

      隨后,特征重組模塊將執(zhí)行特征映射操作,確保輸出特征圖中的每個(gè)位置都能與輸入特征圖上的相應(yīng)位置準(zhǔn)確匹配。這一操作確保了目標(biāo)位置的準(zhǔn)確性。進(jìn)一步地,在該映射位置為中心的區(qū)域,會(huì)與預(yù)測(cè)的上采樣核進(jìn)行點(diǎn)積運(yùn)算,以求得相應(yīng)的輸出值。這種設(shè)計(jì)不僅提高了計(jì)算效率,還因?yàn)橄嗤恢玫牟煌ǖ拦蚕硗簧喜蓸雍耍瑴p少了計(jì)算冗余。最終,獲得了形狀為的輸出特征圖。CARAFE相對(duì)于傳統(tǒng)方法具有更高的性能和更強(qiáng)的特征表征能力,并且當(dāng)引入較大的上采樣核時(shí),只會(huì)引入較少的參數(shù)和計(jì)算代價(jià)。CARAFE結(jié)構(gòu)如圖4所示。

      2.3基于動(dòng)態(tài)非單調(diào)聚焦機(jī)制的邊界框損失

      由于遙感影像通常具有復(fù)雜的背景紋理、結(jié)構(gòu)和噪聲,這些因素可能會(huì)對(duì)目標(biāo)物體的定位和識(shí)別造成干擾,從而降低檢測(cè)精度。為應(yīng)對(duì)這一挑戰(zhàn),本文考慮針對(duì)損失函數(shù)進(jìn)行改進(jìn)。在YOLOv8模型中采用了DFL Loss+CIoU Loss作為邊界框回歸損失函數(shù),重點(diǎn)關(guān)注CIoU損失,其計(jì)算公式如下:

      相較于傳統(tǒng)的IoU指標(biāo),CIoU在評(píng)估邊界框相似度時(shí),納入了中心點(diǎn)距離和寬高比差異等因素,從而實(shí)現(xiàn)了更準(zhǔn)確的評(píng)估。傳統(tǒng)的IoU指標(biāo)對(duì)于邊界框之間的尺寸差異比較敏感,而CIoU在考慮尺寸差異的同時(shí),提供了更平衡的相似度度量。然而,相較于傳統(tǒng)的IoU指標(biāo),CIoU的計(jì)算復(fù)雜度更高。由于CIoU考慮了更多因素,包括中心點(diǎn)距離和寬高比差異等,需要進(jìn)行更多的計(jì)算操作,從而導(dǎo)致計(jì)算時(shí)間較長(zhǎng)。而且CIoU使用的是單調(diào)聚焦機(jī)制。在訓(xùn)練過(guò)程中,該機(jī)制假設(shè)訓(xùn)練數(shù)據(jù)中存在較高質(zhì)量的示例,并致力于強(qiáng)化邊界框損失的擬合能力。然而,如果目標(biāo)檢測(cè)訓(xùn)練集中包含低質(zhì)量示例,例如模糊的、部分遮擋的或不正確標(biāo)記的樣本,過(guò)度強(qiáng)調(diào)對(duì)這些低質(zhì)量示例的邊界框回歸可能會(huì)降低模型的檢測(cè)性能。因此本文采用WIoU作為邊框回歸損失函數(shù),替換CIoU,計(jì)算如下:

      動(dòng)態(tài)聚焦機(jī)制引入了“離群度”概念以改進(jìn)錨框的質(zhì)量評(píng)估方式,不再單純依賴IoU指標(biāo)。此外,還設(shè)計(jì)了一種更合理的梯度增益分配策略。此策略不僅有助于降低高質(zhì)量錨框的過(guò)分影響,還能抑制低質(zhì)量錨框產(chǎn)生的不良梯度效應(yīng)。這使得WIoU能夠優(yōu)先關(guān)注普通質(zhì)量的錨框,并通過(guò)這種方式全面提升檢測(cè)器的性能。

      3實(shí)驗(yàn)結(jié)果與分析

      3.1實(shí)驗(yàn)設(shè)置

      為了評(píng)估新模型的性能并驗(yàn)證其有效性,在本次實(shí)驗(yàn)中,選擇了DIOR遙感數(shù)據(jù)集作為基礎(chǔ)數(shù)據(jù)集。使用Python語(yǔ)言,結(jié)合PyTorch深度學(xué)習(xí)框架,構(gòu)建了實(shí)驗(yàn)?zāi)P?。為了加速模型的?xùn)練過(guò)程,使用具有8GB顯存的RTX A4000。在模型的訓(xùn)練過(guò)程中,采用隨機(jī)梯度下降(Stochastic Gradient Descent,SGD)優(yōu)化器對(duì)模型參數(shù)進(jìn)行優(yōu)化,初始學(xué)習(xí)率設(shè)置為0.01。將所有的模型在數(shù)據(jù)集上進(jìn)行了100個(gè)epoch的訓(xùn)練,訓(xùn)練時(shí)利用YOLOv8s預(yù)訓(xùn)練模型作為遷移學(xué)習(xí)的權(quán)重模型,并且將圖像輸入尺寸調(diào)整為800 pixelx800 pixel。

      3.2實(shí)驗(yàn)數(shù)據(jù)集

      DIOR是專為遙感圖像目標(biāo)檢測(cè)算法的評(píng)估而定制構(gòu)建的,包含了來(lái)自不同傳感器和不同場(chǎng)景的遙感圖像,涵蓋了多個(gè)地理區(qū)域和物體類別;高分辨率的航拍圖像、衛(wèi)星圖像和無(wú)人機(jī)圖像,具有多樣性的光學(xué)特征和場(chǎng)景背景。數(shù)據(jù)集空間分辨率為0.5~30m。該數(shù)據(jù)標(biāo)注區(qū)域包括20個(gè)類別,共23463張圖像。本文按6:3:1的比例將數(shù)據(jù)集分化為訓(xùn)練集、驗(yàn)證集和測(cè)試集。

      3.3評(píng)價(jià)指標(biāo)

      本文采用的評(píng)價(jià)指標(biāo)包括平均精度均值(meanAverage Precision,mAP)、參數(shù)量和浮點(diǎn)運(yùn)算數(shù),具體計(jì)算公式如下:

      3.5不同IoU對(duì)比實(shí)驗(yàn)

      為了驗(yàn)證WIoU的有效性,本文對(duì)經(jīng)典的IoU(GIoU、DIoU、SIoU和EIoU)進(jìn)行了對(duì)比實(shí)驗(yàn)。結(jié)果如表2所示,其中損失函數(shù)如圖5所示。

      3.4消融實(shí)驗(yàn)

      為了驗(yàn)證YOLO-GT模型的有效性,在DIOR數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表1所示。其中Baseline表示YOLOv8基礎(chǔ)模型。由表1可知,單獨(dú)使用ASADH模塊時(shí),精度相較YOLOv8提升了1.2%,參數(shù)量減少了11.4%。單獨(dú)使用WIoU時(shí),其精度提升了0.6%。將二者同時(shí)使用則提升了1.4%。將3個(gè)改進(jìn)措施都添加時(shí),模型整體精度提升了2.1%,參數(shù)量減少了9.2%,效果顯著。

      由表2可知,除SIoU與WIoU外,其余mAP均有所下降。且在圖5損失函數(shù)曲線中,使用WIoU時(shí)損失值下降更為迅速,Loss最后收斂至0.52。由于WIoU能夠根據(jù)目標(biāo)框的大小和形狀自適應(yīng)地調(diào)整IoU的權(quán)重,這意味著對(duì)于不同大小和形狀的目標(biāo)框,能夠更準(zhǔn)確地衡量它們之間的匹配程度。在DIOR數(shù)據(jù)集中,目標(biāo)具有不同的尺度和形狀變化,WIoU的權(quán)重調(diào)整機(jī)制能夠更好地適應(yīng)這些變化,從而提高了檢測(cè)的準(zhǔn)確性。

      3.6ASADH增強(qiáng)特征表示對(duì)比實(shí)驗(yàn)

      為了驗(yàn)證ASADH模塊在增強(qiáng)模型特征表示能力方面的效果,采用了對(duì)比實(shí)驗(yàn)的方式。實(shí)驗(yàn)中,將原始的YOLOv8模型與集成了ASADH模塊的改進(jìn)模型進(jìn)行了比較。為了直觀地展示2個(gè)模型在特征表示上的差異,對(duì)它們的檢測(cè)熱力圖進(jìn)行了可視化處理。這些熱力圖通過(guò)顏色的深淺來(lái)反映模型對(duì)圖像不同區(qū)域的關(guān)注程度,如圖6所示。圖6(a)表示YOLOv8模型的熱力圖,圖6(b)表示使用ASADH模塊后的熱力圖??梢钥闯鍪褂肁SADH模塊時(shí),由于改善特征表示的表現(xiàn)力,使得特征信息更加豐富,導(dǎo)致其更加關(guān)注目標(biāo)區(qū)域。同時(shí),由表1可知,單獨(dú)使用ASADH時(shí)模型精度相較YOLOv8提高了1.2%,這表明ASADH能夠顯著改善模型的性能和特征表示,從而提高檢測(cè)效果。

      3.7主流算法對(duì)比實(shí)驗(yàn)

      本文在DIOR數(shù)據(jù)集上對(duì)所提出模型進(jìn)行了實(shí)驗(yàn),并與一些經(jīng)典模型(包括YOLOv5、YOLOv7、SSD、Faster R-CNN和RetinaNet)的實(shí)驗(yàn)結(jié)果進(jìn)行了對(duì)比分析,如表3所示(表中加粗表示最高精度)。

      上文提到的經(jīng)典模型大多對(duì)小目標(biāo)檢測(cè)都不敏感。比如在Faster R-CNN中,通過(guò)區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)生成的候選區(qū)域通常較大,存在小目標(biāo)時(shí)容易漏檢。SSD算法采用了多尺度特征圖來(lái)進(jìn)行目標(biāo)檢測(cè),利用高層特征對(duì)大目標(biāo)進(jìn)行預(yù)測(cè),利用低層特征對(duì)小目標(biāo)進(jìn)行預(yù)測(cè)。這就影響了SSD算法在小目標(biāo)檢測(cè)上的效果,因?yàn)榈蛯犹卣魅狈Ω邔诱Z(yǔ)義信息,在小目標(biāo)檢測(cè)上存在局限性。而本文的YOLO-GT模型,對(duì)小目標(biāo)檢測(cè)友好,展現(xiàn)出了優(yōu)越的性能,特別是在與當(dāng)前的頂尖模型YOLOv8的對(duì)比中,多數(shù)類別的檢測(cè)精度均有所提高,總體精度提升了2.1%。這說(shuō)明所采用的優(yōu)化策略在提升遙感影像目標(biāo)檢測(cè)的精確度方面表現(xiàn)出了有效性。

      3.8檢測(cè)效果對(duì)比

      為了更直觀地展示模型改進(jìn)前后的效果,實(shí)驗(yàn)挑選了數(shù)據(jù)集中的6組圖像進(jìn)行實(shí)測(cè),并將測(cè)試結(jié)果呈現(xiàn)在圖7中。

      從圖7(a)~圖7(d)的對(duì)比中可以明顯看出,YOLOv8算法并未準(zhǔn)確捕捉圖像中的所有小目標(biāo),然而,YOLO-GT模型在小目標(biāo)檢測(cè)方面表現(xiàn)卓越,成功精準(zhǔn)檢測(cè)出YOLOv8漏檢的小目標(biāo)。在圖7(e)和圖7(g)的中,YOLOv8算法沒(méi)有檢測(cè)出待檢測(cè)目標(biāo),也存在漏檢,而YOLO-GT引入了ASADH模塊,增強(qiáng)了模型的特征表達(dá)能力,使其能夠聚焦于目標(biāo)區(qū)域,從而抵抗了噪聲的干擾,實(shí)現(xiàn)了更準(zhǔn)確的目標(biāo)檢測(cè),因此YOLO-GT針對(duì)復(fù)雜背景具備強(qiáng)大的抗干擾能力,通過(guò)優(yōu)化算法有效濾除噪聲,確保準(zhǔn)確識(shí)別目標(biāo),實(shí)現(xiàn)了高效精準(zhǔn)的檢測(cè)(圖7(i)~圖7(1))。

      4結(jié)束語(yǔ)

      由于遙感影像目標(biāo)檢測(cè)存在復(fù)雜背景干擾和小目標(biāo)檢測(cè)效果問(wèn)題,本文提出了YOLO-GT模型。提出了多感知融合的檢測(cè)頭——ASADH,通過(guò)在特征層級(jí)、空間位置和輸出通道之間無(wú)縫結(jié)合多個(gè)自注意機(jī)制,實(shí)現(xiàn)了尺度感知、空間位置感知和任務(wù)感知的多感知融合,獲得了更加豐富的特征信息,有效克服了復(fù)雜背景信息對(duì)目標(biāo)檢測(cè)的干擾,并顯著增強(qiáng)了小目標(biāo)檢測(cè)的效果。然后將YOLOv8的定位損失函數(shù)改進(jìn)為WIoU以聚焦普通質(zhì)量錨框的預(yù)測(cè)回歸。為解決上采樣過(guò)程中語(yǔ)義信息丟失的問(wèn)題.引入了CARAFE這一輕量級(jí)上采樣算子。在DIOR遙感影像數(shù)據(jù)集中的實(shí)驗(yàn)精度達(dá)到了90.4%,相較于原始YOLOv8,整體精度提高2.1%,參數(shù)量減少9.2%,證明了所提出的改進(jìn)措施的有效性。

      在改進(jìn)模型的同時(shí),注意到了推理速度的下降。未來(lái)將努力優(yōu)化模型,減少參數(shù)數(shù)量,以提高推理速度,實(shí)現(xiàn)高精度與高效率的平衡。

      猜你喜歡
      遙感影像目標(biāo)檢測(cè)深度學(xué)習(xí)
      視頻中目標(biāo)檢測(cè)算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
      遙感影像資料在海圖制圖中的應(yīng)用研究
      航海(2016年6期)2017-01-09 11:28:24
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
      遙感數(shù)字圖像處理課程實(shí)驗(yàn)綜述
      科技視界(2016年13期)2016-06-13 12:01:14
      臥龍湖濕地遙感調(diào)查和演變分析
      双江| 浦北县| 定襄县| 交口县| 兰考县| 伊通| 望都县| 赣榆县| 高碑店市| 铜山县| 柘荣县| 东阿县| 托克逊县| 清原| 思茅市| 荔浦县| 墨玉县| 丁青县| 安宁市| 金川县| 永兴县| 扶绥县| 敦煌市| 荥经县| 荔浦县| 西宁市| 井研县| 瑞昌市| 锦屏县| 安义县| 洛扎县| 阳曲县| 绍兴县| 屯门区| 美姑县| 芜湖市| 吐鲁番市| 建德市| 灵山县| 赫章县| 五台县|