• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    遙感場景下基于關(guān)系挖掘的旋轉(zhuǎn)目標(biāo)檢測算法研究

    2023-06-25 07:42:18肖陽李煒
    現(xiàn)代信息科技 2023年7期

    肖陽 李煒

    摘? 要:與常規(guī)場景相比,遙感場景目標(biāo)檢測任務(wù)存在圖像尺寸大、小目標(biāo)數(shù)量多、檢測框有旋轉(zhuǎn)角等難點,這些難點也使得遙感圖像中物體間有更多的關(guān)系可挖掘。為提升遙感場景下對旋轉(zhuǎn)目標(biāo)的檢測效果,通過添加關(guān)系挖掘模塊對旋轉(zhuǎn)目標(biāo)檢測算法(Oriented R-CNN for Object Detection, ORCN)進(jìn)行優(yōu)化。關(guān)系挖掘模塊利用動態(tài)圖神經(jīng)網(wǎng)絡(luò)、交叉注意力機(jī)制使候選區(qū)域的特征、形狀信息進(jìn)行有效交互,豐富候選區(qū)域特征的上下文語義。實驗結(jié)果表明,添加關(guān)系挖掘模塊后模型在遙感數(shù)據(jù)集上的DOTA表現(xiàn)提升1.53%,明顯優(yōu)于原檢測算法。

    關(guān)鍵詞:旋轉(zhuǎn)目標(biāo)檢測;遙感圖像;圖神經(jīng)網(wǎng)絡(luò);交叉注意力機(jī)制

    中圖分類號:TP391.4 文獻(xiàn)標(biāo)識碼:A? ? 文章編號:2096-4706(2023)07-0074-05

    Abstract: Compared with the conventional scene, the target detection task in remote sensing scene has difficulties such as large image size, large number of small targets, and detection frame with rotation angle. These difficulties also make more relationships between objects in remote sensing images can be mined. In order to improve the detection effect of rotating targets in remote sensing scenes, the Oriented R-CNN for Object Detection (ORCN) algorithm is optimized by adding a relationship mining module. The relationship mining module uses dynamic graph neural network and cross-attention mechanism to effectively interact the features and shape information of candidate regions, and enrich the context semantics of the features of candidate regions. The experimental results show that the DOTA performance of the model on the remote sensing data set is improved by 1.53% after adding the relationship mining module, which is significantly better than the original detection algorithm.

    Keywords: rotating target detection; remote sensing image; graph neural network; cross-attention mechanism

    0? 引? 言

    遙感圖像目標(biāo)檢測是目標(biāo)檢測任務(wù)的一個新興方向,在航空器場景感知、遙感探測、智能導(dǎo)航中具有廣泛的應(yīng)用價值。同時,遙感圖像數(shù)據(jù)集存在圖像尺寸大、小目標(biāo)數(shù)量多、目標(biāo)方向不確定等特點,相比常規(guī)數(shù)據(jù)集難度更大,具有更高的研究意義。航空場景下小目標(biāo)(幾十甚至幾個像素)檢測所占比例大,基于卷積的目標(biāo)檢測方法雖然在常規(guī)目標(biāo)檢測數(shù)據(jù)集上表現(xiàn)良好,但層層池化會使小目標(biāo)信息量進(jìn)一步減少,難以區(qū)分。常規(guī)場景中一般通過特征金字塔、擴(kuò)充目標(biāo)上下文語義信息的方式加以解決。其中,特征金字塔已廣泛遷移至遙感圖像目標(biāo)檢測任務(wù)中,但由于目標(biāo)多、朝向自由等特點使得遙感場景下目標(biāo)間語義關(guān)系更加復(fù)雜,常規(guī)場景中使用的上下文方法往往不能很好地建模其中關(guān)系。因此,本文根據(jù)遙感目標(biāo)檢測的場景特點,設(shè)計關(guān)系挖掘模塊,利用物體間的關(guān)系強(qiáng)化候選區(qū)域特征,對遙感目標(biāo)檢測算法進(jìn)行優(yōu)化。

    1? 遙感圖像目標(biāo)檢測與關(guān)系挖掘

    1.1? 遙感圖像目標(biāo)檢測

    航空遙感圖像中的目標(biāo)檢測問題,是近年來計算機(jī)視覺領(lǐng)域出現(xiàn)的一個極具挑戰(zhàn)性的問題。與自然場景不同,遙感圖像中的物體通常以任意方向分布,人們采用有向邊界框(Oriented Bounding Boxes, OBBs)而不是水平邊界框(Horizontal Bounding Boxes, HBBs)進(jìn)行標(biāo)注與檢測,因此遙感圖像目標(biāo)檢測算法也多被視為旋轉(zhuǎn)目標(biāo)檢測問題。為了應(yīng)對旋轉(zhuǎn)帶來的挑戰(zhàn),學(xué)界紛紛提出設(shè)計良好的有向目標(biāo)檢測器,并在極具挑戰(zhàn)性的航空圖像數(shù)據(jù)集[1]上取得不錯的效果,主要思路在于提取旋轉(zhuǎn)不變特征[2-5]。在實踐中,旋轉(zhuǎn)RoI變換(例如Rotate RoI Pooling[4]和Rotate RoIAlign[2])是提取旋轉(zhuǎn)不變特征的最常用方法,其根據(jù)二維平面中候選區(qū)域的有向邊界框精確地提取區(qū)域特征。在旋轉(zhuǎn)問題經(jīng)過廣泛的研究討論并取得一定的成效后,遙感圖像目標(biāo)檢測的其他難點紛紛走入研究視野,其中目標(biāo)眾多、形狀各異是最為突出的特點與難點,而目標(biāo)間蘊(yùn)含著豐富的上下文信息將會是解決其小目標(biāo)檢測困難的又一突破口。因此,本文提出關(guān)系挖掘模塊,對遙感場景下物體間的特征和幾何形狀中蘊(yùn)含的關(guān)系信息進(jìn)行建模,擴(kuò)充候選區(qū)域的上下文信息,提高檢測效果。

    1.2? 目標(biāo)檢測中的關(guān)系挖掘方法

    關(guān)系挖掘旨在在物體間合理地交互、傳播和更新信息,經(jīng)常應(yīng)用于一些常見的視覺任務(wù),如分類、目標(biāo)檢測[6]和視覺關(guān)系檢測[7]等。先前工作[8-11]中的一個常見做法有將手動設(shè)計的關(guān)系和對象之間的共享屬性考慮在內(nèi)。隨著基于深度學(xué)習(xí)的幾何學(xué)發(fā)展,圖結(jié)構(gòu)憑借其靈活的成對交互數(shù)據(jù)結(jié)構(gòu),慢慢成為主流的關(guān)系建模結(jié)構(gòu)。有的研究手工建立不同類別之間的知識圖譜以輔助大規(guī)模的目標(biāo)檢測[12],然而,這種方法嚴(yán)重依賴于來自視覺關(guān)系數(shù)據(jù)的歸因和注釋,物體間的某些空間關(guān)系也被忽略。有的工作[13-16]試圖從視覺特征中隱式學(xué)習(xí)區(qū)域之間的完全連通圖,如使用自適應(yīng)注意力模塊進(jìn)行對象視覺特征之間的交互。然而,全連通模式合并了來自無關(guān)對象和背景的冗余信息,空間關(guān)系也未被充分利用。有的工作[17,18]通過手工構(gòu)造與深度學(xué)習(xí)相結(jié)合的方式建立物體間的稀疏圖,并通過圖卷積的方式交互信息。但隨著圖神經(jīng)網(wǎng)絡(luò)技術(shù)的日益發(fā)展,其中使用的圖卷積模式并不是信息交互的最優(yōu)解,關(guān)系圖結(jié)構(gòu)也在交互過程中趨于固定,缺乏靈活性。因此,本文提出新的關(guān)系挖掘模塊,新模塊利用層層更新的動態(tài)圖神經(jīng)網(wǎng)絡(luò),結(jié)合交叉注意力機(jī)制,使候選區(qū)域間的語義特征和空間結(jié)構(gòu)信息進(jìn)行有效交流,同時通過稀疏圖結(jié)構(gòu)和注意力掩碼技術(shù)防止冗余信息的干擾,將有效的關(guān)系信息融入特征。

    2? 關(guān)系挖掘模塊

    關(guān)系挖掘模塊(Relation Mining Module, RMM)設(shè)置在兩階段目標(biāo)檢測網(wǎng)絡(luò)的感興趣區(qū)域(Region of Interest, ROI)池化層之后,整體處理流程如圖1所示。在兩階段目標(biāo)檢測網(wǎng)絡(luò)中,ROI池化操作可得到一批候選區(qū)域,每個候選區(qū)域?qū)?yīng)有語義特征信息和空間位置信息,預(yù)測頭利用其語義特征信息得到最終檢測結(jié)果。因此,我們的關(guān)系挖掘模塊將利用候選區(qū)域的語義特征信息和空間位置信息對其進(jìn)行特征更新(新特征包含候選區(qū)域在語義特征和空間結(jié)構(gòu)上的上下文信息),以更好地輔助預(yù)測頭進(jìn)行分類和定位。

    圖1中,N表示候選區(qū)域個數(shù),DO表示原語義特征維度,DR表示關(guān)系模塊內(nèi)特征維度。在送入關(guān)系模塊前,本文利用兩個全連接網(wǎng)絡(luò)對語義特征和邊界框信息進(jìn)行維度統(tǒng)一。由于邊框信息由中心坐標(biāo)x、y、邊框?qū)捀遷、h,以及邊框旋轉(zhuǎn)角a三類尺度不同的信息組成,因此使用一層分塊全連接網(wǎng)絡(luò)分別處理三類信息,拼接后再利用一層全連接網(wǎng)絡(luò)統(tǒng)一維度,得到空間特征。

    維度得以統(tǒng)一后,模塊利用動態(tài)圖神經(jīng)網(wǎng)絡(luò)對輸入特征進(jìn)行圖結(jié)構(gòu)的建立或更新,再按圖結(jié)構(gòu)對特征進(jìn)行圖卷積操作,卷積更新后的節(jié)點特征能夠有效聚合鄰居節(jié)點信息;隨后特征進(jìn)入交叉注意力模塊,先進(jìn)行自注意力操作,再進(jìn)行交叉注意力操作,使得語義特征與空間特征得到信息交互,重復(fù)三次后完成關(guān)系挖掘,與原特征拼接后送入全連接網(wǎng)絡(luò)恢復(fù)特征維度,以供預(yù)測頭使用。

    在關(guān)系挖掘過程中,為排除冗余信息的干擾,降低計算量,在交叉注意力模塊中進(jìn)行mask操作,即只有圖結(jié)構(gòu)中建立連接的節(jié)點才進(jìn)行注意力運算。與此同時,為使語義特征和空間特征兩路關(guān)系挖掘模塊形成合力,添加Graph Loss損失項,使得兩路更易于形成相近的圖關(guān)系結(jié)構(gòu)。

    2.1? 動態(tài)圖神經(jīng)網(wǎng)絡(luò)

    動態(tài)圖神經(jīng)網(wǎng)絡(luò)對特征的處理流程如圖2所示,依次經(jīng)過圖數(shù)據(jù)構(gòu)建、圖卷積聚合節(jié)點特征、全連接層特征變換三部分。

    2.1.1? 構(gòu)建圖結(jié)構(gòu)

    面對N個D維語義/空間特征形成的集合X=[x1, x2,…, xN],xi ∈ RD,我們可以將其視為一張圖上的一組無序節(jié)點V={v1,v2,…,vN}。對于每個節(jié)點vi,我們以K近鄰的思路找到K個與它最近的節(jié)點形成鄰居集合N(vi),并且對所有鄰居節(jié)點vj ∈ N(vi)添加一條由vj指向vi的邊eij。由此我們將特征集合組織成一張有向圖數(shù)據(jù)G=(V, E),其中E表示所有邊的集合,這一過程可記為G=Graph(X)。以K近鄰的思路建立圖數(shù)據(jù)結(jié)構(gòu),可以使得節(jié)點的特征在相似的節(jié)點間進(jìn)行聚合更新,一方面能夠避免其他類別特征的混疊干擾,另一方面可消除類間差異,使得各節(jié)點的特征表示趨于類的特征表示。

    2.1.2? 圖卷積聚合節(jié)點特征

    圖卷積模塊[19]可以從鄰居節(jié)點聚合特征的操作使不同的節(jié)點相互交換信息。其過程可表述為:

    其中,Wagg和Wupdate分別表示聚合和更新操作中的可學(xué)習(xí)權(quán)重。具體來講,聚合操作將鄰居節(jié)點特征與本節(jié)點進(jìn)行聚合,更新操作進(jìn)一步融合聚合后的特征:

    具體的更新和聚合操作我們參照最大相關(guān)性圖卷積方法[20],該圖卷積方法形式簡潔、計算方便,能在較小的計算復(fù)雜度下完成對圖節(jié)點特征的聚合與更新:

    2.1.3? 全連接層特征變換

    研究表明[20],隨著圖卷積操作的加深,卷積感受野逐漸增大,圖中各個節(jié)點會漸漸趨于一致,這種現(xiàn)象被稱為過平滑。因此,一般在圖卷積操作后接入帶有非線性激活函數(shù)的全連接網(wǎng)絡(luò),使特征處于不斷的變換中,延緩過平滑現(xiàn)象的發(fā)生,提高圖卷積網(wǎng)絡(luò)的學(xué)習(xí)空間。

    2.2? 交叉注意力模塊

    在經(jīng)過動態(tài)圖神經(jīng)網(wǎng)絡(luò)后,語義和空間兩組特征都完成了特征集合內(nèi)部的信息交互。然而,作為候選區(qū)域的兩大關(guān)鍵信息,我們希望兩組特征之間也能進(jìn)行有效的交流,互相補(bǔ)足其在關(guān)系建立和特征聚合過程中的遺漏。鑒于語義特征和空間特征有著完全不同的表達(dá)模式,我們將其間的信息交流視作一個多模態(tài)信息融合問題,故引入多模態(tài)融合技術(shù):交叉注意力機(jī)制,形成交叉注意力模塊,如圖3所示。

    交叉注意力機(jī)制是自注意力機(jī)制的變體,其與自注意力機(jī)制的主要差異在于,自注意力操作中的query、key、value值均源于本身序列,而在交叉注意力機(jī)制中,query值來自本身序列,而key、value則由另一模態(tài)的序列變換而來,這也是本文交叉注意力模塊的核心操作。

    其中,se表示語義特征,sp表示空間特征,由于注意力模型通常應(yīng)用于序列問題而非無序特征的處理,我們對模塊進(jìn)行了一些適應(yīng)性調(diào)整:一是針對無序的特征集合,我們?nèi)∠宋恢镁幋a,但同一位置的空間特征與語義特征依然對應(yīng)放置,使其在做交叉注意力時依然能維持對應(yīng)關(guān)系;二是對注意力運算添加掩膜mask,即只有圖結(jié)構(gòu)中建立連接的節(jié)點才能進(jìn)行注意力運算,自注意力運算時查詢本特征集合在動態(tài)圖卷積過程中形成的圖結(jié)構(gòu),自注意力運算時查詢另一特征集合的圖結(jié)構(gòu),避免無關(guān)特征影響特征融合的有效性。

    2.3? 圖相似性損失

    在動態(tài)圖神經(jīng)網(wǎng)絡(luò)建立圖結(jié)構(gòu)的過程中,兩類特征集合根據(jù)不同的信息建立不同的關(guān)系網(wǎng)絡(luò),但實際上,兩套節(jié)點對應(yīng)的是現(xiàn)實中同一個物體集合,因此其產(chǎn)生的關(guān)系雖有差異,但穩(wěn)定后應(yīng)是互補(bǔ)而相似的。因此,為了使關(guān)系模塊更好地收斂,兩類特征有效地為同一目標(biāo)服務(wù),特在損失函數(shù)中添加圖相似性損失Graph Loss:

    其中,Asp表示空間特征建立圖結(jié)構(gòu)所對應(yīng)的鄰接矩陣,Ase表示語義特征建立圖結(jié)構(gòu)的鄰接矩陣。

    3? 實驗與結(jié)果分析

    將關(guān)系模塊加入到經(jīng)典的旋轉(zhuǎn)目標(biāo)檢測算法ORCN[21]中后,我們將其在遙感圖像數(shù)據(jù)集DOTA(Dataset for Object Detection in Aerial Images)[1]上的表現(xiàn)與近年來常用的兩階段旋轉(zhuǎn)目標(biāo)檢測算法(RSDet-II[22]、Oriented RepPoints[23]、SCRDet++[24]、ORCN)進(jìn)行對比。經(jīng)多次實驗探究,關(guān)系模塊中主要參數(shù)設(shè)定如下,模塊數(shù)量NM=3,特征維度DR=256,K近鄰中的K=4,多頭注意力的頭數(shù)量NH=4。為保證實驗的有效性,表中所有算法都未單獨添加任何檢測中的通用trick,并且同在一張GeForce RTX 2080 Ti顯卡上,使用同樣的backbone(ResNet50)進(jìn)行訓(xùn)練,每類算法均取其在驗證集上mAP最高的回合測試,最終結(jié)果如表1所示。加入關(guān)系挖掘模塊后的ORCN算法比原算法提高了1.53%的精度,并在一些集群出現(xiàn)(SV(Small Vehicle)、LV(Large Vehicle)、SH(Ship))或形狀突出(BR(bridge))的類別中有較好的提升效果。

    為探究模塊各部分的有效性,對動態(tài)圖神經(jīng)網(wǎng)絡(luò)、交叉注意力、注意力mask與Graph Loss三部分進(jìn)行消融實驗,結(jié)果如表2所示??梢钥闯?,動態(tài)圖神經(jīng)網(wǎng)絡(luò)有效地挖掘了物體間的語義特征與空間位置關(guān)系,精度提升效果較為明顯,而交叉注意力模塊使得語義特征和空間位置信息在計算過程中即時進(jìn)行共享交互,進(jìn)一步提升了其在DOTA數(shù)據(jù)集上的表現(xiàn),Mask和Graph Loss的引入對模型表現(xiàn)也有所提升,但更多地起到減少計算量、使訓(xùn)練過程快速收斂的作用。

    如圖4所示,(a)為ORCN算法檢測效果,(b)為添加關(guān)系模塊RMM后的效果圖??梢钥闯?,關(guān)系模塊的使用有效減少了檢測中出現(xiàn)的漏檢、誤檢、定位框偏移的情況,在目標(biāo)密集出現(xiàn)的情況下,加入關(guān)系模塊有更好的優(yōu)化表現(xiàn)。

    4? 結(jié)? 論

    本文對遙感場景下旋轉(zhuǎn)目標(biāo)檢測任務(wù)中的關(guān)系挖掘問題進(jìn)行了研究,對二階段檢測模型中候選區(qū)域的語義特征和空間信息進(jìn)行關(guān)系建模,從而增強(qiáng)候選區(qū)域的上下文特征,提高檢測精度。其中,動態(tài)圖神經(jīng)網(wǎng)絡(luò)即時構(gòu)造圖結(jié)構(gòu),利用圖卷積操作進(jìn)行特征聚合;交叉注意力模塊使候選區(qū)域的空間信息和語義信息跨模態(tài)交互融合,注意力掩膜和圖相似性損失則能減少模型計算量并加速收斂,最終有效建模物體間的關(guān)系,豐富特征的上下文信息,獲得了優(yōu)于原方法的精度表現(xiàn)。在未來的工作中,需要進(jìn)一步降低關(guān)系模塊中的參數(shù)量,提高模型的速度表現(xiàn)。

    參考文獻(xiàn):

    [1] XIA G S,BAI X,DING J,et al. DOTA: A large-scale dataset for object detection in aerial images [J/OL].arXiv:1711.10398 [cs.CV].[2022-12-23].https://arxiv.org/abs/1711.10398v2 .

    [2] DING J,XUE N,LONG Y,et al. Learning RoI transformer for oriented object detection in aerial images [C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach:IEEE:2019:2844-2853.

    [3] HAN J M,DING J,LI J,et al. Align deep features for oriented object detection [J/OL].arXiv:2008.09397 [cs.CV].[2022-12-25].https://arxiv.org/abs/2008.09397.

    [4] MA J,SHAO W,YE H,et al. Arbitrary-oriented scene text detection via rotation proposals [J].IEEE Transactions on Multimedia,2018,20(11):3111-3122.

    [5] YANG X,YAN J C,F(xiàn)ENG Z M,et al. R3det: Refined single-stage detector with feature refinement for rotating object [J/OL].arXiv:1908.05612 [cs.CV].[2022-12-16].https://arxiv.org/abs/1908.05612v6.

    [6] CHEN X L,Li L J,LI F F,et al. Iterative visual reasoning beyond convolutions [J/OL].arXiv:1803.11189 [cs.CV].[2022-12-23].https://arxiv.org/abs/1803.11189.

    [7] DAI B,ZHANG Y Q,LIN D H. Detecting Visual Relationships with Deep Relational Networks [J/OL].arXiv:1704.03114 [cs.CV].[2022-12-25].https://arxiv.org/abs/1704.03114v2.

    [8] AKATA Z,PERRONNIN F,HARCHAOUI Z,et al. Label-embedding for Attribute-Based Classification [C]//2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland:IEEE,2013:819-826.

    [9] ALMAZáN J,GORDO A,F(xiàn)ORNéS A,et al. Word spotting and recognition with embedded attributes [J].IEEE transactions on pattern analysis and machine intelligence,2014,36(12):2552-2566.

    [10] LAMPERT C H,NICKISCH H,HARMELING S. Learning to detect unseen object classes by between-class attribute transfer [C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR).Miami:IEEE,2009:951-958.

    [11] MISRA I,GUPTA A,HEBERT M. From red wine to red tomato: Composition with context [C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu:IEEE,2017:1160-1169.

    [12] JIANG C H,XU H,LIANG X D,et al. Hybrid knowledge routed modules for large-scale object detection [J/OL].arXiv:1810.12681 [cs.CV].[2022-12-15].https://arxiv.org/abs/1810.12681.

    [13] LIU Y,WANG R P,SHAN S G,et al. Structure inference net: Object detection using scene-level context and instance-level relationships [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City:IEEE,2018:6985-6994.

    [14] CHEN X L,GUPTA A. Spatial memory for context reasoning in object detection [C]// 2017 IEEE International Conference on Computer Vision (ICCV). Venice:IEEE,2017:4106-4116.

    [15] HU H,GU J Y,ZHANG Z,et al. Relation networks for object detection [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City:IEEE,2018:3588-3597.

    [16] WANG X L,GIRSHICK R,GUPTA A,et al. Non-local neural networks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City:IEEE,2018:7794-7803.

    [17] FU K,LI J,MA L,et al. Intrinsic relationship reasoning for small object detection [J/OL].arXiv:2009.00833 [cs.CV].[2022-12-18].https://arxiv.org/abs/2009.00833v1.

    [18] XU H,JIANG C H,LIANG X D,et al. Spatial-Aware Graph Relation Network for Large-Scale Object Detection [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach:IEEE,2019:9290-9299.

    [19] ZHOU Z P,Li X C. Graph convolution: a high-order and adaptive approach [J/OL].arXiv:1706.09916v2 [cs.LG].[2022-12-10].https://arxiv.org/pdf/1706.09916v2.pdf.

    [20] LI G H,MULLER M,THABET A,et al. Deepgcns: Can gcns go as deep as cnns?[C]//HYPERLINK "https://ieeexplore.ieee.org/xpl/conhome/8972782/proceeding"2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul:IEEE,2019:9266-9275.

    [21] XIE X X,CHENG G,WANG J B,et al. Oriented R-CNN for object detection [C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV).Montreal:IEEE,2021:3500-3509.

    [22] QIAN W,YANG X,PENG S L,et al. RSDet++: Point-based modulated loss for more accurate rotated object detection [J].IEEE Transactions on Circuits and Systems for Video Technology,2022,32(11):7869-7879.

    [23] LI W T,CHEN Y J,HU K X,et al. Oriented reppoints for aerial object detection [C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans:IEEE,2022:1819-1828.

    [24] YANG X,YAN J C,LIAO W L,et al. Scrdet++: Detecting small, cluttered and rotated objects via instance-level feature denoising and rotation loss smoothing [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2023,45(2):2384-2399.

    作者簡介:肖陽(1998—),男,漢族,遼寧鐵嶺人,碩士研究生在讀,研究方向:航空場景下小目標(biāo)檢測算法;李煒(1990—),男,漢族,四川成都人,副研究員,博士,研究方向:視頻圖像處理技術(shù)、傳感器網(wǎng)絡(luò)技術(shù)、視頻網(wǎng)絡(luò)應(yīng)用技術(shù)。

    阿瓦提县| 原平市| 交口县| 香港| 交城县| 武邑县| 收藏| 彝良县| 巍山| 永新县| 孟州市| 安西县| 睢宁县| 洛南县| 安康市| 通渭县| 桃江县| 高平市| 呼伦贝尔市| 福建省| 西城区| 镇巴县| 磴口县| 建阳市| 泰和县| 平乐县| 潼关县| 惠安县| 永安市| 灵宝市| 滨州市| 平潭县| 昌图县| 谢通门县| 陇南市| 青铜峡市| 云霄县| 乃东县| 苍溪县| 三亚市| 平和县|