• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法研究進(jìn)展

    2023-08-30 20:19:34廖龍杰呂文濤葉冬郭慶魯競(jìng)劉志偉
    關(guān)鍵詞:目標(biāo)檢測(cè)圖像處理深度學(xué)習(xí)

    廖龍杰 呂文濤 葉冬 郭慶 魯競(jìng) 劉志偉

    摘 要: 基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法可以有效提高小目標(biāo)檢測(cè)性能和檢測(cè)速率,在圖像處理領(lǐng)域得到了廣泛應(yīng)用。首先概述了小目標(biāo)檢測(cè)的難點(diǎn),分別對(duì)基于錨框優(yōu)化、基于網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化、基于特征增強(qiáng)的小目標(biāo)檢測(cè)算法進(jìn)行了分析,總結(jié)了各算法的優(yōu)缺點(diǎn);然后介紹了用于小目標(biāo)檢測(cè)的公共數(shù)據(jù)集和小目標(biāo)檢測(cè)算法的評(píng)價(jià)指標(biāo),對(duì)檢測(cè)算法的性能指標(biāo)進(jìn)行了分析;最后對(duì)小目標(biāo)檢測(cè)算法已經(jīng)解決的難點(diǎn)進(jìn)行了總結(jié),并對(duì)有待后續(xù)研究方向進(jìn)行了展望。深度學(xué)習(xí)在小目標(biāo)檢測(cè)領(lǐng)域仍有較大的發(fā)展空間,在模型通用性、耗時(shí)與精度和特定場(chǎng)景的小目標(biāo)檢測(cè)等方面有待深入研究。

    關(guān)鍵詞:深度學(xué)習(xí);神經(jīng)網(wǎng)絡(luò);圖像處理;目標(biāo)檢測(cè);小目標(biāo)檢測(cè)

    中圖分類號(hào):TP391.4

    文獻(xiàn)標(biāo)志碼:A

    文章編號(hào):1673-3851 (2023) 05-0331-13

    引文格式:廖龍杰,呂文濤,葉冬,等. 基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法研究進(jìn)展[J]. 浙江理工大學(xué)學(xué)報(bào)(自然科學(xué)),2023,49(3):331-343.

    Reference Format: LIAO? Longjie,L? Wentao, YE Dong,et al. Research progress of small target detection based on deep learning[J]. Journal of Zhejiang Sci-Tech University,2023,49(3):331-343.

    Research progress of small target detection based on deep learning

    LIAO Longjie1,L? Wentao1, YE Dong2, GUO Qing3,LU Jing3, LIU Zhiwei1

    (1a.School of Information Science and Engineering; 1b.Key Laboratory of Intelligent Textile and Flexible Interconnection of Zhejiang Province, Zhejiang Sci-Tech University, Hangzhou 310018, China; 2.Zhejiang Mobile Information System Integration Co., Ltd., Hangzhou 311217, China; 3.Zhejiang Technology Innovation Service Center, Hangzhou 310007, China)

    Abstract: The small target detection algorithm based on deep learning can effectively improve the detection performance and detection rate of small targets, and has been widely used in the field of image processing. Firstly, the difficulties of small target detection are summarized, and the small target detection algorithms based on anchor frame optimization, network structure optimization and feature enhancement are analyzed respectively, and the advantages and disadvantages of each algorithm are summarized.Then, the common data set for small target detection and the evaluation index of small target detection algorithm are introduced, and the performance index of the detection algorithm is analyzed. Finally, the difficulties that have been solved by the small target detection algorithm are summarized, and the future research directions are prospected. Deep learning still has a large development space in the field of small target detection, and needs to be further studied in the aspects of model universality, time consuming and precision, and small target detection in specific scenes.

    Key words:deep learning; neural network; image processing; object detection; small target detection

    0 引 言

    在圖像處理中,小目標(biāo)檢測(cè)是一個(gè)非常重要的研究方向。小目標(biāo)檢測(cè)算法的發(fā)展過程可以大致分為兩個(gè)階段,即傳統(tǒng)的小目標(biāo)檢測(cè)算法和基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法[1。傳統(tǒng)的目標(biāo)檢測(cè)方法主要有3個(gè)步驟:選擇候選目標(biāo)區(qū)域、提取特征和利用分類器分類[2。傳統(tǒng)的目標(biāo)檢測(cè)算法有很多不足,如目標(biāo)區(qū)域選擇算法一般采用滑動(dòng)窗口實(shí)現(xiàn),針對(duì)性較差,時(shí)間復(fù)雜度較高,冗余窗口較多,并且魯棒性也不強(qiáng),檢測(cè)的效率和準(zhǔn)確性都很低。因此,傳統(tǒng)的目標(biāo)檢測(cè)算法并不適用于小目標(biāo)檢測(cè)。然而,隨著深度學(xué)習(xí)技術(shù)在圖像處理中的應(yīng)用,小目標(biāo)檢測(cè)技術(shù)已經(jīng)取得了長(zhǎng)足的進(jìn)步。

    基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法,通常在兩階段目標(biāo)檢測(cè)算法和單階段目標(biāo)檢測(cè)算法的基礎(chǔ)上改進(jìn)。這兩種算法可以根據(jù)是否需要生成候選區(qū)域進(jìn)行劃分[3。兩階段目標(biāo)檢測(cè)算法首先將目標(biāo)可能出現(xiàn)的區(qū)域(即候選區(qū)域)篩選出來,然后對(duì)候選區(qū)域中的目標(biāo)進(jìn)行分類和回歸。目前兩階段目標(biāo)檢測(cè)算法的典型代表為R-CNN系列算法[4,如Sparse R-CNN[5、DeFRCN[6等。相較于兩階段目標(biāo)檢測(cè)算法,單階段目標(biāo)檢測(cè)算法無需生成候選區(qū)域,直接計(jì)算物體的類別概率和位置坐標(biāo),經(jīng)過一次檢測(cè)即可得到最終的檢測(cè)結(jié)果?,F(xiàn)階段較為常用的單階段目標(biāo)檢測(cè)算法有YOLO系列目標(biāo)檢測(cè)算法[7-9和SSD系列目標(biāo)檢測(cè)算法[10-13。因?yàn)閮呻A段目標(biāo)檢測(cè)算法分為兩步進(jìn)行,通常效率較低,但檢測(cè)效果較好;而單階段目標(biāo)檢測(cè)算法只有一步操作,因此它較兩階段目標(biāo)檢測(cè)算法速度更快,但檢測(cè)的精度略有下降。

    目前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法在大、中型目標(biāo)上已取得了較好的結(jié)果,但由于小目標(biāo)在圖像中面積占比小,難以獲取有效的特征信息,檢測(cè)性能并不理想[14。目前,在Microsoft common objects in context(以下簡(jiǎn)稱“MS COCO”)等公共數(shù)據(jù)集[15中,小目標(biāo)檢測(cè)算法的精度遠(yuǎn)不及大目標(biāo)和中目標(biāo)檢測(cè)算法,并且經(jīng)常出現(xiàn)漏檢和誤檢。雖然小目標(biāo)的檢測(cè)十分困難,但是小目標(biāo)大量存在于各個(gè)場(chǎng)景中,有著重要應(yīng)用,這也讓小目標(biāo)檢測(cè)成為圖像處理領(lǐng)域的研究熱點(diǎn)。

    本文檢索了近幾年來國(guó)內(nèi)外典型的相關(guān)文獻(xiàn),對(duì)各類基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法進(jìn)行了綜述。首先,概述了小目標(biāo)檢測(cè)算法的難點(diǎn);其次,將基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法分為基于錨框優(yōu)化的小目標(biāo)檢測(cè)算法、基于網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化的小目標(biāo)檢測(cè)算法、基于特征增強(qiáng)的小目標(biāo)檢測(cè)算法3類,分析了小目標(biāo)檢測(cè)算法的研究現(xiàn)狀,并總結(jié)了各算法的優(yōu)缺點(diǎn);再次,介紹了用于小目標(biāo)檢測(cè)的公共數(shù)據(jù)集和小目標(biāo)檢測(cè)算法的評(píng)價(jià)指標(biāo),并對(duì)檢測(cè)算法的性能指標(biāo)進(jìn)行了分析;最后,對(duì)小目標(biāo)檢測(cè)算法的研究進(jìn)展進(jìn)行了總結(jié),并對(duì)未來研究進(jìn)行了展望。

    1 小目標(biāo)檢測(cè)算法的難點(diǎn)

    各類基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法在對(duì)于大目標(biāo)檢測(cè)時(shí)效果相對(duì)較好,而對(duì)于小目標(biāo)的檢測(cè)的效果相對(duì)較差,主要原因有如下幾點(diǎn)。

    a)小目標(biāo)的特征信息難以被充分提取。在圖像中,小目標(biāo)不像大、中目標(biāo)占較大的面積,一般并不清晰,且不如大、中目標(biāo)那樣攜帶豐富的特征信息,因此小目標(biāo)易受噪音干擾,檢測(cè)模型無法精確定位小目標(biāo),且不易對(duì)目標(biāo)類型進(jìn)行分類[16。

    b)小目標(biāo)樣本難以在數(shù)據(jù)集中平均分布。目前,公共數(shù)據(jù)集普遍存在一個(gè)問題,即大、中目標(biāo)的數(shù)量遠(yuǎn)遠(yuǎn)多于小目標(biāo)的數(shù)量。如MS COCO數(shù)據(jù)集[15,小目標(biāo)所占比例只有31.62%,且每幅圖像的目標(biāo)數(shù)量龐大,小目標(biāo)分散于圖像的各個(gè)位置。又比如TinyPerson數(shù)據(jù)集[17,每一幅圖像中小目標(biāo)數(shù)量差異較大,有的圖像中小目標(biāo)數(shù)量非常的多,超過100個(gè),也有的圖像中小目標(biāo)數(shù)量非常的少,不足20個(gè)。這樣目標(biāo)不均勻分布的樣本,在使用特定方法訓(xùn)練時(shí)難以提升模型的檢測(cè)性能。同時(shí),模型訓(xùn)練時(shí)更加關(guān)注大、中目標(biāo),小目標(biāo)樣本數(shù)量不均也加大了模型訓(xùn)練的困難程度。

    c)小目標(biāo)檢測(cè)模型的先驗(yàn)框難以設(shè)置。預(yù)先設(shè)定的先驗(yàn)框,通常都有固定的尺寸和比例,對(duì)于大、中目標(biāo)的檢測(cè)一般比較有效。但對(duì)于小目標(biāo),其尺寸較小且比例可能不像大、中目標(biāo)那樣易于預(yù)估,這樣導(dǎo)致先驗(yàn)框幾乎不能正確框選小目標(biāo),甚至有可能框選的大目標(biāo)中包含了小目標(biāo),造成了正負(fù)樣本不均衡,使模型訓(xùn)練變得困難[18。

    d)小目標(biāo)檢測(cè)模型的損失函數(shù)難以設(shè)置。對(duì)于采用深度學(xué)習(xí)的目標(biāo)檢測(cè)算法來說,每輪訓(xùn)練完成后需要計(jì)算損失并進(jìn)行回歸來優(yōu)化參數(shù)的設(shè)置,而最初的損失函數(shù)是為大、中目標(biāo)而設(shè)計(jì)的。損失函數(shù)由定位損失和類別損失組成,有些算法在這兩種損失的基礎(chǔ)上額外增加了交并比損失。在進(jìn)行回歸優(yōu)化時(shí),有些損失忽略了小目標(biāo)樣本的特殊性,使得部分檢測(cè)模型的效果較差。

    e)小目標(biāo)檢測(cè)模型的正負(fù)樣本難以匹配。現(xiàn)階段,正負(fù)樣本的劃分是按照檢測(cè)器生成的邊界框與真實(shí)框之間的交并比決定的。通常交并比大于50%所對(duì)應(yīng)的錨框中的目標(biāo)判定為正樣本,其余為負(fù)樣本[7。但是,一般小目標(biāo)在圖像中所占的面積較小,有時(shí)交并比很難達(dá)到50%,小目標(biāo)匹配的情況不如大、中目標(biāo)那么理想,存在包含很多小目標(biāo)的正樣本遺漏的情況。

    f)小目標(biāo)檢測(cè)模型難以通用?,F(xiàn)階段,小目標(biāo)的數(shù)據(jù)集通常是某一類物體,例如織物瑕疵數(shù)據(jù)集,小目標(biāo)樣本全都是織物瑕疵,TinyPerson數(shù)據(jù)集的小目標(biāo)樣本都是一些小型人物目標(biāo)。這樣造成訓(xùn)練出來的模型只能專門檢測(cè)某一類物體,模型的通用性會(huì)非常差。

    2 基于錨框優(yōu)化的小目標(biāo)檢測(cè)算法

    在目標(biāo)檢測(cè)中,錨框(Anchor box)是以圖像的每個(gè)像素點(diǎn)為中心生成的多個(gè)大小和寬高比不同的邊界框。目前絕大多數(shù)基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法都是基于錨框機(jī)制(Anchor based)設(shè)計(jì)的。但基于錨框機(jī)制的目標(biāo)檢測(cè)算法主要用來檢測(cè)大目標(biāo)或者中目標(biāo),對(duì)于小目標(biāo)的檢測(cè)效果不好,因此有不少研究人員對(duì)基于錨框機(jī)制的小目標(biāo)檢測(cè)算法進(jìn)行研究,且近幾年基于無錨框機(jī)制(Anchor free)的小目標(biāo)檢測(cè)也是研究的熱點(diǎn)。

    2.1 錨框機(jī)制

    錨框機(jī)制最早出現(xiàn)于兩階段目標(biāo)檢測(cè)算法Faster R-CNN[4中的Region proposal network (RPN),RPN使用特征提取的形式生成預(yù)選框的位置,從而降低了Selective search算法帶來的計(jì)算時(shí)間上的開銷。而在單階段目標(biāo)檢測(cè)算法如YOLO V3中,錨框是通過使用K-means聚類算法從真實(shí)框中得到一些不同寬高比的框?,F(xiàn)階段大部分目標(biāo)檢測(cè)算法都是使用錨框機(jī)制來選擇候選區(qū)域,顯著提升小目標(biāo)檢測(cè)效果的方法之一就是改善錨框的設(shè)置機(jī)制。

    Yang等[19針對(duì)預(yù)先設(shè)定錨框的尺寸比例過于死板的問題,提出了MetaAnchor,這是一種動(dòng)態(tài)錨框生成機(jī)制,MetaAnchor可以自定義任意的錨框,并從中選擇合適的動(dòng)態(tài)生成。Zhang等[20提出了單鏡頭尺度不變?nèi)四槞z測(cè)器,對(duì)不同尺度的人臉采用不同尺度的錨框,并通過尺度補(bǔ)償錨框匹配機(jī)制提高小人臉的召回率,顯著提高了錨框?qū)τ谛∧繕?biāo)匹配的成功率。Wang等[21提出一種稱為引導(dǎo)錨框的錨框生成機(jī)制,其中錨框的選定借助上下文信息引導(dǎo)實(shí)現(xiàn),同時(shí)該機(jī)制還推算出目標(biāo)中心點(diǎn)可能出現(xiàn)的坐標(biāo)和不同坐標(biāo)處的尺度和長(zhǎng)寬比,并通過自適應(yīng)的方法來解決錨框形狀特征不相符的問題。

    以上幾種方法都采用動(dòng)態(tài)的方法來產(chǎn)生錨框,這些方法能有效解決錨框預(yù)先設(shè)定后無法改動(dòng)的問題,能有效提高基于錨框機(jī)制的小目標(biāo)檢測(cè)算法的性能。

    此外,由于小目標(biāo)一般數(shù)量規(guī)模較大且密集,錨框在該問題上表現(xiàn)的效果非常差,以下幾種方法是較為有效的改進(jìn)方法。Zhang等[22提出了一種關(guān)于錨框密度的策略,讓在同一幅圖像上不同類型的錨框具有相同的密度,從而大幅提高了小人臉的召回率。Zhu等[23提出了一種錨框設(shè)計(jì)方案,引入了新的預(yù)期最大重疊分?jǐn)?shù),該分?jǐn)?shù)可以從理論上解釋錨框與小目標(biāo)人臉低重疊問題,使基于錨框的小目標(biāo)人臉檢測(cè)獲得更好的性能。Wang等[24提出了一種稱為SFace的算法,有效整合了基于錨框和不基于錨框的方法,以解決高分辨率圖像和視頻中廣泛存在的尺度變化較大的問題,該算法能有效提高具有超大尺度變化的人臉檢測(cè)算法的性能。

    2.2 無錨框機(jī)制

    錨框在目標(biāo)檢測(cè)中起到了重要的作用,目前大部分的目標(biāo)檢測(cè)算法都是基于錨框設(shè)計(jì)的,但是該類算法也有不足之處。第一,錨框通常需要預(yù)先設(shè)定大小和比例,這對(duì)于檢測(cè)小目標(biāo)不利。相較于大目標(biāo),小目標(biāo)不易被錨框框選,這會(huì)造成正負(fù)樣本不均衡,使模型難以針對(duì)小目標(biāo)進(jìn)行訓(xùn)練。第二,錨框引入超參數(shù)過多,如錨框數(shù)量、大小、長(zhǎng)寬比等,提高了算法設(shè)計(jì)難度。因此,最近幾年來目標(biāo)檢測(cè)領(lǐng)域逐漸將研究的主要方向轉(zhuǎn)移到無錨框機(jī)制上,在小目標(biāo)檢測(cè)應(yīng)用上顯著提升了檢測(cè)效果。

    無錨框機(jī)制的一種研究思路是將原先用錨框來框選目標(biāo)的操作改成根據(jù)關(guān)鍵點(diǎn)來定位目標(biāo)。根據(jù)關(guān)鍵點(diǎn)的目標(biāo)檢測(cè)主要包含兩種:一種是根據(jù)角點(diǎn)來定位,另一種是根據(jù)中心點(diǎn)來定位。DeNet通過估計(jì)4個(gè)角點(diǎn)來替代錨框定位,這4個(gè)角點(diǎn)分別為左上、右上、左下、右下角點(diǎn),具體流程為:a)讓模型訓(xùn)練帶有標(biāo)簽的數(shù)據(jù)集;b)用訓(xùn)練好的模型預(yù)測(cè)角點(diǎn)的位置分布;c)將4個(gè)角點(diǎn)所包圍的區(qū)域定為候選區(qū)域[25。Law等[26提出了一種根據(jù)角點(diǎn)來定位目標(biāo)的網(wǎng)絡(luò)模型CornerNet,CornerNet通過兩個(gè)點(diǎn)來定位:左上和右下角點(diǎn),具體流程為:首先將所有目標(biāo)的左上和右下角點(diǎn)的位置預(yù)測(cè)出來,并在每?jī)蓚€(gè)角點(diǎn)中嵌入距離向量,通過判斷距離向量,讓屬于同一個(gè)目標(biāo)的兩個(gè)角點(diǎn)兩兩配對(duì),然后利用這兩個(gè)角點(diǎn)生成目標(biāo)的邊界框。

    CornerNet有效地解決了錨框預(yù)先固定尺寸和高寬比對(duì)小目標(biāo)檢測(cè)帶來的困難,但CornerNet也有明顯的缺點(diǎn)。CornerNet在生成目標(biāo)邊界框時(shí),有時(shí)不能準(zhǔn)確框選目標(biāo)的邊界,有的邊界框雖然框選了目標(biāo),但存在邊界框遠(yuǎn)遠(yuǎn)大于目標(biāo)的情況;此外還會(huì)框選錯(cuò)誤的目標(biāo),出現(xiàn)了很多冗余和錯(cuò)誤的目標(biāo)框。針對(duì)這個(gè)問題,Duan等[27提出了一種借助中心點(diǎn)提高判別能力的檢測(cè)框架CenterNet。CenterNet使用3個(gè)關(guān)鍵點(diǎn),即左上角點(diǎn)、中心點(diǎn)、右下角點(diǎn),這讓網(wǎng)絡(luò)能通過中心點(diǎn)來加強(qiáng)網(wǎng)絡(luò)對(duì)物體的辨別能力,能有效減少冗余和錯(cuò)誤的目標(biāo)框。

    全卷積神經(jīng)網(wǎng)絡(luò)(Fully convolutional networks, FCN)通過對(duì)圖像每個(gè)像素點(diǎn)都進(jìn)行分類,解決了很多語(yǔ)義分割的問題,特別是對(duì)于密集型的預(yù)測(cè)任務(wù),F(xiàn)CN的完成情況相對(duì)較好。受到FCN的啟發(fā),Tian等[28在目標(biāo)檢測(cè)框架上運(yùn)用語(yǔ)義分割的方法,提出了一種基于全卷積的單階段目標(biāo)檢測(cè)框架(Fully convolutional one-stage object detection, FCOS),解決了由錨框過多帶來的超參數(shù)計(jì)算困難的問題;同時(shí),該研究表明將FCOS應(yīng)用于兩階段檢測(cè)模型的第一階段,也能顯著提高檢測(cè)效率。

    3 基于網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化的小目標(biāo)檢測(cè)算法

    用于小目標(biāo)檢測(cè)算法的一般網(wǎng)絡(luò)模型的結(jié)構(gòu)由骨干網(wǎng)絡(luò)(Backbone)、特征融合與特征增強(qiáng)(Neck)和檢測(cè)頭(Head)3部分組成。優(yōu)化Backbone和Neck可顯著提升小目標(biāo)檢測(cè)性能,此外在模型上加入注意力機(jī)制也能起到較好的效果。下面將從這幾個(gè)角度介紹相關(guān)研究進(jìn)展。

    3.1 Backbone優(yōu)化

    目標(biāo)檢測(cè)模型通常使用骨干網(wǎng)絡(luò)進(jìn)行特征提取操作,典型的骨干網(wǎng)絡(luò)有AlexNet、VGGNet、ResNet、GoogLeNet等[29。由于特征提取網(wǎng)絡(luò)通過多層卷積層進(jìn)行下采樣來提取特征,在這過程中目標(biāo)特別是小目標(biāo)的特征容易丟失,眾多研究人員提出了引入CSP模塊和殘差模塊等改進(jìn)方案。

    YOLO V3模型采用DarkNet-53作為骨干網(wǎng)絡(luò)。Bochkovskiy等[30受到Cross stage partial network(CSPNet)思想的啟發(fā),在YOLO V3的基礎(chǔ)上提出YOLO V4模型,該模型構(gòu)造CSPDarkNet-53作為骨干網(wǎng)絡(luò)進(jìn)行特征提取操作,在減少了計(jì)算量的同時(shí)可以保證準(zhǔn)確率。崔文靚等[31針對(duì)YOLO V3算法檢測(cè)公路車道線準(zhǔn)確率低和漏檢率高的問題,提出了一種基于改進(jìn)YOLO V3網(wǎng)絡(luò)結(jié)構(gòu)的公路車道線檢測(cè)方法,該方法去掉了3個(gè)YOLO層前的兩組卷積層,降低了車道線小目標(biāo)在復(fù)雜背景下漏檢的概率。Pan等[32對(duì)YOLO-Tiny的骨干網(wǎng)絡(luò)進(jìn)行改進(jìn),將DenseNet作為骨干網(wǎng)絡(luò)。DenseNet可以將本層特征層的輸出作為下一層的輸入,使每一層特征信息的利用率上升,消除了部分冗余參數(shù),提升了網(wǎng)絡(luò)訓(xùn)練的效率。Fu等[11提出反卷積單步檢測(cè)模型(Deconvolutional single shot detector, DSSD),該模型在SSD的基礎(chǔ)上將骨干網(wǎng)絡(luò)由VGG更換為ResNet-101,并在此基礎(chǔ)上增加了反卷積和預(yù)測(cè)模塊,讓模型增強(qiáng)了識(shí)別和分辨小目標(biāo)的能力。

    由此可見,通過引入CSP模塊和殘差模塊,可以有效提高模型的性能,其主要思想都是降低卷積操作對(duì)小目標(biāo)的影響。此外,關(guān)于DenseNet和DSSD,第一個(gè)模型是建立特征通道使前面的特征能傳遞到后面,第二個(gè)模型是采用反卷積模塊,兩個(gè)模型都是通過提高特征的利用率來提升小目標(biāo)的檢測(cè)性能。

    3.2 Neck優(yōu)化

    在骨干網(wǎng)絡(luò)提取特征時(shí),分布在淺層的特征因下采樣次數(shù)少,特征信息損失較少,具有較高的分辨率和大量位置特征信息,但語(yǔ)義特征信息不足;深層特征經(jīng)過多層下采樣,特征損失較多,分辨率也下降較多,但是語(yǔ)義特征信息得到了增強(qiáng)。引入特征融合和特征增強(qiáng)(Neck),可將淺層特征和深層特征結(jié)合,也是一種提高小目標(biāo)檢測(cè)性能的方式。

    遙感圖像目標(biāo)通常會(huì)遇到目標(biāo)間尺度差距較大和種類間近似度較高的問題,多尺度特征融合是一種解決該問題的方法,但目前基本上都采用不變的權(quán)重系數(shù)來融合不同尺度的特征,忽略了目標(biāo)尺度對(duì)特征融合的影響。針對(duì)該問題,謝星星等[33提出了一種動(dòng)態(tài)特征融合網(wǎng)絡(luò),通過引入特征門控和動(dòng)態(tài)融合模塊實(shí)現(xiàn)了多尺度特征的動(dòng)態(tài)融合,其中特征門控模塊在特征融合前針對(duì)性地對(duì)部分特征進(jìn)行了加強(qiáng)或者削弱,減少了背景信息對(duì)之后融合的影響,動(dòng)態(tài)融合模塊可以根據(jù)目標(biāo)的尺度動(dòng)態(tài)調(diào)整融合的權(quán)重,該網(wǎng)絡(luò)在大規(guī)模遙感目標(biāo)檢測(cè)數(shù)據(jù)集上驗(yàn)證了其有效性。

    針對(duì)之前用來特征融合的Feature pyramid networks(FPN)層都是由手工設(shè)計(jì)的,Ghiasi等[34提出了特征金字塔網(wǎng)絡(luò)NAS-FPN,該網(wǎng)絡(luò)主要由自下而上和自上而下的連接組成,可以跨范圍地融合特征,優(yōu)化了小目標(biāo)的特征融合。

    3.3 注意力機(jī)制優(yōu)化

    除了改進(jìn)Backbone和Neck之外,在網(wǎng)絡(luò)模型中加入注意力機(jī)制也是一種改進(jìn)方式。添加注意力機(jī)制后,網(wǎng)絡(luò)模型能重點(diǎn)關(guān)注候選區(qū)域的局部特征,提高了模型的檢測(cè)效率。對(duì)于小目標(biāo)檢測(cè)來說,引入注意力機(jī)制可以使網(wǎng)絡(luò)更加關(guān)注小目標(biāo)所在的位置,增強(qiáng)了小目標(biāo)的特征表達(dá)能力。

    Lim等[35提出一種上下文注意力機(jī)制,該機(jī)制可以聚焦于圖像中的目標(biāo),并且還可以聚焦來自目標(biāo)層的上下文信息,能有效降低淺層環(huán)境噪聲的影響,能使檢測(cè)器聚焦于小目標(biāo)。Hu等[36提出了Squeeze-and-excitation networks(SENet),該網(wǎng)絡(luò)對(duì)通道維度上的特征進(jìn)行信息權(quán)重分配,對(duì)重要程度不同的信息分配不同的權(quán)重,以此在特征通道上加入注意力機(jī)制。Wang等[37認(rèn)為SENet對(duì)通道注意力機(jī)制的預(yù)測(cè)帶來了副作用,捕獲所有通道的依賴關(guān)系是低效并且是不必要的,認(rèn)為卷積具有良好的跨通道信息獲取能力,并提出了ECA-Net;該網(wǎng)絡(luò)將SE模塊中的全連接層去除,直接在全局平均池化之后的特征上通過一個(gè)1D卷積進(jìn)行學(xué)習(xí)。Shen等[38提出了一種群體多尺度注意力金字塔網(wǎng)絡(luò)(Group multi-scale attention pyramid network, GMSAPN),通過引入一個(gè)多尺度注意力模塊,聚集了不同尺度的特征,并且抑制了背景中的雜亂信息。Li等[39提出了一種跨層注意力網(wǎng)絡(luò),該網(wǎng)絡(luò)設(shè)計(jì)了一個(gè)跨層注意力模塊,獲得了每個(gè)層中小目標(biāo)的非局部關(guān)聯(lián),并通過跨層集成和平衡進(jìn)一步增強(qiáng)小目標(biāo)的特征表達(dá)能力。

    4 基于特征增強(qiáng)的小目標(biāo)檢測(cè)算法

    由于小目標(biāo)的特征信息較為缺乏,在檢測(cè)過程經(jīng)常會(huì)受到抑制,而增強(qiáng)特征能有效提高小目標(biāo)檢測(cè)性能。本文總結(jié)并分析了以下幾種特征增強(qiáng)的算法,分別為基于生成對(duì)抗網(wǎng)絡(luò)的小目標(biāo)檢測(cè)算法、基于數(shù)據(jù)增強(qiáng)的小目標(biāo)檢測(cè)算法、基于多尺度學(xué)習(xí)的小目標(biāo)檢測(cè)算法、基于上下文學(xué)習(xí)的小目標(biāo)檢測(cè)算法和基于其他優(yōu)化模型的小目標(biāo)檢測(cè)算法。

    4.1 生成對(duì)抗網(wǎng)絡(luò)

    Goodfellow等[40于2014年提出了生成對(duì)抗網(wǎng)絡(luò)(Generative adversarial network, GAN)。該網(wǎng)絡(luò)是由生成器網(wǎng)絡(luò)和鑒別器網(wǎng)絡(luò)這兩個(gè)相互對(duì)抗的子網(wǎng)絡(luò)構(gòu)成,在兩者競(jìng)爭(zhēng)對(duì)抗的過程中,將各自的參數(shù)進(jìn)行交替學(xué)習(xí)和更新。在小目標(biāo)檢測(cè)中,一般把分辨率較低的小目標(biāo)通過GAN轉(zhuǎn)換成對(duì)應(yīng)的分辨率高的特征,讓小目標(biāo)與其他較大目標(biāo)的特征差異縮小,使小目標(biāo)的特征信息表達(dá)得更清晰,從而提高小目標(biāo)檢測(cè)效果。

    Li等[41提出了一種新的生成對(duì)抗網(wǎng)絡(luò)模型,該模型通過生成對(duì)抗學(xué)習(xí),將感知到的低分辨率小目標(biāo)轉(zhuǎn)換為超分辨率表示,縮小小目標(biāo)與大目標(biāo)的表示差異,以改進(jìn)小目標(biāo)檢測(cè)算法。Bai等[42提出了多任務(wù)生成對(duì)抗網(wǎng)絡(luò)(Multi-task generative adversarial network, MTGAN),它將生成器網(wǎng)絡(luò)提升到超分辨率,該超分辨率網(wǎng)絡(luò)可以通過上采樣將不清晰的小目標(biāo)采樣到清晰的圖像中,讓不清晰的小目標(biāo)還原為清晰的狀態(tài),從而提供更多特征信息來獲得更精確的檢測(cè)結(jié)果。Noh等[43提出一種特征超分辨率方法,該方法在檢測(cè)時(shí)通過對(duì)抗生成網(wǎng)絡(luò)將普通特征轉(zhuǎn)化為超分辨率的特征,在對(duì)抗生成網(wǎng)絡(luò)轉(zhuǎn)化小目標(biāo)時(shí),會(huì)充分利用上下文信息,擴(kuò)大了感受野。

    基于生成對(duì)抗網(wǎng)絡(luò)的超分辨率圖像增強(qiáng)模型具有較好的圖像增強(qiáng)性能,但在重構(gòu)圖像時(shí)常常丟失邊緣信息,尤其是遙感小目標(biāo)。由此,Rabbi等[44提出了端到端的增強(qiáng)型超分辨率生成對(duì)抗網(wǎng)絡(luò)(End-to-end enhanced super-resolution generative adversarial network, EESRGAN),該網(wǎng)絡(luò)借鑒了EEGAN和ESRGAN,以端到端的方式運(yùn)用不同的檢測(cè)網(wǎng)絡(luò),并將得到的損失反饋回去,提高了小目標(biāo)尤其是遙感目標(biāo)的檢測(cè)性能。Zhao等[45針對(duì)紅外小目標(biāo)的基本特征,提出了一種基于生成對(duì)抗網(wǎng)絡(luò)的目標(biāo)檢測(cè)模型,該模型根據(jù)紅外小目標(biāo)其獨(dú)特的分布特征,添加了對(duì)抗性損失以提高定位能力,構(gòu)建了一個(gè)生成對(duì)抗網(wǎng)絡(luò)模型來自動(dòng)學(xué)習(xí)目標(biāo)的特征并直接預(yù)測(cè)目標(biāo)的類別概率。

    4.2 數(shù)據(jù)增強(qiáng)

    數(shù)據(jù)增強(qiáng)一般用于訓(xùn)練集,指的是讓原本少量有限的數(shù)據(jù)通過某種方法變得更多,擴(kuò)充可訓(xùn)練的樣本量,并且通過增加類別不同的樣本使其多樣性得以提升,從而減少模型對(duì)參數(shù)的依賴,可以防止模型過擬合。數(shù)據(jù)增強(qiáng)的方法一般有:將數(shù)據(jù)上下左右各種方向平移,將數(shù)據(jù)旋轉(zhuǎn)不同角度,變換顏色、調(diào)整亮度、調(diào)整飽和度和色調(diào)等。對(duì)于小目標(biāo)像素低、特征信息不足、樣本數(shù)量少等困難,數(shù)據(jù)增強(qiáng)方法也可提高小目標(biāo)檢測(cè)算法的性能。

    Kisantal等[46提出了一種復(fù)制增強(qiáng)的方法,這個(gè)方法將小目標(biāo)復(fù)制出很多個(gè)副本,增加小目標(biāo)的數(shù)量,讓訓(xùn)練集有更多的小目標(biāo)樣本,解決了小目標(biāo)在圖像中面積占比低、在圖像中分布不合理等問題,有效提升了小目標(biāo)的檢測(cè)效果。針對(duì)復(fù)制時(shí)有可能發(fā)生的背景和尺度無法配對(duì)的情況,Chen等[47提出了一種稱為RRNet的混合檢測(cè)器,引入了重采樣策略,在邏輯上進(jìn)行數(shù)據(jù)增強(qiáng);該策略是自適應(yīng)的,能夠根據(jù)當(dāng)前語(yǔ)義環(huán)境在復(fù)制數(shù)據(jù)時(shí)將數(shù)據(jù)的周圍環(huán)境信息也考慮進(jìn)去,表現(xiàn)出較好的數(shù)據(jù)增強(qiáng)效果。

    在一般情況下,網(wǎng)絡(luò)的預(yù)訓(xùn)練數(shù)據(jù)集和檢測(cè)器學(xué)習(xí)的數(shù)據(jù)集在尺度上要相適配,如果出現(xiàn)不匹配情況,可能會(huì)對(duì)特征表示和檢測(cè)器造成負(fù)面影響。針對(duì)這個(gè)問題,Yu等[17提出了一種尺度匹配方法,使兩個(gè)數(shù)據(jù)集之間的目標(biāo)尺度相適配。該方法按照目標(biāo)大小進(jìn)行相應(yīng)的裁剪,使目標(biāo)之間的尺度差異盡可能地減少,讓小目標(biāo)在縮放操作時(shí)的特征丟失大幅減少。Chen等[48引入了一種由反饋驅(qū)動(dòng)的數(shù)據(jù)提供器Stitcher,用平衡的方式訓(xùn)練目標(biāo)檢測(cè)器。在訓(xùn)練過程中,Stitcher對(duì)數(shù)據(jù)進(jìn)行壓縮和拼接,將數(shù)據(jù)集中的目標(biāo)尺度縮小一個(gè)量級(jí),解決了小目標(biāo)在數(shù)據(jù)集中占比不平衡導(dǎo)致的問題,提高了小目標(biāo)檢測(cè)性能。此外,強(qiáng)化學(xué)習(xí)也可以應(yīng)用于數(shù)據(jù)增強(qiáng),如Zoph等[49提出了一種數(shù)據(jù)增強(qiáng)方法,該方法通過強(qiáng)化學(xué)習(xí)將最合適的數(shù)據(jù)選出來,讓模型選擇最優(yōu)的數(shù)據(jù)進(jìn)行訓(xùn)練,提高了小目標(biāo)檢測(cè)性能。

    4.3 多尺度學(xué)習(xí)

    目標(biāo)檢測(cè)網(wǎng)絡(luò)的最后一層通常都是對(duì)前面獲得的特征信息進(jìn)行回歸和預(yù)測(cè),但隨著網(wǎng)絡(luò)的深入,一些較小的目標(biāo)信息在經(jīng)過大量的下采樣后逐漸損失,不容易被網(wǎng)絡(luò)識(shí)別出。小目標(biāo)在淺層網(wǎng)絡(luò)有較多的坐標(biāo)信息,在深層網(wǎng)絡(luò)中有較多上下文信息,兼顧這兩種信息才能更好地檢測(cè)小目標(biāo),而多尺度學(xué)習(xí)在一定程度上可以完成這一任務(wù)。

    Liu等[10提出了單步多框目標(biāo)檢測(cè)算法(Single shot multibox detector, SSD),該算法對(duì)不同尺度的特征圖進(jìn)行分層檢測(cè),淺層的特征圖感受野小,適合檢測(cè)小目標(biāo),深層特征圖感受野大,適合檢測(cè)大目標(biāo)。Bell等[50提出了Inside-outside net(ION),該網(wǎng)絡(luò)首先收集了待檢測(cè)目標(biāo)可能出現(xiàn)區(qū)域的淺層到深層的不同尺度的特征圖,并在其中提取出所需的特征,將這些不同尺度的特征信息相結(jié)合,消除了背景環(huán)境對(duì)小目標(biāo)檢測(cè)造成的影響。

    以上兩種多尺度學(xué)習(xí)方法通過對(duì)不同層次采取不同的操作進(jìn)行特征提取,此外還可以采用不同尺度特征融合的方法。Zeng等[51提出了一種增強(qiáng)多尺度特征的融合方法,即空洞空間金字塔池平衡特征金字塔網(wǎng)絡(luò)(Atrous spatial pyramid pooling-balanced-feature pyramid network, ABFPN),該網(wǎng)絡(luò)采用具有不同膨脹率的空洞卷積算子來充分利用上下文信息,應(yīng)用跳躍連接來實(shí)現(xiàn)特征的充分融合。Lin等[52提出了特征金字塔網(wǎng)絡(luò)(Feature pyramid networks, FPN),該網(wǎng)絡(luò)在特征提取網(wǎng)絡(luò)之后,將特征提取獲得的最后一層特征層經(jīng)過上采樣后與相鄰的同尺寸的特征層進(jìn)行融合,可以在不浪費(fèi)較多計(jì)算資源的情況下獲得更好的特征增強(qiáng)效果。Han等[53提出了多尺度殘差塊(Multiscale residual block, MRB),通過在級(jí)聯(lián)殘差塊中使用擴(kuò)張卷積來捕獲多尺度上下文信息,從而提高卷積神經(jīng)網(wǎng)絡(luò)的特征表示能力。Cao等[54提出了Feature-fused SSD,該算法在SSD上改進(jìn),特征融合時(shí)增加了上下文信息,減少了小目標(biāo)檢測(cè)的計(jì)算時(shí)間。Li等[13提出了特征融合單階段多框檢測(cè)器(Feature fusion single shot multi-box detector, FSSD),該算法在特征融合階段選擇小型模塊,先將不同尺度的特征提取出來,然后將它們?nèi)诤系揭粋€(gè)較大尺度的特征圖中,之后在這個(gè)大尺度的特征圖上建立FPN,解決了在不同特征層上提取的特征尺度不同導(dǎo)致融合困難的問題。

    除了將不同尺度特征融合的方法外,提升特征圖尺度和增強(qiáng)圖像分辨率也是有效的方法。Nayan等[55提出了一種目標(biāo)檢測(cè)算法,在特征融合階段,將特征圖向上采樣,使特征圖尺度增大,并使用跳躍連接,可以獲得不同尺度下的多種特征,在對(duì)小目標(biāo)檢測(cè)上取得了不錯(cuò)的提升。Liu等[56提出了一種高分辨率檢測(cè)網(wǎng)絡(luò)(High-resolution detection network, HRDNet),通過將高分辨率圖像輸入淺層網(wǎng)絡(luò),以保留更多位置信息并降低計(jì)算成本,將低分辨率圖像輸入深層網(wǎng)絡(luò)以提取更多語(yǔ)義信息,不僅能節(jié)約計(jì)算成本還能增強(qiáng)檢測(cè)效果。Deng等[57提出了擴(kuò)展特征金字塔網(wǎng)絡(luò)(Extended feature pyramid network, EFPN),EFPN的特征金字塔具有超高分辨率,適合檢測(cè)小目標(biāo),能夠有效解決特征金字塔中不同尺度的特征耦合影響小目標(biāo)檢測(cè)性能的不足。

    4.4 上下文學(xué)習(xí)

    由于小目標(biāo)分辨率較低,特征信息較少,小目標(biāo)檢測(cè)較易受周圍背景環(huán)境信息影響,因此將小目標(biāo)周圍的背景環(huán)境信息即上下文信息作為額外信息能有效地提升小目標(biāo)檢測(cè)性能。

    Feng等[58提出了三重上下文感知網(wǎng)絡(luò)(Triple context-aware network, TCANet),該網(wǎng)絡(luò)引入了全局上下文感知增強(qiáng)(Global context-aware enhancement, GCAE)模塊,通過捕獲全局視覺場(chǎng)景上下文來激活整個(gè)目標(biāo)的特征。Lim等[35提出了一種基于上下文連接多尺度特征的目標(biāo)檢測(cè)方法,該方法通過連接多尺度特征,將各層的附加特征作為語(yǔ)義特征,并引入了注意力機(jī)制,使模型關(guān)注圖像中的目標(biāo),更好地利用語(yǔ)義信息,提高了模型在實(shí)際場(chǎng)景下對(duì)小目標(biāo)的檢測(cè)性能。Shen等[59提出了一種基于特征聚合模塊和混合注意力選擇模塊HSFA2Net的室內(nèi)多人檢測(cè)網(wǎng)絡(luò)模型,其中特征聚合模塊使用聚合和離散的思想來融合環(huán)境語(yǔ)義信息,給小目標(biāo)多人檢測(cè)提供了更多的詳細(xì)信息,而提出的改進(jìn)混合注意選擇模塊將選擇機(jī)制與混合注意模塊相結(jié)合,解決了室內(nèi)群體特征和背景特征重疊且分類邊界不明顯的問題,有效地提高了室內(nèi)小目標(biāo)多人的檢測(cè)效果。Cui等[60提出了一種上下文感知塊網(wǎng)絡(luò)(Context-aware block net, CAB Net),通過構(gòu)建高分辨率和強(qiáng)語(yǔ)義特征圖來提高小目標(biāo)檢測(cè)性能。Leng等[61提出了一種基于內(nèi)部-外部網(wǎng)絡(luò)(Internal-external network, IENet)的檢測(cè)器,它使用目標(biāo)的外觀和上下文信息進(jìn)行魯棒檢測(cè),從特征提取、定位和分類等方面改進(jìn)了小目標(biāo)檢測(cè)算法。Guan等[62提出了語(yǔ)義上下文感知網(wǎng)絡(luò)(Semantic context aware network, SCAN),通過金字塔池化融合多級(jí)上下文信息,以構(gòu)建上下文感知特征,有效提高了對(duì)小目標(biāo)檢測(cè)的性能。

    由此可見,小目標(biāo)與背景場(chǎng)景存在一定的聯(lián)系,通過研究這種關(guān)系可以有效提升小目標(biāo)的檢測(cè)性能。

    4.5 其他優(yōu)化模型

    損失函數(shù)對(duì)小目標(biāo)檢測(cè)的效果有很大影響,將其優(yōu)化也是一種不錯(cuò)的思路。Chen等[48發(fā)現(xiàn)由于小目標(biāo)在圖像中面積占比較少,在模型訓(xùn)練時(shí)小目標(biāo)對(duì)損失函數(shù)基本沒有有效的反饋,因此提出了一種目標(biāo)檢測(cè)算法Stitcher,將訓(xùn)練損失作為反饋,指導(dǎo)下一次訓(xùn)練的迭代更新,大幅提高了小目標(biāo)檢測(cè)精度。Kim等[63提出了類不確定性感知(Class uncertainty-aware, CUA)損失,CUA損失在調(diào)制損失函數(shù)時(shí)考慮了預(yù)測(cè)模糊性以及對(duì)分類分?jǐn)?shù)的預(yù)測(cè)。Shuang等[64提出了尺度平衡損失(Scale-balanced loss, SBL),SBL通過重新加權(quán)策略顯著提高了多尺度目標(biāo)尤其是小目標(biāo)的檢測(cè)精度。

    分階段檢測(cè)也是一種提升小目標(biāo)檢測(cè)性能的方法。Chen等[65提出一種雙重檢測(cè)器Dubox,該檢測(cè)器分兩次檢測(cè),第一個(gè)檢測(cè)器盡可能地檢測(cè)小目標(biāo),第二個(gè)檢測(cè)器幫第一個(gè)檢測(cè)器檢測(cè)遺漏或者無法檢測(cè)的小目標(biāo)。

    尺度自適應(yīng)也能提高小目標(biāo)的檢測(cè)性能。Gao等[66采用從粗略到精細(xì)的檢測(cè)方式,對(duì)低分辨的圖像進(jìn)行粗略檢測(cè),對(duì)目標(biāo)有可能出現(xiàn)的位置進(jìn)行放大,并在該高分辨的區(qū)域進(jìn)行精細(xì)搜索,通過不斷循環(huán)以上操作,提高網(wǎng)絡(luò)對(duì)于小目標(biāo)的檢測(cè)性能。

    平衡小目標(biāo)檢測(cè)的準(zhǔn)確率和計(jì)算時(shí)間也是一種改進(jìn)思路。Sun等[67提出了模塊化特征融合檢測(cè)器(Modular feature fusion detector, MFFD),該檢測(cè)器包含了兩個(gè)基本模塊用于高效計(jì)算,前模塊減少了原始輸入圖像的信息損失,后模塊減少了模型大小和計(jì)算成本,同時(shí)確保了檢測(cè)精度。

    以上基于深度學(xué)習(xí)模型的小目標(biāo)檢測(cè)算法的優(yōu)缺點(diǎn)見表1。

    5 小目標(biāo)數(shù)據(jù)集、檢測(cè)算法評(píng)價(jià)指標(biāo)和各類檢測(cè)算法的性能

    目前,大多數(shù)目標(biāo)檢測(cè)算法在常規(guī)數(shù)據(jù)集上已經(jīng)得到了較好的效果,但對(duì)于小目標(biāo)數(shù)據(jù)集的效果還較差。對(duì)于一個(gè)算法,需要合適的數(shù)據(jù)集進(jìn)行訓(xùn)練和檢驗(yàn),因此適合小目標(biāo)檢測(cè)的數(shù)據(jù)集十分重要。以下介紹一些適合用來檢測(cè)小目標(biāo)的公共數(shù)據(jù)集和小目標(biāo)檢測(cè)算法的評(píng)價(jià)指標(biāo),并對(duì)一些算法在小目標(biāo)數(shù)據(jù)集上的檢測(cè)性能進(jìn)行分析。

    5.1 主流小目標(biāo)數(shù)據(jù)集介紹

    a)MS COCO數(shù)據(jù)集[15。該數(shù)據(jù)集由微軟構(gòu)建,是一個(gè)龐大的、樣本充足的目標(biāo)檢測(cè)、語(yǔ)義分割和關(guān)鍵點(diǎn)檢測(cè)數(shù)據(jù)集。該數(shù)據(jù)集共有330萬幅圖像,包括80個(gè)目標(biāo)類別和91個(gè)物體類別,有20多萬幅已標(biāo)注的圖像。相比于PASCAL VOC數(shù)據(jù)集和ImageNet數(shù)據(jù)集,MS COCO數(shù)據(jù)集中的小目標(biāo)數(shù)量更多。

    b)DOTA數(shù)據(jù)集[68。該數(shù)據(jù)集是由航拍圖像構(gòu)成的小目標(biāo)檢測(cè)數(shù)據(jù)集,由武漢大學(xué)于2017年11月建立。該數(shù)據(jù)集共有2806幅圖像,共有15種標(biāo)簽的類型,尺寸由800×800到4000×4000不等,共有35 Gi。完全標(biāo)注的DOTA圖像包含188282個(gè)樣本,每個(gè)樣本都由一個(gè)四邊形標(biāo)注。

    c)WIDER FACE數(shù)據(jù)集[69。該數(shù)據(jù)集是一個(gè)大規(guī)模人臉圖像的benchmark數(shù)據(jù)集合,包括32203幅圖像,共有393703個(gè)帶有標(biāo)簽的人臉。該數(shù)據(jù)集被分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,其中:訓(xùn)練集包含158989個(gè)帶有標(biāo)簽的人臉,驗(yàn)證集包含39496個(gè)帶有標(biāo)簽的人臉,測(cè)試集包含了195218個(gè)帶有標(biāo)簽的人臉。WIDER FACE數(shù)據(jù)集考慮了通用目標(biāo)的檢測(cè)效率以及對(duì)人眼的識(shí)別程度,按照像素高低把人臉分為3個(gè)尺度:大尺度(>300像素)、中尺度(50~300像素)、小尺度(10~50像素)。每種人臉的大小、位置以及光線、動(dòng)作、遮擋角度等各類情況較為全面。

    d)WiderPerson數(shù)據(jù)集[70。該數(shù)據(jù)集是比較擁擠場(chǎng)景的行人檢測(cè)數(shù)據(jù)集,其圖像由多種場(chǎng)景組成,不只有交通場(chǎng)景。數(shù)據(jù)集共有13382幅圖像,有5個(gè)不同種類的標(biāo)簽,共有40萬多條遮擋注釋。在該數(shù)據(jù)集中,訓(xùn)練集、驗(yàn)證集、測(cè)試集圖像數(shù)量之比大約為8∶1∶4。

    e)TinyPerson數(shù)據(jù)集[17。該數(shù)據(jù)集為海上快速救援背景下的小目標(biāo)人群數(shù)據(jù)集,主要關(guān)注海邊的人。TinyPerson數(shù)據(jù)集在海上和海灘場(chǎng)景中人物圖像的分辨率很低,一般少于20個(gè)像素。在TinyPerson數(shù)據(jù)集中,人像的縱橫比有較大差異,人的姿勢(shì)和拍攝視角更加復(fù)雜,在多樣性方面對(duì)現(xiàn)有數(shù)據(jù)集進(jìn)行了有效補(bǔ)充。在TinyPerson數(shù)據(jù)集中,有很多帶有密集目標(biāo)的圖像(每個(gè)圖像超過200個(gè)人)。

    f)BIRDSAI數(shù)據(jù)集[71。該數(shù)據(jù)集由Bondi等[71在WACV 2020上提出。該數(shù)據(jù)集通過在無人機(jī)上安裝紅外攝像頭以模仿鳥的視覺拍攝獲得的,是一個(gè)大自然場(chǎng)景的數(shù)據(jù)集。該數(shù)據(jù)集一共包含10個(gè)種類,有各種動(dòng)物、人類還有未知事物,其中還有一些特殊圖像,如圖像尺寸劇烈變化、熱反射造成的背景混亂、攝像機(jī)旋轉(zhuǎn)抖動(dòng)造成的圖像模糊等。

    5.2 小目標(biāo)檢測(cè)算法的評(píng)價(jià)指標(biāo)

    小目標(biāo)檢測(cè)算法的評(píng)價(jià)指標(biāo)主要有精確率、召回率、平均精度、平均精確度均值和每秒處理幀數(shù)。待檢測(cè)目標(biāo)分為正樣本(Positive)和負(fù)樣本(Negative)兩類,而檢測(cè)目標(biāo)樣本分為如下四4類:a)True positives (TP)是正樣本被正確預(yù)測(cè)為正樣本;b)False positives (FP)是本為負(fù)樣本被錯(cuò)誤地預(yù)測(cè)為正樣本;c)True negatives(TN)是本為負(fù)樣本被正確預(yù)測(cè)為負(fù)樣本;d)False negatives(FN)是正樣本被錯(cuò)誤預(yù)測(cè)為負(fù)樣本。小目標(biāo)檢測(cè)的評(píng)價(jià)指標(biāo)分為如下5種:

    a)精確率(Precision):是指正確被預(yù)測(cè)為正樣本的樣本個(gè)數(shù)與所有被預(yù)測(cè)為正樣本的樣本個(gè)數(shù)的比值,計(jì)算公式為:p=nTP/(nTP+nFP),其中:p表示精確率,nTP表示TP樣本數(shù),nFP表示FP樣本數(shù)。

    b)召回率(Recall):是指正確被預(yù)測(cè)的正樣本個(gè)數(shù)與所有正樣本的比值,計(jì)算公式為:r=nTP/(nTP+nFN),其中r表示召回率。

    c)平均精度(Average precision,AP):在多類物體檢測(cè)中,單個(gè)類別以召回率為橫坐標(biāo),以精確率為縱坐標(biāo),與在根據(jù)一定閾值計(jì)算基礎(chǔ)形成的曲線所圍成的面積稱為AP。對(duì)于單類目標(biāo)檢測(cè)效果越好,AP值越高。

    d)平均精確度均值(Mean average precision,mAP):在檢測(cè)多類目標(biāo)時(shí),分別計(jì)算一次每一類目標(biāo)的AP,再做平均運(yùn)算即為mAP。mAP一般用來衡量模型在檢測(cè)多類目標(biāo)時(shí)表現(xiàn)的優(yōu)劣程度。

    e)每秒處理幀數(shù)(Frames per second,F(xiàn)PS):對(duì)于評(píng)價(jià)一個(gè)目標(biāo)檢測(cè)算法的檢測(cè)速度,通常采用FPS每秒處理幀數(shù)這一指標(biāo)。FPS值越大,表示算法檢測(cè)速度越快。

    5.3 典型基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法的性能

    以MS COCO數(shù)據(jù)集作為檢測(cè)數(shù)據(jù)集,近幾年較為典型的目標(biāo)檢測(cè)算法性能對(duì)比情況見表2。表2中APS、APM、APL分別表示小目標(biāo)、中目標(biāo)、大目標(biāo)的平均精度。通過對(duì)比分析可以得出,各種算法對(duì)于小目標(biāo)的平均精度都遠(yuǎn)不及大目標(biāo),基本上小目標(biāo)的平均精度都只有大目標(biāo)的50%,這說明小目標(biāo)檢測(cè)算法目前還不夠完善,仍有待提升。在表2中,Scaled-YOLOv4[72是效果最好的檢測(cè)算法,這主要因?yàn)樵撍惴闪吮姸鄡?yōu)秀的改進(jìn)方法,例如特征融合、數(shù)據(jù)增強(qiáng)、多尺度學(xué)習(xí)、上下文學(xué)習(xí)等。

    6 結(jié) 語(yǔ)

    本文對(duì)基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)算法進(jìn)行了總結(jié),介紹了小目標(biāo)檢測(cè)算法的難點(diǎn)與評(píng)價(jià)指標(biāo),綜述了基于錨框優(yōu)化、網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化、特征增強(qiáng)的小目標(biāo)檢測(cè)算法,介紹了小目標(biāo)數(shù)據(jù)集并分析了各類檢測(cè)算法的性能。對(duì)于小目標(biāo)檢測(cè)的難點(diǎn),目前已經(jīng)解決的有如下幾點(diǎn):

    a)對(duì)于小目標(biāo)的特征信息難以被充分提取的問題,可以采用網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化中的基于Neck優(yōu)化的方法。將特征融合與特征增強(qiáng)模塊引入小目標(biāo)檢測(cè)模型,可以有效解決小目標(biāo)在特征信息不足的情況下,經(jīng)過特征提取網(wǎng)絡(luò)后損失大量特征而導(dǎo)致檢測(cè)效果低下的問題。

    b)對(duì)于小目標(biāo)樣本在數(shù)據(jù)集中難以平均分布的問題,可以采用數(shù)據(jù)增強(qiáng)的方法。如果是樣本數(shù)量不足,可以采用復(fù)制增強(qiáng)的方法。如果是樣本多樣性不足、數(shù)據(jù)集過于單一導(dǎo)致模型過擬合,可以采用顏色變換、隨機(jī)翻轉(zhuǎn)、隨機(jī)裁剪等方法增加樣本的多樣性。

    c)對(duì)于小目標(biāo)檢測(cè)模型的先驗(yàn)框難以設(shè)置的問題,可以采用錨框優(yōu)化的方法。針對(duì)小目標(biāo)尺寸較小且比例不統(tǒng)一不易被框選的問題,目前主要的解決思路是采用自適應(yīng)的動(dòng)態(tài)錨框。

    d)對(duì)于小目標(biāo)檢測(cè)模型的損失函數(shù)難以設(shè)置的問題,可以采用優(yōu)化損失函數(shù)的方法。目前大多目標(biāo)檢測(cè)模型的損失函數(shù)都是為大、中目標(biāo)檢測(cè)算法設(shè)置的,并不適合小目標(biāo)檢測(cè)算法,因此可以優(yōu)化損失函數(shù),使其對(duì)小目標(biāo)也能起作用。

    e)對(duì)于小目標(biāo)檢測(cè)模型的正負(fù)樣本難以匹配的問題,可以采用Anchor Free方法。由于Anchor Based的檢測(cè)模型一般將錨框與物體的交并比大于50%的當(dāng)作正樣本,但小目標(biāo)一般難以滿足這一要求,導(dǎo)致正負(fù)樣本失衡。采用Anchor Free方法后,不需要滿足交并比大于50%這一要求去尋找正樣本,通過關(guān)鍵點(diǎn)或者語(yǔ)義分割的方法可以更加準(zhǔn)確地找到正樣本,并且比起Anchor Based方法正樣本的遺漏率更低。

    目前,隨著深度學(xué)習(xí)的快速發(fā)展,小目標(biāo)檢測(cè)算法也隨之完善,但仍有待提升。本文提及的數(shù)據(jù)增強(qiáng)、多尺度學(xué)習(xí)等方法可以在一定程度上解決小目標(biāo)樣本分布不均、難以提取充足特征信息等問題,但小目標(biāo)檢測(cè)仍面臨許多困難,以下方面還需進(jìn)一步研究:

    a)小目標(biāo)檢測(cè)模型難以通用。目前,小目標(biāo)檢測(cè)模型基本上都是專用于檢測(cè)某一類物體,如專門用于檢測(cè)織物瑕疵或者針對(duì)醫(yī)學(xué)影像,這樣很難將一個(gè)模型遷移到另一個(gè)模型上。對(duì)于通用性差的問題,在目前還沒有較好的解決方案。而且,不僅僅是小目標(biāo)檢測(cè)模型的通用性差,小目標(biāo)數(shù)據(jù)集的通用性也不足。研究通用的小目標(biāo)檢測(cè)模型是未來重要的發(fā)展方向,建立大體量、多種類的小目標(biāo)數(shù)據(jù)集也是一項(xiàng)非常重要的工作。

    b)小目標(biāo)檢測(cè)模型難以較好地平衡耗時(shí)與精度?,F(xiàn)階段大多數(shù)小目標(biāo)檢測(cè)模型的規(guī)模都比較大,冗余程度比較高,如何在維持高精度的檢測(cè)結(jié)果下簡(jiǎn)化檢測(cè)模型,還需再進(jìn)一步研究。目前該方向較為主流的思路是采用知識(shí)蒸餾的方法,將大模型在盡可能保持精度的情況下轉(zhuǎn)化為輕量級(jí)的模型。

    c)特定場(chǎng)景的小目標(biāo)檢測(cè)。在遙感航拍等特定場(chǎng)景中,小目標(biāo)非常密集,這非常不利于檢測(cè)。由于大、中目標(biāo)在一幅圖中所占面積比較大,而圖像總面積有限,不會(huì)出現(xiàn)密集的大規(guī)模檢測(cè)情況,因此該問題只針對(duì)小目標(biāo)。特定場(chǎng)景的小目標(biāo)檢測(cè)也將是研究的熱點(diǎn)之一。

    參考文獻(xiàn):

    [1]Zou Z X, Shi Z W, Guo Y H, et al. Object detection in 20 years: A survey[EB/OL]. (2019-05-13)[2022-11-18]. https:∥arxiv.org/abs/1905.05055.

    [2]張順, 龔怡宏, 王進(jìn)軍. 深度卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用[J]. 計(jì)算機(jī)學(xué)報(bào), 2019, 42(3): 453-482.

    [3]陳科圻, 朱志亮, 鄧小明, 等. 多尺度目標(biāo)檢測(cè)的深度學(xué)習(xí)研究綜述[J]. 軟件學(xué)報(bào), 2021, 32(4): 1201-1227.

    [4]Ren S Q, He K M, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

    [5]Sun P Z, Zhang R F, Jiang Y, et al. Sparse R-CNN: End-to-end object detection with learnable proposals[C]∥2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, USA. IEEE, 2021: 14449-14458.

    [6]Qiao L M, Zhao Y X, Li Z Y, et al. DeFRCN: Decoupled faster R-CNN for few-shot object detection[C]∥2021 IEEE/CVF International Conference on Computer Vision (ICCV). Montreal, Canada. IEEE, 2021: 8681-8690.

    [7]Redmon J, Farhadi A. YOLOv3: An incremental improvement [EB/OL]. (2018-04-08)[2022-11-18]. https:∥arxiv.org/abs/1804.02767.

    [8]Li C, Li L, Jiang H, et al. YOLOv6: A single-stage object detection framework for industrial applications [EB/OL]. (2022-09-07)[2022-11-18]. https:∥arxiv.org/abs/2209.02976.

    [9]Wang C Y, Bochkovskiy A, Liao H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[EB/OL]. (2022-07-06)[2022-11-18]. https:∥arxiv.org/abs/2207.02696.

    [10]Liu W, Anguelov D, Erhan D, et al. SSD: single shot MultiBox detector[C]∥Proceedings of the 14th European Conference on Computer Vision. Cham: Springer International Publishing, 2016: 21-37.

    [11]Fu C Y, Liu W, Ranga A, et al. DSSD: Deconvolutional single shot detector[EB/OL].(2017-01-23)[2022-11-18].https:∥arxiv.org/abs/1701.06659.

    [12]Zhou S R, Qiu J. Enhanced SSD with interactive multi-scale attention features for object detection[J]. Multimedia Tools and Applications, 2021, 80(8): 11539-11556.

    [13]Li Z X, Zhou F Q. FSSD: feature fusion single shot multi-box detector[EB/OL]. (2017-12-04)[2022-11-18]. https:∥arxiv.org/abs/1712.00960.

    [14]Chen G, Wang H T, Chen K, et al. A survey of the four pillars for small object detection: Multiscale representation, contextual information, super-resolution, and region proposal[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2022, 52(2): 936-953.

    [15]Lin T Y, Maire M, Belongie S, et al. Microsoft COCO: Common objects in context[C]∥Proceedings of European Conference on Computer Vision. Cham: Springer International Publishing, 2014: 740-755.

    [16]寧欣, 田偉娟, 于麗娜, 等. 面向小目標(biāo)和遮擋目標(biāo)檢測(cè)的腦啟發(fā)CIRA-DETR全推理方法[J]. 計(jì)算機(jī)學(xué)報(bào), 2022, 45(10): 2080-2092.

    [17]Yu X H, Gong Y Q, Jiang N, et al. Scale match for tiny person detection[C]∥Proceedings of the IEEE Winter Conference on Applications of Computer Vision. Snowmass, USA. IEEE, 2020: 1246-1254.

    [18]聶光濤, 黃華. 光學(xué)遙感圖像目標(biāo)檢測(cè)算法綜述[J]. 自動(dòng)化學(xué)報(bào), 2021, 47(8): 1749-1768.

    [19]Yang T, Zhang X Y, Li Z M, et al. MetaAnchor: Learning to detect objects with customized anchors[C]∥Proceedings of the 32nd International Conference on Neural Information Processing Systems. New York: ACM, 2018: 318-328.

    [20]Zhang S F, Zhu X Y, Lei Z, et al. S3FD: Single shot scale-invariant face detector[C]∥2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy. IEEE, 2017: 192-201.

    [21]Wang J Q, Chen K, Yang S, et al. Region proposal by guided anchoring[C]∥2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, USA. IEEE, 2019: 2960-2969.

    [22]Zhang S F, Zhu X Y, Lei Z, et al. FaceBoxes: A CPU real-time face detector with high accuracy[C]∥2017 IEEE International Joint Conference on Biometrics (IJCB). Denver, USA. IEEE, 2018: 1-9.

    [23]Zhu C C, Tao R, Luu K, et al. Seeing small faces from robust anchor′s perspective[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA. IEEE, 2018: 5127-5136.

    [24]Wang J F, Yuan Y, Li B X, et al. SFace: An efficient network for face detection in large scale variations[EB/OL]. (2018-04-18)[2022-11-18]. https:∥arxiv.org/abs/1804.06559.

    [25]Tychsen-Smith L, Petersson L. DeNet: Scalable real-time object detection with directed sparse sampling[C]∥2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy. IEEE, 2017: 428-436.

    [26]Law H, Deng J. CornerNet: Detecting objects as paired keypoints[C]∥Proceedings of the European Conference on Computer Vision (ECCV). Cham: Springer International Publishing, 2018: 765-781.

    [27]Duan K W, Bai S, Xie L X, et al. CenterNet: Keypoint triplets for object detection[C]∥2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South). IEEE, 2020: 6568-6577.

    [28]Tian Z, Shen C H, Chen H, et al. FCOS: Fully convolutional one-stage object detection[C]∥2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South). IEEE, 2020: 9626-9635.

    [29]Khan A, Sohail A, Zahoora U, et al. A survey of the recent architectures of deep convolutional neural networks[J]. Artificial Intelligence Review, 2020, 53(8): 5455-5516.

    [30]Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4: Optimal speed and accuracy of object detection[EB/OL]. (2020-04-23)[2022-11-18]. https:∥arxiv.org/abs/2004.10934.

    [31]崔文靚, 王玉靜, 康守強(qiáng), 等. 基于改進(jìn) YOLOv3 算法的公路車道線檢測(cè)方法[J]. 自動(dòng)化學(xué)報(bào), 2022, 45: 1-9.

    [32]Pan Z H, Chen Y. Object detection algorithm based on dense connection[C]∥2019 IEEE 4th Advanced Information Technology, Electronic and Automation Control Conference. Chengdu. IEEE, 2020: 1558-1562.

    [33]謝星星, 程塨, 姚艷清, 等. 動(dòng)態(tài)特征融合的遙感圖像目標(biāo)檢測(cè)[J]. 計(jì)算機(jī)學(xué)報(bào), 2022, 45(4): 735-747.

    [34]Ghiasi G, Lin T Y, Le Q V. NAS-FPN: Learning scalable feature pyramid architecture for object detection[C]∥2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA. IEEE, 2020: 7029-7038.

    [35]Lim J S, Astrid M, Yoon H J, et al. Small object detection using context and attention[C]∥2021 International Conference on Artificial Intelligence in Information and Communication (ICAIIC). Jeju Island, Korea (South). IEEE, 2021: 181-186.

    [36]Hu J, Shen L, Albanie S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023.

    [37]Wang Q L, Wu B G, Zhu P F, et al. ECA-Net: Efficient channel attention for deep convolutional neural networks[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA. IEEE, 2020: 11531-11539.

    [38]Shen L L, You L, Peng B, et al. Group multi-scale attention pyramid network for traffic sign detection[J]. Neurocomputing, 2021, 452: 1-14.

    [39]Li Y Y, Huang Q, Pei X, et al. Cross-layer attention network for small object detection in remote sensing imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 14: 2148-2161.

    [40]Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial networks[J]. Communications of the ACM, 2020, 63(11): 139-144.

    [41]Li J N, Liang X D, Wei Y C, et al. Perceptual generative adversarial networks for small object detection[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, USA. IEEE, 2017: 1951-1959.

    [42]Bai Y C, Zhang Y Q, Ding M L, et al. SOD-MTGAN: Small object detection via multi-task generative adversarial network[C]∥Proceedings of the European Conference on Computer Vision (ECCV). Cham: Springer International Publishing, 2018: 210-226.

    [43]Noh J, Bae W, Lee W, et al. Better to follow, follow to be better: Towards precise supervision of feature super-resolution for small object detection[C]∥2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea(South). IEEE, 2020: 9724-9733.

    [44]Rabbi J, Ray N, Schubert M, et al. Small-object detection in remote sensing images with end-to-end edge-enhanced GAN and object detector network[J]. Remote Sensing, 2020, 12(9): 1432.

    [45]Zhao B, Wang C P, Fu Q, et al. A novel pattern for infrared small target detection with generative adversarial network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(5): 4481-4492.

    [46]Kisantal M, Wojna Z, Murawski J, et al. Augmentation for small object detection[EB/OL]. (2019-02-19)[2022-11-18]. https:∥arxiv.org/abs/1902.07296.

    [47]Chen C R, Zhang Y, Lv Q X, et al. RRNet: A hybrid detector for object detection in drone-captured images[C]∥2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW). Seoul, Korea (South). IEEE, 2020: 100-108.

    [48]Chen Y K, Zhang P Z, Li Z M, et al. Stitcher: Feedback-driven data provider for object detection[EB/OL]. (2020-04-26)[2022-11-18]. https:∥arxiv.org/abs/2004.12432.

    [49]Zoph B, Cubuk E D, Ghiasi G, et al. Learning data augmentation strategies for object detection[C]∥Proceedings of the European Conference on Computer Vision (ECCV). Cham: Springer International Publishing, 2020: 566-583.

    [50]Bell S, Lawrence Zitnick C, Bala K, et al. Inside-outside net: Detecting objects in context with skip pooling and recurrent neural networks[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, USA. IEEE, 2016: 2874-2883.

    [51]Zeng N Y, Wu P S, Wang Z D, et al. A small-sized object detection oriented multi-scale feature fusion approach with application to defect detection[J]. IEEE Transactions on Instrumentation and Measurement, 2022, 71: 1-14.

    [52]Lin T Y, Dollár P, Girshick R, et al. Feature pyramid networks for object detection[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, USA. IEEE, 2017: 936-944.

    [53]Han W X, Kuerban A, Yang Y C, et al. Multi-vision network for accurate and real-time small object detection in optical remote sensing images[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 1-5.

    [54]Cao G M, Xie X M, Yang W Z, et al. Feature-fused SSD: Fast detection for small objects[C]∥Ninth International Conference on Graphic and Image Processing (ICGIP 2017). Qingdao: SPIE, 2018: 381-388.

    [55]Nayan A A, Saha J, Mozumder A N. Real time detection of small objects[J]. International Journal of Innovative Technology and Exploring Engineering, 2020, 9(5): 837-839.

    [56]Liu Z M, Gao G Y, Sun L, et al. HRDNet: High-resolution detection network for small objects[C]∥2021 IEEE International Conference on Multimedia and Expo (ICME). Shenzhen, China. IEEE, 2021: 1-6.

    [57]Deng C F, Wang M M, Liu L, et al. Extended feature pyramid network for small object detection[J]. IEEE Transactions on Multimedia, 2022, 24: 1968-1979.

    [58]Feng X X, Han J W, Yao X W, et al. TCANet: Triple context-aware network for weakly supervised object detection in remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(8): 6946-6955.

    [59]Shen W X, Qin P L, Zeng J C. An indoor crowd detection network framework based on feature aggregation module and hybrid attention selection module[C]∥2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW). Seoul, Korea(South). IEEE, 2020: 82-90.

    [60]Cui L S, Lv P, Jiang X H, et al. Context-aware block net for small object detection[J]. IEEE Transactions on Cybernetics, 2022, 52(4): 2300-2313.

    [61]Leng J X, Ren Y H, Jiang W, et al. Realize your surroundings: Exploiting context information for small object detection[J]. Neurocomputing, 2021, 433: 287-299.

    [62]Guan L T, Wu Y, Zhao J Q. SCAN: Semantic context aware network for accurate small object detection[J]. International Journal of Computational Intelligence Systems, 2018, 11(1): 951.

    [63]Kim J U, Kim S T, Lee H J, et al. CUA loss: Class uncertainty-aware gradient modulation for robust object detection[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2021, 31(9): 3529-3543.

    [64]Shuang K, Lyu Z H, Loo J, et al. Scale-balanced loss for object detection[J]. Pattern Recognition, 2021, 117: 107997.

    [65]Chen S, Li J P, Yao C Q, et al. DuBox: No-prior box objection detection via residual dual scale detectors[EB/OL]. (2019-04-16)[2022-11-18]. https:∥arxiv.org/abs/1904.06883.

    [66]Gao M F, Yu R C, Li A, et al. Dynamic zoom-in network for fast object detection in large images[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA. IEEE, 2018: 6926-6935.

    [67]Liu Y Z, Cao S, Lasang P, et al. Modular lightweight network for road object detection using a feature fusion approach[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2021, 51(8): 4716-4728.

    [68]Xia G S, Bai X, Ding J, et al. DOTA: A large-scale dataset for object detection in aerial images[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA. IEEE, 2018: 3974-3983.

    [69]Yang S, Luo P, Loy C C, et al. WIDER FACE: A face detection benchmark[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA. IEEE, 2016: 5525-5533.

    [70]Zhang S F, Xie Y L, Wan J, et al. Widerperson: A diverse dataset for dense pedestrian detection in the wild[J].IEEE Transactions on Multimedia, 2020, 22(2): 380-393.

    [71]Bondi E, Jain R, Aggrawal P, et al. BIRDSAI: A dataset for detection and tracking in aerial thermal infrared videos[C]∥2020 IEEE Winter Conference on Applications of Computer Vision (WACV). Snowmass, USA. IEEE, 2020: 1736-1745.

    [72]Wang C Y, Bochkovskiy A, Liao H Y M. Scaled-YOLOv4: Scaling cross stage partial network[C]∥2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, USA. IEEE, 2021: 13024-13033.

    (責(zé)任編輯:康 鋒)

    猜你喜歡
    目標(biāo)檢測(cè)圖像處理深度學(xué)習(xí)
    機(jī)器學(xué)習(xí)在圖像處理中的應(yīng)用
    電子制作(2018年18期)2018-11-14 01:48:20
    模糊圖像處理,刑事偵查利器
    圖像處理技術(shù)的實(shí)戰(zhàn)應(yīng)用
    視頻中目標(biāo)檢測(cè)算法研究
    軟件(2016年4期)2017-01-20 09:38:03
    行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
    www.999成人在线观看| 国产精品自产拍在线观看55亚洲| bbb黄色大片| 欧美大码av| 亚洲va日本ⅴa欧美va伊人久久| 免费在线观看影片大全网站| 国产黄a三级三级三级人| 免费搜索国产男女视频| www.熟女人妻精品国产| 国内精品一区二区在线观看| 午夜福利欧美成人| 一级片免费观看大全| 国产麻豆成人av免费视频| 亚洲欧美日韩高清在线视频| 精品少妇一区二区三区视频日本电影| 色综合亚洲欧美另类图片| 最近最新中文字幕大全免费视频| 91麻豆av在线| 白带黄色成豆腐渣| 美女免费视频网站| av在线天堂中文字幕| 非洲黑人性xxxx精品又粗又长| 国产探花在线观看一区二区| 亚洲专区中文字幕在线| 国产精品日韩av在线免费观看| 久久九九热精品免费| 亚洲精品国产一区二区精华液| 亚洲欧美日韩东京热| 人人妻人人澡欧美一区二区| 精品免费久久久久久久清纯| 成人三级做爰电影| 欧美精品亚洲一区二区| 精品乱码久久久久久99久播| 亚洲色图 男人天堂 中文字幕| 一本精品99久久精品77| 亚洲成人免费电影在线观看| www.999成人在线观看| 午夜福利视频1000在线观看| 国产aⅴ精品一区二区三区波| 国产亚洲精品av在线| 手机成人av网站| 亚洲 欧美 日韩 在线 免费| 日本免费一区二区三区高清不卡| 搡老岳熟女国产| 国产精品久久久人人做人人爽| 男女床上黄色一级片免费看| 丝袜美腿诱惑在线| 久久九九热精品免费| 亚洲成人久久爱视频| 免费在线观看亚洲国产| 亚洲avbb在线观看| 国产精品一区二区免费欧美| 一本综合久久免费| 精品不卡国产一区二区三区| 97碰自拍视频| 国产高清激情床上av| 99国产精品一区二区蜜桃av| 午夜久久久久精精品| av福利片在线观看| 波多野结衣高清作品| 欧美成狂野欧美在线观看| 亚洲人成网站高清观看| 久久婷婷成人综合色麻豆| 波多野结衣高清作品| 真人一进一出gif抽搐免费| 成人18禁高潮啪啪吃奶动态图| 亚洲一区中文字幕在线| 免费在线观看影片大全网站| 国产不卡一卡二| 亚洲男人天堂网一区| 久久久国产精品麻豆| 免费搜索国产男女视频| 午夜激情福利司机影院| 级片在线观看| 色综合婷婷激情| 一本综合久久免费| 在线观看免费视频日本深夜| 成人国产一区最新在线观看| 亚洲美女视频黄频| 90打野战视频偷拍视频| 1024视频免费在线观看| 精品第一国产精品| 又粗又爽又猛毛片免费看| videosex国产| av片东京热男人的天堂| 亚洲av五月六月丁香网| 欧美+亚洲+日韩+国产| 亚洲国产精品sss在线观看| 美女大奶头视频| 久久人人精品亚洲av| 欧美又色又爽又黄视频| 亚洲国产看品久久| 美女黄网站色视频| 欧美性猛交╳xxx乱大交人| 欧美成人一区二区免费高清观看 | 免费在线观看成人毛片| 亚洲国产精品久久男人天堂| 日本黄大片高清| 免费高清视频大片| www国产在线视频色| 亚洲午夜精品一区,二区,三区| 在线观看一区二区三区| 午夜免费激情av| 黑人欧美特级aaaaaa片| 嫩草影视91久久| 国产欧美日韩一区二区精品| 看免费av毛片| 亚洲国产精品sss在线观看| 69av精品久久久久久| 久久伊人香网站| 女同久久另类99精品国产91| 国产亚洲欧美在线一区二区| 久久久久国产一级毛片高清牌| 老司机在亚洲福利影院| 十八禁网站免费在线| 亚洲人成电影免费在线| 国内精品一区二区在线观看| 波多野结衣高清作品| 午夜老司机福利片| 手机成人av网站| 亚洲成人国产一区在线观看| 精品熟女少妇八av免费久了| 亚洲自偷自拍图片 自拍| av欧美777| 啪啪无遮挡十八禁网站| 国产单亲对白刺激| 精品高清国产在线一区| 亚洲色图av天堂| 色哟哟哟哟哟哟| 在线观看一区二区三区| 视频区欧美日本亚洲| 一本一本综合久久| 中文字幕最新亚洲高清| 欧美性长视频在线观看| 亚洲av片天天在线观看| 无人区码免费观看不卡| 欧美成人免费av一区二区三区| 国产成人av激情在线播放| 国产精品电影一区二区三区| 妹子高潮喷水视频| av在线播放免费不卡| 精品久久久久久久毛片微露脸| 成人av在线播放网站| 成人国语在线视频| 国产激情久久老熟女| 欧美一级毛片孕妇| 国产成人欧美在线观看| 少妇的丰满在线观看| 久久久国产成人精品二区| 成人国语在线视频| 性欧美人与动物交配| 首页视频小说图片口味搜索| xxxwww97欧美| 国产视频内射| 国产日本99.免费观看| 国产成人av教育| 久久这里只有精品19| 国产成人av教育| 亚洲精品av麻豆狂野| 亚洲中文字幕一区二区三区有码在线看 | 国产区一区二久久| 国产v大片淫在线免费观看| 欧美最黄视频在线播放免费| 久热爱精品视频在线9| 此物有八面人人有两片| 久久精品国产清高在天天线| 日本免费a在线| 免费在线观看黄色视频的| 高潮久久久久久久久久久不卡| 欧美大码av| 一夜夜www| 国内毛片毛片毛片毛片毛片| 丝袜美腿诱惑在线| 精品免费久久久久久久清纯| 亚洲七黄色美女视频| 成人午夜高清在线视频| 99久久无色码亚洲精品果冻| 一级片免费观看大全| 久久久久国内视频| 男人的好看免费观看在线视频 | 亚洲在线自拍视频| 国产成人av激情在线播放| 精品国内亚洲2022精品成人| 窝窝影院91人妻| 亚洲av成人一区二区三| 国产熟女xx| 亚洲专区字幕在线| 亚洲午夜精品一区,二区,三区| 久热爱精品视频在线9| 欧美三级亚洲精品| 老汉色∧v一级毛片| 亚洲 国产 在线| av中文乱码字幕在线| 国产在线观看jvid| 精品久久久久久,| 男女下面进入的视频免费午夜| 久久精品国产亚洲av香蕉五月| 一进一出好大好爽视频| 国产欧美日韩精品亚洲av| 亚洲成av人片免费观看| 午夜久久久久精精品| 国产精品99久久99久久久不卡| 波多野结衣高清无吗| 亚洲精品美女久久av网站| 别揉我奶头~嗯~啊~动态视频| 亚洲av成人精品一区久久| 亚洲人成网站在线播放欧美日韩| 国内揄拍国产精品人妻在线| 国产高清有码在线观看视频 | 久久久久国产精品人妻aⅴ院| av国产免费在线观看| 久久久久久久精品吃奶| 丰满人妻熟妇乱又伦精品不卡| 变态另类成人亚洲欧美熟女| 国产精品,欧美在线| 国产av又大| 看免费av毛片| 韩国av一区二区三区四区| 无限看片的www在线观看| 国产在线观看jvid| 99久久无色码亚洲精品果冻| 精品久久久久久久久久久久久| 亚洲中文字幕日韩| 日本精品一区二区三区蜜桃| 一级作爱视频免费观看| 一级毛片精品| 亚洲精品在线观看二区| 免费看美女性在线毛片视频| 色av中文字幕| 变态另类成人亚洲欧美熟女| 深夜精品福利| 亚洲成人久久爱视频| 女人爽到高潮嗷嗷叫在线视频| 国产野战对白在线观看| 两个人视频免费观看高清| 欧美中文综合在线视频| www日本在线高清视频| avwww免费| 嫁个100分男人电影在线观看| 国内久久婷婷六月综合欲色啪| 欧美成人午夜精品| 五月玫瑰六月丁香| 无人区码免费观看不卡| 超碰成人久久| 日韩欧美一区二区三区在线观看| 香蕉国产在线看| 国产激情欧美一区二区| 999精品在线视频| 精品国产乱码久久久久久男人| 91麻豆av在线| 不卡一级毛片| 麻豆国产97在线/欧美 | 观看免费一级毛片| 99久久久亚洲精品蜜臀av| 国产黄色小视频在线观看| 99热这里只有精品一区 | 熟妇人妻久久中文字幕3abv| 欧美又色又爽又黄视频| 久久精品综合一区二区三区| 国产69精品久久久久777片 | 大型黄色视频在线免费观看| 免费观看人在逋| 丰满人妻熟妇乱又伦精品不卡| 一本大道久久a久久精品| 欧美在线黄色| 欧美乱妇无乱码| 日韩欧美在线乱码| 日本五十路高清| 人成视频在线观看免费观看| 欧美成人免费av一区二区三区| 欧美三级亚洲精品| 他把我摸到了高潮在线观看| 两性夫妻黄色片| 男女那种视频在线观看| 18禁观看日本| а√天堂www在线а√下载| 久久久久国产一级毛片高清牌| 久久精品国产综合久久久| 日韩精品免费视频一区二区三区| 99国产精品一区二区蜜桃av| 两个人看的免费小视频| 国产精品99久久99久久久不卡| 亚洲国产精品sss在线观看| 国产黄a三级三级三级人| 99久久久亚洲精品蜜臀av| 免费电影在线观看免费观看| 久久久水蜜桃国产精品网| 免费观看人在逋| 欧美中文日本在线观看视频| 亚洲一区二区三区不卡视频| 精品久久久久久,| 亚洲国产欧美一区二区综合| 精品第一国产精品| 日韩免费av在线播放| 一个人免费在线观看电影 | 麻豆一二三区av精品| 国产91精品成人一区二区三区| 狂野欧美激情性xxxx| 神马国产精品三级电影在线观看 | 天天躁狠狠躁夜夜躁狠狠躁| 最新在线观看一区二区三区| 亚洲精品在线观看二区| x7x7x7水蜜桃| 国产精品久久久久久亚洲av鲁大| 国产成人一区二区三区免费视频网站| 午夜福利高清视频| 欧美日韩福利视频一区二区| 黄色 视频免费看| 亚洲精品久久国产高清桃花| 国产精品一区二区精品视频观看| 欧美黑人巨大hd| 亚洲欧美日韩东京热| 欧美性猛交╳xxx乱大交人| 丁香六月欧美| 日韩三级视频一区二区三区| 精品国产乱子伦一区二区三区| 男女做爰动态图高潮gif福利片| 国产单亲对白刺激| 一级a爱片免费观看的视频| 成人av在线播放网站| 亚洲 欧美 日韩 在线 免费| 久久性视频一级片| 欧美三级亚洲精品| 香蕉国产在线看| 熟女电影av网| 禁无遮挡网站| 妹子高潮喷水视频| 真人一进一出gif抽搐免费| 亚洲人成网站在线播放欧美日韩| 又大又爽又粗| 国产精品亚洲一级av第二区| 久久久久国内视频| 国产精品久久久久久久电影 | 亚洲av第一区精品v没综合| 欧美高清成人免费视频www| 哪里可以看免费的av片| 可以在线观看毛片的网站| 深夜精品福利| 中文字幕久久专区| 一二三四社区在线视频社区8| 校园春色视频在线观看| 妹子高潮喷水视频| 亚洲成人中文字幕在线播放| av欧美777| 狂野欧美激情性xxxx| 欧美日本亚洲视频在线播放| 可以在线观看的亚洲视频| 欧美激情久久久久久爽电影| 99在线人妻在线中文字幕| 在线免费观看的www视频| 男女床上黄色一级片免费看| 亚洲人成伊人成综合网2020| 亚洲 欧美 日韩 在线 免费| 香蕉丝袜av| 久久热在线av| 神马国产精品三级电影在线观看 | 亚洲成av人片在线播放无| 欧美黄色片欧美黄色片| 国产v大片淫在线免费观看| 久久久久亚洲av毛片大全| 香蕉国产在线看| 在线十欧美十亚洲十日本专区| 国产成年人精品一区二区| 国产区一区二久久| 欧美激情久久久久久爽电影| 黄片小视频在线播放| 夜夜夜夜夜久久久久| 国产精品一区二区精品视频观看| or卡值多少钱| 日韩欧美在线二视频| 精品电影一区二区在线| 精品免费久久久久久久清纯| 啦啦啦韩国在线观看视频| av欧美777| 日韩有码中文字幕| 亚洲最大成人中文| 国产私拍福利视频在线观看| 少妇的丰满在线观看| 18禁观看日本| 禁无遮挡网站| 欧美精品亚洲一区二区| 一个人免费在线观看的高清视频| 又爽又黄无遮挡网站| 男人舔奶头视频| 99在线视频只有这里精品首页| 亚洲色图av天堂| 亚洲熟妇熟女久久| 夜夜夜夜夜久久久久| 欧美日韩瑟瑟在线播放| 午夜福利免费观看在线| 精品久久久久久成人av| 动漫黄色视频在线观看| 亚洲性夜色夜夜综合| 国产精品 欧美亚洲| 久久久久亚洲av毛片大全| 丝袜人妻中文字幕| 国产1区2区3区精品| 国产主播在线观看一区二区| 非洲黑人性xxxx精品又粗又长| 久热爱精品视频在线9| 性色av乱码一区二区三区2| 又黄又粗又硬又大视频| 久久中文字幕人妻熟女| 精品久久久久久久久久免费视频| 午夜免费成人在线视频| 久久性视频一级片| 欧美不卡视频在线免费观看 | 亚洲av成人精品一区久久| 在线永久观看黄色视频| 欧美3d第一页| 18禁观看日本| 一边摸一边抽搐一进一小说| 可以在线观看毛片的网站| 国产高清激情床上av| 夜夜夜夜夜久久久久| 可以在线观看毛片的网站| 国产午夜精品论理片| 国产三级黄色录像| 午夜成年电影在线免费观看| 亚洲自拍偷在线| 国产精品美女特级片免费视频播放器 | 男女做爰动态图高潮gif福利片| 在线看三级毛片| 欧美日韩一级在线毛片| 亚洲国产高清在线一区二区三| 日本a在线网址| 亚洲欧美日韩高清在线视频| 久久精品夜夜夜夜夜久久蜜豆 | 日日爽夜夜爽网站| 国产欧美日韩一区二区三| e午夜精品久久久久久久| 亚洲中文字幕一区二区三区有码在线看 | 一区福利在线观看| 国产成人啪精品午夜网站| 免费av毛片视频| 两个人看的免费小视频| 床上黄色一级片| 黑人操中国人逼视频| 丝袜美腿诱惑在线| 手机成人av网站| a在线观看视频网站| 免费在线观看影片大全网站| 两人在一起打扑克的视频| 搡老熟女国产l中国老女人| 国产激情偷乱视频一区二区| 丁香欧美五月| 成人av在线播放网站| 免费无遮挡裸体视频| 国产伦人伦偷精品视频| 国产熟女xx| 淫秽高清视频在线观看| 国产精品永久免费网站| 久久久久亚洲av毛片大全| 午夜精品在线福利| 手机成人av网站| 久久中文字幕一级| 亚洲av中文字字幕乱码综合| 久久精品国产清高在天天线| 特大巨黑吊av在线直播| 亚洲av成人不卡在线观看播放网| 成人手机av| 黑人巨大精品欧美一区二区mp4| 免费搜索国产男女视频| 欧美精品啪啪一区二区三区| 国产伦人伦偷精品视频| 精品少妇一区二区三区视频日本电影| 精品熟女少妇八av免费久了| 亚洲美女黄片视频| 伦理电影免费视频| 国产一区二区激情短视频| 无限看片的www在线观看| 久久精品91无色码中文字幕| 每晚都被弄得嗷嗷叫到高潮| 欧美中文日本在线观看视频| 国产私拍福利视频在线观看| 中文字幕av在线有码专区| 国产伦人伦偷精品视频| 国产精品久久久久久久电影 | 在线观看美女被高潮喷水网站 | 我要搜黄色片| 精品不卡国产一区二区三区| 一本一本综合久久| 色哟哟哟哟哟哟| 禁无遮挡网站| 国产99白浆流出| 国产成人aa在线观看| 国产精品久久久av美女十八| 国产人伦9x9x在线观看| 精品乱码久久久久久99久播| 亚洲最大成人中文| 国产精品一及| 高清在线国产一区| 一级a爱片免费观看的视频| 又爽又黄无遮挡网站| 午夜福利18| aaaaa片日本免费| 日韩欧美国产一区二区入口| 热99re8久久精品国产| 18禁观看日本| 日本一区二区免费在线视频| 亚洲专区中文字幕在线| 最近在线观看免费完整版| 小说图片视频综合网站| 1024视频免费在线观看| av福利片在线观看| 99riav亚洲国产免费| 全区人妻精品视频| 毛片女人毛片| 免费在线观看影片大全网站| 午夜激情福利司机影院| 97人妻精品一区二区三区麻豆| 欧美一级毛片孕妇| 亚洲国产看品久久| 国产高清videossex| 亚洲成人国产一区在线观看| 欧美久久黑人一区二区| 亚洲精品美女久久久久99蜜臀| 久久久久久久久免费视频了| 亚洲激情在线av| 国产在线精品亚洲第一网站| 国产高清视频在线观看网站| 久久久精品大字幕| 99精品欧美一区二区三区四区| 亚洲欧美日韩高清在线视频| 免费高清视频大片| 日日爽夜夜爽网站| 国产精品自产拍在线观看55亚洲| 欧美性长视频在线观看| 人成视频在线观看免费观看| 国产亚洲精品一区二区www| 欧美一级a爱片免费观看看 | 国产真实乱freesex| 女同久久另类99精品国产91| 国产av又大| 国产亚洲精品综合一区在线观看 | 欧美久久黑人一区二区| 亚洲男人天堂网一区| 夜夜躁狠狠躁天天躁| 19禁男女啪啪无遮挡网站| 成人精品一区二区免费| a级毛片a级免费在线| 久久精品国产亚洲av涩爱 | 黄色一级大片看看| 欧美在线一区亚洲| av天堂中文字幕网| 春色校园在线视频观看| 欧美一区二区精品小视频在线| 中文字幕制服av| 精品久久国产蜜桃| 波野结衣二区三区在线| 99热全是精品| 99热只有精品国产| 国产精品乱码一区二三区的特点| 亚洲欧美日韩高清专用| 国产不卡一卡二| 麻豆一二三区av精品| videossex国产| 成人毛片a级毛片在线播放| 久久精品国产99精品国产亚洲性色| av又黄又爽大尺度在线免费看 | 成年女人看的毛片在线观看| 一级av片app| 99在线人妻在线中文字幕| 看十八女毛片水多多多| 一级黄片播放器| 丰满人妻一区二区三区视频av| 久久久久免费精品人妻一区二区| 高清毛片免费观看视频网站| 久久国产乱子免费精品| 可以在线观看毛片的网站| 18禁在线播放成人免费| 大香蕉久久网| 免费不卡的大黄色大毛片视频在线观看 | 亚洲图色成人| 国产成年人精品一区二区| 成人综合一区亚洲| 91麻豆精品激情在线观看国产| 99久久人妻综合| 人人妻人人澡欧美一区二区| 久久午夜福利片| 人妻制服诱惑在线中文字幕| 欧美性猛交╳xxx乱大交人| 麻豆一二三区av精品| 国产高清视频在线观看网站| 美女高潮的动态| 免费观看在线日韩| 国产成人a∨麻豆精品| 亚洲成av人片在线播放无| 亚州av有码| 国产av一区在线观看免费| 亚洲精品成人久久久久久| 成年免费大片在线观看| ponron亚洲| 国产精品嫩草影院av在线观看| 人体艺术视频欧美日本| 少妇猛男粗大的猛烈进出视频 | 国产精品一及| 亚洲av中文字字幕乱码综合| 69人妻影院| 女同久久另类99精品国产91| 熟女人妻精品中文字幕| 国产精品无大码| 国产av一区在线观看免费| 国产一区二区激情短视频| 日韩国内少妇激情av| 一本久久精品| 此物有八面人人有两片| 亚洲人成网站在线播| 黑人高潮一二区| 欧美高清成人免费视频www| 免费搜索国产男女视频| 不卡一级毛片| 欧美丝袜亚洲另类| 91av网一区二区| 亚洲天堂国产精品一区在线|