• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    改進(jìn)YOLOv3的道路場景目標(biāo)檢測方法

    2021-09-24 03:49:49豆世豪
    電腦知識與技術(shù) 2021年23期
    關(guān)鍵詞:目標(biāo)檢測

    豆世豪

    摘要:目標(biāo)檢測作為計(jì)算機(jī)視覺領(lǐng)域研究的重點(diǎn)之一,被廣泛應(yīng)用于自動駕駛、視頻監(jiān)控、醫(yī)療等領(lǐng)域。為了解決傳統(tǒng)目標(biāo)檢測在實(shí)際應(yīng)用過程中檢測速度過慢以及檢測精度不高等問題,本文提出一種改進(jìn)的YOLO v3算法。首先,對于先驗(yàn)框位置使用K-means++算法進(jìn)行提取,加快收斂速度;在YOLO v3特征提取部分引入SPP模塊,實(shí)現(xiàn)局部特征和全局特征的融合,豐富特征圖的最終表達(dá)能力;實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLO v3方法在平均速度和平均精度方面分別提升了1.07%和2.02%,能夠提升目標(biāo)檢測的實(shí)際效果。

    關(guān)鍵詞:目標(biāo)檢測;YOLO v3;K-means++;空間金字塔池化

    中圖分類號:TP18? ? ? 文獻(xiàn)標(biāo)識碼:A

    文章編號:1009-3044(2021)23-0094-03

    1 引言

    隨著深度學(xué)習(xí)的不斷發(fā)展,目標(biāo)檢測建立在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,取得了顯著成效。在2012年的ImageNet大賽上AlexNet網(wǎng)絡(luò)被提出之后,越來越多更深的神經(jīng)網(wǎng)絡(luò)不斷出現(xiàn),開啟了計(jì)算機(jī)視覺技術(shù)的革命。至今,基于CNN的目標(biāo)檢測方法主要分為兩類:分別是基于區(qū)域提取的方法和基于回歸的方法[1]。第一種是兩步檢測網(wǎng)絡(luò),該類算法將目標(biāo)檢測分為兩步,精確度較高但是檢測速度較慢,不能滿足實(shí)時(shí)性要求,代表方法有R-CNN、Fast R-CNN、Faster R-CNN等。第二種是單步檢測網(wǎng)絡(luò),對目標(biāo)的位置以及類別預(yù)測只需一步,主要包括SSD、YOLO等[2]方法。該類算法的檢測速度有很大提升,但檢測精度有所下降。之后的YOLO系列算法不斷改進(jìn),在保證檢測速度的同時(shí)兼顧準(zhǔn)確率,保證整體的使用效果[3]。本文以YOLO v3為基礎(chǔ),利用K-means++算法計(jì)算出適用于目標(biāo)的錨框,然后借鑒SPP-net網(wǎng)絡(luò)的思想,將SPP模塊應(yīng)用到Y(jié)OLO v3網(wǎng)絡(luò)中,能夠結(jié)合卷積特征融合機(jī)制對多層級卷積特征進(jìn)行融合豐富了卷積特征的表達(dá)能力,最終提高目標(biāo)的檢測效果。

    2 YOLO v3網(wǎng)絡(luò)

    2.1 特征提取網(wǎng)絡(luò)Darknet-53

    從YOLO v1到Y(jié)OLO v3,每一代性能的提升都與骨干網(wǎng)絡(luò)backbone有關(guān)。YOLO v3是在YOLO v2的基礎(chǔ)上進(jìn)行改進(jìn),骨干網(wǎng)絡(luò)由原來的DarkNet-19變?yōu)镈arkNet-53,然后利用特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)了多尺度檢測,提高對不同大小目標(biāo)的檢測精度。分類方法使用logistic代替了softmax,解決了不能對多標(biāo)簽?zāi)繕?biāo)預(yù)測的問題。DarkNet-53[4]由若干網(wǎng)絡(luò)1×1和3×3的卷積核組成,每個(gè)卷積層之后加入一個(gè)批量歸一化層和一個(gè)Leaky Relu激活函數(shù),共同構(gòu)成一個(gè)的基本卷積單元DBL,如圖1(a)所示。此外,Dark Net-53融合了殘差網(wǎng)絡(luò)(Res Net),YOLO v3網(wǎng)絡(luò)中共有5個(gè)殘差塊,每個(gè)殘差塊由若干殘差單元構(gòu)成,其中每個(gè)殘差單元由兩個(gè)DBL和殘差操作組成,如圖1(b)所示。

    與YOLOv2相比,YOLOv3有多處改變。首先,DarkNet-53取消最大池化層,使用步長為2的卷積進(jìn)行下采樣縮小特征圖的尺寸,可以減少目標(biāo)信息的丟失,有利于小目標(biāo)的檢測。其次,通常網(wǎng)絡(luò)結(jié)構(gòu)越深表達(dá)特征越好,但容易出現(xiàn)不收斂的情況,殘差結(jié)構(gòu)的使用使得網(wǎng)絡(luò)結(jié)構(gòu)在很深的情況下依然保持收斂,保證模型持續(xù)訓(xùn)練獲得更好的檢測效果。最后,通過將網(wǎng)絡(luò)的中間層和后面某一層的上采樣進(jìn)行張亮拼接,實(shí)現(xiàn)多尺度特征融合[5]。

    2.2 損失函數(shù)

    YOLOv3網(wǎng)絡(luò)損失函數(shù)由三部分組成,分別為定位損失、置信度損失和分類損失[6]。損失函數(shù)公式如下:

    3 改進(jìn)的YOLO v3網(wǎng)絡(luò)

    3.1 Anchor Box聚類算法改進(jìn)

    網(wǎng)絡(luò)模型通過學(xué)習(xí)訓(xùn)練不斷調(diào)整Anchor Box的大小,而合適的初始化邊界框尺寸的選擇能夠提升網(wǎng)絡(luò)訓(xùn)練的速度。YOLOv3和YOLOv2一樣,使用K-means算法選取先驗(yàn)框尺寸,該方法存在一定的不足。初始點(diǎn)位的選擇會影響收斂的快慢,而K-means算法需要事先指定點(diǎn)的個(gè)數(shù)且位置隨機(jī),最終導(dǎo)致局部最優(yōu)而非全局最優(yōu)。因此,使用K-means++算法對初始點(diǎn)位的選取進(jìn)行改進(jìn),盡可能使聚類點(diǎn)之間保持最大距離[7]。該算法的實(shí)現(xiàn)過程如下:第一步,隨機(jī)選擇一個(gè)點(diǎn)作為第一個(gè)聚類中心。第二步,計(jì)算出剩余的每一個(gè)樣本與最近的聚類點(diǎn)的最短距離,接著計(jì)算出每個(gè)樣本成為下一個(gè)聚類中心的概率并選出下一個(gè)聚類中心。第三步,重復(fù)步驟二直至選出k個(gè)聚類點(diǎn)。使用K-means++算法能夠降低收斂需要的迭代次數(shù),加快了收斂的速度。

    3.2 加強(qiáng)網(wǎng)絡(luò)的特征提取功能

    大多數(shù)網(wǎng)絡(luò)結(jié)構(gòu)中,最后一層是全連接層,該層要求的特征數(shù)是固定的,這就要求輸入的圖片尺寸大小也是固定的。需要對不同尺寸的圖片進(jìn)行裁剪、縮放、拉伸等操作使圖片滿足輸入的要求,這會使圖片失真,進(jìn)而影響檢測精度。最初為了解決圖像失真問題,提出SPP模塊。在YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)中引入SPP模塊,可以對不同尺寸的輸入圖片實(shí)現(xiàn)相同大小的輸出,因此能夠避免這一問題。SPP模塊共由四個(gè)并行的分支組成,分別是卷積核大小為5×5、9×9、13×13,步長為1的最大池化下采樣和一個(gè)輸入到輸出的跳躍連接,其模塊結(jié)構(gòu)如下圖2所示。最后將四個(gè)分支特征圖連接起來傳到下一層網(wǎng)絡(luò)中,依次通過1×1和3×3的卷積核再次進(jìn)行融合,從而實(shí)現(xiàn)了不同尺度的特征融合[8]。

    借鑒空間金字塔的思想,通過SPP模塊實(shí)現(xiàn)了局部特征和全局特征特征圖級別的融合,因此空間金字塔池化結(jié)構(gòu)中最大的池化核大小要盡可能地接近或者等于需要池化的特征圖的大小。加入SPP模塊之后,豐富了卷積特征的表達(dá)能力,有利于檢測圖片中存在大小差異較大的目標(biāo),尤其是對于YOLOv3一般針對的復(fù)雜多目標(biāo)圖像,能夠提高平均精度值(mAP)。改進(jìn)后的YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如下圖3所示。

    猜你喜歡
    目標(biāo)檢測
    多視角目標(biāo)檢測與跟蹤技術(shù)的研究與實(shí)現(xiàn)
    視頻中目標(biāo)檢測算法研究
    軟件(2016年4期)2017-01-20 09:38:03
    行為識別中的人體運(yùn)動目標(biāo)檢測方法
    移動機(jī)器人圖像目標(biāo)識別
    基于視頻監(jiān)控的運(yùn)動圖像檢測算法研究
    基于背景建模法的運(yùn)動目標(biāo)檢測
    基于P3電位的目標(biāo)檢測研究
    科技視界(2016年4期)2016-02-22 13:09:19
    智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
    相關(guān)K分布雜波中擴(kuò)展目標(biāo)積累檢測性能分析
    基于連通域標(biāo)記的目標(biāo)檢測算法設(shè)計(jì)與實(shí)現(xiàn)
    大城县| 运城市| 凤山县| 随州市| 突泉县| 隆昌县| 加查县| 威信县| 绥中县| 新晃| 东平县| 花莲县| 赤城县| 祁东县| 枣强县| 龙门县| 麦盖提县| 怀仁县| 裕民县| 杭锦旗| 宁化县| 巴彦县| 中方县| 日喀则市| 含山县| 海阳市| 襄樊市| 滨州市| 河北区| 工布江达县| 宣恩县| 姚安县| 大足县| 东至县| 孟津县| 赣榆县| 卢龙县| 金寨县| 盐城市| 玛纳斯县| 宜宾县|