• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進(jìn)YOLOv3的電梯內(nèi)電動車檢測算法

      2023-07-17 05:57:28楊獻(xiàn)瑜
      計(jì)算機(jī)時代 2023年7期
      關(guān)鍵詞:目標(biāo)檢測

      楊獻(xiàn)瑜

      關(guān)鍵詞:目標(biāo)檢測;輕量化網(wǎng)絡(luò);注意力模塊;YOLOv3;CIOU

      0 引言

      電梯作為高層建筑中的重要交通工具,常見的安全隱患問題如轎廂困人、電梯沖頂、反復(fù)開關(guān)門、攜帶可燃易爆物品等[1],通過“智慧電梯”[2]安全管理平臺得到了有效解決,但目前對禁止電動車等可燃易爆物品進(jìn)入電梯仍缺乏有效的方法[3]。2021 年5 月,四川省某小區(qū)的電梯內(nèi)一輛電動車瞬間爆燃,導(dǎo)致多人受傷。2021 年11 月,合肥市一小區(qū)住戶的電動自行車在屋內(nèi)充電時燃燒,導(dǎo)致火情。因此,有必要對電動車進(jìn)入電梯進(jìn)行檢測。

      防止電動車進(jìn)入電梯,可在電梯口附近立警示牌,以及對電梯內(nèi)監(jiān)控視頻進(jìn)行監(jiān)測等。這些方法雖然有效,但效率低。如今基于深度學(xué)習(xí)的目標(biāo)檢測算法被廣泛應(yīng)用于計(jì)算機(jī)視覺的各個領(lǐng)域,達(dá)到了非常好的效果。2019 年華志超[4]在YOLOv1 中添加批規(guī)范化算法以及改進(jìn)損失函數(shù),實(shí)現(xiàn)電梯禁入目標(biāo)檢測。2020 年岑思陽[5]在YOLOv3 中使用GIOU 損失函數(shù)并改進(jìn)邊界框的生成,實(shí)現(xiàn)電梯內(nèi)人臉檢測。2021 年張媛等人[6]提出了基于YOLOv3 的電動車檢測算法,實(shí)現(xiàn)電梯內(nèi)電動車實(shí)時檢測。

      雖然以上算法對目標(biāo)具有良好的檢測效果,但模型計(jì)算量和參數(shù)量較大,難以在硬件條件有限的邊緣設(shè)備上應(yīng)用。因此,本文提出基于改進(jìn)YOLOv3 的電梯內(nèi)電動車檢測算法,實(shí)現(xiàn)模型的輕量化。首先將YOLOv3 中負(fù)責(zé)提取特征的主干網(wǎng)絡(luò)Darknet53 替換為MobileNetv2;然后在主干網(wǎng)絡(luò)和特征融合網(wǎng)絡(luò)之間引入CA 注意力機(jī)制,提高模型的檢測能力;最后使用CIOU 作為計(jì)算目標(biāo)邊界框的回歸定位損失,增強(qiáng)精準(zhǔn)定位效果。

      1 YOLOv3 檢測模型

      YOLOv3 由Joseph Redmon 等人[7]在2016 年提出,是一種單階段目標(biāo)檢測算法。該網(wǎng)絡(luò)采用Darknet53作為主干特征提取網(wǎng)絡(luò),使用特征金字塔結(jié)構(gòu)[8]加強(qiáng)特征提取,利用檢測頭對有效特征層進(jìn)行預(yù)測。圖1展示了YOLOv3 的網(wǎng)絡(luò)結(jié)構(gòu)。

      2 改進(jìn)YOLOv3 檢測模型

      2.1 MobileNetV2

      2018 年Google 提出了輕量化網(wǎng)絡(luò)MobileNetV2[9]。該網(wǎng)絡(luò)主要包含17 個倒殘差結(jié)構(gòu)(bottleneck),每個倒殘差結(jié)構(gòu)由一個3×3的DW卷積(depthwise convolution)和兩個1×1 的PW 卷積(pointwise convolution)組成。相較于普通卷積,由DW 卷積和PW 卷積構(gòu)成的深度可分離卷積,能大幅減少模型的參數(shù)量以及運(yùn)算成本。MobileNetV2 第二個特點(diǎn)是linearbottlenecks,主要表現(xiàn)在倒殘差結(jié)構(gòu)中的第二個PW 卷積后使用線性激活函數(shù),以減少特征信息的損失。MobileNetV2 網(wǎng)絡(luò)整體結(jié)構(gòu)如表1 所示。在本文中,將使用輕量化網(wǎng)絡(luò)MobileNetV2 來對YOLOv3 檢測模型進(jìn)行改進(jìn)。

      2.2 CA 注意力機(jī)制

      在深度學(xué)習(xí)中,注意力機(jī)制能夠增強(qiáng)網(wǎng)絡(luò)對有效特征信息的提取,提高檢測精度。2021 年Qibin Hou等人提出CA(Coordinate Attention)[10]注意力機(jī)制,不僅考慮了通道信息,還考慮了方向相關(guān)的位置信息。相比于CBAM[11],CA 實(shí)現(xiàn)更為簡單,并且能在空間維度上構(gòu)造遠(yuǎn)程的依賴關(guān)系。在CA 中,首先對輸入進(jìn)來的特征圖分別沿著水平和垂直方向進(jìn)行平均池化,得到兩個不同的特征圖。然后對兩個特征圖進(jìn)行拼接以及卷積操作降維,建立遠(yuǎn)程依賴關(guān)系。再對得到的特征圖進(jìn)行BN 操作以及h-swish 激活。最后,沿著空間維度對特征圖進(jìn)行分割,得到沿水平方向以及沿垂直方向的注意力特征圖,對這兩組注意力特征圖使用卷積操作進(jìn)行升維,使用Sigmoid 將值域限制在0 和1 之間?;贑A 模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。在本文中,將使用CA 注意力機(jī)制來對YOLOv3 檢測模型進(jìn)行改進(jìn)。

      2.3 CIOU 損失函數(shù)

      YOLOv3 損失函數(shù)包括邊界框定位損失、置信度損失以及類別損失,其中邊界框定位損失使用MSE 損失函數(shù)進(jìn)行計(jì)算。2016 年Jiahui Yu 等人[12]提出了IOU 損失,相較于MSE 損失,IOU 損失能夠更好的反應(yīng)邊界框的重合程度,具有尺度不變性。2019 年,Zhaohui Zheng 等人[13]提出了DIOU 損失以及CIOU 損失,DIOU 損失在IOU 損失的基礎(chǔ)上添加了中心點(diǎn)歸一化距離,使收斂速度更快、回歸精度更高。CIOU 損失是對DIOU 損失的進(jìn)一步改進(jìn),將長寬比參數(shù)引入到損失函數(shù)中。CIOU 損失共包含重疊面積、中心點(diǎn)距離、長寬比3 種幾何參數(shù),其計(jì)算公式為:

      其中,P 表示預(yù)測框,G 表示真實(shí)框,IOU 反映的重疊面積;ρ(b,bgt)表示的是預(yù)測框中心點(diǎn)坐標(biāo)與真實(shí)框中心點(diǎn)坐標(biāo)的歐式距離,c 表示的是覆蓋預(yù)測框與真實(shí)框的最小外接邊界框?qū)蔷€長度,ρ2(b,bgt)/c2反映的是中心點(diǎn)距離;v 表示的是預(yù)測框與真實(shí)框長寬比一致性參數(shù),α表示的是平衡參數(shù),αv 反映的是長寬比。因此,CIOU 損失能更好的反應(yīng)邊界框的重合重度,加速損失函數(shù)收斂。在本文中,將使用CIOU 損失函數(shù)來對YOLOv3 檢測模型進(jìn)行改進(jìn)。

      2.4 改進(jìn)后的網(wǎng)絡(luò)總體結(jié)構(gòu)

      本文對YOLOv3 檢測模型進(jìn)行改進(jìn),使用MobileNetV2作為骨干網(wǎng)絡(luò)提取特征,減少模型的參數(shù)量和計(jì)算量;使用CA 注意力模塊,讓模型更加關(guān)注圖像中有用的特征信息,提高模型性能;使用CIOU 損失替換MSE 損失,加速網(wǎng)絡(luò)收斂以及實(shí)現(xiàn)精準(zhǔn)定位。改進(jìn)后的YOLOv3 檢測模型命名為YOLO-MAC,其網(wǎng)絡(luò)總體結(jié)構(gòu)如圖3 所示。

      3 實(shí)驗(yàn)與結(jié)果分析

      3.1 數(shù)據(jù)集采集與處理

      本文通過網(wǎng)上搜索、爬蟲、實(shí)地拍攝等方法,對電梯內(nèi)電動車圖片進(jìn)行采集,共篩選出2300 張電梯內(nèi)電動車圖片。為豐富圖片的特征,對采集到的圖片添加隨機(jī)遮擋、高斯模糊、亮度調(diào)節(jié)、水平翻轉(zhuǎn)等數(shù)據(jù)增強(qiáng)算法,對數(shù)據(jù)集進(jìn)行擴(kuò)充。擴(kuò)充后共有3300 張圖片,其中劃分2700 張圖片作為訓(xùn)練集、300 張圖片作為驗(yàn)證集、300 張圖片作為測試集。數(shù)據(jù)增強(qiáng)后的圖片如圖4 所示。

      3.2 實(shí)驗(yàn)環(huán)境以及超參數(shù)設(shè)置

      本文實(shí)驗(yàn)在Ubuntu 20.04.2 操作系統(tǒng)下,采用Pytorch1.10.1 深度學(xué)習(xí)框架,CUDA 版本為11.6,使用Python3.7.10。計(jì)算機(jī)硬件包括NVIDIA GeForceRTX 3060 12GB GPU、Intel(R) Xeon(R) CPU E5-2680 v4 @ 2.40GHz、24GB 內(nèi)存。

      本文實(shí)驗(yàn)設(shè)置網(wǎng)絡(luò)輸入為416×416×3,在每次迭代的時候使用余弦退火來對學(xué)習(xí)率進(jìn)行衰減,采用SGD 優(yōu)化算法進(jìn)行參數(shù)更新,引入遷移學(xué)習(xí)的方式獲得骨干網(wǎng)絡(luò)預(yù)訓(xùn)練權(quán)重。模型初始學(xué)習(xí)率設(shè)置為0.001,將訓(xùn)練分為兩個階段。在第一階段,特征提取網(wǎng)絡(luò)被凍結(jié),批處理大小設(shè)置為16,迭代次數(shù)為50 輪。在第二階段,特征提取網(wǎng)絡(luò)解凍,批處理大小設(shè)置為8,迭代次數(shù)為50 輪。

      3.3 實(shí)驗(yàn)結(jié)果分析

      為了驗(yàn)證改進(jìn)算法YOLO-MAC 的可行性,以及改進(jìn)方法對電梯場景下電動車檢測模型的影響,將YOLOv3 與替換骨干網(wǎng)絡(luò)后的模型YOLO-M、加入CA 注意力機(jī)制的YOLO-MA 以及本文提出的YOLO-MAC 進(jìn)行對比分析。對比實(shí)驗(yàn)使用相同的測試集,從計(jì)算量、參數(shù)量、mAP 和FPS 四個方面對模型進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表2 所示。

      從表2 可以看出,使用輕量化網(wǎng)絡(luò)MobileNetV2替換YOLOv3 的特征提取網(wǎng)絡(luò)DarkNet53,可以大幅減少模型的計(jì)算量以及參數(shù)量,但同時也造成了約3%的mAP 精度損失。在YOLO-M 模型中加入CA 注意力模塊后,使模型對電梯內(nèi)電動車的檢測精度從87.37% 提升到89.23%,證明CA 注意力模塊的有效性。最后,在YOLO-MA 的基礎(chǔ)上對模型損失函數(shù)進(jìn)行改進(jìn),進(jìn)一步提高了檢測精度,mAP 值達(dá)到89.89%。在FPS 方面,改進(jìn)后的模型YOLO-MAC,檢測速度比YOLOv3 提升7.2 幀/秒,適合部署于邊緣設(shè)備上。綜上所述,YOLO-MAC 模型兼顧了推斷速度和檢測精度,更適合進(jìn)行電梯內(nèi)的電動車檢測。

      圖5 對比了YOLOv3 以及改進(jìn)后的YOLO_MAC對電梯內(nèi)的電動車圖像進(jìn)行檢測的結(jié)果。從圖5 可以看出,YOLO-MAC 算法不僅檢測效果好,而且定位性能更高,驗(yàn)證了本文改進(jìn)方法的有效性。

      4 結(jié)論

      針對YOLOv3 算法模型參數(shù)量較多,難以在硬件條件有限的邊緣設(shè)備上進(jìn)行檢測等問題,本文提出一種基于改進(jìn)YOLOv3 的電梯內(nèi)電動車檢測算法。該方法以單階段目標(biāo)檢測算法YOLOv3 為基礎(chǔ),使用輕量化網(wǎng)絡(luò)MobileNetV2 作為骨干網(wǎng)絡(luò)提取特征,引入CA 注意力模塊,使用CIOU 對損失函數(shù)進(jìn)行改進(jìn)。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的YOLO-MAC 的mAP 與YOLOv3相近,但有效地減少了模型的計(jì)算量和參數(shù)量,檢測速度比YOLOv3 提升7.2 幀/秒。這證明該算法可行有效,能夠滿足電梯內(nèi)電動車檢測任務(wù)。

      猜你喜歡
      目標(biāo)檢測
      多視角目標(biāo)檢測與跟蹤技術(shù)的研究與實(shí)現(xiàn)
      視頻中目標(biāo)檢測算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識別中的人體運(yùn)動目標(biāo)檢測方法
      移動機(jī)器人圖像目標(biāo)識別
      基于視頻監(jiān)控的運(yùn)動圖像檢測算法研究
      基于背景建模法的運(yùn)動目標(biāo)檢測
      基于P3電位的目標(biāo)檢測研究
      科技視界(2016年4期)2016-02-22 13:09:19
      智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
      相關(guān)K分布雜波中擴(kuò)展目標(biāo)積累檢測性能分析
      基于連通域標(biāo)記的目標(biāo)檢測算法設(shè)計(jì)與實(shí)現(xiàn)
      博野县| 喀喇沁旗| 盖州市| 威信县| 巴东县| 黄骅市| 故城县| 义马市| 通化县| 万山特区| 方山县| 松溪县| 嘉义市| 荃湾区| 望江县| 确山县| 涞水县| 黄骅市| 延庆县| 高邑县| 汪清县| 永嘉县| 镇赉县| 崇明县| 江源县| 岐山县| 革吉县| 香港 | 常熟市| 神木县| 兴海县| 梅州市| 思南县| 赤壁市| 焉耆| 铁力市| 天祝| 凯里市| 梅河口市| 镇远县| 安义县|