• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于YOLOv5的公共場景寵物犬牽繩檢測

    2022-08-26 01:52:06耿帥帥廖濤劉喚喚
    現(xiàn)代信息科技 2022年11期
    關(guān)鍵詞:寵物犬精度特征

    耿帥帥,廖濤,劉喚喚

    (安徽理工大學 計算機科學與工程學院,安徽 淮南 232001)

    0 引 言

    寵物犬在人們的日常生活中扮演著很重要的角色,然而人們帶著寵物犬散步時,常常因為某些原因?qū)櫸锶粻坷K,給其他行人的安全帶來了很大的威脅。因此公共場景下對未牽繩寵物犬的監(jiān)管力度應該加大。由于遛犬時間不定與巡查人力少等原因,人工檢測難度較大,對基于網(wǎng)絡的、高效的寵物犬牽繩檢測變得愈發(fā)重要。因此急需實現(xiàn)基于網(wǎng)絡的、高效的寵物犬牽繩自動動態(tài)的目標檢測。

    近些年來,隨著計算機計算能力的提升與計算機視覺對圖像、視頻提取特征方式的改變,基于深度學習目標檢測算法(如Faster R-CNN、SSD)的檢測精度得到較大的提升且識別效果較好,目標檢測算法在動植物檢測方面有廣泛的應用前景。

    目前,主流的深度學習模型在動植物檢測中取得了不錯的效果,例如:楊等人提出一種融合坐標注意力機制的YOLOv4網(wǎng)絡模型對奶牛面部進行識別,達到了不錯的效果;權(quán)等人使用減少張量的YOLOv4模型對采集的農(nóng)田苗草數(shù)據(jù)進行訓練,實現(xiàn)了苗草的高效識別;吳等人在YOLOv5模型中引入跳轉(zhuǎn)連接與注意力機制,解決真實近海環(huán)境下珊瑚礁底棲生物識別效果差的問題;劉等人設(shè)計了一種含有殘差模塊的darknet-20主干網(wǎng)絡且融合多尺度檢測模塊,提升了復雜環(huán)境下番茄果實的檢測精度。

    然而在寵物犬牽繩方面的應用還存在以下問題:比如公開數(shù)據(jù)集噪點嚴重,可用樣本較少;寵物犬毛發(fā)旺盛且與犬主人靠近,采集照片存在繩子被遮擋,檢測難度高等。針對以上問題,本文在對公開數(shù)據(jù)集擴充的基礎(chǔ)上,首先通過網(wǎng)絡爬取了部分數(shù)據(jù)集,與篩選出的符合要求的公開數(shù)據(jù)集進行組合,構(gòu)成了本文自制數(shù)據(jù)集;其次,本文通過修改骨干特征提取網(wǎng)絡添加坐標注意力機制方法,提出了一種改進的YOLOv5模型,基于原YOLOv5的在寵物檢測方面的缺陷,參考犬類牽繩數(shù)據(jù)在實際檢測中存在的問題和需求,改進的YOLOv5模型在犬類目標識別與實時捕捉定位能較好的滿足本文的需求。

    1 相關(guān)工作

    1.1 YOLOv5模型

    YOLOv5模型是目前主流的一階段深度學習目標檢測算法,該模型主要是由輸入端(Input)、主干網(wǎng)絡(Backbone)、特征融合(Neck)、檢測端(Detect)四部分組成,如圖1所示。Input模塊對輸入的圖片進行自適應縮放、拼接等操作,自適應地找出最優(yōu)的錨框進行檢測;Backbone模塊的FOCUS、CBL、CSP1、SPP操作對圖片不同尺度的特征進行提取與聚合,提煉出13×13、26×26、52×52三種尺度的特征圖;Neck模塊采用了FPN+PAN的網(wǎng)路結(jié)構(gòu)對上層不同尺度的信息進行融合,F(xiàn)PN層自頂向下的對圖片進行上采樣從而與主干網(wǎng)絡的特征進行特征融合,為了提高上層尺度信息的表現(xiàn)力,借助PAN結(jié)構(gòu)把特征信息由下向上傳遞以達到上層尺度融合更多的特征,通過FPN+PAN的結(jié)構(gòu)可以對主干網(wǎng)絡和檢測網(wǎng)絡提取的特征進行聚合,提高網(wǎng)絡特征融合的能力;最后,Detect模塊根據(jù)上層的三種尺度的候選框?qū)D像的特征進行預測,生成邊界框、置信度以及定位識別。

    圖1 YOLOv5網(wǎng)絡模型結(jié)構(gòu)圖

    1.2 引入注意力機制SENET

    為了提升模型對局部特征的關(guān)注程度,在模型的骨干特征提取網(wǎng)絡中引入了通道注意力模型SENet模塊,如圖2所示。該模型結(jié)合了注意力機制的特點,強化了對主要特征的關(guān)注度,以期達到誤檢與漏檢的目標。

    圖2 通道注意力模型

    SENet由Squeeze、Excitation與Reweight三個子模塊組成。其中,Squeeze是SENet的壓縮模塊,由一個全局平均池化Globe Average Pooling構(gòu)成,主要負責對特征圖的壓縮以及提高感受野;Excitation模塊使用兩個全連接層以及一個權(quán)重調(diào)節(jié)激活函數(shù)對通道之間的相關(guān)性進行顯式的建模,權(quán)重調(diào)節(jié)部件通過參數(shù)來為每個特征通道生成權(quán)重,這些特征參數(shù)也稱為特征響應值,被顯示的學習用以去抑制對當前模塊不重要特征的權(quán)值以達到減小損失的效果;Reweight模塊為模型的特征重定向?qū)?,能夠?qū)ι蠈觽鬏敊?quán)重的結(jié)果進行通道上的定向加權(quán),逐通道的進行賦值并對初始特征進行權(quán)值賦予,以此作為本模塊的輸出。

    2 實驗過程及結(jié)果分析

    2.1 數(shù)據(jù)采集與預處理

    寵物犬牽繩數(shù)據(jù)集一部分來自Kaggle競賽貓狗圖像數(shù)據(jù)2 000張,另一部分鑒于本文的檢測環(huán)境為公共場景下對未牽繩寵物犬的識別,采用網(wǎng)絡爬蟲的技術(shù)爬取了特定公共場景(公園、馬路、小區(qū))下的圖片2 000張與對此圖片進行數(shù)據(jù)增強擴充500張。

    由于公共場景遛寵物犬時間與天氣狀況不一,晴天、多云、陰天、下午、晚上等,因此,為提高模型對公共場景下檢測寵物犬圖像的魯棒性,將圖像進行色域調(diào)整,將HSV(Hue,Saturation,Value)顏色模型中的色調(diào)(H)、飽和度(S)、明度(V)進行調(diào)整,從而模擬出在不同天氣與時間點的環(huán)境情況,如圖3所示。用數(shù)據(jù)增強的方法獲得500張。

    圖3 色域扭曲數(shù)據(jù)增強

    實驗的標注工具采用LabelImg對寵物犬數(shù)據(jù)進行人工標注,實驗需要識別寵物犬是否牽繩,故總共設(shè)置兩個標簽,分別為:cord-dog(牽繩)、dog(未牽繩)。數(shù)據(jù)集共包含4 500張,訓練集、測試集與驗證集數(shù)量比例為8:1:1即3 600:450:450。其中訓練集由1 600張kaggle競賽數(shù)據(jù)圖片和2 000張網(wǎng)絡爬取的寵物犬圖片組成,測試集和驗證集分別由200張kaggle競賽數(shù)據(jù)圖片和250張網(wǎng)絡爬取的寵物犬圖片組成,如表1所示。

    表1 寵物犬牽繩數(shù)據(jù)集分布

    2.2 深度學習環(huán)境配置

    實驗所需的環(huán)境如表2所示。以相同的配置設(shè)置于對比試驗模型的YOLOv5、Mobilenet-V2 YOLOv5網(wǎng)絡,作為對照組網(wǎng)絡。

    表2 深度學習環(huán)境配置表

    2.3 實驗結(jié)果及分析

    本次實驗測試集共包含4 500張圖片,其中寵物犬被牽繩檢測的平均精確度為78.6%,寵物犬未被牽繩檢測的平均準確度均值為82.9%,檢測到寵物犬未被牽繩如圖4所示。檢測到寵物犬已被牽繩如圖5(a)所示,檢測到寵物犬被牽繩隨后進入公共場景,進行牽繩識別如圖5(b)所示。

    從圖4和5中可以看出對于正常的公共場景下寵物犬是否牽繩的檢測識別,本文提出的算法取得了不錯的檢測效果,map值達到近80.7%。由圖4可以看出,當寵物犬在公共場景下未被牽繩時,則可以使用YOLOv5準確檢測識別。而由圖5可以看出,當寵物犬被牽繩活動時,細小的繩索信息也可以被獲取并抓取識別,本模型對寵物犬繩索粗細的信息可以較好的識別。

    圖4 寵物犬未被牽繩的檢測示例

    圖5 寵物犬已被牽繩的檢測示例

    本文對YOLOv5模型進行改進,對公共場景下寵物犬是否牽繩進行檢測的同時,與原YOLOv5、Mobilenet V2-YOLOv5網(wǎng)絡模型進行對比實驗。然后在測試集上分別對其進行訓練測試評估,以參數(shù)量、模型大小、平均精度均值作map為模型的性能的評價標準,詳細的對比實驗數(shù)據(jù)如表3所示。

    表3 改進YOLOv5 與其他算法對比實驗結(jié)果

    根據(jù)實驗數(shù)據(jù)表的三組模型的測試信息可以看出,改進后網(wǎng)絡模型YOLOv5的map值已經(jīng)達到80.7%且參數(shù)量與模型大小為7 214 431、14.7 m,與原YOLOv5相比,改進YOLOv5網(wǎng)絡在網(wǎng)絡參數(shù)、模型大小增加少量的情況下平均精度的均值提升了1.5個百分點;相較于Mobilenet-v2 YOLOv5,改進YOLOv5網(wǎng)絡在參數(shù)量、模型大小上稍大,但平均精度的均值有了顯著的提升。通過以上實驗數(shù)據(jù)對比可以得出,改進YOLOV5在參數(shù)量、模型大小沒有顯著擴大的情況下,精度得到提升,在寵物犬牽繩檢測上具有較好的精度。

    3 結(jié) 論

    針對在公共場景下寵物犬襲擊行人的問題,本文在公共安全領(lǐng)域引入基于深度學習的YOLO網(wǎng)路模型來對寵物犬是否牽繩進行檢測,并借鑒SENet的特點對原始模型進行改進。改進的YOLOv5模型目標檢測算法對寵物犬被牽繩檢測的平均精度為78.6%,對未牽繩的寵物犬檢測的map為82.9%。實驗結(jié)果充分證明了本文的算法的平均精度對寵物犬是否牽繩檢測具有較高的識別度,有助于提升在公共場合下人們對寵物的管理水平。

    基于深度學習的目標檢測方法應用于公共安全領(lǐng)域有著極大的研究價值以及應用前景。在接下來的工作中將重點對實際公共場景禁入目標的課題進行相關(guān)研究,并結(jié)合深度學習中的transform結(jié)構(gòu)對模型進行改進,對公共場景禁入目標進行準確識別與檢測。

    猜你喜歡
    寵物犬精度特征
    寵物犬慢性腹瀉的治療
    簡述寵物犬美容與健康
    以假亂真的4D打印寵物犬
    科學大眾(2021年21期)2022-01-18 05:53:42
    關(guān)于寵物犬常見不良行為糾正的思考
    如何表達“特征”
    不忠誠的四個特征
    當代陜西(2019年10期)2019-06-03 10:12:04
    基于DSPIC33F微處理器的采集精度的提高
    電子制作(2018年11期)2018-08-04 03:25:38
    抓住特征巧觀察
    GPS/GLONASS/BDS組合PPP精度分析
    改進的Goldschmidt雙精度浮點除法器
    张掖市| 璧山县| 白水县| 潜江市| 泾川县| 新乡县| 基隆市| 孟津县| 中西区| 襄垣县| 西林县| 交城县| 益阳市| 吉木萨尔县| 武鸣县| 渭源县| 伊金霍洛旗| 中牟县| 治县。| 旺苍县| 姚安县| 台湾省| 梁山县| 宁化县| 大冶市| 吉安市| 德兴市| 保康县| 林州市| 大新县| 资兴市| 平原县| 全南县| 修武县| 华安县| 阿拉善盟| 沁水县| 敦化市| 英超| 永仁县| 镇康县|