• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      改進YOLOv5s的無人機目標檢測算法

      2023-01-13 11:57:24宋譜怡茍浩波
      計算機工程與應用 2023年1期
      關鍵詞:損失精度函數(shù)

      宋譜怡,陳 紅,茍浩波

      1.西安工業(yè)大學 電子信息工程學院,西安 710021

      2.陜西凌云電器集團有限公司 衛(wèi)星導航研究所,陜西 寶雞 721006

      交通問題一直是困擾世界各國的一大難題,交通擁擠不僅會造成一定的社會問題還會進一步加重環(huán)境問題,造成嚴重的經(jīng)濟損失。為了緩解經(jīng)濟高速發(fā)展給交通運輸業(yè)帶來的壓力,近幾年世界各國都進一步加強了對智能交通的研究和管理[1]。目標檢測作為其關鍵且最基礎的一環(huán)顯得尤為重要,將采用靈活度較高,成本較低的無人機來實現(xiàn)路面交通信息采集,作為交通路況處理的一個重要依據(jù)。在一定水平上減少了公路交通管理方式的弊端,擴大了道路交通監(jiān)控器的監(jiān)控時間和范圍,進一步加強智能交通系統(tǒng)的建設促進我國交通業(yè)的發(fā)展[1-2]。

      傳統(tǒng)的目標檢測算法檢測流程過于繁雜,嚴重影響目標檢測的效率,已逐漸推出主流舞臺?;谏疃葘W習的目標檢測算法逐漸顯示出其優(yōu)勢,YOLO(you only look once)作為one-stage detection的開山之作在2015年首次被提出[3-4]。最新推出的YOLOv5s算法在模型參數(shù)量和浮點運算量方面表現(xiàn)更加突出[5-9]。

      近幾年,對于YOLOv5s的改進主要是在輸入端、特征提取網(wǎng)絡以及Head輸出層。由于在無人機視角下檢測目標呈較小形態(tài)且目標背景較為復雜,針對這一情況文獻[10]提出了一種自適應特征增強的目標檢測網(wǎng)絡(YOLO-AFENet)來提高算法對小目標的檢測率。在YOLOv5s原算法的基礎上融合特征融合因子,設計了改進的自適應雙向特征融合模塊(M-BiFPN),提高網(wǎng)絡的特征表達能力。但是其模型的損失函數(shù)設計未考慮到數(shù)據(jù)集長尾分布的特點、對于大目標的檢測性能提升不夠明顯。為了提升檢測器識別效果,文獻[11]提出將注意力模塊CBAM與YOLOv5s網(wǎng)絡的Neck部分融合,從而提高網(wǎng)絡的特征提取能力,但其算法計算量過大對于邊緣設備十分不友好,因此還存在一定的改進空間。文獻[12-13]提出的基于連續(xù)兩幀間差分法的動態(tài)檢測等方法使得無人機可以在復雜背景下快速準確地檢測目標,但該方法對識別精度的提升不夠明顯。文獻[14]提出一種超輕量型的目標檢測網(wǎng)絡,并提出在其頸部網(wǎng)絡上進行改進,對檢測頭部錨框進行重新設計,縮小對檢測錨框的設定,使其更適應對于小目標的檢測。文獻[15]針對目標檢測中的漏檢、誤檢等問題提出在特征提取網(wǎng)絡中添加注意力機制,并且構建了一種可以和卷積神經(jīng)網(wǎng)絡進行端到端訓練的注意力模塊盡可能減少訓練過程中中的損耗,最后在區(qū)域建議網(wǎng)絡中用Soft-NMS替換傳統(tǒng)非極大值抑制算法,從而降低算法漏檢提高定位精度。從YOLO算法的發(fā)展可以看出,利用算法進行檢測時,不斷完善網(wǎng)絡特征融合結構,以及利用多尺度特征圖作預測對算法性能的改進都有一定幫助?;谒惴ǜ镄掳l(fā)展以及現(xiàn)應用需求本文提出一種基于YOLOv5s的改進目標檢測算法,通過添加壓縮-激勵模塊以及對其頸部輸出通道改進,并對損失函數(shù)進行替換,從而有效提高了算法性能。

      1 YOLOv5s目標檢測算法

      YOLOv5s屬于單階段目標檢測算法,其在YOLOv4的基礎上添加了一些新的改進方法,對算法的性能提升提供了很大的幫助。其主要包含四部分:輸入端、基準網(wǎng)絡、Neck網(wǎng)絡、Head輸出層。

      (1)輸入端:檢測圖片輸入。通常輸入圖像大小為640×640,該階段首先對圖像進行預處理,即將輸入圖片縮放到網(wǎng)絡的輸入大小,進行灰度處理等操作。在網(wǎng)絡訓練時,算法使用Mosaic數(shù)據(jù)增強方法進一步提高模型的訓練速率和檢測精度,并新增自適應錨框計算與自適應圖片縮放方法。

      (2)基準網(wǎng)絡:通常是一些優(yōu)質(zhì)的分類器網(wǎng)絡,該模塊用來提取一些常用的特征表現(xiàn)。YOLOv5s中主干網(wǎng)絡采用CSPDarknet53結構,使用Focus結構作為其基準網(wǎng)絡。

      (3)Neck結構:位于基準網(wǎng)絡和主干網(wǎng)絡之間,利用它可以進一步提升特征的提取能力。雖然YOLOv5s同樣用到了SPP模塊、FPN+PAN模塊,但是實現(xiàn)的方法不同。YOLOv4的Neck結構中采用的普通卷積操作,YOLOv5s中采用CSP2結構在某種程度上增強其網(wǎng)絡特征融合能力。

      (4)Head輸出端:目標檢測結果的輸出通道。不同的檢測算法,輸出端的通道數(shù)也不同,通常包括一個分類分支和一個回歸分支。YOLOv5s采用的GIoU Loss損失函數(shù),使得算法精確度得到進一步改善。YOLOv5s基本網(wǎng)絡結構如圖1所示。

      圖1 YOLOv5s網(wǎng)絡結構圖Fig.1 Network structure diagram of YOLOv5s

      2 算法改進

      2.1 融入通道注意力機制

      注意力機制(attention mechanism)首次被提出來自于人類視覺的研究,在人們的精神認知中,會主動去關注一部分信息,同時也會忽略其他可視的信息[16]。深度學習中的注意力機制與人類視覺的注意力機制相似,即從眾多信息中把注意力集中在重要的點上,挑出重要信息,忽略其他不重要的信息[17]。因此通過融入通道注意力機制,可以更好地解決環(huán)境帶來的干擾從而提高檢測精確度。

      雖然目前很多研究提出將通道注意力和空間注意力兩者結合起來使用效果更好,但是這樣會增加額外的運算量,影響其檢測速率。另外,神經(jīng)網(wǎng)絡的感受范圍是通過卷積操作來提高的,很大一部分融入的是空間注意力機制,基于以上兩點考慮,本文提出融合通道注意力的YOLOv5s檢測網(wǎng)絡。

      通道注意力經(jīng)典的代表就是SENet(squeeze and excitation network),因此本文引入其中的壓縮-激勵模塊,其目的在于通過建立特征通道之間相互依賴的關系,增強有用信息的特征,在處理階段提高這些特征的利用率并抑制無用的信息特征。

      如圖2所示,壓縮操作采用了全局平均池化來壓縮輸入通道的特征層,對特征圖u壓縮空間維度后的結果如公式(1)所示:

      圖2 壓縮激勵模塊結構圖Fig.2 Structure diagram of compression excitation module

      其中,zc表示第c個特征的一維向量值;h和w分別表示特征圖的兩個維度。激勵操作會學習通道間的非線性相互作用,首先通過全連接層將特征維度降低到輸入的1/16,然后通過ReLU激活函數(shù)增加非線性,再通過一個全連接層恢復到原來的特征層,瓶頸結構由兩個全連接層共同組成,用來預測通道間的相關性,最后通過Sigmoid函數(shù)獲得歸一化權重。激勵操作的表達式如(2)所示。

      其中,σ指Sigmoid函數(shù),δ為ReLU函數(shù),g(z,w)表示兩個全連接層構成的瓶頸結構,w1的維度為×c,w2的維度為c,r是一個縮放參數(shù)。

      在壓縮和激勵操作完成后,通過公式(3)所示將乘法逐通道加權到原來的特征上。

      這樣就將通道注意力模塊添加到了目標檢測網(wǎng)絡中,對于提高無人機的檢測精度在一定程度上會有所幫助。

      2.2 引入雙錐臺特征網(wǎng)絡結構

      為了使提高算法對復雜背景下小目標的檢測能力,本文引入LIU等人提出的改進FPN的輸出通道數(shù)值,使其經(jīng)過FPN的特征融合之后,輸出通道為[138,225,138]。但由于無人機拍攝圖像的角度、高度、抖動等問題,導致目標呈現(xiàn)尺寸較小以及拍攝背景雜亂,通道的特征圖組包含所提取的目標信息有限,從而使訓練后所得到的模型檢測效果較差[18]。為了提高檢測網(wǎng)絡對于小目標的檢測精確度,本文引入雙錐臺特征融合(bifrustum feature fusion,BFF)結構,傳統(tǒng)金字塔特征融合結構和本文的雙錐臺特征融合結構的對比圖,如圖3所示。

      圖3 雙錐臺特征融合結構Fig.3 Characteristic fusion structure of double-cone platform

      為了檢測圖像中不同尺度的目標,本文選擇5、6、7層的特征層,將三層不同大小的特征圖組傳輸?shù)筋i部進行網(wǎng)絡特征融合。

      淺層特征圖包含的細節(jié)信息較多,但是由于被檢測的車輛目標較小,即使使用225通道的特征進行融合,其包含的可用目標信息仍然不足以檢測出足夠有用信息,為了既減少模型計算量,又不降低檢測精度,本文選擇使用138通道的C5特征圖;C7特征層包含較多的特征信息,經(jīng)過特征融合包含的可用信息較多,為了更好提取目標特征信息,故選擇138通道輸入下一層;而C6層特征圖,不但包括細節(jié)信息,還包括圖像的語義信息,相比C5和C7層可獲得的特征信息更全面,因此225通道的特征信息傳至檢測頭部網(wǎng)絡。

      在原有特征網(wǎng)絡的基礎上,雙錐臺特征融合結構更巧妙地利用了各特征提取層之間相互聯(lián)系,提取出包含語義信息較多的特征層進行通道擴展處理,方便網(wǎng)絡提取到識別任務中需要的有效信息,盡可能減小干擾信息對目標識別精確度的影響。且選擇性地進行通道擴展,對于模型參數(shù)大小來說影響甚微,從而避免算法訓練過程中不必要的運算,在保證算法檢測精確度的同時盡量提高其檢測速度。

      實驗結果驗證,經(jīng)此改進所得到的特征融合方式,無人機對復雜背景下的小目標檢測精度得到進一步的提升。

      2.3 損失函數(shù)改進

      YOLOv5s采用GIoU Loss做bounding box的損失函數(shù),使用二進制交叉熵(BCE)和Logits損失函數(shù)計算類概率和目標得分的損失[19]。

      GIoU Loss在原函數(shù)的基礎上引進預測框和真實框的最小外接矩形。

      GIoU公式:

      式中,IoU表示邊界框(predicted box,PB)和真實邊界框(ground truth,GT)的交并比,Ac表示將PB和GT同時包含的最小的矩形框的面積,u表示PB和GT的并集,LGIoU為GIoU損失。當兩框完全重合時取最小值0,當兩框的邊外切時,損失函數(shù)值為1;當兩框分離且距離很遠時,損失函數(shù)值為2。使用外接矩形的方法不僅可以反映重疊區(qū)域的面積,還可以計算非重疊區(qū)域的比例,因此GIoU損失函數(shù)能更好地反映真實框和預測框的重合程度和遠近距離。

      但是GIoU Loss包含時計算得到的IoU、GIoU數(shù)值相等,損失函數(shù)值與IoU Loss一樣,無法很好地衡量其相對的位置關系。同時在計算過程中出現(xiàn)上述情況,預測框在水平或垂直方向優(yōu)化困難,導致收斂速度慢。而CIoU Loss在針對上述問題考慮了以下三點分別是覆蓋面積、中心點距離和長寬比,如下公式:

      式中b和bgt表示PB和GT的中心點,ρ2(·)表示求歐式距離,c表示PB和GT的最小包圍框的最短對角線長度,α表示一個正平衡參數(shù),ν表示PB和GT的長寬比的一致性。α和ν的定義如公式(8)、(9):

      其中wgt、hgt和w、h分別表示GT和PB的寬度和高度。

      相比YOLOv5s中使用的GIoU Loss,CIoU Loss在損失項中加入了PB、GT中心距離和長寬比例的懲罰項,使網(wǎng)絡在訓練時可以保證預測框更快地收斂,并且得到更高的回歸定位精度,本文將CIoU Loss作為車輛檢測網(wǎng)絡的損失函數(shù)。

      3 實驗與分析

      3.1 數(shù)據(jù)集處理

      (1)數(shù)據(jù)集篩選

      本課題主要針對智能交通系統(tǒng)中的車輛進行視頻采集,由于自采數(shù)據(jù)受限,因此本課題采用目前公開的數(shù)據(jù)集。根據(jù)本課題需求對目前公開的無人機拍攝視頻圖像進行篩選重建。選取的無人機拍攝數(shù)據(jù)集有VIVID數(shù)據(jù)集、VisDrone-2019數(shù)據(jù)集、VOC2007數(shù)據(jù)集以及自己采集圖像,共計11 260張,所有數(shù)據(jù)都采用PASCALVOC格式進行標注,其中80%用于訓練,20%用于測試。數(shù)據(jù)集中包含各種交通場景,包括高速公路、十字路口、丁字路口,不同的環(huán)境背景,包括白天、夜晚、霧霾天、雨天。該類數(shù)據(jù)集滿足實驗訓練的需求,更好地實現(xiàn)無人機對地面小目標的檢測。數(shù)據(jù)集示例如圖4所示。

      圖4 數(shù)據(jù)集示例Fig.4 Dataset example

      (2)數(shù)據(jù)集標注

      將采集的無人機拍攝圖像按照算法模型的需求,使用Labeling軟件對圖片進行標注,均標注保存為PASCAL VOC格式。將圖中出現(xiàn)的小轎車均標注為car標簽;將圖中出現(xiàn)的出租車標注為taxi標簽;將卡車均標注為truck標簽;將公交車標注為bus標簽。具體標注如圖5所示。

      圖5 數(shù)據(jù)集標注圖Fig.5 Dataset annotation plot

      3.2 實驗環(huán)境與評估指標

      (1)實驗環(huán)境

      本文實驗平臺操作系統(tǒng)為Ubuntu 18.04,CPU為Intel Xeon E5-2620 v4,GPU為Nvidia GeForce GTX 3080Ti,實驗仿真使用Windows10系統(tǒng)下PyTorch深度學習框架,開發(fā)環(huán)境為Python 3.9,PyTorch 1.6.0,

      CUDA 11.1。

      (2)參數(shù)設置

      本文為保證訓練結果的準確性,參與對比的算法均在相同訓練參數(shù)下,對算法進行訓練測試,模型參數(shù)值設置如表1所示。

      表1 參數(shù)設置表Table 1 Parameters setting table

      (3)評估指標

      為了更準確地分析檢測性能,本文采用每秒處理的圖像幀數(shù)(frame per second,F(xiàn)PS)、平均精度均值(mean average precision,mAP),作為本實驗算法模型的評價指標,每種指標都會在一定程度上反映檢測算法在不同方面的性能。首先應計算其查準率(precision)和查全率(recall)。查準率是模型預測的所有目標中,預測正確的比例,突出結果的相關性;查全率又稱召回率,所有的真實(正)目標中,預測正確的目標比例。公式如下所示:

      其中,TP表示實際為正例且被分類器劃分為正例的樣本數(shù)量;FP表示實際為負例但被分類器劃分為正例的樣本數(shù)量;FN表示實際為正例但被分類器劃分為負例的樣本數(shù)量。

      平均精度(average precision,AP)就是對數(shù)據(jù)集中的一個類別的精度進行平均,如公式(12)所示,p和r分別表示查準率和查全率,AP為曲線包含的面積。平均精度均值(mAP)是指所有類AP的平均值,其計算公式如式(12)、(13)所示:

      3.3 模型訓練

      實驗在自建數(shù)據(jù)集上進行,首先針對YOLOv5s訓練要求更改配置文件,設置實驗參數(shù)值包括衰減系數(shù)、epoch值、學習率、批量、動量等。在實驗訓練過程中通過查看訓練日志可以發(fā)現(xiàn),在訓練達到300次左右時,損失函數(shù)基本不再下降逐漸趨于平穩(wěn),因此在訓練達到300次時終止訓練。將訓練日志中數(shù)據(jù)進行統(tǒng)計,具體結果如圖6、7所示。

      圖6 改進算法mAP變化曲線Fig.6 Change curve of improved algorithm mAP

      圖7改進算法損失變化曲線Fig.7 Loss change curve of improved algorithm

      圖6 、7分別為改進算法模型訓練過程中mAP和損失函數(shù)變化曲線圖,由圖中可以看出改進后算法模型檢測精度可達到86.3%,損失函數(shù)變化曲線隨著訓練次數(shù)的增加在250~300次時逐漸趨于平穩(wěn)。

      3.4 實驗結果

      (1)壓縮激勵模塊對比實驗

      為了驗證壓縮-激勵模塊對算法改進的有效性,本節(jié)采用對照實驗的原理,分析改進模塊對算法性能提升的有效性。分別對比了YOLOv5m、YOLOv5s以及其分別引入壓縮激勵模塊后在同一數(shù)據(jù)集上的實驗結果,結果如表2所示。

      表2 壓縮-激勵模塊對算法性能影響對比Table 2 Influence comparison of compression-excitation module on algorithm performance

      表2第一行是YOLOv5m原算法在數(shù)據(jù)集上的實驗結果,平均檢測精度為73.6%,檢測幀率為89.3 frame/s,加入壓縮-激勵模塊后平均檢測精度提升5.5個百分點,檢測幀率降低3.8 frame/s;YOLOv5s在數(shù)據(jù)集上的平均精度和檢測幀率分別為69.5%、126.6 frame/s,加入壓縮-激勵模塊后平均檢測精度提升了7.8個百分點,但是其檢測幀率降低了2.9 frame/s。為了進一步驗證實驗的有效性,橫向?qū)Ρ仍赮OLOv5s基礎上引入SAGN(空間注意力模塊),可以看出其對原算法的精度有一定的提升,但是相比本文引入模塊實驗效果較差,并且其對算法速度的影響較大。在原算法基礎上引入CBAM(卷積注意力模塊),通過實驗結果可看出其雖然對精度提升幅度較大,但是由于其同時關注空間和通道信息,因此其檢測速度不盡如人意,幾乎只有原算法速度的一半。由此可以看出引入壓縮-激勵模塊對算法精度有一定改進,但其同時也會增加一定計算量,從而對檢測速度有一定影響。

      (2)頸部不同輸出通道對比實驗

      為了驗證頸部不同輸出通道對算法實驗結果的影響,對三層輸出通道進行重組,進行訓練得到不同的檢測結果,具體結果如表3所示。

      表3 不同輸出通道對算法效果影響對比Table 3 Influence comparison of tdifferent output channels on algorithm effect

      由表3可以看出當增加模型輸出通道數(shù)時,模型參數(shù)也隨之增加,其檢測性能也有一定提升。但同時也出現(xiàn)了模型數(shù)量增加但其檢測精度下降的情況,比如通道數(shù)由[128,225,138]增加到[225,225,138],模型參數(shù)由3.81 MB增加到4.41 MB,但是其檢測精度卻由74.4%降為73.2%。由于無人機視角下檢測目標過小并且易受周圍復雜背景影響,其負樣本的增加數(shù)量大于正樣本數(shù)從而導致檢測精度下降。綜合評估下當通道數(shù)為[138,225,138]時檢測精度最高為76.8%,模型數(shù)為3.97 MB,相對原算法檢測精度提高了7.3個百分點。由此可見,引入雙錐臺特征融合結構對于提升算法性能有一定作用。

      (3)損失函數(shù)對比實驗

      為證實本文提出改進損失函數(shù)的有效性,進行損失函數(shù)對比實驗,實驗參數(shù)中設置的epoch值為300,在實驗訓練過程發(fā)現(xiàn)訓練達到300次左右時,損失函數(shù)基本趨于平穩(wěn),因此終止訓練。具體訓練結果如圖8所示。

      圖8 損失變化曲線對比圖Fig.8 Comparison diagram of loss change curves

      由圖8訓練后的損失函數(shù)對比圖可以清楚看出,改進后YOLOv5s的損失函數(shù)下降趨勢更明顯,表明了改進后算法的有效性。

      為了進一步驗證改進損失函數(shù)的有效性,將改進損失函數(shù)與原算法損失函數(shù)以及MAE(絕對誤差損失)對算法性能影響的結果進行對比,結果如表4所示。

      表4 損失函數(shù)實驗結果對比Table 4 Experimental results comparison of loss functions

      由表4,為了驗證改進損失函數(shù)對算法性能的影響,在實驗中將算法中損失函數(shù)進行單獨替換,分別替換為MAE、CIOU Loss與原算法中GIOU Loss進行橫向?qū)Ρ葘嶒灐慕Y果可以明顯看出,將損失函數(shù)替換為MAE后檢測平均精度提高了0.6個百分點,檢測幀率提高了2.7 frame/s;替換為CIOU Loss后,由于CIoU Loss在損失項中加入了PB、GT中心距離和長寬比例的懲罰項,使網(wǎng)絡在訓練時可以保證預測框更快地收斂,并且得到更高的回歸定位精度,可以看出檢測精度提高了3.3個百分點,檢測幀率提升較多,增加了11.6 frame/s,因此可以得出本文提出的CIoU Loss對算法速度提升效果較優(yōu)。

      (4)消融對比實驗

      為了更好地驗證本實驗三種改進策略的有效性,在自建數(shù)據(jù)集上展開消融實驗,對改進算法的有效性進行分析。依次在YOLOv5s的基礎上加入壓縮-激勵模塊、BFF模塊以及改進損失函數(shù)。為保證實驗的準確性,訓練過程中均采用相同參數(shù)配置,衰減系數(shù)為0.000 5,學習率為0.01,批量設置為16,動量設置為0.937。實驗結果如表5所示。

      表5 消融實驗結果對比Table 5 Comparison of ablation experiment results

      表5第一行表示改進前YOLOv5s在自建數(shù)據(jù)集上的訓練結果,平均檢測精度是69.5%。在分別引入SENet和BFF模塊之后可以明顯看,lSENet對檢測精確度的影響較大,但是BFF對檢測速度的提升較為明顯。通過對這兩個模塊的功能分析得出,壓縮-激勵模塊主要是增加計算量從而提升模型算法的特征提取能力,因此對檢測精度影響較大,計算量增加也對檢測速度有一定影響。而BFF通過增加模型通道在提升檢測精度的同時也對檢測速度有一定改進。在同時引進兩個模塊之后,檢測模型得到最優(yōu)結果,檢測精度和幀率分別提高了16.8個百分點和6.6 frame/s。

      (5)模型檢測結果

      為了更好地展示改進后算法的檢測效果,分別選取道路情況復雜的十字路口、夜晚交叉路口以及住宅區(qū)旁邊的道路三種不同場景下拍攝圖像,對原算法YOLOv5s和改進后的算法進行測試,實驗結果對比如表6所示。

      表6 實驗結果對比Table 6 Comparison of experimental results

      如圖9中第一排為原YOLOv5s算法實驗結果圖,第二排為PP-YOLO算法在數(shù)據(jù)集上的訓練結果,第三排為YOLO v4的訓練效果圖,第四排為改進后YOLOv5s算法的實驗結果圖。由圖9(a)可以看到,改進前的YOLOv5s算法并沒有檢測出遠處的小目標車輛并且檢測精度較低,而改進后的算法不僅檢測出遠處較小目標還進一步提升了算法精度。圖9(b)中遠處斑馬線旁的出租車原算法實驗中并沒有檢測出,而改進后算法不僅準確檢測出并且對其進行正確的分類。圖9(c)中可清楚看出,改進后算法對于道路車輛的精準分類以及檢測精度有明顯提升,進一步說明算法改進的有效性。

      圖9 檢測結果對比圖Fig.9 Comparison diagram of test results

      4 結束語

      本文基于YOLOv5s提出一種改進YOLOv5s算法,主要針對無人機拍攝圖像中檢測目標較小、背景復雜及特征提取受限,導致無人機檢測速度和精度無法同時提升的問題。該算法在YOLOv5s的基礎上引入壓縮-激勵模塊,用于提高網(wǎng)絡的特征提取能力;其次引入雙錐臺特征融合結構從而提升算法對小目標的檢測精度;最后替換CIoU Loss為算法模型的損失函數(shù),在提高邊界框回歸速度的同時提高定位精度。本文實驗以VIVID、VisDrone-2019數(shù)據(jù)集為基礎,篩選建立新數(shù)據(jù)集進行實驗。實驗結果表明,在復雜環(huán)境下改進后的算法適應力更強,準確率在原算法的基礎上提高了16.8個百分點,檢測幀率提高了6.6 frame/s。盡管模型權重相對來說已經(jīng)很小,但是對于邊緣設備而言仍然負載過大,因此模型的輕量化是其未來發(fā)展的一個重要方向。

      猜你喜歡
      損失精度函數(shù)
      少問一句,損失千金
      二次函數(shù)
      第3講 “函數(shù)”復習精講
      胖胖損失了多少元
      二次函數(shù)
      函數(shù)備考精講
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      基于DSPIC33F微處理器的采集精度的提高
      電子制作(2018年11期)2018-08-04 03:25:38
      GPS/GLONASS/BDS組合PPP精度分析
      一般自由碰撞的最大動能損失
      杭州市| 浮梁县| 宜良县| 棋牌| 梧州市| 远安县| 安岳县| 叙永县| 宁化县| 富川| 恭城| 敖汉旗| 贞丰县| 蛟河市| 苗栗市| 东丰县| 孟津县| 英吉沙县| 台东县| 惠东县| 平顶山市| 临夏市| 兰西县| 佳木斯市| 四川省| 余庆县| 茶陵县| 双流县| 武山县| 吉林市| 丹寨县| 益阳市| 墨脱县| 临城县| 莎车县| 寻乌县| 犍为县| 台安县| 黑山县| 仪征市| 武汉市|