• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Ghost卷積和通道注意力機(jī)制級聯(lián)結(jié)構(gòu)的車輛檢測方法研究

    2023-02-15 01:25:12梁繼然董國軍許延雷
    關(guān)鍵詞:級聯(lián)注意力卷積

    梁繼然,陳?壯,董國軍,陳?琦,許延雷

    基于Ghost卷積和通道注意力機(jī)制級聯(lián)結(jié)構(gòu)的車輛檢測方法研究

    梁繼然1, 2,陳?壯1,董國軍3,陳?琦1,許延雷1

    (1. 天津大學(xué)微電子學(xué)院,天津 300072;2. 天津市成像與感知微電子技術(shù)重點(diǎn)實(shí)驗(yàn)室,天津 300072;3. 天津七一二通信廣播股份有限公司,天津 300462)

    為了降低YOLOv3算法的計(jì)算量和模型體積,提高對小目標(biāo)的檢測能力,本文提出一種基于Ghost卷積和通道注意力機(jī)制級聯(lián)結(jié)構(gòu),將其作為YOLOv3算法的特征提取網(wǎng)絡(luò),以減少網(wǎng)絡(luò)計(jì)算量;在小目標(biāo)預(yù)測支路引入S-RFB模塊,擴(kuò)大模型的感受野,更好地利用上下文信息,以提高對小目標(biāo)的檢測能力;使用CIOU損失作為邊界框位置損失項(xiàng),以加速模型的收斂.利用高斯噪聲對訓(xùn)練樣本進(jìn)行數(shù)據(jù)增強(qiáng),提高模型的魯棒性.在UA-DETRAC數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,相比于YOLOv3算法,基于Ghost卷積和通道注意力機(jī)制級聯(lián)結(jié)構(gòu)的G-YOLO算法的平均精度提高了2.7%,模型體積減小了67%,在復(fù)雜道路交通環(huán)境中具有良好的檢測效果.

    車輛檢測;卷積神經(jīng)網(wǎng)絡(luò);輕量化

    智能交通系統(tǒng)對于未來城市交通的規(guī)劃、交通事故的降低具有重要意義.而車輛檢測是智能交通系統(tǒng)[1](intelligent traffic system,ITS)的基礎(chǔ)和核心.目前車輛檢測技術(shù)已經(jīng)成為交通事故檢測、車輛智能分流、輔助駕駛功能、車輛違法行駛等領(lǐng)域的研究熱點(diǎn).

    傳統(tǒng)的目標(biāo)檢測方法采用人工設(shè)計(jì)的特征算子進(jìn)行特征提取,通過分類器對目標(biāo)進(jìn)行分類判斷,通常存在檢測速度慢且難以精準(zhǔn)定位目標(biāo)[2]的問題.近年來,隨著深度學(xué)習(xí)理論的快速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(convolution neural network,CNN)在目標(biāo)檢測方面取得了突破性進(jìn)展,在解決目標(biāo)的特征提取和表達(dá)的問題上具有很強(qiáng)的優(yōu)勢.雖然基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法得到了廣泛的應(yīng)用,但是訓(xùn)練后的模型一般有數(shù)以千萬計(jì)的權(quán)重參數(shù),對硬件的計(jì)算能力要求很高,在給定的物理空間和平臺上,算法的部署會受到限制[3].在車輛檢測任務(wù)中,圖像大多由監(jiān)控?cái)z像頭等嵌入式設(shè)備拍攝,而基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測模型通常需要圖形處理單元(graphics processing unit,GPU)的加速支持才能達(dá)到檢測效果,但嵌入式設(shè)備計(jì)算能力有限,無法滿足高實(shí)時(shí)性的車輛檢測任務(wù)需求.目前對卷積神經(jīng)網(wǎng)絡(luò)的壓縮方式和加速途徑有知識蒸餾、網(wǎng)絡(luò)剪枝、參數(shù)量化、低秩分解、輕量化網(wǎng)絡(luò)設(shè)計(jì)等[4].Jhong等[5]采用知識蒸餾和深度可分離卷積的方法在Jetson TX2上實(shí)現(xiàn)了實(shí)時(shí)的自動駕駛?cè)蝿?wù).Zhao等[6]采用特征金字塔增強(qiáng)的策略提高檢測精度,并通過逐層裁剪的方式對網(wǎng)絡(luò)瘦身,得到了輕量高效的神經(jīng)網(wǎng)絡(luò),在快速車輛檢測任務(wù)中取得了較好的結(jié)果.Ye等[7]對Darknet-53網(wǎng)絡(luò)進(jìn)行了優(yōu)化,設(shè)計(jì)了多分支卷積模塊來替換原來的卷積,減少了通道數(shù)和參數(shù)計(jì)算,并在嵌入式系統(tǒng)上實(shí)現(xiàn)了應(yīng)用.此外,一些輕量化網(wǎng)絡(luò)也逐漸被學(xué)者提出,例如2017年Howard等[8]提出了以深度可分離卷積為基礎(chǔ)的MobileNet算法,但其特征提取能力略有不足;2020年Tan等[9]提出了基于神經(jīng)架構(gòu)搜索設(shè)計(jì)的EffcientDet算法,具有更高的準(zhǔn)確性和效率;2020年Han等[10]提出了使用線性變換生成冗余特征圖的GhostNet算法,在保證準(zhǔn)確率的同時(shí)具備輕量化的結(jié)構(gòu).

    本文針對基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢測算法存在的參數(shù)量多、計(jì)算量大的問題,提出一種基于Ghost卷積和注意力機(jī)制級聯(lián)的結(jié)構(gòu),并以殘差結(jié)構(gòu)的方式進(jìn)行跳躍連接,以降低網(wǎng)絡(luò)的參數(shù)量和計(jì)算量;在小目標(biāo)預(yù)測支路引入改進(jìn)后的RFB[11]結(jié)構(gòu)以擴(kuò)大模型的感受野,充分利用上下文信息以提高對小目標(biāo)車輛的檢測能力;使用CIOU[12]損失作為損失函數(shù)的邊界框預(yù)測損失項(xiàng),促進(jìn)模型收斂;最終構(gòu)建了基于Ghost卷積和通道注意力機(jī)制的G-YOLO車輛檢測算法.實(shí)驗(yàn)表明本文所提算法大幅度減少了網(wǎng)絡(luò)的計(jì)算量,縮減了模型體積,在復(fù)雜交通場景下對車輛檢測具有良好的效果,并且滿足車輛檢測任務(wù)的實(shí)時(shí)性需求.

    1?模型結(jié)構(gòu)

    YOLOv3[13]算法是典型的一階段目標(biāo)檢測算法,在目標(biāo)檢測領(lǐng)域得到了廣泛的應(yīng)用,通過多尺度特征融合對不同大小的目標(biāo)進(jìn)行預(yù)測,但存在體積大、參數(shù)冗余、對小目標(biāo)檢測效果差的問題.為解決上述問題,本文提出一種基于Ghost卷積和注意力機(jī)制級聯(lián)的車輛檢測算法,網(wǎng)絡(luò)結(jié)構(gòu)包括特征提取網(wǎng)絡(luò)、多尺度融合支路和預(yù)測支路3個(gè)部分.模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,特征提取網(wǎng)絡(luò)基于Ghost卷積構(gòu)成殘差結(jié)構(gòu),使用一半的標(biāo)準(zhǔn)卷積生成部分特征圖,對部分特征圖采用注意力機(jī)制進(jìn)行權(quán)重分配,然后使用3×3卷積對部分特征圖進(jìn)行通道卷積生成另一半特征圖,將兩部分特征圖進(jìn)行拼接,為了不增加網(wǎng)絡(luò)的復(fù)雜度,將特征提取網(wǎng)絡(luò)的深層設(shè)計(jì)為Ghost卷積與注意力機(jī)制級聯(lián)的結(jié)構(gòu),淺層只以Ghost卷積的方式實(shí)現(xiàn);為擴(kuò)大淺層特征圖的感受野,增強(qiáng)對小目標(biāo)檢測能力,在小目標(biāo)預(yù)測支路中加入S-RFB結(jié)構(gòu),隨后經(jīng)過多尺度融合將深層特征與淺層特征進(jìn)行拼接,將拼接后的特征圖送入預(yù)測支路,完成目標(biāo)的檢測.

    圖1?模型結(jié)構(gòu)

    1.1?Ghost卷積與注意力機(jī)制級聯(lián)結(jié)構(gòu)

    最后將兩部分特征圖進(jìn)行拼接,得到最終的特征圖.圖2為Ghost卷積實(shí)現(xiàn)過程.

    圖2?Ghost卷積實(shí)現(xiàn)過程

    運(yùn)算量壓縮比為

    雖然Ghost卷積節(jié)省了大量的浮點(diǎn)型運(yùn)算,但是無法保證得到與標(biāo)準(zhǔn)卷積操作完全一致的特征圖.為了提高最終生成的特征圖質(zhì)量,筆者設(shè)計(jì)了Ghost卷積與通道注意力機(jī)制級聯(lián)的結(jié)構(gòu),如圖3所示,利用輕量化通道注意力機(jī)制ECA-Net[14]對標(biāo)準(zhǔn)卷積操作得到的部分特征圖進(jìn)行通道域加權(quán),具體實(shí)現(xiàn)方式為特征圖進(jìn)行全局平均池化,整合得到1×1×C維度的特征圖,通過Sigmoid函數(shù)生成新的權(quán)重參數(shù),最后將生成的權(quán)重參數(shù)與原通道特征圖相乘.有效篩選對最終目標(biāo)預(yù)測結(jié)果貢獻(xiàn)程度較大的關(guān)鍵信息,使經(jīng)過線性操作輸出的特征圖也對最終目標(biāo)預(yù)測貢獻(xiàn)關(guān)鍵信息,以獲取高質(zhì)量的原始特征圖.

    Ghost卷積與注意力機(jī)制級聯(lián)的結(jié)構(gòu)有效結(jié)合了Ghost卷積和注意力機(jī)制的優(yōu)勢.首先,Ghost卷積使模型減少了大量的浮點(diǎn)型運(yùn)算,保證了最終特征圖通道數(shù)不變;其次,在部分原始特征圖進(jìn)行線性操作生成其余特征圖的過程中采用通道注意力機(jī)制保證了其余部分特征圖的質(zhì)量,使全部特征圖盡可能對目標(biāo)預(yù)測做貢獻(xiàn).

    1.2?S-RFB結(jié)構(gòu)

    在復(fù)雜道路環(huán)境下,目標(biāo)車輛易受到建筑物、植被等障礙物遮擋,神經(jīng)網(wǎng)絡(luò)只能提取到不完整的部分特征信息,當(dāng)拍攝距離較遠(yuǎn)時(shí),待檢測車輛在圖像中所占像素較少,細(xì)節(jié)信息難以被利用,誤檢和漏檢的概率隨之增加.感受野是輸出特征圖上的像素點(diǎn)對應(yīng)輸入圖片區(qū)域的大?。甕OLOv3算法通過52×52的特征圖對小目標(biāo)進(jìn)行預(yù)測,其感受野較小,難以有效利用上下文信息,RFB結(jié)構(gòu)利用不同尺寸的標(biāo)準(zhǔn)卷積和不同擴(kuò)張率的空洞卷積模擬感受野和離心率的關(guān)系.本文對RFB結(jié)構(gòu)進(jìn)行了改進(jìn),得到了S-RFB結(jié)構(gòu),如圖4所示,S-RFB利用1×1卷積進(jìn)行通道降維,使用不同大小的標(biāo)準(zhǔn)卷積核和不同擴(kuò)張率的空洞卷積進(jìn)行多支路級聯(lián),使用兩個(gè)3×3卷積核代替原來5×5的卷積核,另新增一條支路對原始特征圖進(jìn)行SoftPool[15]池化操作,經(jīng)1×1卷積進(jìn)行通道變換與不同空洞率的空洞卷積相連,與原始特征圖進(jìn)行短路連接進(jìn)行通道融合,輸出最終的輸出特征圖.

    圖4?S-RFB結(jié)構(gòu)

    1.3?損失函數(shù)

    損失函數(shù)可以反映模型的預(yù)測值和真實(shí)值之間的不一致程度,其值越小,模型的魯棒性越好,良好的損失函數(shù)有助于降低損失值,同時(shí)可以加快網(wǎng)絡(luò)的收斂速度.本文引入CIOU損失作為邊界框預(yù)測損失項(xiàng),YOLOv3算法使用IOU loss(交并比損失)來評估模型的邊界框預(yù)測損失,但是可能會出現(xiàn)梯度為零或者無法表示預(yù)測框和實(shí)際框?qū)R的問題,CIOU損失將預(yù)測框和真實(shí)框的中心點(diǎn)距離考慮在內(nèi),通過增加預(yù)測框和真實(shí)框的長寬比一致性的衡量參數(shù)使損失函數(shù)朝著區(qū)域重疊增加的方向前進(jìn),CIOU函數(shù)可表示為

    2?數(shù)據(jù)集和實(shí)驗(yàn)平臺

    實(shí)驗(yàn)所選數(shù)據(jù)集為車輛公開數(shù)據(jù)集UA-DETRAC[16],使用Cannon相機(jī)在北京和天津的城市道路24個(gè)地點(diǎn)拍攝而成,數(shù)據(jù)集場景豐富,包括不同的車輛類型和行車條件,并根據(jù)遮擋程度分為無遮擋、部分遮擋和嚴(yán)重遮擋3類,除此之外該數(shù)據(jù)集還對晴天、雨天、多云、夜晚4種天氣場景進(jìn)行了標(biāo)注,綜合遮擋、尺度變化和光照影響等因素分為簡單、中等和困難3個(gè)部分,貼近真實(shí)交通場景下道路車輛情況,數(shù)據(jù)集示例如圖5所示.

    圖5?UA-DETRAC數(shù)據(jù)集示例

    此外,使用高斯噪聲處理的方法對數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng),提高模型的泛化能力.本實(shí)驗(yàn)基于PyTorch框架,操作系統(tǒng)為Ubuntu 16.04,Nvidia Tesla V100顯卡,訓(xùn)練過程中初始學(xué)習(xí)率設(shè)置為0.001,批量大小為64,訓(xùn)練周期為45,在訓(xùn)練過程中記錄每個(gè)訓(xùn)練周期的損失值.

    3?實(shí)驗(yàn)分析

    3.1?對比實(shí)驗(yàn)

    為評估所提算法的性能,與當(dāng)前主流算法進(jìn)行了實(shí)驗(yàn)對比,包括二階段目標(biāo)檢測算法Faster R-CNN[17]、一階段目標(biāo)檢測算法SSD[18]、基于Anchor-Free的目標(biāo)檢測算法CenterNet[19],采用平均精度值(average precision,AP)、每秒處理幀數(shù)(frame per second,F(xiàn)PS)和模型體積(Mbyte,兆字節(jié))對算法的檢測精度、檢測速度進(jìn)行定量分析,結(jié)果如表1所示.可以看出,G-YOLO算法在平均精度值方面雖然不如YOLOv4算法,但在檢測速度和模型體積兩方面都具有一定優(yōu)勢,更適合在嵌入式設(shè)備中部,與YOLOv3算法相比,G-YOLO算法的平均精度值提高了2.7%,模型體積僅為YOLOv3算法的33%.與SSD算法相比,平均精度值提高了4.7%,模型體積僅為SSD算法的57.3%,與CenterNet相比,平均精度值提高了5.6%,檢測速度是CenterNet的1.5倍,模型體積僅為CenterNet的27%,與一階段算法Faster R-CNN相比平均精度值雖不能及,但是檢測速度遠(yuǎn)超F(xiàn)aster R-CNN,能夠滿足實(shí)時(shí)性要求高的任務(wù)需求;相比于以上4種算法,在滿足車輛檢測任務(wù)檢測精度的同時(shí)模型體積被大大壓縮,降低了對高性能硬件的依賴性,在車輛檢測任務(wù)中有較高的應(yīng)用價(jià)值.

    表1?對比實(shí)驗(yàn)結(jié)果

    Tab.1?Results of comparative experiments

    3.2?消融實(shí)驗(yàn)

    為了更好地表征各模塊對模型的貢獻(xiàn),評估各個(gè)模塊的對網(wǎng)絡(luò)性能的影響,本文以YOLOv3為基準(zhǔn)設(shè)計(jì)了消融實(shí)驗(yàn),并對實(shí)驗(yàn)結(jié)果進(jìn)行分析,實(shí)驗(yàn)結(jié)果如表2所示.

    表2?消融實(shí)驗(yàn)結(jié)果

    Tab.2?Results of ablation experiments

    從表2可以看出S-RFB結(jié)構(gòu)能有效利用感受野,有助于提升目標(biāo)的檢測精度,雖然檢測速度有所下降,但檢測速度仍在30 幀/s以上,可以滿足實(shí)時(shí)性任務(wù)的要求,且模型體積幾乎沒有增加,所以添加RFB模塊并未過大增加網(wǎng)絡(luò)負(fù)擔(dān).實(shí)驗(yàn)2是利用Ghost卷積實(shí)現(xiàn)標(biāo)準(zhǔn)卷積,檢測精度雖略有下降,檢測速度卻高達(dá)55 幀/s,且模型體積僅有原來的31.6%,說明使用Ghost卷積減少了網(wǎng)絡(luò)的參數(shù)量和運(yùn)算量;實(shí)驗(yàn)3是在原始特征提取網(wǎng)絡(luò)中加入通道注意力機(jī)制,可以看出ECANet是一種輕量化的通道注意力機(jī)制(ECANet),使用一維卷積模型體積僅增加了4Mbyte,平均精度值提高了1.5%,說明ECA機(jī)制使網(wǎng)絡(luò)能夠更好地利用不同通道間的關(guān)聯(lián)關(guān)系,有效增強(qiáng)有效特征信息的表達(dá).表3為SENet和ECANet兩種注意力機(jī)制的對比,可以看出ECANet體積更小且能夠?qū)崿F(xiàn)更高的檢測精度提升,性能更加優(yōu)越.

    表3?不同注意力機(jī)制對比

    Tab.3?Comparison between different attention mechanisms

    本文所提的G-YOLO算法是在神經(jīng)網(wǎng)絡(luò)的深層中使用了Ghost卷積和通道注意力機(jī)制級聯(lián)模塊的網(wǎng)絡(luò)結(jié)構(gòu),同時(shí)在小目標(biāo)預(yù)測支路加入S-RFB結(jié)構(gòu),可以看出,在平均精度值、每秒處理幀數(shù)和模型體積三者之間取得了較好的平衡.從表2還可以看出,采用Ghost卷積與注意力機(jī)制級聯(lián)的結(jié)構(gòu),保證了最終輸出特征圖的質(zhì)量,與原算法相比,在壓縮體積、縮減運(yùn)算量的同時(shí)沒有出現(xiàn)檢測精度下降的情況,在小目標(biāo)預(yù)測支路加入S-RFB結(jié)構(gòu)后,模型的精度進(jìn)一步提高,說明小目標(biāo)的漏檢和誤檢問題得到緩解.綜上所述,G-YOLO的檢測精度高、體積小,可以滿足嵌入式設(shè)備進(jìn)行車輛檢測任務(wù)的要求.

    3.3?G-YOLO在不同條件下的檢測結(jié)果

    按照不同的天氣條件,UA-DETRAC數(shù)據(jù)集可劃分為晴天、夜晚、多云和雨天4個(gè)子集,同時(shí)根據(jù)車輛目標(biāo)的尺度大小、光照強(qiáng)度、不同遮擋率分為簡單、中等、困難3個(gè)部分.為進(jìn)一步評估算法對車輛目標(biāo)的檢測能力,表4展示了本文所提算法對不同天氣條件下和不同困難程度下對車輛檢測的結(jié)果.

    從表4可以看出,相比于原YOLOv3算法,G-YOLO對困難部分、夜間部分的檢測有明顯的提高,原算法對于小目標(biāo)或者被遮擋目標(biāo)的檢測效果并不理想,通過加入S-RFB結(jié)構(gòu)和通道注意力機(jī)制提高了算法對小尺寸目標(biāo)、被遮擋目標(biāo)的檢測能力.綜上所述,改進(jìn)后的算法魯棒性較好,適合復(fù)雜交通場景下的車輛檢測.

    表4?YOLOv3和G-YOLO在不同條件下的檢測結(jié)果

    Tab.4?Detection results of YOLOv3 and G-YOLO under different conditions????????????%

    3.4?車輛檢測效果展示

    圖6是在復(fù)雜道路環(huán)境下G-YOLO對車輛的檢測結(jié)果,主要包括車輛高速移動的情況(圖6(a))、由于陽光直射圖像偏暗的情況(圖6(b))、待檢測目標(biāo)數(shù)量較多且尺度變化較大的情況(圖6(c))、被綠色植被遮擋時(shí)的情況(圖6(d)).可以看出本文所提算法能夠?qū)Φ缆方煌ㄜ囕v進(jìn)行很好地檢測,在光照影響、目標(biāo)密集、障礙物遮擋等干擾條件下可以取得良好的檢測效果.

    圖6?復(fù)雜道路環(huán)境下的車輛檢測效果

    4?結(jié)?語

    本文提出了一種基于Ghost卷積和通道注意力機(jī)制級聯(lián)結(jié)構(gòu)的車輛檢測算法,提高了Ghost卷積生成部分特征圖的質(zhì)量;并在小目標(biāo)預(yù)測支路加入改進(jìn)的RFB結(jié)構(gòu),增大了模型的感受野,提高了小目標(biāo)車輛的檢測能力;再結(jié)合CIOU損失優(yōu)化損失函數(shù),促進(jìn)了模型收斂;在UA-DETRAC數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),在檢測精度、檢測速度和模型大小方面均優(yōu)于原算法;與目前主流算法相比也具備體積小、速度快的優(yōu)勢,在表現(xiàn)出良好檢測性能的同時(shí),其抗干擾能力較強(qiáng)、魯棒性較好,對智能城市交通系統(tǒng)的建設(shè)有較好的借鑒意義.

    [1] Li R D. Research on the industrial development of intelligent transportation system in China[C]//2020 5th International Conference on Electromechanical Control Technology and Transportation(ICECTT). Nanchang,China,2020:622-627.

    [2] Dalal N,Triggs B. Histograms of oriented gradients for human detection[C]//2005 IEEE Conference on Computer Vision and Pattern Recognition. San Diego,USA,2005:886-893.

    [3] Chen L,Ding Q,Zou Q,et al. DenseLightNet:A light-weight vehicle detection network for autonomous driving[J]. IEEE Transactions on Industrial Electron-ics,2020,67(12):10600-10609.

    [4] 孟憲法,劉?方,李?廣,等. 卷積神經(jīng)網(wǎng)絡(luò)壓縮中的知識蒸餾技術(shù)綜述[J]. 計(jì)算機(jī)科學(xué)與探索,2021,15(10):1812-1829.

    Meng Xianfa,Liu Fang,Li Guang,et al. Review of knowledge distillation in convolutional neural network compression[J]. Journal of Frontiers of Computer Science and Technology,2021,15(10):1812-1829(in Chinese).

    [5] Jhong S Y,Chen Y Y,Hsia C H,et al. Nighttime object detection system with lightweight deep network for internet of vehicles[J]. Journal of Real-Time Image Processing,2021,18(4):1141-1155.

    [6] Zhao M,Zhong Y,Sun D,et al. Accurate and effi-cient vehicle framework based on SSD algorithm[J]. IET Image Processing,2021,15(13):3094-3104.

    [7] Ye T,Ren C,Zhang X,et al. Application of lightweight railway transit object detector[J]. IEEE Transactions on Industrial Electronics. 2021,68(10):10269-10280.

    [8] Howard A G,Zhu Menglong,Chen Bo,et al. MobileNets:Efficient convolutional neural networks for mobile vision applications[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,USA,2017:6738-7438.

    [9] Tan Mingxing,Pang Ruoming,Le Quoc V. EfficientDet:Scalable and efficient object detection[EB/OL]. https://arxiv. org/pdf/1911. 09070v1. pdf,2020-06-27.

    [10] Han K,Wang Y,Tian Q,et al. GhostNet:More fea-tures from cheap operations[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR). Seattle,USA,2020:1577-1586.

    [11] Liu S,Huang D,Wang Y. Receptive field block net for accurate and fast object detection[C]//2018 European Conference on Computer Vision(ECCV). Munich,Germany,2018:404-419.

    [12] Zheng Z,Wang P,Liu W,et al. Distance-IOU loss:Faster and better learning for bounding box regression[C]// 34th AAAI Conference on Artificial Intelligence. New York,USA,2020:12993-13000.

    [13] Redmon J,F(xiàn)arhadi A. YOLOv3:An incremental improvement[EB/OL]. https://arxiv.org/abs/1804.02767,2018-04-08.

    [14] Wang Q,Wu B,Zhu P,et al. ECA-Net:Efficient channel attention for deep convolutional neural networks[C]//Proceedings of the Conference on Computer Vision and Pattern Recognition. Piscataway,USA,2019:1-12.

    [15] Alexandros S A,Ronald P,Grigorios K. Refining activation downsampling with SoftPool[C]// Proceedings of the 2020 IEEE Conference on Computer Vision and Pattern Recognition. Seattle,USA,2020:10357-10366.

    [16] Wen L Y,Du D W,Zhao W,et al. UA-DETRAC:A new benchmark and protocol for multi-object detection and tracking[J]. Computer Vision and Image Understanding,2020,193:1-27.

    [17] Ren S,He K,Girshick R,et al. Faster R-CNN:Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(6):1137-1149.

    [18] Liu W,Anguelov D,Erhan D,et al. SSD:Single shot multibox detector[C]// 2016 European Conference on Computer Vision. Amsterdam,The Netherlands,2016:21-37.

    [19] Zhou Xingyi,Wang Dequan,Kr?henbühl P. Objects as points[EB/OL]. https://arxiv.org/pdf/1904.07850.pdf,2019-04-25.

    Research on the Vehicle Detection Method Based on the Cascade Structure of Ghost Convolution and Channel Attention Mechanism

    Liang Jiran1,2,Chen Zhuang1,Dong Guojun3,Chen Qi1,Xu Yanlei1

    (1. School of Microelectronics,Tianjin University,Tianjin 300072,China;2. Tianjin Key Laboratory of Imaging and Sensing Microelectronics Technology,Tianjin 300072,China;3. Tianjin 712 Communication and Broadcasting Limited Corporation,Tianjin 300462,China)

    To reduce the computational complexity and model size of the YOLOv3 algorithm and improve the detection ability of small targets,we proposed a structure based on the cascade of Ghost convolution and the channel attention mechanism,which was used as the feature extraction network of the YOLOv3 algorithm to reduce network computation. The S-RFB module was introduced in the small-target-prediction branch to expand the receptive field of the model,thus optimally using the context information and improving the detection ability of small targets. The CIOU loss was used as the bounding box position loss term to accelerate the model convergence. The training samples were enhanced by the Gaussian noise to improve the model robustness. The experimental results based on the UA-DETRAC dataset demonstrated that the average precision of the G-YOLO algorithm based on the cascade structure of Ghost convolution and channel attention mechanism was increased by 2.7%,and the model volume was reduced by 67% compared to the YOLOv3 algorithm. The improved YOLOv3 algorithm exhibited a remarkable detection effect in a complex road traffic environment.

    vehicle detection;convolutional neural network(CNN);lightweight

    10.11784/tdxbz202112039

    TP391.4

    A

    0493-2137(2023)02-0193-07

    2021-12-25;

    2022-05-14.

    梁繼然(1978—??),男,博士,副教授.

    梁繼然,liang_jiran@tju.edu.cn.

    天津市科技重大專項(xiàng)與工程資助項(xiàng)目(19ZXZNGX00060).

    Supported by the Science and Technology Program Project of Tianjin,China(No. 19ZXZNGX00060).

    (責(zé)任編輯:孫立華)

    猜你喜歡
    級聯(lián)注意力卷積
    讓注意力“飛”回來
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    級聯(lián)LDPC碼的STBC-OFDM系統(tǒng)
    電子制作(2016年15期)2017-01-15 13:39:09
    A Beautiful Way Of Looking At Things
    基于級聯(lián)MUSIC的面陣中的二維DOA估計(jì)算法
    LCL濾波器在6kV級聯(lián)STATCOM中的應(yīng)用
    電測與儀表(2014年1期)2014-04-04 12:00:34
    H橋級聯(lián)型STATCOM的控制策略研究
    電測與儀表(2014年1期)2014-04-04 12:00:28
    营山县| 六安市| 利川市| 观塘区| 左贡县| 庄河市| 香港 | 西乌珠穆沁旗| 新宾| 武乡县| 盐城市| 安徽省| 明光市| 五莲县| 金川县| 盐源县| 思南县| 项城市| 巴楚县| 德令哈市| 保德县| 韩城市| 正阳县| 桐柏县| 牟定县| 枝江市| 普兰县| 邹平县| 万载县| 涞源县| 越西县| 博乐市| 蕉岭县| 泰宁县| 云南省| 乐清市| 府谷县| 苍南县| 横山县| 平凉市| 平邑县|