• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于圖像融合和改進(jìn)CornerNet-Squeeze 的煤礦井下行人檢測方法

      2023-03-18 09:24:08鄒盛周李兵季亮于政乾
      工礦自動化 2023年2期
      關(guān)鍵詞:行人卷積特征

      鄒盛, 周李兵, 季亮, 于政乾

      (1. 中煤科工集團(tuán)常州研究院有限公司,江蘇 常州 213015;2. 天地(常州)自動化股份有限公司,江蘇 常州 213015))

      0 引言

      近年來,隨著煤礦智能化建設(shè)加速進(jìn)行,機(jī)器視覺技術(shù)在井下行人檢測領(lǐng)域應(yīng)用廣泛,通過圖像處理算法對行人目標(biāo)進(jìn)行檢測和分析,用于后續(xù)井下無人駕駛車輛感知和智能安防監(jiān)控等,對于提高煤礦安全生產(chǎn)管理水平、防范人身傷亡事故具有重要意義[1-2]。受井下光線昏暗、光照不均、背景復(fù)雜、行人目標(biāo)小且密集等特殊工況環(huán)境的影響,圖像中的行人目標(biāo)存在邊緣細(xì)節(jié)特征少、信噪比低、與背景相似度高等問題,難以有效識別遮擋多尺度下的行人目標(biāo),導(dǎo)致基于機(jī)器視覺的行人檢測技術(shù)在井下應(yīng)用面臨很大挑戰(zhàn)。

      基于機(jī)器視覺的行人目標(biāo)檢測技術(shù)主要分為基于傳統(tǒng)圖像處理算法和基于深度學(xué)習(xí)算法2 種?;趥鹘y(tǒng)圖像處理的行人目標(biāo)檢測算法包括方向梯度直方圖(Histogram of Oriented Gradient, HOG)+支持向量機(jī)(Support Vector Machines,SVM)、積分通道特征(Integral Channel Features,ICF)+AdaBoost、可變形部件模型(Deformable Part Model,DPM)等[3],主要依賴人工設(shè)計特征,獲得的行人檢測特征主觀性強(qiáng),魯棒性差,無法滿足煤礦井下暗光、粉塵等特殊工況的多尺度行人檢測需求?;谏疃葘W(xué)習(xí)的行人目標(biāo)檢測算法通過大規(guī)模數(shù)據(jù)集訓(xùn)練學(xué)習(xí),主動提取特征,解決了基于傳統(tǒng)圖像處理的行人目標(biāo)檢測算法模型泛化能力差的問題,針對復(fù)雜環(huán)境下的圖像處理問題具有更大的性能優(yōu)勢和應(yīng)用潛力?;谏疃葘W(xué)習(xí)的行人目標(biāo)檢測算法主要包括two-stage 和one-stage 2 類。two-stage 算法通過區(qū)域生成網(wǎng)絡(luò)產(chǎn)生目標(biāo)候選框,并對目標(biāo)候選框進(jìn)行分類回歸,以基于區(qū)域候選 框 的 卷 積 神 經(jīng) 網(wǎng) 絡(luò)(Region-based Convolutional Neural Networks,RCNN)及 其 迭 代 升 級 網(wǎng) 絡(luò)Fast RCNN、Faster RCNN[4]為代表,優(yōu)點(diǎn)是檢測效果較好;one-stage 算法采用端到端的方式訓(xùn)練網(wǎng)絡(luò),無需生成區(qū)域候選框,直接對目標(biāo)檢測框進(jìn)行分類回歸并輸出檢測結(jié)果,主要包括SSD[5]系列、YOLO[6]系列、CornerNet[7]系列等,優(yōu)點(diǎn)是檢測速度快。李偉山等[8]提出了一種改進(jìn)的Faster RCNN 煤礦井下行人檢測方法,以Faster RCNN 算法為基礎(chǔ),對候選區(qū)域網(wǎng)絡(luò)(Region Proposals Network,RPN)結(jié)果進(jìn)行改進(jìn),將不同層級的特征融合,以提高行人檢測準(zhǔn)確率,但網(wǎng)絡(luò)計算量大,無法應(yīng)用于實(shí)時系統(tǒng)中。李現(xiàn)國等[9]設(shè)計了一種基于DenseNet 網(wǎng)絡(luò)的輕量級卷積神經(jīng)網(wǎng)絡(luò)作為SSD 網(wǎng)絡(luò)的基礎(chǔ)網(wǎng)絡(luò)﹐以滿足井下視頻行人實(shí)時檢測需求,并設(shè)計了基于ResNet 網(wǎng)絡(luò)的輔助網(wǎng)絡(luò),以增強(qiáng)特征表征能力,雖然其檢測速度很快,但在井下遮擋、密集場景下的行人檢測效果不理想。張明臻[10]針對井下弱光環(huán)境中捕獲圖像質(zhì)量不佳的問題,通過將弱光圖像分解為光照圖和反射圖進(jìn)行增強(qiáng)和去噪處理,并將含有殘差塊的 Dense 模塊添加到 YOLO 網(wǎng)絡(luò)中,構(gòu)建了基于 Dense-YOLO網(wǎng)絡(luò)的井下行人檢測模型,以降低弱光環(huán)境下行人檢測漏檢率,但其對于一些垂直邊緣較強(qiáng),與背景相似度高的干擾物易造成虛警。

      針對上述問題,本文提出了一種基于圖像融合和改進(jìn)CornerNet-Squeeze 的煤礦井下行人檢測方法。該方法對紅外相機(jī)和深度相機(jī)采集的圖像進(jìn)行融合,并結(jié)合二者優(yōu)勢,提升井下行人檢測的精度;在CornerNet-Squeeze 的主干網(wǎng)絡(luò)后加入八度卷積(Octave Convolution,OctConv),增強(qiáng)行人目標(biāo)邊緣特征,提高井下多尺度行人目標(biāo)的檢測能力。

      1 CornerNet-Squeeze 網(wǎng)絡(luò)

      CornerNet 網(wǎng)絡(luò)作為一種one-stage 的 Anchor-Free 目標(biāo)檢測算法,省略了生成錨框的步驟,具有與two-stage 算法相媲美的檢測精度[11-12],網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。其中沙漏型主干網(wǎng)絡(luò)Hourglass Network由2 個全卷積網(wǎng)絡(luò)Hourglass-52 Network 組成,通過一系列下采樣和上采樣操作,實(shí)現(xiàn)輸入圖像的多通道特征圖提取。提取的特征圖輸出到2 個分支模塊,并分別預(yù)測目標(biāo)左上角和右下角2 組角點(diǎn)位置。每個角點(diǎn)分支預(yù)測模塊經(jīng)過Corner Pooling 后,輸 出 Heatmap、Embeddings、Offsets 3 個 部 分[13]。Heatmap 輸出預(yù)測角點(diǎn)信息;Embeddings 輸出不同角點(diǎn)之間的距離,判斷2 個角點(diǎn)是否屬于同一個實(shí)例目標(biāo);Offsets 輸出從輸入映射到特征圖的誤差信息,調(diào)整目標(biāo)角點(diǎn)位置。通過聚合三者信息預(yù)測得到目標(biāo)角點(diǎn),采用Soft-NMS 操作去除冗余框,最終輸出目標(biāo)檢測結(jié)果。

      圖1 CornerNet 網(wǎng)絡(luò)結(jié)構(gòu)Fig. 1 CornerNet network structure

      沙漏型主干網(wǎng)絡(luò)Hourglass Network 中單個Hourglass-52 Network 網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示[14-16]。該網(wǎng)絡(luò)中使用了大量的Res 殘差模塊,當(dāng)輸入圖像尺寸為256×256 時, 主干網(wǎng)絡(luò)部分的參數(shù)量高達(dá)18 700 萬,巨大的參數(shù)量造成大部分計算資源集中消耗,導(dǎo)致實(shí)時性降低,且其計算復(fù)雜度會隨輸入圖像尺寸增大呈指數(shù)增加[16]。為降低沙漏型主干網(wǎng)絡(luò)復(fù)雜度,追求更高的實(shí)時性,CornerNet-Squeeze 在CornerNet 基礎(chǔ)上結(jié)合SqueezeNet[17-18]的思想,采用SqueezeNet 中的fire 模塊代替Hourglass network 中的Res 殘差模塊,對其進(jìn)行精簡處理。Res 殘差模塊由2 個3 × 3 大小的卷積層和跳躍連接組成;fire 模塊先使用1 × 1 卷積層對數(shù)據(jù)進(jìn)行降維處理,再用可分離的1 × 1 卷積層和3 × 3 卷積層進(jìn)行組合擴(kuò)展。采用1× 1 的卷積核參數(shù)量為3 × 3 卷積核的1/9,可大大減少Hourglass network 計算參數(shù),提高模型的推理速度。

      圖2 Hourglass-52 Network 網(wǎng)絡(luò)結(jié)構(gòu)Fig. 2 Hourglass-52 Network structure

      2 改進(jìn)CornerNet-Squeeze 網(wǎng)絡(luò)

      CornerNet-Squeeze 網(wǎng)絡(luò)只對沙漏型主干網(wǎng)絡(luò)做了輕量化處理,但面對復(fù)雜背景和小目標(biāo)圖像時,往往目標(biāo)特征提取不完整,影響Heatmap 熱圖對目標(biāo)角點(diǎn)位置的判斷,導(dǎo)致目標(biāo)檢測框定位錯誤。因此,本文在CornerNet-Squeeze 的沙漏型主干網(wǎng)絡(luò)后引入OctConv[19-20]特征增強(qiáng)模塊,在 不 明 顯 增 加CornerNet-Squeeze 網(wǎng)絡(luò)復(fù)雜度的情況下,加強(qiáng)對目標(biāo)邊緣特征的提取能力,提高Heatmap 熱圖對角點(diǎn)預(yù)測的準(zhǔn)確性,減少CornerNet-Squeeze 網(wǎng)絡(luò)由于目標(biāo)角點(diǎn)漏檢導(dǎo)致空間距離較小的同類目標(biāo)及小目標(biāo)誤檢情況。改進(jìn)CornerNet-Squeeze 網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示。

      圖3 改進(jìn)CornerNet-Squeeze 網(wǎng)絡(luò)結(jié)構(gòu)Fig. 3 Improved CornerNet-Squeeze network structure

      在卷積神經(jīng)網(wǎng)絡(luò)中,卷積計算得到的特征圖中存在高頻部分和低頻部分,通過分離特征圖,增加高頻信息輸出,可更多地提取圖像中所關(guān)注目標(biāo)的輪廓特征,有助于增強(qiáng)目標(biāo)邊緣特征,提高識別率。本文在CornerNet-Squeeze 網(wǎng)絡(luò)中引入OctConv 特征增強(qiáng)模塊,對經(jīng)沙漏型主干網(wǎng)絡(luò)提取的特征圖中高低頻特征分量進(jìn)行分離,輸出更多代表目標(biāo)輪廓信息的高頻特征,增強(qiáng)目標(biāo)邊緣特征。其處理步驟如下。

      1) 采用1 × 1 的Conv 對主干網(wǎng)絡(luò)提取的特征圖進(jìn)行降維處理。

      2) 降維后的特征圖通過OctConv 分離?融合高低頻特征信息,過程如圖4 所示。

      圖4 OctConv 操作過程Fig. 4 OctConv operation procedure

      首先沿通道尺寸使用系數(shù) α將沙漏型主干網(wǎng)絡(luò)提取的特征圖分解為高頻分量H和低頻分量L,為輸入特征張量,α ∈[0,1], α = 0 時僅輸出高頻分量, α = 1 時僅輸出低頻分量,c為通道數(shù),h,w為特征張量的空間維度。然后對高頻分量H進(jìn)行平均池化和卷積操作,對低頻分量L進(jìn)行卷積和上采樣操作,分別輸出融合特征分量Hm和Lm。最后加權(quán)得到融合的特征信息M。求解過程為

      式中:C為k×k的卷積核,C∈Fc×k×k,k為卷積核大小; ?為卷積運(yùn)算;P為池化操作;U為上采樣操作;ρ為幅值系數(shù), ρ ∈(0,1)。

      3) 輸出的高頻信息經(jīng)過1 × 1 反卷積 DConv 操作,還原圖像原有尺寸,在后續(xù)角點(diǎn)預(yù)測模塊經(jīng)處理生成Heatmap,計算角點(diǎn)得到目標(biāo)檢測結(jié)果。

      3 模型訓(xùn)練與結(jié)果分析

      3.1 數(shù)據(jù)集制作

      為充分采集煤礦井下行人數(shù)據(jù),將紅外相機(jī)和深度相機(jī)安裝在防爆無軌膠輪車車頂,采集的原始數(shù)據(jù)以視頻方式保存。通過對視頻抽幀得到深度圖像和紅外圖像,基于尺度不變特征變換算法對紅外圖像和深度圖像進(jìn)行配準(zhǔn)對齊,對配準(zhǔn)圖像進(jìn)行中心裁剪以消除邊緣部分的對齊誤差,最終得到1 000 組 480× 360 的紅外圖像和深度圖像對齊圖像。

      采用雙尺度圖像融合(Two-scale Image Fusion,TIF)算法[21]通過圖像分解、圖像合并、圖像重構(gòu)對1 000 組紅外圖像和深度圖像對齊圖像進(jìn)行融合處理。為了進(jìn)一步提高融合后圖像的成像品質(zhì),采用形態(tài)學(xué)方法對融合圖像進(jìn)行處理,突出行人的紋理細(xì)節(jié)和灰度特征,消除冗余的背景干擾。圖像融合處理原理如圖5 所示。

      圖5 圖像融合處理原理Fig. 5 Principle of image fusion processing

      1) 圖像分解。首先使用均值濾波器 μ(x,y)對原始紅外圖像f1(x,y)和 原始深度圖像f2(x,y)進(jìn)行圖像分解,分別獲得紅外圖像基礎(chǔ)層圖像f1b(x,y)、深度圖像基礎(chǔ)層圖像f2b(x,y),并通過原始紅外圖像和原始深度圖像與紅外圖像基礎(chǔ)層圖像和深度圖像基礎(chǔ)層圖像的差值得到紅外圖像細(xì)節(jié)層圖像f1d(x,y)和深度圖像細(xì)節(jié)層圖像f2d(x,y)。

      2) 圖像合并。采用算術(shù)平均策略對基礎(chǔ)層圖像進(jìn)行合并,得到基礎(chǔ)層合并圖像fb(x,y),fb(x,y)=采用加權(quán)處理策略對細(xì)節(jié)層圖像進(jìn)行合并,分別對原始紅外圖像f1(x,y)和原始深度圖像f2(x,y)進(jìn)行均值濾波和中值濾波,計算均值濾波圖像 φf1, φf2和中值濾波圖像 θf1,θf2的歐拉距離,得到視覺顯著圖像 ε1(x,y) 和 ε2(x,y),進(jìn)一步計算得到細(xì)節(jié)層的加權(quán)合并系數(shù)矩陣和細(xì)節(jié)層合并圖像fd(x,y)=δ1(x,y)f1d(x,y)+δ2(x,y)f2d(x,y) 。

      3) 圖像重構(gòu)。對合并后的基礎(chǔ)層圖像和細(xì)節(jié)層圖像采用像素位對應(yīng)相加進(jìn)行圖像重構(gòu),得到最后深度圖像和紅外圖像的融合圖像z(x,y)=fb(x,y)+fd(x,y)。

      4) 形態(tài)學(xué)處理。采用先腐蝕后膨脹形態(tài)學(xué)開運(yùn)算對融合后的圖像進(jìn)行形態(tài)學(xué)處理,消除亮度較高的細(xì)小區(qū)域,去除孤立的小點(diǎn)、毛刺,消除小物體,平滑較大物體邊界,減小背景干擾,突出行人輪廓特征。

      經(jīng)過上述步驟處理后的深度圖像和紅外圖像融合結(jié)果如圖6 所示??煽闯鋈诤蠄D像結(jié)合了紅外圖像的行人灰度特征和深度圖像的輪廓邊緣,經(jīng)過形態(tài)學(xué)處理后,減少了環(huán)境信息干擾,突出了行人特征,有助于提高行人檢測的準(zhǔn)確率。

      圖6 圖像融合處理過程Fig. 6 Process of image fusion

      3.2 模型訓(xùn)練

      對深度圖像、紅外圖像及融合圖像使用標(biāo)注軟件LabelImg 進(jìn)行人工標(biāo)注,得到3 種訓(xùn)練數(shù)據(jù)集。

      整個數(shù)據(jù)集包含遮擋、密集人群、小目標(biāo)在井下低照度、水霧、粉塵等特殊場景樣本,總計約2 000 個行人目標(biāo)。

      行人目標(biāo)檢測模型的訓(xùn)練平臺為NVIDIA GeForce GTX 2080Ti,內(nèi)存為32 GB,操作系統(tǒng)為Ubuntu18.04LTS,采用Pytorch 深度學(xué)習(xí)框架,推理平臺為礦用本安型邊緣計算裝置,具有14TOP 算力。紅外、 深度、融合數(shù)據(jù)集均包含1 000 張圖像,將圖像數(shù)據(jù)集按比例隨機(jī)劃分,訓(xùn)練集和驗證集分別包含700 張和100 張圖像樣本,測試集包含200 張圖像樣本。在模型訓(xùn)練時先對輸入圖像進(jìn)行隨機(jī)裁剪、擴(kuò)充、水平翻轉(zhuǎn)和不等比例縮放,以增強(qiáng)數(shù)據(jù)集,再對圖像采用主成分分析方法(Principal Component Analysis,PCA)進(jìn)行白化操作,降低輸入數(shù)據(jù)的冗余性。設(shè)置最大訓(xùn)練周期為500,初始學(xué)習(xí)率為0.001,每經(jīng)過100 次迭代,學(xué)習(xí)率降為原來的0.5 倍。模型訓(xùn)練使用 Early-Stopping 策略,當(dāng)模型驗證損失值多次不下降時,認(rèn)為模型達(dá)到收斂狀態(tài),自動結(jié)束訓(xùn)練。 使用改進(jìn)CornerNet-Squeeze 網(wǎng)絡(luò)和原始CornerNet、CornerNet-Squeeze 網(wǎng)絡(luò)分別在3 種數(shù)據(jù)集上進(jìn)行訓(xùn)練,得到相應(yīng)的模型。

      選取CornerNet-Squeeze 網(wǎng)絡(luò)與改進(jìn)CornerNet-Squeeze 網(wǎng)絡(luò)在同一數(shù)據(jù)集上進(jìn)行訓(xùn)練,驗證損失值曲線如圖7 所示。可看出迭代400 次后2 個模型逐漸達(dá)到收斂, 改進(jìn) CornerNet-Squeeze 網(wǎng)絡(luò)較CornerNet-Squeeze 網(wǎng)絡(luò)驗證損失值低,說明改進(jìn)CornerNet-Squeeze 網(wǎng)絡(luò)訓(xùn)練模型具有更好的泛化能力。

      圖7 同一數(shù)據(jù)集下驗證損失值曲線Fig. 7 Validation-Loss value curve under the same data set

      3.3 試驗結(jié)果

      采用準(zhǔn)確率p、召回率R、漏檢率F、平均精度A及幀速率(Frames Per Second,F(xiàn)PS)作為性能評價指標(biāo)。

      式中:NTP為被預(yù)測為正樣本的正樣本數(shù)量;NFP為被預(yù)測為正樣本的負(fù)樣本數(shù)量;NFN為被預(yù)測為負(fù)樣本的正樣本數(shù)量;A為平均精度,用來衡量算法的檢測精度。

      小尺度目標(biāo)的評價指標(biāo)為As(像素面積小于32×32 的目標(biāo)檢測平均精度),中等尺度目標(biāo)評價指標(biāo)為Am(像素面積大于32×32 且小于96×96 的目標(biāo)檢測平均精度),大尺度目標(biāo)評價指標(biāo)為Ab(像素面積大于96×96 的目標(biāo)檢測平均精度)。

      訓(xùn)練完成后,不同模型針對不同數(shù)據(jù)集的行人目標(biāo)檢測性能見表1??煽闯鰧τ谕粩?shù)據(jù)集,CornerNet-Squeeze 模 型 和 改 進(jìn)CornerNet-Squeeze 模型的檢測速度比CornerNet 模型高;改進(jìn)CornerNet-Squeeze 模型的檢測精度較CornerNet-Squeeze 模型和CornerNet 模型高,由此可見改進(jìn)CornerNet-Squeeze 模型在提升行人目標(biāo)檢測準(zhǔn)確性的同時,保持了原算法的檢測速度;同一模型采用不同數(shù)據(jù)集訓(xùn)練時,融合圖像數(shù)據(jù)集訓(xùn)練得到的模型檢測精度較深度圖像和紅外圖像數(shù)據(jù)集訓(xùn)練得到模型檢測精度高,檢測速度略有下降,這是由于圖像的融合處理導(dǎo)致計算量增加,犧牲了部分檢測速率,但不影響模型的實(shí)時檢測性能,說明融合圖像能充分結(jié)合深度圖像和紅外圖像二者的優(yōu)勢,有利于提高模型的檢測精度。

      表1 不同模型的行人目標(biāo)檢測性能Table 1 Pedestrian target detection performance of different models

      為驗證本文算法在不同背景下的行人檢測效果,設(shè)定輕微遮擋(遮擋范圍10%~30%)、部分遮擋(遮擋范圍30%~60%)、嚴(yán)重遮擋(遮擋范圍60%~80%)、大尺寸目標(biāo)(行人高度大于80 像素)、中小尺寸目標(biāo)(行人高度40~80 像素)、極小尺寸目標(biāo)(行人高度小于40 像素)6 種行人目標(biāo)測試場景,采用融合圖像數(shù)據(jù)集訓(xùn)練的3 種模型進(jìn)行行人目標(biāo)檢測,結(jié)果見表2。可看出在6 種測試場景下,改進(jìn)CornerNet-Squeeze 模型漏檢率均最低。

      表2 不同背景下行人目標(biāo)檢測效果Table 2 Pedestrian target detection effect in different backgrounds

      為進(jìn)一步驗證改進(jìn)CornerNet-Squeeze 的可行性和先進(jìn)性, 與主流目標(biāo)檢測算法YOLOv4 在COCO2014 行人數(shù)據(jù)集上訓(xùn)練得到的模型進(jìn)行比較,結(jié)果見表3??煽闯龈倪M(jìn)CornerNet-Squeeze 算法的精度A較YOLOv4 提高了 1.1%,檢測速度提高了6.7%。對于小尺度行人目標(biāo),改進(jìn)CornerNet-Squeeze 算法的As明顯優(yōu)于YOLOv4 算法,但對于中等和大尺寸行人目標(biāo),改進(jìn)CornerNet-Squeeze 算法的Am,Ab較YOLOv4 算法有所下降,這是由于中等和大尺寸目標(biāo)在圖像中占比較大,特征相對顯著,在此類圖像下本文算法對目標(biāo)邊緣增強(qiáng)效果有限。

      表3 在COCO2014 行人數(shù)據(jù)集上性能對比Table 3 Performance comparison on the COCO2014 pedestrian dataset

      測試集中部分圖像的行人目標(biāo)檢測結(jié)果如圖8 所示,從左到右分別為紅外圖像、深度圖像和融合 圖 像 在 CornerNet-Squeeze 和 改 進(jìn) CornerNet-Squeeze 上的測試結(jié)果??煽闯霾捎萌诤蠄D像在2 種模型上進(jìn)行行人目標(biāo)檢測的置信度較紅外圖像和深度圖像均有所提升;改進(jìn)CornerNet-Squeeze 有效檢測出了紅外圖像和融合圖像中遠(yuǎn)處小目標(biāo),而CornerNet-Squeeze 未能檢出。

      圖8 3 種數(shù)據(jù)的檢測結(jié)果Fig. 8 Test results of three kinds of data

      4 結(jié)論

      1) 采用SqueezeNet 中的fire 模塊替換CornerNet中沙漏型主干網(wǎng)絡(luò)的Res 模塊實(shí)現(xiàn)輕量化改造,CornerNet-Squeeze 模型較CornerNet 模型在檢測速率上有明顯提升;引入OctConv 特征增強(qiáng)模塊,所得改進(jìn)CornerNet-Squeeze 模型較CornerNet-Squeeze、CornerNet 模型在檢測精度上顯著提高。可見改進(jìn)CornerNet-Squeeze 模型在提升行人檢測準(zhǔn)確性的同時兼顧了檢測實(shí)時性。

      2) 采用融合圖像數(shù)據(jù)集訓(xùn)練得到的模型檢測精度較紅外圖像、深度圖像數(shù)據(jù)集訓(xùn)練得到的模型高,F(xiàn)PS 略有下降,表明融合圖像能充分結(jié)合深度圖像和紅外圖像的優(yōu)勢,有利于提高模型檢測精度,但圖像的融合處理導(dǎo)致計算量增加,犧牲了部分檢測速率。

      3) 改進(jìn)CornerNet-Squeeze 模型的漏檢率最低,針對遮擋及多尺度行人目標(biāo)的檢測具有一定優(yōu)勢。

      4) 與YOLOv4 相比,在 COCO2014 行人數(shù)據(jù)集上改進(jìn)CornerNet-Squeeze 的平均精度提高了 1.1%,檢測速度提高了6.7%。

      5) 改進(jìn)CornerNet-Squeeze 模型能夠有效檢測出圖像中的遠(yuǎn)處小目標(biāo),對小目標(biāo)的檢測能力提升明顯。

      猜你喜歡
      行人卷積特征
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實(shí)現(xiàn)
      毒舌出沒,行人避讓
      意林(2021年5期)2021-04-18 12:21:17
      如何表達(dá)“特征”
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      不忠誠的四個特征
      路不為尋找者而設(shè)
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      抓住特征巧觀察
      我是行人
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
      什邡市| 孝义市| 奎屯市| 文化| 集安市| 湖北省| 封丘县| 伊宁市| 峨眉山市| 盐津县| 会东县| 屯门区| 健康| 临西县| 沁水县| 龙井市| 佛学| 九龙城区| 赤壁市| 泽普县| 东明县| 宁远县| 中江县| 淮滨县| 赤水市| 吉安县| 额济纳旗| 三都| 紫金县| 青川县| 仪征市| 新竹县| 上饶市| 囊谦县| 福建省| 富平县| 庆元县| 隆化县| 武陟县| 邓州市| 扎兰屯市|