• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于DCN-SERes-YOLOv3的人臉佩戴口罩檢測(cè)算法

    2021-09-15 02:36:12李國(guó)進(jìn)
    關(guān)鍵詞:人臉殘差口罩

    李國(guó)進(jìn),榮 譽(yù)

    (廣西大學(xué)電氣工程學(xué)院,廣西 南寧 530004)

    0 引 言

    2020年以來(lái),因新冠病毒[1]肆虐,我國(guó)的社會(huì)經(jīng)濟(jì)發(fā)展面臨巨大挑戰(zhàn),人民生產(chǎn)生活受到極大影響[2]。當(dāng)前,我國(guó)采取了強(qiáng)有力的防控措施有效控制了疫情的發(fā)展,抗擊新冠已取得巨大成功[3]。然而國(guó)外疫情仍處于高發(fā)態(tài)勢(shì),境外輸入確診病例時(shí)有發(fā)生,因此依然不能掉以輕心,疫情防控仍然十分重要[4]。研究表明,新冠病毒具有極強(qiáng)的傳染性以及較長(zhǎng)的潛伏期[5],主要通過(guò)呼吸道飛沫傳播[6],而佩戴口罩能夠有效降低感染風(fēng)險(xiǎn),抑制疫情反彈,因此佩戴口罩成為有效防止病毒傳播的重要措施之一[7],檢測(cè)人臉是否佩戴口罩也顯得尤為重要。但現(xiàn)實(shí)場(chǎng)景中由于人臉佩戴口罩情況的復(fù)雜性以及環(huán)境的多變性使得檢測(cè)難度大大增加,因此直接應(yīng)用于口罩佩戴的檢測(cè)算法較少。文獻(xiàn)[8]提出了一種改進(jìn)的RetinaFace算法,實(shí)現(xiàn)了口罩佩戴的檢測(cè)。文獻(xiàn)[9]通過(guò)遷移學(xué)習(xí)與RetinaNet模型在檢測(cè)人們是否佩戴口罩的任務(wù)中取得了良好的效果。文獻(xiàn)[10]提出了一種YOLO-Mask算法對(duì)YOLOv3進(jìn)行了改進(jìn),提高了檢測(cè)口罩的精度。文獻(xiàn)[11]通過(guò)改進(jìn)YOLOv3的骨干網(wǎng)絡(luò)、損失函數(shù)等完成了復(fù)雜場(chǎng)景下的口罩檢測(cè)任務(wù)。文獻(xiàn)[12]驗(yàn)證了YOLOv4算法在口罩檢測(cè)任務(wù)中的可行性。文獻(xiàn)[13]通過(guò)改進(jìn)YOLOv5算法實(shí)現(xiàn)了對(duì)口罩以及安全帽的檢測(cè)。

    為了準(zhǔn)確檢測(cè)人臉是否佩戴口罩,本文也針對(duì)性地研究了一些已有的目標(biāo)檢測(cè)經(jīng)典算法,例如兩階段的目標(biāo)檢測(cè)算法:R-CNN[14]、Fast-RCNN[15]、Faster-RCNN[16];單階段目標(biāo)檢測(cè)算法:SSD[17]、YOLOv1~YOLOv3[18-20]。這些算法中,YOLOv3算法對(duì)于小目標(biāo)的檢測(cè)效果優(yōu)于其他算法。但由于人臉佩戴口罩的情況多樣化,YOLOv3算法不能很好地適應(yīng)圖片中目標(biāo)有可能發(fā)生的形變,對(duì)于特征信息表達(dá)不足的目標(biāo)檢測(cè)精度有待提高,需要對(duì)其進(jìn)行改進(jìn)。首先,針對(duì)DarkNet53骨干網(wǎng)絡(luò)計(jì)算量大并且不易擴(kuò)展的問(wèn)題,將其替換為ResNet50[21]殘差網(wǎng)絡(luò),并在對(duì)殘差塊中卷積層改進(jìn)的同時(shí)加入平均池化層,降低模型的損失,提高模型的訓(xùn)練速度;其次,在ResNet50網(wǎng)絡(luò)的第4個(gè)殘差塊中引入DCN[22]可變形卷積,使模型能夠更好地適應(yīng)人臉佩戴口罩所產(chǎn)生的幾何形變,提高模型的定位精度;最后,將SENet[23]通道注意力機(jī)制引入殘差模塊中,其通過(guò)建模各個(gè)特征通道的重要程度,增強(qiáng)含有較多人臉佩戴口罩信息的通道特征,并對(duì)含有特征信息較少的通道進(jìn)行抑制,增強(qiáng)目標(biāo)對(duì)重要特征信息的表達(dá)能力。

    1 YOLOv3算法原理

    YOLOv3模型主要由DarkNet53主干網(wǎng)絡(luò)與多尺度預(yù)測(cè)這2大部分組成,如圖1所示。

    圖1 YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)

    YOLOv3的主干網(wǎng)絡(luò)為DarkNet53,網(wǎng)絡(luò)主要是由一系列1×1和3×3的卷積層組成,其中3×3的卷積負(fù)責(zé)增加特征圖通道數(shù),而1×1的卷積負(fù)責(zé)壓縮3×3卷積后的特征表示。輸入的圖片通過(guò)步長(zhǎng)為2的3×3卷積,使用1×1的卷積壓縮特征表示為原來(lái)的1/2,再通過(guò)3×3的卷積擴(kuò)張為原來(lái)的通道數(shù)并加強(qiáng)特征的提取,輸出的結(jié)果與殘差塊Residual的輸入相加作為最終結(jié)果的輸出。經(jīng)過(guò)DarkNet53網(wǎng)絡(luò)提取后的特征使用多尺度特征進(jìn)行預(yù)測(cè),即YOLOv3分別提取了中、中下以及底層這3種不同尺寸的特征圖,提取后的特征圖經(jīng)過(guò)卷積處理后,一部分作為該特征層的預(yù)測(cè)結(jié)果輸出,另一部分做卷積和上采樣再與上一特征層融合,最后輸出3種不同尺寸的預(yù)測(cè)框。

    由原理可知,YOLOv3中的DarkNet53骨干網(wǎng)絡(luò)增加了網(wǎng)絡(luò)深度提取更深層次的特征,但也增加了計(jì)算量且不易擴(kuò)展;其次,卷積神經(jīng)網(wǎng)絡(luò)中卷積核的幾何結(jié)構(gòu)是固定的,使得模型不能夠很好地適應(yīng)人臉佩戴口罩有可能產(chǎn)生的幾何形變;對(duì)于含有較多佩戴口罩的特征信息的通道不能夠加強(qiáng),有可能導(dǎo)致重要信息的丟失,使得模型對(duì)佩戴口罩特征表現(xiàn)不明顯的目標(biāo)檢測(cè)效果較差。因此將傳統(tǒng)YOLOv3算法直接應(yīng)用于人臉佩戴口罩的檢測(cè)不能滿(mǎn)足檢測(cè)要求,需要對(duì)其進(jìn)行改進(jìn)。

    2 YOLOv3算法改進(jìn)

    2.1 ResNet50網(wǎng)絡(luò)結(jié)構(gòu)

    ResNet50是于2015年被提出的包含了49個(gè)卷積層和1個(gè)全連接層的深度殘差網(wǎng)絡(luò)模型,網(wǎng)絡(luò)結(jié)構(gòu)組成如表1所示。

    表1 ResNet50網(wǎng)絡(luò)結(jié)構(gòu)組成

    ResNet50主要包含了4個(gè)部分的Residual Block(殘差模塊),而殘差模塊中主要由2種含有3個(gè)卷積層的基本模塊組成,分別為Identity Block、Conv Block(如圖2所示)。Identity Block與Conv Block的主體部分用1×1的卷積層減少1/4的通道數(shù),通過(guò)3×3的卷積層提取特征,再用1×1的卷積層進(jìn)行通道數(shù)的恢復(fù),保證輸入與輸出的維度相同。Identity Block輸入和輸出的尺寸一致,可以串聯(lián),用于加深網(wǎng)絡(luò);Conv Block輸入與輸出的尺寸不同,不能串聯(lián),用于改變特征向量的維度。

    (a) Identity Block

    由圖2可知,ResNet50采用跨層連接的方式將經(jīng)過(guò)3個(gè)卷積層處理后的特征與輸入合并,等同于模型的輸入特征轉(zhuǎn)移以及復(fù)制的過(guò)程,能夠有效抑制梯度消失產(chǎn)生的不良影響,克服了由于網(wǎng)絡(luò)深度加深而產(chǎn)生的學(xué)習(xí)效率變低與準(zhǔn)確率無(wú)法有效提升的問(wèn)題,使其在不增加計(jì)算復(fù)雜度的同時(shí)充分訓(xùn)練深層網(wǎng)絡(luò),以提高檢測(cè)的準(zhǔn)確度。

    與DarkNet53網(wǎng)絡(luò)模型相比,ResNet50殘差網(wǎng)絡(luò)減少了卷積組成,降低了網(wǎng)絡(luò)復(fù)雜度。針對(duì)檢測(cè)口罩這一種類(lèi)別,顯然ResNet50是更適合檢測(cè)人臉口罩佩戴模型的骨干網(wǎng)絡(luò),ResNet50殘差網(wǎng)絡(luò)在保證網(wǎng)絡(luò)深度增加提取深層次特征的同時(shí)大大減少了計(jì)算量,且ResNet50殘差網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,相比DarkNet53網(wǎng)絡(luò)更易擴(kuò)展,其在速度和精度上都有一定的優(yōu)勢(shì),因此選擇將ResNet50作為基礎(chǔ)框架結(jié)構(gòu)并改進(jìn)是更具可行性的方案。

    Conv Block模塊中,在每個(gè)殘差模塊步長(zhǎng)為2的1×1的卷積核做下采樣前接一個(gè)2×2的Avg-Pool(平均池化),可以在幾乎不增加計(jì)算量的同時(shí)有效避免信息丟失,降低模型的損失。改進(jìn)后的Conv Block模塊如圖3所示。

    圖3 改進(jìn)的Conv Block結(jié)構(gòu)

    2.2 可變形卷積DCN(Deformable Convolution Networks)

    傳統(tǒng)YOLOv3模型中使用的常規(guī)卷積只對(duì)特征圖中的固定位置采樣,不能應(yīng)對(duì)人臉佩戴口罩檢測(cè)任務(wù)中由于遮擋、距離等使形狀或尺寸改變而產(chǎn)生的幾何形變,導(dǎo)致模型的定位精度降低,而可變形卷積核的大小和位置可以根據(jù)當(dāng)前需要識(shí)別的圖像內(nèi)容進(jìn)行動(dòng)態(tài)調(diào)整,其不同位置的卷積核采樣點(diǎn)位置會(huì)根據(jù)圖像內(nèi)容發(fā)生自適應(yīng)的變化,從而適應(yīng)不同場(chǎng)景下佩戴口罩時(shí)形狀、大小等幾何形變。常規(guī)卷積與可變形卷積的采樣點(diǎn)對(duì)比如圖4所示。

    (a) 常規(guī)卷積 (b) 可變形卷積1 (c) 可變形卷積2 (d) 可變形卷積3圖4 常規(guī)卷積與可變形卷積采樣點(diǎn)對(duì)比

    由圖4可知,傳統(tǒng)YOLOv3算法中構(gòu)造卷積神經(jīng)網(wǎng)絡(luò)卷積核的幾何結(jié)構(gòu)是固定的,即常規(guī)卷積只能在特定位置提取特征,幾何變換建模能力本質(zhì)上是有限的,而可變形卷積通過(guò)增加一個(gè)偏移量進(jìn)行擴(kuò)張,使其能夠在所在位置周?chē)M(jìn)行任意采樣,不被原先的規(guī)則格點(diǎn)所限制,結(jié)合卷積核權(quán)重以及偏移值,使模型能夠很好地對(duì)幾何變換進(jìn)行建模學(xué)習(xí),輸出關(guān)聯(lián)更多的目標(biāo)區(qū)域,提高模型適應(yīng)形變的能力,進(jìn)一步提高模型的定位精度。

    由于YOLOv3中的特征金字塔結(jié)構(gòu)采用自下而上的方式進(jìn)行特征融合,3個(gè)特征層的提取均與底層殘差塊的輸出相關(guān)聯(lián),因此提高底層殘差模塊對(duì)特征圖上不同大小感受野的適應(yīng)能力能夠在最大程度上提高模型的定位精度,而大量引入可變形卷積則會(huì)增加模型的復(fù)雜度,導(dǎo)致檢測(cè)速度降低。本文考慮到模型速度與精度的平衡,使用可變形卷積替換了ResNet50主干網(wǎng)絡(luò)中第4個(gè)殘差塊(Residual Block4)部分的3×3卷積,如圖5所示。

    圖5 Residual Block4網(wǎng)絡(luò)結(jié)構(gòu)

    2.3 SENet通道注意力機(jī)制

    從現(xiàn)實(shí)場(chǎng)景來(lái)看,檢測(cè)人臉佩戴口罩任務(wù)中往往存在小尺度、被遮擋等因特征信息較少而不易識(shí)別的目標(biāo),因而增強(qiáng)特征信息的提取是提高模型精度的有效措施之一。對(duì)于卷積神經(jīng)網(wǎng)絡(luò)(CNN)來(lái)說(shuō),核心是卷積算子,其通過(guò)卷積核從輸入特征圖學(xué)習(xí)到新的特征圖,卷積則是對(duì)一個(gè)包括了空間以及通道的局部區(qū)域進(jìn)行特征融合,而SENet通道注意力機(jī)制通過(guò)關(guān)注通道之間的關(guān)系,增強(qiáng)含有較多信息的通道特征,并對(duì)含有特征信息較少的通道進(jìn)行抑制。模型中引入SENet通道注意力機(jī)制能夠在增加少量計(jì)算量的同時(shí)達(dá)到優(yōu)化網(wǎng)絡(luò)性能的目的,SENet網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

    圖6 SENet網(wǎng)絡(luò)結(jié)構(gòu)

    SENet通道注意力機(jī)制由2個(gè)部分組成,分別為Squeeze(壓縮)和Excitation(激勵(lì))。其原理為在正常的卷積操作后分離出一個(gè)旁路,首先通過(guò)Squeeze將特征維度進(jìn)行壓縮,即每個(gè)二維特征圖變?yōu)閷?shí)數(shù),相當(dāng)于具有全局感受野的池化操作,特征通道數(shù)不變;接著進(jìn)行Excitation操作,即通過(guò)全連接層學(xué)習(xí)各個(gè)特征通道間的相關(guān)性,并生成每個(gè)特征通道的權(quán)重;最后將得到的權(quán)重應(yīng)用于每個(gè)特征通道,從而能夠基于特定的任務(wù)學(xué)習(xí)到不同通道的重要性。

    由圖6可知,在不引入SENet通道注意力機(jī)制的情況下,輸入大小為W′×H′×C′的特征圖X經(jīng)過(guò)Ftr表示的一系列卷積操作后輸出大小為W×H×C的特征圖U,由于卷積只是在一個(gè)局部空間內(nèi)操作,輸出特征圖U難以獲得足夠的信息來(lái)提取通道之間的關(guān)系,對(duì)于感受野較小的特征圖,重要特征信息的提取就更為困難。因此,引入SENet通道注意力機(jī)制可以改善人臉佩戴口罩目標(biāo)中由于小尺度、靠近群體等因特征信息較少而不易識(shí)別的問(wèn)題。

    3 DCN-SERes-YOLOv3模型的構(gòu)建與優(yōu)化

    本文首先將傳統(tǒng)DarkNet53骨干網(wǎng)絡(luò)替換為ResNet50殘差網(wǎng)絡(luò),用于增加網(wǎng)絡(luò)深度提取深層特征并減少計(jì)算量,保證檢測(cè)人臉佩戴口罩的速度。在此基礎(chǔ)上將輸入圖像后的第一個(gè)7×7的卷積核改為3個(gè)3×3的卷積核并在Conv Block模塊中在每個(gè)殘差模塊步長(zhǎng)為2的1×1的卷積核做下采樣前接一個(gè)2×2的平均池化層,使其能夠在不改變初始感受野的情況下能帶來(lái)更好的性能并降低信息丟失所產(chǎn)生的損失。其次將優(yōu)化后的ResNet50網(wǎng)絡(luò)中Residual Block4模塊的3×3卷積替換為DCN可變形卷積,使模型能夠更好地適應(yīng)人臉佩戴口罩時(shí)由于遮擋、距離等產(chǎn)生的幾何形變。最后將SENet通道注意力機(jī)制引入殘差單元,用于增強(qiáng)含有較大信息的通道特征,并對(duì)含有特征信息較少的通道進(jìn)行抑制,改善對(duì)被遮擋、靠近群體等特征信息不明顯目標(biāo)的檢測(cè)效果。

    選取輸入圖片的尺寸為608×608,輸入的圖像信息經(jīng)過(guò)包含3、4、6這3個(gè)通道注意力殘差單元的模塊處理后輸出3種尺度不同的特征層,得到的特征圖譜傳遞給特征金字塔網(wǎng)絡(luò)實(shí)現(xiàn)特征的融合,其Residual Block4輸出的特征一部分作為該特征層的預(yù)測(cè)結(jié)果輸出,另一部分與Residual Block3輸出的特征層進(jìn)行張量拼接,融合后的特征一部分用來(lái)預(yù)測(cè),一部分做上采樣與Residual Block2輸出的特征層進(jìn)行張量拼接,最終輸出3種不同尺度的預(yù)測(cè)框。

    得到的每個(gè)預(yù)測(cè)框的對(duì)應(yīng)邊界框的位置信息為:中心點(diǎn)坐標(biāo)(x,y)、框的寬高尺寸(w,h)、置信度(Objectness Score)以及對(duì)象條件類(lèi)別概率(Class Score)。對(duì)置信度設(shè)定閾值,過(guò)濾掉低分的預(yù)測(cè)框,將過(guò)濾后的預(yù)測(cè)框執(zhí)行非極大值抑制(Non Maximum Suppression, NMS)處理,得到網(wǎng)絡(luò)的最終預(yù)測(cè)。

    改進(jìn)優(yōu)化后的網(wǎng)絡(luò)模型DCN-SERes-YOLOv3如圖7所示。

    圖7 DCN-SERes-YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)

    4 實(shí)驗(yàn)結(jié)果及分析

    4.1 數(shù)據(jù)集構(gòu)建

    本文通過(guò)MAFA、WIDER FACE、RMFD這3種人臉數(shù)據(jù)集以及互聯(lián)網(wǎng)搜集自制了人臉口罩?jǐn)?shù)據(jù)集,其中,RMFD是由武漢大學(xué)制作的首個(gè)免費(fèi)開(kāi)放人臉佩戴口罩?jǐn)?shù)據(jù)集。數(shù)據(jù)集包含了共2787張人臉佩戴口罩的圖片,其中部分圖片中含有遮擋、特征信息不明顯、群體小目標(biāo)等情況,這幾種情況的數(shù)據(jù)集圖片示例如圖8所示。本文在符合實(shí)驗(yàn)要求的情況下通過(guò)LableImg軟件對(duì)數(shù)據(jù)集進(jìn)行手工標(biāo)注,將佩戴口罩的人臉標(biāo)注為mask。

    圖8 數(shù)據(jù)集圖片示例

    4.2 評(píng)價(jià)指標(biāo)

    為了評(píng)價(jià)本文提出的改進(jìn)算法,驗(yàn)證人臉佩戴口罩檢測(cè)算法的性能,本文引入平均準(zhǔn)確率(Average Precision, AP)與幀率(Frames Per Second, FPS)。

    4.2.1 AP

    AP表達(dá)式為:

    即每個(gè)類(lèi)別的平均準(zhǔn)確率兼顧了準(zhǔn)確率P(Precision)與召回率R(Recall),是一個(gè)能夠反映全局性能的指標(biāo),準(zhǔn)確率與召回率公式為:

    P=TP/(TP+FP)

    (1)

    R=TP/(TP+FN)

    (2)

    其中,TP(True Positives)表示樣本中被正確地劃分為正例的個(gè)數(shù),F(xiàn)P(False Positives)表示樣本中被錯(cuò)誤地劃分為正例的負(fù)例的個(gè)數(shù),F(xiàn)N(False Negatives)表示樣本中被錯(cuò)誤地劃分為負(fù)例的正例的個(gè)數(shù)。

    4.2.2 FPS

    FPS表示每秒內(nèi)可以檢測(cè)的圖片數(shù)量,F(xiàn)PS的數(shù)值越高代表模型每秒檢測(cè)的圖片數(shù)量越多,即檢測(cè)速率越快,是評(píng)價(jià)模型檢測(cè)速度的指標(biāo)。

    4.3 實(shí)驗(yàn)及結(jié)果分析

    4.3.1 實(shí)驗(yàn)環(huán)境配置

    實(shí)驗(yàn)平臺(tái)為ADM R7-4800H CPU@2.90 GHz處理器,深度學(xué)習(xí)框架為PaddlePaddle,編程語(yǔ)言為Python3.7。

    4.3.2 實(shí)驗(yàn)結(jié)果及分析

    本文將數(shù)據(jù)集劃分為訓(xùn)練集與測(cè)試集,其中2367張用于訓(xùn)練,420張用于測(cè)試,初始學(xué)習(xí)率設(shè)置為0.0001,一個(gè)批次訓(xùn)練8張圖片,共訓(xùn)練100個(gè)輪次。將檢測(cè)后的實(shí)驗(yàn)結(jié)果與傳統(tǒng)YOLOv3、SSD以及最新提出的YOLOv4模型進(jìn)行比較,如圖9~圖12所示。

    如圖9所示,圖片中共檢測(cè)了13張佩戴口罩的人臉,各檢測(cè)算法均能對(duì)較為明顯的佩戴口罩目標(biāo)進(jìn)行檢測(cè),而對(duì)于右下角發(fā)生幾何形變的被遮擋目標(biāo),僅DCN-SERes-YOLOv3算法對(duì)其進(jìn)行了正確標(biāo)注,傳統(tǒng)YOLOv3算法并未對(duì)其標(biāo)注,SSD與YOLOv4算法均標(biāo)注錯(cuò)誤。表明DCN-SERes-YOLOv3模型對(duì)被遮擋目標(biāo)的檢測(cè)效果較好。

    (a) YOLOv3

    (a) YOLOv3

    如圖10所示,佩戴口罩的人臉目標(biāo)與未佩戴口罩的人臉目標(biāo)混合交錯(cuò)且口罩的顏色形狀與行人的穿著相近,使檢測(cè)難度大大增加,各算法均標(biāo)注出了佩戴口罩的目標(biāo),但傳統(tǒng)YOLOv3、SSD與YOLOv4算法分別將2、4、8張未佩戴口罩的人臉標(biāo)注為正樣本,僅DCN-SERes-YOLOv3算法完全標(biāo)注正確,表明DCN-SERes-YOLOv3模型更易區(qū)分特征信息不明顯的目標(biāo),對(duì)重要特征的信息提取更加有效。

    (a) YOLOv3

    如圖11所示,佩戴口罩的人員密集且越靠近群體的目標(biāo)越不易識(shí)別,傳統(tǒng)YOLOv3算法未檢測(cè)出圖片中左側(cè)以及中間共4張被遮擋的佩戴口罩人臉,SSD算法未將左側(cè)以及中間共3張被遮擋的佩戴口罩人臉標(biāo)注并將輪胎、手套等標(biāo)注為人臉佩戴口罩目標(biāo),YOLOv4算法未檢測(cè)出4張佩戴口罩的人臉目標(biāo),分別位于圖片最左側(cè)、中間共3張被遮擋的人臉以及左后方較遠(yuǎn)處的模糊目標(biāo),而DCN-SERes-YOLOv3算法將佩戴口罩的人臉全部標(biāo)注并且沒(méi)有漏檢、誤檢的情況發(fā)生,表明對(duì)于靠近群體的目標(biāo),DCN-SERes-YOLOv3算法具有更好的檢測(cè)效果。

    (a) YOLOv3

    如圖12所示,圖片中共檢測(cè)了6張佩戴口罩的人臉,其中包括3個(gè)距離較遠(yuǎn)的小目標(biāo)。傳統(tǒng)YOLOv3算法與YOLOv4算法雖然檢測(cè)出了全部6張佩戴口罩的人臉,但將圖片中的一個(gè)未佩戴口罩的目標(biāo)標(biāo)注為正樣本,SSD漏檢了中間的小目標(biāo)并將近處目標(biāo)手肘處的衣物標(biāo)注為正樣本,DCN-SERes-YOLOv3模型檢測(cè)出了全部6個(gè)正樣本,并且對(duì)于正負(fù)樣本區(qū)分明顯,降低了誤檢率,表明DCN-SERes-YOLOv3網(wǎng)絡(luò)模型對(duì)小目標(biāo)的檢測(cè)效果明顯優(yōu)于其它算法。

    4.3.3 不同算法性能指標(biāo)對(duì)比

    將不同的算法在420張測(cè)試集上進(jìn)行驗(yàn)證,對(duì)比各項(xiàng)性能指標(biāo)如表2所示。

    表2 不同檢測(cè)算法性能指標(biāo)對(duì)比

    由表2可以得出,相比傳統(tǒng)的SSD檢測(cè)算法與最新提出的的YOLOv4檢測(cè)算法,傳統(tǒng)YOLOv3檢測(cè)算法的性能要優(yōu)于另外2種算法,DCN-SERes-YOLOv3檢測(cè)算法的AP值更是高于兩者約5.5以上個(gè)百分點(diǎn),且檢測(cè)速度分別提高了30.5 fps和26.9 fps。對(duì)比傳統(tǒng)的YOLOv3算法,DCN-SERes-YOLOv3檢測(cè)算法的AP值提高了約4.1個(gè)百分點(diǎn),且檢測(cè)速度提高了11.7 fps,其中對(duì)于佩戴口罩檢測(cè)任務(wù)中存在遮擋、尺寸較小等易特征信息不強(qiáng)的目標(biāo),DCN-SERes-YOLOv3算法均具有更好的檢測(cè)效果。

    4.3.4 YOLOv4算法上的應(yīng)用及實(shí)驗(yàn)結(jié)果分析

    為進(jìn)一步驗(yàn)證本文算法的有效性,將本文改進(jìn)方案應(yīng)用于YOLOv4算法進(jìn)行對(duì)比實(shí)驗(yàn),即在傳統(tǒng)YOLOv4算法的基礎(chǔ)上將CSPDarkNet53主干網(wǎng)絡(luò)替換為ResNet50殘差網(wǎng)絡(luò),并用3個(gè)3×3的卷積核替換輸入圖像后的第一個(gè)7×7的卷積核,在改進(jìn)后的殘差網(wǎng)絡(luò)中引入平均池化層、DCN可變形卷積以及SENet通道注意力機(jī)制,最終得到DCN-SERes-YOLOv4算法模型。在相同的參數(shù)設(shè)置下對(duì)DCN-SERes-YOLOv4模型進(jìn)行訓(xùn)練,并將訓(xùn)練后的模型在420張測(cè)試集上進(jìn)行測(cè)試,檢測(cè)結(jié)果對(duì)比如圖13所示。

    (a)YOLOv4

    由圖13可知,DCN-SERes-YOLOv4模型將傳統(tǒng)YOLOv4模型未檢測(cè)出的左側(cè)以及中間2個(gè)被遮擋目標(biāo)全部標(biāo)注正確,表明DCN-SERes-YOLOv4算法對(duì)于被遮擋目標(biāo)的檢測(cè)結(jié)果較好;由于中間偏右目標(biāo)所佩戴的帽子與口罩顏色均為黑色,且與衣服顏色接近,因此特征信息不明顯不易識(shí)別,YOLOv4算法并未對(duì)其標(biāo)注,而DCN-SERes-YOLOv4算法將其正確識(shí)別且標(biāo)注,表明DCN-SERes-YOLOv4算法能夠更好地識(shí)別特征信息不明顯的人臉佩戴口罩目標(biāo);對(duì)于左后方距離較遠(yuǎn)的小目標(biāo),YOLOv4算法將其忽略未標(biāo)注為正樣本,而DCN-SERes-YOLOv4算法對(duì)其正確標(biāo)注,表明DCN-SERes-YOLOv4模型更易檢測(cè)出小目標(biāo)、因圖片中人員密集,所以檢測(cè)難度較大,DCN-SERes-YOLOv4算法將左側(cè)手套檢測(cè)錯(cuò)誤標(biāo)注為口罩。而傳統(tǒng)YOLOv4算法將4張未被標(biāo)注的佩戴口罩人臉進(jìn)行了識(shí)別并標(biāo)注,這表明DCN-SERes-YOLOv4模型對(duì)于靠近群體目標(biāo)的檢測(cè)結(jié)果明顯優(yōu)于傳統(tǒng)YOLOv4模型。

    對(duì)比各項(xiàng)性能指標(biāo)可以發(fā)現(xiàn)DCN-SERes-YOLOv4算法的AP值為91.38%,檢測(cè)速度為59.6 fps,比傳統(tǒng)YOLOv4算法的AP值提高約2.5個(gè)百分點(diǎn)且檢測(cè)速度提高了7.7 fps,表明相比傳統(tǒng)YOLOv4算法,DCN-SERes-YOLOv4算法具有更好的性能。而對(duì)比DCN-SERes-YOLOv3網(wǎng)絡(luò)模型,DCN-SERes-YOLOv4模型的AP值降低了約4個(gè)百分點(diǎn),檢測(cè)速度降低了18.9 fps,這是由于本文僅檢測(cè)口罩一種類(lèi)別,而YOLOv4網(wǎng)絡(luò)模型過(guò)于復(fù)雜不適用于單類(lèi)別檢測(cè),因此YOLOv4算法的檢測(cè)精度與速度低于YOLOv3算法,而改進(jìn)后的DCN-SERes-YOLOv4模型的性能雖然不如DCN-SERes-YOLOv3模型,但相比傳統(tǒng)YOLOv4算法性能有所提升。綜上所述,改進(jìn)策略對(duì)于YOLOv4算法同樣適用,因此本文提出的改進(jìn)方案對(duì)提升多種情況下人臉佩戴口罩的檢測(cè)效果均是具有可行性的。

    5 結(jié)束語(yǔ)

    為檢測(cè)人臉佩戴口罩情況,本文提出了一種基于DCN-SERes-YOLOv3的人臉佩戴口罩檢測(cè)算法,用于提高現(xiàn)實(shí)場(chǎng)景下對(duì)遮擋目標(biāo)、小目標(biāo)、靠近群體目標(biāo)以及特征信息不明顯目標(biāo)的檢測(cè)效果。通過(guò)改進(jìn)ResNet50殘差網(wǎng)絡(luò),達(dá)到提高模型的檢測(cè)速度并降低損失的目的,再引入DCN可變形卷積與SENet通道注意力機(jī)制,使模型能夠更好地適應(yīng)人臉佩戴口罩時(shí)由于遮擋等因素產(chǎn)生的幾何形變,改善口罩檢測(cè)任務(wù)中重要特征信息表達(dá)不明顯目標(biāo)的檢測(cè)效果,最后利用自制的訓(xùn)練集進(jìn)行訓(xùn)練并測(cè)試。實(shí)驗(yàn)結(jié)果表明,DCN-SERes-YOLOv3算法提高了模型完成人臉佩戴口罩檢測(cè)任務(wù)的速度和精度,為地鐵、客運(yùn)站等存在大量易混淆遮擋小目標(biāo)的密集人群場(chǎng)所的人臉佩戴口罩檢測(cè)提供模型支持,在嚴(yán)防疫情反彈的工作上具有良好的應(yīng)用前景。

    猜你喜歡
    人臉殘差口罩
    基于雙向GRU與殘差擬合的車(chē)輛跟馳建模
    有特點(diǎn)的人臉
    基于殘差學(xué)習(xí)的自適應(yīng)無(wú)人機(jī)目標(biāo)跟蹤算法
    戴口罩的苦與樂(lè)
    意林(2020年9期)2020-06-01 07:26:22
    因?yàn)橐粋€(gè)口罩,我決定離婚了
    海峽姐妹(2020年4期)2020-05-30 13:00:08
    基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
    霧霾口罩
    三國(guó)漫——人臉解鎖
    要戴口罩的霧霾天
    平穩(wěn)自相關(guān)過(guò)程的殘差累積和控制圖
    河南科技(2015年8期)2015-03-11 16:23:52
    洛扎县| 怀宁县| 建平县| 修水县| 大新县| 三江| 乐都县| 鹤岗市| 鸡东县| 会昌县| 光泽县| 东台市| 仪征市| 西安市| 皋兰县| 内乡县| 灌阳县| 嘉鱼县| 上蔡县| 平顶山市| 福贡县| 慈溪市| 孝昌县| 蒙山县| 寿宁县| 阿拉善盟| 张家口市| 沙田区| 宜城市| 河南省| 论坛| 荣成市| 依兰县| 大关县| 桐乡市| 汝城县| 江都市| 柳林县| 内乡县| 大安市| 安徽省|