柯鑫 張榮芬 劉宇紅
摘 要: 常態(tài)化疫情防控形勢(shì)下,公共場(chǎng)合佩戴口罩可以有效降低交叉感染風(fēng)險(xiǎn),針對(duì)口罩佩戴檢測(cè)中的小目標(biāo)檢測(cè)困難以及實(shí)時(shí)性較差的問題,提出了基于嵌入式平臺(tái)Jetson nano的口罩佩戴檢測(cè)系統(tǒng),通過增加YOLOv3-tiny的主干網(wǎng)絡(luò)層深度,引入注意力機(jī)制以及TensorRT模塊,提升了嵌入式系統(tǒng)口罩佩戴檢測(cè)任務(wù)的精度和實(shí)時(shí)性,改進(jìn)后的YOLOv3-tiny算法mAP值達(dá)到了87.5%,F(xiàn)PS為20.4,相較于改進(jìn)前精度提升12.3%,幀率提升10.4 fps。
關(guān)鍵詞: 疫情防控; 口罩佩戴檢測(cè);? Jetson nano; YOLOv3-tiny
文章編號(hào): 2095-2163(2021)07-0138-06中圖分類號(hào):TN911.73文獻(xiàn)標(biāo)志碼: A
Research and implementation of embedded mask wearing detection system
KE Xin,? ZHANG Rongfen,? LIU Yuhong
(College of Big Data and Information Engineering, Guizhou University, Guiyang 550025, China)
【Abstract】Under the situation of normalized epidemic prevention and control, wearing a mask in public can effectively reduce the risk of cross infection. In view of the difficulty in detecting small targets and poor real-time performance in mask wearing detection, a mask wearing detection system based on the embedded platform Jetson nano is proposed. By increasing the depth of the backbone network layer of YOLOv3-tiny, introducing the attention mechanism and the TensorRT module, the accuracy and real-time performance of the mask wearing detection task of the embedded system are improved. The improved YOLOv3-tiny algorithm has a mAP value of 87.5% and an FPS of 20.4. Compared with the previous improvement, the accuracy has increased by 12.3% and the frame rate has increased by 10.4 fps.
【Key words】epidemic prevention and control; mask wearing detection; Jetson nano; YOLOv3-tiny
0 引 言
自2019年12月開始,新型冠狀病毒肺炎(COVID-19)在全國范圍內(nèi)進(jìn)行快速的傳播與流動(dòng),新型冠狀病毒的傳染性很強(qiáng),而其主要的傳播媒介為人,傳播途徑為空氣中的飛沫以及氣溶膠??諝庵袔в胁《镜娘w沫和氣溶膠極有可能通過人的呼吸道進(jìn)行傳播,因此口罩作為呼吸系統(tǒng)的屏障,佩戴口罩可以有效阻隔病毒的傳播。雖然到目前為止還未提出一種針對(duì)口罩佩戴的檢測(cè)算法,但是關(guān)于人臉識(shí)別方面的對(duì)應(yīng)算法已經(jīng)存在,并且能夠有效地對(duì)人臉進(jìn)行識(shí)別[1]。本文以針對(duì)人臉的目標(biāo)檢測(cè)算法為思路,通過自制口罩?jǐn)?shù)據(jù)集來進(jìn)行針對(duì)性的訓(xùn)練,提升對(duì)佩戴口罩的檢出率[2]。采用的深度學(xué)習(xí)模型為YOLO,相比R-CNN、FAST R-CNN、FASTER R-CNN等模型,YOLO的性能更加突出。和前文提到的幾種深度學(xué)習(xí)模型相比,YOLO最大的優(yōu)勢(shì)是速度快,實(shí)時(shí)性好。YOLO算法的優(yōu)秀性能來源于其復(fù)雜的模型,模型越復(fù)雜,計(jì)算量相應(yīng)地也就越大,因此在計(jì)算資源和內(nèi)存都有限的嵌入式平臺(tái)難以實(shí)現(xiàn),隨著算法模型的優(yōu)化、算力的增強(qiáng),邊緣計(jì)算開始嶄露頭角,在嵌入式設(shè)備中部署此類算法成為熱門研究對(duì)象,此時(shí)就出現(xiàn)了Tiny-YOLO算法以及其新版本的YOLOv3-tiny,相比較于YOLO算法而言更加精簡,占用更少的計(jì)算資源及內(nèi)存。Jetson nano支持深度學(xué)習(xí)框架,且計(jì)算能力出眾,因此本文嘗試YOLOv3-tiny移植到Jetson nano平臺(tái)中,并進(jìn)行優(yōu)化加速實(shí)現(xiàn)計(jì)算資源局限平臺(tái)的口罩佩戴的檢測(cè)。
1 目標(biāo)檢測(cè)算法
隨著GPU并行計(jì)算技術(shù)和深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)檢測(cè)算法中得到了越來越多的應(yīng)用[3]。從目前來看,目標(biāo)檢測(cè)算法主要分成兩大類,一類是如R-CNN[4]、faster R-CNN[5]基于區(qū)域提議的檢測(cè)算法[6]、Josepy等人[7]在2016年提出了基于回歸的算法YOLO(You Only Look Once),該算法將目標(biāo)檢測(cè)理解成為一種回歸問題,很大程度上提高了檢測(cè)的速度。Wei等人[8]提出了單階段多尺度檢測(cè)模型、即SSD (Single Shot MultiBox Detector),引入了錨框機(jī)制,直接基于錨框回歸出檢測(cè)框,在檢測(cè)速度和檢測(cè)精度上均有很好的效果,2017~2018年期間,Josepy等人分別提出了改進(jìn)的YOLOv2[9]和YOLOv3[10]兩個(gè)版本的算法,在SSD模型的基礎(chǔ)上進(jìn)一步提升了檢測(cè)精度和速度。同時(shí)為了適應(yīng)邊緣計(jì)算的趨勢(shì),以及更好地在嵌入式平臺(tái)上運(yùn)行該算法,提出一種輕量版的YOLO模型,即YOLOv3-tiny。該模型通過減少特征層以及獨(dú)立預(yù)測(cè)分支達(dá)到了速度的提升,初步達(dá)到了嵌入式系統(tǒng)的實(shí)時(shí)檢測(cè)性能要求[11]。
2 Jetson nano嵌入式平臺(tái)
Jetson nano的CPU為ARM Cortex-A57 64-bit@1.42 Ghz,GPU為NVIDIA Maxwell w/128 CUDA cores@921 Mhz,配備了4 GB的LPDDR4。 Jetson nano具有128個(gè)CUDA核心的GPU功能更強(qiáng)大,性能優(yōu)異,因此Jetson nano適合于本文邊緣計(jì)算場(chǎng)景[12]。Jetson nano具有2種電源模式,分別為5 W(低功耗模式)和10 W(高功耗模式),當(dāng)運(yùn)行YOLOv3-tiny模型的時(shí)候需要調(diào)至高功耗模式,并且供電的電源也必須是5 V、2 A的標(biāo)準(zhǔn)電源,否則Jetson nano將會(huì)出現(xiàn)掉電現(xiàn)象,無法正常運(yùn)行模型。
3 YOLOv3-tiny算法及改進(jìn)
3.1 YOLOv3-tiny模型
YOLOv3-tiny是YOLOv3的簡化版本,主要區(qū)別為主干網(wǎng)絡(luò)采用一個(gè)7層conv+max網(wǎng)絡(luò)提取特征(和darknet19類似),嫁接網(wǎng)絡(luò)采用的是13*13、26*26的探測(cè)網(wǎng)絡(luò),YOLOv3-tiny的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。YOLO v3-tiny的優(yōu)點(diǎn)主要是:網(wǎng)絡(luò)簡單,計(jì)算量較小,可以實(shí)現(xiàn)邊緣計(jì)算,在Jetson nano上運(yùn)行YOLOv3-tiny模型可以達(dá)到10 fps/s的檢測(cè)速度,一定程度上滿足嵌入式平臺(tái)下的實(shí)時(shí)要求。YOLOv3-tiny檢測(cè)速度的提升很大,但是隨之而來的是檢測(cè)精度下降,由于去掉了殘差模塊,減少了卷積層和多尺度特征融合層的個(gè)數(shù),對(duì)于深層特征圖中目標(biāo)細(xì)節(jié)信息表達(dá)能力不佳,雖然模型中用到了多尺度融合的方法,但是中小尺寸目標(biāo)漏檢現(xiàn)象仍然存在。
3.2 改進(jìn)YOLOv3-tiny的網(wǎng)絡(luò)結(jié)構(gòu)
YOLOv3采用darknet53作為backbone網(wǎng)絡(luò),深度為107層,而裁剪后YOLOv3-tiny的網(wǎng)絡(luò)深度為24層,原來的3層YOLO層變?yōu)?2層,每層YOLO層有3個(gè)anchors,一共6個(gè)anchors值,網(wǎng)絡(luò)模型層次架構(gòu)如圖2所示。
卷積層數(shù)較淺可以更好地表征小目標(biāo),而較深的卷積層數(shù)對(duì)大尺度目標(biāo)具有較好的表征能力[13-14],隨著層數(shù)的加深,網(wǎng)絡(luò)結(jié)構(gòu)對(duì)于特征提取的效果也越好,但是過深的網(wǎng)絡(luò)結(jié)構(gòu)會(huì)導(dǎo)致產(chǎn)生梯度爆炸或者梯度消失等問題,因此不能一味地添加網(wǎng)絡(luò)層數(shù)來增加特征提取能力。針對(duì)YOLOv3-tiny卷積層少,檢測(cè)精度不高的問題,由于本文是以人臉為檢測(cè)對(duì)象,所以為了獲得更好分辨率的信息,添加的卷積層采用3×3卷積核的改進(jìn)方法,在保證效率的同時(shí)提升了精度,以增加在使用場(chǎng)景的實(shí)用性和準(zhǔn)確性[15]。隨著添加的網(wǎng)絡(luò)層數(shù)增多,檢測(cè)精度在逐步上升,與此同時(shí)由于增加了卷積層數(shù),計(jì)算量在增大,層數(shù)的增加與精度的提升并非線性關(guān)系,當(dāng)添加的層數(shù)大于4層時(shí),模型的推理速度下降得比較多,但是提升的精度卻不明顯,因此本文在綜合精度和效率的前提下,增加了4個(gè)3×3的卷積層起到了加深網(wǎng)絡(luò)層數(shù)的效果,為了提高模型的學(xué)習(xí)能力,同時(shí)減少模型的參數(shù),本文在添加的4個(gè)3×3的卷積層中添加了對(duì)應(yīng)的1×1卷積層,較好地平衡了精度與速度。改進(jìn)的YOLOv3-tiny網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
3.3 引入TensorRT的模塊
在IEEE 754標(biāo)準(zhǔn)中定義了一種半精度浮點(diǎn)類型[16],在CUDA中被稱作Half類型,在相同的時(shí)間周期內(nèi)完成兩個(gè)半精度浮點(diǎn)類型運(yùn)算,相對(duì)于單精度的數(shù)據(jù)類型,半精度浮點(diǎn)類型的運(yùn)算速度更快且效率更高。TensorRT主要采用了層間融合或張量融合、精度校準(zhǔn)2種優(yōu)化方法。對(duì)此可做研究詳述如下。
(1)層間融合或張量融合(Layer & Tensor Fusion)。如圖4左側(cè)是GoogLeNetInception模塊的計(jì)算圖。這個(gè)結(jié)構(gòu)中有很多層,在部署模型推理時(shí),每一層的運(yùn)算操作都是由GPU完成的, TensorRT通過對(duì)層間的橫向或縱向合并(合并后的結(jié)構(gòu)稱為CBR,意指convolution, bias, and ReLU layers are fused to form a single layer),橫向合并可以把卷積、偏置和激活層合并成一個(gè)CBR結(jié)構(gòu),只占用一個(gè)CUDA核心??v向合并可以把結(jié)構(gòu)相同,但是權(quán)值不同的層合并成一個(gè)更寬的層,也只占用一個(gè)CUDA核心。合并之后的計(jì)算圖(圖4右側(cè))的層次更少了,占用的CUDA核心數(shù)也少了,因此整個(gè)模型結(jié)構(gòu)會(huì)更小、更快、更高效。
(2)數(shù)據(jù)精度校準(zhǔn)(Weight &Activation Precision Calibration)。通常,深度學(xué)習(xí)框架在訓(xùn)練時(shí)網(wǎng)絡(luò)中的張量(Tensor)都是32位浮點(diǎn)數(shù)的精度(Full 32-bit precision,F(xiàn)P32),在網(wǎng)絡(luò)訓(xùn)練完成后,反向傳播這一步驟不存在了,因此可以適當(dāng)?shù)亟档蛿?shù)據(jù)精度,比如降為INT8或FP16的精度。更低的數(shù)據(jù)精度將會(huì)使得內(nèi)存占用和延遲更低,模型體積更小。基于TensorRT庫函數(shù)實(shí)現(xiàn)適用于本文設(shè)計(jì)的口罩佩戴檢測(cè)系統(tǒng)在Jetson nano平臺(tái)上的加速框架,程序整體框架流程圖如圖5所示。
在計(jì)算資源有限的嵌入式平臺(tái)上生成序列化引擎這一步驟比較消耗時(shí)間,但是在同樣的計(jì)算平臺(tái)和相同的參數(shù)下,對(duì)于序列化引擎可以進(jìn)行復(fù)用,因此只需要提前生成一次序列化引擎便可以多次重復(fù)使用,減少了對(duì)計(jì)算資源的使用,節(jié)省了時(shí)間。TensorRT加速推理框架主要部分為context數(shù)據(jù)、從不同框架模型中導(dǎo)入具有統(tǒng)一解析協(xié)議的序列化引擎文件,并利用序列化引擎進(jìn)行反序列化得到context進(jìn)行模型推理。
3.4 注意力機(jī)制模塊
本文添加了一種新的體系結(jié)構(gòu)單元,稱之為SE模塊(Squeeze-and-Excitation )[17]。SE模塊是通過重新學(xué)習(xí)卷積特征通道之間的相互依賴關(guān)系,篩選出了針對(duì)通道的注意力,以改變權(quán)重的方式來對(duì)原網(wǎng)絡(luò)的語義信息進(jìn)行調(diào)整。該單元通過對(duì)卷積得到的feature map進(jìn)行處理,得到一個(gè)和通道數(shù)一樣的一維向量作為每個(gè)通道的評(píng)價(jià)分?jǐn)?shù),然后將該分?jǐn)?shù)施加到對(duì)應(yīng)的通道上,得到其結(jié)果,實(shí)現(xiàn)過程如圖6所示。
在此基礎(chǔ)上,研發(fā)得到的SE模塊的代碼具體如下。
class SELayer(nn.Module);
def_init(self,channel,reduction=16);
super(SELayer,self),_init_()
self.avg_pool=nn.AdaptiveAvgPool2d(1)
self.fc=nn.Sequential(
nn.Linear(channel,channel // reduction,bias=False),
nn.ReLU(inplace=True),
nn.Linear(channel // reduction, channel, bias=False),
nn.Sigmoid()
}
def forward(self, x);
b, c, _, _x.size()
y=self.avg_pool(x).view(b,c)
y=self.fc(y).view(b,c,1,1)
return x*y.expand_as(x)
YOLO v3采用類似FPN上采樣(Upsample)和融合做法,融合了3個(gè)尺度(13*13、26*26和52*52),在多個(gè)尺度的融合特征圖上分別獨(dú)立做檢測(cè),但是在YOLOv3-tiny中縮減為2個(gè)尺度(13*13和26*26)。由于本文研究的對(duì)象為人臉,在大部分情況下的檢測(cè)對(duì)象較小,因此為了增強(qiáng)對(duì)小目標(biāo)檢測(cè)信息能力,本文將SE模塊融入到尺度為26*26輸出部分,對(duì)信息進(jìn)行refine,從而優(yōu)化學(xué)習(xí)到的內(nèi)容,尤其是加強(qiáng)了對(duì)于小目標(biāo)的檢測(cè)能力,添加了4層卷積層并且融入SE模塊后的網(wǎng)絡(luò),本文稱之為SE-YOLOv3-tiny,網(wǎng)絡(luò)結(jié)構(gòu)圖如圖7所示。
4 實(shí)驗(yàn)
4.1 實(shí)驗(yàn)數(shù)據(jù)集
目前還沒有針對(duì)口罩佩戴的公開的自然場(chǎng)景數(shù)據(jù)集,所以本文使用了WIDER FACE人臉數(shù)據(jù)集并從中隨機(jī)抽取2 000張人臉圖片,自行在網(wǎng)絡(luò)上搜集佩戴口罩的圖片1 000張,共收集訓(xùn)練圖片3 000張,本文按照7∶3的比例將自制的口罩?jǐn)?shù)據(jù)集劃分為2組,即訓(xùn)練集和測(cè)試集,其中2 100張圖片作為訓(xùn)練樣本,另外的900張圖片作為測(cè)試樣本。然后按照VOC數(shù)據(jù)集格式使用LabelImage對(duì)訓(xùn)練集和測(cè)試集進(jìn)行統(tǒng)一的標(biāo)注,標(biāo)注信息包括了2種佩戴口罩的狀態(tài),分別用1和0表示。其中,1對(duì)應(yīng)為masking,0對(duì)應(yīng)為unmasking。
4.2 實(shí)驗(yàn)結(jié)果
本文分別使用YOLOv3-tiny算法及本文的不同改進(jìn)優(yōu)化算法對(duì)自建的口罩?jǐn)?shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試,在迭代50 000次后得到最終的權(quán)重文件,圖8給出了loss值變化曲線,loss值反映了預(yù)測(cè)值與實(shí)際值的偏差。當(dāng)loss值越接近0就代表模型的性能越好,可以看出在迭代50 000次后趨于穩(wěn)定,不再明顯下降。
為了更好地展示優(yōu)化后的結(jié)果,本文針對(duì)精度提升和速度提升分別做了2個(gè)對(duì)比試驗(yàn),分析論述具體如下。
(1)實(shí)驗(yàn)一。本文提出了2種YOLOv3-tiny的網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化方法,該實(shí)驗(yàn)通過口罩?jǐn)?shù)據(jù)集對(duì)原始的YOLOv3-tiny模型、增加SE模塊以及添加網(wǎng)絡(luò)層的優(yōu)化方法進(jìn)行了對(duì)比實(shí)驗(yàn),得到結(jié)果見表1。
由表1可知,通過引入了4個(gè)3*3卷積層,同時(shí)每個(gè)3*3卷積層引入1*1卷積層使得mAP值提升為87.4%,相比YOLOv3-tiny提升了11.2%,引入了SE模塊SE YOLOv3-tiny的mAP值提升了0.9%。此時(shí),可以看到佩戴口罩與未佩戴口罩的AP存在差距,因?yàn)榕宕骺谡值娜四樥掌推胀ㄈ四樀恼掌壤秊?∶2,由于佩戴口罩的圖片較少,所以AP值略低于未佩戴口罩的AP值。另外,為了直觀地體現(xiàn)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)后的效果,選取了部分測(cè)試樣本圖片作為對(duì)比,如圖9所示。
由上述內(nèi)容可知在增加了卷積層以及添加了SE模塊后,檢出的準(zhǔn)確率以及對(duì)小目標(biāo)的檢出的效果都有較大的提升,在人群密集的場(chǎng)景下也有很好地檢出能力,并且能正確地進(jìn)行分類,證明了本文的優(yōu)化方法可行性。
(2)實(shí)驗(yàn)二。實(shí)驗(yàn)一針對(duì)提升精度進(jìn)行了優(yōu)化方案,并進(jìn)行對(duì)比試驗(yàn)。本實(shí)驗(yàn)將針對(duì)模型的速度優(yōu)化做出對(duì)比試驗(yàn)。該實(shí)驗(yàn)通過TensorRT模塊對(duì)模型進(jìn)行處理,本文將原始的YOLOv3 -tiny 以及改進(jìn)的YOLOv3-tiny模型轉(zhuǎn)換得到trt文件(經(jīng)TensorRT加速后得到的模型),在研究中統(tǒng)一使用trt后綴,表示加速后的模型,并進(jìn)行測(cè)試,得到的檢測(cè)結(jié)果見表2。
由表2可知,通過引入TensorRT模塊,各個(gè)網(wǎng)絡(luò)模型均得到了較大幅度的速度提升,改進(jìn)YOLOv3-tiny_trt相比于原始的YOLOv3-tiny網(wǎng)絡(luò),幀率提升至20.8 fps,相比較未加速之前約有2倍的速度提升,與此同時(shí)mAP值提升了11.1%,檢測(cè)精度明顯優(yōu)于原始的YOLOv3-tiny,SE YOLOv3-tiny _trt相對(duì)于改進(jìn)YOLOv3-tiny_trt算法而言,檢測(cè)的速度幾乎相同沒有明顯的下降,但是在檢測(cè)精度上提升了1.2%,這說明了引入SE模塊的可行性,本文提出的優(yōu)化方法使YOLO算法在嵌入式設(shè)備中得到了較大幅度的提升,已經(jīng)具備實(shí)時(shí)檢測(cè)的效果,可以應(yīng)用于實(shí)際的項(xiàng)目工程中。為了直觀地體現(xiàn)出優(yōu)化之后的實(shí)時(shí)檢測(cè)效果,本文使用YOLOv3-tiny、SE YOLOv3-tiny_trt兩種模型分別進(jìn)行測(cè)試,在視頻中進(jìn)行試驗(yàn),由于場(chǎng)景比較復(fù)雜可以更好地檢驗(yàn)?zāi)P偷男阅?。圖10(a)、(b)均是對(duì)視頻檢測(cè)結(jié)果截圖以及對(duì)比。
可以看出,在總體上本文的SE YOLOv3-tiny_trt算法能夠有效地識(shí)別口罩佩戴情況,優(yōu)化后提升了檢測(cè)的準(zhǔn)確率以及小目標(biāo)的檢測(cè)優(yōu)化后的模型對(duì)于非正臉的檢出率有著較好的提升,但可以看到的是對(duì)于側(cè)臉的小目標(biāo)的檢測(cè)會(huì)存在漏檢情況,同時(shí)存在著將顏色形狀相接近的帽子誤判為口罩情況如圖10(b)所示,這點(diǎn)在以后的工作中需要深入研究和進(jìn)一步優(yōu)化。圖10(a)表現(xiàn)出了對(duì)于未正確佩戴口罩識(shí)別的情況,體現(xiàn)出了一定的抗干擾能力。以上結(jié)果表明通過優(yōu)化后的模型更加適應(yīng)實(shí)際場(chǎng)景的需求,例如地鐵站、火車站等人流密集、人臉目標(biāo)較小的情況,具有一定的實(shí)際應(yīng)用價(jià)值。
5 結(jié)束語
本文基于YOLOv3-tiny算法提出了一種基于嵌入式平臺(tái)實(shí)時(shí)口罩檢測(cè)算法,該方法通過添加卷積層的數(shù)量增加網(wǎng)絡(luò)模型的深度,提升了網(wǎng)絡(luò)模型的特征提取能力。引入注意力機(jī)制,添加了SE模塊來優(yōu)化所學(xué)習(xí)到的內(nèi)容,提升檢測(cè)準(zhǔn)確率以及使用半精度推理模塊TensorRT來提升檢測(cè)的速度,最終達(dá)到了精度與速度的平衡,能較好地應(yīng)用于實(shí)際場(chǎng)景。本文通過自建的3 000張圖片的數(shù)據(jù)集進(jìn)行訓(xùn)練的結(jié)果表示,本文提出的優(yōu)化方法可以有效地檢測(cè)實(shí)際場(chǎng)景下是否佩戴口罩,平均精度達(dá)到了87.5%,每秒幀率達(dá)到了20.8 fps,由此證明了本文優(yōu)化方法的合理性。在以后的研究中將會(huì)進(jìn)一步優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)以提升檢測(cè)精度,同時(shí)保證檢測(cè)的速度,增大數(shù)據(jù)集的樣本量,針對(duì)性解決手部遮擋等遮擋面部的情況識(shí)別,提高口罩佩戴檢測(cè)能力和效率。
參考文獻(xiàn)
[1]王遠(yuǎn)大. UCloud開放人臉口罩檢測(cè)服務(wù)借助AI算法加快疫情防控[J]. 通信世界, 2020(5):33-34.
[2]XU Tang, DU D K, HE Zeqiang, et al. PyramidBox:A context-assisted single shot face detector[M]//FERRARI V, HEBERT M, SMINCHISESCU C, et al. Computer Vision-Eccv 2018. Eccv 2018. Lecture Notes In Computer Science. Cham:Springer, 2018,11213:812-828.
[3]陳超,齊峰. 卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在計(jì)算機(jī)視覺領(lǐng)域中的應(yīng)用綜述[J].計(jì)算機(jī)科學(xué),2019,46(3): 63-73.
[4]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Columbus, USA:IEEE,2014: 580-587.
[5]REN S,HE K,GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[C]//Proceedings of International Conference on Neural Information Processing Systems. Cambridge:MIT Press,2015: 91-99.
[6]ZITNICK C L, DOLL R P. Edge boxes: Locating object proposals from edges[M]. Cham: Springer International Publishing, 2014.
[7] JOSEPY R, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real- time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA:IEEE, 2016:21-37.
[8]WEI L, ANGUELOV D, ERHAN D, et al. SSD: Single shot multiBox detector[C]// European Conference on Computer Vision(ECCV). Berlin:Springer,2016:21-37.
[9]JOSEPY R, FARHADI A. YOLO9000: Better, faster, stronger[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA:IEEE, 2017: 6517-6525.
[10]JOSEPY R, FARHADI A. YOLOv3: An incremental improvement[C]//Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C.,USA:IEEE Press,2018:1-6.
[11]MA Jing,CHEN Li,GAO Zhiyong. Hardware implementation and optimization of tiny-YOLO network[M]//ZHAI G, ZHOU J, YANG X. Digital TV and Wireless Multimedia Communication. IFTC 2017. Communications in Computer and Information Science. Singapore :Springer,2018,815:224-234.
[12]齊健. NVIDIAJetson TX2平臺(tái):加速發(fā)展小型化人工智能終端[J].? 智能制造,2017(5):20-21.
[13]呂俊奇,邱衛(wèi)根,張立臣,等. 多層卷積特征融合的行人檢測(cè)[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2018,39(11):3481-3485.
[14]劉輝, 彭力, 聞繼偉. 基于改進(jìn)全卷積網(wǎng)絡(luò)的多尺度感知行人檢測(cè)算法[J].? 激光與光電子學(xué)進(jìn)展, 2018, 55(9):318-324.
[15]陳聰,楊忠,宋佳蓉,等. 一種改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)行人識(shí)別方法[J]. 應(yīng)用科技,2019,46(3):51-57.
[16]IEEE. IEEE standard for floating-point arithmetic:754-2008[S]. Washington D.C.,USA:IEEE Press,2008.
[17]HU Jie, LI Shen, SUN Gang. Squeeze-and-excitation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2017:7132-7141.
基金項(xiàng)目: 貴州省科技計(jì)劃項(xiàng)目(黔科合平臺(tái)人才[2016]5707)。
作者簡介: 柯 鑫(1995-),男,碩士研究生,主要研究方向:機(jī)器學(xué)習(xí)、機(jī)器視覺、目標(biāo)檢測(cè); 張榮芬(1997-),女,博士,教授,主要研究方向:嵌入式系統(tǒng)、機(jī)器視覺、大數(shù)據(jù)與計(jì)算應(yīng)用; 劉宇紅(1963-),男,碩士,教授,主要研究方向:嵌入式系統(tǒng)、大數(shù)據(jù)應(yīng)用、機(jī)器視覺與機(jī)器學(xué)習(xí)。
通訊作者: 劉宇紅Email: yhliu2@gzu.edu.cn
收稿日期: 2021-04-21