馬利偉,周明陽,劉國寧
(鄭州大學(xué)機(jī)械工程學(xué)院,河南 鄭州 450001)
高鐵建設(shè)場景中,運(yùn)行著大型特種裝備,其具有尺寸大,自重大,運(yùn)行負(fù)荷大等特點(diǎn)。典型的高鐵建設(shè)裝備,如高鐵提梁機(jī),運(yùn)梁車和高鐵架橋機(jī)等,最大尺寸可達(dá)45米或更大,如表1所示。它們擔(dān)任著提梁、運(yùn)梁和架橋等任務(wù)。相應(yīng)地,高鐵大型裝備運(yùn)行過程中,操作人員會(huì)存在多個(gè)大面積盲區(qū)。這不但影響到現(xiàn)場工作人員的安全,也會(huì)影響到工作效率。因而,給裝備添加“眼睛”和賦予“視覺感知”,應(yīng)用圖像識(shí)別技術(shù)實(shí)時(shí)發(fā)現(xiàn)施工和作業(yè)區(qū)域的人員就變得很重要。
表1 高鐵建設(shè)裝備主要參數(shù)Tab.1 Main Parameters of High-Speed Railway Construction Machine
視覺檢測在經(jīng)過一個(gè)機(jī)器學(xué)習(xí)訓(xùn)練的過程,從樣本中抓取目標(biāo)物體的特征,組建分類器,用組建好的分類器在視頻圖像中將特定目標(biāo)物體識(shí)別出來。近年來,許多場景引入視覺檢測的方法。文獻(xiàn)[1]針對(duì)城市交通場景,借助深度網(wǎng)絡(luò)分層提取視覺場景中候選區(qū)域多類目標(biāo)的深度特征,完成了對(duì)目標(biāo)物的識(shí)別檢測。文獻(xiàn)[2]針對(duì)變電站場景,提出將計(jì)算機(jī)視覺領(lǐng)域的深度學(xué)習(xí)技術(shù)應(yīng)用于變電站場境下行人檢測問題中。文獻(xiàn)[3]針對(duì)鐵路軌道場景,對(duì)傳統(tǒng)的深度卷積網(wǎng)絡(luò)神經(jīng)做出改進(jìn),應(yīng)用到鐵路入侵行人識(shí)別。文獻(xiàn)[4]針對(duì)煤礦井下的場景境,提出一種改進(jìn)的Faster RCNN煤礦井下行人檢測方法,并做了驗(yàn)證。文獻(xiàn)[5]針對(duì)普通道路場景,提出一種基于深度學(xué)習(xí)的車輛和行人檢測算法型訓(xùn)練,實(shí)現(xiàn)了在普通道路場景中的車輛檢測和行人檢測的功能。文獻(xiàn)[6]針對(duì)高鐵檢票環(huán)境,提出一種改進(jìn)的基于梯度直方圖特征與Adaboost分類結(jié)合的行人檢測算法,并用于高鐵閘機(jī)智能系統(tǒng)的行人檢測模塊。提高了檢測速度,滿足了閘機(jī)對(duì)行人的實(shí)時(shí)檢測要求。
目前,針對(duì)高鐵建設(shè)大型裝備作業(yè)區(qū)域內(nèi)人員檢測和監(jiān)控報(bào)警的研究較少。本研究采用在裝備端布置監(jiān)控的方法,獲取現(xiàn)場圖片信息,利用OpenCV級(jí)聯(lián)分類器訓(xùn)練框架和Python編程語言,基于Haar-like特征與Adaboost算法對(duì)高鐵建設(shè)裝備典型作業(yè)環(huán)境圖像進(jìn)行描述與學(xué)習(xí)的方法,構(gòu)建高鐵建設(shè)作業(yè)環(huán)境內(nèi)的人員在線檢測系統(tǒng),在保證作業(yè)過程中的人身安全的同時(shí),提升人機(jī)協(xié)同能力,提高作業(yè)效率。并對(duì)訓(xùn)練方法做改進(jìn),加入正樣本更新的方法,以提升分類器的準(zhǔn)確性和自適應(yīng)性。
機(jī)器學(xué)習(xí)需要選用合適的特征方法來描述圖像中的工人。目前主流的圖像特征描述方法有邊緣特征、形狀特征、統(tǒng)計(jì)特征和變換特征等,其中具有代表性的特征有Haar-like特征、HOG(Histogram of Oriented Gradient)特征、LBP(Local Binary Patterns)特征等[7-8]。Haar-like特征能夠較精確地描述出圖像局部區(qū)域的灰度變化,并可使用積分圖的方法快速計(jì)算出特征值,使得對(duì)目標(biāo)的檢測速度獲得提升;HOG特征是對(duì)圖像局部區(qū)域的梯度方向直方圖進(jìn)行統(tǒng)計(jì)與計(jì)算來獲取特征數(shù)據(jù),但HOG特征數(shù)據(jù)具有維數(shù)較高的特點(diǎn),造成HOG特征運(yùn)算速度較慢;LBP特征對(duì)圖像的局部紋理特征有很好的描述,具有旋轉(zhuǎn)不變性和灰度不變性的特點(diǎn)[9-12]??紤]到計(jì)算難度及高鐵建設(shè)裝備典型工作場所的特點(diǎn)(如箱型梁鋼筋骨架會(huì)產(chǎn)生復(fù)雜紋理影響特征識(shí)別),選用Haar-like特征。
目前常用到的分類器有Adaboost、支持向量機(jī)(SVM)和神經(jīng)網(wǎng)絡(luò)分類器。Adaboost分類器是一種自適應(yīng)的boosting方式分類器,針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練出若干個(gè)不同的分類器,然后把這些分類器結(jié)合起來,構(gòu)成一個(gè)級(jí)聯(lián)分類器。在Adaboost分類器訓(xùn)練過程中,會(huì)剔除一些不必要的訓(xùn)練數(shù)據(jù)特征,將重點(diǎn)放在更重要的數(shù)據(jù)特征上,加快了訓(xùn)練的過程[12];SVM分類器是基于結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理的有監(jiān)督統(tǒng)計(jì)學(xué)習(xí)方法,常用于解決小樣本、非線性及高維模式的圖像識(shí)別問題[13];神經(jīng)網(wǎng)絡(luò)分類器是利用神經(jīng)網(wǎng)絡(luò)算法構(gòu)建的分類器,通過調(diào)整神經(jīng)元之間的聯(lián)接權(quán),使得網(wǎng)絡(luò)輸出更為合理的結(jié)果,但該分類器易出現(xiàn)過擬合的問題[14-15]??紤]到典型的樣本特征,即人員特征與環(huán)境特征區(qū)別相對(duì)明顯及識(shí)別訓(xùn)練時(shí)訓(xùn)練速度等因素,選用Adaboost分類器。
Haar-like特征是用于物體識(shí)別的數(shù)字圖像特征,分為三類:邊緣特征(圖1a-d)、中心環(huán)繞特征(圖1e-f)、線性特征(圖1g-n):
圖1 Haar-like特征Fig.1 Haar-Like Feature
使用Haar-like特征值來描述圖像,Haar-like特征模型可通過放大/縮小和平移的方式產(chǎn)生子特征模型,并利用這些特征模型填充鋪滿整個(gè)檢測區(qū)域。使用不同的特征值描述不同的物體,特征值CHɑɑr的計(jì)算方法如式(1)所示,第i檢測區(qū)域的所有白色區(qū)域內(nèi)像素和與黑色區(qū)域內(nèi)像素和的差值乘以第i檢測區(qū)域相應(yīng)的權(quán)重系數(shù)TiSBTi。SB
式中:SW、SB、Ti—白色區(qū)域、黑色區(qū)域、第i區(qū)域相應(yīng)的權(quán)重系數(shù)。
Adaboost算法的基本原理是將多個(gè)分類器進(jìn)行合理的權(quán)重組合,最終形成一個(gè)級(jí)聯(lián)分類器。它是采用迭代的思想,每一次的迭代過程都會(huì)產(chǎn)生一個(gè)分類器,同時(shí)該分類器也參與下一次迭代過程。每一次的迭代過程會(huì)根據(jù)上一次迭代產(chǎn)生的分類器的效果進(jìn)行權(quán)重修正,將能正確分類的樣本權(quán)重減小或剔除,錯(cuò)誤分類的樣本的權(quán)重加大。如此重復(fù),直到分類器的個(gè)數(shù)達(dá)到一個(gè)指定的級(jí)數(shù)閾值N就停止學(xué)習(xí),最后再將各個(gè)分類器進(jìn)行合理的權(quán)重組合,即得到一個(gè)級(jí)聯(lián)分類器。
該系統(tǒng)總體結(jié)構(gòu)設(shè)計(jì),如圖2所示。(以運(yùn)架一體機(jī)為例),包含了設(shè)備盲區(qū)車載相機(jī)、視頻存儲(chǔ)服務(wù)器、分析處理服務(wù)器、報(bào)警服務(wù)器和無線網(wǎng)橋傳輸網(wǎng)。
圖2 系統(tǒng)結(jié)構(gòu)圖Fig.2 System Structure Diagram
車載相機(jī)通過無線網(wǎng)橋?qū)⒁曨l數(shù)據(jù)傳輸至視頻存儲(chǔ)服務(wù)器,分析處理服務(wù)器從中讀取實(shí)時(shí)視頻進(jìn)行入侵物監(jiān)測,并將結(jié)果傳輸至報(bào)警服務(wù)器,報(bào)警服務(wù)器可以借助網(wǎng)絡(luò)實(shí)現(xiàn)報(bào)警信息的發(fā)布,設(shè)備端報(bào)警裝置執(zhí)行報(bào)警動(dòng)作。
系統(tǒng)整個(gè)運(yùn)行流程,如圖3所示。首先準(zhǔn)備初始正/負(fù)樣本集,正樣本集是含有目標(biāo)物的圖片所組成的集合,每張圖片寬高像素值均一致;負(fù)樣本則是不含有目標(biāo)物的圖片所組成的集合,負(fù)樣本每張圖片寬高像素值需大于正樣本,無需尺度歸一化處理;其次,將樣本集作為輸入,進(jìn)行分類器訓(xùn)練,創(chuàng)建分類器;最后,進(jìn)行在線監(jiān)測。
圖3 檢測流程圖Fig.3 Detection Flowchart
為了提升分類器的正檢率與自適應(yīng)性,并使分類器對(duì)當(dāng)前環(huán)境具有更強(qiáng)的針對(duì)性,對(duì)方法做出以下改進(jìn):在整個(gè)檢測過程中加入樣本自更新功能,具體流程,如圖3所示。在分類器測試過程中,當(dāng)檢測到物體是目標(biāo)物的置信度P>75%時(shí)[16],即視為檢測到目標(biāo)物,同時(shí)開啟報(bào)警策略;如果檢測到的物體是目標(biāo)物的置信度P>95%時(shí),便保留數(shù)據(jù),并作進(jìn)一步的圖像處理(截取、篩選、加時(shí)間戳、灰度化、尺度歸一化等),更新替換掉原正樣本訓(xùn)練集中創(chuàng)建時(shí)間較早的樣本,并進(jìn)入下一次分類器訓(xùn)練過程。之后,將相鄰兩次的分類器對(duì)同一個(gè)測試樣本進(jìn)行測試,將正檢率高的分類器用于下一次在線檢測中。以此循環(huán)即不會(huì)使訓(xùn)練樣本集無限增加;同時(shí)也使分類器更加契合當(dāng)前工況。
訓(xùn)練集選取過程主要是正負(fù)樣本的收集與處理。以梁場為例,圖像正負(fù)樣本收集處理情況,如表2所示。
表2 正負(fù)樣本集屬性Tab.2 Attributes of Positive and Negative Sample Sets
梁場內(nèi)工作涉及制梁、質(zhì)量檢測、安全監(jiān)督和輔助梁的提升搬運(yùn)等。人員典型姿態(tài)有站立、彎腰、蹲坐。人員身著工裝,佩戴安全帽。當(dāng)前,工業(yè)界未發(fā)布任何高鐵梁場環(huán)境背景下的行人檢測數(shù)據(jù)。因此,所收集的正樣本圖片來自多個(gè)高鐵梁場作業(yè)區(qū)域內(nèi)正在施工的工人現(xiàn)場圖片。正樣本的處理具體流程,如圖4所示。
圖4 正樣本處理流程圖Fig.4 Positive Sample Processing Flowchart
首先,對(duì)原始圖片收集,并將目標(biāo)物(工作人員)截取出來;其次,將這些圖片進(jìn)行尺度歸一化處理,參考目前廣泛應(yīng)用的INRIA行人數(shù)據(jù)集正樣本尺度,將正樣本寬×高尺度定為70px×134px。簡單的拉伸與縮放,極易造成圖片中目標(biāo)畸形現(xiàn)象發(fā)生,為了避免畸形現(xiàn)象發(fā)生,并保證原始圖像在新圖像的區(qū)域最大,加入以下正樣本處理方法:獲取截取圖像的寬高像素值(W*H),判斷70/W與134/H的關(guān)系。當(dāng)70/W較小時(shí),整張圖像擴(kuò)大/縮小70/W倍,接著在高度方向填充至134px;當(dāng)兩值相等時(shí),直接將圖片放大/縮小134/H倍;當(dāng)134/H較小時(shí),圖片放大/縮小134/H倍,寬度方向邊緣填充至70px。這里利用OpenCV的resize函數(shù)進(jìn)行放大與縮小,放大使用的是INTER_CUBIC(雙三次插值)方式;縮小使用的是INTER_AREA(區(qū)域插值)方式。這樣處理方式可有效避免波紋現(xiàn)象出現(xiàn),使效果達(dá)到最好。之后,將尺度歸一化的圖片進(jìn)行灰度化處理,并保存圖片;接著,創(chuàng)建描述文件pos.vec文件,將每一個(gè)樣本的信息,如絕對(duì)路徑、目標(biāo)個(gè)數(shù)(人員個(gè)數(shù))、檢測起始坐標(biāo)、樣本寬與高的像素等信息寫入其中。處理好的正樣本集圖片共計(jì)700張[17],寬高像素值均為70px×134px,如圖5所示。
圖5 正樣本集示例Fig.5 Examples of Positive Sample Sets
負(fù)樣本是不含有工人的圖片,數(shù)量一般是正樣本數(shù)量的(2~3)倍。所收集的負(fù)樣本同樣是來自梁場環(huán)境,總數(shù)為2000張,如圖6所示。圖片只做灰度化處理,不做尺度歸一化處理,但圖片的寬高像素值均大于70px×134px,并用neg.txt文件描述負(fù)樣本。此文件只記錄每一個(gè)負(fù)樣本的絕對(duì)路徑。正樣本要求目標(biāo)物與背景有較高的辨識(shí)度。在高鐵梁場作業(yè)區(qū)域內(nèi),工人穿著工裝,在灰度化的圖像中與背景區(qū)別較大,辨識(shí)度高,所以灰度圖像已完全滿足正樣本集要求;同時(shí),考慮原始圖像數(shù)據(jù)量大,計(jì)算復(fù)雜且耗時(shí)長,所以將所有樣本進(jìn)行灰度化處理,以簡化計(jì)算,減少運(yùn)算耗時(shí)。
圖6 負(fù)樣本集示例Fig.6 Examples of Negation Sample Sets
訓(xùn)練過程采用級(jí)聯(lián)分類器訓(xùn)練方法,該方法采用Haar-like特征與Adaboost算法結(jié)合的訓(xùn)練方式進(jìn)行深度學(xué)習(xí)。訓(xùn)練方法的系統(tǒng)框架,如圖7所示。用Haar-like特征描述輸入的正負(fù)樣本集,并計(jì)算Haar-like特征值,得到特征集;然后訓(xùn)練產(chǎn)生多個(gè)弱分類器,從中選取最優(yōu)弱分類器,調(diào)用Adaboost算法訓(xùn)練出強(qiáng)分類器,當(dāng)強(qiáng)分類器達(dá)到預(yù)設(shè)定級(jí)數(shù)后停止訓(xùn)練,并將這些強(qiáng)分類器進(jìn)行權(quán)重組合構(gòu)建出一個(gè)級(jí)聯(lián)分類器。
圖7 訓(xùn)練系統(tǒng)框架Fig.7 Framework of Training System
級(jí)聯(lián)分類器訓(xùn)練過程中,參數(shù)的設(shè)置對(duì)訓(xùn)練時(shí)長和分類器的精確性有著非常大的影響。重要參數(shù)的設(shè)置,如表3所示。根據(jù)樣本容量及所需精度選取訓(xùn)練分類器的級(jí)數(shù)(nstages),這里選用15級(jí);nsplits為每個(gè)弱分類器特征個(gè)數(shù),一般設(shè)定為1;Mem為內(nèi)存空間分配大小,空間越大,計(jì)算速度越快,根據(jù)計(jì)算機(jī)硬件配置情況,這里設(shè)定為4096MB;Mode為Haar-like特征類型參數(shù),訓(xùn)練框架提供兩種參數(shù)值BASIC與ALL。①BASIC表示只使用垂直特征,②ALL表示使用所有垂直特征和45°旋轉(zhuǎn)特征,這里選用ALL;Symmetric對(duì)稱參數(shù)用來描述目標(biāo)是否垂直對(duì)稱,對(duì)稱選用-sym,不對(duì)稱選用-nonsym,這里目標(biāo)物為梁場工人,所以選用-nonsym;最小正檢率(minhitrate)為每級(jí)分類器正樣本的正檢率,這里選取默認(rèn)值0.995;最大誤檢率maxfalsealarm參數(shù)分類器的每一級(jí)強(qiáng)分類器的分負(fù)樣本分錯(cuò)的最大比例,訓(xùn)練過程中,當(dāng)分錯(cuò)比例小于此設(shè)定值,便說明此級(jí)強(qiáng)分類器訓(xùn)練成功,并跳入下一級(jí)的強(qiáng)分類器的訓(xùn)練,這里設(shè)定此參數(shù)為0.5;weighttrimming為樣本剔除比例,在每級(jí)強(qiáng)分類器的訓(xùn)練中,每訓(xùn)練一個(gè)強(qiáng)分類器前將所有樣本(包括正樣本與負(fù)樣本)按權(quán)重從小到大排列,并將權(quán)重最低的weighttrimming*sum(正負(fù)樣本總和)個(gè)樣本去除,因?yàn)楫?dāng)某個(gè)樣本權(quán)重很小,就說明這個(gè)樣本總能被正確的分類,刪除這些已經(jīng)能被正確分類的樣本,讓訓(xùn)練更多集中于還不能正確分類的樣本上,以提高訓(xùn)練效率。這里選取默認(rèn)值0.95。參數(shù)設(shè)定之后開始訓(xùn)練。
表3 訓(xùn)練參數(shù)設(shè)置Tab.3 Training Parameter Setting
訓(xùn)練好分類器,進(jìn)入測試階段。測試硬件條件為:Windows 10系統(tǒng),處理器為Inte(lR)Core(TM)i5-4200 CPU@2.80GHz,顯卡為NVIDIA GeForce GT 710,工業(yè)相機(jī)一個(gè),分辨率為1280*720。整個(gè)測試流程,如圖8所示。首先,加載第一次訓(xùn)練構(gòu)建的分類器WorkerCascadeClassifier.xml文件;其次,開啟監(jiān)控?cái)z像頭,獲取監(jiān)控圖像數(shù)據(jù),考慮到計(jì)算速度,將獲取的幀圖像數(shù)據(jù)進(jìn)行灰度化處理,以簡化下一步檢測運(yùn)算;接著,進(jìn)行在線檢測。根據(jù)檢測返回值判斷是否有人員侵入,返回值為空,則表示無工人,直接進(jìn)行圖像回顯。返回值非空(即目標(biāo)物在圖像中的起始坐標(biāo)和所占寬高像素值),則表示有工人侵入,并在彩色圖片中對(duì)目標(biāo)物進(jìn)行框選定位,同時(shí)作彩色圖像回顯和執(zhí)行報(bào)警策略。
圖8 測試系統(tǒng)流程圖Fig.8 Test System Flowchart
在框選過程中,通常會(huì)出現(xiàn)多個(gè)矩形框?qū)ν粋€(gè)目標(biāo)同時(shí)進(jìn)行多次框選的現(xiàn)象。為了避免這一現(xiàn)象,這里使用非極大值抑制法,只選取最大的矩形框進(jìn)行目標(biāo)物的框選定位。
為逐步提高分類器的正檢率和自適應(yīng)性,加入正樣本自更新方法。當(dāng)檢測到的物體是目標(biāo)物的置信度P>95%時(shí),則便保留數(shù)據(jù),并作進(jìn)一步圖像處理(篩選、加時(shí)間戳、截取、尺度歸一化、灰度化等),更新替換掉原正樣本訓(xùn)練集中創(chuàng)建時(shí)間較早的樣本,并進(jìn)入下一次分類器訓(xùn)練過程,構(gòu)建新的分類器。然后,判斷新分類器的正檢率是否大于原分類器,若大于原分類器,則使用新分類器進(jìn)行在線檢測;否則,繼續(xù)沿用原分類器。以此循環(huán),提高分類器的正檢率和自適應(yīng)性,使分類器對(duì)當(dāng)前環(huán)境具有更強(qiáng)的針對(duì)性和適用性。
測試階段共進(jìn)行了四次分類器循環(huán)迭代訓(xùn)練,得到四個(gè)分類器。并通過同一個(gè)測試集對(duì)這四個(gè)分類器進(jìn)行測試評(píng)估,測試階段所使用的測試集由兩大部分組成,一部分是500張?jiān)O(shè)備當(dāng)前工作的高鐵建設(shè)現(xiàn)場圖片組成,包含高鐵建設(shè)環(huán)境中工人工作中典型的姿態(tài)(站立、彎腰、蹲坐等),其中含有工人的圖片有350張,共有437人,負(fù)樣本150張。另一部分由當(dāng)前使用最廣泛INRIA行人數(shù)據(jù)集[18]組成,選取其中100張正樣本(共有132人)和100張負(fù)樣本。經(jīng)過識(shí)別檢測結(jié)果,如圖9所示。
圖9 分類器的正/誤檢率實(shí)驗(yàn)曲線Fig.9 Experimental Curve of Classifier’s Correct/Error Detection Rate
自更新方法共經(jīng)過四次循環(huán)迭代訓(xùn)練,由圖9可知:分類器的正檢率整體呈上升趨勢,誤檢率也相應(yīng)地減少,第四次循環(huán)構(gòu)建的分類器的正檢率與誤檢率分別為97.19%、1.07%,相比首次訓(xùn)練構(gòu)建的分類器的正檢率增加了3.17%,誤檢率減少了0.94%。為了驗(yàn)證自更新算法的有效性,還將改算法還與文獻(xiàn)19中HOG+Adaboost的行人檢測方法進(jìn)行對(duì)比。對(duì)比結(jié)果,如表4所示。
表4 檢測結(jié)果Tab.4 Detection Result
由表4可以看出,文獻(xiàn)19中HOG+Adaboost算法人員檢測的正檢率為95.61%,自更新算法經(jīng)過四次迭代得到的分類器,其正檢率比HOG+Adaboost算法大1.58%,并且誤檢率比其小0.38%。由圖9與表4可得,自更新算法在經(jīng)過兩次迭代時(shí),分類器的正檢率基本與文獻(xiàn)19中HOG+Adaboost算法相持平;自更新算法在經(jīng)過三次迭代后得到的分類器,其誤檢率基本與HOG+Adaboost算法的誤檢率相持平,但正檢率已經(jīng)超HOG+Adaboost算法1.05%。
選用第四次循環(huán)構(gòu)建的分類器對(duì)高鐵梁場現(xiàn)場進(jìn)行系統(tǒng)功能測試。該系統(tǒng)具有監(jiān)控設(shè)備選擇;調(diào)整監(jiān)控設(shè)備所對(duì)方位、背光補(bǔ)償、日/夜模式;當(dāng)光線暗時(shí),還可開啟輔助照明;對(duì)檢測結(jié)果進(jìn)行呈現(xiàn);對(duì)歷史監(jiān)控?cái)?shù)據(jù)進(jìn)行回放呈現(xiàn);對(duì)采集到的目標(biāo)物圖像進(jìn)行查看與管理和報(bào)警日志查詢和進(jìn)行分屏顯示等功能。系統(tǒng)對(duì)正在捆扎箱型梁鋼筋骨架的工人進(jìn)行了識(shí)別檢測,測試結(jié)果,如圖10所示。該系統(tǒng)成功地檢測出工人,并做出了報(bào)警信息提醒。之后,又進(jìn)行長期的現(xiàn)場系統(tǒng)測試,結(jié)果顯示該分類器達(dá)到了預(yù)期設(shè)計(jì)的目的要求;驗(yàn)證了該系統(tǒng)的可靠性和檢測方法的可行性。
圖10 在線測試結(jié)果Fig.10 On-Line Test Results
利用Python語言和OpenCV級(jí)聯(lián)分類器訓(xùn)練框架,用Haarlike特征描述梁場環(huán)境圖像中工人的典型姿態(tài)特征(站立、彎腰、蹲坐等),用Adaboost算法進(jìn)行迭代訓(xùn)練,訓(xùn)練出工人級(jí)聯(lián)分類器WorkerCascadeClassifier.xml。并對(duì)該方法做了改進(jìn),加入正樣本自更新的方法,進(jìn)行了四次循環(huán)迭代訓(xùn)練。經(jīng)過靜態(tài)圖檢測測試,從第一次訓(xùn)練構(gòu)建的分類器的正檢率到第四次構(gòu)建的分類器的正檢率依次提升,第四次分類器的正檢達(dá)到97.19%;并用第四次構(gòu)建的分類器作了長期的現(xiàn)場測試,系統(tǒng)既能長期的穩(wěn)定運(yùn)行,也能成功檢測出監(jiān)控中的工人,實(shí)現(xiàn)了預(yù)設(shè)的功能。為工人的人身安全提供了保障,提升了人機(jī)協(xié)同作業(yè)能力,提高作業(yè)效率。此外,該方法還可運(yùn)用到其他智能設(shè)備中,如車輛自動(dòng)駕駛,為目標(biāo)物智能識(shí)別功能的實(shí)現(xiàn)提供參考意義。