• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的視頻火焰識(shí)別方法

    2020-12-21 02:44:26蔡春兵吳翠平徐鯤鵬
    關(guān)鍵詞:火焰像素卷積

    蔡春兵,吳翠平,徐鯤鵬

    (中國礦業(yè)大學(xué)(北京) 化學(xué)與環(huán)境工程學(xué)院,北京 100083)

    0 引言

    傳統(tǒng)的氣體型、感溫型、感煙型和感光型等火災(zāi)探測器[1],依靠火災(zāi)中的CO、CO2、溫度、煙霧微粒、熱和輻射等物理特征來探測火災(zāi)發(fā)生。因其通常與火源距離較遠(yuǎn),導(dǎo)致可靠性與實(shí)時(shí)性都不足。視頻火災(zāi)探測技術(shù)無需靠近火源,可實(shí)現(xiàn)大視野、遠(yuǎn)距離監(jiān)控,廣泛應(yīng)用于大型工廠、森林和煤礦等大空間和室外開放空間的火災(zāi)探測。

    火焰具有明顯的視覺特征,傳統(tǒng)視頻火災(zāi)探測算法通常根據(jù)火焰的顏色、形狀和紋理等靜態(tài)特征,以及閃爍頻率、面積增長、形態(tài)變化和移動(dòng)方向等動(dòng)態(tài)特征進(jìn)行識(shí)別。CHEN T H 等人[2]結(jié)合RGB色彩分割和火焰運(yùn)動(dòng)特性進(jìn)行火焰像素的判定。KO B C[3]等人通過檢測運(yùn)動(dòng)區(qū)域和火焰顏色判斷來提取候選火焰區(qū)域,并對(duì)候選區(qū)域提取特征,用于訓(xùn)練支持向量機(jī)SVM 分類器,實(shí)現(xiàn)對(duì)火與非火的判定。MEI Z[4]等人通過幀間差分法和火焰顏色模型確定候選著火區(qū)域,然后提取火災(zāi)候選區(qū)域特征組成的特征向量,用于訓(xùn)練BP 神經(jīng)網(wǎng)絡(luò)模型來識(shí)別火災(zāi)。候選區(qū)域的特征提取對(duì)后續(xù)分類器性能的好壞起到?jīng)Q定性的作用,傳統(tǒng)視頻火焰探測需要人工設(shè)計(jì)復(fù)雜的特征提取方法,在識(shí)別率和泛化性能上都有一定的局限性。

    深度學(xué)習(xí)為傳統(tǒng)自然語言處理、計(jì)算機(jī)視覺等領(lǐng)域帶來了革命性進(jìn)步,也必然促進(jìn)視頻火災(zāi)探測技術(shù)獲得突破性進(jìn)展。深度學(xué)習(xí)算法可自動(dòng)提取圖像特征,克服了傳統(tǒng)視頻火災(zāi)探測需依靠人工經(jīng)驗(yàn)提取特征的缺陷。FRIZZI S 等人[5]訓(xùn)練了9 層網(wǎng)絡(luò)結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)了火災(zāi)的識(shí)別。SON G等人[6]用AlexNet 作為基礎(chǔ)架構(gòu),訓(xùn)練了火災(zāi)分類模型。WU H 等人[7]分別訓(xùn)練了區(qū)域檢測網(wǎng)絡(luò)和區(qū)域分類網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)火災(zāi)的判定。上述方法都直接在原始圖片上使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,這樣大量的無關(guān)特征也將被傳入全連接網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使得分類性能不佳。

    通常,火焰只占據(jù)圖像的一部分,可首先提取火焰疑似區(qū)域,再將疑似區(qū)域傳入深度學(xué)習(xí)模型進(jìn)行特征提取和精確識(shí)別。通過結(jié)合傳統(tǒng)方法和深度學(xué)習(xí)算法的優(yōu)點(diǎn),提出一種基于深度學(xué)習(xí)的視頻火焰識(shí)別方法。

    本文的主要工作如下:

    (1)利用改進(jìn)的五幀差法和自適應(yīng)混合高斯混合建模法(Adaptive Gaussian Mixture Model,AGMM)進(jìn)行運(yùn)動(dòng)目標(biāo)提取,并結(jié)合RGB-HSV 混合顏色空間模型,提取疑似火焰區(qū)域。

    (2)制作火與類火數(shù)據(jù)集,訓(xùn)練AlexNet 卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)疑似火焰區(qū)域進(jìn)行精確識(shí)別。

    (3)在實(shí)際數(shù)據(jù)上進(jìn)行測試,并與文獻(xiàn)中其他算法進(jìn)行對(duì)比,以評(píng)價(jià)算法的召回率、準(zhǔn)確率和誤報(bào)率。

    1 火焰運(yùn)動(dòng)目標(biāo)提取

    運(yùn)動(dòng)目標(biāo)檢測即對(duì)視頻序列中的運(yùn)動(dòng)目標(biāo)進(jìn)行分割,其過程既要克服陰影、動(dòng)態(tài)背景、光照等外界環(huán)境造成的干擾,保證檢測結(jié)果的完整性,又要保證算法的時(shí)效性。目前幀間差分法[8]、背景差分法[9]、光流法[10]是運(yùn)動(dòng)目標(biāo)檢測的常用算法。對(duì)于火焰運(yùn)動(dòng)目標(biāo)的檢測,戴靜等人[11]使用累計(jì)差分法;MEI Z 等人[4]使用幀間差分法;WU H 等人[7]用高斯混合建模法;劉敏杰[12]使用ViBe 法;熊昊等人[13]、XUAN T T 等人[14]均使用自適應(yīng)高斯混合建模法。

    1.1 改進(jìn)的五幀差法

    兩幀差分法通過計(jì)算相鄰圖像幀之間的差異度,達(dá)到獲取運(yùn)動(dòng)目標(biāo)的目的。兩幀差分法通常會(huì)導(dǎo)致:(1)當(dāng)場景過于復(fù)雜、物體運(yùn)動(dòng)緩慢時(shí),相鄰圖像幀中重疊區(qū)域大,像素值未發(fā)生明顯變化,將導(dǎo)致空洞現(xiàn)象;(2)在物體運(yùn)動(dòng)過快、背景存在噪聲時(shí),由于同一區(qū)域的像素值發(fā)生較大改變,將導(dǎo)致邊緣信息的缺失以及重影現(xiàn)象。改進(jìn)五幀差法可在一定程度上克服這些缺陷。

    首先從視頻序列中讀取連續(xù)的5 幀圖像fk-2(x,y)、fk-1(x,y)、fk(x,y)、fk+1(x,y)、fk+2(x,y),然后中間幀fk(x,y)依次與另外4 幀進(jìn)行絕對(duì)值差分,并通過閾值T 分割成二值圖像。其公式見(1)~(5):

    對(duì)dk-2,dk-1,dk+1,dk+2進(jìn)行邏輯“與”運(yùn)算得到運(yùn)動(dòng)目標(biāo)Dk:

    當(dāng)Dk=1 時(shí),為前景像素;當(dāng)Dk=0 時(shí),為背景像素。

    1.2 自適應(yīng)高斯混合建模法

    背景差分法中的單高斯建模法,對(duì)圖像中的每個(gè)像素的像素值分布情況都采用一個(gè)高斯模型來描述??梢詫?duì)背景簡單的場景進(jìn)行建模,但對(duì)于復(fù)雜場景,單一模態(tài)的高斯分布無法有效地描述數(shù)據(jù)?;旌细咚鼓P褪褂霉潭ǖ腒(K=3~5)個(gè)高斯分布來對(duì)圖像中的每個(gè)像素的像素值分布情況進(jìn)行描述,能夠?qū)?fù)雜的動(dòng)態(tài)背景進(jìn)行建模。

    在實(shí)際背景中,各個(gè)像素的模態(tài)分布數(shù)目并非都相等,較穩(wěn)定的區(qū)域可能是單模態(tài),用一個(gè)高斯分量即可建模,較繁忙的區(qū)域則需要多個(gè)高斯分量來建模。為了減少冗余的高斯分布以降低計(jì)算量,自適應(yīng)高斯混合模型[15]自動(dòng)為每個(gè)像素選擇一個(gè)合適數(shù)目的高斯分布,使K 值動(dòng)態(tài)地適應(yīng)每個(gè)像素,使對(duì)光照等外界環(huán)境發(fā)生變化引起的場景改變產(chǎn)生更好的適應(yīng)性,提高了算法的實(shí)時(shí)性和魯棒性。

    本文結(jié)合五幀差法實(shí)時(shí)性好和自適應(yīng)混合高斯建模法檢測效果完整的特點(diǎn),對(duì)兩者的檢測結(jié)果進(jìn)行“或”運(yùn)算,以提取完整的運(yùn)動(dòng)目標(biāo),其檢測流程如圖1 所示。

    圖1 運(yùn)動(dòng)目標(biāo)檢測流程

    1.3 運(yùn)動(dòng)目標(biāo)檢測算法對(duì)比分析

    在運(yùn)行環(huán)境為Windows 10,Inter?CoreTMi7 3.60 GHz和RAM 4 GB 下,從檢測效果和耗時(shí)情況兩方面對(duì)運(yùn)動(dòng)目標(biāo)檢測算法進(jìn)行了對(duì)比試驗(yàn),結(jié)果如表1 和圖2 所示。

    表1 運(yùn)動(dòng)目標(biāo)檢測算法耗時(shí)對(duì)比

    圖2 運(yùn)動(dòng)目標(biāo)檢測結(jié)果對(duì)比

    驗(yàn)證結(jié)果表明相鄰幀差法雖運(yùn)算速度最快,但由于其僅僅依靠前后兩幀的差分圖像實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)提取,常常有空洞形成,適應(yīng)性較差;光流法計(jì)算量大,運(yùn)算速度慢,且提取出的運(yùn)動(dòng)目標(biāo)也不夠完整;ViBe 法雖提取目標(biāo)完整,但其太過耗時(shí),達(dá)不到實(shí)時(shí)檢測火焰的要求;傳統(tǒng)高斯混合建模法,提取目標(biāo)相對(duì)完整,但無論其檢測效果還是運(yùn)算速度都比不上本文所提出的算法;可以看出本文算法雖在速度上比相鄰幀差法稍慢,但其檢測效果最為完整,兼具了實(shí)時(shí)性和檢測效果。

    2 火焰顏色特征分析

    火焰的顏色信息是提取疑似火焰區(qū)域的關(guān)鍵特征,可將其與其他物體區(qū)分開來。常用于檢測火焰的顏色空間包括RGB、YUV、YCbCr、HSI、HSV 及其不同組合,如YUV-RGB、YCbCr-RGB、RGB-HSI、RGB-HSV-YCbCr 等。本文通過研究這些方法,提出一種RGB-HSV 混合顏色空間模型的火焰像素判斷方法。

    2.1 RGB 顏色空間火焰像素分析

    在眾多顏色空間中,RGB 顏色空間最為常用。Celike[16]統(tǒng)計(jì)了大量火焰圖像,發(fā)現(xiàn)火焰像素R 通道的值最大,G 通道的值次之,B 通道的值最??;并且G/(R+1)、B/(R+1)和B/(G+1)的值具有一定的分布范圍。得出了火焰像素在RGB 顏色空間判定規(guī)則,見式(6)~(9):

    式中,TR1、TR2、TR3、TR4、TR5、TR6是確定火焰像素的分割閾值,Celike 論文中,TR1=0.25、TR2=0.65、TR3=0.05、TR4=0.45、TR5=0.2、TR6=0.6。

    本文在Celike 所做工作基礎(chǔ)上,確定適合本文的分割閾值。在原始火焰圖片上進(jìn)行人工分割,得到100 張分割后,以占據(jù)圖像90%以上的火焰圖像作為統(tǒng)計(jì)樣本,部分火焰圖像如圖3 所示。

    圖3 人工分割火焰圖像示例

    對(duì)100 張火焰像素圖像,分別提取R、G、B 通道分量,進(jìn)行統(tǒng)計(jì)分析。圖4(a)中,橫坐標(biāo)取像素點(diǎn)G通道值,縱坐標(biāo)分別取R、G、B 通道值,得散點(diǎn)圖。可以觀察到,紅色點(diǎn)分布在綠色點(diǎn)的上方,藍(lán)色點(diǎn)則在其下方,表明對(duì)于火焰像素而言滿足R>G>B的規(guī)律。由圖4(b),發(fā)現(xiàn)G/(R+1)、B/(R+1)和B/(G+1)的值的確具有一定的分布范圍,容易得出在本文TR1=0.2、TR2=0.8、TR3=0.05、TR4=0.5、TR5=0.1、TR6=0.6為最佳的分割閾值,用fireRGB(i,j,n)表示由RGB 顏色空間判斷出的疑似火焰區(qū)域。

    圖4 RGB 顏色空間火焰像素分布

    2.2 HSV 顏色空間火焰像素分析

    與RGB 相比,HSV 用色相、飽和度和亮度來描述色彩空間,更符合人類視覺系統(tǒng)的色彩感應(yīng)特性。對(duì)100 張火焰像素圖片在HSV 顏色空間上進(jìn)行統(tǒng)計(jì)分析,得出火焰的HSV 空間像素分布(圖5)。

    據(jù)圖5,建立約束條件式(10)~(12)用以識(shí)別火焰。

    圖5 HSV 顏色空間火焰像素分布

    其中,H、S、V 分別為HSV 顏色空間的三個(gè)通道值。用fireHSV(i,j,n)來表示在HSV 顏色空間判斷的疑似火焰區(qū)域。

    2.3 RGB-HSV 混合顏色空間判斷模型

    單獨(dú)使用RGB 或HSV 顏色空間來檢測火焰,都不能完整地提取出火焰像素。為更完整地檢測出可能的火焰像素,將RGB 和HSV 顏色空間檢測得到的疑似火焰像素區(qū)域進(jìn)行“或”運(yùn)算(即式(13)),作為由顏色判斷的疑似火焰區(qū)域的最終結(jié)果,用fireRGB∪HSV表示。

    3 結(jié)合運(yùn)動(dòng)特征和顏色信息的疑似區(qū)域提取

    視頻火焰中,由于其他運(yùn)動(dòng)物體或類火靜態(tài)物體(燈光、消防栓等) 的干擾,使得單獨(dú)使用運(yùn)動(dòng)檢測或 RGB -HSV 混合顏色空間模型檢測,都會(huì)導(dǎo)致提取疑似火焰區(qū)域的高誤報(bào)率。為充分利用火焰的運(yùn)動(dòng)特征和顏色信息,本文將運(yùn)動(dòng)檢測與RGB-HSV 混合顏色空間模型檢測的結(jié)果進(jìn)行“ 與” 運(yùn)算(式(14)),以獲得準(zhǔn)確的疑似火焰區(qū)域。

    式中Motionfb5∪AGMM表示結(jié)合自適應(yīng)高斯混合建模法和改進(jìn)的五幀差法提取的運(yùn)動(dòng)區(qū)域;fireRGB∪HSV表示由RGB-HSV 混合顏色空間模型判斷的火焰像素區(qū)域;fireregion表示最終提取的疑似火焰區(qū)域。

    圖6 疑似火焰區(qū)域提取

    疑似火焰區(qū)域的提取流程如圖6 所示。其中(a)是原始視頻流;(b)為RGB 顏色空間提取的火焰像素區(qū)域;(c)為HSV 顏色空間提取的火焰像素區(qū)域;(d)是(b)與(c)的并集,表示由RGB-HSV 模型提取的火焰像素區(qū)域;(e)為改進(jìn)的五幀差法提取的運(yùn)動(dòng)區(qū)域;(f)是為自適應(yīng)高斯混合建模提取的運(yùn)動(dòng)區(qū)域;(g)是(e)與(f)的并集,表示提取的運(yùn)動(dòng)區(qū)域;(h)是(d)與(g)的交集,表示最終提取的疑似火焰區(qū)域;(i)為對(duì)(h)進(jìn)行形態(tài)學(xué)操作后的結(jié)果,形態(tài)學(xué)操作的目的是去除圖像中的小型黑洞,彌合裂縫,并將兩個(gè)不連通區(qū)域形成連通區(qū)域,以便能更完整地提取出疑似火焰區(qū)域;(j)與(k)表示從原始視頻流中提取的疑似火焰區(qū)域圖像。

    4 基于深度學(xué)習(xí)的火焰識(shí)別

    雖然提取的疑似火焰區(qū)域排除了類似火焰的靜態(tài)物體的干擾,但仍可能會(huì)有類似火焰的運(yùn)動(dòng)物體的干擾,如黃色安全帽、移動(dòng)燈光等。針對(duì)這類干擾,本文利用深度學(xué)習(xí)算法對(duì)疑似火焰區(qū)域進(jìn)行精確識(shí)別。

    卷積神經(jīng)網(wǎng)絡(luò)因具有局部感知、權(quán)值共享和多特征圖的特殊結(jié)構(gòu),在語音識(shí)別和圖像處理方面有著獨(dú)特的優(yōu)越性。1998 年,Yan LeCun 設(shè)計(jì)了第一個(gè)卷積神經(jīng)網(wǎng)絡(luò)模型LeNet5[17],并應(yīng)用于銀行支票手寫字體的識(shí)別。此后AlexNet[18]、GoogLeNet[19]、ResNet[20]等模型也相繼大獲成功。AlexNet 的出現(xiàn)更是標(biāo)志著神經(jīng)網(wǎng)絡(luò)的復(fù)蘇和深度學(xué)習(xí)的崛起。

    4.1 AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)分析

    人在認(rèn)知圖像時(shí)是分層抽象的,先理解顏色和亮度,然后是邊緣、角點(diǎn)、直線等局部細(xì)節(jié)特征,再是紋理、幾何形狀等更復(fù)雜的信息和結(jié)構(gòu),最后形成整個(gè)物體的概念。卷積神經(jīng)網(wǎng)絡(luò)模型可視為是上述機(jī)制的簡單模仿,可以對(duì)輸入圖片自動(dòng)進(jìn)行特征提取和學(xué)習(xí),不需要額外的特征設(shè)計(jì)和提取工程。卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)一般包括輸入層、隱含層和輸出層。其中隱含層通常包含卷積層、池化層、激勵(lì)層和全連接層。AlexNet 原本網(wǎng)絡(luò),末端的全連接層會(huì)產(chǎn)生1 000 類標(biāo)簽的分布。本文只需對(duì)火與非火進(jìn)行二分類,因此將對(duì)AlexNet 原本的最末層進(jìn)行修改,使其產(chǎn)生火與非火的2 維輸出(圖7)。

    AlexNet 網(wǎng)絡(luò)詳細(xì)的網(wǎng)格參數(shù)如表2 所示。其參數(shù)達(dá)到了5 687 萬,對(duì)于具有如此龐大參數(shù)的卷積神經(jīng)網(wǎng)絡(luò),需要大量的數(shù)據(jù)對(duì)其進(jìn)行訓(xùn)練,并且數(shù)據(jù)集質(zhì)量的好壞尤為重要。

    4.2 數(shù)據(jù)集

    圖7 AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)

    表2 AlexNet 詳細(xì)參數(shù)表

    數(shù)據(jù)集質(zhì)量的好壞將直接決定模型的識(shí)別效果,本文數(shù)據(jù)集源于互聯(lián)網(wǎng)和課題組拍攝。因火焰像素通常將占據(jù)疑似區(qū)域大部分面積,為更好地對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,從原始火焰圖片中截取了1 000 張火焰像素占據(jù)大部分面積的火焰圖片和1 000 張疑似火焰圖片。對(duì)2 000 張圖片進(jìn)行隨機(jī)劃分,其800 張火焰圖片和800 張疑似火焰圖片組成訓(xùn)練集;其余200 張火焰圖片和200 張疑似火焰圖片為測試集。兩類樣本數(shù)量比例達(dá)到1:1 平衡,且訓(xùn)練集與測試集數(shù)量滿足4:1 的比例,其部分圖片如圖8 所示,其中圖(a)為火圖片,圖(b)為類火圖片。

    圖8 火與類火數(shù)據(jù)集示例

    4.3 評(píng)價(jià)指標(biāo)

    對(duì)于分類任務(wù),常使用準(zhǔn)確率(ACCR)、召回率(Recall)和誤報(bào)率(FAR)來評(píng)價(jià),其定義如式(15)~(17)。

    其中FN 為假負(fù),代表預(yù)測為負(fù)實(shí)際為正;FP 為假正,代表預(yù)測為正實(shí)際為負(fù);TN 為真負(fù),代表預(yù)測為負(fù)實(shí)際也為負(fù);TP 為真正,代表預(yù)測為正實(shí)際也為正。

    準(zhǔn)確率,反映模型準(zhǔn)確預(yù)測火與非火的能力;召回率,反映模型檢測出火焰的能力;誤報(bào)率,反映模型的誤報(bào)概率。對(duì)于一個(gè)好的分類模型,需要有較高的準(zhǔn)確率、召回率和較低的誤報(bào)率。

    4.4 訓(xùn)練AlexNet 模型

    采用基于Python 語言的pytorch 深度學(xué)習(xí)框架搭建AlexNet 卷積神經(jīng)網(wǎng)絡(luò),并在實(shí)驗(yàn)環(huán)境Ubantu18.04、GTX1660 顯卡上進(jìn)行訓(xùn)練。網(wǎng)絡(luò)訓(xùn)練的batch 設(shè)置為32,學(xué)習(xí)率設(shè)置為0.001,drop 比例設(shè)置為0.5。對(duì)訓(xùn)練數(shù)據(jù)集進(jìn)行了500 次迭代訓(xùn)練,其損失變化和測試精度變化如圖9 所示,訓(xùn)練損失從1.06 下降到了0.000 16,測試精度從0.5 上升到了0.975,表明模型已經(jīng)具有較高的識(shí)別率,可應(yīng)用于疑似火焰區(qū)域的精確識(shí)別。

    圖9 AlexNet 訓(xùn)練損失與測試精度

    5 算法測試與對(duì)比結(jié)果分析

    5.1 基于深度學(xué)習(xí)的火焰識(shí)別

    疑似火焰區(qū)域?qū)魅胗?xùn)練好的AlexNet 模型進(jìn)行前向推理。對(duì)于識(shí)別為火焰的區(qū)域,用紅色方框標(biāo)出,并對(duì)其標(biāo)注為fire,對(duì)識(shí)別為非火焰的區(qū)域,用亮綠色方框標(biāo)出,并對(duì)其標(biāo)注為non-fire,如圖10所示。

    為驗(yàn)證算法的可靠性,將對(duì)來自Bilkent 大學(xué)火災(zāi)視頻庫(http://signal.ee.bilkent.edu.tr/VisiFire/index.html)的5 個(gè)火焰視頻進(jìn)行測試,如圖11 所示。測試結(jié)果見表3,本文算法對(duì)各種場景的火焰識(shí)別都具有較好的檢測結(jié)果,能完整地提取出火焰區(qū)域,平均召回率達(dá)到97.03%,準(zhǔn)確率達(dá)到97.56%,誤報(bào)率只有0.022%。表明所提出的算法能夠排除著黃色衣服的移動(dòng)人物、顏色相近的樹干、光照等的干擾,穩(wěn)定地檢測出各種場景中的火焰。

    圖10 火焰疑似區(qū)域識(shí)別流程

    圖11 測試視頻

    5.2 算法對(duì)比

    為進(jìn)一步驗(yàn)證本文算法的先進(jìn)性,將識(shí)別結(jié)果與文獻(xiàn)[13]、文獻(xiàn)[5]、文獻(xiàn)[6]所述三種算法進(jìn)行比較。其中,文獻(xiàn)[13]利用自適應(yīng)混合高斯建模法獲得運(yùn)動(dòng)目標(biāo),并結(jié)合火焰顏色模型分離出火焰疑似區(qū)域,再人工提取疑似區(qū)域的特征,利用預(yù)訓(xùn)練的支持向量機(jī)完成火焰的識(shí)別[13]。文獻(xiàn)[5]直接在原始圖片上使用9 層網(wǎng)絡(luò)結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行火災(zāi)的識(shí)別。文獻(xiàn)[6]用AlexNet 作為基礎(chǔ)架構(gòu)直接提取原始視頻幀的特征,訓(xùn)練了火災(zāi)分類模型。比較結(jié)果如表4 所示。

    表3 火焰視頻測試結(jié)果

    表4 火焰視頻測試結(jié)果

    通過對(duì)比,本文所提出的算法具有更高的召回率、準(zhǔn)確率和較低誤報(bào)率。

    6 結(jié)論

    通過結(jié)合火焰的運(yùn)動(dòng)特征和顏色信息提取出疑似火焰區(qū)域,并利用卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力,對(duì)疑似火焰區(qū)域進(jìn)行精確識(shí)別,使得本文算法能排除疑似火焰物體的干擾可靠地檢測出各種場景下的火焰。但通?;馂?zāi)發(fā)生時(shí)會(huì)產(chǎn)生火焰和煙霧,本文算法只針對(duì)火焰進(jìn)行檢測。煙為火始,為更早地檢測出火災(zāi)的發(fā)生,對(duì)煙霧的檢測至關(guān)重要,因此后續(xù)工作將對(duì)煙霧檢測進(jìn)行研究,實(shí)現(xiàn)對(duì)火災(zāi)更及時(shí)有效的檢測。

    猜你喜歡
    火焰像素卷積
    趙運(yùn)哲作品
    藝術(shù)家(2023年8期)2023-11-02 02:05:28
    《火焰》
    像素前線之“幻影”2000
    最亮的火焰
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    “像素”仙人掌
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    漂在水上的火焰
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    吹不滅的火焰
    學(xué)與玩(2017年6期)2017-02-16 07:07:22
    德兴市| 庄河市| 遂平县| 屯留县| 抚顺市| 久治县| 涡阳县| 汕头市| 滨海县| 高平市| 方正县| 东宁县| 巧家县| 甘洛县| 淮南市| 安图县| 临泽县| 通河县| 江都市| 视频| 修武县| 玛纳斯县| 利津县| 和平区| 南溪县| 和顺县| 景泰县| 清河县| 洛宁县| 盐亭县| 桓仁| 大厂| 罗城| 紫阳县| 嘉鱼县| 雷州市| 绥中县| 浪卡子县| 塔河县| 江源县| 察雅县|