摘 要:針對傳統(tǒng)視頻監(jiān)控系統(tǒng)在效率和智能化方面的不足,本文設(shè)計了一種基于嵌入式技術(shù)的智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)。該系統(tǒng)利用嵌入式ARM平臺,采用深度學(xué)習(xí)算法,引入深度可分離中心差分卷積網(wǎng)絡(luò)(DS-CDCNN),以提升視頻識別能力。通過試驗驗證,該系統(tǒng)在視頻傳輸方面的平均延遲為43 ms,帶寬利用率約為30%,傳輸穩(wěn)定性為98%。在識別任務(wù)中,DS-CDCNN算法的人臉識別準(zhǔn)確率為98.8%,車牌識別準(zhǔn)確率為99.6%。為智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的發(fā)展提供了新思路,可廣泛應(yīng)用于公共安全與智慧城市建設(shè)領(lǐng)域。
關(guān)鍵詞:嵌入式技術(shù);遠(yuǎn)程視頻監(jiān)控;智能識別;深度學(xué)習(xí)
中國分類號:TP 39" " " " " " 文獻(xiàn)標(biāo)志碼:A
隨著社會經(jīng)濟(jì)發(fā)展和科技進(jìn)步,視頻監(jiān)控系統(tǒng)廣泛應(yīng)用于公共安全、交通和工業(yè)等領(lǐng)域。與傳統(tǒng)依賴人工的視頻監(jiān)控系統(tǒng)相比,新型系統(tǒng)對監(jiān)測效率與實時性提出了更高要求。物聯(lián)網(wǎng)與人工智能技術(shù)的興起,使智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的研究越來越受到重視[1]。嵌入式技術(shù)以其能耗低、集成度和可靠性高的優(yōu)勢,結(jié)合深度學(xué)習(xí)在圖像和視頻分析領(lǐng)域的進(jìn)展,為監(jiān)控系統(tǒng)智能化開辟了新路徑。設(shè)計融合嵌入式技術(shù)與深度學(xué)習(xí)的多功能智能監(jiān)控系統(tǒng)仍面臨挑戰(zhàn)[2]。針對這個問題,本文提出了一種新型智能遠(yuǎn)程視頻監(jiān)控系統(tǒng),該系統(tǒng)融合了嵌入式技術(shù),并對其架構(gòu)設(shè)計、硬件選型、軟件開發(fā)以及智能識別算法進(jìn)行了深入研究。試驗結(jié)果表明,所設(shè)計的系統(tǒng)性能更強,效果更佳,為智能視頻監(jiān)控領(lǐng)域的發(fā)展提供了技術(shù)支持。
1 智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的設(shè)計
1.1 系統(tǒng)整體架構(gòu)設(shè)計
在設(shè)計遠(yuǎn)程智能視頻監(jiān)控系統(tǒng)的過程中,主要模塊包括攝像模塊、視頻傳輸模塊、存儲模塊和顯示模塊等。系統(tǒng)具備遠(yuǎn)程查看與控制功能,用戶可通過監(jiān)控中心或移動終端對目標(biāo)區(qū)域進(jìn)行實時監(jiān)控,并發(fā)送遠(yuǎn)程指令。系統(tǒng)融合了先進(jìn)的視頻分析技術(shù)和智能算法,能夠執(zhí)行移動物體檢測、面部識別、車牌識別等智能分析任務(wù),提升了監(jiān)控的實時性與準(zhǔn)確性。系統(tǒng)整體架構(gòu)設(shè)計如圖1所示。
系統(tǒng)基于ARM架構(gòu)和Linux操作系統(tǒng),采用高清攝像頭實時采集視頻數(shù)據(jù),并使用JPEG壓縮算法進(jìn)行處理。處理后的視頻數(shù)據(jù)依據(jù)TCP/IP協(xié)議傳輸至遠(yuǎn)程監(jiān)控終端,實現(xiàn)實時監(jiān)控。系統(tǒng)硬件由ARM主控板、網(wǎng)卡和攝像頭組成,軟件在嵌入式Linux平臺上運行。系統(tǒng)集成了驅(qū)動程序以及用于圖像捕獲、壓縮和網(wǎng)絡(luò)傳輸?shù)膽?yīng)用模塊,保證各組件協(xié)同工作[3]。
1.2 系統(tǒng)軟硬件設(shè)計
樹莓派4B作為系統(tǒng)的嵌入式平臺,采用羅技(Logitech)C920 Pro HD(USB接口)高清監(jiān)控攝像頭進(jìn)行視頻捕獲。為實現(xiàn)無線數(shù)據(jù)傳輸,系統(tǒng)配備了TP-Link TL-WN725N USB無線網(wǎng)卡。同時,選用希捷2 TB硬盤(型號ST2000DM008)以滿足監(jiān)控系統(tǒng)對大容量存儲及快速數(shù)據(jù)讀寫性能的需求。軟件體系結(jié)構(gòu)分為基礎(chǔ)系統(tǒng)軟件與上層應(yīng)用軟件2類,系統(tǒng)軟件架構(gòu)如圖2所示。
1.3 系統(tǒng)開發(fā)平臺搭建
由于LogitechC920 Pro HD相機只有USB接口,與CSI接口不同,USB接口不能進(jìn)行資料傳輸,因此系統(tǒng)主要利用網(wǎng)絡(luò)作為視頻數(shù)據(jù)傳輸至遠(yuǎn)程終端的通道。為提升數(shù)據(jù)傳輸效率,系統(tǒng)采用TCP/IP協(xié)議棧,并在樹莓派4B平臺中利用Python語言結(jié)合socket庫進(jìn)行數(shù)據(jù)的高效傳輸。在操作系統(tǒng)移植方面,針對樹莓派4B搭建了樹莓派OS,該系統(tǒng)基于Debian的Linux版本,須進(jìn)行適當(dāng)調(diào)整以適應(yīng)硬件配置需求。系統(tǒng)遷移過程主要包括3個核心階段:首先是引導(dǎo)加載程序的定制化適配,其次是系統(tǒng)內(nèi)核的移植,最后是根文件系統(tǒng)的配置。攝像頭驅(qū)動程序基于Linux內(nèi)核支持的V4L2(Video for Linux 2)接口架構(gòu)進(jìn)行開發(fā)。系統(tǒng)還利用OpenCV庫實現(xiàn)了運動物體的檢測功能。智能算法遠(yuǎn)程視頻監(jiān)控系統(tǒng)的硬件邏輯結(jié)構(gòu)如圖3所示。
1.4 智能圖像識別算法設(shè)計
為提高視頻監(jiān)控系統(tǒng)的準(zhǔn)確性和操作效率,本文采用深度學(xué)習(xí)技術(shù)進(jìn)行圖像識別與分析,包括人臉識別和車牌識別。在此基礎(chǔ)上,本文對中心差分卷積網(wǎng)絡(luò)(Central Difference Convolutional Neural Network,CDCNN)進(jìn)行了深度優(yōu)化,設(shè)計了一種深度可分離的中心差分卷積神經(jīng)網(wǎng)絡(luò)算法,簡稱DS-CDCNN[4]。其結(jié)構(gòu)如圖4所示。
采用DS-CDCNN算法在硬件方面進(jìn)行高效部署,能夠減少參數(shù)量,降低計算復(fù)雜度,保證識別性能不受影響。DS-CDCNN由深度可分離中心差分卷積(DS-CDC)層和CDC_Block模塊組成。DS-CDC層由3*3的深度中心差分卷積和1*1的點卷積組成。2個DS-CDC層堆疊成CDC_Block,分別負(fù)責(zé)通道數(shù)的擴展和特征的精細(xì)化處理。精細(xì)化特征的計算過程如公式(1)所示。
F'i=Fi⊙(σ(Ci([A(Fi),M(Fi)]))),i∈{low,mid,high} (1)
式中:F'i為經(jīng)過精細(xì)化的特征;Fi為來自多個層次的特征;σ為Sigmoid函數(shù);Ci為卷積操作;A(Fi)為對Fi進(jìn)行平均池化操作。平均池化是一種下采樣操作,對特征圖的局部區(qū)域取平均值來減少其尺寸;M(Fi)為對特征Fi進(jìn)行最大池化操作,最大池化也是一種下采樣操作,對特征圖的局部區(qū)域取最大值來減少其尺寸;Ci([A(Fi), M(Fi)])為將 A(Fi)和 M(Fi) 的結(jié)果進(jìn)行拼接,并使用一個卷積層C進(jìn)行處理。
第一個DS-CDC層將通道數(shù)翻倍,同時保持特征圖尺寸不變;第二個DS-CDC層將通道數(shù)減半,特征圖尺寸依然保持不變。3個不同級別的CDC_Block分別用于捕獲低層次、中層次和高層次的特征信息。每個CDC_Block均采用最大池化技術(shù),以減少模型的參數(shù)量。隨后,將這3層特征輸入多尺度通道注意力融合模塊(Multiscale Adaptive Correlation Filter,MACF)中,進(jìn)行特征整合與融合處理。各通道特征的計算過程如公式(2)所示。
FSE=ωn?fc " " " " " " " " " " " " " (2)
式中:FSE為每個獨立信道的特性;ωn為特征的加權(quán);fc為特征的位置。
對圖像進(jìn)行像素級別監(jiān)督,均方誤差計算過程如公式(3)所示。
(3)
式中:LMSE為均方誤差損耗函數(shù);H'、W'分別為二進(jìn)制掩模的高度、寬度;H、W分別為原始圖像的高度(Height)和寬度(Width);Bpre(i,j)為預(yù)測的灰度掩模Bpre在位置(i,j)處的像素值;Bgt(i,j)為處理后的二值目標(biāo)掩模Bgt在位置(i,j)的像素值。
經(jīng)過2個DS-CDC層的通道縮減后,輸出一個32 ppi×32 ppi的單通道深度預(yù)測圖。在深度損失引導(dǎo)的訓(xùn)練過程中,將該圖的像素值標(biāo)準(zhǔn)化至0~1。將預(yù)測的Depth Map與調(diào)整尺寸后的輸入圖像進(jìn)行對比,深度損失計算過程如公式(4)所示。
(4)
式中:LCDL為對比度損耗項;N為全局卷積的個數(shù),那么第n個卷積記為KnCDL。改進(jìn)后的DS-CDCNN算法采用多層次特征提取和多通道注意力融合,提高了人臉與牌照的識別性能。
2 智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的實際應(yīng)用研究
2.1 系統(tǒng)功能驗證與測試評估
本文設(shè)計的系統(tǒng)設(shè)置了LogitechC920 Pro高清攝像頭、監(jiān)控終端和服務(wù)器作為主要硬件設(shè)備。攝像頭采集視頻數(shù)據(jù)并通過網(wǎng)絡(luò)傳輸至服務(wù)器。服務(wù)器處理這些數(shù)據(jù)并進(jìn)行智能分析[5],對內(nèi)容進(jìn)行實時監(jiān)測。
對系統(tǒng)采集與存儲性能進(jìn)行測試后,結(jié)果顯示,硬件設(shè)備加載成功率以及軟件應(yīng)用加載成功率均gt;90%。硬件與軟件在無線網(wǎng)絡(luò)和存儲介質(zhì)方面的加載穩(wěn)定性和成功率較高,客戶端軟件加載速度快,性能更高。
視頻傳輸性能測試數(shù)據(jù)顯示,無論日間還是夜間模式,傳輸延遲均維持在0 ms~100 ms,日間平均延遲約為43 ms,夜間平均延遲約為37 ms。說明系統(tǒng)傳輸延遲極低,能夠保持監(jiān)控的連續(xù)性。在帶寬占用方面,日間與夜間的視頻傳輸帶寬占用率均低于45%,平均帶寬利用率分別為30%和29%。系統(tǒng)穩(wěn)定性測試結(jié)果表明,日間和夜間的視頻傳輸穩(wěn)定性均gt;90%,平均穩(wěn)定性為98%和97%。綜上所述,該系統(tǒng)監(jiān)控效率高,性能穩(wěn)定。
為評估DS-CDCNN算法在監(jiān)控識別方面的性能,本文選取卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)與C
DCNN算法進(jìn)行對比,不同算法的識別效果見表1。
由表1可知,在人臉及車牌識別測試任務(wù)中,DS-CDCNN算法的各個方面均優(yōu)于CNN和CDCNN算法。在人臉識別試驗中,DS-CDCNN算法的準(zhǔn)確率為98.8%,召回率為98.9%,F(xiàn)1-score為99.5%,與其他算法相比明顯提高。在汽車牌照識別方面,準(zhǔn)確率為99.6%,召回率為99.8%,F(xiàn)1-score為99.4%。
2.2 智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的應(yīng)用效果評估
為了驗證系統(tǒng)的可行性,本文選擇了10位自愿參加評估的小規(guī)模用戶對系統(tǒng)進(jìn)行測試。系統(tǒng)主要分布在室內(nèi)、電梯、室外日間以及夜間停車區(qū)等監(jiān)控場景,用戶能夠利用系統(tǒng)實時監(jiān)控各區(qū)域,以提升監(jiān)控效率與安全性。智能遠(yuǎn)程視頻監(jiān)控統(tǒng)性能對比見表2。
由表2可知,升級后的監(jiān)控系統(tǒng)的視頻監(jiān)控范圍覆蓋率為99%,與以前相比提升了19%。同時,監(jiān)控圖像的品質(zhì)、異常識別的準(zhǔn)確度以及整個系統(tǒng)的穩(wěn)定性分別為97%、100%和99%,比原有系統(tǒng)性能更高。這些關(guān)鍵性能指標(biāo)明顯提升,說明本文開發(fā)的智能遠(yuǎn)程監(jiān)控系統(tǒng)能夠精確捕捉異常行為,擴大了監(jiān)控范圍,提高了圖像清晰度和系統(tǒng)可靠性,增強了應(yīng)用效果,提升了市場價值。
3 結(jié)語
本文利用樹莓派4B硬件平臺和嵌入式Linux軟件系統(tǒng),采用DS-CDCNN算法,設(shè)計了高效、穩(wěn)定的視頻監(jiān)控解決方案。試驗結(jié)果表明,本文系統(tǒng)在視頻傳輸延遲(平均43 ms)、帶寬占用(平均30%)和傳輸穩(wěn)定性(平均98%)等方面表現(xiàn)優(yōu)異。在人臉識別以及車牌識別測試任務(wù)中,DS-CDCNN算法的F1-score值分別為99.5%和99.4%,比使用傳統(tǒng)方法效果更好。在實際應(yīng)用中,系統(tǒng)的視頻監(jiān)控覆蓋率、質(zhì)量和異常檢測準(zhǔn)確率等指標(biāo)分別提升了19%、11%和10%。本文方案能夠為智能遠(yuǎn)程視頻監(jiān)控系統(tǒng)的發(fā)展提供新的思路,期望在公共安全、智慧城市等領(lǐng)域發(fā)揮重要作用。
參考文獻(xiàn)
[1]李子昌,李智,管四海.自動裝載與視頻監(jiān)控遠(yuǎn)程控制系統(tǒng)[J].微型機與應(yīng)用,2017,36(1):1-3.
[2]孫啟昌.基于ARM與5G通信網(wǎng)絡(luò)汽車監(jiān)控系統(tǒng)的設(shè)計與實現(xiàn)[J].自動化與儀器儀表,2021(10):93-96,100.
[3]皮志松,韓磊.基于海思平臺的音視頻采集和編碼的實現(xiàn)[J].電視技術(shù),2020,44(9):21-23.
[4]范秀鵬.基于嵌入式的全景雙攝監(jiān)控系統(tǒng)研究[D].天津:天津科技大學(xué),2020.
[5]龔琴.基于物聯(lián)網(wǎng)的溫室大棚智能監(jiān)控系統(tǒng)在農(nóng)業(yè)中的應(yīng)用[J].電腦與信息技術(shù),2022,30(1):53-56.
通信作者:李暢(1983—),女,河南洛陽人,本科,初級工程師,研究方向為嵌入式傳感器接口設(shè)計。
電子郵箱:43191997@qq.com。