• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進(jìn) YOLOv8的電梯內(nèi)電動車識別方法研究

    2024-08-28 00:00:00路成龍馮月貴慶光蔚
    機(jī)械制造與自動化 2024年4期

    摘 要:針對電梯內(nèi)電動車識別存在效率低下、精度不佳的問題,提出一種結(jié)合AUGMIX圖像增強(qiáng)技術(shù)和改進(jìn)YOLOv8模型的電動車識別方法。將變形卷積層和動態(tài)稀疏注意力機(jī)制融入YOLOv8,識別更精確和高效。實(shí)驗(yàn)結(jié)果表明:改進(jìn)后算法模型的精確率、召回率和平均精度均值分別達(dá)到了94.5%、93%和82.4%,電動車識別準(zhǔn)確率達(dá)到了95.8%,為電梯內(nèi)電動車智能識別提供了理論基礎(chǔ)。

    關(guān)鍵詞:電動車識別;AUGMIX;YOLOv8;變形卷積層;動態(tài)稀疏注意力機(jī)制

    中圖分類號:TP183 文獻(xiàn)標(biāo)志碼:A 文章編號:1671-5276(2024)04-0219-05

    Research on Identification Method of Electric Vehicles in Elevators Based on Improved YOLOv8

    LU Chenglong,F(xiàn)ENG Yuegui,QING Guangwei

    (Nanjing Special Equipment Safety Supervision Inspection and Research Institute, Nanjing 210002, China)

    Abstract:A new electric vehicle identification method combining AUGMIX and improved YOLOv8 model is proposed to address the issues of low efficiency and poor accuracy in identifying electric vehicles in elevators. The YOLOv8 model incorporates DCNv3 and BRA to identify electric vehicles with better accuracy and efficiency. The experimental results show that the precision, recall, and mean average precision of the improved algorithm model reach 94.5%, 93%, and 82.4% respectively. And the accuracy of electric vehicle identification reaches 95.8%, providing a theoretical basis for intelligent recognition of electric vehicles in elevators.

    Keywords:machine vision; AUGMIX; YOLOv8; DCNv3; Bi-level routing attention

    0 引言

    隨著我國城市化的快速推進(jìn),商場、居民樓及城市軌道交通等場所都安裝了電梯,在帶來了極大乘坐便利的同時,也存在著重大安全隱患。電動車進(jìn)入電梯轎廂,不僅占用了乘客乘用空間,而且一旦發(fā)生自燃會產(chǎn)生大量的火焰和高溫有毒氣體,短時間內(nèi)充滿整個轎廂,造成人員疏散和逃生困難。此外,電動車進(jìn)出轎廂如果操作不當(dāng),很容易使層轎門碰撞脫軌或者轎廂撞擊變形,造成安全隱患且縮短了電梯的使用壽命[1]。因此,電動車駛?cè)腚娞蒉I廂存在很大的安全隱患。

    目前電梯內(nèi)電動車識別手段主要采用3種方式:人工監(jiān)控識別、物理阻車和視覺識別[2]。人工監(jiān)控識別是物業(yè)人員通過攝像頭監(jiān)控轎廂內(nèi)乘客情況,當(dāng)發(fā)現(xiàn)有電動車進(jìn)入轎廂時通過語音提醒電動車退出轎廂。物理阻車是在轎廂入口和轎廂內(nèi)壁設(shè)置阻攔欄桿。視覺識別是通過轎廂內(nèi)攝像頭采集、分析視頻數(shù)據(jù),通過計(jì)算機(jī)視覺技術(shù)進(jìn)行識別。人工監(jiān)控識別對人力和物力消耗較大,需要相關(guān)人員不間斷監(jiān)控,效率低下且無法及時制止電動車駛?cè)朕I廂的行為。物理阻攔方式在阻攔電動車的同時也限制了輪椅、兒童車等工具的駛?cè)?,在人流量較大的場所容易產(chǎn)生人員絆倒、摔倒和踩踏事故。視覺識別是基于機(jī)器視覺系統(tǒng)的電動車識別系統(tǒng),根據(jù)攝像頭數(shù)據(jù)信息進(jìn)行識別,采集電動車圖像信息,進(jìn)行算法匹配來實(shí)現(xiàn)電動車識別[3],具有精度高、響應(yīng)迅速的優(yōu)點(diǎn),具有廣闊的應(yīng)用前景。

    1 整體框架設(shè)計(jì)

    基于AUGMIX和改進(jìn)YOLOv8的電梯內(nèi)電動車識別方法,通過在轎廂內(nèi)安裝或共用現(xiàn)有監(jiān)控?cái)z像頭采集轎廂內(nèi)行人、電動車、自行車等圖像信息,進(jìn)行算法匹配來實(shí)現(xiàn)電動車識別。通過AUGMIX技術(shù)為電梯轎廂中的電動車識別引入增強(qiáng)的圖像數(shù)據(jù)集,提高了模型的魯棒性,并通過適應(yīng)不同情況的變化,顯著降低了過擬合的可能[4]。YOLOv8算法的端到端識別方法與DCNv3的變形卷積層和動態(tài)稀疏注意力機(jī)制相結(jié)合,優(yōu)化了對電梯轎廂內(nèi)電動車形狀和結(jié)構(gòu)的適應(yīng)性,為轎廂式電梯電動車識別提供了實(shí)時、精準(zhǔn)且計(jì)算效率高的識別解決方案。整體框架設(shè)計(jì)圖如圖1所示。

    2 算法設(shè)計(jì)

    2.1 AUGMIX圖像增強(qiáng)算法

    AUGMIX結(jié)合多種不同的圖像增強(qiáng)技術(shù)來生成新的訓(xùn)練樣本,提高模型在面對自然界圖像分布中共同變形時的泛化能力,從而增加模型訓(xùn)練數(shù)據(jù)的多樣性。在AUGMIX中,模型不僅在原始圖像上訓(xùn)練,而且還要在增強(qiáng)后的圖像上進(jìn)行訓(xùn)練。這些增強(qiáng)后的圖像是通過對原始圖像應(yīng)用一系列隨機(jī)選擇的圖像處理操作(稱為“增強(qiáng)操作”)生成的。然后,這些增強(qiáng)操作生成的圖像以一定方式與原始圖像混合,形成最終的訓(xùn)練樣本。

    AUGMIX的關(guān)鍵步驟可以概括為以下幾點(diǎn)。

    1)選擇原始圖像x,進(jìn)行k個增強(qiáng)操作,每個增強(qiáng)操作表示為opk。這些操作是針對圖像的特異性變化,例如旋轉(zhuǎn)、剪切、顏色變換等,本技術(shù)中僅對電動車識別率進(jìn)行改進(jìn)。

    2)將這些操作應(yīng)用于原始圖像x,生成一組增強(qiáng)圖像{x1,x2,…,xk}。每個增強(qiáng)圖像xi是通過將相應(yīng)的增強(qiáng)操作opi應(yīng)用于原始圖像x得到的,即xi=opi(x)。

    3)將這些增強(qiáng)圖像線性混合,生成最終的訓(xùn)練樣本。這個混合過程可以表示為以下公式:

    式中(w0,w1,…,wk)是混合權(quán)重,它們是隨機(jī)抽取的,滿足∑ki=0wi=1。

    混合后的圖像x′將作為新的訓(xùn)練樣本。通過這種方式,AUGMIX可以在訓(xùn)練過程中引入大量的圖像變化,從而提高模型的泛化能力。

    2.2 改進(jìn)的YOLOv8算法介紹

    YOLOv8是一種高效的單步目標(biāo)識別模型,可以實(shí)現(xiàn)復(fù)雜的目標(biāo)識別以及定位功能,對圖像框中的多個目標(biāo)進(jìn)行標(biāo)注,得到識別結(jié)果[5]。相較于兩步式識別方法,YOLOv8則通過神經(jīng)網(wǎng)絡(luò)一次性提取圖像的特征圖,基于此直接推斷錨框的位置與類別。相較于兩步法,單步識別流程的速度更快,特別是在需要快速響應(yīng)的實(shí)時應(yīng)用中更顯優(yōu)勢。

    本文基于YOLOv8的改進(jìn)模型針對電梯轎廂內(nèi)電動車識別任務(wù)進(jìn)行了針對性改進(jìn),改進(jìn)模型通過應(yīng)用AUGMIX圖像增強(qiáng)技術(shù)提升模型泛化能力,采用端到端的檢測方法簡化系統(tǒng)設(shè)計(jì)并提高識別效率,實(shí)施多尺度檢測策略以增強(qiáng)對不同大小目標(biāo)的魯棒性。同時,集成DCNv3算子優(yōu)化了模型對目標(biāo)形狀的自適應(yīng)能力,而動態(tài)稀疏注意力機(jī)制則降低了計(jì)算復(fù)雜性,使得改進(jìn)后的YOLOv8不僅識別準(zhǔn)確,而且適應(yīng)實(shí)時性和資源受限的應(yīng)用環(huán)境,為電梯轎廂中電動車的精確識別提供了有效的技術(shù)支持。改進(jìn)的YOLOv8算法架構(gòu)圖如圖2所示。

    1)結(jié)合C2f和可變性卷積網(wǎng)絡(luò)的C2f_DCNv3模塊

    YOLOv8相較于同系列的其他算法,在主干網(wǎng)絡(luò)結(jié)構(gòu)中采用了C2f(cross stagepartial network bottleneck with 2 convolutions)模塊,該模塊能夠有效提高網(wǎng)絡(luò)計(jì)算速度同時降低計(jì)算復(fù)雜度。DCNs(deformable convolutional networks)是卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的擴(kuò)展,引入了可變形卷積層,使得網(wǎng)絡(luò)能夠更好地適應(yīng)圖像中的幾何和形狀變化[6]。這種類型的網(wǎng)絡(luò)特別適用于處理圖像中存在的非剛性變形,如姿態(tài)變化、視角變換或物體內(nèi)部的變形等。采用最新的DCNv3對C2f模塊進(jìn)行擴(kuò)展,得到C2f_DCNv3模塊,能夠自適應(yīng)地調(diào)整感受野大小,從而更好地符合目標(biāo)對象的形狀和結(jié)構(gòu)變化,C2f-DCNv3模塊網(wǎng)格結(jié)構(gòu)如圖3所示。

    通過引入共享投射權(quán)重的策略,將與位置無關(guān)的權(quán)重代替獨(dú)立的投射權(quán)重,從而有效減少參數(shù)和內(nèi)存復(fù)雜度。此外,采用了多組機(jī)制,將空間聚合過程劃分為不同組,每組具有獨(dú)立的采樣偏移量,以提高特征的多樣性。為緩解模型容量擴(kuò)大時的不穩(wěn)定問題,采用了逐采樣點(diǎn)的Softmax歸一化作為歸一化模式,這不僅提升大規(guī)模模型的訓(xùn)練穩(wěn)定性,還構(gòu)建了所有采樣點(diǎn)之間的連接關(guān)系。這些改進(jìn)旨在提高模型效率、降低參數(shù)量、增強(qiáng)特征的多樣性,并改善模型訓(xùn)練的魯棒性,其公式如下所示。

    式中:G為聚合組總數(shù);對于第g個組,wg∈RC×C表示與位置無關(guān)的投影權(quán)重,其中C′=C/G表示組維度;mgk∈R表示第g個組中第k個采樣點(diǎn)的調(diào)制標(biāo)量,由沿k維的Softmax函數(shù)歸一化;xg∈RC′×H×W表示切片后的輸入特征圖;Δpgk為第g組網(wǎng)絡(luò)采樣位置pk對應(yīng)的偏移量。

    2)動態(tài)稀疏注意力

    動態(tài)稀疏注意力機(jī)制作為一種新型注意力機(jī)制,通過兩個層次實(shí)現(xiàn)輸入的動態(tài)稀疏化處理,這樣不僅能過濾掉粗糙區(qū)域大部分不相關(guān)交互信息,加強(qiáng)有效信息間交互,減弱無效信息間干擾,而且針對細(xì)粒度的注意力應(yīng)用于路由區(qū)域的聯(lián)合之中,能夠獲取更多有效特征信息。在大幅降低了模型的計(jì)算復(fù)雜度的同時保持了高水平的性能。相對于其他注意力機(jī)制,動態(tài)稀疏注意力機(jī)制能夠更靈活地調(diào)整注意力分布,從而更適應(yīng)不同尺度和復(fù)雜的目標(biāo)識別,在小目標(biāo)捕捉中精準(zhǔn)度更高。動態(tài)稀疏注意力機(jī)制作用過程如圖4所示,圖中g(shù)ather表示基于模型子集的收集/聚集操作,mm表示矩陣乘法(matrix multiptication)。

    給定一個二維輸入特征映X∈RH×W×C,首先將其劃分為S×S個非重疊區(qū)域,使得每個區(qū)域包含HW/S2個特征向量。這一步通過reshape X變?yōu)閄∈RS2×HWS2×C來完成。再經(jīng)過線性映射得到Q、K、V張量:

    Q=XrWq,K=XrWk,V=XrWv(3)

    然后,通過有向圖來對區(qū)域到區(qū)域的注意力關(guān)系進(jìn)行關(guān)聯(lián)。具體來說,首先通過分別在Q和K上應(yīng)用每個區(qū)域平均值來導(dǎo)出區(qū)域級Qr、Kr∈RS2×C。其次,通過Qr和轉(zhuǎn)置Kr之間的矩陣乘法推導(dǎo)出區(qū)域到區(qū)域親和度圖的鄰接矩陣Ar∈RS2×S2

    Ar=Qr(KrT(4)

    鄰接矩陣Ar中的條目衡量兩個區(qū)域在語義上的相關(guān)性。接下來執(zhí)行的核心步驟是通過為每個區(qū)域只保留前k個關(guān)系最密切的區(qū)域。Ir∈NS2×k為一個路由索引矩陣,具有逐行topk算子:

    Ir=topkIndex(Ar)(5)

    第i行Ir包含第i個區(qū)域的k個最相關(guān)區(qū)域的索引。

    有了區(qū)域到區(qū)域路由索引矩陣Ir,在粗粒度過濾了最不相關(guān)的令牌,可以應(yīng)用細(xì)粒度的令牌到令牌關(guān)注。對于區(qū)域i中的每個Q,它將關(guān)注以Ir(i,1),Ir(i,2),…,Ir(i,k)為索引的k個最關(guān)注的路由區(qū)域,并gather這k個區(qū)域中所有K和V。因此首先收集K、V張量:

    Kg=gather(K,Ir), Vg=gather(V,Ir)(6)

    式中Kg、Vg∈RS2×HWS2×C。將注意力應(yīng)用于收集到的Kg,Vg

    O=Attention(Q,Kg,Vg)+LCE(V)(7)

    引入了一個局部上下文增強(qiáng)項(xiàng)LCE(V)。函數(shù)LCE(V)使用深度卷積進(jìn)行參數(shù)化。

    3 實(shí)驗(yàn)與分析

    3.1 數(shù)據(jù)集介紹

    數(shù)據(jù)集在南京某小區(qū)進(jìn)行,采集周期覆蓋了春夏秋冬四個季節(jié),以確保數(shù)據(jù)具有時間上的多樣性。此外,考慮到電梯的使用高峰期和非高峰期,在工作日和周末的不同時間段進(jìn)行了采集,以確保獲得充分的數(shù)據(jù)集,反映出電梯內(nèi)電動車出現(xiàn)的各種情況。然后,將收集到的圖片利用AUGMIX圖像增強(qiáng),共得到9 000張高分辨率照片,部分?jǐn)?shù)據(jù)集如圖5所示。

    模型訓(xùn)練期間,模型的迭代曲線和準(zhǔn)確性評估將會通過數(shù)據(jù)可視化工具進(jìn)行監(jiān)控,確保訓(xùn)練的有效進(jìn)展。測試結(jié)果通過混淆矩陣和識別效果圖來展示,從而對模型在實(shí)際應(yīng)用中的表現(xiàn)給予直觀的評價(jià)。圖6為本文的數(shù)據(jù)長寬比分析圖。

    3.2 模型測試評估與分析

    AUGMIX-YOLOv8-org為本文提出的將AUGMIX與改進(jìn)的YOLOv8相結(jié)合的預(yù)測模型。利用改進(jìn)后的算法模型對數(shù)據(jù)集進(jìn)行測試,將數(shù)據(jù)集按8∶1∶1的比例分為訓(xùn)練集、驗(yàn)證集和測試集進(jìn)行實(shí)驗(yàn)。迭代次數(shù)200,初始學(xué)習(xí)率設(shè)置為0.001,優(yōu)化器采用Adam,動量參數(shù)值為0.8,置信度閾值為0.5,模型的訓(xùn)練結(jié)果及迭代曲線如圖7所示。實(shí)驗(yàn)選取平均精度均值(mAP)、準(zhǔn)確率(precision)、召回率(recall)及單項(xiàng)識別準(zhǔn)確率作為評價(jià)指標(biāo),其照片中包括電動車、乘客、自行車,試驗(yàn)測試結(jié)果混淆矩陣如圖8所示。

    對電動車、乘客和自行車的電梯轎廂識別準(zhǔn)確率進(jìn)行對比,圖9為實(shí)驗(yàn)各項(xiàng)評價(jià)指標(biāo)對比圖。由圖9可知,AUGMIX-YOLOv8-org模型準(zhǔn)確率達(dá)到了94.5%,召回率達(dá)到了93%,平均精度均值達(dá)到82.4%,相比原始的YOLOv8模型分別提升了2.5、5.0和2.3個百分點(diǎn)。在具體的識別任務(wù)中,電動車、乘客和自行車的識別準(zhǔn)確率,AUGMIX-YOLOv8-org分別實(shí)現(xiàn)了95.8%、95.2%和65.6%的高水平,與原始YOLOv8模型的91.7%、91.2%和50.8%相比,有顯著的性能提升。這不僅凸顯了AUGMIX技術(shù)在提升模型對復(fù)雜場景下目標(biāo)識別能力的有效性,也說明了AUGMIX-YOLOv8-org模型在實(shí)際應(yīng)用中對于確保電梯安全運(yùn)行的潛在價(jià)值。新算法模型識別結(jié)果如圖10所示。

    4 結(jié)語

    針對電梯內(nèi)電動車識別存在精度不佳的問題,基于YOLOv8算法模型提出改進(jìn)方案。數(shù)據(jù)預(yù)處理階段,利用AUGMIX圖像增強(qiáng)方法引入多樣化的圖像變換,提高了模型的泛化性能,減少了過擬合的風(fēng)險(xiǎn),為模型的魯棒性訓(xùn)練提供了有力支持。其次,通過將可變性卷積網(wǎng)絡(luò)算子(DCNv3)和動態(tài)稀疏注意力融入YOLOv8模型,進(jìn)一步提升了識別性能。改進(jìn)后算法模型的精確率、召回率和平均精度均值分別達(dá)到了94.5%、93%和82.4%,電動車識別準(zhǔn)確率達(dá)到了95.8%,為電梯內(nèi)電動車智能識別提供了理論基礎(chǔ)。算法模型仍有改進(jìn)空間,未來將考慮在保證精度的前提下,輕量化算法模型,提高識別速度和泛化能力,使算法模型更好地勝任電梯內(nèi)電動車識別任務(wù)。

    參考文獻(xiàn):

    [1] 周永強(qiáng),王萬軍,楊浩,等. 基于圖像識別與信息融合的電梯智能阻車系統(tǒng)研究[J]. 機(jī)電工程技術(shù),2023,52(9):141-144.

    [2] 李信芳,李艷. 淺析電梯智能阻車系統(tǒng)的加裝屬性[J]. 中國特種設(shè)備安全,2022,38(9):46-48,57.

    [3] 馬子喻. 基于神經(jīng)網(wǎng)絡(luò)與證據(jù)理論的電動車進(jìn)入轎廂識別研究[D]. 鄭州:鄭州大學(xué),2021.

    [4] 王佳寧. 面向自動駕駛的圖像與點(diǎn)云融合及實(shí)時性研究[D]. 哈爾濱:哈爾濱工業(yè)大學(xué),2021.

    [5] 于飛,徐斌,王榮浩,等. 基于改進(jìn)YOLOv8的旋轉(zhuǎn)鏈板檢測算法[J]. 制造業(yè)自動化,2023,45(9):212-216,220.

    [6] 劉奇,趙麗霞,鄭曙光,等. 基于DYOLO神經(jīng)網(wǎng)絡(luò)的超聲圖像腎臟檢測[J]. 計(jì)算機(jī)工程,2021,47(7):307-313.

    收稿日期:2024-02-26

    五家渠市| 信宜市| 新昌县| 新乡市| 绥中县| 兴和县| 垫江县| 临清市| 长岛县| 子洲县| 乌拉特中旗| 东丰县| 长垣县| 乌兰浩特市| 禄丰县| 定兴县| 柳河县| 蒙阴县| 安陆市| 垫江县| 奈曼旗| 望奎县| 揭东县| 德庆县| 巫溪县| 承德县| 肃南| 新源县| 广平县| 外汇| 阿图什市| 刚察县| 宜川县| 郓城县| 涟水县| 浑源县| 高雄县| 高陵县| 蕲春县| 洪洞县| 永宁县|