• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于遷移集成學(xué)習(xí)的無人機(jī)圖像識(shí)別算法*

      2023-09-26 11:04:02程千頃王紅軍丁希成
      電訊技術(shù) 2023年9期
      關(guān)鍵詞:圖像識(shí)別分類器準(zhǔn)確率

      程千頃,王紅軍,丁希成,陳 璐

      (國防科技大學(xué) 電子對(duì)抗學(xué)院,合肥 230037)

      0 引 言

      近年來,隨著小型無人機(jī)技術(shù)的發(fā)展和普及,無人機(jī)的黑飛和濫飛現(xiàn)象越來越嚴(yán)重,給社會(huì)和公共安全造成了嚴(yán)重的威脅[1]。對(duì)防范小型無人機(jī)而言,檢測(cè)手段是其中的關(guān)鍵[2]。相比于雷達(dá)探測(cè)[3]、射頻探測(cè)[4]和聲音探測(cè)[5]等技術(shù)手段,更為精準(zhǔn)的基于圖像識(shí)別來實(shí)現(xiàn)無人機(jī)探測(cè)預(yù)警的方法已成為反無人機(jī)領(lǐng)域重要的研究方向之一[6]。

      圖像識(shí)別方法主要可分為傳統(tǒng)圖像識(shí)別方法和深度學(xué)習(xí)圖像識(shí)別方法兩大類[7]。傳統(tǒng)圖像識(shí)別方法中具有代表性的是支持向量機(jī)(Support Vector Machines,SVM)方法和K近鄰算法(K Nearest Neighbors,KNN)[8],這些方法既可以用于解決分類問題,也可用于圖像識(shí)別,但是存在需人工提取特征、泛化能力和魯棒性差的缺點(diǎn)。深度學(xué)習(xí)圖像識(shí)別方法主要是早期的BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)[9]和近十年來發(fā)展迅速的卷積神經(jīng)網(wǎng)絡(luò),包括AlexNet、VGGNet、 Inception-V3和ResNet等神經(jīng)網(wǎng)絡(luò)[10-13]。

      近年來,隨著深度學(xué)習(xí)的發(fā)展,遷移學(xué)習(xí)和集成學(xué)習(xí)逐漸應(yīng)用到網(wǎng)絡(luò)模型的訓(xùn)練中。文獻(xiàn)[14]將遷移學(xué)習(xí)與YOLOv3算法相結(jié)合實(shí)現(xiàn)了對(duì)無人機(jī)目標(biāo)的檢測(cè)識(shí)別,平均識(shí)別率達(dá)到了88.9%,但仍有較大的提升空間。文獻(xiàn)[15]在無人機(jī)目標(biāo)數(shù)據(jù)集過少的條件下,采用自主拍攝構(gòu)建數(shù)據(jù)集以及卷積神經(jīng)網(wǎng)絡(luò)識(shí)別的方法實(shí)現(xiàn)了對(duì)無人機(jī)圖像的有效識(shí)別,但因未將無人機(jī)與其他物體進(jìn)行區(qū)分,容易造成無人機(jī)目標(biāo)識(shí)別的誤判。文獻(xiàn)[16]應(yīng)用權(quán)重不可知網(wǎng)絡(luò)(Weight Agnostic Neural Network,WANN)對(duì)無人機(jī)微動(dòng)特征進(jìn)行圖像識(shí)別,取得了不錯(cuò)的效果,但方法與其他主流網(wǎng)絡(luò)對(duì)比較少,無法體現(xiàn)算法的先進(jìn)性。文獻(xiàn)[17]提出了一種應(yīng)用遷移集成方法的模型,顯著提升了復(fù)雜背景下的樹木識(shí)別效果,但算法流程復(fù)雜,存在改進(jìn)空間。

      針對(duì)上述算法存在的問題,本文提出了一種基于遷移集成學(xué)習(xí)的無人機(jī)圖像識(shí)別算法。算法采用卷積網(wǎng)絡(luò)模型AlexNet、VggNet-19、Inception-V3和ResNet-50在ImageNet數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練,得到預(yù)訓(xùn)練模型;然后使用UavNet圖像數(shù)據(jù)集進(jìn)行遷移學(xué)習(xí),得到基分類器模型;最后應(yīng)用相對(duì)多數(shù)投票法和加權(quán)平均法的集成學(xué)習(xí)方法通過基分類器模型建立遷移集成模型,實(shí)現(xiàn)對(duì)無人機(jī)目標(biāo)圖像的準(zhǔn)確識(shí)別。

      1 遷移集成模型構(gòu)建

      基于遷移集成學(xué)習(xí)的無人機(jī)圖像識(shí)別算法是通過應(yīng)用卷積網(wǎng)絡(luò)模型進(jìn)行遷移學(xué)習(xí)和集成學(xué)習(xí)來提高模型識(shí)別性能的算法。圖1為遷移集成模型的架構(gòu)圖。

      圖1 遷移集成識(shí)別模型

      1.1 卷積神經(jīng)網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)在遷移集成算法中作為集成模型的基分類器,其結(jié)構(gòu)大致分為卷積層、池化層和全連接層等。卷積層在卷積神經(jīng)網(wǎng)絡(luò)中的作用是通過卷積操作提取圖像特征。池化層可以用來減小特征圖的尺寸,降低參數(shù)量。全連接層作為連接輸入層和輸出層關(guān)鍵的一層,具有部分分類器的功能。

      梯度下降算法是神經(jīng)網(wǎng)絡(luò)在反向傳播過程中使用到的算法,可以使損失函數(shù)更快地達(dá)到最小值加快模型收斂。其算法公式為

      (1)

      式中:J(θ)為目標(biāo)函數(shù);θi為目標(biāo)函數(shù)上的某點(diǎn)坐標(biāo);α為學(xué)習(xí)率。

      常用的梯度下降算法有隨機(jī)動(dòng)量梯度下降算法(Stochastic Gradient Descent with Momentum,SGDM)和自適應(yīng)矩估計(jì)算法(Adaptive Moment Estimation,Adam)。SGDM算法可以有效地加快模型收斂,使模型損失函數(shù)達(dá)到最小值,得到模型最優(yōu)解。Adam算法可以自適應(yīng)調(diào)節(jié)學(xué)習(xí)率,使模型更快地收斂,但有時(shí)候會(huì)出現(xiàn)收斂到局部最優(yōu)的情況,達(dá)不到模型的全局最優(yōu)解。本文通過實(shí)驗(yàn)對(duì)比了SGDM算法和Adam算法在卷積網(wǎng)絡(luò)模型上的效果,得出SGDM算法在模型訓(xùn)練數(shù)據(jù)集時(shí)能達(dá)到更好的性能。因此,在后續(xù)的實(shí)驗(yàn)中均采用SGDM算法作為模型的梯度下降算法。

      1.2 模型遷移學(xué)習(xí)

      遷移學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域一種解決小樣本學(xué)習(xí)任務(wù)的常用方法,其原理是讓模型充分學(xué)習(xí)A域的大量數(shù)據(jù),然后在此基礎(chǔ)上讓模型再去學(xué)習(xí)B域的小樣本數(shù)據(jù),使模型對(duì)小樣本數(shù)據(jù)也有很好的識(shí)別效果[18]。

      卷積網(wǎng)絡(luò)模型在進(jìn)行遷移學(xué)習(xí)時(shí),一般要使用ImageNet數(shù)據(jù)集進(jìn)行訓(xùn)練得到預(yù)訓(xùn)練模型,并且為了使模型在UavNet數(shù)據(jù)集上能有更好的表現(xiàn),要對(duì)模型進(jìn)行訓(xùn)練微調(diào)。訓(xùn)練微調(diào)的方法是凍結(jié)預(yù)訓(xùn)練模型的部分卷積層(通常是靠近輸入的多數(shù)卷積層),然后訓(xùn)練剩下的卷積層(通常是靠近輸出的部分卷積層)和全連接層。因此對(duì)于AlexNet等4種卷積模型只需要對(duì)模型的k層卷積層進(jìn)行權(quán)重凍結(jié),然后訓(xùn)練剩余的n-k層全連接層就可以得到性能良好的分類模型。4種卷積網(wǎng)絡(luò)模型訓(xùn)練微調(diào)策略的相關(guān)信息如表1所示,表中的fc、fc6、fc7、fc8均指模型結(jié)構(gòu)中最后的全連接層。

      表1 模型訓(xùn)練微調(diào)策略信息表

      1.3 模型集成學(xué)習(xí)

      集成學(xué)習(xí)是分類和回歸任務(wù)的一類提升方法[19],其核心思想是通過改變樣本分布或者使用不同類型的分類模型構(gòu)建分類器,將這些分類器進(jìn)行線性組合得到一個(gè)更強(qiáng)大的分類器,來做最后的決策。

      相對(duì)多數(shù)投票法的原理是尋找?guī)讉€(gè)基分類器,然后把基分類器的超過半數(shù)的預(yù)測(cè)結(jié)果作為最終的預(yù)測(cè)分類。假設(shè)基分類器的預(yù)測(cè)結(jié)果為Ok(k=1,2,3,4),相對(duì)多數(shù)投票法通過統(tǒng)計(jì)基分類器的預(yù)測(cè)結(jié)果Ok,選取個(gè)數(shù)最多的預(yù)測(cè)結(jié)果Ok作為最終的輸出結(jié)果,當(dāng)投票結(jié)果一樣時(shí)則隨機(jī)選擇一類作為最終的輸出結(jié)果。

      加權(quán)平均法的原理是根據(jù)一定的規(guī)則對(duì)基分類器的預(yù)測(cè)結(jié)果賦予權(quán)重進(jìn)行平均然后得出最終結(jié)果。假設(shè)第i個(gè)基分類器對(duì)輸入圖片樣本的標(biāo)簽預(yù)測(cè)概率如式(2)所示:

      (2)

      式中:i代表分類器的編號(hào);n代表預(yù)測(cè)的標(biāo)簽類別;p(yi=n)表示分類器預(yù)測(cè)標(biāo)簽類別的概率。

      通過預(yù)測(cè)概率矩陣,可以使用加權(quán)平均的方法得到最終分類結(jié)果,其公式如式(3)所示:

      (3)

      綜上所述,遷移集成算法首先通過遷移學(xué)習(xí)得到4種分類模型,獲得數(shù)量足夠多且相互獨(dú)立的基分類器;然后,采用集成學(xué)習(xí)中的相對(duì)多數(shù)投票法和加權(quán)平均法兩種集成策略對(duì)4種分類器進(jìn)行線性組合,構(gòu)建集成模型。

      2 數(shù)據(jù)集與數(shù)據(jù)增強(qiáng)

      近年來無人機(jī)的普及和應(yīng)用非常迅速,但用于無人機(jī)識(shí)別的圖像數(shù)據(jù)集卻十分缺少,這對(duì)研究來說十分不便,因此筆者通過自主拍攝無人機(jī)圖像、結(jié)合鳥類開源數(shù)據(jù)集CUB200-2011,以及網(wǎng)絡(luò)爬取直升機(jī)圖像3種方式自主構(gòu)建了圖像數(shù)據(jù)集UavNet。UavNet數(shù)據(jù)集中包含了小型無人機(jī)、飛鳥以及直升機(jī)3類圖像,每類目標(biāo)的圖像數(shù)量為4 000張,其中,小型無人機(jī)類別包含大疆御、大疆悟、大疆精靈型號(hào)的無人機(jī)圖像;飛鳥類別來源于CUB200-2011數(shù)據(jù)集,在總共200類的飛鳥中每類隨機(jī)選取20張組成了飛鳥類別的4 000張圖像;直升機(jī)類別包含“黑鷹”系列、米系列等武裝直升機(jī)的各種飛行姿態(tài)圖像。UavNet數(shù)據(jù)集按照7∶3的比例劃分為訓(xùn)練集和測(cè)試集,訓(xùn)練集用于訓(xùn)練模型參數(shù),測(cè)試集用于檢驗(yàn)?zāi)P托阅堋?shù)據(jù)集具體信息如表2所示。

      表2 UavNet數(shù)據(jù)集信息表

      為了進(jìn)一步測(cè)試遷移集成算法的性能,還選用了Flower_photos公開數(shù)據(jù)集作為實(shí)驗(yàn)的檢測(cè)基準(zhǔn)。該數(shù)據(jù)集是TensorFlow開源的五分類花卉數(shù)據(jù)集,總共有圖像3 500張,其中,訓(xùn)練集的圖像為3 099張,測(cè)試集的圖像為341張,常被用于機(jī)器學(xué)習(xí)的測(cè)試和訓(xùn)練。圖2為Flower_photos數(shù)據(jù)集的部分圖像。

      圖2 Flower_photos數(shù)據(jù)集部分圖像

      在小樣本數(shù)據(jù)集的訓(xùn)練過程中,深層卷積神經(jīng)網(wǎng)絡(luò)往往會(huì)出現(xiàn)過擬合的現(xiàn)象,使得訓(xùn)練模型的魯棒性不足,對(duì)新樣本新類型的無人機(jī)識(shí)別能力較差。為了解決這個(gè)問題,算法中采用數(shù)據(jù)增強(qiáng)的方法來提升訓(xùn)練模型的魯棒性,防止過擬合現(xiàn)象的出現(xiàn)[20]。實(shí)驗(yàn)采取的數(shù)據(jù)增強(qiáng)方法有剪切變換、數(shù)值歸一化、shuffle(樣本輸入打亂)以及水平和垂直翻轉(zhuǎn)操作等。通過上述數(shù)據(jù)增強(qiáng)方法的組合,擴(kuò)充原有數(shù)據(jù)集,使訓(xùn)練集更豐富,從而使模型更具泛化能力。數(shù)據(jù)增強(qiáng)實(shí)例如圖3所示。

      圖3 數(shù)據(jù)增強(qiáng)實(shí)例

      3 實(shí)驗(yàn)與結(jié)果分析

      3.1 實(shí)驗(yàn)環(huán)境與配置

      算法實(shí)驗(yàn)平臺(tái)基于PyTorch深度學(xué)習(xí)框架且配有CUDA10.2平臺(tái)作為并行運(yùn)算結(jié)構(gòu),計(jì)算機(jī)環(huán)境為Windows 10操作系統(tǒng),內(nèi)存為64 GB,GPU為NVIDIA Quadro P4000(8 GB顯存)。

      實(shí)驗(yàn)中網(wǎng)絡(luò)模型訓(xùn)練時(shí)的超參數(shù)設(shè)置如表3所示,包括了初始學(xué)習(xí)率、批大小、訓(xùn)練輪數(shù)和迭代次數(shù)等。表中,fine tune表示模型在遷移學(xué)習(xí)過程中的訓(xùn)練微調(diào)方法,model-fine tune表示經(jīng)過遷移學(xué)習(xí)的模型。

      表3 模型訓(xùn)練過程中部分參數(shù)情況

      為驗(yàn)證遷移集成算法在無人機(jī)圖像識(shí)別方面的可行性和先進(jìn)性,將實(shí)驗(yàn)設(shè)計(jì)為4個(gè)部分:第一部分,使用SGDM和Adam兩種梯度下降算法進(jìn)行對(duì)比實(shí)驗(yàn),檢驗(yàn)SGDM算法和Adam算法在模型訓(xùn)練上的效果;第二部分,對(duì)4種卷積模型進(jìn)行遷移學(xué)習(xí)和非遷移學(xué)習(xí)性能對(duì)比,檢驗(yàn)遷移學(xué)習(xí)方法對(duì)模型性能的提升能力;第三部分,進(jìn)行集成模型與4種卷積模型在識(shí)別準(zhǔn)確率和F1-score指標(biāo)上的對(duì)比實(shí)驗(yàn),檢驗(yàn)包括相對(duì)多數(shù)投票法和加權(quán)平均法兩類集成方法的集成效果;第四部分,將所提出的集成遷移方法與SVM、BP算法以及ResNet-50方法進(jìn)行對(duì)比實(shí)驗(yàn),檢驗(yàn)遷移集成算法的先進(jìn)性。

      3.2 評(píng)價(jià)指標(biāo)

      深度學(xué)習(xí)中關(guān)于圖像識(shí)別的評(píng)價(jià)指標(biāo)較多,實(shí)驗(yàn)主要采用其中3種重要的評(píng)價(jià)指標(biāo):模型對(duì)訓(xùn)練集的平均損失、模型對(duì)測(cè)試集的識(shí)別準(zhǔn)確率以及F1-score指標(biāo)。

      3.2.1 模型對(duì)訓(xùn)練集的平均交叉熵?fù)p失

      由模型在訓(xùn)練集上進(jìn)行訓(xùn)練時(shí)通過平均交叉熵?fù)p失函數(shù)計(jì)算得出。平均交叉熵?fù)p失越小,模型在訓(xùn)練集上的識(shí)別性能越好,因此使用交叉熵?fù)p失作為模型評(píng)價(jià)的指標(biāo)之一。平均交叉熵?fù)p失的計(jì)算公式為

      (4)

      (5)

      式中:count表示輸入樣本的總數(shù);class表示當(dāng)前樣本類別的索引;loss表示單個(gè)樣本的損失;xi表示輸入的第i個(gè)樣本;x[j]表示預(yù)測(cè)函數(shù)的第j個(gè)輸出。

      3.2.2 模型對(duì)測(cè)試集的識(shí)別準(zhǔn)確率

      即模型輸出的結(jié)果與圖像原始標(biāo)簽一致的準(zhǔn)確率,其計(jì)算公式為

      (6)

      式中:m為測(cè)試集圖像的總數(shù)量;c為模型測(cè)試正確圖像的數(shù)量。

      3.2.3 F1-score指標(biāo)

      F1-score是衡量分類模型精準(zhǔn)度的一種指標(biāo),是精確率和召回率的調(diào)和平均。其計(jì)算公式為

      (7)

      (8)

      (9)

      式中:TP(True Positive)是實(shí)際輸入為正樣本,預(yù)測(cè)結(jié)果也為正樣本;FP(False Positive)是實(shí)際輸入為負(fù)樣本,預(yù)測(cè)結(jié)果為正樣本;FN(False Negative)是實(shí)際輸入為正樣本,預(yù)測(cè)結(jié)果為負(fù)樣本;TN(True Negative)是實(shí)際輸入為負(fù)樣本,預(yù)測(cè)結(jié)果為負(fù)樣本。

      3.2.4 FPS(Frames Per Second)指標(biāo)

      FPS指標(biāo)表示模型檢測(cè)一張圖片所用的時(shí)間大小或者1 s處理的圖片數(shù)量。FPS值越大,模型檢測(cè)速度越快,可以用來衡量模型的檢測(cè)效率。

      3.3 實(shí)驗(yàn)結(jié)果與分析

      3.3.1 SGDM與Adam訓(xùn)練效率對(duì)比

      SGDM算法和Adam算法有著性能優(yōu)秀和便于調(diào)參的優(yōu)點(diǎn),在深度學(xué)習(xí)中得到了廣泛應(yīng)用。為了驗(yàn)證SGDM算法在遷移集成模型中的性能,設(shè)置了SGDM算法與Adam算法的對(duì)照實(shí)驗(yàn)。實(shí)驗(yàn)將經(jīng)過遷移學(xué)習(xí)的4種CNN模型分別采用SGDM和Adam兩種算法在UavNet數(shù)據(jù)集上進(jìn)行訓(xùn)練,訓(xùn)練的epoch為125,batch為32,迭代次數(shù)為32 875。實(shí)驗(yàn)過程通過tensorboard可視化工具保存每次訓(xùn)練的平均損失和準(zhǔn)確率,繪制了平均損失隨訓(xùn)練次數(shù)變化的折線圖以及模型識(shí)別準(zhǔn)確率的統(tǒng)計(jì)表格,結(jié)果如圖4和表4所示。

      (a)AlexNet模型

      (b)VggNet-19模型

      (c)Inception-V3模型

      (d)ResNet-50模型圖4 4種CNN模型的平均損失隨訓(xùn)練次數(shù)變化情況

      表4 模型在不同優(yōu)化算法的識(shí)別準(zhǔn)確率

      分析圖4和表4可知,基于SGDM算法的CNN模型(后面簡(jiǎn)稱SGDM類模型)的識(shí)別準(zhǔn)確率均優(yōu)于基于Adam算法的CNN模型(后面簡(jiǎn)稱Adam類模型)。此外,由圖3可知,Adam類模型在前20 000次迭代中損失的振蕩幅度很大,而SGDM類模型在訓(xùn)練過程中損失始終保持平穩(wěn)下降且下降速度要超過Adam類模型。因此從對(duì)比結(jié)果來看,SGDM算法對(duì)模型性能的優(yōu)化效果要強(qiáng)于Adam算法。

      3.3.2 基于遷移學(xué)習(xí)的模型實(shí)驗(yàn)

      本實(shí)驗(yàn)使用AlexNet、VGGNet-19、Inception-V3和ResNet-50四種卷積模型,并采取模型自訓(xùn)練和遷移學(xué)習(xí)訓(xùn)練兩種方式分別對(duì)模型展開訓(xùn)練。模型自訓(xùn)練方法是模型基于數(shù)據(jù)集本身從零開始的訓(xùn)練,其識(shí)別效果取決于模型自身結(jié)構(gòu)設(shè)計(jì)以及數(shù)據(jù)集樣本的優(yōu)劣。遷移學(xué)習(xí)方法是通過加載預(yù)訓(xùn)練權(quán)重和微調(diào)模型的方式使模型訓(xùn)練的方法。實(shí)驗(yàn)過程中將對(duì)這兩種方法進(jìn)行測(cè)試集識(shí)別準(zhǔn)確率和F1-score指標(biāo)(特指UavNet數(shù)據(jù)集中的無人機(jī)類別)的對(duì)比,結(jié)果如表5所示。

      表5 測(cè)試集識(shí)別準(zhǔn)確率和F1-score

      從表5分析發(fā)現(xiàn),使用遷移學(xué)習(xí)方法的模型在測(cè)試集的識(shí)別率和F1-score上都有較大的提升,其中識(shí)別效果最好的VGGNet-19-fine tune,其識(shí)別準(zhǔn)確率達(dá)到了98.67%,F1-score達(dá)到了98.46%,說明遷移學(xué)習(xí)方法通過大量的先驗(yàn)知識(shí)學(xué)習(xí)可以使模型提取到更多的圖像特征,增強(qiáng)模型的識(shí)別性能。因此,遷移學(xué)習(xí)模型相較于自訓(xùn)練模型具備更強(qiáng)的學(xué)習(xí)能力和識(shí)別效果。

      3.3.3 基于集成學(xué)習(xí)的模型實(shí)驗(yàn)

      本實(shí)驗(yàn)通過使用相對(duì)多數(shù)投票法和加權(quán)平均法兩種集成策略對(duì)遷移學(xué)習(xí)模型集成得到兩類集成模型。使用集成模型在測(cè)試集上進(jìn)行驗(yàn)證,并與經(jīng)過遷移學(xué)習(xí)的卷積模型進(jìn)行識(shí)別準(zhǔn)確率、F1-score和FPS指標(biāo)的對(duì)比,結(jié)果如表6所示。表6中所有模型均是經(jīng)過遷移學(xué)習(xí)方法訓(xùn)練的模型,FPS指標(biāo)是模型在GPU設(shè)備上進(jìn)行圖像檢測(cè)時(shí)測(cè)得的結(jié)果。

      表6 遷移模型和集成模型準(zhǔn)確率、F1-score和FPS

      由表6可知,無論是投票集成法還是加權(quán)集成法的集成模型在識(shí)別準(zhǔn)確率和F1-score指標(biāo)上均高于遷移學(xué)習(xí)的卷積模型。其中性能最優(yōu)異的加權(quán)集成模型在UavNet數(shù)據(jù)集上的識(shí)別準(zhǔn)確率可以達(dá)到99.42%,F1-score指標(biāo)可以達(dá)到99.12%,但在FPS指標(biāo)上速度有所下降,僅在16 frame/s左右,相較于其他模型仍有差距。但綜合精度對(duì)比來看,犧牲部分速度以換取極高的精度,遷移集成模型仍是一種不錯(cuò)的方法。綜上,遷移集成模型通過使用遷移學(xué)習(xí)方法以及集成方法,綜合多個(gè)分類模型的優(yōu)點(diǎn),犧牲部分檢測(cè)速度,使模型的性能得到了進(jìn)一步的提升,體現(xiàn)出其先進(jìn)性。

      3.3.4 遷移集成方法與其他方法性能比較

      早期的圖像識(shí)別方法中具有代表性的有SVM和BP神經(jīng)網(wǎng)絡(luò)等,這些方法在早期的圖像識(shí)別任務(wù)中應(yīng)用比較廣泛。現(xiàn)在的圖像識(shí)別方法更多使用改進(jìn)的卷積網(wǎng)絡(luò)來適應(yīng)不同的目標(biāo)識(shí)別任務(wù)。因此本實(shí)驗(yàn)使用HOG+SVM、HOG+BP神經(jīng)網(wǎng)絡(luò)以及ResNet-50神經(jīng)網(wǎng)絡(luò)的圖像分類方法訓(xùn)練識(shí)別Flower_photos數(shù)據(jù)集和UavNet數(shù)據(jù)集,并與所提出的基于遷移集成學(xué)習(xí)的無人機(jī)圖像識(shí)別方法進(jìn)行性能比較。在應(yīng)用SVM和BP神經(jīng)網(wǎng)絡(luò)方法時(shí)還使用了方向梯度直方圖(Histogram of Oriented Gradient,HOG)方法對(duì)圖像進(jìn)行特征提取,提升了這兩種方法的識(shí)別性能。實(shí)驗(yàn)結(jié)果如圖5所示。

      (a)Flower_photos數(shù)據(jù)集為基準(zhǔn)

      (b)UavNet數(shù)據(jù)集為基準(zhǔn)圖5 遷移集成方法和其他方法識(shí)別準(zhǔn)確率

      從結(jié)果來看,基于遷移集成的方法相比于SVM和BP神經(jīng)網(wǎng)絡(luò)方法以及ResNet-50殘差網(wǎng)絡(luò)方法在兩個(gè)數(shù)據(jù)集上的識(shí)別準(zhǔn)確率均有明顯的提升,相較于SVM和BP方法提升幅度比較大,相較于ResNet-50方法提升了大約9%的準(zhǔn)確率。主要原因在于SVM和BP識(shí)別方法主要依靠手動(dòng)提取特征和不斷調(diào)參的方式進(jìn)行圖像識(shí)別,識(shí)別性能的好壞取決于先驗(yàn)知識(shí)和專業(yè)調(diào)參經(jīng)驗(yàn);ResNet-50方法識(shí)別性能雖有提升,但僅應(yīng)用了單一網(wǎng)絡(luò)的優(yōu)點(diǎn);而基于遷移集成學(xué)習(xí)的方法可以自動(dòng)提取圖像特征,并且可以使用遷移學(xué)習(xí)和集成學(xué)習(xí)等機(jī)器學(xué)習(xí)方法,綜合各種網(wǎng)絡(luò)的優(yōu)點(diǎn),提升模型的識(shí)別性能,因此具有相對(duì)較高的識(shí)別率。

      4 結(jié)束語

      本文提出了一種基于遷移集成學(xué)習(xí)的無人機(jī)圖像識(shí)別算法,并自主構(gòu)建了一個(gè)目標(biāo)圖像數(shù)據(jù)集UavNet,在此基礎(chǔ)上進(jìn)行了性能仿真實(shí)驗(yàn)。相較于其他圖像識(shí)別方法如SVM、BP以及ResNet-50,遷移集成模型在UavNet數(shù)據(jù)集上的識(shí)別準(zhǔn)確率和F1-score指標(biāo)以及Flower_photos數(shù)據(jù)集上的識(shí)別準(zhǔn)確率均有較大提升。這說明算法不僅對(duì)無人機(jī)圖像目標(biāo)具有良好的識(shí)別效果,針對(duì)不同類型的訓(xùn)練對(duì)象也同樣具有優(yōu)異的性能,展現(xiàn)出了良好的通用性。下一步研究將針對(duì)集成方法造成的檢測(cè)速度下降問題,精簡(jiǎn)集成模型結(jié)構(gòu),優(yōu)化集成方法,以達(dá)到更快的無人機(jī)目標(biāo)圖像檢測(cè)速度。

      猜你喜歡
      圖像識(shí)別分類器準(zhǔn)確率
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      基于Resnet-50的貓狗圖像識(shí)別
      電子制作(2019年16期)2019-09-27 09:34:50
      高速公路圖像識(shí)別技術(shù)應(yīng)用探討
      圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
      電子制作(2018年19期)2018-11-14 02:37:04
      高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
      電子制作(2018年14期)2018-08-21 01:38:16
      BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      桃江县| 临沧市| 兴宁市| 九台市| 邯郸县| 白银市| 大厂| 崇礼县| 陈巴尔虎旗| 建始县| 分宜县| 江北区| 遵义县| 突泉县| 铜陵市| 旌德县| 屏东县| 宁海县| 莱芜市| 北碚区| 长武县| 绥阳县| 西乌| 启东市| 洛扎县| 白沙| 湘西| 汤阴县| 营山县| 琼结县| 韶关市| 西安市| 四子王旗| 红河县| 开鲁县| 浑源县| 天全县| 进贤县| 上高县| 庆城县| 开封市|