• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于SE-Hardnet網(wǎng)絡(luò)的無人機(jī)圖像目標(biāo)匹配算法

    2024-01-01 00:00:00蘇文博房群忠徐保樹張程碩
    關(guān)鍵詞:候選框圖像匹配邊緣

    摘 要:針對無人機(jī)對目標(biāo)進(jìn)行匹配定位過程中,面臨圖像旋轉(zhuǎn)變化及視角尺寸過小導(dǎo)致的圖像特征提取困難等問題,提出了一種融合候選區(qū)域檢測與SEHardnet特征提取網(wǎng)絡(luò)的無人機(jī)目標(biāo)圖像匹配算法。通過EdgeBoxes算法檢測候選區(qū)域,結(jié)合SEHardnet網(wǎng)絡(luò)進(jìn)行特征提取,實現(xiàn)了目標(biāo)圖像的精確匹配。實驗結(jié)果表明,所提算法在圖像發(fā)生角度、尺寸變化時,具有更高的匹配正確率和魯棒性,在近距離條件下圖片數(shù)據(jù)集中的匹配正確率比現(xiàn)階段圖像匹配算法高8% ~11%。為無人機(jī)目標(biāo)定位提供了一種可行和有效的手段。

    關(guān) 鍵 詞:圖像匹配;候選區(qū)域檢測;EdgeBoxes算法;特征提?。蛔⒁饬C(jī)制;SEHardnet網(wǎng)絡(luò);相似性度量;無人機(jī)目標(biāo)定位

    中圖分類號:TP391.41 文獻(xiàn)標(biāo)志碼:A 文章編號:1000-1646(2024)05-0693-09

    近年來,無人機(jī)在幾次高技術(shù)局部戰(zhàn)爭中的卓越表現(xiàn)引起了世界各國的高度重視,許多國家開始大力發(fā)展軍用無人機(jī)技術(shù)。為了滿足現(xiàn)代信息化戰(zhàn)爭精確打擊的要求,利用無人機(jī)偵察圖像實現(xiàn)對探測目標(biāo)的精確定位成為研究熱點[1]。由于無人機(jī)具有飛行特性復(fù)雜、飛行高度較高、成像條件多變的特點[2],無人機(jī)偵察圖像與目標(biāo)基準(zhǔn)圖像不可避免地存在尺度、角度的不同。為了解決該問題,實現(xiàn)對目標(biāo)基準(zhǔn)圖像的精確定位,需要把無人機(jī)圖像與目標(biāo)基準(zhǔn)圖像進(jìn)行精確匹配,因此,構(gòu)建對圖像尺度、旋轉(zhuǎn)變化具有更好的魯棒性,準(zhǔn)確度高的圖像匹配算法成為其中的關(guān)鍵。

    檢測技術(shù)是解決圖像匹配問題的一種潛在方法,目前流行的目標(biāo)檢測算法(如YOLOV8[3]和FasterRCNN[4]等)通過收集大量的目標(biāo)數(shù)據(jù),并對這些數(shù)據(jù)進(jìn)行詳細(xì)地標(biāo)注和訓(xùn)練學(xué)習(xí),可以準(zhǔn)確地檢測指定的目標(biāo)。由于對數(shù)據(jù)集的強(qiáng)烈依賴,模型的泛化能力往往受到限制。特別在某些特定領(lǐng)域或應(yīng)用場景中,目標(biāo)數(shù)據(jù)非常匱乏,如建筑圖像匹配定位、稀有物種匹配定位等。因此,只利用幾張簡單圖像實現(xiàn)目標(biāo)匹配的能力變得尤為重要。

    近年來,圖像匹配方法從傳統(tǒng)的特征點檢測與匹配(如尺度不變特征變換(SIFT)[5]和加速穩(wěn)健特征(SURF)[6]算法)逐步發(fā)展到利用深度學(xué)習(xí)提取局部特征點(如LoFTR[7]和SuperPoint[8]算法),但這些方法需對圖像下采樣,常忽略無人機(jī)圖像中小尺寸物體的特征,不適用于無人機(jī)圖像匹配。線特征由于其豐富的場景和對象結(jié)構(gòu)信息而受到關(guān)注,MSLD算法[9]通過分析梯度向量構(gòu)建描述子矩陣,提高了描述符的魯棒性。但線段匹配依賴于端點,容易受到無人機(jī)圖像中常見的遮擋和變形影響。區(qū)域特征因其不變性和穩(wěn)定性成為有效的匹配途徑,如最大穩(wěn)定極值區(qū)域(MSER)[10]和FASTMatch算法[11]。此外,基于深度學(xué)習(xí)的圖像區(qū)域匹配成為新興的研究熱點,MatchNet算法[12]通過卷積神經(jīng)網(wǎng)絡(luò)(CNN)執(zhí)行圖像區(qū)域特征提取和相似性度量;Hardnet算法[13]則利用CNN比較灰度圖像塊的相似性。

    現(xiàn)階段圖像匹配算法通常直接對整幅圖像進(jìn)行下采樣以提取特征,完成圖像匹配任務(wù)[14]。該方法對于尺寸較大的物體在匹配效果上表現(xiàn)良好。然而,從無人機(jī)視角拍攝的物體通常較小,且特征不明顯,這使得實現(xiàn)精確匹配變得極為困難。此外,無人機(jī)的飛行高度、飛行姿態(tài)以及圖像采集條件的動態(tài)隨機(jī)性增加了圖像特征提取和匹配的難度,從而嚴(yán)重影響了圖像匹配的精度。

    鑒于上述問題,本研究提出了一種通用的圖像匹配算法,只需要獲取目標(biāo)圖像的幾張圖片,就可以實現(xiàn)準(zhǔn)確匹配定位。該算法首先對整幅圖像進(jìn)行目標(biāo)候選區(qū)域檢測,避免了因下采樣而導(dǎo)致的小目標(biāo)特征提取不足問題。隨后,對檢測到的區(qū)域進(jìn)行特征提取,通過相似性度量實現(xiàn)匹配區(qū)域檢測。通過候選區(qū)域檢測初步篩選關(guān)注區(qū)域,然后針對這些區(qū)域進(jìn)行深入的特征提取和匹配,這不僅提高了小目標(biāo)匹配的準(zhǔn)確性,也增強(qiáng)了算法在面對無人機(jī)偵察圖像時的魯棒性。

    1 候選區(qū)域提取算法

    候選區(qū)域提取算法基于一種核心理念:物體與其背景之間可以通過視覺特性差異進(jìn)行區(qū)分。算法通過識別這些視覺特性,在整幅圖像中分離出可能含有目標(biāo)物體的區(qū)域,以便進(jìn)行更深入的分析。該步驟對于后續(xù)的目標(biāo)檢測至關(guān)重要,因為如果在這個階段某些目標(biāo)區(qū)域未能被識別并提取,則這些目標(biāo)在后續(xù)的檢測中很可能會被遺漏。

    在候選區(qū)域提取方面,算法的執(zhí)行速度是一個至關(guān)重要的考慮因素。不同算法在處理速度上存在顯著差異。Objectness算法[15]通過綜合考慮邊界框的外觀特征、空間位置和內(nèi)部像素分布等因素,確定最有可能包含物體的候選邊界框,但算法計算耗時較長,難以實際應(yīng)用。SelectiveSearch算法[16]利用圖像分割思想,綜合考慮顏色、紋理、大小等多種特征來計算并合并相似區(qū)域,從而生成可能包含物體的候選區(qū)域,這種方法能夠在一定程度上減少候選區(qū)域的數(shù)量,提高目標(biāo)檢測的效率和準(zhǔn)確性。但處理1張640像素×360像素的圖像需要約10s,不適合實時應(yīng)用。區(qū)域生成網(wǎng)絡(luò)(RPN)通過訓(xùn)練學(xué)習(xí),能夠高效生成少數(shù)高質(zhì)量的目標(biāo)候選框,實現(xiàn)高召回率,但對數(shù)據(jù)集依賴性強(qiáng)、泛化能力弱,特別是在未知場景或?qū)ο髼l件下,性能可能下降。EdgeBoxes算法[17]基于滑動窗口的得分函數(shù)評價候選區(qū)域,考慮窗口內(nèi)完整邊緣段的數(shù)量,處理同等大小圖像僅需約0.25s,顯著提高了實時處理能力。

    EdgeBoxes算法的主要思想是基于物體邊緣信息,提取一系列物體候選框,用于加速現(xiàn)有的目標(biāo)物體檢測。該算法首先使用結(jié)構(gòu)化邊緣檢測算法求得圖像的邊緣響應(yīng)圖,接著將邊緣點的空間和方向約束進(jìn)行組合得到多組邊緣片段,然后根據(jù)邊緣片段與候選框的空間幾何關(guān)系給每個邊緣片段賦予權(quán)值,并根據(jù)這些邊緣片段的權(quán)值給候選框賦予得分。算法的具體步驟歸納如下:

    1)輸入圖像,利用結(jié)構(gòu)化邊緣檢測算法對圖像進(jìn)行邊緣檢測,通過非最大抑制處理得到最終的邊緣響應(yīng)圖。

    2)根據(jù)邊緣點的空間相鄰關(guān)系和方向的約束對邊緣點進(jìn)行組合,得到多個邊緣片段。

    3)計算任意2個邊緣片段的相似度,其計算表達(dá)式為

    f(si,sj)= |cos(θi-θij)cos(θj-θij)| (1)

    式中:si、sj為2個邊緣片段;θi、θj和θij分別為兩組邊緣點的平均方向角和兩組邊緣之間的方向夾角。

    4)給定一個候選框,計算每個邊緣片段在該候選框內(nèi)的權(quán)值,具體可以分為4類:位于候選框內(nèi)的邊緣片段權(quán)值為1;候選框邊界相交的邊緣片段權(quán)值為0;邊緣點和邊緣點幾何中心均在候選框之外的邊緣片段權(quán)值為0;而剩下的邊緣點全在候選框外部,其幾何中心位于候選框內(nèi)部的邊緣片段權(quán)值計算表達(dá)式為

    式中,T為該邊緣片段往候選框內(nèi)部延伸時與候選框邊界相交的邊緣片段組成的路徑。如果該路徑不存在,則將權(quán)值賦為1。

    5)統(tǒng)計和候選框相關(guān)聯(lián)的所有邊緣片段并計算候選框的最終得分,其得分計算表達(dá)式為

    式中:mi為邊緣片段的模長;bl和bw 分別為候選框的長和寬;Cin為落在候選框內(nèi)的邊緣片段的集合;k值取1.5,用于抵消大的矩形框或包含較多的邊緣片段所帶來的影響。位于物體內(nèi)部的邊緣片段往往沒有物體輪廓上的邊緣重要,所以最終候選框的得分由式(4)計算的hin來表示。

    圖1為由EdgeBoxes算法檢測到的響應(yīng)值前500的候選框。紅色框標(biāo)示了物體的真實位置,而綠色框則代表算法檢測的候選區(qū)域。

    與目前流行的目標(biāo)檢測算法不同,EdgeBoxes算法作為一種通用的候選框生成算法,利用圖像的邊緣信息來生成候選區(qū)域,無須預(yù)先收集特定目標(biāo)的信息進(jìn)行訓(xùn)練學(xué)習(xí)。這種方法不僅使其具備了更廣泛的適用性,還能夠靈活應(yīng)用于各種場景和不同類型的目標(biāo)提取任務(wù)中。

    2 區(qū)域特征提取算法

    當(dāng)2幅圖像存在較大的非線性變化時,通過計算鄰域梯度信息的SIFT算法不能保證特征描述的穩(wěn)定性。特別是在無人機(jī)偵察的圖像景物較為模糊時,基于手工設(shè)計的特征描述子表達(dá)能力有限。然而,CNN算法逐漸展現(xiàn)出其優(yōu)越的特征提取性能,因此,圖像特征提取的研究逐漸從SIFT特征轉(zhuǎn)向CNN特征。

    本文利用Hardnet網(wǎng)絡(luò)提取物體塊的深度特征,基于公共數(shù)據(jù)集Brown訓(xùn)練提取網(wǎng)絡(luò),網(wǎng)絡(luò)輸入為提取的物體塊,輸出為構(gòu)建的物體塊特征。訓(xùn)練過程中,同時輸入一組相同的物體塊,通過特征提取網(wǎng)絡(luò)生成各自的特征描述符;結(jié)合物體塊標(biāo)簽構(gòu)建網(wǎng)絡(luò)損失函數(shù),使得匹配物體塊間的特征距離盡量小,非匹配物體塊間的特征距離盡量大。實驗表明,Hardnet學(xué)習(xí)的描述子在圖像匹配方面優(yōu)于傳統(tǒng)的SIFT、SURF等手工設(shè)計的描述子。

    2.1 Hardnet網(wǎng)絡(luò)結(jié)構(gòu)

    Hardnet的網(wǎng)絡(luò)共有7個卷積層,如圖2所示,網(wǎng)絡(luò)的輸入為固定尺寸(32像素×32像素)的灰度物體塊,卷積層除最后一層外都用零填充。除最后一層之外,每個層后面依次進(jìn)行批處理歸一化和ReLU激活操作。網(wǎng)絡(luò)的輸出被L2歸一化以產(chǎn)生具有單位長度的128維描述符。

    2.2 Hardnet損失函數(shù)

    損失函數(shù)旨在優(yōu)化匹配描述子之間的距離,確保2幅圖像中匹配的描述子間距離盡量小,而不匹配描述子間距離盡量大。即最小化正樣本的距離、最大化負(fù)樣本的距離。

    已知2幅待匹配圖像,Ai和Pi表示2個圖像的訓(xùn)練集,其中有2n個圖像塊,n個匹配對,a1和p1為描述子。描述子之間的距離可表示為

    訓(xùn)練集采樣過程如圖3所示。

    對于匹配的描述子a1、p1,距離最近的非匹配描述子分別為p4、a2,相關(guān)定義如下:akmin為最接近pi 的不匹配描述子,其中,Kmin =mink≠d(ak,pi);pjmin為最接近ai的不匹配描述子,其中,Jmin=mink≠d(ak,pj)。

    每個匹配描述子都可以生成四元組(ai,pi,pjmin,akmin),然后生成三元組,即

    式中,min[d(ai,pjmin),d(akmin,pj)]為最近負(fù)樣本距離。

    2.3 SE-Hardnet網(wǎng)絡(luò)

    為了更加高效地提取特征采樣區(qū)域內(nèi)的關(guān)鍵信息,同時抑制相對次要的特征,提出了一種結(jié)合注意力機(jī)制的特征提取網(wǎng)絡(luò)。通過實驗分析發(fā)現(xiàn),特征采樣區(qū)域內(nèi)的邊緣和角點成為了區(qū)分不同特征的主要信息,而相對平滑的區(qū)域?qū)μ卣鞯谋磉_(dá)貢獻(xiàn)較小。基于這一觀點,本文在Hardnet網(wǎng)絡(luò)框架中引入了SE-Net[18]網(wǎng)絡(luò)結(jié)構(gòu),其具體結(jié)構(gòu)如圖4所示。

    SE-Net網(wǎng)絡(luò)結(jié)構(gòu)通過學(xué)習(xí)得到每個通道的重要程度,進(jìn)而優(yōu)化特征提取過程,確保網(wǎng)絡(luò)能夠聚焦于信息量豐富的特征。同時,為了提高描述子匹配的效率,本文將每個輸出特征的維度優(yōu)化至64維。這一改進(jìn)不僅加強(qiáng)了網(wǎng)絡(luò)對關(guān)鍵特征的提取能力,還顯著提升了特征匹配的速度。SE-Hardnet網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

    在SE-Net網(wǎng)絡(luò)結(jié)構(gòu)應(yīng)用之前,特征圖的每個通道都被賦予了相同的重要性,這導(dǎo)致網(wǎng)絡(luò)在處理信息時缺乏針對性。然而,在引入SE-Net網(wǎng)絡(luò)結(jié)構(gòu)之后,每個特征通道的重要性得以區(qū)分,不同顏色直觀地展示了不同權(quán)重,這使得神經(jīng)網(wǎng)絡(luò)能夠更加聚焦于權(quán)重值較大的通道,有效地增強(qiáng)了網(wǎng)絡(luò)對關(guān)鍵信息的捕捉能力,提高了模型的性能。

    3 實驗結(jié)果與分析

    實驗使用硬件:GPU 為NVIDIA GeForceGTX3090TI,RAM 為11GB,CPU為IntelXeonE5-2640,頻率為2.40GHz,系統(tǒng)平臺為Ubuntu16.0464-bit與CUDA11.7,開發(fā)環(huán)境為PyTorch1.3,編程語言為Python3.6。實驗所用的訓(xùn)練集是Brown數(shù)據(jù)集中的Liberty子集。測試集為NotreDame子集Yosemite。

    3.1 SE-Hardnet算法對比

    本節(jié)給出了SE-Hardnet算法的相關(guān)實驗結(jié)果。論述了所提算法與Hardnet算法的對比實驗,并從算法的參數(shù)量、模型大小和運算速度等方面分析了所提出改進(jìn)算法的優(yōu)點。具體參數(shù)對比分析如表1所示。

    從參數(shù)量的角度來看,修改后的網(wǎng)絡(luò)顯著減少了網(wǎng)絡(luò)所需的參數(shù)量。網(wǎng)絡(luò)在訓(xùn)練過程中需要學(xué)習(xí)的參數(shù)減少,降低了訓(xùn)練的復(fù)雜度,還有助于緩解過擬合問題,提高模型的泛化能力。運算速度的提高也是修改后網(wǎng)絡(luò)的另一個優(yōu)勢。通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)減少計算量,網(wǎng)絡(luò)在訓(xùn)練和推理過程中能夠更快地完成任務(wù)。這不僅提高了工作效率,還使得模型能夠進(jìn)一步處理更大規(guī)模的數(shù)據(jù)集,提升了模型的性能。

    圖6為網(wǎng)絡(luò)在不同測試集上的假正率(FPR)對比情況。假正率是指被錯誤預(yù)測為正樣本的負(fù)樣本數(shù)占真實負(fù)樣本總數(shù)的比例。盡管結(jié)構(gòu)有所變化,但效果與原始網(wǎng)絡(luò)相近,說明優(yōu)化結(jié)構(gòu)并未降低性能,反而在保持性能的同時降低了模型的復(fù)雜度和計算成本。

    當(dāng)網(wǎng)絡(luò)輸出維度從128維調(diào)整為64維時,算法的運行時間從0.044s顯著縮短至0.0032s,執(zhí)行效率得到提升。這一調(diào)整有效減少了計算成本并優(yōu)化了性能。

    3.2 圖像匹配實驗

    為了驗證本文圖像匹配算法的可行性以及相比于已有算法的優(yōu)勢,設(shè)計了對比實驗。SE-Hardnet網(wǎng)絡(luò)和SuperPoint網(wǎng)絡(luò)均采用公共數(shù)據(jù)集Brown進(jìn)行訓(xùn)練。

    通過EdgeBoxes算法對無人機(jī)采集到的圖像進(jìn)行候選區(qū)域提取,將提取到的候選區(qū)域和目標(biāo)圖像統(tǒng)一尺寸為32像素×32像素,并按列拼接,拼接后圖像寬為32。將拼接后的圖像送入SE-Hardnet網(wǎng)絡(luò),分別提取特征,每一個候選區(qū)域得到一個64維的描述子。將提取到候選區(qū)域的描述子分別和目標(biāo)圖像的描述子進(jìn)行皮爾遜相似度計算,并對結(jié)果進(jìn)行排序,選出最大值,因而能夠在圖像中精準(zhǔn)地匹配到目標(biāo)圖像,實現(xiàn)了目標(biāo)圖像的快速檢測與定位。整體流程如圖7所示。

    3.2.1 不同尺寸分析

    無人機(jī)在同一視角下由遠(yuǎn)及近采集一系列圖像,尺寸均為1920像素×1080像素。待匹配的圖像分為同景圖像(目標(biāo)圖像和待匹配圖像來自同一場景)和異景圖像(目標(biāo)圖像和待匹配圖像來自不同場景)兩種。不同距離下圖像匹配效果對比結(jié)果如表2所示。

    實驗結(jié)果表明,當(dāng)圖像目標(biāo)小于20像素×20像素時,輪廓信息模糊,進(jìn)而導(dǎo)致匹配算法難以準(zhǔn)確識別。然而,隨著無人機(jī)逐漸接近目標(biāo),目標(biāo)物體在圖像中的尺寸逐漸增大,對于同景圖像,當(dāng)達(dá)到約25像素×25像素時,匹配算法便能夠穩(wěn)定且精準(zhǔn)地實現(xiàn)匹配。對于異景圖像,其匹配效果相較于同景圖像在小尺寸目標(biāo)上顯得遜色。這主要是因為異景圖像中的小尺寸目標(biāo)在進(jìn)行候選區(qū)域檢測時,更容易受到周圍環(huán)境的干擾,導(dǎo)致匹配算法難以有效區(qū)分目標(biāo)與背景,進(jìn)而影響了匹配效果。根據(jù)COCO數(shù)據(jù)集的定義,尺寸小于32像素×32像素的目標(biāo)被認(rèn)為是小目標(biāo),因此,本文提出的算法能夠較好地實現(xiàn)對小目標(biāo)的匹配。每組圖片左上角為目標(biāo)圖像,不同尺寸圖像的匹配情況如圖8所示。

    3.2.2 不同角度分析

    通過無人機(jī)在不同角度和距離下采集的圖片,研究旋轉(zhuǎn)角度對圖像匹配效果的影響。由于待匹配圖像是地面目標(biāo),故角度只考慮繞Z軸旋轉(zhuǎn)的效果,匹配結(jié)果如表3所示。每組圖片左上角為目標(biāo)圖像,不同角度圖像匹配效果如圖9所示。

    實驗結(jié)果表明,當(dāng)目標(biāo)尺寸較小,尤其是低于40像素×40像素時,匹配距離受角度影響更為顯著。在這種情況下,由于目標(biāo)圖像的角度偏移較大,往往只能捕捉到目標(biāo)的局部特征,而無法獲取全局特征,因此匹配效果較差。相反,對于尺寸較大的目標(biāo),最大角度偏移可達(dá)[-60°,60°]。

    3.2.3 不同算法對比分析

    為了全面客觀地評估本文提出算法的性能,將其與傳統(tǒng)算法(如SIFT、SURF算法)以及當(dāng)前流行的深度學(xué)習(xí)方法(如SuperPoint算法)進(jìn)行了比較。在比較過程中,傳統(tǒng)算法通過SIFT、SURF算法提取特征點,并借助RANSAC算法進(jìn)行特征點的精確匹配;而深度學(xué)習(xí)方法則通過SuperPoint算法提取特征點,再結(jié)合SuperGlue和LightGlue算法以提高匹配的精確性。將匹配點數(shù)量達(dá)到或超過15個定義為匹配成功。不同匹配算法對比結(jié)果如表4所示,括號內(nèi)的數(shù)字代表成功匹配的特征點數(shù)量。SE-Hardnet網(wǎng)絡(luò)和SuperPoint網(wǎng)絡(luò)均采用公共數(shù)據(jù)集Brown進(jìn)行訓(xùn)練。每組圖片左部為目標(biāo)圖像,不同匹配算法的匹配圖像如圖10所示。

    不同算法測試曲線如圖11所示,無論是傳統(tǒng)方法(SIFT、SURF算法)還是深度學(xué)習(xí)方法(Super-Point算法),在近距離下都展現(xiàn)出良好的匹配效果,且隨著距離減小,匹配點數(shù)量和匹配效果逐漸提升。這是因為近距離物體特征點豐富,更易匹配。然而,在無人機(jī)視角下,物體偏小導(dǎo)致匹配效果變差。相比之下,本文提出的EdgeBoxes+SE-Hardnet算法表現(xiàn)更好,通過直接檢測圖像中的目標(biāo)候選區(qū)域并進(jìn)行匹配,能夠更有效地應(yīng)對小尺寸目標(biāo)的匹配問題。

    為了更深入地探討并比較算法的性能,特別構(gòu)建了一個近距離數(shù)據(jù)集,主要聚焦于無人機(jī)與目標(biāo)物體距離在50m以內(nèi)的場景,匹配正確率計算表達(dá)式為

    P=Nc /Nt (8)

    式中:Nc為正確匹配的數(shù)量;Nt為匹配的總數(shù)量。具體匹配效果如表5所示。

    通過對比表5數(shù)據(jù)可以看出,本文所提算法在近距離條件下的匹配效果同樣優(yōu)于其他算法。從整體趨勢來看,所提出的算法在無人機(jī)視角下的匹配效果具有顯著的競爭優(yōu)勢,不僅在小尺寸目標(biāo)匹配上,而且在近距離條件下也相對占優(yōu)。相較于傳統(tǒng)方法和深度學(xué)習(xí)匹配方法,所提算法在無人機(jī)視角下表現(xiàn)出更為全面和優(yōu)越的性能。

    4 結(jié)束語

    本文提出了一種通用的圖像匹配算法,僅需獲取目標(biāo)圖像的幾張圖片便能實現(xiàn)精準(zhǔn)的目標(biāo)匹配。與當(dāng)前目標(biāo)檢測算法相比,所提算法無須提前收集大量目標(biāo)物體信息,能夠適用于不同類型的圖像,不受特定領(lǐng)域限制。本文算法采用EdgeBoxes來檢測圖像中的目標(biāo)候選區(qū)域,利用SE-Hardnet網(wǎng)絡(luò)提取區(qū)域的深度特征,并通過計算相似度來判定圖像中相匹配的候選區(qū)域。與當(dāng)前圖像匹配方法相比,所提算法能夠?qū)崿F(xiàn)更高的匹配精度,并且能夠在面對尺寸變化、角度變化等因素時,仍保持精確地匹配,所提算法可進(jìn)一步應(yīng)用于需要較高匹配精度的計算機(jī)視覺任務(wù)。未來研究將考慮優(yōu)化候選區(qū)域提取算法,以提升匹配算法的實時性和適用性。

    參考文獻(xiàn)(References):

    [1]朱得糠,李東澤,郭鴻博,等.無人機(jī)視覺地理定位研究綜述[J].導(dǎo)航與控制,2023,22(3):21-33.

    (ZHUDK,LID Z,GUO H B,etal.A review ofresearchonvisionbasedgeolocationforunmannedaerialvehicles[J].NavigationandControl,2023,22(3):21-33.)

    [2]王博,宋丹,王洪玉.無人機(jī)自主巡檢系統(tǒng)的關(guān)鍵技術(shù)研究[J].計算機(jī)工程與應(yīng)用,2021,57(9):255-263.

    (WANGB,SONGD,WANGHY.ResearchonkeytechnologiesofUAV autonomousinspectionsystem[J].ComputerEngineeringandApplications,2021,57(9):255-263.)

    [3]胡峻峰,李柏聰,朱昊,等.改進(jìn)YOLOv8的輕量化無人機(jī)目標(biāo)檢測算法[J].計算機(jī)工程與應(yīng)用,2024,60(8):182-191.

    (HUJF,LIBC,ZHUH,etal.AnimprovedlightweightunmannedaerialvehicletargetdetectionalgorithmbasedonYOLOv8[J].ComputerEngineeringandApplications,2024,60(8):182-191.)

    [4]汪常建,丁勇,盧盼成.融合改進(jìn)FPN與關(guān)聯(lián)網(wǎng)絡(luò)的FasterRCNN目標(biāo)檢測[J].計算機(jī)工程,2022,48(2):173-179.

    (WANGCJ,DINGY,LUPC.TargetdetectionoffasterRCNNbasedonimprovedFPNandassociationnetwork[J].ComputerEngineering,2022,48(2):173-179.)

    [5]LOWEDG.Distinctiveimagefeaturesfrom scaleinvariantkeypoints[J].InternationalJournalofComputerVision,2004,60(2):91-110.

    [6]BAYH,TUYELAARST,GOOLLV.SURF:speededuprobustfeatures[C]//Proceedingsofthe9thEuropeanConferenceonComputerVision.Graz,Austria:Springer,2006:404-417.

    [7]SUNJ,SHEN Z,WANG Y,etal.LoFTR:detectorfreelocalfeaturematchingwithtransformers[C]//ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.Nashville,USA:IEEE,2021:8922-8931.

    [8]DETONED,MALISIEWICZ T,RABINOVICH A.Superpoint:selfsupervisedinterestpointdetectionanddescription[C]//ProceedingsoftheIEEE ConferenceonComputerVisionandPatternRecognitionWorkshops.SaltLakeCity,USA:IEEE,2018:224-236.

    [9]WANGZ,WU F,HU Z.MSLD:arobustdescriptorforlinematching[J].PatternRecognition,2009,42(5):941-953.

    [10]MATASJ,CHUM O,URBANM,etal.Robustwidebaselinestereofrommaximallystableextremalregions[J].ImageandVisionComputing,2004,22(10):761-767.

    [11]KORMANS,REICHMAN D,TSUR G,etal.Fastmatch:fastaffinetemplatematching[J].InternationalJournalofComputerVision,2017,121(1):111-125.

    [12]HANX,LEUNGT,JIAY,etal.MatchNet:unifyingfeatureandmetriclearningforpatchbasedmatching[C]//2015IEEEConferenceonComputerVisionandPatternRecognition.Boston,USA:IEEE,2015:3279-3286.

    [13]MISHCHUKA,MISHKIND,RADENOVICF,etal.Workinghardtoknowyourneighbor′smargins:localdescriptorlearningloss[C]//Proceedingsofthe31stInternationalConferenceonNeuralInformationProcessingSystems.California,USA:CurranAssociates,2017:4827-4838.

    [14]劉海橋,劉萌,龔子超,等.基于深度學(xué)習(xí)的圖像匹配方法綜述[J].航空學(xué)報,2024,45(3):82-95.

    (LIUHQ,LIUM,GONGZC,etal.Areviewofimagematchingmethodsbasedondeeplearning[J].ActaAeronauticaetAstronauticaSinica,2024,45(3):82-95.)

    [15]王嬌嬌,劉政怡,李輝.特征融合與objectness加強(qiáng)的顯著目標(biāo)檢測[J].計算機(jī)工程與應(yīng)用,2017,53(2):195-200.

    (WANGJJ,LIUZY,LIH.Featurefusionandobjectnessenhancedapproachofsaliencydetection[J].ComputerEngineering and Applications,2017,53(2):195-200.)

    [16]UIJLINGSJR,SANDEK E,GEVERST,etal.Selectivesearchforobjectrecognition[J].InternationalJournalofComputerVision,2013,104(2):154-171.

    [17]ZITNICKCL,DOLLARP.Edgeboxes:locatingobjectproposalsfrom edges[C]//EuropeanConferenceonComputerVision.Edinburgh,Scotland:Springer,2014:391-405.

    [18]祁宣豪,智敏.圖像處理中注意力機(jī)制綜述[J].計算機(jī)科學(xué)與探索,2024,18(2):345-362.

    (QIXH,ZHIM.Areviewofattentionmechanismsinimageprocessing[J].JournalofFrontiersofComputerScienceandTechnology,2024,18(2):345-362.)

    (責(zé)任編輯:景 勇 英文審校:尹淑英)

    特邀專家 蘇文博,沈陽工業(yè)大學(xué)信息科學(xué)與工程學(xué)院教授,中國機(jī)器人檢測認(rèn)證聯(lián)盟技術(shù)委員會無人機(jī)認(rèn)證技術(shù)專家、中國無人機(jī)產(chǎn)業(yè)聯(lián)盟副理事長、遼寧省工商聯(lián)副主席。國家中組部“萬人計劃-科技創(chuàng)業(yè)”領(lǐng)軍人才、遼寧省“興遼英才計劃”領(lǐng)軍人才、遼寧省百千萬工程人才。長期致力于無人機(jī)精確制導(dǎo)方向研究,專注于新型無人機(jī)系統(tǒng)方面的前沿、瓶頸技術(shù)問題。創(chuàng)立通過標(biāo)定雷達(dá)和紅外相機(jī)實現(xiàn)空間配準(zhǔn)的方法,該技術(shù)在國內(nèi)紅外成像技術(shù)產(chǎn)品上得到廣泛應(yīng)用。創(chuàng)辦的沈陽無距科技有限公司被評為國家高新技術(shù)企業(yè)、遼寧省潛在獨角獸企業(yè)、遼寧省“興遼英才計劃”高水平創(chuàng)新創(chuàng)業(yè)團(tuán)隊。擁有專利22項,承擔(dān)省部級科研項目11項,累計獲專項經(jīng)費2000萬元。2021年作為遼寧省唯一青年企業(yè)家代表參加統(tǒng)戰(zhàn)部與清華大學(xué)聯(lián)合舉辦的“新時代民營企業(yè)家培養(yǎng)計劃”。

    基金項目:遼寧省“興遼英才”項目(XLYC2002100)。

    猜你喜歡
    候選框圖像匹配邊緣
    重定位非極大值抑制算法
    面向自然場景文本檢測的改進(jìn)NMS算法
    基于Soft-NMS的候選框去冗余加速器設(shè)計*
    一種針對特定目標(biāo)的提議算法
    一種用于光照變化圖像匹配的改進(jìn)KAZE算法
    一張圖看懂邊緣計算
    挖掘機(jī)器人圖像匹配算法研究
    基于SIFT和LTP的圖像匹配方法
    基于降落圖像匹配的嫦娥三號著陸點位置評估
    航天器工程(2014年4期)2014-03-11 16:35:37
    在邊緣尋找自我
    雕塑(1999年2期)1999-06-28 05:01:42
    奎屯市| 礼泉县| 八宿县| 台安县| 铜陵市| 抚州市| 招远市| 新疆| 民县| 和林格尔县| 黄陵县| 西安市| 蕉岭县| 绵阳市| 盘锦市| 林州市| 黄陵县| 若羌县| 汉阴县| 南郑县| 岑溪市| 宁安市| 乐至县| 秦皇岛市| 辽宁省| 家居| 调兵山市| 乌恰县| 新化县| 日土县| 界首市| 通江县| 遵义市| 金湖县| 方城县| 新余市| 西宁市| 修文县| 潜江市| 益阳市| 三亚市|