• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于自適應(yīng)深度約束的水下雙目圖像特征匹配

      2022-01-14 01:40:06田嘉禾王寧陳廷凱李春艷陳帥
      中國艦船研究 2021年6期
      關(guān)鍵詞:圖像匹配雙目關(guān)鍵點(diǎn)

      田嘉禾,王寧,陳廷凱,李春艷,陳帥

      1 大連海事大學(xué) 船舶電氣工程學(xué)院,遼寧 大連 116026

      2 大連海事大學(xué) 輪機(jī)工程學(xué)院,遼寧 大連 116026

      3 哈爾濱工程大學(xué) 船舶工程學(xué)院,黑龍江 哈爾濱 150001

      0 引 言

      隨著海洋智能體技術(shù)的快速發(fā)展,基于計(jì)算機(jī)視覺的水下環(huán)境智能感知技術(shù)在海洋開發(fā)中扮演著越來越重要的角色,尤其是在海底地形勘察、海洋環(huán)境監(jiān)測以及水下目標(biāo)檢測識別等領(lǐng)域,具有重要的研究意義[1]。雙目立體匹配作為雙目視覺系統(tǒng)的核心技術(shù),其精度與效率對后續(xù)的三維重建等工作有著極大的影響[2]。高精度的圖像匹配技術(shù)引起了國內(nèi)外學(xué)者的廣泛關(guān)注,針對空氣中的立體匹配研究,Lowe[3]提出了具有旋轉(zhuǎn)和尺度不變性的SIFT (scale invariant feature transform)圖像描述方法,但使用高維的描述向量不可避免地導(dǎo)會致SIFT算法計(jì)算緩慢,難以滿足實(shí)時性要求。Bay等[4]等提出了穩(wěn)健加速SURF(speededup robust features)算法,即在匹配過程中采用具有64維向量的特征點(diǎn)描述子,可有效提高匹配效率。PCA-SIFT (principal components analysis-SIFT)算法[5]借助主成分分析的策略可改善SIFT平滑加權(quán)直方圖的描述方法,能使特征描述更加簡潔、快速;ORB (oriented FAST and rotated BRIEF)算法[6]結(jié)合FAST (features from accelerated segment test)算子與BRIEF (binary robust independent elementary features)描述符,可使匹配速率提升2個量級。上述算法雖然能夠提高匹配速率,但難以保證水下圖像匹配的準(zhǔn)確率。

      需要指出的是,一方面,水中折射會影響光線的照射方向[7],導(dǎo)致相機(jī)的水下成像模型與空氣中不同;另一方面,水下光照不均勻,會導(dǎo)致圖像特征點(diǎn)稀疏,空氣中的匹配方法難以直接平移應(yīng)用于水下圖像匹配。就目前而言,水下匹配方法主要分為稠密匹配與稀疏特征匹配2種。李雅倩等[8]提出了一種基于深度約束的半全局算法,通過采用拋物擬合法得到亞像素級的稠密視差圖,有效實(shí)現(xiàn)了高精度的水下稠密立體匹配;Gedge[9]提出了一種水下相機(jī)反投影折射模型并建立了曲線約束條件,可有效刪除誤匹配點(diǎn),獲取稠密的特征點(diǎn)視差;Ferreira等[10]分析了折射因素對水下圖像的影響并進(jìn)行了近似估計(jì),在對水下圖像進(jìn)行處理時,弱化折射因素對水下圖像的影響可提高水下雙目圖像匹配的正確率。針對稀疏特征匹配研究,張強(qiáng)等[11]提出了基于曲線約束的UCCSIFT(SIFT feature matching based on underwater curve constraint)特征匹配算法,通過對水下成像模型的分析建模,并引入折射率因素,構(gòu)建曲線約束方程來改善空氣中的極線約束模型,改善了SIFT算法在水下雙目立體匹配中誤匹配率高的問題,但對于約束剔除閾值的選取不具泛化性;李佳寬等[12]將ORB算法與水下曲線約束策略相結(jié)合,可有效剔除水下圖像的誤匹配點(diǎn),提高了匹配效率。

      需要注意的是,上述方法在匹配的過程中并未考量水下特征信息缺失的因素,剔除了大量帶有水下特征信息的關(guān)鍵點(diǎn)。另外,上述匹配算法的效率與精度還受最鄰近匹配閾值的影響,閾值的選取難以統(tǒng)一?;诖?,本文擬提出一種基于自適應(yīng)深度約束(ADC)的水下雙目圖像稀疏特征匹配算法,針對水下圖像中的稀疏特征,結(jié)合FAST算子與SIFT描述子來有效提高正確匹配點(diǎn)對的數(shù)量,以在保證算法穩(wěn)定性的同時提高匹配效率;然后,通過建立自適應(yīng)閾值約束的方法降低閾值選取對圖像匹配的影響,極大程度地還原圖像原始特征信息。

      1 水下圖像特征匹配方法

      在水下拍攝的圖像受光照和介質(zhì)散射的影響,具有紋理不清、色彩單一以及光照不均的特點(diǎn),若采用傳統(tǒng)的特征點(diǎn)檢測方法,將僅能獲取有限的特征點(diǎn)[13]。因此,本文擬采用FAST算法提取大量特征點(diǎn),用于描述水下圖像的紋理信息,然后采用SIFT方法構(gòu)建高維匹配基元,用以保證匹配準(zhǔn)確率。

      1.1 FAST特征檢測

      FAST[14]作為一種角點(diǎn)檢測算法,不涉及特征點(diǎn)的特征描述。為獲取圖像中的特征點(diǎn)位置,首先,對圖像施加FAST算子以提取響應(yīng)值最大的特征點(diǎn),然后,對相應(yīng)的特征點(diǎn)添加方向?qū)傩?,以此獲取具有位置和旋轉(zhuǎn)屬性的特征區(qū)域。

      為了獲取不同位置的像素狀態(tài)S p→m,如圖1所示,以像素點(diǎn)P為圓心,以r=3為半徑作圓[14],覆蓋周圍的16個像素點(diǎn)分別對應(yīng)16個位置,則S p→m可以表示為:

      圖1 FAST特征檢測原理圖Fig.1 Schematic diagram of FAST feature detection

      式中:m∈{1,2,···,16},為點(diǎn)P周圍像素點(diǎn)的索引值;Ip→m為對應(yīng)像素點(diǎn)的像素值;t為檢測時的經(jīng)驗(yàn)閾值。當(dāng)周圍像素的像素值與P點(diǎn)像素值的差值分別小于、大于和等于經(jīng)驗(yàn)閾值時,該位置像素點(diǎn)的狀態(tài)分別為d(dark),b(bright)和s(similar),分別表示周圍像素點(diǎn)的亮度為暗、亮和約等于P點(diǎn)的亮度。

      為了獲得關(guān)鍵點(diǎn)集合,計(jì)算每個檢測到的角點(diǎn)得分,如式(2)所示。

      其中,

      式中,Sb,Sd分別指像素點(diǎn)狀態(tài)為b和d時該像素點(diǎn)所在位置的集合。計(jì)算以P點(diǎn)為中心的鄰域內(nèi)16個像素點(diǎn)與P點(diǎn)的像素值差的總和,保留響應(yīng)分?jǐn)?shù)最大的特征點(diǎn),得到最終的關(guān)鍵點(diǎn)集合。

      1.2 SIFT特征描述方法

      SIFT[3]特征匹配方法由特征檢測與特征點(diǎn)描述2部分組成。針對特征點(diǎn)描述部分,SIFT方法通過計(jì)算像素梯度方向,為每個像素點(diǎn)分配高維的、具有獨(dú)特性的描述符,以使匹配度量不受角度影響。本文將借助SIFT描述子的穩(wěn)定性來對經(jīng)過FAST方法檢測后的關(guān)鍵點(diǎn)建立描述向量。首先,根據(jù)輸入的圖像建立尺度空間,即利用高斯函數(shù)對圖像進(jìn)行模糊和降采樣工作來得到圖像高斯金字塔,計(jì)算公式為:

      式 中:L(x,y,σ)為 高 斯 函 數(shù)G(x,y,σ)對 圖 像I(x,y)的 模糊函數(shù);σ2為分布方差。

      經(jīng)高斯金字塔篩選出的關(guān)鍵點(diǎn)具有尺度不變性,在匹配過程中,為使匹配度量不受角度的影響,為每個關(guān)鍵點(diǎn)建立了獨(dú)特的描述符,如圖2所示。

      圖2 關(guān)鍵點(diǎn)主方向分配原理圖Fig.2 Schematic diagram of main direction assignment of key points

      采用16×16的窗口建立關(guān)鍵點(diǎn)描述區(qū)域,將關(guān)鍵點(diǎn)的基準(zhǔn)方向旋轉(zhuǎn)至與x軸重合,其中,像素點(diǎn)梯度方向的選取如式(6)所示:

      式中:m(x,y), θ(x,y)分別為圖像中像素點(diǎn)的梯度模值與方向角;L(x+1,y),L(x?1,y),L(x,y+1)和L(x,y?1)分別為對應(yīng)像素點(diǎn)在其鄰域內(nèi)的尺度空間函數(shù)。通過構(gòu)建關(guān)鍵點(diǎn)鄰域梯度分布直方圖,選取分布最廣的方向作為關(guān)建點(diǎn)的主方向。

      旋轉(zhuǎn)后的坐標(biāo)(x,y)表示為

      式中: (xi,yi)為 關(guān)鍵點(diǎn)的初始坐標(biāo);θ0為繞基準(zhǔn)方向旋轉(zhuǎn)的角度。在圖像半徑區(qū)域內(nèi),根據(jù)每個像素點(diǎn)的梯度幅值與方向,通過分配高斯權(quán)重來生成方向分布直方圖。

      利用上述方法,在4×4區(qū)域內(nèi)生成8個方向的梯度方向直方圖,然后將每個方向的梯度累加,形成一個種子點(diǎn)。在16×16區(qū)域內(nèi)共生成了16個種子點(diǎn),因?yàn)槊總€描述子包含鄰域128維相關(guān)信息,因此,每個關(guān)鍵點(diǎn)的描述向量都具備獨(dú)特性與互異性,提高了算法的抗噪能力。

      1.3 水下圖像特征點(diǎn)匹配

      使用歐氏距離對雙目圖像中待匹配點(diǎn)的相似性進(jìn)行度量,即尋找與關(guān)鍵點(diǎn)歐氏距離最小的特征點(diǎn),即可得到最近相鄰點(diǎn)距離N。根據(jù)歐氏距離計(jì)算次近相鄰點(diǎn)距離S,通過比較相鄰點(diǎn)距離與次近點(diǎn)距離的比值是否小于閾值T來判斷是否接受這一對匹配點(diǎn),如式(8)所示:

      式中,T為預(yù)設(shè)閾值,且0<T≤1。匹配對數(shù)會隨著預(yù)設(shè)閾值T的增大而增加,匹配對數(shù)增加,特征點(diǎn)匹配正確率卻逐漸降低;相反,當(dāng)降低預(yù)設(shè)閾值T時,匹配的對數(shù)減少,匹配過程更加穩(wěn)定。

      2 水下自適應(yīng)深度約束框架

      當(dāng)雙目相機(jī)在水下環(huán)境工作時,空氣中的極線約束方法由于受到光的折射影響難以適用[15],因此在實(shí)際水下環(huán)境中,可通過考慮不同介質(zhì)之間的折射率,設(shè)計(jì)自適應(yīng)深度約束模型來減小圖像匹配過程中的搜索區(qū)域,提高匹配效率。

      2.1 水下匹配深度約束模型

      為了減小匹配過程中關(guān)鍵點(diǎn)的搜索范圍并提高匹配精度,在空氣中常用極線約束方法來對最終匹配結(jié)果進(jìn)行篩選[16]??紤]到水介質(zhì)會對水下圖像帶來不良影響[17],為剔除誤匹配點(diǎn),本文構(gòu)建了不同介質(zhì)間相對折射率的約束模型,具體如圖3所示。

      圖3 水下反投影模型Fig.3 Underwater back projection model

      圖3中:水下目標(biāo)點(diǎn)Q在相機(jī)坐標(biāo)系下的坐標(biāo)為 (x2,y2,z2);投影到左、右成像面上的投影點(diǎn)分別為Pl和Pr;投影到折射平面上的投影點(diǎn)分別為Pl′和Pr′;雙目相機(jī)焦距為f;光心到水面的距離為h;目標(biāo)點(diǎn)至水面的距離為d;θ為左成像點(diǎn)與相機(jī)坐標(biāo)系下y軸的夾角;φ2和φ3分別為左、右折射面對應(yīng)的入射角;φ1和φ4分別為左、右折射面對應(yīng)的折射角。根據(jù)相似三角形原理,可將坐標(biāo)(x1,y1,z1)表示為

      相應(yīng)地,根據(jù)d和h以及折射點(diǎn)之間的位置關(guān)系,得到水下目標(biāo)點(diǎn)Q的坐標(biāo) (x2,y2,z2)為

      利用Q,和Or這3點(diǎn)的坐標(biāo),求得平面方程為

      由于Pr的縱坐標(biāo)z=f,由此可得Pr的坐標(biāo)方程為

      2.2 水下誤匹配點(diǎn)剔除策略實(shí)現(xiàn)

      本文在SIFT算法的基礎(chǔ)上,結(jié)合FAST角點(diǎn)檢測算法,并引入水下折射率因素的約束條件,實(shí)行了水下雙目圖像特征匹配,具體的流程如圖4所示。匹配過程主要分為4個步驟:

      圖4 水下圖像匹配流程圖Fig.4 Flow chart of underwater image matching

      1) 利用FAST角點(diǎn)提取算法,通過設(shè)定閾值計(jì)算像素點(diǎn)狀態(tài),并提取左、右兩幅圖像關(guān)鍵點(diǎn)的位置。通過計(jì)算關(guān)鍵點(diǎn)的FAST得分,得到兩幅圖像各自的待匹配特征點(diǎn)集。

      2) 使用SIFT算法對兩幅圖像的待匹配特征點(diǎn)集進(jìn)行描述,并利用中心像素點(diǎn)周圍像素的梯度信息生成128維描述子。

      3) 通過關(guān)鍵點(diǎn)的描述信息計(jì)算左、右圖像特征點(diǎn)的歐氏距離,得到最近相鄰點(diǎn)距離以及次近鄰點(diǎn)距離。計(jì)算2個距離的比值,篩選出比值小于閾值T的左、右圖像特征點(diǎn)來作為預(yù)備匹配點(diǎn)對,T值通常取為0.4~0.6[3]。

      4) 利用相機(jī)的內(nèi)、外參數(shù)以及水下折射率,對不在約束方程的匹配點(diǎn)對進(jìn)行篩選。在篩選過程中,由于誤差的存在,特征點(diǎn)不會完全落在約束曲線上,此時,檢測特征點(diǎn)與約束曲線的距離,當(dāng)該距離小于設(shè)定閾值 τ時,保留該匹配結(jié)果,其中 τ的初值為1像素,即 τ0=lpix(lpix為圖像中相鄰兩像素點(diǎn)的間距)。當(dāng)保留點(diǎn)對數(shù)少于總匹配點(diǎn)對數(shù)的50%時,重新設(shè)置閾值,使閾值大小增加一個像素距離,即 τ1=τ0+lpix,然后擴(kuò)大搜索區(qū)域,重新進(jìn)行匹配點(diǎn)對的剔除操作,直至循環(huán)i次,閾值 τi=τ0+ilpix,使保留特征點(diǎn)對數(shù)滿足條件,從而獲取最終的匹配點(diǎn)對。

      3 實(shí)驗(yàn)結(jié)果與分析

      3.1 實(shí)驗(yàn)結(jié)果

      為了證明本文算法的有效性與優(yōu)越性,將本文所提算法與經(jīng)典的SIFT[3],SURF[4]以及UCCSIFT[11]在匹配對數(shù)、準(zhǔn)確率和實(shí)時性方面進(jìn)行了對比。為了體現(xiàn)本文算法的魯棒性和普適性,本文針對自采數(shù)據(jù)與公開數(shù)據(jù)集[18-19]分別計(jì)算了匹配結(jié)果,數(shù)據(jù)采集平臺如圖5所示。

      圖5 水下數(shù)據(jù)采集平臺Fig.5 Underwater data acquisition platform

      實(shí)驗(yàn)所用相機(jī)尺寸為80 mm×22 mm×25 mm,分辨率為640×480,視場角為72°,焦距為3.6 mm,數(shù)據(jù)采集地址為大連海事大學(xué)凌海港口水域。為避免水域特性對實(shí)驗(yàn)結(jié)果產(chǎn)生影響,選取了公開的數(shù)據(jù)集[18-19]。其中,文獻(xiàn)[18]中數(shù)據(jù)集所選取圖片的分辨率為512×512,水體顏色偏綠,水質(zhì)較為渾濁;文獻(xiàn)[19]中數(shù)據(jù)集所選取圖片的分辨率為640×360,水體呈藍(lán)色,數(shù)據(jù)的亮度皆較暗。實(shí)驗(yàn)平臺基于win10系統(tǒng),Intel Core i3 8代處理器,配置Visual Studio 2013與Opencv2.4環(huán)境。本文通過張正友標(biāo)定法計(jì)算了相機(jī)內(nèi)部參數(shù),如表1所示。表中,(fx,fy)為相機(jī)的焦距相關(guān)參數(shù),(u0,v0)為像素坐標(biāo)系下原點(diǎn)坐標(biāo),K為相機(jī)畸變參數(shù)矩陣。

      表1 雙目相機(jī)內(nèi)部參數(shù)Table1 Internal parameters of binocular camera

      在3種典型的水下環(huán)境(暗光、旋轉(zhuǎn)、渾濁)下共選取6組圖片進(jìn)行了對比,相應(yīng)的匹配結(jié)果如圖6所示。

      圖6 不同數(shù)據(jù)集匹配結(jié)果Fig.6 Matching results under different data sets

      如圖6所示,在3種典型的水下環(huán)境中,SIFT與SURF算法在匹配的過程中同名點(diǎn)之間連線的斜率不一致,存在明顯的誤匹配點(diǎn);基于水下約束的UCC-SIFT算法則能明顯降低誤匹配點(diǎn)對,但特征點(diǎn)數(shù)量有所下降。需要強(qiáng)調(diào)的是,本文所提的ADC-UFM算法與傳統(tǒng)的SIFT,SURF算法相比,能夠明顯剔除誤匹配點(diǎn),與UCC-SIFT算法相比能夠保留更多的特征點(diǎn)對,且不受水下環(huán)境影響,更加穩(wěn)定。

      3.2 實(shí)驗(yàn)數(shù)據(jù)分析

      除上述匹配結(jié)果圖外,采用4種匹配算法在T=0.4的情況下測得相應(yīng)的量化指標(biāo)如表2所示。

      如表2所示,在匹配點(diǎn)對數(shù)方面,采用本文所提ADC-UFM算法對雙目圖像匹配進(jìn)行條件約束時,匹配點(diǎn)對數(shù)在絕大多數(shù)水下環(huán)境中均少于傳統(tǒng)的SIFT和SURF算法,考慮到水下圖像特征點(diǎn)易聚簇的情況,本文所提方法在迭代閾值 τ的過程中易接受多余的特征點(diǎn),因此自采數(shù)據(jù)在渾濁環(huán)境下的特征點(diǎn)對數(shù)高于SIFT算法,且此時本文所提ADC-UFM算法的準(zhǔn)確率有所下降,低于UCC-SIFT算法。另外,借助FAST算子,本文所提ADC-UFM算法在特征提取方面能夠比UCC-SIFT算法獲取更多的匹配點(diǎn)對數(shù),更適用于雙目視覺后續(xù)的三維重建工作。

      表2 實(shí)驗(yàn)結(jié)果數(shù)據(jù)對比Table2 Comparison of experimental data

      在匹配正確率方面,對于缺乏誤匹配點(diǎn)剔除策略的SIFT和SURF算法,其準(zhǔn)確率在上述3種典型水下環(huán)境中均低于本文所提ADC-UFM算法。需要指出的是,缺乏自適應(yīng)閾值選取的UCC-SIFT算法不可避免地會剔除正確的匹配點(diǎn)對。因此,本文所提ADC-UFM算法的匹配正確率要高于UCC-SIFT算法。圖7所示為在自建數(shù)據(jù)集和公開數(shù)據(jù)集下不同算法匹配正確率與閾值T的關(guān)系,由于數(shù)據(jù)集包含的圖像較多,所以每組數(shù)據(jù)集皆采用50組圖像。由圖7可知,與SIFT,SURF和UCC-SIFT算法相比,本文所提ADC-UFM方法在T=0.4~0.8之間有著較高的準(zhǔn)確率,在T=0.4時準(zhǔn)確率能夠達(dá)到85.2%。

      圖7 不同算法匹配準(zhǔn)確率對比圖Fig.7 Comparison of matching accuracy of different algorithms

      在匹配效率方面,由于采用的是外加深度約束策略,本文所提ADC-UFM算法在匹配效率方面要低于無約束策略的SIFT和SURF算法。但相比SIFT特征提取方法,因本文采用了效率更高的FAST算子,因此在旋轉(zhuǎn)、渾濁和暗光的水下環(huán)境中,其匹配速率高于UCC-SIFT算法。

      4 結(jié) 語

      本文提出了一種基于FAST與SIFT算法相結(jié)合的高精度雙目水下圖像特征匹配方法。通過考慮水下折射率,明顯提升了水下匹配約束模型的可用性,能夠有效剔除誤匹配點(diǎn)對。通過設(shè)計(jì)自適應(yīng)閾值選取模塊,最大程度地保留了水下圖像特征信息的完整性。實(shí)驗(yàn)結(jié)果和比較分析驗(yàn)證了本文所提出ADC-UFM算法的有效性和優(yōu)越性,為基于雙目視覺的三維重建以及測距等提供了新的技術(shù)手段。需要指出的是,ADC-UFM算法在抵抗光照性與匹配效率方面略有不足,還有一定的提升空間。

      猜你喜歡
      圖像匹配雙目關(guān)鍵點(diǎn)
      聚焦金屬關(guān)鍵點(diǎn)
      肉兔育肥抓好七個關(guān)鍵點(diǎn)
      基于雙目測距的卡爾曼濾波船舶軌跡跟蹤
      電子制作(2019年20期)2019-12-04 03:51:38
      一種用于光照變化圖像匹配的改進(jìn)KAZE算法
      基于雙目視覺圖像的長度測量方法
      挖掘機(jī)器人圖像匹配算法研究
      醫(yī)聯(lián)體要把握三個關(guān)鍵點(diǎn)
      基于SIFT和LTP的圖像匹配方法
      基于降落圖像匹配的嫦娥三號著陸點(diǎn)位置評估
      航天器工程(2014年4期)2014-03-11 16:35:37
      鎖定兩個關(guān)鍵點(diǎn)——我這樣教《送考》
      語文知識(2014年7期)2014-02-28 22:00:26
      科尔| 西林县| 开江县| 永昌县| 三穗县| 张家口市| 阜康市| 喀喇沁旗| 芜湖市| 文成县| 嵊泗县| 秭归县| 雷波县| 陕西省| 安塞县| 本溪| 重庆市| 鄂温| 乌恰县| 津南区| 阳信县| 共和县| 凤凰县| 习水县| 凤山县| 洪洞县| 泸州市| 西青区| 武冈市| 汶川县| 闵行区| 揭东县| 九江县| 凭祥市| 洞口县| 新源县| 彰化市| 滁州市| 天柱县| 郴州市| 稷山县|