• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      一種具有仿射不變性的傾斜影像快速匹配方法

      2015-01-14 03:01:18肖雄武郭丙軒李德仁江萬壽張春森
      測繪學(xué)報 2015年4期
      關(guān)鍵詞:復(fù)雜度像素矩陣

      肖雄武,郭丙軒,李德仁,趙 霞,江萬壽,胡 翰,張春森

      1.武漢大學(xué)測繪遙感信息工程國家重點實驗室,湖北 武漢430079;2.西安科技大學(xué)測繪科學(xué)與技術(shù)學(xué)院,陜西 西安710054

      1 引 言

      由于三維重建需要獲取側(cè)面紋理信息,傾斜攝影技術(shù)應(yīng)運而生。然而,由于傾斜影像的局部仿射變形大、存在色差等問題,給影像匹配帶來了很大困難。

      在匹配領(lǐng)域,基于像方搜索和基于物方搜索是兩個不同的研究方向。目前針對大傾角傾斜影像匹配,基于像方搜索思路的匹配方法主要有如下3種:

      (1)對原始影像提取具有仿射不變性的區(qū)域,建立描述子,進(jìn)行匹配。MSER[1]、Harris-Affine &Hessian-Affine[2-3]在這類算法中表現(xiàn)最好[4],但均不具備完全仿射不變性[5],對大傾角傾斜影像的匹配效果不好。

      (2)對原始影像先進(jìn)行粗匹配(一般利用SIFT[6]或MSER算法及比較嚴(yán)格的匹配策略),得到匹配點對,利用最小二乘法或RANSAC算法[7]計算出兩幅影像之間的一個關(guān)系矩陣H。以影像B為參考影像,利用H矩陣對影像A進(jìn)行DLT變換得到校正影像A′。對校正影像A′和影像B進(jìn)行SIFT匹配,得到匹配點對,再將校正影像A′上匹配出的特征點反算到原始影像A上。該思路被廣泛采用[8-10],但是由于該方法的粗匹配點對可能會存在數(shù)量過少、分布不均勻、正確匹配率不高等問題,計算的H矩陣不一定準(zhǔn)確,所以難以保證匹配效果。

      (3)模擬法。ASIFT[5,11]采用近似于窮舉法來模擬相機軸定向參數(shù),然后應(yīng)用SIFT模擬尺度、規(guī)范化位移和旋轉(zhuǎn),具備完全的仿射不變性,與 SIFT、MSER、Harris-Affine&Hessian-Affine相比,在對圖像錯切、旋轉(zhuǎn)、尺度、光照變化上具有更強的魯棒性[5,12],在目標(biāo)檢測與識別、二維圖像匹配、立體匹配、三維重建等方面應(yīng)用廣泛[13-15]。盡管ASIFT對傾斜影像的匹配效果較好,但其計算復(fù)雜度高、效率比較低下,難以滿足實際的應(yīng)用需求[16]。在基于物方搜索思路方面,文獻(xiàn)[17—18]提出了物方空間引導(dǎo)的多像多基線匹配方法,并較為成功地應(yīng)用到PixelGrid系統(tǒng)中。

      針對上述基于像方搜索思路存在的問題,考慮利用糾正影像匹配后再反算到原始影像的思路以確保匹配效果,但是要保證用盡可能少的次數(shù)得到合理的糾正影像。因此,本文融合物方和像方方法(假設(shè)物方的方向,在像方進(jìn)行搜索),采取ASIFT算法的逆向思路(ASIFT做仿射變換,本文作其逆變換),提出了一種較為快速的大傾角傾斜影像匹配方法,先估算影像的相機軸定向參數(shù),計算出初始仿射矩陣,再通過一次逆仿射變換得到糾正影像,對糾正影像進(jìn)行SIFT匹配。為了得到較為密集、均勻的同名點對,通過一定的方法盡量保留最鄰近匹配點集中的正確匹配點對,并有效地剔除誤匹配。對三組典型的傾斜影像數(shù)據(jù)進(jìn)行匹配試驗,試驗結(jié)果表明本文算法得到的匹配點對在數(shù)量和分布情況、準(zhǔn)確率、尤其是效率上要優(yōu)于ASIFT算法。

      2 五傾斜影像獲取平臺

      采用中國測繪科學(xué)研究院劉先林院士團(tuán)隊研制的SWDC-5傾斜相機平臺獲取傾斜影像。圖1是SWDC-5相機平臺,表1是SWDC-5的部分平臺參數(shù)。

      圖1 SWDC-5傾斜相機平臺Fig.1 The camera platform of SWDC-5

      表1 SWDC-5各相機之間的相對角元素Tab.1 The relative angular elements between the cameras of SWDC-5

      該平臺可通過IMU設(shè)備獲得E相機攝取影像(即下視影像)的粗略角元素(φE、ωE、κE)。

      3 傾斜影像快速匹配方法

      3.1 仿射攝像機模型

      由于使用計算機對透視投影進(jìn)行模擬和處理計算復(fù)雜度高、比較復(fù)雜,對于地勢比較平坦的城市區(qū)域,局部透視投影可以使用仿射變化來估計[5]。

      定理[5]:設(shè)某一仿射映射其行列式為正,且不存在相似矩陣,則其存在唯一的分解

      如圖2,式(1)可按相機運動解釋如下:

      平面u代表某一平坦的地物表面,右上角平行四邊形代表朝向u的相機;參數(shù)θ和φ為相機軸定向參數(shù),分別稱為相機的經(jīng)度和緯度;t=為斜度;ψ代表相機繞其自身光軸旋轉(zhuǎn)的角度;λ代表縮放倍數(shù)。

      圖2 仿射相機模型Fig.2 The affine camera model

      3.2 基于仿射不變的傾斜影像匹配方法

      3.2.1 計算初始仿射矩陣

      根據(jù)每張影像的旋轉(zhuǎn)矩陣R計算相機軸定向參數(shù):緯度角θ∈[0°,90°)和經(jīng)度角φ∈[0°,180°),再計算初始仿射矩陣。

      (1)計算每張影像的旋轉(zhuǎn)矩陣R

      式中,a1=cosφcosκ-sinφsinωsinκ;a2=-cosφsinκ-sinφsinωcosκ;a3=-sinφcosω;b1=cosωsinκ;b2=cosωcosκ;b3=-sinω;c1=sinφcosκ+cosφsinωsinκ;c2=-sinφsinκ+cosφsinωcosκ;c3=cosφcosω。

      由式(2),利用下視影像的粗略角元素(φE,ωE,κE)計算下視影像的旋轉(zhuǎn)矩陣RE。利用下視相機與各側(cè)視相機之間的相對姿態(tài)(φE-i,ωE-i,κE-i)計算同一攝站下視影像與側(cè)視影像的相對旋轉(zhuǎn)矩陣RE-i。

      由下視影像的旋轉(zhuǎn)矩陣RE、同一攝站下視影像與側(cè)視影像的相對旋轉(zhuǎn)矩陣RE-i計算該攝站各張側(cè)視影像的旋轉(zhuǎn)矩陣Ri。

      (2)利用每張影像的旋轉(zhuǎn)矩陣R計算tiltswing-azimuth(t-s-α)坐標(biāo)系統(tǒng)的3個角度[19]

      式中,s、α∈[-180°,180°]。

      (3)計算相機軸定向參數(shù)

      (4)計算初始仿射矩陣

      式中

      由于SIFT算法具有尺度和旋轉(zhuǎn)不變性,因此,本文將尺度參數(shù)λ設(shè)為1,旋轉(zhuǎn)參數(shù)Ψ設(shè)為0。在此,將(e,f)的坐標(biāo)設(shè)為(0,0),后面通過計算平移矩陣Tm將糾正影像移動到適當(dāng)位置。

      3.2.2 計算糾正影像

      在計算出仿射矩陣后,對原始影像進(jìn)行逆仿射變換,得到糾正影像(近視正射影像)。

      由式(7)可得

      式中

      在式(8)中,I表示原始影像;I′表示得到的糾正影像(近視正射影像)。

      為了不浪費存儲空間,需要計算糾正影像的適當(dāng)大小和平移矩陣Tm,將糾正影像移動到恰當(dāng)位置,如圖3。

      圖3 對糾正影像做適當(dāng)?shù)钠揭艶ig.3 To make a appropriate translation to the rectified image

      利用影像I(寬度為W0、高度為H0,單位:像素)的4個角點和矩陣計算糾正影像I′的4個角點。

      式中,(x0,y0)=(0,0);(x1,y1)=(W0,0);(x2,y2)=(0,H0);(x3,y3)=(W0,H0)。

      計算糾正影像I′的大小(寬度為Xmax-Xmin、高度為Ymax-Ymin)和平移矩陣Tm

      計算經(jīng)過適當(dāng)平移后的仿射矩陣Aft

      Aft的偽逆矩陣可以表示為

      因此

      在式(13)中,I表示原始影像表示經(jīng)過適當(dāng)平移后的糾正影像。也就是說,糾正影像I′中的坐標(biāo)(Xmin,Ymin)對應(yīng)糾正影像I′0中的坐標(biāo)(0,0)。

      文中僅需對原始影像作一次逆仿射變換。原始影像與糾正影像的局部效果對比,如圖4。

      圖4 影像糾正前、后的局部效果對比Fig.4 The comparison of the same local area to the original image and the rectified image

      3.2.3 在糾正影像上進(jìn)行匹配

      為了得到較為密集、均勻的正確匹配點對,考慮對最鄰近匹配點集剔除誤匹配。然而,利用RANSAC算法剔除誤匹配時,要保證粗匹配點對中包含至少近50%的正確同名點對[6]。因此,本文采用如下匹配策略作為替代辦法,解決上述問題。

      (1)特征提取及描述。對兩張糾正影像分別提取DoG特征點并建立SIFT描述子。

      (2)粗匹配。匹配時,采用比值提純法(NNDR,次鄰近距離與最鄰近距離的比值小于0.85)[6]、歸一化互相關(guān)(NCC)測度約束[20],ai和bi分別為匹配點對兩個描述向量的元素,a和分別為兩個描述向量各元素的平均值,γ(a,b)>0.6)和左右一致性檢驗(先由左片中特征點搜索右片中滿足條件的同名點,得到匹配點集S1;再由右片中特征點搜索左片中滿足條件的同名點,得到匹配點集S2;最終的匹配點集是S1和S2的交集。該方法可在近乎不減少正確匹配點對的同時,有效剔除一些誤匹配)得到粗匹配點對。

      (3)計算F、H矩陣和主方向的平均差值δθ。由粗匹配點對,利用RANSAC算法(容差為3個像素)分別計算出兩幅影像之間的基本矩陣F和單應(yīng)矩陣H[7]。由利用RANSAC算法對粗匹配點計算H矩陣的內(nèi)點來計算匹配點對主方向差值的平均值,θi和為匹配點對的主方向角度值,n為內(nèi)點個數(shù)。

      (4)重新匹配。對SIFT描述子重新進(jìn)行最鄰近匹配,利用極線約束[7],其中和為的前兩個元素,xi和為匹配點對,εf<4)、單應(yīng)矩陣約束[7]測度約束[20]和主方向差值一致性約束(即待匹配點與其最鄰近特征點的主方向差值應(yīng)與δθ較接近不超過10°)剔除誤匹配,得到匹配點對。

      3.2.4 反算匹配點對將糾正影像上的匹配點對反算到原始影像上

      式中,(x0,y0)表示糾正影像上的點;(x,y)為原始影像上的對應(yīng)點。

      由于在糾正影像有紋理信息區(qū)域的邊界上可能產(chǎn)生少量的誤匹配點對,因此剔除落在原始影像邊界20像素以內(nèi)的匹配點對。

      4 試驗與分析

      系統(tǒng)環(huán)境:Windows 7,8GB RAM,i7CPU。試驗數(shù)據(jù):廣東陽江地區(qū)的一組傾斜影像數(shù)據(jù)(如圖5),側(cè)視影像(4092像素×3057像素)的傾角約為45°,下視影像(4103像素×3039像素)的傾角約為5°。這一組影像的粗略角元素(φ,ω,κ),如表2。點對,由重疊誤差[4,22]是特征點對的描述區(qū)域的面積或像素個數(shù)。若εS<0.5,則為正確匹配點對)來判定。

      表2 4張傾斜影像數(shù)據(jù)的粗略角元素Tab.2 The rough angular elements of the oblique images

      圖5 試驗數(shù)據(jù):4張典型的傾斜影像Fig.5 The experimental data:four typical oblique images

      (2)匹配點對的正確率,即正確匹配點對數(shù)量與匹配點對總量的比值。

      4.1 AIF算法的匹配效果

      分別用SIFT、ASIFT、AIF算法對下視相機與側(cè)視相機獲取的影像(如將下視影像與后視影像記為第1組)、兩個相鄰相機獲取的側(cè)視影像(如將后視影像與右視影像記為第2組)、兩個相離相機獲取的側(cè)視影像(如將左視影像與右視影像記為第3組)這3組有代表性的數(shù)據(jù)進(jìn)行匹配,對比和分析試驗結(jié)果。

      SIFT算法采用常規(guī)、有效的匹配策略:比值提純法(閥值0.7),并利用RANSAC算法剔除誤匹配[6,21]。由于 ASIFT算法在圖像重復(fù)紋理區(qū)域會產(chǎn)生一些誤匹配,故本文先利用ASIFT算法獲得粗匹配點對,再利用RANSAC算法提純匹配點對。

      對試驗結(jié)果的評價標(biāo)準(zhǔn):

      (1)正確匹配點對的數(shù)量及分布。由于3種匹配方法得到的匹配結(jié)果都采用RANSAC算法進(jìn)行提純(SIFT和ASIFT直接采用RANSAC算法,AIF相當(dāng)于間接采用RANSAC算法),故3種方法得到的匹配點對均滿足單應(yīng)矩陣約束。對于每組數(shù)據(jù),在影像重疊區(qū)人工選取12對均勻分布的檢測點,并利用最小二乘法計算出兩幅影像之間的單應(yīng)矩陣H0。匹配點對是否為正確匹配點對,由重疊誤差是特征點對的描述區(qū)域的面積或像素個數(shù)。若εS<0.5,則為正確匹配點對)來判定。

      (2)匹配點對的正確率,即正確匹配點對數(shù)量與匹配點對總量的比值。

      3種匹配方法對這3組數(shù)據(jù)的匹配效果如圖6,對3組數(shù)據(jù)的匹配結(jié)果統(tǒng)計如表3。由圖6和表3可知:對于第一組數(shù)據(jù),在正確匹配點對數(shù)量及分布上,本文算法要明顯優(yōu)于SIFT和ASIFT算法;在匹配正確率上,3種方法的正確率都比較高,本文方法略優(yōu)于SIFT和ASIFT算法。對于第2組數(shù)據(jù),SIFT算法匹配失敗,本文算法在正確匹配點對數(shù)量上要優(yōu)于ASIFT算法;在點對分布和正確率上,要略優(yōu)于ASIFT算法。對第3組數(shù)據(jù),3種方法的匹配效果都比較好;在匹配點對數(shù)量、準(zhǔn)確率、尤其是分布上,本文方法和ASIFT算法均要優(yōu)于SIFT算法;雖然ASIFT算法的正確匹配點對數(shù)量要略高于本文方法,不過,本文方法的點對已經(jīng)夠密集了,重要的是其分布情況要優(yōu)于ASIFT算法(見圖6中用橢圓圈出的6個局部對比區(qū)域)。

      圖6 3種方法分別對3組數(shù)據(jù)的匹配效果Fig.6 The matching result of three algorithms

      表3 3種方法分別對3組數(shù)據(jù)的匹配總數(shù)和匹配準(zhǔn)確率Tab.3 The experimental result of three algorithms

      試驗結(jié)果表明,本文算法比ASIFT算法具有更強的抗視點變化能力,其主要原因是:①通過影像粗略的角元素計算出的相機軸定向參數(shù)比ASIFT粗略模擬的相機軸定向參數(shù)要準(zhǔn)確;②本文的匹配策略要優(yōu)于ASIFT算法的匹配策略(由于ASIFT提取的特征點數(shù)量龐大,為了得到正確率高的匹配點對,其采用了極其嚴(yán)格的匹配策略:比值提純法,閥值0.36),而SIFT在某些情況下,不具備抗視點變化能力。

      4.2 AIF算法的計算復(fù)雜度

      若平面上任意區(qū)域D,經(jīng)仿射變換(D′=Aft×D,仿射矩陣為A)后為D′,則兩區(qū)域面積之比為,即。本文中通過對原始影像作逆仿射變換得到糾正影像仿射矩陣為A-1),所以,糾正影像(有紋理區(qū)域)的面積S′與原始影像面積S之間應(yīng)滿足如下關(guān)系:而故其中θ為傾斜影像的傾角。

      ASIFT算法需要用61次來粗略模擬相機軸定向參數(shù),通過仿射變換得到一組圖像序列(共61張影像),其總面積約為原始影像的13.5倍[11,16]。AIF算法先通過估算影像的旋轉(zhuǎn)矩陣直接計算出相機軸定向參數(shù),再通過1次逆仿射變換得到1張糾正影像,其面積約為原始影像的cosθ倍。

      由于圖像局部特征的計算量與輸入圖像面積基本成比例[5],對于下視影像與側(cè)視影像的匹配:AIF算法用于SIFT特征提取和描述的影像面積約為原始影像的倍(由于各視影像大小幾乎相等,看作等大),即AIF在特征提取階段的時間復(fù)雜度約為SIFT算法的0.85倍,而ASIFT在特征提取階段的時間復(fù)雜度約為SIFT算法的13.5倍。AIF算法在匹配階段的時間復(fù)雜度約為SIFT算法的倍,而 ASIFT算法在匹配階段的時間復(fù)雜度約為SIFT算法的倍。對于側(cè)視影像與側(cè)視影像的匹配:AIF用于SIFT特征提取和描述的影像面積約為原始影像的71倍,即AIF在特征提取階段的時間復(fù)雜度約為SIFT的0.71倍,而ASIFT在特征提取階段的時間復(fù)雜度約為SIFT的13.5倍。AIF在匹配階段的時間復(fù)雜度約為SIFT的0.50倍,而ASIFT在匹配階段的時間復(fù)雜度約為SIFT的倍。因此,AIF算法在特征檢測和匹配階段的計算復(fù)雜度要遠(yuǎn)低于ASIFT算法,且低于SIFT算法。3種匹配算法的匹配耗時,如表4。

      表4 3種方法的效率對比Tab.4 The time cost of three algorithms s

      由表4可知,對于3組數(shù)據(jù),AIF算法匹配耗時分別為 ASIFT算法的0.77%、0.64%、0.69%倍,分別為SIFT算法的1.35、1.06、1.11倍。結(jié)果表明,AIF算法的匹配效率要遠(yuǎn)遠(yuǎn)高于ASIFT算法,但比SIFT算法的匹配效率略低,其主要原因是由于本文算法的匹配策略要比SIFT算法的匹配策略復(fù)雜且計算量大。

      5 結(jié) 論

      本文針對ASIFT算法計算復(fù)雜度高的問題,提出了一種較為快速的傾斜影像匹配方法,該方法先恢復(fù)傾斜影像出現(xiàn)的仿射變形問題,再對糾正影像利用SIFT算法和一定的匹配策略進(jìn)行匹配,最后將匹配出來的同名點對反算到原始影像上。下一步的研究重點是:①融合多種互補不變特征,有效保證匹配點對的多量性和空間分布均勻性[8,24],設(shè)計一種重現(xiàn)率高、抗視點變化能力強、且具有尺度和旋轉(zhuǎn)不變性的角點[3];②優(yōu)化算法的匹配策略,探索在由F、H矩陣引導(dǎo)的局部范圍內(nèi)進(jìn)行匹配(在同名點的局部潛在范圍內(nèi)找到滿足比值提純法、NCC測度、主方向差異一致性的匹配點),使得匹配點對在重疊區(qū)分布更均勻、密集,并進(jìn)一步減少誤匹配率;③進(jìn)一步增強匹配點對的可靠性,例如,在本文方法基礎(chǔ)上,進(jìn)行物方驗證以增加匹配的穩(wěn)定可靠性。在完成上述工作后,將該成果推廣應(yīng)用于傾斜影像空三軟件和具體的項目實踐中。

      [1]MATAS J,CHUM O,URBAN M,et al.Robust Wide-baseline Stereo from Maximally Stable Extremal Regions[J].Image and Vision Computing,2004,22(10):761-767.

      [2]MIKOLAJCZYK K,SCHMID C.An Affine Invariant Interest Point Detector[C]∥Proceedings of the 7th European Conference on Computer Vision(ECCV).Copenhagen:Springer,2002:128-142.

      [3]MIKOLAJCZYK K,SCHMID C.Scale & Affine Invariant Interest Point Detectors[J].International Journal of Computer Vision,2004,60(1):63-86.

      [4]MIKOLAJCZYK K,TUYTELAARS T,SCHMID C,et al.A Comparison of Affine Region Detectors[J].International Journal of Computer Vision,2005,65(1-2):43-72.

      [5]MOREL J M,YU G S.ASIFT:A New Framework for Fully Affine Invariant Image Comparison[J].SIAM Journal on Imaging Sciences,2009,2(2):438-469.

      [6]LOWE D G.Distinctive Image Features from Scale-invariant Key Points[J].International Journal of Computer Vision,2004,60(2):91-110.

      [7]RICHARD H,ANDREW Z.Multiple View Geometry in Computer Vision[M].2nd ed.United Kingdom:Cambridge University Press,2003:117-123.

      [8]YANG H C,ZHANG S B,WANG Y B.Robust and Precise Registration of Oblique Images Based on Scale-invariant Feature Transformation Algorithm[J].IEEE Geoscience and Remote Sensing Letters,2012,9(4):783-787.

      [9]WANG C Y,ZHANG Y,WU Y,et al.Highly Accurate Geometric Correction for Serious Oblique Aero Remote Sensing Image Based on the Piecewise Polynomial Model[J].Journal of Computational Information Systems,2011,7(2):342-349.

      [10]YU Y N,HUANG K Q,CHEN W,et al.A Novel Algorithm for View and Illumination Invariant Image Matching[J].IEEE Transaction on Image Processing,2012,21(1):229-240.

      [11]YU G,MOREL J M.ASIFT:An Algorithm for Fully Affine Invariant Comparison[J/OL].Image Processing On Line,2011.[2013-11-29].http:∥dx.doi.org/10.5201/ipol.2011.my-asift.

      [12]YU G,MOREL J M.A Fully Affine Invariant Image Comparison Method[C]∥Proceedings of IEEE International Conference on Acoustics,Speech and Signal Processing.Taipei:IEEE,2009:1597-1600.

      [13]OJI R.An Automatic Algorithm for Object Recognition and Detection Based on ASIFT Key Points[J].Signal &Image Processing:An International Journal,2012,3(5):29-39.

      [14]ISHII J,SAKAI S,ITO K,et al.Wide-baseline Stereo Matching Using ASIFT and POC[C]∥Proceedings of 19th IEEE 2012International Conference on Image Processing.Orlando,F(xiàn)lorida:IEEE,2012:2977-2980.

      [15]ANCUKIEWICZ D,SIDERIS K,RICKETT A.3D Reconstruction from RGB and Depth Video[EB/OL].[2014-01-10].http:∥cs.ucla.edu/~costas/kinect_reconstruction.html.

      [16]OHTA M,IWAMOTO K,SATO Y,et al.Perspective Robust Object Identification Using Depth and Color Image Sensor for Real-world Annotation[C/OL]∥ The 5th International Conference on 3DSystems and Applications,2013.http:∥ www.3dsa.kr/3DSA2013/contents/program.html.

      [17]ZHANG Li,GRUEN A.Multi-image Matching for DSM Generation from IKONOS Imagery[J].ISPRS Journal of Photogrammetry and Remote Sensing,2006,60(3):195-211.

      [18]ZHANG Li,ZHANG Jixian.Multi-image Matching for DEM Generation from Satellite Imagery[J].Science of Surveying and Mapping,2008,33(Suppl):35-39.(張力,張繼賢.基于多基線影像匹配的高分辨率遙感影像DEM 自動生成[J].測繪科學(xué),2008,33(???5-39.)

      [19]BON A D.Initial Approximations for the Three-dimensional Conformal Coordinate Transform[J].Photogrammetric Engineering & Remote Sensing,1996,62(1):79-83.

      [20]KLIPPENSTEIN J,ZHANG H.Quantitative Evaluation of Feature Extractors for Visual SLAM[C]∥Proceedings of the 4th Canadian Conference on Computer and Robot Vision.Quebec:IEEE,2007:157-164.

      [21]LE?KOVSKY′P,ALEKSEYCHUK A,STANSKI A,et al.Point-based Registration of High-resolution Histological Slices for Navigation Purposes in Virtual Microscopy[J].Annals of the BMVA,2012,2012(10):1-18.

      [22]MIKOLAJCZYK K,SCHMID C.A Performance Evaluation of Local Descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1615-1630.

      [23]LEI Lin,CHEN Tao,LI Zhiyong,et al.A New Approach to Image Invariant Extraction under Global Affine Transformation[J].Journal of National University of Defense Technology,2008,30(4):64-70.(雷琳,陳濤,李智勇,等.全局仿射變換條件下圖像不變量提取新方法[J].國防科技大學(xué)學(xué)報,2008,30(4):64-70.)

      [24]YAO Guobiao,DENG Kazhong,ZHANG Li,et al.An Automated Registration Method with High Accuracy for Oblique Stereo Images Based on Complementary Affine Invariant Features[J].Acta Geodaetica et Cartographica Sinica,2013,42(6):869-876,883.(姚國標(biāo),鄧喀中,張力,等.融合互補仿射不變特征的傾斜立體影像高精度自動配準(zhǔn)方法[J].測繪學(xué)報,2013,42(6):869-876,883.)

      猜你喜歡
      復(fù)雜度像素矩陣
      趙運哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      像素前線之“幻影”2000
      “像素”仙人掌
      一種低復(fù)雜度的慣性/GNSS矢量深組合方法
      求圖上廣探樹的時間復(fù)雜度
      初等行變換與初等列變換并用求逆矩陣
      高像素不是全部
      CHIP新電腦(2016年3期)2016-03-10 14:22:03
      某雷達(dá)導(dǎo)51 頭中心控制軟件圈復(fù)雜度分析與改進(jìn)
      矩陣
      南都周刊(2015年4期)2015-09-10 07:22:44
      矩陣
      南都周刊(2015年3期)2015-09-10 07:22:44
      黄山市| 玉溪市| 南皮县| 柳州市| 赣州市| 手机| 鄄城县| 尼木县| 泌阳县| 虞城县| 淮南市| 双鸭山市| 多伦县| 安溪县| 保山市| 珲春市| 常德市| 临邑县| 合作市| 女性| 泽州县| 湘乡市| 策勒县| 丰城市| 海盐县| 大方县| 鹤庆县| 洪雅县| 个旧市| 边坝县| 岐山县| 贵阳市| 华池县| 青河县| 佛山市| 余江县| 连江县| 岢岚县| 临洮县| 友谊县| 莱西市|