肖雄武,郭丙軒,李德仁,趙 霞,江萬壽,胡 翰,張春森
1.武漢大學(xué)測繪遙感信息工程國家重點實驗室,湖北 武漢430079;2.西安科技大學(xué)測繪科學(xué)與技術(shù)學(xué)院,陜西 西安710054
由于三維重建需要獲取側(cè)面紋理信息,傾斜攝影技術(shù)應(yīng)運而生。然而,由于傾斜影像的局部仿射變形大、存在色差等問題,給影像匹配帶來了很大困難。
在匹配領(lǐng)域,基于像方搜索和基于物方搜索是兩個不同的研究方向。目前針對大傾角傾斜影像匹配,基于像方搜索思路的匹配方法主要有如下3種:
(1)對原始影像提取具有仿射不變性的區(qū)域,建立描述子,進(jìn)行匹配。MSER[1]、Harris-Affine &Hessian-Affine[2-3]在這類算法中表現(xiàn)最好[4],但均不具備完全仿射不變性[5],對大傾角傾斜影像的匹配效果不好。
(2)對原始影像先進(jìn)行粗匹配(一般利用SIFT[6]或MSER算法及比較嚴(yán)格的匹配策略),得到匹配點對,利用最小二乘法或RANSAC算法[7]計算出兩幅影像之間的一個關(guān)系矩陣H。以影像B為參考影像,利用H矩陣對影像A進(jìn)行DLT變換得到校正影像A′。對校正影像A′和影像B進(jìn)行SIFT匹配,得到匹配點對,再將校正影像A′上匹配出的特征點反算到原始影像A上。該思路被廣泛采用[8-10],但是由于該方法的粗匹配點對可能會存在數(shù)量過少、分布不均勻、正確匹配率不高等問題,計算的H矩陣不一定準(zhǔn)確,所以難以保證匹配效果。
(3)模擬法。ASIFT[5,11]采用近似于窮舉法來模擬相機軸定向參數(shù),然后應(yīng)用SIFT模擬尺度、規(guī)范化位移和旋轉(zhuǎn),具備完全的仿射不變性,與 SIFT、MSER、Harris-Affine&Hessian-Affine相比,在對圖像錯切、旋轉(zhuǎn)、尺度、光照變化上具有更強的魯棒性[5,12],在目標(biāo)檢測與識別、二維圖像匹配、立體匹配、三維重建等方面應(yīng)用廣泛[13-15]。盡管ASIFT對傾斜影像的匹配效果較好,但其計算復(fù)雜度高、效率比較低下,難以滿足實際的應(yīng)用需求[16]。在基于物方搜索思路方面,文獻(xiàn)[17—18]提出了物方空間引導(dǎo)的多像多基線匹配方法,并較為成功地應(yīng)用到PixelGrid系統(tǒng)中。
針對上述基于像方搜索思路存在的問題,考慮利用糾正影像匹配后再反算到原始影像的思路以確保匹配效果,但是要保證用盡可能少的次數(shù)得到合理的糾正影像。因此,本文融合物方和像方方法(假設(shè)物方的方向,在像方進(jìn)行搜索),采取ASIFT算法的逆向思路(ASIFT做仿射變換,本文作其逆變換),提出了一種較為快速的大傾角傾斜影像匹配方法,先估算影像的相機軸定向參數(shù),計算出初始仿射矩陣,再通過一次逆仿射變換得到糾正影像,對糾正影像進(jìn)行SIFT匹配。為了得到較為密集、均勻的同名點對,通過一定的方法盡量保留最鄰近匹配點集中的正確匹配點對,并有效地剔除誤匹配。對三組典型的傾斜影像數(shù)據(jù)進(jìn)行匹配試驗,試驗結(jié)果表明本文算法得到的匹配點對在數(shù)量和分布情況、準(zhǔn)確率、尤其是效率上要優(yōu)于ASIFT算法。
采用中國測繪科學(xué)研究院劉先林院士團(tuán)隊研制的SWDC-5傾斜相機平臺獲取傾斜影像。圖1是SWDC-5相機平臺,表1是SWDC-5的部分平臺參數(shù)。
圖1 SWDC-5傾斜相機平臺Fig.1 The camera platform of SWDC-5
表1 SWDC-5各相機之間的相對角元素Tab.1 The relative angular elements between the cameras of SWDC-5
該平臺可通過IMU設(shè)備獲得E相機攝取影像(即下視影像)的粗略角元素(φE、ωE、κE)。
由于使用計算機對透視投影進(jìn)行模擬和處理計算復(fù)雜度高、比較復(fù)雜,對于地勢比較平坦的城市區(qū)域,局部透視投影可以使用仿射變化來估計[5]。
定理[5]:設(shè)某一仿射映射其行列式為正,且不存在相似矩陣,則其存在唯一的分解
如圖2,式(1)可按相機運動解釋如下:
平面u代表某一平坦的地物表面,右上角平行四邊形代表朝向u的相機;參數(shù)θ和φ為相機軸定向參數(shù),分別稱為相機的經(jīng)度和緯度;t=為斜度;ψ代表相機繞其自身光軸旋轉(zhuǎn)的角度;λ代表縮放倍數(shù)。
圖2 仿射相機模型Fig.2 The affine camera model
3.2.1 計算初始仿射矩陣
根據(jù)每張影像的旋轉(zhuǎn)矩陣R計算相機軸定向參數(shù):緯度角θ∈[0°,90°)和經(jīng)度角φ∈[0°,180°),再計算初始仿射矩陣。
(1)計算每張影像的旋轉(zhuǎn)矩陣R
式中,a1=cosφcosκ-sinφsinωsinκ;a2=-cosφsinκ-sinφsinωcosκ;a3=-sinφcosω;b1=cosωsinκ;b2=cosωcosκ;b3=-sinω;c1=sinφcosκ+cosφsinωsinκ;c2=-sinφsinκ+cosφsinωcosκ;c3=cosφcosω。
由式(2),利用下視影像的粗略角元素(φE,ωE,κE)計算下視影像的旋轉(zhuǎn)矩陣RE。利用下視相機與各側(cè)視相機之間的相對姿態(tài)(φE-i,ωE-i,κE-i)計算同一攝站下視影像與側(cè)視影像的相對旋轉(zhuǎn)矩陣RE-i。
由下視影像的旋轉(zhuǎn)矩陣RE、同一攝站下視影像與側(cè)視影像的相對旋轉(zhuǎn)矩陣RE-i計算該攝站各張側(cè)視影像的旋轉(zhuǎn)矩陣Ri。
(2)利用每張影像的旋轉(zhuǎn)矩陣R計算tiltswing-azimuth(t-s-α)坐標(biāo)系統(tǒng)的3個角度[19]
式中,s、α∈[-180°,180°]。
(3)計算相機軸定向參數(shù)
(4)計算初始仿射矩陣
式中
由于SIFT算法具有尺度和旋轉(zhuǎn)不變性,因此,本文將尺度參數(shù)λ設(shè)為1,旋轉(zhuǎn)參數(shù)Ψ設(shè)為0。在此,將(e,f)的坐標(biāo)設(shè)為(0,0),后面通過計算平移矩陣Tm將糾正影像移動到適當(dāng)位置。
3.2.2 計算糾正影像
在計算出仿射矩陣后,對原始影像進(jìn)行逆仿射變換,得到糾正影像(近視正射影像)。
由式(7)可得
式中
在式(8)中,I表示原始影像;I′表示得到的糾正影像(近視正射影像)。
為了不浪費存儲空間,需要計算糾正影像的適當(dāng)大小和平移矩陣Tm,將糾正影像移動到恰當(dāng)位置,如圖3。
圖3 對糾正影像做適當(dāng)?shù)钠揭艶ig.3 To make a appropriate translation to the rectified image
利用影像I(寬度為W0、高度為H0,單位:像素)的4個角點和矩陣計算糾正影像I′的4個角點。
式中,(x0,y0)=(0,0);(x1,y1)=(W0,0);(x2,y2)=(0,H0);(x3,y3)=(W0,H0)。
計算糾正影像I′的大小(寬度為Xmax-Xmin、高度為Ymax-Ymin)和平移矩陣Tm
計算經(jīng)過適當(dāng)平移后的仿射矩陣Aft
Aft的偽逆矩陣可以表示為
因此
在式(13)中,I表示原始影像表示經(jīng)過適當(dāng)平移后的糾正影像。也就是說,糾正影像I′中的坐標(biāo)(Xmin,Ymin)對應(yīng)糾正影像I′0中的坐標(biāo)(0,0)。
文中僅需對原始影像作一次逆仿射變換。原始影像與糾正影像的局部效果對比,如圖4。
圖4 影像糾正前、后的局部效果對比Fig.4 The comparison of the same local area to the original image and the rectified image
3.2.3 在糾正影像上進(jìn)行匹配
為了得到較為密集、均勻的正確匹配點對,考慮對最鄰近匹配點集剔除誤匹配。然而,利用RANSAC算法剔除誤匹配時,要保證粗匹配點對中包含至少近50%的正確同名點對[6]。因此,本文采用如下匹配策略作為替代辦法,解決上述問題。
(1)特征提取及描述。對兩張糾正影像分別提取DoG特征點并建立SIFT描述子。
(2)粗匹配。匹配時,采用比值提純法(NNDR,次鄰近距離與最鄰近距離的比值小于0.85)[6]、歸一化互相關(guān)(NCC)測度約束[20],ai和bi分別為匹配點對兩個描述向量的元素,a和分別為兩個描述向量各元素的平均值,γ(a,b)>0.6)和左右一致性檢驗(先由左片中特征點搜索右片中滿足條件的同名點,得到匹配點集S1;再由右片中特征點搜索左片中滿足條件的同名點,得到匹配點集S2;最終的匹配點集是S1和S2的交集。該方法可在近乎不減少正確匹配點對的同時,有效剔除一些誤匹配)得到粗匹配點對。
(3)計算F、H矩陣和主方向的平均差值δθ。由粗匹配點對,利用RANSAC算法(容差為3個像素)分別計算出兩幅影像之間的基本矩陣F和單應(yīng)矩陣H[7]。由利用RANSAC算法對粗匹配點計算H矩陣的內(nèi)點來計算匹配點對主方向差值的平均值,θi和為匹配點對的主方向角度值,n為內(nèi)點個數(shù)。
(4)重新匹配。對SIFT描述子重新進(jìn)行最鄰近匹配,利用極線約束[7],其中和為的前兩個元素,xi和為匹配點對,εf<4)、單應(yīng)矩陣約束[7]測度約束[20]和主方向差值一致性約束(即待匹配點與其最鄰近特征點的主方向差值應(yīng)與δθ較接近不超過10°)剔除誤匹配,得到匹配點對。
3.2.4 反算匹配點對將糾正影像上的匹配點對反算到原始影像上
式中,(x0,y0)表示糾正影像上的點;(x,y)為原始影像上的對應(yīng)點。
由于在糾正影像有紋理信息區(qū)域的邊界上可能產(chǎn)生少量的誤匹配點對,因此剔除落在原始影像邊界20像素以內(nèi)的匹配點對。
系統(tǒng)環(huán)境:Windows 7,8GB RAM,i7CPU。試驗數(shù)據(jù):廣東陽江地區(qū)的一組傾斜影像數(shù)據(jù)(如圖5),側(cè)視影像(4092像素×3057像素)的傾角約為45°,下視影像(4103像素×3039像素)的傾角約為5°。這一組影像的粗略角元素(φ,ω,κ),如表2。點對,由重疊誤差[4,22]是特征點對的描述區(qū)域的面積或像素個數(shù)。若εS<0.5,則為正確匹配點對)來判定。
表2 4張傾斜影像數(shù)據(jù)的粗略角元素Tab.2 The rough angular elements of the oblique images
圖5 試驗數(shù)據(jù):4張典型的傾斜影像Fig.5 The experimental data:four typical oblique images
(2)匹配點對的正確率,即正確匹配點對數(shù)量與匹配點對總量的比值。
分別用SIFT、ASIFT、AIF算法對下視相機與側(cè)視相機獲取的影像(如將下視影像與后視影像記為第1組)、兩個相鄰相機獲取的側(cè)視影像(如將后視影像與右視影像記為第2組)、兩個相離相機獲取的側(cè)視影像(如將左視影像與右視影像記為第3組)這3組有代表性的數(shù)據(jù)進(jìn)行匹配,對比和分析試驗結(jié)果。
SIFT算法采用常規(guī)、有效的匹配策略:比值提純法(閥值0.7),并利用RANSAC算法剔除誤匹配[6,21]。由于 ASIFT算法在圖像重復(fù)紋理區(qū)域會產(chǎn)生一些誤匹配,故本文先利用ASIFT算法獲得粗匹配點對,再利用RANSAC算法提純匹配點對。
對試驗結(jié)果的評價標(biāo)準(zhǔn):
(1)正確匹配點對的數(shù)量及分布。由于3種匹配方法得到的匹配結(jié)果都采用RANSAC算法進(jìn)行提純(SIFT和ASIFT直接采用RANSAC算法,AIF相當(dāng)于間接采用RANSAC算法),故3種方法得到的匹配點對均滿足單應(yīng)矩陣約束。對于每組數(shù)據(jù),在影像重疊區(qū)人工選取12對均勻分布的檢測點,并利用最小二乘法計算出兩幅影像之間的單應(yīng)矩陣H0。匹配點對是否為正確匹配點對,由重疊誤差是特征點對的描述區(qū)域的面積或像素個數(shù)。若εS<0.5,則為正確匹配點對)來判定。
(2)匹配點對的正確率,即正確匹配點對數(shù)量與匹配點對總量的比值。
3種匹配方法對這3組數(shù)據(jù)的匹配效果如圖6,對3組數(shù)據(jù)的匹配結(jié)果統(tǒng)計如表3。由圖6和表3可知:對于第一組數(shù)據(jù),在正確匹配點對數(shù)量及分布上,本文算法要明顯優(yōu)于SIFT和ASIFT算法;在匹配正確率上,3種方法的正確率都比較高,本文方法略優(yōu)于SIFT和ASIFT算法。對于第2組數(shù)據(jù),SIFT算法匹配失敗,本文算法在正確匹配點對數(shù)量上要優(yōu)于ASIFT算法;在點對分布和正確率上,要略優(yōu)于ASIFT算法。對第3組數(shù)據(jù),3種方法的匹配效果都比較好;在匹配點對數(shù)量、準(zhǔn)確率、尤其是分布上,本文方法和ASIFT算法均要優(yōu)于SIFT算法;雖然ASIFT算法的正確匹配點對數(shù)量要略高于本文方法,不過,本文方法的點對已經(jīng)夠密集了,重要的是其分布情況要優(yōu)于ASIFT算法(見圖6中用橢圓圈出的6個局部對比區(qū)域)。
圖6 3種方法分別對3組數(shù)據(jù)的匹配效果Fig.6 The matching result of three algorithms
表3 3種方法分別對3組數(shù)據(jù)的匹配總數(shù)和匹配準(zhǔn)確率Tab.3 The experimental result of three algorithms
試驗結(jié)果表明,本文算法比ASIFT算法具有更強的抗視點變化能力,其主要原因是:①通過影像粗略的角元素計算出的相機軸定向參數(shù)比ASIFT粗略模擬的相機軸定向參數(shù)要準(zhǔn)確;②本文的匹配策略要優(yōu)于ASIFT算法的匹配策略(由于ASIFT提取的特征點數(shù)量龐大,為了得到正確率高的匹配點對,其采用了極其嚴(yán)格的匹配策略:比值提純法,閥值0.36),而SIFT在某些情況下,不具備抗視點變化能力。
若平面上任意區(qū)域D,經(jīng)仿射變換(D′=Aft×D,仿射矩陣為A)后為D′,則兩區(qū)域面積之比為,即。本文中通過對原始影像作逆仿射變換得到糾正影像仿射矩陣為A-1),所以,糾正影像(有紋理區(qū)域)的面積S′與原始影像面積S之間應(yīng)滿足如下關(guān)系:而故其中θ為傾斜影像的傾角。
ASIFT算法需要用61次來粗略模擬相機軸定向參數(shù),通過仿射變換得到一組圖像序列(共61張影像),其總面積約為原始影像的13.5倍[11,16]。AIF算法先通過估算影像的旋轉(zhuǎn)矩陣直接計算出相機軸定向參數(shù),再通過1次逆仿射變換得到1張糾正影像,其面積約為原始影像的cosθ倍。
由于圖像局部特征的計算量與輸入圖像面積基本成比例[5],對于下視影像與側(cè)視影像的匹配:AIF算法用于SIFT特征提取和描述的影像面積約為原始影像的倍(由于各視影像大小幾乎相等,看作等大),即AIF在特征提取階段的時間復(fù)雜度約為SIFT算法的0.85倍,而ASIFT在特征提取階段的時間復(fù)雜度約為SIFT算法的13.5倍。AIF算法在匹配階段的時間復(fù)雜度約為SIFT算法的倍,而 ASIFT算法在匹配階段的時間復(fù)雜度約為SIFT算法的倍。對于側(cè)視影像與側(cè)視影像的匹配:AIF用于SIFT特征提取和描述的影像面積約為原始影像的71倍,即AIF在特征提取階段的時間復(fù)雜度約為SIFT的0.71倍,而ASIFT在特征提取階段的時間復(fù)雜度約為SIFT的13.5倍。AIF在匹配階段的時間復(fù)雜度約為SIFT的0.50倍,而ASIFT在匹配階段的時間復(fù)雜度約為SIFT的倍。因此,AIF算法在特征檢測和匹配階段的計算復(fù)雜度要遠(yuǎn)低于ASIFT算法,且低于SIFT算法。3種匹配算法的匹配耗時,如表4。
表4 3種方法的效率對比Tab.4 The time cost of three algorithms s
由表4可知,對于3組數(shù)據(jù),AIF算法匹配耗時分別為 ASIFT算法的0.77%、0.64%、0.69%倍,分別為SIFT算法的1.35、1.06、1.11倍。結(jié)果表明,AIF算法的匹配效率要遠(yuǎn)遠(yuǎn)高于ASIFT算法,但比SIFT算法的匹配效率略低,其主要原因是由于本文算法的匹配策略要比SIFT算法的匹配策略復(fù)雜且計算量大。
本文針對ASIFT算法計算復(fù)雜度高的問題,提出了一種較為快速的傾斜影像匹配方法,該方法先恢復(fù)傾斜影像出現(xiàn)的仿射變形問題,再對糾正影像利用SIFT算法和一定的匹配策略進(jìn)行匹配,最后將匹配出來的同名點對反算到原始影像上。下一步的研究重點是:①融合多種互補不變特征,有效保證匹配點對的多量性和空間分布均勻性[8,24],設(shè)計一種重現(xiàn)率高、抗視點變化能力強、且具有尺度和旋轉(zhuǎn)不變性的角點[3];②優(yōu)化算法的匹配策略,探索在由F、H矩陣引導(dǎo)的局部范圍內(nèi)進(jìn)行匹配(在同名點的局部潛在范圍內(nèi)找到滿足比值提純法、NCC測度、主方向差異一致性的匹配點),使得匹配點對在重疊區(qū)分布更均勻、密集,并進(jìn)一步減少誤匹配率;③進(jìn)一步增強匹配點對的可靠性,例如,在本文方法基礎(chǔ)上,進(jìn)行物方驗證以增加匹配的穩(wěn)定可靠性。在完成上述工作后,將該成果推廣應(yīng)用于傾斜影像空三軟件和具體的項目實踐中。
[1]MATAS J,CHUM O,URBAN M,et al.Robust Wide-baseline Stereo from Maximally Stable Extremal Regions[J].Image and Vision Computing,2004,22(10):761-767.
[2]MIKOLAJCZYK K,SCHMID C.An Affine Invariant Interest Point Detector[C]∥Proceedings of the 7th European Conference on Computer Vision(ECCV).Copenhagen:Springer,2002:128-142.
[3]MIKOLAJCZYK K,SCHMID C.Scale & Affine Invariant Interest Point Detectors[J].International Journal of Computer Vision,2004,60(1):63-86.
[4]MIKOLAJCZYK K,TUYTELAARS T,SCHMID C,et al.A Comparison of Affine Region Detectors[J].International Journal of Computer Vision,2005,65(1-2):43-72.
[5]MOREL J M,YU G S.ASIFT:A New Framework for Fully Affine Invariant Image Comparison[J].SIAM Journal on Imaging Sciences,2009,2(2):438-469.
[6]LOWE D G.Distinctive Image Features from Scale-invariant Key Points[J].International Journal of Computer Vision,2004,60(2):91-110.
[7]RICHARD H,ANDREW Z.Multiple View Geometry in Computer Vision[M].2nd ed.United Kingdom:Cambridge University Press,2003:117-123.
[8]YANG H C,ZHANG S B,WANG Y B.Robust and Precise Registration of Oblique Images Based on Scale-invariant Feature Transformation Algorithm[J].IEEE Geoscience and Remote Sensing Letters,2012,9(4):783-787.
[9]WANG C Y,ZHANG Y,WU Y,et al.Highly Accurate Geometric Correction for Serious Oblique Aero Remote Sensing Image Based on the Piecewise Polynomial Model[J].Journal of Computational Information Systems,2011,7(2):342-349.
[10]YU Y N,HUANG K Q,CHEN W,et al.A Novel Algorithm for View and Illumination Invariant Image Matching[J].IEEE Transaction on Image Processing,2012,21(1):229-240.
[11]YU G,MOREL J M.ASIFT:An Algorithm for Fully Affine Invariant Comparison[J/OL].Image Processing On Line,2011.[2013-11-29].http:∥dx.doi.org/10.5201/ipol.2011.my-asift.
[12]YU G,MOREL J M.A Fully Affine Invariant Image Comparison Method[C]∥Proceedings of IEEE International Conference on Acoustics,Speech and Signal Processing.Taipei:IEEE,2009:1597-1600.
[13]OJI R.An Automatic Algorithm for Object Recognition and Detection Based on ASIFT Key Points[J].Signal &Image Processing:An International Journal,2012,3(5):29-39.
[14]ISHII J,SAKAI S,ITO K,et al.Wide-baseline Stereo Matching Using ASIFT and POC[C]∥Proceedings of 19th IEEE 2012International Conference on Image Processing.Orlando,F(xiàn)lorida:IEEE,2012:2977-2980.
[15]ANCUKIEWICZ D,SIDERIS K,RICKETT A.3D Reconstruction from RGB and Depth Video[EB/OL].[2014-01-10].http:∥cs.ucla.edu/~costas/kinect_reconstruction.html.
[16]OHTA M,IWAMOTO K,SATO Y,et al.Perspective Robust Object Identification Using Depth and Color Image Sensor for Real-world Annotation[C/OL]∥ The 5th International Conference on 3DSystems and Applications,2013.http:∥ www.3dsa.kr/3DSA2013/contents/program.html.
[17]ZHANG Li,GRUEN A.Multi-image Matching for DSM Generation from IKONOS Imagery[J].ISPRS Journal of Photogrammetry and Remote Sensing,2006,60(3):195-211.
[18]ZHANG Li,ZHANG Jixian.Multi-image Matching for DEM Generation from Satellite Imagery[J].Science of Surveying and Mapping,2008,33(Suppl):35-39.(張力,張繼賢.基于多基線影像匹配的高分辨率遙感影像DEM 自動生成[J].測繪科學(xué),2008,33(???5-39.)
[19]BON A D.Initial Approximations for the Three-dimensional Conformal Coordinate Transform[J].Photogrammetric Engineering & Remote Sensing,1996,62(1):79-83.
[20]KLIPPENSTEIN J,ZHANG H.Quantitative Evaluation of Feature Extractors for Visual SLAM[C]∥Proceedings of the 4th Canadian Conference on Computer and Robot Vision.Quebec:IEEE,2007:157-164.
[21]LE?KOVSKY′P,ALEKSEYCHUK A,STANSKI A,et al.Point-based Registration of High-resolution Histological Slices for Navigation Purposes in Virtual Microscopy[J].Annals of the BMVA,2012,2012(10):1-18.
[22]MIKOLAJCZYK K,SCHMID C.A Performance Evaluation of Local Descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1615-1630.
[23]LEI Lin,CHEN Tao,LI Zhiyong,et al.A New Approach to Image Invariant Extraction under Global Affine Transformation[J].Journal of National University of Defense Technology,2008,30(4):64-70.(雷琳,陳濤,李智勇,等.全局仿射變換條件下圖像不變量提取新方法[J].國防科技大學(xué)學(xué)報,2008,30(4):64-70.)
[24]YAO Guobiao,DENG Kazhong,ZHANG Li,et al.An Automated Registration Method with High Accuracy for Oblique Stereo Images Based on Complementary Affine Invariant Features[J].Acta Geodaetica et Cartographica Sinica,2013,42(6):869-876,883.(姚國標(biāo),鄧喀中,張力,等.融合互補仿射不變特征的傾斜立體影像高精度自動配準(zhǔn)方法[J].測繪學(xué)報,2013,42(6):869-876,883.)