章昕燁 童衛(wèi)青 李海晟
摘要:既有的圖像特征匹配算法比較適合于一般分辨率的圖像,且是在灰度圖像上進(jìn)行的.洞窟壁畫圖像的特點(diǎn)是分辨率非常高,并且還可能存在具有相同灰度紋理和不同顏色的區(qū)域.針對(duì)這類特殊圖像,提出了一種面向高分辨率壁畫圖像的高速化特征匹配算法(簡(jiǎn)稱NeoKPM算法).NeoKPM算法有2個(gè)主要特點(diǎn):①通過降采樣圖像獲得原圖像粗配準(zhǔn)的單應(yīng)變換矩陣,極大地降低了后續(xù)特征匹配的時(shí)間復(fù)雜度;②提出了一種基于灰度和顏色不變量的特征描述符,能很好地區(qū)分具有相同灰度紋理和不同顏色的特征點(diǎn),提高了特征匹配的正確性.在實(shí)際壁畫圖像庫(kù)上,對(duì)NeoKPM算法的性能進(jìn)行了實(shí)驗(yàn).實(shí)驗(yàn)結(jié)果表明,NeoKPM算法在分辨率為8 000萬(wàn)像素的壁畫圖像上,其每對(duì)圖像的正確匹配點(diǎn)數(shù)量平均比SIFT(Scale Invariant Feature Transform)算法高出了近10萬(wàn)個(gè);其特征點(diǎn)匹配平均處理速度是SIFT算法的20倍;其基于圖像單個(gè)像素的雙圖像平均誤差小于0.04像素.
關(guān)鍵詞:壁畫數(shù)字化;特征匹配;暴力匹配;顏色不變量
中圖分類號(hào):TP391文獻(xiàn)標(biāo)志碼:ADOI:10.3969/j.issn.l000-5641.2021.06.008
A fast key points matching method for high resolution images of a planar mural
ZHANG Xinye1,TONG Weiqing1,2,LI Haisheng1
(1. School of Computer Science and Technology. East China Normal University,Shanghai 200062. China;
2. Shanghai Commercial Digital Printing Co.,Ltd. Shanghai 200041,China)
Abstract:Existing methods of key points matching were invented for grayscale images and are not suitable for high resolution images. Mural images typically have very high resolution,and there may be areas with the same gray textures and different colors. For this special kind of image,this paper proposes a high-speed algorithm of key points matching for high-resolution mural images (NeoKPM for short). NeoKPM has two main innovations:(1)first,the homography matrix of rough registration for the original image is obtained by downsampling the image,which substantially reduces the time required for key points matching;(2)second,a feature descriptor based on gray and color invariants is proposed,which can distinguish different colors of texture with the same gray level,thereby improving the correctness of key points matching. In this paper,the performance of the NeoKPM algorithm is tested on a real mural image library. The experimental results show that on mural images with a resolution of 80 million pixels,the number of correct matching points per pair of images is nearly 100 000 points higher than that of the SIFT (Scale Invariant Feature Transform)algorithm,the processing speed of key points matching is more than 20 times faster than that of the SIFT algorithm,and the average error of dual images based on a single pixel of theimage is less than 0.04 pixels.
Keywords:mural digitizing;key points matching;brute force matching;color invariance
0引言
洞窟壁畫是人類的藝術(shù)瑰寶,數(shù)字化保存是其重要的保護(hù)方法.根據(jù)我國(guó)國(guó)家文物局關(guān)于古壁畫的一級(jí)影像采樣分辨率不低于300 DPI(Dots Per Inch,每英寸點(diǎn)數(shù))的技術(shù)要求[1],目前任何高分辨率的相機(jī)都無(wú)法通過拍攝一幅圖像來保存大幅面的洞窟壁畫.因此,一般采用劃分壁畫采集區(qū)塊的方法,即把一幅大幅面的壁畫劃分成n×m大小的有重疊的采集區(qū)塊,然后對(duì)每一區(qū)塊用高分辨率相機(jī)進(jìn)行拍攝,再通過圖像拼接方法把這些采集區(qū)塊的圖像(一般有上百幅圖像)拼接成一幅全景圖像.圖像拼接的主流方法是通過尋找圖像匹配點(diǎn),然后通過匹配點(diǎn)把圖像對(duì)齊后實(shí)行拼接處理.為此,如何找到2幅圖像的穩(wěn)定而可靠的特征點(diǎn),并進(jìn)行有效的特征點(diǎn)匹配是圖像拼接中非常重要的處理環(huán)節(jié),因?yàn)檫@直接影響著圖像拼接的精度和效果.
特征點(diǎn)匹配包括3個(gè)處理過程:圖像特征點(diǎn)檢測(cè)、圖像特征點(diǎn)描述和圖像間的特征點(diǎn)匹配.關(guān)于特征點(diǎn)檢測(cè)和描述的研究比較成熟,經(jīng)典的方法有SIFT[2]算法、MSER(Maximally Stable Extremal Region)[3]算法、SURF(Speeded-Up Robust Features)[4]算法、ORB(Oriented FAST (Features from Accelerated Segment Test)and Rotated BRIEF (Binary Robust Independent Elementary Features))[5]算法等.文獻(xiàn)[6]對(duì)主流的特征點(diǎn)檢測(cè)算法做了全面的比較研究后指出,SIFT算法在旋轉(zhuǎn)和尺度不變性方面是最好的.主流的特征點(diǎn)檢測(cè)算法主要適用于灰度圖像,也就是說這些算法都沒有考慮如何處理具有相同灰度紋理卻有著不同色彩信息的圖像.MSER算法在理論上可以直接檢測(cè)到彩色圖像的特征斑點(diǎn),但其檢測(cè)性能比從灰色圖像檢測(cè)要差許多.CSIFT (Colored SIFT)[7]算法是為了解決能從彩色圖像上直接檢測(cè)特征點(diǎn)而被提出來的,該算法通過把彩色圖像變換為基于顏色不變量的灰度圖像[8],從而類似SIFT算法一樣實(shí)現(xiàn)了彩色圖像的特征檢測(cè)和描述.由于基于顏色不變量的灰度圖像紋理比彩色圖像的紋理要粗糙很多,所以導(dǎo)致了CSIFT算法檢測(cè)出來的特征點(diǎn)數(shù)量比用SIFT算法檢測(cè)出來的數(shù)量要少很多,而特征點(diǎn)數(shù)量又對(duì)后續(xù)的特征點(diǎn)匹配的精度影響比較大.與利用線性高斯金字塔來構(gòu)建多尺度空間以檢測(cè)關(guān)鍵特征點(diǎn)的SIFT算法和SURF算法不同,KAZE[9]算法采用加性算子分裂(Additive Operator Splitting,AOS)算法來進(jìn)行非線性的擴(kuò)散濾波,從而構(gòu)造出非線性尺度空間,具有比較好的特征點(diǎn)可重復(fù)檢測(cè)特性,但是也付出了高昂的計(jì)算成本.在后續(xù)研究中雖然提出了加速版的A-KAZE(Accelerated KAZE)[10],但其特征檢測(cè)性能不如KAZE,其尺度不變性不如SIFT魯棒,不太適合應(yīng)用于高分辨的壁畫圖像.相較于SIFT利用高斯差分(Difference of Gaussians,DoG)算子檢測(cè)特征點(diǎn),2020年Cho等[11]提出了一種特征檢測(cè)算法,該算法引入了高斯拉普拉斯(Laplacian of Gaussian,LoG)算子及其高階導(dǎo)數(shù)(HLoG)來構(gòu)造尺度空間,并對(duì)其特征檢測(cè)進(jìn)行了實(shí)驗(yàn)驗(yàn)證,取得了比較好的結(jié)果;但該算法對(duì)具體圖像的參數(shù)確定比較困難,穩(wěn)定性方面也存在問題,因而還達(dá)不到實(shí)用的要求.在深度學(xué)習(xí)領(lǐng)域中,近幾年也提出了一些新穎的特征檢測(cè)和描述算法[12-14],但這些算法存在著兩個(gè)棘手問題:一是需要大量的訓(xùn)練樣本;二是泛化性還沒有解決,所以暫時(shí)還不適合應(yīng)用于樣本非常稀缺的洞窟壁畫上.
特征點(diǎn)匹配可以分為初匹配和匹配驗(yàn)證兩個(gè)階段:第一階段比較主流的初匹配方法是暴力匹配法(Brute Force Matching,BFM),該方法對(duì)每個(gè)特征點(diǎn)生成一個(gè)特征描述向量(也稱特征描述符),對(duì)每個(gè)特征點(diǎn)用全遍歷方式從另一幅圖像里尋找與該特征點(diǎn)的特征向量最相似的特征點(diǎn)作為其匹配點(diǎn)對(duì);第二階段的匹配驗(yàn)證的目的是消除在初匹配中的誤匹配點(diǎn)對(duì),通常使用隨機(jī)抽樣一致算法(Random Sample Consensus,RANSAC)[15]和最小二乘方回歸算法(Least Median of Squares,LMedS)[16].
從理論角度來說,如果初匹配中野點(diǎn)數(shù)(離群點(diǎn))與內(nèi)點(diǎn)數(shù)之比較高時(shí)(一般為大于50%),那么基于上述兩種算法驗(yàn)證后的匹配精度就會(huì)降低,甚至很差.后來又相繼提出了一些改進(jìn)的方法,例如,F(xiàn)otouhi等[17]根據(jù)特征描述最相近與次相近的匹配點(diǎn)之間的距離比來構(gòu)造一組可靠的特征匹配點(diǎn),并用這些基準(zhǔn)點(diǎn)來區(qū)分正確點(diǎn)和離群點(diǎn);Lin等[18]根據(jù)正確匹配點(diǎn)之間的相干性(Coherence Property),再通過一種非線性回歸的方法來去除離群點(diǎn);Chou等[19]提出了一種分兩階段進(jìn)行抽樣和平面投票的匹配法,用于剔除離群點(diǎn).但是這些方法幾乎都是針對(duì)驗(yàn)證處理,不能減少第一階段的無(wú)效匹配,只能消除錯(cuò)誤的對(duì)應(yīng)關(guān)系.另外,通過實(shí)驗(yàn)還發(fā)現(xiàn),在特征點(diǎn)匹配處理中,暴力匹配的計(jì)算時(shí)間成本占據(jù)了整個(gè)處理過程的80%.
根據(jù)以上分析,本文解明了目前圖像特征點(diǎn)匹配的主流算法中存在的問題:①特征點(diǎn)檢測(cè)算法對(duì)灰度圖像比較有效,但對(duì)彩色圖像效果不好;②初匹配的時(shí)間消耗占整個(gè)圖像匹配過程的80%左右;③當(dāng)野點(diǎn)較多時(shí),RANSAC算法的效果會(huì)明顯下降.上述這些問題,當(dāng)2幅圖像的分辨率不高時(shí),其對(duì)圖像拼接精度的影響基本上顯現(xiàn)不出來;但對(duì)大幅面壁畫圖像拼接來說,其對(duì)拼接精度和時(shí)間復(fù)雜度的影響就非常顯著了.
既有的圖像特征點(diǎn)匹配算法比較適合于一般分辨率的圖像,且是在灰度圖像上進(jìn)行的.洞窟壁畫圖像的特點(diǎn)是分辨率非常高,并且可能存在具有相同灰度紋理而顏色不同的區(qū)域.針對(duì)這類特殊圖像,本文提出了一種面向大幅面、高分辨率壁畫圖像的高速化特征點(diǎn)匹配算法(簡(jiǎn)稱NeoKPM算法). NeoKPM算法有2個(gè)主要特點(diǎn):①通過降采樣圖像獲得原圖像粗略配準(zhǔn)的單應(yīng)變換矩陣,極大地降低了后續(xù)特征點(diǎn)匹配的時(shí)間復(fù)雜度;②提出了一種基于灰度和顏色不變量的特征描述符,它能很好地區(qū)分具有相同灰度紋理不同顏色的特征點(diǎn),提高了特征點(diǎn)匹配的正確性.
在實(shí)際人工壁畫圖像庫(kù)上,本文對(duì)NeoKPM算法的性能進(jìn)行了實(shí)驗(yàn).實(shí)驗(yàn)結(jié)果表明,NeoKPM算法在分辨率為8000萬(wàn)像素的壁畫圖像集上,其每對(duì)圖像的正確匹配點(diǎn)數(shù)量平均比SIFT算法高出近10萬(wàn)個(gè),其特征點(diǎn)匹配處理速度是SIFT算法的20倍,其基于圖像單個(gè)像素的雙圖像平均誤差小于0.04像素.
1NeoKPM算法
本章首先給出NeoKPM算法的原理和整個(gè)算法,然后用實(shí)驗(yàn)考察降采樣率與圖像配準(zhǔn)誤差的關(guān)系,最后敘述顏色不變量在特征匹配中的作用.
1.1原理和算法
特征點(diǎn)匹配是圖像拼接中的關(guān)鍵處理環(huán)節(jié),匹配準(zhǔn)確與否對(duì)后續(xù)無(wú)論是2維拼接還是3維重建都是至關(guān)重要的.本文提出的匹配算法分為特征粗匹配和特征精匹配兩個(gè)階段.
由于采集的原始壁畫圖像具有很高的分辨率(一般在8000萬(wàn)像素以上),而既有的特征點(diǎn)匹配算法對(duì)這類圖像處理的時(shí)間復(fù)雜度很高(一般需要幾小時(shí)),其原因是高分辨率圖像會(huì)檢測(cè)出大量特征點(diǎn),而特征點(diǎn)的匹配是采用暴力匹配法.為了提高特征匹配的速度,必須考慮把圖像的分辨率大幅度下降,但是分辨率下降的圖像又會(huì)影響特征匹配的精度.為了克服這一矛盾,我們先對(duì)2幅輸入圖像進(jìn)行降采樣處理.根據(jù)1.2節(jié)中的實(shí)驗(yàn)數(shù)據(jù),按10%的降采樣率進(jìn)行降采樣后的圖像(即比原圖像縮小了100倍)所獲得的平均配準(zhǔn)誤差在1像素左右,但其處理時(shí)間大幅度下降(約下降20倍).為此,第一階段,先通過降采樣圖像獲得原圖像的單應(yīng)變換矩陣,即特征粗匹配;第二階段,先檢測(cè)出2幅輸入圖像的特征點(diǎn),然后利用特征粗匹配的單應(yīng)變換矩陣來確定每個(gè)目標(biāo)圖像中的每個(gè)匹配點(diǎn)在參考圖像中的對(duì)應(yīng)位置,而后在一個(gè)5×5的矩形區(qū)域內(nèi),搜索其匹配點(diǎn),這樣就可以獲得既高速又高精度的特征點(diǎn)匹配.
下面給出完整的NeoKPM算法.
第一階段特征點(diǎn)粗匹配
(1)對(duì)輸入的2幅重疊圖像(分別為目標(biāo)圖像和參考圖像,目的是用目標(biāo)圖像去配準(zhǔn)參考圖像)進(jìn)行降采樣處理(一般降采樣率為10%,即對(duì)原始圖像縮小100倍),分別輸出目標(biāo)圖像的降采樣圖像T和參考圖像的降采樣圖像R.
(2)根據(jù)2幅圖像拍攝時(shí)的重疊率(對(duì)于同一幅壁畫,其拍攝重疊率是固定的)估算降采樣圖像T和降采樣圖像R間的粗略平移量和重疊區(qū)域,并依據(jù)圖像重疊率計(jì)算后續(xù)匹配模板的大小.
(3)在降采樣圖像T的重疊區(qū)域中央,選取指定大小的矩形區(qū)域作為匹配模板,在降采樣圖像R的重疊區(qū)域內(nèi)搜索與匹配模板最相似的區(qū)域的位置,據(jù)此得到降采樣圖像T和降采樣圖像R間的最大平移量.
(4)分別生成降采樣圖像T和降采樣圖像R的灰度圖像和顏色不變量圖像.
(5)分別從降采樣圖像T和降采樣圖像R的灰度圖像中檢測(cè)出SIFT特征點(diǎn).
(6)根據(jù)SIFT特征點(diǎn)的位置,分別從降采樣圖像T和降采樣圖像R的灰度圖像與顏色不變量圖像中抽出基于SIFT描述符的聯(lián)合特征向量.
(7)對(duì)降采樣圖像T中每個(gè)特征點(diǎn),根據(jù)最大平移量可以估計(jì)出它在降采樣圖像Rs上的對(duì)應(yīng)矩形范圍,然后進(jìn)行基于聯(lián)合特征向量的特征點(diǎn)匹配搜索,找到其對(duì)應(yīng)的匹配點(diǎn).
(8)找到2幅圖像中對(duì)應(yīng)的點(diǎn)對(duì)集合,再根據(jù)降采樣圖像與原圖像之間的幾何關(guān)系,將降采樣圖像坐標(biāo)系下的匹配點(diǎn)集合中的所有特征點(diǎn)映射到原圖像坐標(biāo)系下,利用RANSAC算法估計(jì)原分辨率圖像間的初始單應(yīng)變換矩陣H,從而獲得目標(biāo)圖像和參考圖像間的單應(yīng)變換關(guān)系.
第二階段特征點(diǎn)精配準(zhǔn)
(9)對(duì)2幅輸入圖像分別生成參考圖像與目標(biāo)圖像的灰度圖像和顏色不變量圖像,記參考圖像的灰度圖像、目標(biāo)圖像的灰度圖像、參考圖像的顏色不變量圖像、目標(biāo)圖像的顏色不變量圖像分別為T、R、T、R.
(10)分別在圖像T、R上檢測(cè)其SIFT特征點(diǎn).
(11)在目標(biāo)圖像的灰度圖像以及顏色不變量實(shí)數(shù)圖上,計(jì)算所有特征點(diǎn)的SIFT特征向量,然后把每個(gè)特征點(diǎn)的灰度特征向量和顏色不變量特征向量拼接成256維的聯(lián)合SIFT特征向量.
(12)在參考圖像的灰度圖像以及顏色不變量實(shí)數(shù)圖上,計(jì)算所有特征點(diǎn)的SIFT特征向量,然后把每個(gè)特征點(diǎn)的灰度特征向量和顏色不變量特征向量拼接成256維的聯(lián)合SIFT特征向量.
(13)對(duì)目標(biāo)圖像和參考圖像里的特征點(diǎn)按以下步驟進(jìn)行初匹配處理:對(duì)圖像T中每個(gè)特征點(diǎn),根據(jù)第一階段得到的圖像粗配準(zhǔn)的單應(yīng)變換矩陣H可以估計(jì)出它在圖像R上位置;然后在以該位置為中心的5×5矩形范圍內(nèi),用其對(duì)應(yīng)的聯(lián)合SIFT特征向量的相似度來尋找匹配點(diǎn).
(14)用RANSAC算法對(duì)上述找到的所有匹配點(diǎn)進(jìn)行篩選,獲得真匹配點(diǎn)集合,然后根據(jù)這些真匹配點(diǎn)集合計(jì)算目標(biāo)圖像和參考圖像間的單應(yīng)變換矩陣H,完成輸入圖像的特征點(diǎn)匹配.
1.2圖像降采樣率與特征點(diǎn)匹配精度
當(dāng)前特征點(diǎn)的初匹配幾乎都是通過基于特征描述符距離的暴力匹配方法來完成的,其計(jì)算時(shí)間取決于圖像特征點(diǎn)的數(shù)目.SIFT特征點(diǎn)是在多尺度空間下的局部極值點(diǎn)[2],其數(shù)量與圖像的尺寸和紋理復(fù)雜度相關(guān)聯(lián).在超高分辨率(一般在8 000萬(wàn)像素以上)的原始壁畫圖像上檢測(cè)出的SIFT特征點(diǎn)數(shù)量可達(dá)到百萬(wàn)級(jí)別,也就是說暴力匹配法需要計(jì)算多維特征向量距離的次數(shù)將高達(dá)萬(wàn)億次,實(shí)驗(yàn)中實(shí)際測(cè)得的處理時(shí)間約為3 h.圖像分辨率的減小會(huì)直接影響像素層級(jí)進(jìn)而導(dǎo)致原圖像紋理被壓縮,部分特征點(diǎn)將無(wú)法被檢測(cè)出來.表1所示為,對(duì)分辨率為(10 288×7 730)像素的超分辨壁畫圖像進(jìn)行多次降采樣處理后,降采樣圖像上檢測(cè)出的SIFT特征點(diǎn)數(shù)量的變化情況.表1的數(shù)據(jù)表明,特征點(diǎn)的數(shù)量隨著降采樣率的增大而顯著減少.
降低圖像分辨率可以大幅度降低特征匹配的時(shí)間復(fù)雜度,但同時(shí)也會(huì)影響特征匹配的精度.為了解決這一問題,需要對(duì)降采樣率與特征點(diǎn)匹配精度之間的關(guān)系進(jìn)行實(shí)驗(yàn)考察:首先,對(duì)圖像庫(kù)A(見2.1節(jié)的圖像庫(kù)說明)中的所有參考圖像和目標(biāo)圖像分別按5%的遞減步長(zhǎng)進(jìn)行降采樣;然后對(duì)降采樣后的參考圖像和目標(biāo)圖像,分別計(jì)算各個(gè)降采樣圖像以及原圖像的特征點(diǎn)匹配的處理時(shí)間和誤差.本文參考的基準(zhǔn)算法是SIFT,實(shí)驗(yàn)中,基于圖像庫(kù)A中已知的單應(yīng)變換矩陣計(jì)算降采樣圖像和原圖像的特征點(diǎn)匹配誤差,并以兩者的相對(duì)雙向平均誤差來衡量因降采樣所產(chǎn)生的特征點(diǎn)匹配誤差.
表2所示是對(duì)圖像庫(kù)A中100對(duì)圖像進(jìn)行降采樣性能考察的實(shí)驗(yàn)結(jié)果.實(shí)驗(yàn)結(jié)果表明,在降采樣率為10%時(shí),降采樣圖像的特征點(diǎn)匹配誤差與原圖像特征點(diǎn)匹配誤差的相對(duì)雙向平均誤差為0.82像素,降采樣圖像的平均匹配時(shí)間約為1.0s(原圖像的平均匹配時(shí)間為4 544s,約為原分辨率圖像特征點(diǎn)匹配時(shí)間的萬(wàn)分之三).
為了進(jìn)一步驗(yàn)證上述實(shí)驗(yàn)結(jié)論的一般性,本文對(duì)與圖像庫(kù)A中具有不同分辨率和紋理的另外200幅壁畫圖像進(jìn)行了相同的實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示.從表3可知,在降采樣率為10%時(shí),其特征點(diǎn)匹配誤差與原圖像的特征點(diǎn)匹配誤差的相對(duì)雙向平均誤差保持在1像素左右,降采樣圖像的平均匹配時(shí)間約為0.69s(原圖像的平均匹配時(shí)間為139.80 s,約為原分辨率圖像特征點(diǎn)匹配時(shí)間的千分之五).根據(jù)以上兩個(gè)實(shí)驗(yàn)數(shù)據(jù),本外文認(rèn)為對(duì)高分辨率的圖像取10%的降采樣率比較合適.
1.3顏色不變量
顏色是區(qū)分圖像紋理差異的重要信息,與視角、光照方向、光照強(qiáng)度、表面方向和菲涅爾反射系數(shù)等因素高度關(guān)聯(lián).這些因素導(dǎo)致了目標(biāo)物體上具有相同顏色的區(qū)域,但在圖像中卻呈現(xiàn)出顏色略微不同的幾個(gè)區(qū)域.為了解決這個(gè)問題,Geusebroek等[8]提出了公式(1)和公式(2)所示的顏色不變量H,公式具體為
公式(1)和公式(2)中,E、E、E分別是光譜能量、光譜能量的一次導(dǎo)數(shù)和光譜能量的二次導(dǎo)數(shù),R、G、B是目標(biāo)物的顏色.Geusebroek等證明了在等能量的不均勻光照條件下,顏色不變量H是一個(gè)獨(dú)立于視角、光照方向、光照強(qiáng)度、表面方向和菲涅爾反射系數(shù)的物體反射不變量.
為了解明基于灰度信息和顏色不變量H的聯(lián)合SIFT特征向量(簡(jiǎn)稱GHIFT特征向量)對(duì)顏色變化的辨別能力,本文設(shè)計(jì)了如下實(shí)驗(yàn)方案.
(1)從圖像庫(kù)D中讀取1幅圖像,按照?qǐng)D1(a)的方式拼接成上下2幅相同的圖像,并把該拼接后的圖像作為參考圖像,復(fù)制參考圖像得到目標(biāo)圖像.
(2)用SIFT算法分別從參考圖像和目標(biāo)圖像上檢測(cè)特征點(diǎn).
(3)實(shí)驗(yàn)中,始終保持參考圖像和目標(biāo)圖像的上半部不變,在保持灰度值I=0.3R+0.59G+0.11B基本不變的條件下,6次隨機(jī)改變目標(biāo)圖像下半部顏色的R、G、B分量值,并保證R、G、B分量值中至少有1個(gè)值的變化絕對(duì)值分別不小于5%、10%、15%、20%、25%、30%.
(4)每次目標(biāo)圖像的下半部的顏色發(fā)生變化時(shí),用前面介紹過的聯(lián)合SIFT特征向量進(jìn)行特征點(diǎn)匹配處理,獲得當(dāng)前2幅圖像的匹配點(diǎn)數(shù)量.
(5)將當(dāng)前2幅圖像的匹配點(diǎn)數(shù)與原來2幅圖像的特征點(diǎn)數(shù)進(jìn)行比較,從而考察該顏色不變量的聯(lián)合SIFT特征向量對(duì)顏色變化的敏感度.
理論上,當(dāng)顏色沒有變化時(shí),參考圖和目標(biāo)圖是完全一樣的,并且每幅圖的上半部與下半部也是完全相同的,因此,目標(biāo)圖上的每個(gè)特征點(diǎn)都可以在參考圖上找到2個(gè)匹配點(diǎn);當(dāng)目標(biāo)圖的下半部的顏色變化時(shí),目標(biāo)圖上的每個(gè)特征點(diǎn)都只能在參考圖上找到1個(gè)匹配點(diǎn).
對(duì)圖像庫(kù)D(見2.1節(jié)的圖像庫(kù)說明)的100幅圖像進(jìn)行了實(shí)驗(yàn).實(shí)驗(yàn)結(jié)果表明,基于灰度信息的SIFT特征向量不能去除下半部誤匹配點(diǎn);而基于聯(lián)合SIFT特征向量幾乎可以去除所有下半部誤匹配點(diǎn),如圖1(b)所示.圖2是顏色變化從5%變到30%時(shí),聯(lián)合SIFT特征向量對(duì)誤匹配點(diǎn)的去除比例,其中橫軸表示顏色變化的比例,縱軸表示聯(lián)合SIFT特征向量對(duì)誤匹配點(diǎn)的去除能力.
2實(shí)驗(yàn)評(píng)估
實(shí)驗(yàn)環(huán)境為,Core i7-8700k處理器,32 GB內(nèi)存;Windows 10操作系統(tǒng);開發(fā)工具為Visual Studio 2015 community;使用OpenCV3.3.0.
2.1實(shí)驗(yàn)圖像庫(kù)的制作
本文所有圖像庫(kù)的原始圖像均來自新疆龜茲洞窟的實(shí)際壁畫.
2.1.1圖像庫(kù)A
圖像庫(kù)A包含100對(duì)重疊圖像(即200幅圖像),其中100幅是原始壁畫圖像,記為參考圖像集(圖3(a)),A里有33幅分辨率為(10288×7730)像素的圖像,其余67幅圖像的分辨率為(5087×3703)像素.根據(jù)不同的單應(yīng)變換矩陣,將A里的每一幅圖像分別生成其對(duì)應(yīng)的重疊圖像,記為目標(biāo)圖像集A,如圖3(b)所示.
2.1.2圖像庫(kù)B
圖像庫(kù)B由50對(duì)具有不同重疊率的圖像組成(即100幅圖像),其中10對(duì)圖像的分辨率為(10288×7730)像素,其余40對(duì)圖像的分辨率為(5087×3703)像素.這100幅圖像中50幅是原始壁畫圖像,記為參考圖像集B(圖3(c));另外的50幅是與B中有部分重疊的壁畫圖像,記為目標(biāo)圖像集B(圖3(d)).
2.1.3圖像庫(kù)C
圖像庫(kù)C由200幅圖像構(gòu)成:從圖像庫(kù)A的參考圖像集A中,采用定位截取的方式構(gòu)造100幅大小為(640×480)像素的圖像,記為參考圖像集C(圖3(e));另外100幅圖像是由C根據(jù)不同的單應(yīng)變換矩陣分別生成的,記為目標(biāo)圖像集C(圖3(f)).
2.1.4圖像庫(kù)D
從圖像庫(kù)A中的33幅分辨率為(10288×7730)像素的壁畫圖中,采用定位截取的方式截取100幅分辨率為(1 024×512)像素、紋理較為豐富的圖像作為圖像庫(kù)D,如圖3(g)所示.
2.2NeoKPM算法與SIFT算法、SURF算法、ORB算法和SC-RANSAC算法的性能比較
本節(jié)的實(shí)驗(yàn)?zāi)康氖菍eoKPM算法與特征點(diǎn)匹配的經(jīng)典算法SIFT、SURF、ORB和在匹配驗(yàn)證階段做出最新改進(jìn)的SC-RANSAC(Spatial Consistency RANSAC)[17]進(jìn)行比較,考察NeoKPM算法在特征匹配的時(shí)間、特征匹配點(diǎn)的數(shù)量和特征匹配的誤差方面的性能.
2.2.1在圖像庫(kù)A上的考察實(shí)驗(yàn)
使用上述5種算法對(duì)圖像庫(kù)A中的100對(duì)重疊圖像進(jìn)行特征匹配,分別記錄各類算法在兩兩圖像對(duì)上特征匹配的時(shí)間、特征匹配點(diǎn)的數(shù)量和特征匹配的誤差.由于圖像庫(kù)A中兩兩圖像對(duì)之間的單應(yīng)變換矩陣已知,所以可以使用對(duì)稱轉(zhuǎn)移誤差[20]來評(píng)估各算法的匹配精度.這里計(jì)算了圖像中每一個(gè)像素的對(duì)稱轉(zhuǎn)移誤差.為了評(píng)估各算法的誤差分布情況,實(shí)驗(yàn)中將(0.005~0.100)像素范圍以0.005為間隔分成19個(gè)等距的區(qū)間,如0.005~0.010,同時(shí)增設(shè)0.100~1.000、>1.000這兩個(gè)較大的特殊區(qū)間來統(tǒng)計(jì)離群數(shù)值,分別記錄5類算法在每對(duì)圖像上的平均誤差在各個(gè)區(qū)間的圖像數(shù)量百分比,如圖4所示.圖4中橫軸表示平均誤差統(tǒng)計(jì)區(qū)間,縱軸表示誤差分布的數(shù)量百分比.實(shí)驗(yàn)數(shù)據(jù)表明,NeoKPM算法的誤差幾乎都小于0.04像素,并且比所有其他方法都要好.表4是5種算法在圖像庫(kù)A上獲得的最小平均誤差圖像的數(shù)量統(tǒng)計(jì).數(shù)據(jù)表明,NeoKPM算法在大多數(shù)圖像上產(chǎn)生的特征匹配誤差比其他4種算法要小.
在圖像庫(kù)A上的5種算法的正確匹配點(diǎn)數(shù)和運(yùn)行處理時(shí)間分別如圖5和圖6所示,其中橫軸為圖像庫(kù)A中圖像對(duì)的圖像索引編號(hào).
由于圖像庫(kù)A中存在兩種分辨率的圖像,因此本文對(duì)實(shí)驗(yàn)數(shù)據(jù)進(jìn)行了分類整理,圖5和圖6的上半部為在33對(duì)分辨率為(10288×7730)像素圖像上實(shí)驗(yàn)得出的數(shù)據(jù),下半部為在67對(duì)分辨率為(5087×3703)像素的圖像上實(shí)驗(yàn)得出的數(shù)據(jù).從實(shí)驗(yàn)中可以得出,NeoKPM算法能夠以最少的運(yùn)行時(shí)間在紋理較為豐富的高分辨率((10288×7730)像素)壁畫圖像上獲得最多數(shù)量的匹配點(diǎn).結(jié)合表5和表6的數(shù)據(jù)可以得出,NeoKPM算法在紋理不明顯、分辨率較低((5087×3703)像素)的圖像上,不僅可以較為穩(wěn)定地獲取精度和數(shù)量比較好的匹配點(diǎn),并且其63.37s的平均處理時(shí)間低于其他4種算法.
2.2.2在圖像庫(kù)B上的考察實(shí)驗(yàn)
2.2.1節(jié)考察了5種算法在2幅圖像的單應(yīng)變換矩陣已知條件下的匹配誤差情況.本節(jié)考察2幅圖像在其單應(yīng)變換矩陣未知條件下的匹配誤差情況,而圖像庫(kù)B就是符合這個(gè)條件的圖像庫(kù).由于不知道2幅圖像的單應(yīng)變換矩陣,無(wú)法計(jì)算每個(gè)特征點(diǎn)的匹配誤差,所以本文采用肉眼觀察的方法:2幅有重疊的圖像通過匹配點(diǎn)對(duì)齊后,如果沒有明顯錯(cuò)位就認(rèn)為是特征匹配成功.在圖像庫(kù)B上,5種算法的匹配成功的結(jié)果如表7所示.由表7可知,NeoKPM算法和SC-RANSAC算法能夠100%獲得成功匹配,而其余算法不能保證匹配成功.
實(shí)驗(yàn)中,匹配成功所對(duì)應(yīng)的匹配點(diǎn)被認(rèn)為是正確匹配點(diǎn),失敗時(shí)匹配點(diǎn)數(shù)記為0.在圖像庫(kù)B上的5種算法的正確匹配點(diǎn)數(shù)和運(yùn)行時(shí)間分別如圖7和圖8所示,其中橫軸為圖像庫(kù)B中圖像對(duì)的圖像索引編號(hào).由圖7和圖8可知,在紋理較為豐富、分辨率較高((10288×7730)像素)的壁畫圖像上,NeoKPM算法的運(yùn)行時(shí)間最少而匹配點(diǎn)數(shù)最多,其匹配點(diǎn)數(shù)要高出其余4種算法近1倍;在分辨率較低((5087×3703)像素)的壁畫圖像上,NeoKPM算法相較于SIFT算法、ORB算法、SURF算法這3種經(jīng)典算法,即使在圖像重疊率不是很高的情況下也成功完成了所有的匹配任務(wù);相比于同樣完成全部匹配的SC-RANSAC算法,其平均匹配點(diǎn)數(shù)為7 577,高于SC-RANSAC算法的5 459.另外,如表8所示,NeoKPM算法的平均處理時(shí)間也遠(yuǎn)低于其他4種算法.
下面從圖像庫(kù)B里選兩對(duì)重疊圖像來觀察圖像在特征匹配后進(jìn)行對(duì)齊處理的實(shí)際效果.圖9(a)是來自圖像庫(kù)B的2幅有重疊的壁畫圖像,分別用SIFT算法、SC-RANSAC算法和NeoKPM算法對(duì)圖9(a)進(jìn)行特征點(diǎn)匹配處理后再進(jìn)行圖像對(duì)齊拼接處理,其拼接結(jié)果分別如圖9(b)、圖9(d)和圖9(1)所示.為了方便比較,把左側(cè)紅色矩形區(qū)域進(jìn)行放大后的局部圖像放在其右邊,如圖9(c)、圖9(e)、圖9(g)所示.從圖9(c)、圖9(e)、圖9(g)可以看到,SIFT算法和SC-RANSAC算法都有明顯錯(cuò)位的紋理,而NeoKPM算法沒有明顯錯(cuò)位的地方.
圖10(a)也是來自圖像庫(kù)B的2幅有重疊的壁畫圖像.分別用SC-RANSAC算法和NeoKPM算法對(duì)圖10(a)進(jìn)行特征點(diǎn)匹配處理后再進(jìn)行圖像對(duì)齊拼接處理,其拼接結(jié)果分別如圖10(b)、圖10(d)所示.圖10(c)、圖10(e)為把左側(cè)紅色矩形區(qū)域進(jìn)行放大后的局部圖像.由圖10(c)、圖10(e)可知,NeoKPM算法可以精確地對(duì)齊所有結(jié)構(gòu)區(qū)域,但SC-RANSAC算法會(huì)錯(cuò)位紋理區(qū)域.
2.3NeoKPM算法與CODE算法的性能比較
CODE(Coherence based DEcision boundaries)[18]算法為近年來一種較為優(yōu)秀的特征匹配算法,但由于其采用A-SIFT[21]來檢測(cè)特征點(diǎn),所以該算法只能處理最大為(640×480)像素的圖像.為了與CODE算法進(jìn)行比較,本文特地制作了分辨率為(640×480)像素的圖像庫(kù)C(參見2.1節(jié)圖像庫(kù)說明).
在圖像庫(kù)C上,對(duì)CODE算法和NeoKPM算法進(jìn)行特征匹配處理的比較實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖11和圖12所示,其中橫軸為圖像庫(kù)C中圖像對(duì)的圖像索引編號(hào),縱軸分別為這兩種算法的特征匹配點(diǎn)的雙向平均誤差和運(yùn)行處理時(shí)間.從圖11可知,NeoKPM算法的匹配點(diǎn)平均雙向誤差約為0.30像素,而CODE算法的平均雙向誤差約為0.21像素,CODE算法比NeoKPM算法要好,但差別微小.從圖12可知,NeoKPM算法的平均處理時(shí)間約為2.26s,CODE算法的平均處理時(shí)間約為5.04s,即使在這么小尺寸的圖像上,NeoKPM算法的速度都比CODE算法要快近50%;相比于CODE算法,NeoKPM算法對(duì)被處理的圖像沒有大小的限制,且能夠以較低的時(shí)間損耗完成高分辨圖像的高質(zhì)量匹配,匹配精度逼近CODE算法.
3結(jié)論
針對(duì)既有特征點(diǎn)匹配算法不適合高分辨率壁畫圖像的問題,本文提出了一種解決高分辨率壁畫圖像匹配的高速算法NeoKPM,該算法的主要特點(diǎn)如下:①針對(duì)具有高分辨率的壁畫圖像,采取降采樣策略;②根據(jù)先驗(yàn)知識(shí)估算目標(biāo)圖像相對(duì)于參考圖像的平移量,減少了特征匹配的搜索空間,在降低了計(jì)算復(fù)雜度的同時(shí)也提高了匹配的正確率;③從降采樣圖像的特征點(diǎn)計(jì)算出原圖像的單應(yīng)變換矩陣,極大地提高了原圖像的特征點(diǎn)匹配的效率;④提出了基于灰度和顏色不變量的聯(lián)合SIFT特征向量,解決了SIFT算法不能識(shí)別具有相同紋理不同顏色區(qū)域的問題.在實(shí)際壁畫圖像庫(kù)上,本文對(duì)NeoKPM算法的性能進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明:在分辨率為8000萬(wàn)像素的壁畫圖像上,本文算法每對(duì)圖像的正確匹配點(diǎn)數(shù)量平均比SIFT算法高出近10萬(wàn)個(gè),其特征點(diǎn)匹配處理速度是SIFT算法的20倍,其基于圖像單個(gè)像素的雙圖像平均誤差小于0.04像素.
本文所提出的NeoKPM算法是針對(duì)于高分辨圖像提出的,其在低分辨率圖像上的效果并不明顯;同時(shí)如果在低分辨率圖像上進(jìn)行降采樣處理,過少的特征點(diǎn)也將難以支持計(jì)算出一個(gè)相對(duì)準(zhǔn)確的初始對(duì)應(yīng)關(guān)系.根據(jù)壁畫圖像的拍攝方式和匹配精度的需要,本文算法主要支持兩圖像重疊率不低于20%的精準(zhǔn)匹配.目前本文算法是在CPU上實(shí)現(xiàn)的,為了進(jìn)一步提高處理速度,如何將本算法推導(dǎo)到并行算法并在GPU上進(jìn)行實(shí)現(xiàn)是今后的課題.
致謝上海商務(wù)數(shù)碼圖像技術(shù)有限公司對(duì)本文的研究工作,不僅提供了全額資金支持,還提供了洞窟壁畫圖像供實(shí)驗(yàn)之用,在此表示衷心的感謝.
[參考文獻(xiàn)]
[1]中華人民共和國(guó)國(guó)家文物局.古建筑壁畫數(shù)字化測(cè)繪技術(shù)規(guī)程:WW/T 0082—2017 [S].北京:文物出版社,2017.
[2]LOWE D G. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision,2004,60(2):91- 110.
[3]MATAS J,CHUM O,URBAN M,et al. Robust wide-baseline stereo from maximally stable extremal regions [J]. Image and VisionComputing,2004,22(10):761-767.
[4]BAY H,ESS A,TUYTELAARS T,et al. Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding,2008,110(3):346-359.
[5]RUBLEE E,RABAUD V,KONOLIGE K,et al. ORB:An efficient alternative to SIFT or SURF [C]// 2011 International Conference on Computer Vision. IEEE,2011:2564-2571.
[6]MUKHERJEE D,WU Q M J,WANG G H. A comparative experimental study of image feature detectors and descriptors [J]. Machine Vision and Applications,2015,26(4):443-466.
[7]ABDEL-HAKIM A E,F(xiàn)ARAG A A. CSIFT:A SIFT descriptor with color invariant characteristics [C]// 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06). IEEE,2006:1978-1983.
[8]GEUSEBROEK J M,VAN DEN BOOMGAARD R,SMEULDERS A W M,et al. Color invariance [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(12):1338-1350.
[9]ALCANTARILLA P F,BARTOLI A,DAVISON A J. KAZE features [C]// Computer Vision-ECCV 2012,ECCV 2012,Lecture Notes in Computer Science. Berlin:Springer-Verlag,2012:214-227.
[10]ALCANTARILLA P F,NUEVO J,BARTOLI A. Fast explicit diffusion for accelerated features in nonlinear scale spaces [C]// Proceedings of British Machine Vision Conference. BMVC,2013:13.1-13.11.
[11]CHO Y J,KIM D,SAEED S,et al. Keypoint detection using higher order Laplacian of Gaussian [J]. IEEE Access,2020(8):10416- 10425.
[12]SAVINOV N,SEKI A,LADICKY L,et al. Quad-networks:Unsupervised learning to rank for interest point detection [C]//2017IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE,2017:3929-3937.
[13]DE TONE D,MALISIEWICZ T,RABINOVICH A. SuperPoint:Self-supervised interest point detection and description [C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE,2018:337-349.
[14]ONO Y,TRULLS E,F(xiàn)UA P,et al. LF-Net:Learning local features from images [C]// 32nd Conference on Neural Information Processing Systems (NIPS 2018). 2018:6234-6244.
[15]FISCHLER M A,BOLLES R C. Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography [J]. Communications of the ACM,1981,24(6):381-395.
[16]ROUSSEEUW P J. Least median of squares regression [J]. Journal of the American Statistical Association,1984,79(388):871-880.
[17]FOTOUHI M,HEKMATIAN H,KASHANLNEZHAD M A,et al. SC-RANSAC:Spatial consistency on RANSAC [J]. MultimediaTools and Applications,2019,78(7):9429-9461.
[18]LIN W Y,WANG F,CHENG M M,et al. CODE:Coherence based decision boundaries for feature correspondence [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(1):34-47.
[19]CHOU C C,SEO Y W,WANG C C. A two-stage sampling for robust feature matching [J]. Journal of Field Robotics,2018,35:779- 801.
[20]HARTLEY R,ZISSERMAN A. Multiple View Geometry in Computer Vision [M]. 2nd ed. New York:Cambridge University Press,2003.
[21]MOREL J M,YU G S. ASIFT:A new framework for fully affine invariant image comparison [J]. SIAM Journal on Imaging Sciences,2009,2(2):438-469.
(責(zé)任編輯:李藝)