• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      用SIFT算法實(shí)現(xiàn)鐵路扣件圖像分類

      2017-06-28 14:23:08強(qiáng)
      關(guān)鍵詞:扣件直方圖高斯

      王 強(qiáng)

      (1.成都工業(yè)學(xué)院 機(jī)械工程學(xué)院,成都 611730;2.西南交通大學(xué) 機(jī)械工程學(xué)院,成都 610031)

      用SIFT算法實(shí)現(xiàn)鐵路扣件圖像分類

      王 強(qiáng)1,2

      (1.成都工業(yè)學(xué)院 機(jī)械工程學(xué)院,成都 611730;2.西南交通大學(xué) 機(jī)械工程學(xué)院,成都 610031)

      基于圖像特征點(diǎn)的匹配是解決很多問題的關(guān)鍵,不同的應(yīng)用場(chǎng)景有不同的要求。研究SIFT算法在進(jìn)行匹配的參數(shù)選擇問題,結(jié)合隨機(jī)抽樣一致集算法(RANSAC),剔除錯(cuò)誤的匹配,分析參數(shù)選擇對(duì)匹配結(jié)果的影響,研究不同尺寸圖像特征點(diǎn)生成關(guān)系。針對(duì)SIFT算法對(duì)光照的敏感性問題,通過圖像增強(qiáng)再進(jìn)行匹配,結(jié)合位置信息,實(shí)現(xiàn)了特征點(diǎn)數(shù)量較少的小圖像鐵路扣件圖像的分類。

      SIFT算法;圖像分類;參數(shù)選擇;位置信息;特征

      圖像特征點(diǎn)檢測(cè)和匹配在計(jì)算機(jī)視覺圖像方面的應(yīng)用廣泛,包括紋理分類[1-2],運(yùn)動(dòng)物體跟蹤[3],人臉識(shí)別[4],人臉檢測(cè)[5]等。特征點(diǎn)檢測(cè)的準(zhǔn)確性直接關(guān)系到最終的圖像處理結(jié)果,因此圖像特征點(diǎn)的檢測(cè)一直是研究的重點(diǎn)。通過檢測(cè)圖像局部特征點(diǎn),對(duì)不同圖像中的同一物體進(jìn)行匹配。早期的特征點(diǎn)檢測(cè)方法有Moravec[6]提出的基于角點(diǎn)檢測(cè)的視頻圖像匹配算法。Harris等[7]提出了利用圖像梯度的角點(diǎn)檢測(cè)算法。Rosten等[8]提出了FAST特征點(diǎn)檢測(cè)算法,通過比較中心像素與鄰域像素的大小,然后計(jì)算得分值來檢測(cè)特征點(diǎn)。Calonder等[9]提出了BRIEF特征點(diǎn)檢測(cè)和匹配算法,準(zhǔn)確地說BRIEF是一種特征描述算法,采用漢明距離進(jìn)行特征配對(duì)來對(duì)特征點(diǎn)進(jìn)行描述。Rublee等[10]提出了結(jié)合BREIEF和FAST算法的ORB檢測(cè)算法,結(jié)合了圖像特征點(diǎn)的檢測(cè)和方向描述。Leutenegger等[11]提出了BRISK檢測(cè)算法,在圖像多尺度上主要利用FAST算法進(jìn)行特征點(diǎn)檢測(cè)。1999年,Lowe[12]提出的SIFT(Scale-invariant feature transform,尺度不變特征轉(zhuǎn)換)算法,2004年對(duì)算法進(jìn)行了完善[13]。Bay等[14]在SIFT算法的基礎(chǔ)上提出了快速魯棒特征Surf算法;Ke等[15]在SIFT算法的基礎(chǔ)上結(jié)合主成分分析提出了PCA-SIFT算法。基于圖像局部特征的研究一直是廣大科研人員研究的重點(diǎn),如何準(zhǔn)確找出圖像局部的特征,是用于圖像后續(xù)處理的關(guān)鍵。Ojala等[16-17]結(jié)合圖像局部特征提出了局部二值模式(LBP)算法;Davarzani等[18]提出了尺度和旋轉(zhuǎn)不變性的LBP算法用于人臉識(shí)別;Geng等[19]提出了SIFT特征用于人臉識(shí)別;Ren等[20]提出了抗噪聲的LBP編碼方法用于提高人臉識(shí)別的識(shí)別率。這些方法首先都需要實(shí)現(xiàn)圖像的匹配。比如人臉識(shí)別,對(duì)一個(gè)人從不同角度進(jìn)行圖像采集,通過檢測(cè)特征點(diǎn),實(shí)現(xiàn)不同角度同一個(gè)人的人臉識(shí)別等。Mikolajczyk等[21]比較了各種圖像局部感興趣區(qū)域的檢測(cè)算法,主要從特征點(diǎn)的檢測(cè)和圖像匹配兩方面進(jìn)行比較,得出SIFT算法是一種比較好的檢測(cè)和匹配算法的結(jié)論。

      由于光照、尺度、角度等因素的影響,對(duì)同一物體的多次采集的圖像都會(huì)出現(xiàn)不同的效果。SIFT算法由于采用了多尺度進(jìn)行關(guān)鍵點(diǎn)檢測(cè),同時(shí),對(duì)特征點(diǎn)的描述采用了128維方向向量,在尺度不變性和旋轉(zhuǎn)不變性方面的表現(xiàn)是非常優(yōu)秀的。在采用SIFT算法的時(shí)候,對(duì)圖像關(guān)鍵點(diǎn)檢測(cè)以及圖像匹配的參數(shù)選擇是至關(guān)重要的。Lowe雖然提出了SIFT算法,但在參數(shù)選擇上卻沒有明確給出選擇方法,也沒有說明圖像尺寸對(duì)特征點(diǎn)數(shù)量的影響,導(dǎo)致在使用SIFT算法時(shí),往往不能得到預(yù)期的效果。本文結(jié)合理論分析和實(shí)驗(yàn)驗(yàn)證,確定了特征檢測(cè)參數(shù)與特征點(diǎn)檢測(cè)結(jié)果關(guān)系以及匹配參數(shù)與匹配率之間的關(guān)系,給出了SIFT算法幾個(gè)重要參數(shù)的選擇原則。SIFT算法對(duì)光照的變化有一定的敏感性,采用128維的向量歸一化描述方法可以避免線性光照的影響,但是對(duì)于非線性光照的影響卻不能夠消除?,F(xiàn)實(shí)中采集的圖像往往受到各種光照條件的影響,比如自然光和采用光源采集的圖像,其光照條件是完全不一樣的;在自然環(huán)境中,不同天氣采集的圖像也是完全不同的。同時(shí),物體本身對(duì)光照的反射強(qiáng)度也將影響到圖像采集效果,最終影響圖像特征點(diǎn)的匹配。如果對(duì)同一類物體在不同條件下采集的圖像進(jìn)行識(shí)別而不是對(duì)同一個(gè)物體從不同角度采集的圖像進(jìn)行識(shí)別,則光照條件將成為關(guān)鍵因素。本文針對(duì)光照不均以及小圖像采用SIFT算法檢測(cè)的特征點(diǎn)數(shù)量較少問題,提出了增強(qiáng)光照方法以及添加特征點(diǎn)位置信息方法,實(shí)現(xiàn)了鐵路扣件圖像的分類。

      1 SIFT和RRANSAC算法原理

      1.1 SIFT算法原理

      SIFT算法是一種多尺度、旋轉(zhuǎn)不變性、仿射不變性圖像特征點(diǎn)檢測(cè)算法。SIFT算法主要分為以下5個(gè)步驟:

      1)利用高斯模糊建立多尺度高斯金字塔;

      2)利用高斯差分(DOG)算子進(jìn)行極值點(diǎn)檢測(cè);

      3)通過邊界抑制去掉邊界影響,通過極值抑制去掉對(duì)比度小的極值,通過擬合三維二次函數(shù)確定亞像素精度的極值,得到穩(wěn)定的極值點(diǎn);

      4)計(jì)算在極值點(diǎn)16×16鄰域范圍內(nèi)梯度直方圖,將16×16范圍分為16個(gè)4×4的像素塊,每個(gè)塊計(jì)算8個(gè)方向的梯度直方圖,得到關(guān)鍵點(diǎn)的128維描述向量并歸一化消除光照影響;

      5)圖像進(jìn)行匹配時(shí),比較兩圖中的關(guān)鍵點(diǎn)128維向量的歐式距離,Lowe[12]提出:比較最近距離與次近距離之間的比值,如果小于0.8則認(rèn)為找到匹配點(diǎn)。

      SIFT算法首先利用高斯卷積核構(gòu)造對(duì)尺度圖像金字塔,Lindeberg等[22]已經(jīng)證明高斯卷積核是實(shí)現(xiàn)尺度變換的唯一線性核。對(duì)于二維圖像I(x,y),利用高斯卷積核在尺度空間進(jìn)行圖像卷積的定義為:

      I(x,y,σ)=G(x,y,σ)*I(x,y)

      (1)

      (2)

      其中:G(x,y,σ)是尺度可變的高斯函數(shù);(x,y)是坐標(biāo);σ是可變尺度坐標(biāo)。通過改變?chǔ)业拇笮。瑢?shí)現(xiàn)不同尺度的圖像。σ的大小決定圖像模糊的程度,越大圖像越模糊,細(xì)節(jié)特征越不明顯;反之,則反映圖像的細(xì)節(jié)特征。在不同的尺度空間根據(jù)DOG算子與LOG算子的近似性,用DOG代替LOG對(duì)圖像在三維空間26點(diǎn)鄰域內(nèi)進(jìn)行特征點(diǎn)檢測(cè),加快了特征點(diǎn)檢測(cè)的速度。DOG算子定義為:

      D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)= I(x,y,kσ)-I(x,y,σ)

      (3)

      其中k表示高斯尺度按比例變化的系數(shù)。

      由于DOG算子有明顯的邊界響應(yīng),因此采用Hessian矩陣抑制邊界去掉不穩(wěn)定的極值點(diǎn),同時(shí),對(duì)于對(duì)比度比較小的極值點(diǎn),通過設(shè)定閾值進(jìn)行抑制。最后擬合三維二次函數(shù),通過求取二次函數(shù)的極值,達(dá)到亞像素精度,得到穩(wěn)定的極值點(diǎn),即圖像中的特征點(diǎn)。再對(duì)特征點(diǎn)進(jìn)行描述,得到特征點(diǎn)的唯一表示,通過比較描述算子的相似性,確定不同圖像中相同的特征點(diǎn),從而實(shí)現(xiàn)圖像匹配。SIFT的描述算子采用128維的方向直方圖實(shí)現(xiàn)。

      1.2 RANSAC算法原理

      RANSAC(RANdom SAmple Consensus,隨機(jī)抽樣一致)算法稱為隨機(jī)抽樣一致集,由Fischler等[23]在1981年提出。它通過迭代的方式,從一組觀測(cè)數(shù)據(jù)中估計(jì)數(shù)學(xué)模型的參數(shù)。假設(shè)數(shù)據(jù)的分布可以用一個(gè)數(shù)學(xué)模型來解釋,通過輸入數(shù)據(jù)計(jì)算出模型的參數(shù),不能適應(yīng)模型參數(shù)的數(shù)據(jù)稱為局外點(diǎn);反之,稱為局內(nèi)點(diǎn)。如果輸入數(shù)據(jù)中有足夠多的點(diǎn)被歸為局內(nèi)點(diǎn),說明估計(jì)的模型是合理的。重復(fù)這個(gè)過程,每次產(chǎn)生的模型如果局內(nèi)點(diǎn)太少就摒棄,如果比現(xiàn)有模型更好就選用這個(gè)模型代替現(xiàn)有模型。如圖1所示,兩組觀察數(shù)據(jù)點(diǎn)云可以通過RANSAC算法讓兩個(gè)點(diǎn)云匹配。首先隨機(jī)得到一個(gè)點(diǎn)云中的點(diǎn)對(duì),利用兩點(diǎn)關(guān)系(比如方向、夾角等)搜索另一個(gè)點(diǎn)云中的點(diǎn)對(duì),然后計(jì)算旋轉(zhuǎn)和平移參數(shù),通過變換找到其他點(diǎn)并重新計(jì)算旋轉(zhuǎn)和平移,重復(fù)上述過程最終找到點(diǎn)云匹配的位置。

      圖1 RANSAC算法匹配點(diǎn)云示意圖

      RANSAC算法在SIFT算法中的應(yīng)用主要是篩選出SIFT算法中的錯(cuò)誤匹配點(diǎn)。首先從特征點(diǎn)集中隨機(jī)選取4個(gè)匹配點(diǎn)對(duì)計(jì)算變換矩陣。根據(jù)誤差度量函數(shù)計(jì)算滿足當(dāng)前變換矩陣的元素個(gè)數(shù),判斷是否是最優(yōu)一致集,若是則更新當(dāng)前最優(yōu)一致集。重復(fù)迭代,直到當(dāng)前的錯(cuò)誤概率小于最小錯(cuò)誤概率。圖2是采用RANSAC篩選前和刷選后的SIFT特征匹配對(duì)比圖,可以看出,采用RANSAC算法把錯(cuò)誤的匹配過濾掉了。

      圖2 RANSAC用于SIFT匹配

      2 SIFT算法參數(shù)選擇

      2.1 SIFT參數(shù)對(duì)圖像特征的影響

      SIFT算法中需要確定的參數(shù)包括高斯模糊尺度σ,邊界抑制閾值Curv_thr,低對(duì)比度抑制閾值Cont_thr以及128維向量的最近距離和次近距離之間的比率R。Curv_thr主要是去掉邊界影響,因?yàn)镈OG算子有較強(qiáng)的邊界效應(yīng)。由于SIFT算法是檢測(cè)在三維空間中的極大值或極小值,已經(jīng)可以去掉大部分的邊界影響,所以這個(gè)參數(shù)對(duì)整體特征點(diǎn)檢測(cè)的影響不是很大,通過實(shí)驗(yàn)發(fā)現(xiàn),Curv_thr設(shè)置為0,10,20對(duì)特征點(diǎn)數(shù)量的影響都不是很大。Cont_thr是為了去掉與鄰域之間低對(duì)比度的特征點(diǎn),閾值設(shè)置的大小與特征點(diǎn)的數(shù)量有很大的關(guān)系,尤其是圖像灰度分布在比較小的范圍內(nèi)的時(shí)候,對(duì)最終圖像特征點(diǎn)的數(shù)量很大的影響。此外,高斯模糊尺度σ對(duì)特征點(diǎn)的檢測(cè)有至關(guān)重要的影響,相似性比較的比率R對(duì)特征點(diǎn)匹配有關(guān)鍵的影響。

      1)高斯模糊尺度σ。σ主要用于生成多尺度圖像金字塔的,利用DOG進(jìn)行特征點(diǎn)檢測(cè)。σ的選擇決定了圖像的模糊程度,σ越大圖像越模糊,σ越小越能表現(xiàn)圖像的細(xì)節(jié)特征。高斯模糊是根據(jù)二維高斯分布函數(shù)計(jì)算出來的。二維高斯分布的函數(shù)如式(4)所示,其函數(shù)圖像如圖3所示。

      (4)

      圖3 二維高斯函數(shù)圖像

      σ也稱為高斯模糊半徑,σ越小曲面越高越尖,檢測(cè)出來的特征點(diǎn)也越多,反之曲面越低越平緩,特征點(diǎn)越少。根據(jù)高斯3σ原則,分布在±3σ范圍內(nèi)的概率為99.73%,因此超過±3σ的范圍可以認(rèn)為接近于零而不予考慮。高斯模糊實(shí)際上包括了圖像的高斯低通濾波處理,消除了噪聲對(duì)特征點(diǎn)檢測(cè)的影響。因此,SIFT算法是抗噪聲的。圖4是來自Miko-lajczyk and Schmid 2005圖像數(shù)據(jù)庫(kù)中的Boat圖像,圖a是原圖,后面是分別加上不同程度的高斯噪聲后的結(jié)果。從表1看出,噪聲對(duì)圖像特征點(diǎn)的檢測(cè)沒有太大影響,σ的值不同影響是相當(dāng)大的。檢測(cè)出來的特征點(diǎn)數(shù)量有明顯的區(qū)別。隨著σ值增大,特征點(diǎn)的數(shù)量減少比較多。表1中Cont_thr值都設(shè)置為0.04。隨著特征點(diǎn)數(shù)量的增加,整體花費(fèi)的時(shí)間也相應(yīng)增加。

      圖4 不同高斯噪聲圖像

      表1 不同σ值特征點(diǎn)檢測(cè)數(shù)量

      2)描述算子相似性比較的比率R。SIFT算法的特征點(diǎn)相似性比較采用的是最近距離與次近距離之間的比率來判斷的,距離的計(jì)算采用歐式距離。這個(gè)值的大小將影響圖像匹配點(diǎn)的數(shù)量。如果值較大,則匹配的點(diǎn)越多,但是錯(cuò)誤的匹配也相應(yīng)增加,同時(shí)增加了匹配的時(shí)間。反之,值越小匹配點(diǎn)減少,有可能導(dǎo)致沒有匹配點(diǎn)。

      對(duì)于圖像匹配而言,并不是匹配點(diǎn)越多越好,理論上如果不考慮誤差的影響,對(duì)于二維圖像而言,如果匹配的結(jié)果用于圖像拼接,只要找到兩個(gè)相同的點(diǎn),就可以實(shí)現(xiàn)完全拼接。如果用于圖像識(shí)別,則主要考慮識(shí)別的準(zhǔn)確性。如果識(shí)別的對(duì)象單一、背景簡(jiǎn)單,則需要匹配的數(shù)量很少就可以實(shí)現(xiàn);反之,則需要增加匹配點(diǎn)。物體在現(xiàn)實(shí)中都有明確的邊界特征,如果能夠找到每個(gè)物體有代表性的特征,則不需要太多的匹配點(diǎn)就可以實(shí)現(xiàn)物體的識(shí)別;反之,匹配點(diǎn)太多則將增加運(yùn)算時(shí)間,對(duì)于很多需要滿足實(shí)時(shí)性要求的時(shí)候則不能達(dá)到。圖5顯示了匹配數(shù)量與R的關(guān)系圖,圖6顯示了匹配數(shù)量與運(yùn)行時(shí)間的關(guān)系。在假設(shè)RANSAC后的點(diǎn)是正確的匹配點(diǎn)的前提下,從圖5也可以得出匹配率與R之間的關(guān)系圖。表2顯示了Miko-lajczyk and Schmid 2005圖像庫(kù)中的兩幅Boat圖像的匹配結(jié)果,兩圖拍攝的角度不同,采用σ=1.6,Cont_thr=0.04,不同的R進(jìn)行匹配的結(jié)果,圖像大小為850×680。

      表2 不同R值的匹配結(jié)果

      圖5 R和匹配率關(guān)系

      圖6 R和運(yùn)行時(shí)間關(guān)系

      從表2以及圖5和圖6可以看出,隨著R值的增大,匹配點(diǎn)的數(shù)量也在增大,同時(shí)錯(cuò)誤的匹配點(diǎn)也在增加,時(shí)間也逐漸延長(zhǎng)。從實(shí)時(shí)性方面考慮,在采用SIFT算法的時(shí)候,應(yīng)該在保證匹配可靠的前提下,盡量減小R的值。

      從σ和R的值來看,σ主要影響圖像特征點(diǎn)的檢測(cè)數(shù)量,點(diǎn)的數(shù)量隨著σ值的增大而減少。而R主要影響匹配點(diǎn)的數(shù)量。針對(duì)不同的圖像這些值的選擇是不同的,比如對(duì)于圖8顯示的是一幅180×120的鐵路扣件圖像,如果采用σ=1.6和R=0.8,則不能找到正確的匹配點(diǎn)。Lowe推薦的R=0.8在實(shí)際匹配中出現(xiàn)了很多錯(cuò)誤的匹配,而且時(shí)間上也花費(fèi)比較多,從實(shí)際效果來看,R選擇在0.2到0.6是比較合適的。R=0.2可以用于匹配精度要求比較高的匹配,而R=0.6則用于匹配點(diǎn)數(shù)量比較多的情況。在實(shí)際應(yīng)用中,應(yīng)該根據(jù)需求自主選擇R的值或者采用自適應(yīng)的R值來實(shí)現(xiàn)圖像匹配。

      2.2 圖像大小對(duì)特征的影響

      SIFT算法采用多尺度高斯金字塔來檢測(cè)特征點(diǎn),對(duì)于特征點(diǎn)的描述采用16×16鄰域像素的梯度方向直方圖實(shí)現(xiàn)。由于小尺寸的圖像建立高斯金字塔的數(shù)量有限,同時(shí)特征點(diǎn)的描述區(qū)域也受限制,導(dǎo)致圖像大小對(duì)特征點(diǎn)的數(shù)量有很大影響,進(jìn)而影響匹配數(shù)量。圖7是Miko-lajczyk and Schmid 2005圖像庫(kù)中的兩幅Boat圖像,原圖大小850×680。對(duì)原圖采用SIFT算法,以及對(duì)原圖依次采用雙線性插值縮小一半再采用SIFT算法的檢測(cè)結(jié)果見表3。各參數(shù)選擇分別為σ=1.6,Cont_thr=0.04,Curv_thr=10,R=0.49。

      表3 圖像大小與特征點(diǎn)以及匹配數(shù)量和時(shí)間

      圖7 Miko-lajczyk and Schmid 2005圖像庫(kù)Boat圖像

      從表3可以看出,圖像大小對(duì)特征點(diǎn)的數(shù)量以及匹配數(shù)量和運(yùn)行時(shí)間有很大影響。對(duì)于小圖像而言,運(yùn)行時(shí)間明顯加快。但是如果只依據(jù)SIFT算法進(jìn)行特征點(diǎn)檢測(cè)和匹配,當(dāng)圖像大小在100×100左右時(shí),檢測(cè)出來的特征點(diǎn)將非常少。圖7是對(duì)同一個(gè)物體不同角度進(jìn)行拍攝識(shí)別,如果不是同一個(gè)物體而是同一類物體,比如鐵路扣件圖像,其特征匹配數(shù)量將更加少,從而影響正確識(shí)別扣件狀態(tài)。

      3 去光照變化及添加位置的扣件圖像分類

      3.1 去光照影響

      在SIFT算法中,光照條件對(duì)特征點(diǎn)的檢測(cè)和匹配產(chǎn)生很大的影響。雖然對(duì)128維向量采用歸一化方法消除了線性光照的影響,但是在實(shí)際應(yīng)用中,很多復(fù)雜環(huán)境的光照條件并不一定滿足線性光照的條件。尤其是對(duì)于物體識(shí)別而言,由于我們識(shí)別的時(shí)候,很多時(shí)候并不是同一個(gè)物體,而是同一類物體。圖8為在不同的天氣環(huán)境下采集的鐵路扣件圖像。為了識(shí)別扣件的狀態(tài),包括正常、斷裂、缺失等狀態(tài)。圖像采集的并不是同一個(gè)扣件,通過軌道檢測(cè)車在線路上運(yùn)行,采集的是軌道上所有的扣件圖像,扣件圖像大小180×120,由于所有的扣件形狀都是類似的,所以可以通過尋找扣件中的特征點(diǎn)來實(shí)現(xiàn)扣件狀態(tài)的識(shí)別,對(duì)于斷裂和缺失的情況,是不能匹配到正??奂D像的特征點(diǎn)中的。對(duì)于正??奂?,在不同天氣條件下,光照條件有很大的不同,采集的圖像也將有很大的區(qū)別。

      圖8所示的晴天和雨天分別采集的扣件圖像。雖然都是同一類扣件,但在不同天氣條件下,圖像的質(zhì)量完全不同。如果直接采用SIFT算法進(jìn)行特征點(diǎn)匹配,則不能夠找到匹配點(diǎn)。因此,在此采用先對(duì)圖像進(jìn)行增強(qiáng)。然后再檢測(cè)SIFT點(diǎn)的方法。在本文中,圖像增強(qiáng)方法采用直方圖規(guī)定化方法。

      為了實(shí)現(xiàn)不同天氣的扣件識(shí)別,在此以晴天的扣件圖像作為標(biāo)準(zhǔn),通過變換雨天扣件圖像的直方圖,使其與期望的晴天扣件圖像直方圖一致。這也是直方圖規(guī)定化的思想。首先對(duì)標(biāo)準(zhǔn)的晴天扣件圖像進(jìn)行直方圖均衡化

      S=T(r)

      (5)

      然后對(duì)規(guī)定的直方圖進(jìn)行均衡化

      V=G(z)

      (6)

      由于都是直方圖均衡化,所以,讓S=V,則

      z=G-1(v)=G-1(T(r))

      (7)

      得到直方圖規(guī)定化后的圖像,如圖9所示。

      圖9 直方圖規(guī)定化

      圖10是晴天和雨天以及晴天和陰天進(jìn)行扣件匹配的情況,可以看出,經(jīng)過直方圖規(guī)定化對(duì)扣件直方圖進(jìn)行匹配,然后再進(jìn)行特征點(diǎn)檢測(cè)和匹配,可以得到更好的效果。雖然其中也有一些點(diǎn)匹配錯(cuò)誤,但是如果加上點(diǎn)的位置信息,則可以很好地識(shí)別扣件的狀態(tài)。圖11是原始扣件在不同天氣下的圖像匹配情況,如果沒有經(jīng)過光照處理,得出來的匹配點(diǎn)幾乎是完全錯(cuò)誤的,不能正確識(shí)別扣件的狀態(tài)。在自然環(huán)境變化的情況下,光照變化并非都是線性光照,因此,采用原始的扣件圖像進(jìn)行匹配的效果不好,如果能夠?qū)⒐庹盏挠绊懭コ簦瑒t可以得到很好的結(jié)果。文中采用直方圖規(guī)定化方法,通過對(duì)直方圖進(jìn)行匹配,能夠部分去除非線性光照的影響。如果再加上扣件特征點(diǎn)的位置信息,則可以很好地識(shí)別扣件的狀態(tài)。

      圖10 直方圖規(guī)定化后扣件不同天氣匹配

      圖11 原始扣件不同天氣匹配

      3.2 添加扣件特征點(diǎn)位置信息

      從圖10和圖11可以看出,對(duì)原始扣件圖像采用SIFT算法幾乎無法識(shí)別扣件狀態(tài)。采用光照增強(qiáng)之后,可以實(shí)現(xiàn)不同天氣下的扣件SIFT特征匹配,但是同樣存在一些錯(cuò)誤的匹配。在前期的扣件圖像提取中,將扣件圖像都大致分布在整張圖像的中間位置,因此,可以將扣件特征點(diǎn)的位置信息加入到特征點(diǎn)的描述中。從圖10來看,正確匹配的特征點(diǎn)在x方向的偏差較小,考慮到扣件圖像采集時(shí)的位置偏差,因此,定義兩個(gè)匹配特征點(diǎn)在豎直方向的偏差角度閾值α=30,當(dāng)兩個(gè)特征點(diǎn)在豎直方向的連線小于30°時(shí),則認(rèn)為是匹配的。當(dāng)運(yùn)用SIFT特征描述算子確定兩個(gè)特征點(diǎn)i和j匹配時(shí),再根據(jù)式(8)確定角度閾值。

      (8)

      其中:x1i表示第一幅圖第i個(gè)特征點(diǎn)的x坐標(biāo);x2j表示第二幅圖第j個(gè)特征點(diǎn)的x坐標(biāo);y2j表示第二幅圖第j個(gè)特征點(diǎn)的y坐標(biāo);y1i表示第一幅圖i個(gè)特征點(diǎn)y坐標(biāo);H表示圖像高度。如果滿足則認(rèn)為匹配,否則不匹配。圖12是添加了位置信息后的匹配結(jié)果??梢钥闯?,有了位置信息后,錯(cuò)誤的匹配點(diǎn)基本上消除,實(shí)現(xiàn)了特征點(diǎn)的正確匹配。

      圖12 添加位置信息后匹配結(jié)果

      3.3 實(shí)驗(yàn)結(jié)果

      為了驗(yàn)證算法的有效性,選擇大理到麗江的鐵路線現(xiàn)場(chǎng)采集的圖像作為實(shí)驗(yàn)數(shù)據(jù)。選擇晴天、雨天和陰天正常各樣本1 000張,選擇3種天氣下丟失、斷裂和遮擋樣本各1 000張,將正常樣本平均分成2份,每份200張,連續(xù)選擇5次,計(jì)算平均識(shí)別率。實(shí)驗(yàn)比較了LBP、HOG(梯度直方圖)算法和本文算法的分類結(jié)果,表4表示的是平均識(shí)別率。每次實(shí)驗(yàn)選擇每種類別圖像一張作為訓(xùn)練集,剩下的圖像作為測(cè)試集,這是一種具有挑戰(zhàn)性的實(shí)驗(yàn),在實(shí)際中往往會(huì)增加訓(xùn)練集的數(shù)量。

      表4 3種天氣下扣件分類結(jié)果

      方法識(shí)別率/%晴天陰天雨天LBP83.2581.4573.65HOG84.6580.7575.05本文方法89.5585.5580.25

      從表4可以看出,采用LBP和HOG方法的識(shí)別率比較接近,但是本文方法將識(shí)別率提高了大約5%。LBP和HOG是目前比較主流的圖像特征表示方法,但是這2種方法對(duì)于鐵路扣件圖像的分類結(jié)果,都沒有本文方法效果好。

      4 結(jié)語(yǔ)

      SIFT算法在尋找圖像特征點(diǎn)方面的適應(yīng)性比較好,具有抗噪聲、旋轉(zhuǎn)不變性、尺度不變性等優(yōu)點(diǎn)。但是其時(shí)間復(fù)雜度較高,不適用于實(shí)時(shí)檢測(cè)的情形。同時(shí),SIFT算法只對(duì)線性光照的改變有適應(yīng)性,在非線性光照改變條件下檢測(cè)的效果不是很好。在不考慮時(shí)間復(fù)雜度的前提下,SIFT算法是比較好的選擇。如果用在實(shí)時(shí)圖像識(shí)別上,則需要考慮目標(biāo)識(shí)別準(zhǔn)確性的前提下,同時(shí)考慮算法的時(shí)間復(fù)雜度。在圖像識(shí)別方面,很多時(shí)候并不需要太多的特征點(diǎn),只需要幾個(gè)關(guān)鍵點(diǎn)。這時(shí)對(duì)于SIFT算法的參數(shù)選擇至關(guān)重要。文中給出了SIFT算法幾個(gè)關(guān)鍵參數(shù)的選擇原則,采用RANSAC算法剔除錯(cuò)誤的匹配,并給出了R和匹配數(shù)量的關(guān)系。同時(shí),針對(duì)SIFT算法對(duì)非線性光照敏感的問題,采用直方圖規(guī)定化方法,通過匹配標(biāo)準(zhǔn)的扣件直方圖,去除了部分光照的影響,針對(duì)SIFT算法對(duì)小圖像特征點(diǎn)比較少的問題,添加了特征點(diǎn)的位置信息,在采集扣件圖像時(shí),為了滿足識(shí)別的實(shí)時(shí)性要求,通過扣件定位,使得截圖的扣件圖像盡可能小,這樣運(yùn)算時(shí)間也大大減少,成功實(shí)現(xiàn)了鐵路扣件在不同環(huán)境下的識(shí)別。

      [1]REN J,JIANG X,YUAN J.Noise-resistant local binary pattern with an embedded error-correction mechanism[J].IEEE Transactions on Image Processing,2013,22(10):4049-60.

      [2]CHEN D,CAO X,WEN F,et al.Blessing of dimensionality: high-dimensional feature and its efficient compression for face verification[J].2013,9(4):3025-3032.

      [3]ZHAO G,AHONEN T,MATAS J,et al.Rotation-invariant image and video description with local binary pattern features[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2012,21(4):1465-1477.

      [4]AKHLOUFI M A,BENDADA A.Locally adaptive texture features for multispectral face recognition[C]// IEEE International Conference on Systems Man and Cybernetics.IEEE,2010:3308-3314.

      [5]MU Y,YAN S,LIU Y,et al.Discriminative local binary patterns for human detection in personal album[C]// Computer Vision and Pattern Recognition,2008.CVPR 2008.IEEE Conference on.IEEE,2008:1-8.

      [6]MORAVEC H P.Rover visual obstacle avoidance[C]// International Joint Conference on Artificial Intelligence.Morgan Kaufmann Publishers Inc.1981:785-790.

      [7]HARRIS C.A combined corner and edge detector[J].Proc Alvey Vision Conf,1988,1988(3):147-151.

      [8]ROSTEN E,PORTER R,DRUMMOND T.Faster and better: a machine learning approach to corner detection[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2008,32(1):105-119.

      [9]CALLONDER M,LEPETIT V,OZUYSAL M,et al.BRIEF: computing a local binary descriptor very fast[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2012,34(7):1281-1298.

      [10]RUBLEE E,RABAUD V,KONOLIGE K,et al.ORB: an efficient alternative to SIFT or SURF[C]// International Conference on Computer Vision.IEEE Computer Society,2011:2564-2571.

      [11]LEUTENEGGER S,CHLI M,SIEGWART R Y.BRISK: binary robust invariant scalable keypoints[C]// IEEE International Conference on Computer Vision.IEEE,2011:2548-2555.

      [12]LOWE D G.Object recognition from local scale-invariant features[C]// The Proceedings of the Seventh IEEE International Conference on Computer Vision.IEEE,2002:1150.

      [13]LOWE D G.Distinctive image features from scale-invariant keypoints[M].Kluwer Academic Publishers,2004.

      [14]BAY H,TUYTELAARS T,GOOL L V.SURF: Speeded Up Robust Features[J].Computer Vision & Image Understanding,2006,110(3):404-417.

      [15]KE Y,SUKTHANKAR R.PCA-SIFT:a more distinctive representation for local image descriptors[C]// IEEE Computer Society Conference on Computer Vision & Pattern Recognition.IEEE Computer Society,2004:506-513.

      [16]OJALA T,HARWOOD I.A comparative study of texture measures with classification based on feature distributions[J].Pattern Recognition,1996,29(1):51-59.

      [17]OJALA T,PIETIKINEN M,MENPT.Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[C]// European Conference on Computer Vision.Springer-Verlag,2000:404-420.

      [18]DAVARZANI R,MOZAFFARI S,YAGHMAIE K.Scale- and rotation-invariant texture description with improved local binary pattern features[J].Signal Processing,2015,111:274-293.

      [19]GENG C,JIANG X.SIFT features for face recognition[C]// IEEE International Conference on Computer Science and Information Technology.IEEE,2009:598-602.

      [20]REN J,JIANG X,YUAN J.Noise-resistant local binary pattern with an embedded error-correction mechanism.[J].IEEE Transactions on Image Processing,2013,22(10):4049-60.

      [21]MIKOLAJCZYK K,SCHMID C.A performance evaluation of local descriptors[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2005,27(10):1615.

      [22]TONY L.Scale-space theory: a basic tool for analyzing structures at different scales[J].Journal of Applied Statistics,2011,21(2):224-270.

      [23]BOLLES R C,FISCHLER M A.RANSAC-based approach to model fitting and its application to finding cylinders in range data [C]// International Joint Conference on Artificial Intelligence,1981.

      Railway Fastener Classfication by Using SIFT Algorithm

      WANGQiang1,2

      (1.Chengdu Technological University,College of Mechanical Engineering,Chengdu 611730,China;2.Southwest Jiaotong University,School of Mechanical Engineering,Chengdu 610031,China)

      Image feature points detection is the important aspect in image research,such as image based object reconstruction,object recognition,moving object tracking,image mosaic and so on.SIFT algorithm,the classic image feature points detecting algorithm,is widely used to solve these visual issues.Matching algorithm based on image feature points is the key to solve many problems and different applications have different requirements.The parameter selection issue of SIFT algorithm is researched.Random sample consensus set algorithm (RANSAC) is combined to eliminate the false matching.The effect of parameters election on match results is analyzed.The relationship of image feature points geneRn with different sizes is studied.In view of the light sensitive of SIFT algorithm,image enhancement is proceeded before matching and the location information is combined.The classification for small fastener images with less feature points is realized.

      Scale-invariant feature transform;image classification;parameter selection;location information;feature

      10.13542/j.cnki.51-1747/tn.2017.02.001

      2017-05-15

      四川省教育廳項(xiàng)目(16ZB0330);四川省創(chuàng)新創(chuàng)業(yè)項(xiàng)目(201611116007)

      王強(qiáng)(1979—),男,副教授,博士研究生,研究方向:計(jì)算機(jī)視覺、模式識(shí)別,電子郵箱:wqiangsky@163.com。

      TP391.4

      A

      2095-5383(2017)02-0001-07

      猜你喜歡
      扣件直方圖高斯
      小高斯的大發(fā)現(xiàn)
      統(tǒng)計(jì)頻率分布直方圖的備考全攻略
      符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
      科隆蛋扣件力學(xué)特性分析
      天才數(shù)學(xué)家——高斯
      用直方圖控制畫面影調(diào)
      一種改進(jìn)的LBP特征實(shí)現(xiàn)鐵路扣件識(shí)別
      非均布荷載下扣件式腳手架的隨機(jī)缺陷穩(wěn)定分析
      基于直方圖平移和互補(bǔ)嵌入的可逆水印方案
      有限域上高斯正規(guī)基的一個(gè)注記
      崇礼县| 镇雄县| 永靖县| 电白县| 明星| 康保县| 保亭| 固阳县| 余姚市| 卓尼县| 武汉市| 屏南县| 射阳县| 延吉市| 仲巴县| 江城| 景洪市| 海门市| 永新县| 北海市| 宜春市| 广水市| 惠东县| 固原市| 嘉鱼县| 芮城县| 渭源县| 乐安县| 泰安市| 泗水县| 新乡市| 天台县| 平邑县| 荥经县| 双流县| 龙州县| 鲁甸县| 奈曼旗| 昆山市| 棋牌| 西华县|