• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      多小波和NSDFB組合域遞歸濾波多聚焦圖像融合

      2016-05-24 12:05:44任曉霞孫秀明耿鵬蘇醒
      智能系統(tǒng)學報 2016年2期
      關鍵詞:圖像融合圖像處理

      任曉霞,孫秀明,耿鵬,蘇醒

      (1.張家口學院 理學系, 河北 張家口 075000; 2.石家莊鐵道大學 信息科學與技術學院, 河北 石家莊 050043)

      ?

      多小波和NSDFB組合域遞歸濾波多聚焦圖像融合

      任曉霞1,孫秀明1,耿鵬2,蘇醒2

      (1.張家口學院 理學系, 河北 張家口 075000; 2.石家莊鐵道大學 信息科學與技術學院, 河北 石家莊 050043)

      摘要:多小波能同時滿足正交、緊支、對稱等對信號處理十分重要的特性,結合多小波變換的多尺度特點和非子采樣方向濾波器組變換的多方向性,提出了一種新的基于多小波和非子采樣方向濾波器組的多尺度多方向變換。對于高頻系數(shù)首先計算其修改空間頻率,然后利用域變換遞歸濾波進行濾波的融合規(guī)則;低頻系數(shù)采用了修改拉普拉斯能量和的(SML)融合規(guī)則。通過與其他融合方法進行實驗對比,實驗結果表明:本文提出的融合方法能夠更加有效地選擇源圖像中的聚焦良好區(qū)域,并且引入的偽影信息較少;此外,與其他融合方法相比本文方法的客觀評價結果也是最好的。

      關鍵詞:圖像處理;圖像融合;遞歸濾波;改進空間頻率;多小波

      中文引用格式:任曉霞,孫秀明,耿鵬,等. 多小波和NSDFB組合域遞歸濾波多聚焦圖像融合[J]. 智能系統(tǒng)學報, 2016, 11(2): 241-248.

      英文引用格式:REN Xiaoxia, SUN Xiuming, GENG Peng, et al. Multifocus image fusion using a recursive filter in the combined domain of multiwavelets and NSDFB[J]. CAAI transactions on intelligent systems, 2016, 11(2): 241-248.

      圖像融合是信息融合的一個重要分支,其目的是將不同傳感器獲取的同一目標的互補信息合并為一幅新的具有更高可信度清晰度以及可理解性的圖像[1]。因此,經(jīng)過圖像融合技術得到的合成圖像可以更全面、更精確地描述所研究的對象,為進一步圖像處理和分析提供高質量數(shù)據(jù)。因此,圖像融合技術在軍事、醫(yī)學、遙感、計算機視覺等領域得到了廣泛的應用[2]。一般來說,圖像融合方法可以分為兩類:空域融合方法和變換域融合方法??沼蚍椒ǜ鶕?jù)圖像的清晰判別準則選擇源圖像中的像素,從而形成一幅融合后的圖像??沼蚍椒ㄒ话阌锌臻g頻率(SF)、拉普拉斯能量(EOL)、修改拉普拉斯能量和(SML)等方法[3]。根據(jù)采用不同的變換,變換域方法可以分為小波變換、Contourlet變換、非子采樣Contourlet變換以及Shearlet變換[4]等方法。

      苗啟廣[5]提出了一種小波域基于區(qū)域局部能量的不同聚焦點圖像融合方法,取得了很好的融合效果。傳統(tǒng)的小波變換雖能高效處理和分析一維分段連續(xù)信號,但由一維小波通過張量積而形成的二維小波基不滿足各向異性的尺度關系,小波變換無法精確地表述圖像邊緣信息,基于小波變換融合的圖像容易產(chǎn)生細節(jié)成分模糊現(xiàn)象[6]。多小波能同時滿足正交、緊支、對稱等對信號處理十分重要的特性,被廣泛應用于圖像融合領域[7]。王迎春[8]在多小波變換域對低頻和高頻小波系數(shù)采用不同的融合方法,對低頻系數(shù)采用取平均的方法,而對高頻系數(shù)采用邊緣梯度對比的方法。該方法能夠很好保存圖像的邊緣和細節(jié)信息。但多小波是對傳統(tǒng)的小波的擴展,仍不能解決類似于小波變換無法精確地表述圖像邊緣方向信息的問題。Cunha[9]提出的非子采樣Contourlet變換(nonsubsampled contourlet transform, NSCT),由于同時具有靈活的多分辨率和多方向性表示的優(yōu)點,相對小波變換來說,能夠更好地表示圖像的邊緣信息。米德伶[10]對NSCT分解后的低頻子帶和高頻方向子帶分別以鄰域梯度及合成鄰域模值作為清晰度指標,采用自適應選擇法實現(xiàn)對多聚焦圖像的融合處理。然而,NSCT變換中的大量的冗余使得這些融合方法具有較高的時間復雜度。為了同時兼顧較小的分解冗余和分辨率多方向的優(yōu)點,本文充分利用NSCT中非子采樣方向濾波器組(nonsubsampled direction filter bank, NSDFB)能夠更好捕捉圖像的邊緣的優(yōu)點和Multiwavelet能同時滿足正交、緊支、對稱的特點,將Multiwavelet和NSDFB結合構建MNSDFB(multiwavelet nonsubsampled direction filter bank)變換,并利用該變換進行圖像融合。

      除了變換方法外,融合規(guī)則對融合的效果也會產(chǎn)生重要影響。近年來,許多學者提出了各種邊緣保持濾波方法:雙邊濾波、引導濾波、域變換濾波、Cost-volume filtering[11]等,這些邊緣保持濾波能夠很好地保持圖像的邊緣結構。其中Gastal[11]等提出的域變換遞歸濾波(domain transform recursive filter, DTRF)將圖像中的二維曲線通過等距變換映射到五維空間中,并保持曲線上每個點之間的距離不變,通過自適應地改變輸入信號,將濾波運算降到了一維上,使得域變換濾波計算復雜度不受相關參數(shù)影響,因此,DTRF在保持圖像邊緣的同時,具有實時性的優(yōu)點。本文在提出的MNSDFB變換基礎上,提出了結合修改空間頻率的域變換遞歸濾波的多聚焦圖像融合方法。

      1域變換遞歸濾波

      Gastal[11]在域變換基礎上提出了邊緣保持平滑遞歸濾波器(DTRF),它的基本思路可以理解為先降低輸入信號的維數(shù)再進行低維濾波。在五維空間中,一個邊緣保持的平滑濾波可以定義成一個空間不變的核H,它的響應會隨著像素點間距離的變化而變化,如果在某個低維空間中這些距離保持不變,那么核的響應也將保持不變,因而,達到了保留圖像邊緣的目的[11]。DTRF首先將輸入信號I變換到變換域Ωω,隨后,變換域信號由遞歸濾波器(recursive filter, RF)進行處理如下:

      (1)

      (2)

      式中:I′(x)是I(x)的導數(shù),δs和分別是DTRF的空間參數(shù)和范圍參數(shù)。由式(2)可知:隨著b的增大,ab趨近于零,這逐漸使得式(2)的遞歸過程收斂,使得濾波后輸出結果中同一側圖像邊緣的像素會取得相近的值,不同側圖像邊緣的像素會有很大差別,從而圖像的邊緣可以更好地保留下來。

      2融合方法

      2.1組合多小波與NSDFB變換

      非子采樣Contourlet變換中首先對圖像進行非子采樣塔式分解,然后進行非子采樣方向分解(NSDFB),從而建立了圖像的多尺度、多方向的表示。根據(jù)NSCT的想法,本文利用多小波將圖像分解為一個低頻系數(shù)和3個高頻系數(shù),然后利用NSDFB將4個高頻系數(shù)進行NSDFB方向分解。低頻系數(shù)可以再次進行多小波分解,并再次對產(chǎn)生的高頻系數(shù),并再次對高頻系數(shù)進行NSDFB方向分解,從而建立圖像的MNSDFB變換。該變換不僅有正交、緊支撐的特點,同時還具有多尺度和多方向的特點,可以對圖像進行較好地稀疏表示,同時能夠更完美地表示圖像的邊緣和細節(jié)信息。該變換的2尺度2方向的分解如圖1所示。

      圖1 MNSDFB分解過程Fig.1 The Decomposition of MNSDFB

      2.2低頻系數(shù)融合規(guī)則

      改進拉普拉斯能量和(sum-modified-Laplacian, SML)是空間域內典型的清晰度評價指標[12],反映了圖像的邊緣特征,能恰當?shù)乇碚鲌D像的聚焦特性和清晰度。由于SML反映的是鄰域窗口內像素的能量和,SML規(guī)則也能夠體現(xiàn)局部區(qū)域內多個像素的綜合特征。因此,本文在低頻系數(shù)中采用SML規(guī)則。其中,拉普拉斯(modified-Laplacian,ML)定義為

      (3)

      式中:Cl(i,j)表示經(jīng)過MNSDFB變換后,在l尺度分解低頻系數(shù)在(i,j)處的像素值。MLl(i,j)表示其對應的ML值。改進的拉普拉斯能量和(SML)定義為

      (4)

      (5)

      (6)

      2.3高頻系數(shù)融合規(guī)則

      MNSDFB變換中的高頻細節(jié)信息中包含著豐富的圖像特征細節(jié)信息,高頻信息中絕對值較大的系數(shù)對應著一些突變,如圖像的邊緣、紋理等重要特征信息。由于圖像的特征信息不是由單一的像素所表征的,而是由這一區(qū)域的多個像素來表征和體現(xiàn)[13]??臻g頻率就是利用了相鄰像素的特征來表示的行頻率和列頻率,來區(qū)分圖像的清晰程度。然而,空間頻率沒有利用相鄰像素間的方向信息,不能有效地區(qū)分圖像的清晰區(qū)域和模糊區(qū)域。Das提出的MSF[14]綜合利用了圖像的方向信息,同時結合列頻率和行頻率來作為圖像的顯著性特征準則。相對于空間頻率方法,MSF能更加有效地區(qū)分圖像的清晰區(qū)域和模糊區(qū)域。圖像空間頻率的計算方法為

      SF(m,n)=

      (7)

      式中:Im,n是圖像I中m行n列像素值。圖像的方向信息(direction information,DF)可以按照式(8)進行計算:

      DF(m,n)=

      (8)

      因此,MSF可以表示為

      (9)

      由于DTRF可以忽略空間域圖像的紋理信息,使得圖像中具有相似特征的像素連接成為相似像素值區(qū)域,可以更好分聚焦區(qū)域和模糊。因此,在圖像的多尺度變換域可以利用變DTRF濾波器對MSF進行濾波,利用DTRF濾波器輸出去生成更為接近理想狀態(tài)的融合決策圖。利用式(9)計算所提出的MNSDFB高頻系數(shù)的MSF值,并將其作為DTRF濾波器的輸入,可以得到:

      (10)

      由Rh,k(i,j)得到的決策圖為

      (11)

      (12)

      2.4 算法步驟

      本文融合方法如圖2所示并描述如下:

      圖2 本文提出的融合方法Fig.2 Proposed image method

      3實驗及結果分析

      為驗證本文算法的有效性與優(yōu)越性,將本文提出方法與其他3種算法進行了多聚焦圖像融合對比。1)Das[14]提出的采用MSF激發(fā)脈沖耦合神經(jīng)網(wǎng)絡(pulse couple neural network,PCNN)融合所有NSCT子帶系數(shù)的方法。其中,非子采樣方向濾波器設置為“cd”,金字塔濾波器采用“maxflat”濾波器,分解方向設置為[2 3 4 4];2)采用與第1種方法相同NSCT分解,融合規(guī)則采用修改的拉普拉斯能量和融合圖像;3)Kumar提出的采用Cross bilateral filter的方法[15],本實驗中采用和文獻[15]完全相同的參數(shù)設置。本文提出方法采用2個尺度GHM的Multiwavelet分解,對每個高頻多小波系數(shù)采用4方向NSDFB分解,低頻系數(shù)采用SML融合規(guī)則,其他所有高頻子帶采用本文提出DTRF結合MSF的融合規(guī)則選擇系數(shù)。圖3分別是進行融合測試的Clock、Lab、Disk、Pepsi 4對源多聚焦圖像。

      圖3 第一組源多聚焦圖像Fig.3 The first group of source images

      Lab圖像的融合結果如圖4(a)~(d)所示,對于人物頭部區(qū)域來說,本文提出的方法具有更少的偽影信息,而其他3個方法的圖像在該區(qū)域具有更為明顯的偽影。對于Disk圖像的融合結果來說,圖5(a)和圖5(b)中具有明顯的偽影,而圖5(d)中出現(xiàn)了明顯的邊緣模糊現(xiàn)象,圖5(d)這些現(xiàn)象最為不明顯;為了更為明顯地展示不同方法的融合效果,圖4(e)~(h)和圖5(e)~(h)給出了不同方法獲得的融合結果圖像與源圖像的殘差圖像。對于殘差圖像來說,更少的殘差信息說明融合圖像的相應區(qū)域絕大多數(shù)來自于源圖像中清晰的部分,很少或者沒有來自于另一幅源圖像的模糊部分。圖4(e)和圖5(g)具有最為明顯的殘差信息,圖4(f)、圖4(g)、圖5(e)和圖5(f)的殘差雖不太明顯,但依然比圖4(h)和圖5(h)要明顯得多。圖4(h)和圖5(h)幾乎沒有殘留信息。以上分析表明:本文提出的融合方法相對于其他3種方法,能夠獲得更多來自源多聚焦圖像中的聚焦良好區(qū)域的圖像信息,同時引入了更少的偽影信息。

      除了主觀的視覺評價外,本文采用互信息(Mutual information, MI)、QAB/F[16]對融合結果進行客觀評價,MI和QAB/F這兩個指標并不要求知道理想的融合圖像(也稱為參考圖像),并且大量的應用在圖像融合客觀評價中[17-18]。MI也稱為相關熵,用來評價源圖像與融合圖像之間的相似度,互信息值越大,說明融合的效果越好;QAB/F利用Sobel邊緣檢測來衡量有多少源圖像的邊緣細節(jié)信息轉移到了融合圖像,QAB/F的值越大,說明融合的效果越好;表1給出了4種融合方法得到融合圖像的評價指標的計算結果。從表1看,本文提出的方法對于4對多聚焦圖像都取得了最高的MI和QAB/F值,這表明所提出方法的融合結果相對于其他3種方法來說,融合了更多源圖像的信息。

      表1  不同融合方法的客觀評價

      圖4 Lab圖像融合實驗Fig.4 Image fusion experiment on Lab image

      圖5 Disk圖像融合實驗Fig.5 Image fusion experiment on Disk image

      由于MI和QAB/F這兩種圖像融合評價方法僅僅衡量融合中的信息量和邊緣保留量。為了對融合結果圖像的灰度失真、結構畸變等方面進行評估,本文另外采用了SSIM[19]和VIF[20]兩個指標進行了客觀評價。鑒于上述兩個指標為有參考圖像評價方法,利用了的Lena、Barbara、Peppers 3幅測試圖像,對這3幅圖像的左右兩個部分分別進行高斯模糊,結果如圖6所示。對圖6中3對源圖像采用本文方法、Das方法和Kumar方法分別進行融合,融合結果的客觀評價結果如表2所示,由表2可知,本文方法相對于另外兩種方法來說,不僅MI和QAB/F這兩個指標取得較大值,SSIM和VIF兩個指標也得到最大值。

      圖6 第二組源多聚焦圖像Fig.6 The second group of source images

      Table 2Objective evaluation of fused images with different methods

      圖像評價指標Das方法Kumar方法本文方法LenaSSIM0.98750.98790.9913VIF0.93340.89490.9459MI5.99536.28326.5310QAB/F0.68760.71580.7181BarbaraSSIM0.99570.99660.9987VIF0.97700.95880.9926MI6.28596.61446.7473QAB/F0.75820.76910.7734PeppersSSIM0.99400.99350.9941VIF0.97120.94310.9775MI6.78597.08017.4432QAB/F0.67390.68480.6876

      最后,表3給出了本文提出的MNSDFB變換方法和NSCT方法在融合不同大小圖像的運行時間對比,由于本文試驗中所有源圖像只有480×640、512×512兩種尺寸。因此,本文只選擇了Clock圖像和Lab圖像進行試驗。對于上述兩種融合方法來說,低頻均采用了均值規(guī)則,高頻均采用極大值規(guī)則。進行實驗的計算機的CPU為四核2.5 GHz,內存為4 GB。實驗結果表明,所提出MNSDFB變換方法相對于NSCT方法具有更快的運算速度。

      綜上所述,本文的算法得到的融合圖像能夠有效選擇源圖像中清晰區(qū)域的圖像信息,對圖像邊緣以及細節(jié)信息表述得更為清晰突出,圖像灰度失真和結構畸變較小,主觀目視效果更好,并且也獲得了最好的客觀評價指標。

      表3 NSDFB與NSCT融合不同圖像的運算時間對比

      Table 3Comparisons on computation time with NSDFB and NSCT method

      s

      4結束語

      圖像的多尺度分解和融合規(guī)則是決定多聚焦圖像融合結果的關鍵因素,本文利用多小波的高頻子帶系數(shù)進行NSDFB分解構建了MNSDFB變換,低頻系數(shù)采用SML融合規(guī)則,高頻系數(shù)采用域變換遞歸濾波器融合規(guī)則。實驗結果表明:與NSCT變換改進空間頻率激發(fā)PCNN的融合規(guī)則、NSCT變換采用SML的融合方法和Cross bilateral filter融合方法相比較,本文所提出的方法獲取的融合圖像保留豐富圖像細節(jié)信息,獲得了更好的視覺效果,并且采用互信息、QAB/F、SSIM、VIF等客觀指標進行比較,取得了較好的客觀融合評價結果。多小波和MNSDFB變換依然存在冗余問題,因此,如何減少本文提出方法的冗余度是未來的研究方向。

      參考文獻:

      [1]BAI Xiangzhi, ZHANG Yu, ZHOU Fugen, et al. Quadtree-based multi-focus image fusion using a weighted focus-measure[J]. Information fusion, 2015, 22: 105-118.

      [2]許良鳳, 林輝, 胡敏. 基于差分進化算法的多模態(tài)醫(yī)學圖像融合[J]. 電子測量與儀器學, 2013, 27(2): 110-114.

      XU Liangfeng, LIN Hui, HU Min. Multi-modality medicine image fusion based on differential evolution algorithm[J]. Journal of electronic measurement and instrument, 2013, 27(2): 110-114.

      [3]李華鋒, 柴毅, 張曉陽. 提升靜態(tài)小波域內多聚焦圖像融合算法[J]. 光電工程, 2011, 38(3): 131-137, 144.

      LI Huafeng, CHAI Yi, ZHANG Xiaoyang. Multi-focus image fusion algorithm in lifting stationary wavelet domain[J]. Opto-electronic engineering, 2011, 38(3): 131-137, 144.

      [4]LIU Xuan, ZHOU Yue, WANG Jiajun. Image fusion based on shearlet transform and regional features[J]. AEU-international journal of electronics and communications, 2013, 68(6): 471-477.

      [5]苗啟廣, 王寶樹. 基于小波變換與局部能量的多聚焦圖像融合[J]. 計算機科學, 2005, 32(2): 229-232.

      MIAO Qiguang, WANG Baoshu. Multi-focus image fusion based on wavelet transform and local energy[J]. Computer science, 2005, 32(2): 229-232.

      [6]宗思光, 王江安. 多尺度形態(tài)算子融合圖像濾波技術及濾波質量評價[J]. 光學學報, 2005, 25(9): 1176-1180.

      ZONG Siguang, WANG Jiang'an. Multi-scale mathematical morphology fusion filtering and the evaluation of the filtered image[J]. Acta optica sinica, 2005, 25(9): 1176-1180.

      [7]WANG Zhihui, ZHAO Baojun, SHEN Tingzhi. Image fusion based on multiwavelet transformation and PCNN[J]. Journal of information & computational science, 2008, 5(3): 1397-1406.

      [8]朱四榮, 王迎春. 基于多小波變換的多聚焦圖像融合[J]. 計算機工程與應用, 2010, 46(6): 169-170, 226.

      ZHU Sirong, WANG Yingchun. Multi-focus image fusion method based on multi-wavelet transform[J]. Computer engineering and applications, 2010, 46(6): 169-170, 226.

      [9]DA CUNHA A L, ZHOU Jianping, DO M N. The nonsubsampled contourlet transform: Theory, design, and applications[J]. IEEE transactions on image processing, 2006, 15(10): 3089-3101.

      [10]米德伶, 馮鵬, 魏彪, 等. 一種基于清晰度計算的NSCT域多聚焦圖像融合算法[J]. 光學與光電技術, 2010, 8(2): 7-10.

      MI Deling, FENG Peng, WEI Biao, et al. A multi-focus image fusion algorithm based on the calculation of clarity in NSCT domain[J]. Optics & optoelectronic technology, 2010, 8(2): 7-10.

      [11]GASTAL E S L, OLIVEIRA M M. Domain transform for edge-aware image and video processing[J]. ACM transactions on graphics, 2011, 30(4): 69.

      [12]GENG Peng, HUANG Min, LIU Shuaiqi, et al. Multifocus image fusion method of Ripplet transform based on cycle spinning[J]. Multimedia tools and applications, 2014: 1-11, doi: 10.1007/s11042-014-1942-1.

      [13]屈小波, 閆敬文, 楊貴德. 改進拉普拉斯能量和的尖銳頻率局部化Contourlet域多聚焦圖像融合方法[J]. 光學精密工程, 2009, 17(5): 1203-1212.

      QU Xiaobo, YAN Jingwen, YANG Guide. Multifocus image fusion method of sharp frequency localized Contourlet transform domain based on sum-modified-Laplacian[J]. Optics and precision engineering, 2009, 17(5): 1203-1212.

      [14]DAS S, KUNDU M K. NSCT-based multimodal medical image fusion using pulse-coupled neural network and modified spatial frequency[J]. Medical & biological engineering & computing, 2012, 50(10): 1105-1114.

      [15]KUMAR B K S. Image fusion based on pixel significance using cross bilateral filter[J]. Signal, image and video processing, 2015, 9(5): 1193-1204.

      [16]GANGAPURE V N, BANERJEE S, CHOWDHURY A S. Steerable local frequency based multispectral multifocus image fusion[J]. Information fusion, 2015, 23: 99-115.

      [17]李俊峰, 姜曉麗, 戴文戰(zhàn). 基于提升小波變換的醫(yī)學圖像融合[J]. 中國圖象圖形學報, 2014, 19(11): 1639-1648.

      LI Junfeng, JIANG Xiaoli, DAI Wenzhan. Medical image fusion based on lifting wavelet transform[J]. Journal of image and graphics, 2014, 19(11): 1639-1648.

      [18]高繼森, 董亞楠, 沈瑜, 等. 基于改進Tetrolet變換的圖像融合算法研究[J]. 計算機科學, 2015, 42(5): 320-323.

      GAO Jisen, DONG Yanan, SHEN Yu, et al. Research of image fusion algorithm based on improved Tetrolet transform[J]. Computer science, 2015, 42(5): 320-323.

      [19]WANG Zhou, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity[J]. IEEE transactions on image processing, 2004, 13(4): 600-612.

      [20]SHEIKH H R, BOVIK A C. Image information and visual quality[J]. IEEE transactions on image processing, 2006, 15(2): 430-444.

      任曉霞,女,1982年生,講師,主要研究方向為計算機技術、圖形圖像技術。

      孫秀明,男,1978年生,副教授, 主要研究方向為圖像去噪、圖像融合以及為數(shù)字化資源開發(fā)。

      耿鵬,男,1979年生,副教授,主要研究方向為圖像融合、小波分析。主持河北省自然科學基金項目、河北省教育廳高等學??茖W研究項目等多項,發(fā)表學術論文多篇,其中被SCI檢索4篇,被EI檢索6篇。

      Multifocus image fusion using a recursive filter in the combined domain of multiwavelets and NSDFB

      REN Xiaoxia1, SUN Xiuming1, GENG Peng2, SU Xing2

      (1. Science department , Zhangjiakou University, Zhangjiakou 075000, China; 2. School of Information Science and Technology, Shijiazhuang Tiedao University, Shijiazhuang 050043, China)

      Abstract:The multiwavelet transform has properties of orthogonality, tight frame, and symmetry, which are vital to signal processing. In this study, a new transform, called as MNSDFB, is proposed by combining the multi-wavelet and nonsubsampled directional filter banks. The domain transform recursive filter is adopted to fuse the filters after the spatial frequency of the high frequency coefficient is calculated. The modified sum-modified-Laplacian (SML) is employed in the low pass subbands as a focus measurement to select fused coefficients. The presented fusion rule in the high pass subband can distinguish the focused regions from the blurred regions. The proposed fusion method was compared with three other fusion methods. The experimental results demonstrate that the proposed fusion method can select the focused regions while introducing few artifacts into the final merged image. Furthermore, its objective criteria, such as MI and QAB/F, are better than those of the other three methods.

      Keywords:image processing; image fusion; recursive filter; modified spatial frequency; multiwavelett

      作者簡介:

      中圖分類號:TP391

      文獻標志碼:A

      文章編號:1673-4785(2016)02-0241-08

      通信作者:耿鵬.E-mail:Gengpeng@stdu.edu.cn.

      基金項目:河北省自然科學基金項目(F2013210094, F2013210109).

      收稿日期:2015-09-09. 網(wǎng)絡出版日期:2016-03-14.

      DOI:10.11992/tis.201509017

      網(wǎng)絡出版地址:http://www.cnki.net/kcms/detail/23.1538.TP.20160314.1431.004.html

      猜你喜歡
      圖像融合圖像處理
      基于圖像處理的機器人精確抓取的設計與實現(xiàn)
      機器學習在圖像處理中的應用
      電子制作(2018年18期)2018-11-14 01:48:20
      模糊圖像處理,刑事偵查利器
      圖像處理技術的實戰(zhàn)應用
      基于小波變換的多模態(tài)醫(yī)學圖像的融合方法
      灰色關聯(lián)度在紅外與微光圖像融合質量評價中的應用研究
      林火安防預警與應急處理系統(tǒng)設計
      基于Matlab的遙感圖像IHS小波融合算法的并行化設計
      科技視界(2016年11期)2016-05-23 08:13:35
      基于圖像處理的定位器坡度計算
      電氣化鐵道(2016年4期)2016-04-16 05:59:46
      一種新的IHS圖像多次融合的方法
      体育| 白银市| 依兰县| 巫溪县| 宁城县| 奉新县| 武宣县| 社旗县| 江永县| 安多县| 商水县| 卢湾区| 成武县| 汝南县| 宜城市| 麦盖提县| 乐都县| 江孜县| 和平县| 镇平县| 威海市| 桓台县| 衢州市| 兴城市| 台东县| 叙永县| 漳平市| 文水县| 金塔县| 右玉县| 温宿县| 岳阳县| 绥芬河市| 囊谦县| 田阳县| 根河市| 余干县| 青河县| 阳朔县| 梅河口市| 塔城市|