張久文,米進(jìn)財,張同峰
(蘭州大學(xué)信息科學(xué)與工程學(xué)院,蘭州730000)
隨著互聯(lián)網(wǎng)的高速發(fā)展和計算機(jī)的普遍應(yīng)用,數(shù)字圖像的應(yīng)用越來越廣泛,快速、準(zhǔn)確地檢索到所需的圖像成為人們越來越關(guān)心的問題。基于內(nèi)容的圖像檢索就是在這種需求下應(yīng)運(yùn)而生的,其主要內(nèi)容是特征提取和相似性度量。
Minh等[1]提出廣義高斯密度建模和Kullback-Leibler距離的圖像檢索的方法。這種方法被用來與多種變換相結(jié)合進(jìn)行圖像檢索[2-3]。本文將此方法引入雙樹復(fù)小波變換中進(jìn)行紋理檢索,實(shí)驗(yàn)表明該方法能有效表征紋理圖像的特征,檢索的準(zhǔn)確率較高。
離散小波變換(DWT)會產(chǎn)生較大混疊,帶來畸變,嚴(yán)重影響小波系數(shù)表征原信號特征的能力?;殳B主要帶來的缺陷表現(xiàn)在兩個方面:平移敏感性和缺乏方向選擇性。為了克服這些缺點(diǎn),Kingsbury[4-5]提出了 DT-CWT。DT-CWT是采用二叉樹結(jié)構(gòu)的兩路DWT,一樹生成變換的實(shí)部,另一樹生成變換的虛部(見圖1)。相較于DWT,DT-CWT改善了平移敏感性;二維DT-CWT產(chǎn)生6個分別指向±15°,±45°,±75°的高頻子帶圖像,增加了方向選擇性同時引入了2倍的冗余。圖2是DT-CWT在1層分解下zoneplate圖片的各方向子帶圖。其中第一行為zoneplate原圖,第二行為實(shí)部各子帶圖,第三行為虛部各子帶圖。從左至右,依次為:15°、75°、45°、-15°、-75°、-45°。
圖1 雙樹復(fù)小波變換結(jié)構(gòu)框圖Fig.1 Architecture of dual-tree complex wavelet transform
圖2 DT-CWT尺度以下各方向子帶圖Fig.2 Directional subband images of DT-CW T
在圖像處理領(lǐng)域的實(shí)際應(yīng)用中,數(shù)據(jù)分布的未知概率密度函數(shù)的準(zhǔn)確建模對于設(shè)計一個有效的處理系統(tǒng)具有重要的作用[6]。廣義高斯密度函數(shù)(GGD)可以有效地刻畫一大類圖像的統(tǒng)計建模。目前,廣義高斯密度建模己被廣泛地應(yīng)用于基于變換域的圖像處理中,如DCT域的圖像編碼[7],小波域的圖像去噪、壓縮和紋理圖像檢索等[8]。研究表明,依廣義高斯密度建模是對自然圖像變換子帶系數(shù)最逼近和最成功的建模方式[1]。圖3是實(shí)驗(yàn)中D1.gif子圖的子帶系數(shù)的直方圖,可以看出,它能夠很好的匹配高斯分布。
子帶系數(shù)的廣義高斯密度函數(shù)的尺度參數(shù)和形狀參數(shù)的估計精度導(dǎo)致其在實(shí)際應(yīng)用中的局限性問題。典型的估計方法有三種:矩估計法、嫡匹配法和最大似然(ML)估計法。最大似然估計法是三者中最有效。
圖3 D1.gif子圖經(jīng)DT-CWT變換后實(shí)部、尺度1下15°方向子帶系數(shù)直方圖Fig.3 Histogram of DT-CWT subband coefficient. Exam ple for the 15°subband coefficient of D1. gif subimage w ith one level decom position
由于所估計的參數(shù)具有顯式表達(dá)式,所以其概率有唯一解。文獻(xiàn)[1]采用最大似然估計,進(jìn)行Newton Raphson迭代的方法求解超越方程,較好地估計出了模型參數(shù)。廣義高斯密度函數(shù)定義如下
式中:
利用最大似然估計方法,得到
用矩估計的方法得初始值β0,并采用Newton Raphson迭代方法求解超越方程,得到β。計算出每個子帶的α和β,將其作為紋理圖像的特征。該方法大大減少了特征數(shù)目,節(jié)省了存儲空間和計算時間。特征向量結(jié)構(gòu)如下:
在得到子帶圖像的廣義高斯密度函數(shù)的參數(shù)后,可以采用Kullback-Leibler(K-L)距離作為紋理圖像之間相似性測度的工具[9]。兩幅圖像間的K-L距離越小則相似度越大;反之,相似度越小。對于待查詢圖像和具有M幅圖像的數(shù)據(jù)庫中的第i幅備選圖像,兩者之間的K-L距離定義為
數(shù)據(jù)庫選用brodatz紋理庫中的40張圖片,這些圖像是512×512的自然圖像,分別為:D1,D6,D15,D16,D18,D20,D21,D26,D34,D37,D38,D44,D47,D49,D50,D53,D51,D55,D56,D64,D65,D68,D69,D70,D72,D76,D77,D78,D79,D82,D83,D85 D93,D94,D95,D96,D103,D104,D105和D106。將每張圖片分解為互不重疊的16張128×128的子圖像,進(jìn)行灰度化并規(guī)范化為零均值和單位方差從而生成640張圖像庫。
實(shí)驗(yàn)選用基于能量的方法與本文提出的方法進(jìn)行比較。各子帶系數(shù)的模的均值和方差作為能量特征,其公式如下
式中:uk(x)、σk(x)是第k個方向子帶中各小波系數(shù)的均值和方差;xk(i,j)是第k個方向子帶中的一個小波系數(shù),L是系數(shù)的個數(shù)。特征向量結(jié)構(gòu)如下
歐氏距離作為相似性度量的工具。假設(shè)SI1和SI2是圖像I1和I2的特征向量,N是特征向量中的特征值個數(shù),則這兩幅圖像的距離公式如下
式中:D(SI1(k),SI2(k))為特征向量間的歐氏距離。
表1是各種變換在3層分解下,檢索前16張匹配圖像的平均檢索率。表1中:L1為均值,L2為方差,L1+L2為將兩者結(jié)合的方法,它們的特征向量結(jié)構(gòu)分別如式(9)~式(11)所示,歐氏距離作為相似性度量工具;GGD&KLD為廣義高斯密度(GGD)結(jié)合Kullback-Leibler距離(KLD)的方法、GGD&ED為廣義高斯密度(GGD)結(jié)合歐氏距離的方法,GGD的特征結(jié)構(gòu)如式(5)所示。由表1可以看出,相同變換下,能量特征和歐氏距離方法的平均檢索率都低于基于GGD&KLD的方法;基于DT-CWT和GGD&KLD的方法在3層分解時有最高的平均檢索率,即DT-CWT在3層分解下的系數(shù)與高斯模型更匹配。
表2是DT-CWT在不同分解尺度下,檢索前16幅匹配圖像的平均檢索率。
表1 各種變換在3層分解下,檢索前16幅匹配圖像的平均檢索率(%)Table 1 Average retrieval rate in the top 16 matches using different transform sw ith decomposition level3(%)
表2 雙樹復(fù)小波在不同分解尺度下,檢索前16幅匹配圖像的平均檢索率(%)Table 2 Average retrieval rate in the top 16 matches using DT-CWT transform w ith different decomposition level
由表2可以看出,3層分解是最佳分解層數(shù); 4層分解時,不論基于能量的特征還是本文的統(tǒng)計特征,檢索率都急劇下降;在各層分解層數(shù)下,基于GGD&KLD距離的方法都優(yōu)于基于能量特征的方法。
圖4是檢索前N幅匹配圖像時的平均檢索率。由圖4可以看出,隨著檢索圖像的數(shù)目從16到100的增大過程中,基于GGD&KLD的方法一直遠(yuǎn)遠(yuǎn)優(yōu)于基于能量特征和歐氏距離的方法。圖5是用D1.gif子圖為目標(biāo)圖檢索到的前16幅最匹配圖像。其中,第一幅為原圖,從左到右,從上到下依次為優(yōu)先檢索到的圖。
圖4 檢索前N幅匹配圖像時的平均檢索率Fig.4 Average retrieval rate according to the top N matches considered
圖5 D1.gif子圖為目標(biāo)圖檢索到的前16幅最匹配圖像Fig.5 The top 16matcheswhich D1.gif used as the querry image
運(yùn)用雙樹復(fù)小波變換對圖像進(jìn)行分解,對各子帶中小波系數(shù)的邊緣分布函數(shù)進(jìn)行高斯建模,生成紋理特征。采用不同圖像相應(yīng)子帶的紋理特征間的Kullback-Leibler距離度量各圖像間的相似性。實(shí)驗(yàn)表明,該方法具有更高的檢索率和較低的計算復(fù)雜度。
[1]Minh N Do,Martin Vetterli.Wavelet-based texture retrieval using generalized gaussian density and kullbackleibler distance[C]//IEEE Transactions on Image Processing,2002,111:146-158.
[2]Choy Siu-kai,Tong Chong-kze.Supervised texture classification using characteristic generalized Gaussian density[J].Journal of Mathematical Imaging and Vision,2007,29(1):35-47.
[3]Chen Xin-wu,Ma Jian-zhong.Texture Image Retrieval Based on Contourlet-2.3 and Generalized Gaussian Density Model[C]//2010 International Conference on Computer Application and System Modeling ICCASM,2010.
[4]Kingsbury N G.Complex wavelets for shift invariant analysis and filtering of signals[J].Appl Comp HarmonicAnal,2000,10(3):234-253.
[5]Kingsbury N G.The dual-tree complex wavelet transform:A new efficient tool for image restoration and enhancement[C] //Proc.European Signal Processing Conf Hodes,1998:319-322.
[6]曲懷敬.Contourlet變換在紋理圖像檢索和醫(yī)學(xué)圖像分割中的應(yīng)用研究[D].濟(jì)南:山東大學(xué),2009.
Qu Huai-jin.Research on applications of contourlet transform in texture image retrieval andmedical image segmentation[D].Jinan:Shandong University,2009.
[7]Joshi R L,F(xiàn)isher T R.Comparison of generalized gaussian and laplacianmodeling in DCT Image coding[J].IEEE.Signal Processing Letters,1995,2(5): 81-82.
[8]Moulin P,Liu J.Analysis of multiresolution image denoisings scheme using generalized Gaussian and complexity priors[J].IEEE Transactions on Information Theory,1999,45(3):909-919.
[9]Cover TM,Thomas JA.Elements of information Theory[M].New York:Wiley,1991:68.