• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    結(jié)合相位一致性和脈沖耦合神經(jīng)網(wǎng)絡(luò)的圖像檢索

    2014-05-10 06:53:28肖志濤
    關(guān)鍵詞:查準(zhǔn)率直方圖一致性

    吳 駿,劉 健,肖志濤,張 芳,耿 磊

    (天津工業(yè)大學(xué)電子與信息工程學(xué)院,天津 300387)

    結(jié)合相位一致性和脈沖耦合神經(jīng)網(wǎng)絡(luò)的圖像檢索

    吳 駿,劉 健,肖志濤,張 芳,耿 磊

    (天津工業(yè)大學(xué)電子與信息工程學(xué)院,天津 300387)

    為了有效地提取圖像特征以提高圖像檢索性能,將具有生物視覺特性的脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)和符合人類視覺特性的相位一致性(PC)相結(jié)合,提出一種圖像檢索新方法.首先基于相位一致性,結(jié)合非極大值抑制和自適應(yīng)雙閾值法提取出圖像的邊緣特征,并獲取邊緣顏色直方圖特征;然后對(duì)簡(jiǎn)化PCNN模型進(jìn)行改進(jìn),針對(duì)PCNN神經(jīng)元的鏈接強(qiáng)度通常為常數(shù)的不足,根據(jù)相位一致性自適應(yīng)地調(diào)整神經(jīng)元的鏈接強(qiáng)度,再利用改進(jìn)PCNN模型提取圖像的特征.最后綜合運(yùn)用基于PCNN的特征和基于相位一致性的特征進(jìn)行圖像檢索.實(shí)驗(yàn)結(jié)果表明:該方法具有顏色和形狀的鑒別能力,能獲得較好的查準(zhǔn)率和查全率.

    相位一致性;脈沖耦合神經(jīng)網(wǎng)絡(luò);邊緣顏色直方圖;圖像檢索

    隨著現(xiàn)代電子技術(shù)和網(wǎng)絡(luò)通信技術(shù)的快速發(fā)展,龐大的圖像庫(kù)不斷涌現(xiàn),如何快速有效地將這些大規(guī)模的圖像資源組織起來并對(duì)其進(jìn)行檢索已經(jīng)成為當(dāng)前的一個(gè)熱門課題.而作為該問題的核心技術(shù),基于內(nèi)容的圖像檢索(CBIR)技術(shù)逐漸成為國(guó)內(nèi)外研究的熱點(diǎn)[1].目前,基于內(nèi)容的圖像檢索主要使用圖像的顏色、紋理、形狀和空間位置關(guān)系等底層特征進(jìn)行檢索[2],如文獻(xiàn)[3]提出的一種新的基于顏色特征的圖像檢索方法,文獻(xiàn)[4]提出的基于形狀特征的圖像檢索,但這些方法都利用單一特征進(jìn)行圖像檢索,準(zhǔn)確性有待提高.基于多特征結(jié)合的檢索方法被廣泛應(yīng)用,文獻(xiàn)[2]將顏色直方圖作為顏色特征,梯度方向直方圖作為形狀特征進(jìn)行圖像檢索,但這種簡(jiǎn)單的組合沒有考慮圖像最有意義的區(qū)域,效果并不理想.相位一致性從傅里葉級(jí)數(shù)出發(fā),通過評(píng)判各頻率傅里葉分量的相位相似度來提取圖像特征.Morrone等[5]通過對(duì)馬赫帶現(xiàn)象的研究導(dǎo)致了相位一致性模型的發(fā)展.Ross等[6]做了進(jìn)一步研究,證明這個(gè)模型成功地解釋了一系列人類在生理方面其他特征感知的有效性.它對(duì)圖像中噪聲、亮度和對(duì)比度的變化特別穩(wěn)健,具有通用性,并與人類視覺特性相一致,因此本文將相位一致性應(yīng)用到圖像特征的提取中.脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)模型是在生物視覺皮層模型的啟發(fā)下得到的第三代人工神經(jīng)網(wǎng)絡(luò),與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)所不同的是,PCNN神經(jīng)元之間有乘積耦合、動(dòng)態(tài)脈沖發(fā)放、無(wú)需提前進(jìn)行訓(xùn)練等特性,這使得PCNN適用于圖像處理,用于圖像檢索時(shí)還具有平移、旋轉(zhuǎn)、尺度、縮放等不變性[7],這使得PCNN在圖像檢索方面有很大的應(yīng)用前景.文獻(xiàn)[8]利用PCNN進(jìn)行圖像檢索,但參數(shù)往往需要人工設(shè)定;文獻(xiàn)[9]研究了PCNN參數(shù)的自適應(yīng)設(shè)置,但應(yīng)用圖像檢索中效果并不十分理想.因此,有必要研究具有自適應(yīng)參數(shù)的PCNN模型,以更有效地應(yīng)用于圖像檢索.本文將具有生物視覺特性的自適應(yīng)PCNN和符合人類視覺特性的相位一致性相結(jié)合,提出了一種新的圖像檢索方法.

    1 基于相位一致性的特征提取

    本文基于相位一致性,通過結(jié)合非極大值抑制和自適應(yīng)雙閾值法,提取出圖像的邊緣特征.通過邊緣點(diǎn)與原圖像的對(duì)應(yīng)關(guān)系得到彩色邊緣,并將其轉(zhuǎn)換到HSV空間并進(jìn)行量化處理,提取顏色直方圖,將得到的彩色邊緣顏色直方圖作為基于相位一致性的特征.

    1.1 相位一致性

    先以一維信號(hào)為例,對(duì)于信號(hào)I(x),其傅里葉級(jí)數(shù)展開為:

    式中:An為n次諧波余弦分量的幅值;ω 為 2π;φn0為初始相位;φn(x)為x點(diǎn)處傅里葉分量的局部相位.

    據(jù)此,Morrone等[10]提出傅里葉序列展開的相位一致性函數(shù)為:

    由于相位一致性難于計(jì)算,Venkatesh等[11]指出相位一致性可以通過局部能量峰值計(jì)算:

    式中:F(x)為去除直流分量后的信號(hào);H(x)為 F(x)的Hilbert變換.

    于是便可得到PC的修改表達(dá)式:

    本文在計(jì)算局部能量過程中,使用了log Gabor函數(shù)作為小波基設(shè)計(jì)而成的log Gabor濾波器.Mne和Mno分別表示尺度為n的log Gabor濾波器的偶對(duì)稱和奇對(duì)稱部分,小波濾波器的響應(yīng)為:

    式中:n表示小波尺度;?」表示其中的值若為正數(shù)則不變,若為負(fù)數(shù)則變?yōu)?;ε為一個(gè)很小的正數(shù),防止分母為0;T為噪聲的響應(yīng).

    由于本文處理的圖像是二維的,因此,需要把PC的表達(dá)式擴(kuò)展到二維.在應(yīng)用中,對(duì)圖像每一個(gè)點(diǎn)計(jì)算能量E(x),每個(gè)方向上的噪聲補(bǔ)償T;然后在所有方向上求和;最后除以該點(diǎn)所有方向和尺度的幅度和.這樣,就得到了二維PC表達(dá)式:

    本文提出的圖像檢索方法中,利用二維PC提取出圖像的相位一致性特征,該特征不易受圖像中噪聲和亮度的影響,即使在對(duì)比度較弱的地方也能檢測(cè)到特征點(diǎn),并且符合人眼的視覺特性.這就從另一個(gè)角度說明它在從底層描述圖像的結(jié)構(gòu)方面具有一定的優(yōu)越性.圖1所示為原圖和相位一致性特征.

    圖1 原圖和相位一致性特征Fig.1 Original image and phase congruency feature

    1.2 非極大值抑制

    基于PC在邊界處的余震現(xiàn)象使得提取出的特征圖像中的邊緣較粗,因此采用非極大值抑制對(duì)PC擴(kuò)散的邊緣進(jìn)行細(xì)化,具體步驟如下:

    (1)計(jì)算以任一像素點(diǎn) PC(x,y)為中心、1.5 為半徑沿相位一致性最大的方向PC(x,y)兩側(cè)的坐標(biāo)值(x1,y1)、(x2,y2),即:

    (2)估計(jì)(x1,y1)、(x2,y2)處像素值 v1、v2.本文采用雙線性內(nèi)插法,應(yīng)用步驟(1)中得到的結(jié)果在2個(gè)方向上做內(nèi)插:

    式中:tl、tr、bl、br分別為(x1,y1)左上、右上、左下、右下4個(gè)整數(shù)坐標(biāo)點(diǎn)的像素值;p、q為偏離權(quán)值.示意圖如圖2所示.

    圖2 雙線性內(nèi)插法示意圖Fig.2 Bilinear interpolation

    (3)比較 PC(x,y)與 v1、v2的大小,若 PC(x,y)不大于 v1、v2,則 PC(x,y)置 0.

    對(duì)圖1(b)進(jìn)行非極大值抑制結(jié)果如圖3所示.

    圖3 非極大值抑制結(jié)果Fig.3 Non-maximum suppression

    1.3 自適應(yīng)雙閾值法

    非極大值抑制后的特征圖像存在斷邊和偽邊現(xiàn)象,需要利用自適應(yīng)雙閾值法進(jìn)行處理.具體過程是運(yùn)用高低2個(gè)閾值將非極大值抑制后的結(jié)果分為2幅圖像,再對(duì)其進(jìn)行邊緣連接和斷邊、偽邊的去除.

    對(duì)于一幅圖像來說,如果高閾值選的太高就會(huì)丟失部分輪廓,低閾值選的太低就會(huì)出現(xiàn)過多的偽邊緣,因此,如何自動(dòng)獲取這2個(gè)閾值十分關(guān)鍵.由于通常邊緣點(diǎn)與周圍的灰度差異較大,這個(gè)差值大到一定程度GDT,就可以將該點(diǎn)記為邊緣點(diǎn).這里使用一種簡(jiǎn)單的方法,經(jīng)多次實(shí)驗(yàn),取GDT=(fmax-fmin)/5結(jié)果比較理想.統(tǒng)計(jì)非極大值抑制后圖像中任意點(diǎn)p(x,y)與周圍八鄰域的灰度差值,分別記為GDi(i=0,1,2,…,7),將 GDi中的最大值記為 max GD,GDi的平均值記為AGD,如果maxGD>GDT,則將該點(diǎn)計(jì)數(shù)(ncount),并將該maxGD存儲(chǔ)在TotalGDH中,同時(shí)將AGD存儲(chǔ)在TotalGDL中.遍歷整幅圖像之后,就可以得到 ncount、TotalGDH、TotalGDL 的總和,據(jù)此,便可得出高、低閾值:

    最后,以高閾值得到的圖像Th(x,y)作為索引,在低閾值圖像Tl(x,y)的八鄰域中查找與高閾值圖像中邊緣點(diǎn)有確定聯(lián)系的點(diǎn)進(jìn)行邊緣提取.對(duì)圖3應(yīng)用自適應(yīng)雙閾值法結(jié)果為原圖像的邊緣特征,如圖4所示.

    圖4 邊緣特征Fig.4 Edge feature

    1.4 彩色邊緣量化處理

    根據(jù)上述步驟獲得的圖像邊緣點(diǎn)與原圖像的對(duì)應(yīng)關(guān)系,可以得到原始圖像的彩色邊緣,圖1(a)的彩色邊緣圖像如圖5所示.

    圖5 彩色邊緣圖像Fig.5 Color edge image

    由于彩色邊緣的實(shí)際顏色中若干主要色彩覆蓋了其中的絕大多數(shù)像素,如果以這些主要色彩來表示彩色邊緣,盡管圖像質(zhì)量會(huì)有所下降,但并不影響人們對(duì)圖像內(nèi)容的正確理解,還能降低計(jì)算時(shí)間和存儲(chǔ)空間.因此,本文將彩色邊緣從RGB空間轉(zhuǎn)化到更符合人眼視覺特性的HSV空間,并對(duì)其進(jìn)行量化處理,如式(17)所示.

    將量化后的H、S、V這3個(gè)顏色分量組合成一維特征顏色分量L:

    對(duì)量化后的彩色邊緣統(tǒng)計(jì)其顏色直方圖,即統(tǒng)計(jì)出邊緣中顏色值為 k(k=0,1,2,…,255)的像素個(gè)數(shù)N(k),將其作為基于相位一致性的圖像特征,記為FPC.對(duì)圖5提取邊緣顏色直方圖如圖6所示.

    顏色和形狀是圖像最直觀的2個(gè)特征,也是圖像視覺重要的感知特性之一.顏色直方圖以其計(jì)算簡(jiǎn)單、對(duì)圖像旋轉(zhuǎn)與尺度變化不敏感等優(yōu)點(diǎn),成為圖像檢索系統(tǒng)應(yīng)用最為廣泛的顏色特征.該方法將相位一致性提取的形狀特征與顏色直方圖有效地結(jié)合起來作為基于相位一致性的圖像特征.

    近年來,文體學(xué)的發(fā)展取得了顯著的成果,給英語(yǔ)抒情詩(shī)歌的分析提供了新的視角。愈來愈多的學(xué)者以文體學(xué)理論作為新的思路,對(duì)《雪夜林畔小駐》展開了分析。例如,王品就從語(yǔ)音特征、修辭手法和謀篇主題對(duì)這首詩(shī)歌進(jìn)行了文體角度的分析,指出這首詩(shī)歌的文體特點(diǎn):語(yǔ)言簡(jiǎn)單,寓意深遠(yuǎn)。[3]俞瑤從偏離的視角對(duì)《雪夜林畔小駐》進(jìn)行了分析,主要是對(duì)其語(yǔ)音的偏離分析和超語(yǔ)音的偏離分析,說明偏離的使用要和詩(shī)歌的連貫聯(lián)系起來。[4]筆者依據(jù)文體學(xué)的相關(guān)理論,研究《雪夜林畔小駐》的文體特征,以彰顯詩(shī)歌的語(yǔ)言魅力、揭示詩(shī)歌的主題意義。

    圖6 彩色邊緣顏色直方圖Fig.6 Edge color histogram

    2 基于PCNN的特征提取

    2.1 PCNN模型基本原理

    PCNN的每個(gè)神經(jīng)元由3部分組成:接收部分、調(diào)制部分和脈沖產(chǎn)生部分.標(biāo)準(zhǔn)的PCNN模型形象地模擬了動(dòng)物視覺的工作原理,但由于神經(jīng)元的高度動(dòng)態(tài)非線性特性,使其對(duì)網(wǎng)絡(luò)性能及網(wǎng)絡(luò)參數(shù)對(duì)性能的影響的分析難以進(jìn)行.為此,本文采用簡(jiǎn)化PCNN模型,如圖7所示.

    圖7 簡(jiǎn)化PCNN模型Fig.7 Simplified PCNN model

    表達(dá)式如下:

    式中:下標(biāo) ij為神經(jīng)元標(biāo)號(hào),F(xiàn)ij、Lij、Uij和 Eij分別為神經(jīng)元的外部刺激、連接輸入、內(nèi)部活動(dòng)項(xiàng)和動(dòng)態(tài)閾值;αE為時(shí)間衰減參數(shù);βij為鏈接強(qiáng)度;神經(jīng)元的外部輸入Fij是與之相關(guān)聯(lián)像素的灰度值;連接權(quán)矩陣Wijkl是一個(gè)3×3的方陣;Yij為二值輸出.

    在用PCNN進(jìn)行圖像處理時(shí),將一幅二維輸入圖像的M×N個(gè)像素分別與二維PCNN網(wǎng)絡(luò)的M×N個(gè)神經(jīng)元相對(duì)應(yīng),由于PCNN具有集群點(diǎn)火特性,這使得某一神經(jīng)元的點(diǎn)火會(huì)觸發(fā)其周邊相似神經(jīng)元的集體點(diǎn)火,產(chǎn)生脈沖輸出Yij.顯然這個(gè)脈沖輸出包含有圖像區(qū)域、紋理和邊緣等特征信息,從而可以實(shí)現(xiàn)相關(guān)特征信息的提取與處理.

    研究表明,在PCNN模型中,鏈接強(qiáng)度對(duì)基于PCNN的圖像處理的效果影響最大[13].但是,現(xiàn)有的基于PCNN的圖像處理方法中,PCNN的鏈接強(qiáng)度往往需要人工設(shè)定,不具有自適應(yīng)性,因此,本文考慮人眼視覺特性,提出了利用符合人眼視覺特性的相位一致性對(duì)PCNN的鏈接強(qiáng)度進(jìn)行自適應(yīng)設(shè)定,從而避免了對(duì)于不同圖像都要人工設(shè)定不同參數(shù)的繁瑣過程.

    2.2 最大香農(nóng)熵圖像分割準(zhǔn)則

    將一幅圖像輸入PCNN模型,每次PCNN迭代都輸出一幅脈沖圖像,由于只有0和1兩種取值,這些脈沖圖像也被稱為二值圖像(分割圖像).對(duì)每一幅二值圖像,分別計(jì)算出0、1出現(xiàn)的概率p0、p1,則該二值圖像的香農(nóng)熵大小為:

    一幅二值圖像的香農(nóng)熵H越大,說明該二值圖像從原圖像中得到的信息量越大,分割的效果也就越好.當(dāng)一幅圖像灰度幾乎均勻時(shí),因?yàn)橐?,1數(shù)目盡量相等(即強(qiáng)調(diào)圖像背景和目標(biāo)的比例關(guān)系),所以微小變化的灰度點(diǎn)都將和其他均勻灰度點(diǎn)分開,因此該準(zhǔn)則具有區(qū)域細(xì)節(jié)分割能力強(qiáng)的優(yōu)點(diǎn).

    分割圖像的香農(nóng)熵越大,則分割后從原圖中得到的信息量越大,分割效果也就越好,因此,本文在PCNN分割時(shí),使用香農(nóng)熵最大時(shí)所對(duì)應(yīng)的輸出結(jié)果作為最佳分割結(jié)果.

    2.3 時(shí)間序列

    PCNN每次迭代產(chǎn)生的二值圖像含有大量的原始圖像信息,但由于數(shù)據(jù)量太大,很難作為特征進(jìn)行分類識(shí)別,因此,Johnson提出了一種變換方法,對(duì)PCNN每次輸出的二值圖像進(jìn)行求和運(yùn)算,于是就得到了一個(gè)一維時(shí)間序列G(n):

    式中:Yij(n)為PCNN第n次迭代輸出的二值圖像.

    通過這種變換可以將多維特征信息轉(zhuǎn)化為一維特征信息,極大地減少了運(yùn)算量和數(shù)據(jù)存儲(chǔ)量.而且Johnson用實(shí)驗(yàn)證明了每一幅輸入圖像都有唯一的時(shí)間序列.在參數(shù)選擇合適的情況下,這個(gè)時(shí)間序列還會(huì)出現(xiàn)周期性,適合作為統(tǒng)計(jì)分類器或模式分類神經(jīng)網(wǎng)絡(luò)的輸入.這種變換具有計(jì)算簡(jiǎn)單、數(shù)據(jù)量少、易于操作等優(yōu)點(diǎn).本文將其作為PCNN提取的特征之一.

    2.4 基于PCNN的特征提取步驟

    (1)利用公式(7)計(jì)算圖像的相位一致性,將其作為PCNN的鏈接強(qiáng)度值βij,圖8為本文自適應(yīng)PCNN與文獻(xiàn)[9]分割結(jié)果的比較,可以看出本文自適應(yīng)PCNN具有更好的分割結(jié)果.

    圖8 自適應(yīng)PCNN與普通PCNN分割結(jié)果比較Fig.8 Segmentation results of adaptive PCNN and PCNN

    (2)提取彩色圖像的R、G、B三通道分量,分別作為PCNN的輸入,根據(jù)最大香農(nóng)熵準(zhǔn)則得到3個(gè)二值分割結(jié)果,每個(gè)分割結(jié)果都對(duì)應(yīng)該通道的高、低2個(gè)區(qū)域(分割出來的部分為高區(qū)域,其余則為低區(qū)域),當(dāng)處理高區(qū)域時(shí),低區(qū)域的所有像素值都被置為零,讓它們?cè)谔崛「邊^(qū)域的特征時(shí)不發(fā)生點(diǎn)火,處理低區(qū)域時(shí)也進(jìn)行同樣處理.

    (3)為提高細(xì)節(jié)表達(dá)能力,把高、低區(qū)域的像素值拉伸到區(qū)間[1,255],分別對(duì)高、低區(qū)域進(jìn)行處理:

    式中:m為圖像分割區(qū)域中像素的最大值;n為圖像分割區(qū)域中像素的最小值;X(i,j)為該通道(i,j)位置上的像素值;Y(i,j)為變換后該位置上的像素值.

    (4)分別提取高、低區(qū)域的時(shí)間序列和香農(nóng)熵序列,將每個(gè)區(qū)域的這2個(gè)序列級(jí)聯(lián)起來分別記為High、Low,再把這2個(gè)區(qū)域級(jí)聯(lián)起來作為該通道的特征向量(如R通道就記為FR=[High,Low]),最后,把每個(gè)通道的特征向量(FR,F(xiàn)G,F(xiàn)B)級(jí)聯(lián)起來作為PCNN 提取出的圖像特征,即 FPCNN=[FR,F(xiàn)G,F(xiàn)B].

    由于特征提取在R、G、B三通道內(nèi)進(jìn)行,而其中基于PCNN的圖像分割又包含了圖像的區(qū)域形狀信息,因此提取出的特征包含了原圖像的顏色信息和形狀信息.

    3 相似性度量

    本文綜合運(yùn)用PCNN和相位一致性來提取圖像特征,即得到2個(gè)特征向量FPCNN和FPC,由于它們內(nèi)部存在較強(qiáng)的相關(guān)性,因此本文采用馬氏距離結(jié)合Pearson積矩相關(guān)法進(jìn)行綜合相似性度量.設(shè)2幅圖像的特征向量為 yA=,n=1,2,…,n0}和 yB={,n=1,2,…,n0},則綜合相似性度量為:

    C越小表示2幅圖像相似性越強(qiáng).式中:D(yA,yB)為馬氏距離;Corr(yA,yB)為 Pearson 積矩相關(guān),它們的向量表示形式為:

    式中:權(quán)值wuv>0;Z為向量yA的協(xié)方差矩陣,其大小為展開 n0× n0;和分別為特征向量yA和yB的均值.

    依次將待查詢圖像的2個(gè)特征向量和圖像庫(kù)中每幅圖像的2個(gè)特征向量進(jìn)行比較計(jì)算,得到距離C1和C2,將C1和C2的加權(quán)距離作為最后的距離,表示為:P=ω1C1+ω2C2,其中ω1和ω2表示權(quán)重,并且ω1+ω2=1,經(jīng)過多次試驗(yàn),選取ω1=ω2=0.5效果比較理想.

    4 實(shí)驗(yàn)結(jié)果與分析

    在本文實(shí)驗(yàn)中采用Corel 1000圖像庫(kù)作為測(cè)試圖像庫(kù),其中包含非洲人、海灘、花、公共汽車、恐龍等10類圖像,每類100幅圖像,共1000幅圖像.圖像庫(kù)中有256×384像素和381×256像素2種尺寸的圖像,格式均為JPG格式,基于Matlab平臺(tái)進(jìn)行仿真.實(shí)驗(yàn)過程中從測(cè)試圖像庫(kù)中每類隨機(jī)挑選5幅圖像作為查詢圖像,總共構(gòu)成50次查詢,每次返回最相似的20幅圖像作為檢索結(jié)果.

    為驗(yàn)證本文2種方法結(jié)合的必要性,將本文方法與單獨(dú)使用自適應(yīng)PCNN或相位一致性的方法進(jìn)行對(duì)比,綜合多次查詢結(jié)果,對(duì)不同查全率時(shí)的查準(zhǔn)率進(jìn)行了測(cè)試,結(jié)果如圖9所示.

    圖9 平均查全-查準(zhǔn)率曲線Fig.9 Average recall-precision curve

    從圖9可以看出本文方法在取得查全率為0.1到0.8時(shí)都獲得了更高的查準(zhǔn)率,其中0.1到0.5區(qū)間提升效果明顯,而在0.8以后略有下降,但總體上還是本文方法效果較好.

    為驗(yàn)證方法的有效性,將本文方法與文獻(xiàn)[14]、文獻(xiàn)[15]和文獻(xiàn)[16]方法進(jìn)行比較.文獻(xiàn)[14]通過最優(yōu)空間填充曲線對(duì)圖像基元進(jìn)行遍歷得到基元圖像,統(tǒng)計(jì)2個(gè)基元的空間相關(guān)性得到基元共生矩陣,通過計(jì)算基元共生矩陣之間的距離得到檢索結(jié)果;文獻(xiàn)[15]結(jié)合圖像的顏色直方圖和基元灰度均值直方圖來進(jìn)行圖像檢索;文獻(xiàn)[16]通過位平面一階矩、位平面平坦度和和位平面凹凸面提取圖像的顏色特征和顏色空間分布特征.返回不同圖像數(shù)量時(shí)的平均查準(zhǔn)率和查全率曲線如圖10所示.對(duì)于每類圖像,綜合5次檢索結(jié)果的查準(zhǔn)率和查全率的平均值作為最終的查準(zhǔn)率和查全率,4種方法對(duì)每類圖像的平均查準(zhǔn)率如表1所示.

    圖10 檢索性能比較Fig.10 Retrieval results for four image retrieval

    從圖10可以看出在返回不同圖像數(shù)量時(shí),本文方法的平均查準(zhǔn)率和查全率比文獻(xiàn)[14]、文獻(xiàn)[15]和文獻(xiàn)[16]方法都要好一些.從表1可以看出,在返回20幅圖像的時(shí)候,本文方法對(duì)每類圖像的平均查準(zhǔn)率明顯高于文獻(xiàn)[14]、文獻(xiàn)[15]和文獻(xiàn)[16]方法,特別是針對(duì)非洲、建筑、馬、山水和食物這5類圖像的檢索性能有了明顯的提高,這是因?yàn)楸疚姆椒▽⒎仙镆曈X特性的PC和PCNN結(jié)合,提取的特征中包含了圖像的顏色和形狀特征.

    表1 4種方法平均查準(zhǔn)率的比較Tab.1 Average precision for four methods

    5 結(jié)束語(yǔ)

    本文提出了一種基于PCNN和相位一致性的圖像檢索方法,充分利用自適應(yīng)PCNN的生物視覺特性和相位一致性的人眼視覺特性,有效地提取出圖像的顏色和形狀特征,并用于圖像檢索中.從實(shí)驗(yàn)結(jié)果可以看出,該方法具有較好的檢索效果,具有較高的圖像檢索的查準(zhǔn)率和查全率.但是,從圖9可以看出,在查全率較高時(shí)查準(zhǔn)率下降的過快,因此如何提高高查全率時(shí)的查準(zhǔn)率是今后需要解決的問題.

    [1]方珍紅,謝明元,楊玲.一種新的基于加權(quán)顏色特征的圖像檢索算法[J].激光與紅外,2013,43(4):471-474.

    [2]阿卜杜如蘇力·奧斯曼,吐爾洪江·阿布都克力木,馬麗亞木·阿布來孜.綜合顏色特征與形狀特征的圖像檢索算法[J].計(jì)算機(jī)工程與應(yīng)用,2013,49(7):167-170.

    [3]CHEN Weita,LIU Weichuan,CHEN M S.Adaptive color feature extraction based on image color distributions[J].IEEE Trans on Image Processing,2010,19(8):2005-2016.

    [4]王斌.一種不變的基于傅里葉變換的區(qū)域形狀描述子[J].電子學(xué)報(bào),2012,40(1):84-88.

    [5]MORRONE M C,ROSS J R,BURR D C.Mach bands are Phase dependent[J].Nature,1986,324(6094):250-253.

    [6]ROSS J R,MORRONE M C,BURR D C.The conditions under which Mach bands are visible [J].Vision Research,1989,29(6):699-715.

    [7]王曉飛,李柏年.利用脈沖耦合神經(jīng)網(wǎng)絡(luò)的紋理圖像檢索方法[J].計(jì)算機(jī)工程與應(yīng)用,2012,48(7):201-204.

    [8]朱紅偉,周冬明,聶仁燦.利用PCNN實(shí)現(xiàn)商標(biāo)圖像檢索新方法[J].云南大學(xué)學(xué)報(bào),2012,34(3):276-284.

    [9]祝雙武,郝重陽(yáng).一種基于改進(jìn)型PCNN的織物疵點(diǎn)圖像自適應(yīng)分割方法[J].電子學(xué)報(bào),2012,40(3):611-616.

    [10]MORRONE M C,OWENS R A.Feature detection from local energy[J].Pattern Recognition Letters,1987,6(5):303-313.

    [11]OWENS R A,VENKATESH S,ROSS J.Edge detection is a projection[J].Pattern Recognition Letters,1989(9):233-244.

    [12]KOVESI P.Invariant measures of image features from phase information[D].Australia Perth:University of Western Australia,1996.

    [13]苗啟廣,王寶樹.基于局部對(duì)比度的自適應(yīng)PCNN圖像融合[J].計(jì)算機(jī)學(xué)報(bào),2008,31(5):875-880.

    [14]JHANWAR N,CHAUDHURI S,SEETHARAMAN G.Content based image retrieval using motif co-occurrence matrix[J].Image and Vision Computer,2004,22(14):1211-1220.

    [15]LIN Chuen-Hong,CHEN Rong-Tai,CHAN Yung-kuan.A smart content-based image retrieval system based on color and texture feature[J].Image and Vision Computer,2009,27(6):658-665.

    [16]田宏,楊樹剛.基于重要位平面的真彩色圖像檢索算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2010,22(2):279-285.

    Image retrieval combining phase congruency and PCNN

    WU Jun,LIU Jian,XIAO Zhi-tao,ZHANG Fang,GENG Lei
    (School of Electronics and Information Engineering,Tianjin Polytechnic University,Tianjin 300387,China)

    Inspired by biologic visual feature, a new algorithm for image retrieval using pulse coupled neutral network and phase congruency is proposed to effectively extract the features to improve the performance of image retrieval.Firstly, image edge feature is extracted by phase congruency, combing non-maximum suppression and autoadaptive double-threshold.The edge color histogram is obtained by the image edge feature.Secondly,improving the simplified version of PCNN, the linking strength of each PCNN neuron is usually a constant, in order to overcome the limitation.Phase congruency is chosen to adjust its linking strengths according to image features adaptively.Then image segmentation and feature extraction are carried out using the improved PCNN model.Finally,image retrieval is achieved by the features of PCNN and phase congruency.The experiment results show that the method has the discrimination power against color and shape features,and has higher precision and recall.

    phase congruency;pulse coupled neural network(PCNN);edge color histogram;image retrieval

    TP391.41

    A

    1671-024X(2014)03-0048-07

    2013-12-17

    國(guó)家自然科學(xué)基金(61102150);天津市科技支撐計(jì)劃重點(diǎn)項(xiàng)目(12ZCZDGX02100);天津市高等學(xué)校科技發(fā)展基金(20120805)

    吳 駿(1978—),男,博士,副教授.E-mail:809696875@qq.com

    猜你喜歡
    查準(zhǔn)率直方圖一致性
    統(tǒng)計(jì)頻率分布直方圖的備考全攻略
    關(guān)注減污降碳協(xié)同的一致性和整體性
    公民與法治(2022年5期)2022-07-29 00:47:28
    符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
    注重教、學(xué)、評(píng)一致性 提高一輪復(fù)習(xí)效率
    IOl-master 700和Pentacam測(cè)量Kappa角一致性分析
    用直方圖控制畫面影調(diào)
    基于數(shù)據(jù)挖掘技術(shù)的網(wǎng)絡(luò)信息過濾系統(tǒng)設(shè)計(jì)
    大數(shù)據(jù)環(huán)境下的文本信息挖掘方法
    基于深度特征分析的雙線性圖像相似度匹配算法
    基于事件觸發(fā)的多智能體輸入飽和一致性控制
    澳门| 湘潭市| 台前县| 嘉兴市| 武平县| 黄浦区| 东明县| 鄂托克旗| 盘山县| 四平市| 阿尔山市| 怀安县| 科尔| 精河县| 应用必备| 灯塔市| 右玉县| 柏乡县| 星座| 改则县| 大同市| 出国| 绥阳县| 津市市| 波密县| 炉霍县| 来凤县| 黄大仙区| 眉山市| 聊城市| 巴南区| 平潭县| 城市| 建德市| 兴安盟| 安顺市| 灌云县| 丹凤县| 樟树市| 历史| 上杭县|