劉芳輝, 郭 慧, 張 培, 胡方尚
(華東理工大學(xué) 機(jī)械與動(dòng)力工程學(xué)院, 上海 200237)
邊界元在基于形狀特征圖像檢索中的應(yīng)用
劉芳輝, 郭 慧, 張 培, 胡方尚
(華東理工大學(xué) 機(jī)械與動(dòng)力工程學(xué)院, 上海 200237)
針對(duì)目前Freeman鏈碼在描述圖像形狀特征時(shí)邊界特征點(diǎn)空間相關(guān)性不強(qiáng)、與顏色或紋理等特征相關(guān)性不強(qiáng)、抗噪性差的問(wèn)題,提出了一種新穎的基于邊界元的形狀特征描述方法.利用定義的4種類型邊界元來(lái)描述圖像的形狀信息,結(jié)合像素網(wǎng)格單元及圖像顏色信息,采用圖像邊界元直方圖和邊界元自相關(guān)圖特征矢量作為圖像的形狀特征描述,并綜合這兩個(gè)特征矢量進(jìn)行相似性度量.試驗(yàn)結(jié)果表明,相較于已有文獻(xiàn)中的形狀特征提取方法,該方法有效地提高了檢索的精準(zhǔn)率,改善了檢索結(jié)果的排序值,并具有很好的抗噪性和穩(wěn)定性.
圖像檢索; Freeman鏈碼; 邊界元; 邊界元直方圖; 邊界元自相關(guān)圖
隨著網(wǎng)絡(luò)技術(shù)的迅速發(fā)展,基于內(nèi)容的圖像檢索技術(shù)[1]已在諸多領(lǐng)域中得到了廣泛的應(yīng)用.圖像檢索的自動(dòng)化、準(zhǔn)確化和高效化是未來(lái)發(fā)展的趨勢(shì),也是研究人員追求的目標(biāo).因此,基于內(nèi)容的圖像檢索已經(jīng)成為了目前研究的熱點(diǎn).
當(dāng)前圖像檢索主要的索引特征是顏色、紋理、形狀和空間關(guān)系[2-4]等,顏色和紋理特征是目前研究比較多的兩個(gè)特征,然而形狀被認(rèn)為是比這兩個(gè)特征語(yǔ)義程度更高的特征.形狀描述主要是將目標(biāo)圖像的信息用數(shù)值表達(dá),同時(shí)形狀特征在描述圖像信息時(shí)不受周圍環(huán)境的影響,是一種描述目標(biāo)圖像的穩(wěn)定特征[5].其描述方法主要可以分為兩大類:(1)基于邊界的描述法;(2)基于區(qū)域的描述法.針對(duì)這兩類形狀描述方法,許多學(xué)者提出了具體的方法.例如,文獻(xiàn)[6]提出一種邊界方向直方圖的方法來(lái)描述圖像形狀特征;文獻(xiàn)[7]提出一種基于邊緣方向直方圖相關(guān)性匹配的形狀圖像檢索方法.此類方法的計(jì)算復(fù)雜程度低,但卻缺乏描述邊緣點(diǎn)之間的空間相關(guān)性.文獻(xiàn)[8]提出一種采用Freeman鏈碼來(lái)描述輪廓曲線的方法;文獻(xiàn)[9]提出采用方向鏈碼來(lái)識(shí)別幾何圖形形狀的方法.此類方法都采用8方向鏈碼對(duì)圖形的邊界進(jìn)行描述,表達(dá)了鏈碼特征的方向性,計(jì)算量小,降低了信息冗余計(jì)算復(fù)雜程度,但抗噪性較差,且缺乏描述顏色、紋理等特征與形狀特征之間的內(nèi)在關(guān)聯(lián)性.
為此,本文提出一種新穎的基于邊界元的形狀特征描述方法,該方法考慮顏色索引誤差對(duì)檢索精度的影響.首先對(duì)每幅圖像進(jìn)行非等間距的量化,同時(shí)為了減少計(jì)算量和增強(qiáng)算法的抗噪性,提取邊界網(wǎng)格的顏色代表值代替網(wǎng)格內(nèi)的像素顏色值;然后利用本文的邊界元提取網(wǎng)格的邊界元直方圖和邊界元自相關(guān)圖特征;最后綜合這兩個(gè)特征計(jì)算兩幅圖像之間的相似度距離.
根據(jù)人眼視覺特征,先將圖像從RGB顏色模型經(jīng)過(guò)非線性變換[10]轉(zhuǎn)變成HSV模型,同時(shí)為了簡(jiǎn)化計(jì)算,將HSV顏色空間非等間距量化為63種顏色,即將色調(diào)H分為7份,飽和度S分為3份,亮度V分為3份.將量化后的3個(gè)顏色分量合成一個(gè)63維的特征矢量:L=9H+3S+V,且L的取值范圍是[0, 1, 2, …, 62].
為了描述圖像的形狀特征,本文采用像素網(wǎng)格描述符.對(duì)于大小為M×N的圖像而言,網(wǎng)格單元的個(gè)數(shù)為(M/3)×(N/3),其中每個(gè)網(wǎng)格單元含有9個(gè)像素.當(dāng)圖像投影到網(wǎng)格中時(shí),其中部分網(wǎng)格單元被覆蓋.圖像中目標(biāo)部分的形狀邊界可以分為規(guī)則直線和不規(guī)則曲線.兩者對(duì)應(yīng)投影到網(wǎng)格中的覆蓋部分分別如圖1(a)和1(b)所示.
(a) 規(guī)則直線 (b) 不規(guī)則直線 圖1 不同形狀邊界目標(biāo)物體的網(wǎng)格投影圖Fig.1 Mesh projection of target objects with different shapes
對(duì)于邊界由規(guī)則直線組成目標(biāo)形狀的圖像類而言,其整個(gè)邊界所占的網(wǎng)格很容易確定,正如圖1(a)所示.然而對(duì)于邊界由不規(guī)則曲線組成的圖像類而言,其局部邊界所占的網(wǎng)格難免存在模糊,正如圖1(b)所示.因此,本文提出一種適用性很強(qiáng)且能快速、準(zhǔn)確地確定邊界所占網(wǎng)格的方法,即:由于邊界落在某個(gè)網(wǎng)格中時(shí),邊界線將網(wǎng)格劃分成兩部分,若沿著邊界順時(shí)針走向時(shí),位于邊界右方的部分網(wǎng)格面積S大于設(shè)定的閾值T時(shí),則整個(gè)網(wǎng)格就可以表示為該位置局部邊界所占的網(wǎng)格,反之,此為非邊界所占的網(wǎng)格.圖1所示投影圖的邊界所占網(wǎng)格圖如圖2所示.由圖2(b)可知,1~9處網(wǎng)格都為非局部邊界所占的網(wǎng)格.
(a) 規(guī)則直線 (b) 不規(guī)則曲線 圖2 不同形狀邊界所占網(wǎng)格圖Fig.2 Mesh projection of different shape
當(dāng)整個(gè)目標(biāo)形狀的邊界在網(wǎng)格中的位置確定后,下一步亟需對(duì)邊界網(wǎng)格單元中的信息進(jìn)行提取.傳統(tǒng)方法是采用8方向鏈碼特征對(duì)邊界進(jìn)行描述,該方法對(duì)每一個(gè)方向賦予一種編碼,故其表示的形狀特征與邊界像素的顏色值和灰度值無(wú)關(guān)聯(lián),忽略了形狀特征與顏色、紋理等特征的內(nèi)在聯(lián)系.
為此本文提出一種新的賦值方法,在提取目標(biāo)物體的形狀特征時(shí),采用提取目標(biāo)物體邊界所在網(wǎng)格的顏色代表值信息.由于本文中每個(gè)網(wǎng)格單元包含9個(gè)像素,首先需要將邊界所占網(wǎng)格中的中心像素的顏色值與周圍8個(gè)鄰域的顏色值按一定的方法進(jìn)行比較,然后確定每個(gè)網(wǎng)格單元的顏色代表值.本文提出如下兩種比較方法.第一種比較方法如下:
Step1以網(wǎng)格單元內(nèi)所有像素顏色值的平均值μ為閾值,其中閾值的計(jì)算如式(1)所示.
(1)
其中:c(i,j)是像素點(diǎn)(i,j)的顏色值.
Step2將邊界網(wǎng)格中9個(gè)像素的顏色值與閾值進(jìn)行比較,若大于或等于閾值,則賦值為1;反之,賦值為0.
Step3統(tǒng)計(jì)該網(wǎng)格中非0的個(gè)數(shù),作為該網(wǎng)格的顏色代表值.
雖然該種比較方法在降低計(jì)算量方面起到了很好的效果,但是其抗噪性不強(qiáng),且對(duì)于不同網(wǎng)格單元的顏色值識(shí)別性不強(qiáng),有可能導(dǎo)致不同網(wǎng)格單元對(duì)應(yīng)的顏色值相同,具體如圖3所示.
(a)
(b) 圖3 以μ為閾值確定顏色代表值的識(shí)別性Fig.3 Recognition of the color representative value determined by μ threshold
由圖3(a)可知,當(dāng)圖像受到微小噪聲影響時(shí),將導(dǎo)致邊界網(wǎng)格中的顏色代表值發(fā)生改變.由圖3(b)可知,兩個(gè)顏色值區(qū)別很大的網(wǎng)格單元對(duì)應(yīng)相同的顏色代表值,故識(shí)別性能不強(qiáng).因此,本文提出第二種方法,具體方法如下:
Step1以(μ+σ,μ-σ)代替像素顏色值均值μ為閾值的上下界進(jìn)行比較,其中μ和σ的計(jì)算如式(2)和(3)所示.
(2)
(3)
Step2將邊界網(wǎng)格中9個(gè)像素的顏色值與閾值進(jìn)行比較,若顏色值在閾值范圍內(nèi),則賦值為1;反之,賦值為0.
Step3統(tǒng)計(jì)該網(wǎng)格中非0的個(gè)數(shù),作為該網(wǎng)格的顏色代表值.
由于該種比較方法考慮中心像素和周圍8鄰域像素的均值和方差,所以抗噪性和識(shí)別性更強(qiáng),可以解決圖3中出現(xiàn)的問(wèn)題,具體如圖4所示.
(a)
(b) 圖4 以(μ+σ, μ-σ)為閾值確定顏色代表值的識(shí)別性Fig.4 Recognition of the color representative value determined by (μ+σ, μ-σ) threshold
由圖3(a)和圖4(a)對(duì)比可知,以(μ+σ,μ-σ)為閾值確定邊界網(wǎng)格的顏色代表值方法具有更強(qiáng)的抗噪性.此外,由圖3(b)和圖4(b)對(duì)比可知,以(μ+σ,μ-σ)為閾值有效地避免了區(qū)別很大的兩個(gè)顏色值的網(wǎng)格單元對(duì)應(yīng)相同的顏色代表值,使其具有唯一性.
當(dāng)確定了每個(gè)局部邊界的網(wǎng)格單元顏色代表值之后,下一步亟需對(duì)每個(gè)邊界網(wǎng)格單元中的信息進(jìn)行提取,進(jìn)而得到整個(gè)邊界的特征.考慮到網(wǎng)格單元中顏色與形狀特征的關(guān)聯(lián)性,以及網(wǎng)格單元之間的相關(guān)性和方向性,本文提出一種新穎的邊界元描述子方法,其中將具有相同顏色代表值的兩個(gè)網(wǎng)格單元構(gòu)成一種邊界元,具體的4種邊界元(S1,S2,S3,S4)如圖5所示.其中陰影表示這些網(wǎng)格的顏色代表值相等,含有不同陰影的邊界元各代表不同的類型.
圖5 本文中的4種邊界元Fig.5 Four boundary elements in this paper
對(duì)于每個(gè)邊界網(wǎng)格單元而言,其顏色代表值的取值范圍為0~9,故每個(gè)網(wǎng)格都有唯一的顏色代表值.以圖5所示的4種邊界元對(duì)由顏色代表值構(gòu)成的邊界網(wǎng)格進(jìn)行掃描,得到邊界元直方圖.對(duì)于掃描的起始點(diǎn),本文作如下定義:(1)在采用2.1節(jié)中所述方法確定整個(gè)邊界內(nèi)所包含的網(wǎng)格情況下,求得所有網(wǎng)格區(qū)域的質(zhì)心;(2)計(jì)算每個(gè)邊界網(wǎng)格中心與質(zhì)心之間的歐氏距離;(3)選取與質(zhì)心距離最大的邊界網(wǎng)格作為起始點(diǎn).
將本文定義的4種邊界元從起始點(diǎn)開始掃描,以2個(gè)網(wǎng)格為步長(zhǎng),沿著目標(biāo)形狀的邊界網(wǎng)格順時(shí)針移動(dòng),將掃描到的下一邊界元網(wǎng)格位置設(shè)為當(dāng)前掃描點(diǎn),同時(shí)將前一邊界網(wǎng)格置為非邊界網(wǎng)格以避免一次循環(huán)后再次被檢測(cè),以此直至掃描到某個(gè)位置的周圍沒有邊界網(wǎng)格時(shí)結(jié)束,得到每一種顏色代表值下的邊界元類型.由于顏色代表值的取值范圍為0~9,則可以將圖像形狀分為10層.當(dāng)用4種邊界元描述子檢測(cè)時(shí),可得到10張邊界元描繪子圖,同時(shí)為了有利于該特征在數(shù)據(jù)庫(kù)中保存,本文將它們量化為邊界元直方圖.由于顏色代表值過(guò)多,因此,本文將以顏色代表值為3、 4、 5時(shí)為例來(lái)詳述邊界元直方圖的提取方法,具體如圖6所示,其中左側(cè)圖為數(shù)據(jù)庫(kù)中一幅由顏色代表值構(gòu)成的原始檢測(cè)圖像.
設(shè)|T1, i|、 |T2, i|、 |T3, i|和|T4, i|分別為在第i層中統(tǒng)計(jì)得到的邊界元類型的個(gè)數(shù),同時(shí)為了避免因圖像發(fā)生縮放而導(dǎo)致尺寸大小不同時(shí)影響相似度的問(wèn)題,本文先將其進(jìn)行歸一化處理,具體計(jì)算如式(4)所示.
(4)
其中:tk, i為歸一化后的值;下標(biāo)k的值為邊界元類型,且k∈(1, 4);i為邊界網(wǎng)格的顏色代表值,且i∈(0, 9).
由于每幅圖像形狀分為10層,每層經(jīng)過(guò)4個(gè)邊界元檢測(cè),因此,目標(biāo)形狀的邊界元直方圖由40個(gè)值構(gòu)成.對(duì)于查詢圖像P的邊界元直方圖特征為P=(p0,p1,p2, …,p39),圖像庫(kù)Q中每幅圖像的邊界元直方圖特征為Q=(q0,q1,q2, …,q39),本文采用式(5)來(lái)計(jì)算圖像P和圖像庫(kù)Q中圖像的相似度.
(5)
其中:j為邊界網(wǎng)格的顏色代表值,且j∈(0,39);pj和qj分別為圖像P和Q的邊界元直方圖中第j個(gè)特征的個(gè)數(shù).
為了描述邊界網(wǎng)格在空間上的相關(guān)性,現(xiàn)以由顏色代表值表示的邊界網(wǎng)格圖7(a)為例,仍采用圖5所示的4種邊界元為檢測(cè)算子,且檢測(cè)的起始點(diǎn)和結(jié)束點(diǎn)與第3節(jié)中的定義相同.將邊界元從起始點(diǎn)開始,以2個(gè)網(wǎng)格為步長(zhǎng),沿著目標(biāo)形狀的邊界網(wǎng)格順時(shí)針移動(dòng),檢測(cè)出在顏色代表值為0~9下的所有邊界元類型.由于每一種邊界元可得到一種相對(duì)應(yīng)的邊界元分量圖像,本文將得到4種邊界元分量圖像,如圖7(b)所示.其中,經(jīng)邊界元檢測(cè)后只能保持邊界元網(wǎng)格的顏色代表值不變,而其他的顏色代表值都置為-1.待檢測(cè)結(jié)束后,將這4種邊界元分量圖像組合成一個(gè)邊界元圖像,如圖7(c)所示.組合的規(guī)則是:若4個(gè)邊界元分量圖像中對(duì)應(yīng)位置的網(wǎng)格顏色代表值為非負(fù)值和-1,則組合后為原非負(fù)值;反之,若都為-1,則組合后為-1.
對(duì)于由4種邊界元檢測(cè)后得到的邊界元圖像中的邊界網(wǎng)格而言,若其中一個(gè)顏色代表值為c的邊界元A出現(xiàn)的概率為ρ(A),任意一個(gè)與A相鄰的邊界元B,其顏色代表值也為c,則由概率條件可得式(6),其中ρ(B|A)表達(dá)了邊界元圖像的形狀空間特征,即邊界元相關(guān)圖.
(6)
圖6 邊界元提取方法Fig.6 The extraction method of boundary element component
(a) 原始邊界網(wǎng)格圖
(b) 4種邊界元分量圖像
(c) 邊界元圖像 圖7 邊界元分量圖像組合過(guò)程Fig.7 The process of boundary element component image combination
對(duì)于本文提出的邊界元自相關(guān)圖,由于顏色代表值的取值范圍為0~9,查詢圖像P有10維特征向量P=(p0,p1,p2, …,p9),圖像庫(kù)Q中每幅圖像有10維特征向量Q=(q0,q1,q2, …,q9),這相對(duì)于63維特征向量而言,大大地簡(jiǎn)化了計(jì)算量,且網(wǎng)格間的空間性也得到了充分的表達(dá).對(duì)于相似性度量,本文采用式(7)來(lái)計(jì)算查詢圖像P和圖像庫(kù)Q中圖像的相似度.
(7)
其中:i為邊界網(wǎng)格的顏色代表值,且i∈(0, 9);pi和qi分別為圖像P和Q的邊界元自相關(guān)圖中當(dāng)顏色代表值為i的個(gè)數(shù).
本文具體的步驟如下:
Step1輸入大小為M×N的查詢圖像和圖像庫(kù)中的圖像集.
Step2將輸入的查詢圖像和圖像庫(kù)中的圖像的顏色空間非均勻地量化為63種顏色,并進(jìn)行投影得到邊界網(wǎng)格.再利用2.2節(jié)中方法求出每個(gè)邊界網(wǎng)格的顏色代表值.
Step3為了使本文方法具有旋轉(zhuǎn)不變性,先對(duì)邊界網(wǎng)格串進(jìn)行旋轉(zhuǎn)歸一化處理[11],再利用4種邊界元對(duì)整個(gè)邊界網(wǎng)格中的顏色代表值進(jìn)行檢測(cè)和描繪,分別得到圖像的邊界元直方圖和邊界元自相關(guān)圖特征.
Step4首先利用式(5)和(7)計(jì)算圖像之間的邊界元直方圖和邊界元自相關(guān)圖特征相似度值,然后分別將這兩個(gè)特征值進(jìn)行高斯歸一化[12]處理,最后分別賦予加權(quán)值(w1,w2),綜合計(jì)算總相似度值.若輸出圖像大于15幅,則僅向用戶輸出前15幅.
Step5改變w1和w2的值進(jìn)行檢索,統(tǒng)計(jì)每次的檢索結(jié)果,綜合考慮每類圖像檢索結(jié)果的平均查準(zhǔn)率,并選取最佳的w1和w2值.
Step6在得到最佳w1和w2的基礎(chǔ)上進(jìn)行其他方法檢索,并比較這些方法的檢索效果,結(jié)束檢索.
為驗(yàn)證本文算法在圖像檢索中的有效性,采用的圖像數(shù)據(jù)庫(kù)由Corel-5000圖像庫(kù)中的6類圖像構(gòu)成,其中包含自然風(fēng)光、巴士、建筑、恐龍、花卉和樹葉,每類未受噪聲的圖像各90幅,加噪后的圖像每類10幅,總共600幅圖像.
試驗(yàn)采用Windows XP操作系統(tǒng),開發(fā)工具為Visual C++ 6.0.從每類圖像中隨機(jī)抽取10幅圖像作為查詢圖像進(jìn)行檢索試驗(yàn),總共檢索60次,每次的試驗(yàn)結(jié)果都選取前15幅最相似的圖像,同時(shí)利用查準(zhǔn)率和平均排序比值作為試驗(yàn)性能的評(píng)價(jià)標(biāo)準(zhǔn).對(duì)于每類圖像而言,將其10次查詢結(jié)果的查準(zhǔn)率平均值作為該類圖像檢索結(jié)果的平均查準(zhǔn)率.平均排序比值S的定義如下:設(shè)在查詢后返回R幅圖像中含有M幅相關(guān)圖像,N幅實(shí)際相關(guān)圖像,ρr為相關(guān)圖像的排序號(hào),則平均排序的計(jì)算如式(8)所示.若S值越接近1,則排序效果越好.
(8)
實(shí)驗(yàn)1分別采用以下方法進(jìn)行3組對(duì)比試驗(yàn):(1)以文獻(xiàn)[7]中方法進(jìn)行圖像檢索;(2)以在2.2節(jié)中第一種比較方法確定顏色代表值的基礎(chǔ)上得到的邊界元直方圖為特征進(jìn)行圖像檢索,記為邊界元直方圖1;(3)以在2.2節(jié)中第二種比較方法確定顏色代表值的基礎(chǔ)上得到的邊界元直方圖為特征進(jìn)行圖像檢索,記為邊界元直方圖2.該3組試驗(yàn)的結(jié)果如表1所示.
表1 3種方法的檢索精度Table 1 Accuracy of three retrieval methods
由表1可知,由于本文先采用了非均勻的顏色量化方式,使其不易受光照的影響,同時(shí)邊界元直方圖1和邊界元直方圖2方法中的邊界元表達(dá)了邊界網(wǎng)格之間的相關(guān)性,以及形狀特征和顏色特征之間的關(guān)聯(lián)性,故以邊界元直方圖1和邊界元直方圖2為方法檢索結(jié)果的平均查準(zhǔn)率要比以文獻(xiàn)[7]方法的平均查準(zhǔn)率高.同時(shí),由于第二種比較方法得到的邊界網(wǎng)格的顏色代表值具有更強(qiáng)的抗噪性,因此,以邊界元直方圖2為檢索方法的平均查準(zhǔn)率要比以邊界元直方圖1為檢索方法的平均查準(zhǔn)率高.故本文將采用2.2節(jié)中第二種比較方法來(lái)確定顏色代表值,使其具有更強(qiáng)的抗噪性.
實(shí)驗(yàn)2由于本文方法是綜合邊界元直方圖和邊界元自相關(guān)圖特征進(jìn)行檢索的,因此,首先應(yīng)該統(tǒng)計(jì)w1和w2值的變化對(duì)本文算法檢索效果的影響,從而確定最佳的加權(quán)值.本文方法在不同權(quán)值下的圖像檢索平均查準(zhǔn)率如表2所示.
表2 本文方法在不同權(quán)值下的檢索平均查準(zhǔn)率Table 2 Average precision of this method is retrieved under different weights
由表2可知,本文采用綜合邊界元直方圖和邊界元自相關(guān)圖特征進(jìn)行檢索結(jié)果的平均查準(zhǔn)率與兩者權(quán)值的分配有很大的關(guān)系,當(dāng)w1=0.5、w2=0.5時(shí),該方法的綜合平均查準(zhǔn)率最高.此外,綜合這兩種特征對(duì)圖像數(shù)據(jù)庫(kù)中的圖像進(jìn)行檢索,具體統(tǒng)計(jì)結(jié)果如表3所示.
表3 本文方法對(duì)圖像庫(kù)中圖像的檢索結(jié)果統(tǒng)計(jì)Table 3 Statistics retrieval results of the method in this paper
實(shí)驗(yàn)3分別采用以下方法進(jìn)行3組圖像檢索對(duì)比試驗(yàn):(1)文獻(xiàn)[7]方法;(2)文獻(xiàn)[9]方法;(3)本文方法.以圖8為關(guān)鍵圖進(jìn)行3組試驗(yàn)后得到的檢索結(jié)果分別如圖9所示.3種檢索方法對(duì)花卉圖像經(jīng)過(guò)10次檢索后的結(jié)果如表4所示.3種檢索方法對(duì)圖像庫(kù)中各種圖像檢索后的結(jié)果如表5所示.3種檢索方法的平均查準(zhǔn)率和平均排序比值S如表6所示.
圖8 關(guān)鍵圖Fig.8 Key figure
(a) 文獻(xiàn)[7]方法
(b) 文獻(xiàn)[9]方法
(c) 本文方法 圖9 3種檢索方法的檢索結(jié)果Fig.9 Retrieval results of three retrieval methods
表4 3種檢索方法對(duì)花卉的檢索結(jié)果統(tǒng)計(jì)Table 4 Statistics retrieval results of three retrieval methods for flower
表5 3種檢索方法對(duì)圖像庫(kù)中圖像的檢索結(jié)果統(tǒng)計(jì)Table 5 Statistics retrieval results of three retrieval methods for image database
表63種檢索方法的平均查準(zhǔn)率和平均排序比值
Table6Averageprecisionandaveragerankingratioofthreeretrievalmethodsforflower
檢索方法平均查準(zhǔn)率/%平均排序比值S文獻(xiàn)[7]63.071.56文獻(xiàn)[9]74.101.31本文方法83.581.15
由圖9可知,以文獻(xiàn)[7]和文獻(xiàn)[9]中的方法對(duì)花卉圖像進(jìn)行檢索時(shí),檢索到相關(guān)圖像的數(shù)量都比本文方法少,且平均排序都靠后,此外,檢索結(jié)果中含有不同顏色的花卉.由于本文方法中的邊界元直方圖和邊界元自相關(guān)圖是在顏色代表值的基礎(chǔ)上得到的,其在描述形狀特征時(shí)也在一定程度上表達(dá)了顏色特征,故以本文方法檢索時(shí),可以避免檢索到不同顏色的花卉,其在顏色特征方面也提高了檢索的查準(zhǔn)率.
由表4可知,采用本文方法對(duì)花卉圖像進(jìn)行檢索時(shí)的平均查準(zhǔn)率最高,且平均排序比值S也最接近1,故本文方法的總體效果最優(yōu).
由表5和6可以看出,本文采用綜合邊界元直方圖和邊界元自相關(guān)圖的方法對(duì)相似圖像的查準(zhǔn)率和相似圖像輸出的排序值都有所提升,證明了本文方法的有效性.由于恐龍、花卉和樹葉類圖像的形狀特征都比較突出,且顏色特征比較單一,采用本文方法檢索的查準(zhǔn)率提升效果最好;對(duì)于自然風(fēng)光和建筑類圖像而言,其主要特征還體現(xiàn)在顏色、紋理等方面,所以采用本文方法檢索時(shí)查準(zhǔn)率提升效果沒有其他組大.但總而言之,在本文方法檢索下的查準(zhǔn)率和相似圖像輸出的排序值都有所提升.
由于本文方法中的邊界元具有更強(qiáng)空間表達(dá)性和內(nèi)在連續(xù)性,且邊界元直方圖和邊界元自相關(guān)圖不僅描述了目標(biāo)物體的形狀特征,且又突出了形狀和顏色特征之間的關(guān)聯(lián)性,因此本文算法的檢索效果要明顯優(yōu)于文獻(xiàn)[7, 9]中的方法.綜上所述,本文算法有效地提高了圖像的檢索精度,改善了相關(guān)圖像的排序值,并具有很好的抗噪性.
本文提出了一種新穎的基于邊界元的形狀特征圖像檢索方法.該方法首先提出了采用提取邊界網(wǎng)格顏色代表值代替網(wǎng)格內(nèi)的像素顏色值的方法,不僅簡(jiǎn)化了計(jì)算,而且突出了像素顏色值之間的關(guān)聯(lián);然后采用一種新穎的邊界元描述子提取網(wǎng)格的邊界元直方圖和邊界元自相關(guān)圖特征,不僅突出了邊界網(wǎng)格串的統(tǒng)計(jì)特征和邊界網(wǎng)格的空間分布特征,而且體現(xiàn)了形狀和顏色特征之間的關(guān)聯(lián)性;最后綜合這兩個(gè)特征進(jìn)行相似度計(jì)算.試驗(yàn)結(jié)果表明,本文方法有效地描述了圖像的形狀特征,提高了檢索的精度,改善了相關(guān)圖像的排序值,并具有較好的抗噪性.
[1] 蔣琳瓊,戴青云.一種改進(jìn)的基于內(nèi)容的圖像檢索系統(tǒng)研究[J].軟件導(dǎo)刊,2013,12(1):168-170.
[2] BAI C, ZOU W, KPALMA K, et al. Efficient color texture image retrieval by combination of color and texture features in wavelet domain[J]. Electronics Letters,2012, 48(23):1463-1465.
[3] 張永庫(kù),李云峰,孫勁光.基于多特征高效索引的圖像檢索[J].計(jì)算機(jī)工程與應(yīng)用,2016,52(7):181-186.
[4] 孫君頂,郭啟強(qiáng),周雪梅.基于顏色和紋理特征的彩色圖像檢索[J].計(jì)算機(jī)工程與應(yīng)用,2010,46(29):176-178.
[5] 任璐.基于多尺度邊緣鏈碼方向的圖像檢索算法[J].新鄉(xiāng)學(xué)院學(xué)報(bào),2014,31(8):42-44.
[6] 劉威,孔英蕾,肖宏濤.基于形狀特征的圖像檢索技術(shù)[J].蘭州理工大學(xué)學(xué)報(bào),2011,37(1):100-105.
[7] 申海洋,李月娥,張?zhí)?基于邊緣方向直方圖相關(guān)性匹配的圖像檢索[J].計(jì)算機(jī)應(yīng)用,2013,33(7):1980-1983.
[8] 余博,郭雷,趙天云,等.Freeman鏈碼描述的曲線匹配方法[J].計(jì)算機(jī)工程與應(yīng)用,2012,48(4):5-8.
[9] 胡曉宏.基于鏈碼特征的幾何圖形快速識(shí)別算法[J].吉林大學(xué)學(xué)報(bào)(理學(xué)版),2015,53(3):489-493.
[10] OTA S, TAMURA M,F(xiàn)UJITA K. A hybrid method for real-time animation of trees swaying in wind fields[J]. The Visual Computer,2004,20(10):613-623.
[11] 韓光,趙春霞,陸建峰,等.面向彩色圖像的尺度和旋轉(zhuǎn)不變性特征提取方法及應(yīng)用[J].中國(guó)圖象圖形學(xué)報(bào),2011,16(3):398-405.
[12] 廖倩倩.基于內(nèi)容的圖像檢索系統(tǒng)的實(shí)現(xiàn)[J].電視技術(shù),2007,31(2):90-93.
BoundaryElementApplianceofImageRetrievalBasedonShapeFeatures
LIUFanghui,GUOHui,ZHANGPei,HUFangshang
(School of Mechanical and Power Engineering, East China University of Science and Technology, Shanghai 200237, China)
A novel shape feature description based on boundary element is proposed to solve the problem that the current Freeman chain code is not strong in the description of image shape features such as spatial feature point spatial correlation, and color or texture correlation, noise rsistance. The four types of boundary elements to describe the shape information of the image, combined with the pixel grid element and image color information, the image boundary element histogram and the boundary element autocorrelation feature vector are used as the shape feature description of the image. The two feature vectors are integrated to measure the similarity. The experimental results show that the proposed method improves the accuracy of the search, improves the ranking of the search results and has a good anti-noise and stability performance compared with the method of shape feature extraction in literature.
image retrieval; Freeman code; boundary element; boundary element histogram;boundary element autocorrelograms
1671-0444(2017)05-0694-09
2017-02-19
劉芳輝(1991—),男,江西贛州人,碩士研究生,研究方向?yàn)橛?jì)算機(jī)圖形學(xué)和圖像檢索.E-mail:727803534@qq.com
郭 慧(聯(lián)系人),女,副教授,E-mail:ghcad@163.com
TP 391
A
(責(zé)任編輯:徐惠華)