俞昊,林川,譚光興,楊敘
(廣西科技大學(xué)電氣與信息工程學(xué)院,廣西柳州545006)
視覺注意機(jī)制與Canny算子結(jié)合的目標(biāo)輪廓檢測方法
俞昊,林川*,譚光興,楊敘
(廣西科技大學(xué)電氣與信息工程學(xué)院,廣西柳州545006)
在視覺注意機(jī)制理論基礎(chǔ)上,建立一類自底向上的數(shù)據(jù)驅(qū)動(dòng)模型,提出一種基于視覺注意機(jī)制與Canny算子結(jié)合的目標(biāo)輪廓檢測方法.該方法通過對目標(biāo)的快速定位發(fā)現(xiàn)視覺上感興趣的區(qū)域,獲得視覺顯著區(qū)域,對視覺顯著區(qū)域和非顯著區(qū)域分別進(jìn)行細(xì)尺度與粗尺度的Canny邊緣檢測,顯著區(qū)域的輪廓更加突出.實(shí)驗(yàn)結(jié)果表明:目標(biāo)輪廓信息查全率可達(dá)90.1%,較傳統(tǒng)的輪廓檢測方法在定位速度方面有顯著提高,且對目標(biāo)輪廓的識別性更好.
視覺注意;Canny;邊緣提取;輪廓檢測
圖像處理在科學(xué)研究中受到了持續(xù)關(guān)注,實(shí)際應(yīng)用廣泛.文獻(xiàn)[1-4]提及的圖像壓縮、縮放、分割、識別,都是圖像處理在現(xiàn)代科技中的實(shí)際應(yīng)用,處理后的圖像突出重點(diǎn),易于辨識.輪廓是圖像的基礎(chǔ)特征,表現(xiàn)形式簡單直觀,通過輪廓可以定位快速物體位置,在空間上識別物體的構(gòu)造,在模式識別中有著重要的應(yīng)用,為圖像的進(jìn)一步分析奠定了重要基礎(chǔ).長期以來,輪廓提取技術(shù)的研究逐漸深入,Canny邊緣檢測器是應(yīng)用最為廣泛的邊緣檢測方法.文獻(xiàn)[5]中紅外線油罐圖像的輪廓提取,采用自適應(yīng)控制的思想,取油罐液面圖像的直方圖信息自適應(yīng)計(jì)算Canny算子的閾值,檢測出的油位輪廓清晰準(zhǔn)確,是邊緣檢測在監(jiān)測領(lǐng)域的實(shí)際應(yīng)用.Canny算子僅能對圖像邊緣進(jìn)行提取,單一化的Canny邊緣檢測器對圖像有效輪廓的識別效率不高,對噪聲的抑制性較弱,根據(jù)具體任務(wù)的要求,需要探尋新的輪廓提取方法.隨著信息技術(shù)的發(fā)展,仿生學(xué)已成為拓展創(chuàng)造力的有效途徑.人眼是從外界獲取信息的最重要通道,具有得天獨(dú)厚的感知性能,不僅可以通過接受到的圖像信息加工數(shù)據(jù),還可以通過對比機(jī)制,感知物體的位置和狀態(tài),確定顏色、形態(tài)、相對大小等信息.仿生視覺對圖像處理有十分重要的促進(jìn)作用,通過視覺的注意,可以準(zhǔn)確獲得視覺顯著的部分,迅速定位目標(biāo).文獻(xiàn)[6]探討了生物視覺在圖像處理實(shí)際應(yīng)用中的實(shí)例,汽車車身焊點(diǎn)是車身重要的連接點(diǎn)之一,精細(xì)程度高,不易檢測.采用基于生物視覺的Gabor濾波方法對焊點(diǎn)圖像進(jìn)行多方向和跨尺度的濾波,結(jié)合特征綜合分析,提高了檢測精度.文獻(xiàn)[7]提出的視覺注意機(jī)制方法對處理圖像具有特別的意義,利用仿生學(xué)的方法,模擬人眼的注意機(jī)制,循跡人眼的注意方式和轉(zhuǎn)移模式,模擬雙目視覺,通過視覺注意設(shè)計(jì)算法,圖像內(nèi)容的選擇性能更好,準(zhǔn)確性更好,所選取的目標(biāo)更合乎人眼視覺的要求,處理問題的效率顯著提高,易于分析.
隨著圖像處理技術(shù)的發(fā)展,圖像處理技術(shù)應(yīng)用于越來越多的領(lǐng)域.例如對交通路況中采集的圖像,快速準(zhǔn)確的進(jìn)行既定目標(biāo)輪廓檢測對交通違章、事故勘察等方面有著重大意義.如何改進(jìn)思路使圖像處理的結(jié)果更有效,更準(zhǔn)確,更符合人眼視覺是圖像處理的新課題.相較于傳統(tǒng)的圖像處理方法,本文通過視覺注意的方法,討論了視覺注意機(jī)制的基本模型,提出利用視覺顯著區(qū)域來分割圖像既定目標(biāo)和無關(guān)區(qū)域的方法.在應(yīng)用中,分割圖像為視覺顯著和不顯著的區(qū)域,同時(shí)采用多個(gè)尺度表述Canny邊緣檢測方法,將全局運(yùn)算轉(zhuǎn)化為多個(gè)尺度運(yùn)算的疊加,層次清晰,運(yùn)算速度快,可有效突出目標(biāo)的輪廓.
通過視覺注意模型獲取輸入圖像中的顯著性特性,分別計(jì)算各個(gè)區(qū)域中的視覺顯著程度,并合成視覺顯著圖,對人眼的視覺注意機(jī)制進(jìn)行模擬.
與傳統(tǒng)的目標(biāo)識別方法類似,視覺注意方法的特征提取包括了顏色、亮度、方向等特征,同時(shí)為了得到在不同視覺顯著度下的特征,采用基于高斯差分函數(shù)的濾波器.將輸入圖像逐層采樣濾波8次,得到9階(含輸入圖像本身)的金字塔數(shù)據(jù)結(jié)構(gòu).用t表示不同階數(shù),其中t的取值范圍為離散集合{1,2,3,4,5,6,7,8,9}中的值,對應(yīng)于高斯差分函數(shù)的金字塔結(jié)構(gòu)的不同階尺度下的各個(gè)圖像[8].提取顏色、亮度、方向等基本特征信息,分別得到自身的顯著區(qū)域.輸入圖像中紅、綠、藍(lán)分量記為r(t),g(t),b(t),可以得到亮度特征的表達(dá)式:
視覺注意機(jī)制的特性表現(xiàn)為對目標(biāo)中心的關(guān)注總是大于邊緣的關(guān)注,利用這一特性,建立中央周邊差模型,獲得圖像的對比度差異.通過歸一化處理,將各種特征圖的值域歸一到允許的灰度值范圍,縮小非目標(biāo)性區(qū)域的顯著性范圍.在實(shí)際的應(yīng)用中,對比度的強(qiáng)弱可以用不用尺度下特征的差值來表示.尺度c∈{2,3,4}為中央視覺區(qū)域,尺度s=c+σ,σ∈{3,4}為周邊視覺區(qū)域.用符號Θ表示中央周邊差的運(yùn)算,可以計(jì)算不同尺度圖像中的差異部分[9].亮度特征圖I(c,s)可由下面的方程式算出:
在顏色特征的提取方面,利用輸入圖像中的紅r,綠g和藍(lán)b三分量構(gòu)建出R,G,B,Y來定義4個(gè)廣義的顏色分量:
對不同顏色尺度下的分量R(t),G(t),B(t),Y(t),顏色度特征圖可由下面的方程式算出:
Gabor濾波器廣泛用于圖像在不同角度上的特征提取,對于亮度圖像I(c),計(jì)算圖像上不同角度θ∈{0。,45。,90。,135。}方向作為Gabor濾波的方向[10],Gabor濾波的數(shù)學(xué)表達(dá)為:
方向特征圖可由下面的方程式算出:
將顏色、亮度、方向顯著圖跨尺度融合得到最終的總顯著圖,總顯著圖全面反映了在視覺注意機(jī)制下針對所需特征的全部信息,揭示出圖像中視覺上最顯著的部分.
Canny邊緣檢測算法是用一類泛函函數(shù)求導(dǎo)的方法求出,高斯函數(shù)可作為最擬合邊緣的一個(gè)最佳近似,有著容錯(cuò)率低、邊緣區(qū)域容易定位以及返回值單一等特點(diǎn).核心思想是通過對于信噪比和圖像坐標(biāo)乘積來測度,得到最優(yōu)化的逼近算子,這個(gè)算子叫做Canny[11],屬于平滑圖像求導(dǎo)的方法.待檢測的圖像邊緣應(yīng)具備圖像的邊緣對噪聲的抑制性強(qiáng),邊緣的位置盡量明顯等特征.本文利用視覺注意的顯著區(qū)域分割圖像,建立分層策略的思想,采用不同于傳統(tǒng)Canny邊緣檢測方法進(jìn)行測算,利用顯著區(qū)域和非顯著區(qū)域的分割得到多個(gè)圖像塊,在分割出來的各個(gè)圖像塊上定義尺度不同的Canny算子,根據(jù)目標(biāo)顯著性的要求分層處理,匯總合并,提高了邊緣檢測的效率,突出了目標(biāo)主體.
Canny邊緣檢測器通過建立高斯濾波器來平滑輸入圖像,f(x,y)代表輸入圖像,G(x,y)代表高斯函數(shù):
隨后對G和f做卷積運(yùn)算,可以得到平滑度較好的圖像:
σ為Canny邊緣檢測器中高斯濾波函數(shù)的的標(biāo)準(zhǔn)差,標(biāo)準(zhǔn)形式下σ的默認(rèn)值為濾波器的大小系統(tǒng)根據(jù)σ的大小自動(dòng)計(jì)算出,σ的取值決定整個(gè)邊緣檢測效果的優(yōu)良.
使用一階有限差分法計(jì)算偏導(dǎo)數(shù),得到矩陣P和Q:
計(jì)算P和Q的幅值和方位角:
通過非極大抑制(NMS)策略,只保留幅值在給定范圍內(nèi)差值最大的點(diǎn).將角度的變化縮小到1/4圓周,方向角和梯度的幅值分別為:
通過非極大值抑制細(xì)化M[x,y]的梯度變化,計(jì)算出邊緣與非邊緣的臨界值,將低于臨界值的點(diǎn)賦值0,可求得代表輸入圖像邊緣的坐標(biāo),這是系統(tǒng)自動(dòng)計(jì)算閾值θ的方式.閾值θ的取值決定邊緣檢測的精細(xì)程度,是邊緣檢測中最重要的參數(shù),在實(shí)際應(yīng)用中,根據(jù)具體任務(wù)的要求,通過自定義閾值θ的大小,獲取不同尺度要求下圖像的邊緣輪廓.
根據(jù)不同灰度圖像的灰度值不同,在灰度值像素突變的區(qū)域顯現(xiàn)出邊緣.視覺注意的結(jié)果給既定目標(biāo)指明了顯著區(qū)域,利用視覺注意的結(jié)果來分割圖像,結(jié)合視覺注意給定的區(qū)域,采用Canny邊緣檢測的方式提取所需輪廓.
不同于傳統(tǒng)的Canny邊緣檢測方法都是利用單一算子去對全圖進(jìn)行全局處理,利用圖像分割的梯度信息進(jìn)行迭代優(yōu)化.考慮到顯著區(qū)域已經(jīng)進(jìn)行了圖像分割,圖像被分割為包含必要信息的目標(biāo)部分和包含冗余信息的無關(guān)部分,所以可利用分離的結(jié)果,在具體實(shí)現(xiàn)的過程中,分別對圖像分割后的目標(biāo)區(qū)域(顯著部分)和無關(guān)區(qū)域(非顯著部分)定義不同的尺度Canny算子.在目標(biāo)區(qū)域內(nèi)應(yīng)獲得關(guān)于圖像細(xì)節(jié)方面的信息,例如葉子上葉脈的紋理,衣服上的配飾等,使目標(biāo)區(qū)域進(jìn)行細(xì)尺度的增強(qiáng);在無關(guān)區(qū)域應(yīng)削弱不利于圖像目標(biāo)突出的無關(guān)部分,例如天空背景,道路旁的建筑等,進(jìn)行粗尺度的削弱.兩者疊加運(yùn)算能夠有效地突出既定目標(biāo)部分,使主體目標(biāo)的輪廓更加清晰.
定義不同的尺度Canny算子,通過分別設(shè)定不同的閾值參數(shù)θ1,θ2,…,θk疊加計(jì)算,其中k為視覺注意區(qū)域所分割的圖像塊數(shù),k≥2,即至少存在1個(gè)目標(biāo)區(qū)域(視覺顯著部分)和1個(gè)無關(guān)區(qū)域(視覺不顯著部分).對于單一目標(biāo)的分割,k=2,根據(jù)任務(wù)的要求,實(shí)驗(yàn)中θ的取值范圍可取離散集合{0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8}中的值,θ的值從0.1~0.8逐漸增大的過程中,對應(yīng)于輪廓的精細(xì)程度逐漸降低,其中θ趨近0.1時(shí)尺度越細(xì),θ趨近0.8時(shí)尺度越粗.對于分割后的不同區(qū)域,分別進(jìn)行不同尺度的Canny計(jì)算,對各個(gè)輪廓子圖的像素值進(jìn)行疊加,得到總輪廓圖,使目標(biāo)區(qū)域的輪廓更為細(xì)致,無關(guān)區(qū)域的輪廓更為模糊.對于單一目標(biāo)的分割,目標(biāo)區(qū)域θ1和無關(guān)區(qū)域θ2的取值分別有8組,θ1和θ2的取值組合有64組,設(shè)立與目標(biāo)輪廓圖相似度對比的循環(huán),遍歷所有取值后經(jīng)過篩選和比較,選擇與目標(biāo)輪廓圖相似度最大θ1,θ2的組合,獲得主要包含主體目標(biāo)的輪廓圖.與對全局圖像直接進(jìn)行的Canny邊緣計(jì)算結(jié)果相比較,本文方法處理后的圖像無關(guān)輪廓較少,可以有效突出圖像主體的輪廓,并且運(yùn)算速度更快,算法流程圖如圖1所示.
圖1 輪廓檢測流程圖Fig.1 Flow chart of the contour detection
如圖2所示,實(shí)驗(yàn)對象是具有單一目標(biāo)的灰度圖像,目標(biāo)主體為交通標(biāo)志牌(包含指示標(biāo)志下方的信號燈),全圖有房屋、柵欄、建筑、植物等無關(guān)背景,考慮到交通路況圖像的分辨率有限,實(shí)際檢測中不考慮圖像噪聲的影響.利用視覺注意的方法計(jì)算出視覺顯著區(qū)域進(jìn)行圖像分割,將圖像分2個(gè)圖像塊,即1個(gè)視覺顯著區(qū)域塊和1個(gè)非視覺顯著區(qū)域塊,如圖3所示.在分割后的區(qū)域上分別定義不同的θ值,用不同尺度的Canny算子計(jì)算的各個(gè)圖像塊輪廓圖,分別對各個(gè)輪廓子圖的像素值進(jìn)行疊加,獲得目標(biāo)輪廓.
圖2 輸入圖像Fig.2 Input image
圖3 視覺顯著區(qū)域圖Fig.3 Visual salient region
如圖4所示,與傳統(tǒng)的Canny邊緣檢測方法相比較,對于全局圖像,定義θ的取值范圍為離散集合{0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8}中的值,隨著θ取值的增大,邊緣檢測的細(xì)致程度逐漸減弱,遍歷θ的所有取值,目標(biāo)對象的邊緣無法單一化的準(zhǔn)確描述.采用本文方法,利用視覺注意的效果分割圖像的結(jié)果,對于不同的區(qū)域,分別定義不同尺度的θ1,θ2,得到64幅組合輪廓圖,取8幅組合輪廓進(jìn)一步分析,如圖5所示.在視覺顯著區(qū)域定義尺度較細(xì)的θ1,θ1的取值在0.5~0.1的逐漸減小的過程中,既定目標(biāo)的邊緣越來越清晰;對視覺不顯著的區(qū)域定義尺度較細(xì)的θ2,θ2的取值在0.1~0.8的逐漸增大的過程中,在較大范圍內(nèi)的無關(guān)輪廓越來越模糊,通對2個(gè)輪廓子圖的像素值進(jìn)行疊加,當(dāng)θ1=0.1,θ2=0.8時(shí),既定目標(biāo)輪廓清晰,無關(guān)輪廓影響較小,位于目標(biāo)區(qū)域的交通標(biāo)志牌和信號燈的輪廓突出,可較好地對既定目標(biāo)進(jìn)行提取,達(dá)到了預(yù)期的效果.
圖4 全局圖像在不同尺度Canny算子作用下的輪廓圖Fig.4 The Contour map in different scale by Canny method of whole image
圖5 分割圖像在不同尺度Canny算子作用下疊加后的組合輪廓圖(節(jié)選部分)Fig.5 The Contour map in different scale by Canny method of segmented image with overlay(Excerpt)
本文采用計(jì)算時(shí)間來評估不同方法輪廓提取的效率,并采用查全率和查準(zhǔn)率來評估不同方法輪廓提取的質(zhì)量.查全率A是表征有效信息被正確檢測的比例,查準(zhǔn)率C是表征檢測出的信息正確部分的比例.
R代表被正確檢索的結(jié)果,M代表被檢索的結(jié)果,N代表檢索的全部結(jié)果.
傳統(tǒng)的全局圖像Canny邊緣檢測方法和本文方法性能的比較如表1所示.
從表1可以看出,全局圖像Canny邊緣計(jì)算方法無法突出既定目標(biāo)的輪廓,本文方法采用視覺注意的結(jié)果作為分割依據(jù),進(jìn)行了目標(biāo)區(qū)域與無關(guān)區(qū)域的分割,分別計(jì)算2個(gè)圖像塊的輪廓,對計(jì)算后的2個(gè)輪廓子圖的像素值進(jìn)行疊加,突出了既定目標(biāo)的輪廓,無關(guān)區(qū)域較少.采用細(xì)尺度的Canny邊緣檢測算子對目標(biāo)區(qū)域進(jìn)行精細(xì)檢測,使其標(biāo)志牌上的文字和指向都可以清晰辨識,采用粗尺度的Canny邊緣檢測算子對無關(guān)區(qū)域的輪廓進(jìn)行了模糊處理,使其建筑、植物等無關(guān)背景輪廓不被檢測,其檢測效率和檢測效果優(yōu)于傳統(tǒng)的全局Canny檢測方法.
表1 目標(biāo)輪廓檢測結(jié)果比較Tab.1 Compared with different methods in the part of target contour
視覺注意方法對目標(biāo)區(qū)域的提取較傳統(tǒng)方法有了一定的進(jìn)步,給圖像分割帶來了新的分割思路,Canny邊緣檢測是迄今為止最優(yōu)秀的邊緣檢測方法,運(yùn)用廣泛.本文結(jié)合視覺注意的結(jié)果對不同尺度要求下的不同區(qū)域,分別定義不同的Canny邊緣算子,對顯著性區(qū)域進(jìn)行細(xì)尺度的目標(biāo)提取,對于非顯著性區(qū)域進(jìn)行粗尺度的模糊背景.該方法剔除了注意目標(biāo)的冗余區(qū)域,將顯著部分的輪廓目標(biāo)較為清晰地提取出來.本方法不足之處在于,視覺注意的機(jī)制依存于人腦和人眼的復(fù)雜機(jī)制和返回結(jié)果的不確定性,將對比度強(qiáng)烈的無關(guān)部分列入了注意區(qū)域(圖2中的左上角天空和中間柵欄也同時(shí)被誤認(rèn)為目標(biāo)的區(qū)域),針對上述問題,仍有進(jìn)一步完善的空間.
[1]張軍,成禮智,楊海濱,等.基于紋理的自適應(yīng)提升小波變換圖像壓縮[J].計(jì)算機(jī)學(xué)報(bào),2010,33(1):184-192.
[2]李冉,譚光興,寧勝花.基于內(nèi)容感知的圖像縮放研究[J].廣西工學(xué)院學(xué)報(bào),2010,21(3):33-37.
[3]閆夏,譚光興,林川.基于免疫聚類算法的MRI膝關(guān)節(jié)圖像分割[J].廣西科技大學(xué)學(xué)報(bào),2015,26(1):70-74.
[4]朱玉蓮,陳松燦.特征采樣和特征融合的子圖像人臉識別方法[J].軟件學(xué)報(bào),2012,23(12):3209-3220.
[5]李滾,嚴(yán)發(fā)寶,蘇艷蕊,等.基于CANNY算子的自適應(yīng)雙閾值油罐油位紅外成像檢測[J].電子測量與儀器學(xué)報(bào),2009,23(9): 44-50.
[6]林川,呂曉峰,曹以雋,等.汽車車身焊點(diǎn)質(zhì)量智能檢測系統(tǒng)設(shè)計(jì)[J].計(jì)算機(jī)測量與控制,2014,22(1):31-33.
[7]張鵬,王潤生.基于視覺注意的遙感圖像分析方法[J].電子與信息學(xué)報(bào),2005,27(12):1855-1860.
[8]劉彥甲.視覺注意模型及其在SAR圖像中的應(yīng)用研究[D].西安:西安電子科技大學(xué),2013.
[9]宋雁斕,張瑞,支琤,等.一種基于視覺注意模型的圖像分類方法[J].中國圖象圖形學(xué)報(bào),2008,13(10):1886-1889.
[10]孔銳,張冰.Gabor濾波器參數(shù)設(shè)置[J].控制與決策,2012,27(8):1277-1280.
[11]張思俊,王樂樂,陸振宇.基于Canny算子邊緣檢測的車牌圖像增強(qiáng)方法[J].重慶交通大學(xué)學(xué)報(bào)(自然科學(xué)版),2012,31(3): 439-442.A computational model of visual attention mechanism and edge extraction elgorithm of Canny in contour detection
YU Hao,LIN Chuan*,TAN Guang-xing,YANG Xu
(School of Electrical and Information Engineering,Guangxi University of Science and Technology,Liuzhou 545006,China)
Based on the classical method of visual attention,a bottom-up data driven model is set up and the target contour detection method combining visual attention and Canny edge detection is proposed.By fast locking visual interest,visual saliency regions can be found.Visual salient regions and non-salient regions are finely scaled and coarsely scaled in Canny edge extraction.From the contour of the salient map,the salient regions become more prominent.The experimental results show that the method proposed in the paper can reach 90.1%of the target contour in the experimental area.Compared with the traditional target extraction method,the proposed method can effectively improve the speed of positioning process,and the recognition of the target contour can be easily achieved.
visual attention;Canny;edge extraction;contour detection
TP391.41
A
2095-7335(2016)02-0087-06
10.16375/j.cnki.cn45-1395/t.2016.02.015
(學(xué)科編輯:黎婭)
2015-12-14
國家自然科學(xué)基金項(xiàng)目(61563005);廣西自然科學(xué)基金項(xiàng)目(2015GXNSFAA139293,2015GXNSFAA139289);廣西高??茖W(xué)研究項(xiàng)目(YB2014214,KY2015LX173);廣西科技大學(xué)科學(xué)基金項(xiàng)目(??谱?0161307)資助.
*通信作者:林川,副教授,碩士生導(dǎo)師,研究方向:仿生智能計(jì)算,E-mail:gxustlc@126.com.