于 明,邳艷芹
(河北工業(yè)大學 信息工程學院,天津 300401)
在視覺上,人們總是能迅速地把目光集中在自己感興趣的方面[1]。隨著圖像處理技術(shù)的發(fā)展,感興趣區(qū)域的提取是近期圖像處理技術(shù)發(fā)展的熱點,在圖像處理中把計算資源用于處理感興趣區(qū)域,會提高圖像處理的效率。感興趣區(qū)域(ROI)檢測將人類的視覺注意機制引入到圖像分析過程中,對于提高現(xiàn)有圖像分析系統(tǒng)的工作效率有著積極的作用[2],同時在視頻壓縮及檢索領(lǐng)域也得到了應(yīng)用。
感興趣區(qū)域(ROI)是圖像中可能引起人眼視覺關(guān)注的區(qū)域。視覺關(guān)注是人類視覺系統(tǒng)捕獲場景中有意義部分的一種機制,通過對視覺關(guān)注的分析能提取圖像中的感興趣區(qū)域。視覺選擇性注意機制包括兩種,一是從下至上的注意(數(shù)據(jù)驅(qū)動的注意模型),是與任務(wù)無關(guān)且不受意識控制的,是基于視覺輸入景象的顯著性計算的,屬于低級認知的過程。目前另一個是自上而下的注意 (任務(wù)驅(qū)動的注意模型),與人的主觀意識有關(guān)且受意識控制[3]。其中最具影響力的當屬Itti和Koch等人提出的Saliency模型[1],利用人的視覺感受野、側(cè)抑制神經(jīng)網(wǎng)絡(luò)模擬了人的視覺注意力機制。但是該模型最終的顯著區(qū)域的范圍是固定的形狀,并且存在著漏檢測和檢測順序不合乎人類視覺注意特征的情況。
想要全面準確的描述一幅圖像,就要針對其各個方面的視覺屬性選擇多種簡單圖像特征。文中基于Itti模型[4-5]的基本方法來提取圖像的顏色、亮度和方向3個低層特征來獲得圖像各個特征的特征圖。
1)亮度特征圖的提取
設(shè) r(t),g(t)和 b(t)分別表示原始圖像中的紅色、綠色和藍色通道,其中t表示圖像的尺度,將原始圖像的尺度設(shè)置為0,則亮度特征圖的計算方法如式(1)所示。
2)方向特征圖的提取
神經(jīng)還原論中提到,視皮層細胞可以看做是一個線性空間濾波器,而二維的Gabor函數(shù)剛好有效的描述了哺乳動物視皮層簡單細胞感受野的刨面。
由于Gabor函數(shù)有很好的方向選擇性,能很好的描述視覺皮層中具有方向選擇性的簡單細胞的感受野。因此用濾波器對I進行卷積以提取方向特征,采用二維Gabor濾波器,取Gabor濾波器 (0,π/4,π/2,3π/4)4 個方向的輸出作為圖像的方向特征圖。
低層特征提取后,關(guān)鍵問題是計算特征興趣圖。本文對亮度特征圖4個方向分量共5個分量特征圖采用非線性尺度空間表示,中央圖像對應(yīng)高分辨率下的尺度,外圍圖像對應(yīng)低分辨率下的尺度,通過感受野和整合野的中央-外圍的計算策略計算特征興趣圖。
1)亮度特征興趣圖(顯著圖)
Itti模型認為高分辨率圖像代表感受野的中央?yún)^(qū)域,低分辨率圖像代表感受野的周邊區(qū)域,通過跨尺度計算不同分辨率圖像之間的差值來提取特征圖。
根據(jù)亮度對比度產(chǎn)生亮度顯著圖,亮度特征計算如下:
其中c是非線性尺度空間中表示的高分辨率的尺度因子,s是對應(yīng)的低分辨率下的尺度,通過高分辨率圖像中的像素減低分辨率圖像中的對應(yīng)像素來實現(xiàn)。
2)顏色特征興趣圖(顯著圖)
顯著區(qū)域即為變化強烈的區(qū)域,也就是頻譜中的高頻成分。由于Itti模型在提取顏色特征時可能會出現(xiàn)顯著區(qū)域反轉(zhuǎn)現(xiàn)象,因此,可以通過過濾掉圖像中的低頻部分,提取圖像中的高頻部分來作為圖像的顯著區(qū)域。
這里采用 Achanta等人[6]提出的頻域調(diào)和(Frequencytuned)的顯著性檢測方法。先將顏色變化到均勻的CIELab顏色空間,再對變換后的圖像進行高斯低通濾波,最后求原圖與濾波后的圖像的差的平方即為顏色的顯著圖記為C(x,y):
其中,Iu為像素值的算術(shù)平均,Iwhc為原始圖像經(jīng)過高斯模糊得到的。
3)方向特征興趣圖(顯著圖)
通過局部方向?qū)Ρ榷扔嬎惴较蛱卣黠@著圖,將方向特征圖 O(c,s,θ)編碼成一組:
由于全局加強法沒有考慮到自然圖像中的信噪比問題,并且視皮層的神經(jīng)元是局部互連的,尋找全局極大在生物學上也是不合理的。因此本文采用局部迭代法對不同機理產(chǎn)生特征圖進行合并。具體做法是:
首先將各特征圖的特征值歸一化到同一個范圍,其次引入高斯差分函數(shù)(DOG),最后將歸一化的特征值與高斯差分函數(shù)進行卷積。圖1描述了局部迭代法的工作流程。
圖1 局部迭代法流程Fig.1 Local iteration process
局部迭代法是中央自激勵、范圍內(nèi)抑制的結(jié)構(gòu),很好的促進了相鄰顯著點之間的局部競爭。迭代次數(shù)是根據(jù)實驗經(jīng)驗人為設(shè)定的,一般是到特征圖中大多數(shù)位置的特征值收斂且接近于0時就停止迭代過程。
高斯差分函數(shù)就是中央自激勵、鄰域范圍內(nèi)抑制的結(jié)構(gòu);從生物學的角度來講,與人眼主視皮層的中央自激勵、鄰域范圍內(nèi)抑制的神經(jīng)元間的側(cè)連接組織方式相似,具有生物學上的合理性[8]。這種結(jié)構(gòu)促成相鄰顯著點之間的局部競爭。由該方法產(chǎn)生的興趣圖更接近稀疏分布,目標之外的部分被很好的抑制。局部迭代法對其他非顯著目標部分產(chǎn)生強烈抑制的特點,表明了該策略在對噪聲有良好的魯棒性。
如何確定感興趣區(qū)域的范圍,又該如何排除干擾,使區(qū)域的選擇更精確,基于前文顯著圖的獲取,利用綜合自動閾值分割和種子點的區(qū)域生長方法分別對各個顯著圖進行區(qū)域提取進而得到各自的興趣區(qū)域,在根據(jù)判決準則對各個區(qū)域進行篩選合并,從而得到最后的感興趣區(qū)域:具體步驟如下:
1)保留前文生成的亮度、顏色和方向的顯著圖I,C,O。
2)利用最優(yōu)直方圖方法從合并的興趣圖生成閾值Hs。
3)根據(jù)Hs分別對底層特征顯著圖進行閾值分割。
4)用保留的最佳尺度的注視點[Xi,Yi],i∈(I,C,O)為種子點,然后通過逐個對分割后的顯著圖進行區(qū)域生長的方法得到各自的興趣區(qū)域 R,i∈(I,C,O)。
5)定義興趣區(qū)域面積 Sregion=|max(x)-min(x)|×|max(y)-min(y)|,(x,y)∈R 如果 Sregion>65%Smap,則該區(qū)域被刪除。 其中Smap為興趣圖的面積。
6)將保留的感興趣區(qū)域進行合并,得到最終的感興趣區(qū)域。
感興趣區(qū)域提取方法的流程如圖2所示。
圖2 感興趣區(qū)域提取模型Fig.2 Region of interest extraction model
該方法與閾值分割技術(shù)和種子點的區(qū)域生長技術(shù)相結(jié)合,近似的估算了顯著圖目標的尺寸。經(jīng)過對多幅興趣圖的處理后發(fā)現(xiàn),當興趣區(qū)域面積過大時表明該顯著圖的顯著點分布過于平坦和均勻,顯著圖會給最終顯著圖和興趣圖的合并帶來干擾,影響到最終興趣區(qū)域范圍的精度。因此我們選擇用顯著圖面積的65%來作為篩選指數(shù)。
該模型的工作流程敘述如下:首先對輸入的原始圖像進行處理生成顯著圖,然后根據(jù)生成的顯著圖產(chǎn)生各自的顯著區(qū)域。由于輸入的圖像特征不同,因此所得到顏色、亮度、和方向顯著區(qū)域?qū)︼@著圖的合并貢獻不同。比如顏色顯著圖的顯著性較強,對合并的貢獻就較大;然而方向顯著圖的顯著性卻分布較為均勻,對合并的貢獻就較小而且還會帶來干擾。
為了驗證本文方法的正確性和有效性,在Intel Pentium 1.6 GHz、內(nèi)存 1 GB 的微機上,利用 Matlab 7.6.0(R2008a)分別對簡單背景單一目標、簡單背景復雜目標和復雜背景的多幅自然圖像進行了實驗。如圖3所示,該方法生成的可變區(qū)域包含了視覺上最為顯著的目標,比較準確的提取了符合人類視覺感知[8]的感興趣區(qū)域。
圖3 感興趣區(qū)域提取的結(jié)果展示圖Fig.3 Results of extraction region of interest map
本文在基于經(jīng)典的Itti模型[10]基礎(chǔ)上,采用了局部迭代的特征合并策略并在此基礎(chǔ)上綜合自動閾值分割和種子點的區(qū)域生長方法實現(xiàn)了感興趣區(qū)域的提取方法。該方法很好的實現(xiàn)了感興趣區(qū)域的提取,通過實驗表明其檢測順序和結(jié)果比較符合人類視覺感知,具有良好的魯棒性和實時性。
[1]王國營,梁春迎.一種圖像顯著區(qū)域的提取方法[J].計算機應(yīng)用,2010,30(6):1619-1621.
WANG Guo-ying,LIANG Chun-ying.Extraction of salient regions in image[J].Joumal of Computer Applications,2010,30(6):1619-1621.
[2]張菁,沈蘭蓀,高靜靜.基于視覺注意機制的感興趣區(qū)檢測[J].光子學報,2009,38(6):1561-1565.
ZHANG Jing,SHEN Lan-sun,GAO Jing-jing. Extraction of interests region based on visual attention mechanism[J].Acta Photonica Sinica,2009,38(6):1561-1565.
[3]韋靈麗,李翠彬.基于視覺選擇性注意機制的目標檢測的研究[J].計算機與現(xiàn)代化,2010,180(8):92-97.
WEI Ling-li,LI Cui-bin.Object dectection based on visual selection attention mechanism[J].Computer and Modernization,2010,180(8):92-97
[4]Itti L,Kouch C.Computational modeling of visual attention[J].Nature Reviews Neuroscience,2001,2(3):194-230.
[5]IttiL,Kouch C.Feature combination strategies for saliency-based visual attention systems[J].Journal of Electronic Imaging,2001,10(1):161-169.
[6]Aehanta R,Hemami S,Estrada F,et al.Frequeney-tuned salient region deteetion[C]//InProeeedings of IEEE Conferenee on Computer Vision and Pattern Reeognition(CVPR2009),2009:1597-1604.
[7]HU Yi-qun,XIE Xing,MA Wei-ying.Salient region detection using weighted feature maps based on the human visualattention model [C]//Advances in Multimedia Information Processing.Heidelberg:Springer,2004:993-1000.
[8]Weliky M,Kander K,F(xiàn)itzpatrick D,et al.Patterns of excitation and inhibition evoked by horizontal connections in visual cortex share a common relationship to orientation columns[J].Neuron,1995,15(3):541-552.
[9]張卓,張學武,梁瑞宇,等.基于視覺感知的船閘監(jiān)控系統(tǒng)研究與實現(xiàn)[J].現(xiàn)代電子技術(shù),2009(22):135-138.
ZHANG Zhuo,ZHANG Xue-wu,LIANG Rui-yu,etal.Research and Implementation ofShip-lock Monitoring System Based on SVM and Visual Perception[J].Modern Electronics Technique,2009(22):135-138.
[10]吳月娥,邊后琴.尺度與特征引導視覺選擇性注意機制模型[J].現(xiàn)代電子技術(shù),2009(22):84-87.
WU Yue-e,BIAN Hou-qin.Model of visual selective attention mechanism deployed by scale and features[J].Modern Electronics Technique,2009(22):84-87.