熊 偉, 徐永力
(海軍航空大學(xué)信息融合研究所,山東 煙臺(tái) 264001)
合成孔徑雷達(dá)(SAR)具有全天時(shí)、全天候、大范圍、多參數(shù)等特點(diǎn),是海洋監(jiān)測與監(jiān)視應(yīng)用的重要組成部分。從SAR圖像中快速檢測出目標(biāo)對(duì)及時(shí)獲取有用信息有著重大的意義。SAR圖像目標(biāo)檢測作為其分類和識(shí)別的基礎(chǔ),始終是SAR圖像應(yīng)用的重要內(nèi)容[1]。
隨著Radarsat-2,TerraSAR-X以及高分三號(hào)等新一代SAR傳感器的發(fā)射運(yùn)行,SAR逐漸向高分辨率、大幅寬、多極化方向發(fā)展。隨著圖像尺寸越來越大,基于圖像的逐點(diǎn)計(jì)算等檢測算法處理速度就變得緩慢,難以達(dá)到實(shí)時(shí)處理的要求[2]。大數(shù)據(jù)量的SAR圖像信息和有限的計(jì)算機(jī)處理能力之間的矛盾,迫切需要尋求快速的圖像檢測方法[3]。一些學(xué)者對(duì)人類視覺智能展開研究并取得進(jìn)展,其中,采用視覺注意機(jī)制從復(fù)雜的視覺信息中篩選出有用信息提供給目標(biāo)檢測,大大提高了處理效率。
目前,對(duì)視覺注意建模的研究主要包括兩個(gè)方面。1) 數(shù)據(jù)驅(qū)動(dòng)的視覺注意模型,可劃分為基于時(shí)域的模型算法和基于頻域的模型算法。ITTI提出的視覺注意模型首次在數(shù)學(xué)層面對(duì)人眼“注意”特性進(jìn)行了模擬[4],基于時(shí)域空間建立了視覺注意模型;基于頻域的視覺注意模型則將圖像的處理層面由時(shí)域轉(zhuǎn)換到頻域。例如HOU等提出的基于頻譜殘差法的視覺顯著模型[5],Hou模型主要利用了快速傅里葉變換得到的幅度譜作為圖像顯著性表征,進(jìn)而還原到時(shí)域得到顯著圖;GUO等在快速傅里葉變換的基礎(chǔ)上利用相位譜得到圖像的顯著圖[6];YU等結(jié)合離散余弦變換理論提出了一些新的視覺注意模型[7],也得到了廣泛的應(yīng)用。此類模型雖然能夠簡單快速地獲取顯著圖,但是顯著圖包含較多虛警。2) 目的驅(qū)動(dòng)的視覺注意模型,其中具有代表性的模型有ITTI提出的基于心理閾值函數(shù)模型[8]和OLIVA等提出的基于貝葉斯學(xué)習(xí)的注意模型[9],這類目的驅(qū)動(dòng)的處理模型缺點(diǎn)為缺乏自適應(yīng)性。
結(jié)合現(xiàn)有的視覺顯著檢測理論,分析了傳統(tǒng)視覺注意模型解決海面SAR圖像處理問題的缺陷,借鑒ITTI視覺注意計(jì)算模型的處理機(jī)制,本文針對(duì)復(fù)雜海面SAR圖像提出一種改進(jìn)的視覺注意建模方法。首先,選擇和提取能夠較好描述SAR圖像的紋理和形狀特征,進(jìn)而求取相應(yīng)的局部特征和全局特征的特征顯著圖;然后,采用改進(jìn)的特征顯著圖合并方法進(jìn)行顯著圖融合得到總顯著圖。
雖然對(duì)計(jì)算機(jī)視覺的研究已經(jīng)取得很大進(jìn)展,獲得一系列成果,但相比人類視覺對(duì)于現(xiàn)實(shí)場景中的信息處理能力還遠(yuǎn)遠(yuǎn)不足,因此學(xué)者們不斷研究人類視覺注意機(jī)制,并嘗試提出數(shù)學(xué)計(jì)算模型進(jìn)而模擬人類視覺的注意機(jī)制。目前較為常用的視覺注意計(jì)算模型[10-11]有ITTI視覺注意計(jì)算模型和基于傅里葉變換的頻譜殘差視覺注意模型。其中,ITTI視覺注意計(jì)算模型在模型設(shè)計(jì)中模仿了視覺系統(tǒng)中自底向上顯著性的形成過程,從而實(shí)現(xiàn)圖像的顯著性檢測,因此ITTI視覺注意計(jì)算模型在計(jì)算機(jī)視覺領(lǐng)域得到了廣泛應(yīng)用。
ITTI視覺注意計(jì)算模型的處理流程主要包括特征提取、顯著度計(jì)算和多通道顯著圖合并3個(gè)步驟。首先,在時(shí)域上對(duì)輸入圖像進(jìn)行初級(jí)視覺特征提取,其次,計(jì)算相應(yīng)特征下圖像各像素點(diǎn)的視覺顯著度,從而合并得到視覺顯著圖,通過競爭策略實(shí)現(xiàn)顯著區(qū)域的提取。ITTI視覺注意計(jì)算模型處理的流程如圖1所示。
圖1 經(jīng)典ITTI視覺注意計(jì)算模型算法流程圖Fig.1 Flow chart of classic ITTI vision attention model
模型處理所采用的關(guān)鍵技術(shù)包括:多尺度高斯金字塔模型、圖像初級(jí)特征提取、中央-周邊差和歸一化、視覺顯著區(qū)域的提取和轉(zhuǎn)移。
1.1.1 底層視覺特征提取模塊
在特征提取階段,ITTI經(jīng)典模型通過建立圖像金字塔結(jié)構(gòu)來模擬人眼多尺度非均勻采樣機(jī)制,實(shí)現(xiàn)圖像的多尺度表示。金字塔模型的建立包括平滑和采樣2個(gè)步驟。ITTI模型首先對(duì)輸入圖像降采樣處理,生成多個(gè)不同分辨率的圖像,然后對(duì)輸入圖像和采樣所得圖像進(jìn)行高斯平滑,進(jìn)而得到高斯金字塔結(jié)構(gòu)。對(duì)圖像進(jìn)行降采樣的原理在于高斯濾波能夠?qū)@著性高的特征顯著地保留在金字塔各層。
作為數(shù)據(jù)驅(qū)動(dòng)的視覺注意模型,ITTI視覺注意計(jì)算模型得到的顯著圖受初級(jí)視覺特征的影響,因此特征選擇將直接影響顯著圖的質(zhì)量。ITTI模型將圖像的顏色、方位和亮度特征作為底層初級(jí)視覺特征。
1.1.2 視覺顯著圖計(jì)算模塊
在特征顯著圖計(jì)算階段,需要中央—周邊差操作以及特征圖歸一化2個(gè)操作過程。ITTI經(jīng)典模型采用中央—周邊差算子來模擬視覺感知系統(tǒng)中感受野的特性來完成視覺信息對(duì)比度的提取。分別對(duì)亮度、顏色和方位特征進(jìn)行中央—周邊差操作以得到特征圖,經(jīng)特征圖歸一化到某一個(gè)灰度值范圍,減弱非目標(biāo)區(qū)域顯著性,得到各個(gè)特征初始顯著圖。對(duì)初始特征圖進(jìn)行層間相加操作和歸一化,最終得到3個(gè)特征顯著圖。
ITTI經(jīng)典模型將3個(gè)特征顯著圖以1∶1∶1的比例進(jìn)行線性相加得到總顯著圖。
1.1.3 顯著區(qū)域的獲取和轉(zhuǎn)移模塊
通常情況下,得到的圖像總顯著圖中像素的灰度最大值及其一定鄰域即對(duì)應(yīng)圖像中最顯著的部分,因此,獲取顯著區(qū)域即是尋找總顯著圖的灰度最大值及其一定范圍鄰域。ITTI模型采用勝者全取(Winner Take All,WTA)機(jī)制和禁止返回(Inhibition of Return,IOR)機(jī)制[12]獲取視覺顯著點(diǎn)。WTA和IOR處理的主要過程是:尋找像素最大值確定顯著目標(biāo),通過WTA機(jī)制提取視覺顯著區(qū)域,利用IOR抑制已經(jīng)得到提取區(qū)域的顯著性,再通過WTA機(jī)制選取下一個(gè)顯著區(qū)域,從而實(shí)現(xiàn)顯著區(qū)域的獲取。
目前現(xiàn)有的大多數(shù)視覺注意計(jì)算模型都是針對(duì)自然場景的圖像設(shè)計(jì)的,模型能夠較為準(zhǔn)確地得到圖像顯著圖,進(jìn)而提取感興趣區(qū)域。然而,SAR圖像和自然場景圖像存在著較大差異性,例如復(fù)雜海面SAR圖像中的海洋背景斑點(diǎn)噪聲和艦船目標(biāo)表現(xiàn)出相似的特性。這種現(xiàn)象往往使得經(jīng)典視覺注意模型對(duì)這類SAR圖像進(jìn)行目標(biāo)顯著區(qū)域提取時(shí)得不到準(zhǔn)確的顯著圖結(jié)果。
本文對(duì)ITTI模型的設(shè)計(jì)思路進(jìn)行分析,通過仿真實(shí)驗(yàn)驗(yàn)證該模型對(duì)SAR圖像處理得到顯著圖中存在大量虛警、漏檢,分析原因主要包括以下方面。
1) 底層視覺特征的提取:經(jīng)典ITTI模型選擇的特征為亮度、顏色和方位等局部特征,沒有考慮目標(biāo)區(qū)域的全局特征。因此模型無法準(zhǔn)確處理待檢測圖像中局部特征不明顯的感興趣區(qū)域。其中,SAR圖像中目標(biāo)的紋理、形狀等重要特征在ITTI模型中未予以考慮,這也是模型檢測效果不佳的原因。
2) 高斯金字塔結(jié)構(gòu)的設(shè)計(jì):ITTI模型采用九層金字塔結(jié)構(gòu)模擬人眼視覺系統(tǒng)的注意機(jī)制,用以實(shí)現(xiàn)圖像的多尺度表征。然而,SAR圖像中艦船等目標(biāo)占據(jù)被處理圖像面積相對(duì)過小,過度降采樣使得待檢測圖像丟失目標(biāo)信息,對(duì)模糊不清的高斯金字塔子圖像進(jìn)行特征顯著圖構(gòu)建沒有意義,如圖2所示,圖2a~圖2f分別對(duì)應(yīng)1~6層金字塔子圖。
3) 特征顯著圖融合策略:ITTI經(jīng)典模型中,特征顯著圖融合方式為線性合并,通常采用直接相加得到總顯著圖,忽略了不同特征存在的優(yōu)先級(jí)關(guān)系,這就導(dǎo)致了某個(gè)占據(jù)主導(dǎo)性的特征顯著圖在合并過程中被削弱,從而造成目標(biāo)顯著區(qū)域的漏檢。
針對(duì)ITTI模型對(duì)SAR圖像顯著區(qū)域的提取缺乏適應(yīng)性,以及底層初級(jí)特征選擇及特征顯著圖合并策略的問題,本文基于經(jīng)典ITTI模型的處理框架,提出了一種針對(duì)SAR圖像目標(biāo)顯著性檢測的改進(jìn)的視覺注意模型,并就顯著性提取結(jié)果與ITTI模型和Hou模型展開對(duì)比分析。
圖2 高斯金字塔結(jié)構(gòu)結(jié)果圖Fig.2 Results of Gaussian pyramid structure
通過對(duì)經(jīng)典ITTI模型的分析,結(jié)合SAR圖像中的目標(biāo)特性,為提高圖像顯著性檢測精度以及目標(biāo)區(qū)域輪廓清晰度,借鑒經(jīng)典ITTI模型的框架,提出了一種針對(duì)SAR圖像顯著性檢測的視覺注意模型,首先提取待檢測圖像的底層初級(jí)特征,然后采用特征整合機(jī)制進(jìn)行特征顯著圖融合得到顯著圖,最后通過競爭策略進(jìn)一步完成待檢測圖像顯著區(qū)域的提取,流程如圖3所示。
圖3 本文提出的視覺注意模型算法流程Fig.3 Flow of the proposed visual attention model algorithm
一般情況下,局部特征是將目標(biāo)區(qū)域和鄰域像素進(jìn)行對(duì)比并區(qū)分,全局特征則能夠從全局的角度計(jì)算圖像內(nèi)相似區(qū)域的顯著性,更進(jìn)一步凸顯目標(biāo)區(qū)域??紤]以上,本文將SAR圖像中占據(jù)主導(dǎo)地位的紋理和形狀等特征納入視覺特征提取范疇。本文選取了SAR圖像的標(biāo)準(zhǔn)偏差、方位特征、唯一性和全局對(duì)比度特征4個(gè)特征進(jìn)行特征子圖的構(gòu)建。
2.1.1 標(biāo)準(zhǔn)偏差
通常情況下,標(biāo)準(zhǔn)偏差能夠有效地表征圖像的局部特征,如目標(biāo)邊緣和形狀特征等局部差異性。SAR圖像存在著豐富的邊緣信息,通過提取圖像的標(biāo)準(zhǔn)偏差,增強(qiáng)目標(biāo)邊緣和輪廓信息,實(shí)現(xiàn)從背景中區(qū)分出目標(biāo)。標(biāo)準(zhǔn)偏差能夠在較低的計(jì)算復(fù)雜度下保證目標(biāo)與背景的差異性。
標(biāo)準(zhǔn)偏差特征計(jì)算通過濾波器在待檢測圖像中滑動(dòng)求取。設(shè)I(x,y)為待檢測圖像,濾波器尺寸為N×N,濾波器中心坐標(biāo)(m,n),標(biāo)準(zhǔn)偏差DSTD為
(1)
(2)
式中:mx(i,j)為局部圖像的平均值;M=(N-1)/2。
目標(biāo)邊界點(diǎn)由于與其鄰域內(nèi)像素差別較大,因此計(jì)算出的DSTD值也較大,表現(xiàn)在特征顯著圖中為亮點(diǎn)。從圖像的角度分析,各像素點(diǎn)相應(yīng)DSTD值組成標(biāo)準(zhǔn)偏差特征矩陣。通過對(duì)此矩陣進(jìn)一步歸一化操作和顯著性處理,得出特征顯著圖。計(jì)算過程為
DSTD=N(DSTD(n,m))
(3)
式中,N(·)為歸一化操作。
2.1.2 方位特征
SAR圖像中目標(biāo)方向復(fù)雜多樣,因此可以采用方位特征來表征不同方向的目標(biāo)。本文采用Gabor濾波器提取圖像的方位特征,即
(4)
式中:
(5)
xθk=xcosθk+ysinθk;
(6)
yθk=-xsinθk+ycosθk;
(7)
α和β分別為高斯函數(shù)在x軸和y軸上的標(biāo)準(zhǔn)差;θk和λ分別指正弦波的方向和波長。
在本文模型中,正弦波的方向角分別取0°,45°,90°,135°,通過以上公式計(jì)算可獲得這4個(gè)方向的Gabor濾波器,從而得到基于這4個(gè)方向的方位特征圖,分別記為Fori(0),F(xiàn)ori(45),F(xiàn)ori(90),F(xiàn)ori(135)。由于模型未構(gòu)建高斯金字塔,方位顯著圖Sori由4幅特征圖線性相加得到,即
(8)
2.1.3 唯一性
唯一性指圖像中出現(xiàn)次數(shù)較少的像素點(diǎn)所具有的性質(zhì)。人眼視覺處理系統(tǒng)對(duì)圖像進(jìn)行處理時(shí),首先會(huì)注意圖像的“顯著”區(qū)域,從而優(yōu)先處理該區(qū)域。本文提取唯一性這個(gè)全局特征以實(shí)現(xiàn)對(duì)圖像中出現(xiàn)概率較小區(qū)域進(jìn)行強(qiáng)化。對(duì)于待檢測圖像I(x,y),圖像中每個(gè)像素灰度值出現(xiàn)次數(shù)為n(i,j),唯一性特征的計(jì)算步驟為
(9)
(10)
式中:λ表示經(jīng)驗(yàn)參數(shù);f(i,j)為像素點(diǎn)頻率;M×N為待檢測圖像尺寸。從圖像的角度分析,所有像素點(diǎn)的唯一性值構(gòu)成了圖像的特征顯著圖,即
Suniq=NFuniq(i,j)。
(11)
2.1.4 全局對(duì)比度
全局對(duì)比度是對(duì)當(dāng)前局部區(qū)域相對(duì)整幅圖像差異的量化。通常情況下,SAR圖像中目標(biāo)區(qū)域的灰度值相對(duì)較高,計(jì)算全局對(duì)比度特征的顯著圖能夠增強(qiáng)目標(biāo)與背景的差異性以突出目標(biāo)的顯著性。對(duì)于輸入的待檢測圖像處理,基于像素級(jí)的全局對(duì)比度特征顯著圖的計(jì)算過程為
(12)
(13)
Sglobal=N(g(i,j))
(14)
其中:g(i,j)指當(dāng)前位置像素點(diǎn)的全局對(duì)比度;γ為灰度經(jīng)驗(yàn)參數(shù);Sglobal表示全局對(duì)比度特征顯著圖。
通常視覺注意模型最終得到的顯著圖是所有特征顯著圖的綜合。不同特征顯著圖的含義對(duì)應(yīng)注意不同的通道,這些特征顯著圖相應(yīng)的顯著區(qū)域響應(yīng)強(qiáng)弱不均,有的顯著圖對(duì)應(yīng)多個(gè)響應(yīng)強(qiáng)烈的位置,有的顯著圖可能只有一個(gè)響應(yīng)較為微弱的顯著區(qū)域。因此,對(duì)特征顯著圖的融合需要根據(jù)特征的顯著程度進(jìn)行處理,而非簡單的線性相加。
本文依據(jù)上節(jié)所提取的SAR圖像特征計(jì)算得到特征顯著圖,模型采用的多特征顯著圖融合策略為:首先對(duì)標(biāo)準(zhǔn)偏差、方位和唯一性特征顯著圖采用線性相加操作和歸一化處理,然后通過相乘操作消除全局對(duì)比度中不明顯區(qū)域,同時(shí)加強(qiáng)局部特征圖和全局特征顯著圖共有的顯著區(qū)域的顯著程度,即
(15)
本文模型設(shè)計(jì)算法對(duì)ITTI經(jīng)典模型中的競爭策略進(jìn)行優(yōu)化,并對(duì)所得顯著圖采用多尺度分割以實(shí)現(xiàn)顯著區(qū)域的檢測和提取。
2.3.1 確定注意焦點(diǎn)
注意焦點(diǎn)(Focus of Attention,FOA),即當(dāng)前的顯著點(diǎn),一般情況下FOA為所得顯著圖S像素灰度最大值點(diǎn)。若存在多個(gè)像素點(diǎn)灰度值相同,仿照人眼感知系統(tǒng)通常處理多個(gè)感興趣區(qū)域的機(jī)制,將距離圖像中心最近的區(qū)域視為視覺注意的最顯著區(qū)域。注意焦點(diǎn)的算式為
(16)
AFOA=min(dis((x,y),(x0,y0)))
(17)
式中:(x,y)為FOA坐標(biāo);(x0,y0)為圖像的中心坐標(biāo)。
2.3.2 二值化模板的求取
按照視覺注意焦點(diǎn)的確定方法,對(duì)顯著圖S進(jìn)行FOA求取,進(jìn)而得到各個(gè)特征顯著圖中對(duì)應(yīng)此點(diǎn)的4個(gè)像素點(diǎn),取其中最大值所對(duì)應(yīng)的特征顯著圖作為顯著區(qū)域檢測的子顯著圖S′,以S′的FOA為中心,對(duì)此特征顯著圖S′進(jìn)行二值化操作,此步采用傳統(tǒng)的Otsu方法計(jì)算,實(shí)現(xiàn)全局閾值分割,即
(18)
式中:sVal為S′中FOA像素灰度值;T0為對(duì)S′圖像分割的閾值。
對(duì)以上得到的二值化結(jié)果進(jìn)行操作。首先對(duì)二值圖進(jìn)行高斯濾波,濾波器的參數(shù)需要依據(jù)目標(biāo)先驗(yàn)知識(shí)進(jìn)行確定,本文將濾波器尺寸設(shè)為圖像中實(shí)際目標(biāo)占像素的估計(jì)值;然后,需對(duì)高斯濾波后的區(qū)域進(jìn)行判斷,判斷準(zhǔn)則為
(19)
式中:β為目標(biāo)實(shí)際像素的估計(jì)值與圖像像素個(gè)數(shù)之間的比值。rratio的計(jì)算過程如下
(20)
最后,對(duì)判斷為目標(biāo)區(qū)域的二值圖進(jìn)行保存。
2.3.3 顯著區(qū)域的多尺度獲取
為避免尋找顯著區(qū)域進(jìn)入死循環(huán),對(duì)其進(jìn)行抑制返回處理。具體操作為:判決得到顯著區(qū)域的二值模板后,就將此顯著區(qū)域置為零,從而開始次視覺注意焦點(diǎn)的操作,直到完成所有顯著區(qū)域的檢索。
本文模型對(duì)競爭策略進(jìn)行的優(yōu)化和改進(jìn)主要體現(xiàn)在:綜合考慮比較、分析視覺注意焦點(diǎn)在各個(gè)特征顯著圖灰度值大小,選擇對(duì)應(yīng)位置的最佳顯著性表征方法,繼而從各個(gè)尺度對(duì)顯著圖進(jìn)行濾波及閾值分割,以實(shí)現(xiàn)顯著區(qū)域的精確篩選。
本章基于所提出模型的設(shè)計(jì)算法理論進(jìn)行仿真實(shí)驗(yàn)。針對(duì)復(fù)雜背景的SAR海面圖像給出建模處理結(jié)果,并與經(jīng)典的模型進(jìn)行對(duì)比分析優(yōu)缺點(diǎn)。
實(shí)驗(yàn)采用的計(jì)算機(jī)系統(tǒng)配置為Inter(R) Core(TM) i3-4170 CPU @3.70 GHz處理器,內(nèi)存為8 GB,Windows7操作系統(tǒng),運(yùn)行平臺(tái)為Matlab 2016。如圖4所示,選取一幅像素大小為4015×3616的TerraSAR-X圖像作為實(shí)驗(yàn)數(shù)據(jù),其成像區(qū)域?yàn)橹辈剂_陀海峽區(qū)域,圖像采樣率為1.25 m,極化方式為HH極化,該區(qū)域中存在大量艦船目標(biāo)并包含大量不均勻的背景區(qū)域。
圖4 待檢測圖像及其目標(biāo)區(qū)域標(biāo)記Fig.4 The image to be detected and the marked target area
依據(jù)本文提出的模型算法,對(duì)待檢測圖像進(jìn)行處理,求出各個(gè)特征顯著圖。特征顯著圖求取過程中的參數(shù)設(shè)置包括:標(biāo)準(zhǔn)偏差特征中濾波器滑窗大小關(guān)系到能否協(xié)調(diào)好建立模型耗時(shí)和模型建立對(duì)背景顯著度抑制的有效性。本文將濾波器滑窗像素尺寸設(shè)置為5×5,全局對(duì)比度特征參數(shù)γ為200,唯一性特征參數(shù)λ設(shè)為5×10-5。
圖5 本文模型的特征顯著圖結(jié)果Fig.5 The characteristic saliency maps of the model
由圖5可以看出:本文所得特征顯著圖都具有較好的清晰度,標(biāo)準(zhǔn)偏差顯著圖對(duì)應(yīng)SAR圖像目標(biāo)的邊緣和紋理特征;方位特征顯著圖對(duì)方向不同的目標(biāo)進(jìn)行表征和區(qū)分;唯一性顯著圖對(duì)圖像中出現(xiàn)概率較少的目標(biāo)信息進(jìn)行強(qiáng)化;全局對(duì)比度顯著圖從全局的角度將相對(duì)更高的目標(biāo)信息在背景中予以增強(qiáng)突出。
圖6所示為本文模型對(duì)于實(shí)驗(yàn)數(shù)據(jù)的仿真結(jié)果,圖7所示為兩種經(jīng)典的視覺模型的結(jié)果。
圖6 本文模型的顯著區(qū)域檢測結(jié)果Fig.6 The detection results of salient regions of the model
圖7 兩種經(jīng)典模型的顯著區(qū)域檢測結(jié)果Fig.7 The detection results of two classical models
針對(duì)本文待檢測圖像,通過計(jì)算性能指標(biāo)來定量分析3種模型設(shè)計(jì)算法。表1給出了本文模型與傳統(tǒng)視覺注意模型的性能比較結(jié)果。其中,評(píng)價(jià)指標(biāo)采用正確檢測目標(biāo)數(shù)、虛警目標(biāo)和漏檢目標(biāo)數(shù)及檢測耗時(shí)。
表1 復(fù)雜海面TerraSAR圖像3種模型顯著區(qū)域檢測結(jié)果對(duì)比
本文研究了傳統(tǒng)視覺模型的基本理論,對(duì)海面SAR圖像特征進(jìn)行分析,提出一種適用于海面SAR圖像的視覺注意模型。本文將能較好描述圖像的特征進(jìn)行顯著性提取,對(duì)得到的特征子圖融合進(jìn)而得到圖像顯著性的總顯著圖,最后通過多尺度競爭策略完成顯著區(qū)域篩選以實(shí)現(xiàn)SAR圖像顯著區(qū)域檢測。
現(xiàn)有研究需要深入和完善的地方在于: 1) 如何結(jié)合SAR圖像目標(biāo)的屬性選取特征,選擇能準(zhǔn)確表征目標(biāo)又具有較小運(yùn)算量的特征;2) 如何建立新的特征融合機(jī)制,自適應(yīng)調(diào)整各特征分配權(quán)值,使得到的顯著圖能更加有效準(zhǔn)確地表征圖像的顯著區(qū)域;3) 在進(jìn)行顯著圖濾波處理時(shí),需要根據(jù)艦船目標(biāo)的圖像特性進(jìn)一步完善各濾波器的參數(shù)設(shè)置。
參 考 文 獻(xiàn)
[1] MOREIRA A,PRATS-IRAOLA P,YOUNIS M,et al.A tutorial on synthetic aperture radar[J].IEEE Geoscience and Remote Sensing Magazine,2013,1(1):6-43.
[2] 鄧云凱,趙鳳軍,王宇.星載SAR技術(shù)的發(fā)展趨勢及應(yīng)用淺析[J].雷達(dá)學(xué)報(bào),2012,1(1):1-10.
[3] 邢相薇,計(jì)科峰,康利鴻,等.HRWS SAR圖像艦船目標(biāo)監(jiān)視技術(shù)研究綜述[J].雷達(dá)學(xué)報(bào),2015,4(1):107-121.
[4] ITTI L,KOCH C,NIEBUR E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998, 20(11):1254-1259.
[5] HOU X D,ZHANG L Q.Saliency detection:a spectral residual approach[C]//IEEE Conference on Computer Vision and Pattern Recognition,2007:1-8.
[6] GUO C L,MA Q,ZHANG L M.Spatio-temporal saliency detection using phase spectrum of quaternion Fourier transform[C]//IEEE Conference on Computer Vision and Pattern Recognition,2008:1-8.
[7] YU Y,WANG B,ZHANG L M.Pulse discrete cosine transform for saliency-based visual attention[C]//The 8th Conference on Development and Learning,2009:1-6.
[8] ITTI L,KOCH C,BRAUN J.Revisiting spatial vision:toward a unifying model[J].Journal of the Optical Society of America,2000,17(11):1899-1917.
[9] OLIVA A,TORRALBA A.Modeling the shape of the Scene:a holistic representation of the spatial envelope[J].International Journal of Computer Vision,2001,42(3):145-175.
[10] GAO D S,HAN S,VASCONCELOS N.Discriminant saliency,the detection of suspicious coincidences,and applications to visual recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(6):989-1005.
[11] 張志龍,楊衛(wèi)平,張焱,等.基于頻譜殘留變換的紅外遙感圖像艦船目標(biāo)檢測方法[J].電子與信息學(xué)報(bào),2015,37(9):2144-2150.
[12] ITTI L.Models of bottom-up and top-down visual attention[D].California:California Institute of Technology,2000.