張文杰,熊慶宇
(1.重慶大學(xué) 自動化學(xué)院,重慶400030;2.重慶大學(xué) 軟件學(xué)院,重慶401331)
視覺顯著性是神經(jīng)學(xué)、心理學(xué)、神經(jīng)系統(tǒng)和計(jì)算機(jī)視覺的一個(gè)基本問題[1]。視覺顯著性是視覺感知能力的體現(xiàn),它使被感知對象(或區(qū)域)更加突出地顯示出來。同時(shí)Gestalt原理指出:人類視覺一般只關(guān)注場景中的一個(gè)或幾個(gè)中心區(qū)域,而對于中心區(qū)域以外的背景區(qū)域關(guān)注程度較低。圖像顯著性檢測的主要任務(wù)是估計(jì)圖像中的這些中心區(qū)域,保證中心區(qū)域的顯著性高于背景區(qū)域的顯著性,其相關(guān)檢測技術(shù)在基于內(nèi)容的圖像檢索[2-3]、目標(biāo)識別[4]、圖 像 分 割[5]等 領(lǐng) 域 都 具 有 廣泛的研究及應(yīng)用價(jià)值。
圖像顯著性檢測方法可以歸結(jié)為基于任務(wù)驅(qū)動、自上向下的算法[6-7]和基于數(shù)據(jù)驅(qū)動、自下而上的方法[8-19]兩類。自上向下的方法重點(diǎn)研究特定某一類的顯著對象,其圖像的顯著特征需要一個(gè)較大規(guī)模且包含特定對象的數(shù)據(jù)集通過相關(guān)監(jiān)督式學(xué)習(xí)算法訓(xùn)練得到。而自下而上的顯著性檢測方法則主要依據(jù)底層的數(shù)據(jù)信息,不依據(jù)特定檢測任務(wù)自發(fā)提供視覺顯著性信息。本文關(guān)注的重點(diǎn)是自下而上圖像顯著性區(qū)域檢測。近年來,自下而上的顯著性研究得到了國內(nèi)外學(xué)者的關(guān)注。Itti等[8]提出了基于視覺注意機(jī)制的顯著性檢測算法。Ma等[9]基于對比度的模糊生長的方法進(jìn)行圖像顯著性分析。Harel等[10]提出基于圖的顯著性檢測算法,該算法在特征提取過程中使用了Itti算法的特征,并且引入馬爾可夫鏈計(jì)算顯著圖。而Hou 等[11]利用光譜余量檢測顯著性。這些算法研究的重點(diǎn)是圖像中的顯著點(diǎn),因此顯著圖中顯著對象比較模糊。后來,許多學(xué)者關(guān)注圖像中的顯著對象或區(qū)域。Achanta等[12]使用高斯差分方法提取全分辨率的顯著圖,這種方法簡單高效,但是不利于復(fù)雜背景下的顯著性對象檢測。Stas等[13]提出了上下文感知的顯著性檢測算法,檢測的顯著性對象邊緣特征比較明顯,并且一致性不高。文獻(xiàn)[14]在Stas算法[13]的基礎(chǔ)上提出一種隨機(jī)的視覺顯著性檢測算法,該算法具有較快的運(yùn)算速度。郭迎春等[15]提出一種基于顏色對比的顯著性區(qū)域檢測算法。文獻(xiàn)[16-17]提出一種聯(lián)合顯著性(Co-Saliency)檢測方法,檢測一個(gè)圖像集中的共同顯著性對象。Xie等[18]用貝葉斯框架提取圖像顯著區(qū)域,該算法重點(diǎn)關(guān)注檢測效果,并且得到了較好的檢測結(jié)果,算法的不足之處是顯著點(diǎn)不在顯著性對象周圍或分散在較大區(qū)域時(shí)檢測效果欠佳。Cheng 等[19]提出一種基于區(qū)域?qū)Ρ榷鹊姆椒ńY(jié)合區(qū)域顏色距離度量與空間距離度量檢測圖像的顯著性,算法效果較好,算法的局限性在于顯著性檢測過程僅利用了對比度特征,對背景復(fù)雜圖像檢測結(jié)果有待提高。
總體來說,目前圖像顯著性區(qū)域檢測研究取得了許多新成果,但是仍然值得進(jìn)一步研究,如:顯著區(qū)域不能被一致突出;顯著圖中顯著值較高的區(qū)域不在目標(biāo)區(qū)域,而是集中在變化劇烈的邊緣部分或復(fù)雜的背景區(qū)域等。本文從Cheng算法(RC11)[19]得到啟發(fā),依據(jù)顯著性檢測的先驗(yàn)知識,提出一種自下而上、數(shù)據(jù)驅(qū)動的圖像顯著性區(qū)域檢測算法。同時(shí)本文提出一種新的初始化GrabCut算法的方法,將本文得到的顯著圖應(yīng)用于圖像顯著分割,提取圖像中的顯著對象。
本節(jié)分析了影響圖像顯著性的兩個(gè)重要特征:對比度和空間位置,并利用這些先驗(yàn)顯著性特征構(gòu)造顯著性的對比度和位置特征函數(shù)。首先利用基于爬山算法的圖像分割方法[20-21]將圖像分割成不同的區(qū)域,并提取圖像的前景區(qū)域,然后構(gòu)造區(qū)域的對比度特征、空間位置特征函數(shù),同時(shí)考慮區(qū)域面積因素,計(jì)算顯著圖。本文算法流程如圖1所示。
圖1 本文算法流程圖Fig.1 Flow chart of the proposed method
在視覺注意過程中,往往是那些獨(dú)特性、不可預(yù)測性、稀缺性以及奇異性的對象被引起注意,其他對象以及背景被關(guān)注程度較低。本文算法首先考慮去除圖像背景區(qū)域干擾,然后在前景區(qū)域中檢測圖像的顯著區(qū)域(對象)?;诂F(xiàn)有視覺顯著性的研究[22-25],顯著性區(qū)域出現(xiàn)在圖像邊界上的可能性較小。在本文中,利用這一性質(zhì),考慮將與圖像4個(gè)邊界接觸面積最大的區(qū)域設(shè)定為背景區(qū)域,在圖像的前景區(qū)域中利用區(qū)域?qū)Ρ榷?、位置特征?jì)算顯著對象,減少背景對檢測結(jié)果的影響。
對于一幅圖像,人們會更加關(guān)注與周圍物體的對比度差異非常大的區(qū)域[19,26]。此外,區(qū)域空間關(guān)系在人類視覺注意方面也起很大作用;相鄰區(qū)域的高對比度比相距較遠(yuǎn)區(qū)域的高對比度更容易導(dǎo)致一個(gè)區(qū)域引起視覺的注意[19]。對比度較好地反映了視覺顯著性對新異對象的刺激。本文從文獻(xiàn)[19]基于區(qū)域?qū)Ρ榷确椒ǖ玫絾l(fā),但與文獻(xiàn)[19]的方法不同,本文計(jì)算圖像對比度時(shí)忽略背景區(qū)域的對比度干擾,構(gòu)造圖像區(qū)域?qū)Ρ榷忍卣骱瘮?shù)衡量區(qū)域空間距離、顏色距離在檢測顯著性區(qū)域時(shí)的貢獻(xiàn)。具體而言,在計(jì)算兩個(gè)區(qū)域的對比度時(shí),本文使用區(qū)域空間距離作為區(qū)域?qū)Ρ榷葯?quán)重,結(jié)合區(qū)域顏色距離特征構(gòu)造圖像區(qū)域?qū)Ρ榷忍卣骱瘮?shù)Ck,使相距較遠(yuǎn)的區(qū)域?qū)D像對比度貢獻(xiàn)較小,相距較近的區(qū)域貢獻(xiàn)大,其公式如下:
式中:rk、rm分別為圖像中的第k個(gè)區(qū)域和第m 個(gè)區(qū)域;Ck為第k 個(gè)區(qū)域rk的對比度特征函數(shù);Dr(rk,rm)為rk與rm的對比度;dr(rk,rm)為rk與rm之間的歐氏距離,本文使用區(qū)域的質(zhì)心計(jì)算區(qū)域之間的距離;rk(i)、rm(j)分別為區(qū)域rk、rm在RGB顏色空間的顏色向量;nk、nm分別為rk、rm中所包含的顏色總數(shù);n為圖像區(qū)域的總數(shù);pk(i)為在圖像區(qū)域rk中rk(i)出現(xiàn)的概率;pm(j)為在圖像區(qū)域rm中rm(j)出現(xiàn)的概率。
基于區(qū)域?qū)Ρ榷忍卣鞯娘@著性檢測結(jié)果如圖2(b)列所示?;趨^(qū)域?qū)Ρ榷鹊娘@著性檢測優(yōu)點(diǎn)是對于對比度特征突出的圖像能較好地提取顯著性對象,如圖2(b)第一幅圖像花的對比度較突出,可以利用對比度特征提取顯著對象;但是基于對比度的方法在前景區(qū)域提取顯著性對象時(shí)也會存在一些不足,例如圖2(b)第二幅圖像中前景區(qū)域間的對比度特征差別并不明顯,很難分辨人與樹哪個(gè)對象顯著性更高。因此,融合多個(gè)圖像特征提高算法顯著性檢測能力成為一種行之有效的方法。
圖2 基于區(qū)域?qū)Ρ榷扰c空間位置特征的顯著圖Fig.2 Saliency map based on the trait of regional contrast and spatial position
回顧人類視覺注意機(jī)制,人類往往轉(zhuǎn)動視角將感興趣的對象集中在視角中心[27]。同樣,在圖像采集過程中,人們通常將引起注意的對象聚焦在圖像中心。本文將圖像區(qū)域位置信息引入到顯著性檢測過程。具體而言,利用區(qū)域與圖像中心的距離關(guān)系構(gòu)造空間位置特征函數(shù),使距圖像中心近的區(qū)域顯著性高,距中心較遠(yuǎn)的區(qū)域顯著性低。歸一化的圖像區(qū)域的位置特征函數(shù)定義如下:
式中:Pi為第i 個(gè)區(qū)域ri的位置特征函數(shù),Pi∈[0,1];(xi,yi)為第i個(gè)區(qū)域的質(zhì)心坐標(biāo);h、w 分別為整幅圖像的高度和寬度。
依據(jù)位置特征得到的圖像顯著圖如圖2(c)列所示。由圖2(c)可見,本文構(gòu)造的位置特征函數(shù)在檢測圖像顯著性時(shí)發(fā)揮了較好的作用。但是,圖像中區(qū)域的顯著性與區(qū)域?qū)Ρ榷?、位置等因素有關(guān),僅將該特征用于顯著性檢測存在不足,圖2(c)第一幅圖使用花的位置特征檢測顯著區(qū)域就是一個(gè)失敗的例子。
視覺焦點(diǎn)的深度搜索原理[28]是視點(diǎn)首先被一個(gè)較大的區(qū)域吸引。對象區(qū)域的大小也會影響底層的視覺刺激,因此,本文也將圖像區(qū)域面積作為影響圖像顯著性的因素,定義顯著性的權(quán)重參數(shù)Wi:
式中:Ri為第i個(gè)區(qū)域的面積。
本文在進(jìn)行顯著性檢測時(shí),考慮了區(qū)域?qū)Ρ榷取⒖臻g位置、圖像區(qū)域面積等因素,但在不同的圖像場景中往往是這些因素中的一個(gè)或幾個(gè)因素起到主導(dǎo)作用,例如在圖2(a)列中,第一副圖像中花的對比度占主導(dǎo)作用;而第二幅圖像人所在區(qū)域空間位置起到關(guān)鍵作用。如何結(jié)合各種因素是建立適當(dāng)?shù)娘@著性檢測模型的關(guān)鍵。本文融合上述特征構(gòu)建顯著性檢測模型,首先將上述區(qū)域?qū)Ρ榷忍卣?、空間位置特征以及面積因素相乘檢測圖像的顯著性,即:
該方法實(shí)驗(yàn)結(jié)果較好,但是對比度特征沒有較好發(fā)揮作用,圖2(c)為一例檢測失敗的例子。對此,本文對該顯著性檢測模型改進(jìn),提出對比度加權(quán)的圖像區(qū)域顯著性檢測算法,其公式如下:
式中:λ為圖像區(qū)域?qū)Ρ榷仍鰪?qiáng)系數(shù),實(shí)驗(yàn)結(jié)果表明,λ=1.6時(shí)能夠得到較好的實(shí)驗(yàn)結(jié)果。
對比度加權(quán)檢測結(jié)果如圖3(d)列所示,能夠較好地反映區(qū)域?qū)Ρ榷?、空間位置、區(qū)域面積在顯著性檢測時(shí)的作用。同時(shí),該方法也可以較好地排除背景及非顯著區(qū)域干擾,獲得較為干凈的背景,從而突出顯著性對象。
圖3 對比度未加權(quán)方法檢測失敗示例Fig.3 Failure example for the proposed method based on unweighted contrast
實(shí)驗(yàn)給出了基于本文區(qū)域?qū)Ρ榷忍卣?,本文算法對比度未加?quán)以及對比度加權(quán)的檢測結(jié)果比較,同時(shí)還比較了其他7 種被引用較多的算法(IT98[8],HA06[10],AC09[12],RC11[19](基于區(qū)域?qū)?比 度),HC11[19](基 于 直 方 圖),RA10[29],LC06[30])與本文算法的實(shí)驗(yàn)結(jié)果。
本文采用Achanta等[12]提供的公開測試集MSRA-1000驗(yàn)證算法的性能。該數(shù)據(jù)集包含1000幅圖片,并且提供人工標(biāo)注的精確顯著圖(Ground truth,GT)。
本文通過PR(Precision-recall)曲線評估算法的性能。PR 曲線由準(zhǔn)確率Pr 和召回率Re 構(gòu)成:
式中:Sd為算法檢測結(jié)果中的顯著對象的面積;Sg為人工標(biāo)記的顯著對象面積。
實(shí)驗(yàn)1 圖像區(qū)域?qū)Ρ榷仍鰪?qiáng)系數(shù)λ 對實(shí)驗(yàn)結(jié)果的影響如圖4所示。本文選用準(zhǔn)確率與召回率的調(diào)和平均數(shù)Fβ為測試λ 變化時(shí)對實(shí)驗(yàn)結(jié)果的影響。Fβ的計(jì)算公式如下:
在計(jì)算準(zhǔn)確率和召回率時(shí),本實(shí)驗(yàn)將閾值設(shè)定為TH:
式中:M 為圖像像素總數(shù)。
取系數(shù)β2=0.3,使得正確率的權(quán)重高于召回率。Fβ-λ 曲線變化趨勢如圖4所示。當(dāng)λ=1.6時(shí),F(xiàn)β取得最大值,對比度加權(quán)算法得到的檢測結(jié)果最佳;當(dāng)λ>7時(shí),λ的變化對算法結(jié)果影響較小。
圖4 Fβ-λ 曲線Fig.4 Curve of Fβ-λ
圖5 PR 曲線Fig.5 PR curves
實(shí)驗(yàn)2 比較了基于本文對比度特征(Based contrast)的顯著性檢測結(jié)果、本文算法對比度未加權(quán)(Ours with unweighted contrast)時(shí)的檢測結(jié)果以及加權(quán)后(Ours)的結(jié)果。PR 曲線如圖5所示。由圖5可知:采用多特征融合的方法,對比度未加權(quán)方法檢測效果較基于對比度的方法提高了算法的準(zhǔn)確率。同時(shí),當(dāng)對比度加權(quán)與未加權(quán)方法比較時(shí),由于對比度加權(quán)原因,在召回率大于0.83時(shí)加權(quán)算法較未加權(quán)方法準(zhǔn)確率低,但兩者誤差較小。從算法整體分析,對比度加權(quán)方法整體表現(xiàn)較好。
實(shí)驗(yàn)3 比較了目前被引用較多的幾種算法與本文算法的檢測結(jié)果,同時(shí)給出了基于本文對比度特征的顯著圖(RC_ours),實(shí)驗(yàn)結(jié)果如圖6所示。與RC11相比,本文算法不同之處在于:①本文不僅構(gòu)建區(qū)域?qū)Ρ榷忍卣骱瘮?shù),同時(shí)將空間位置特征引入顯著性檢測模型;②本文算法首先去除圖像背景區(qū)域的干擾,在前景區(qū)域內(nèi)檢測顯著對象,減小了背景區(qū)域?qū)z測結(jié)果的影響,增強(qiáng)了對復(fù)雜圖像的顯著性檢測能力。本文算法對較復(fù)雜背景的圖像檢測效果較RC11 算法有所提高,結(jié)果如圖6(e)和圖6(g)所示。由于忽略了背景信息,本文基于前景區(qū)域?qū)Ρ榷鹊娘@著性檢測方法會出現(xiàn)較RC11算法不理想的檢測結(jié)果(見圖6(f)列第二幅顯著圖),但本文算法融合區(qū)域位置信息以及區(qū)域面積可以彌補(bǔ)這一不足,使本文算法能較好地抑制圖像非顯著性區(qū)域,得到背景干擾較少的顯著圖,如圖6(g)列第二幅顯著圖所示。同時(shí),正如圖6(e)(g)列第一幅顯著圖所示,本文算法對背景較復(fù)雜的圖像的檢測結(jié)果較RC11算法有改進(jìn),在檢測顯著對象時(shí)對背景區(qū)域及非顯著性對象的顯著性有較強(qiáng)抑制,能較好地突出顯著對象。IT98與HA06算法檢測的重點(diǎn)是圖像中的顯著點(diǎn),因此顯著圖中的顯著對象較模糊。
圖6 幾種顯著性檢測算法檢測結(jié)果比較Fig.6 Visual comparison of previous approaches to our method
圖7 不同算法的PR 曲線比較Fig.7 Comparison of the PR for different algorithms
實(shí)驗(yàn)4 算法PR 曲線比較。在顯著性檢測中,PR 曲線能較好地反映算法的優(yōu)劣[1,6,12,18-19,29]。圖7 給 出 了 不 同 算 法 的PR 曲線。由圖7可知:與RC11相比,由于忽略了背景信息,本文未加權(quán)的檢測方法僅當(dāng)召回率在[0.6,0.9]之間變化時(shí)算法準(zhǔn)確率較佳。而本文對比度加權(quán)算法與RC11相比較,在召回率小于0.87時(shí)有較好的準(zhǔn)確率;當(dāng)召回率大于0.87時(shí),因?qū)Ρ榷燃訖?quán)、忽略背景區(qū)域?qū)Ρ榷鹊仍?,?dǎo)致準(zhǔn)確率較RC11算法相比性能下降,但對于背景較復(fù)雜的圖像本文檢測算法改進(jìn)效果明顯。
本文將提取的顯著圖應(yīng)用于顯著分割。目前,該領(lǐng)域研究中基于自下而上的顯著區(qū)域分割主要有:Ma等[9]通過模糊區(qū)域增長方法在顯著圖中找到矩形的顯著區(qū)域。Achanta等[29]使用顯著圖為Graph Cuts算法提供前景與背景區(qū)域,自動分割顯著對象。Han等[31]用顏色、紋理和邊緣特征構(gòu)建馬爾科夫隨機(jī)場模型,使用顯著圖的種子值來增長顯著性對象區(qū)域。Cheng 等[19]使用召回率為95%時(shí)的閾值二值化顯著圖為GrabCut提供初始化模板,分割顯著性區(qū)域。
本文通過統(tǒng)計(jì)顯著圖的直方圖分布,利用雙閾值方法初始化GrabCut[32]模板,改善顯著對象分割效果。GrabCut[32]算法綜合利用紋理及邊界兩種信息,通過高斯混合模型和Graph Cuts[33]進(jìn)行迭代分割圖像,需要人工交互操作選取矩形區(qū)域進(jìn)行初始化。本文依據(jù)顯著圖對GrabCut初始化,避免了人工交互操作,可自動分割圖像顯著對象。由于顯著圖中顯著值的大小反映了圖像對應(yīng)位置的顯著性:顯著值越大,其顯著性就越高,因此,本文在初始化模板時(shí)為克服文獻(xiàn)[19]使用單個(gè)閾值的不足,使用直方圖統(tǒng)計(jì)顯著圖中顯著值的分布,得到顯著直方圖,設(shè)置不同閾值將顯著圖標(biāo)記為顯著區(qū)域、可能的顯著區(qū)域、可能的非顯著區(qū)域來初始化GrabCut。具體而言,在初始化過程中,本文設(shè)定閾值Th1標(biāo)記直方圖中顯著值最大的區(qū)域?yàn)轱@著性區(qū)域。同時(shí),為了使提取的顯著對象較為精確,本文將大于顯著圖均值Th2小于閾值Th1的顯著區(qū)域初始化為可能的顯著性區(qū)域,把小于顯著均值的部分初始化為可能的非顯著性區(qū)域。閾值的選取如圖8所示。定義初始化函數(shù)為:
式中:1表示顯著性區(qū)域,2表示可能的非顯著性區(qū)域,3表示可能的顯著性區(qū)域;Smap(x,y)為圖像顯著圖。
為了保證較好地標(biāo)簽顯著性區(qū)域,本文將Th1設(shè)定為最大的極小值,確保顯著值的最大區(qū)域?yàn)轱@著對象。如圖8所示,初始化顯著性區(qū)域?yàn)椋跿h1,256]。其中Th1描述如下:設(shè)L1為直方圖極大值點(diǎn)對應(yīng)的顯著值ai的集合,ai∈L1,i=1,…,l1(l1為極大值點(diǎn)個(gè)數(shù));L2為直方圖極小值對應(yīng)的顯著值bj的集合,bj∈L2,j=1,…,l2(l2為極小值點(diǎn)的數(shù)量)。則Th1需滿足如下條件:Th2<Th1<A,對?j,有Th1≥bj,且Th1∈L2。其中,A =max{ai}為集合L1中的最大值。圖8中hist表示對應(yīng)Smap(x,y)的統(tǒng)計(jì)結(jié)果。
圖8 閾值選取示意圖Fig.8 Schematic diagram for threshold selection
初始化之后,本文迭代運(yùn)行GrabCut來優(yōu)化顯著性分割結(jié)果(在實(shí)驗(yàn)中最多迭代兩次),圖9(b)列給出了RC11算法的分割結(jié)果,圖9(c)列給出了本文提出的新的初始化方法的分割結(jié)果。
圖9 顯著性分割Fig.9 Saliency segmentation
提出了一種基于對比度、空間位置特征的自下而上、數(shù)據(jù)驅(qū)動的顯著性區(qū)域檢測方法。在進(jìn)行顯著性檢測的過程中,本文提取圖像前景區(qū)域,構(gòu)造的對比度特征函數(shù)能較好地計(jì)算出不同前景區(qū)域?qū)Ρ榷葘D像顯著性的貢獻(xiàn),結(jié)合圖像的空間位置特征函數(shù)和區(qū)域面積能較好地檢測區(qū)域顯著性。同時(shí),本文提出一種新的初始化GrabCut算法的方法分割顯著對象,并得到了較好的結(jié)果??傮w而言,本文提出的算法簡單,且進(jìn)一步提高了顯著性區(qū)域檢測結(jié)果。由于本文方法采用對比度加權(quán)以及忽略背景信息,導(dǎo)致了召回率大于0.9時(shí)檢測精度不夠理想,但對于較復(fù)雜圖像的檢測,本文算法有了較大改進(jìn)。因此,本文算法是一種有效的顯著性檢測算法。在將來的研究工作中,將會考慮結(jié)合其他圖像顯著性特征,合理整合圖像對比度及背景信息,進(jìn)一步改善算法的檢測結(jié)果。
[1]Jiang H,Wang J,Yuan Z,et al.Salient object detection:a discriminative regional feature integration approach[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Portland,2013:2083-2090.
[2]Jian M W,Dong J Y,Ma J.Image retrieval using wavelet-based salient regions[J].Imaging Science Journal,2011,59(4):219-231.
[3]李勇,陳賀新,耿曉東,等.基于目標(biāo)區(qū)域定位和特征融合的圖像檢索算法[J].吉林大學(xué)學(xué)報(bào):工學(xué)版,2008(增刊2):217-220.Li Yong,Chen He-xin,Geng Xiao-dong,et al.Image retrieval algorithm based on object region location and feature fusion[J].Journal of Jilin University(Engineering and Technology Edition),2008(Sup.2):217-220.
[4]Rutishauser U,Walther D,Koch C,et al.Is bottom-up attention useful for object recognition?[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,Washington,2004:37-44.
[5]Ko B C,Nam J.Object-of-interest image segmentation based on human attention and semantic region clustering[J].JOSA A,2006,23(10):2462-2470.
[6]Yang J,Yang M H.Top-down visual saliency via joint crf and dictionary learning[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Providence,2012:2296-2303.
[7]Liu T,Yuan Z,Sun J,et al.Learning to detect a salient object[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(2):353-367.
[8]Itti L,Koch C,Niebur E.A model of saliencybased visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.
[9]Ma Y F,Zhang H J.Contrast-based image attention analysis by using fuzzy growing[C]∥Proceedings of the Eleventh ACM International Conference on Multimedia.ACM,New York,2003:374-381.
[10]Harel J,Koch C,Perona P.Graph-based visual saliency[C]∥Advances in Neural Information Processing System,Vancouver,Canada,2007:545-552.
[11]Hou X,Zhang L.Saliency detection:A spectral residual approach[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Minneapolis,2007:1-8.
[12]Achanta R,Hemami S,Estrada F,et al.Frequency-tuned salient region detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Miami,2009:1597-1604.
[13]Stas Goferman,Lihi Zelnik-Manor,Ayellet Tal.Context-aware saliency detection[J].IEEE Trans Pattern Anal Mach Intell,2012,34(10):1915-1926.
[14]黃志勇,何發(fā)智,蔡賢濤,等.一種隨機(jī)的視覺顯著性檢測算法[J].中國科學(xué):信息 科學(xué),2011,41(7):863-874.Huang Zhi-yong,He Fa-zhi,Cai Xian-tao,et al.Efficient random saliency map detection[J].Science China Information Sciences,2011,41(7):863-874.
[15]郭迎春,袁浩杰,吳鵬.基于Local特征和Regional特征的圖像顯著性檢測[J].自動化學(xué)報(bào),2013,39(8):1214-1224.Guo Ying-Chun,Yuan Hao-Jie,WU Peng.Image saliency detection based on local and regional features[J].Acta Automation Sinica,2013,39(8):1214-1224.
[16]Liu Z,Zou W,Li L,et al.Co-Saliency detection based on hierarchical segmentation[J].IEEE Signal Processing Letters,2014,21(1):88-92.
[17]Fu H,Cao X,Tu Z.Cluster-based co-saliency detection[J].IEEE Transactions on Image Processing:a Publication of the IEEE Signal Processing Society,2013,22(10):3766-3778.
[18]Xie Y,Lu H,Yang M.Bayesian saliency via low and mid level cues[J].Transactions on Image Processing,2013,22(5):1689-1698.
[19]Cheng M M,Zhang G X,Mitra N J,et al.Global contrast based salient region detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Colorado Springs,2011:409-416.
[20]Achanta R,Estrada F,Wils P,et al.Salient region detection and segmentation[C]∥6th International Conference on Computer Vision System,Santorini,Greece,2008:66-75.
[21]Ohashi T,Aghbari Z,Makinouchi A.Hill-climbing algorithm for efficient color-based image segmentation[C]∥IASTED International Conference on Signal Processing,Pattern Recognition,and Applications,Rhodes,2003:17-22.
[22]Li X,Lu H,Zhang L,et al.Saliency detection via dense and sparse reconstruction[C]∥IEEE International Conference on Computer Vision(ICCV),Sydney,2013:2976-2983.
[23]Yang C,Zhang L,Lu H,et al.Saliency detection via graph-based manifold ranking[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Portland,2013:3166-3173.
[24]Lempitsky V,Kohli P,Rother C,et al.Image segmentation with a bounding box prior[C]∥IEEE International Conference on Computer Vision(ICCV),Kyoto,2009:277-284.
[25]Grady L,Jolly M P,Seitz A.Segmentation from a box[C]∥IEEE International Conference on Computer Vision(ICCV),Barcelona,2011:367-374.
[26]Einh?user W,K?nig P.Does luminance-contrast contribute to a saliency map for overt visual attention?[J].European Journal of Neuroscience,2003,17(5):1089-1097.
[27]Judd T,Ehinger K,Durand F,et al.Learning to predict where humans look[C]∥IEEE 12th International Conference on Computer Vision,Kyoto,2009:2106-2113.
[28]李茜.圖像的顯著性特征提?。跠].上海:上海大學(xué)通信與信息工程學(xué)院,2008.Li Qian.Saliency image feature extraction[D].Shanghai:School of Communication and Information Engineering,Shanghai University,2008.
[29]Achanta R,Susstrunk S.Saliency detection using maximum symmetric surround[C]∥the 17th IEEE International Conference on Image Processing(ICIP),Hong Kong,2010:2653-2656.
[30]Zhai Y,Shah M.Visual attention detection in video sequences using spatiotemporal cues[C]∥Proceedings of the 14th Annual ACM International Conference on Multimedia.ACM,New York,2006:815-824.
[31]Han J,Ngan K N,Li M,et al.Unsupervised extraction of visual attention objects in color images[J].IEEE Transactions on Circuits and Systems for Video Technology,2006,16(1):141-145.
[32]Rother C,Kolmogorov V,Blake A.Grabcut:interactive foreground extraction using iterated graph cuts[C]∥ACM Transactions on Graphics(TOG),ACM,New York,2004:309-314.
[33]Boykov Y Y,Jolly M P.Interactive graph cuts for optimal boundary &region segmentation of objects in ND images[C]∥Proceedings of the Eighth IEEE International Conference on Computer Vision,Vancouver,2001:105-112.