張愛華,王 帆,陳海燕
(1. 蘭州理工大學(xué)電氣工程與信息工程學(xué)院,蘭州 730050;2. 蘭州理工大學(xué)計(jì)算機(jī)與通信學(xué)院,蘭州 730050;3. 蘭州理工大學(xué)甘肅省工業(yè)過程先進(jìn)控制重點(diǎn)實(shí)驗(yàn)室,蘭州 730050;4. 蘭州理工大學(xué)電氣與控制工程國家級(jí)實(shí)驗(yàn)教學(xué)示范中心,蘭州 730050)
高原鼠兔作為青藏高原草原區(qū)的優(yōu)勢(shì)鼠種,其強(qiáng)大的采食能力導(dǎo)致植被稀疏,嚴(yán)重影響了高寒草甸生境環(huán)境的穩(wěn)定性[1]。為防治高原鼠兔的危害,首先需對(duì)高原鼠兔數(shù)量及危害程度等進(jìn)行調(diào)查研究。傳統(tǒng)的調(diào)查研究方法如夾日法、單公頃樣方法、洞口數(shù)量統(tǒng)計(jì)法等效率低,效果差,不適合長期對(duì)高原鼠兔數(shù)量進(jìn)行監(jiān)測(cè)[2]。隨著科技的發(fā)展,可以借助智能監(jiān)測(cè)系統(tǒng)來對(duì)高原鼠兔進(jìn)行長期、連續(xù)的監(jiān)測(cè),不僅節(jié)省大量的人力,而且避免了傳統(tǒng)監(jiān)測(cè)方法對(duì)目標(biāo)行為的影響[3]。同時(shí),智能監(jiān)測(cè)設(shè)備所獲取的鼠兔行為信息及數(shù)量信息可為鼠害的防治工作提供指導(dǎo)及借鑒意義。
高原鼠兔運(yùn)動(dòng)目標(biāo)檢測(cè)可獲得鼠兔輪廓,精確的輪廓特征是鼠兔行為分析的重要依據(jù),故運(yùn)動(dòng)目標(biāo)檢測(cè)是高原鼠兔智能監(jiān)測(cè)系統(tǒng)的重要組成部分。而高原鼠兔運(yùn)動(dòng)的突變性、自然背景的復(fù)雜性以及高原鼠兔毛色呈保護(hù)色等因素[4]使得該項(xiàng)工作變得十分復(fù)雜。傳統(tǒng)的運(yùn)動(dòng)目標(biāo)檢測(cè)方法難以直接獲取精確的目標(biāo)區(qū)域[5],不利于后續(xù)高原鼠兔行為分析等工作。選用合適的運(yùn)動(dòng)目標(biāo)檢測(cè)方法精確檢測(cè)鼠兔輪廓、區(qū)域等信息,可為后續(xù)鼠兔行為分析工作奠定基礎(chǔ)。
運(yùn)動(dòng)目標(biāo)檢測(cè)方法種類較多,常見的有幀差法[6]、背景建模法[7]、光流法[8]等。幀差法檢測(cè)效率高,不易受光照變化影響,但檢測(cè)結(jié)果會(huì)產(chǎn)生空洞問題[9],對(duì)運(yùn)動(dòng)較慢及靜止目標(biāo)的圖像序列容易產(chǎn)生漏檢[10],且無法精確提取出目標(biāo)輪廓。文獻(xiàn)[11]提出一種改進(jìn)三幀幀差法,該法可克服傳統(tǒng)幀差法的“拖影”和“空洞”問題,但在對(duì)低對(duì)比度圖像序列處理時(shí),仍難以獲取完整的目標(biāo)區(qū)域。背景建模法則通過高斯函數(shù)對(duì)圖像每個(gè)像素建立背景模型。1997年,Azarbayejani等[7]通過單高斯背景建模法完成對(duì)視頻中人體的跟蹤;借鑒該思路,Stauffer等[12]用混合高斯函數(shù)對(duì)背景建模,混合高斯背景建模法對(duì)視頻背景中的周期運(yùn)動(dòng)及輕微干擾具有較強(qiáng)的魯棒性,但由于該法計(jì)算量過大,且對(duì)低對(duì)比度的圖像序列處理效果一般,因此無法實(shí)時(shí)且精確地獲取鼠兔輪廓信息。光流法[13]利用視頻序列圖像中每個(gè)像素的矢量特征來檢測(cè)運(yùn)動(dòng)目標(biāo)區(qū)域,因此在攝像機(jī)運(yùn)動(dòng)的前提下仍能檢測(cè)目標(biāo),但光流計(jì)算方法復(fù)雜且抗噪性能差[14],故該法不適合對(duì)復(fù)雜背景下弱小目標(biāo)的跟蹤。綜上,傳統(tǒng)目標(biāo)檢測(cè)方法難以獲取理想的目標(biāo)輪廓。為精確提取目標(biāo)輪廓,基于時(shí)空域聯(lián)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法不斷被提出,該法將時(shí)域檢測(cè)方法與水平集圖像分割方法結(jié)合。水平集圖像分割方法通過求取能量泛函最小值來控制演化曲線活動(dòng),最終演化曲線將目標(biāo)包圍起來,實(shí)現(xiàn)對(duì)圖像的分割。水平集方法具有以下特點(diǎn):1)模型分割結(jié)果為亞像素精度;2)活動(dòng)輪廓模型可在成熟的數(shù)學(xué)理論框架下實(shí)現(xiàn),并允許在能量泛函中加入目標(biāo)形狀等先驗(yàn)知識(shí);3)活動(dòng)輪廓模型可提供平滑且閉合的曲線作為分割結(jié)果,為后續(xù)的形狀分析和分類等工作提供便利[15]。徐楊等[16]利用高斯粒子濾波獲得初始輪廓,然后用加入距離規(guī)則化項(xiàng)[17]的測(cè)地線活動(dòng)輪廓模型[18]分割序列圖像;胡祝華等[19]將規(guī)則化項(xiàng)[17]加入到活動(dòng)輪廓模型中,并與幀間差分法相結(jié)合,實(shí)現(xiàn)對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)。由于上述 2種方法的分割模型中均引入規(guī)則化項(xiàng),故圖像分割過程中無需初始化水平集函數(shù),分割速率得到提高,但分割模型均依賴于圖像邊緣梯度,對(duì)弱邊緣圖像適應(yīng)性較差。胡士亞[5]提出幀差法與改進(jìn)LBF(local binary fitting,LBF)模型[20]相結(jié)合的時(shí)空域圖像序列分割方法分割高原鼠兔圖像序列。該方法對(duì)灰度不均圖像序列分割精度高,但對(duì)目標(biāo)包含多色彩圖像序列的運(yùn)動(dòng)目標(biāo)檢測(cè),適應(yīng)性稍差。
高原鼠兔圖像邊緣弱,且目標(biāo)區(qū)域包含多色彩。針對(duì)傳統(tǒng)運(yùn)動(dòng)目標(biāo)檢測(cè)方法無法精確提取目標(biāo)輪廓的問題,提出了時(shí)空域聯(lián)合信息的高原鼠兔目標(biāo)檢測(cè)方法。通過背景減法獲得目標(biāo)位置后,根據(jù)先驗(yàn)知識(shí)對(duì)圖像進(jìn)行粗分割,去除圖像中的大部分背景信息,然后用改進(jìn)CV模型[21]對(duì)粗分割圖像進(jìn)行精確分割,實(shí)現(xiàn)對(duì)目標(biāo)包含多色彩圖像序列的運(yùn)動(dòng)目標(biāo)檢測(cè),從而精確提取目標(biāo)的輪廓信息。
背景減法用當(dāng)前幀圖像減背景幀圖像獲得目標(biāo)位置。該方法易于實(shí)現(xiàn)且實(shí)時(shí)性高。背景減法的背景幀圖像由式(1)可得:
式中 fd(x,y,t)為更新后的背景幀圖像,f(x,y,t)為當(dāng)前幀圖像,fd(x,y,0)為初始背景幀圖像,m、n分別為圖像的寬度和高度。當(dāng)前幀與初始背景幀做差后,對(duì)差值圖像像素求平均,并加到初始背景幀圖像中,從而提高背景幀對(duì)光照變化的適應(yīng)性,獲取更新后的背景幀圖像。
獲得更新的背景幀后,即可實(shí)現(xiàn)背景減法,具體如式(2)、式(3)所示。
當(dāng)前幀圖像減去更新背景幀圖像后,獲得差分圖像D(x,y,t),在差分圖像中,由于目標(biāo)與背景信息不同,故目標(biāo)所在位置處,差分圖像像素絕對(duì)值較大,通過式(3)后,可獲得二值圖像 B(x,y,t)。由于自然背景下的圖像目標(biāo)有陰影,本文根據(jù)陰影在某區(qū)域內(nèi),該處灰度值比有遮擋后此處的灰度值高的特性,建立式(3)。在式(3)中,僅提取 D(x,y,t)≥T的區(qū)域作為目標(biāo)區(qū)域,從而抑制陰影對(duì)目標(biāo)區(qū)域獲取的影響。
同時(shí),為提高閾值 T對(duì)光照及其他因素變化的適應(yīng)能力,本文借鑒文獻(xiàn)[5]的方法更新T值:
通過差分圖像D(x,y,t)像素的均值及標(biāo)準(zhǔn)差獲取閾值T。式(6)中,η為微調(diào)參數(shù),該參數(shù)取值與環(huán)境的惡劣程度呈正相關(guān),以提高閾值對(duì)圖像背景細(xì)節(jié)的過濾能力;與目標(biāo)提取的完整性呈負(fù)相關(guān),閾值取值過高易遺漏部分目標(biāo)區(qū)域信息。本文將η設(shè)置為1,在此條件下,既可濾除大部分背景干擾,又能保證目標(biāo)區(qū)域的完整性。將T帶入式(3)后,即可得到目標(biāo)區(qū)域。
在實(shí)際情況下,由于自然環(huán)境的復(fù)雜及不可控性,圖像序列中的背景存在輕微變動(dòng),二值化后的差分圖像受到背景的擾動(dòng),存在多個(gè)非連通的潛在目標(biāo)區(qū)域(文中設(shè)定潛在目標(biāo)區(qū)域像素值為 1)。本文通過形態(tài)學(xué)開運(yùn)算去除背景擾動(dòng)產(chǎn)生的影響,獲得真實(shí)目標(biāo)區(qū)域,可得二值圖像 B′(x,y,t),計(jì)算真實(shí)目標(biāo)區(qū)域的形心(x,y)作為目標(biāo)定位的基本信息。
得到真實(shí)目標(biāo)區(qū)域的形心點(diǎn)后,即獲取了目標(biāo)在圖像中的位置信息,在獲取目標(biāo)位置的基礎(chǔ)上,本文采用改進(jìn)CV模型[21]對(duì)粗分割圖像進(jìn)行精確分割。
CV模型[22]是基于水平集函數(shù)的圖像分割模型。通常,該方法需手動(dòng)設(shè)定初始輪廓,且需實(shí)時(shí)更新水平集函數(shù)[23]。而利用時(shí)域信息得到目標(biāo)區(qū)域后,可根據(jù)先驗(yàn)知識(shí)獲取初始輪廓信息及粗分割圖像,從而避免手動(dòng)設(shè)定初始輪廓問題,且降低空域處理過程中水平集初始化的計(jì)算量[24]。
高原鼠兔圖像具有目標(biāo)與背景對(duì)比度低,目標(biāo)包含多色彩且色彩具有突變性的特點(diǎn)。而CV模型內(nèi)部擬合值單一,無法完整、準(zhǔn)確描述目標(biāo)區(qū)域信息,本文利用改進(jìn)CV模型獲取高原鼠兔輪廓。改進(jìn)CV模型內(nèi)部擬合取值豐富,且可準(zhǔn)確擬合目標(biāo)區(qū)域信息。改進(jìn)CV模型能量泛函如下式中 u0(x,y)為圖像灰度信息;C為演化曲線;outside(C)和 inside(C)分別為演化曲線外部區(qū)域和內(nèi)部區(qū)域;μ、λ1和 λ2為常數(shù);c1和 c2i(x,y)分別代表圖像演化曲線外部和內(nèi)部的擬合值;L(C)為長度項(xiàng),起到平滑演化曲線的作用。當(dāng)式(9)能量泛函為最小值時(shí),圖像分割結(jié)束。
式中Ki表示對(duì)初始輪廓內(nèi)像素進(jìn)行K均值聚類[25](K-means clustering)后,第i簇聚類中心點(diǎn)值(i=1、2……K,K為總聚類類別數(shù),K值不宜過大或過小,以免發(fā)生過擬合或欠擬合), a ve(u0)表示經(jīng)過均值濾波[26]后的圖像灰度信息,α(0<α<1)為權(quán)值。實(shí)際應(yīng)用中,若位于輪廓內(nèi)部(x,y)位置處像素值與第i簇聚類中心點(diǎn)值差值最小,則利用第i簇聚類中心點(diǎn)構(gòu)造該像素內(nèi)部擬合值。由式(10)可知,改進(jìn)模型的內(nèi)部擬合值不僅可以較為完整地表示圖像內(nèi)部像素值,而且該擬合值具有局部特性,可提高模型對(duì)目標(biāo)包含多色彩圖像的分割精度。
式(9)引入水平集函數(shù)后,通過求解能量泛函對(duì)應(yīng)的Euler-Lagrange方程,得水平集演化方程
式中 div為散度算子,為演化曲線曲率。是全局函數(shù),使用全局脈沖函數(shù)易把圖像背景中的干擾物分割為前景,式(11)中用δ1(φ)代替δε(φ)。δ1(φ)可將水平集演化方程的計(jì)算限定在零水平集附近,從而避免了背景干擾物對(duì)分割結(jié)果的影響,δ1(φ)定義式如下
式中1nφ+為迭代n+1次水平集更新方程后的水平集函數(shù),nφ為迭代n次水平集更新方程后的水平集函數(shù),dt是時(shí)間步長。 當(dāng)能量泛函取到最小值時(shí),曲線收斂,圖像分割完畢。
綜上,本文方法主要分為 2個(gè)階段。第一階段:用當(dāng)前幀圖像 f(x,y,t)與更新后得到的背景幀圖像 fd(x,y,t)做差,經(jīng)過運(yùn)算得出目標(biāo)形心所在圖像中的坐標(biāo),然后根據(jù)目標(biāo)形心坐標(biāo)得出粗分割圖像以及初始活動(dòng)輪廓曲線;第二階段:利用改進(jìn)CV模型對(duì)粗分割圖像進(jìn)行分割,實(shí)現(xiàn)對(duì)高原鼠兔輪廓的精確提取。本文方法流程圖如圖1所示:
圖1 本文運(yùn)動(dòng)目標(biāo)檢測(cè)流程圖Fig.1 Flow chart of moving object detection in this paper
西藏、內(nèi)蒙古、新疆、甘肅、青海、四川六省是草原鼠害的重災(zāi)區(qū),其中,高原鼠兔危害面積占全國草原鼠害面積的39.5%[27]。課題組以鼠害泛濫的青藏高原東北部 甘 南 草 原 (101°35′36″~ 102°58′15″E , 33°58′21″~34°48′48″N)作為數(shù)據(jù)采集地點(diǎn),視頻拍攝時(shí)間為2016年4月27日—29日,此時(shí),甘南草原草場(chǎng)枯萎,草地布滿白色石子。用佳能數(shù)碼單反相機(jī)EOS 70D搭配佳能EF-S 18-200 mm f/3.5-5.6 IS原裝鏡頭并固定在三腳架上拍攝。采集到的高原鼠兔視頻圖像存在背景復(fù)雜、背景與目標(biāo)對(duì)比度低、目標(biāo)灰度不均、目標(biāo)包含多色彩且目標(biāo)色彩具有突變性等特點(diǎn),視頻中目標(biāo)行為包含奔跑、進(jìn)食、休息、探索等基本行為模式。對(duì)上述視頻中目標(biāo)區(qū)域進(jìn)行檢測(cè),并得出試驗(yàn)結(jié)果。
本文采用Matlab R2013a軟件,在聯(lián)想ThinkStation P310(Inter(R) Core(TM) i7-6 700 CPU @ 3.40 GHz, RAM 8.00 GB)64位windows7旗艦版操作系統(tǒng)上實(shí)現(xiàn)。選取一段含有50幀的高原鼠兔視頻作為測(cè)試數(shù)據(jù),通過觀察,其中(1~25)幀高原鼠兔圖像序列目標(biāo)處于快速運(yùn)動(dòng)狀態(tài),(25~36)幀高原鼠兔圖像序列目標(biāo)處于靜止觀察狀態(tài),(36~50)幀高原鼠兔圖像序列目標(biāo)處于慢速運(yùn)動(dòng)覓食狀態(tài)。
為說明本文方法有效性,用背景減與CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法、背景減與改進(jìn)CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法及本文方法試驗(yàn)對(duì)比。本次試驗(yàn)中,3種方法的時(shí)域檢測(cè)方法參數(shù)相同:視頻幀率為15幀/s,視頻幀數(shù)為50;在空域圖像分割模型參數(shù)中,改進(jìn)CV模型目標(biāo)像素聚類數(shù)為10,均值濾波模板大小為2,權(quán)值α為0.8,脈沖函數(shù)為矩形脈沖函數(shù);CV模型脈沖函數(shù)為正則化脈沖函數(shù);CV模型、改進(jìn)CV模型中的常數(shù)μ取值為0.05×255×255,1λ、2λ取值為0.5,規(guī)則化參數(shù)ε取值為1,時(shí)間步長滿足CFL條件,即dt=h/v,h為網(wǎng)格間隔,設(shè)為1,v為演化速度;迭代次數(shù)為100,初始輪廓設(shè)置位置相同,大小為 40×15像素。此外,本文方法粗分割圖像大小設(shè)置為100×100像素。
選取該視頻的第7幀、第17幀、第27幀、第37幀、第47幀圖像目標(biāo)檢測(cè)結(jié)果進(jìn)行對(duì)比。其中,第7幀、第17幀圖像中高原鼠兔處于快速運(yùn)動(dòng)狀態(tài),第27幀圖像中高原鼠兔處于靜止觀察狀態(tài),第37幀、第47幀圖像中高原鼠兔處于慢速運(yùn)動(dòng)狀態(tài),以上5幀圖像的處理如圖2所示。
圖2 不同方法的運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果Fig.2 Moving object detection results of different methods
為客觀對(duì)比目標(biāo)檢測(cè)結(jié)果的優(yōu)劣性,本文用相似度指數(shù)DSC(dice similarity coefficient,DSC)[28]、過分割率(false positive volume function,F(xiàn)PVF)[29]、欠分割率(false negative volume function,F(xiàn)NVF)[29]及 Jaccard 指數(shù)[30]對(duì) 50幀圖像目標(biāo)檢測(cè)結(jié)果進(jìn)行定量分析。
式中 S1為交互式獲得的分割模板,S2為分割模型得到的分割結(jié)果,N()為區(qū)域內(nèi)像素個(gè)數(shù)。圖3為不同方法對(duì)目標(biāo)檢測(cè)結(jié)果的指標(biāo)分布對(duì)比。本文方法相似度指數(shù)最高可達(dá)0.905 486,平均為0.852 929;Jaccard指數(shù)平均為0.744 57,最高為0.827 295,目標(biāo)檢測(cè)精度分布較穩(wěn)定;但本文方法過分割率較高,最高達(dá)到 0.451 448。欠分割率整體較低,最低僅為0.003 246,證明改進(jìn)內(nèi)部擬合值可完整擬合目標(biāo)區(qū)域。
圖3 不同方法對(duì)目標(biāo)檢測(cè)結(jié)果的指標(biāo)分布對(duì)比Fig.3 Comparison of index distribution of object detection results by different methods
由圖2可知,背景減與CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法提取的目標(biāo)輪廓結(jié)果不佳,圖像中部分背景被分割為目標(biāo)區(qū)域,造成目標(biāo)和背景混淆。這是由于CV模型計(jì)算結(jié)果為全局最優(yōu)造成的。在CV模型中,脈沖函數(shù)通常為正則化脈沖函數(shù),該函數(shù)為全局函數(shù),而高原鼠兔目標(biāo)小,用正則化脈沖函數(shù)對(duì)該圖像分割,一方面造成冗余計(jì)算,另一方面易受背景干擾。由圖 3過分割率可知,背景減與CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法的過分割率極高,盡管其欠分割率為0,但這是建立在極高過分割率基礎(chǔ)上的。由圖3相似度指數(shù)及J指數(shù)易得出結(jié)論:背景減與 CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法無法精確檢測(cè)高原鼠兔目標(biāo)輪廓。在后續(xù)方法結(jié)果中,背景減與改進(jìn) CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法和本文方法目標(biāo)區(qū)域檢測(cè)結(jié)果比較理想,這 2種方法用矩形脈沖函數(shù)代替CV模型中的正則化脈沖函數(shù),從而將計(jì)算限定在局部處,故可抑制圖像背景中的干擾,此外,改進(jìn)CV模型中的內(nèi)部擬合值可更完整的匹配目標(biāo)區(qū)域像素值,因此欠分割率較低,目標(biāo)輪廓提取更準(zhǔn)確。
由圖 3可知,后兩種方法檢測(cè)結(jié)果對(duì)比,結(jié)果十分接近,都能準(zhǔn)確提取目標(biāo)輪廓。在耗時(shí)對(duì)比上,本文方法對(duì)50幀圖像序列處理耗時(shí)為15.25 s,背景減與改進(jìn)CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法的耗時(shí)為211.91 s,背景減與 CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法的耗時(shí)為727.87 s。背景減與CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法耗時(shí)過長,一方面是CV模型脈沖函數(shù)造成的,另一方面是水平集初始化造成的。背景減與改進(jìn)CV模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法耗時(shí)比本文方法長,也是由于水平集函數(shù)初始化的計(jì)算量較大造成的。水平集初始化可使水平集保持為符號(hào)距離函數(shù),保證水平集函數(shù)演化的準(zhǔn)確性,而過大的圖像矩陣初始化為水平集函數(shù)時(shí)計(jì)算量較大,而本文方法只對(duì)粗分割圖像進(jìn)行分割,相較于原圖像(640× 480像素),粗分割圖像像素點(diǎn)少(100×100像素),水平集初始化的計(jì)算量小,故分割速度較快,平均每幀圖像處理耗時(shí)為 0.3 s,基本實(shí)現(xiàn)了目標(biāo)輪廓的實(shí)時(shí)提取。此外,3種方法的目標(biāo)位置檢測(cè)準(zhǔn)確率為100%,說明本文所選取的時(shí)域處理方法可準(zhǔn)確定位目標(biāo)位置。
本文提出了一種時(shí)空域聯(lián)合的運(yùn)動(dòng)目標(biāo)檢測(cè)方法,該方法對(duì)目標(biāo)包含多色彩的圖像序列具有較好的效果,且目標(biāo)檢測(cè)效率高。對(duì)包含 50幀圖像的視頻處理, 本文方法總耗時(shí)為15.25 s,平均每幀圖像耗時(shí)約為0.3 s,實(shí)時(shí)性高;相似度指數(shù)最高可達(dá)0.905 486,Jaccard指數(shù)最高為0.827 295,目標(biāo)檢測(cè)精度分布較穩(wěn)定;
但本文方法過分割率較高,最高達(dá)到0.451 448。造成的原因可能是:1)目標(biāo)弱??;2)分割模型易將陰影誤分割為前景;本文欠分割率整體較低,最低僅為0.003 246,證明改進(jìn)內(nèi)部擬合值可完整擬合目標(biāo)區(qū)域。
綜上,本文方法處理結(jié)果較為理想。但由于該法背景幀為固定時(shí)刻圖像幀,因此對(duì)背景變化劇烈視頻適應(yīng)性差;圖像空域分割算法利用初始演化曲線內(nèi)部像素聚類中心點(diǎn)構(gòu)造內(nèi)部擬合值,初始輪廓位置將決定內(nèi)部擬合值的完整性和準(zhǔn)確性,故該法對(duì)初始輪廓位置要求較高,導(dǎo)致該文方法應(yīng)用受限,降低分割算法對(duì)初始輪廓的依賴性將是后續(xù)工作的重點(diǎn)內(nèi)容。
致謝:感謝 creaseg軟件提供的 creaseg_chanvese.m文件及Li提供的chan-vese程序,本文改進(jìn)CV模型基于creaseg軟件的creaseg_chanvese.m文件修改。
[參 考 文 獻(xiàn)]
[1] 賈婷婷. 高原鼠兔干擾與青藏高原高寒草甸植被和土壤的關(guān)系[D]. 蘭州: 蘭州大學(xué),2016.Jia Tingting. Plateau Pika Disturbance Correlated with Alpine Meadow Plant and Soil in Qinghai-Tibet Plateau [D].Lanzhou: Lanzhou University, 2016. (in Chinese with English abstract)
[2] 趙天飆,陶波爾,董希超,等. 嚙齒動(dòng)物種群數(shù)量調(diào)查方法及其評(píng)價(jià)[J]. 中國媒介生物學(xué)及控制雜志,2007,18(4):332-334.
[3] 陳海燕,王惠琴,曹明華,等. 基于機(jī)器視覺的高原鼠兔智能監(jiān)測(cè)系統(tǒng)[J]. 中國農(nóng)機(jī)化學(xué)報(bào),2012(6):172-175.Chen Haiyan, Wang Huiqin, Cao Minghua, et al. Intelligent observation system of Ochotona curzoniae based on machine vision[J]. Chinese Agricultural Mechanization, 2012(6): 172-175. (in Chinese with English abstract)
[4] 陳海燕,張愛華,胡世亞. 基于紋理顏色模型的高原鼠兔突變運(yùn)動(dòng)跟蹤[J]. 農(nóng)業(yè)工程學(xué)報(bào),2016,32(11):214-218.Chen Haiyan, Zhang Aihua, Hu Shiya. Abrupt motion tracking of plateau pika (Ochotona curzoniae) based on local texture and color model[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016,32(11): 214-218. (in Chinese with English abstract)
[5] 胡士亞. 基于水平集的高原鼠兔圖像分割方法研究[D].蘭州: 蘭州理工大學(xué),2016.Hu Shiya. Research on Image Segmentation Methods of Ochotona Curzoniae Based on Level Set[D]. Lanzhou:Lanzhou University of Technology, 2016. (in Chinese with English abstract)
[6] Jun-Qin W. An adaptive frame difference method for human tracking[J]. Advances in Information Sciences & Service Sciences, 2012, 4(1): 381-387.
[7] Azarbayejani A, Wren C, Pentl A. Real-time 3-d tracking of the human body [C]// in Proceedings of Image' com 96. 1997:780-785.
[8] Horn B K P, Schunck B G. Determining optical flow[J].Artificial Intelligence, 1981, 17(1–3): 185-203.
[9] 何曦,瞿建榮,盧曉燕,等. 基于幀間差分和水平集的運(yùn)動(dòng)目標(biāo)探測(cè)跟蹤方法[J]. 探測(cè)與控制學(xué)報(bào),2015(1):27-30.He Xi, Qu Jianrong, Lu Xiaoyan, et al. Moving targets detection and tracking based on frame difference and level Set[J]. Journal of Detection & Control, 2015(1): 27-30. (in Chinese with English abstract)
[10] 張應(yīng)輝,劉養(yǎng)碩. 基于幀差法和背景差法的運(yùn)動(dòng)目標(biāo)檢測(cè)[J]. 計(jì)算機(jī)技術(shù)與發(fā)展,2017,27(2):25-28.Zhang Yinghui, Liu Yangshuo. Moving object detection based on method of frame difference and background subtraction[J].Computer Technology and Development, 2017, 27(2): 25-28.(in Chinese with English abstract)
[11] 陳寶遠(yuǎn),霍智超,陳光毅,等. 一種改進(jìn)的三幀差分運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J]. 應(yīng)用科技,2016,43(2):10-13.Chen Baoyuan, Huo Zhichao, Chen Guangyi, et al. An improved three-frame difference algorithm for moving object detection[J].Applied Science and Technology, 2016, 43(2): 10-13. (in Chinese with English abstract)
[12] Stauffer C, Grimson W E L. Learning patterns of activity using real-time tracking[J]. Trans on Pami, 2000, 22(8):747-757.
[13] 肖軍,朱世鵬,黃杭,等. 基于光流法的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法[J]. 東北大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,37(6):770-774.Xiao Jun, Zhu Shipeng, Huang Heng, et al. Object detection and tracking algorithm based on optical flow[J]. Journal of Northeastern University (Natural Science), 2016, 37 (6):770-774. (in Chinese with English abstract)
[14] 鄧玉春,姜昱明,張建榮. 視頻序列圖像中運(yùn)動(dòng)對(duì)象分割綜述[J]. 計(jì)算機(jī)應(yīng)用研究,2005,22(1):8-11.Deng Yuchun, Jiang Yuming, Zhang Jianrong. Review of segmentation of moving object in image sequence[J].Application Research of Computers, 2005, 22(1): 8-11. (in Chinese with English abstract)
[15] Li C, Kao C Y, Gore J C, et al. Minimization of regionscalable fitting energy for image segmentation[J]. IEEE Transactions on Image Processing, 2008, 17(10): 1940-1949.
[16] 徐楊,吳成東,趙瑩. 基于DRLSE模型的運(yùn)動(dòng)目標(biāo)跟蹤[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2012,24(3):345-350.Xu Yang, Wu Chengdong, Zhao Ying. Moving object tracking using DRLSE model[J]. Journal of Computer- Aided Design& Computer Graphics, 2012, 24(3): 345-350. (in Chinese with English abstract)
[17] Li C, Xu C, Gui C, et al. Level set evolution without re-initialization: A new variational formulation[C]//Computer Vision and Pattern Recognition, 2005 CVPR 2005 IEEE Computer Society Conference on. 2005: 430-436.
[18] Caselles V, Kimmel R, Sapiro G. Geodesic active contours[J].International Journal of Computer Vision, 1997, 22(1): 61-79.
[19] 胡祝華,趙瑤池,程杰仁,等. 基于改進(jìn) DRLSE的運(yùn)動(dòng)目標(biāo)分割方法[J]. 浙江大學(xué)學(xué)報(bào)(工學(xué)版),2014,48(8):1488-1495.Hu Zhuhua, Zhao Yaochi, Cheng Jieren, et al. Moving object segmentation method based on improved DELSE[J]. Journal of Zhejiang University (Engineering Science), 2014, 48(8):1488-1495. (in Chinese with English abstract)
[20] 張愛華,胡士亞,陳海燕. 基于改進(jìn)LBF模型的高原鼠兔圖像分割[J]. 華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2016(2):75-80.Zhang Aihua, Hu Shiya, Chen Haiyan. Ochotona curzoniae image segmentation based on the improved LBF model[J].Huazhong Univ. of Sci. & Tech. (Natural Science Edition),2016(2): 75-80. (in Chinese with English abstract)
[21] 張愛華,王帆,陳海燕. 基于改進(jìn)CV模型的目標(biāo)多色彩圖像分割[J]. 華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2018(1):63-66, 86.Zhang Aihua, Wang Fan, Chen Haiyan. Multi-color object image segmentation based on improved CV model[J].Huazhong Univ. of Sci. & Tech. (Natural Science Edition),2018(1): 63-66, 86. (in Chinese with English abstract)
[22] Chan T F, Vese L A. Active contours without edges[J]. IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society, 2001, 10(2): 266-277.
[23] 王曉峰. 水平集方法及其在圖像分割中的應(yīng)用研究[D].合肥: 中國科學(xué)技術(shù)大學(xué),2009.Wang Xiaofeng. The Study of Level Set Methods and Their Applications in Image Segmentation[D]. Hefei: University of Science and Technology of China, 2009. (in Chinese with English abstract)
[24] 張愛華,王帆,陳海燕. 基于改進(jìn)CV模型的高原鼠兔圖像分割[J]. 華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2017(8):32-37.Zhang Aihua, Wang Fan, Chen Haiyan. Ochotona curzoniae image segmentation based on the improved CV model[J].Huazhong Univ. of Sci. & Tech. (Natural Science Edition),2017(8): 32-37. (in Chinese with English abstract)
[25] 周志華. 機(jī)器學(xué)習(xí)[M]. 北京: 清華大學(xué)出版社,2016.
[26] Gonzalez R C, Woods R E.. 數(shù)字圖像處理(第三版)[M].阮秋琦,等譯.北京: 電子工業(yè)出版社,2017.
[27] 采編部,劉源. 2016年全國草原監(jiān)測(cè)報(bào)告[J]. 中國畜牧業(yè),2017(8):18-35.
[28] He C, Wang Y, Chen Q. Active contours driven by weighted region-scalable fitting energy based on local entropy[J].Signal Processing, 2012, 92(2): 587-600.
[29] Rajendran A, Dhanasekaran R. Fuzzy clustering and deformable model for tumor segmentation on MRI brain image: A combined approach[J]. Procedia Engineering, 2012, 30(4):327-333.
[30] Vovk U, Pernu? F, Likar B. A review of methods for correction of intensity inhomogeneity in MRI[J]. IEEE Transactions on Medical Imaging, 2007, 26(3): 405-421.