周治平,李文慧
(江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院,江蘇無錫214122)
顏色和紋理特征的運(yùn)動(dòng)目標(biāo)檢測(cè)
周治平,李文慧
(江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院,江蘇無錫214122)
針對(duì)復(fù)雜場(chǎng)景中運(yùn)動(dòng)目標(biāo)檢測(cè)這一難題,提出利用RGB顏色特征和尺度不變局部三元模式的運(yùn)動(dòng)目標(biāo)檢測(cè)算法。利用時(shí)域中值法得到估算背景圖像并快速初始化背景模型。通過顏色特征、紋理特征相似性度量,融合得出背景概率網(wǎng)絡(luò),通過側(cè)抑制濾波提高對(duì)比度分類出前景與背景像素,前景像素進(jìn)一步進(jìn)行陰影檢測(cè),將陰影點(diǎn)歸為背景點(diǎn),但不用于模型更新。將算法與GMM、SC?SOBS、SUBSENS算法在變化檢測(cè)數(shù)據(jù)庫中進(jìn)行對(duì)比驗(yàn)證。實(shí)驗(yàn)表明,新算法在滿足實(shí)時(shí)性的基礎(chǔ)上,對(duì)動(dòng)態(tài)背景,陰影和相機(jī)抖動(dòng)等有一定的魯棒性。
運(yùn)動(dòng)目標(biāo)檢測(cè);顏色特征;紋理特征;陰影檢測(cè);模型更新
運(yùn)動(dòng)目標(biāo)檢測(cè)是計(jì)算機(jī)視覺的基礎(chǔ)步驟,而提取運(yùn)動(dòng)目標(biāo)最常用的技術(shù)是背景減除法,該技術(shù)的思想是將當(dāng)前幀與背景模型進(jìn)行比較,從而區(qū)分出前景和背景像素?,F(xiàn)實(shí)場(chǎng)景中由于光照變化,背景擾動(dòng),相機(jī)抖動(dòng)等因素,使建立一個(gè)好的背景模型變的尤為關(guān)鍵。
背景建模分為參數(shù)法和非參數(shù)法。參數(shù)法背景建模最經(jīng)典的為單高斯[1]和混合高斯模型[2]。其中,單高斯適用于單模態(tài)背景情形其計(jì)算簡(jiǎn)單,采取參數(shù)迭代方式,不用每次都進(jìn)行建模處理。而實(shí)際中,背景信息復(fù)雜,光照變化、樹葉擾動(dòng)等都屬于多模態(tài)情形,混合高斯模型對(duì)復(fù)雜的背景更具魯棒性,因此很多研究者致力于改進(jìn)混合高斯模型[3?4],但混合高斯的缺點(diǎn)是計(jì)算量大,對(duì)光照敏感。非參數(shù)建模有核密度估計(jì)法,如文獻(xiàn)[5]中提出將每個(gè)像素的顏色、梯度和Haar?like特征綜合起來,利用核密度估計(jì)建立背景模型。除此之外,近年來基于樣本一致性的非參數(shù)方法得到越來越廣泛的研究,該方法計(jì)算簡(jiǎn)單,大量實(shí)驗(yàn)證明效果顯著。文獻(xiàn)[6]根據(jù)時(shí)域特性,提取視頻前N幀進(jìn)行采樣,通過對(duì)每個(gè)像素進(jìn)行樣本一致性計(jì)算估算背景模型。Maddalena等[7?8]提出一種自組織神經(jīng)網(wǎng)絡(luò)的背景差分算法,將背景模型的每個(gè)像素映射到多個(gè)位置,并按一定權(quán)值更新最匹配點(diǎn)及鄰域信息。文獻(xiàn)[9]提出隨機(jī)更新和鄰域傳播機(jī)制的vibe算法,內(nèi)存占用少,背景模型及時(shí)初始化,但易產(chǎn)生鬼影。Hof?mann等[10]結(jié)合了SACON和vibe算法的優(yōu)勢(shì),提出像素判斷閾值的自適應(yīng)和背景模型更新的自適應(yīng)的PBAS算法,檢測(cè)效果得到進(jìn)一步提高,但不能處理間歇?jiǎng)討B(tài)變化。上述這些方法都僅僅采用顏色單一特征,紋理特征更能體現(xiàn)像素之間的空間相關(guān)性,文獻(xiàn)[11]利用LBP特征進(jìn)行背景建模。文獻(xiàn)[12]提出一種新的尺度不變局部三元模式(scale invariant local ternary pattern,SILTP)紋理表示方法進(jìn)行背景建模。但僅使用紋理特征不能有效處理當(dāng)前景與背景紋理存在一致性的情況。文獻(xiàn)[13]將顏色特征與LBP特征相結(jié)合,但此方法將顏色特征與紋理特征同等對(duì)待,不能有效發(fā)揮特征之間的互補(bǔ)作用。
本文提出將rgb顏色特征與SILTP特征通過各自的置信度相融合,有效彌補(bǔ)各自在前景檢測(cè)上的不足。利用估算背景圖像快速初始化背景模型,分別計(jì)算出當(dāng)前像素點(diǎn)與背景模型顏色特征與紋理特征的相似性,并融合得出背景概率網(wǎng)絡(luò)。利用側(cè)抑制濾波提高對(duì)比度分類出前景與背景像素。不斷將檢測(cè)出的背景像素用于背景模型更新,使其能有效處理動(dòng)態(tài)背景,光照變化等復(fù)雜情況。前景像素則進(jìn)一步進(jìn)行陰影檢測(cè),將陰影點(diǎn)歸為背景點(diǎn),但不用于模型更新。
文獻(xiàn)[6?8]通過一系列圖像幀進(jìn)行背景建模,提取同一位置不同時(shí)刻像素點(diǎn)的信息來估計(jì)背景像素的時(shí)域分布。然而這樣的建模方法對(duì)視頻序列的幀數(shù)有一定要求,并且不能檢測(cè)學(xué)習(xí)序列中的前景目標(biāo)。為了快速初始化背景模型,做出文獻(xiàn)[14]中同樣的假設(shè):相鄰的像素間共用相似的時(shí)域分布。這樣的假設(shè)也在vibe算法[9]中得到檢驗(yàn)。在用于背景建模的圖像幀中,往往把初始值全部看做背景像素點(diǎn)。但在實(shí)際應(yīng)用中,卻往往不能成立,因此后序的檢測(cè)中易產(chǎn)生鬼影。本文實(shí)驗(yàn)中先采用時(shí)域中值法估算背景圖像,這樣能有效減少前景點(diǎn)對(duì)背景模型的作用,避免鬼影,即對(duì)于L幀的圖像子序列I1,I2,…,IL,B=median(I1,I2,…IL)。
將背景圖像B中每個(gè)像素點(diǎn)p快速初始化背景模型C(p)如下:
式中:Dp1,Dp2,…,Dpm為背景采樣點(diǎn)的信息。本文m取值為9,即當(dāng)前像素點(diǎn)與其8鄰域點(diǎn)。圖像包含豐富的信息,包括灰度、顏色、紋理、邊緣、輪廓等。如果能將多個(gè)信息結(jié)合起來,前景目標(biāo)的分割將更具魯棒性。文獻(xiàn)[13]的實(shí)驗(yàn)結(jié)果表明顏色和紋理特征能互相彌補(bǔ)各自的不足,但LBP對(duì)噪聲敏感。因此,本文提出將RGB顏色特征和SILTP特征相融合來進(jìn)行前景檢測(cè)。
1.1 尺度不變局部三元模式
LBP[15]是一個(gè)有效的圖像局部紋理描述符,但對(duì)噪聲敏感。SILTP是對(duì)LBP的改進(jìn),首次在文獻(xiàn)[12]中提出,其在一定程度上能有效抵抗噪聲,并且對(duì)尺度變換亦具有不變性,如圖1所示。在第2行中,一些加粗像素表示被噪聲影響了,第3行每個(gè)像素灰度值均為原來的2倍,但SILTP描述符均能在一定程度上抵抗這些情況,描述符為‘1000000000000110’。
圖1 SILTP描述符Fig.1 SILTP descriptor
式中:Ic為中心像素點(diǎn)的灰度值,Ik為半徑為R的鄰域像素,⊕為二值字符串的連接操作,τ為預(yù)示著比較范圍的尺度因子。Sτ為分段函數(shù),定義如下:
本文τ=0.1,R=1,N=8,這樣對(duì)每一個(gè)像素點(diǎn)可以得到一個(gè)16字節(jié)的二值字符串。
1.2 背景模型表示及更新
在由時(shí)域中值法得到的估算背景圖像B中,分別提取顏色和紋理特征,每個(gè)背景采樣點(diǎn)包含5類信息即其中,Ii為像素點(diǎn)的RGB顏色分量為像素點(diǎn)的SILTP紋理描述符。ηi和γi分別代表顏色成分Ii和紋理成分texi作為背景的置信度,初始值都為0.1,其值越大,代表所屬的成分在決定標(biāo)簽時(shí)所起的作用越大。ωi∈0,1[]作為權(quán)重因子代表采樣點(diǎn)屬于背景的可能性,初始值取為0.01。
隨著時(shí)間的推移,視頻中的背景也會(huì)發(fā)生變化,如樹葉的搖擺,光照的變化。如果背景模型不及時(shí)更新,就會(huì)導(dǎo)致檢測(cè)的結(jié)果產(chǎn)生大量的噪聲以及誤檢或漏檢。為了滿足背景的實(shí)時(shí)變化,背景模型必須實(shí)時(shí)更新。傳統(tǒng)算法采用樣本“先進(jìn)先出”的更新思想,即隨著背景模型中新樣本的加入,停留時(shí)間最長(zhǎng)的舊樣本將被替換,故而容易提前刪除有用的舊樣本。本文選擇背景像素對(duì)背景模型進(jìn)行更新算法如下。
假如當(dāng)前幀像素pt跟背景模型Ct-1比較判定為背景點(diǎn),其RGB顏色特征為Ipt,SILTP描述符為texpt。θmin=0.1,θmax=0.6,α=0.005,θmin和θmax分別為最小和最大的置信水平,α為學(xué)習(xí)因子。
基于顏色信息的最佳匹配樣本:
基于紋理信息的最佳匹配樣本:
若St~i>=ε2,僅更新其置信值,否則若且ε2,背景模型權(quán)值最小的樣本將被替換,置信值和權(quán)值都為初始值。
最后通過ωi=(1-α)ωi+απ更新所有樣本的權(quán)重。其中π為指示變量,若樣本顏色與紋理信息都最佳匹配,則為1;若二者之一有匹配,則取為0.5;否則為0。
本文方法與其他的樣本一致性算法相似,都是通過當(dāng)前像素點(diǎn)與背景模型的比較來進(jìn)行前景背景像素點(diǎn)分類。
綜上,對(duì)于時(shí)刻t的給定像素pt,計(jì)算其屬于背景的可能性Pb(pt):
式中:權(quán)重因子ωi,顏色和紋理的置信度ηi、γi都在不斷地更新。因此,在估計(jì)像素屬于背景的可能性時(shí),其顏色和紋理所起的作用也不斷得到調(diào)整,融合起來進(jìn)行前景分割。
通過式(2)得到時(shí)刻t視頻幀的概率網(wǎng)絡(luò),由于前景像素本身具有空間相關(guān)性,本文將概率網(wǎng)絡(luò)進(jìn)行側(cè)抑制濾波來提高對(duì)比度,減少低頻噪聲。Duan等[17]首次將側(cè)抑制濾波用于圖像處理中,其濾波模型如式(3)所示。
式中:I0(m,n)為像素點(diǎn)的原始值,αi,j為抑制系數(shù),R(m,n)為經(jīng)過側(cè)抑制濾波后像素點(diǎn)對(duì)應(yīng)的值。(2M+1)×(2N+1)表示感受域。
基于式(3)可以得到抑制系數(shù)的計(jì)算公式:
式中:di,j為周圍像素點(diǎn)到感受域中心像素點(diǎn)的距離。本文選擇感受域大小為3×3,因此可以計(jì)算出響應(yīng)的卷積模板U為
通過濾波處理后,利用分類器δ(pt)來進(jìn)行前景分割,定義為
式中:ξ為閾值,若δ(pt)輸出為0,代表其所對(duì)應(yīng)的像素為背景,否則被視為前景像素。
由于大量的陰影,會(huì)引起運(yùn)動(dòng)目標(biāo)粘連。本文采用文獻(xiàn)[18]提出的基于HSV彩色空間的陰影檢測(cè)方法,其陰影掩膜可以表示如下:
式中:陰影掩膜ymask(pt)的值為1時(shí),表示像素點(diǎn)pt為陰影點(diǎn),否則不是陰影點(diǎn)。分別是時(shí)刻t像素點(diǎn)p在HSV彩色空間的3個(gè)分量,分別是所對(duì)應(yīng)的估算背景圖像B中像素點(diǎn)在HSV彩色空間的3個(gè)分量。下限β∈[0,1]的值取決于光照強(qiáng)度,光照越強(qiáng),就越小,則β取較小值。上限?∈[0,1]用于排除因噪聲擾動(dòng)產(chǎn)生的偽陰影點(diǎn),τS和τH的取值依據(jù)陰影區(qū)色度和飽和度變化較小的特性。該陰影檢測(cè)法利用陰影像素點(diǎn)的物理性質(zhì),能較好的檢測(cè)出分布均勻的弱陰影。
本文結(jié)合顏色和紋理特征的運(yùn)動(dòng)目標(biāo)檢測(cè)實(shí)現(xiàn)如圖2所示。
圖2 本文算法實(shí)現(xiàn)流程Fig.2 Flow chart of the algorithm
偽代碼如下:
為了驗(yàn)證算法的可行性,對(duì)不同環(huán)境下的視頻進(jìn)行處理。選擇的視頻序列為變化檢測(cè)數(shù)據(jù)庫中baseline、dynamic background、camera jitter、intermit?tent object motion以及shadow 5大類圖像序列。本文算法中,L=20,ε1=0.96,ε2=0.92,ξ=8.5。
實(shí)驗(yàn)環(huán)境為硬件采用i5?3 210 M,主頻2.5 GHz的處理器,2 GB內(nèi)存。軟件平臺(tái)使用的是Win?dows7操作系統(tǒng),開發(fā)平臺(tái)為MatlabR2012a。
分別與高斯混合模型(Gaussian mixture model,GMM)算法[2],空間相關(guān)的自組織背景減除(spatial?ly coherent self?organization background subtraction,SC?SOBS)算法[8],自平衡的靈敏度分割(self?bal?anced sensitivity segmenter,SUBSENS)算法[13]進(jìn)行比較。
Baseline類目下的office序列由2 050幀圖像構(gòu)成,是一組室內(nèi)辦公室場(chǎng)景的圖像序列,包含目標(biāo)被部分遮擋與背景色相近等復(fù)雜情況。檢測(cè)結(jié)果如圖3所示。
圖3 4種算法對(duì)Baseline_office圖像序列的檢測(cè)結(jié)果Fig.3 Detection results of the four algorithms in base?line_office image sequences
從圖3可以看出GMM算法對(duì)噪聲敏感,其他3種算法具有較好的檢測(cè)率,且從連續(xù)3幀的檢測(cè)結(jié)果證明本文的背景模型更新算法具有適應(yīng)性。
Dynamic background類目下的canoe序列由1 189幀圖像構(gòu)成,場(chǎng)景中中水波蕩漾且岸邊樹葉輕微晃動(dòng),用于檢測(cè)算法處理動(dòng)態(tài)背景的能力。Cam?era jitter類目下的boulevard序列由2 500幀圖像構(gòu)成,是一組室外林蔭大道場(chǎng)景的圖像序列,存在拍攝過程中相機(jī)抖動(dòng)問題。Intermittent object motion類目下的sofa序列由2 750幀圖像構(gòu)成,是一組室內(nèi)大廳沙發(fā)場(chǎng)景的圖像序列,包含背景物移動(dòng),新增背景物和目標(biāo)間歇性移動(dòng)等復(fù)雜情況。Shadow類目下的cubicle序列由7 400幀圖像構(gòu)成,是一組室內(nèi)場(chǎng)景的圖像序列,場(chǎng)景中包含大量深色或淺色陰影。以上4類圖像序列的檢測(cè)結(jié)果如圖4所示。
圖4 4種算法分別對(duì)4類圖像序列的檢測(cè)結(jié)果Fig.4 Detection results of the four algorithms in four im?
age sequences
本文采用文獻(xiàn)[7]方法進(jìn)行算法評(píng)估,包括檢測(cè)率(Recall)、準(zhǔn)確率(Precision)和算法的綜合性能F?measure。
式中:tp(true positives)表示正確檢測(cè)為前景點(diǎn)的像素個(gè)數(shù),fn(false negatives)表示錯(cuò)誤檢測(cè)為背景點(diǎn)的像素個(gè)數(shù)。fp(false positives)表示錯(cuò)誤檢測(cè)為前景點(diǎn)的像素個(gè)數(shù)。表1和2給出了5類圖像序列在四種算法下檢測(cè)性能。表3通過對(duì)office序列的檢測(cè)來比較時(shí)間復(fù)雜度。
從表1和2可以看出,本文算法在絕大多數(shù)情況下表現(xiàn)出優(yōu)秀的性能,其能有效處理動(dòng)態(tài)背景,間歇運(yùn)動(dòng),陰影等復(fù)雜情況。F?measure最多提高了0.2。其中,GMM算法是基于概率的模型,算法復(fù)雜,對(duì)噪聲敏感,不利于動(dòng)態(tài)背景下檢測(cè)。SC?SOBS算法強(qiáng)烈依賴于第一幀圖像,如果存在運(yùn)動(dòng)目標(biāo),在后期的處理中總會(huì)在運(yùn)動(dòng)目標(biāo)區(qū)域存在空洞現(xiàn)象。SUBSENS算法將顏色特征和LBP特征結(jié)合起來,取得了比前2個(gè)算法更好的性能,但本文算法采用SILTP描述符比LBP對(duì)于噪聲和動(dòng)態(tài)背景更具有魯棒性,且采用了融合機(jī)制,充分彌補(bǔ)了顏色和紋理特征各自的缺陷。表3可以看出本文算法時(shí)間復(fù)雜度并非最優(yōu),SC?SOBS算法由于僅使用圖像的灰度特征,時(shí)間消耗更小,但在背景擾動(dòng),相機(jī)抖動(dòng)等復(fù)雜情況下的性能均低于本文算法,本文算法的時(shí)間消耗僅比其多0.24 s,但F?measure最多可提高29.06%。因此,本文算法的時(shí)間復(fù)雜度在可接受范圍內(nèi),使其獲得優(yōu)良的性能。
表1 Office和canoe圖像序列在4種算法下的檢測(cè)性能Table 1 Detection performance of the four kinds of algorithms in office and canoe image sequences
表2 Boulevard、sofa和cubicle圖像序列在4種算法下的檢測(cè)性能Table 2 Detection performance of the four kinds of algorithms in boulevard,sofa and cubicle image sequences
表3 4種算法時(shí)間復(fù)雜度Table 3 Time complexity of the four algorithms
針對(duì)運(yùn)動(dòng)場(chǎng)景復(fù)雜多變,單一的特征描述往往不能應(yīng)對(duì),因此本文提出一種結(jié)合RGB顏色特征與SILTP紋理特征的運(yùn)動(dòng)目標(biāo)檢測(cè)算法,將顏色特征與紋理特征相結(jié)合,互相彌補(bǔ)各自的不足。將本文算法與GMM、SC?SOBS、SUBSENS算法進(jìn)行比較,實(shí)驗(yàn)結(jié)果表明,本文算法在滿足實(shí)時(shí)性的同時(shí)穩(wěn)定性也較好。運(yùn)動(dòng)目標(biāo)檢測(cè)是目標(biāo)識(shí)別的基礎(chǔ),因此本文的下一步工作為對(duì)檢測(cè)出的運(yùn)動(dòng)目標(biāo)進(jìn)行識(shí)別。
[1]WREN C R,AZARBAYEJANI A,DARRELL T,et al.Pfinder:real?time tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780?785.
[2]ZIVKOVIC Z.Improved adaptive Gaussian mixture model for background subtraction[C]//Proceedings of the 17th International Conference on Pattern Recognition.Cam?bridge,UK,2004:28?31.
[3]HERAS EVANGELIO R H,PATZOLD M,KELLER I,et al.Adaptively splitted GMM with feedback improvement for the task of background subtraction[J].IEEE Transactionson Information Forensics and Security,2014,9(5):863?874.
[4]LI Xingliang,WU Yubao.Image objects detection algorithm based on improved Gaussian mixture model[J].Journal of Multimedia,2014,9(1):152?158.
[5]HAN B,DAVIS L S.Density?based multifeature background subtraction with support vector machine[J].IEEE Transac?tions on Pattern Analysis and Machine Intelligence,2012,34(5):1017?1023.
[6]WANG Hanzi,SUTER D.Background subtraction based on a robust consensus method[C]//18th International Confer?ence on Pattern Recognition.Hong Kong,China,2006:223?226.
[7]MADDALENA L,PETROSINO A.A self?organizing ap?proach to background subtraction for visual surveillance ap?plications[J].IEEE Transactions on Image Processing,2008,17(7):1168?1177.
[8]MADDALENA L,PETROSINO A.The SOBS algorithm:what are the limits?[C]//2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops.Providence,2012:21?26.
[9]BARNICH O,VAN DROOGENBROECk M.ViBe:A uni?versal background subtraction algorithm for video sequences[J].IEEE Transactions on Image Processing,2011,20(6):1709?1724.
[10]HOFMANN M,TIEFENBACHER P,RIGOLL G.Back?ground segmentation with feedback:The pixel?based adap?tive segmenter[C]//2012 IEEE Computer Society Confer?ence on Computer Vision and Pattern Recognition Work?shops.Providence,USA,2012:38?43.
[11]BILODEAU G A,JODOIN J P,SAUNIER N.Change de?tection in feature space using local binary similarity pat?terns[C]//2013 International Conference on Computer and Robot Vision.Providence,America,2013:106?112.
[12]LIAO Shengcai,ZHAO Guoying,KELLOKUMPU V,et al.Modeling pixel process with scale invariant local pat?terns for background subtraction in complex scenes[C]//2010 IEEE Conference on Computer Vision and Pattern Recognition.San Francisco,2010:1301?1306.
[13]ST?CHARLES P L,BILODEAU G A,BERGEVIN R.Flexible background subtraction with self?balanced local sensitivity[C]//2014 IEEE Conference on Computer Vi?sion and Pattern Recognition.Columbus,OH,USA,2014:414?419.
[14]JODOIN P M,MIGNOTTE M,KONRAD J.Statistical background subtraction using spatial cues[J].IEEE Transactions on Circuits and Systems for Video Technolo?gy,2007,17(12):1758?1763.
[15]OJALA T,PIETIK?INEN M,M?ENP?? T.Multiresolu?tion gray?scale and rotation invariant texture classification with local binary patterns[J].IEEE Transactions on Pat?tern Analysis and Machine Intelligence,2002,24(7):971?987.
[16]JI Zhangjian,WANG Weiqiang.Detect foreground objects via adaptive fusing model in a hybrid feature space[J].Pattern Recognition,2014,47(9):2952?2961.
[17]DUAN Haibin,DENG Yimin,WANG Xiaohua,et al.Small and dim target detection via lateral inhibition filte?ring and artificial bee colony based selective visual atten?tion[J].PLoS One,2013,8(8):e72035.
[18]CUCCHIARA R,GRANA C,PICCARDI M,et al.Detec?ting moving objects,ghosts,and shadows in video streams[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(10):1337?1342.
Detection for moving targets based on color and texture features
ZHOU Zhiping,LI Wenhui
(School of Internet of Things,Jiangnan University,Wuxi 214122,China)
An algorithm utilizing RGB color features and scale invariant local ternary patterns is presented for sol?ving the difficulty of detecting moving targets in complex scenes.The time?domain median method was adopted to estimate background image and initialize background model quickly.By fusing similarity measures of color and tex?ture features,a background probability network was obtained.The application of lateral inhibition filtering improved the contrast,the foreground and background pixels were classified,and shadow detection worked for the foreground pixels.The shadow pixels were classified as background pixels but not used for the model update.The performance of the proposed algorithm was compared with the other three algorithms in the change detection database.The pro?posed method can accurately handle scenes containing moving backgrounds,shadows,and camera jitter,with ac?ceptable real?time performance.
moving target detection;color feature;texture feature;shadow detection;model update
TP751
A
1673?4785(2015)05?0729?07
10.11992/tis.201408034
http://www.cnki.net/kcms/detail/23.1538.TP.20150827.1132.014.html
周治平,李文慧.顏色和紋理特征的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].智能系統(tǒng)學(xué)報(bào),2015,10(5):729?735.
英文引用格式:ZHOU Zhiping,LI Wenhui.Detection for moving targets based on color and texture features[J].CAAI Transac?tions on Intelligent Systems,2015,10(5):729?735.
周治平,男,1962年生,教授,博士,主要研究方向?yàn)闄z測(cè)技術(shù)與自動(dòng)化裝置。主持和參與國(guó)家及省部級(jí)科研項(xiàng)目7項(xiàng),獲省部級(jí)科技進(jìn)步獎(jiǎng)3項(xiàng),發(fā)表學(xué)術(shù)論文70余篇。
李文慧,女,1990年生,碩士,主要研究方向?yàn)橐曨l與圖像信號(hào)處理。
2014?08?27.
日期:2015?08?27.
李文慧.E?mail:liwenhui645@163.com.