成亞玲 彭湘華 譚愛平
摘 要: 針對現(xiàn)有運動目標檢測算法不能滿足復(fù)雜場景需求,提出一種基于高斯混合模型和時間平均模型改進的雙背景模型自適應(yīng)運動目標檢測算法。對視頻圖像背景進行簡單背景和復(fù)雜背景自適應(yīng)判別,并建立相應(yīng)的背景模型。雙背景模型獲取的運動目標區(qū)域信息更完整、清晰。實驗表明,與傳統(tǒng)檢測算法相比,新算法在去除區(qū)域孔洞、目標區(qū)域完整性具有較好性能和優(yōu)越性。
關(guān)鍵詞: 智能交通; 目標檢測; 陰影抑制; 高斯模型; 雙背景自適應(yīng)模型
中圖分類號: TG409 ? ? ?文獻標志碼: A
Applcaton of Dual Background Model Adaptve Moton
Target Detecton Algorthm n Traffc Montorng System
CHENG Yalng, Peng Xanghua TAN Apng
(School of nformaton Engneerng, Hunan ndustry Polytechnc, Changsha 410208, Chna)
Abstract: Because the exstng movng target detecton algorthm cannot meet the complex scene requrements, an mproved movng target detecton algorthm based on Gaussan mxture model and tme-average model s proposed. The algorthm performs smple background and complex background adaptve dscrmnaton on the vdeo mage background, and establshes the correspondng background model. The movng target regon nformaton obtaned by the dual background model s more complete and clearer. Experments show that compared wth the tradtonal detecton algorthm, the new algorthm has better performance and advantages n removng regonal holes and ntegrty of the target regon.
Key words: ntellgent transportaton; Target detecton; Shadow suppresson; Gaussan model; Dual background adaptve model
0 引言
隨著社會快速發(fā)展,智能交通系統(tǒng)(ntellgent Transportaton Systems,簡稱TS)在旅游出行、車輛識別以及平安城市等方面提供全方位信息,在人們生活工作中的作用日益凸顯。在智能視頻監(jiān)控系統(tǒng)中, 運動目標檢測與跟蹤是實現(xiàn)其智能化工作的基礎(chǔ)[1]。同時,視頻圖像處理技術(shù)是智能交通視頻監(jiān)控系統(tǒng)中比較重要的一個技術(shù)領(lǐng)域。視頻圖像處理技術(shù)通過對監(jiān)控圖像序列進行智能分析、判別場景中運動目標的行為,并對交通道路中出現(xiàn)異常情況做出及時的反應(yīng)。
1 研究現(xiàn)狀
1.1 智能交通系統(tǒng)研究現(xiàn)狀
智能交通系統(tǒng)是近年來交通運輸發(fā)展的熱點問題之一。自第一屆智能交通系統(tǒng)世界大會至今,歐美日等過在TS方面投入較多,成果凸顯。如,2001年歐盟年頒布了歐洲運輸政策白皮書,對交通事故進行主動預(yù)防等;計劃2013年在所有大型車輛安裝車道偏離預(yù)警、緊急制動系統(tǒng)等主動安全措施。2009年美國,建立了智能交通環(huán)境,提高其交通系統(tǒng)的安全性[2] [3]。日本在TS方面自1960年代大力發(fā)展智能交通系統(tǒng)。我國自20世紀90年代,TS受到政府、科研機構(gòu)和企業(yè)的關(guān)注。從國家戰(zhàn)略角度,由國家科技部牽頭聯(lián)合多部門全面規(guī)劃智能交通發(fā)展。
1.2 運動目標檢測技術(shù)研究現(xiàn)狀
大力發(fā)展運動目標監(jiān)測相關(guān)技術(shù)有利于我國TS標準制定、改造和完善城市交通管理系統(tǒng)、發(fā)展公共交通系統(tǒng)等業(yè)務(wù)?;谝曨l的運動目標檢測技術(shù)受到社會各界廣泛關(guān)注。如實時視覺監(jiān)控系統(tǒng)W4[4],對室外多人環(huán)境下的活動進行檢測、跟蹤、定位,并通過建立模型實現(xiàn)跟蹤與檢測。國際上各權(quán)威期刊如PAM、WVS等都對基于視頻的運動目標檢測技術(shù)進行了相關(guān)研究。在TS中,運動目標檢測技術(shù)主要包含視頻圖像預(yù)處理、運動目標檢測、運動目標追蹤、目標行為識別和場景理解描述等方面內(nèi)容。其中,運動目標檢測是目標跟蹤、行為理解、場景理解等后期處理的基礎(chǔ)。運動目標檢測方法核心理念是利用目標相對于場景的運動,將目標從背景中分離處理,實現(xiàn)運動目標的檢測。從研究文獻來看,現(xiàn)有的檢測方法通常有幀間差分法[5]、光流法[6]、背景差減法[7]等?,F(xiàn)有運動目標檢測算法各有優(yōu)缺點,但共同的缺陷是對目標陰影不能很好的進行有效抑制。所以,對運動目標陰影進行有效抑制是運動目標檢測技術(shù)的一個重要研究方向。
國內(nèi)學者對運動目標陰影抑制研究主要有兩類:基于模型的陰影抑制和基于屬性的陰影抑制。雖然國內(nèi)學者對運動目標的背景也進行了建模研究[8],如,高斯混合模型、卡爾曼估計模型等,但運動目標檢測算法在復(fù)雜場景下并不完美。針對在TS中交通道路視頻監(jiān)控畫面背景復(fù)雜、系統(tǒng)實時性要求高、檢測出運動目標難度大等現(xiàn)實困境,本文對復(fù)雜背景運動目標檢測算法進行改進,提高系統(tǒng)實時性、準確性,改善檢測效果。
2 雙模型自適應(yīng)背景建模方法改進
2.1 運動目標檢測技術(shù)基礎(chǔ)
運動目標檢測是后續(xù)運動目標追蹤、行為分類、行為識別等操作的基礎(chǔ)。視頻監(jiān)控圖像運動目標檢測包括圖像預(yù)處理、圖像分割、特征提取、判決分類等環(huán)節(jié),如圖1所示。
在TS中,圖像傳輸和轉(zhuǎn)換會導致圖像部分質(zhì)量下降,運動目標圖像預(yù)處理通過技術(shù)手段對圖像質(zhì)量進行還原與改善。圖像質(zhì)量的改善,目前有圖像增強和圖像復(fù)原兩大類技術(shù),而在TS中通常使用變換域和空間域[9]兩種圖像增強技術(shù)。
圖像分割即把圖像分割成多個差異明顯的區(qū)域,并提取感興趣的目標 [1]。通常將運動目標圖像中感興趣的部分圖像稱之為前景或目標,其它稱為背景。目前常用的圖像分割有基于區(qū)域、基于邊緣檢測和基于特定理論等3種分割技術(shù)[10]。
運動目標特征提取,關(guān)鍵在于特征的選取及特征識別。在TS中通常采用具有唯一性、魯棒性等多個組合特征來識別圖像。基于模式特征不同選擇、判決方法不同,運動目標判決識別一般有結(jié)構(gòu)模式、模糊模式、統(tǒng)計模式三種識別模式[11]。
2.2 運動目標檢測技術(shù)算法研究
運動目標檢測其核心思想是從視頻監(jiān)控圖像頻序列中,將變化區(qū)域的運動目標圖像從背景中較完整提取出來。由于受光照、天氣等外界影響,導致運動目標的正確檢測有很大困難。目前常用的檢測技術(shù)方法有光流法,幀間差分法,背景差減法等。
光流法,描述空間運動物體動態(tài)行為與表面結(jié)構(gòu)的信息,適用于瞬時速度場景。光流的計算有基于匹配(基于區(qū)域、基于特征進行定位跟蹤)、頻域(通過濾波進行相位或頻率輸出)、梯度(采用序列的時空微分計算光流)的3種方法。改方法由于受陰影、噪聲等影響,精確度低復(fù)雜度高,難以滿足實時性檢測需求。
幀間差分法,對運動目標檢測雖然具有自適應(yīng)性強、魯棒性好等特點,但是其應(yīng)用場景要求具備噪聲較小、背景基本無變化、目標速度不為零且目標區(qū)域亮度變化明顯等特性,導致對動態(tài)目標進行跟蹤時必須采用如塊匹配法、坐標變換法等對全局運動作出補償才能達到較好的檢測效果。在幀間差分算法中典型代表為雙差分方法,該方法在差分圖像基礎(chǔ)上進行二次像素相乘處理,其計算公式如式(1)—式(3)。DK-1(x,y)=|K(x,y)-K-1(x,y)|
(1)
DK(x,y)=|K+1(x,y)-K(x,y)|
(2)
TK(x,y)=1DK(x,y)≥T∩DK-1(x,y)≥T
0DK(x,y)(3) ?幀間差分算法中的區(qū)域差分法利用空間信息消除噪聲影響,其運算為式(4)。HK(x,y)=∑(x,y)∈AHK(x,y)
(4)
DK-1(x,y)=|HK(x,y)-HK-1(x,y)|
(5) ?HK(x,y)為模板區(qū)域內(nèi)圖像像素灰度和,A為模板區(qū)間。
背景差減法,將背景模型與輸入視頻圖像對比,通過對比其灰度特征或直方圖統(tǒng)計信息變化來分割運動目標并判別異常情況。其工作流程圖2所示。
背景差減法利用當前背景幀與當前幀進行差值后得到圖像。假設(shè)圖像序列第H幀在像素(x,y)的灰度值為H(x,y),用BH(x,y)表示其背景灰度值,那么其背景差圖DH(x,y)、二值TH(x,y)結(jié)果是式(6)、式(7)。DH(x,y)=|K+1(x,y)-BK(x,y)|
(6)
TH(x,y)=1DH(x,y)≥thresh
0DH(x,y)(7) ?在(7)中,thresh為二值化的閥值,當TK(x,y)=1時,表示其為當前圖像與一部分被誤判成前景的噪聲。背景差減法可以檢測不運動的物體,但其收天氣、光線等條件影響較大,同時因背景更新導致算法復(fù)雜性和實時性不能完全滿足現(xiàn)實需求。
2.3 TS中視頻監(jiān)控背景建模研究
在TS中,運動目標檢測首要任務(wù)是準確獲取背景圖像,并為后續(xù)各種高級操作奠定基礎(chǔ)。但是,在現(xiàn)實場景中經(jīng)常存在背景樹葉、樹枝的擾動、早中晚光照變化、天氣影響、背景更新等因素影響。目前背景建模算法主要有模型法和非模型法兩類自適應(yīng)背景提取及更新方法。模型法通過為背景中每個像素點建立一個獨立的背景模型,提取背景圖像。模型法采用自適應(yīng)更新機制較好適應(yīng)交通道路背景變化。如,高斯混合分布模型就是采用自適應(yīng)更新機制,并能較好適應(yīng)交通道路背景變化來提取背景圖像。背景模型的建立通常包含背景初始化、背景更新兩個步驟。在背景初始化算法中典型算法有時間平均模型、高斯混合模型以及像素估計等3種方法。時間平均模型法(TAM),基于某時間序列的視頻圖像,對其取平均值,得到背景估計值。該算法簡單,復(fù)雜度低,但存在前景、背景容易混淆、圖像不清晰、準確率不高等缺點。像素估計法,即從過去的視頻序列中對每個像素的背景值進行估計,典型的方法有時間中值法[12] [13]。高斯混合模型法(GMM),高斯混合模型法所建立的模型為像素級模型,圖像中每個像素點都有自己的獨立模型,對TS視頻監(jiān)控圖像中任何一像素點(x,y),其灰度值在一定時間內(nèi)構(gòu)成一個時間序列,如圖3所示。
在緩慢變化的場景下,視頻監(jiān)控圖像中的像素點在過去一定時間內(nèi)樣本灰度值時間序列分布都可以用一個高斯混合模型來進行定義或描述。因視頻圖像中每個點都有其相依的模型參數(shù),進而可以準確表達各像素點不同的分布情況,最終完成背景的準確提取。
2.4 雙模型自適應(yīng)背景建模方法改進
由于視頻背景中顏色分布的差異性很大,其對背景模型精細程度要求也不相同。由于傳統(tǒng)背景建模方法中像素顏色分布在時間上的時變性和在空間上的不一致性,導致模型在計算量小背景簡單、計算量大且精細背景要求的實際應(yīng)用過程中存在不少困境。鑒于上述傳統(tǒng)模型存在的問題,本研究將基于雙模型思路對分布范圍窄且取值范圍不確定性小的背景建立簡單模型;對亮度范圍分布寬且取值不確定性大的背景建立精細模型,以此來提高算法的精確度。雙模型算法在高斯混合模型和時間平均模型的基礎(chǔ)上進行改進,具體包括以下步驟:
2.4.1 劃分視頻監(jiān)控區(qū)域
監(jiān)控區(qū)域劃分,即將背景圖像通過熵圖像劃分成獨立不交叉的監(jiān)控區(qū)域,并從中選取代表性檢測區(qū)域級監(jiān)控點。在監(jiān)控點選取時盡量選擇區(qū)域中心附近的像素點。如,時間監(jiān)控圖像初始畫面尺寸大小為a×b,坐標為(x, y)的像素表示為Px,y。進行熵圖像計算時,選取m×m為小區(qū)域尺寸,熵圖像尺寸為a′×l′,其中,a′=a/n,′=a/n。熵圖像中坐標為(x′,y′)的像素表示為Px′,y′ ,與熵圖像對應(yīng)原始圖像中m×m小區(qū)域用R x′,y′表示。如果監(jiān)測區(qū)域的尺寸是m′×m′,則共有n″×b″個監(jiān)測點,其中,n″=n/m′,b″=n′/m′。第(x″,y″個監(jiān)測點表示為Px″y″,第(x″,jy″)個監(jiān)測區(qū)域為R x″,y″,表示包含mm′×mm′個原始視頻監(jiān)控圖像中的像素。
2.4.2 監(jiān)測點亮度分布更新
在某時刻t,像素P x′,y′,欲更新其亮度分布直方圖,需確保應(yīng)用于R x′,y′的原始視頻中m×m個像素點在t時刻全部來自背景圖像,否則將不予以更新。假設(shè)時間標簽t為當前圖像序列時刻,t′是激活直方圖更新過程的起始。分別用D x′,y′,c(t′)和H x′,y′,c(t′)表示監(jiān)測點Px′,y′經(jīng)過t′次更新后的直方圖和視頻分布,如式(8)、(9)。D x′,y′,c(t′)=[b x′,y′,c,l(t′)…b x′,y′,c,g(t′)]T
(8)
Hx′,y′,c(t′)=[b′ ?x′,y′,c,l(t′)…b′ ?x′,y′,c,g(t′)]T
(9) ?上式中,g表示灰度級數(shù)目,b x′,y′,c,z(t′)表示D x′,y′,c(t′)的第L個箱格的概值,b′ ?x′,y′,c,z(t′)表示H x′,y′,c(t′)的L個箱格中樣本數(shù)。
2.4.3 監(jiān)測點灰度值計算
根據(jù)熵的定義和性質(zhì),在更新模塊周期內(nèi),可以獲取熵圖像在時刻t的紅藍綠三個通道上的亮度分布直方圖。即式(10)。FN x′,y′,c(t)=-∑8q=1b x′,y′,c,q(t)log2b x′,y′,c,q(t)/log2g
(10) ?FN x′,y′,c(t)∈A[0,1],可以將三個通道上歸一化的熵值分別用FN x′,y′,R(t)、FN x′,y′,G(t)、FN x′,y′,B(t)表示,令式(11)。FN x′,y′(t)=max{FN x′,y′,R(t),F(xiàn)N x′,y′,G(t),F(xiàn)N x′,y′,B(t)}
(11) ?將FN x′,y′(t)按照式(12)映射到(0-255)灰度值并取整,獲得熵圖像上Px′,y′的灰度值FN x′,y′(t)如式(12)。FN x′,y′(t)=[255 FN x′,y′(t)]
(12)2.4.4 監(jiān)測區(qū)域更新決策
檢測區(qū)域中除監(jiān)測點外其它像素點只有在其亮度分布出現(xiàn)較大改變時才被啟動更新,通過不斷更新Px″y″ 像素點的歸一化熵值,并對其灰度值進行計算、判斷其它像素點是否發(fā)生較大變化。假設(shè)用S x″,y″(t)表示t時刻監(jiān)測區(qū)域更新決策模塊的二值邏輯輸出信號,即式(13)。Sxm,yn(t)=1,|Fxm,yn(t)-Fxn,ym(t)|>ε1
0,|Fxm,yn(t)-Fxn,ym(t)|≤ε1
(13) ?在式(13)中,Sxm,yn(t)等于0時表示不更新,當Sxm,yn(t)等于1時表示啟動更新算法。
2.4.5 熵圖更新終止邏輯
由于抽樣位置對歸一化熵值的增量(ΔFNx′,y′(t′))影響比較大,所以不能用簡單用熵值的增量值是否非常小而決定應(yīng)不應(yīng)該對分布更新進行終止操作,通??梢杂肦濾波器對某時間序列熵值增量進行平滑處理,經(jīng)過平滑出來后能科學合理地判定是否終止更新。如式(14)。
ΔFNSx′,y′(t′)=
c0t′=0
(1-γ)ΔFNSx′,y′(t′-1)+γΔFNSx′,y′(t′),t′t′≠0
(14)
在式(14)中,c0為濾波器初始值,γ為平滑參數(shù),對ΔFNSx′,y′(t′)用閥值法來判定是否更新,即式(15)。S′ ?x′,y′(t′)=1,ΔFNSx′,y′(t′)<ε2
0,ΔFNSx′,y′(t′)≥ε2
(15) ?在式(15)中,ε2為判決閥值,S′ ?x′,y′(t′)表示t′次更新時間,更新終止邏輯對點Px′,y′的輸出邏輯值。當S′ ?x′,y′(t′)=1時,斷開開關(guān)停止P x′,y′更新,當S′ ?x′,y′(t′)=0時,表示繼續(xù)更新。
2.4.6 背景復(fù)雜度判斷邏輯
背景復(fù)雜度判斷邏輯通常根據(jù)每個像素熵圖像的灰度值來決定采取哪種背景模型。如在t時刻背景圖像中的每個像素點Px,y對應(yīng)一個灰度值Fx,y(t),即式(16)。Px,y=∈A(t),F(xiàn)Nx,y(t′)<ε3
∈(t),F(xiàn)Nx,y(t′)≥ε3
(16) ?在式(16)中ε3為判別閥值,A(t)和(t)表示高、低復(fù)雜背景點的集合,通過該公式可以判別像素點屬于簡單背景或復(fù)雜背景區(qū)域。
2.4.7 簡單背景模型
簡單背景模型通常采用時間平均模型的方法進行背景更新,其更新過程為式(17)。μ(x,y)=(1-α)μt-1(x,y)+αXt(x,y)
(17) ?在式(17)中,μ(x,y)為參考背景圖像中像素點(x, y)的t時刻值,α為模型的學習速度,Xt(x,y)為像素(x, y)在t時刻的觀測值。在t+1時刻,若像素滿足式(18),那么它就屬于背景,否則它屬于前景。式(18)中‖‖為向量范數(shù),thresh為判別閾值為式(18)?!琗t+1(x,y)-μt(x,y)‖(18)2.4.8 精細背景模型
利用高斯混合模型,將背景圖像中每個像素亮度分布用N個高斯函數(shù)來近似,其表達為式(19)。P(Xt)=∑N=1w,tδ(x,μ,t,∑,t)
(19) ?在式(19)中,權(quán)值w,t必須滿足∑N=0w,t=1,μ,t為均值向量,∑,t為協(xié)方差矩陣。在復(fù)雜精細背景模型中首先要確定代表背景的高斯模型有多少個(用B表示),通常做法是先找出背景分布的高斯分量,再將N個高斯函數(shù)值從大到小排序,取前面B個作為代表背景高斯模型,即式(21)。B=arg mn(∑b=1w,t>T)
(20) ?在式(20)中,T為設(shè)定的閥值參數(shù)。當某像素觀測值Xt+1到來時,若B個高斯函數(shù)中任何一個滿足式(21),那么表示該像素P在t+1時刻為背景,否則將其判決為運動目標。在式(21)中,λ通常默認值為2.5。如式(21)?!琗t+1-μ,t‖<λσ,t, ∈1,2,…,B
(21)3 實驗仿真與結(jié)果分析
在仿真實驗中,在高斯混合模型(GMM)和時間平均模型(TAM)基礎(chǔ)上,改進雙模型運動目標檢測,視頻采用地方交通運輸部門視頻,視頻原始幀為25幀/秒,圖像尺寸為320×240。實驗仿真中,GMM的方差、均值和權(quán)值學習速度均為0.002 5,閥值參數(shù)ε1為25,ε2為4×10-5,平滑參數(shù)γ為0.15。TAM均值學習速度為0.003,決策閥值為20。
實驗視頻圖像序列如圖4所示。
由于樹葉的晃動造成動態(tài)陰影以及周邊車輛的干擾,導致背景圖像具有較強的動態(tài)性。
圖4為原始圖像,圖5為高斯混合模型(GMM)處理結(jié)果,圖6為時間平均模型(TAM)處理結(jié)果,圖7為雙模型自適應(yīng)算法處理結(jié)果。
從圖5、圖6、圖7可直觀看出,時間平均模型和高斯混合模型法都存在目標信息不完整和車身區(qū)域空掉較多等問題;而利用本研究的雙模型自適應(yīng)算法檢測的目標信息交完整且相對清晰,具體各種方法的參數(shù)對比見表1所示。
通過實驗發(fā)現(xiàn)在雙模自適應(yīng)算法中對ε3取值為130時效果最好,當ε3值變大時,雖然檢測速度增加了,但是檢測效果卻并沒有顯著提升。
4 總結(jié)
本章提出了一種基于高斯混合模型(GMM)和時間平均模型(TAM)來改進雙模型自適應(yīng)運動目標檢測算法。相比傳統(tǒng)算法,本算法可根據(jù)場景中不同區(qū)域自適應(yīng)選用不同的模型,以提高算法的準確性和性能。通過實驗及參數(shù)比較,表明本研究算法具有較好性能和優(yōu)越性。
參考文獻
[1] 石明豐,王玲,張會勇.靜止成像平臺近景視頻運動目標檢測與跟蹤[J].世界科技研究與發(fā)展,2013,35(1):62-64.
[2] Hamll A.A Topology—Based Approach to the Predctve Analyss of ntellgent Transportaton Systems Dynamcs[C]. New Technologes Moblty and Securty 5th nternatonal Conference, stanbul, 2016(10):1-5.
[3] Aldona Jarastuncne. Research nto ntellgent Transport Systems (TS )technologes and Effcency[J]. Transport,2010,22(2):61-67.
[4] Hartaoglu ,Harwood D,Davs L.W4:Real-tme survellance of people and ther actvtes[J].EEE Trans. on Pattern Analyss and Machne ntellgence,2009,22(8):809-830.
[5] Chen N,Dng F.Flame Object Segmentaton by an mproved Frame Dfference Method [C].2012 the Thrd nternatonal Conference on Dgtal Manufacturng and Automaton.Guangx,2015(8):422-425.
[6] Sakano H. A Sem transparency-Based Optcal-Flow Method wth a Pont Trajectory Model for Partcle-Lke Vdeo[J]. EEE Transactons on mage Processng,2012,21(2):441-450.
[7] ntachak T, Kaewapcha W. Real-tme llumnaton feedback system for adaptve background subtracton workng n traffc vdeo montorng[C].2015 nternatonal Symposum on ntellgent Sgnal Processng and Communcatons systems.Japan(Nagoya),2015(8):1-5.
[8] Gallego J, Pardas M,Haro G Bayesan foreground segmentaton and trackng usng pxel-wse background model and regon based foreground model[C]. Proc. of the 16th EEE nternatonal Conference mage Processng, Caro,2012,16(4), 3205-3208.
[9] 喬玲玲. 圖像分割算法研究及實現(xiàn)[D].武漢:武漢理工大學,2009.
[10] Nkh ?R, Pal.A revew on mage Segment Technques[J].Patter Recognton,2003,26(9):1277-1291.
[11] 金聰,郭京蕾. 人工智能原理與應(yīng)用[M].北京:清華大學出版社,2013.
[12] Long W,Yang Y.Statonary background generaton:An alternatve to the dfference of two mages[J].Pattern Recognton,2014,23(12):1351-1359.
[13] 楊艷.智能交通中運動目標檢測與跟蹤算法研究[D].昆明:昆明理工大學,2016.
(收稿日期: 2018.12.12)
基金項目:湖南省教育廳科研項目(15B072)
作者簡介:成亞玲(1981-),女(回族),上海青浦人,副教授、軟件設(shè)計師,碩士,主要研究方向:軟件工程、模式識別和人工智能。
彭湘華(1985-),男,株洲人,講師、軟件設(shè)計師,碩士,研究方向:數(shù)據(jù)挖掘。
譚愛平(1979-),男,株洲人,副教授、網(wǎng)絡(luò)工程師,碩士,研究方向:數(shù)據(jù)挖掘。文章編號:1007-757X(2020)01-0036-05