賴程程 梁麟
摘? 要: 為了提高對民族地區(qū)舞蹈人員的指導(dǎo)能力,提出基于輪廓模型和AdaBoost算法的民族地區(qū)舞蹈人員跟蹤技術(shù)。構(gòu)建民族地區(qū)舞蹈人員的視頻跟蹤掃描成像模型,檢測民族地區(qū)舞蹈人員的視頻圖像邊緣輪廓模型,根據(jù)初始輪廓分布進(jìn)行民族地區(qū)舞蹈人員視頻圖像的增強(qiáng)處理,建立民族地區(qū)舞蹈人員跟蹤圖像的視覺感知模型,通過區(qū)域像素特征重構(gòu)方法進(jìn)行民族地區(qū)舞蹈人員圖像跟蹤的三維信息重建,采用AdaBoost算法完成民族地區(qū)舞蹈人員的輪廓檢測和像素跟蹤,提高民族地區(qū)舞蹈人員的像素跟蹤和識別能力。仿真結(jié)果表明,采用該方法跟蹤民族地區(qū)舞蹈人員的信息融合度及識別率較高,能有效提高民族地區(qū)舞蹈的訓(xùn)練指導(dǎo)能力。
關(guān)鍵詞: 民族舞蹈人員; 跟蹤技術(shù); 民族地區(qū); 圖像處理; 輪廓模型; AdaBoost算法
中圖分類號: TN911.73?34; TP391? ? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識碼: A? ? ? ? ? ? ? ? ? ?文章編號: 1004?373X(2020)05?0042?04
Research on ethnic areas′ dancer tracking technology
based on contour model and AdaBoost algorithm
LAI Chengcheng1, LIANG Lin2
(1. Guangxi Normal University, Guilin 541004, China; 2. Guilin Wencui Software Development Co., Ltd., Guilin 541004, China)
Abstract: An ethnic areas′ dancer tracking technology based on the contour model and AdaBoost algorithm is proposed to improve the ability to guide the dancers in ethnic areas. The video tracking scanning imaging model for the dancers in ethnic areas is created to perform edge contour model detection for the video images of the dancers. The enhancement processing of video images of the dancers in ethnic areas is performed according to the initial profile distribution to establish the visual perception model of tracking images of the dancers in ethnic areas. The 3D information of image tracking of the dancers in ethnic areas is reconstructed by the method of regional pixel feature reconstruction. The AdaBoost algorithm is used for the contour detection and pixel tracking of the dancers to improve the pixel tracking and recognition abilities of the dancers in ethnic areas. The simulation results show that the method has high information fusion level and recognition rate, which effectively improves the training and guidance abilities of the dancers in ethnic areas.
Keywords: ethnic dancer; tracking technology; ethnic area; image processing; contour model; AdaBoost algorithm
0? 引? 言
民族地區(qū)舞蹈是我國的傳統(tǒng)藝術(shù)瑰寶,為了實(shí)現(xiàn)對民族地區(qū)舞蹈的傳承,需要進(jìn)行民族地區(qū)舞蹈的優(yōu)化指導(dǎo),隨著圖像處理設(shè)計(jì)的發(fā)展,采用視頻監(jiān)控和視覺圖像分析的方法進(jìn)行民族地區(qū)舞蹈人員的圖像重構(gòu)和特征識別,根據(jù)圖像分析結(jié)果進(jìn)行舞蹈人員的動(dòng)作糾正和規(guī)范,提高民族地區(qū)舞蹈的訓(xùn)練和優(yōu)化指導(dǎo)能力[1]。研究民族地區(qū)舞蹈人員跟蹤技術(shù),分析民族地區(qū)舞蹈人員的動(dòng)作特征,通過特征提取方法進(jìn)行專家指導(dǎo)和評判,可以有效提高訓(xùn)練的針對性和動(dòng)作的規(guī)范化糾正能力[2]。本文提出基于輪廓模型和AdaBoost算法的民族地區(qū)舞蹈人員跟蹤技術(shù)。首先分析民族地區(qū)舞蹈人員的視頻圖像樣本,然后構(gòu)建民族地區(qū)舞蹈人員視頻圖像的輪廓模型,采用AdaBoost算法跟蹤識別民族地區(qū)舞蹈人員,最后進(jìn)行仿真實(shí)驗(yàn)分析,驗(yàn)證了所提方法在提高民族地區(qū)舞蹈人員跟蹤識別能力方面的優(yōu)越性能。
1? 成像模型及邊緣輪廓模型檢測
1.1? 民族地區(qū)舞蹈人員的視頻跟蹤掃描成像模型
為了實(shí)現(xiàn)民族地區(qū)舞蹈人員跟蹤識別,需要構(gòu)建民族地區(qū)舞蹈人員的視頻跟蹤掃描成像模型,檢測民族地區(qū)舞蹈人員的視頻圖像邊緣輪廓模型,采用視頻圖像跟蹤技術(shù)分析舞蹈人員的細(xì)節(jié)化特征,根據(jù)民族地區(qū)舞蹈人員的動(dòng)作特征提取結(jié)果,指導(dǎo)民族地區(qū)舞蹈訓(xùn)練和教學(xué)。結(jié)合視頻特征分析和圖像采集技術(shù),采集民族地區(qū)舞蹈人員的動(dòng)態(tài)視頻信息樣本,使用攝影機(jī)和圖像傳感器跟蹤識別民族地區(qū)舞蹈人員的動(dòng)作,并量化分析視頻幀格式特征[3],結(jié)合機(jī)器視覺重構(gòu)的方法提取民族地區(qū)舞蹈人員特征,根據(jù)特征提取結(jié)果跟蹤民族地區(qū)舞蹈人員位姿,總體實(shí)現(xiàn)流程如圖1所示。
結(jié)合圖1對民族地區(qū)舞蹈人員視頻圖像進(jìn)行邊緣輪廓特征分解,采用視點(diǎn)跟蹤切換方法進(jìn)行民族地區(qū)舞蹈人員視頻特征提取和技術(shù)動(dòng)態(tài)跟蹤識別[4]。假設(shè)民族地區(qū)舞蹈人員視頻幀結(jié)構(gòu)形式為:
[uit=uiti=1Nuit]? (1)
式中:[uit]為民族地區(qū)舞蹈人員視頻幀權(quán)重,[i=1,2,…,N]為關(guān)鍵視頻幀數(shù)量。基于遠(yuǎn)程視頻監(jiān)控的方法,結(jié)合視頻特征分析技術(shù),采用視頻像素融合的方法進(jìn)行民族地區(qū)舞蹈的動(dòng)作特征信息融合[5],得到輸出的動(dòng)態(tài)關(guān)聯(lián)特征量為:
[MHF=i=1N1-V(Mi)i=1NMi(Ci)] (2)
式中:[MHF]為圖像數(shù)據(jù)集的定位誤差;[MiCi]為數(shù)據(jù)集圖像內(nèi)容分布特征集;[1-VMi]為三階中心距。
根據(jù)初始輪廓分布進(jìn)行民族地區(qū)舞蹈人員視頻圖像的增強(qiáng)處理,檢測民族地區(qū)舞蹈人員的動(dòng)作特征的邊緣輪廓,并標(biāo)定人員的關(guān)鍵部位特征點(diǎn)[6],在初始化向量誤差下,得到民族地區(qū)舞蹈運(yùn)動(dòng)動(dòng)作視頻信息采集的模糊度函數(shù)和關(guān)聯(lián)像素集為:
[Il(n1,n2)=14i1=01 i2=01Il-1(2n1+i1,2n2+i2)] (3)
[Jl(n1,n2)=14i1=01 i2=01Jl-1(2n1+i1,2n2+i2)] (4)
式中:[n1],[n2]分別為舞蹈動(dòng)作在[x]軸、[y]軸方向的起始點(diǎn);[i1],[i2]分別為舞蹈動(dòng)作在[x]軸、[y]軸方向的終止點(diǎn);[Il-12n1+i1,2n2+i2]為民族地區(qū)舞蹈視頻模糊信息量;[Jl-12n1+i1,2n2+i2]為民族地區(qū)舞蹈視頻關(guān)聯(lián)信息量;[l]為誤差系數(shù)。在計(jì)算機(jī)輔助視覺下,量化跟蹤識別民族地區(qū)舞蹈人員動(dòng)態(tài)視頻信息,實(shí)現(xiàn)民族地區(qū)舞蹈人員的視頻跟蹤掃描成像[7]。
1.2? 邊緣輪廓模型檢測
在上述構(gòu)建民族地區(qū)舞蹈人員的視頻跟蹤掃描成像模型的基礎(chǔ)上,對民族地區(qū)舞蹈人員的視頻圖像進(jìn)行邊緣輪廓模型檢測[8],民族地區(qū)舞蹈人員視頻圖像[I(x)]的二值化分離的表達(dá)式為:
[I(x)=Aρ(x)e-βd(x)+A(1-e-βd(x))]? (5)
式中:[e-βd(x)]表示民族地區(qū)舞蹈人員的視頻圖像邊緣輪廓點(diǎn)閾值。
根據(jù)上述分塊結(jié)構(gòu)模型,采用模板特征匹配方法進(jìn)行民族地區(qū)舞蹈人員視頻圖像模糊細(xì)節(jié)融合聚類分析[9],給出初始的民族地區(qū)舞蹈人員視頻跟蹤的灰度像素集為:
[hj=1-β3ht+β3hktj] (6)
式中:[ht]為民族地區(qū)舞蹈人員視頻圖像特征向量的第[j]個(gè)分量;[hktj]為[t]時(shí)刻第[k]個(gè)人員視頻動(dòng)作圖像特征的第[j]個(gè)分量;[β]為舞蹈人員視頻圖像特征的更新率。
構(gòu)建民族地區(qū)舞蹈人員視頻圖像的邊緣輪廓檢測模型,采用Gamma?Gamma分布模型構(gòu)建民族地區(qū)舞蹈人員視頻跟蹤的模糊細(xì)節(jié)特征量[10],在分布式的散射模型中得到邊緣輪廓特征分布集為:
[I(x)=J(x)t(x)+A(1-t(x))] (7)
式中:[I(x)]表示視頻圖像的聯(lián)合結(jié)構(gòu)相似性特征量;[t(x)]為相鄰像素的模糊細(xì)節(jié)特征差系數(shù)。采用最大后驗(yàn)概率估計(jì)的方法,得到邊緣像素集為:
[t(x)=1-minc=1Ic(y)Ac]? ?(8)
重構(gòu)先驗(yàn)形狀分布特征集,將得到民族地區(qū)舞蹈人員視頻圖像的AdaBoost分解過程描述為:
[J(x)=I(x)-Amax(t(x),t0)+A]? (9)
式中[(t(x),t0)]為分布特征集中特征點(diǎn)的重構(gòu)坐標(biāo)。采用AdaBoost算法分割舞蹈人員的動(dòng)作特征[11],處理在[N×N]的局部區(qū)域中民族地區(qū)舞蹈人員視頻圖像分塊,得到舞蹈人員的動(dòng)作融合分塊權(quán)重為:
[J(x)=NI(x)-Amax(t(x),t0)+A] (10)
采用目標(biāo)輪廓重構(gòu)的方法重構(gòu)舞蹈人員動(dòng)態(tài)特征[12],得到初始化的先驗(yàn)形狀分解式為:
[pxi=i=1Kωi,t×ηxi;μi,t,Σi,t]? (11)
式中:[K]為輪廓特征高斯分布個(gè)數(shù);[ωi,t]為[t]時(shí)刻第[i]個(gè)關(guān)鍵視頻幀出現(xiàn)的先驗(yàn)概率;[μi,t]為第[i]個(gè)關(guān)鍵視頻幀在[t]時(shí)刻出現(xiàn)的均值;[Σi,t]為第[i]個(gè)關(guān)鍵視頻幀在[t]時(shí)刻的協(xié)方差矩陣;[η]為舞蹈人員視頻圖像像素值[xi]符合第[i]個(gè)關(guān)鍵視頻幀特征的概率分布函數(shù)。
利用多尺度Retinex分解方法進(jìn)行幾何結(jié)構(gòu)重構(gòu),得到舞蹈人員的視頻圖像邊緣輪廓檢測模型。
2? 民族地區(qū)舞蹈人員跟蹤優(yōu)化
2.1? 舞蹈人員圖像跟蹤的三維信息重建
在上述構(gòu)建民族地區(qū)舞蹈人員的視頻跟蹤掃描成像模型,并對民族地區(qū)舞蹈人員的視頻圖像進(jìn)行邊緣輪廓模型檢測的基礎(chǔ)上,進(jìn)行民族地區(qū)舞蹈人員跟蹤技術(shù)優(yōu)化,本文提出基于輪廓模型和AdaBoost算法的民族地區(qū)舞蹈人員跟蹤技術(shù)。通過區(qū)域像素特征重構(gòu)方法進(jìn)行民族地區(qū)舞蹈人員圖像跟蹤的三維信息重建,民族地區(qū)舞蹈人員視頻圖像的模糊細(xì)節(jié)分塊特征提取結(jié)果為:
[2] 胡敏,李沖,路榮榮,等.基于三維視覺指導(dǎo)的運(yùn)動(dòng)想象訓(xùn)練性能分析[J].計(jì)算機(jī)應(yīng)用,2018,38(3):836?841.
[3] WEI X S, LUO J H, WU J. Selective convolutional descriptor aggregation for fine?grained image retrieval [J]. IEEE transactions on image processing, 2017, 26(6): 2868?2881.
[4] AZIZPOUR H, RAZAVIAN A S, SULLIVAN J, et al. From generic to specific deep representations for visual recognition [C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Boston: IEEE, 2015: 36?45.
[5] RAZAVIAN A S, SULLIVAN J, CARLSSON S. Visual instance retrieval with deep convolutional networks [J]. ITE tran?sactions on media technology and applications, 2016, 4(3): 251?258.
[6] LIU Dong, ZHOU Dongming, NIE Rencan, et al. Multi?focus image fusion based on phase congruency motivate pulse coupled neural network?based in NSCT domain [J]. Journal of computer applications, 2018, 38(10): 3006?3012.
[7] YANG Lei. Multi?focus image fusion method based on NSST and IICM [C]// Proceedings of the 2017 International Confe?rence on Emerging Internetworking, Data and Web Technologies. Wuhan, China: [s.n.], 2017: 679?689.
[8] YANG Lei. Technique for image de?noising based on non?subsampled shearlet transform and improved intuitionistic fuzzy entropy [J]. Optik?international journal for light and electron optics, 2015, 126(4): 446?453.
[9] BHARADI V A, PADOLE L. Performance comparison of hybrid wavelet transform?I variants and contrast limited adaptive histogram equalization combination for image enhancement [C]// Proceedings of the 2017 14th International Conference on Wireless and Optical Communications Networks. Piscataway, NJ: IEEE, 2017: 1?8.
[10] L? Duliang, JIA Zhenhong, YANG Jie, et al. Remote sen?sing image enhancement based on the combination of nonsubsampled shearlet transform and guided filtering [J]. Optical engineering, 2016, 55(10): 103?104.
[11] 孫毅堂,宋慧慧,張開華,等.基于極深卷積神經(jīng)網(wǎng)絡(luò)的人臉超分辨率重建算法[J].計(jì)算機(jī)應(yīng)用,2018,38(4):1141?1145.
[12] LIU Huaming, BI Xuehui, YE Zhongfu, et al. Arc promoting inpainting using exemplar searching and priority filling [J]. Journal of image and graphics, 2016, 21(8): 993?1003.
[13] AMINU M, WAHID A, IDRIS M Y I, et al. Digital video inpainting detection using correlation of hessian matrix [J]. Malaysian journal of computer science, 2016, 29(3): 179?195.
[14] CHEN R, YANG G, ZHU N. Detection of object?based manipulation by the statistical features of object contour [J]. Forensic science international, 2014, 236(3): 164?169.
[15] 張然,趙鳳群.基于雙向擴(kuò)散與沖擊濾波的霧天圖像增強(qiáng)算法[J].計(jì)算機(jī)工程,2018,44(10):221?227.