蔡小愛,張海民
(1.宣城職業(yè)技術(shù)學(xué)院,安徽 宣城 242000;2.安徽信息工程學(xué)院,安徽 蕪湖 241000)
隨著虛擬現(xiàn)實(shí)和視景仿真技術(shù)的發(fā)展,采用虛擬視景仿真技術(shù)進(jìn)行VR全景視頻運(yùn)動(dòng)區(qū)域重構(gòu),在全景視頻環(huán)境下進(jìn)行VR全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的跟蹤識(shí)別,提高VR全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的準(zhǔn)確檢測(cè)和視覺信息跟蹤識(shí)別能力,研究VR全景視頻運(yùn)動(dòng)區(qū)域的跟蹤方法在視頻成像和目標(biāo)識(shí)別中具有重要意義,在進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)跟蹤研究中,受到目標(biāo)自身的隨機(jī)性和環(huán)境擾動(dòng)性等因素的影響[1],導(dǎo)致全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的跟蹤能力不好,需要結(jié)合視覺融合和圖像優(yōu)化處理技術(shù),提高全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的跟蹤識(shí)別能力,相關(guān)的全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)跟蹤方法研究受到人們的極大關(guān)注[2].本文提出基于VR技術(shù)的全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)精準(zhǔn)跟蹤方法.建立全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的虛擬成像模型,采用時(shí)頻特征提取和多元信息跟蹤融合方法進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的特征提取和像素跟蹤識(shí)別,實(shí)現(xiàn)對(duì)目標(biāo)圖像的優(yōu)化特征分離,結(jié)合多尺度小波分解方法進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的特征分解,提高目標(biāo)跟蹤能力,最后進(jìn)行仿真測(cè)試分析,得出有效性結(jié)論.
EFA(θ*,ρ*)=(θe,ρe)
(1)
設(shè)h為全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的邊緣像素集,設(shè)定基準(zhǔn)線為(θe,ρe),在成像區(qū)域,以全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的灰度特征量為x軸,進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的特征重構(gòu)[5],得到全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的灰度特征(EX,EY,EZ)重組輸出為:
(2)
根據(jù)上述分析,以ρe-R為位移單位進(jìn)行x軸方向平移,建立全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)成像模型,全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的三維流形分布如圖1所示.
圖1 全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的三維流形
建立全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的虛擬成像模型,提取全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)成像的邊緣輪廓特征值[6],構(gòu)建VR全景視頻運(yùn)動(dòng)區(qū)域分布二維張量可以用一個(gè)2×2的矩陣表示:
(3)
s≤t?κs(A)≤κt(A)
(4)
(5)
(6)
式中,κ(A)為目標(biāo)圖像分塊融合模型.
考慮VR全景視頻運(yùn)動(dòng)目標(biāo)區(qū)域的灰度圖像f,對(duì)任意像素(x,y),采用模糊信息融合的方法,建立VR全景視頻運(yùn)動(dòng)成像的拓?fù)浣Y(jié)構(gòu)為:
(7)
(8)
對(duì)任意像素的視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像(x,y)∈E,令灰度特征值為A(x,y)={T(s,t)|(s,t)∈B(x,y)},根據(jù)分塊融合結(jié)果,進(jìn)行視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的特征提取和目標(biāo)跟蹤識(shí)別[8].
在上述建立全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的虛擬成像模型的基礎(chǔ)上,進(jìn)行目標(biāo)跟蹤算法的優(yōu)化設(shè)計(jì),本文提出基于VR技術(shù)的全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)精準(zhǔn)跟蹤方法,提取全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)成像的邊緣輪廓特征值,采用角點(diǎn)跟蹤檢測(cè)方法進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域融合處理和圖像像素融合,對(duì)于圖像的Harris角點(diǎn)f,結(jié)合分塊檢測(cè)的方法,得到目標(biāo)像素集為(x,y),采用差分信息融合的方法,建立圖像的目標(biāo)特征匹配模型,得到灰度鄰域?yàn)锽(x,y),對(duì)圖像進(jìn)行自適應(yīng)加權(quán)融合,提取全景視頻運(yùn)動(dòng)區(qū)域關(guān)聯(lián)信息,得到全序列目標(biāo)融合的特征量GD為:
(9)
I(x,y)表示全景視頻運(yùn)動(dòng)區(qū)域圖像在(x,y)處的灰度值,L(x,y,σ)表示高斯尺度,對(duì)全景視頻運(yùn)動(dòng)區(qū)域的向量量化編碼和融合處理[9],得到量化編碼集g(w,θ)為:
(10)
其中,θj=jπ/J,j={0,1,...,J-1}為全景視頻運(yùn)動(dòng)區(qū)域成像的關(guān)聯(lián)規(guī)則特征集,對(duì)全景視頻運(yùn)動(dòng)區(qū)域中的色度信息進(jìn)行自適應(yīng)融合,得到圖像的信息熵表示為:
(11)
采用灰度窗口匹配方法,建立全景視頻運(yùn)動(dòng)區(qū)域圖像特征分割模型,得到圖像融合特征:
(12)
設(shè)特征集F(x,y)∈{g(x,y)-1,g(x,y),g(x,y)+1},采用時(shí)頻跟蹤融合方法進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)圖像的像素特征分離,提高運(yùn)動(dòng)目標(biāo)區(qū)域精準(zhǔn)跟蹤和識(shí)別能力.
提取全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的關(guān)聯(lián)特征量,采用時(shí)頻跟蹤融合方法進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)區(qū)域融合,建立全景視頻運(yùn)動(dòng)區(qū)域圖像融合的關(guān)聯(lián)算子,得到輸出的關(guān)聯(lián)在特征集定義如下:
(13)
(14)
考慮論域E上的全景視頻運(yùn)動(dòng)區(qū)域圖像的關(guān)聯(lián)映射F:E→R3,設(shè)T:E→PDS(2)為統(tǒng)計(jì)特征集,得到全景視頻運(yùn)動(dòng)區(qū)域圖像高維尺度分割的張量模型為(S,I),圖像的全序重構(gòu)輸出為:
Ai≤(S,I)Aj?h(S,I)(Ai)≤h(S,I)(Aj)
(15)
h(S,I)(A)=K(S,A)-K(I,A)
(16)
采用形態(tài)學(xué)算法進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域圖像的梯度分解,得到梯度模型,在邊緣像素集中,進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域圖像重建,得到歸一化重建系數(shù)SP為:
(17)
根據(jù)上述分析,提取全景視頻運(yùn)動(dòng)區(qū)域圖像的VR視景特征量,在虛擬視景仿真模型中實(shí)現(xiàn)全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的精準(zhǔn)跟蹤和識(shí)別,得到優(yōu)化識(shí)別輸出為:A(x,y)={T(s,t)|(s,t)∈B(x,y)},通過自適應(yīng)特征匹配方法,實(shí)現(xiàn)在虛擬視景仿真模型中實(shí)現(xiàn)全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的精準(zhǔn)跟蹤[10].
圖2 不同幀下的運(yùn)動(dòng)區(qū)域目標(biāo)跟蹤結(jié)果
分析上述仿真結(jié)果得知,采用所提方法能有效實(shí)現(xiàn)對(duì)全景視頻下的運(yùn)動(dòng)區(qū)域目標(biāo)精準(zhǔn)跟蹤,視頻跟蹤的精度較高,特征分辨能力較好.測(cè)試跟蹤精度,得到對(duì)比結(jié)果如圖3所示.
圖3 跟蹤精度對(duì)比測(cè)試
分析圖3得知,所提方法進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)跟蹤的精度較高.
提出基于VR技術(shù)的全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)精準(zhǔn)跟蹤方法.提取全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)成像的邊緣輪廓特征值,建立VR全景視頻運(yùn)動(dòng)區(qū)域融合模型,結(jié)合近鄰點(diǎn)像素序列重排方法進(jìn)行VR全景視頻運(yùn)動(dòng)特征重組,采用自適應(yīng)加權(quán)方法進(jìn)行圖像的加權(quán)融合,結(jié)合分塊檢測(cè)的方法建立圖像的目標(biāo)特征匹配模型,提取全景視頻運(yùn)動(dòng)區(qū)域關(guān)聯(lián)信息,在虛擬視景仿真模型中實(shí)現(xiàn)全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)的精準(zhǔn)跟蹤和識(shí)別.分析得知,本方法進(jìn)行全景視頻運(yùn)動(dòng)區(qū)域目標(biāo)精準(zhǔn)跟蹤的精度較高,分辨能力較好.