• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      面向視頻傳感器網(wǎng)絡(luò)的視頻壓縮方法設(shè)計(jì)

      2015-05-30 10:48:04陳龍飛余濤
      計(jì)算機(jī)時(shí)代 2015年4期

      陳龍飛 余濤

      摘 要: 視頻傳感器網(wǎng)絡(luò)在監(jiān)控過(guò)程中會(huì)產(chǎn)生大量數(shù)據(jù),為此提出一種改進(jìn)的基于對(duì)象的視頻壓縮方法。首先,運(yùn)用改進(jìn)的混合高斯模型進(jìn)行背景建模;其次,提出宏塊分類(lèi)方法,對(duì)視頻幀圖像進(jìn)行宏塊分類(lèi);然后,利用宏塊分類(lèi)結(jié)果,實(shí)現(xiàn)前景和背景的分離;最后,分別對(duì)前景和背景進(jìn)行壓縮,形成各自的編碼流。實(shí)驗(yàn)結(jié)果表明,該方法具有比MPEG-4更強(qiáng)的壓縮能力,滿足視頻傳感器網(wǎng)絡(luò)的視頻壓縮需求。

      關(guān)鍵詞: 視頻傳感器網(wǎng)絡(luò); 視頻壓縮; 混合高斯; 背景減除法; 視頻對(duì)象

      中圖分類(lèi)號(hào):TP391.4 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1006-8228(2015)04-06-03

      Abstract: In the monitoring process, the video sensor networks will produce large amounts of data. For this problem, this paper presents an improved method for object-based video compression. Firstly, the improved Gaussian mixture model is used to model background. Secondly, macroblock classification method is proposed to classify the macroblock of video frame image. Thirdly, the results of macroblock classification is used to realize the separation between foreground and background. Finally, foreground and background are separately compressed to form a respective encoded streams. Experimental results show that the method is stronger than the MPEG-4 and meet the needs of video compression in video sensor networks.

      Key words: video sensor networks; video compression; GMM; background subtraction; video object

      0 引言

      視頻傳感器網(wǎng)絡(luò)(video sensor network,VSN)作為無(wú)線傳感器網(wǎng)絡(luò)的典型應(yīng)用實(shí)例[1],具有重要的研究?jī)r(jià)值和應(yīng)用意義。VSN主要應(yīng)用于視頻監(jiān)控的各個(gè)領(lǐng)域,如智能交通、環(huán)境監(jiān)測(cè)、公共安全和緊急救援等。VSN在幫助人們獲得豐富的視頻信息資源的同時(shí),也產(chǎn)生了海量的數(shù)據(jù),不利于視頻的傳輸和存儲(chǔ),因此對(duì)其進(jìn)行壓縮具有重大意義。文獻(xiàn)[2]采用MJPEG2000編碼方法,只進(jìn)行幀內(nèi)編碼,編碼簡(jiǎn)單,但壓縮能力有限。文獻(xiàn)[3]采用MPEG-4編碼方法,利用了運(yùn)動(dòng)補(bǔ)償技術(shù)進(jìn)行幀間編碼,進(jìn)一步提高編碼能力。文獻(xiàn)[4]考慮到前景與背景間的不同,分別對(duì)前景對(duì)象和背景采用MPEG-4和JPEG2000進(jìn)行編碼,編碼能力得到極大提高,缺點(diǎn)是采用兩種不同的編碼方案,額外增加了VSN的資源開(kāi)銷(xiāo)。本文提出一種改進(jìn)的基于對(duì)象的視頻編碼方法,結(jié)合背景減除法和改進(jìn)的混合高斯背景建模方法,對(duì)當(dāng)前幀圖像進(jìn)行宏塊分類(lèi),實(shí)現(xiàn)前景與背景的分離,形成各自獨(dú)立的編碼流。

      1 方法概述

      從監(jiān)控目的出發(fā),視頻幀圖像可以分為有研究?jī)r(jià)值的監(jiān)控對(duì)象和起參考作用的背景[5]。其中,監(jiān)控對(duì)象是主要研究對(duì)象,壓縮時(shí)要盡量保持不失真;而背景不是主要研究對(duì)象,可以進(jìn)行高比率壓縮。本文的視頻壓縮算法的流程如圖1所示。首先利用改進(jìn)的高斯混合模型進(jìn)行背景的建模與更新;再運(yùn)用背景減除法,通過(guò)比較當(dāng)前幀和參考背景之間的不同,對(duì)當(dāng)前幀中的宏塊進(jìn)行分類(lèi);然后,根據(jù)宏塊的分類(lèi)結(jié)果,構(gòu)建純背景圖像和提取前景對(duì)象;最后,根據(jù)MPGE-4編碼框架,對(duì)前景對(duì)象進(jìn)行形狀編碼、紋理編碼和運(yùn)動(dòng)編碼,而對(duì)背景進(jìn)行高比率的幀內(nèi)編碼。

      2 背景減除法

      運(yùn)動(dòng)目標(biāo)檢測(cè)方法一般分為光流法、幀間差分法和背景減除法三種[6]。光流法計(jì)算十分復(fù)雜,運(yùn)算量巨大,且抗噪性能比較差,難以滿足實(shí)時(shí)性檢測(cè)。幀間差分法雖然運(yùn)算簡(jiǎn)單,實(shí)時(shí)性好,但往往不能完整提取運(yùn)動(dòng)對(duì)象。而背景減除法可以提取出完整的運(yùn)動(dòng)目標(biāo),運(yùn)算復(fù)雜度不高,且實(shí)時(shí)性較好,是固定攝像機(jī)下運(yùn)動(dòng)目標(biāo)檢測(cè)最常用的方法。

      背景減除法的困難點(diǎn)在于,背景可能是動(dòng)態(tài)變化的,引起背景變化的原因包括背景自然景物的擾動(dòng)、光照的變化和攝像機(jī)的輕微晃動(dòng)等。因此,如何在背景存在變化的情況下,建立起具有魯棒性的背景模型是背景減除法的關(guān)鍵所在。

      3 基于混合高斯的背景建模

      在眾多背景建模方法中,混合高斯模型(Gaussian Mixture Model,GMM)能有效地對(duì)背景進(jìn)行建模,并能隨著背景的變化而自適應(yīng)調(diào)整。因此,在背景減除法的運(yùn)動(dòng)目標(biāo)檢測(cè)中經(jīng)常采用GMM為其背景建模。前期GMM通常采用EM算法估計(jì)混合高斯模型參數(shù),但由于EM算法固有的缺陷限制了其應(yīng)用,目前GMM基本采用在線K均值估計(jì)的統(tǒng)計(jì)建模方法[7]。本文采用GRIMSON等人提出的混合高斯模型方法對(duì)顏色特征進(jìn)行建模,并針對(duì)其學(xué)習(xí)率α是固定的缺點(diǎn)進(jìn)行改進(jìn)。

      4 宏塊分類(lèi)

      根據(jù)當(dāng)前幀與參考背景幀之間的不同,可以將當(dāng)前幀中的宏塊分為四種類(lèi)型:含有運(yùn)動(dòng)對(duì)象像素點(diǎn)的運(yùn)動(dòng)對(duì)象宏塊,記為oMB;與oMB相對(duì)應(yīng)的,被運(yùn)動(dòng)對(duì)象遮擋的背景宏塊,記為pMB;背景區(qū)域的變化是由噪聲引起的靜態(tài)背景宏塊,記為sMB;由光照和景物干擾(如水面波紋,樹(shù)枝晃動(dòng))等引起變化的動(dòng)態(tài)背景宏塊,記為dMB。其中,pMB主要是為了后面構(gòu)造純背景圖像而提出的。判斷準(zhǔn)則如下:

      ⑴ 當(dāng)SAD=0時(shí),將宏塊標(biāo)記為sMB;

      ⑵ 當(dāng)0

      ⑶ 當(dāng)SAD>TH時(shí),將宏塊標(biāo)記為oMB,通過(guò)參考背景圖像對(duì)應(yīng)位置上的宏塊就可以獲得pMB。

      然后,在確定了集合S1中所有塊的狀態(tài)后,再對(duì)集合S0進(jìn)行處理。由于集合S0中的每一個(gè)宏塊的上下左右四個(gè)相鄰塊均屬于集合S1,這四個(gè)相鄰宏塊的狀態(tài)已經(jīng)確定。因此本文采用如下的方法來(lái)判定集合S0塊的狀態(tài):當(dāng)四個(gè)相鄰塊中有兩個(gè)或者兩個(gè)以上的狀態(tài)為oMB時(shí),則判定這個(gè)屬oMB,否則判定為sMB。

      5 建立純背景圖像和提取運(yùn)動(dòng)對(duì)象

      6 MPEG-4編碼的實(shí)現(xiàn)

      當(dāng)前,最常用的MPEG-4視頻編碼器有兩種:OpenDivX和Xvid,其中Xvid是從OpenDivX上發(fā)展而來(lái)的,并且開(kāi)放源代碼。因此,本文在寫(xiě)入視頻時(shí)采用Xvid編碼器來(lái)實(shí)現(xiàn)。OpenCV是一個(gè)開(kāi)源的跨平臺(tái)的計(jì)算機(jī)視覺(jué)庫(kù),集成了大量的視頻編碼算法,用于進(jìn)行視頻編碼設(shè)置,其函數(shù)如下:

      cvCreateVideoWriter(filename,fourcc,fps,frame_size,int is_color=1) ⑻

      其中,filename指明了待存儲(chǔ)的視頻文件名;fourcc表明壓縮格式,本文在此處設(shè)為-1,結(jié)合Xvid編碼器,根據(jù)需要設(shè)置編碼方式和相關(guān)參數(shù);fps是被創(chuàng)建視頻流的幀率;frame_size是視頻流的大??;is_color=1表明寫(xiě)入彩色幀。

      7 實(shí)驗(yàn)結(jié)果與分析

      本實(shí)驗(yàn)所使用的計(jì)算機(jī)性能是Intel(R) Core(TM)i5-2400 CPU @ 3.0 GHz 3 GHz,4 GB的內(nèi)存,windows7操作系統(tǒng),編程工具采用Microsoft Visual Studio 6.0,視覺(jué)庫(kù)為OpenCV1.0,并調(diào)用Xvid編碼器。

      首先,魯棒性的背景模型是實(shí)現(xiàn)運(yùn)動(dòng)對(duì)象和背景分離的難點(diǎn)和關(guān)鍵所在。本文采用基于混合高斯的背景建模方法,其改進(jìn)前后的效果比較如圖3所示,改進(jìn)的方法能更接近真實(shí)的場(chǎng)景背景。

      其次,基于16×16像素大小的宏塊改進(jìn)方法,減少了計(jì)算量,降低了VSN節(jié)點(diǎn)資源的消耗,其分類(lèi)效果如圖4所示。

      最后,根據(jù)MPEG-4的編碼框架思想調(diào)用Xvid編碼器,對(duì)純背景圖像和運(yùn)動(dòng)對(duì)象分別進(jìn)行壓縮,形成各自獨(dú)立的編碼流。在視頻格式、分辨率、播放速度和時(shí)間都不發(fā)生變化的條件下,該方法的實(shí)驗(yàn)結(jié)果如表1所示。壓縮后的視頻大小比原文件減小3769KB,與經(jīng)過(guò)MPEG-4壓縮的視頻相比減小760KB,這表明本文方法具有更高的壓縮效果。

      8 結(jié)束語(yǔ)

      本文采用一種基于對(duì)象的視頻壓縮的改進(jìn)方法。該方法結(jié)合背景減除法的思想和高斯混合背景模型,并對(duì)運(yùn)動(dòng)檢測(cè)方法進(jìn)行改進(jìn);對(duì)視頻幀中的宏塊進(jìn)行分類(lèi),再利用分類(lèi)的結(jié)果,構(gòu)建純背景,分離前景對(duì)象和背景;最后對(duì)前景對(duì)象和背景分別進(jìn)行壓縮,形成各自獨(dú)立的編碼流。實(shí)驗(yàn)結(jié)果表明,該方法具有較好的壓縮效果,適合視頻傳感器網(wǎng)絡(luò)上的視頻壓縮。同時(shí),對(duì)于復(fù)雜背景的建立和更新具有很好的魯棒性。然而,仍然存在一些待解決的問(wèn)題,如對(duì)靜止宏塊和噪聲宏塊的閾值選取,如何在不增加計(jì)算量的情況下,做到閾值的自適應(yīng),這也是下一步研究的重點(diǎn)。

      參考文獻(xiàn):

      [1] 蔡康.視頻傳感器網(wǎng)絡(luò)應(yīng)用關(guān)鍵技術(shù)研究[D].華南理工大學(xué),2012.

      [2] J. Meessen, C. Parisot, X. Desurmont, and J.-F. Delaigle, “Sceneanalysis for reducing motion JPEG 2000 video surveillance delivery bandwidth and complexity,” in Proc. IEEE Int. Conf. Image Processing, Genova, Italy, Sep. 2005.

      [3] A. Vetro, T. Haga, K. Sumi, and H. Sun, “Object-based codingfor long-term archive of surveillance video,” in Proc. IEEE Int. Conf. Multimedia and Expo, Jul. 2003.2:417-420

      [4] R. V. Babu and A. Makur, “Object-based surveillance video compression using foreground motion compensation,” in Proc. IEEE Int. Conf. Control, Automation, Robotics and Vision,2006.12:1-6

      [5] 劉雪冬,李慶,毛瑞雪.基于增強(qiáng)對(duì)象的監(jiān)控視頻編碼算法[J].計(jì)算機(jī)工程,2011.13:224-226

      [6] 李鴻.基于混合高斯模型的運(yùn)動(dòng)檢測(cè)及陰影消除算法研究[D].中國(guó)民航大學(xué),2013.

      [7] C. Stauffer and W. Grimson, “Adaptive background mixturemodels for real-time tracking,”in Proc. IEEE Conf. Computer Vision and Pattern Recognition,1999.2:246-252

      [8] 熊哲源.無(wú)線多媒體傳感器網(wǎng)絡(luò)圖像編碼算法研究[D].中南大學(xué),2012.

      克拉玛依市| 巫山县| 海安县| 卢龙县| 青神县| 都昌县| 永年县| 贺兰县| 巧家县| 石嘴山市| 专栏| 邵东县| 西乡县| 南城县| 横山县| 贵州省| 惠东县| 广昌县| 清徐县| 三亚市| 陆丰市| 永春县| 五台县| 天水市| 荣昌县| 桓台县| 寻甸| 米易县| 吉水县| 汽车| 南充市| 汾阳市| 元阳县| 怀远县| 论坛| 衡阳市| 英吉沙县| 罗源县| 都匀市| 徐水县| 微博|