林晶 黃添強(qiáng) 賴玥聰 盧賀楠
摘要:目前大多數(shù)時(shí)域視頻幀復(fù)制粘貼篡改檢測(cè)算法都是針對(duì)至少20幀以上的視頻子序列的復(fù)制粘貼篡改,而對(duì)單幀復(fù)制粘貼篡改無法判斷。而根據(jù)人眼視覺感知的特性,修改視頻內(nèi)容需要至少15幀以上的幀操作, 因此篡改幀想通過單幀復(fù)制粘貼篡改來達(dá)到想要的效果,必須進(jìn)行連續(xù)多次粘貼操作。為了檢測(cè)這種篡改方式,針對(duì)性地提出了一種基于量化離散余弦變換(DCT)系數(shù)的視頻單幀連續(xù)多次復(fù)制粘貼篡改檢測(cè)算法。首先,將視頻轉(zhuǎn)換為圖像,采用量化后的DCT系數(shù)作為視頻幀圖像特征向量,并通過計(jì)算巴氏(Bhattacharyya)系數(shù)來衡量?jī)上噜弾瑤g相似度;再設(shè)定閾值來判斷兩相鄰幀幀間相似度是否有異常,最后根據(jù)出現(xiàn)相似度異常的幀是否連續(xù),以及連續(xù)出現(xiàn)的幀數(shù)來判斷視頻是否經(jīng)過篡改,并定位篡改位置。實(shí)驗(yàn)結(jié)果表明,所提算法對(duì)不同場(chǎng)景的視頻都能檢測(cè),不僅檢測(cè)速度快,而且不受再壓縮因素影響,算法的正確率高、漏檢率低。
關(guān)鍵詞:視頻篡改檢測(cè);單幀復(fù)制粘貼;離散余弦變換;幀間相似度;Bhattacharyya系數(shù)
中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A
Abstract:Most existing detection algorithms of video frame copymove forgery in time domain were designed for the copymove forgery of video sequence containing 20 frames at least, and are difficult to detect single frame forgery. While according to the characteristics of human visual perception, 15 frames at least were needed to modify the video meaning. So when goal in vision was made by the tampering, continuous operation and many times were needed. In order to detect the tampering, a detection algorithm based on quantized Discrete Cosine Transform (DCT) coefficients for continuous and repeated single frame copymove forgery in videos was proposed. Firstly, the video was converted into images, and quantized DCT coefficients were taken as the feature vector of a frame image. Then, the similarity between frames was measured by calculating Bhattacharyya coefficient, and threshold was set to judge the abnormal similarity between two adjacent frames. Finally, whether the video was tampered and the tampered positions were determined by the continuity of frames with abnormal similarity and the number of continuous frames. The experimental results show that the proposed algorithm can detect the video with different scenarios, it possesses fast detection speed, and is not affected by further compression factors, but also is of high accuracy and low omission ratio.
Key words:video tampering detection; single frame copymove; Discrete Cosine Transform (DCT); intraframe similarity; Bhattacharyya coefficient
0 引言
近年來隨著高質(zhì)量低價(jià)格數(shù)碼攝像機(jī)的普及和視頻分享網(wǎng)站的流行,數(shù)字視頻已經(jīng)成為我們?nèi)粘I钪械闹匾M成部分[1]。同時(shí),隨著多媒體技術(shù)的發(fā)展,視頻編輯軟件的不斷更新,人們可以根據(jù)需要更加輕易地編輯視頻,修改視頻內(nèi)容,達(dá)到更好的視覺效果。然而,技術(shù)進(jìn)步方便人類的同時(shí),也帶來了不利影響。如果不法分子利用軟件惡意篡改視頻毀滅證據(jù)、修改視頻內(nèi)容,被惡意篡改的視頻經(jīng)過網(wǎng)絡(luò)傳播,在一定程度上會(huì)影響社會(huì)的穩(wěn)定,因此,視頻篡改檢測(cè)技術(shù)的研究目前已是信息安全的一項(xiàng)重要課題[2]。
由于篡改形式的多種多樣,國(guó)內(nèi)外越來越多的學(xué)者針對(duì)不同篡改形式提出了不同的檢測(cè)算法。Wang等[3]將圖像雙壓縮篡改檢測(cè)的方法延伸應(yīng)用在視頻上,提出通過計(jì)算MPEG(Moving Picture Experts Group)視頻流中每個(gè)P幀的運(yùn)動(dòng)誤差,觀察誤差的周期性變化來判斷視頻是否經(jīng)過篡改。文獻(xiàn)[4]提出了一種基于視頻修復(fù)痕跡——“鬼影”的視頻篡改檢測(cè)算法,對(duì)于移除視頻中目標(biāo)運(yùn)動(dòng)物體的篡改,由于在篡改后需要采用修復(fù)技術(shù)對(duì)移除運(yùn)動(dòng)對(duì)象區(qū)域進(jìn)行修復(fù),而修復(fù)的結(jié)果通常會(huì)破壞視頻運(yùn)動(dòng)軌跡連續(xù)性和一致性,通過檢測(cè)視頻遺留的修復(fù)痕跡判斷視頻是否經(jīng)過篡改。復(fù)制粘貼類型的篡改方式是一種常見的視頻篡改手段,可以分為:時(shí)域復(fù)制粘貼和空域復(fù)制粘貼??沼驈?fù)制粘貼篡改,其實(shí)質(zhì)和單幅圖像的復(fù)制粘貼篡改類似,將視頻幀內(nèi)的區(qū)域?qū)ο髲?fù)制到該幀的其他位置或復(fù)制到其他幀中以達(dá)到隱藏對(duì)象的篡改目的;而時(shí)域復(fù)制粘貼篡改則是以幀為單位的復(fù)制粘貼,使得視頻中的部分場(chǎng)景被替換或隱藏[5-7]。時(shí)域復(fù)制粘貼篡改的方式通常是復(fù)制一段連續(xù)多幀的視頻子序列到視頻中?,F(xiàn)有的研究針對(duì)這種篡改方式提出了檢測(cè)方法。文獻(xiàn)[8]利用時(shí)空相關(guān)性矩陣來檢測(cè)復(fù)制粘貼視頻,首先將視頻幀序列分為重疊的多個(gè)短子序列,計(jì)算各個(gè)短子序列在時(shí)間上和空間上的相關(guān)性矩陣,然后利用相關(guān)性矩陣來檢測(cè)。這種劃分為子序列的方法使得算法對(duì)靜止視頻或運(yùn)動(dòng)相對(duì)緩慢的視頻檢測(cè)效果不佳。文獻(xiàn)[9]提出了一種由粗到細(xì)的匹配方法來檢測(cè)時(shí)間域上的復(fù)制粘貼篡改,將大小相等的子序列進(jìn)行粗匹配,相似度大于閾值的序列作為候選片段,再對(duì)候選片段進(jìn)行細(xì)匹配,但由于粗匹配得到的候選片段的精度不高,導(dǎo)致細(xì)匹配上的時(shí)間代價(jià)高。文獻(xiàn)[10]提出了一種利用結(jié)構(gòu)相似度來檢測(cè)時(shí)間域上視頻幀復(fù)制粘貼的篡改,算法將視頻幀序列劃分為多個(gè)重疊的子序列,利用結(jié)構(gòu)相似性理論來度量視頻幀間的相似性,最后通過時(shí)間域上子序列間的匹配策略尋找出存在復(fù)制關(guān)系的子序列對(duì),合并子序列對(duì)并定位出視頻中復(fù)制片段的具體位置。算法檢測(cè)的原理是基于時(shí)間域上子序列間的匹配策略,對(duì)單幀模式的復(fù)制粘貼篡改失效。
目前已有的視頻時(shí)域復(fù)制粘貼篡改檢測(cè)算法適用于連續(xù)多幀的子序列復(fù)制粘貼篡改,對(duì)單幀復(fù)制粘貼篡改無法正確檢測(cè)。然而視頻幀在經(jīng)過連續(xù)多次復(fù)制粘貼操作后也能夠達(dá)到篡改視頻內(nèi)容的目的,改變視頻原本傳達(dá)的真實(shí)含義, 因此本文首次針對(duì)單幀模式的復(fù)制粘貼篡改提出檢測(cè)算法,采用量化離散余弦變換(Discrete Cosine Transform, DCT)系數(shù)的方法檢測(cè)與定位篡改位置,該方法不僅能準(zhǔn)確地判斷視頻是否經(jīng)過篡改,而且檢測(cè)速度快,能夠精確地定位篡改位置,算法檢測(cè)的正確率高,漏檢率低。
1 單幀連續(xù)多次復(fù)制粘貼篡改模式
視頻單幀連續(xù)多次復(fù)制粘貼篡改是指用原始視頻中的某一幀進(jìn)行多次復(fù)制并連續(xù)粘貼插入到原始視頻序列中或替換原始視頻中的某些幀,使得原始視頻中的部分場(chǎng)景被替換或被推遲/提前發(fā)生,同時(shí)又不影響視頻的連續(xù)性。單幀篡改操作一次在視覺上對(duì)視頻的影響非常小,可以忽略不計(jì),因此單幀操作若想達(dá)到篡改目的,必須進(jìn)行連續(xù)多次復(fù)制粘貼。這種篡改方式能夠達(dá)到覆蓋原始視頻的部分場(chǎng)景,或延遲特定事件發(fā)生的目的,不僅能改變視頻內(nèi)容,而且用肉眼不能直接觀察出。但目前已有的幀間復(fù)制粘貼篡改檢測(cè)算法都是適用于連續(xù)多幀的視頻子序列復(fù)制粘貼篡改,因此針對(duì)視頻單幀連續(xù)多次復(fù)制粘貼篡改方式的檢測(cè)是非常必要的。序列復(fù)制粘貼篡改過程與單幀連續(xù)多次復(fù)制粘貼篡改過程對(duì)比如圖1~2所示,其中,視頻序列復(fù)制粘貼篡改過程如圖1所示。而本文算法檢測(cè)的單幀多次復(fù)制粘貼篡改過程如圖2所示。
2 篡改檢測(cè)算法
從上面的篡改示意圖可以看出視頻單幀連續(xù)多次復(fù)制粘貼篡改后會(huì)使得視頻增加一段靜止畫面的視頻序列,那么真實(shí)的原始視頻中原有的靜止畫面就會(huì)對(duì)檢測(cè)篡改造成很大的干擾,難以用肉眼直接分辨靜止畫面視頻序列的真實(shí)性。算法檢測(cè)的目的在于判斷視頻是否經(jīng)過篡改,并尋找篡改位置。由于篡改是以幀為單位的復(fù)制,對(duì)整個(gè)視頻而言,篡改后得到的序列相鄰幀幀間相似度會(huì)高于其他位置的幀間相似度, 因此本文通過檢測(cè)是否出現(xiàn)幀間相似度相對(duì)高的序列來判定視頻是否經(jīng)過篡改。
2.1 算法流程
算法首先將視頻轉(zhuǎn)化為幀圖像,提取各幀特征向量,本文采用圖像DCT系數(shù)作為幀圖像的特征向量,利用巴氏系數(shù)衡量特征向量間的相似度即幀間圖像相似度。尋找相似度高于設(shè)定閾值的可疑幀,并排除可疑幀連續(xù)出現(xiàn)次數(shù)小的序列,初步定位可疑序列起始終止位置。為了避免原始視頻中真實(shí)的靜止畫面對(duì)篡改檢測(cè)流程的干擾,再次驗(yàn)證初步定位的可疑篡改序列的準(zhǔn)確性,計(jì)算可疑序列的起始位置幀與結(jié)束位置幀的幀間相似度,進(jìn)一步判斷視頻是否經(jīng)過篡改,以及定位篡改位置。算法檢測(cè)流程如圖3所示。
當(dāng)count大于一定閾值Tlength時(shí),說明視頻經(jīng)過篡改,篡改序列位置位于start~ending;否則說明視頻未經(jīng)過篡改。在計(jì)算可疑幀連續(xù)出現(xiàn)的次數(shù)時(shí),若中間出現(xiàn)1~2幀的非可疑篡改幀,忽略不計(jì),這可以認(rèn)為是篡改者為了隱藏篡改幀出現(xiàn)的連續(xù)性而故意插入的真實(shí)幀。
5)再次驗(yàn)證準(zhǔn)確性。由上述步驟可以得到的start、ending分別為算法檢測(cè)出的篡改起始與結(jié)束位置。由于視頻的每幀圖像會(huì)受光照強(qiáng)度等外在因素影響,即使在靜止畫面的真實(shí)視頻中,兩幀圖像的幀間相似度也隨著幀距的加大而降低。而篡改序列的每幀均是復(fù)制粘貼得來的,因此兩幀圖像幀間相似度不受距離遠(yuǎn)近影響,也就是篡改序列的首尾幀的幀間相似度應(yīng)該仍然大于設(shè)定的相似度閾值。
6)輸出結(jié)果。若算法檢測(cè)結(jié)果滿足式(6),則輸出篡改序列start~ending;否則,視頻未經(jīng)過篡改。
2.2 算法時(shí)間復(fù)雜度分析
根據(jù)算法流程分析可知算法的時(shí)間消耗主要在以下步驟:1)提取各幀特征向量;2)計(jì)算相鄰幀幀間相似度;3)定位篡改序列位置。假設(shè)視頻長(zhǎng)度為n幀,視頻分辨率為M×N,圖像分塊大小為b,則子塊數(shù)為K=M/b」N/b」,則各主要步驟的時(shí)間復(fù)雜度分別為:提取各幀特征向量的最大時(shí)間復(fù)雜度為O(Kn),計(jì)算相鄰幀幀間相似度的最大時(shí)間復(fù)雜度為O(n),定位篡改序列位置的最大時(shí)間復(fù)雜度為O(n)。
3 實(shí)驗(yàn)分析
為了驗(yàn)證本文算法的有效性,實(shí)驗(yàn)視頻采用Surrey University Library for Forensic Analysis (SULFA)[13]視頻庫(kù)以及自己拍攝的視頻,拍攝設(shè)備型號(hào)為SONY CX700和Canon IXUS 220HS拍攝,分辨率為1920×1080、720×576和320×240三種,視頻編輯篡改使用軟件為Adobe Premiere Pro CS4。實(shí)驗(yàn)所用計(jì)算機(jī)配置Intel Core i53470 CPU 3.20GHz、4GB內(nèi)存、Windows 7系統(tǒng),利用MatlabR2012b實(shí)現(xiàn)算法。
3.1 閾值設(shè)定
3.1.1 相似度閾值
由于單幀連續(xù)多次復(fù)制粘貼篡改模式是以幀為單位的篡改,篡改位置相鄰幀的幀間相似度會(huì)異常高于真實(shí)視頻幀,所以本文實(shí)驗(yàn)采用整個(gè)視頻的幀間相似度均值作為閾值。假設(shè)視頻長(zhǎng)度為n幀,BC=[b1,b2,…,bi,…,bn-1],i∈[1,n-1],其中bi表示第i與第i+1幀圖像的相似度,則閾值為矩陣BC的均值,即Tsimilar=mean(BC)。相似度高于均值的幀是可疑幀,將可能屬于篡改的視頻幀初步篩選出。這種將待測(cè)視頻的相鄰幀幀間相似度均值作為閾值的方法的好處在于,使閾值的設(shè)定具有自適應(yīng)性,與具體視頻內(nèi)容沒有關(guān)系。雖然含有運(yùn)動(dòng)對(duì)象的視頻相鄰幀幀間相似度較低,無運(yùn)動(dòng)對(duì)象的視頻或運(yùn)動(dòng)緩慢的視頻,相鄰幀的幀間相似度較高,但單幀連續(xù)多次復(fù)制粘貼篡改位置處的幀間相似度仍然高于均值。
為了相似度閾值設(shè)定的有效性,實(shí)驗(yàn)隨機(jī)選取SULFA視頻庫(kù)5組視頻進(jìn)行單幀連續(xù)多次復(fù)制粘貼篡改。由于經(jīng)過壓縮的視頻會(huì)直接影響幀間相似度,閾值的選擇更加有說服力,因此實(shí)驗(yàn)將篡改后視頻用不同壓縮比壓縮后,分別計(jì)算篡改后視頻的相鄰幀幀間相似度均值,以及視頻篡改位置相鄰幀間相似度均值,結(jié)果如表1所示,其中壓縮比指壓縮后的視頻數(shù)據(jù)量與壓縮前數(shù)據(jù)量之比。從表1的數(shù)據(jù)分析可以發(fā)現(xiàn)篡改位置的相鄰幀間相似度基本高于實(shí)驗(yàn)設(shè)定的均值閾值,說明閾值設(shè)定方法有效,這種以視頻相鄰幀幀間相似度均值作為閾值的方法可以將篡改幀篩選出。
3.1.2 長(zhǎng)度閾值Tlength
一般情況下,視頻的幀率通常是20~30frame/s,單幀復(fù)制粘貼篡改模式要達(dá)到良好的視覺效果,需要至少15次以上的連續(xù)粘貼操作。為了排除視頻中原本幀間相似度非常高的真實(shí)幀對(duì)檢測(cè)算法的干擾,設(shè)定長(zhǎng)度閾值Tlength=15,也就是篡改序列長(zhǎng)度的限制,說明當(dāng)可疑幀連續(xù)出現(xiàn)的次數(shù)計(jì)數(shù)結(jié)果大于15時(shí),認(rèn)為視頻經(jīng)過單幀連續(xù)多次復(fù)制粘貼篡改。實(shí)驗(yàn)結(jié)果表明,本文算法對(duì)不同幀率的視頻都有很好的檢測(cè)效果。
3.2 實(shí)驗(yàn)結(jié)果及分析
如圖4為視頻單幀連續(xù)多次復(fù)制粘貼篡改的一個(gè)示例,來源于自己拍攝的視頻。其中,圖4(a)是一個(gè)真實(shí)原始視頻的5幀圖像,實(shí)驗(yàn)復(fù)制了原始視頻中還未出現(xiàn)小車的一幀圖像,將第568~621幀圖像替換,使得小車行駛的痕跡被抹掉,最后并以壓縮比20%對(duì)篡改后視頻進(jìn)行壓縮。圖4(b)顯示的是篡改后的對(duì)應(yīng)幀圖像。
本文算法采用量化DCT系數(shù)方法來提取每幀圖像的特征向量,并提取每個(gè)圖像分塊8×8大小的系數(shù)特征,該方法能很好地表征圖像信息,并且大大縮減了特征向量提取的時(shí)間,有利于提高算法檢測(cè)效率。算法采用巴氏系數(shù)衡量幀間相似度,相似度高于均值的幀圖像為可疑幀。圖5(a)為圖4原始視頻幀間相似度圖,圖5(b)為篡改后幀間相似度圖,其中縱坐標(biāo)軸右側(cè)刻度上圓圈位置處表示均值。從篡改前后幀間相似度的波動(dòng)趨勢(shì)分析可以看出,原始視頻幀間相似度在均值上下波動(dòng),并且上下波動(dòng)的幀號(hào)間隔非常小,對(duì)于篡改視頻,在其篡改位置的相鄰幀間相似度明顯高于均值,而且這些幀是連續(xù)的。因此本文將相似度值高于均值的兩個(gè)相鄰幀判定為可疑幀,并根據(jù)可疑幀連續(xù)出現(xiàn)的次數(shù)來進(jìn)一步判斷視頻的真實(shí)性,次數(shù)高于15,則認(rèn)為該視頻序列是經(jīng)過單幀連續(xù)多次復(fù)制粘貼篡改的。
由于單幀連續(xù)多次復(fù)制粘貼篡改會(huì)得到靜止畫面的視頻序列,因此無運(yùn)動(dòng)對(duì)象的原始視頻對(duì)算法的干擾性比較強(qiáng),實(shí)驗(yàn)采用的視頻包括有運(yùn)動(dòng)目標(biāo)和無運(yùn)動(dòng)目標(biāo)兩種。為了分析篡改時(shí)粘貼插入位置與原始幀距離遠(yuǎn)近的影響,分別在距離原始幀近處插入、遠(yuǎn)處插入、左右側(cè)均插入,以及多處插入篡改,不同篡改位置分析算法的準(zhǔn)確性,檢測(cè)結(jié)果如表2所示。對(duì)無運(yùn)動(dòng)對(duì)象的視頻與有運(yùn)動(dòng)對(duì)象的視頻分別進(jìn)行單幀連續(xù)多次復(fù)制粘貼篡改,檢測(cè)結(jié)果如表3所示?,F(xiàn)實(shí)生活中,視頻通常要進(jìn)行壓縮處理,來減少對(duì)存儲(chǔ)空間的需求,為了檢驗(yàn)算法對(duì)壓縮視頻是否有效,進(jìn)一步對(duì)不同壓縮比的篡改視頻進(jìn)行檢測(cè),檢測(cè)結(jié)果如表4所示。
實(shí)驗(yàn)將本文算法與文獻(xiàn)[10]中算法進(jìn)行比較,比較結(jié)果如表5所示。本文算法的準(zhǔn)確率和召回率都比文獻(xiàn)[10]高。文獻(xiàn)[10]算法首先將視頻分為重疊的子序列,根據(jù)結(jié)構(gòu)相似性理論度量幀間相似度,這種方法會(huì)將復(fù)制粘貼后的篡改幀誤認(rèn)為是存在復(fù)制粘貼關(guān)系的互相匹配的原始幀和篡改幀,因此文獻(xiàn)[10]的召回率低,同時(shí)在計(jì)算相鄰幀結(jié)構(gòu)相似度時(shí)受靜止畫面因素影響,正確率比較低。實(shí)驗(yàn)結(jié)果表明,連續(xù)多幀的視頻子序列復(fù)制粘貼篡改檢測(cè)算法是不適用于單幀模式的篡改,本文算法不受原始視頻中的靜止畫面影響、不受原始幀與篡改幀距離影響,以及不受壓縮比影響,能準(zhǔn)確檢測(cè)出視頻中是否存在單幀復(fù)制粘貼篡改序列,并且能有效定位篡改序列位置,算法的檢測(cè)速度非???。
4 結(jié)語(yǔ)
本文的創(chuàng)新點(diǎn)在于首次針對(duì)性地提出了一種視頻單幀連續(xù)多次復(fù)制粘貼篡改的檢測(cè)算法,采用量化DCT系數(shù)的方法提取視頻幀圖像特征向量,通過計(jì)算兩相鄰幀圖像特征向量的巴氏系數(shù)作為視頻幀的幀間相似度,通過閾值設(shè)定來檢測(cè)視頻中的可疑幀;接著根據(jù)可疑幀連續(xù)出現(xiàn)的次數(shù)判斷視頻是否經(jīng)過單幀復(fù)制粘貼篡改,定位篡改序列位置;最后檢驗(yàn)篡改序列首尾幀幀間相似度是否滿足閾值條件,進(jìn)一步確認(rèn)篡改位置。實(shí)驗(yàn)結(jié)果表明,本文算法的檢測(cè)速度很快,這對(duì)視頻應(yīng)用非常有利,并且對(duì)于不同視頻場(chǎng)景下或經(jīng)過壓縮的視頻都能準(zhǔn)確檢測(cè)出視頻是否經(jīng)過單幀多次復(fù)制粘貼篡改,以及定位篡改序列位置。然而算法也存在一定的局限性,與大多數(shù)視頻篡改檢測(cè)算法的弊端相同,算法的適用性較弱,只能針對(duì)特定的篡改方式進(jìn)行檢測(cè),多種篡改方式并存的檢測(cè)方法將是以后工作的重點(diǎn)之處。
參考文獻(xiàn):
[1]陳威兵, 楊高波, 陳日超, 等. 數(shù)字視頻真實(shí)性和來源的被動(dòng)取證[J].通信學(xué)報(bào), 2011,32(6): 177-183. (CHEN W B, YANG G B, CHEN R C, et al. Digital video passive forensics for its authenticity and source[J].Journal on Communications, 2011,32(6): 177-182.)
[2]周琳娜, 王東明. 數(shù)字圖像取證技術(shù)[M]. 北京:北京郵電大學(xué)出版社, 2008: 1-2. (ZHOU L N, WANG D M. Digital Image Forensics[M]. Beijing: Beijing University of Posts and Telecommunications Press, 2008: 1-2.)
[3]WANG W, FARID H. Exposing digital forgeries in video by detecting double quantization[C]// Proceedings of the 11th ACM Workshop on Multimedia and Security. New York: ACM, 2009: 39-48.
[4]ZHANG J, SU Y, ZHANG M. Exposing digital video forgery by ghost shadow artifact[C]// Proceedings of the 1st ACM Workshop on Multimedia in Forensics. New York: ACM, 2009: 49-54.
[5]DELP E, MEMON N, WU M. Digital forensics[J]. IEEE Signal Processing Magazine, 2009, 26(2): 14-15.
[6]MILANI S, FONTANI M, BESTAGINI P, et al. An overview on video forensics [J]. APSIPA Transactions on Signal and Information Processing, 2012, 1(1): 1-18.
[7]DONG Q, YANG G, ZHU N. A MCEA based passive forensics scheme for detecting framebased video tampering[J]. Digital Investigation, 2012, 9(2):151-159.
[8]WANG W, FARID H. Exposing digital forgeries in video by detecting duplication[C]// Proceedings of the 9th ACM Workshop on Multimedia and Security. New York: ACM, 2007: 35-42.
[9]LIN GS, CHANG JF. Detection of frame duplication forgery in videos based on spatial and temporal analysis [J]. International Journal of Pattern Recognition and Artificial Intelligence, 2012, 26(7): 21250017.
[10]LI F, HUANG T. Video copymove forgery detection and localization based on structural similarity[C]// Proceedings of the 3rd International Conference on Multimedia Technology. Berlin: Springer, 2014: 63-76.
[11]ZHAO J, GUO J. Passive forensics for copymove image forgery using a method based on DCT and SVD [J]. Forensic Science International, 2013, 233(1): 158-166.
[12]CHOI E, LEE C. Feature extraction based on the Bhattacharyya distance[J]. Pattern Recognition, 2003, 36(8): 1703-1709.
[13]QADIR G, YAHAYA S, HO A T. Surrey University Library for Forensic Analysis (SULFA) of video content[C]// Proceedings of the 2012 IET Conference on Image Processing. London: IET Press, 2012: 1-6.