• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      針對視頻運動向量隱寫的深度神經(jīng)網(wǎng)絡(luò)檢測方法

      2020-09-11 11:25:38黃雄波胡永健王宇飛
      關(guān)鍵詞:碼率編碼向量

      黃雄波 胡永健,? 王宇飛

      (1.華南理工大學(xué) 電子與信息學(xué)院,廣東 廣州 510640;2.中新國際聯(lián)合研究院,廣東 廣州 510700)

      在各種數(shù)字隱寫載體中,視頻由于數(shù)據(jù)量大、載密程度高而受到了研究者的重視,視頻隱寫也成為應(yīng)用最為廣泛的一類隱寫方法。視頻隱寫可通過修改視頻中的不同內(nèi)容嵌入密信,如壓縮編碼中的變換系數(shù)[1]、幀內(nèi)預(yù)測模式索引值[2]、分塊方式索引值[3]、二進制碼流標志位[4]等。目前最常見的視頻隱寫方式主要是通過修改幀間預(yù)測的運動向量來進行嵌密,相關(guān)成果已大量見于各種學(xué)術(shù)期刊及會議論文集[5- 6]。

      因基于運動向量的視頻隱寫方法最為常用,針對該類隱寫的檢測或稱隱寫分析方法也最為重要。目前經(jīng)典的視頻運動向量隱寫分析方法主要針對運動向量的統(tǒng)計特性[7- 8]、校準方法[9- 10]及局部最優(yōu)性[11- 12]等。上述方法均通過傳統(tǒng)手工設(shè)計的視頻特征進行隱寫判斷。

      近年來,利用深度神經(jīng)網(wǎng)絡(luò)進行隱寫分析成為研究的熱點之一?,F(xiàn)有基于深度神經(jīng)網(wǎng)絡(luò)的隱寫分析方法主要針對數(shù)字圖像[13- 16],其中SRNet[17]是目前深度隱寫分析的基準網(wǎng)絡(luò),其檢測性能超過傳統(tǒng)的富模型方法[18]。然而,主流的視頻隱寫大都通過修改壓縮域的編碼參數(shù)或變換系數(shù)完成,對視頻內(nèi)容的影響被分散到空域幀圖像上的多個像素,反映在每個像素值上的影響細微,這種隱寫上的良好性能使得針對空域像素值的隱寫檢測難以奏效。直覺上可知,若直接以編碼參數(shù)或變換系數(shù)作為深度神經(jīng)網(wǎng)絡(luò)的輸入,檢測效果將會更好,但其實現(xiàn)與直接輸入幀圖像像素的方法存在較大的差異,因此難以直接將深度學(xué)習方法用于隱寫分析,具體困難包括:

      (1)與圖像隱寫以像素為嵌入對象相比,每幀上的嵌入對象數(shù)量少。具體而言,對于分塊變換系數(shù)的嵌入,由于存在大量的0值系數(shù),導(dǎo)致嵌入對象少;而對于修改運動向量和預(yù)測索引值等編碼參數(shù)的隱寫算法,嵌入對象的數(shù)量就更少。

      (2)每幀上的嵌入對象分布不均勻。由于在圖像紋理區(qū)非零分塊變換系數(shù)多,而在平坦區(qū)非零分塊變換系數(shù)少,使得不同幀圖像的嵌入位置在空間上沒有對應(yīng)性;而這種情況對于運動向量和預(yù)測索引值更為嚴重,因為紋理區(qū)的分塊更加精細,且大小不一,故運動向量和預(yù)測索引值的分布更為復(fù)雜,導(dǎo)致不同幀圖像上的嵌入位置差異更大。

      (3)由于存在幀間和幀內(nèi)編碼,而幀內(nèi)預(yù)測塊不存在運動向量,使得針對編碼參數(shù)的嵌入對象在不同幀上的數(shù)量差異很大。

      另外,在深度神經(jīng)網(wǎng)絡(luò)的設(shè)計方面,與圖像隱寫分析網(wǎng)絡(luò)不同,視頻隱寫分析網(wǎng)絡(luò)必須考慮兩點:

      (1)由于視頻不僅含有單幀圖像的空間信息,還含有幀與幀之間的關(guān)聯(lián)信息,即時域信息,因此深度神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)必須能夠同時反映空域和時域的信息。

      (2)視頻壓縮的碼率直接決定了編碼參數(shù)與變換系數(shù)的數(shù)值大小,對隱寫分析方法性能的影響很大,因此在設(shè)計視頻隱寫分析網(wǎng)絡(luò)時必須考慮輸入數(shù)據(jù)在不同碼率下的表征能力。

      上述困難導(dǎo)致尚未在文獻中見到直接針對壓縮域參數(shù)(例如運動向量、預(yù)測索引值等)進行隱寫檢測的深度神經(jīng)網(wǎng)絡(luò)。為此,本文以H.265視頻的運動向量隱寫為例,利用運動向量構(gòu)造輸入矩陣,進而設(shè)計對視頻碼率變化不敏感的深度神經(jīng)網(wǎng)絡(luò)檢測器。

      1 運動向量信息輸入矩陣的構(gòu)造

      圖1為示例視頻連續(xù)兩幀的局部截圖,其大小為256×576,共包括36個64×64的編碼樹單元。本文以圖1為例,介紹如何利用運動向量構(gòu)造符合深度神經(jīng)網(wǎng)絡(luò)輸入要求的數(shù)據(jù)矩陣。

      目前構(gòu)造輸入矩陣存在如下問題:

      首先,由于運動向量描述的是分塊的運動特征,若以運動向量(圖1(a)中的箭頭)直接作為輸入,則深度神經(jīng)網(wǎng)絡(luò)將由于數(shù)據(jù)量不足而難以提取有意義的特征。

      其次,圖1(a)顯示,單個64×64編碼樹單

      圖1 H.265視頻的運動向量及PU劃分Fig.1 Motion vectors and PU partition of H.265 video

      元的運動向量差異巨大,個數(shù)從不足10個到超過50個不等,分布極為不均勻,難以構(gòu)造合理有效的深度神經(jīng)網(wǎng)絡(luò)輸入形式。

      此外,幀內(nèi)預(yù)測塊沒有運動向量。傳統(tǒng)運動向量僅存在于幀間預(yù)測分塊,而在H.265標準中,使用幀間預(yù)測的P幀或B幀中的預(yù)測單元亦可使用幀內(nèi)預(yù)測模式。圖1(b)中的橙色區(qū)域使用了幀內(nèi)預(yù)測模式,不存在運動向量。

      最后,在視頻中,其鄰近幀的運動向量必然存在緊密聯(lián)系。例如,圖1(a)中的兩幀記錄了視頻中的同一物體,因此其運動向量也較為相近,在視頻隱寫分析中如何很好地反映時空域信息也是輸入矩陣需要解決的問題。

      為解決運動向量數(shù)據(jù)量不足及分布不均勻的困難,本文根據(jù)H.265編碼中4×4為最小預(yù)測單元劃分的特點,提出以4×4像素分塊作為運動向量的最小表示單元,以解決每幀圖像上運動向量的數(shù)量不一致以及不同幀的運動向量空間位置上沒有對應(yīng)關(guān)系的問題。此外,這種方法所構(gòu)造的輸入矩陣尺寸僅縮減為原幀圖像的1/16,仍可提供充足的輸入數(shù)據(jù)量供深度神經(jīng)網(wǎng)絡(luò)提取特征。

      考慮到運動向量由水平分量和垂直分量構(gòu)成,本文分別將其作為輸入矩陣的兩個通道。如圖2所示,編碼樹單元中白色方格表示幀間預(yù)測單元,括號內(nèi)的數(shù)字依次表示該單元運動向量的水平分量、垂直分量及參考幀索引值。以圖2左上角紅框的16×16分塊的幀間預(yù)測單元為例,其水平分量為4,垂直分量為1,參考幀索引值為1。在構(gòu)造輸入矩陣時,令水平分量通道中左上角4×4分塊取值均為4,垂直分量通道中左上角4×4分塊取值均為1。其余幀間預(yù)測單元按此方法進行處理。

      圖2中的陰影方格表示不存在運動向量的幀內(nèi)預(yù)測單元。為解決幀內(nèi)預(yù)測塊不存在運動向量的問題,本文利用運動向量的參考幀索引來構(gòu)建輸入矩陣的另一個通道。當運動向量存在時,參考幀索引表示參考幀與當前幀的距離,其索引值為一個正整數(shù);當運動向量不存在時,參考幀索引值為-1。如圖2所示,左上角紅框內(nèi)16×16分塊的幀間預(yù)測單元運動向量參考幀索引值為1,則令參考幀索引通道左上角4×4分塊取值均為1。而對于編碼樹單元中部藍框內(nèi)16×16分塊的幀內(nèi)預(yù)測單元,則在構(gòu)造輸入矩陣時令水平分量和垂直分量通道中部4×4分塊取值均為0,而參考幀索引通道中部4×4分塊取值均為-1。依此方法可處理所有幀內(nèi)預(yù)測單元。本文提出的這種處理方式可確保在沒有運動向量的幀內(nèi)預(yù)測單元仍可構(gòu)造網(wǎng)絡(luò)輸入矩陣。

      為解決深度神經(jīng)網(wǎng)絡(luò)的時空域特征信息輸入問題,本文提出了選擇K幀連續(xù)的幀間預(yù)測幀(P幀或B幀)組成1個單元進行運動向量信息輸入。以K幀連續(xù)P幀為例,由其構(gòu)造得到的運動向量矩陣具有3K個通道,其中通道0,3,6,…,3K-3分別表示各幀4×4分塊運動向量的水平分量,通道1,4,7,…,3K-2分別表示各幀4×4分塊運動向量的垂直分量,通道2,5,8,…,3K-1分別表示各幀4×4分塊參考幀的索引值。

      圖2 運動向量的輸入矩陣構(gòu)造示例Fig.2 Example of the input matrix construction with motion vector

      需要指出的是,載密視頻與載體視頻的運動向量之間差異十分細微,若簡單地對輸入運動向量矩陣進行歸一化,將進一步縮小載體與載密視頻的差異。根據(jù)作者的實驗,本文對所有輸入樣本均不采用歸一化預(yù)處理,而是直接保持原始數(shù)據(jù)的形式輸入網(wǎng)絡(luò)。

      2 視頻運動向量隱寫分析網(wǎng)絡(luò)設(shè)計

      針對視頻運動向量隱寫的特點,本文以目前性能優(yōu)異的圖像隱寫分析網(wǎng)絡(luò)SRNet[17]為基準網(wǎng)絡(luò),提出了一種改進的視頻隱寫分析殘差網(wǎng)絡(luò)(VSRNet)。

      2.1 網(wǎng)絡(luò)設(shè)計分析

      設(shè)計隱寫分析網(wǎng)絡(luò)首先必須考慮如何準確提取隱寫特征,而提取特征必須考慮輸入數(shù)據(jù)的特征表達能力。由于運動向量與視頻的壓縮程度有密切關(guān)系,即與視頻的碼率有關(guān),因此所設(shè)計的隱寫分析網(wǎng)絡(luò)必須能夠適用于不同的碼率,這一點與圖像隱寫分析網(wǎng)絡(luò)有明顯的不同。

      在低碼率下視頻運動向量的長度往往小于對應(yīng)的高碼率下視頻運動向量的長度。當?shù)痛a率視頻嵌密后,由于其運動向量長度較短,向量的變化比例要大于高碼率視頻的情況,因而嵌入操作對運動向量的修改更為明顯。對于高碼率視頻,情況則剛好相反。這種由不同碼率引起的輸入數(shù)據(jù)表征能力差異會直接影響深度神經(jīng)網(wǎng)絡(luò)的隱寫檢測能力。

      為了減輕碼率對網(wǎng)絡(luò)性能的影響,本文在設(shè)計網(wǎng)絡(luò)時,引入了與視頻運動向量相應(yīng)塊在空域上所對應(yīng)的像素值預(yù)測殘差作為網(wǎng)絡(luò)的另一路輸入。隱寫算法修改運動向量會破壞視頻原本的最優(yōu)預(yù)測,進而使得像素值預(yù)測準確度下降,預(yù)測殘差增大。低碼率視頻的像素值預(yù)測殘差通常大于對應(yīng)的高碼率視頻。當?shù)痛a率視頻嵌密后,由于其像素值預(yù)測殘差較大,像素值預(yù)測殘差變化比例要小于高碼率視頻的情況,隱寫對像素值預(yù)測殘差引起的變化更不明顯。對于高碼率視頻,情況則剛好相反。此趨勢與運動向量信息相反,兩者形成互補,故將兩路同時輸入可以更好地反映隱寫嵌入所帶來的形變。本文利用運動向量和像素值預(yù)測殘差在不同碼率下的互補表征能力,可以有效地改善深度神經(jīng)網(wǎng)絡(luò)的檢測性能。

      由于密信嵌入通常只發(fā)生在亮度分量,本文構(gòu)建的網(wǎng)絡(luò)輸入也只考慮亮度分量的殘差信息。為避免削弱載體與載密視頻間的差異,與1.2節(jié)中處理運動向量類似,預(yù)測殘差樣本也不進行歸一化處理。為利用時域信息,同樣將K幀連續(xù)幀間預(yù)測幀組成1個單元,從視頻碼流中提取的亮度分量預(yù)測殘差圖像按次序堆疊,構(gòu)成通道數(shù)為K的預(yù)測殘差信息矩陣,作為VSRNet的另一路輸入。

      2.2 網(wǎng)絡(luò)結(jié)構(gòu)

      VSRNet包含4種基本的模塊,與原始的SRNet基本相同,分別為Layer Type 1、Layer Type 2、Layer Type 3及Layer Type 4,其結(jié)構(gòu)如圖3所示。圖中Conv 3×3及Conv 1×1分別表示尺寸為3×3及1×1的卷積核,Stride 1和Stride 2分別表示滑動步長為1和2,BN代表批量正規(guī)化層,ReLU代表ReLU激活函數(shù),Avg Pooling 3×3代表滑動窗口尺寸為3×3的平均池化層,Global Avg Pooling代表全局平均池化層。Layer Type 1和Layer Type 2保持特征圖分辨率及通道數(shù)不變,Layer Type 3輸出特征圖寬高均縮減一半且通道數(shù)也按需進行了調(diào)整,Layer Type 4輸出維度為輸入特征圖通道數(shù)2倍的特征向量。

      如圖3(e)所示,VSRNet的雙路輸入及信息融合是對基準網(wǎng)絡(luò)的重要改進。結(jié)構(gòu)圖中的L1-L12代表網(wǎng)絡(luò)的基本模塊序號,T1-T4分別代表Layer Type 1、Layer Type 2、Layer Type 3和Layer Type 4模塊,MV和RE分別代表運動向量和預(yù)測殘差的輸入分支,括號中的數(shù)字表示模塊輸出的特征圖通道數(shù)。由于預(yù)測殘差矩陣的寬高均為運動向量矩陣的4倍,因此在預(yù)測殘差輸入分支中的最后2個Layer Type 2模塊之后,分別添加一層卷積核尺寸為3×3、滑動步長為2的卷積層,將輸入特征圖的寬高均縮減一半。經(jīng)過2層該種卷積層的處理,預(yù)測殘差分支的特征圖分辨率將變得與運動向量分支的特征圖一致。其后兩分支的特征圖按通道維度拼接,并通過卷積層將各通道進一步融合。網(wǎng)絡(luò)提取得到512維的特征向量,最后通過全連接層及Softmax激活函數(shù),輸出載體視頻和載密視頻的二分類結(jié)果。

      圖3 VSRNet結(jié)構(gòu)圖Fig.3 Structure of VSRNet

      3 實驗與結(jié)果分析

      基于H.265視頻運動向量修改的隱寫算法相對較少,為驗證文中提出的深度神經(jīng)網(wǎng)絡(luò)的隱寫分析性能,將2種針對H.264視頻運動向量修改的經(jīng)典隱寫方法(Aly方法[5]和Xu方法[6])平行推廣到H.265視頻。選取14段經(jīng)典的CIF分辨率(352×288)實驗視頻(akiyo、city、coastguard、container、crew、deadline、foreman、harbour、highway、mobile、news、paris、soccer及students),截取其前300幀用于實驗。首先將部分載密和載體視頻作為訓(xùn)練樣本,對VSRNet進行訓(xùn)練。然后將剩余部分的載密和載體視頻作為測試樣本,利用訓(xùn)練好的VSRNet網(wǎng)絡(luò)進行隱寫分析檢測。

      3.1 樣本數(shù)據(jù)生成

      樣本數(shù)據(jù)的生成按如下步驟進行:

      (1)從3種碼率(100、250及750 kb/s)中選定一種。

      (2)利用H.265標準,根據(jù)選定碼率對14段實驗視頻進行編碼,生成載體視頻。編碼時設(shè)定I幀周期為32幀,且只使用P幀,則對于300幀的YUV視頻,在編碼后將含有10幀I幀和290幀P幀。

      (3)從Aly方法和Xu方法中選定一種作為視頻隱寫嵌密方法。

      (4)利用選定的隱寫方法,以隨機生成的二進制碼流作為密信,以0.2 b/mv的嵌入率對14段載體視頻進行嵌密。

      (5)返回步驟(3),選擇另一種隱寫方法,直至全部隱寫方法都被使用過。

      (6)對步驟(2)至步驟(5)生成的42段壓縮視頻中的每一段,利用一個K幀長度的滑動窗口,以1幀為步長,在視頻中從前往后滑動,每次取出連續(xù)的K幀。若K幀全為P幀,則從該K幀組成的單元中提取出運動向量及預(yù)測殘差作為輸入樣本,否則將該K幀組成的單元舍棄。

      (7)返回步驟(1),選擇另一種碼率,直至3種碼率都被使用過。

      3.2 網(wǎng)絡(luò)訓(xùn)練參數(shù)

      對應(yīng)載體與載密視頻相同位置的樣本將組成樣本對,其后通過輸入樣本對來訓(xùn)練VSRNet,訓(xùn)練的具體參數(shù)介紹如下。

      由于VSRNet進行的是載體和載密視頻樣本二分類的問題,因此在進行網(wǎng)絡(luò)訓(xùn)練時采用交叉熵作為損失函數(shù),即

      L=-ylnp-(1-y)ln(1-p)

      (1)

      式中:L為一個樣本的交叉熵損失;y為樣本的實際標簽,取值為0或1;p為網(wǎng)絡(luò)預(yù)測樣本是標簽1的概率。

      對于訓(xùn)練中送入網(wǎng)絡(luò)的同一批N個樣本,其整體的交叉熵損失Lbatch為批內(nèi)各樣本損失的平均值,即

      (2)

      其中,Li為批內(nèi)第i個樣本按式(1)計算所得的交叉熵損失。實驗使用Nvidia的GTX1080Ti顯卡,其顯存為11 GB??紤]到硬件的限制,實驗中批量樣本的數(shù)量設(shè)定為N=24,即為12對載體載密樣本。另外,根據(jù)硬件限制及編碼參數(shù)設(shè)置,設(shè)定樣本中連續(xù)幀的數(shù)量K=4。

      訓(xùn)練過程中采用的優(yōu)化方法為Adam算法,初始學(xué)習率設(shè)為0.001。訓(xùn)練過程中對預(yù)測準確率進行監(jiān)控,當連續(xù)15個epoch后準確率仍無提高,則將原學(xué)習率乘以0.9,作為下一個epoch的學(xué)習率。當連續(xù)100個epoch后準確率仍無提高,則認為訓(xùn)練已趨于穩(wěn)定,進而結(jié)束訓(xùn)練,獲得最終模型。

      3.3 訓(xùn)練測試流程

      對于同一碼率下由相同隱寫方法生成的樣本,采用交叉驗證的方式來訓(xùn)練測試,具體步驟如下:

      (1)根據(jù)原始視頻,將樣本隨機分為7份,每份包含2段原始視頻對應(yīng)的載體和載密樣本。

      (2)選擇其中1份樣本作為測試樣本,1份測試樣本包括2段載體視頻和2段載密視頻,4段視頻的長度和編碼結(jié)構(gòu)均相同。

      (3)其余6份樣本按3.2節(jié)設(shè)定的參數(shù)對VSRNet進行訓(xùn)練。

      (4)用訓(xùn)練好的VSRNet對測試樣本進行測試,獲得檢測準確率。設(shè)測試樣本中一段視頻含有M個樣本,則1份測試樣本共含有4M個樣本,該份樣本的檢測準確率R為

      (3)

      其中,Mc為得到正確分類的樣本個數(shù)。

      (5)返回步驟(2),選擇另一份樣本作為測試樣本,直到所有7份樣本都被用作過測試樣本,得到7次測試的檢測準確率。

      (6)計算7次檢測準確率的平均值,得到VSRNet在此碼率和隱寫方法條件下的隱寫分析檢測準確率。

      按照上述步驟,得到VSRNet在3種碼率(100、250及750 kb/s)和2種隱寫方法(Aly及Xu方法)組合而成的6種條件下的隱寫分析檢測準確率。

      3.4 2種隱寫方法的檢測結(jié)果及分析

      按照3.3節(jié)所描述的流程進行訓(xùn)練測試,Aly和Xu方法的樣本檢測準確率如表1所示,表中視頻一列中每兩段視頻組成一份測試樣本,按3.3節(jié)步驟(4)計算得到樣本的檢測準確率,最后計算7份測試樣本檢測準確率的平均值。從表中可以看到:VSRNet的檢測性能總體上隨視頻碼率的增加而提高,這與其他傳統(tǒng)隱寫分析方法類似,說明本文輸入矩陣的設(shè)計是有效的;在不同視頻碼率下VSRNet檢測性能的波動總體較小,說明所設(shè)計的雙路輸入是合理的;VSRNet對于Xu方法的樣本檢測性能要弱于Aly方法的樣本,造成這一現(xiàn)象的原因在于Xu方法在嵌密時對視頻運動向量的修改程度更小,故對視頻造成的失真更小,安全性更高。

      表1 不同視頻碼率下兩種方法的樣本的檢測結(jié)果

      3.5 與經(jīng)典視頻隱寫分析方法的性能比較

      為了更全面地展示VSRNet的檢測性能,將VSRNet與2種經(jīng)典視頻隱寫分析方法AoSO[11]和IMVRB[10]進行了比較。圖4給出了VSRNet、AoSO和IMVRB對于Aly和Xu方法在不同視頻碼率下的平均檢測準確率,其中VSRNet的平均檢測準確率為表1中準確率的平均值。

      由圖4可以看到:在100和250kb/s碼率下,VSRNet對2種隱寫方法的檢測性能均超過了AoSO和IMVRB,說明本文隱寫方法對視頻壓縮有良好的穩(wěn)健性;當視頻碼率為750 kb/s時,本文隱寫方法的檢測性能略有提高,但AoSO和IMVRB的檢測性能改善更大,超過本文方法。

      圖4 3種隱寫分析方法在不同視頻碼率下的檢測準確率比較

      造成上述現(xiàn)象的原因在于:AoSO和IMVRB為專用隱寫分析方法,針對局部的運動向量來提取特征時靈敏度高但穩(wěn)健性不夠強;而VSRNet則是采用連續(xù)數(shù)幀來提取一般性時空域特征的深度學(xué)習方法,靈敏度稍低但穩(wěn)健性更強。具體而言,AoSO將可用于嵌密的運動向量進行水平或垂直分量的+1或-1修改,然后把修改后向量對應(yīng)的編碼塊預(yù)測像素與實際像素的絕對誤差和(SAD)作為特征;IMVRB則是將待測視頻解碼后按照相同的參數(shù)重新編碼,再從重編碼后可用于嵌密的向量變化及其對應(yīng)編碼塊的SAD中提取特征。AoSO和IMVRB都集中從可嵌密的運動向量及其對應(yīng)編碼塊中提取特征,舍棄了H.265視頻中大量無法用于嵌密的skip模式編碼塊和merge模式編碼塊,而且IMVRB進一步考慮了運動向量的變化,故其檢測性能要優(yōu)于AoSO。當視頻碼率較高時,視頻預(yù)測更為準確,細節(jié)保留更多,修改運動向量嵌密后導(dǎo)致編碼塊的SAD變化顯著,因此針對局部檢測的專用方法檢測性能較好。相比之下,VSRNet的全局特征受到無法嵌密的向量及其對應(yīng)編碼塊的影響,檢測性能略低于專用方法。然而,隨著視頻碼率的下降,視頻的細節(jié)丟失增多,載體與載密的SAD差異減小,只針對局部特征檢測的傳統(tǒng)方法的性能下降嚴重,而VSRNet因利用了全局特征,可將修改運動向量導(dǎo)致預(yù)測誤差擴散的差異囊括其中,從而使得載體與載密視頻區(qū)分度更大,保證了檢測性能不會快速下降,而且優(yōu)于對比的2種傳統(tǒng)方法。

      以上分析結(jié)果表明,采用運動向量與像素值預(yù)測殘差雙路輸入的設(shè)計能增強VSRNet對不同碼率視頻的穩(wěn)健性。

      4 結(jié)語

      由于主流視頻隱寫算法大多通過修改壓縮域的編碼參數(shù)來實現(xiàn)信息隱藏,嵌入對象與空域圖像像素存在較大的差異,導(dǎo)致無法直接將常規(guī)用于圖像隱寫分析的深度神經(jīng)網(wǎng)絡(luò)推廣到視頻隱寫分析。本文針對在視頻隱寫分析中應(yīng)用深度神經(jīng)網(wǎng)絡(luò)存在的難點,重點解決了以運動向量為嵌入對象的視頻隱寫分析中數(shù)據(jù)輸入矩陣的構(gòu)造以及減弱碼率影響的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計問題,并基于目前性能最好的圖像隱寫分析網(wǎng)絡(luò)SRNet,提出了一種改進的深度神經(jīng)網(wǎng)絡(luò)檢測器。實驗結(jié)果表明,文中提出的方法對中低碼率的視頻檢測準確率明顯高于兩種傳統(tǒng)的視頻隱寫分析方法,且對不同碼率的視頻檢測性能平穩(wěn)。

      本文提出的方法對其他修改壓縮域編碼參數(shù)的視頻隱寫檢測網(wǎng)絡(luò)設(shè)計具有很好的參考價值,為利用深度神經(jīng)網(wǎng)絡(luò)解決嵌入對象少、分布不均勻且特征提取受碼率影響大的視頻隱寫檢測提供了極為有意義的嘗試。

      猜你喜歡
      碼率編碼向量
      向量的分解
      基于SAR-SIFT和快速稀疏編碼的合成孔徑雷達圖像配準
      聚焦“向量與三角”創(chuàng)新題
      《全元詩》未編碼疑難字考辨十五則
      子帶編碼在圖像壓縮編碼中的應(yīng)用
      電子制作(2019年22期)2020-01-14 03:16:24
      Genome and healthcare
      基于狀態(tài)機的視頻碼率自適應(yīng)算法
      向量垂直在解析幾何中的應(yīng)用
      向量五種“變身” 玩轉(zhuǎn)圓錐曲線
      基于場景突變的碼率控制算法
      大新县| 仁怀市| 湘西| 古浪县| 青冈县| 洪洞县| 巴彦淖尔市| 黎平县| 大兴区| 文成县| 金阳县| 德钦县| 台中县| 乌鲁木齐市| 乌兰察布市| 原平市| 陈巴尔虎旗| 英吉沙县| 连山| 邹城市| 莆田市| 上虞市| 南和县| 崇信县| 梁河县| 湛江市| 进贤县| 乌拉特中旗| 潼南县| 文水县| 宁海县| 三原县| 山丹县| 昭觉县| 赣榆县| 元江| 水富县| 射阳县| 定安县| 阜新| 蓬莱市|