任魏翔 翟黎明 王麗娜 嘉 炬
(空天信息安全與可信計算教育部重點實驗室(武漢大學(xué)) 武漢 430072)(武漢大學(xué)國家網(wǎng)絡(luò)安全學(xué)院 武漢 430072)
隨著信息技術(shù)的飛速發(fā)展,多媒體文件在網(wǎng)絡(luò)中廣泛傳輸,導(dǎo)致多媒體信息安全問題日益嚴(yán)重.信息隱藏的研究成果對解決多媒體信息安全問題具有重要作用.
信息隱藏領(lǐng)域的研究可分為隱寫(stegano-graphy)、隱寫分析(steganalysis)兩方面.如圖1所示,隱寫是將有意義的信息隱藏在另一個稱為載體C(cover)的信息中得到隱蔽載體S(stego)的技術(shù)[1].隱寫分析是隱寫術(shù)的對抗技術(shù),對可疑的載體信息進(jìn)行攻擊,達(dá)到檢測、破壞、甚至提取秘密信息的技術(shù)[1].
Fig. 1 Steganography and steganalysis圖1 隱寫與隱寫分析
針對數(shù)字圖像的隱寫術(shù)通過對圖像中的像素或者DCT系數(shù)等圖像元素進(jìn)行微量的修改,從而實現(xiàn)在圖像中隱藏秘密信息的目的.然而隱寫過程中對圖像元素的修改操作會對圖像元素值的統(tǒng)計分布造成一定的擾動.因此,當(dāng)前數(shù)字圖像隱寫算法主要通過合理地選擇對圖像進(jìn)行修改的位置[2],以及盡量減少所需修改的圖像元素[3-4]來達(dá)到最小化隱寫操作對原始圖像所造成影響的目的.當(dāng)前具有較高安全性的數(shù)字圖像隱寫算法主要為內(nèi)容自適應(yīng)隱寫算法,該類算法能夠有選擇地對圖像元素進(jìn)行修改,以減小秘密信息嵌入過程對圖像造成影響.該類算法設(shè)計過程可分為失真代價函數(shù)設(shè)計和隱寫碼的設(shè)計2部分.其中失真代價函數(shù)用于衡量秘密信息的嵌入過程中對原始圖像載體元素的統(tǒng)計規(guī)律造成的影響.而隱寫碼是指在基本嵌入的基礎(chǔ)上,為了減小隱寫嵌入失真(distortion)(亦稱代價)而進(jìn)行的編碼[5].在STC隱寫碼[6]提出后,面向數(shù)字圖像的隱寫算法的設(shè)計工作主要集中在失真代價函數(shù)的設(shè)計[7-13].然而,隱寫的安全性不僅取決于隱寫算法、嵌入率等因素,而且在很大程度上收到隱寫過程中載體圖像自身屬性的影響[14].
當(dāng)前通用圖像隱寫分析方法的相關(guān)研究可分為基于隱寫分析特征的檢測方法,以及基于深度學(xué)習(xí)的檢測方法.前者通過構(gòu)建能夠描述圖像載體統(tǒng)計規(guī)律或特性,并且對隱寫嵌入操作敏感的隱寫分析特征,結(jié)合機(jī)器學(xué)習(xí)方法對載體進(jìn)行檢測[15-19].其中,隱寫分析特征依據(jù)對圖像載體.后者基于深度學(xué)習(xí)技術(shù),構(gòu)建用于執(zhí)行隱寫分析任務(wù)的深度學(xué)習(xí)模型,以實現(xiàn)隱寫信號的端到端檢測.目前,基于深度學(xué)習(xí)的隱寫分析相關(guān)研究已成信息隱藏領(lǐng)域的熱點研究問題,并取得了較好的成果[20-29].
選擇信道感知的隱寫分析方法以提升針對自適應(yīng)圖像隱寫算法檢測效果為目標(biāo),利用自適應(yīng)隱寫算法對圖像各元素修改的概率,將檢測重點集中在更易被隱寫算法修改的圖像區(qū)域,從而提升針對自適應(yīng)隱寫算法的檢測能力.其中,待檢測圖像各元素被特定自適應(yīng)隱寫算法修改的概率可視為隱寫分析模型的輔助信息.當(dāng)前選擇信道感知的思想已運(yùn)用于基于特征的隱寫分析模型,以及基于深度學(xué)習(xí)的隱寫分析模型.
由于JPEG圖像在互聯(lián)網(wǎng)中的廣泛應(yīng)用,因此針對JPEG圖像的研究具有較高的實際意義.當(dāng)前基于深度學(xué)習(xí)的JPEG圖像隱寫分析的研究工作主要集中于負(fù)責(zé)隱寫檢測的深度學(xué)習(xí)模型的相關(guān)研究[26-29].基于深度學(xué)習(xí)隱寫分析模型輔助信息的產(chǎn)生方式主要基于研究者專業(yè)經(jīng)驗進(jìn)行設(shè)計[23-24].本文借助深度學(xué)習(xí)方法,從隱寫分析輔助信息產(chǎn)生方式的角度,探索提升針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型檢測效果的新途徑.
本文構(gòu)建具有卷積層和反卷積層的16層卷積神經(jīng)網(wǎng)絡(luò),對待檢測圖像進(jìn)行變換,得到待檢測圖像所對應(yīng)的參照圖像,將參照圖像和待檢測圖像一同作為JPEG圖像隱寫分析模型的輸入數(shù)據(jù),從而基于現(xiàn)有針對JPEG圖像深度學(xué)習(xí)隱寫分析模型,進(jìn)一步提升JPEG圖像深度學(xué)習(xí)隱寫分析模型檢測能力.
本文的主要貢獻(xiàn)有3個方面:
1) 提出針對JPEG圖像隱寫分析的參照圖像生成模型,為針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型提供輔助信息,從輔助信息的角度探索提升深度學(xué)習(xí)隱寫分析模型檢測能力的途徑;
2) 隱寫分析參照圖像生成模型基于深度卷積神經(jīng)網(wǎng)絡(luò),能夠通過訓(xùn)練,學(xué)習(xí)有利于提升隱寫檢測能力的輔助信息生成方式;
3) 針對多種嵌入率、隱寫算法的對比實驗結(jié)果表明,所提出的針對JPEG圖像隱寫分析的參照圖像生成模型生成的參照圖像能夠提升針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型的檢測能力.
由于JPEG圖像在互聯(lián)網(wǎng)中的廣泛使用,針對JPEG圖像的隱寫分析具有較高的研究價值.因此,基于深度學(xué)習(xí)的JPEG隱寫分析方法也是隱寫分析研究領(lǐng)域的熱點問題.
在深度學(xué)習(xí)隱寫分析開始引起學(xué)者關(guān)注期間,Xu[26],Chen等人[27],Zeng等人[28]分別提出了針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型.其中,Xu[26]構(gòu)建了具有20層的深度卷積網(wǎng)絡(luò)模型,該模型為減少信息丟失,不使用池化操作,并加入跳轉(zhuǎn)鏈接(shortcut connection),以防止梯度消失現(xiàn)象發(fā)生.Chen等人[27]構(gòu)建的深度學(xué)習(xí)模型包含64個卷積神經(jīng)網(wǎng)絡(luò),其中每個神經(jīng)網(wǎng)絡(luò)與JPEG圖像的1個相位相對應(yīng),從而實現(xiàn)了網(wǎng)絡(luò)模型對JPEG圖像不同相位數(shù)據(jù)的分離處理.Zeng等人[28]構(gòu)建了1種針對JPEG隱寫分析的混合卷積經(jīng)網(wǎng)絡(luò)模型.該模型首先利用25個DCT變換基對待檢測圖像進(jìn)行預(yù)處理,之后對預(yù)處理結(jié)果進(jìn)行多種不同的量化和截斷處理,并將處理的結(jié)果分別作為不同深度卷積神經(jīng)網(wǎng)絡(luò)的輸入.Yang等人[29]基于DenseNet[30]提出了針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型.
卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)能夠提取圖像中相鄰元素之間存在的相關(guān)性.因此,當(dāng)前針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型主要基于卷積神經(jīng)網(wǎng)絡(luò),并將JPEG圖像的解壓(不取整)結(jié)果作為輸入數(shù)據(jù).除此之外,不同針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型在卷積神經(jīng)網(wǎng)絡(luò)部分都采用了卷積層(convolutional layer)、批標(biāo)準(zhǔn)化(batch normalization)、ReLU(rectified linear unit)激活函數(shù)、平均池化(avarage pooling)等操作.
卷積神經(jīng)網(wǎng)絡(luò)中的卷積層由多個卷積核構(gòu)成,各卷積核的有卷積權(quán)重和偏置組成,卷積權(quán)重和偏置參與神經(jīng)網(wǎng)絡(luò)的訓(xùn)練.卷積層中的各卷積核分別利用卷積權(quán)重對輸入數(shù)據(jù)進(jìn)行卷積操作,并將結(jié)果與對應(yīng)的偏置相加,之后將卷積核的處理結(jié)果進(jìn)行合并,合并結(jié)果作為該卷積層的輸出.具體處理過程:
outputl=outputl-1*Wl+Bl,
(1)
其中,outputl和outputl-1分別為第l個卷積層的輸出數(shù)據(jù)和輸入數(shù)據(jù);Wl為第l個卷積層的卷積核參數(shù)矩陣;*為卷積操作算子;Bl為第l個卷積層的偏置.
為了提升深度學(xué)習(xí)隱寫分析模型在訓(xùn)練過程中的收斂速度,采用批標(biāo)準(zhǔn)化(batch normalization, BN)層[31],對卷積層輸出的特征圖進(jìn)行標(biāo)準(zhǔn)化處理.BN層的處理過程:
(2)
(3)
(4)
(5)
深度神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)保證了深度學(xué)習(xí)隱寫分析模型進(jìn)行非線性特性的學(xué)習(xí),而ReLU(rectified linear unit, ReLU)激活函數(shù)在深度學(xué)習(xí)模型中得到了廣泛的應(yīng)用.ReLU激活函數(shù)的具體處理過程為
(6)
其中,x為ReLU激活函數(shù)的輸入;f(x)為其輸出結(jié)果.
平均池化屬于1種下采樣操作,對矩陣X進(jìn)行平均池化操作具體過程:
(7)
其中,X為池化操作待處理的矩陣;池化操作的窗口大小為n×n;K為大小為n×n,并且元素全為1的矩陣,“*”為卷積操作算子.
相對于最大池化等其他池化操作,能夠保留隱寫算法的嵌入操作在載體中引入的微弱擾動.因此,基于深度學(xué)習(xí)的隱寫分析模型主要采用平均池化作為其池化操作.
為進(jìn)一步提升針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型檢測能力,Yang等人[23]和Ye等人[24]提出的深度學(xué)習(xí)隱寫分析模型在輸入數(shù)據(jù)的基礎(chǔ)上,附加以相應(yīng)的輔助信息.當(dāng)前基于深度學(xué)習(xí)的隱寫分析模型的輔助信息主要來源于待檢測圖像各元素被自適應(yīng)隱寫算法修改的概率.
如圖2所示,圖像中位于紋理復(fù)雜區(qū)域的元素對應(yīng)的大于位于平滑區(qū)域元素的修改概率.以上現(xiàn)象表明自適應(yīng)隱寫算法更傾向于在圖像中的紋理復(fù)雜區(qū)域進(jìn)行嵌入操作.
產(chǎn)生以上現(xiàn)象的原因為圖像紋理復(fù)雜區(qū)域的元素值的統(tǒng)計分布相比于平滑區(qū)域更為復(fù)雜,隱寫算法在這些統(tǒng)計規(guī)律復(fù)雜區(qū)域造成的擾動更加不易被覺察.因此,對隱寫算法修改概率更高的區(qū)域進(jìn)行更有側(cè)重地檢測,有利于提升隱寫檢測效果待檢測圖像的元素被自適應(yīng)隱寫算法修改概率可利用損失函數(shù)計算得到.具體計算方式為
(8)
其中,βi,j為位于圖像位置(i,j)的元素被修改的概率值;λ為大于零的數(shù)值,具體數(shù)值由隱寫相對嵌入率決定.
Fig. 2 An image and the corresponding embedding probability map圖2 一張圖像及其對應(yīng)的修改概率圖
雖然利用圖像各元素被修改的概率作為輔助信息,能夠提升針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型的檢測能力,但當(dāng)前基于深度學(xué)習(xí)隱寫分析模型所使用輔助信息的產(chǎn)生方法有待進(jìn)一步改進(jìn),隱寫分析模型的輸入數(shù)據(jù)中隱含的與隱寫分析有關(guān)的信息有待進(jìn)一步挖掘.
本文從隱寫分析輔助信息的角度,探索進(jìn)一步提升深度學(xué)習(xí)隱寫分析模型檢測能力的途徑,提出JPEG圖像隱寫分析參照圖像生成模型,嘗試更加深入的挖掘待檢測圖像中與隱寫分析有關(guān)的信息.首先,基于U-NET[32]構(gòu)建具有跳轉(zhuǎn)連接(skip connection)的深度卷積神經(jīng)網(wǎng)絡(luò),對待檢測圖像進(jìn)行處理,生成用于JPEG圖像隱寫分析的參照圖像.之后,將生成的參照圖像作為隱寫分析的輔助信息,與隱寫分析模型相結(jié)合.從而更加充分地挖掘待檢測圖像中與隱寫有關(guān)的信息,在現(xiàn)有隱寫分析模型的基礎(chǔ)上,進(jìn)一步提升深度學(xué)習(xí)隱寫分析模型的檢測能力的目的.
JPEG圖像隱寫分析參照圖像生成模型將待檢測圖像進(jìn)行處理和變換,以提升隱寫分析模型的檢測能力為目的,為針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型提供輔助信息.
如圖3所示,JPEG圖像隱寫分析參照圖像生成模型與隱寫分析模型相互獨立,以待檢測圖像為輸入數(shù)據(jù).而隱寫分析模型的輸入數(shù)據(jù)為待檢測圖像和JPEG圖像隱寫分析參照圖像生成模型的輸出數(shù)據(jù).最終檢測結(jié)果由隱寫分析模型輸出.
Fig. 3 Relations between the proposed method and steganalysis model圖3 本文方法與隱寫分析模型的關(guān)系
JPEG圖像隱寫分析參照圖像生成模型,由8個卷積層與8個反卷積層(deconvolution)組成,共16層.每個卷積層以及反卷積層的輸出依次經(jīng)過批標(biāo)準(zhǔn)化(BN)和LReLu(leaky ReLu, LReLU)激活函數(shù)的處理,分別記為CONV-BN-LReLU和deCONV-BN-LReLU.
本文提出模型的反卷積層又稱為轉(zhuǎn)置卷積,記為deCONV.本文模型通過反卷積層實現(xiàn)上采樣目的,將經(jīng)由多個卷積層輸出的抽象特征圖進(jìn)行進(jìn)一步變換,最終得到與輸入圖像相同大小的參照圖像.此外,為抑制梯度消失現(xiàn)象,在模型的卷積層與對稱位置的反卷積層之間添加跳轉(zhuǎn)連接(skip connection).
具體網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,包括2種類型的操作組合:GT1,GT2.網(wǎng)絡(luò)各層結(jié)構(gòu)的具體參數(shù)如表1所示,其中,列2和列3代表對應(yīng)網(wǎng)絡(luò)層的輸入數(shù)據(jù)和輸出數(shù)據(jù)尺寸.輸入數(shù)據(jù)和輸出數(shù)據(jù)尺寸參數(shù)格式為a×(b×c),a為數(shù)據(jù)的通道數(shù),b為數(shù)據(jù)的高度,c為數(shù)據(jù)的寬度.卷積核尺寸列為對應(yīng)網(wǎng)絡(luò)層中卷積核的參數(shù).卷積核的具體參數(shù)格式為n×(h×w)×s,n為卷積核的個數(shù),h為卷積核的高度,w為卷積核的寬度,s為卷積操作的步長.Process列表示對應(yīng)層包含的操作,ADD(·)為按位相加操作,“·”是與當(dāng)前層相加的網(wǎng)絡(luò)層標(biāo)號.
Fig. 4 Structure of reference image generation network for JPEG image deep learning steganalysis model圖4 JPEG圖像隱寫分析參照圖像生成模型結(jié)構(gòu)圖
Layer Input Sizea×(b×c)Output Sizea×(b×c)Kernel Sizen×(h×w)×sProcessL11×(256×256)16×(256×256)16×(3×3)×1CONV-BN-LReLuL216×(256×256)32×(256×256)32×(3×3)×1CONV-BN-LReLuL332×(256×256)64×(128×128)64×(3×3)×2CONV-BN-LReLuL464×(128×128)64×(64×64)64×(3×3)×2CONV-BN-LReLuL564×(64×64)128×(32×32)128×(3×3)×2CONV-BN-LReLuL6128×(32×32)128×(16×16)128×(3×3)×2CONV-BN-LReLuL7128×(16×16)128×(8×8)128×(3×3)×2CONV-BN-LReLuL8128×(8×8)128×(4×4)128×(3×3)×2CONV-BN-LReLuL9128×(4×4)128×(8×8)128×(5×5)×2DECONV-BN-LReLu-ADD(L8)L10128×(8×8)128×(16×16)128×(5×5)×2DECONV-BN-LReLu-ADD(L7)
Continued (Table 1)
Note:ais the channel of the data,bis the height of the data andcis the width of the data. Besides,nis the number of the convolutional kernel,his the height of the convolutional kernel,wis width of the convolutional kernel andsis the stride for the convolution.
本文提出的隱寫分析參照圖像生成模型可采取2種訓(xùn)練策略:第1種訓(xùn)練策略為預(yù)訓(xùn)練策略,記為Pre-training;第2種訓(xùn)練策略為共同訓(xùn)練方式,記為Together.
Fig. 5 Pre-training strategy圖5 Pre-training訓(xùn)練策略
第1種訓(xùn)練方式,即預(yù)訓(xùn)練方式.首先,對本文所提出參照圖像生成模型進(jìn)行預(yù)訓(xùn)練,預(yù)訓(xùn)練過程如圖5所示.隱寫分析參照圖像生成模型預(yù)訓(xùn)練的損失函數(shù)為生成的參照圖像與待檢測圖像對應(yīng)的cover圖像之間的相似程度,該損失函數(shù)的計算方法:
φ(I)=I*K,
(9)
φ(R)=R*K,
(10)
(11)
其中,1≤i≤M,1≤j≤N;M,N為圖像的寬度和長度;I為待檢測圖像對應(yīng)的原始圖像;R為本文提出的方法產(chǎn)生的隱寫分析參照圖像;K是預(yù)訓(xùn)練過程中使用的濾波器;φ(I)和φ(R)分別是對I和R進(jìn)行濾波的結(jié)果;φ(I)i,j和φ(R)i,j分別為φ(I)和φ(R)位于(i,j)位置的元素值;LOSS為預(yù)訓(xùn)練的損失函數(shù).
首先采用YeNet[24]中所使用的Rich Model[16]中的30個高通濾波器K分別對生成圖像R和輸入圖像所對應(yīng)的cover圖像I進(jìn)行濾波操作;然后,計算以上2種圖像的濾波結(jié)果φ(I)和φ(R)之間的均方誤差,并將其作為參照圖像R與待檢測圖像對應(yīng)的cover圖像I之間相似程度的度量和預(yù)訓(xùn)練的損失函數(shù)LOSS.
預(yù)訓(xùn)練完成之后,將參照圖像生成模型與隱寫分析模型相結(jié)合,以提升隱寫分析任務(wù)分類準(zhǔn)確率為目標(biāo),進(jìn)行訓(xùn)練.通過對參照圖像生成模型進(jìn)行預(yù)訓(xùn)練,保證參照圖像與待檢測圖像所對應(yīng)的cover圖像在殘差噪聲上盡可能接近.
第2種訓(xùn)練策略,屬于1種共同訓(xùn)練方式,如圖6所示,將參照圖像生成模型與隱寫分析模型作為1個整體,以提升隱寫分析檢測準(zhǔn)確率為目標(biāo),進(jìn)行共同訓(xùn)練.
Fig. 6 Together training strategy圖6 Together訓(xùn)練策略
JPEG圖像隱寫分析參照圖像生成模型輸出的參照圖像將作為深度學(xué)習(xí)隱寫分析模型的輔助信息,與待檢測圖像一同作為深度學(xué)習(xí)隱寫分析模型的輸入,以提升深度學(xué)習(xí)隱寫分析模型的檢測能力.
本文所提出方法生成的參照圖像可以按照2種方式與隱寫分析模型進(jìn)行結(jié)合,如圖7所示.
Fig. 7 Reference images input methods圖7 參照圖像輸入方式
第1種結(jié)合方式,記為Combine方式,該種方式是將參照圖像與對應(yīng)的待檢測圖像沿著圖像的x軸進(jìn)行連接(concation)操作,合成結(jié)果為1個寬度為待檢測待檢測圖像2倍的矩陣,并將該合成結(jié)果作為隱寫分析模型的輸入.
第2種合結(jié)合方式,記為Channel方式,將參照圖像和待檢測圖像沿z軸進(jìn)行合并.分別作為隱寫分析模型的輸入數(shù)據(jù),在隱寫分析模型對2種數(shù)據(jù)進(jìn)行相應(yīng)處理,并將處理的結(jié)果進(jìn)行合并.
為驗證本文方法有效性,基于JPEG圖像隱寫分析參照圖像生成模型和J-Xune[26],構(gòu)建隱寫分析模型,并與J-Xunet的檢測效果進(jìn)行對比.本文使用Tensorflow深度學(xué)習(xí)框架實現(xiàn)提出的模型以及對比模型.本論文的數(shù)值計算得到了武漢大學(xué)超級計算中心的計算支持和幫助.
本文實驗采用的數(shù)據(jù)集合來源于BossBase v1.01[33]中的10 000圖像.如圖8所示,本文在實驗中將BossBase v1.01中每張512×512大小的圖像從4個對角以及圖像的中間部分截取的5張大小為256×256的圖像,從而產(chǎn)生50 000張空域圖像.之后對50 000張空域圖像分別以質(zhì)量因子為75和95,進(jìn)行JPEG壓縮,得到對應(yīng)不同質(zhì)量因子的JPEG圖像,作為本文實驗中涉及的cover圖像.
Fig. 8 Generation of image samples in the experiments圖8 實驗數(shù)據(jù)產(chǎn)生方式
本文所涉及的對比實驗的訓(xùn)練、驗證、測試數(shù)據(jù)的stego圖像由JC-UED[9]和J-UNIWARD[10]和隱寫算法分別以相對嵌入率0.1bpnzAC(bits per none zero AC),0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC對50 000張256×256大小的cover圖像進(jìn)行嵌入得到.
對比實驗的數(shù)據(jù)構(gòu)成如圖9所示,將BossBase v1.01中8 000張原始圖像對應(yīng)的40 000張256×256大小的cover圖像以及對應(yīng)的40 000張stego圖像,共80 000張圖像作為模型的訓(xùn)練數(shù)據(jù)集合;將BossBase v1.01中與訓(xùn)練測試集合不同的1 000張圖像所對應(yīng)的5 000張256×256大小cover圖像以及對應(yīng)的stego圖像,共10 000張圖像作為驗證數(shù)據(jù)集合;將BossBase v1.01中其余1 000張圖像對應(yīng)的5 000張256×256大小圖像及其對應(yīng)的stego圖像,共10 000張圖像作為實驗的測試數(shù)據(jù)集合.
所構(gòu)建的數(shù)據(jù)集合保證了本文提出的模型以及對比方法采用相同的訓(xùn)練、驗證、測試數(shù)據(jù)集合,并且訓(xùn)練、驗證、測試數(shù)據(jù)集合的原圖像互不重復(fù).
本文所提出模型在訓(xùn)練過程中都采用Adam[34]優(yōu)化算法進(jìn)行目標(biāo)函數(shù)的優(yōu)化.其中,學(xué)習(xí)率初始值為0.001,學(xué)習(xí)率每5 000次訓(xùn)練衰減為原來的0.9.訓(xùn)練過程中,每個mini-batch包括16對cover和stego圖像,即32張圖像;每種模型訓(xùn)練的最大訓(xùn)練迭代次數(shù)為20萬,即80個epoch.
此外,本文實驗所涉及的對比算法采用相同參數(shù)設(shè)置.
Fig. 9 Data sets for the experiments圖9 對比實驗數(shù)據(jù)集合構(gòu)成
為了確定JPEG圖像隱寫分析參照圖像生成模型的訓(xùn)練策略,以及與深度學(xué)習(xí)隱寫分析模型的結(jié)合方式,分別采用Together,Pre-training訓(xùn)練方式以及Combine和Channel結(jié)合方式進(jìn)行包含1種情況的對比實驗.
該對比實驗中,將本文所提出的隱寫分析參照凸顯生成模型與J-Xunet[26]隱寫分析模型相結(jié)合.各種情況下模型的最大訓(xùn)練迭代次數(shù)為12.5萬次,并選取最后5個epoch的驗證結(jié)果的平均值作為最終的檢測準(zhǔn)確率.檢測算法為J-UNIWARD[10],相對嵌入率為0.4bpnzAC,JPEG圖像載體為質(zhì)量因子為75.分別采用2種模型結(jié)合方式,以及2種不同的訓(xùn)練策略,得到的4種模型在驗證數(shù)據(jù)集合中的檢測準(zhǔn)確率如表2所示.其中,加粗?jǐn)?shù)據(jù)為最高的準(zhǔn)確率.模型在驗證集合上的準(zhǔn)確率在訓(xùn)練過程中的變化情況如圖10所示.其中,橫坐標(biāo)為訓(xùn)練的epoch,縱坐標(biāo)為各個epoch訓(xùn)練完成之后的測試準(zhǔn)確率.
Table 2 Detection Accuracy when Different Training Strategies and Combination Ways are Applied
Note: The bold numbers are the best performance in experiments.
Fig. 10 Effect of training strategies and combination ways on verification results圖10 訓(xùn)練策略、結(jié)合方式對驗證結(jié)果的影響
實驗結(jié)果表明:采用Combine方式將參照圖像生成模型與隱寫分析模型結(jié)合,能夠獲得具有更高檢測準(zhǔn)確率的模型.當(dāng)本文方法與J-Xunet隱寫分析模型采用Combine方式進(jìn)行結(jié)合,并采用Together訓(xùn)練方式得到的隱寫分析模型具有最高的檢測準(zhǔn)確率.因此,本文對比實驗采用Combine方式將參照圖像生成模型產(chǎn)生的參照圖像與待檢測圖像結(jié)合,并采用Together訓(xùn)練方式進(jìn)行訓(xùn)練.
本文提出的JPEG隱寫分析參照圖像生成模型與J-Xunet[26]深度學(xué)習(xí)隱寫分析模型結(jié)合,從而為針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型提供輔助信息,所構(gòu)成的隱寫分析模型記為Reference-J-Xunet.為驗證本文提出方法的有效性,利用第3.1節(jié)中所構(gòu)建的隱寫分析數(shù)據(jù)集合,進(jìn)行Reference-J-Xunet與J-XuNet[26]之間的隱寫分析檢測能力對比實驗.
每種深度學(xué)習(xí)隱寫分析模型采用與3.2節(jié)中相同的參數(shù)設(shè)置.每種隱寫分析模型訓(xùn)練完成之后,取訓(xùn)練過程中最后5個epoch所保存模型的測試結(jié)果的平均值作為最終檢測準(zhǔn)確率.除此之外,每種隱寫分析模型各進(jìn)行以上3次測試,并取3次測試準(zhǔn)確率的平均結(jié)果作為最終的測試結(jié)果.具體測試結(jié)果如圖11、圖12以及表3所示.其中,圖11和圖12中的圓點表示本文提出方法針對不同載體質(zhì)量因子、不同嵌入率,以及不同隱寫算法嵌入的樣本的隱寫分析準(zhǔn)確率,而正方形表示J-XuNet相應(yīng)的隱寫分析準(zhǔn)確率.表3中,行2數(shù)據(jù)為待檢測樣本的相對嵌入率,單位為bpnzAC(bits per non-zero AC DCT coecient).此外,表3中的加粗?jǐn)?shù)據(jù)為針對相同算法相同嵌入率情況下最高檢測準(zhǔn)確率.
Fig. 11 Detection accuracy comparison between J-XuNet and Reference-J-XuNet for J-UNIWARD QF75 and QF95圖11 J-XuNet與Reference-J-XuNet對于J-UNIWARD隱寫算法的檢測準(zhǔn)確率對比
Fig. 12 Detection accuracy comparison between J-XuNet and Reference-J-XuNet for JC-UED圖12 J-XuNet與Reference-J-XuNet對于JC-UED隱寫算法的檢測準(zhǔn)確率對比
EmbeddingMethodDetecorQF75QF950.10.20.30.40.50.10.20.30.40.5J-UNIWARDReference-J-Xunet57.35266.35774.51281.86788.50850.8853.4959.17663.71865.802J-Xunet54.43862.24672.02676.20581.57250.5252.83856.54459.08964.024JC-UEDReference-J-Xunet76.96686.02490.91692.47295.48656.29664.76272.47877.37881.236J-Xunet72.54482.38887.04490.60494.09655.14662.64465.90475.83876.984
Note: The bold numbers are the best performance in experiments.
在載體質(zhì)量因子為95時,相對嵌入率為0.1bpnzAC和0.2bpnzAC,隱寫算法為J-UNIWARD的情況下,以及載體質(zhì)量因子為95時,相對嵌入率為0.1bpnzAC,隱寫算法為JC-UED的情況下,檢測難度較大.為了保證模型在以上情況下的檢測效果,本文對比實驗采用調(diào)優(yōu)策略進(jìn)行以上情況下模型的訓(xùn)練.
具體訓(xùn)練過程為:
1) 采用載體質(zhì)量因子為95,相對嵌入率為0.5bpnzAC的樣本,對模型進(jìn)行訓(xùn)練,共訓(xùn)練80個epoch.
2) 利用當(dāng)前情況下的樣本,繼續(xù)訓(xùn)練上一步訓(xùn)練過程中得到的模型,即對模型進(jìn)行調(diào)優(yōu).調(diào)優(yōu)過程的最大epoch數(shù)為80.
在隱寫樣本的嵌入方法為J-UNIWARD[10]算法、載體圖像質(zhì)量因子為75、隱寫樣本的相對嵌入率分別為0.1bpnzAC,0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC的情況下,本文提出方法相對于對比方法的隱寫分析準(zhǔn)確率分別提升了2.914,4.111,2.486,5.662,6.936個百分點.而當(dāng)載體圖像具有較高質(zhì)量因子,如質(zhì)量因子為95時,隱寫分析難度相對于低質(zhì)量因子圖像更大.因此,實驗中載體質(zhì)量因子為95時,隱寫分析準(zhǔn)確率相對于載體質(zhì)量因子為75有所下降.但本文提出方法依然能夠提升隱寫分析模型的檢測能力.在相對嵌入率為0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC的情況下,本文方法的隱寫分析準(zhǔn)確率相對于對比方法分別提升0.652,2.632,4.629,1.778個百分點.
當(dāng)隱寫樣本采用JC-UED[9]算法進(jìn)行嵌入的情況下,本文提出方法同樣能夠提升深度學(xué)習(xí)隱寫分析模型的檢測能力.當(dāng)載體圖像的質(zhì)量因子為75且相對嵌入率分別為0.1bpnzAC,0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC的情況下,本文方法隱寫分析準(zhǔn)確率相對于對比方法分別提升4.422,3.636,3.872,1.868,1.39個百分點.在載體質(zhì)量因子為95且相對嵌入率分別為0.1bpnzAC,0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC的情況下,本文方法的隱寫分析準(zhǔn)確率相對于對比方法分別提升1.15,2.118,6.574,1.54,4.252個百分點.
當(dāng)載體圖像質(zhì)量因子為95、隱寫樣本相對嵌入率為0.1bpnzAC,隱寫算法為J-UNIWARD時,對比試驗在模型訓(xùn)練過程中采用了調(diào)優(yōu)策略.雖然本文算法相對于對比方法略有提升,但是本文方法和對比方法的隱寫檢測準(zhǔn)確率均接近50%.
實驗結(jié)果表明:本文方法能夠為基于深度學(xué)習(xí)的JPEG圖像隱寫分析模型提供有利于提升檢測能力的輔助信息,提升深度學(xué)習(xí)隱寫分析模型的檢測能力.但在載體圖像具有較高質(zhì)量因子、較低嵌入率情況下提升效果有待加強(qiáng).
本文從隱寫分析模型輔助信息的角度,探索進(jìn)一步提升JPEG圖像隱寫分析模型檢測能力的途徑.構(gòu)建了基于卷積神經(jīng)網(wǎng)絡(luò)的隱寫分析參照圖像生成模型為,以更加充分地挖掘待檢測圖像中與隱寫分析有關(guān)的信息.本文提出方法對待檢測圖像進(jìn)行變換,并與隱寫分析模型一同參與訓(xùn)練,保證參照圖像生成模型以提升隱寫分析檢測能力為目標(biāo),為隱寫分析模型提供輔助信息.對比實驗結(jié)果表明:本文提出模型,能夠為針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型提供有助于提升檢測能力的輔助信息.但在載體為高質(zhì)量因子JPEG圖像,相對嵌入率較低的情況下,提升效果有待加強(qiáng).
在未來,將針對隱寫分析檢測對象的載體屬性與深度學(xué)習(xí)隱寫分析模型的特性,對JPEG圖像隱寫分析參照圖像生成模型進(jìn)行改進(jìn)與優(yōu)化,改善本文構(gòu)建的模型在載體具有高質(zhì)量因子,相對嵌入率較低情況下的檢測能力,探索進(jìn)一步提升針對JPEG圖像的深度學(xué)習(xí)隱寫分析模型檢測能力的途徑.