張 震,王 真
(上海電力大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院,上海 200000)
圖像隱寫術(shù)是一種將秘密信息隱藏在載體圖像中并隱蔽通信行為的技術(shù),是信息隱藏的重要分支,逐漸成為信息安全領(lǐng)域的研究熱點(diǎn)[1],[2]?,F(xiàn)代隱寫術(shù)一直被描述為具有保真度約束的信源編碼問題。通過量化單個像素的修改代價,計算總嵌入失真最小化,進(jìn)一步降低隱寫術(shù)的統(tǒng)計可檢測性。在實(shí)際隱寫方案中,可以利用伴隨式矩陣編碼(STC)[3]來逼近理論有效負(fù)載失真邊界。因此,實(shí)際隱寫術(shù)的剩余工作就是設(shè)計一個合理的代價損失函數(shù),從而為每個變化的圖像元素提供一個精確的失真度量。一個更合理的失真函數(shù)會帶來更好的隱寫安全性,因此如何設(shè)計一個更加合理的代價損失函數(shù)成為一個重要的研究課題[4-6]。
隱寫分析作為與隱寫術(shù)功能相反的技術(shù),用于檢測載體中是否含有秘密信息。盡管一些隱寫分析方法通過結(jié)合監(jiān)督學(xué)習(xí)方案和手工制作的高維統(tǒng)計特征或選擇信息感知技術(shù),如空間富模型SRM[7]及其變體max-SRMd2[8]可以顯著提高檢測性能,但精心設(shè)計的失真函數(shù)依舊可以獲得很好的隱蔽性。并且隨著深度學(xué)習(xí)的發(fā)展,研究人員試圖將神經(jīng)網(wǎng)絡(luò)引入隱寫分析領(lǐng)域,利用手工精心制作的網(wǎng)絡(luò)結(jié)構(gòu)并結(jié)合隱寫分析特征領(lǐng)域的知識,從而實(shí)現(xiàn)更好的隱寫檢測性,這對隱寫術(shù)提出了重大挑戰(zhàn)。最近提出基于深度學(xué)習(xí)的隱寫方案,通過交替更新GAN(Generative Adversarial Network)中的編碼-解碼網(wǎng)絡(luò)來分別實(shí)現(xiàn)秘密信息的嵌入和提取[9-12],然而由于無法保證秘密信息的無差錯恢復(fù),它們的應(yīng)用一直受到限制。與上述工作不同,Tang等[13]基于現(xiàn)有的自適應(yīng)隱寫算法的思想,提出自動隱寫失真代價學(xué)習(xí)框架ASDL-GAN,這是生成對抗網(wǎng)絡(luò)自動學(xué)習(xí)圖像隱寫失真的首次應(yīng)用,它改變了傳統(tǒng)的根據(jù)先驗(yàn)知識手工設(shè)計隱寫失真函數(shù)的觀念,從而減少了人為設(shè)計的因素,為生成對抗網(wǎng)絡(luò)在隱寫領(lǐng)域的應(yīng)用開拓了新的方向。但是由于這是生成對抗網(wǎng)絡(luò)在該領(lǐng)域的初次探索,在時間復(fù)雜度和隱寫安全性上仍存在很大的改進(jìn)空間。Yang等[14]在此框架的基礎(chǔ)上進(jìn)行改進(jìn),并使用Tanh激活函數(shù)加快訓(xùn)練速度,使得抗隱寫分析能力顯著提高。然而以上基于生成對抗神經(jīng)網(wǎng)絡(luò)的圖像隱寫方案均存在一個明顯的不足,他們均忽略了網(wǎng)絡(luò)在生成隱寫圖像時的計算冗余度高、局部信息丟失嚴(yán)重、分辨率下降等問題。由于隱寫操作對像素的修改很小,使用大步伐的卷積操作容易導(dǎo)致神經(jīng)網(wǎng)絡(luò)忽略圖像細(xì)微的變化,從而極大地影響生成網(wǎng)絡(luò)對隱寫圖像的生成。
基于上述討論,本文提出多層次特征融合的生成對抗網(wǎng)絡(luò)圖像隱寫方法,彌補(bǔ)網(wǎng)絡(luò)在特征提取過程中的信息丟失問題,進(jìn)而使得生成的隱寫圖像隱蔽性更強(qiáng),全面提高圖像隱寫安全性。
本文主要貢獻(xiàn)如下:
1)簡化生成對抗網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)圖像隱寫失真代價自學(xué)習(xí),使得生成隱寫圖像盡可能接近真實(shí)標(biāo)簽,提升圖像生成效率;
2)增強(qiáng)特征提取準(zhǔn)確性,融合生成網(wǎng)絡(luò)中多層次特征信息,有效地增加生成網(wǎng)絡(luò)對載體圖像細(xì)粒度和粗粒度信息的感知,解決生成網(wǎng)絡(luò)中局部特征信息丟失問題,進(jìn)一步提升隱寫性能;
3)引入更強(qiáng)的隱寫分析器作為判別網(wǎng)絡(luò),提高判別網(wǎng)絡(luò)的有效性,使網(wǎng)絡(luò)訓(xùn)練的參數(shù)能更好的表達(dá)失真度量,增強(qiáng)生成對抗網(wǎng)絡(luò)的整體性能。
在基于GAN的圖像隱寫模型中,嵌入秘密信息的失真代價可以通過兩個子網(wǎng)相互競爭的對抗網(wǎng)絡(luò)來學(xué)習(xí)。文獻(xiàn)[13]首次提出了一種基于GAN的自動隱寫失真學(xué)習(xí)框架(稱為ASDL-GAN)。在此框架下,利用25組卷積構(gòu)建生成網(wǎng)絡(luò),將XuNet[15]作為判別網(wǎng)絡(luò),之后通過構(gòu)建合理的損失函數(shù)和嵌入模擬器使GAN可以自動學(xué)習(xí)隱寫失真代價。訓(xùn)練GAN模型收斂后,將得到的失真函數(shù)結(jié)合STC編碼方法完成實(shí)際的秘密信息嵌入和提取過程。ASDL-GAN隱寫方案的優(yōu)勢在于首次提出將概率圖轉(zhuǎn)化為代價圖并構(gòu)建損失函數(shù)使得代價可以進(jìn)行反向傳播。與此同時該方案仍存在以下的不足。
1) TES嵌入模擬器采用了需要預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)耗費(fèi)時間長。
2) 由25層卷積層構(gòu)成的生成網(wǎng)絡(luò)無法有效的捕捉圖像紋理細(xì)節(jié)。因此,該隱寫方案仍存在提升的空間。
文獻(xiàn)[14]在此基礎(chǔ)上,進(jìn)一步做了如下的改進(jìn),他們提出使用Tanh激活函數(shù)代替TES神經(jīng)網(wǎng)絡(luò)模擬信息的嵌入的方法(稱為UT-GAN),改善了ASDL-GAN方案中TES嵌入模擬器耗費(fèi)時長和需要預(yù)訓(xùn)練的問題。Tanh嵌入模擬器根據(jù)(1)進(jìn)行設(shè)計。其中給定修改概率pi,j(pi,j∈(0,0.5))與秘密信息隨機(jī)數(shù)si,j(si,j∈[0,1])作為輸入,嵌入模擬器輸出相應(yīng)的修改值mi,j(mi,j∈{+1,0,-1})。
(1)
與此同時Yang還提出了一種基于U-Net[16]結(jié)構(gòu)的生成網(wǎng)絡(luò),該生成網(wǎng)絡(luò)相比于ASDL-GAN的生成網(wǎng)絡(luò)具有更好的邊緣輪廓信息捕捉能力。得益于上述兩點(diǎn)改進(jìn),Yang提出的UT-GAN方案具有更好的隱寫安全性。但是UT-GAN仍有些許不足,因?yàn)楦鶕?jù)原始U-Net構(gòu)造的生成網(wǎng)絡(luò)仍然存在細(xì)粒度信息丟失的問題,這會導(dǎo)致失真代價訓(xùn)練忽視圖像細(xì)致的紋理信息,從而使得失真代價無法得到充分訓(xùn)練,進(jìn)一步影響隱寫的隱蔽性。
因此本文對原始U-Net結(jié)構(gòu)進(jìn)行多層次特征融合,重構(gòu)生成網(wǎng)絡(luò)實(shí)現(xiàn)對載體圖像粗粒度和細(xì)粒度的信息補(bǔ)償作用,使用經(jīng)過信息補(bǔ)償?shù)膶咕W(wǎng)絡(luò),生成載體圖像每個像素的代價損失,最終獲得更好的隱寫魯棒性和隱寫隱蔽性。
本文設(shè)計了一個由兩部分組成的總體失真代價計算模型:多層次特征融合結(jié)構(gòu)的隱寫圖像生成網(wǎng)絡(luò)和代價更新判別網(wǎng)絡(luò)。在隱寫圖像生成網(wǎng)絡(luò)中,首先在收縮路徑各層嵌入卷積與池化操作改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),在減少冗余計算與參數(shù)量的基礎(chǔ)上防止梯度消失;之后通過在擴(kuò)展路徑中添加連接層融合多層次特征,聚集不同層次特征的表達(dá)信息,對網(wǎng)絡(luò)進(jìn)行信息補(bǔ)償;代價更新判別網(wǎng)絡(luò)使用設(shè)計好的判別網(wǎng)絡(luò)、嵌入模擬器以及損失函數(shù)配合生成網(wǎng)絡(luò)進(jìn)行代價的迭代更新,從而獲得載體圖像中每個像素的代價損失。在設(shè)計好總體失真代價計算模型后,將訓(xùn)練得到的像素代價損失,最終利用嵌入模擬器生成隱寫圖像??傮w框架如圖1所示。
圖1 本文網(wǎng)絡(luò)整體結(jié)構(gòu)圖
生成網(wǎng)絡(luò)由收縮路徑和擴(kuò)展路徑組成。由于網(wǎng)絡(luò)淺層紋理信息豐富、圖像分辨率高,但語義性較低、噪聲較多。而深層信息語義性強(qiáng),但對細(xì)節(jié)信息感知能力差。因此本文通過多層次特征融合將對應(yīng)層的特征信息進(jìn)行連接,使得生成網(wǎng)絡(luò)可以同時捕捉到淺層的紋理信息和深層的語義信息。ASDL-GAN和UT-GAN中的生成網(wǎng)絡(luò)在卷積過程中均存在信息丟失的問題,忽略了通道間的信息表達(dá)。其中ASDL-GAN(如圖2(a))使用多個卷積層連接很難準(zhǔn)確捕捉圖像深層語義信息,UT-GAN(如圖2(b))引進(jìn)U型網(wǎng)絡(luò)結(jié)構(gòu),但忽略了圖像淺層紋理信息。
圖2(b) UT-GAN生成網(wǎng)絡(luò)結(jié)構(gòu)
圖2(a) ASDL-GAN生成網(wǎng)絡(luò)結(jié)構(gòu)
因此,上述網(wǎng)絡(luò)結(jié)構(gòu)均存在局部信息丟失問題,為進(jìn)一步獲得不同層次的語義特征,本文提出的重構(gòu)生成網(wǎng)絡(luò)結(jié)構(gòu)(如圖3),使用多層次特征融合技術(shù),使得生成器網(wǎng)絡(luò)在捕捉圖像深層語義信息的基礎(chǔ)上,對圖像的不同維度的特征信息進(jìn)行多層次融合,從而充分捕捉圖像各個層次的信息,這是改善網(wǎng)絡(luò)性能的關(guān)鍵。因此,本文構(gòu)建的多層次特征融合生成網(wǎng)絡(luò)模型可以獲得更好的整體性能,具體如下:
圖3 Proposed-GAN生成網(wǎng)絡(luò)結(jié)構(gòu)
1) 生成網(wǎng)絡(luò)由M(M=16)個操作組組成,前8組組成收縮路徑,每組由尺寸為3、步長為1的卷積層、批處理歸一化層(Batch Normalization)、Leaky-ReLU激活函數(shù)、尺寸為2,步長為2的最大池化層組成,經(jīng)過8層收縮路徑后得到128×1×1的特征圖;后8組組成擴(kuò)展路徑,每組由步長為2、尺寸為3的反卷積層、ReLU激活函數(shù)、批處理歸一化層(Batch Normalization)、Dropout、Concat操作、尺寸為1、步長為1的卷積層組成,得到與輸入圖像大小相同的特征圖。
2) 擴(kuò)展路徑添加Concat操作,跳躍連接對應(yīng)收縮層中的通道數(shù)不同的多尺度特征,實(shí)現(xiàn)多層次特征信息融合。擴(kuò)展路徑第n(n∈[9,16))層融合收縮路徑中第(M-n+1)層卷積后的特征(單層)與第(M-n)層池化處理后的特征(雙層)、第(M-n)層卷積得到特征,最終實(shí)現(xiàn)(3層)多層次特征融合(如圖3)。因?yàn)榈?層特征與前兩層的特征大小不同,因此需要添加尺寸為1,步長為2的卷積層將特征尺度歸一化。如圖3所示,第9層中添加連接層跳躍連接融合第8層卷積后的特征、第7層池化后的特征以及第7層卷積得到特征經(jīng)過步長為2的卷積得到的特征。
3) 擴(kuò)展路徑中添加Dropout操作,防止過擬合,提高模型泛化能力。
4) 多層次特征融合后特征通道數(shù)增加,為減少運(yùn)算量,在連接層之后通過尺寸為1、步長為1的卷積層減少通道數(shù)。
判別網(wǎng)絡(luò)和生成網(wǎng)絡(luò)共同配合損失函數(shù)完成對抗網(wǎng)絡(luò)代價更新。判別網(wǎng)絡(luò)在本質(zhì)上充當(dāng)了隱寫分析的作用,用作隱寫圖像和載體圖像的區(qū)分。也就是說,現(xiàn)有的基于神經(jīng)網(wǎng)絡(luò)的隱寫分析器均可以作為判別網(wǎng)絡(luò)。理論上說,更強(qiáng)的判別網(wǎng)絡(luò)通過對抗訓(xùn)練可以使隱寫更加安全,通過生成網(wǎng)絡(luò)與判別網(wǎng)絡(luò)相互競爭,可以有效地訓(xùn)練整個網(wǎng)絡(luò)。ASDL-GAN、UT-GAN均使用XuNet作為判別網(wǎng)絡(luò),該判別網(wǎng)絡(luò)是Xu等人在2016年提出的隱寫分析器,雖然它與SRM高維特征隱寫分析器相當(dāng)?shù)男阅?但后續(xù)提出的隱寫分析器均具有更好的隱寫分析性能,因此本文使用性能更好的隱寫分析網(wǎng)絡(luò),進(jìn)而提高整個生成對抗網(wǎng)絡(luò)的隱寫安全性。經(jīng)過多次對比實(shí)驗(yàn),最終使用YeNet[17]隱寫分析器作為本文的判別網(wǎng)絡(luò)。
由于隱寫的本質(zhì)是對圖像的像素進(jìn)行非常輕微的修改,因此圖像原始的內(nèi)容會極大的影響隱寫分析器的判斷。所以,使用高通濾波濾除圖像的低頻內(nèi)容,保留高頻成分,提高“信噪比”,從而可以提高判別網(wǎng)絡(luò)的鑒別有效性,使訓(xùn)練參數(shù)可以更好的表示失真度的測量。從SRM中引入了12個高通濾波器,對載體圖像和隱寫圖像進(jìn)行殘差過濾,經(jīng)過高通濾波后的殘差可以對隱寫操作更為敏感并且可以加快網(wǎng)絡(luò)收斂速度。在訓(xùn)練過程中,生成網(wǎng)絡(luò)通過調(diào)整參數(shù)抵抗判別網(wǎng)絡(luò)的隱寫分析,判別網(wǎng)絡(luò)通過調(diào)整參數(shù)來判斷生成網(wǎng)絡(luò)的結(jié)果。當(dāng)過程收斂時,最終的參數(shù)用于計算每個像素的嵌入失真代價。
損失函數(shù)是用來調(diào)節(jié)生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)中神經(jīng)元更新的影響因素。本文損失函數(shù)loss_total由生成網(wǎng)絡(luò)的損失與判別網(wǎng)絡(luò)的損失兩部分組成。
判別網(wǎng)絡(luò)損失loss_dis結(jié)合二值交叉熵?fù)p失計算即
(2)
其中x為判別網(wǎng)絡(luò)的預(yù)測值,y為目標(biāo)輸出。
生成網(wǎng)絡(luò)損失具體計算如下:
(3)
(4)
2) 計算載體圖像中嵌入有效載荷的容量C
(5)
3) 計算損失loss1_gen與loss2_gen
(6)
loss2_gen=(C-H×W×Q)2
(7)
其中l(wèi)oss1_gen使隱寫圖像難以被判別網(wǎng)絡(luò)檢測、loss2_gen保證隱寫圖像嵌入有效載荷接近嵌入率Q,H、W為圖像的高度和寬度。
4) 生成網(wǎng)絡(luò)損失loss_gen
loss_gen=α×loss1_gen+β×loss2_gen
(8)
α和β設(shè)置為10-7和0.1。
網(wǎng)絡(luò)的總損失loss_total
loss_total=loss_gen+loss_dis
(9)
本文使用的實(shí)驗(yàn)環(huán)境為windows10操作系統(tǒng),采用深度學(xué)習(xí)框架Tensorflow1.13.1-gpu、CUDA10.0、CUDNN11.0進(jìn)行網(wǎng)絡(luò)搭建以及模型的訓(xùn)練、測試與驗(yàn)證。本文采用DELL W-2102工作站;CPU:intel i7-9700k;GPU:RTX2080;RAM:16GB。
為驗(yàn)證模型性能,選擇Places365-Standard[18]、BOSSBase v1.01[19]兩個公開的數(shù)據(jù)集對所提出的方法進(jìn)行評價。Place365-Standard包含百萬張大尺寸的原始JPEG圖像。BOSSBase v1.01包含10000張512×512尺寸的灰度圖像。使用matlab中的“rgb2gray”函數(shù)和“imresize”函數(shù)將兩數(shù)據(jù)集圖像轉(zhuǎn)換為PGM、256×256尺寸統(tǒng)一規(guī)格的灰度圖像。本文從Place365-Standard中隨機(jī)選擇50000張圖像,40000張作為訓(xùn)練集,剩余作為驗(yàn)證集,BOSSBase v1.01作為測試集。
網(wǎng)絡(luò)訓(xùn)練選擇學(xué)習(xí)率為10-4的Adam優(yōu)化器進(jìn)行迭代訓(xùn)練,每次迭代輸入8幅載體圖像(BatchSize=8),epoch=70。同時訓(xùn)練時使用正態(tài)分布的隨機(jī)初始化對網(wǎng)絡(luò)中的權(quán)重進(jìn)行初始化。每次訓(xùn)練流程包括:
1)將載體圖像分為若干批(BatchSize)輸入生成器,得到修改概率圖。使用Tanh嵌入模擬器組合修改概率圖和隨機(jī)數(shù)生成嵌入修改圖。生成器在載體圖像上應(yīng)用相應(yīng)的嵌入修改圖生成隱寫圖像。
2)載體圖像與隱寫圖像組合輸入判別器。判別器通過Adam優(yōu)化器使用最小批梯度下降算法,交替更新參數(shù)。
從BOSSBase中隨機(jī)選擇一張圖像“1013.pgm”,測試結(jié)果如圖4所示。其中(b)、(d)、(f )分別是UT-GAN在0.4bpp嵌入率下的修改概率圖、嵌入修改圖、隱寫圖像;(c)、(e)、(g)分別是本文在0.4pp嵌入率下的修改概率圖、嵌入修改圖、隱寫圖像。
圖4 測試結(jié)果
圖4(a) 載體圖像1013.pgm,(b)、(d)、(f )分別是UT-GAN在0.4bpp嵌入率下的修改概率圖、嵌入修改圖、隱寫圖像;(c)、(e)、(g)分別是本文在0.4bpp嵌入率下的修改概率圖、嵌入修改圖、隱寫圖像。
從實(shí)驗(yàn)結(jié)果可看出,經(jīng)過多層次特征融合后,生成網(wǎng)絡(luò)對紋理區(qū)域的像素賦予了更低的修改代價。從載體圖像修改概率圖可看出,本文更傾向于在紋理復(fù)雜的地方進(jìn)行修改,本文相比于UT-GAN在紋理區(qū)域修改的像素更加集中,在紋理復(fù)雜度高的地方進(jìn)行秘密信息的嵌入會讓圖像隱寫安全性更高。
為體現(xiàn)本文對像素失真代價調(diào)整的整體優(yōu)勢,本文與當(dāng)前效果較好的傳統(tǒng)隱寫算法HILL[21]、WOW[4]、S-UNIWARD[5]和基于深度學(xué)習(xí)的隱寫算法ASDL-GAN[13]、UT-GAN[14]進(jìn)行對比。所有算法均采用相同的訓(xùn)練集與測試集與原論文相同的參數(shù),在0.1~0.4bpp嵌入率下使用隱寫分析特征SRM、maxSRM與集成分類器(EC)[20]結(jié)合的隱寫分析方法進(jìn)行隱寫分析檢測,評估算法的安全性能,結(jié)果如圖5所示。其中錯誤率越高表明抗隱寫分析能力越強(qiáng)即安全性越高。圖5(a)、(b)、(c)分別為本文與傳統(tǒng)方法和深度學(xué)習(xí)方法分別使用SRM[7]、maxSRM[8]、YeNet[17]檢測錯誤率。
圖5 檢測結(jié)果
從中可以看出,與傳統(tǒng)算法相比本文的安全性能仍然無法全面超越所有傳統(tǒng)的隱寫算法,因?yàn)閭鹘y(tǒng)的隱寫方法采用手工設(shè)計失真函數(shù)計算像素失真代價,手工設(shè)計的失真函數(shù)是基于啟發(fā)性的,并不適用于所有的載體圖像;與此同時自然圖像具有紋理不可統(tǒng)計性,因此手工設(shè)計的失真函數(shù)在根本上具有局限性。本文采用生成對抗網(wǎng)絡(luò)對像素代價進(jìn)行分配,生成網(wǎng)絡(luò)可以根據(jù)不同的圖像特征進(jìn)行自適應(yīng)代價調(diào)整,因此對載體圖像的代價分配更加合理,從而實(shí)現(xiàn)更高的隱寫安全性與魯棒性。
本文比上述現(xiàn)有的基于深度學(xué)習(xí)隱寫方法的綜合安全性能更高。本文生成網(wǎng)絡(luò)采用多層次特征融合后相比于UT-GAN具有更好的隱寫隱蔽性,這是由于ASDL-GAN和UT-GAN的生成網(wǎng)絡(luò)在多重卷積過程會產(chǎn)生大量局部信息丟失,其中ASDL-GAN使用多個重復(fù)的卷積層連接很難捕捉到圖像的深層語義信息,UT-GAN忽略了圖像淺層紋理信息。本文使用多層次特征融合改進(jìn)上述兩種方案,將多個淺層特征與深層特征進(jìn)行融合,起到信息補(bǔ)償?shù)淖饔?提高了網(wǎng)絡(luò)對不同層次特征的提取能力,其在相同數(shù)據(jù)集上的隱寫性能較其它算法更為均衡,生成的隱寫圖像更接近真實(shí)的標(biāo)簽圖。對于抵抗SRM與maxSRM檢測,本文在不同嵌入率下相比ASDL-GAN、UT-GAN也均有一定程度安全性的提升。
為更形象地比較不同方法的性能,使用受試者工作特征曲線ROC(receiver operating characteristic)及相應(yīng)AUC(area under curve)值。ROC是度量分類均衡的工具,用來比較算法性能。在0.4bpp嵌入率下使用相同的訓(xùn)練集與測試集,通過SRM+EC隱寫分析模型進(jìn)行隱寫分析檢測。如圖6所示。
圖6 不同隱寫方法的ROC曲線
圖中較低的ROC曲線AUC值更小,本文相比ASDL-GAN與UT-GAN的AUC值均更低,意味著隱寫方法更安全,不易手工檢測。綜合來看,本文比ASDL-GAN與UT-GAN有更好的安全性能。
為驗(yàn)證隱寫算法在實(shí)際應(yīng)用時的安全性,本文使用STC編碼方法代替嵌入模擬器tanh,實(shí)際嵌入秘密信息。根據(jù)(10)由生成網(wǎng)絡(luò)輸出的修改概率圖計算相應(yīng)的失真代價。
ηi,j=ln(2/pi,j-2)
(10)
使用SRM、maxSRM、YeNet評估算法在0.1bpp與0.4bpp嵌入率下的實(shí)際隱寫安全性,性能評估結(jié)果如表1所示。
表1 使用STC嵌入不同隱寫方法安全性比較(/%)
結(jié)果顯示,在STC實(shí)際嵌入下方案的安全性雖然有所下降,但是本文的安全性仍高于ASDL-GAN與UT-GAN,綜合性能得到提升。
為測試計算效率,本文與上述兩種基于深度學(xué)習(xí)的圖像隱寫方法進(jìn)行模型訓(xùn)練時間比較,訓(xùn)練時間如表2所示。實(shí)驗(yàn)均在戴爾W-2102工作站使用上述數(shù)據(jù)集進(jìn)行訓(xùn)練、測試,以epoch=1為例。
表2 訓(xùn)練時間比較(/h)
本文比ASDL-GAN的訓(xùn)練時間減少一半,這是由于本文的生成網(wǎng)絡(luò)提取的的特征從1×1到256×256大小不等,而ASDL-GAN的生成網(wǎng)絡(luò)提取的特征一直保持在256×256不變;本文比UT-GAN訓(xùn)練時間有所增加,這是因?yàn)樵诿看蔚家M(jìn)行多層次特征融合,而增加額外的處理步驟,因此增加訓(xùn)練時間的開銷。
為驗(yàn)證本文的有效性,本節(jié)進(jìn)行相關(guān)消融實(shí)驗(yàn)。如表3所示,無融合為未進(jìn)行特征融合的生成網(wǎng)絡(luò)結(jié)構(gòu);單一融合為在本文基礎(chǔ)上去除多層次特征融合模塊僅進(jìn)行單一特征的連接構(gòu)成生成網(wǎng)絡(luò)結(jié)構(gòu),多層次融合為本文多層次特征融合的生成網(wǎng)絡(luò)結(jié)構(gòu)。均使用與本文相同的判別網(wǎng)絡(luò)、嵌入模擬器,三種網(wǎng)絡(luò)結(jié)構(gòu)在0.4bpp嵌入率下生成隱寫圖像,使用SRM、maxSRM檢測隱寫安全性。
表3 不同融合方式安全性比較(/%)
由表3可看出,本文的多層次特征融合生成網(wǎng)絡(luò)結(jié)構(gòu)對于圖像隱寫安全性的提高顯著,圖像隱寫安全性大大提高。
本文以提高生成對抗網(wǎng)絡(luò)圖像隱寫安全性為切入點(diǎn),提出在生成網(wǎng)絡(luò)中進(jìn)行多層次特征融合,使生成的代價圖更加合理,改善網(wǎng)絡(luò)不能同時捕捉細(xì)致紋理信息和語義信息產(chǎn)生的局部信息丟失問題;引入YeNet隱寫分析器作為判別網(wǎng)絡(luò),進(jìn)一步提升圖像的隱寫隱蔽性。使基于對抗網(wǎng)絡(luò)的圖像隱寫安全性大大提高。
本方案還有以下幾個值得進(jìn)一步探討的方向。1)可以結(jié)合信道選擇技術(shù)使生成網(wǎng)絡(luò)快速收斂,縮短模型訓(xùn)練的時間;2)該類隱寫方法對載體圖像的訓(xùn)練需求量較大,如何減少圖片樣本的訓(xùn)練量是一個值得進(jìn)一步探討的方向。