• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于紋理特征分類與合成的魯棒無載體信息隱藏

      2020-06-13 07:11:32司廣文韓彥芳張志超
      關(guān)鍵詞:梳狀正確率紋理

      司廣文, 秦 川, 姚 恒, 韓彥芳, 張志超

      上海理工大學(xué)光電信息與計(jì)算工程學(xué)院,上海200093

      機(jī)密信息的安全傳遞是信息戰(zhàn)及保密通信的核心任務(wù).作為信息安全傳遞的重要方式,信息隱藏(information hiding)或稱隱寫(steganography)技術(shù)將機(jī)密信息偽裝為不引人注意的普通信息而達(dá)到隱蔽傳輸或隱蔽存儲(chǔ)的目的,對(duì)國家安全與信息安全具有重要意義[1].信息隱藏的研究在20 世紀(jì)90 年代受到重視并得到蓬勃發(fā)展.傳統(tǒng)的信息隱藏方法主要是利用圖像、音頻、視頻等載體信號(hào)的空間冗余來隱藏秘密信息,不可避免地把修改痕跡留在含密載體上,因此很難有效抵抗各類隱寫分析算法的檢測(cè).為了有效抵抗各類隱寫分析算法的檢測(cè),只能通過不修改載體進(jìn)行信息隱藏,因此“無載體信息隱藏”這一概念應(yīng)運(yùn)而生.“無載體”并不是指不需要載體,與傳統(tǒng)的信息隱藏相比,它強(qiáng)調(diào)的是不需要其他載體而是直接以秘密信息為驅(qū)動(dòng)來生成或者獲取含密載體[2].現(xiàn)有的無載體信息隱藏方法主要有文本無載體信息隱藏和圖像無載體信息隱藏兩類方法.由于圖像本身包含大量的信息且使用最為廣泛,因此常被當(dāng)作理想的信息隱藏載體.圖像無載體信息隱藏通過提取圖像的特征序列并映射為二進(jìn)制信息段來構(gòu)建秘密信息與圖像的映射關(guān)系[3].根據(jù)載體圖像獲取方式的不同,基于圖像的無載體信息隱藏算法可分為基于載體圖像選擇和載體圖像生成的無載體信息隱藏算法[4]兩類.

      基于載體圖像選擇的信息隱藏方案所利用的圖像特征信息通常包括像素亮度值、顏色、紋理、邊緣、輪廓等.此類方案采用恰當(dāng)?shù)奶卣髅枋龇绞?,建立特征信息與需要隱藏的秘密信息之間的映射關(guān)系,從而進(jìn)行秘密信息傳遞,代表性的工作如:利用亮度均值、圖像尺度不變特征(scale-invariant feature transform, SIFT)等[5-7].文獻(xiàn)[6]首先將載體圖像均勻分塊,利用不同圖像塊亮度均值的大小關(guān)系,構(gòu)建哈希序列,映射秘密信息.通過哈希序列使秘密信息與圖像形成對(duì)應(yīng)關(guān)系,發(fā)送特定的圖像完成秘密信息的傳輸.

      基于載體圖像生成的方案常以秘密信息為驅(qū)動(dòng)生成含密圖像,如文獻(xiàn)[8-9]提出在紋理圖像生成過程中進(jìn)行數(shù)據(jù)的嵌入.該類方法首先在樣本圖像中選擇若干彩色點(diǎn),然后使用局部二值模式(local binary pattern, LBP)碼映射二值數(shù)據(jù)和彩色點(diǎn)之間的關(guān)系,并根據(jù)秘密信息預(yù)先確定若干位置的彩色點(diǎn),最后從樣本圖像中尋找合適內(nèi)容,生成含密的大幅紋理圖.隨著紋理生成技術(shù)[10-11]的不斷成熟和發(fā)展,利用形變函數(shù)生成水影畫的方式引起了廣泛的關(guān)注[12-13],文獻(xiàn)[12]通過模擬水影畫(又稱濕拓畫,marbling)來隱藏信息.該方法在白紙上書寫待傳遞的信息,以相似的背景圖案來填充空白部分,利用模擬marbling 的形變方法生成具有復(fù)雜紋理結(jié)構(gòu)的數(shù)字圖像.文獻(xiàn)[13]首先構(gòu)建不同的特征圖形單元映射二進(jìn)制數(shù)據(jù),根據(jù)二進(jìn)制秘密信息選取不同的圖形單元,確定圖形單元在白紙上的位置,生成含有隱寫單元的圖像;然后通過添加背景元素,利用形變操作生成含密紋理圖像并發(fā)送,該方案實(shí)現(xiàn)了數(shù)據(jù)的大容量隱寫.

      文獻(xiàn)[14]利用圖像哈希算法將映射相同哈希碼的圖像作為同一類進(jìn)而生成哈希圖像庫,然后根據(jù)秘密信息映射的哈希碼,選取與載體圖像塊最相似的哈希圖像塊生成含密載體圖像.文獻(xiàn)[14]融合了上述兩種方法,在載體選擇的基礎(chǔ)上生成了新的載體.

      上述方法中,基于載體圖像選擇的方法魯棒性強(qiáng),但數(shù)據(jù)隱藏容量較低,因此不被廣泛使用;基于載體圖像生成的方法雖然數(shù)據(jù)隱藏容量高,但魯棒性不強(qiáng),不能有效地對(duì)抗高斯噪聲、JPEG 壓縮等攻擊.為此,本文提出了基于紋理特征分類與合成的魯棒無載體信息隱藏算法,融合上述兩類方法的優(yōu)點(diǎn),在對(duì)抗各類攻擊及數(shù)據(jù)隱藏容量方面優(yōu)于文獻(xiàn)[2,6-7]所提出算法,同時(shí)在一定程度上解決了文獻(xiàn)[12-13]魯棒性不強(qiáng)的問題.

      1 基于紋理分類與合成的魯棒無載體信息隱藏算法

      1.1 算法總體框架

      本文所提出的基于紋理圖像分類與合成的魯棒無載體信息隱藏算法框架如圖1 所示.

      在訓(xùn)練分類模型階段要求秘密信息的接收方和發(fā)送方進(jìn)行如下操作:首先對(duì)圖像庫內(nèi)紋理圖像進(jìn)行統(tǒng)一處理,將每一幅紋理圖像分割成規(guī)格一致的圖像塊(patch)作為一個(gè)類別(class);然后提取圖像特征數(shù)據(jù)進(jìn)行監(jiān)督式分類訓(xùn)練;進(jìn)一步通過迭代訓(xùn)練的方式生成穩(wěn)定的圖像分類模型并得到經(jīng)過篩選后的圖像庫;最后對(duì)同一個(gè)class 下的不同patch 塊,根據(jù)曼哈頓距離確定每一個(gè)patch 的位置信息.這樣對(duì)于每一個(gè)patch 塊都會(huì)對(duì)應(yīng)唯一的二進(jìn)制數(shù)據(jù),構(gòu)建接收和發(fā)送雙方共享的映射字典.

      圖1 算法總體框架Figure 1 Framework of the proposed algorithm

      在信息隱藏過程中,發(fā)送方將秘密信息分割為固定長(zhǎng)度的秘密信息段,通過映射字典選取每段秘密信息對(duì)應(yīng)的patch 塊,利用公共密鑰將patch 塊組合為一張新的圖像,隨后通過形變操作生成含密紋理圖像并通過公共信道發(fā)送給接收方.

      在信息提取過程中,接收方通過公共信道獲取含密紋理圖像,然后根據(jù)公共密鑰對(duì)紋理圖像進(jìn)行逆形變操作從而得到原始patch 塊;隨后利用分類模型得到每一個(gè)patch 塊所屬的class 類,并計(jì)算曼哈頓距離以確定每一個(gè)patch 塊的位置信息;最終通過映射字典提取秘密信息.

      1.2 特征分類及模型訓(xùn)練

      在圖像特征提取中使用空間金字塔匹配(spatial pyramid matching,SPM)算法提取圖像的SIFT 特征.SPM 算法通過對(duì)圖像進(jìn)行多層級(jí)均勻劃分的方式實(shí)現(xiàn)匹配、識(shí)別、分類[15],其原理如下:假設(shè)存在兩個(gè)特征集合G、F,其中每個(gè)特征的維度是d維,將特征空間劃分為不同的尺度q={0,1,2,··· ,Q}.當(dāng)以尺度q來劃分特征空間G、F的每一個(gè)維度時(shí),k維的特征空間可以劃分出K=2kq個(gè)網(wǎng)格.表示在分割尺度為q下的直方圖特征:表示G特征在以尺度q劃分下落在第r個(gè)網(wǎng)格中的特征點(diǎn)的數(shù)目;表示F特征落在第r個(gè)網(wǎng)格中的特征點(diǎn)的數(shù)目,則該尺度下匹配點(diǎn)總數(shù)的計(jì)算公式為

      將縮寫為R,定義權(quán)重為則兩個(gè)特征集合G、F的SPM 的核為

      本文使用支持向量機(jī)(support vector machine,SVM)對(duì)圖像進(jìn)行監(jiān)督式分類訓(xùn)練.SVM是圖像分類領(lǐng)域常用的分類方法,其基本原理是:在樣本數(shù)據(jù)線性可分的情況下,直接尋找其最優(yōu)的分類超平面,并使樣本的分類間距盡可能大;在樣本數(shù)據(jù)線性不可分的情況下,通過使用核函數(shù)將樣本數(shù)據(jù)映射到高維空間,然后再尋找最優(yōu)的分類超平面,從而達(dá)到分類的目的[16].核函數(shù)的選擇是SVM 分類器性能的決定因素之一.本文所選擇的核函數(shù)是應(yīng)用最廣泛的徑向基函數(shù)(radial basis function,RBF),它帶有兩個(gè)參數(shù):Ψ和Y,其中Ψ表示模型對(duì)誤差的懲罰系數(shù),Y反映了數(shù)據(jù)映射到高維特征空間后的分布.Ψ越大,模型越容易過擬合,Ψ越小,模型越容易欠擬合;Y越大,支持向量越多,Y值越小,支持向量越少,模型的泛化性變好.但若Y過小,模型實(shí)際上會(huì)退化為線性模型;若Y很大,理論上SVM 可以擬合任何非線性數(shù)據(jù).

      在訓(xùn)練中我們將每一個(gè)class 下、來自同一幅紋理圖片的patch 作為同一個(gè)類.這樣的分類不夠精細(xì),同時(shí)會(huì)造成類別的錯(cuò)誤預(yù)判.但本文目的是對(duì)已知分類圖像的精準(zhǔn)預(yù)測(cè),并不是對(duì)未知紋理圖像分類的預(yù)測(cè),因此模型可以達(dá)到極高的預(yù)測(cè)精度且泛化能力較強(qiáng).為了提高魯棒性,在訓(xùn)練模型過程中加入了經(jīng)過高斯噪聲、JPEG 壓縮等處理的圖像塊.由于圖像的SIFT 特征具有良好的穩(wěn)健性,對(duì)平移、尺度縮放、旋轉(zhuǎn)、仿射變換、遮擋,甚至亮度變化和噪聲都有很好的抵抗能力[17],因此實(shí)驗(yàn)的魯棒性很強(qiáng),具體訓(xùn)練步驟如下:

      步驟1準(zhǔn)備訓(xùn)練圖像集.首先對(duì)紋理圖像庫中的patch 塊進(jìn)行攻擊.攻擊方式從高斯噪聲、JPEG 壓縮或者椒鹽噪聲中任取一種,將被攻擊過的patch 塊加入到對(duì)應(yīng)的class 中作為訓(xùn)練圖像;測(cè)試圖像集為訓(xùn)練圖像集.

      步驟2提取特征,訓(xùn)練模型.在SPM 框架下提取圖像SIFT 特征作為特征數(shù)據(jù),每一個(gè)class 作為一個(gè)類別,進(jìn)行監(jiān)督式分類訓(xùn)練.為剔除一部分?jǐn)?shù)據(jù)并沒有使用交叉檢驗(yàn)和網(wǎng)格搜索的方法確定參數(shù),而是根據(jù)經(jīng)驗(yàn)首先將模型參數(shù)Ψ的初始值設(shè)置為200,Y的初始值設(shè)置為2,然后進(jìn)行模型訓(xùn)練.

      步驟3迭代訓(xùn)練模型.根據(jù)預(yù)測(cè)結(jié)果,刪除類別預(yù)測(cè)中出現(xiàn)錯(cuò)誤的class,只保留預(yù)測(cè)完全正確的class.同時(shí)根據(jù)最終圖像庫的大小調(diào)整參數(shù),為了得到較理想的分類模型,參數(shù)調(diào)整過程中盡可能使懲罰系數(shù)Ψ調(diào)小而Y值調(diào)大,對(duì)模型進(jìn)行迭代訓(xùn)練;

      步驟4建立最終SPM 分類模型.根據(jù)最終所需要圖像庫的大小,選擇class 數(shù)目,利用網(wǎng)格搜索選擇參數(shù)使模型的分類正確率達(dá)到100%,選擇Ψ盡可能小而參數(shù)Y盡可能大,建立最終分類模型,得到經(jīng)過篩選后的圖像庫.

      1.3 構(gòu)建映射字典

      構(gòu)建映射字典的過程如圖2 所示.假設(shè)經(jīng)過篩選后圖像庫中有N組可區(qū)分紋理圖像,表示為:C={C1,C2,··· ,CN},每個(gè)class 下包含M個(gè)patch 塊,則分類標(biāo)簽為i的class 內(nèi)第j個(gè)patch 塊,表示所對(duì)應(yīng)的二進(jìn)制數(shù)據(jù).

      圖2 構(gòu)建映射字典Figure 2 Mapping dictionary construction

      所對(duì)應(yīng)的二進(jìn)制數(shù)據(jù)的長(zhǎng)度L為

      也就是每一個(gè)可以映射長(zhǎng)度為L(zhǎng)的二進(jìn)制數(shù)據(jù).令n=lbN,m=lbM,則每一個(gè)patch 塊所對(duì)應(yīng)的二進(jìn)制數(shù)據(jù)求解公式為

      式中,dec2bin()表示將十進(jìn)制數(shù)據(jù)轉(zhuǎn)化為二進(jìn)制運(yùn)算,n和m為轉(zhuǎn)化的位數(shù).可以看出映射字典中的數(shù)據(jù)由兩部分組成:一部分是不同類別的紋理圖像所映射的秘密信息;另一部分是在同一類別下的紋理圖像塊中不同位置所映射的秘密信息.

      1.4 信息隱藏

      本文當(dāng)中秘密信息隱藏的關(guān)鍵步驟是根據(jù)映射字典查找對(duì)應(yīng)的圖像塊,具體步驟如下:

      步驟1發(fā)送方首先將二進(jìn)制秘密信息S以長(zhǎng)度L進(jìn)行分割,得S={s1,s2,··· ,sk},然后再將長(zhǎng)度為L(zhǎng)的秘密信息段sk分割為長(zhǎng)度為n和m兩段,得K為秘密信息段的數(shù)目.

      步驟2對(duì)于每一個(gè)信息段根據(jù)兩段二進(jìn)制秘密信息和映射字典查找對(duì)應(yīng)的即可找到對(duì)應(yīng)分類標(biāo)簽為i的class 下的第j個(gè)patch 塊,由此將所有秘密信息段所對(duì)應(yīng)唯一的patch 塊提取出來,根據(jù)公共密鑰進(jìn)行排序組成一幅新的圖像.

      步驟3對(duì)新圖像進(jìn)行形變操作,得到最終攜帶秘密信息的紋理圖像,并發(fā)送給接收方.

      由于本文所使用的圖像塊是紋理圖像,因此通過簡(jiǎn)單的形變操作就可以達(dá)到一個(gè)較好的視覺效果.目前常用的形變函數(shù)有梳狀變換、斜變換、正弦變換、圓形變換等,下面介紹本文用到的梳狀形變函數(shù)及正弦變換函數(shù).

      梳狀形變函數(shù)能夠模仿直線梳子的效果在任意方向上穿過圖像,若在平面當(dāng)中有一點(diǎn)P(x,y),則經(jīng)過梳狀變換之后映射點(diǎn)P'(x',y')的計(jì)算過程為

      式中:mod()為求余運(yùn)算,α為最大位移量,λ用來控制梳狀變換的尖銳程度,β用來控制兩個(gè)梳齒波間距,d是點(diǎn)P(x,y)與任意方向直線Li之間的距離,B為直線Li上任意一點(diǎn),v為直線Li單位法向量,

      正弦形變函數(shù)能夠使圖像產(chǎn)生正弦變形的效果,若在平面當(dāng)中有一點(diǎn)的坐標(biāo)為P1(x1,y1),則經(jīng)過正弦變換之后映射點(diǎn)的計(jì)算過程為

      式中,w為正弦變換的波長(zhǎng),A為振幅,θ為相位,t為形變的偏移量.

      發(fā)送方選取不同的形變參數(shù),即可生成不同視覺效果的紋理圖像.接收方需要在安全信道接收到含有形變參數(shù)的密鑰,才可以對(duì)圖像進(jìn)行正確解密.發(fā)送方也可使用固定形變參數(shù)進(jìn)行形變操作,接收方根據(jù)公共密鑰即可對(duì)圖像進(jìn)行逆形變從而提取秘密信息.

      1.5 信息提取

      信息提取是本文的關(guān)鍵步驟.接收方需要與發(fā)送方共享圖像庫特征數(shù)據(jù)、class 類別信息、patch 位置信息及公共密鑰,才能正確提取秘密信息,具體步驟如下.

      步驟1接收方獲取紋理圖像后,首先根據(jù)公共密鑰,對(duì)含密紋理圖像進(jìn)行逆形變操作,得到由patch 塊組成的圖像,然后依次提取K個(gè)patch 塊,得到含密的、有順序的patch 塊圖像集合.

      步驟2使用與訓(xùn)練模型過程中相同的特征提取方法,提取K個(gè)patch 塊圖像特征,然后使用SPM分類模型對(duì)K個(gè)patch 塊進(jìn)行類別的預(yù)測(cè).假設(shè)得到的類別信息C={C1,C2,··· ,Ck},查找映射字典,即可得到原始秘密信息S中類別信息所對(duì)應(yīng)的秘密信息:.

      步驟3對(duì)第k個(gè)patch 塊位置信息進(jìn)行判斷時(shí),首先根據(jù)類別的預(yù)測(cè)結(jié)果Ck,從圖像特征庫中提取對(duì)應(yīng)class 內(nèi)共M個(gè)patch 塊的特征數(shù)據(jù).通過計(jì)算曼哈頓距離,找到距離第k個(gè)patch 塊最近的且位置信息為j的patch 塊查找所有patch 塊所對(duì)應(yīng)的位置信息,即可得到原始秘密信息S中位置信息所對(duì)應(yīng)的秘密信息:.

      步驟4將步驟2 和3 中解密得到的對(duì)應(yīng)合并,即可得到原始的秘密信息.

      2 實(shí)驗(yàn)結(jié)果與比較

      本文所有實(shí)驗(yàn)均在Windows 7 操作系統(tǒng)下使用Matlab2016a 仿真軟件完成.分類模型采用的是LIBSVM 工具包提供的分類模型;實(shí)驗(yàn)當(dāng)中圖像庫中圖像來源于GitHub[18]以及百度圖片網(wǎng)站;秘密信息為隨機(jī)生成的二進(jìn)制數(shù)據(jù).

      首先建立一個(gè)包含1 400 個(gè)類別22 400 個(gè)patch 塊的紋理圖像庫,patch 塊的尺寸均為100×100,經(jīng)過3 次迭代訓(xùn)練.第1 次模型訓(xùn)練過程中參數(shù)Ψ取值為200,參數(shù)Y取值為2,得到預(yù)測(cè)完全正確的分組為858 組;第2 次模型訓(xùn)練,參數(shù)不變,得到預(yù)測(cè)完全正確的分組為661 組;第3 次模型訓(xùn)練參數(shù)不變,得到預(yù)測(cè)完全正確的分組為525 組,從中選擇512 組class 作為最終信息隱藏載體,再次進(jìn)行模型訓(xùn)練.最終利用網(wǎng)格搜索方法,得到當(dāng)參數(shù)Ψ為200,Y為4 時(shí),分類模型的預(yù)測(cè)正確率為100%,紋理庫共包含512 類,每一類均有16 個(gè)patch 塊,共計(jì)8 192 個(gè)patch 塊.隨后對(duì)隱藏容量與魯棒性進(jìn)行分析比較.

      2.1 實(shí)驗(yàn)結(jié)果

      在本文的實(shí)驗(yàn)條件下,每一個(gè)patch 塊所攜帶二進(jìn)制數(shù)據(jù)的長(zhǎng)度L=lb(NM)=lb(512×16)=13 比特.在實(shí)驗(yàn)中隨機(jī)產(chǎn)生1 300 比特二進(jìn)制數(shù)據(jù)作為秘密信息,分割為100 段,每段包含13 比特.根據(jù)每段秘密信息對(duì)照映射字典查找patch 塊,利用公共密鑰組成一幅新的圖像,然后進(jìn)行形變操作獲得含密紋理圖像.

      圖3 是含密紋理圖像生成及patch 組合圖像恢復(fù)過程.發(fā)送端生成紋理圖像過程中使用形變參數(shù)如下:梳狀形變中α=70,λ=70,β=50.

      圖3(a)是通過映射字典獲取的100 個(gè)patch 塊組成的圖像,尺寸為1 000×1 000,攜帶秘密信息1 300 比特.首先根據(jù)公共密鑰將圖3(a)分割,將尺寸為100×100 的patch 塊分割為10 份10×100 的塊,并拼接為10×1 000 的長(zhǎng)方形塊組合生成圖3(b).圖3(b)經(jīng)過水平方向梳狀形變后生成圖3(c),圖3(c)經(jīng)過垂直方向梳狀變換生成圖3(d).

      接收方獲取含密紋理圖像圖3(e)后,首先根據(jù)公共密鑰進(jìn)行二次不同方向的梳狀逆形變,得到圖3(g);然后將圖3(g)進(jìn)行重新組合即可得到含密圖像塊圖3(h);隨后根據(jù)公共密鑰按順序提取patch 塊,并對(duì)圖像塊特征進(jìn)行分類預(yù)測(cè),通過曼哈頓距離計(jì)算位置信息;最后查找映射字典恢復(fù)秘密信息,實(shí)驗(yàn)驗(yàn)證秘密信息提取誤碼率為0.

      圖3 含密紋理圖像生成及恢復(fù)過程Figure 3 Generation of stego texture image and corresponding recovery procedure

      相同的形變函數(shù)、不同的形變參數(shù)會(huì)生成不同的含密紋理圖像,圖4 為實(shí)驗(yàn)結(jié)果.實(shí)驗(yàn)使用與圖3 相同的秘密信息,通過不同參數(shù)的梳狀形變,獲得了不同視覺效果的含密紋理圖像.梳狀形變參數(shù)為:α= 150,λ= 100,β= 100,梳狀形變過程與圖3 實(shí)驗(yàn)一致.可以看出圖4(d)視覺效果與圖3 (d)有明顯的不同,且視覺效果良好,通過實(shí)驗(yàn)驗(yàn)證秘密信息提取誤碼率為0.相同的形變函數(shù)、不同的形變次數(shù)可以生成不同的紋理圖像,圖5 為實(shí)驗(yàn)結(jié)果.

      圖4 形變參數(shù)對(duì)含密紋理圖像的影響Figure 4 Influence of deformation parameters on stego texture image

      圖5 形變次數(shù)對(duì)含密紋理圖像的影響Figure 5 Influence of deformation number on stego texture image

      實(shí)驗(yàn)中使用形變的方式為正弦形變,參數(shù)為:w=25,A=11,θ=π/3,t=π/2.其中圖5(b)經(jīng)過水平正弦變換得到圖5(c),圖5(c)經(jīng)過垂直正弦變換得到圖5(d),然后依次進(jìn)行水平和垂直方向的正弦形變即可得到圖5(h).顯然得到的紋理圖像5(d)到圖5(h)均有不同且良好的視覺效果,通過實(shí)驗(yàn)驗(yàn)證秘密信息提取誤碼率為0.

      多種形變函數(shù)可以生成不同且良好視覺效果的紋理圖像,圖6 為實(shí)驗(yàn)結(jié)果.實(shí)驗(yàn)中使用正弦形變和梳狀形變兩種不同變換方式,其參數(shù)如下:正弦形變參數(shù)w= 25,A= 15,θ=π/3,t= π/2,梳狀形變參數(shù)α= 100,λ= 100,β= 80.圖6(b)依次進(jìn)行水平梳狀形變、垂直方向梳狀形變、水平方向正弦形變、垂直方向正弦形變即可獲得圖6(f),圖6(f)的視覺效果良好,通過實(shí)驗(yàn)驗(yàn)證秘密信息提取誤碼率為0.

      圖6 多種形變函數(shù)生成的含密紋理圖像Figure 6 Generation of stego texture image based on multiple deformation functions

      大量類似的實(shí)驗(yàn)表明:本文所提出的信息隱藏算法能夠100%提取秘密信息,且含密紋理圖像生成方式多樣,視覺效果均良好.

      2.2 隱藏容量分析與比較

      在數(shù)據(jù)隱藏容量方面,本文所提算法的隱藏容量與圖像庫的大小有直接關(guān)系,同時(shí)與最終發(fā)送紋理圖片的尺寸也相關(guān),即

      式中,S為紋理圖像傳送秘密信息總長(zhǎng)度,L為每個(gè)patch 塊所攜帶的秘密信息的長(zhǎng)度,Tw和Th分別表示生成紋理圖像的寬和高,Pw和Ph分別為patch 塊的寬和高.本文對(duì)patch進(jìn)行了統(tǒng)一尺寸的處理.上述實(shí)驗(yàn)中每個(gè)patch 隱藏二進(jìn)制數(shù)據(jù)長(zhǎng)度為:L= lb(NM) =lb(512×16)=13 比特,生成紋理圖像尺寸為1 000×1 000,能夠攜帶秘密信息的長(zhǎng)度為1 300比特.

      實(shí)驗(yàn)首先對(duì)本文算法與文獻(xiàn)[2,6-7]算法的隱藏容量進(jìn)行對(duì)比,結(jié)果如表1 所示.本文算法和文獻(xiàn)[2,6-7] 的隱藏容量均與圖像庫的大小有關(guān),為公平起見,假定圖像庫大小均為2n+m幅.秘密信息為二進(jìn)制數(shù)據(jù),由表1可以得出本文最終發(fā)送的單幅圖像數(shù)據(jù)隱藏容量要優(yōu)于文獻(xiàn)[2,6-7].本文對(duì)patch 塊集合進(jìn)行了形變操作,生成的含密紋理圖像為(TwTh/(PwPh))個(gè)圖像塊的集合,使得最終發(fā)送紋理圖像的數(shù)據(jù)隱藏容量得到提升.

      文獻(xiàn)[12-13]與本文算法數(shù)據(jù)隱藏容量與含密紋理圖像的尺寸存在正比例關(guān)系,為確保公平性,假設(shè)最終發(fā)送紋理圖像的尺寸均為800×800.實(shí)驗(yàn)結(jié)果如表2 所示.本文算法隱藏容量使用式(7)計(jì)算得出為832 比特(圖像總數(shù)為2 ),要優(yōu)于文獻(xiàn)[12]的432 比特,在文獻(xiàn)[13]采用稀疏比例取值為0.03~0.30 時(shí),單幅圖像數(shù)據(jù)隱藏容量的取值范圍為800~8 000 比特,在當(dāng)前實(shí)驗(yàn)條件下文獻(xiàn)[13]所提算法的數(shù)據(jù)隱藏容量要優(yōu)于本文算法.從理論上講,在本文所提方案的框架下,隨著圖像庫的升級(jí)算法的數(shù)據(jù)隱藏容量還可以進(jìn)一步提高.

      表1 不同算法隱藏容量的比較Table 1 Comparison of hiding capacity of different algorithms

      表2 相同尺寸單幅圖像數(shù)據(jù)隱藏容量的比較Table 2 Comparison of hidden data capacity of single image with the same size

      2.3 魯棒性分析與比較

      使用椒鹽噪聲、高斯噪聲、JPEG 壓縮分別對(duì)含密圖像進(jìn)行攻擊,然后進(jìn)行數(shù)據(jù)提取.圖7 為一組實(shí)驗(yàn)中紋理圖像在不同攻擊情況下恢復(fù)patch 圖像的結(jié)果.其中圖7(a)為含密patch圖像,經(jīng)過2 次梳狀形變操作后得到含密紋理圖像為圖7(c);圖7(c)被椒鹽噪聲、高斯噪聲、JPEG 壓縮攻擊后對(duì)應(yīng)得到圖7(d)~(f);圖像逆形變過程中圖7(d)~(f)經(jīng)過逆形變操作,對(duì)應(yīng)得到圖7(g)~(i),然后分別進(jìn)行秘密信息提取.

      考慮到攻擊后的紋理圖像在恢復(fù)過程中可能會(huì)受到形變次數(shù)的影響,因此在實(shí)驗(yàn)中同一組秘密信息通過不同的形變次數(shù)再生成不同的含密紋理圖像進(jìn)行傳送.然后將受到攻擊的紋理圖像分別進(jìn)行秘密信息的提取,并對(duì)比分析實(shí)驗(yàn)結(jié)果.經(jīng)過100 次重復(fù)實(shí)驗(yàn),每次實(shí)驗(yàn)發(fā)送秘密信息為1 300 比特隨機(jī)數(shù)據(jù),獲得含密圖像尺寸為1 000×1 000.提取正確率(accuracy rate)通常定義為Cr= (Z/S)×100%,其中,Z為提取正確的秘密信息長(zhǎng)度,S為秘密信息總長(zhǎng)度.

      實(shí)驗(yàn)條件設(shè)置:

      實(shí)驗(yàn)12 次不同方向的梳狀形變,形變參數(shù)α=70,λ=70,β=50;

      實(shí)驗(yàn)22 次梳狀形變,2 次正弦形變,正弦形變參數(shù)w=25,A=15,θ=π/3,t=π/2,梳狀形變參數(shù)α=100,λ=100,β=80.

      接收端收到的紋理圖像后分別進(jìn)行椒鹽噪聲、高斯噪聲、JPEG 壓縮攻擊,然后進(jìn)行秘密信息的提取,實(shí)驗(yàn)結(jié)果如圖8 所示.

      圖7 紋理圖像在不同攻擊情況下恢復(fù)的patch 圖像Figure 7 Restored patches under different attacks on stego texture image

      圖8(a)為椒鹽噪聲稠密度與提取正確率的關(guān)系圖,可以看出在實(shí)驗(yàn)一條件下,含密紋理圖像經(jīng)過2 次形變,在實(shí)驗(yàn)2 條件下含密圖像經(jīng)過4 次形變,兩組實(shí)驗(yàn)的結(jié)果基本保持一致,此時(shí)提取正確率與形變次數(shù)無關(guān).當(dāng)椒鹽噪聲稠密度達(dá)到0.05 時(shí),平均的提取正確率保持在91%以上.

      圖8(b)為在均值為0 情況下高斯噪聲方差與提取正確率的關(guān)系,可以看出實(shí)驗(yàn)1 的結(jié)果與實(shí)驗(yàn)2 的結(jié)果基本一致,3 條曲線基本重合,此時(shí)提取正確率與形變次數(shù)無關(guān).噪聲方差越大圖片質(zhì)量越低,在本文算法中當(dāng)噪聲方差為0.05 時(shí),實(shí)驗(yàn)1 和實(shí)驗(yàn)2 的正確率均保持在82%以上,隨著噪聲方差的降低,在本文算法的提取正確率在穩(wěn)定上升.

      圖8(c)為JPEG 壓縮質(zhì)量因子與提取正確率之間的關(guān)系,質(zhì)量因子系數(shù)越大圖片質(zhì)量越高.實(shí)驗(yàn)中當(dāng)質(zhì)量因子取值在40~100 時(shí),實(shí)驗(yàn)2 的提取正確率要略好于實(shí)驗(yàn)1,且均能保持在85%以上;當(dāng)質(zhì)量因子取值在10~40 時(shí),增加形變次數(shù)會(huì)導(dǎo)致提取正確率明顯下降,可以看出當(dāng)質(zhì)量因子達(dá)到10 的時(shí)候,實(shí)驗(yàn)1 的提取正確率為65%左右,實(shí)驗(yàn)2 的提取正確率為75%左右,兩個(gè)實(shí)驗(yàn)結(jié)果的平均提取正確率保持在70%左右.

      圖8 提取正確率與各類攻擊的關(guān)系Figure 8 Relationship between the correct extraction rate and various types of attacks

      本文算法在一定程度上解決了文獻(xiàn)[12-13]算法魯棒性不強(qiáng)的問題.將本文實(shí)驗(yàn)結(jié)果與文獻(xiàn)[2,7]算法進(jìn)行比較可知,文獻(xiàn)[2,7]所使用的框架為SIFT BOW 模型[19],屬于非監(jiān)督式分類模型,經(jīng)過聚類訓(xùn)練后所得到的模型為線性模型,因此魯棒性很強(qiáng);本文采用的是監(jiān)督式分類訓(xùn)練得到的模型為非線性系統(tǒng),模型更為復(fù)雜,安全性更高,且本文提取圖像特征的算法是對(duì)SIFT BOW 模型提取圖像特征算法的升級(jí),同時(shí)增加了被攻擊過的訓(xùn)練樣本,從而提高了算法的魯棒性.表3 是本文算法與文獻(xiàn)[7]算法在高斯噪聲(均值為0,方差為0.01)和JPEG壓縮(質(zhì)量因子為75%)攻擊時(shí)秘密信息提取正確率的比較.

      表3 不同算法的提取正確率比較Table 3 Accuracy rates comparison of data extraction with different algorithms %

      通過對(duì)比數(shù)據(jù)我們可以發(fā)現(xiàn):在高斯噪聲攻擊下本文算法的提取正確率為92.5%,要優(yōu)于文獻(xiàn)[7]的91.0%;對(duì)JPEG 壓縮攻擊本文的魯棒性也要優(yōu)于文獻(xiàn)[7],與理論分析結(jié)果一致.

      3 結(jié) 語

      本文提出的基于紋理特征分類與合成的魯棒無載體信息隱藏算法,融合了基于載體圖像選擇與基于載體圖像生成兩類信息隱藏算法的優(yōu)點(diǎn),兼顧了魯棒性與嵌入容量?jī)蓚€(gè)方面,在一定程度上解決了當(dāng)前圖像無載體信息隱藏算法存在的問題.本文主要利用紋理圖像的類別及位置信息映射秘密信息,模型訓(xùn)練過程中增加了被攻擊后的圖像作為訓(xùn)練數(shù)據(jù),提升了算法的魯棒性;在patch 塊處理過程中利用形變操作將多份秘密圖像塊合成為一幅新的、視覺效果良好的紋理圖像,使得相同尺寸單張圖像的數(shù)據(jù)隱藏容量有了較大的提高.實(shí)驗(yàn)和分析表明本文所提算法魯棒性強(qiáng),信息隱藏量大,生成的紋理圖像視覺效果好.接下來的工作可以考慮增加圖像庫的類別,提升每一類圖像的數(shù)量,從而進(jìn)一步提高隱藏容量.同時(shí)可以使用基于深度學(xué)習(xí)的圖像分類模型,進(jìn)一步提高算法的魯棒性.

      猜你喜歡
      梳狀正確率紋理
      超聲導(dǎo)波目標(biāo)模式的激勵(lì)方法研究
      1500萬年前的南酸棗化石長(zhǎng)啥樣等
      門診分診服務(wù)態(tài)度與正確率對(duì)護(hù)患關(guān)系的影響
      基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
      軟件(2020年3期)2020-04-20 01:45:18
      PVDF梳狀換能器接收非線性蘭姆波的實(shí)驗(yàn)研究?
      使用紋理疊加添加藝術(shù)畫特效
      TEXTURE ON TEXTURE質(zhì)地上的紋理
      Coco薇(2017年8期)2017-08-03 15:23:38
      生意
      品管圈活動(dòng)在提高介入手術(shù)安全核查正確率中的應(yīng)用
      生意
      咸阳市| 曲靖市| 什邡市| 东光县| 高邮市| 克山县| 尉氏县| 新田县| 中江县| 合川市| 平安县| 灵川县| 南华县| 宝鸡市| 泸西县| 澄江县| 黄平县| 贺州市| 桂林市| 筠连县| 桐柏县| 舟山市| 乌拉特前旗| 多伦县| 含山县| 台东市| 牙克石市| 哈巴河县| 金湖县| 城市| 民乐县| 新竹县| 常熟市| 格尔木市| 大荔县| 元阳县| 六枝特区| 岫岩| 东兰县| 南京市| 乌苏市|