• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于雙分支網(wǎng)絡(luò)的圖像修復(fù)取證方法

    2022-02-04 05:52:54章登勇文凰李峰曹鵬向凌云楊高波丁湘陵
    關(guān)鍵詞:分支卷積深度

    章登勇,文凰,李峰,曹鵬,向凌云,楊高波,丁湘陵

    基于雙分支網(wǎng)絡(luò)的圖像修復(fù)取證方法

    章登勇1,2,文凰1,2,李峰1,2,曹鵬1,2,向凌云1,2,楊高波3,丁湘陵4

    (1. 長沙理工大學(xué)湖南省綜合交通運(yùn)輸大數(shù)據(jù)智能處理重點(diǎn)實(shí)驗(yàn)室,湖南 長沙 410114;2. 長沙理工大學(xué)計(jì)算機(jī)與通信工程學(xué)院,湖南 長沙 410114;3. 湖南大學(xué)信息科學(xué)與工程學(xué)院,湖南 長沙 410082;4. 湖南科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,湖南 湘潭 411004)

    圖像修復(fù)是一項(xiàng)利用圖像已知區(qū)域的信息來修復(fù)圖像中缺失或損壞區(qū)域的技術(shù)。人們借助以此為基礎(chǔ)的圖像編輯軟件無須任何專業(yè)基礎(chǔ)就可以輕松地編輯和修改數(shù)字圖像內(nèi)容,一旦圖像修復(fù)技術(shù)被用于惡意移除圖像的內(nèi)容,會(huì)給真實(shí)的圖像帶來信任危機(jī)。目前圖像修復(fù)取證的研究只能有效地檢測某一種類型的圖像修復(fù)。針對(duì)這一問題,提出了一種基于雙分支網(wǎng)絡(luò)的圖像修復(fù)被動(dòng)取證方法。雙分支中的高通濾波卷積網(wǎng)絡(luò)先使用一組高通濾波器來削弱圖像中的低頻分量,然后使用4個(gè)殘差塊提取特征,再進(jìn)行兩次4倍上采樣的轉(zhuǎn)置卷積對(duì)特征圖進(jìn)行放大,此后使用一個(gè)5×5的卷積來減弱轉(zhuǎn)置卷積帶來的棋盤偽影,生成圖像高頻分量上的鑒別特征圖。雙分支中的雙注意力特征融合分支先使用預(yù)處理模塊為圖像增添局部二值模式特征圖。然后使用雙注意力卷積塊自適應(yīng)地集成圖像局部特征和全局依賴,捕獲圖像修復(fù)區(qū)域和原始區(qū)域在內(nèi)容及紋理上的差異,再對(duì)雙注意力卷積塊提取的特征進(jìn)行融合。最后對(duì)特征圖進(jìn)行相同的上采樣,生成圖像內(nèi)容和紋理上的鑒別特征圖。實(shí)驗(yàn)結(jié)果表明該方法在檢測移除對(duì)象的修復(fù)區(qū)域上,針對(duì)樣本塊修復(fù)方法上檢測的1分?jǐn)?shù)較排名第二的方法提高了2.05%,交并比上提高了3.53%;針對(duì)深度學(xué)習(xí)修復(fù)方法上檢測的1分?jǐn)?shù)較排名第二的方法提高了1.06%,交并比提高了1.22%。對(duì)結(jié)果進(jìn)行可視化可以看出,在檢測修復(fù)區(qū)域上能夠準(zhǔn)確地定位移除對(duì)象的邊緣。

    圖像取證;圖像修復(fù)檢測;深度學(xué)習(xí);注意力機(jī)制

    0 引言

    隨著移動(dòng)互聯(lián)網(wǎng)的飛速發(fā)展,多媒體應(yīng)用軟件成為人們生活中必不可少的應(yīng)用?;诙嗝襟w應(yīng)用軟件,如Photoshop、美圖秀秀、醒圖等,人們無須任何專業(yè)基礎(chǔ)就可以輕松編輯和修改數(shù)字圖像的內(nèi)容,并且修改后的圖像十分逼真,無法通過肉眼檢測出修改的痕跡。人們的學(xué)習(xí)、生活、娛樂都離不開數(shù)字圖像,但偽造的圖像頻繁濫用,這種行為帶來了許多負(fù)面的影響,驗(yàn)證圖像是否真實(shí)完整的數(shù)字圖像取證技術(shù)對(duì)社會(huì)顯得越來越重要。對(duì)于一些典型的偽造圖像的檢測可以從圖像中提取對(duì)應(yīng)的特征來判斷圖像是否被篡改。例如,復(fù)制移動(dòng)偽造檢測從不同方面在圖像中找到相似的特征來定位被篡改的區(qū)域,拼接偽造檢測在圖像中尋找光照、數(shù)據(jù)統(tǒng)計(jì)以及相機(jī)響應(yīng)函數(shù)等不一致的特征來定位被篡改的區(qū)域。在20世紀(jì)80年代,研究人員從古代文物、書畫的修復(fù)工作中得到啟發(fā),提出了對(duì)數(shù)字圖像進(jìn)行修復(fù)的技術(shù)。圖像修復(fù)技術(shù)是使用圖像原始區(qū)域的信息來補(bǔ)全圖像中缺失或損壞區(qū)域的過程。如果人們將這項(xiàng)技術(shù)用于圖像中的對(duì)象去除,使用圖像中已不包含對(duì)象的信息來修復(fù)去除的對(duì)象區(qū)域,圖像的原意將會(huì)改變。利用這項(xiàng)技術(shù)惡意篡改圖片內(nèi)容,將會(huì)帶來圖像內(nèi)容的信任危機(jī),不利于數(shù)字圖像技術(shù)的進(jìn)一步發(fā)展。因此,研究一個(gè)高效的檢測圖像修復(fù)的取證方法在當(dāng)前背景下是非常有意義的。

    目前,圖像修復(fù)技術(shù)分為兩大類:基于傳統(tǒng)方法的圖像修復(fù)技術(shù)和基于深度學(xué)習(xí)方法的圖像修復(fù)技術(shù)。基于傳統(tǒng)方法的圖像修復(fù)技術(shù)中最常用的是基于擴(kuò)散的[1-3]和基于樣本塊的[4-6]圖像修復(fù)技術(shù)?;跀U(kuò)散的圖像修復(fù)技術(shù)利用缺失區(qū)域的邊緣信息來確定擴(kuò)散方向,確定方向后再將信息平滑地傳播到缺失區(qū)域。這種技術(shù)存在一定的缺點(diǎn),當(dāng)其用于填充實(shí)景圖像中的大塊空白時(shí),填充的紋理會(huì)變得模糊,肉眼即可看出修改區(qū)域?;跇颖緣K的圖像修復(fù)在圖像背景簡單時(shí)可以填充圖像中的大面積缺失區(qū)域。對(duì)于基于樣本塊的圖像修復(fù)技術(shù),許多研究人員已經(jīng)提出精度較高的檢測方法,其中大多數(shù)方法在給定區(qū)域中搜索相似塊來確定修復(fù)區(qū)域,這會(huì)消耗大量的時(shí)間。因此,一些研究人員嘗試使用深度學(xué)習(xí)的方法來檢測樣本塊圖像修復(fù),可以大大減少檢測時(shí)間,提高整體檢測效率。利用深度學(xué)習(xí)技術(shù)的圖像修復(fù)[7-9]甚至能夠在復(fù)雜背景中填補(bǔ)大面積的缺失。針對(duì)深度學(xué)習(xí)的圖像修復(fù),研究人員采用深度學(xué)習(xí)來進(jìn)行檢測,該方面的研究仍然較少。目前缺少一個(gè)能夠同時(shí)準(zhǔn)確檢測樣本塊圖像修復(fù)和深度學(xué)習(xí)圖像修復(fù)的方法。

    為了解決上述問題,本文提出了一個(gè)雙分支的神經(jīng)網(wǎng)絡(luò)架構(gòu),用于檢測圖像的修復(fù)區(qū)域,具體貢獻(xiàn)如下。

    1) 創(chuàng)建了樣本塊圖像修復(fù)和深度學(xué)習(xí)圖像修復(fù)的數(shù)據(jù)集以及符合實(shí)際應(yīng)用情形的、對(duì)象移除的、采用樣本塊和深度學(xué)習(xí)修復(fù)的圖像數(shù)據(jù)集。

    2) 本文方法能夠同時(shí)檢測樣本塊圖像修復(fù)和深度學(xué)習(xí)圖像修復(fù),在性能上優(yōu)于一些先進(jìn)的方法。

    3) 本文方法不僅能夠在清晰地定位修復(fù)圖像中移除對(duì)象的邊界,還能準(zhǔn)確檢測出經(jīng)過后處理的圖像修復(fù)區(qū)域。在圖像修復(fù)的實(shí)際應(yīng)用中具有優(yōu)異的性能。

    1 相關(guān)工作

    1.1 樣本塊圖像修復(fù)取證

    傳統(tǒng)方法檢測樣本塊圖像修復(fù)已有不少成果。Wu等[10]首先提出了一種檢測樣本塊修復(fù)的被動(dòng)取證方法。該方法首先對(duì)圖像中可疑區(qū)域的所有塊的零連通性作為塊的匹配特征;然后使用升半梯形分布函數(shù),確定塊是否屬于相似塊;最后通過給定的閾值劃分切割集將相似塊分為原始?jí)K和修復(fù)塊,聚集的塊屬于修復(fù)區(qū)域。此后,Bacchuwar等[11]提出在計(jì)算圖像塊的匹配度之前,先比較塊的亮度分量和中值,跳過可疑區(qū)域中的一個(gè)或多個(gè)塊,這樣可以大大減少算法時(shí)間。上述方法需要給定圖像的可疑區(qū)域,并且在可疑區(qū)域中搜索時(shí)會(huì)受到原始區(qū)域的內(nèi)部相似區(qū)域(如天空、草地等)干擾,導(dǎo)致產(chǎn)生誤報(bào)區(qū)域。針對(duì)相似區(qū)域,Chang等[12]提出使用相似向量刪除可疑區(qū)域中具有一致紋理的區(qū)域,然后使用多區(qū)域關(guān)系來判斷圖像的修復(fù)區(qū)域,在搜索相似塊時(shí),還提出了一種基于權(quán)重變換的兩階段搜索算法,加快相似度的計(jì)算。然而,基于權(quán)重變換的方法無法同時(shí)優(yōu)化負(fù)載因子和搜索范圍。Liang等[13]提出了基于中心像素映射的快速搜索方法來提高搜索速度。但是,偽造圖像通常會(huì)經(jīng)歷后處理操作,圖像的修復(fù)痕跡將被隱藏,因此該方法在檢測圖像修復(fù)區(qū)域上仍然存在一定的局限性。

    Zhao等[14]提出通過計(jì)算壓縮的修復(fù)圖像中壓縮次數(shù)的之間差異來檢測修復(fù)區(qū)域。Liu等[15]在離散余弦變換(DCT,discrete cosine transformer)域中提取近十萬個(gè)特征來定位圖像修復(fù)區(qū)域,能夠有效地檢測重壓縮下的圖像修復(fù)偽造。但是,這兩種方法只能檢測經(jīng)歷了JPEG壓縮后處理操作的修復(fù)圖像,無法檢測其他后處理操作。Zhang等[16]提出一種混合取證策略來檢測經(jīng)過多個(gè)后處理操作的修復(fù)偽造,但它無法定位圖像的修復(fù)區(qū)域。

    Zhu等[17]首次提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的方法來檢測樣本塊圖像修復(fù)篡改。卷積神經(jīng)網(wǎng)絡(luò)遵循編碼器?解碼器的網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建。該方法可以在保持檢測精度的同時(shí)大大減少檢測時(shí)間。后來,Wang等[18]改進(jìn)了語義分割中性能優(yōu)秀的基于掩膜的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Mask R-CNN,mask region-based convolutional neural network)檢測圖像修復(fù)篡改并識(shí)別修復(fù)區(qū)域。為了進(jìn)一步利用所有尺度的特征信息,Wang等[19]提出在Mask R-CNN中將金字塔網(wǎng)絡(luò)和反向連接相結(jié)合以提取更多特征。此外,Lu等[20]提出一種基于長短期記憶?卷積神經(jīng)網(wǎng)絡(luò)的圖像修復(fù)檢測方法,利用卷積神經(jīng)網(wǎng)絡(luò)識(shí)別篡改圖像中的可疑相似塊,再使用長短期記憶網(wǎng)絡(luò)識(shí)別圖像中正常的紋理一致的區(qū)域,去除虛假可疑的相似塊,降低誤報(bào)率。

    1.2 深度學(xué)習(xí)圖像修復(fù)取證

    隨著深度學(xué)習(xí)的發(fā)展,研究人員提出了基于深度學(xué)習(xí)的圖像取證方法來檢測偽造的數(shù)字圖像。起初,研究人員只是使用簡單的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像取證[21,22]。隨后,一些研究發(fā)現(xiàn)在卷積神經(jīng)網(wǎng)絡(luò)的輸入中使用特殊的特征代替圖像內(nèi)容會(huì)獲得更好的圖像取證性能,如噪聲殘差[23]、直方圖特征[24]、約束濾波器[25]等。除了簡單的卷積神經(jīng)網(wǎng)絡(luò)與輸入特征的改變外,研究人員嘗試使用長短期記憶架構(gòu)在像素級(jí)別上定位篡改區(qū)域[26-27]或者使用多分支卷積神經(jīng)網(wǎng)絡(luò)檢測偽造區(qū)域[28-29],這給圖像修復(fù)取證提供了很好的指導(dǎo)作用。

    對(duì)于深度學(xué)習(xí)圖像修復(fù)取證,由于修復(fù)區(qū)域和原始區(qū)域在感知上是一致的,而且不同于樣本塊圖像修復(fù),深度學(xué)習(xí)圖像修復(fù)取證沒有傳統(tǒng)方法可以提取修復(fù)區(qū)域與原始區(qū)域的不一致性特征。Li等[30]發(fā)現(xiàn)修復(fù)圖像在高通濾波后的殘留域中修復(fù)區(qū)域和原始區(qū)域中高頻分量存在顯著差異,利用這一特征,提出了高通濾波圖像殘差的全卷積網(wǎng)絡(luò)來定位深度學(xué)習(xí)圖像修復(fù)篡改的區(qū)域。Wang等[31]提出基于更快的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster R-CNN,faster region-based convolutional neural network)的語義分割網(wǎng)絡(luò)來檢測深度學(xué)習(xí)圖像修復(fù)的方法,該全卷積網(wǎng)絡(luò)模型可以捕獲修復(fù)區(qū)域和真實(shí)區(qū)域的差異特征,在檢測深度學(xué)習(xí)圖像修復(fù)上表現(xiàn)良好的性能。Li等[32]發(fā)現(xiàn)噪聲殘留域中修復(fù)區(qū)域和原始區(qū)域具有明顯的差異,基于噪聲域提出了一種用于通用深度學(xué)習(xí)修復(fù)檢測的新框架,可以識(shí)別由不同深度學(xué)習(xí)修復(fù)方法修復(fù)的區(qū)域。Wu等[33]提出了一個(gè)深度學(xué)習(xí)圖像修復(fù)檢測網(wǎng)絡(luò),網(wǎng)絡(luò)由增強(qiáng)塊、提取塊和決策塊組成,可以準(zhǔn)確檢測和定位修復(fù)篡改。

    盡管在深度學(xué)習(xí)圖像修復(fù)取證上,已經(jīng)有不少研究成果,但是目前缺少能夠同時(shí)檢測樣本塊圖像修復(fù)和深度學(xué)習(xí)圖像修復(fù)的方法。

    圖1 網(wǎng)絡(luò)結(jié)構(gòu)

    Figure 1 Network structure

    2 雙分支網(wǎng)絡(luò)檢測模型

    本文提出了一個(gè)雙分支網(wǎng)絡(luò)檢測模型,它能夠準(zhǔn)確檢測圖像修復(fù)區(qū)域。該模型的一個(gè)分支是高通濾波卷積網(wǎng)絡(luò)(HPCN,high-pass filter convolutional network),參考文獻(xiàn)[30]中的網(wǎng)絡(luò)結(jié)構(gòu);另一個(gè)分支是雙注意力特征融合網(wǎng)絡(luò)。高通濾波卷積網(wǎng)絡(luò)分支主要用于捕獲圖像修復(fù)區(qū)域與原始區(qū)域之間的高頻分量差異,而雙注意力特征融合(DAFF,dual-attention feature fusion)分支主要負(fù)責(zé)捕獲圖像修復(fù)區(qū)域與原始區(qū)域之間內(nèi)容及紋理上的差異。整體的網(wǎng)絡(luò)結(jié)構(gòu)模型如圖1所示。

    2.1 高通濾波卷積網(wǎng)絡(luò)分支

    圖像中的高頻分量對(duì)應(yīng)圖像變化劇烈的部分,即圖像的邊緣、噪聲或者細(xì)節(jié)部分;而低頻分量則與之相反,對(duì)應(yīng)變化度較小的部分。高通濾波的作用是削弱低頻分量并保持高頻分量相對(duì)不變。在文獻(xiàn)[30]中發(fā)現(xiàn)圖像的修復(fù)區(qū)域相對(duì)于原始區(qū)域包含更少的高頻分量,因此HPCN分支使用一組高通濾波器來削弱圖像中的低頻分量。高通濾波器的內(nèi)核使用3個(gè)一階高通濾波器初始化,不同于一般的卷積,這3個(gè)濾波器分別作用于RGB圖像的每個(gè)通道,將產(chǎn)生的9個(gè)特征圖作為后續(xù)輸入。

    殘差網(wǎng)絡(luò)[34]可以解決深度網(wǎng)絡(luò)的退化問題,因其性能優(yōu)越常被用于圖像分類和目標(biāo)檢測等許多計(jì)算機(jī)視覺應(yīng)用。為了準(zhǔn)確地從特征圖中捕獲出修復(fù)區(qū)域和原始區(qū)域中高頻分量的差異,HPCN分支使用4個(gè)殘差塊來提取特征,其參數(shù)配置如表1所示。每個(gè)殘差塊都由兩個(gè)與ResNet50相同的瓶頸單元組成。瓶頸單元先用核大小為1的卷積對(duì)特征圖進(jìn)行降維,再用核大小為3的卷積提取特征,最后用核大小為1的卷積增加特征圖的維數(shù),參數(shù)量得到大幅減少。瓶頸單元中的恒等映射,用來將淺層特征圖復(fù)制給深層高語義的特征圖結(jié)合,通過殘差塊HPCN分支獲得1 024個(gè)特征圖,它們的空間分辨率是輸入圖像的1/16。

    圖2 雙注意力機(jī)制結(jié)構(gòu)

    Figure 2 Structure diagram of dual attention mechanism

    表1 HPCN分支中殘差塊的參數(shù)配置

    2.2 雙注意力特征融合分支

    基于樣本塊的圖像修復(fù)區(qū)別于深度學(xué)習(xí)的圖像修復(fù)的一個(gè)顯著特點(diǎn)是:基于樣本塊的圖像修復(fù)會(huì)在圖像全局搜索最相似的塊進(jìn)行填充。為了捕獲相似性的塊,DAFF在預(yù)處理模塊為圖像增添了局部二值模式特征圖。局部二值模式是一種用于描述圖像局部紋理特征的算子,在圖像取證中提取特征有一定的作用[35],它表示某一像素點(diǎn)與它的8鄰域構(gòu)成的紋理特征,其計(jì)算公式為

    當(dāng)基于樣本塊的圖像修復(fù)將最匹配的塊填充到缺失區(qū)域時(shí),紋理特征將在缺失區(qū)域內(nèi)部傳播,因此修復(fù)區(qū)域的局部二值模式值和原始區(qū)域中對(duì)應(yīng)位置的局部二值模式值相同。為圖像添加局部二值模式特征圖可以幫助捕獲圖像修復(fù)區(qū)域與原始區(qū)域之間紋理上的差異。

    文獻(xiàn)[28]對(duì)幾種主流的主干網(wǎng)絡(luò)進(jìn)行對(duì)比,發(fā)現(xiàn)可視幾何組(VGG,visual geometry group)在篡改區(qū)域的特征提取上有著更高的適用性。因此,DAFF分支中基于VGG-16構(gòu)建了特征提取模塊,首先將最后的3個(gè)全連接層去掉,然后將卷積層劃分為5個(gè)部分,前2個(gè)部分為卷積塊,后3個(gè)部分的卷積塊添加雙重注意力機(jī)制[36],稱為雙注意力卷積塊。在每個(gè)卷積塊最后都使用了最大池化來減少網(wǎng)絡(luò)的參數(shù),在雙注意力卷積塊中,只有第一個(gè)雙注意力卷積塊使用最大池化。池化層雖然可以通過減少網(wǎng)絡(luò)的參數(shù)來實(shí)現(xiàn)提高訓(xùn)練效率,但是同樣有降低特征圖的空間分辨率、丟棄特征圖部分信息等不可忽視的缺點(diǎn)。因此,在最后兩個(gè)雙注意力卷積塊中去掉了池化層,并且在第二個(gè)雙注意力卷積塊中使用了空洞卷積??斩淳矸e可以豐富深層特征的空間信息,并生成高分辨率的特征圖。DAFF分支中特征提取模塊的參數(shù)配置如表2所示。

    =softmax(T) (3)

    表2 DAFF分支中特征提取模塊的參數(shù)配置

    2.3 融合模塊

    當(dāng)兩個(gè)分支捕獲了高頻分量、內(nèi)容及紋理上修復(fù)區(qū)域和原始區(qū)域之間的差異后,為更好地融合特征并進(jìn)行最終的預(yù)測,將兩個(gè)分支的輸出送入如圖3所示的Inception模塊進(jìn)行特征融合。Inception是GoogleNet中的模塊[25],它使網(wǎng)絡(luò)變寬,既能減少計(jì)算開銷和內(nèi)存消耗又能豐富特征。融合模塊的具體步驟如下。

    1) 連接HPCN分支和DAFF分支的輸出。

    2) 使用3個(gè)不同大小的過濾器進(jìn)行特征提取,核大小為1×1、3×3、5×5。

    3) 將特征圖連接起來作為輸出。

    對(duì)融合模塊的特征圖再進(jìn)行softmax分類,以獲得圖像修復(fù)像素級(jí)別的定位圖。

    圖3 融合模塊的結(jié)構(gòu)

    Figure 3 The illustration of the fusion module

    2.4 損失函數(shù)

    3 實(shí)驗(yàn)結(jié)果與分析

    使用PASCAL VOC[37]創(chuàng)建了基于深度學(xué)習(xí)和基于樣本塊的普通圖像修復(fù)數(shù)據(jù)集和對(duì)象移除圖像修復(fù)數(shù)據(jù)集,在數(shù)據(jù)集上訓(xùn)練測試了本文提出的方法,并與圖像修復(fù)檢測的文獻(xiàn)[17]、文獻(xiàn)[30]、文獻(xiàn)[33]中評(píng)估的性能指標(biāo)1分?jǐn)?shù)和交并比進(jìn)行了比較。

    3.1 實(shí)驗(yàn)數(shù)據(jù)集

    目前暫無用于圖像修復(fù)取證的公開數(shù)據(jù)集,本文使用PASCAL VOC創(chuàng)建了樣本塊圖像修復(fù)和深度學(xué)習(xí)的圖像修復(fù)數(shù)據(jù)集。PASCAL VOC包含20種特定對(duì)象的自然圖像,并提供有對(duì)象的像素級(jí)的分割圖,為創(chuàng)建對(duì)象移除的圖像修復(fù)數(shù)據(jù)集提供了便利。首先將PASCAL VOC 2007和PASCAL VOC 2012訓(xùn)練集的圖像混合去除重復(fù)的圖像,獲得共21 542幅圖像;然后采用3種方法創(chuàng)建圖像的缺失區(qū)域,分別是:①中心矩形區(qū)域;②隨機(jī)1到5個(gè)矩形區(qū)域;③隨機(jī)一些線、圓、橢圓;最后分別采用基于樣本塊的圖像修復(fù)方法[4]和基于深度學(xué)習(xí)的圖像修復(fù)方法[9]對(duì)圖像進(jìn)行修復(fù)。圖4展示了幾個(gè)示例圖像。將這一部分?jǐn)?shù)據(jù)集90%的圖像作為訓(xùn)練集,10%的圖像作為驗(yàn)證集。

    圖4 實(shí)驗(yàn)數(shù)據(jù)集中的一些示例

    Figure 4 Several examples of the experimental dataset

    將PASCAL VOC 2007和PASCAL VOC 2012測試集圖像混合去除重復(fù)圖像,同樣采用訓(xùn)練集中的方法創(chuàng)建圖像的缺失區(qū)域,并使用基于樣本塊的圖像修復(fù)方法[4]和基于深度學(xué)習(xí)的圖像修復(fù)方法[9]對(duì)圖像進(jìn)行修復(fù),獲得8 915幅修復(fù)圖像作為測試集。另外,為了驗(yàn)證本文提出的方法是否符合實(shí)際情況,從PASCAL VOC 2007中的300幅對(duì)象像素級(jí)分割圖中選取了一些對(duì)象(如人、貓、狗等)作為圖像缺失區(qū)域進(jìn)行修復(fù),更準(zhǔn)確地模擬現(xiàn)實(shí)生活中圖像修復(fù)的用途。將這一部分?jǐn)?shù)據(jù)集作為對(duì)象移除圖像修復(fù)的測試集對(duì)網(wǎng)絡(luò)效果進(jìn)行驗(yàn)證。圖像修復(fù)數(shù)據(jù)集的數(shù)量如表3所示。

    3.2 實(shí)驗(yàn)設(shè)置

    該實(shí)驗(yàn)的實(shí)驗(yàn)環(huán)境為Ubuntu16.04,Nvidia GeForce RTX 2080ti GPU。實(shí)驗(yàn)中選擇Adam[31]作為優(yōu)化器,初始學(xué)習(xí)率設(shè)置為0.000 1,此后的每個(gè)epoch學(xué)習(xí)率降低80%。因?yàn)閿?shù)據(jù)集中的圖像大小不一致,所以將每一批次的大小設(shè)置為1。整個(gè)實(shí)驗(yàn)訓(xùn)練迭代10次,選擇驗(yàn)證集結(jié)果中1分?jǐn)?shù)值最高的模型作為最后模型。

    表3 圖像修復(fù)數(shù)據(jù)集的數(shù)量

    3.3 評(píng)估指標(biāo)

    本文主要使用兩種逐像素分類指標(biāo)來評(píng)估性能,分別是1分?jǐn)?shù)和交并比。它們是測試集評(píng)估指標(biāo)數(shù)據(jù)的平均值,計(jì)算如下。

    表4 3種損失在不同圖像修復(fù)數(shù)據(jù)集上的檢測結(jié)果

    4.3 實(shí)驗(yàn)結(jié)果與分析

    對(duì)于本文提出的方法,我們使用了焦點(diǎn)損失、加權(quán)交叉熵?fù)p失和標(biāo)準(zhǔn)交叉熵?fù)p失進(jìn)行實(shí)驗(yàn)。在隨機(jī)缺失的樣本塊圖像修復(fù)和深度學(xué)習(xí)圖像修復(fù)、對(duì)象移除的深度學(xué)習(xí)修復(fù)的數(shù)據(jù)集上進(jìn)行測試,檢測結(jié)果如表4所示。

    加權(quán)交叉熵?fù)p失在修復(fù)區(qū)域和原始區(qū)域兩類交叉熵?fù)p失前面添加了不同的權(quán)重。將像素錯(cuò)判為原始區(qū)域的懲罰大于將像素錯(cuò)判為修復(fù)區(qū)域的懲罰。因此,使用加權(quán)交叉熵?fù)p失具有較高的召回率,但準(zhǔn)確率較低??紤]到實(shí)際用途中修復(fù)區(qū)域可能小于未修復(fù)區(qū)域,在訓(xùn)練中使用焦點(diǎn)損失來增加修復(fù)區(qū)域的權(quán)重,并增加錯(cuò)誤分類樣本的權(quán)重。通過實(shí)驗(yàn)發(fā)現(xiàn),焦點(diǎn)損失并不能有效提升性能。觀察數(shù)據(jù)集發(fā)現(xiàn),隨機(jī)生成的修復(fù)區(qū)域與原始區(qū)域大小幾乎相同,不存在需要焦點(diǎn)損失解決的正負(fù)樣本不平衡問題。所以本文方法采用標(biāo)準(zhǔn)的交叉熵?fù)p失函數(shù)。

    為了驗(yàn)證本文方法的有效性,對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了消融實(shí)驗(yàn),定量驗(yàn)證評(píng)估指標(biāo)1分?jǐn)?shù)值如表5所示。

    消融實(shí)驗(yàn)各結(jié)構(gòu)分解如下。

    1) 1-Base:HPCN分支,文獻(xiàn)[18]中的高通全卷積網(wǎng)絡(luò)。

    2) 2-Base:去除DAFF分支中雙重注意力模塊和特征融合模塊的網(wǎng)絡(luò),即DAFF分支的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)。

    3) 2-Base+DA:在DAFF分支的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)上增加了雙重注意力模塊。

    4) 2-Base+DA+FF:在DAFF分支的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)上增加了雙重注意力模塊和特征融合模塊。

    5) 本文提出的網(wǎng)絡(luò):帶有HPCN分支和DAFF分支的雙分支網(wǎng)絡(luò)。

    表5 消融實(shí)驗(yàn)的檢測結(jié)果

    分析表5中數(shù)據(jù)可以看出,雖然在增加了雙注意力機(jī)制后,樣本塊圖像修復(fù)檢測的1分?jǐn)?shù)值降低了,但是當(dāng)導(dǎo)入雙注意力模塊和特征融合模塊時(shí),1分?jǐn)?shù)值提高。這可能是因?yàn)闃颖緣K圖像修復(fù)的痕跡很大程度依賴于淺層的紋理,在淺層網(wǎng)絡(luò)雙重注意力機(jī)制提取了相似圖像塊的全局依賴,將其與深層的語義特征進(jìn)行融合使得網(wǎng)絡(luò)的檢測結(jié)果更準(zhǔn)確。這說明添加雙重注意力機(jī)制和特征融合能夠幫助網(wǎng)絡(luò)有效地提取樣本塊圖像修復(fù)區(qū)域與原始區(qū)域的相似塊特征。深度學(xué)習(xí)圖像修復(fù)檢測的1分?jǐn)?shù)值在導(dǎo)入雙注意力模塊和特征融合模塊得到進(jìn)一步提升。將HPCN分支和DAFF分支結(jié)合后,樣本塊圖像修復(fù)和深度學(xué)習(xí)圖像修復(fù)的1分?jǐn)?shù)值得到了提升,這說明雙分支網(wǎng)絡(luò)不僅可以同時(shí)檢測深度學(xué)習(xí)的圖像修復(fù)區(qū)域和樣本塊的圖像修復(fù)區(qū)域,還在檢測圖像修復(fù)區(qū)域的性能上得到了進(jìn)一步的提升。

    為了檢測本文方法的性能優(yōu)于現(xiàn)有先進(jìn)的方法,將本文方法與文獻(xiàn)[17]、文獻(xiàn)[30]、文獻(xiàn)[33]分別在樣本塊圖像修復(fù)和深度學(xué)習(xí)圖像修復(fù)數(shù)據(jù)集上重新訓(xùn)練,然后在隨機(jī)缺失的樣本塊圖像修復(fù)、對(duì)象移除的樣本塊圖像修復(fù)、隨機(jī)缺失的深度學(xué)習(xí)圖像修復(fù)、對(duì)象移除的深度學(xué)習(xí)修復(fù)的數(shù)據(jù)集上進(jìn)行測試,進(jìn)行評(píng)估指標(biāo)1分?jǐn)?shù)和交并比的比較,結(jié)果如表6所示。

    表6 不同模型在不同圖像修復(fù)數(shù)據(jù)集上的檢測結(jié)果

    從表6中可以看出,基于雙分支網(wǎng)絡(luò)的圖像修復(fù)取證算法在所有指標(biāo)上都超過3種先進(jìn)的方法。對(duì)于基于樣本塊技術(shù)的修復(fù)圖像,無論是隨機(jī)缺失的修復(fù)圖像還是對(duì)象移除的修復(fù)圖像,本文算法檢測在1分?jǐn)?shù)值提高了2%以上。特別是對(duì)于對(duì)象移除的修復(fù)圖像,本文提出的算法比排名第二的算法在1分?jǐn)?shù)值高2.05%,在交并比上數(shù)值高3.53%。對(duì)于基于深度學(xué)習(xí)技術(shù)的修復(fù)圖像,雖然本文方法較排名第二的算法提升不多,但是排名第二的算法在檢測基于樣本塊技術(shù)的修復(fù)圖像時(shí),檢測精度大大降低,甚至在對(duì)象移除的數(shù)據(jù)集上只有31.36%的1分?jǐn)?shù)值。雖然該方法在深度學(xué)習(xí)圖像修復(fù)中效果較好,但卻在樣本塊修復(fù)的圖像中忽略了樣本塊的相似性,導(dǎo)致其在樣本塊圖像修復(fù)數(shù)據(jù)集上表現(xiàn)較差。這說明本文提出的算法不僅能夠檢測基于深度學(xué)習(xí)的圖像修復(fù),還能夠檢測基于樣本塊的圖像修復(fù),并取得了優(yōu)越的性能。

    為了更直觀地感受本文方法的檢測效果,本文從隨機(jī)缺失的樣本塊圖像修復(fù)、對(duì)象移除的樣本塊圖像修復(fù)、隨機(jī)缺失的深度學(xué)習(xí)圖修復(fù)、對(duì)象移除的深度學(xué)習(xí)修復(fù)的數(shù)據(jù)集選取了多幅圖像,展示了文獻(xiàn)[17]、文獻(xiàn)[30]、文獻(xiàn)[33]和提出方法的預(yù)測掩模圖,如圖5所示。

    從圖5可以看出,在樣本塊圖像修復(fù)中,文獻(xiàn)[17]、文獻(xiàn)[30]、文獻(xiàn)[33]都無法準(zhǔn)確定位修復(fù)區(qū)域邊緣,這是因?yàn)樗鼈兒雎粤藰颖緣K圖像修復(fù)中圖像塊的相似性。在深度學(xué)習(xí)圖像修復(fù)中,文獻(xiàn)[30]和文獻(xiàn)[33]都表現(xiàn)出優(yōu)越的檢測性能,但是本文提出方法能精確地分割出修復(fù)區(qū)域和原始區(qū)域。這說明本文提出的方法可以準(zhǔn)確定位修復(fù)的移除對(duì)象區(qū)域的邊界,表明了本文提出的方法不僅提高了圖像修復(fù)檢測的性能,而且在實(shí)際應(yīng)用中表現(xiàn)出良好的性能。

    在對(duì)圖像進(jìn)行篡改之后,為了掩蓋篡改痕跡,通常會(huì)用JPEG壓縮和高斯模糊進(jìn)行后處理操作。在圖像的傳播中,也會(huì)經(jīng)歷JPEG壓縮。為了驗(yàn)證本文提出方法的優(yōu)越性,對(duì)數(shù)據(jù)集進(jìn)行JPEG壓縮和高斯模糊的后處理操作,然后選擇檢測樣本塊圖像修復(fù)的文獻(xiàn)和檢測深度學(xué)習(xí)圖像修復(fù)的文獻(xiàn)與本文方法進(jìn)行比較。

    文獻(xiàn)[30]指出大多圖像最低使用75的質(zhì)量因子(QF,quality factor)進(jìn)行壓縮。質(zhì)量因子越小,壓縮率越大,圖片質(zhì)量越差,圖像會(huì)失真。當(dāng)質(zhì)量因子低于75時(shí),圖像視覺質(zhì)量過低,無法保證視覺感知上與原始圖像一致。因此對(duì)于JPEG壓縮后處理操作,分別使用95和75的質(zhì)量因子對(duì)修復(fù)圖像進(jìn)行JPEG壓縮處理。高斯模糊核大小代表鄰域每個(gè)像素對(duì)當(dāng)前處理像素的影響程度,高斯核的維數(shù)越高,圖像的模糊程度越大。當(dāng)高斯核大于5×5時(shí),同樣會(huì)使得圖像過于模糊,無法保證圖像的視覺感知。因此對(duì)于高斯模糊后處理操作,分別使用3×3和5×5的高斯核對(duì)修復(fù)圖像進(jìn)行高斯模糊操作。魯棒性檢測結(jié)果的1分?jǐn)?shù)值如表7所示。

    對(duì)于JPEG壓縮的后處理操作,3個(gè)模型的1分?jǐn)?shù)值都隨著質(zhì)量因子的降低而降低,檢測深度學(xué)習(xí)圖像修復(fù)的文獻(xiàn)[30]在檢測樣本塊圖像修復(fù)上,隨著圖像質(zhì)量因子的降低1分?jǐn)?shù)值大幅下跌;而檢測樣本塊圖像修復(fù)的文獻(xiàn)[18]在檢測深度學(xué)習(xí)圖像修復(fù)上,隨著圖像質(zhì)量因子的降低1分?jǐn)?shù)值也出現(xiàn)了大幅下跌。但是本文提出的方法,在檢測不同類型的樣本修復(fù)上,隨著圖像質(zhì)量因子的降低,其檢測效果都優(yōu)于該類型圖像修復(fù)模型。對(duì)于高斯模糊的后處理操作,本文提出方法的檢測結(jié)果也表現(xiàn)出優(yōu)秀的性能,這說明本文提出方法的魯棒性是最佳的。

    5 結(jié)束語

    本文提出了一個(gè)雙分支的深度神經(jīng)網(wǎng)絡(luò),它是一種新穎的圖像修復(fù)盲取證方法。利用雙分支

    圖5 不同模型的實(shí)際檢測結(jié)果

    Figure 5 The actual detection results of different models

    表7 不同模型的魯棒性檢測結(jié)果的F1分?jǐn)?shù)值

    同時(shí)捕獲圖像在高頻分量、內(nèi)容及紋理上修復(fù)區(qū)域和原始區(qū)域的差異,并將結(jié)果進(jìn)行多尺度融合檢測圖像的修復(fù)區(qū)域??梢杂行У貜浹a(bǔ)當(dāng)前缺少同時(shí)檢測樣本塊圖像修復(fù)和深度學(xué)習(xí)圖像修復(fù)的方法,并且它能夠清晰地檢測出修復(fù)圖像中移除對(duì)象的區(qū)域邊界,適用于現(xiàn)實(shí)場景。大量的實(shí)驗(yàn)表明了該方法的有效性。雖然實(shí)驗(yàn)數(shù)據(jù)顯示本文方法能夠很好地識(shí)別兩種圖像修復(fù)算法檢測的區(qū)域,也能抵抗修復(fù)圖像的后處理操作,但是其在兩種算法上的性能存在一定的差距,在樣本塊圖像修復(fù)上的性能還有待提升。未來將進(jìn)一步提高圖像修復(fù)檢測的性能。

    [1] SRIDEVI G, SRINIVAS KUMAR S. Image inpainting based on fractional-order nonlinear diffusion for image reconstruction[J]. Circuits, Systems, and Signal Processing, 2019, 38(8): 3802-3817.

    [2] DOU L, QIAN Z, QIN C, et al. Anti-forensics of diffusion-based image inpainting[J]. Journal of Electronic Imaging, 2020, 29(4): 043026.

    [3] ZHANG Y, DING F, KWONG S, et al. Feature pyramid network for diffusion-based image inpainting detection[J]. Information Sciences, 2021, 572: 29-42.

    [4] CRIMINISI A, PéREZ P, TOYAMA K. Region filling and object removal by exemplar-based image inpainting[J]. IEEE Transactions on image processing, 2004, 13(9): 1200-1212.

    [5] QUY TRAN B, VAN NGUYEN T, DUY TRAN D, et al. Accelerating exemplar-based image inpainting with GPU and CUDA[C]//2021 10th International Conference on Software and Computer Applications. 2021: 173-179.

    [6] XU T, HUANG T Z, DENG L J, et al. Exemplar-based image inpainting using adaptive two-stage structure-tensor based priority function and nonlocal filtering[J]. Journal of Visual Communication and Image Representation, 2022, 83: 103430.

    [7] IIZUKA S, SIMO-SERRA E, ISHIKAWA H. Globally and locally consistent image completion[J]. ACM Transactions on Graphics (ToG), 2017, 36(4): 1-14.

    [8] ZENG Y, FU J, CHAO H, et al. Learning pyramid-context encoder network for high-quality image inpainting[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019: 1486-1494.

    [9] SUVOROV R, LOGACHEVA E, MASHIKHIN A, et al. Resolution-robust large mask inpainting with fourier convolutions[C]//Pro- ceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. 2022: 2149-2159.

    [10] WU Q, SUN S-J, ZHU W, et al. Detection of digital doctoring in exemplar-based inpainted images[C]//2008 International Conference on Machine Learning and Cybernetics. 2008, 3: 1222-1226.

    [11] BACCHUWAR K S, RAMAKRISHNAN K. A jump patch-block match algorithm for multiple forgery detection[C]//2013 International Mutli-Conference on Automation, Computing, Communication, Control and Compressed Sensing (iMac4s). 2013: 723-728.

    [12] CHANG I C, YU J C, CHANG C C. A forgery detection algorithm for exemplar-based inpainting images using multi-region relation[J]. Image and Vision Computing, 2013, 31(1): 57-71.

    [13] LIANG Z, YANG G, DING X, et al. An efficient forgery detection algorithm for object removal by exemplar-based image inpainting[J]. Journal of Visual Communication and Image Representation, 2015, 30: 75-85.

    [14] ZHAO Y Q, LIAO M, SHIH F Y, et al. Tampered region detection of inpainting JPEG images[J]. Optik, 2013, 124(16): 2487-2492.

    [15] LIU Q, SUNG A H, ZHOU B, et al. Exposing inpainting forgery in jpeg images under recompression attacks[C]//2016 15th IEEE International Conference on Machine Learning and Applications (ICMLA). 2016: 164-169.

    [16] ZHANG D, LIANG Z, YANG G, et al. A robust forgery detection algorithm for object removal by exemplar-based image inpainting[J]. Multimedia Tools and Applications, 2018, 77(10): 11823-11842.

    [17] ZHU X, QIAN Y, ZHAO X, et al. A deep learning approach to patch-based image inpainting forensics[J]. Signal Processing: Image Communication, 2018, 67: 90-99.

    [18] WANG X, WANG H, NIU S. An intelligent forensics approach for detecting patch-based image inpainting[J]. Mathematical Problems in Engineering, 2020, 2020(8): 1-10.

    [19] WANG X, NIU S, WANG H. Image inpainting detection based on multi-task deep learning network[J]. IETE Technical Review, 2021, 38(1): 149-157.

    [20] LU M, NIU S. A detection approach using LSTM-CNN for object removal caused by exemplar-based image inpainting[J]. Electronics, 2020, 9(5): 858.

    [21] BARNI M, COSTANZO A, NOWROOZI E, et al. CNN-based detection of generic contrast adjustment with JPEG post-processing[C]//2018 25th IEEE International Conference on Image Processing (ICIP). 2018: 3803-3807.

    [22] SHAN W, YI Y, HUANG R, et al. Robust contrast enhancement forensics based on convolutional neural networks[J]. Signal Processing: Image Communication, 2019, 71: 138-146.

    [23] ZHOU P, HAN X, MORARIU V I, et al. Learning rich features for image manipulation detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 1053-1061.

    [24] BARNI M, BONDI L, BONETTINI N, et al. Aligned and non-aligned double JPEG detection using convolutional neural networks[J]. Journal of Visual Communication and Image Representation, 2017, 49: 153-163.

    [25] BAYAR B, STAMM M C. Constrained convolutional neural networks: a new approach towards general purpose image manipulation detection[J]. IEEE Transactions on Information Forensics and Security, 2018, 13(11): 2691-2706.

    [26] BUNK J, BAPPY J H, MOHAMMED T M, et al. Detection and localization of image forgeries using resampling features and deep learning[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). 2017: 1881-1889.

    [27] BAPPY J H, SIMONS C, NATARAJ L, et al. Hybrid lstm and encoder–decoder architecture for detection of image forgeries[J]. IEEE Transactions on Image Processing, 2019, 28(7): 3286-3300.

    [28] WU Y, ABDALMAGEED W, NATARAJAN P. Mantra-net: Manipulation tracing network for detection and localization of image forgeries with anomalous features[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019: 9543-9552.

    [29] BARNI M, PHAN Q T, TONDI B. Copy move source-target disambiguation through multi-branch CNNs[J]. IEEE Transactions on Information Forensics and Security, 2020, 16: 1825-1840.

    [30] LI H, HUANG J. Localization of deep inpainting using high-pass fully convolutional network[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019: 8301-8310.

    [31] WANG X, WANG H, NIU S. An image forensic method for AI inpainting using faster R-CNN[C]//International Conference on Artificial Intelligence and Security. 2019, 11634: 476-487.

    [32] LI A, KE Q, MA X, et al. Noise doesn't lie: towards universal detection of deep inpainting[C]//Proceedings of International Joint Conference on Artificial Intelligence. 2021: 786-792.

    [33] WU H, ZHOU J. IID-Net: image inpainting detection network via neural architecture search and attention[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2021, 32(3): 1172 - 1185.

    [34] SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015: 1-9.

    [35] ZHANG D, CHEN X, LI F, et al. Seam-carved image tampering detection based on the cooccurrence of adjacent lbps[J]. Security and Communication Networks, 2020, 2020: 1-12.

    [36] FU J, LIU J, TIAN H, et al. Dual attention network for scene segmentation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019: 3146-3154.

    [37] EVERINGHAM M, ESLAMI S, VAN GOOL L, et al. The pascal visual object classes challenge: a retrospective[J]. International Journal of Computer Vision, 2015, 111(1): 98-136.

    Image inpainting forensics method based on dual branch network

    ZHANG Dengyong1,2, WEN Huang1,2, LI Feng1,2, CAO Peng1,2, XIANG Lingyun1,2, YANG Gaobo3, DING Xiangling4

    1. Hunan Provincial Key Laboratory of Intelligent Processing of Big Data on Transportation, Changsha University of Science and Technology, Changsha 410114, China 2. School of Computer and Communication Engineering, Changsha University of Science and Technology, Changsha, 410114, China 3. School of Information Science and Engineering, Hunan University, Changsha 410082, China 4. School of Computer Science and Engineering, Hunan University of Science and Technology, Xiangtan 411004, China

    Image inpainting is a technique that uses information from known areas of an image to repair missing or damaged areas of the image.Image editing software based on it has made it easy to edit and modify the content of digital images without any specialized foundation. When image inpainting techniques are used to maliciously remove the content of an image, it will cause confidence crisis on the real image. Current researches in image inpainting forensics can only effectively detect a certain type of image inpainting. To address this problem, a passive forensic method for image inpainting was proposed, which is based on a two-branch network. The high-pass filtered convolutional network in the dual branch first used a set of high-pass filters to attenuate the low-frequency components in the image. Then features were extracted using four residual blocks, and two transposed convolutions were performed with 4x up-sampling to zoom in on the feature map. And thereafter a 5×5 convolution was used to attenuate the tessellation artifacts from the transposed convolutions to generate a discriminative feature map on the high-frequency components of the image. The dual-attention feature fusion branch in the dual branch first added a local binary pattern feature map to the image using a preprocessing block. Then the dual-attention convolution block was used to adaptively integrate the image’s local features and global dependencies to capture the differences in content and texture between the inpainted and pristine regions of the image. Additionally, the features extracted from the dual-attention convolution block were fused, and the feature maps were up-sampled identically to generate the discriminative image content and texture on the feature maps. The extensive experimental results show the proposed method improved the1 score by 2.05% and the Intersection over Union(IoU) by 3.53% for the exemplar-based method and by 1.06% and 1.22% for the deep-learning-based method in detecting the inpainted region of the removed object. Visualization of the results shows that the edges of the removed objects can be accurately located on the detected inpainted area.

    image forensics, image forgery detection, deep learning, attention mechanism

    TP393

    A

    10.11959/j.issn.2096?109x.2022084

    2022?03?27;

    2022?08?17

    李峰,lif@csust.edu.cn

    國家自然科學(xué)基金(62172059, 61972057, 62072055);湖南省自然科學(xué)基金(2020JJ4626, 2020JJ4029);湖南省教育廳優(yōu)秀青年項(xiàng)目(19B004)

    The National Natural Science Foundation of China (62172059, 61972057, 62072055), Natural Science Foundation of Hunan Province (2020JJ4626, 2020JJ4029), Scientific Research Fund of Hunan Provincial Education Department of China (19B004)

    章登勇, 文凰, 李峰, 等. 基于雙分支網(wǎng)絡(luò)的圖像修復(fù)取證方法[J]. 網(wǎng)絡(luò)與信息安全學(xué)報(bào), 2022, 8(6): 110-122.

    ZHANG D Y, WEN H, LI F, et al. Image in painting forensics method based on dual branch network[J]. Chinese Journal of Network and Information Security, 2022, 8(6): 110-122.

    章登勇(1980?),男,江西南昌人,長沙理工大學(xué)副教授,主要研究方向?yàn)槎嗝襟w信息安全、圖像處理與模式識(shí)別。

    文凰(1996?),女,湖南望城人,長沙理工大學(xué)碩士生,主要研究方向?yàn)槎嗝襟w信息安全。

    李峰(1964?),男,湖南常德人,長沙理工大學(xué)教授,主要研究方向?yàn)槎嗝襟w信息安全、圖像處理與模式識(shí)別。

    曹鵬(1982?),男,湖南常德人,長沙理工大學(xué)講師,主要研究方向?yàn)閳D像處理與模式識(shí)別、圖像取證。

    向凌云(1983? ),女,湖南婁底人,長沙理工大學(xué)副教授,主要研究方向?yàn)樾畔踩⑿畔㈦[藏與數(shù)字水印、隱寫分析、自然語言處理、模式識(shí)別與機(jī)器學(xué)習(xí)。

    楊高波(1973?),湖南岳陽人,湖南大學(xué)教授、博士生導(dǎo)師,主要研究方向?yàn)閳D像/視頻信息安全、多媒體通信、紋理壓縮。

    丁湘陵(1981?),男,湖南株洲人,博士,湖南科技大學(xué)副教授,主要研究方向?yàn)槎嗝襟w內(nèi)容安全、圖像/視頻處理、密碼分析。

    猜你喜歡
    分支卷積深度
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    深度理解一元一次方程
    巧分支與枝
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    深度觀察
    深度觀察
    深度觀察
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    一類擬齊次多項(xiàng)式中心的極限環(huán)分支
    一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
    久久香蕉精品热| 夜夜爽天天搞| 熟女电影av网| 级片在线观看| 99在线视频只有这里精品首页| 叶爱在线成人免费视频播放| 久久精品人妻少妇| 夜夜躁狠狠躁天天躁| 亚洲黑人精品在线| 国产精品综合久久久久久久免费| 国产在线精品亚洲第一网站| cao死你这个sao货| 一级a爱片免费观看的视频| 99精品在免费线老司机午夜| 精品熟女少妇八av免费久了| 久久性视频一级片| 精品久久久久久久末码| 最近最新中文字幕大全免费视频| 99riav亚洲国产免费| 夜夜爽天天搞| 免费看十八禁软件| 别揉我奶头~嗯~啊~动态视频| 三级毛片av免费| 亚洲在线自拍视频| 亚洲成人免费电影在线观看| 久久久久久久久久黄片| 给我免费播放毛片高清在线观看| 国产aⅴ精品一区二区三区波| 天天一区二区日本电影三级| 亚洲欧美日韩无卡精品| 国产伦人伦偷精品视频| e午夜精品久久久久久久| 看免费av毛片| 亚洲专区中文字幕在线| 琪琪午夜伦伦电影理论片6080| 嫁个100分男人电影在线观看| 熟女少妇亚洲综合色aaa.| 欧美乱色亚洲激情| 免费看光身美女| 在线十欧美十亚洲十日本专区| 欧美一区二区精品小视频在线| 丰满人妻一区二区三区视频av | 久久精品综合一区二区三区| 女人高潮潮喷娇喘18禁视频| www日本黄色视频网| 久久精品国产亚洲av香蕉五月| 1024香蕉在线观看| 男女午夜视频在线观看| 男人舔奶头视频| 亚洲成人中文字幕在线播放| 日韩人妻高清精品专区| 国产精品综合久久久久久久免费| 大型黄色视频在线免费观看| 97碰自拍视频| 国产三级中文精品| av中文乱码字幕在线| 国产爱豆传媒在线观看| 亚洲成人免费电影在线观看| 身体一侧抽搐| 国产高潮美女av| 亚洲真实伦在线观看| 成人三级黄色视频| 国产主播在线观看一区二区| 精品国产美女av久久久久小说| 每晚都被弄得嗷嗷叫到高潮| 欧美又色又爽又黄视频| 一级a爱片免费观看的视频| 久久这里只有精品中国| 老汉色av国产亚洲站长工具| 亚洲精品色激情综合| 日韩 欧美 亚洲 中文字幕| 一区二区三区激情视频| 怎么达到女性高潮| 精品欧美国产一区二区三| 深夜精品福利| 三级国产精品欧美在线观看 | 每晚都被弄得嗷嗷叫到高潮| 好男人电影高清在线观看| 黄色日韩在线| 国产单亲对白刺激| 精品欧美国产一区二区三| av视频在线观看入口| 成人无遮挡网站| 狠狠狠狠99中文字幕| 中文字幕熟女人妻在线| 国产一区二区三区在线臀色熟女| 久久天堂一区二区三区四区| 黄色女人牲交| 美女黄网站色视频| 国产亚洲欧美在线一区二区| 久久精品影院6| 国产一区二区激情短视频| 听说在线观看完整版免费高清| 最近视频中文字幕2019在线8| 一个人免费在线观看的高清视频| 久久中文字幕一级| www.www免费av| 禁无遮挡网站| 日日夜夜操网爽| 日韩欧美 国产精品| 国产成年人精品一区二区| 桃红色精品国产亚洲av| 看片在线看免费视频| 免费在线观看影片大全网站| 嫩草影院精品99| 免费在线观看亚洲国产| 一级毛片精品| 日韩成人在线观看一区二区三区| 天天躁日日操中文字幕| 日本一本二区三区精品| 亚洲成人免费电影在线观看| 亚洲18禁久久av| 男人和女人高潮做爰伦理| 九色国产91popny在线| 国产精品久久久久久久电影 | 国产黄a三级三级三级人| 午夜精品久久久久久毛片777| 啦啦啦观看免费观看视频高清| 999精品在线视频| 男女床上黄色一级片免费看| 精品无人区乱码1区二区| 9191精品国产免费久久| 在线观看一区二区三区| 两性夫妻黄色片| 夜夜躁狠狠躁天天躁| 一进一出抽搐gif免费好疼| 久久久久久国产a免费观看| 国产美女午夜福利| 日韩精品中文字幕看吧| 宅男免费午夜| 久久这里只有精品19| 人人妻人人看人人澡| 好男人电影高清在线观看| 听说在线观看完整版免费高清| 亚洲一区高清亚洲精品| 九九在线视频观看精品| 久久久久久久午夜电影| 99久久精品国产亚洲精品| 久久精品亚洲精品国产色婷小说| 亚洲片人在线观看| 别揉我奶头~嗯~啊~动态视频| 成人精品一区二区免费| 亚洲成人精品中文字幕电影| 又大又爽又粗| 色综合婷婷激情| 日韩欧美精品v在线| 亚洲精品久久国产高清桃花| 日本一本二区三区精品| 欧美日本亚洲视频在线播放| 久久中文字幕一级| 国产 一区 欧美 日韩| 黄色 视频免费看| 色综合站精品国产| 国产久久久一区二区三区| 三级男女做爰猛烈吃奶摸视频| 18禁国产床啪视频网站| 亚洲国产色片| 久久久久久久久中文| 动漫黄色视频在线观看| 精品电影一区二区在线| 少妇的丰满在线观看| 久久久国产成人免费| 午夜精品在线福利| 后天国语完整版免费观看| 国产成人aa在线观看| 99久国产av精品| 国产精品野战在线观看| 又黄又粗又硬又大视频| 日本成人三级电影网站| 每晚都被弄得嗷嗷叫到高潮| 亚洲片人在线观看| 欧美一区二区国产精品久久精品| 亚洲精品中文字幕一二三四区| 精品国产乱码久久久久久男人| 男人和女人高潮做爰伦理| 波多野结衣巨乳人妻| 色在线成人网| tocl精华| 亚洲自偷自拍图片 自拍| 亚洲美女视频黄频| 狂野欧美白嫩少妇大欣赏| 国产精品99久久久久久久久| 美女高潮喷水抽搐中文字幕| 欧美中文日本在线观看视频| 变态另类成人亚洲欧美熟女| 国产精品精品国产色婷婷| 色av中文字幕| 男人舔女人的私密视频| 欧美黑人巨大hd| 亚洲av成人精品一区久久| 97碰自拍视频| 夜夜爽天天搞| 黑人操中国人逼视频| 男人舔女人下体高潮全视频| 亚洲成人久久爱视频| 特级一级黄色大片| 五月玫瑰六月丁香| 精品久久蜜臀av无| av在线蜜桃| 国产一区二区三区在线臀色熟女| 国产高清videossex| 久久久久久人人人人人| 亚洲欧美日韩卡通动漫| 日日摸夜夜添夜夜添小说| 久久国产乱子伦精品免费另类| 亚洲国产欧美一区二区综合| 黑人操中国人逼视频| 国产高清激情床上av| 精品欧美国产一区二区三| 在线观看舔阴道视频| 婷婷六月久久综合丁香| 国产真实乱freesex| 欧美乱色亚洲激情| 国产成人福利小说| 老司机午夜福利在线观看视频| 在线a可以看的网站| 亚洲精品美女久久av网站| 国产日本99.免费观看| h日本视频在线播放| 天堂√8在线中文| 国产成人欧美在线观看| 日韩欧美 国产精品| 51午夜福利影视在线观看| 两个人看的免费小视频| 美女免费视频网站| 欧美日韩福利视频一区二区| 免费av不卡在线播放| 国产午夜精品久久久久久| 老司机午夜福利在线观看视频| 熟女电影av网| 亚洲欧美日韩卡通动漫| 亚洲中文日韩欧美视频| 美女高潮喷水抽搐中文字幕| 精品99又大又爽又粗少妇毛片 | а√天堂www在线а√下载| 真实男女啪啪啪动态图| av国产免费在线观看| tocl精华| 国产毛片a区久久久久| 1024香蕉在线观看| tocl精华| 日韩大尺度精品在线看网址| 亚洲 国产 在线| 久久精品影院6| 给我免费播放毛片高清在线观看| 日韩欧美国产在线观看| 亚洲 欧美 日韩 在线 免费| 亚洲18禁久久av| 黄片大片在线免费观看| 人妻丰满熟妇av一区二区三区| 免费av不卡在线播放| 少妇丰满av| 日本免费a在线| 99久久精品国产亚洲精品| 国产激情偷乱视频一区二区| 亚洲精品在线美女| 丰满的人妻完整版| 欧美色视频一区免费| 久久久久久久久免费视频了| 精品电影一区二区在线| 90打野战视频偷拍视频| 免费看日本二区| 一个人看视频在线观看www免费 | 一进一出好大好爽视频| 成年免费大片在线观看| 99国产极品粉嫩在线观看| 90打野战视频偷拍视频| 免费在线观看日本一区| 国产精品一及| 日韩欧美在线二视频| 亚洲精品在线观看二区| 成人av在线播放网站| 一个人看的www免费观看视频| 国产一区二区三区在线臀色熟女| 啦啦啦观看免费观看视频高清| 色噜噜av男人的天堂激情| bbb黄色大片| 日本成人三级电影网站| 99久久无色码亚洲精品果冻| 国产免费男女视频| 国产午夜精品久久久久久| 99久久成人亚洲精品观看| 午夜影院日韩av| 激情在线观看视频在线高清| 亚洲av日韩精品久久久久久密| 欧美国产日韩亚洲一区| 在线观看一区二区三区| 中出人妻视频一区二区| 国产av在哪里看| 久久久色成人| 九九在线视频观看精品| 久久天躁狠狠躁夜夜2o2o| 99久久99久久久精品蜜桃| 国产精品一及| 亚洲av电影不卡..在线观看| 亚洲精品在线观看二区| 久久天躁狠狠躁夜夜2o2o| 亚洲av成人精品一区久久| 成人av一区二区三区在线看| 1024香蕉在线观看| 日韩av在线大香蕉| 夜夜夜夜夜久久久久| 少妇的逼水好多| 小说图片视频综合网站| 日韩欧美一区二区三区在线观看| av视频在线观看入口| 亚洲精品乱码久久久v下载方式 | 婷婷亚洲欧美| av国产免费在线观看| 午夜福利在线观看吧| 国内久久婷婷六月综合欲色啪| 变态另类成人亚洲欧美熟女| 国产私拍福利视频在线观看| 久久精品91无色码中文字幕| 天堂影院成人在线观看| 国产极品精品免费视频能看的| 男女床上黄色一级片免费看| 桃色一区二区三区在线观看| 日韩国内少妇激情av| 成年女人永久免费观看视频| 看免费av毛片| 黄片小视频在线播放| 国产激情久久老熟女| 村上凉子中文字幕在线| 中文字幕精品亚洲无线码一区| 成人特级黄色片久久久久久久| 岛国在线免费视频观看| www日本在线高清视频| 极品教师在线免费播放| 黑人操中国人逼视频| 亚洲精品国产精品久久久不卡| 国产高清videossex| 在线观看一区二区三区| 精品99又大又爽又粗少妇毛片 | 我要搜黄色片| 国产亚洲精品一区二区www| 国产成人福利小说| 欧美极品一区二区三区四区| 日本黄大片高清| 免费看十八禁软件| 欧美日韩国产亚洲二区| 88av欧美| xxx96com| 99精品欧美一区二区三区四区| 国内久久婷婷六月综合欲色啪| 精华霜和精华液先用哪个| 99热6这里只有精品| 日本黄大片高清| 久久久久九九精品影院| 日韩中文字幕欧美一区二区| 嫁个100分男人电影在线观看| 国产精品99久久99久久久不卡| 亚洲精品中文字幕一二三四区| 欧美乱码精品一区二区三区| 听说在线观看完整版免费高清| 亚洲av中文字字幕乱码综合| 国产黄a三级三级三级人| 亚洲在线自拍视频| 亚洲精品美女久久久久99蜜臀| 九色国产91popny在线| 久久久成人免费电影| 特大巨黑吊av在线直播| 少妇丰满av| 国产v大片淫在线免费观看| 亚洲乱码一区二区免费版| 老司机午夜十八禁免费视频| 好男人电影高清在线观看| 99精品久久久久人妻精品| 亚洲国产高清在线一区二区三| 亚洲精品久久国产高清桃花| 国语自产精品视频在线第100页| а√天堂www在线а√下载| 国产精品99久久久久久久久| 亚洲av第一区精品v没综合| 国产亚洲精品一区二区www| 最近视频中文字幕2019在线8| 波多野结衣巨乳人妻| 女生性感内裤真人,穿戴方法视频| 九色国产91popny在线| 国产91精品成人一区二区三区| 日本三级黄在线观看| 男人舔女人下体高潮全视频| 日本在线视频免费播放| 草草在线视频免费看| 老司机福利观看| www日本黄色视频网| 99久国产av精品| 五月伊人婷婷丁香| 亚洲精品乱码久久久v下载方式 | 18禁裸乳无遮挡免费网站照片| h日本视频在线播放| 国产精品久久久久久人妻精品电影| 亚洲最大成人中文| 久久亚洲真实| 黑人巨大精品欧美一区二区mp4| 中亚洲国语对白在线视频| 国产精品98久久久久久宅男小说| 又大又爽又粗| 国产一级毛片七仙女欲春2| 免费观看的影片在线观看| 成人特级黄色片久久久久久久| 午夜免费激情av| 亚洲电影在线观看av| 国产亚洲av嫩草精品影院| 欧美三级亚洲精品| 国产真实乱freesex| 日韩免费av在线播放| 18禁黄网站禁片午夜丰满| 男人舔女人的私密视频| 97超级碰碰碰精品色视频在线观看| 午夜福利在线在线| 欧美中文日本在线观看视频| 国产精品香港三级国产av潘金莲| 国产精品永久免费网站| 97超视频在线观看视频| 免费观看精品视频网站| 九九热线精品视视频播放| 9191精品国产免费久久| 一夜夜www| 国产毛片a区久久久久| 男女视频在线观看网站免费| 国产乱人伦免费视频| 亚洲五月天丁香| 欧美日韩综合久久久久久 | 特级一级黄色大片| 免费人成视频x8x8入口观看| 熟女电影av网| 99精品久久久久人妻精品| 18禁观看日本| 亚洲一区高清亚洲精品| 久久精品夜夜夜夜夜久久蜜豆| 国产成人啪精品午夜网站| 丰满的人妻完整版| 日韩大尺度精品在线看网址| 一个人免费在线观看的高清视频| 两性午夜刺激爽爽歪歪视频在线观看| 母亲3免费完整高清在线观看| 久久国产精品影院| 1024手机看黄色片| 欧美又色又爽又黄视频| 99久久综合精品五月天人人| 久久精品国产亚洲av香蕉五月| 一本精品99久久精品77| 国产av不卡久久| 中文字幕高清在线视频| 亚洲欧美一区二区三区黑人| 亚洲精品一卡2卡三卡4卡5卡| 高清毛片免费观看视频网站| 老熟妇仑乱视频hdxx| 久久这里只有精品19| 免费在线观看成人毛片| 国产精品99久久久久久久久| 精品久久久久久久毛片微露脸| 精品一区二区三区av网在线观看| 久久久久久久久久黄片| 麻豆一二三区av精品| 最近视频中文字幕2019在线8| 老司机深夜福利视频在线观看| cao死你这个sao货| 动漫黄色视频在线观看| 午夜激情福利司机影院| www日本黄色视频网| 在线播放国产精品三级| 一区福利在线观看| 国产单亲对白刺激| 国产精品影院久久| 亚洲五月婷婷丁香| 国产精品乱码一区二三区的特点| 变态另类丝袜制服| 制服人妻中文乱码| 中文字幕人成人乱码亚洲影| 99久久精品国产亚洲精品| 精品国产超薄肉色丝袜足j| 亚洲黑人精品在线| 国产伦一二天堂av在线观看| 19禁男女啪啪无遮挡网站| 天堂影院成人在线观看| 男人舔女人的私密视频| 国产精品久久视频播放| 国产精品亚洲美女久久久| 19禁男女啪啪无遮挡网站| 欧美极品一区二区三区四区| 欧美+亚洲+日韩+国产| 免费观看的影片在线观看| 网址你懂的国产日韩在线| 俄罗斯特黄特色一大片| 国产1区2区3区精品| 亚洲精品色激情综合| 性欧美人与动物交配| 亚洲 国产 在线| 桃红色精品国产亚洲av| 757午夜福利合集在线观看| 露出奶头的视频| 成人欧美大片| 女生性感内裤真人,穿戴方法视频| 一级毛片高清免费大全| 露出奶头的视频| 亚洲国产欧美网| 十八禁网站免费在线| 成人精品一区二区免费| cao死你这个sao货| 1000部很黄的大片| 少妇的丰满在线观看| 国产欧美日韩一区二区三| 丁香六月欧美| 日日干狠狠操夜夜爽| 午夜两性在线视频| 很黄的视频免费| 最新中文字幕久久久久 | www日本黄色视频网| 国产高清三级在线| 亚洲九九香蕉| 黄色成人免费大全| 国产精品美女特级片免费视频播放器 | 欧美zozozo另类| 九九在线视频观看精品| 久久这里只有精品19| 18禁黄网站禁片免费观看直播| 色尼玛亚洲综合影院| 19禁男女啪啪无遮挡网站| 一个人看视频在线观看www免费 | 久久亚洲真实| 久久久久久人人人人人| 人妻久久中文字幕网| 深夜精品福利| 国产精品99久久久久久久久| 男人的好看免费观看在线视频| 日韩精品青青久久久久久| 成人三级做爰电影| 天堂√8在线中文| 免费在线观看视频国产中文字幕亚洲| 亚洲精品久久国产高清桃花| 国产精品久久久久久亚洲av鲁大| 日本在线视频免费播放| 亚洲无线在线观看| 免费av不卡在线播放| 亚洲人与动物交配视频| 国产精品av视频在线免费观看| 成人欧美大片| 免费搜索国产男女视频| 999久久久国产精品视频| 欧美成人免费av一区二区三区| 天堂动漫精品| 老司机深夜福利视频在线观看| 禁无遮挡网站| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲人成网站高清观看| 黄频高清免费视频| 999精品在线视频| 老司机午夜福利在线观看视频| 国产成年人精品一区二区| 久久精品亚洲精品国产色婷小说| 午夜福利视频1000在线观看| 国产野战对白在线观看| 国产精品一区二区免费欧美| 一个人免费在线观看电影 | 在线看三级毛片| 色综合亚洲欧美另类图片| 一级毛片精品| 亚洲国产欧美一区二区综合| 此物有八面人人有两片| 日韩欧美国产在线观看| 久久中文字幕一级| 国产一级毛片七仙女欲春2| 成年女人毛片免费观看观看9| www.999成人在线观看| 成人高潮视频无遮挡免费网站| 99在线视频只有这里精品首页| 日韩 欧美 亚洲 中文字幕| 成人欧美大片| a级毛片在线看网站| 国产精品久久久久久亚洲av鲁大| 精品久久久久久久久久久久久| 久久久精品欧美日韩精品| 国产亚洲av高清不卡| e午夜精品久久久久久久| 欧美黄色片欧美黄色片| 免费看光身美女| 国产真实乱freesex| 久久亚洲精品不卡| 国产亚洲精品综合一区在线观看| 精品久久久久久久末码| 女人高潮潮喷娇喘18禁视频| 日本一本二区三区精品| 日日干狠狠操夜夜爽| 国内少妇人妻偷人精品xxx网站 | 国产欧美日韩精品亚洲av| 天天一区二区日本电影三级| 国产真实乱freesex| 久久精品夜夜夜夜夜久久蜜豆| 看黄色毛片网站| 亚洲精品中文字幕一二三四区| 麻豆成人av在线观看| 国产亚洲av嫩草精品影院| 成人国产一区最新在线观看| 免费看日本二区| 欧美午夜高清在线| 亚洲欧美日韩高清在线视频| 淫秽高清视频在线观看| 国内精品一区二区在线观看| 俺也久久电影网| ponron亚洲| 久久精品国产99精品国产亚洲性色| 国产精品av视频在线免费观看| 淫妇啪啪啪对白视频| 中文字幕熟女人妻在线| 婷婷亚洲欧美| 久久午夜亚洲精品久久| 国产男靠女视频免费网站| www.精华液| 长腿黑丝高跟| 香蕉久久夜色| 国产精品久久视频播放| 一区二区三区高清视频在线| 三级毛片av免费|