王淏
摘要:隨著計算機技術(shù)的不斷成熟,許多方便的計算機技術(shù)被運用在我的在我們生活中,但在這一背景下也滋生了許多不法網(wǎng)絡(luò)行為,深度造假就是其中之一。深度造假利用機器學(xué)習(xí),對信息源進行拆分,替換,能達到以假亂真的效果。 現(xiàn)階段,大部分民眾是通過自己眼睛,常識去判斷信息的真實性,深度造假這一技術(shù)會讓絕大部分民眾的信息識別能力大幅下降,沒有辦法準確識別信息是否真實,本文通過對deepfake進行算法解析,并模擬多次fakeapp進行數(shù)據(jù)模型訓(xùn)練,從多次實驗?zāi)M中進行歸納總結(jié),可出結(jié)論;深度造假在對生命周期進行學(xué)習(xí)時,只能模擬大體上的生命特征,但無法模擬細小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點對深度造假軟件進行取證。
關(guān)鍵詞:深度造假;生命周期;deepfake;信息真實
1 引言
1.1 研究背景
隨著時代的不斷進步,大數(shù)據(jù)的應(yīng)用越來越廣泛,人工智能即AI應(yīng)運而生,逐漸被應(yīng)用在各個領(lǐng)域。然而隨著人工智能技術(shù)的不斷成熟,普及,隨之帶來的是一系列安全問題。目前國外已經(jīng)出現(xiàn)的“深度造假”就是人工智能的一個體現(xiàn)。該程序是利用給程序進行不斷的數(shù)據(jù)學(xué)習(xí),數(shù)據(jù)的大量“喂食”讓程序進行一個數(shù)據(jù)模擬。
1.2 研究現(xiàn)狀
深度造假是利用一個程序的反復(fù)學(xué)習(xí),加深學(xué)習(xí),收集大量的數(shù)據(jù)資料推導(dǎo)出模型,并利用模型進行造假活動?!吧疃仍旒佟笨瓷先ヅc真人并無差別但是其本質(zhì)上就是模型模仿的過程。就像美國紐約大學(xué)法學(xué)兼職教授保羅·巴雷特說,簡單來講,“深度造假”就是借助深度學(xué)習(xí)手段制作的虛假視頻。深度學(xué)習(xí)系統(tǒng)可以從多個角度研究目標人物的照片和視頻,然后模仿其行為和說話模式,從而制造出具有說服力的虛假內(nèi)容。[1]這種“深度造假”的危險在于,這種技術(shù)可以讓人相信原本并不真實存在的東西是真實的。
1.3 研究內(nèi)容
本文從人工智能的本質(zhì)出發(fā)對其證明,探討了試圖證明神經(jīng)網(wǎng)絡(luò)的算法,模擬了深度學(xué)習(xí)所產(chǎn)生的深度造假運行形式,并通過列舉了一系列范例揭示了人工智能取證系統(tǒng)可以針對哪一點進行取證。
2 deepfake實際運行模擬實驗
為了驗證本實驗猜想,本文對深度造假進行了模擬實驗,模擬deepfake的運行過程,首先我們需要下載CUDA,CuDnn,VS2015等文件,并將其安裝在電腦中 ,接著下載fakeapp,并在其原路徑下壓解CORE文件。
由此將fakeAPP的日志環(huán)境,運行條件搭建好,接下來進行視頻素材人物解析,
注;本文在實驗中采用了抖音軟件中某知名網(wǎng)紅視頻,以及演藝圈某知名明星視頻作為實驗素材,(本人聲明以下為實驗數(shù)據(jù),結(jié)果視頻第一時間刪除,并承諾一切相關(guān)視頻不得用于商業(yè)用途。)接著打開fakeapp的軟件界面;
選中GET DATESET 出現(xiàn)如下界面,將實驗素材放入程序中,這一步的目的是將視頻分割成圖片,然后從圖片中提取臉部。這個環(huán)節(jié)只需要填寫兩個地方,一個是Vidoe視頻路徑,一個是幀率FPS,默認為30。之后開始運行;
接著用同樣的方式操作FTM.mp4,最好得出兩個視頻素材的圖片,面部特征數(shù)據(jù)具體過程和上述過程一致,最后得出如圖; 接下來進行第二步,訓(xùn)練模型模型是很重要的一個數(shù)據(jù)分析,也是一個極其消耗時間的東西。訓(xùn)練模型對電腦配置的要求也是比較高。本文實驗時不具備高配置實驗環(huán)境,因此用時3天建立了一個訓(xùn)練模型,Mode是模型的保存路徑? Data A: 被換的人臉Date B: 拿去換的人臉,
輸入路徑之后,點擊TRAIN開始訓(xùn)練。稍等片刻下面就會顯示Loss A:xxxx ,LossB:xxxx 。 同時Model 目錄下除了四個文件。同時還會跳出一個有很多臉的預(yù)覽窗口。如圖;
這一個環(huán)節(jié)是非常耗時間的,一般需要幾天時間,在這期間我們可以關(guān)注上圖紅框內(nèi)的數(shù)值,當兩者的數(shù)值差在0.01到0.02之間時,人臉預(yù)覽圖越來越清晰,第二列第三列和第一列一樣清晰,這時候這個訓(xùn)練過程基本上就已經(jīng)結(jié)束了,接下來我們就可以開始第三步的準備工作,首先將訓(xùn)練模型整理好,檢查文件路徑,即可開始第三步,生成視頻。生成視頻的過程分為幾個步驟。首先,輸入Model 路徑。Video路徑 頻率(30)然后,點擊Create。然后程序自動開始,處理過程可分成4個階段。生成圖片、截取臉部、合成圖片、合成視頻。如圖所示;
以上為其中一個實驗過程,本次實驗選取時間,空間為環(huán)境變量進行多次實驗?zāi)M,通過6次實驗?zāi)M,得出以下圖表。
本實驗通過對模型訓(xùn)練的時間進行控制,來進行實驗,從而來得到以上數(shù)據(jù),通過以上數(shù)據(jù)可以看出模型訓(xùn)練時間越短誤差值越大,其合成的視頻清晰度,相似度越低。而生命周期特征則是無論訓(xùn)練時間如何變化,一直在5~6之間來回波動,該實驗說明了模型訓(xùn)練的時間長短并不影響生命周期特征的變化。這說明了deepfake對生命周期的模擬是一個定值,不能精準模擬,而模型訓(xùn)練的時間長短只會影響其結(jié)果的清晰度與相似度。因此可以得出結(jié)論;人工智能取證系統(tǒng)針對深度造假的取證方向受生命周期尺度因子變化而變化,即;深度造假在對生命周期進行學(xué)習(xí)時,只能模擬大體上的生命特征,如;眨眼,表情等,但無法模擬細小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點對深度造假軟件進行取證。
3 結(jié)論
通過實驗?zāi)M算法解析,我們發(fā)現(xiàn),訓(xùn)練模型受到時間,環(huán)境的影響,其會使得其清晰度,相似度受到改變。而其生命周期特征是在一個特定的值來回波動。從實驗總結(jié)得出結(jié)論;人工智能取證系統(tǒng)針對深度造假的取證方向受生命周期尺度因子變化而變化,即;深度造假在對生命周期進行學(xué)習(xí)時,只能模擬大體上的生命特征,如;眨眼,表情等,但無法模擬細小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點對深度造假軟件進行取證。
參考文獻:
[1] 李鬼變李逵!“深度造假”視頻危害日益加劇,劉霞-《科技日報》-2019.