劉新宇
互聯(lián)網(wǎng)時(shí)代,讀者并不缺乏信息,但一些真正具有傳播價(jià)值的內(nèi)容,卻往往淹沒于信息洪流之中。力求將最有價(jià)值的信息,最有銳度、溫度、深度和多維度的思考與表達(dá),最值得閱讀的網(wǎng)絡(luò)優(yōu)質(zhì)原創(chuàng)內(nèi)容,快速呈現(xiàn)給讀者,是《世界文化》與騰訊《大家》建立合作的初衷與共同努力的方向?!尽按蠹摇遍喿x】每期將臻選《大家》所匯聚的中文圈知名學(xué)者、專欄作家的最新文章,與讀者分享“大家”眼中的“世界文化”。
我們過去說,歷史是個(gè)任人打扮的小姑娘,那么現(xiàn)在,現(xiàn)實(shí)也是了。
幾個(gè)月前,以ZAO為首的換臉視頻在中國(guó)突然大火,上傳一張照片,迅速得到自己為主角的小視頻,這是廣大人民群眾跟深偽的第一次親密接觸。然而,馬上就有質(zhì)疑指出其中對(duì)于個(gè)人隱私的潛在風(fēng)險(xiǎn),以及深偽跟色情產(chǎn)業(yè)的微妙聯(lián)系,于是,我們跟深偽的“貼面舞”來去匆匆。
然而,根據(jù)我在美國(guó)華府所見,對(duì)于深偽,美國(guó)政界、學(xué)界的警惕遠(yuǎn)超中國(guó)——近期,隨著美國(guó)總統(tǒng)大選的臨近,越來越多的媒體和智庫(kù)開始擔(dān)心基于選舉的民主政治制度,甚至可能無法承受這種技術(shù)之重。
一段在YouTube上走紅的、前總統(tǒng)奧巴馬爆粗現(xiàn)總統(tǒng)特朗普的視頻,可以看做是深偽的牛刀小試。視頻中,奧巴馬在疑似白宮辦公室的地方,以經(jīng)典的奧巴馬腔,一本正經(jīng)地說特朗普是個(gè)徹底的XX。
視頻不是真的,但美國(guó)人民的擔(dān)心確實(shí)是。
據(jù)CNN的報(bào)道,五角大樓為應(yīng)對(duì)深偽,拉上幾家最牛的研究機(jī)構(gòu)和實(shí)驗(yàn)室,成立了“先進(jìn)研發(fā)項(xiàng)目防御局”(DARPA)。甚至有官方聲音稱,這個(gè)技術(shù)具有武器級(jí)的重大威脅;Facebook據(jù)說也砸下重金,研發(fā)深偽識(shí)別技術(shù)。不管華盛頓還是硅谷,現(xiàn)在媒體也摻和進(jìn)來,同聲合唱對(duì)這種造假技術(shù)的天大的擔(dān)心。那到底這個(gè)讓美國(guó)寢食不安的深偽是什么?
深偽(Deepfake),簡(jiǎn)單說就是一種軟件技術(shù),由AI執(zhí)行,可以對(duì)被模仿者的面部建模,來合成天衣無縫的偽造視頻。深偽的神奇之處在于,即便你從未做過那些事,說過那些話,去過那些地方,碰到深偽,一切都不是問題,一切都能讓圍觀群眾的眼睛信以為真。除了奧巴馬,YouTube上還有一大票名人深偽,小布什、扎克伯格、尼古拉斯·凱奇……深偽,像黑暗中蟄伏的猛獸,正蠢蠢欲動(dòng)。
一般來說,要深偽,首先要搜集被模仿者的原始素材,包括視頻、聲音和照片,然后通過專門的軟件,模仿你的表情、習(xí)慣、聲音、肢體動(dòng)作,甚至說話節(jié)奏。在無人提醒的情況下,深偽很難被察覺,即便有人提醒,在高手制作的視頻面前,你也很難確認(rèn)那是“真的假”。
深偽首次引起公眾注意是在2017年,Reddit的某些無聊用戶,把一位名人的臉和一部色情片深偽了一下?,F(xiàn)在,隨著機(jī)器深度學(xué)習(xí)的推進(jìn),深偽技術(shù)一日千里——大量原始素材?漫長(zhǎng)的制作時(shí)間?超強(qiáng)算法能力?這些以前的條件現(xiàn)在統(tǒng)統(tǒng)不需要了。這么說吧,通過開源軟件,即便不專業(yè)的人,也可以輕松深偽。當(dāng)然,你極客,非要達(dá)到亂真的效果,那確實(shí)還需要點(diǎn)專業(yè)能力。但對(duì)比兩年前,深偽粉可以拍胸脯問,隨著技術(shù)的迅速成熟,這一門檻被踏平的日子還會(huì)遠(yuǎn)嗎?
深偽的力量不僅取決于它們看上去有多真,更重要的是它們傳播得有多快。
人們深信自己的眼睛,這是進(jìn)化賦予我們的本能。千百年來,我們就是靠著雙眼所見來判斷真?zhèn)?,做出決定。但這種本能適應(yīng)的是那個(gè)真實(shí)世界,那雙眼不會(huì)被輕易欺騙的世界。面對(duì)這個(gè)眼見不為實(shí)的新世界,人類的生物進(jìn)化和認(rèn)知能力已經(jīng)被技術(shù)進(jìn)化和AI耍得團(tuán)團(tuán)轉(zhuǎn)。
當(dāng)一個(gè)爆炸性的深偽視頻通過互聯(lián)網(wǎng)和手機(jī)推送到你面前時(shí),即便幾分鐘后就被澄清那是個(gè)假消息,但就在這短短的片刻之內(nèi),它可能就已經(jīng)擴(kuò)散給數(shù)以千萬計(jì)的人。在大眾心理學(xué)中,面對(duì)兩個(gè)截然相反的消息,那個(gè)不同尋常的更容易被接受。因此,即便面對(duì)澄清,我們也往往會(huì)認(rèn)為那不過一種官方的掩飾手段。設(shè)想,當(dāng)你面對(duì)兩個(gè)都說對(duì)方是假的視頻,而視頻本身看上去都如此真實(shí),你會(huì)如何做判斷,而且,如果不是兩個(gè),而是同時(shí)有三四個(gè)羅生門般的視頻,估計(jì)大部分正常人都會(huì)被徹底搞暈。
自媒體的興起是這一問題的催化劑,因?yàn)闆]有“中間商賺差價(jià)”,理論上,所有人都可能把深偽視頻直接推給所有人。未來,真要深偽,根本不需要一個(gè)團(tuán)隊(duì),一人足矣!設(shè)想一下,一個(gè)不懷好意的深偽極客,躲在自己房間里就有可能引發(fā)一次現(xiàn)象級(jí)的信息海嘯,當(dāng)無數(shù)海嘯以迅雷不及掩耳之勢(shì)鋪天蓋地而來時(shí),一個(gè)充滿混亂和無所適從的時(shí)代必然隨后而至。
僅在2019年,1.5萬個(gè)深偽視頻已經(jīng)上網(wǎng),其中96%都是色情視頻。事實(shí)上,已經(jīng)有人因此深受其害。
Rana Ayyu,一位印度女調(diào)查記者,因?yàn)閳?bào)道觸怒了不少網(wǎng)民,她的穆斯林身份,更是給她帶來經(jīng)常性的社交媒體暴力。去年4月,一名8歲的克什米爾小女孩被強(qiáng)奸,Ayyu在BBC的報(bào)道中,批評(píng)印度政府對(duì)頻發(fā)的兒童性犯罪打擊不力。第二天,先是有人偽造她的推特截圖,說“我恨印度和印度人”“我愛巴基斯坦”“我贊同兒童被強(qiáng)奸,只要是以伊斯蘭教的名義”。
更可怕的是第二天,當(dāng)她約了朋友在咖啡館商量怎么對(duì)付這些事的時(shí)候,接到編輯的信息和一條鏈接,點(diǎn)開一看,是一部她做主角的色情片——?jiǎng)e有用心者把她的臉深偽到了一部色情視頻中作為報(bào)復(fù)。Ayyu崩潰到進(jìn)了醫(yī)院,之后即使她做了很多努力,但無論她如何澄清這一切,她的每一條社交媒體發(fā)言后永遠(yuǎn)跟著無數(shù)的謾罵,其中夾雜著大量這部深偽色情片的截圖。
更有甚者,2018年6月,還是在印度,一部?jī)和唤壖艿囊曨l引發(fā)了多起暴亂,8人被殺,其中5人僅僅是因?yàn)槁愤^一個(gè)村莊,下車后跟一個(gè)當(dāng)?shù)嘏⒄f了句話,就被隨后趕來的至少35個(gè)村民圍毆致死,隨后趕來的警察也沒能幸免,至少4名警察被打傷。而這部網(wǎng)上傳得沸沸揚(yáng)揚(yáng)的所謂兒童綁架視頻,其實(shí)是被深偽的一部巴基斯坦兒童安全活動(dòng)的資料片,面對(duì)這種無中生有的荒誕悲劇,人們不禁在想,在未來這些會(huì)不會(huì)成為某種常態(tài)。
深偽不僅影響一些社會(huì)議題,甚至成為新型經(jīng)濟(jì)犯罪的手段。根據(jù)《華爾街日?qǐng)?bào)》報(bào)道,一家英國(guó)能源公司被犯罪分子利用AI合成技術(shù),模仿公司CEO的聲音,騙走了24.3萬美元。設(shè)想,在電信詐騙如此泛濫的今天,如果你的家人,特別是老年人,聽到你“親口”說要轉(zhuǎn)賬多少應(yīng)對(duì)某個(gè)“緊急”情況,他們會(huì)怎么做?或者你自己,聽到你孩子的班主任,或者你的愛人在電話里焦急地告訴你孩子“出了車禍”,讓你趕緊打一筆急救費(fèi),你會(huì)怎么做?電話不行,那深偽一個(gè)視頻電話又如何?普通人在深偽面前幾乎毫無還手之力。
美國(guó)即將迎來2020年總統(tǒng)選舉,情報(bào)部門發(fā)出警告,按照目前深偽技術(shù)發(fā)展的速度,很有可能政治對(duì)手之間會(huì)有沖動(dòng)利用它,在“關(guān)鍵時(shí)刻”給對(duì)手致命一擊,特別是那些處于不利地位的候選人,精心準(zhǔn)備一個(gè)足以讓對(duì)手翻盤的話題,然后搜集對(duì)手的照片和視頻(對(duì)于公眾人物來說,沒有任何難度),深偽一個(gè)含有某些真實(shí)的假視頻,然后在對(duì)手根本來不及辯解的時(shí)刻,比如投票前幾個(gè)小時(shí),利用無法追蹤IP的技術(shù)上傳到所有的社交平臺(tái),那將造成巨大的混亂,甚至顛覆性的結(jié)果。
這種改造其實(shí)并不是什么新東西。1990年代,Photoshop給了修圖師先進(jìn)工具,從而使我們有了P圖的概念。而現(xiàn)在,正如一位研究者所言,也許人類正在跨入一個(gè)“真實(shí)世界崩潰的大時(shí)代”。
BBC的新劇《真相捕捉》講了男主陷入一場(chǎng)綁架和謀殺指控,而“作案的全過程”都是由街頭的視頻探頭被檢測(cè)中心當(dāng)場(chǎng)看到的,而事實(shí)上,這一切不過是利用深偽技術(shù)合成的。這部新劇從法律角度發(fā)出了質(zhì)疑:如果深偽能夠任意制作視頻,那么現(xiàn)在法庭的視頻采信證據(jù)將不足為憑,而這將深刻影響各國(guó)的審判體系。
怎么辦?
第一個(gè)辦法當(dāng)然是增強(qiáng)識(shí)別能力,用AI去對(duì)付AI。五角大樓組織的DARPA事實(shí)上就是這個(gè)思路的產(chǎn)物。除了研發(fā)新型識(shí)別軟件,同時(shí)還需要改造硬件,比如在手機(jī)、攝像頭、錄像機(jī),甚至圖形工作站等等涉及深偽制作的硬件中燒入隱含識(shí)別碼,這樣便于追蹤視頻的來源。然而,哈利·法瑞德,一位著名的圖像識(shí)別專家認(rèn)為,目前的圖像識(shí)別技術(shù)已經(jīng)被深偽遠(yuǎn)遠(yuǎn)甩出幾條街。我們現(xiàn)在更有可能的不是識(shí)別出哪些是假視頻,而是被假視頻愚弄,認(rèn)假為真。
在10月底華盛頓著名智庫(kù)CSIS舉行的一次深偽研討會(huì)上,與會(huì)專家提出要加強(qiáng)對(duì)于公眾的深偽教育。但是,如上所述,即便所有人都知道深偽的存在,我們難道就有能力辨別么?充其量,我們會(huì)對(duì)所有的事情將信將疑,而日常生活中對(duì)于事實(shí)和確定感的喪失,最終結(jié)果就是我們將越來越憑借個(gè)人的喜好和主觀行事,自文藝復(fù)興以來建立的客觀和理性大廈,將逐漸被侵蝕,另一種“迷信”將彌散到人類社會(huì)中去。直到某一天,我們不借助AI就無法判別真相的時(shí)候,誰掌握了AI,理論上,誰就具備了左右真實(shí)世界的力量。
專家同時(shí)指出,辨別真?zhèn)我兄叵⒃矗@個(gè)提法跟倚重AI本質(zhì)上沒有區(qū)別?;ヂ?lián)網(wǎng)本身是去中心化的產(chǎn)物,在它誕生半個(gè)世紀(jì)之后,我們要再次投靠中心化、權(quán)威和認(rèn)證來保障真實(shí)嗎?這不僅是理念之爭(zhēng),背后有著一個(gè)更本質(zhì)的問題:如果我們只相信權(quán)威機(jī)構(gòu)和平臺(tái)的信息,那么誰來監(jiān)管它們?如果它們被操控,喪失了真實(shí)客觀,誰有能力來糾正,誰又有能力來告知我們真相——即便真相擺在面前,但因?yàn)樗鼈儾皇莵碜詸?quán)威和中心,因此真的也為假,沒有人會(huì)相信。到那時(shí),我們就會(huì)成為傳說中那些永遠(yuǎn)叫不醒的人。
還有學(xué)者提出要借助法律,也許吧。在美國(guó)弗吉尼亞州已通過法律,禁止深偽色情視頻;加州和德州更把用于選舉的深偽行為視為犯罪……然而,這真的行得通嗎?
在CNN的深偽專題中,專家們認(rèn)為這種技術(shù)必將極大地影響世界,甚至改變歷史進(jìn)程。
試想如果阿姆斯特朗時(shí)代有深偽技術(shù),那么誰會(huì)真的相信美國(guó)人登上過月球?又或者,那段導(dǎo)致尼克松下臺(tái)的水門事件的電話錄音,也根本毫無說服力,那么這位開創(chuàng)了中美邦交正常化的總統(tǒng),大概率不會(huì)被國(guó)會(huì)啟動(dòng)彈劾,從而獲得連任。由此想到在“烏克蘭電話門”旋渦中心的特朗普,怪不得氣定神閑,也許官司真打起來,一段音頻恐怕已經(jīng)很難像當(dāng)初那樣有殺傷力。
借用深偽視頻里“奧巴馬”的話說,既然你的敵人可以讓你在任何時(shí)間、任何地點(diǎn)說任何話,那么你其實(shí)可以不認(rèn)任何你說的話,無論真假。