王祿生
2019年3月,技術(shù)人員利用“深度偽造”〔1〕“Deepfake”最初只是在互聯(lián)網(wǎng)上傳播“換臉視頻”作者的一個(gè)代號(hào)。在其后的發(fā)展傳播中逐步被作為此類技術(shù)的代號(hào)。技術(shù)“換臉”明星楊冪的事件在輿論上引起熱議。與部分粉絲稱贊技術(shù)“逆天”“毫無(wú)違和感”形成鮮明對(duì)比的是,被“換臉”的楊冪本人的回應(yīng)卻顯得頗為低調(diào)和耐人尋味。盡管視頻制作者第一時(shí)間宣稱“主要用于技術(shù)交流,并無(wú)營(yíng)利行為”,然而,該技術(shù)運(yùn)用仍然引發(fā)各界對(duì)侵權(quán)甚至是在色情視頻中使用的擔(dān)憂。就在各界圍繞上述問(wèn)題展開(kāi)熱烈討論方興未艾之際,一款叫作ZAO的AI換臉軟件于同年8月底發(fā)布并迅速席卷了中國(guó)的網(wǎng)絡(luò)。實(shí)際上,“深度偽造”技術(shù)最初名聲大噪于2017年11月。當(dāng)時(shí),利用技術(shù)換臉明星生產(chǎn)的多部色情視頻在美國(guó)“紅迪網(wǎng)”上傳播并引發(fā)各界關(guān)注?!?〕據(jù)不完全統(tǒng)計(jì),艾瑪·沃特森(Emma Watson)、娜塔莉·波特曼(Natalie Portman)、加爾·加多(Gal Gadot)、米歇爾·奧巴馬(Michelle Obama)、伊萬(wàn)卡·特朗普(Ivanka Trump)和凱特·米德?tīng)栴D(Kate Middleton)都是“深度偽造”技術(shù)的受害者。2018年1月,使用“深度偽造”技術(shù)的應(yīng)用程序正式上線,普通公眾在沒(méi)有深厚技術(shù)背景的情況下也可以嘗試“換臉”,這進(jìn)一步加劇了“換臉視頻”的傳播。“換臉”的對(duì)象也迅速由明星、政客擴(kuò)展到朋友、同學(xué)、同事。由于“換臉視頻”的迅速傳播,“紅迪網(wǎng)”關(guān)閉了有關(guān)“深度偽造”技術(shù)的討論板塊。據(jù)稱該版塊注冊(cè)用戶已超過(guò)10萬(wàn)人。其后,聊天應(yīng)用程序Discord也明確禁止相關(guān)視頻傳播?!?〕See Kevin Roose,Here Come the Fake Videos,Too,THE NEW YORK TIMES (Mar.4,2018),https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html.與之類似,出道即巔峰的ZAO也在上線3天之后被微信屏蔽防問(wèn)。伴隨“換臉視頻”傳播的加劇的是對(duì)“深度偽造”技術(shù)是否以及如何規(guī)制的激烈討論。在此背景下,系統(tǒng)地梳理該技術(shù)的技術(shù)邏輯、技術(shù)特征、應(yīng)用風(fēng)險(xiǎn)以及規(guī)制方式就成為學(xué)術(shù)界迫切需要回應(yīng)的問(wèn)題。
筆者將從技術(shù)邏輯切入,闡述“深度偽造”技術(shù)特征及應(yīng)用風(fēng)險(xiǎn),分析現(xiàn)有技術(shù)規(guī)制和法律規(guī)制無(wú)法有效回應(yīng)的根本原因,并從平臺(tái)責(zé)任、作者義務(wù)和信息素養(yǎng)三個(gè)方面構(gòu)建新的一體化規(guī)制體系,力圖最終馴服技術(shù)的“巨魔”,將其限制在合理使用的范圍之內(nèi)。本文探討的內(nèi)容不僅適用于“深度偽造”技術(shù)及其實(shí)現(xiàn)的“換臉視頻”,同樣適用于未來(lái)具有高度真實(shí)性的音頻、圖片、視頻的系列處理技術(shù)。
眾所周知,現(xiàn)階段主流的“換臉視頻”是通過(guò)“深度偽造”技術(shù)生成的?!吧疃葌卧臁笔怯⑽摹吧疃葘W(xué)習(xí)”和“偽造”的合成詞。它實(shí)質(zhì)上是一種聲音、圖像與視頻的智能處理技術(shù),能夠以極度逼真的方式模仿特定人物或者讓特定人物看起來(lái)在做特定的事件,以至于未經(jīng)過(guò)訓(xùn)練的觀看者通常無(wú)法辨別其真?zhèn)巍?/p>
如果拋開(kāi)具體的稱謂不談,從技術(shù)邏輯來(lái)看,“深度偽造”依托的是“深度學(xué)習(xí)”技術(shù),它是包括由相互聯(lián)系節(jié)點(diǎn)組成的多層神經(jīng)網(wǎng)絡(luò),可以根據(jù)輸入的數(shù)據(jù)進(jìn)行自動(dòng)的計(jì)算并完成特定的任務(wù)?!吧疃葌卧臁钡倪^(guò)程就是將圖片、視頻等數(shù)據(jù)“喂”給“換臉?biāo)惴ā?,然后由算法在?xùn)練的基礎(chǔ)上自動(dòng)完成換臉操作?!?〕See Samantha Cole,AI-Assisted Fake Porn Is Here and We're All Fucked,MOTHERBOARD (Dec.11,2017),https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn.詳細(xì)而言,就是通過(guò)深度學(xué)習(xí)的算法,去識(shí)別目標(biāo)人物(比如明星、政治家等)不同角度、姿態(tài)與表情的照片,然后不斷訓(xùn)練從而自動(dòng)生成偽造的圖片,并將其覆蓋到原有視頻人物的臉部,形成“換臉視頻”。其實(shí)質(zhì)可以簡(jiǎn)單理解為從現(xiàn)有“源數(shù)據(jù)”(目標(biāo)人物)中通過(guò)算法生成“新數(shù)據(jù)”(偽造視頻)的過(guò)程。理論上,在足夠訓(xùn)練數(shù)據(jù)和訓(xùn)練時(shí)間的基礎(chǔ)上,“深度偽造”技術(shù)可以把任何人的臉“交換”成制作者想要的任何視頻。
當(dāng)然,能讓“深度偽造”在短時(shí)間內(nèi)名聲大噪,依靠的并非一般意義的深度學(xué)習(xí)技術(shù),而是采用了其中的一種名為“對(duì)抗生成網(wǎng)絡(luò)”(簡(jiǎn)稱為GAN)的模型。與傳統(tǒng)深度學(xué)習(xí)技術(shù)單鏈條相比,GAN引入了“對(duì)抗”機(jī)制,由兩組神經(jīng)網(wǎng)絡(luò)共同進(jìn)行。其中一組神經(jīng)網(wǎng)絡(luò)的算法定位為“生成器”,它負(fù)責(zé)基于“源數(shù)據(jù)”創(chuàng)建目標(biāo)圖像模型,從而生成偽造的圖像;另一組神經(jīng)網(wǎng)絡(luò)的定位為“鑒別器”,它負(fù)責(zé)基于真實(shí)的目標(biāo)圖像對(duì)“生成器”生成的偽造圖像進(jìn)行驗(yàn)證。每一種算法都在對(duì)另一種算法進(jìn)行改進(jìn),從而加速訓(xùn)練的速度,進(jìn)而生成高逼真度的虛假視頻內(nèi)容??梢?jiàn),與傳統(tǒng)深度學(xué)習(xí)單組神經(jīng)網(wǎng)絡(luò)相比,“對(duì)抗生成網(wǎng)絡(luò)”類似于不斷演變的貓鼠游戲,偽造者(生成器)與偵查者(鑒別器)之間不斷通過(guò)“對(duì)抗”自我優(yōu)化。通過(guò)這種“無(wú)監(jiān)督學(xué)習(xí)”的模式,訓(xùn)練的數(shù)據(jù)越多,輸出的效果就越好。對(duì)于名人、政治家,由于互聯(lián)網(wǎng)上具備足夠多的訓(xùn)練數(shù)據(jù),這就導(dǎo)致“換臉視頻”以假亂真。
為了更好地說(shuō)明“換臉視頻”的生成環(huán)節(jié),筆者制作了技術(shù)示意圖。如圖1所示,“深度偽造”技術(shù)大致按照下列順序?qū)崿F(xiàn)“換臉視頻”:第一,從互聯(lián)網(wǎng)(通常是搜索引擎或社交平臺(tái))上獲取給定目標(biāo)人物(“源”)的視頻、圖像,從而形成供人工智能技術(shù)訓(xùn)練的數(shù)據(jù)集——“源數(shù)據(jù)”;第二,借助“對(duì)抗生成網(wǎng)絡(luò)”算法中的“生成器”,通過(guò)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,生成偽造的視頻、圖像(“偽造數(shù)據(jù)”);第三,“對(duì)抗生成網(wǎng)絡(luò)”算法中的“鑒別器”將真實(shí)的目標(biāo)數(shù)據(jù)與“生成器”生成的“偽造數(shù)據(jù)”進(jìn)行比對(duì);第四,當(dāng)判定為“真”時(shí),〔5〕此處的“真”并不是我們?nèi)粘R饬x上理解的真實(shí),而是將偽造數(shù)據(jù)與真實(shí)數(shù)據(jù)對(duì)比之后的相似度。如果“鑒別器”認(rèn)定高度相似,則輸出結(jié)果為1(true);如果鑒別后認(rèn)為不相似,則輸出結(jié)果為0(false)。則可以作為下一步“換臉”的基礎(chǔ)素材;當(dāng)判定為“假”時(shí),則返回優(yōu)化“生成器”的算法;第五,選擇合適的視頻并將視頻中原有人物的臉部圖像替換成目標(biāo)人物的臉部圖像。具體而言,就是將視頻分解成數(shù)百甚至數(shù)千幀,然后將通過(guò)“鑒別器”鑒別的偽造臉部圖像(眉毛、嘴、鼻子和頭部的位置及其動(dòng)作)一幀一幀地映射到視頻原有人物的臉部之上,從而完成“換臉視頻”。最初“換臉視頻”需要人工挑選合適的待替換視頻,但隨著技術(shù)的發(fā)展,已經(jīng)可以通過(guò)目標(biāo)人物的圖像特征自主選擇合適的視頻。
圖1 “深度偽造”技術(shù)GAN模型邏輯示意圖
視頻、圖片的技術(shù)化處理或偽造并非新鮮的事項(xiàng)。近年來(lái),隨著PS等技術(shù)的普及,對(duì)于圖像的修飾與篡改已經(jīng)成為常規(guī)現(xiàn)象?!吧疃葌卧臁敝粤钊藫?dān)憂,是因?yàn)樗歉叨日鎸?shí)性、泛在普適性與快速演化性的綜合?!吧疃葌卧臁钡纳鲜黾夹g(shù)特征將使得潛在造假群體和視頻造假能力均呈現(xiàn)指數(shù)級(jí)躍升。
與一般數(shù)字處理技術(shù)相比,“深度偽造”技術(shù)最為核心的特征就在于高度真實(shí)性,以至于極其難以被發(fā)覺(jué)?!?〕See Robert Chesney,Danielle Citron,Deepfakes and the New Disinformation War:The Coming Age of Post-Truth Geopolitics,98 Foreign Aff.147,147—148(2019).在“深度偽造”技術(shù)出現(xiàn)之前,偽造視頻具有極高的可識(shí)別性。這是因?yàn)樵诤荛L(zhǎng)一段時(shí)間內(nèi),對(duì)于圖像、音頻、視頻的處理存在技術(shù)瓶頸,偽造的圖像無(wú)法解決光線的細(xì)微變化,同時(shí)偽造視頻在篡改語(yǔ)音時(shí)也往往無(wú)法準(zhǔn)確捕捉差異化人群的節(jié)奏和音調(diào)。然而,這些瓶頸隨著“深度偽造”技術(shù)的產(chǎn)生與發(fā)展,業(yè)已或正在或終將被攻克。前文在論及技術(shù)邏輯時(shí)已經(jīng)強(qiáng)調(diào),“深度偽造”技術(shù)是一種“無(wú)監(jiān)督學(xué)習(xí)”,它通過(guò)“對(duì)抗生成網(wǎng)絡(luò)”在自我優(yōu)化中生成偽造的數(shù)據(jù)。對(duì)于這種技術(shù)邏輯,只要有足夠的數(shù)據(jù)和運(yùn)算速度,理論上生成模型會(huì)在“對(duì)抗”中持續(xù)自我迭代并不斷優(yōu)化偽造視頻。那么一個(gè)顯而易見(jiàn)的結(jié)果便是,“更大的數(shù)據(jù)、更好的算法和定制的硬件”將很快讓這些虛假視頻真實(shí)得可怕。〔7〕See Derek B.Johnson and Susan Miller,The Danger of “Deep Fakes”,GLOBAL CYCLING NETWORK (Jul.18,2018),https://gcn.com/articles/2018/07/18/deep-fakes.aspx.普通人在未經(jīng)過(guò)專業(yè)培訓(xùn)的基礎(chǔ)之上,很難區(qū)分和發(fā)現(xiàn)?!皸顑鐡Q臉視頻”就是一位AI技術(shù)愛(ài)好者將港版《射雕英雄傳》(下稱《射雕》)中“朱茵版”黃蓉的臉換成楊冪。有媒體評(píng)論道:“視頻中,楊冪的五官與朱茵的表情幾乎全部融合,難辨真假?!薄?〕劉津?qū)帲骸禔I換臉技術(shù)暗藏法律風(fēng)險(xiǎn)》,《北京日?qǐng)?bào)》2019年3月20日,第14版。此外,瑞士科學(xué)家嘗試用最前沿的人臉識(shí)別系統(tǒng)去識(shí)別“換臉視頻”,結(jié)果錯(cuò)誤率高達(dá)95%。德國(guó)和意大利科學(xué)家的聯(lián)合研究小組測(cè)試了1000段“換臉術(shù)”視頻后發(fā)現(xiàn),普通人必須通過(guò)特殊訓(xùn)練,才能鑒別真?zhèn)??!?〕參見(jiàn)宣晶:《視頻“換臉術(shù)”走近大眾,引爆億級(jí)流量后為何令人擔(dān)憂》,《文匯報(bào)》2019年2月27日,第1版。
與傳統(tǒng)的人工智能技術(shù)相比,“深度偽造”技術(shù)還具有泛在普適性。長(zhǎng)期以來(lái),對(duì)視頻的深度處理技術(shù)壟斷在政府或?qū)嵙Ξ惓?qiáng)大的企業(yè)手中,社會(huì)公眾無(wú)從使用。一部以假亂真的視頻制作通常需要好萊塢式的技巧和預(yù)算。然而,“深度偽造”技術(shù)的出現(xiàn)則在根本上改變了這一格局,使得該技術(shù)開(kāi)始向一般公眾普及。這又可以從三個(gè)方面展開(kāi):其一,“深度偽造”采用的是“無(wú)監(jiān)督學(xué)習(xí)”。相較于“有監(jiān)督學(xué)習(xí)”和“半監(jiān)督學(xué)習(xí)”而言,“無(wú)監(jiān)督學(xué)習(xí)”的訓(xùn)練數(shù)據(jù)不需要標(biāo)注。這一特性使得“深度偽造”技術(shù)具有極強(qiáng)的親民性。因?yàn)橐话愎妭€(gè)人不具備對(duì)海量數(shù)據(jù)實(shí)時(shí)精準(zhǔn)標(biāo)注的條件和能力。其二,“深度偽造”的“源數(shù)據(jù)”具有獲取便捷性。實(shí)際上,就技術(shù)邏輯而言,“深度偽造”是通過(guò)海量“源數(shù)據(jù)”的訓(xùn)練自動(dòng)生成“新數(shù)據(jù)”(偽造圖像)的過(guò)程。其生成精準(zhǔn)度很大程度上取決于“源數(shù)據(jù)”的豐富程度??紤]到人工智能技術(shù)的飛速發(fā)展以及社交媒體上圖片資源的豐富性與易獲取性,制造“換臉視頻”的技術(shù)難度與成本在飛速下降。其三,“深度偽造”無(wú)須安裝編程語(yǔ)言和開(kāi)源軟件庫(kù)就能運(yùn)行,操作簡(jiǎn)單。盡管硬件上需要GPU的支持,但通過(guò)短期租用云平臺(tái)的方式可以有效解決。其四,更為重要還在于,隨著一款免費(fèi)、易于使用的應(yīng)用程序的出現(xiàn),這項(xiàng)技術(shù)迅速向一般社會(huì)公眾普及,其技術(shù)門檻進(jìn)一步降低。普通民眾只需要一兩個(gè)目標(biāo)人物的高清視頻,8-12小時(shí)就可以制作一部自動(dòng)換臉的視頻。〔10〕參見(jiàn)李覲麟:《AI換臉技術(shù)的玩法還有很多》,《電腦報(bào)》2018年9月10日,第12版。
“換臉視頻”要達(dá)到以假亂真還需要音頻處理技術(shù)的支持。傳統(tǒng)上,偽造特定人員聲音存在明顯的技術(shù)瓶頸,機(jī)器合成聲音極易識(shí)別。隨著人工智能技術(shù)的引入,無(wú)論是谷歌、百度抑或是訊飛都已經(jīng)具備了生成模擬語(yǔ)音的能力,其通過(guò)對(duì)特定人物音色、語(yǔ)言要素的采集與訓(xùn)練,能夠模擬出足以以假亂真的任何內(nèi)容的語(yǔ)音?!?1〕在科大訊飛公司2016年度發(fā)布會(huì)上,曾發(fā)布一段視頻。視頻中,美國(guó)時(shí)任總統(tǒng)奧巴馬用一段流利的中文預(yù)??拼笥嶏w公司的發(fā)布會(huì)取得成功。這實(shí)際上就是用音頻處理技術(shù)模擬的奧巴馬的聲音。參見(jiàn)袁一雪:《讓奧巴馬用中文演講的“聲音魔術(shù)”》,《中國(guó)科學(xué)報(bào)》2016年12月2日,第4版。根據(jù)ASI數(shù)據(jù)科學(xué)公司的一項(xiàng)測(cè)試,通過(guò)語(yǔ)音生成算法,只需要借助兩小時(shí)的語(yǔ)料并訓(xùn)練五天時(shí)間,就可以模擬一份以假亂真的特朗普向俄羅斯宣戰(zhàn)的語(yǔ)音。〔12〕Michael Chertoff and Anders Fogh Rasmussen,The Unhackable Election:What It Takes to Defend Democracy,98 Foreign Aff.156,160(2019).上述音頻處理技術(shù)的嵌入使得“深度偽造”技術(shù)的普及如虎添翼。
前文在談及技術(shù)邏輯時(shí)已經(jīng)論及,“深度偽造”技術(shù)使用的是深度學(xué)習(xí)中的“對(duì)抗生成網(wǎng)絡(luò)”,它在本質(zhì)上是一種“無(wú)監(jiān)督學(xué)習(xí)”,具有極強(qiáng)的自我適應(yīng)性。一般認(rèn)為,該模式不需要過(guò)多的人工干預(yù),尤其適合以一般公眾為服務(wù)對(duì)象的應(yīng)用。實(shí)際上,在最初“對(duì)抗生成網(wǎng)絡(luò)”主要局限于人工智能的研究群體,并未大規(guī)模在社會(huì)上運(yùn)用。不過(guò),“深度偽造”技術(shù)的出現(xiàn)打破了這一局限。研發(fā)者利用谷歌的開(kāi)源學(xué)習(xí)軟件“TensorFlow”來(lái)構(gòu)建“對(duì)抗生成網(wǎng)絡(luò)”在極短時(shí)間內(nèi)就完成了“換臉技術(shù)”的升級(jí)換代并最終實(shí)現(xiàn)“換臉視頻”。〔13〕See Oscar Schwartz,You Thought Fake News Was Bad?Deep Fakes Are Where Truth Goes to Die,THE GUARDIAN (Nov.12,2018),https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.在“深度偽造”技術(shù)發(fā)展的早期,盡管訓(xùn)練過(guò)程是“無(wú)監(jiān)督學(xué)習(xí)”,但訓(xùn)練的“源數(shù)據(jù)”還需要通過(guò)人工尋找大量素材,比如目標(biāo)人物的視頻、音頻、圖片,以及尋找合適的替換視頻。這在一定程度上降低了該技術(shù)的“親民”程度。知名的科技網(wǎng)站“主板”在2018年曾經(jīng)預(yù)測(cè)“深度偽造”技術(shù)在尋找“源數(shù)據(jù)”方面的自動(dòng)化至少需要一年時(shí)間,但事實(shí)上,這個(gè)自動(dòng)化迭代只花費(fèi)了一個(gè)月時(shí)間?,F(xiàn)階段,制作者只需要通過(guò)程序上傳需要替換的目標(biāo)人的照片,軟件可以進(jìn)行人臉識(shí)別,并且海量視頻庫(kù)中自動(dòng)匹配最為合適的身體?!?4〕See Samantha Cole,People Are Using AI to Create Fake Porn of Their Friends and Classmates,MOTHERBOARD (Jan.26,2018),https://motherboard.vice.com/en_us/article/ev5eba/ai-fake-porn-of-friends-deepfakes.“對(duì)抗生成網(wǎng)絡(luò)”利用海量的網(wǎng)絡(luò)資源不斷“無(wú)監(jiān)督”地自我迭代與優(yōu)化,使得“深度偽造”在整體上呈現(xiàn)出一種加速發(fā)展的態(tài)勢(shì)。換言之,“深度偽造”技術(shù)雖然處于早期階段,但其卻包含著巨大的潛力,由于技術(shù)的飛速發(fā)展,我們將很可能立刻面對(duì)無(wú)法區(qū)分真假的“換臉視頻”。
科技哲學(xué)認(rèn)為,技術(shù)是把雙刃劍,可能給社會(huì)帶來(lái)不同程度的風(fēng)險(xiǎn)。偽造他人的言行對(duì)于人類而言并不陌生。在不同的歷史時(shí)期,偽造行為可能以不同形式產(chǎn)生。然而,與傳統(tǒng)技術(shù)相比,“換臉視頻”的破壞力不僅僅在于“偽造”,而更在于“深度”。換言之,“深度偽造”的技術(shù)邏輯與技術(shù)特征的疊加使得對(duì)其應(yīng)用可能產(chǎn)生不同于一般視頻偽造處理技術(shù)的風(fēng)險(xiǎn)?;ヂ?lián)網(wǎng)時(shí)代,尤其是自媒體的發(fā)展,打破了中心化的信息傳播模式。它一方面增加了信息傳播的效率,另一方面也降低了對(duì)虛假信息的控制能力?!吧疃葌卧臁奔夹g(shù)的應(yīng)用風(fēng)險(xiǎn)在互聯(lián)網(wǎng)傳播的特性之下被進(jìn)一步放大進(jìn)而可能產(chǎn)生不可控的局面。
對(duì)“深度偽造”技術(shù)生成物(視頻、圖片、音頻)的應(yīng)用最為直接的風(fēng)險(xiǎn)之一就在其對(duì)被偽造公民的個(gè)人權(quán)利產(chǎn)生影響。在“深度偽造”技術(shù)的起源地美國(guó),該技術(shù)最初用以制作各類的色情換臉視頻——將明星的“臉”替換到其他的色情視頻中。其后,隨著技術(shù)的普及,“換臉”的對(duì)象也迅速由明星、政客向一般公眾擴(kuò)展??梢?jiàn),由于“深度偽造”技術(shù)的高度真實(shí)性、泛在普適性和快速演化性的基本特征,該技術(shù)生產(chǎn)的視頻高度逼真,且越發(fā)以低成本的方式普及,對(duì)于被“換臉”的明星或是一般公眾而言,其名譽(yù)權(quán)、肖像權(quán)等基本權(quán)利就不可避免地受到侵犯?!皸顑鐡Q臉視頻”在短期內(nèi)微博的閱讀量就達(dá)到了1.1億,影響之廣,可見(jiàn)一斑。另?yè)?jù)不完全統(tǒng)計(jì),遇上“換臉”的明星還有至少劉亦菲、劉詩(shī)詩(shī)、趙麗穎等人?!?5〕參見(jiàn)前引〔9〕,宣晶文。此外,“換臉視頻”不僅將用于自我滿足,而且也可能被用來(lái)敲詐、羞辱、騷擾和勒索受害者?!?6〕See Douglas Harris,Deepfakes:False Pornography is Here and the Law cannot Protect You,Duke L.&Tech.Rev.99,102(2019).綜上所述,“深度偽造”技術(shù)所產(chǎn)生的“換臉視頻”最為直接的影響就在于公民的人身權(quán)與財(cái)產(chǎn)權(quán)。
正如有專家預(yù)測(cè)的那樣,未來(lái)幾年,電腦將能夠快速生成令人信服的、偽造的音頻和視頻信息,這將把假新聞提升到一個(gè)全新水平。〔17〕See Hilke Schellmann,The DangerousNew Technology That Will Make Us Question Our Basic Idea of Reality,QUARTZ(Dec.5,2017),https://qz.com/1145657/the-dangerousnew-technology-that-will-make-us-question-our-basic-idea-of-reality/.“深度偽造”技術(shù)所產(chǎn)生的第二個(gè)直接風(fēng)險(xiǎn)就可能通過(guò)所謂的假新聞?dòng)靡哉u謗政客,破壞社會(huì)穩(wěn)定、國(guó)家安全和國(guó)際秩序。設(shè)想在種族沖突嚴(yán)重的地區(qū),一個(gè)政治人物發(fā)表種族歧視言論的“換臉視頻”可能直接引發(fā)不可控制的惡果。2018年4月,有技術(shù)團(tuán)隊(duì)制作了涉及美國(guó)前總統(tǒng)奧巴馬的“換臉視頻”,在視頻中“奧巴馬”稱美國(guó)現(xiàn)總統(tǒng)特朗普為“徹頭徹尾的白癡”?!?8〕See Aja Romano,Jordan Peele's Simulated Obama PSA is a Double-edged Warning against Fake News,VOX (Apr.18,2018)https://www.vox.com/2018/4/18/17252410/jordan-peele-obama-deepfake-buzzfeed.同年5月,有人利用“深度偽造”技術(shù)制作了特朗普的視頻,批評(píng)比利時(shí)的環(huán)保政策。盡管視頻在制作上有明顯瑕疵,但仍然有比利時(shí)的民眾相信該視頻為真,并激烈地回應(yīng)。這一影響大大超過(guò)了制作團(tuán)隊(duì)的估計(jì),使得他們不得不對(duì)評(píng)論者一一回應(yīng)該視頻其實(shí)是一個(gè)假視頻?!?9〕See Oscar Schwartz,You Thought Fake News Was Bad?Deep Fakes Are Where Truth Goes to Die,THE GUARDIAN (Nov.12,2018),https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.據(jù)不完全統(tǒng)計(jì),現(xiàn)下成為該技術(shù)受害者的政客至少還包括德國(guó)總理默克爾、阿根廷總統(tǒng)馬克里。
正因“深度偽造”技術(shù)所可能導(dǎo)致的假新聞泛濫,美國(guó)國(guó)家情報(bào)總監(jiān)丹·科茨在參議院情報(bào)特別委員會(huì)發(fā)表演講,提交了由美國(guó)情報(bào)界匯編的《全球威脅評(píng)估報(bào)告》。報(bào)告明確提到“深度偽造”技術(shù),并指出戰(zhàn)略競(jìng)爭(zhēng)對(duì)手可能會(huì)試圖使用“深度偽造”或類似的機(jī)器學(xué)習(xí)技術(shù)來(lái)創(chuàng)建令人信服的——但是虛假的——圖像、音頻和視頻文件,以此對(duì)美國(guó)及其盟友和伙伴產(chǎn)生負(fù)面影響。〔20〕See Daniel R.Coats,Worldwide Threat Assessment of the US Intelligence Community,Senate Select Committee on Intelligence(Jan.29,2019),p.7.英國(guó)《衛(wèi)報(bào)》也認(rèn)為,“深度偽造”技術(shù)可以造成任何人說(shuō)過(guò)或做過(guò)任何事的假象,并不無(wú)擔(dān)憂地認(rèn)為會(huì)引發(fā)新一輪信息戰(zhàn)。〔21〕關(guān)于“深度偽造”技術(shù)所可能導(dǎo)致的國(guó)際社會(huì)的“假情報(bào)戰(zhàn)”的討論可以參見(jiàn)Robert Chesney and Danielle Citron,Deepfakes and the New Disinformation War:The Coming Age of Post-Truth Geopolitics,98 Foreign Aff.147(2019).
眾所周知,我們對(duì)世界的經(jīng)驗(yàn)以及我們對(duì)世界作出自信判斷能力需要我們有一些證據(jù)來(lái)源。這些來(lái)源在形成共識(shí)的基礎(chǔ)之上,自動(dòng)引導(dǎo)我們作出判斷。人們不可避免地依賴于超出他們直接感知的世界的可靠知識(shí),這在本質(zhì)上是一種知識(shí)生態(tài)系統(tǒng)?!?2〕See Marc J.Blitz,Lies,Line Drawing,and Deep Fake News,71 Okla.L.Rev.59,113—115(2018).“深度造假”技術(shù)的泛濫還可能導(dǎo)致公眾形成“眼見(jiàn)不為實(shí)”的心理預(yù)期。其直接結(jié)果是公眾對(duì)公有機(jī)構(gòu)和私有機(jī)構(gòu)的信任度遭遇侵蝕。一直以來(lái),視頻都被視為真實(shí)性的基本標(biāo)準(zhǔn),與容易失真的照片形成鮮明對(duì)比?!吧疃葌卧臁币曨l技術(shù)的發(fā)展將破壞我們對(duì)視頻作為事件記錄的信任。該技術(shù)最大的威脅不是公眾會(huì)被欺騙,而是公眾會(huì)把一切都當(dāng)作欺騙。隨著這種“深度偽造”技術(shù)的發(fā)展與普及,它潛在地可能造成一種信息無(wú)序的狀態(tài),會(huì)對(duì)原有的要求我們信任外部信息來(lái)源的個(gè)人決策或集體自治構(gòu)成嚴(yán)重的,甚至是無(wú)法克服的挑戰(zhàn)?!?3〕See Marc J.Blitz,Lies,Line Drawing,and Deep Fake News,71 Okla.L.Rev.59,110(2018).其最終結(jié)果有可能導(dǎo)向霍布斯提及的“所有人與所有人的戰(zhàn)爭(zhēng)”,“眼見(jiàn)為實(shí)”的提法將消逝在歷史之中。有研究表明,人與人的反復(fù)協(xié)作的基礎(chǔ)是彼此的信任。當(dāng)一個(gè)群體內(nèi)部彼此信任時(shí),群體凈收益會(huì)提升。反之,彼此缺乏信任將導(dǎo)致群體的效益下降?!?4〕See Jeffrey Westling,Deception Trust:A Deep Look at Deep Fakes,TECHDIRT(Feb.28,2019).可見(jiàn),“深度偽造”技術(shù)的濫用將使得人類加速邁入“后真相時(shí)代”?!?5〕“后真相”一詞最早見(jiàn)于美籍塞爾維亞劇作家史蒂夫·特西奇(Steve Tesich)1992年發(fā)表在美國(guó)《國(guó)家》雜志上的一篇文章,卻在誕生20多年后于2016年被《牛津詞典》評(píng)為年度詞匯。改詞用于形容“陳述客觀事實(shí)對(duì)民意的影響力弱于訴諸情感和個(gè)人信念”。參見(jiàn)王悠然:《警惕“后真相”時(shí)代的假消息》,《中國(guó)社會(huì)科學(xué)報(bào)》2017年1月6日,第3版。在“后真相時(shí)代”,由于“真相”被認(rèn)為不復(fù)存在,“人們只相信自己愿意相信的東西”?!?6〕參見(jiàn)李軍:《“后真相時(shí)代”,凝聚共識(shí)靠?jī)?nèi)容而非流量》,《新華日?qǐng)?bào)》2018年3月28日,第14版。由此,社會(huì)共識(shí)便難以聚合而成。
“深度偽造”技術(shù)只是人工智能與視頻處理技術(shù)結(jié)合的必然產(chǎn)物,它不是第一個(gè),也必定不是最后一個(gè)該領(lǐng)域的嘗試。盡管其動(dòng)機(jī)可能從純粹的戲謔、模仿,到爭(zhēng)取商業(yè)利益,甚至是敲詐、勒索和政治操縱,但技術(shù)應(yīng)用于以上述目的并非獨(dú)特的問(wèn)題,而只是一個(gè)有待解決的問(wèn)題。〔27〕See Ryan J.Black and Pablo Tseng,What Can and Should the Law Do About“Deepfake”:An Update,LEXOLOGY (Dec.5,2018),https://www.lexology.com/library/detail.aspx?g=09f3dc1a-d3c1-41d6-9029-1cb8794eb54f.現(xiàn)有的技術(shù)規(guī)制與法律規(guī)制手段無(wú)法完全覆蓋“深度偽造”技術(shù)的諸多應(yīng)用場(chǎng)景,這就需要在現(xiàn)有技術(shù)與法律規(guī)制之外構(gòu)建一種全新的“平臺(tái)-作者-受眾”三位一體的新規(guī)制模式。
對(duì)于技術(shù)應(yīng)用的風(fēng)險(xiǎn),通常的邏輯是“以子之矛,攻子之盾”——用技術(shù)進(jìn)行規(guī)制。實(shí)際上,隨著“深度偽造”技術(shù)的影響擴(kuò)大,以技術(shù)進(jìn)行“溯源防偽”和“反向破解”的理念與實(shí)踐也日益盛行。
“溯源防偽”是指通過(guò)溯源技術(shù)從根本上保證視頻的真實(shí)性。已有國(guó)外公司開(kāi)始使用區(qū)塊鏈等技術(shù),利用在分布式賬本上永久記錄元數(shù)據(jù),在創(chuàng)建之初為音頻、照片、視頻內(nèi)容添加水印。由此,對(duì)于視頻的真?zhèn)尉涂梢员憬莸刈R(shí)別?!?8〕See Robert Chesney and Danielle Citron,Deepfakes and the New Disinformation War:The Coming Age of Post-Truth Geopolitics,98 Foreign Aff.147,154(2019).該技術(shù)雖然在技術(shù)層面沒(méi)有顯著困難,但卻很可能會(huì)面臨成本和政策方面的難題而無(wú)法真正推廣。也有學(xué)者暢想,推出一項(xiàng)新服務(wù)——不可變的生命日志或身份驗(yàn)證跟蹤,使“深度偽造”的受害者可以提供經(jīng)過(guò)認(rèn)證的不在場(chǎng)證明,可信地證明他或她沒(méi)有說(shuō)或做所描述的事情?!?9〕See Bobby Chesney and Danielle Citron,Deep Fakes:A Looming Challenge for Privacy,Democracy,and National Security,107 Cal.L.Rev.(forthcoming 2019),available at SSRN.實(shí)際上,研究人員的靈感很可能來(lái)自美國(guó)作家戴夫·艾格斯(Dave Eggers)創(chuàng)作于2013年的反烏托邦小說(shuō)《圓圈》(The Circle),小說(shuō)中政客佩戴24小時(shí)的電子監(jiān)控設(shè)備和流媒體設(shè)備來(lái)建立公眾信任——如果你不透明,那么意味著你一定在隱瞞什么。
“反向破解”則是通過(guò)技術(shù)對(duì)“深度偽造”技術(shù)生成的“換臉視頻”進(jìn)行識(shí)別。美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所和美國(guó)國(guó)防高級(jí)計(jì)劃局的研究人員一直在致力于開(kāi)發(fā)能夠探測(cè)“深度偽造”的技術(shù)?!?0〕See Derek B.Johnson and Susan Miller,The Danger of“Deep Fakes”,GLOBAL CYCLING NETWORK(Jul.18,2018),https://gcn.com/articles/2018/07/18/deep-fakes.aspx.研究人員發(fā)現(xiàn)“換臉視頻”中人物眨眼次數(shù)較少、且極不自然。通過(guò)跟蹤視頻中人物的眼睛狀態(tài),“換臉視頻”的識(shí)別準(zhǔn)確率高達(dá)99%。〔31〕參見(jiàn)閆欣、華凌:《AI換臉也有 bug,看看人物眨沒(méi)眨眼》,《科技日?qǐng)?bào)》2019年3月18日,第8版。還有團(tuán)隊(duì)通過(guò)“換臉視頻”中血液進(jìn)入皮膚時(shí)細(xì)微變化來(lái)識(shí)別?!?2〕See Oscar Schwartz,You Thought Fake News Was Bad?Deep Fakes Are Where Truth Goes to Die,THE GUARDIAN (Nov.12,2018),https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.
然而,無(wú)論“溯源防偽”抑或是“反向破解”,在“深度偽造技術(shù)”快速演化性的特征之下,都顯得略顯蒼白?!暗栏咭怀吣Ц咭徽伞?,技術(shù)的進(jìn)展速度往往高于技術(shù)的破解速度。舉例而言,隨著技術(shù)的發(fā)展,“深度偽造”技術(shù)可以收集海量的眨眼視頻進(jìn)行訓(xùn)練,由此就可以進(jìn)一步優(yōu)化“換臉視頻”中的眨眼細(xì)節(jié),從而成功避開(kāi)檢測(cè)工具?!?3〕參見(jiàn)馮衛(wèi)東:《“換臉”也逃不過(guò)數(shù)字真探法眼》,《科技日?qǐng)?bào)》2018年8月10日,第2版。因此,從某種意義上說(shuō),作為防守方的“鑒真技術(shù)”在作為進(jìn)攻方的“偽造技術(shù)”面前往往處于落后挨打的地位。
除了技術(shù)規(guī)制之外,對(duì)于高新技術(shù)應(yīng)用規(guī)制的重要工具還包括法律。由于立法過(guò)快的回應(yīng)甚至限制可能錯(cuò)過(guò)技術(shù)發(fā)展的機(jī)遇和審視技術(shù)帶來(lái)問(wèn)題的機(jī)會(huì),因此對(duì)于“深度偽造”技術(shù)在內(nèi)的前沿技術(shù)規(guī)制主要立基于現(xiàn)有的法律體系。實(shí)際上,無(wú)論從民事賠償、行政處罰、刑事追訴等方面來(lái)看,現(xiàn)有的法律體系都為規(guī)制“深度偽造”技術(shù)提供了可能。
首先,正如本文第三部分提及的那樣,“深度偽造”技術(shù)最為直接的風(fēng)險(xiǎn)就在于對(duì)公民的人身與財(cái)產(chǎn)權(quán)形成侵害。現(xiàn)有的民事法律體系內(nèi)的相關(guān)制度可以對(duì)上述行為進(jìn)行規(guī)制。具體來(lái)說(shuō),“換臉視頻”可能涉及肖像權(quán)和名譽(yù)權(quán)。在現(xiàn)有的技術(shù)框架之下,“深度偽造”技術(shù)需要海量的目標(biāo)人物的照片、視頻作為“源數(shù)據(jù)”進(jìn)行訓(xùn)練,生成偽造的目標(biāo)人物(受害人)的臉部圖像,并替換到選定視頻的人物臉部。此時(shí),目標(biāo)人物的肖像權(quán)就受到侵犯。更進(jìn)一步,由于“深度偽造”技術(shù)的高度真實(shí)性特征,社會(huì)公眾可能形成對(duì)“換臉視頻”主角的誤解,認(rèn)為其作出了他/她實(shí)際上并未做的行為或者發(fā)表實(shí)質(zhì)上并未發(fā)表的言論,進(jìn)而產(chǎn)生一種負(fù)面評(píng)價(jià)。在此過(guò)程中,“換臉視頻”使得公眾對(duì)目標(biāo)人物形成了虛假或者誤導(dǎo)性的觀點(diǎn),損害了其聲譽(yù),進(jìn)而給其造成精神和物質(zhì)的損失。由此,在現(xiàn)有的侵權(quán)責(zé)任法的框架之下,受害人可以要求“換臉視頻”的作者承擔(dān)刪除視頻、賠禮道歉、消除影響和賠償損失等民事責(zé)任。
其次,“深度偽造”技術(shù)還可能侵犯視頻的知識(shí)產(chǎn)權(quán)。按照我國(guó)知識(shí)產(chǎn)權(quán)的相關(guān)規(guī)定,視頻作品的作者享有作品的完整權(quán),不受任意修改的權(quán)利。當(dāng)原始視頻被曲解、編輯、修改之后,原作者的知識(shí)產(chǎn)權(quán)就受到相應(yīng)的侵害。可見(jiàn),當(dāng)使用“深度偽造”技術(shù)進(jìn)行視頻“換臉”時(shí),無(wú)疑就侵犯了原視頻所有人的版權(quán)和照片所有人的版權(quán)。無(wú)論“換臉視頻”制作者是否用于商業(yè),只要不構(gòu)成法定的例外情形,都已構(gòu)成侵權(quán)。原始視頻和照片的版權(quán)人都可以要求刪除修改后的視頻與照片副本、禁止發(fā)布視頻并賠償相應(yīng)損失。從國(guó)外的實(shí)踐來(lái)看,確實(shí)有版權(quán)人以侵權(quán)為由,要求網(wǎng)站刪除特定的“換臉視頻”?!?4〕See Leo Kelion,Deepfake Porn Videos Deleted from Internet by Gfycat,BBC NEWS (Feb.1,2018),https://www.bbc.com/news/technology-42905185.
再次,“換臉視頻”還可能觸發(fā)行政處罰,這主要體現(xiàn)在國(guó)家相關(guān)主管機(jī)構(gòu)對(duì)視頻傳播平臺(tái)的管理。2018年3月22日,國(guó)家廣電總局發(fā)布《關(guān)于進(jìn)一步規(guī)范網(wǎng)絡(luò)視聽(tīng)節(jié)目傳播秩序的通知》(下稱《廣電通知》),明確規(guī)定“堅(jiān)決禁止非法抓取、剪拼改變視聽(tīng)節(jié)目”。通知原文規(guī)定,不得制作、傳播歪曲、惡搞、丑化經(jīng)典文藝作品的節(jié)目,不得重新剪輯、不得截取片段拼接、不得傳播篡改原意產(chǎn)生歧義的作品片段。同樣以“楊冪換臉視頻”為例,盡管該視頻并不存在對(duì)原有作品的“惡搞”與“丑化”,但正如筆者技術(shù)邏輯部分指出的那樣,“換臉視頻”是將偽造的圖片逐幀映射到視頻之上,因此是一種對(duì)原視頻素材的重新分解和編輯,無(wú)疑構(gòu)成“剪輯”。同樣,作者還將《射雕》作品中若干片段整合成一個(gè)新段落,也構(gòu)成“截取片段拼接”。更進(jìn)一步,將原視頻“換臉”,還涉嫌“篡改原意產(chǎn)生歧義”。因此,平臺(tái)對(duì)上述視頻內(nèi)容具有管理責(zé)任。若怠于履行責(zé)任,則相關(guān)管理機(jī)構(gòu)可以依法處罰。
最后,“換臉視頻”還可能構(gòu)成相應(yīng)的犯罪。如果將“偽造”和“傳播”作為核心要素,在現(xiàn)有的刑事法律體系之下,“換臉視頻”可能構(gòu)成但不僅限于以下五大類的犯罪:第一,利用“深度偽造”技術(shù)傳播虛假信息的,涉及險(xiǎn)情、疫情、災(zāi)情、警情、軍情、敵情、恐情,根據(jù)情節(jié)不同可能構(gòu)成編造、故意傳播虛假信息罪、編造、故意傳播虛假恐怖信息罪、編造并傳播證券、期貨交易虛假信息罪、戰(zhàn)時(shí)故意提供虛假敵情罪;第二,無(wú)論“換臉”的受害人是名人抑或是普通公眾,都可能因?yàn)椤皳Q臉視頻”所故意捏造和散步的虛構(gòu)事實(shí)導(dǎo)致人格貶損與名譽(yù)損失。因此,該行為還可能構(gòu)成誹謗罪。第三,利用“換臉視頻”進(jìn)行威脅、要挾行為,可能構(gòu)成敲詐勒索犯罪;第四,利用“換臉視頻”進(jìn)行人臉識(shí)別進(jìn)而秘密獲得或騙取公私財(cái)物,可能構(gòu)成詐騙類罪或者盜竊罪;第五,利用“換臉視頻”編造虛假信息,在網(wǎng)絡(luò)散布或者組織、指使他人在網(wǎng)上散布,造成公共秩序嚴(yán)重混亂的,還可能構(gòu)成尋釁滋事罪。如果不考慮“偽造”而只關(guān)注視頻“信息”本身,“換臉視頻”的傳播可能構(gòu)成其他更多的罪名,諸如因?yàn)閭鞑サ膬?nèi)容是色情視頻而構(gòu)成傳播淫穢物品罪、組織播放淫穢物品罪,因?yàn)閭鞑?nèi)容是極端主義的言論而構(gòu)成宣揚(yáng)恐怖主義、極端主義、煽動(dòng)實(shí)施恐怖活動(dòng)罪等。如果我們將視角關(guān)注到視頻的制作本身,還可能構(gòu)成制作、復(fù)制、出版、販賣、傳播淫穢物品牟利罪。
可見(jiàn),盡管現(xiàn)有法律沒(méi)有針對(duì)“深度偽造”技術(shù)的專門立法規(guī)定,但就現(xiàn)階段的行政、民事和刑事三個(gè)領(lǐng)域的相關(guān)法律,偽造造成的后果在一定程度上可以被行政處罰、治安處罰、民事責(zé)任、刑事犯罪等既有責(zé)任體系涵蓋。然而,上述法律規(guī)制的缺陷也是顯著的:其一,民事責(zé)任規(guī)制領(lǐng)域,構(gòu)成侵犯公民肖像權(quán)的行為,通常應(yīng)具備兩個(gè)要件:未經(jīng)本人同意且以營(yíng)利為目的。若“換臉視頻”并未以營(yíng)利為目的,則難以被肖像權(quán)的制度體系所涵蓋;另外,構(gòu)成侵犯名譽(yù)權(quán)則根據(jù)受害人確有名譽(yù)被損害的事實(shí)、行為人行為違法、違法行為與損害后果之間有因果關(guān)系、行為人主觀上有過(guò)錯(cuò)來(lái)認(rèn)定。在實(shí)踐中,“換臉視頻”內(nèi)容對(duì)“受害人”名譽(yù)的貶損可能難以證明。精神損害在沒(méi)有造成嚴(yán)重后果的情況下往往難以支持。再以“楊冪換臉視頻”為例,視頻作者并非以營(yíng)利為目的,更大程度上只是一種“炫技”。其“換臉”行為也沒(méi)有對(duì)楊冪本人形成不當(dāng)?shù)馁H損,精神損失無(wú)從談起。盡管《射雕》的視頻所有者可以主張侵犯知識(shí)產(chǎn)權(quán),但實(shí)際上也很難以證明該視頻傳播對(duì)其造成的損失。同時(shí),“深度偽造”技術(shù)所具備的泛在普適性也使得版權(quán)方需要面對(duì)海量分散、隨機(jī)的“偽造”行為,維權(quán)成本極高。其二,在行政責(zé)任領(lǐng)域,《廣電通知》實(shí)際上也無(wú)法充分規(guī)制“換臉視頻”。這是因?yàn)椤稄V電通知》規(guī)范的只是“視聽(tīng)節(jié)目網(wǎng)站”,而無(wú)法涉及公眾個(gè)人行為。“深度偽造”技術(shù)的泛在普適性使得從事偽造行為的主要是公眾個(gè)人,而不是“視聽(tīng)節(jié)目網(wǎng)站”?!稄V電通知》確實(shí)強(qiáng)調(diào)網(wǎng)站要嚴(yán)格管理上傳節(jié)目,但對(duì)于如何管理、如何審查以及審查到何種程度則語(yǔ)焉不詳。因此,在實(shí)踐中這種管理更大程度上是一種事后的管理——在版權(quán)方投訴之后下線處理。換言之,在版權(quán)方?jīng)]有行使相應(yīng)權(quán)利的情況下,“換臉視頻”就具有一定的傳播空間。其三,在刑事責(zé)任方面,盡管刑法為偽造傳播虛假信息的行為編織了貌似嚴(yán)密的法網(wǎng),但實(shí)際上,只要視頻信息并非承載特定的內(nèi)容(如軍情、險(xiǎn)情、色情等),或直接從事違反犯罪(如詐騙、盜竊等),現(xiàn)有“換臉視頻”的絕大多數(shù)情形都在刑事法網(wǎng)之外。至少,“楊冪換臉視頻”以及現(xiàn)在越發(fā)流行的網(wǎng)絡(luò)直播平臺(tái)主播在直播時(shí)將自己的臉換成明星(明確向觀眾表明“換臉”)的操作就基本不在上述刑事規(guī)制之內(nèi)。
法律規(guī)制更為顯著的不足還在于它往往是一種事后規(guī)制。由于“深度偽造”的高度真實(shí)性的技術(shù)特征,借助既有的網(wǎng)絡(luò)傳播平臺(tái),其造謠的效應(yīng)可能會(huì)成指數(shù)級(jí)放大。即使后續(xù)法律產(chǎn)生強(qiáng)有力的規(guī)制,但既有的傳播影響已然形成。這便是所謂的“造謠動(dòng)動(dòng)嘴,辟謠跑斷腿”。因此,對(duì)于“深度偽造”技術(shù)生成“換臉視頻”的規(guī)制就不能僅僅局限于事后的規(guī)制。這也決定了現(xiàn)有法律的規(guī)制體系更大程度上是一種權(quán)宜之計(jì)。此時(shí),對(duì)于“深度偽造技術(shù)”應(yīng)用的事前與事中規(guī)制就顯得尤為重要。
實(shí)際上,無(wú)論是技術(shù)抑或是法律規(guī)制,都有一定的事后性。它們?cè)谔囟I(lǐng)域和特定場(chǎng)景可以對(duì)“深度偽造”技術(shù)形成較好的規(guī)制,但同樣無(wú)法完全規(guī)避上述技術(shù)在應(yīng)用中可能產(chǎn)生的風(fēng)險(xiǎn)。因此,對(duì)于“深度偽造”技術(shù)的規(guī)制還應(yīng)該建立三位一體的事前與事中規(guī)制模式。在偽造視頻傳播產(chǎn)生不利影響之前有效將風(fēng)險(xiǎn)限制在最低程度。具體而言,就是強(qiáng)化平臺(tái)的審查責(zé)任、明確制作者的說(shuō)明義務(wù)和培養(yǎng)公眾的信息素養(yǎng)。三種措施良性循環(huán),每個(gè)環(huán)節(jié)彼此加強(qiáng),形成一個(gè)閉環(huán)。
1.強(qiáng)化平臺(tái)審查責(zé)任
公民個(gè)人基于喜好或者研究需要而制作“換臉視頻”并不具有違法性。只有當(dāng)期將該視頻傳播后才具有法律探討的空間。眾所周知,在互聯(lián)網(wǎng)時(shí)代,社交媒體與視頻平臺(tái)在“換臉視頻”的傳播中扮演著極其重要的角色。因此,平臺(tái)有責(zé)任呈現(xiàn)真實(shí)消息,審查一切疑似虛假、夸大、帶有煽動(dòng)性的消息,尤其要防范假消息在平臺(tái)上的病毒式擴(kuò)散?!?5〕參見(jiàn)王悠然:《警惕“后真相”時(shí)代的假消息》,《中國(guó)社會(huì)科學(xué)報(bào)》2017年1月6日,第3版。當(dāng)然,平臺(tái)的審查責(zé)任也并非無(wú)遠(yuǎn)弗屆。在“深度偽造”的“換臉視頻”的傳播中,平臺(tái)只要遵循“技術(shù)正當(dāng)程序”〔36〕See Bobby Chesney and Danielle Citron,Deep Fakes:A Looming Challenge for Privacy,Democracy,and National Security,107 Cal.L.Rev.(forthcoming 2019),available at SSRN.即可被認(rèn)為履行了審查責(zé)任。若怠于履行上述義務(wù),造成相應(yīng)后果,平臺(tái)需要承擔(dān)連帶責(zé)任。
平臺(tái)的“技術(shù)正當(dāng)程序”包括以下幾個(gè)方面內(nèi)容:第一,修改平臺(tái)的視頻傳播政策,對(duì)于“深度偽造”的“換臉視頻”采取特殊政策,禁止上傳利用“深度偽造”技術(shù)制作的未經(jīng)授權(quán)的“換臉視頻”。事實(shí)上,在紅迪網(wǎng)事件之后,除了紅迪網(wǎng)自身關(guān)閉相應(yīng)版塊之外,美國(guó)其他部分視頻平臺(tái)也修改網(wǎng)站政策,明確禁止上傳利用“深度偽造”技術(shù)制作的視頻,理由正是未經(jīng)權(quán)利人的同意。回到“楊冪換臉視頻”的事件中,視頻作者既未獲得楊冪方的授權(quán),亦未獲得版權(quán)方的授權(quán)。因此,他可以基于科學(xué)研究進(jìn)行相應(yīng)的訓(xùn)練,但要將“換臉視頻”通過(guò)平臺(tái)公開(kāi)則另當(dāng)別論;因此,只要有權(quán)利人主張侵權(quán),那么平臺(tái)有立刻刪除的義務(wù)。第二,開(kāi)發(fā)“深度偽造”的識(shí)別技術(shù)。目前,不少互聯(lián)網(wǎng)平臺(tái)已經(jīng)通過(guò)智能算法來(lái)識(shí)別問(wèn)題內(nèi)容、快速審查發(fā)布和賦予高質(zhì)量?jī)?nèi)容以高優(yōu)先度?!?7〕See Lili Levi,Real Fake News and Fake Fake News,16 First Amend.L.Rev.232,239(2017).這為平臺(tái)進(jìn)行內(nèi)容審查提供了技術(shù)可能。在“深度偽造”的應(yīng)用場(chǎng)景中,平臺(tái)需要在傳統(tǒng)內(nèi)容形式審查的基礎(chǔ)之上更進(jìn)一步,實(shí)現(xiàn)對(duì)偽造視頻的技術(shù)審查。從世界范圍來(lái)看,大型的互聯(lián)網(wǎng)平臺(tái)已經(jīng)推出相應(yīng)的虛假信息識(shí)別技術(shù)?!?8〕See Jack M.Balkin,Free Speech in the Algorithmic Society:Big Data,Private Governance,and New School Speech Regulation,51 U.C.D.L.Rev.1149,1183(2018).因此,大型視頻傳播平臺(tái)推出對(duì)“換臉視頻”識(shí)別機(jī)制也是大勢(shì)所趨。第三,平臺(tái)在識(shí)別來(lái)自“深度偽造”的相關(guān)應(yīng)用程序(如FakeApp)的搜索請(qǐng)求時(shí)可以嘗試提高其獲得特定圖片的難度。目前,“深度偽造”技術(shù)的“源數(shù)據(jù)”主要來(lái)自各大搜索引擎、社交網(wǎng)站,因此需要上述平臺(tái)在識(shí)別“深度偽造”搜索請(qǐng)求時(shí)提高獲取“源數(shù)據(jù)”的難度。谷歌就曾經(jīng)通過(guò)算法修改特定搜索請(qǐng)求的返回結(jié)果,以增加查找某些資料的難度?!?9〕Dave Lee,Deepfakes Porn has Serious Consequences,BBC NEWS (Feb.3,2018),https://www.bbc.com/news/technology-42912529.只要平臺(tái)滿足了“技術(shù)正當(dāng)程序”,則可以認(rèn)定在“深度偽造”視頻的傳播中不負(fù)連帶責(zé)任。
2.明確作者的聲明義務(wù)
由于“深度偽造”技術(shù)的高度真實(shí)性、泛在普適性與快速演化性,導(dǎo)致可能偽造視頻的潛在群體劇增、視頻欺騙性增強(qiáng)?!皳Q臉視頻”的行為可能呈現(xiàn)出分散、隨機(jī)、破壞巨大且難以主動(dòng)規(guī)制的特征。此時(shí),就勢(shì)必要建立一種全新的“換臉視頻”作者聲明義務(wù)。對(duì)于作者而言,需要遵循以下兩個(gè)要求:其一,在視頻的顯要位置以明顯的水印等方式聲明“換臉視頻”。其二,在通過(guò)平臺(tái)傳播時(shí)需要向平臺(tái)聲明該視頻的“換臉屬性”。如果生產(chǎn)者完成上述義務(wù)則推定為無(wú)過(guò)錯(cuò),如果沒(méi)有履行上述義務(wù)則推定為有過(guò)錯(cuò)。這種規(guī)制類似于《產(chǎn)品質(zhì)量法》中的警示說(shuō)明。當(dāng)然,其實(shí)法國(guó)的相關(guān)立法已經(jīng)為這種聲明義務(wù)提供了參照。2017年法國(guó)政府就推出了一項(xiàng)法律規(guī)定,規(guī)定經(jīng)過(guò)修圖處理的模特照片必須標(biāo)注“已修圖照片”。此種作者主動(dòng)的說(shuō)明義務(wù)為有效規(guī)制“深度偽造”技術(shù)的生成物提供了可能。
3.培育公眾的信息素養(yǎng)
雖然“深度偽造”技術(shù)極大增加了虛假視頻的“可信度”,但更好的信息教育也是預(yù)防虛假視頻產(chǎn)生不當(dāng)社會(huì)影響的重要途徑。與其期待通過(guò)禁止“換臉視頻”的方式來(lái)解決問(wèn)題,不如關(guān)注如何提升公眾的“關(guān)鍵信息素養(yǎng)”,區(qū)分視頻的真假。因此,除了平臺(tái)的審查責(zé)任與制作者的說(shuō)明義務(wù)之外,對(duì)于“深度偽造”技術(shù)的規(guī)制還有一個(gè)關(guān)鍵的環(huán)節(jié)——提升公眾“關(guān)鍵媒體/信息素養(yǎng)”。
所謂信息素養(yǎng),是指公眾借助工具,理解新聞報(bào)道中的框架、偏見(jiàn)、不準(zhǔn)確之處,并能夠評(píng)估事實(shí)真實(shí)性的能力?!?0〕See Lili Levi,Real Fake News and Fake Fake News,16 First Amend.L.Rev.232,309(2017).信息素養(yǎng)重點(diǎn)關(guān)注如何區(qū)分信息的真假?!?1〕Isabelle Courtney,In an Era of Fake News,Information Literacy Has a Role to Play in Journalism Education in Ireland,Irish Communication Review,Volume 16,Issue 1,2018,p.22.它指向“一組能力,要求個(gè)人識(shí)別何時(shí)需要信息,并具有定位、評(píng)估和有效使用所需信息的能力”,〔42〕Michelle H.Williams and Jocelyn J.Evans,Factors in Information Literacy Education,4 J.OF POL.SCI.EDUC.116,116(2008).“但它的意義遠(yuǎn)不止于此:它還涉及充分利用信息和明智地解釋信息所需的能力、屬性與自信。包括批判性思維和意識(shí),以及對(duì)與使用信息相關(guān)的倫理和政治問(wèn)題的理解”?!?3〕Information Literacy Group,CILIP Definition of Information Literacy 2018,THE LIBRARY OF INFORMATION ASSOCATION(2018),p.3.媒體素養(yǎng)是信息素養(yǎng)的組成部分。它關(guān)注的是理解媒體、便捷使用媒體(傳統(tǒng)媒體、數(shù)字媒體)以及使用媒體創(chuàng)建或表達(dá)自我能力的知識(shí)?!?4〕See Caroline L.Osborne,Programming to Promote Information Literacy in the Era of Fake News,46 Int'l J.Legal Info.101,109(2018).當(dāng)今社會(huì)圍繞新聞制作、信息傳播形成了越來(lái)越復(fù)雜的商業(yè)模式,這就使得信息素養(yǎng)顯得更加重要。
從整體而言,當(dāng)今社會(huì)對(duì)于公眾信息素養(yǎng)的培養(yǎng)缺乏必要的關(guān)注。社會(huì)公眾在消費(fèi)信息時(shí),存在意識(shí)缺陷,在使用信息前,沒(méi)有保持必要的批判性和審慎性。斯坦福大學(xué)的一份研究顯示,年輕人對(duì)于互聯(lián)網(wǎng)信息進(jìn)行推理的能力極度有限,極度容易受騙?!?5〕See Stanford History Education Group,Evaluating Information:The Cornerstone of Civic Online Reasoning:Executive Summary(Nov.22,2016),p.4.此外,由于“確認(rèn)性偏誤”〔46〕所謂的“確認(rèn)性偏誤”是指人們?cè)谥饔^上支持某種觀點(diǎn)時(shí),往往傾向于接收能夠支持上述觀點(diǎn)的信息,而排斥或忽視與觀點(diǎn)相沖突的信息。和“過(guò)濾氣泡”〔47〕“過(guò)濾氣泡”的概念由Eli Pariser在2010年提出,指的是在算法推薦機(jī)制下,高度同質(zhì)化的信息流會(huì)阻礙人們認(rèn)識(shí)真實(shí)的世界。參見(jiàn)Kalev Leetaru,Why 2017 Was the Year of the Filter Bubble?,FORBES(Dec.18,2017),https://www.forbes.com/sites/kalevleetaru/2017/2018/why-was-2017-the-year-of-the-filter-bubble/26146572746b。的存在,一個(gè)人傾向于接受自己支持的某種觀點(diǎn),并不斷強(qiáng)化。因此,要在接受的基礎(chǔ)之上進(jìn)行批判性的認(rèn)知,是一個(gè)巨大的挑戰(zhàn)。僅靠理智和情感無(wú)法有效穿越“后真相”的泥潭。〔48〕有人認(rèn)為,可以用理解和情感來(lái)穿越“后真相”的泥潭。參見(jiàn)夏遠(yuǎn)望:《用理智與情感穿越“后真相”泥淖》,《河南日?qǐng)?bào)》2018年1月15日,第6版。具體而言,信息素養(yǎng)的核心目標(biāo)有兩個(gè)方面:第一,是讓公眾在接受信息之前習(xí)慣性地批判檢查,〔49〕Caroline L.Osborne,Programming to Promote Information Literacy in the Era of Fake News,46 Int'l J.Legal Info.101,103(2018).意識(shí)到“在這個(gè)數(shù)字時(shí)代,任何事情都不能盲目地看表面,因?yàn)槟菑埬樋赡苁窃谄垓_你”?!?0〕前引〔31〕,閆欣、華凌文。第二,培養(yǎng)公眾使用相關(guān)工具對(duì)識(shí)別視頻來(lái)源、作者身份,評(píng)估視頻承載信息的準(zhǔn)確性和客觀性,進(jìn)而獲得對(duì)視頻內(nèi)容進(jìn)行批判性檢查和驗(yàn)證的能力。這也是在“后真相時(shí)代”生存的必備技能。
智能技術(shù)的發(fā)展呈現(xiàn)出加速迭代的特征。諸多技術(shù)及應(yīng)用常常令法律人應(yīng)接不暇。進(jìn)入大數(shù)據(jù)與人工智能時(shí)代,一個(gè)明顯的感受便是法律相對(duì)于前沿技術(shù)的滯后性越發(fā)凸顯。實(shí)際上,“深度偽造”技術(shù)及其產(chǎn)生的風(fēng)險(xiǎn)只是諸多智能技術(shù)發(fā)展的衍生品之一。法律固然是強(qiáng)有力的規(guī)制工具,但要充分降低智能技術(shù)的應(yīng)用風(fēng)險(xiǎn),唯有技術(shù)、法律與倫理規(guī)制協(xié)同。