2023年早些時候,當意識到生成式人工智能能夠輕松地篡改人們的圖像時,人們開始在社交媒體賬戶上把隱私設置調成了最嚴格的,并將臉書和推特個人資料圖片換成了自己的畫像。
這一發(fā)現(xiàn)是在玩了基于StableDiffusion的圖像編輯軟件和各種深度偽造應用程序之后發(fā)現(xiàn)的。通過從推特上隨便選擇一個人的頭像,點幾下鼠標并輸入文字提示,就可以生成關于那個人的深度偽造色情視頻,并編輯照片中的衣服。
雖然深度偽造色情多年來一直被用來折磨女性,但最新一代的人工智能使其成為了一個更大的問題。這些系統(tǒng)比以前的深度偽造技術更容易使用,而且它們可以生成看起來完全令人信服的圖像。
以圖生圖的人工智能系統(tǒng)允許人們使用生成式人工智能編輯現(xiàn)有圖像,“可以是非常高質量的……因為它基本上基于現(xiàn)有的單一高分辨率圖像,”美國芝加哥大學計算機科學教授本·趙介紹,“結果是同樣的質量,同樣的分辨率,同樣的細節(jié)水平,因為通常(人工智能系統(tǒng))只是在移動東西。”
你可以想象,當了解到一種新工具可以幫助人們保護自己的圖像免受人工智能操縱時,這令人們松了一口氣。PhotoGuard是由麻省理工學院的研究人員創(chuàng)建的,它的作用就像照片的保護罩。它以我們無法察覺的方式改變了照片,但阻止了人工智能系統(tǒng)對它們進行修改。如果有人試圖使用基于生成式人工智能模型(如StableDiffusion)的應用程序編輯PhotoGuard“保護”的圖像,結果將看起來不真實或扭曲。
另一個以類似方式工作的工具叫做Glaze。但它并沒有保護人們的照片,而是幫助藝術家防止他們受版權保護的作品和藝術風格被抓取到人工智能模型的訓練數(shù)據(jù)集中。自從StableDiffusion和DALL-E2等圖像生成式人工智能模型出現(xiàn)以來,一些藝術家就一直在奮起反抗,認為科技公司竊取了他們的知識產(chǎn)權,并用來訓練這些模型,但卻沒有給他們補償。
Glaze由趙和芝加哥大學的一組研究人員開發(fā),幫助他們解決這個問題。Glaze像是“斗篷”一樣遮住圖像,應用人類幾乎看不到的細微變化,但能阻止人工智能模型學習定義特定藝術家風格趙表示,Glaze破壞了人工智能模型的圖像生成過程,阻止他們生成無限多看起來像特定藝術家作品的圖像。
PhotoGuard有一個與StableDiffusion合作的在線演示,藝術家們很快就能使用Glaze。趙和他的團隊目前正在測試該系統(tǒng),并將允許有限數(shù)量的藝術家在本周晚些時候注冊使用。
但這些工具做不到完全保護。例如,你仍然可以拍攝受PhotoGuard保護的圖像的截圖,并使用人工智能系統(tǒng)進行編輯。盡管它們證明了人工智能圖像編輯問題有巧妙的技術解決方案,但除非科技公司開始更廣泛地采用類似的工具,否則它們本身毫無價值。現(xiàn)在,我們放在網(wǎng)上的圖片對于任何想使用人工智能濫用或篡改它們的人來說都是容易得到的“獵物”。
阻止我們的圖片被不良行為者篡改的最有效方法是社交媒體平臺和人工智能公司為人們提供方法,使他們的圖像免疫,并在每次人工智能模型更新的時候確保方法仍然奏效。
在向白宮作出的自愿承諾中,領先的人工智能公司承諾“開發(fā)”檢測人工智能生成內容的方法。然而,他們沒有承諾會使用它們。如果他們真的要保護用戶免受生成人工智能的傷害,那可能是最關鍵的第一步。