如果歷史上的納粹政府未被打敗,如今它們會是什么樣子?納粹使用的是20世紀的技術,直到二戰(zhàn)戰(zhàn)敗才終止發(fā)展。如果納粹比美國更早制造出原子彈,他們會有多強大,能撐多久?納粹如果掌握當時最先進的技術,可以鞏固權力,改變歷史進程。
當我們試想存在的風險時,像核戰(zhàn)爭或小行星撞擊這樣的慘劇經(jīng)常浮現(xiàn)在我們的腦海中。然而,未來還有一個威脅不太為人所知一一雖然它不太可能會讓人類滅絕,但同樣糟糕。
但這有可能嗎?研究人員和哲學家們開始思考“它”是如何產(chǎn)生的,我們能做些什么來避免這種情況出現(xiàn)。
有可能的風險都是災難性的,因為它們把人類困在單一命運中,比如文明永久崩潰或人類滅絕。這些災難可能是由自然原因造成的,如小行星撞擊或超級火山爆發(fā),也可能是核戰(zhàn)爭或氣候變化等因素造成的。劍橋大學存在風險研究中心的學術項目經(jīng)理海頓·貝爾菲爾德表示,如果這種情況發(fā)生,將是“人類命運的悲慘結局”,并將讓我們愧對幾百代祖先。
牛津大學人類未來研究所高級研究員托比·奧德認為,本世紀發(fā)生自然災害的概率不到1/2000,因為沒有自然災害,人類已經(jīng)存活了2000個世紀。然而,如果計算人為災難,奧德相信這種可能性會增加到驚人的1/6。他把這個世紀稱為“懸崖”,意思是人類失去未來的風險從未如此之高。
倫敦一家非營利性研究機構一一長期風險中心的研究人員對未知風險進行了進一步研究,提出了更令人不寒而栗的預測。這些“超級風險”被定義為“天文級的痛苦,遠遠超過迄今為止地球上存在的所有痛苦”?!霸谶@種情況下,數(shù)十億人仍存活,但質量極端低劣,前景黯淡,死亡將是更好的選擇。”簡而言之:一個負價值的未來比一個沒有價值的未來更糟糕。這就是“被鎖鏈鎖住的世界”場景的由來。
盡管全球極權主義仍是一個小眾研究主題,但潛在風險領域的研究人員正越來越多地將注意力轉向最有可能導致全球極權主義的原因:人工智能。
牛津大學人類未來研究所主任尼克·博斯特羅姆在他的《單例假說》中,解釋了如何利用人工智能或其他強大技術形成一個全球政府,以及它可能無法被推翻的原因。他寫道,如果該機構“利用人工智能或分子納米技術的突破取得決定性領先地位”。
奧德在最近的一次采訪中說:“我們可能目前還沒有技術實現(xiàn)這一點,但正在開發(fā)的技術讓這種狀況越來越有可能?!薄霸谖磥?00年的某個時候,這似乎有可能成為現(xiàn)實?!?p>
“我們看到,人工智能帶給人類的未來,已經(jīng)從非常的烏托邦轉變?yōu)榉礊跬邪?,這發(fā)人深省?!毙旅绹踩行牡募媛毟呒壯芯繂T埃爾莎·堪尼亞說,這是一個無黨派非營利研究國家安全和國防政策的中心。
在2019年停止國內(nèi)監(jiān)控之前,美國國家安全局收集了數(shù)億美國人的通話和短信記錄。據(jù)估計,英國各地有400萬~600萬個閉路電視攝像頭。全球最受監(jiān)控的20個城市中倫敦位居第三。它們之間使用的技術沒有差別,而差別更多的在于使用技術的方式。
除了加強監(jiān)控,人工智能還能制造網(wǎng)絡虛假信息,由人工智能制造的高級謠言工具,可以傳播虛假的政治信息,并通過算法在社交媒體上進行微觀定位,讓宣傳顯得更有說服力。這破壞了民主制度的根基,即公民的認知安全。人們無法確定什么是事實,也無法據(jù)此采取行動。
貝爾菲爾德說:“在過去的幾年里,我們看到了過濾信息導致的社會思潮和行動,人們被各種各樣的算法所誤導,開始相信各種各樣的陰謀論,即使這些不是完全意義上的陰謀論,也只是部分真相?!薄澳憧梢韵胂螅虑闀兊迷絹碓皆?,尤其是深度造假之類的事情,直到我們越來越難以作為社會群體,決定哪些是事實,是我們必須做的,然后采取集體行動。”
由貝爾菲爾德和來自14個機構的25位作者撰寫的《惡意使用人工智能》報告預測,這樣的趨勢將使政治安全受到更加嚴重的威脅,并在未來幾年新的威脅不斷出現(xiàn)。盡管如此,貝爾菲爾德說他的工作讓他充滿希望,而積極的方面,比如關于人工智能的民主的討論和政策制定(例如,歐盟考慮在公共場所暫停面部識別),讓我們對避免災難性的命運仍然可以保持樂觀。
戴維也同意這個說法?!拔覀儸F(xiàn)在需要決定:使用人工智能,怎樣是可接受?怎樣是不可接受的?”“我們需要小心,不要讓它控制我們的這么多基礎設施。如果我們給警察配備了面部識別系統(tǒng),而聯(lián)邦政府因此可以收集我們的所有數(shù)據(jù),那是個糟糕的開始?!?/p>
如果你對人工智能是否有如此強大的力量仍持懷疑態(tài)度,不妨想想核武器即將被發(fā)明前的世界。在第一次核鏈式反應的三年前,即使是試圖實現(xiàn)這一目標的科學家也認為這是不可能的。人類也沒有為核能突破做好準備,在各種條約和協(xié)定出臺,限制這種致命武器在全球擴散之前,幸好沒有發(fā)生巨大的災難,而那時,人類是徘徊在“相互毀滅”的邊緣。我們應將歷史教訓與遠景結合起來,為發(fā)明某種強大的技術做好準備。我們可以在人工智能方面做同樣的事情。