最近技術(shù)專家們互相詢問:“你的p值(對人工智能毀滅人類概率的估算)是多少?”答案可能因時而異。不過在0到100的范圍內(nèi)選擇的確切數(shù)字并不重要,重要的是根本問題:你對人工智能究竟有多悲觀?
2023年3月,1000多名技術(shù)研究人員和企業(yè)高管簽署了一封被稱為“暫?!钡男牛粲跛腥斯ぶ悄軐嶒炇視和!坝?xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)”至少六個月。簽名者包括人工智能先驅(qū)約書亞·本吉奧、經(jīng)濟(jì)學(xué)家達(dá)倫·阿斯莫格魯和科技界億萬富翁埃隆·馬斯克。這是一個不應(yīng)被忽視的群體,但就我所知他們卻遭到了無視。
在暫停信上簽名的專家們遵守的是預(yù)防性原則,但每存在一位強(qiáng)調(diào)謹(jǐn)慎的專家都會有對應(yīng)的另一些人主張快速發(fā)展人工智能技術(shù)。畢竟十多年來,包括我在內(nèi)的許多經(jīng)濟(jì)學(xué)家都目睹了初創(chuàng)企業(yè)將令人叫絕的人工智能技術(shù)推向市場。在癌癥檢測、安全系統(tǒng)、協(xié)助殘疾人的工具、擴(kuò)大教育機(jī)會的指導(dǎo)教師以及提高老年人行動能力的自動駕駛車輛方面,人工智能都取得了突破性進(jìn)展。
暫停只會延誤這些好處。因此雖然暫??赡艽_實是明智之舉,但我們應(yīng)該確保我們對潛在危害的擔(dān)憂不僅僅是基于猜測。
為了幫助確定對人工智能的擔(dān)憂是否合理,我們應(yīng)該了解這些擔(dān)憂的來源。首先是歷史經(jīng)驗。大多數(shù)新技術(shù)既有好處,也有代價,有時代價還大于好處。比如,小托馬斯·米奇利發(fā)明了四乙基鉛,這種汽油添加劑可以減少發(fā)動機(jī)爆震并顯著提高汽車可靠性;他還發(fā)明了氟利昂這種關(guān)鍵制冷化學(xué)物質(zhì)。但他的發(fā)明催生了鉛中毒癥狀,并產(chǎn)生出破壞臭氧層的氟氯化碳,最終這兩種物質(zhì)都被禁止使用。
在2023年出版的《權(quán)力與進(jìn)步》一書中,阿西莫格魯和西蒙·約翰遜認(rèn)為上述后果往往是常態(tài)。因此,盡管經(jīng)濟(jì)學(xué)家普遍認(rèn)為大多數(shù)新技術(shù)最終都是利大于弊,但也有人認(rèn)為人工智能是一系列潛在危險技術(shù)中的最新一種—這些技術(shù)在人們還沒有充分認(rèn)識到其可能帶來的代價之前就被應(yīng)用了。
人們對人工智能的第二個擔(dān)憂是,它確實存在各種可識別的危害。針對這些系統(tǒng)如何被訓(xùn)練的問題已經(jīng)發(fā)生了一些沖突,比如《紐約時報》就以涉嫌侵犯版權(quán)為由起訴OpenAI和微軟。一些創(chuàng)新者已經(jīng)明確表示,他們的目標(biāo)是用人工智能取代工人,而學(xué)生已經(jīng)在使用大型語言模型來完成考試和作業(yè)了。
除了擾亂教育和工作場所,人工智能還被用于監(jiān)視公民、通過換臉冒充他人以及增強(qiáng)武器作戰(zhàn)能力。人們也有理由擔(dān)心已經(jīng)擁有大量數(shù)據(jù)的現(xiàn)有企業(yè)會強(qiáng)化其市場勢力。這些可識別的危害,可被與技術(shù)的益處進(jìn)行權(quán)衡,必要時可以通過監(jiān)管來解決,或者像含鉛汽油和氟利昂那樣直接被禁。
這又回到了第三個擔(dān)憂的根源:新技術(shù)的許多后果都是意料之外和不可預(yù)見的,人工智能很可能也是如此。例如,現(xiàn)在人們普遍擔(dān)心社交媒體會損害兒童的心理健康。但關(guān)鍵之處在于這些平臺無處不在,因此并不存在簡單的監(jiān)管解決方案。
那些意想不到的后果往往難以逆轉(zhuǎn)的狀況本身就是個問題,而它似乎在迫使人們在要不要人工智能之間做出非此即彼的選擇。但這是一個錯誤的兩難選擇。事實上這意味著我們應(yīng)該對人工智能進(jìn)行更多的小規(guī)模試驗,以便及時識別潛在的危害。我們還應(yīng)設(shè)法使人工智能的應(yīng)用更具可逆性,而這或許會涉及制度和基礎(chǔ)設(shè)施改革。這將在人工智能產(chǎn)生不受歡迎的副作用時,為實際損害提供更大程度的保險,同時確保社會能夠從中獲益。
約書亞·甘斯,是加拿大多倫多大學(xué)羅特曼管理學(xué)院戰(zhàn)略管理學(xué)教授。本文已獲Project Syndicate授權(quán)。