安德拉·哈爾達(dá)爾(Antara Haldar)
安德拉·哈爾達(dá)爾,是劍橋大學(xué)實(shí)證法律研究副教授、哈佛大學(xué)客座教授,也是歐洲研究委員會(huì)法律與認(rèn)知項(xiàng)目首席研究員。本文已獲Project Syndicate授權(quán)。
如果說(shuō)艾倫·圖靈關(guān)于“思考機(jī)器”的研究是我們現(xiàn)在所說(shuō)的人工智能的前傳,那么已故心理學(xué)家丹尼爾·卡尼曼的暢銷書《思考,快與慢》可能就是續(xù)集,因?yàn)樗床炝宋覀冏约菏侨绾嗡伎嫉?。理解“我們”?duì)于規(guī)范“他們”至關(guān)重要。
這一努力已迅速成為政策制定者的首要議程。去年11月,20多國(guó)簽署了歐盟的《人工智能法案》和《布萊切利人工智能安全宣言》。而在美國(guó),拜登發(fā)布了一項(xiàng)行政命令,要求“安全、可靠地開發(fā)和使用”人工智能。
這些努力是對(duì)人工智能軍備競(jìng)賽的回應(yīng)。這場(chǎng)競(jìng)賽始于OpenAI在2022年底公開發(fā)布ChatGPT。最根本的擔(dān)憂是日益為人所知的“一致性問(wèn)題”:AI的目標(biāo)和追求目標(biāo)的方式可能不尊重人類gqzOetcBwpWIAEAVTLk8gQ==的目標(biāo),甚至不兼容人類的目標(biāo)。新的人工智能工具也有可能被不良行為者濫用,加深和擴(kuò)大已有的歧視和偏見。不斷進(jìn)化、能夠自學(xué)的人工智能還可能失控,決定制造一場(chǎng)金融危機(jī)、左右選舉,甚至制造一種生物武器。
在人工智能作為一種潛在的生存威脅的地位背后,有一個(gè)懸而未決的問(wèn)題:這項(xiàng)技術(shù)應(yīng)該與人類的哪些價(jià)值觀保持一致?現(xiàn)實(shí)生活中辯論的焦點(diǎn),包括微軟在2016年發(fā)布了一個(gè)種族主義、厭惡女性、超性感的聊天機(jī)器人,29U3w9v9yu4Z3akie1hwdA==以及必應(yīng)奇特的操縱欲和誘惑性(它試圖說(shuō)服一名科技記者離開他的妻子);最近,谷歌的雙子座(Gemini)的“醒了”特性導(dǎo)致它產(chǎn)生了歷史上荒謬的結(jié)果,比如黑人納粹士兵的圖像。
幸運(yùn)的是,現(xiàn)代社會(huì)已經(jīng)設(shè)計(jì)出一種機(jī)制,允許不同的道德部落共存:法治。法律作為一種制度,代表著合作的典范。幾個(gè)世紀(jì)以來(lái),人類一直在努力解決自己的結(jié)盟問(wèn)題:如何組織集體行動(dòng)。在此之后,它的出現(xiàn)是一個(gè)深刻的突破。
在認(rèn)知上,法律代表了一種激進(jìn)的新技術(shù)。一旦內(nèi)化,它就會(huì)使個(gè)人行為與社區(qū)共識(shí)保持一致。法律被當(dāng)作法律來(lái)遵守,而不考慮個(gè)人對(duì)任何規(guī)定的主觀判斷。幾位著名的哲學(xué)家都把注意力集中在這個(gè)獨(dú)有的特征上。20世紀(jì)的法律理論家H.L.A. 哈特,將法律描述為一種機(jī)制,它允許通過(guò)改變潛在的行為元規(guī)范來(lái)塑造規(guī)范。
最近,羅納德·德沃金用“完整性”來(lái)描述法律,因?yàn)樗w現(xiàn)了整個(gè)社會(huì)的規(guī)范,而不是像一個(gè)“棋盤”。如果法律是拼湊而成的,它可能會(huì)更好地代表個(gè)人的信仰和觀點(diǎn),但會(huì)犧牲連貫性。因此,法律作為一個(gè)凌駕于個(gè)人行為之上的按鈕,它吸收了關(guān)于道德和價(jià)值觀的復(fù)雜辯論,并將其磨成有約束力的規(guī)則。
目前關(guān)于人工智能和法律的大多數(shù)辯論,都集中在這項(xiàng)技術(shù)如何挑戰(zhàn)現(xiàn)行的監(jiān)管范式上。其中一個(gè)擔(dān)憂是“紅皇后效應(yīng)”,它描述了在快速發(fā)展的技術(shù)下保持監(jiān)管與時(shí)俱進(jìn)的內(nèi)在困難。另一個(gè)問(wèn)題是,在全國(guó)范圍內(nèi)監(jiān)管一項(xiàng)真正全球性的技術(shù)所面臨的挑戰(zhàn)。還有一個(gè)弗蘭肯斯坦式的怪物問(wèn)題:一項(xiàng)新技術(shù)主要是由少數(shù)私營(yíng)公司開發(fā)的,這些公司的優(yōu)先事項(xiàng)與公眾的不同。
重要的是,如果“思考機(jī)器”能夠?qū)W習(xí),它們能學(xué)會(huì)遵守法律嗎?隨著科技巨頭們爭(zhēng)先恐后地追求通用人工智能,人工智能的“黑匣子”問(wèn)題依然存在。即使是這項(xiàng)技術(shù)的創(chuàng)造者也不知道它是如何工作的。由于給人工智能分配“目標(biāo)功能”的努力可能會(huì)產(chǎn)生意想不到的后果,我們將需要一種更復(fù)雜的方法。
為此,我們應(yīng)該研究認(rèn)知進(jìn)化,它使人類社會(huì)能夠持續(xù)這么久。人類的法律是否可以作為設(shè)計(jì)約束,這是工程師的一個(gè)問(wèn)題。但如果它能做到,它可能代表著我們的救贖。