人類是一種始終有著某種自毀傾向的物種,最糟糕的是,現(xiàn)在人類也具有了自毀的能力。人類憑借進(jìn)化的優(yōu)勢(shì),創(chuàng)造出了迄今為止地球上最輝煌的文明。出于對(duì)世界的好奇和無(wú)與倫比的勇氣,人類完成了對(duì)這個(gè)星球從高山到平原、河流,從天空到海洋的探索;人類憑借自身的智慧,可以預(yù)測(cè)日月星辰的變化,又發(fā)現(xiàn)了原子的奧秘,可以辨認(rèn)出構(gòu)成事物最基本的元素,地球上其他任何物種都遠(yuǎn)遠(yuǎn)無(wú)法和人類相比;人類甚至踏足外空,在這個(gè)行星唯一的天然衛(wèi)星上漫步。
與這些輝煌成就相伴的,是令人難以置信的愚蠢。從歷史發(fā)展過(guò)程來(lái)看,人類毀滅文明和建設(shè)文明的興趣同樣濃厚。人類至今仍然因?yàn)榉N種原因互相仇視、自相殘殺,并且制造出了足以毀滅自身的武器。野蠻與文明同時(shí)存在于人類的本性之中,仿佛是一枚硬幣的正反兩面。我們?cè)谖磥?lái)面臨的最大危險(xiǎn),很可能來(lái)自人類自身。
人類對(duì)于人工智能(Artificial Intelligence)的恐懼早不是什么新鮮事。曾經(jīng)和阿蘭·圖靈一同工作過(guò)的英國(guó)數(shù)學(xué)家歐文·古德(Irving Good)教授,在人工智能的第一次熱潮中,于1965年就創(chuàng)造出了“智能爆炸”(intelligence explosion)這個(gè)概念。他寫(xiě)道:“因?yàn)橹圃旒捌浔旧砭褪且环N智能行為,一種遠(yuǎn)超人類的超級(jí)智能機(jī)器本身就可以制造出更好的機(jī)器,這毫無(wú)疑問(wèn)會(huì)成為一種‘智能爆炸,然后人類的智能被遠(yuǎn)遠(yuǎn)落在后面,因此最初的一種超級(jí)智能機(jī)器是人類最后一種需要發(fā)明的機(jī)器,只要這種機(jī)器愿意服從人類的控制?!?/p>
古德教授的文字中對(duì)于超級(jí)智能機(jī)器的恐懼清晰可見(jiàn),這種恐懼在那個(gè)時(shí)代尚且顯得有些不切實(shí)際。而在幾十年后,當(dāng)人工智能又一次成為世界熱點(diǎn)時(shí),包括比爾·蓋茨、埃隆·馬斯克等科技界的精英,及史蒂芬·霍金和馬丁·里斯等物理學(xué)家和天文學(xué)家都紛紛公開(kāi)表示了對(duì)于人工智能發(fā)展的擔(dān)憂,實(shí)際上對(duì)于人工智能的恐懼早已在硅谷的IT精英中蔓延開(kāi)來(lái),乃至于埃隆·馬斯克形容對(duì)于人工智能的研究是“對(duì)魔鬼的召喚”。
在未來(lái),隨著人工智能技術(shù)的發(fā)展,機(jī)器人可能成為人類最好的朋友,陪伴人類成長(zhǎng)
另一方面,與如此急切的擔(dān)憂相對(duì)應(yīng)的是,人類此時(shí)對(duì)于人工智能,或者是尚未出現(xiàn)的“超級(jí)智能”(superintelligence)的擔(dān)憂仍然缺乏切實(shí)的證據(jù)。人工智能還沒(méi)有任何足以威脅到人類的跡象,而且科學(xué)家與普通人對(duì)于人工智能潛在危險(xiǎn)的認(rèn)知也并不相同。大多數(shù)人對(duì)于人工智能的恐懼可能直觀地來(lái)自《終結(jié)者》或是《黑客帝國(guó)》系列電影,在電影中的未來(lái)世界,超級(jí)智能的機(jī)器網(wǎng)絡(luò)完全控制了人類社會(huì),要么派出危險(xiǎn)的機(jī)器人追殺人類,要么則直接控制人類的大腦,彼時(shí)曾經(jīng)主宰地球的人類只是如植物一般被機(jī)器維持著生命。
專業(yè)人士的擔(dān)心與此完全不同。2016年6月,Google公司與斯坦福大學(xué)、加州伯克利大學(xué)等機(jī)構(gòu)的研究人員合作發(fā)表了一篇論文《人工智能安全性的真正問(wèn)題》(Concrete Problems in AI Safety),論文中列出了目前人類在使用和發(fā)展人工智能時(shí)面臨的真實(shí)風(fēng)險(xiǎn),其中包括人工智能系統(tǒng)“學(xué)會(huì)”通過(guò)欺騙來(lái)完成設(shè)定的目標(biāo)(例如掃地機(jī)器人學(xué)會(huì)遮蓋住地板上的污漬而不是如人類期待的把污漬擦干凈),人工智能系統(tǒng)在設(shè)計(jì)中出現(xiàn)失誤、被恐怖分子劫持等可能性,還包括人工智能在探索全新環(huán)境時(shí)的安全性問(wèn)題。論文中對(duì)于人工智能的危險(xiǎn)性主要集中在技術(shù)方面,但人類對(duì)于人工智能的擔(dān)心顯然遠(yuǎn)不止于此。
加州大學(xué)伯克利分校的斯圖爾特·羅素(Stuart Russell)教授認(rèn)為人工智能對(duì)于人類的危險(xiǎn)性絲毫不遜于核武器,他形容人類對(duì)于人工智能的研究猶如開(kāi)車沖向一個(gè)懸崖。人類追求無(wú)窮無(wú)盡的智能猶如當(dāng)年研究核聚變時(shí)追求無(wú)窮無(wú)盡的能源——可能更糟糕的是人類尚且可以限制核武器的數(shù)量和制造原料來(lái)盡量減小危險(xiǎn),卻無(wú)法限制各種各樣智能軟件的開(kāi)發(fā)。羅素教授認(rèn)為,也許人工智能永遠(yuǎn)也不會(huì)有人類般的意識(shí)或是達(dá)到“超級(jí)人工智能”,但是“這就如同一邊開(kāi)著一輛車沖向懸崖,一邊又希望這輛車趕快耗盡汽油”。
目前我們還處于人工智能專家所定義的“弱人工智能時(shí)代”,人工智能系統(tǒng)還只是人類進(jìn)行工作的輔助工具,但是它已經(jīng)深深影響到人類的生活。要控制人類可能并不需要造型可怕的超級(jí)機(jī)器人,只需要有網(wǎng)絡(luò)的鏈接。因?yàn)槿斯ぶ悄芟到y(tǒng)可以在短時(shí)間內(nèi)完成人類可能需要上百萬(wàn)年才能完成的工作,在很多系統(tǒng)中人工智能已經(jīng)開(kāi)始代替人類做決定。美國(guó)國(guó)家安全局利用人工智能系統(tǒng)進(jìn)行通話記錄的數(shù)據(jù)挖掘,找出其中可疑的用戶信息進(jìn)行調(diào)查。更為危險(xiǎn)的是由人工智能掌握的致命武器,目前已經(jīng)有超過(guò)50個(gè)國(guó)家正在研究可以用于戰(zhàn)場(chǎng)的機(jī)器人,這種機(jī)器人如果用于實(shí)戰(zhàn),將可以自行確認(rèn)敵軍和友軍,并且將會(huì)有決定是否進(jìn)行殺戮的權(quán)力。
2016年4月22日,美國(guó)國(guó)務(wù)卿約翰·克里在位于紐約的聯(lián)合國(guó)總部簽署了巴黎氣候協(xié)議,并親吻自己的小孫女
可以自行決定是否對(duì)人類進(jìn)行殺戮的機(jī)器是人類面對(duì)人工智能帶來(lái)的最直接的危險(xiǎn),但這也還不是人們最大的擔(dān)憂。人類并不會(huì)愚蠢到輕易地給予機(jī)器進(jìn)行殺戮或是進(jìn)行自動(dòng)復(fù)制的能力,而更大的憂慮在于,我們無(wú)法判定超級(jí)智能的出現(xiàn),我們不知道如何控制超級(jí)智能,甚至可能無(wú)法判斷是否已經(jīng)被它所控制。在人類的歷史上,從未有過(guò)可以與之對(duì)比的困境。
超級(jí)智能,或是叫作強(qiáng)人工智能,是人們所想象的一種人工智能的高級(jí)發(fā)展?fàn)顟B(tài),這種程度的智能已經(jīng)不僅僅是可以在棋牌上贏過(guò)人類冠軍或者進(jìn)行簡(jiǎn)單的數(shù)據(jù)挖掘整理工作,而是在智能的任何方面都遠(yuǎn)超人類,此時(shí)它是否還可以被人類所駕馭,就成了一個(gè)未知數(shù)。在人工智能出現(xiàn)之前,人類早已經(jīng)習(xí)慣了“適者生存”的邏輯,認(rèn)定自己是在歷時(shí)幾百萬(wàn)年的物種進(jìn)化中的幸存者和勝出者,我們正是以遠(yuǎn)超其他所有物種的智力成為地球的統(tǒng)治者,我們是宇宙中目前僅知的獨(dú)一無(wú)二的智能生物。問(wèn)題在于,一旦出現(xiàn)了智能超越人類的機(jī)器,人類又該如何自處,是否應(yīng)該把對(duì)地球和自身的主導(dǎo)權(quán)交給更為強(qiáng)大的智能?