石無魚
ChatGPT是由美國人工智能研究公司OpenAI研發(fā)的一款聊天機(jī)器人程序,它上知天文下知地理,不僅能回答你的各種問題,還能根據(jù)上下文進(jìn)行互動,做到幾乎與真人無異的交流。但是,在GPT-4發(fā)布兩周后,美國知名科技企業(yè)家埃隆·馬斯克和上千名科技界、商業(yè)界人士聯(lián)名,發(fā)表了一封公開信,呼吁所有人工智能實(shí)驗(yàn)室立即暫停研制比GPT-4更強(qiáng)大的人工智能系統(tǒng)至少6個月。
馬斯克等人寫這封信的意圖不是為了阻止人們進(jìn)一步研究AI——他們知道沒有人能做到這一點(diǎn),他們擔(dān)憂的只是近期AI研究的突然加速,讓人類面臨的許多風(fēng)險可能一下子都處于失控狀態(tài),需要留給我們時間去權(quán)衡利弊和制定必要的規(guī)則。
基于這種認(rèn)識,該公開信連續(xù)拋出了四個問題:我們是否應(yīng)該讓機(jī)器用宣傳和謊言淹沒我們的信息渠道?我們是否應(yīng)該讓所有的工作自動化,包括那些令人滿意的工作?我們是否應(yīng)該發(fā)展最終可能在數(shù)量上超過我們、在智能上超越我們、能夠淘汰并取代我們的非人類思維?我們應(yīng)該冒著失去對我們文明控制權(quán)的風(fēng)險嗎?
四個問題一個比一個嚴(yán)重。概括地說,前兩個問題涉及AI的短期風(fēng)險,后兩個問題涉及AI的長期風(fēng)險。
2023年3月18日,美國前總統(tǒng)特朗普聲稱自己“下周二就會被逮捕”。雖然這事并未發(fā)生,但還真有不少人用基于GPT-4的圖像編繪技術(shù)編造了“特朗普被捕”的“照片”,這類有圖有文的報道幾乎到了以假亂真的地步。
我們每個人都不是神,對于遠(yuǎn)方或過去發(fā)生的事情,要想了解只能聽報道或轉(zhuǎn)述,至于真假則由自己去判斷。如果語言或文字還不足以讓我們做出判斷,我們還可以求助于圖片、視頻,但除此之外,就沒更多的招數(shù)了??墒乾F(xiàn)在,圖片、視頻也可以合成了;而且借助AI,一個有圖有文的假新聞幾秒內(nèi)就能炮制出來;雖然有時也會被人揭穿,但足以一時混淆人們的視聽。
更要命的是,大量這類發(fā)布在網(wǎng)上的假信息,又會被后人采用(因?yàn)闀r過境遷,后人很難判斷真假),更有甚者,被別的AI采用。如此雪球般地滾下去,不遠(yuǎn)的將來,真相將完全被假象淹沒,公眾喪失驗(yàn)證信息真假的手段。
這樣發(fā)展下去,造成的一個嚴(yán)重后果是社會的撕裂,即對同一件客觀上發(fā)生(或沒發(fā)生)的事情,立場不同的人們對于真相再也達(dá)不成共識,因?yàn)檎l也說服不了誰:你有文字?我也有文字!你有圖片?我也有圖片!你有視頻?我也有視頻!
這種前景是非常可怕的。在互聯(lián)網(wǎng)時代,當(dāng)真相被謊言淹沒時,社會也將面臨同樣的風(fēng)險。
當(dāng)AI發(fā)展起來,毫無懸念,大量的人類工作將被AI取代。
現(xiàn)在的很多工廠雖然以機(jī)器生產(chǎn)為主,但操作還需要人工。可是在未來,AI機(jī)器人會取代這一切,無人工廠會成為主流,勞動密集型行業(yè)的大量工人將面臨失業(yè)。
此外,很多文職工作也將被AI取代,比如律師。AI可以在30秒內(nèi)做出準(zhǔn)確率高達(dá)90%的法律顧問工作,而人類律師的準(zhǔn)確率也不過70%,且效率遠(yuǎn)遠(yuǎn)比不上AI。
還有醫(yī)生。AI醫(yī)生能快速學(xué)習(xí)所有的醫(yī)學(xué)知識和臨床經(jīng)驗(yàn),它能在一分鐘內(nèi)處理分析上千萬個數(shù)據(jù)病例,從而給出一個準(zhǔn)確的診斷,這是人類醫(yī)生望塵莫及的。而且智能機(jī)器人還可以進(jìn)行各種高難度手術(shù),其成功率也遠(yuǎn)高于人類醫(yī)生。
所以,人類的工作被AI取代是全方位的。只有少數(shù)特別需要創(chuàng)造力或與人溝通能力的工作才會為人類保留。到那時,我們將何去何從?
網(wǎng)絡(luò)世界的最大威脅是黑客。人類黑客可以通過層出不窮的手段來入侵你的電腦、手機(jī),盜取你的銀行卡密碼、個人信息。黑客還可以入侵能源、交通等公共管理平臺,使其癱瘓、失靈。一些黑客甚至有能力入侵一個國家的武器控制系統(tǒng)。
但比起未來的AI黑客,人類黑客的威脅就小到忽略不計了,因?yàn)槿肭窒到y(tǒng)對它們來說根本不是什么難事。
現(xiàn)在的飛機(jī)、火車、地鐵都是靠智能平臺調(diào)度,正在蓬勃發(fā)展中的無人駕駛汽車、人類的金融交易也依賴智能系統(tǒng)。如果這些智能系統(tǒng)被恐怖分子控制的AI黑客攻破,后果不堪設(shè)想。
最可怕的還是控制核彈發(fā)射的系統(tǒng)被黑客攻破。據(jù)聯(lián)合國保守統(tǒng)計,全世界的核彈存量有1萬枚以上。它們中的任何一枚都可以將一座城市夷為平地。
“失控”的本質(zhì)在于風(fēng)險信息與發(fā)展速度之間的不對稱。短期風(fēng)險以及公開信中提到的“人類被邊緣化”,其實(shí)都還只是我們已經(jīng)“看到的危險”。真正致命的風(fēng)險或許還藏在我們看不到的地方,當(dāng)它凸顯時,我們可能已經(jīng)閃避不及。
比如著名的“曲別針制造機(jī)”假說。該假說假定一臺人工智能接受指令“制造曲別針”,如果它過于智能,擺脫了人類的控制,就會窮盡地球上所有的資源,不知疲倦地去完成“制造曲別針”這個命令,最終將可用資源罄盡,導(dǎo)致人類、AI自身乃至整個世界的滅亡。
你或許會說,難道我們就不能教會AI“做事要適度”?
很難。人類的一切行為規(guī)則,包括“做事要適度”,組成了我們所謂的倫理道德。而人類的倫理道德是經(jīng)過數(shù)百萬年的進(jìn)化和實(shí)踐,與自然反復(fù)博弈之后才確立起來的??墒?,人類的這套行為規(guī)則注定是無法用幾行代碼傳達(dá)給AI的。當(dāng)然,也不排除AI經(jīng)過長期的進(jìn)化和反復(fù)的實(shí)踐掌握了人類的這套行為規(guī)則。但我們還是需要擔(dān)心,在AI習(xí)得這套規(guī)則之前,人類會不會已經(jīng)被它們折騰沒了?
道理很簡單,如果AI最終在智能上遠(yuǎn)超人類,那么人類必然無權(quán)替AI界定它們該怎么行動。倒是很可能反過來,由AI告訴人類該做什么、不該做什么。
AI的發(fā)展如果失控,未來人類和AI的關(guān)系很可能就是這樣。它們未必會滅絕我們,卻有可能把我們當(dāng)作寵物來養(yǎng);人類雖不至于滅亡,但那個世界已經(jīng)不屬于我們了。
這就是馬斯克等人提議暫停AI研究的根本原因。趁現(xiàn)在還掌握著主動權(quán),抓緊為AI的發(fā)展制定規(guī)則,確保其研究朝著有利于人類的方向發(fā)展,以免有一天失控,我們親手為自己培養(yǎng)出一個掘墓人。
不過,即便現(xiàn)在很多人已經(jīng)意識到了風(fēng)險,但或許也為時已晚。因?yàn)槟呐乱恍┛萍季揞^企業(yè)會積極響應(yīng)馬斯克們的呼吁,暫停AI的研究,但總有一些自私的團(tuán)體,會繼續(xù)偷偷地研究的。最后逼得大家都加入這場玩火自焚的競賽中。
所以馬斯克們最后問的那個問題:“我們應(yīng)該冒著失去對我們文明控制權(quán)的風(fēng)險嗎?”——可能不是我們想不想的問題,而是已經(jīng)在失控了。
(摘自《大科技·科學(xué)之謎》2023年6月A刊,本刊有刪節(jié),小黑孩圖)