隨著人工智能的飛速發(fā)展,有人提出了一個(gè)十分嚴(yán)肅又令人擔(dān)憂的問(wèn)題: 人工智能會(huì)不會(huì)有一天超過(guò)人類智能?機(jī)器人會(huì)不會(huì)有一天取代自然人而主宰人類的命運(yùn)?影視作品更是把這種擔(dān)憂在屏幕上變成驚悚的畫(huà)面和令人恐懼的災(zāi)難——人工智能電腦統(tǒng)治了整個(gè)世界。
最早提出這一問(wèn)題的學(xué)者認(rèn)為,技術(shù)的進(jìn)一步發(fā)展會(huì)在未來(lái)的某個(gè)時(shí)刻深刻地改變?nèi)祟惿疃蔀楹腿祟惛?jìng)爭(zhēng)的一種力量。1983年,科學(xué)家第一次使用“奇點(diǎn)”一詞來(lái)描寫(xiě)人工智能超越人類智能的那一時(shí)刻。從此,“奇點(diǎn)”就被人們用來(lái)定義和討論人工智能對(duì)人類智能的超越。
人工智能真的會(huì)超越人類智能嗎? 如果真的會(huì)發(fā)生,那將是什么時(shí)候呢? 發(fā)生了以后世界和人類又將會(huì)怎樣呢? 要想回答這些問(wèn)題,我們先要了解今天的人工智能到底有多“聰明”,人工智能到底會(huì)發(fā)展到什么程度,以及什么樣的人工智能會(huì)超出人類的控制范圍給人類帶來(lái)威脅。讓我們先了解一下有關(guān)不同層級(jí)人工智能的幾個(gè)基本定義。
我們已經(jīng)講過(guò),人工智能普遍被認(rèn)為可以分為三個(gè)程度。第一個(gè)程度叫弱人工智能,也稱為“限制領(lǐng)域人工智能”或“應(yīng)用型人工智能”。在這個(gè)程度上的人工智能,專注于且只能解決特定領(lǐng)域的問(wèn)題。今天我們看到的所有人工智能都屬于弱人工智能的范疇。像谷歌的阿爾法狗就是弱人工智能的一個(gè)最好實(shí)例。它的能力僅限于圍棋,下棋時(shí)還需要人幫忙擺棋子,自己連從棋盒里拿出棋子并置于棋盤之上的能力都沒(méi)有,更別提下棋前向?qū)κ中卸Y、下棋后一起復(fù)盤等圍棋禮儀了。顯然,這樣的人工智能技術(shù)對(duì)人類還談不上是什么大的威脅。
人工智能的第二個(gè)程度叫強(qiáng)人工智能,又稱“通用人工智能”或“完全人工智能”。在這個(gè)程度上的人工智能,可以勝任人類所有的工作。人可以做什么,強(qiáng)人工智能就可以做什么。由于這種定義過(guò)于籠統(tǒng),更多的人提出用是否能通過(guò)圖靈測(cè)試來(lái)標(biāo)志強(qiáng)人工智能。
一旦實(shí)現(xiàn)了符合這一描述的強(qiáng)人工智能,我們幾乎可以肯定,所有人類工作都可以由人工智能來(lái)取代。機(jī)器人為我們服務(wù),每部機(jī)器人也許可以一對(duì)一地替換每個(gè)人類個(gè)體的具體工作,人類則獲得完全意義上的自由,只負(fù)責(zé)享樂(lè),不再需要?jiǎng)趧?dòng)。目前,雖然我們還沒(méi)能夠達(dá)到這種程度,但它對(duì)人類可能帶來(lái)的威脅是不難想象的。顯而易見(jiàn)的是,人一旦喪失了勞動(dòng)的需求,軀體和大腦的退化也就在所難免。
人工智能的第三個(gè)程度叫超人工智能,就是說(shuō)人工智能已經(jīng)全面超過(guò)人類智能。這樣的人工智能不但有意識(shí)和情感,而且有思想和意志。牛津大學(xué)哲學(xué)家、未來(lái)學(xué)家尼克·波斯特洛姆在他的《超級(jí)智能》一書(shū)中,將超人工智能定義為“在科學(xué)創(chuàng)造力、智慧和社交能力等每一方面都比最聰明的人類大腦強(qiáng)很多的智能”。顯然,對(duì)今天的人類來(lái)說(shuō),這是一種完全還存在于科幻電影中的想象。如果人工智能發(fā)展到這一程度,人類被滅絕可能就是分分鐘的事情。
顯然,如果人們對(duì)人工智能會(huì)不會(huì)挑戰(zhàn)和威脅人類有擔(dān)憂的話,我們擔(dān)心的是這里所說(shuō)的強(qiáng)人工智能和超人工智能。我們到底該如何看待強(qiáng)人工智能和超人工智能的未來(lái)呢?它們會(huì)像阿爾法狗那樣,以遠(yuǎn)超我們預(yù)料的速度問(wèn)世嗎?
今天,學(xué)者們對(duì)超人工智能何時(shí)到來(lái)眾說(shuō)紛紜。悲觀者認(rèn)為技術(shù)加速發(fā)展的趨勢(shì)無(wú)法改變,超越人類智能的機(jī)器將在不遠(yuǎn)的將來(lái)得以實(shí)現(xiàn),那時(shí)的人類將面臨生死存亡的重大考驗(yàn)。而樂(lè)觀主義者則更愿意相信,人工智能在未來(lái)相當(dāng)長(zhǎng)的一個(gè)歷史時(shí)期都只是人類的工具,很難突破超人工智能的門檻。
著名理論物理學(xué)家、《時(shí)間簡(jiǎn)史》的作者霍金就認(rèn)為:“完全人工智能的研發(fā)可能意味著人類的末日?!弊鳛榈厍蛏仙贁?shù)有能力用數(shù)學(xué)公式精確描述和推導(dǎo)宇宙運(yùn)行奧秘的人之一,霍金的宇宙觀和科技史觀無(wú)疑具有很大的影響力。事實(shí)上,霍金并不否認(rèn),當(dāng)代蓬勃發(fā)展的人工智能技術(shù)已經(jīng)在許多行業(yè)發(fā)揮著至關(guān)重要的作用,但他所真正憂慮的是機(jī)器與人在進(jìn)化速度上的不對(duì)等性?;艚鹫f(shuō),“人工智能可以在自身基礎(chǔ)上進(jìn)化,可以一直保持加速度的趨勢(shì),不斷重新設(shè)計(jì)自己。而人類,我們的生物進(jìn)化速度相當(dāng)有限,無(wú)法與之競(jìng)爭(zhēng),終將被淘汰”。此外,霍金同時(shí)還擔(dān)心人工智能普及所導(dǎo)致的人類失業(yè)問(wèn)題?;艚鹫f(shuō),“工廠自動(dòng)化已經(jīng)讓眾多傳統(tǒng)制造業(yè)工人失業(yè),人工智能的興起很有可能會(huì)讓失業(yè)潮波及中產(chǎn)階級(jí),最后只給人類留下護(hù)理、創(chuàng)造和監(jiān)督工作”。
特斯拉與SpaceX公司創(chuàng)始人埃隆·馬斯克,與霍金有大致相似的擔(dān)憂。馬斯克說(shuō),“我們必須非常小心人工智能。如果必須預(yù)測(cè)我們面臨的最大現(xiàn)實(shí)威脅,恐怕就是人工智能了”。
為了防止這種威脅,一家由當(dāng)今美國(guó)科技大咖們創(chuàng)建的研究公司OpenAI,聚集了一批AI領(lǐng)域的頂尖高手,立志研發(fā)安全的人工智能技術(shù),探索實(shí)現(xiàn)強(qiáng)人工智能的可能性,和通過(guò)實(shí)踐來(lái)探尋將人工智能技術(shù)的潛在威脅降至最低的方法。
對(duì)于人工智能的未來(lái),目前還沒(méi)有一個(gè)統(tǒng)一的看法,但有一點(diǎn)是肯定的,那就是技術(shù)正在深刻地改變著人類的生活、生產(chǎn)和生存方式。這種深刻的變革已經(jīng)并且會(huì)不斷地挑戰(zhàn)人類的智慧和未來(lái),改變?nèi)祟惖拿\(yùn)。
(選自《人工智能》,湯書(shū)昆主編,廣東教育出版社2021年版,有刪改)