7月23日下午,我與王渝生博士作客北京電視臺(tái)科教頻道,參加“八點(diǎn)非常故事匯”《非常聰明》節(jié)目,探討家庭機(jī)器人未來到底有多能?放過短片后主持人英達(dá)向我發(fā)問:你覺得像片子中講的那么聰明的機(jī)器人,人類能夠造得出來嗎7我給出了一個(gè)比較保守的答案:在近期的未來不太可能。但隨后又補(bǔ)充一句:一旦真有那一天,必定出現(xiàn)了一種足以顛覆現(xiàn)有認(rèn)識(shí)的超級(jí)技術(shù)。試想,假如時(shí)光倒流150年,那時(shí)候的人們誰能預(yù)料得到電話,電視和電腦這些玩意啊?
幾天過后,看到《紐約時(shí)報(bào)》7月28日登出的一篇文章,題為《科學(xué)家擔(dān)心機(jī)器會(huì)比人聰明》,還提到:由于人工智能方面令人吃驚的進(jìn)展,一些計(jì)算機(jī)科學(xué)家正在爭(zhēng)論是否應(yīng)該對(duì)某些研究設(shè)限。這跟兩年前在美國舊金山召開的“奇點(diǎn)峰會(huì)——人工智能(AI)和人類未來”所傳出的信息如出一轍。在當(dāng)年的那個(gè)峰會(huì)上有AI研究人員警告說,現(xiàn)在是制訂道德指導(dǎo)原則以保證這些進(jìn)步會(huì)幫助人類而不是危害人類的時(shí)候了。最讓人最擔(dān)心的情況是,一個(gè)才華橫溢的發(fā)明者創(chuàng)造出一個(gè)對(duì)人類懷有敵意,可以自我編程但卻沒有道德觀念的智能機(jī)器。
看來,對(duì)于機(jī)器人的戒備和恐慌心理是比較普遍的了。最近一些年來,人們一直有一種擔(dān)心:機(jī)器總有一天會(huì)自己設(shè)計(jì),制造并操作將來的機(jī)器,屆時(shí)我們很可能沒有任何辦法來避免這一可能性的發(fā)生。1997年,英國人工智能與控制論專家凱文·渥維克出版了《機(jī)器的征途一為什么機(jī)器人將統(tǒng)治世界?》一書。書中向我們展示了第一批能夠?qū)W習(xí),互相交流和自我設(shè)計(jì)程序的機(jī)器人,并且向我們發(fā)出了警告——未來的機(jī)器人將會(huì)統(tǒng)治世界:“在2050年,我們?nèi)祟悓闄C(jī)器所驅(qū)使,必須做機(jī)器規(guī)定我們做的事情。許多人被用做一般勞動(dòng)力……這些人類勞工都已經(jīng)被閹割了,以防止出現(xiàn)不必要的性沖動(dòng);而且對(duì)他們的大腦也作了適當(dāng)?shù)恼{(diào)整,以避免人類性格中的弱點(diǎn),如發(fā)怒,感到壓抑或是有一些不切實(shí)際的想法?!?/p>
而在當(dāng)下的人工智能領(lǐng)域,則有這樣一種理念:當(dāng)人工智能機(jī)器達(dá)到一定的智能水平(即在某天突然達(dá)到一種稱作“奇點(diǎn)”的狀態(tài))之后,它們將會(huì)“失去控制”,以我們無法想象的速度自行進(jìn)化,以至于遠(yuǎn)遠(yuǎn)地并且非常迅速地把我們拋在后面。為此專家們發(fā)出警告說:如果你認(rèn)為這種神一樣無所不能的人工智能機(jī)器不可能被很快制造出來的話,那么不妨回想一下,利奧·西拉德在20世紀(jì)30年代預(yù)測(cè)一顆炸彈(原子彈)可以摧毀一座城市,當(dāng)時(shí)的人們卻把他看作瘋子的情形。
這樣的憂慮是不是有點(diǎn)兒過了?
真正的問題或許是:當(dāng)我們使機(jī)器具有更多的智能時(shí),我們并不知道哪里是危險(xiǎn)的邊緣,因?yàn)閷?duì)于智能的衡量并不明確,更何況智能所要包括的領(lǐng)域是如此之廣。正如渥維克所言,這情形“很像是閉著眼睛在懸崖上行走,每向前邁一步之前,你說:‘我剛才走的一步?jīng)]出問題,因此我就再邁一步吧?!跊]有到達(dá)懸崖邊緣之前你還不會(huì)出事,但等到了的時(shí)候就太晚了”。到那時(shí)候,人類是圓了一個(gè)好夢(mèng)還是迎來了一個(gè)噩夢(mèng)呢?
不過,對(duì)此也有不少人持樂觀態(tài)度,認(rèn)為各種各樣的智力至少有可能建立一種共生關(guān)系。機(jī)器人或計(jì)算機(jī)不會(huì)取代我們的地位,而會(huì)作為我們的朋友和同盟者,跟我們一道走向光輝燦爛的未來——只要我們?cè)诖酥安灰晕覛?/p>
責(zé)任編輯 劉俊