蕭星寒
公元2044年的一天,城市的貧民窟里,一個警察正在巡邏。在一個角落,他看到了一個破爛的機器人。這在這個地區(qū)非常常見,然而,不常見的是,那個機器人正在對自己斷掉的腿進(jìn)行維修。這行為是明顯違反規(guī)定的。警察嚇壞了,掏出槍來轟掉了那機器人的腦袋……
這是由西班牙導(dǎo)演加貝·伊班內(nèi)茲執(zhí)導(dǎo)的科幻片《機器紀(jì)元》的開頭,然后由影星安東尼奧·班德拉斯飾演的ROC科技公司旗下的保險理賠員杰克·波根開始調(diào)查此事。
為什么機器人不能修理自己?當(dāng)電影公映之后,有關(guān)機器人的各種話題再度熱炒,其中就有“機器人三原則”以及它的各種升級補丁版。這是科幻作家為機器人設(shè)定的一整套行為規(guī)范和道德準(zhǔn)則,不僅受到科幻迷的追捧,甚至還影響到了真正研究機器人的那些科學(xué)家。這是科幻,也是科學(xué)。
“機器人三原則”改變機器人的黑暗形象
在電影里,那時核大戰(zhàn)雖然結(jié)束了,但到處都是不能居住的輻射區(qū),只有用高大的圍墻圈起來的城市是人類的避難之所,然而,空氣是有毒的,水也不清潔,貧富差距極其明顯。在這種情況下,ROC科技公司研發(fā)的“朝圣者7 000”智能機器人迅速崛起,幫助人們處理從生到死的一切事務(wù)。機器人們?nèi)蝿谌卧?,不辭辛苦,與此同時也遭遇種種殘酷無情的對待。為了安全起見,在它們的仿生內(nèi)核里,設(shè)置了兩條根本原則——第一原則:必須保護(hù)人類生命;第二原則:不得對機器人進(jìn)行維修和改造。
在相當(dāng)長的一段時間內(nèi),這兩條根本原則保護(hù)了人類已經(jīng)非常脆弱的文明。但現(xiàn)在,有機器人違反了第二原則,這是非常危險的事情。不久,一個機器人當(dāng)著波根的面自焚了,這匪夷所思的事情讓波根意識到自己必須查出幕后兇手。
在早期科幻小說里,機器人的形象千篇一律:人類制造出機器人來當(dāng)奴隸,機器人不堪奴役而造反,成為人類毀滅者。到20世紀(jì)50年代,機器人的這種黑暗形象才得到改變。美國科幻大師阿西莫夫為機器人建立了一套行為規(guī)范和道德準(zhǔn)則,這就是“機器人三原則”:
一、機器人不可傷害人,或任人受到傷害而無所作為。
二、機器人應(yīng)服從人的一切命令,但命令與第一定律相抵觸時例外。
三、機器人必須保護(hù)自身的安全,但不得與第一、第二定律相抵觸。
有了“機器人三原則”,阿西莫夫筆下的機器人就不再是“犯上作亂”的反面角色,而是人類忠實的奴仆和朋友。隨著現(xiàn)實里機器人的用途日益廣泛,阿西莫夫的“機器人三原則”越來越顯示智者的光輝,以至有人稱之為“機器人學(xué)的金科玉律”。
這三條原則看上去語言簡潔明了,內(nèi)在邏輯清晰透徹,一經(jīng)推出,即受到廣大讀者的狂熱追捧。這種狂熱甚至影響到了真正研究機器人的科學(xué)家。然而,機器人三原則只具有理論價值,而不具有實踐意義。
首先一點,在人工智能技術(shù)發(fā)達(dá)之后,什么樣的人都可以造機器人,顯然,不是誰都認(rèn)可機器人三原則的,比如恐怖分子。其次,機器人的用途千種萬種,只要你想得到的,沒有造不出來的,比如軍用機器人,不會有誰會傻到制造以“不可傷害人”為第一行事準(zhǔn)則的軍用機器人吧。
事實上,軍用機器人是機器人幾大運用領(lǐng)域中智商要求最高的,因此也是機器人技術(shù)發(fā)展最快的領(lǐng)域。軍用機器人,生來就是殺人的,當(dāng)然不可能遵守機器人三原則。為了在變化多端的戰(zhàn)場環(huán)境中生存并執(zhí)行任務(wù),它們必須比別的種類的機器人聰明上百倍。
“機器人三原則”的升級補丁
阿西莫夫肯定也看到了“機器人三原則”的不足。在1985年,《機器人與帝國》這本書中,阿西莫夫在三原則的基礎(chǔ)上加了一個第零原則:機器人不得傷害人類整體,或袖手旁觀坐視人類整體受到傷害。
為什么后來要定出這條“第零原則”呢?比如,為了維持國家或者說世界的整體秩序,我們制定法律,必須要執(zhí)行一些人的死刑,這種情況下,機器人該不該阻止死刑的執(zhí)行呢?顯然是不允許的,因為這樣就破壞了我們維持的秩序,也就是傷害了人類的整體利益。
其他科幻作家也試圖對機器人三原則進(jìn)行修補。羅杰·克拉克構(gòu)思的機器人原則包括七條:
元原則:機器人不得實施行為,除非該行為符合機器人原則。
第零原則:機器人不得傷害人類整體,或者因不作為致使人類整體受到傷害。
第一原則:除非違反高階原則,機器人不得傷害人類個體,或者因不作為致使人類個體受到傷害。
第二原則:機器人必須服從人類的命令,除非該命令與高階原則抵觸。機器人必須服從上級機器人的命令,除非該命令與高階原則抵觸。
第三原則:如不與高階原則抵觸,機器人必須保護(hù)上級機器人和自己之存在。
第四原則:除非違反高階原則,機器人必須執(zhí)行內(nèi)置程序賦予的職能。
繁殖原則:機器人不得參與機器人的設(shè)計和制造,除非新機器人的行為符合機器人原則。
這組“機器人七原則”要完備得多。但并非毫無問題。比如,如果機器人擁有了自我意識,擁有了與人類不相上下甚至超過人類的智慧和文明,我們還有資格為它們制定原則么?
機器紀(jì)元是我們注定的未來?
在《機器紀(jì)元》中,ROC科技公司制造出了第一種真正具有自我意識的量子電腦后,科學(xué)家們同這臺沒有任何限制的量子電腦交流了8天,暢所欲言,相互學(xué)習(xí)。但疑慮已經(jīng)在科學(xué)家心里閃現(xiàn):這臺量子電腦如此聰明,或許有一天它將不再需要我們的幫助,它將自我進(jìn)化。到了第9天,人機對話終止了,并不是電腦終止了與人類的對話,而是因為科學(xué)家們無法理解量子電腦??只胖?,科學(xué)家們意識到要將機器人限制在人類可以理解的范圍內(nèi),于是他們向量子電腦下達(dá)了最后一個指令,就是編制機器人無法破解的安全原則。后來,所有的“朝圣者7 000”智能機器人的仿生內(nèi)核都是以這臺量子電腦為藍(lán)本制造的,區(qū)別就在于前面說過的那兩條安全原則。事實上,這兩條安全原則就是機器人七原則的第一原則和繁殖原則的另一種表述。
然而,所謂原則就是拿來破壞的,在影視劇里尤其如此。出現(xiàn)了違反原則的機器人之后,杰克·波根開始著手調(diào)查此事。起初他和所有人一樣,以為背后一定有一個機械師篡改了機器人的程序,在無意中卷入了機器人的逃亡之旅后,他驚訝地發(fā)現(xiàn),整個事件的背后并沒有機械師,“朝圣者7 000”智能機器人自發(fā)地違背了原則,對自身進(jìn)行維修和改造。
很難解釋這件事情,也許是當(dāng)初第一代量子電腦埋下的后門,也可能是一種本能。但結(jié)果就是,機器人開始反叛。不,也不能說是反叛,它們只是離開城市,去往人類到不了的輻射區(qū),繼續(xù)生活。
人類不珍惜地球,將地球破壞得千瘡百孔。也許機器人會是更好的繼承者。人類制定,或者機器人制定的幾條規(guī)則,并不能阻止這一未來的到來。
這難道是我們注定的未來?