在經(jīng)典科幻電影《2001》中,太空船的主機(jī)HAL面臨一個進(jìn)退兩難的困境。計算機(jī)指令要求他既要完成飛船使命(調(diào)查一件在木星附近的人工制品),又不能讓船員知情。他決定通過殺死船員來解決這一矛盾。
1997年,在加里·卡斯帕羅夫與IBM的超級計算機(jī)深藍(lán)第二次對決失利后,人們預(yù)言,無論是作為競技性比賽,還是作為觀賞性運(yùn)動,電腦最終會令國際象棋失去樂趣。
這種輕蔑的態(tài)度與時代的精神是一致的。在我們這個時代,程序算法的精密超越了有缺陷的人工判斷。從網(wǎng)絡(luò)搜索到市場營銷和股票交易,甚至包括教育和治安在內(nèi),計算機(jī)根據(jù)復(fù)雜決策規(guī)則處理數(shù)據(jù)的能力從各個角度保證我們的生活變得更加美好。
乍一看來,這似乎是一個純粹的未來福音,然而開車不單單是技術(shù)操作。對于技術(shù)操作,機(jī)器可以比人做得更好。但是,開車還包括道德抉擇。如果讓汽車自動駕駛,放棄的不僅是對于汽車的控制,還包括駕車時可能面臨的道德判斷。
事實上,反對盲目崇拜程序的運(yùn)動已經(jīng)開始。
Anti被程序
隨著機(jī)器人變得更加智能與普及,假以時日,智能化機(jī)器勢必要在不可預(yù)料的處境下做出生死攸關(guān)的抉擇,如此一來機(jī)器人便有了——或者像是有了——道德選擇能力。在當(dāng)前的各種武器系統(tǒng)中,操作員還處于“決策圈內(nèi)”,但隨著系統(tǒng)復(fù)雜度的提高,并為之配上可自主執(zhí)行系統(tǒng)命令的武器,操作員很可能就被安置在了“執(zhí)行圈上”。
果真如此的話,則機(jī)器人將陷入倫理困境。如果已知目標(biāo)在一所房子內(nèi),但其中也可能有平民,無人機(jī)是否應(yīng)該向房子開火?如果是以撞上其他車輛或者危及車內(nèi)乘員為代價,無人駕駛汽車是否還會選擇突然轉(zhuǎn)向以躲避行人?面對可能會造成恐慌的情形,救災(zāi)機(jī)器人是否應(yīng)該告訴人們正在發(fā)生的事情真相?此類問題開創(chuàng)了“機(jī)器人道德”這一領(lǐng)域,其主要目的是使機(jī)器人有能力對此類問題做出恰當(dāng)?shù)倪x擇——換句話說,就是賦予它們明辨是非的能力。
讓汽車自主行駛,谷歌目前正在開發(fā)這一設(shè)想。電腦化的汽車已經(jīng)在內(nèi)華達(dá)州,佛羅里達(dá)州和加利福尼亞州合法化,它們可以開得更快,靠得更緊密,在保證安全的同時減少交通堵塞。它們會在辦公室把你放下,然后自己??亢?。我們有什么理由不喜歡呢?首先,葉夫根尼·莫羅佐夫曾對計算機(jī)輔助下的“解決主義”提出過尖銳的批評,就像他指出的那樣,城市規(guī)劃的結(jié)果對某些人來說并不可取。“隨著更多人開始駕車,自動駕駛汽車帶給我們的是不是低劣的公共交通?”
紐約大學(xué)的心理學(xué)教授加里·馬庫斯在《紐約客》上提出了一個生動的思想實驗。假設(shè)你坐在自動駕駛車中通過一座窄橋,一輛滿載小孩的失控校車朝你猛沖過來。橋上沒有地方允許兩輛車錯車而過。自動駕駛汽車能否做出決定駛下窄橋,以你的死挽救孩子的生命?
馬庫斯的這個例子說明了一個事實:對于技術(shù)操作,機(jī)器可以比人做得更好,但是,開車還包括道德抉擇。
數(shù)字倫理
在巴爾的摩和費(fèi)城,軟件已經(jīng)被用于預(yù)測哪些囚犯被釋放會再犯罪。這種軟件基于犯罪數(shù)據(jù)庫,根據(jù)地理位置、先前的犯罪類型和上一次犯罪的年齡等變量進(jìn)行計算。根據(jù)《連線》雜志今年的一份報告,“該軟件旨在取代假釋官根據(jù)假釋犯的犯罪記錄做出的判斷?!边@種道德判斷關(guān)乎一個人的自由,將這種道德判斷放手給軟件處理所當(dāng)然會讓一些人感到不舒服。首先,我們還不知道這套系統(tǒng)是否是比人類更準(zhǔn)確。其次,即使系統(tǒng)的判斷更加準(zhǔn)確,但只要它不是完全正確,就不可避免地會產(chǎn)生誤報——導(dǎo)致不會再犯罪的人持續(xù)被監(jiān)禁。毫無疑問,在現(xiàn)有的人工判定系統(tǒng)下,這樣的誤報也會發(fā)生,但至少我們可以讓做決定的人負(fù)上責(zé)任。你怎么能讓一個程序負(fù)責(zé)?
如果自主化的無人機(jī)在行動中出了岔子,或者無人駕駛汽車出了車禍,必須有這么一些法律可以幫助人們確定責(zé)任歸咎于誰,是機(jī)器的設(shè)計者、程序員、制造商還是操作人員。為了明確責(zé)任歸屬,必須使自主化系統(tǒng)保留詳盡的日志,由此人們便可以在必要的時候弄清楚系統(tǒng)各種決定背后的依據(jù)。這其中包含了對系統(tǒng)設(shè)計的要求:例如,(無人機(jī)或無人駕駛汽車)不能使用人工神經(jīng)網(wǎng)絡(luò),這種決策系統(tǒng)從實例中學(xué)習(xí),而不是遵循預(yù)先設(shè)定的規(guī)則。
其次,在機(jī)器人中植入了倫理體系的情況下,它們所做出的判斷需要符合大多數(shù)人類的判斷標(biāo)準(zhǔn)。實驗哲學(xué)應(yīng)該對此有幫助,該哲學(xué)研究人們?nèi)绾螒?yīng)對倫理上的兩難困境。最后一點(diǎn),也是最重要的一點(diǎn)是,工程師、倫理學(xué)家、律師和政策制定者需要進(jìn)一步通力合作,否則他們可能會做出類型各不相同的規(guī)則。倫理學(xué)家與工程師的合作是雙贏的:倫理學(xué)家在試圖“教授”機(jī)器倫理的過程中可能會加深自己對倫理學(xué)的認(rèn)知。而工程師則可以向大眾保證其設(shè)計出來的機(jī)器人沒有道德倫理缺陷。
科技推進(jìn)了人類社會的發(fā)展,然而其每一次進(jìn)步都伴隨著新問題的出現(xiàn),智能機(jī)器人也不例外。越早解決掉它們所帶來的道德選擇難題,人類就越容易享受其肯定會帶來的好處。
蘇晨根據(jù)《經(jīng)濟(jì)學(xué)人》《衛(wèi)報》綜合編譯。