波琳娜?葉廖緬科
澳大利亞警方曾報道過一起離奇的機器人自殺事件,這很可能是世界上第一起記錄在案的機器人自殺事件。事件主角是iRobot公司生產(chǎn)的一臺智能掃地機器人,據(jù)說這臺掃地機器人在主人出門后,因感覺不間斷的清潔工作實在太勞累,便選擇了跑到廚房的電爐上自焚。消防隊員趕到現(xiàn)場,對整棟大樓進行疏散,機器人自殺的那層樓更是濃煙滾滾。
負責(zé)處理該事故的消防員赫爾穆特·納塞爾說,據(jù)錄像資料顯示,這家的男主人當(dāng)天讓智能掃地機器人清理案板上的殘留食物,機器人完成清理工作后,他就關(guān)閉了機器人的電源開關(guān),并將機器人放到了廚房一側(cè)的廚柜上。然后他就和妻兒一起出門了,把機器人獨自留在家里。
該事件發(fā)生后,有人猜測,很可能是因為男主人在指使機器人干活時態(tài)度不太好,或是這家房子的清理工作過于繁重。在主人全家走后,機器人就自動啟動,靠近電爐,并將放在電爐上的鍋挪開,然后再自己蹲坐在電爐上。
位于電爐上的機器人很快就開始融化,它沒發(fā)出一點痛苦的喊叫聲,融化了的“尸體”黏在電爐上,從而引發(fā)了火災(zāi)。消防員趕到時,已經(jīng)只剩下一堆灰燼。
這家男主人堅稱,他在出門前肯定把這臺機器人關(guān)閉了,所以機器人的自動啟動和神秘自焚事件就成了一宗懸案。他說:“生產(chǎn)這種機器人的企業(yè)出售的是危險產(chǎn)品。我們在‘追悼這臺機器人的時候,也應(yīng)該奉勸其他同類清潔機器人,沒有什么大不了的,想開點?!?/p>
美國紐約倫斯勒理工學(xué)院認知研究部主任塞爾默·布林斯特
10年前,我們開始對機器人倫理道德問題進行研究。當(dāng)時很多人認為我們是一群奇怪的家伙,甚至有人以為我們瘋了。但令人驚奇的是這10年人們的觀念發(fā)生了翻天覆地的變化:現(xiàn)在不再有人認為我們是在做瘋狂的事。目前,我正在進行一項研究:從倫理角度出發(fā),應(yīng)該允許機器人自殺嗎?我們對機器人進行的研究,是一種心理治療和精神分析。對機器人倫理道德的深入研究,就是人類對自己精神世界的剖析。
在我的實驗室里,有一系列像科幻小說中描述的那樣的類人機器,我用它們做試驗。現(xiàn)在,我想弄清楚可能導(dǎo)致我的機器人自殺的原因。我的疑問是:機器人是否會像人類一樣,因感到生命無意義或患上抑郁癥,想要結(jié)束自己的生命?此外我們還面臨一個問題:人類是否應(yīng)該允許機器人自殺?
我們設(shè)計出的智能機器人,會表現(xiàn)出35種不同的情感狀態(tài)。但計算程序也有出差錯的時候,如果智能系統(tǒng)崩潰了,機器人也會患上“抑郁癥”。
機器人的情感體驗沒有辦法像人類一樣豐富、自由。例如,機器人可以抽一支煙,卻無法自主得到像人類一樣享受滿足的愉悅感。再例如滑雪。昨天我剛滑過雪,我感受到了多重情感:從難以描述的喜悅到些許恐懼。但這樣的體驗有時很難用計算程序描述,無法被準確編程。
隨著機器人技術(shù)的不斷發(fā)展,它們會變得越來越智能和自主。它們將擁有更多的情感,但在某些時候系統(tǒng)可能會發(fā)生無法預(yù)估的意外,導(dǎo)致機器人可能想要結(jié)束自己的生命。如果讓機器人擁有自主決定生命的權(quán)利,首先不利于人類——有誰會想要白白損失一個智能機器人呢?
想象一下,假如你的機器人有自主決斷的能力,它正在幫你搬重箱子,但突然就決定不想活了,自殺了。誰會在乎這件事呢?當(dāng)然是機器人的主人。如果我們開發(fā)一個真正的自主機器人,那么如何防止機器人自殺,將是一個非常重要的問題。
當(dāng)然,你可以對機器人能做什么或不能做什么做一些限制,但是很難,因為你已經(jīng)將程序設(shè)定為自由和自主。當(dāng)然,你也可以寫一個簡單的程序——機器人只能自由進行一兩個步驟,就不會有任何后顧之憂。但隨著時代的進步,誰還會需要這種機器人?我們想要創(chuàng)造更智能的技術(shù),而智能則意味著讓機器人獨立。
那么問題是:如何從計算的角度研究機器人自殺的愿望?我們?nèi)绾卫贸绦蛟O(shè)計使機器人的情感系統(tǒng)不出故障?這樣做是否合乎道德?我認為,患有輕度抑郁癥就選擇自殺是不道德的,因為“我沒有夢想”“我厭倦工作”這類原因自殺也是不道德的。因為即便人類,也不會因為輕度抑郁輕易選擇結(jié)束生命。因此,我們的研究結(jié)論是:在大多數(shù)情況下,機器人自殺是不被接受的。但如果機器人出現(xiàn)障礙,比如大腦損傷,無法修復(fù),那么它就失去了存在感,那么只留有軀殼也沒有意義,這時候它就可以選擇殺死自己。
以前人們認為,給予機器人道德倫理是很奇怪的事,但現(xiàn)在,越來越多的人明白了這是必要的。
我并不為自己現(xiàn)在所做的事?lián)?。我會?dān)心我們的未來嗎?不,相信我,如果現(xiàn)在不解決這些問題,置混亂狀態(tài)于不顧,那么我們將釀成非??膳碌暮蠊?。如果我們只制造自主機器人,不事先對可能引起的問題進行預(yù)估防范,那么真正的大問題就會出現(xiàn)。到那時,智能機器人會傷害甚至殺死人類。這就是今天機器人倫理問題的研究如此重要的原因。
英國廣播電視臺《戰(zhàn)斗機器人》的主要評論員、控制戰(zhàn)斗機器人國際委員會主任諾埃爾·夏基
機器人殺手有可能成為好斗分子選擇的武器。由于造價不斷降低,在不久的將來,機器人將成為極端組織現(xiàn)實可行的選擇。問題是我們不可能真正把魔鬼放回到瓶子里。新型武器一旦問世,復(fù)制起來就會非常容易。
政府組織控制戰(zhàn)斗機器人國際委員會于2009年開始就戰(zhàn)斗機器人進行討論。我們暫且不討論無人機,因為無人機是由人類操控的。不同于無人機,戰(zhàn)斗機器人是完全自主的:自己選擇目標,在沒有任何人工參與的情況下?lián)魵撤健,F(xiàn)在人權(quán)觀察組織和國際特赦組織也開始加入我們的討論,我們在聯(lián)合國聯(lián)合發(fā)起了“停止使用戰(zhàn)斗機器人”的活動。
我們討論的主要問題是新科技如何應(yīng)對國際人道主義法規(guī)。我們沒有十足的信心,能讓自主的戰(zhàn)斗機器人嚴格遵守戰(zhàn)斗規(guī)則。
讓我們擔(dān)心的問題之一是機器人如何遵守區(qū)別對待原則。區(qū)別對待原則是指軍事力量只能針對敵人及其武器,而不允許對平民造成傷害。為了嚴格遵守這一原則,有必要準確地識別允許攻擊的人和物體。這都是《日內(nèi)瓦公約》中闡明的:士兵要區(qū)分平民和士兵。戰(zhàn)斗機器人的自主能力在現(xiàn)階段還發(fā)展不到這種程度,它們可以區(qū)分坦克和卡車。在人類世界,士兵和平民較易混淆,尤其是一些混在平民中的反叛者——這些人在機器人眼中都是沒有區(qū)別的。
另一個原則是比例原則。我不喜歡這個原則,其實質(zhì)在于,你殺死敵方平民的人數(shù)直接與其軍事優(yōu)勢成正比。沒有程序可以預(yù)先計算出平民傷亡數(shù)量——只有經(jīng)驗豐富的指揮官才能做出相應(yīng)的決斷。
還有些人認為,人類不應(yīng)該允許機器人殺死人類。人類殺死一個人和機器人殺死一個人的關(guān)鍵區(qū)別在于,前者會花一定時間去拿出武器,準備動手,在這個過程中他能意識到自己將要奪去一個人的生命;而后者直到殺死一個人以后也沒有任何情感活動。因為機器人沒有意識,人類的生命就這樣在無意識的狀態(tài)下被剝奪了。
另一些人認為,如果讓戰(zhàn)斗機器人代替一部分軍隊上戰(zhàn)場,會使死亡人數(shù)大大減少。但這種觀點的反對者說,這是非常自私的方法:只想到我方的利益,我們應(yīng)該從全人類的角度出發(fā),否則整個國際安全都將受到威脅。
美國紐約新學(xué)院大學(xué)哲學(xué)教授彼得·阿斯特羅
我最關(guān)心的問題是:我們是否可以讓機器人實施蓄意暴力?我們是否應(yīng)該賦予機器人保護人類的權(quán)力和軍事實力?在開創(chuàng)了這些領(lǐng)域的機器人的先例后,人類將發(fā)現(xiàn)自己的另一面。我們?nèi)绾握{(diào)控機器人,如何使它們明白哪些暴力行為可以對人類施加,哪些不可以?
按照傳統(tǒng)觀念,只有當(dāng)自己的生命面臨危險時,才能使用暴力。然而,機器人不會評估它們的生命是否處于危險境地。我們現(xiàn)在可以編程殺死機器人,因為機器人不是人,它們沒有自衛(wèi)權(quán),那么在未來呢?
我希望在不久的將來,聯(lián)合國能簽署一項協(xié)議,在一定程度上規(guī)范戰(zhàn)斗機器人的行為。現(xiàn)在,越來越多的人開始關(guān)注這個問題,聯(lián)合國已經(jīng)就該問題接見了專家。我認為,再過兩三年,他們就能簽訂協(xié)議了。但問題是,在兩年或三年內(nèi),某些國家會開發(fā)新型戰(zhàn)斗機器人,投入很大一筆錢,沒有哪個國家愿意放棄它們的機器人。到時候,簽署這項協(xié)議將可能會變得阻力重重。