一個(gè)大雪紛飛的日子,在愛(ài)沙尼亞與俄羅斯的交界,兩國(guó)士兵在邊界例行巡邏。雙方皆配備履帶機(jī)器人,這種機(jī)器人配有自動(dòng)槍械和光學(xué)系統(tǒng),還可分辨外來(lái)的威脅,例如人類(lèi)或是交通工具。當(dāng)雙方士兵與機(jī)器人在凹凸不平的地面慢慢交會(huì)時(shí),一名愛(ài)沙尼亞士兵不慎跌倒時(shí)誤發(fā)射了他的突擊步槍。俄羅斯機(jī)器人記錄到槍聲后將此舉解釋為攻擊行動(dòng),隨即決定進(jìn)行適當(dāng)回應(yīng)。不到一秒鐘,愛(ài)沙尼亞和俄羅斯的機(jī)器人在算法的命令下,將武器轉(zhuǎn)向人類(lèi)目標(biāo)然后發(fā)射。一陣槍林彈雨過(guò)后,12名或死或傷的士兵四散倒臥在他們的機(jī)器人同伴旁,最后兩國(guó)對(duì)此番事故自我檢討,或者將此次攻擊歸咎到對(duì)方身上。
雖然上述情景只是個(gè)假設(shè)情況,而且看似荒誕,但如今這些戰(zhàn)用機(jī)器人早有雛形。愛(ài)沙尼亞的米爾蘭姆機(jī)器人公司研發(fā)出一款名為T(mén)HeMIS的機(jī)器人,全名為“履帶混合模塊化步兵系統(tǒng)”。它靠小型坦克履帶移動(dòng),上方有遠(yuǎn)端武器炮塔,可搭載小口徑或大口徑的機(jī)械槍。機(jī)器人還具備鏡頭與目標(biāo)追蹤軟件,讓炮塔可按照設(shè)定追逐人類(lèi)或物體。米爾蘭姆公司堅(jiān)稱(chēng),目前這套系統(tǒng)仍由人類(lèi)控制,但其實(shí)機(jī)器人身上的零件組成已能讓它自行判斷眼前情況,辨別可能的作戰(zhàn)目標(biāo)并進(jìn)行追蹤。米爾蘭姆公司官網(wǎng)上指出:“THeMIS有近乎無(wú)限的潛在用途。”
過(guò)去一直是由人類(lèi)做出在戰(zhàn)爭(zhēng)中使用致命武器對(duì)抗作戰(zhàn)目標(biāo)的決定,但這種情況可能很快面臨改變。人工智能、機(jī)器影像辨識(shí)和機(jī)器人等現(xiàn)代科技產(chǎn)物將組建全球一部分的軍隊(duì),讓武器系統(tǒng)不需人類(lèi)參與,便可確認(rèn)并殺死戰(zhàn)場(chǎng)上的敵人。
俄羅斯、中國(guó)、美國(guó)都在努力研發(fā)可將武器與感應(yīng)器、定位計(jì)算機(jī)配對(duì)的自動(dòng)平臺(tái);英國(guó)和以色列早已使用具有自動(dòng)化功能的武器,包括可找尋并攻擊敵人雷達(dá)的飛彈、無(wú)人機(jī),以及無(wú)需人類(lèi)命令便可立刻決定發(fā)射炮火的交通工具與船艦。
什么情況下軍事武器可以或應(yīng)該代替人類(lèi),決定由機(jī)器取走人類(lèi)的生命?這個(gè)問(wèn)題跨越道德,讓人思考戰(zhàn)爭(zhēng)本質(zhì),軍事策劃者、人權(quán)組織、國(guó)防官員、研究分析師和倫理學(xué)家如今尚未取得共識(shí)。
自動(dòng)殺人機(jī)器并不是新科技,數(shù)十年前已有武器系統(tǒng)可以獨(dú)立辨識(shí)并攻擊目標(biāo)的技術(shù)。20世紀(jì)80年代及90年代,美國(guó)戰(zhàn)爭(zhēng)策劃者已測(cè)試可獨(dú)自辨認(rèn)目標(biāo)的魚(yú)叉反艦飛彈和戰(zhàn)斧巡弋飛彈,兩種飛彈至今仍在人為監(jiān)控的情況下使用。
美國(guó)最先進(jìn)的自動(dòng)武器主要著重防御應(yīng)用。2003年美國(guó)在伊拉克的大型基地遭攻擊,美國(guó)陸軍研發(fā)出反火箭、火炮和迫擊炮系統(tǒng)來(lái)偵測(cè)空中威脅,向人類(lèi)操作員示警。當(dāng)操作人員按下按鈕,該系統(tǒng)可追蹤并發(fā)射可在空中自行爆炸的彈藥來(lái)炸毀威脅來(lái)源,藉此減少人員傷亡與損害。
華盛頓智庫(kù)“新美國(guó)安全中心”高級(jí)研究人員沃克表示:當(dāng)大量飛彈襲來(lái),人類(lèi)不可能說(shuō):好,你先擊毀那個(gè)飛彈。作戰(zhàn)信息中心的人員沒(méi)辦法跟上飛彈速度,因此美國(guó)策劃人員發(fā)展出方陣近迫武器系統(tǒng)(Phalanx)和神盾戰(zhàn)斗系統(tǒng),這可以連結(jié)到船艦和飛機(jī)上的感應(yīng)器辨認(rèn)空中威脅,操作人員輸入資料后,可自動(dòng)發(fā)射艦上飛彈攻擊。這些系統(tǒng)已被事先安排好,只要人類(lèi)在某個(gè)時(shí)間點(diǎn)按下按鈕,機(jī)器就可做出一切決定。在沃克看來(lái),致命自動(dòng)武器的定義為:一旦人類(lèi)解除限制,便可獨(dú)立決定摧毀對(duì)象與目標(biāo)的武器。
沃克于2014年~2017年擔(dān)任美國(guó)國(guó)防部副部長(zhǎng),當(dāng)時(shí)他負(fù)責(zé)執(zhí)行國(guó)防部的“第三次抵消戰(zhàn)略”,即利用美軍軍事最核心的創(chuàng)新科技來(lái)打擊敵人的可能優(yōu)勢(shì)。美國(guó)第一次抵消戰(zhàn)略在美國(guó)前總統(tǒng)艾森豪威爾任內(nèi)實(shí)施,旨在建立美國(guó)核優(yōu)勢(shì);第二次在上世紀(jì)七八十年代,強(qiáng)調(diào)美國(guó)計(jì)算機(jī)和導(dǎo)彈科技;第三次抵消戰(zhàn)略結(jié)合人類(lèi)與機(jī)器的優(yōu)點(diǎn),利用人工智能、機(jī)器自動(dòng)化來(lái)打造更快、更聰明的網(wǎng)絡(luò)。
獨(dú)立致命武器的支持派認(rèn)為,機(jī)器可降低錯(cuò)誤發(fā)生率,機(jī)器人可在幾毫秒內(nèi)分析人類(lèi)想象不到的大量數(shù)據(jù),并判斷出使用武器限制損害的最佳時(shí)間點(diǎn)。但是反對(duì)派表示,一旦致命機(jī)器人犯錯(cuò),將招致更血腥的嚴(yán)重沖突,這需要自動(dòng)武器持有國(guó)相互合作與約束。
聯(lián)合國(guó)工作組織也擬定方向,作為未來(lái)國(guó)際自動(dòng)殺人機(jī)器人的規(guī)范,希望讓制造商承擔(dān)更多責(zé)任。聯(lián)合國(guó)召開(kāi)為期五天的聯(lián)合國(guó)特定傳統(tǒng)武器公約(CCW)會(huì)議,希望可制定自動(dòng)武器的管理規(guī)范。雖然多數(shù)國(guó)家支持自動(dòng)武器在某種程度上由手動(dòng)控制,但卻難以解釋“實(shí)務(wù)上有效人為控制的意義”,因此外交官認(rèn)為達(dá)成條約的機(jī)會(huì)不高。
美國(guó)海軍戰(zhàn)爭(zhēng)學(xué)院軍事倫理教授波林·尚克斯·考林表示,人類(lèi)會(huì)譴責(zé)某種行動(dòng)或?qū)⒅侠砘?,這牽涉到人類(lèi)會(huì)判斷這些行動(dòng)是否符合道德,如果今天不是人類(lèi)作決定,那這就變成機(jī)器對(duì)機(jī)器的問(wèn)題了。
特斯拉創(chuàng)辦人馬斯克、已故英國(guó)理論物理學(xué)家霍金、蘋(píng)果共同創(chuàng)辦人沃茲尼克及多位人工智能研究人員于2015年曾簽署一封公開(kāi)信,其中警告自動(dòng)武器可能成為暗殺、顛覆國(guó)家、壓迫人民和選擇性殺害特定種族的工具。馬斯克曾指出,人工智能武器恐成人類(lèi)最大威脅,一旦打開(kāi)了潘多拉的盒子,就再也關(guān)不上了。
盡管如此,沃克對(duì)道德問(wèn)題的看法顯得稍加樂(lè)觀,他認(rèn)為未來(lái)人類(lèi)不用過(guò)分擔(dān)心將控制權(quán)交給自動(dòng)武器代理,但他坦言人類(lèi)必須采取行動(dòng),而且還有漫漫長(zhǎng)路需要努力。