蔣佩章
摘要:隨著智能化武器的大量研發(fā)和戰(zhàn)場投入使用,人工智能已成為推動軍事變革的重要動力,與此同時,人工智能武器對傳統(tǒng)的軍事倫理造成巨大的沖擊。這種沖擊重點體現(xiàn)在和平與沖突困境、正義與非正義困境、責任主體模糊等幾方面。國際社會應基于人類命運共同體的大背景下,共同努力破解人工智能武器發(fā)展所引發(fā)的倫理困境。
關鍵詞:人工智能武器;倫理;規(guī)制性措施
當今世界處在一個人工智能飛速發(fā)展的時代。在軍事領域,人工智能技術(shù)的發(fā)展催生了新一輪武器系統(tǒng)和戰(zhàn)爭形態(tài)的變革。美國國防部常務副部長的羅伯特·沃克認為,以智能化軍隊、自主化裝備和無人化戰(zhàn)爭為標志的軍事變革風暴正在來臨。然而,與人工智能迅速發(fā)展不相適應的是戰(zhàn)爭法理和倫理觀念的嚴重滯后,集中體現(xiàn)在對文明理念的沖擊、對世界和平的威脅、對正義原則的挑戰(zhàn)、“人”“機”責任區(qū)分困境等方面。在世界形勢復雜多變、武裝沖突日益加劇的今天,只有破解了這一難題,才能更好地構(gòu)建人類命運共同體。
一、針對人工智能武器“低成本、高毀傷”所帶來的和平與沖突困境,我們應當提高武備控制力度
2015年,史蒂芬·霍金、伊隆·馬斯克等上千名學者、科學家曾發(fā)表聯(lián)名公開信中指出:禁止“致命性自主武器”的研發(fā)和應用——“這種技術(shù)一旦開發(fā)成功,將有可能把戰(zhàn)爭沖突升級至從未有過的規(guī)模,而且會達到人類難以控制的速度”。[1]他們所擔心的不僅僅是人類是否掌握開火權(quán),而是智能化武器系統(tǒng)被激活后會受到何種程度的限制,是否會做出突破人類底線的行為,這是對人工智能武器系統(tǒng)穩(wěn)定性和魯棒性的必要懷疑。
首先是自主系統(tǒng)自身的問題。智能系統(tǒng)越復雜就越脆弱,在戰(zhàn)場復雜電磁條件下,擁有高度智能的武器極有可能出現(xiàn)識別錯誤、通信降級甚至是被敵電磁、網(wǎng)絡攻擊后“倒戈反擊”、濫殺無辜、系統(tǒng)失控等問題。更進一步考慮,由于致命性自主武器系統(tǒng)將人排除在決策之外,“如果算法程序不能百分之百的排除邏輯故障存在,則機器對人類的毀滅性風險就始終存在?!眹H社會對該問題的關注主要集中于全面禁止“殺人機器人”,即致命性自主武器的存在。從目前情況來看,這是唯一解也是最佳解。
其次是已掌握相關技術(shù)主體的問題。人工智能武器成本低、易掌握,使擁有武力的可能不僅存在于理性國家實體之中,也存在于非理性的國家行為體、組織和個人之中,這無疑造成了全球性武力擴散和管控困難的問題。保羅·沙瑞爾在《無人軍隊:自主武器與未來戰(zhàn)爭》中也講到,“無人機的迅速擴散代表著越來越自主的武器系統(tǒng)的未來走向,無人機已經(jīng)擴散到全球近百個國家以及‘哈馬斯、‘真主黨、‘伊斯蘭國等非國家組織,包括南非、尼日利亞和伊拉克等非主要軍事大國都擁有了武裝無人機。”這將進一步滋生社會動亂和恐怖主義。
有學者認為,人工智能與既有平臺的結(jié)合反而會增加未來戰(zhàn)爭的倫理系數(shù)。由于人工智能的運用使擊打更準、傷亡可控,本身就帶有“減少附帶傷害”的潛在倫理目的,同時也能使武裝沖突所導致的傷亡率大大降低,這意味著戰(zhàn)爭行為其實變得更文明了。但事實上,人工智能武器“低成本、高效率”的優(yōu)勢更主要地體現(xiàn)在政治層面,超高性價比的成功體驗使技術(shù)優(yōu)勢方在戰(zhàn)略層面更傾向于使用武力而非對話的方式來解決爭端。此外,由于人工智能武器的高毀傷性和高時效性,使得對戰(zhàn)雙方時刻保持高度戒備狀態(tài),處于這種高度緊張的壓力之下,誤判形勢的幾率將會大大增加,戰(zhàn)爭擦槍走火的可能性急劇增大。這在戰(zhàn)術(shù)層面上也必然導致了武力應用走向泛濫。
由于國際法規(guī)體系對相關組織和個人的約束力度十分有限,且當前針對人工智能武器尚未形成一個完整清晰的規(guī)范,因此,我們應當呼吁推動全球范圍內(nèi)的人工智能武器軍備控制。首先,應當建立起有效的國際組織,保證有關人工智能武器系統(tǒng)的研發(fā)、交易、部署和使用等每個環(huán)節(jié)都受到國際組織的嚴格約束和監(jiān)控,以及對違反條約開發(fā)武器的實體問責。其次,人工智能武器作為一種成本低廉的產(chǎn)品,必須要通過采取限制技術(shù)流動的方式來限制其擴散,這其實是對武器研發(fā)者和使用者提出了更高的倫理要求。
二、針對機器“人”化所導致的責任主體模糊困境,我們應當將人作為“戰(zhàn)爭回路”的主體存在
由于人工智能的介入,現(xiàn)代戰(zhàn)爭的主體由傳統(tǒng)的軍隊和軍人變成了無人作戰(zhàn)指揮平臺和軍用機器人。軍用機器人能思考、判斷,也會殺人,可以說它們既是戰(zhàn)斗員又是武器,但它們事實上只具有行為能力卻并不能承擔行為責任。根據(jù)相關新聞報道,“截至到目前為止,全球已有 40 多個國家被披露正在設計、研發(fā)和試圖使用所謂的‘致命性自主武器系統(tǒng),其中尤以2013年韓國研發(fā)并投入使用的‘SGR-1哨兵機器人最為接近‘殺手機器人特征?!笨上攵斶@些毫無感情、不知疲倦的殺人機器走上戰(zhàn)場,極有可能成為“嗜血怪獸”。
首先,將決定人生死的權(quán)力交給機器,這本身就意味著“倫理的缺失”。即使是在人工智能時代,個人也享有不被任意剝奪生命的權(quán)利。歐洲議會安全政策發(fā)言人Bodil Valero稱,“自主武器必須在全球范圍內(nèi)予以禁止,決定生死的權(quán)力絕不能被機器從人類手中奪走。”其次,這一問題也涉及到戰(zhàn)后責任認定的倫理問題。戰(zhàn)后的責任認定是傳統(tǒng)的有人作戰(zhàn)重要的倫理內(nèi)容,對那些負有戰(zhàn)爭責任的國家、組織以及個人進行裁決是組成正義戰(zhàn)爭的關鍵。然而,當具有一定自主能力的無人化武器傷及平民或造成其他附加傷害時,應當如何認定責任歸屬?有人認為,智能武器只是一堆金屬和數(shù)字代碼組成的無生命體,對它進行追責懲罰沒有意義,應當由它的發(fā)明者、設計者、使用者、決策者等幾方面共同負責。但這種責任均攤的做法也會造成一種責任擴散的尷尬局面——誰都要負責任等于誰都不用負責任。此外,戰(zhàn)爭中智能武器的入場也導致責任分配方面存在著“責任轉(zhuǎn)移”的問題,即軍方和政府可能將人為責任轉(zhuǎn)嫁給智能武器以逃避戰(zhàn)爭罪責。
針對上述問題,首先要正確處理好人與機器的關系,確保人的主體地位,使開火權(quán)牢牢掌握在人類手中?!笆箼C器人在選擇、識別、攻擊目標時絕對由人類控制,而不是由機器自主選擇。這一點是《特定常規(guī)武器公約》致命性自主武器系統(tǒng)專家會議所有國家和組織的共識?!逼浯?,在智能武器作出決策時,必須有人進行監(jiān)督和把控,加強指揮官責任落實和問責制度,同時對武器使用全過程實行可復盤式監(jiān)控,一方面將人為地提高智能武器的決策可靠性,另一方面可以有效解決無人武器責任認定問題。
三、針對無人化武器所引起的基于國際人道法的正義與非正義矛盾,我們應當給予技術(shù)弱勢方更多的技術(shù)支持和道義關懷
戰(zhàn)爭是做破壞功的,能夠使戰(zhàn)爭造成的破壞得到合理辯護的才是正義戰(zhàn)爭。國際人道法作為國際通行的戰(zhàn)爭正義性判別依據(jù)之一,強調(diào)了兩個核心原則:相稱性原則和區(qū)分性原則。
相稱性原則要求在毀傷效果上對合法攻擊目標不能造成超過必要限度的損傷。在現(xiàn)代戰(zhàn)爭中,智能武器的加入使火力操控人員遠在后方,與實際戰(zhàn)場形成空間分離,對戰(zhàn)爭殘酷性的感知度降低,難免使操控者“置身事外”、麻木不仁,這無疑會弱化人類對戰(zhàn)爭行為的約束力。另一方面,“機器VS人”的不對稱打擊,輕易地實現(xiàn)了“無風險、零傷亡、低成本、非接觸”,這種過于保險的手段往往會導致濫用,顯然與相稱性原則相違背。
區(qū)別性原則要求作戰(zhàn)部隊區(qū)分清楚戰(zhàn)斗員和平民、軍用目標和民用目標,確?!胺菓?zhàn)斗人員豁免權(quán)”和“非軍事資源的免毀性”。然而智能武器的存在使得真實的戰(zhàn)場環(huán)境表現(xiàn)為虛擬的電子競技,從而使依靠經(jīng)驗辨別軍民身份出現(xiàn)前所未有的困難。“人權(quán)觀察組織”(Human Rights Watch)武器部主任史蒂夫·古斯(Steve Goose)認為,自主性武器“無法區(qū)分戰(zhàn)斗員和平民,無法分辨那些喪失戰(zhàn)斗能力的人,無法判斷投降的人,無法對每一次攻擊進行國際人道法所要求的相稱性評估,也無法用如今指揮官的方式判斷軍事必要性,結(jié)果將造成很多平民死亡?!背鲇趩栴}的復雜性和算法的疏漏,將不可避免地導致許多平民受到無辜攻擊。此外,定義的模糊不清也使這一問題變得更為復雜,“計算機程序需要一個非常清晰的非戰(zhàn)斗人員的定義,但目前還沒有這種定義?!?/p>
基于當前從技術(shù)上難以保證相稱性和區(qū)分性原則充分實現(xiàn)的現(xiàn)狀,針對技術(shù)優(yōu)勢方毫無負擔地采取武力打擊的可能,技術(shù)劣勢方應當?shù)玫絿H社會更具有傾向性的人道主義關懷和技術(shù)支持,包括但不限于國際人道主義聲援、多方聯(lián)合仲裁、提供防御性技術(shù)裝備和提供避難場所等措施,盡量彌補由于技術(shù)代差所帶來的力量失衡。
四、結(jié)語
軍事技術(shù)由信息化發(fā)展到智能化是當前及今后一段時期的必然趨勢。歸根究底,人才是戰(zhàn)爭的主體,無論技術(shù)發(fā)展到何種地步,人類最大的敵人永遠是自己。在實用主義至上的今天,倫理價值的失范比技術(shù)的盲目進步更令人悚然。
參考文獻:
[1] 吳乾澤. 人工智能與未來戰(zhàn)爭的關系[J]. 國防科技工業(yè), 2019, 277(5): 55-56.
[2] 董青嶺. 新戰(zhàn)爭倫理:規(guī)范和約束致命性自主武器系統(tǒng)[J]. 國際觀察, 2018,(4): 51-66.
[3] 徐英瑾. 人工智能將使未來戰(zhàn)爭更具倫理關懷——對馬斯克先生的回應[J]. 探索與爭鳴, 2017, (10): 66-71.
[4] 梁亞濱. 武裝無人機,引發(fā)治理和倫理難題[N/OL]. 人民日報, 2014-6-17.
[5] 董青嶺. 新戰(zhàn)爭倫理:規(guī)范和約束致命性自主武器系統(tǒng)[J]. 國際觀察, 2018,(4): 51-66.
[6] 陳會斌,曾楊智. 軍用無人系統(tǒng)的合法性及未來挑戰(zhàn)[J]. 軍事文摘, 2018, (11): 49-53.
[7] 保羅·沙瑞爾. 無人軍隊:自主武器與未來戰(zhàn)爭[M], 朱啟超, 王姝, 龍坤譯. 世界知識出版社, 2019: 285.
[8] 蘇令銀. 當前國外機器人倫理研究綜述[J]. 新疆師范大學學報(哲學社會科學版), 2019, (1): 105-122.