陳媛
摘 要:在自動駕駛汽車高速成長的今天,我們也開始關心機器怎樣進行自我判斷,以及怎樣衡量人們對指導它行動的倫理準則的期望。自動駕駛汽車的核心倫理問題是遇到事故時,關于道德主體的抉擇,學者們從各個角度提出不同的見解,如結果論倫理學、義務論倫理學、契約論倫理學,但這些都不能以偏概全的進行討論。自動駕駛汽車所面臨的決策后果未知,未來行動的不確定性,甚至自身環(huán)境的不確定性,有了這些不確定性,常見的道德問題很快變得“復雜”。
關鍵詞:自動駕駛汽車 道德主體 道德困境
Abstract:With the rapid growth of self-driving cars, people begin to care about how machines make their own judgments and how to measure people's expectations of the ethical principles that guide their actions. The core ethical issue of autonomous vehicles is the choice of moral subjects in the event of an accident. Scholars have put forward different opinions from various perspectives, such as consequential ethics, deontological ethics, and contractual ethics. With the unknown consequences of decisions facing autonomous vehicles, uncertainty about future actions, and even uncertainty about their own environment, common ethical issues quickly become “complex”.
Key words:automatic-driving car, moral subject, moral dilemma
1 引言
由于人工智能的迅速蓬勃發(fā)展,導致了人類社會開始關心機器怎樣進行道德決策,以及怎樣量化人類社會對指導機器行動的倫理準則的期望。同時自動駕駛車輛也開始在一些路線上進行了巡航試驗,這也要求人類社會必須就威脅生命的事故無法避免地出現(xiàn)時應適用的道德準則進行了一致。以百度、谷歌等為代表的網(wǎng)絡公司,從人工智能的角度切入了自動駕駛行業(yè),把自動駕駛車輛視為一種高度智慧的機器人體系,采用了自主駕駛技術的車輛,其實質上是一種移動的智慧互聯(lián)機器人,并且能夠做到真正的自動化和共享化。2021年1月,交通運輸部印發(fā)了《關于促進道路交通自動駕駛技術發(fā)展和應用的指導意見》的全面實施,到2025年自動駕駛基礎理論研究取得積極進展,出臺一批自動駕駛方面的基礎性、關鍵性標準;推動自動駕駛技術規(guī)模化應用產業(yè)化落地。但就目前來看,自動駕駛汽車正式進入商用階段還面臨一些困難,其中有技術上的,也有立法和倫理上的;相比之下,后者更為嚴重和緊迫。
2 自動駕駛汽車的道德主體的倫理學原則
讓我們再來思考一下,菲利帕福特所提出的典型案例"電車問題":當一列失控的電車突然從遠處奔駛而來,假如此時你是駕駛員,如果按原路徑繼續(xù)向前行駛,將會碰到前方車道上的五人,并造成五人死傷,但如果避免這五人,可以把電車轉入另一個轉轍器路,但這將會導致岔道上的另一個人死去,那么在這種情況下,該如何選擇呢?在結果主義者眼中,通過殺掉一個人來挽救五個人的生活是允許的,也是最佳的選項。不過,道德義務論者也指出,故意殺死了一名無辜的生命,這無論如何都不是一種道義的行為,是必須制止的,我們也不要把人僅僅當成工具而使用。兩個理論都給人類的道義選擇問題給出了截然不同或相反的回答,使我們無法選擇。而目前發(fā)展的自動駕駛汽車的倫理也可能需要兩種或更多的倫理理論的結合。
2.1 結果論倫理學原則
自動駕駛車輛,即便是復雜的例子,也會不斷出現(xiàn)碰撞事件,想要降低傷亡,車輛需要進一步衡量自己和別人的風險。即便是單純的機動也要求汽車判斷對自己和別人的風險是不是能夠承受,自動駕駛汽車應該在任何時候都盡量減少損害,這提出了一個結果主義的倫理體系。我們關注的一種結果主義的形式,即功利主義,它分析情景的預期效用,根據(jù)行為的結果來評估行為肯定道德有效性,并根據(jù)什么能產生最好的來評估行動的結果,也就是說,“目的證明手段是正當?shù)摹?。這表明,如果一個行為的結果——或者在自動駕駛汽車的情況下,預期的結果——使效用最大化,那么這個行為就是道德的。這種方法的優(yōu)點是易于計算。然而,很難為結果定義一個度量。財產損失估計可能會產生不公平的結果,因為他們會建議與戴頭盔的摩托車手相撞,而不是沒有戴頭盔的摩托車手,因為戴頭盔的摩托車手不太可能遭受昂貴的大腦損傷。這個例子說明了功利主義的另一個缺點——它通常使集體利益而不是個人利益最大化,而且沒有考慮到公平。一個群體可能會一直受益(不戴頭盔的騎手),而另一個群體則是輸家。
結果論主義,通過其更具體的功利主義形式,為將倫理決策作為一個優(yōu)化問題提供了基礎。在控制理論中,最優(yōu)控制利用一個優(yōu)化問題來數(shù)學上確定一個最優(yōu)解作為控制動作。具體來說,最優(yōu)控制行為(即道德上正確的決策)是使成本函數(shù)最小化的可行解(即力求達到的期望結果)。對于自動駕駛汽車來說,這種成本函數(shù)的一個例子可能是將對車輛乘員的傷害降到最低。最優(yōu)解用結果主義的術語來說就是操縱交通工具來實現(xiàn)最小化傷害的目標。
2.2 義務論倫理學原則
另一個核心的規(guī)范倫理理論是義務論,義務倫理學包含了對機器行為的限制,或者一組它不能違反的規(guī)則。義務倫理學必須遵循一種準則,這種規(guī)則決定著人們合理的、道德的行動。艾薩克阿西莫夫的機器人三定律是義務論倫理學的一個經典案例,它說:
(1)機器人不能攻擊人類,或袖手旁觀,聽任人體遭受損傷。
(2)機器人需要服從人給它的指令,除非與第一定律相沖突。
(3)機器人需要保證自身的存在,只要這個保證不能和第一定律或第二定律相沖突
機器人三定律為阿西莫夫的故事中要遵循的機器人行為規(guī)則提供了一個清晰的架構,有效地約束了機器人的行為。只要機器人在三定律的條件下,它就可以在必要時進行操作。當然,阿西莫夫也證明了這種方法的局限性,因為他的機器人故事往往涉及到這些法則之間的沖突而產生的奇怪行為。因此,義務論為自動車輛算法的編程提供了一種激勵結構:可以在道路上定義和遵循的規(guī)則。這些規(guī)則類似于決策和控制算法中用于約束和操縱系統(tǒng)行為的條件和約束。對于自動駕駛汽車來說,這些規(guī)則的例子可以在旨在防止車輛對人類造成傷害、對自身或其他物體造成財產損害、或違反交通法規(guī)的約束條件中找到。
在將復雜的人的勞動價值問題簡化為計算機代碼時,義務論的倫理學也產生了問題,因為規(guī)范的實際應用往往需要一定知識,而計算機卻可以作出字面理解,這種錯誤可能會造成意想不到的行為在阿西莫夫定律中,一輛自動駕駛汽車在發(fā)生碰撞前可能會避免剎車,因為這一行為首先會給它的乘員以鞭擊,從而違反了禁止傷害人類的第一條定律。制定規(guī)則還需要有人闡明人類道德,這是一項極其困難的任務,因為在是對是錯的問題上從來沒有完全一致的意見。
2.3 契約論倫理學原則
為了證明某些倫理決策的困難,哲學家們會使用一些看起來不現(xiàn)實的例子。電車問題就是一個常見的例子,在這個問題中,一個人必須決定是否改變電車的運行軌道,使電車切換到一個會殺死1人的軌道上,以保證5名乘客的安全。正如帕菲特所指出,如果康德式契約論主張每個人必須遵守所有的每個人都可以合理地意愿或其被廣泛認可的原則上,而且如果人們選用這種原則上的主要理由來自于一個不偏不倚的立足點,而且不是訴諸對于甚么樣的行動才是最不恰當?shù)牡懒x式信念,而且這些被廣泛認可的準則也可以形成最優(yōu)的結果,那么就是在這樣的前提條件下所形成的契約論原則。電車問題很受歡迎,因為它不僅是一個難題,而且人們的反應對環(huán)境也很敏感,例如,把一個人推到軌道上而不是按下開關會產生不同的反應,盡管總體結果是一樣的。使用假設性的例子可能表明,道德只有在極其罕見的情況下才需要。然而,谷歌的自動駕駛汽車團隊最近的一份簡介表明,道德已經被考慮在碎片避免方面:“如果一只貓跑到馬路上怎么辦?一只鹿嗎?一個孩子?除了機械問題,還有道德問題,工程師們在之前從來沒有回答過這些問題。只要有風險就需要道德決策,而風險在駕駛時總是存在的。有人可能會說,這些都是簡單的問題,例如,不惜一切代價避免接觸孩子,如果這樣做是安全的,就避免接觸貓。然而,相比之下,電車問題實際上相當直接——它只有一個決定,每個選擇的結果都是已知的。這是非常不現(xiàn)實的。汽車所面臨的決策后果未知,未來行動的不確定性,甚至自身環(huán)境的不確定性。有了這些不確定性,常見的道德問題很快變得“復雜”。
人們不禁就會產生了懷疑,因為或許道德正確性的標準并不是一元的,又或者,人們對于道德正確性的認識本來便是多元化的。但必須注意的是,假如人們已經肯定了這些看法的真實性,那它就必須肯定了產生難以克服的道德矛盾的可能性。在這些困境下,當人們做出了抉擇,就必須會面臨著兩難的道德處境。當我們的現(xiàn)實生活真的將我們帶入到了這樣的兩難處境中,我們又該何去何從?
3 自動駕駛汽車的道德主體困境的分析
3.1 “道德機器”對自動駕駛汽車道德主體的倫理創(chuàng)構
人類在開車或發(fā)生碰撞事故很少做出道德決策,而自動駕駛汽車不應該被同樣的標準來衡量,任何風險從一個人轉移到另一個人身上的行為都涉及倫理道德,而自動化車輛應該能夠在類似的環(huán)境中做出可接受的決定。麻省理工學院在2016年部署了“道德機器”這一在線研究平臺,用以探討自動駕駛汽車所存在的倫理學問題。在道德機器的主頁面上,使用者能夠發(fā)現(xiàn)不可避免的交通事故情景,并根據(jù)自動駕駛汽車是突然轉變還是持續(xù)駕駛,并由此導向了兩個截然不同的結論。交通事故情境主要是有道德機器所生成的,遵循的研究策略主要集中在九個因素,以及根據(jù)最終搜集到的來自世界233個國家和地區(qū)的上百萬人,用十種語言作出的四千萬項選擇,研究結果表明,在道德機器實驗中,呈現(xiàn)出了三個非常強烈的道德傾向,依次是:保護人而不是保護動物,保留更多的生命,以及保留年輕的生命。在學者眼中,這三個偏好都需要被政策制定者著重考量。政策制定者還必須思考,那些違規(guī)過馬路的行人真的需要受到與合法過馬路的行人同等的法律保護嗎?對它們的法律保護優(yōu)先度是不是需要降低?
3.2 自動駕駛汽車事故侵權的道德主體責任
和人們高度重視自動駕駛汽車的安全性相對應,關于車輛的交通事故責任歸責提問也一直處于社會輿論的熱門話題。自動駕駛事故的責任歸責不但牽涉繁雜的科學技術認定問題,而且包括了倫理學、法律界對自動駕駛的社會主體地位及其界定的爭論,但是,從提高人們出行安全以及有關社會利益主體研究和應用自動駕駛系統(tǒng)的積極性的目標上來看,還是具有若干可供社會廣泛遵循的準則?!笆鹿蕷w責”的理論探討重點圍繞自主駕車系統(tǒng)是否具備責任主體作用、是否以及如何擔責問題進行、羅爾斯認為計算機無法成為獨立、自由的知識主體,因為計算機只是社會信息體系的一部分,它并沒有精神,盡管他們能夠被認知為有精神狀態(tài),同時計算機只是社會信息體系的一部分,它并沒有精神,盡管他們能夠被認知為有精神狀態(tài),同時卻缺乏行動的意愿。國內專家學者張力等人也持同樣看法,指出現(xiàn)階段高度自動行駛車輛在法律上的位置依然是及其,也是說它自身是無能力的。駕駛員也要履行相應的注意義務,而生產出廠和事件產生相互之間的關系也是一條不清地帶,因此生產者的負責也值得商榷。與此相反,在自動駕駛的情況下,駕駛者的功能和在一般駕車情況下已不盡相同,當交通事故出現(xiàn)后做出判斷的是自動駕車系統(tǒng),而不是一般駕駛者。而目前國家關于自動駕駛汽車發(fā)展的政策規(guī)定應從幾點方面入手:提高交通基礎設施智能程度,如加強基礎設施智能開發(fā)規(guī)劃研制、有序推動基礎設施智能發(fā)展等;促進設施教學改造、服務智能提升,促進交通設施、交通控制與服務水平、道路交通監(jiān)管體系等的互聯(lián)互通;強化自動駕駛技術研究,不斷推動專業(yè)技術創(chuàng)新能力建設等。
政策風險,技術進步不及預期,競爭加劇風險。人們普遍相信,無人值守技術汽車是汽車工業(yè)和人工智能領域的集大成者,直覺思維和駕駛汽車的經歷使人們感到自動駕駛不可思議,但是如果從人工智能的角度來看無人值守汽車,把自動駕駛的技術汽車視為一部臺有輪智能機器人,這種機器人可以通過探測器當作“精準的雙眼”,以學習為基本的人工智能當作“聰慧果敢的頭腦”,以便進行更高速的移動。進一步,這些“移動的智能輪式機器人”構成一個智能的車聯(lián)網(wǎng),可以實現(xiàn)良好的通信、協(xié)調、最終實現(xiàn)一個高效、安全的變通、出行體系。
4 結語
從最理想的狀況來看,人們肯定期待盡早看到完全自動駕駛的車輛代替了現(xiàn)在的全部人駕駛汽車,但從目前自動駕駛科技的發(fā)展進度來看,人們沒有允許一個機器在完全沒有人實時檢測的狀況下,在一瞬間由自己判斷生死的抉擇。在我們允許對汽車工業(yè)作出道德的選擇之前,我們就必須開展一場國際對話,向那些設計道德算法的公司以及將對它們進行監(jiān)管的政策制定者表達我們的偏好。道德機器的實驗向我們展現(xiàn)了面對極端情況時,人類的三種強烈偏好,它們可以做為討論通用機器倫理的基石。研究者認為,盡管人們能夠讓品德機械正確地遵循道德偏好,但是并沒法獲得廣泛的社會共鳴,因此即使是人們使用品德機器所表達的最強烈的道德偏好,也表現(xiàn)出了很大的差異。然而,這并不代表著人們通向共識以及機器倫理學的征程在一開始時就注定要失利,因此我們雖無從否認人們在人類倫理研究領域中也會經受著內心矛盾、人際矛盾分歧以及差異等這些本質社會問題,但這種問題并不是致命的,在數(shù)據(jù)中我們可以看到世界范疇廣泛地仍然顯示出了某些較為一致的社會倫理學傾向。這些質疑也從側面反應出很多人還并未做好讓機器來決定人類命運的準備,就目前而言,給機器以道德似乎超出了人類的心智可以承受的范圍。
參考文獻:
[1]萬丹,詹好.自動駕駛汽車責任主體和道德兩難問題的哲學分析[J].社會科學戰(zhàn)線,2021(11):24-32.
[2]李偉,華夢蓮.論自動駕駛汽車倫理難題與道德原則自我選擇[J].科學學研究,2020,38(04):588-594+637.
[3]白惠仁.自動駕駛汽車的“道德責任”困境[J].大連理工大學學報(社會科學版),2019,40(04):13-19.
[4]蘇令銀.論機器倫理視域中自動駕駛汽車的道德決策[J].科學技術哲學研究,2019,36(03):82-87.
[5]潘恩榮,楊嘉帆.面向技術本身的人工智能倫理框架——以自動駕駛系統(tǒng)為例[J].自然辯證法通訊,2020,42(03):33-39.
[6]隋婷婷,郭喨.自動駕駛電車難題的倫理算法研究[J].自然辯證法通訊,2020,42(10):85-90.
[7]閆坤如.人工智能機器具有道德主體地位嗎?[J].自然辯證法研究,2019,35(05):47-51.