曾粵興 高正旭
摘要:對人工智能進行法律治理的難點,在于人工智能技術具有相對獨立于自然人的智能屬性。鑒于現(xiàn)有的人工智能技術未能脫離智能工具的范疇,法律規(guī)制的重點不是人工智能技術本身,而是人工智能背后相關法律主體的行為。刑法需要把握算法這一人工智能技術的實質(zhì)與核心,并以算法安全為紐帶構建對人工智能相關法律主體的刑事歸責路徑。在具體方案的設計上,需要厘清刑法在人工智能治理活動中的功能與定位,避免出現(xiàn)過度糾結于技術邏輯的證明,或?qū)⑿谭üδ芘c前置法之功能相混淆的誤區(qū)。
關鍵詞:人工智能;科技風險;算法安全;法律體系;刑事歸責
中圖分類號:D914文獻標志碼:A文章編號:1007-9092(2022)03-0113-011
2017年國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《發(fā)展規(guī)劃》)指出了我國存在“適應人工智能發(fā)展的基礎設施、政策法規(guī)、標準體系亟待完善”的現(xiàn)狀,自此人工智能相關的法律問題迅速成為我國法學領域研究的熱點。刑法應當如何對人工智能進行歸責,是近年來理論界的熱門話題。目前的共識是,對于人工智能技術的發(fā)展,刑法的主要任務是防御人工智能技術給社會帶來的不確定風險,同時也需要認識到智能技術是當今世界新的技術高地,我國必須全力爭取在智能技術上的國際領先地位,所以在針對人工智能設計相應法律規(guī)則時,需要給技術進步留下合理空間。從刑法的角度看,人工智能所涉刑法問題,實際上屬于刑法與科技、刑法與前置法共治的領域。所謂共治,是指不同的群體在平等基礎上的合作。雖然在某一領域中實現(xiàn)了價值與目標上的統(tǒng)一,但是不同治理手段在實現(xiàn)治理的途徑、方式、作用等方面存在區(qū)別。就人工智能法律治理而言,前置法與刑法之間存在著法律體系中層次的不同,只有當前置法無法有效規(guī)制相關行為時,刑法才進行介入。而法律與科技則屬于不同的領域,科技作為當今社會重要的生產(chǎn)要素,有其自身發(fā)展進步的規(guī)律與知識體系,而法律在為科技進步創(chuàng)造良好的社會環(huán)境的同時,也需要限制科學技術手段可能給社會帶來的副作用。
在目前法律框架下,刑法所需要做到的是針對人工智能所產(chǎn)生的刑法問題尋找合適的切入點實現(xiàn)對人工智能相關主體的刑事責任判斷,從而使刑法有效參與到人工智能的治理活動中。我國具體負責推進規(guī)劃實施人工智能發(fā)展戰(zhàn)略的科技部下屬國家新一代人工智能治理專業(yè)委員會,于2021年9月25日發(fā)布了《新一代人工智能倫理規(guī)范》(以下簡稱《倫理規(guī)范》),本文將結合該規(guī)范的相關內(nèi)容,對人工智能的刑法歸責路徑進行探討。
一、人工智能的法律歸責困境
人工智能技術不同于其他科學技術的關鍵點,在于目前有深度學習功能的人工智能系統(tǒng)已經(jīng)可以通過與環(huán)境的交互和不斷地試錯而具有自主學習的能力,相對于早期的弱人工智能而言,已經(jīng)進入強人工智能階段,使其一定程度上獨立于相關的自然人。曾毅、劉成林、譚鐵牛:《類腦智能研究的回顧與展望》,《計算機學報》,2016年第1期。這也成為了刑法對人工智能進行歸責的難點。
(一) 人工智能的工具屬性
人工智能區(qū)別于其他科學技術的智能能力,指可以執(zhí)行通常與人類智慧有關的智能行為,如推理、識別、感知、思考、規(guī)劃、學習等等。關于人工智能技術,存在著兩種不同的發(fā)展理念:第一種是,屬于智能工具,用以減輕人類勞動的弱人工智能;第二種是,屬于社會進步的主體,達到或超越人類智慧水平,具有心智和意識,依據(jù)獨立意圖開展行動的強人工智能。從技術層面看,目前人工智能所取得的進展和成功基本上都是基于弱人工智能技術,但在軍事、家庭生活(如性伴侶、棋手)等個別領域,已進入強人工智能階段,預計在不遠的將來,會進入超強智能階段,為此,有人擔憂人工智能的進一步發(fā)展,有可能終結人類文明。實證研究顯示,大多數(shù)社會公眾并不希望人工智能完全獨立于人類。Gabriel Lima, Meeyoung Cha, Chihyung Jeon and Kyungsin Park, “The Conflict Between People’s Urge to Punish AI and Legal Systems”,F(xiàn)rontiers in Robotics and AI, vol. 8 (November 2021), p.5.當然,據(jù)此我們還無法否定未來出現(xiàn)超強人工智能的可能性。人工智能技術的進一步發(fā)展,可能會使人工智能這一純粹的技術性問題最終超越科學的領域,對人類社會的倫理、道德、法律等方面產(chǎn)生深遠的影響。其中既可能存在技術進步所帶來的福利,也可能產(chǎn)生傳統(tǒng)社會難以預見到的風險,“面對人工智能技術發(fā)展可能帶來的負面影響,我們刑法學者不應該無動于衷,刑事立法和刑事司法更不應該面臨危險而束手無策”。劉憲權:《人工智能時代的“內(nèi)憂”“外患”及刑事責任》,《東方法學》,2018年第1期。
據(jù)此,刑法理論對人工智能的獨立刑事責任地位進行了廣泛探討。如認為對人工智能刑事責任主體地位的研究符合時代發(fā)展需求,如果一定要等到強人工智能全面到來的時代再研究相關法律問題,會使得法律及相應的規(guī)章制度落后于科技進步,只有進行前瞻式的研究才能消除人們對人工智能犯罪的恐懼。彭文華:《人工智能的刑法規(guī)制》,《現(xiàn)代法學》,2019年第5期。也有的認為,承認人工智能的刑事責任主體地位并非沒有意義,因為人工智能的“智能”來自于對海量數(shù)據(jù)的學習,對人工智能施以刑罰,可以使人工智能通過對相關法律信息和判例的收集獲取正確的法律觀念,實現(xiàn)一般預防的作用。程龍:《自動駕駛車輛交通肇事的刑法規(guī)制》,《學術交流》,2018年第4期。
類似的研究具有一定的前瞻性,但針對的也都是今后可能出現(xiàn)的超強人工智能,對于現(xiàn)有的弱人工智能技術而言,其智能的實質(zhì)是依照生產(chǎn)時所用的算法規(guī)則,對外界事物或指令所作出的反應。松尾豐、鹽野誠:《大智能時代:智能科技如何改變?nèi)祟惖慕?jīng)濟、社會與生活》,陸貝旎譯,機械工業(yè)出版社2016年版,第6頁?,F(xiàn)有的弱人工智能技術不具備獨立于自然人的自由意志,并且具有可支配性,所以弱人工智能沒有脫離智能工具的范疇,理論上尚無討論其獨立刑事責任主體的空間,因為“法律作為最重要的社會規(guī)范,最終要來源于社會存在的合理要求,而不應該來自空洞的想象力”。龍衛(wèi)球:《人工智能立法規(guī)范對象與規(guī)范策略》,《政法論叢》,2020年第3期。而且部分應用領域中基本不可能發(fā)展出強人工智能,如在醫(yī)療領域中,無論技術如何進步,或許都不能否認自然人醫(yī)師在醫(yī)療過程中的主導地位,完全自主的醫(yī)療人工智能并不符合人工智能有益、可控的發(fā)展目標,也不能符合社會的需要。退一步講,即使出現(xiàn)了醫(yī)療領域的強人工智能,在患者使用完全脫離醫(yī)師主導的醫(yī)療人工智能進行治療的情況下,因為缺乏“醫(yī)師—患者—醫(yī)療機構”之間的醫(yī)患關系基本結構,這種治療已變成患者本人運用智能設備的“自診”的行為,難以通過現(xiàn)行的醫(yī)事法律規(guī)范和醫(yī)事犯罪的相關規(guī)定進行處理。皮勇:《論醫(yī)療人工智能的刑法問題》,《法律科學》(西北政法大學學報),2021年第1期。
同時,即使贊同人工智能的犯罪主體地位,也需要注意到人工智能的智能程度劃分是需要技術方面的工作,并不是法律上的簡單判斷。因為人工智能主體雖然具備相對獨立于自然人的“智能”,但是不可能做到完全等同于自然人的思考與判斷,對于其“智能”的基本組成要素、判斷規(guī)則以及具體標準等,都屬于需要技術領域回答的重要問題。王燕玲:《人工智能時代的刑法問題與應對思路》,《政治與法律》,2019年第1期。在相應技術標準尚不明確的情況下,在刑法領域中并不具備對人工智能的刑事責任主體地位進行有效探討的條件。
從國家對人工智能技術發(fā)展的具體要求來看,《倫理規(guī)范》第3條第4款的規(guī)定延續(xù)了《發(fā)展規(guī)劃》中“確保人工智能安全、可靠、可控發(fā)展”的要求,明確指出人工智能開發(fā)需要堅持可控可信的原則,不能剝奪人類的“充分自主決策權”,人類有權隨時退出與人工智能的交互,有權隨時終止人工智能的運行,從而確保人工智能始終處于人類控制之下。所以即使人工智能技術對國家發(fā)展具有戰(zhàn)略意義,完全脫離自然人管控范圍的超強人工智能也不是我國人工智能技術的發(fā)展方向。
當代刑法肩負積極有效貫徹安全政策、保證國家總體安全的特殊使命。需要為社會提供積極能動但又不失審慎適度的刑法保障安全之邏輯與方案。高銘暄、孫道萃:《總體國家安全觀下的中國刑法之路》,《東南大學學報》(哲學社會科學版),2021年第2期。所以在進行前瞻性思考之外,我們更需將目光聚焦在當下,在認識到其工具屬性本質(zhì)的基礎上,對現(xiàn)有人工智能技術給法律制度、法學理論所產(chǎn)生的影響進行分析,提出合理的解決方案,這也有利于增強社會公眾對人工智能技術的信任,從而保障人工智能技術的進一步健康發(fā)展。畢竟法律是行為規(guī)范,科技本身不會成為法律規(guī)范的對象,需要規(guī)范的是科技活動及其產(chǎn)生的社會問題。龍衛(wèi)球:《人工智能立法規(guī)范對象與規(guī)范策略》,《政法論叢》,2020年第3期。
(二)算法黑箱問題
算法作為人工智能技術的核心,其本質(zhì)是計算機按照一系列指令去執(zhí)行、處理收集到的數(shù)據(jù)。算法可以根據(jù)收集到的數(shù)據(jù)對原有的算法模型和假設進行持續(xù)檢驗,并作出實時調(diào)整,從而構成了人工智能相對獨立于自然人個體的智能化基礎。金東寒主編:《秩序的重構:人工智能與人類社會》,上海大學出版社2017年版,第105頁。對社會公眾而言,算法這一相對獨立的決策過程具有不可知的技術邏輯,即算法黑箱。在智能時代中這種不可知的技術邏輯正在深刻影響著我們的生活,在我們已知或未知的領域替我們做著決定,引導我們的行為,故算法黑箱被視為人工智能技術風險的根源。在刑法理論上,算法黑箱問題則是對人工智能所造成的損害進行歸因判斷的一大障礙。
刑法中的歸因判斷,是指通過行為人的行為與損害結果之間的因果關系,確定結果是否可以歸屬于一定的行為。基于算法的獨立運行邏輯,在歸因上需要判斷算法的獨立運行是否會割裂損害結果與相關主體行為之間的因果關系。因為如果認為算法的運行邏輯對人工智能設計者或使用者而言是不可知、不可控的過程,則難以認為算法所導致的損害可以歸屬于相關的法律主體。
辨析算法運行中的邏輯,涉及算法的解釋問題。對于算法是否能夠被解釋,有觀點指出現(xiàn)實中許多大型算法應用往往存在多種算法疊加使用的現(xiàn)象,使得專業(yè)人員也難以對其解釋,而且即便可以解釋,解釋的結論也難以被一般公眾所理解。蘇宇:《算法規(guī)制的譜系》,《中國法學》,2020年第3期。相反的觀點則認為,算法的設計是一個具有目的性的過程,即使存在有將算法進行拆分或組合使用的復雜算法,設計算法所欲追求的目的也是可以探求和解釋的,所以算法黑箱是相對的,對算法黑箱的懷疑和恐懼,實質(zhì)是社會公眾對算法決策中因果關系認知的斷裂。金夢:《立法倫理與算法正義:算法主體行為的法律規(guī)制》,《政法論壇》,2021年第1期。
雖然對算法黑箱的認識具有一定分歧,但從以下角度來看,算法黑箱的存在并不能否認弱人工智能所具有的工具屬性,也就不能割裂人工智能損害結果和相關主體行為之間的因果關系。
首先,算法在設計上需要人為地設定價值目標。在算法設計時所設定的價值目標相當于設計者給算法所下達的指令,之后算法的所有運作雖看似是一個脫離人為控制的狀態(tài),但實質(zhì)上都是依據(jù)所收集的數(shù)據(jù)和環(huán)境信息,不斷朝向最初設置的目標運作并優(yōu)化的過程。金夢:《立法倫理與算法正義:算法主體行為的法律規(guī)制》,《政法論壇》,2021年第1期。部分算法風險,即源于最初的價值設定偏差。算法在自我運行時應該收集什么類型的數(shù)據(jù),也需要人為設定。因此,算法在運行中所做的任何決定都需要由人類授權,人類可以對他們在開發(fā)和使用人工智能和算法時所做的決定負責。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2055.又如在人工智能的倫理問題方面,人工智能難以通過自我學習來認識廣大的社會系統(tǒng),進而形成合理的倫理觀念,但設計者完全可以賦予算法一定的價值判斷規(guī)則,使算法的決策盡可能符合社會倫理。故弱人工智能應用的算法在合規(guī)律地運行時,可以視為設計者價值訴求的體現(xiàn),對此也可以要求算法的設計者通過分析各種風險會以何種方式進入系統(tǒng),對相關風險進行積極規(guī)避。沈向洋、施博德:《計算未來:人工智能及其社會角色》,北京大學出版社2018年版,第26頁。其次,在算法運行的過程中可以實現(xiàn)人為的干預。目前主流人工智能技術以具有工具屬性的弱人工智能為發(fā)展方向,《發(fā)展規(guī)劃》和《倫理規(guī)范》也并不贊同開發(fā)獨立于自然人的超強人工智能,發(fā)展人工智能技術的目的在于使其更好地服務于人類,實現(xiàn)人工智能與人類的協(xié)調(diào)工作,所以人機交互是人工智能發(fā)展所需突破的重要技術領域,使人工智能系統(tǒng)更好地接受、理解人所給予的指令。如自動駕駛汽車,其駕駛行為雖是自動的,但何時出發(fā)、目的地的設定、中途是否需要更換目的地或停車,都要依照人的指令決定。且對于自動駕駛汽車而言,不僅使用者在使用時可以對其下達指令,如果沒有相關的保護措施,自動駕駛汽車可能會被黑客通過網(wǎng)絡侵入其自動駕駛系統(tǒng)而劫持。Kyounggon Kim, Jun Seok Kim, Seonghoon Jeong, Jo-Hee Park and Huy Kang Kim, “Cybersecurity for Autonomous Vehicles: Review of Attacks and Defense”,Computers & Security, vol. 103 (April 2021), p.21.研究也發(fā)現(xiàn),如果用戶對算法進行輕微的控制,部分算法錯誤是可以被克服的。Gabriel Lima, Meeyoung Cha, Chihyung Jeon and Kyungsin Park, “The Conflict Between People’s Urge to Punish AI and Legal Systems”,F(xiàn)rontiers in Robotics and AI, vol. 8 (November 2021), p.2.故在具體應用的過程中,人工智能也處于相關法律主體的支配之下。
智能技術雖然在一定領域內(nèi)可以實現(xiàn)自主運行,但是不具有自由意志和可以由人所支配兩大特征,決定了目前的智能技術及產(chǎn)品仍屬于一種為人所支配的工具。劉憲權:《智能機器人工具屬性之法哲學思考》,《中國刑事法雜志》,2020年第5期。在目前的技術條件下,通常程序員和用戶都知道他們想如何處理人工智能,更準確地說,他們知道自己希望人工智能為他們做什么。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2059.所以一定程度上算法黑箱的存在,并不足以使我們積極承認人工智能的獨立主體地位,更不能割裂算法相關主體與損害結果之間的因果關系?!秱惱硪?guī)范》第12條對實現(xiàn)人工智能算法“可驗證、可審核、可監(jiān)督、可追溯、可預測、可信賴”的要求,也破除了今后算法黑箱可能對刑法歸責產(chǎn)生的障礙。如果在偶然情況下出現(xiàn)了算法完全失控的情形,則在刑法上應依據(jù)意外事件處理,而不是積極追究相關主體的刑事責任。魏東:《人工智能犯罪的可歸責主體探究》,《理論探索》,2019年第5期。而關于算法是否完全失控屬于技術領域需要判斷的問題,必須由相關技術機構進行鑒定從而得出結論。
二、以算法為切入點的歸責路徑
上文的分析指出了刑法對人工智能相關主體進行歸責不存在根本性障礙的問題,接下來需要討論的是刑法需要對什么樣的主體進行歸責和應當以什么樣的切入點對相關主體進行歸責。
(一)歸責的對象
在關于人工智能刑事主體地位的討論中,理論上很多觀點認為我國刑法中的單位刑事主體資格是刑法擬制的結果,所以對人工智能刑事責任主體地位進行擬制也不存在障礙。但是單位實質(zhì)上是自然人權利與義務的集合體,對單位刑事責任的探討,也是通過單位中具體自然人的意志和行為來進行的。黎宏:《刑法學總論》,法律出版社2016年版,第111頁。同樣,對單位施以刑罰,實際上剝奪的是單位中具體自然人的權利,從而起到刑罰預防犯罪的效果。所以,刑法對單位主體的擬制,并不能用來支持人工智能的獨立刑事主體地位?;谀壳叭斯ぶ悄芩哂械墓ぞ邔傩?,人工智能所造成的損害,歸根結底是相關主體行為所造成的損害,刑罰要實現(xiàn)對犯罪的預防,就需透過人工智能這一技術工具,尋找其背后的可歸責主體。
在現(xiàn)代技術使用和發(fā)展的過程中,往往存在一個漫長的因果鏈,在人工智能技術中這一點尤其突出。人工智能所運用的復雜軟件系統(tǒng)往往有著許多開發(fā)人員在不同階段參與軟件各個部分的研發(fā),即使在人工智能基于算法自我學習的情況下,也有一個數(shù)據(jù)的生產(chǎn)、選擇和處理的過程,這一過程同樣也需要有多主體多階段地參與。無論是提供數(shù)據(jù)的人、收集和處理數(shù)據(jù)的人、出售數(shù)據(jù)的人、分析數(shù)據(jù)的人等,都有可能影響人工智能自我學習的過程。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2057.同時,每一個參與其中的主體,都只對自己所參與的具體階段具有認識,而無法預測也無法控制在上一階段或下一階段中其他主體對人工智能運作過程所施加的影響。該因果鏈條還可以繼續(xù)延伸至算法的應用階段,在算法被使用者所支配時,也完全可以產(chǎn)生相應的損害結果。并且在此因果鏈條中,人工智能所造成的損害有可能是由多個階段因果關系所疊加造成,也完全可能是由當中的某一階段所獨立造成,故理論上將人工智能責任判斷的特點概括為一種“多主體的責任”(the Problem of Many Hands)。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2057.如何在因果鏈條中準確定位出原因行為,對于人工智能相關主體的責任判定具有關鍵性意義。
《倫理規(guī)范》第2條規(guī)定了該規(guī)范的適用主體包括“從事人工智能管理、研發(fā)、供應、使用等相關活動的自然人、法人和其他相關機構等”,并在第2條第1款至第4款中明確了相關主體的定義。該規(guī)定為人工智能相關主體劃定了具體的范圍,并且符合人工智能“多主體責任”的特點,對“管理、研發(fā)、供應、使用”中的主體行為進行規(guī)制,可以覆蓋人工智能從設計研發(fā)到最終投入使用的每一個環(huán)節(jié)。就刑法而言,需要重視《倫理規(guī)范》對人工智能相關主體范圍的界定,因為過去刑法理論界對人工智能產(chǎn)品責任的討論,往往只集中于生產(chǎn)者和使用者這二者之間的責任劃分上。陳禹衡:《算法優(yōu)化語境下自動駕駛汽車交通肇事的困境紓解》,《蘇州大學學報》(法學版),2021年第3期。這種責任劃分與2017年的《發(fā)展規(guī)劃》中對人工智能“實行設計問責和應用監(jiān)督并重的雙層監(jiān)管結構”進而將監(jiān)管重點放在設計和應用兩個方面的要求相符合,能夠有效處理大部分人工智能產(chǎn)品致?lián)p的案件。但《倫理規(guī)范》中對相關主體范圍的界定帶給刑法理論的啟示是:有時人工智能損害的原因并不來源于生產(chǎn)者或者使用者,在人工智能管理或者研發(fā)環(huán)節(jié)出現(xiàn)的問題,也完全有可能導致?lián)p害結果的發(fā)生,進而產(chǎn)生刑事歸責的問題。如既然要求建立相應的人工智能監(jiān)管機制,依法負有對人工智能相關活動監(jiān)管義務的國家機關工作人員,就有可能因工作失職構成玩忽職守或濫用職權罪,這是監(jiān)督過失原理能夠得出的結論。又如人工智能產(chǎn)品的生產(chǎn)活動依照《倫理規(guī)范》第2條的定義屬于人工智能的供應環(huán)節(jié),而在人工智能技術的開發(fā)過程中,人工智能的生產(chǎn)者和研發(fā)者有可能并不是同一主體。如在生產(chǎn)過程中疊加使用已公開的算法技術的情形下,生產(chǎn)者并不能支配上游算法研發(fā)的過程,而上游算法研發(fā)過程中出現(xiàn)的偏差,往往就是導致人工智能出現(xiàn)缺陷問題的根源。人工智能“管理、研發(fā)、供應、使用”的主體都能夠在不同階段實現(xiàn)對人工智能的控制或干預,也就需要為此負擔相應的義務,這是業(yè)務過失原理能夠產(chǎn)生的結論。
風險社會中安全是刑法所需要堅持的基本價值取向之一,并且在特定的情況下刑法的安全價值優(yōu)先于其他價值,即有時只有在實現(xiàn)安全價值的前提下,刑法才能追求其他的價值。魏漢濤:《人類基因編輯行為的刑法規(guī)制》,《法商研究》,2021年第5期。所以,如果僅僅從生產(chǎn)者和使用者的角度進行討論,會忽視了同樣處于“多主體責任”因果鏈條中的人工智能管理者和研發(fā)者,難以符合當代刑法防御科技風險的需求。當然,人工智能所造成的損害也可能存在無法對相關主體歸責的情況。比如在研發(fā)、供應、管理、使用環(huán)節(jié)都符合規(guī)范要求的情況下,人工智能所應用的算法也可能產(chǎn)生算法歧視、算法偏見的現(xiàn)象。其原因可能是算法自主學習了網(wǎng)絡上普遍存在的歧視性、偏見性知識,這種現(xiàn)象是算法對于社會客觀存在的反映,可以說整個社會群體都對此負有責任。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2064.對于此類現(xiàn)象,刑法需要保持應有的謙抑,即使為了防御風險也不能僅依照結果進行追責,否則容易擴大打擊面,使刑事責任蛻變?yōu)橐环N單純的結果責任,從而迫使人工智能從業(yè)人員戰(zhàn)戰(zhàn)兢兢,畏首畏尾,不適當?shù)匾种扑惴ㄟM步和人工智能的正常發(fā)展。
(二)算法的紐帶作用
確定需要追責的主體范圍后,我們可以進一步考察確認相關主體刑事責任的具體路徑。
以自動駕駛汽車為例,自動駕駛汽車責任判斷的難點在于確認當自動駕駛造成損害時自動汽車究竟處于哪一主體的控制之下?!秱惱硪?guī)范》第15條規(guī)定了人工智能生產(chǎn)者具有“加強質(zhì)量管控,不得經(jīng)營、銷售或提供不符合質(zhì)量標準的產(chǎn)品與服務”的義務;第22條規(guī)定了人工智能的使用者具有“主動掌握人工智能產(chǎn)品與服務的運營、維護、應急處置等各使用環(huán)節(jié)所需技能,確保人工智能產(chǎn)品與服務安全使用和高效利用”的義務。從這兩條規(guī)定來看,在產(chǎn)品缺陷導致自動汽車肇事時,可以對相關生產(chǎn)商以生產(chǎn)不符合安全標準的產(chǎn)品罪定罪處罰。從邏輯上說,如果生產(chǎn)者明知自動駕駛系統(tǒng)存在嚴重的算法缺陷,可能導致使用過程中出現(xiàn)肇事結果而予以隱瞞,最終導致使用者肇事結果的發(fā)生,其主觀上具有放任的故意,從而競合以危險方法危害公共安全罪,應當以較重的罪名從重處罰。但筆者認為,鑒于人工智能尚處于需要進一步發(fā)展的狀態(tài),嚴苛的責任固然可能存在一般預防的功能,但也可能壓抑設計者、生產(chǎn)者的探索熱情,因此,筆者主張即使上述邏輯推演能夠成立,也應當立足于司法的謙抑而作出有利于被告的認定。質(zhì)言之,僅僅以法定刑相對于較輕的生產(chǎn)、銷售不符合安全標準的產(chǎn)品罪問責,即可在一般預防與特殊預防之間找到平衡點。而在自動汽車不存在產(chǎn)品問題時,根據(jù)《倫理規(guī)范》第3條的規(guī)定,人工智能使用者“有權隨時終止人工智能系統(tǒng)的運行,確保人工智能始終處于人類控制之下”的規(guī)定,似乎可以推導出使用者有預見肇事結果的義務和能力的,從而進一步演繹出使用者對事故存在過失的結論,最終要求使用者對交通肇事結果承擔罪責。對使用者而言,一般不會出現(xiàn)明知車輛自動駕駛系統(tǒng)存在算法缺陷有肇事可能仍然敢于駕馭的情況,因此很難得出使用者對肇事結果存在故意的結論。
之所以發(fā)展自動駕駛技術,是為了提高道路交通的便利程度。對于使用者而言,自動駕駛技術可以最大程度地將使用者從駕駛員的身份中解放出來,減輕駕駛行為對其產(chǎn)生的負擔。在此情況下,如果還需要使用者承擔駕駛普通汽車一般的注意義務,否則可能因此承擔刑事責任的話,會使自動駕駛汽車對消費者的吸引力大打折扣。依照自動駕駛技術最大程度減輕駕駛員負擔的目的,理論上認為自動駕駛汽車的使用者,在智能系統(tǒng)完全接管汽車運行的過程中,即使出現(xiàn)事故也可以依照信賴原則得以免責,只有在自動駕駛系統(tǒng)對使用者發(fā)出提示時,使用者才有義務介入以保障駕駛安全。付玉明:《自動駕駛汽車事故的刑事歸責與教義展開》,《法學》,2020年第9期。
從自動駕駛技術的現(xiàn)實應用情況看,達到L4等級的高度自動化駕駛汽車已在我國部分城市進行試運營。趙禹程、張永偉、俞喬:《無人駕駛汽車發(fā)展史、技術現(xiàn)狀與創(chuàng)新管理模式研究》,《新疆師范大學學報》(哲學社會科學版),2021年第4期。L4等級是自動駕駛技術的飛躍,因為對于L4與L5級別的自動駕駛汽車而言已經(jīng)沒有了“駕駛員”這一概念,由此則出現(xiàn)了不能追究使用者責任的問題。松尾剛行:《關于自動駕駛汽車與刑事責任的考察》,《法治現(xiàn)代化研究》,2019年第1期。所以有觀點認為人工智能算法的智能程度越高,使用者對人工智能的控制責任就越弱,生產(chǎn)者則有責任和義務來設計出好的算法,讓算法發(fā)揮積極的正面作用,人工智能真正的因果追責趨向應該是算法背后的生產(chǎn)者。陳禹衡:《算法優(yōu)化語境下自動駕駛汽車交通肇事的困境紓解》,《蘇州大學學報》(法學版),2021年第3期。
從宏觀層面來看,對人工智能的研發(fā)者和生產(chǎn)者賦予較為嚴格的義務是有必要的。無論是在傳統(tǒng)的農(nóng)業(yè)社會或工業(yè)社會中,社會在整體結構上都呈現(xiàn)出等級化、中心化的特征,經(jīng)濟活動、社會管理均圍繞公權力主體運作。而在大數(shù)據(jù)與人工智能的時代,無論是經(jīng)濟活動的宏觀決策、個人日常消費很大程度上都依賴于算法的運作,智慧政府、智慧司法的建設,也會在一定程度上將原專屬于國家公權力的決策讓渡予算法決策,加劇了社會的扁平化和去中心化。齊延平:《論人工智能時代法律場景的變遷》,《法律科學》(西北政法大學學報),2018年第4期。但隨著智能技術的進步,手握海量數(shù)據(jù)和智能技術的主體,不僅容易在經(jīng)濟活動中取得優(yōu)勢地位,基于大量數(shù)據(jù)和相關算法技術,此類主體甚至可以對經(jīng)濟運行和社會發(fā)展的趨勢進行預判,從而在廣泛的領域內(nèi)對社會產(chǎn)生影響。隨著持有海量數(shù)據(jù)和智能技術的公司、平臺影響力的逐步擴大,原本經(jīng)由大數(shù)據(jù)時代被“去中心化”的人類社會,會因為依賴于相關公司、平臺的運作而實現(xiàn)網(wǎng)絡時代的“再中心化”??萍脊杨^對社會關系和社會規(guī)則進行重塑時,普通公眾是完全被動的,由此產(chǎn)生的技術精英與普通公眾之間兩極分化,容易造成新的社會問題,產(chǎn)生對國家安全、社會安全、金融安全的威脅。所以在智能時代,法律制度的設計上需要迎回“義務本位”。齊延平:《論人工智能時代法律場景的變遷》,《法律科學》(西北政法大學學報),2018年第4期。對掌握智能技術的研發(fā)者和生產(chǎn)者賦予相關義務以規(guī)范其行為,是法律抗制科技風險的關鍵。但也需要注意,如果將高度智能化產(chǎn)品所造成的損害一律歸責于生產(chǎn)者與研發(fā)者,那么對生產(chǎn)者和研發(fā)者而言,這些責任就成了一種結果責任,這對生產(chǎn)者和研發(fā)者而言是難以接受的。當然,人工智能本質(zhì)上是由生產(chǎn)商或研發(fā)機構根據(jù)算法形成的一種“產(chǎn)品”,金東寒主編:《秩序的重構:人工智能與人類社會》,上海大學出版社2017年版,第87頁。所以在民事層面上可以依照產(chǎn)品責任的無過錯歸責原則對相關損害進行處理。刑事責任的認定則依據(jù)《刑法》第16條的規(guī)定必須以行為人主觀上具有故意或者過失為前提。而且毫無疑問的是,如果在刑法上對算法采用嚴格責任,會直接扼殺人工智能技術的進步。劉憲權:《涉人工智能犯罪中的歸因與歸責標準探析》,《東方法學》,2020年第3期。另外,依據(jù)《倫理規(guī)范》的相關要求,即使出現(xiàn)了高度自動化的智能產(chǎn)品,也不能免除生產(chǎn)者、研發(fā)者以外其他相關主體對人工智能技術所應承擔的義務,但是法律設計上不能把保障人工智能安全運行的義務過度強加于研發(fā)者與生產(chǎn)者。面對這樣的情況,就需要在法律上尋找能更好平衡技術發(fā)展中不同價值之間矛盾的方案。
在傳統(tǒng)歸責路徑存在障礙的情況下,刑法需要尋找新的切入點對人工智能技術進行規(guī)制。對此,可以嘗試以算法為切入點探討相關主體的刑事責任。算法是人工智能技術的實質(zhì)與核心,對算法的掌控即是對人工智能風險的掌控,所以算法可謂是在法律體系下對人工智能技術風險進行規(guī)制的一把鑰匙,可以在法律領域中實現(xiàn)“人工智能規(guī)制→算法規(guī)制→算法相關法律主體規(guī)制”的轉變。理論上已有學者提出以作為公共安全的“算法安全”為人工智能犯罪所保護法益的觀點。魏東:《人工智能算法安全犯罪觀及其規(guī)范刑法學展開》,《政法論叢》,2020年第3期。通過這種視角,可以揭示人工智能技術風險作為一種新型的社會風險,在廣泛的領域內(nèi)對公共安全產(chǎn)生威脅的本質(zhì),使其有效區(qū)別于其他類型的犯罪。反之,在現(xiàn)有刑法框架下,無論將人工智能犯罪認定為生產(chǎn)不符合安全標準的產(chǎn)品等破壞市場經(jīng)濟秩序的行為,還是認定為破壞計算機系統(tǒng)等擾亂公共秩序的行為,都難以反映人工智能犯罪危害公共安全的實質(zhì)特征,對此也許需要設立新的罪名以保護算法的安全法益?;诒疚牡牧觯撟锩麘斉渲幂^輕的法定刑。同時,在智能時代“義務本位”的法律設計中,通過圍繞算法安全設置相關義務,可以將責任合理分配至《倫理規(guī)范》中所定義的相關主體,即所有相關主體的義務都是以維護“算法”這一人工智能實質(zhì)內(nèi)涵的安全為核心,在避免某一主體義務過重的情況下,使刑法的規(guī)制覆蓋人工智能從開發(fā)到應用的整個過程,最大程度防御各個環(huán)節(jié)可能產(chǎn)生的公共安全風險。
三、算法刑事歸責路徑的具體問題分析
如前所述,人工智能法律問題是刑法與科技、刑法與前置法所共治的領域。在最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展的共同價值前提下,人工智能領域的治理手段是多元化的,包括有倫理原則、政策導向、法律規(guī)制、技術治理手段等不同方面。劉露、楊曉雷、高文:《面向技術發(fā)展的人工智能彈性治理框架研究》,《科學與社會》,2021年第2期。在這種共治關系中,不同治理方式之間是一種相互溝通與合作的關系。上文提出的以算法安全為刑法參與相關治理活動的具體進路,需要在共治關系中明晰刑法發(fā)揮作用的功能與范圍,避免與其他不同的治理方式產(chǎn)生混淆。
(一) 刑法邏輯與技術邏輯的區(qū)分
面對科技風險,法學領域中真正的論點不是要不要采取預防原則的問題,而是預防程度的強和弱的問題。陳景輝:《捍衛(wèi)預防原則:科技風險的法律姿態(tài)》,《華東政法大學學報》,2018年第1期??萍紝ι鐣a(chǎn)生的不確定風險是一種客觀的存在,刑法通過算法安全這一紐帶,所要規(guī)制的是與算法相關的法律主體的行為,而在此過程中,刑法需要面對技術邏輯給刑法判斷所帶來的挑戰(zhàn)。
上文指出了算法黑箱不能成為刑法歸責的障礙,因為算法仍處于相關主體所能支配的范圍。但是僅僅論述至此,還不能說刑法因果關系的判斷已跨過了算法這一技術邏輯的障礙。因果關系是危害行為與危害結果之間的引起與被引起的關系,但在刑法視野下,并不是所有對危害結果產(chǎn)生作出貢獻的行為都是刑法規(guī)制的對象。刑法需要對條件因果關系加以限制,確定具體的一個或數(shù)個行為進行歸責。對于人工智能造成的損害而言,關鍵在于確認具體的損害結果究竟需要歸因于研發(fā)、供應、管理、使用的哪一個或哪幾個環(huán)節(jié)。
在刑法因果關系的判斷上,受日本刑法理論的影響,相當因果關系理論在我國成為了有力學說,該理論認為“通過一般性地觀察某種事態(tài),當一般人在經(jīng)驗上認為存在某種先行事實就會發(fā)生某種后行事實是通常的,就肯定刑法上因果關系”。高橋則夫:《刑法總論》,李世陽譯,中國政法大學出版社2020年版,第107頁。但在以算法為紐帶評價人工智能犯罪歸因問題時,算法中科技邏輯所形成的壁壘直接切斷了以“一般人經(jīng)驗”作為判斷基準的可能性。而另一種思路,是通過客觀歸責理論,即“行為制造了法律所不允許的危險→該行為使該危險實現(xiàn)在作為構成要件要素的結果之中”的判斷步驟來認定因果關系。周光權:《刑法總論》,中國人民大學出版社2021年版,第129頁??陀^歸責的優(yōu)點在于通過“法不允許的危險”這一概念,使結果歸屬與規(guī)范的要求得以結合起來,這對于人工智能歸因判斷是重要的。因為在以義務為本位的法律設計中,與人工智能相關的犯罪是典型的法定犯,各主體負有不同規(guī)范賦予的維護算法安全的義務,主體行為是否違反了規(guī)范賦予的義務,是否因此創(chuàng)設了“法律不允許的危險”,是對其刑事責任進行追究的起點。如前所述,對于人工智能的法律設計,需要為人工智能技術的進一步發(fā)展留有合理的空間,而人對技術的認識是具有局限性的,所以法律需要對超出認識范圍的風險保有一定的寬容心態(tài)。當主體的行為沒有違反相關規(guī)范的規(guī)定時,即使產(chǎn)生了一定風險也不宜進行歸責,承認“被允許的風險”存在,能夠更好地實現(xiàn)人工智能技術的社會效益。付玉明:《自動駕駛汽車事故的刑事歸責與教義展開》,《法學》,2020年第9期。
通過客觀歸責的方式判斷人工智能相關主體的責任也存在理解上的難點,因為進行客觀歸責所需闡明的“法所不允許的危險”和“危險實現(xiàn)”這兩個關鍵問題并不是經(jīng)驗所能確定的,需要以規(guī)范的判斷為前提,而這種規(guī)范判斷應如何進行?應依照什么樣的標準進行?“客觀歸責”這個概念本身并沒有告訴我們。托馬斯·魏根特:《客觀歸責:不只是口號?》,王靜譯,梁根林、埃里克·希爾根多夫編:《刑法體系與客觀歸責:中德刑法學者的對話(二)》,北京大學出版社2015年版,第97頁。因為人工智能相關犯罪是法定犯,所以對“法不允許的危險”需要參照前置法律規(guī)范進行規(guī)范判斷,前置法定性、刑法及其司法定量的主張?zhí)貏e具有現(xiàn)實意義,田宏杰:《知識轉型與教義堅守:行政刑法幾個基本問題研究》,《政法論壇》,2018年第6期。在此不再贅述。對于應當依照什么標準進行判斷,即如何確定風險與結果之間的因果關系,就涉及在人工智能法律治理中的技術邏輯與法律邏輯的區(qū)分。
法律在面對這種技術邏輯所帶來的障礙時,需要正視法律自身的局限性,將技術判斷交給相關技術部門解決。這樣的做法并不會影響法律自身功能的發(fā)揮,因為法律的運作從來都離不開其他部門的輔助。典型的如醫(yī)療事故鑒定,相關醫(yī)療行為與損害結果之間的因果關系即為純粹的技術邏輯,需要依賴于專業(yè)鑒定部門的結論來確定責任。在這些法律與技術共治的領域,法律的工作是搭建好防御風險、保障相關主體權利的合理法律框架,而不是糾結于因果關系中所包含的技術邏輯如何得到證明。算法安全是刑法對人工智能技術進行規(guī)制的切入點,目的在于要求人工智能相關行為主體依照自身所承擔的義務,實現(xiàn)人工智能“安全、可靠、可控”的發(fā)展。理論上有觀點雖然認識到了人工智能與其所造成結果之間的因果關系是一種純粹的技術邏輯,但是認為“這種純粹技術結構的方法論致使算法及其計算結果徹底隔離于社會規(guī)范,進而使之跳脫于侵權法律責任判定的維度之外,這種挑戰(zhàn)對于法律理論中的因果關系判定是一種根基性的撼動”。李文靜、欒群:《人工智能時代算法的法律規(guī)制:現(xiàn)實、理論與進路》,《福建師范大學學報》(哲學社會科學版),2020年第4期。筆者認為,這種結論未能正視共治領域中的技術邏輯與法律邏輯的關系,夸大了技術邏輯的作用。如前所述,對技術邏輯因果關系的判斷并不是法律需要完成的工作。實體法在司法領域中是以證據(jù)為基礎對案件事實進行認定從而得出結論的,證據(jù)的基本屬性包括了客觀性,所以算法因果關系等問題的證明,不能從法律的角度基于對技術邏輯模棱兩可的認識進行推測,對于專業(yè)的技術問題,法律需要尊重技術領域得出的結論。當相關證據(jù)不充分,如科技領域只給出了“有可能”的結論時,在司法領域中重要的“存疑有利于被告”原則便可以發(fā)揮作用,以此實現(xiàn)刑法的人權保障的功能。
當然,法律需要為技術部門對算法因果關系的判斷提供依據(jù)。對此,實踐中《發(fā)展規(guī)劃》和《倫理規(guī)范》已為在立法領域進一步完善相關法律規(guī)范提供了宏觀指導,要求算法“逐步實現(xiàn)可驗證、可審核、可監(jiān)督、可追溯、可預測、可信賴”。在理論層面,學者們也為解決算法因果關系判斷提出了不同的解決方案,如要求算法設計者設置完整的算法設計日志、張凌寒:《算法規(guī)制的迭代與革新》,《法學論壇》,2019年第2期。建立算法登記制度、蘇宇:《算法規(guī)制的譜系》,《中國法學》,2020年第3期。統(tǒng)一算法的設計生產(chǎn)標準和給人工智能安裝類似飛機黑盒子一樣的監(jiān)控裝置。金東寒主編:《秩序的重構:人工智能與人類社會》,上海大學出版社2017年版,第264頁。
(二)刑法與前置法的功能區(qū)分
在人工智能治理領域中,除了對法律邏輯與技術邏輯進行區(qū)分以外,還需要避免出現(xiàn)刑法與前置法功能的混淆。
在社會風險激增的背景下,擴張刑法制裁范圍以對社會風險進行預防是世界范圍內(nèi)普遍存在的現(xiàn)象,具有其必要性與必然性。從我國刑事立法的實踐看,“功能性特征極其明顯,立法者的反應更為迅捷,通過刑法控制社會的欲望更為強烈,觸角也伸得更長”的積極刑法立法觀已經(jīng)在我國得以確立。周光權:《論通過增設輕罪實現(xiàn)妥當?shù)奶幜P:積極刑法立法觀的再闡釋》,《比較法研究》,2020年第6期。但對預防功能的重視并不會改變刑法在國家法律體系中的后置法地位,因為刑法理性參與犯罪治理,不能僅僅是寄希望于高壓威懾,而是需要把刑法作為社會治理中的一種具體手段,同其他社會資源共同有效控制犯罪、防御社會風險。高銘暄、孫道萃:《預防性刑法觀及其教義學思考》,《中國法學》,2018年第1期。代表積極預防主義的微罪立法、危險犯的立法也只是個別特例。在我國違法與犯罪的二元制裁體系中,刑事犯罪與一般違法行為之間應具有社會危害性“量”上的區(qū)別,刑法所規(guī)制的只是已超出前置法律規(guī)制范圍的具有“嚴重社會危害性”的犯罪行為。防御人工智能技術所產(chǎn)生的風險,對法律的要求是多方面的。如高度依賴于網(wǎng)絡的人工智能,需要完備的網(wǎng)絡安全法律規(guī)范提供保障;人工智能技術對大數(shù)據(jù)的需求,需要一套能夠兼顧技術發(fā)展需求和相關主體信息權利保障的法律規(guī)范;人工智能自主性的提升對社會倫理的影響,也需要相關規(guī)范加以應對。這些都是過去法律考慮不充分或者沒有考慮到的問題,在今后立法活動中需要進一步完善。龍衛(wèi)球:《人工智能立法規(guī)范對象與規(guī)范策略》,《政法論叢》,2020年第3期。而且刑法與前置法對于維護算法安全所發(fā)揮的功能并不相同,基于刑法在法律體系中的后置法地位,對維護算法安全的義務,需要從前置法到刑法進行層層保障。所以相關義務如保障算法安全所需的網(wǎng)絡安全、倫理規(guī)范、數(shù)據(jù)保護規(guī)則等,首先需要由前置法律規(guī)范進行確認,刑法不宜直接介入加以規(guī)定。在對人工智能進行治理的共治領域中,基于法秩序統(tǒng)一的原理,在人工智能相關主體的義務認定上刑法需要與前置法保持一致。對此,刑法可以通過空白罪狀對相關前置法律規(guī)范中的規(guī)定進行引用,維護法律秩序的統(tǒng)一,避免在相關問題的認定上出現(xiàn)與前置法規(guī)定相矛盾的結論。
算法安全這一法益搭建了刑法參與人工智能法律治理的橋梁,在共治關系中,前置法為人工智能相關主體設定的義務,是刑法據(jù)以判斷刑事責任的依據(jù),為了避免刑法對人工智能技術的進步產(chǎn)生阻礙和混淆刑法與前置法的不同功能,在對人工智能相關主體的規(guī)制中刑法需要保持合理的謙抑,堅持刑法在法律體系中的后置保障法地位。
刑事立法在圍繞算法安全這一新型法益設計罪名時,需要保持罪名對相關行為類型化的高度概括性,以充分發(fā)揮刑法對前置法的保障作用。對此,理論上已提出了在刑法分則第二章危害公共安全罪中新增“設計、制造、銷售、使用不符合算法安全標準的人工智能產(chǎn)品罪,非法設計、制造、持有、買賣、運輸、使用人工智能武器罪,擅自改變?nèi)斯ぶ悄墚a(chǎn)品算法與用途罪,濫用人工智能罪,人工智能肇事罪”五種危害算法安全的犯罪。魏東:《人工智能算法安全犯罪觀及其規(guī)范刑法學展開》,《政法論叢》,2020年第3期?!秱惱硪?guī)范》所定義的“管理、研發(fā)、供應、使用”四類主體中,除負有管理義務的國家工作人員的行為需要通過瀆職罪進行規(guī)制外,以上五種危害公共安全的罪名設計可以很好覆蓋“研發(fā)、供應、使用”的相關主體危害算法安全的行為。同時,根據(jù)《倫理規(guī)范》第17條的規(guī)定,人工智能供應主體具有“研究制定應急機制和損失補償方案或措施,及時監(jiān)測人工智能系統(tǒng),及時響應和處理用戶的反饋信息,及時防范系統(tǒng)性故障,隨時準備協(xié)助相關主體依法依規(guī)對人工智能系統(tǒng)進行干預,減少損失,規(guī)避風險”的應急保障義務,對于違背該義務嚴重侵害算法安全的行為,也需要刑法制定新罪名予以規(guī)制。
《倫理規(guī)范》中的相關規(guī)定,為今后人工智能法律規(guī)范的制定提供了宏觀指導,但具體的規(guī)范細節(jié)還需各個部門法進一步細化規(guī)定,所以以上罪名設計的構想是否成立,或者是否還有必要繼續(xù)增加保護算法安全的新罪名,需要繼續(xù)觀察人工智能技術的發(fā)展情況和前置法律的立法情況,使刑法與前置法在人工智能治理領域中保持良好的互動。
四、結論
通過結合《新一代人工智能倫理規(guī)范》的相關規(guī)定和人工智能技術發(fā)展的基本特征,可以看出具有工具屬性的人工智能技術,其產(chǎn)生的社會風險仍是一種人為風險,故并不會對刑法理論產(chǎn)生顛覆性的影響。刑事立法與刑法理論需要根據(jù)人工智能技術的特征,為人工智能的刑法治理提供有效的方案。以算法安全為紐帶對人工智能相關主體進行刑事歸責,是使刑法有效參與人工智能法律治理的理論嘗試,為刑法對人工智能相關主體的刑事責任認定提供了可能的路徑。在具體方案的設計上,還需在厘清刑法與技術邏輯、刑法功能與前置法功能關系的基礎上,明確共治關系中刑法規(guī)制的范圍和應具有的功能,從而與人工智能的其他治理手段形成有效配合,實現(xiàn)人工智能技術法律治理的效果最大化。