馬恩萍
(南京工業(yè)大學(xué) 法學(xué)院,江蘇 南京211800)
人工智能技術(shù)的飛速發(fā)展,雖帶來(lái)了諸多利好,但與其相伴相生的不可預(yù)見(jiàn)性風(fēng)險(xiǎn)亦讓人踟躇。法學(xué)界有關(guān)人工智能的研究主要有兩個(gè)向度:一是研究人工智能語(yǔ)境下的法律,即人工智能介入法律實(shí)務(wù)、法學(xué)教育等;二是研究法律框架下的人工智能規(guī)制問(wèn)題。后者正是筆者所要探討的重點(diǎn)。關(guān)于人工智能發(fā)展帶來(lái)的機(jī)器人殺人這類(lèi)技術(shù)異化問(wèn)題,學(xué)界研究重點(diǎn)主要聚焦于人工智能刑事責(zé)任主體地位、刑事責(zé)任承擔(dān)等。
在刑事責(zé)任主體地位方面,國(guó)外學(xué)者Cabriel Hallevy認(rèn)為人工智能沒(méi)有靈魂,即使將來(lái)?yè)碛凶晕乙庵疽矡o(wú)法存在繁殖性的肉體或者真實(shí)情感,因此應(yīng)適用限制的刑事主體資格和刑事處遇方式[1]。國(guó)內(nèi)學(xué)者馬治國(guó)、田小楚通過(guò)對(duì)犯罪主體的界定與分析,認(rèn)為人工智能體應(yīng)當(dāng)是介于人與物之間特殊的刑事責(zé)任主體,提出將人工智能體按照智能化程度進(jìn)行劃分,據(jù)以判斷其刑事責(zé)任能力[2]。時(shí)方基于比較的視野,認(rèn)為人工智能與法人相比,不具備意識(shí)和意志要素,人工智能的本質(zhì)仍然是工具屬性,沒(méi)有必要認(rèn)定人工智能獨(dú)立的刑事主體[3]。
在刑事責(zé)任承擔(dān)方面,國(guó)外學(xué)者霍斯特·艾丹米勒在探討全自動(dòng)汽車(chē)的事故責(zé)任時(shí),認(rèn)為汽車(chē)自己承擔(dān)侵權(quán)責(zé)任似乎是異想天開(kāi)的,而應(yīng)實(shí)行汽車(chē)所有人與生產(chǎn)商共擔(dān)責(zé)任或創(chuàng)設(shè)汽車(chē)責(zé)任保險(xiǎn)[4]。薩比娜·格雷斯針對(duì)自動(dòng)駕駛汽車(chē)等機(jī)器人造成的刑事責(zé)任,提出了“社會(huì)共擔(dān)風(fēng)險(xiǎn)”的概念,即沒(méi)有人需要為該類(lèi)損害負(fù)責(zé)[5]。國(guó)內(nèi)學(xué)者劉憲權(quán)認(rèn)為強(qiáng)智能機(jī)器人自主實(shí)施的行為體現(xiàn)其有自由意志,這與自然人在意識(shí)支配下實(shí)施的行為相當(dāng),應(yīng)承擔(dān)相應(yīng)的刑事責(zé)任[6]。袁曾結(jié)合域外法律,主張具有自主行為能力、享有法律權(quán)利和承擔(dān)法律義務(wù)的人工智能因其承擔(dān)行為能力的后果有限,只享有有限法律人格并受到特殊法律規(guī)制[7]。
綜上,關(guān)于人工智能的研究分歧主要源于以下幾點(diǎn):一是研究語(yǔ)境的差異;二是研究視角的差異;三是基于適法性的探討,即法律應(yīng)用的可行性,人工智能是否適應(yīng)法律之初衷、要素、規(guī)制目的等。筆者認(rèn)為刑法因其謙抑性,不能太超前,但也不至于太落后,應(yīng)避免人工智能技術(shù)風(fēng)險(xiǎn)上升為刑法風(fēng)險(xiǎn)。
人工智能是研發(fā)、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)以及應(yīng)用系統(tǒng)的一門(mén)新的技術(shù)科學(xué)[8]。當(dāng)前人工智能發(fā)展正處在“弱人工智能、強(qiáng)人工智能、超人工智能”三個(gè)階段的弱人工智能向強(qiáng)人工智能的過(guò)渡階段。弱人工智能階段人工智能的本質(zhì)是工具屬性,而強(qiáng)人工智能階段人工智能的特征則是具備獨(dú)立思維,能夠像人一樣獨(dú)立思考、辨認(rèn)行為和控制行為?!邦?lèi)人型人工智能實(shí)體”作為本文的研究對(duì)象,這一概念由王耀彬?qū)W者首次提出,該概念較于以往學(xué)者提出的“人工智能產(chǎn)品”“人工智能體”等,更能展現(xiàn)人工智能的發(fā)展階段。因而,本文將人工智能分為弱人工智能發(fā)展的初級(jí)、中級(jí)階段(簡(jiǎn)稱(chēng)“弱人工智能”)和弱人工智能時(shí)代高級(jí)階段的人工智能、強(qiáng)人工智能、超人工智能(以上簡(jiǎn)稱(chēng)“類(lèi)人型人工智能”);后者正是本文研究的對(duì)象。
刑事責(zé)任是指行為人因其犯罪行為所應(yīng)承受的,代表國(guó)家的司法機(jī)關(guān)根據(jù)刑事法律對(duì)該行為所作的否定評(píng)價(jià)和對(duì)行為人進(jìn)行譴責(zé)的責(zé)任[9]。
一切法律都是以外在行為作為規(guī)制內(nèi)容的。同樣地,刑事責(zé)任亦關(guān)注人的外在行為,刑罰的發(fā)動(dòng)須以客觀(guān)存在的犯罪行為為依據(jù),對(duì)沒(méi)有表現(xiàn)為行為的人的主觀(guān)思想和內(nèi)心意識(shí)活動(dòng),不能認(rèn)定是犯罪并處以刑罰[9]。因此犯罪心理在實(shí)踐中只能通過(guò)外在顯現(xiàn)的犯罪行為反向推理。傳統(tǒng)理論認(rèn)為人具有意志自由,對(duì)自身的行為能夠絕對(duì)地支配和控制。德國(guó)法學(xué)家威爾澤爾認(rèn)為,人具有一定程度的意志自由,即個(gè)人的素質(zhì)和所處的環(huán)境制約著人的行為;同時(shí),人的內(nèi)心意志也能在環(huán)境和素質(zhì)制約的范圍內(nèi)進(jìn)行有限度的選擇和決定[10]。除此之外,人的意思活動(dòng)與社會(huì)環(huán)境的、自然的條件間的密切關(guān)系也被統(tǒng)計(jì)學(xué)和實(shí)證主義研究加以證實(shí)。綜上,人的意思活動(dòng)是兼具主觀(guān)性和客觀(guān)性,也并非完全的自由意志體。
類(lèi)人型人工智能與人類(lèi)的有限意志自由相當(dāng)。其一,類(lèi)人型人工智能具有機(jī)械性的特點(diǎn),能夠按照預(yù)先編碼錄入的程序和指令作出行為,與人類(lèi)受環(huán)境影響和制約所作行為的機(jī)理相似。其二,類(lèi)人型人工智能具有自主性的特點(diǎn),能基于對(duì)前期輸入數(shù)據(jù)信息的深度學(xué)習(xí),分析計(jì)算出最優(yōu)結(jié)果,從而偏離人類(lèi)的預(yù)先設(shè)定和判斷方向,作出程序設(shè)定之外的行為。即與人類(lèi)依照自己的意識(shí)做出行為的機(jī)理相類(lèi)似。至此,既然類(lèi)人型人工智能具有有限的意志自由,那么其就可能基于自己獨(dú)立判斷實(shí)施侵害自然人、法人相關(guān)法益的行為,將該行為暫且稱(chēng)為特殊法益侵害行為。日本有學(xué)者主張對(duì)行為人進(jìn)行法的非難的前提是行為人具備有責(zé)地實(shí)施行為之能力的場(chǎng)合[11],即否認(rèn)了弱人工智能、在編程范圍內(nèi)作出行為的強(qiáng)人工智能以及超出編程范圍但行為后果具有可預(yù)見(jiàn)性的強(qiáng)人工智能等的發(fā)生法益侵害而獨(dú)立承擔(dān)刑事責(zé)任的可能性。在此情境下,需將弱人工智能和上述強(qiáng)人工智能視為“犯罪工具”,規(guī)責(zé)于開(kāi)發(fā)者、使用者,亦或是監(jiān)督者等相關(guān)主體,在此不作贅述。
目前,有關(guān)刑事責(zé)任能力的劃分標(biāo)準(zhǔn)有心理學(xué)和生物學(xué)之分,但仍是人類(lèi)本位。心理學(xué)上有關(guān)責(zé)任能力的標(biāo)準(zhǔn)強(qiáng)調(diào)行為人在犯罪時(shí)的心理狀態(tài)或心理狀態(tài)所導(dǎo)致的后果,據(jù)以判定是否達(dá)到刑法的認(rèn)定情形,從而評(píng)判行為人是否具有刑事能力;生物學(xué)的標(biāo)準(zhǔn)則更為明確,以行為人是否具有刑法規(guī)定的精神障礙為判定依據(jù)。刑事責(zé)任能力包括行為辨認(rèn)和控制能力,是行為人構(gòu)成犯罪和承擔(dān)刑事責(zé)任的基礎(chǔ)。探究類(lèi)人型人工智能是否能夠被法律所擬制,關(guān)鍵在于其是否具備刑法意義上的辨認(rèn)和控制能力。
2.2.1 具有自主、深度學(xué)習(xí)的能力
類(lèi)人型人工智能具有深度學(xué)習(xí)的特征,深度學(xué)習(xí)算法允許其從大量數(shù)據(jù)中自我學(xué)習(xí),無(wú)需編程者作出分步指令。具備深度學(xué)習(xí)能力的類(lèi)人型人工智能能夠在不斷地自主深度學(xué)習(xí)中,創(chuàng)制新的規(guī)則甚至改進(jìn)自身的程序設(shè)定,認(rèn)知能力不斷提升。因而,深諳學(xué)習(xí)的類(lèi)人型人工智能,也能夠自主學(xué)習(xí)法律規(guī)范、社會(huì)規(guī)范等。
2.2.2 具有理解法律規(guī)范的能力
在深度學(xué)習(xí)的基礎(chǔ)上,類(lèi)人型人工智能能夠進(jìn)一步塑造自身的行為規(guī)則體系,但其對(duì)法律規(guī)范、社會(huì)規(guī)范是否具備理解能力,仍需進(jìn)行進(jìn)一步的論證。
其一是類(lèi)人型人工智能與自然人相當(dāng),在理解某些含混不清的法律法規(guī)的概念表述時(shí),可能存在對(duì)法律適用的理解偏差。無(wú)論是從邏輯學(xué)有關(guān)概念的界定出發(fā),還是從語(yǔ)義學(xué)上我們對(duì)一個(gè)概念的理解,難以完全摒除主觀(guān)情感因素的影響,致使無(wú)法形成格式化、終局性的認(rèn)識(shí)。人類(lèi)通過(guò)類(lèi)比學(xué)習(xí)、歸納演繹、情景學(xué)習(xí)等學(xué)習(xí)方式,逐漸形成對(duì)某些概念較為系統(tǒng)的認(rèn)識(shí),諸如“法律”這一概念,進(jìn)而遵守法律。類(lèi)人型人工智能在被創(chuàng)制之初可能尚未形成對(duì)法律的系統(tǒng)化認(rèn)識(shí),但是隨著深度學(xué)習(xí)的強(qiáng)化,其對(duì)法律規(guī)范的理解會(huì)隨之加深。其二是“缸中大腦”假說(shuō)的哲學(xué)思考。普特南假想人類(lèi)是缸中之腦,人工智能則是人類(lèi)創(chuàng)造出的人工大腦。人工智能依賴(lài)算法和數(shù)據(jù),人腦則偏向于神經(jīng)科學(xué)和腦科學(xué)領(lǐng)域。人腦的認(rèn)識(shí)來(lái)源途徑主要有個(gè)體的社會(huì)學(xué)習(xí)、生存體驗(yàn)和經(jīng)驗(yàn)以及信息的思維加工處理。相應(yīng)地,類(lèi)人型人工智能也通過(guò)人類(lèi)預(yù)先輸入的算法程序、深度學(xué)習(xí)加工以及復(fù)雜技術(shù)捕捉等方式獲取認(rèn)識(shí)。綜上,類(lèi)人型人工智能也具備和人類(lèi)相當(dāng)?shù)恼J(rèn)識(shí)機(jī)理,其也應(yīng)當(dāng)具有行為的認(rèn)識(shí)和理解能力。
2.2.3 具備理性的行為控制能力
理性主體作為法律的預(yù)設(shè)主體,能夠權(quán)衡利弊、作出選擇并對(duì)此負(fù)責(zé)。機(jī)器學(xué)習(xí)是類(lèi)人型人工智能主要的學(xué)習(xí)方式,這種方式體現(xiàn)的是一種只服從“必然律”,而完全排除了欲望、情感等影響的技術(shù)理性。倘若類(lèi)人型人工智能被植入一條智能準(zhǔn)則,那么其就會(huì)在深度學(xué)習(xí)的基礎(chǔ)上進(jìn)行理性分析,并嚴(yán)格依照此認(rèn)知規(guī)律作出行為。類(lèi)人型人工智能在技術(shù)理性的影響下,其依據(jù)獨(dú)立思維作出的行為一定是可控的、完全排除情感、欲望等影響的,達(dá)到刑法標(biāo)準(zhǔn)所要求的理性行為。因而,類(lèi)人型人工智能具備理性的行為控制能力。
綜上,類(lèi)人型人工智能一方面能夠基于有限的自由意志,擺脫程序控制進(jìn)而造成法益侵害,另一方面,其也具備有限的行為辨認(rèn)和控制能力,能夠排他性地支配自身的行為,因而對(duì)行為的后果具有可譴責(zé)性。
類(lèi)人型人工智能的刑事責(zé)任承擔(dān)主要有兩個(gè)方面的考察:一是類(lèi)比人類(lèi)有關(guān)刑事責(zé)任年齡、責(zé)任能力、違法性認(rèn)識(shí)可能等的考量,二是基于對(duì)人工智能受刑能力的認(rèn)識(shí)提出的具體刑罰模式,在此主要對(duì)后者進(jìn)行探討。
筆者認(rèn)為當(dāng)前有些學(xué)者提出的適用于類(lèi)人型人工智能時(shí)代的刑罰模式,如死刑 (永久銷(xiāo)毀)、附加刑(罰金)等,無(wú)疑創(chuàng)設(shè)了與人類(lèi)近乎一樣的“生命體”。需時(shí)刻謹(jǐn)記人工智能技術(shù)發(fā)展的最終目的是要造福人類(lèi),并非創(chuàng)設(shè)一個(gè)新的物種。隨著科技的發(fā)展,類(lèi)人型人工智能的地位在將來(lái)的很長(zhǎng)一段時(shí)間都十分尷尬。以霍金為代表的多位科學(xué)家寓言,未來(lái)強(qiáng)人工智能的發(fā)展可能會(huì)給人類(lèi)帶來(lái)毀滅性的災(zāi)難。因而,筆者的立場(chǎng)是抵制人類(lèi)完全不可控的強(qiáng)、超人工智能技術(shù)。
同時(shí),對(duì)類(lèi)人型人工智能實(shí)施刑罰不能達(dá)到刑罰的目的。實(shí)務(wù)界與理論界公認(rèn)的刑罰目的有懲治犯罪人、安撫被害人、一般預(yù)防、特殊預(yù)防以及刑罰矯正功能。在懲治犯罪人與安撫被害人方面,且不論對(duì)類(lèi)人型人工智能應(yīng)適用何種刑罰(其是否會(huì)感知痛苦,產(chǎn)生負(fù)罪譴責(zé)感),單就安撫被害人而言,通過(guò)對(duì)機(jī)器施以刑罰很難令被害人產(chǎn)生心理上的慰藉。在一般預(yù)防與特殊預(yù)防方面,筆者認(rèn)為現(xiàn)在探討為時(shí)過(guò)早,在此不作探討。在刑罰的矯正方面,存在巨大的爭(zhēng)議,當(dāng)前刑罰矯正功能的設(shè)立前提是基于人性善的假設(shè),即人可以被教化向善。而類(lèi)人型人工智能是否能適用矯正,也要基于對(duì)其性善、性惡論的探究。從本質(zhì)上看,當(dāng)前人類(lèi)也根本認(rèn)識(shí)不到人工智能具備“人性”。
因而,對(duì)類(lèi)人型人工智能的特殊處遇方式,應(yīng)是定罪而不量刑,即其假設(shè)在有限意志自由下實(shí)施的、帶有故意或過(guò)失等犯罪意圖的刑事犯罪時(shí),應(yīng)宣告該行為構(gòu)成犯罪,但不予以施加刑罰。
類(lèi)人型人工智能能夠被置于刑法保護(hù)法益和保障人權(quán)的保障機(jī)能下的前提之一就是法律要賦予其完善的權(quán)利,而賦權(quán)道路必定荊棘叢生,筆者對(duì)此并不看好,因而,類(lèi)人型人工智能自身不具備承擔(dān)的能力。那么,類(lèi)人型人工智能發(fā)展過(guò)程中不可避免的現(xiàn)實(shí)風(fēng)險(xiǎn)應(yīng)由社會(huì)共同承擔(dān)。這里的風(fēng)險(xiǎn)主要是其在自由意志下實(shí)施行為產(chǎn)生的。具體而言,可以為人工智能購(gòu)買(mǎi)保險(xiǎn)、設(shè)置人工智能發(fā)展基金等,以分擔(dān)類(lèi)人型人工智能的刑事責(zé)任。
重慶電子工程職業(yè)學(xué)院學(xué)報(bào)2019年5期