梁湖 童彤 熊?,? 吳秀娟 吳柏文
摘要:在人工智能逐漸發(fā)展的背景下,一些人工智能犯罪也隨之浮出水面。本文探討了人工智能犯罪的可能性以及人工智能達(dá)到何種條件方能具備刑事責(zé)任能力。并以此為根據(jù)分析哪些情況下應(yīng)當(dāng)由人工智能承擔(dān)刑事責(zé)任。
關(guān)鍵詞:人工智能;刑事責(zé)任;犯罪
中圖分類號(hào):TP18+B022文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1008-4428(2019)03-0150-02
一、 背景介紹與研究目的
從21世紀(jì)開始,在第三次工業(yè)革命的驅(qū)動(dòng)下,人類文明的發(fā)展翻開了新的篇章。21世紀(jì)的最初十年,是互聯(lián)網(wǎng)和計(jì)算機(jī)普及并大規(guī)模民用的十年,人類的生活和生產(chǎn)方式也都受其影響產(chǎn)生了天翻地覆的變化,逐步開啟了網(wǎng)絡(luò)社會(huì)時(shí)代的大門。大數(shù)據(jù)技術(shù)應(yīng)運(yùn)而生,而人類為了把這些大數(shù)據(jù)最高效的運(yùn)用又創(chuàng)造出了AI協(xié)助人類,伴隨技術(shù)發(fā)展,AI開始影響人類生活的每個(gè)方面,我們隨之進(jìn)入AI時(shí)代。智能時(shí)代的標(biāo)志也就是Artificial Intelligence,簡稱“AI”,作為研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。AI開始逐漸接手人類的工作,并以遠(yuǎn)超人類的效率和精度去協(xié)助人類解決人類解決不了的和人類費(fèi)時(shí)費(fèi)力的問題。AI在人類的生產(chǎn)生活中所占的比例越來越大,甚至已經(jīng)逐漸成為人類生產(chǎn)力中不可或缺的一部分。家居產(chǎn)業(yè)中有掃地機(jī)器人、智能空調(diào)等等層出不窮的智能電器,出行方面不少互聯(lián)網(wǎng)公司投資研發(fā)的無人駕駛汽車已經(jīng)投入實(shí)驗(yàn)。同時(shí),也有許多新的產(chǎn)業(yè)在以之前難以想象的方式默默地改變著我們的生活。未來AI還將進(jìn)一步普及,并且由現(xiàn)階段的只有簡單處理能力的弱AI逐步進(jìn)化為有深度學(xué)習(xí)能力的強(qiáng)AI。但是智能時(shí)代給我們帶來機(jī)遇和發(fā)展的同時(shí),伴隨而來的還有許多挑戰(zhàn),現(xiàn)行的法律法規(guī)是否能夠規(guī)范這些新的生活和生產(chǎn)方式是一個(gè)值得探討的問題。2018年Uber研發(fā)的無人駕駛汽車在美國亞利桑那州撞擊了一名女子致其死亡。這些年工廠中工作的機(jī)器人致人重傷或死亡的事件也時(shí)有發(fā)生。人們終于開始意識(shí)到AI不僅是工具,在特殊情況下有可能對人類的生命安全、財(cái)產(chǎn)安全造成影響。這種焦慮與不安逐漸蔓延開,是否那些預(yù)言機(jī)器人會(huì)滅亡人類的科幻小說真的會(huì)成為現(xiàn)實(shí)?從目前或者可見的未來來看,AI已經(jīng)有能力實(shí)施部分刑法所規(guī)定的犯罪行為了。在這樣的大背景之下,如果我們能夠提前對AI犯罪進(jìn)行一些研究,探討其是否真的能如霍金所說成為“第三類人”,一定程度上避免法律的滯后性對社會(huì)造成的不良影響,想必是極有意義的。
從犯罪構(gòu)成四要件的角度來分析:只要AI具有責(zé)任能力,那么就可以成為單獨(dú)的犯罪主體。同時(shí)AI往往是多人的意志集合成一個(gè)意志,那么在AI犯罪中可能是編程者們的集合亦或者編程者與AI本身意志的集合。因此AI犯罪主體既可能是單獨(dú)的AI本身,也可能與設(shè)計(jì)者構(gòu)成共同犯罪主體。對犯罪的認(rèn)定離不開對主觀方面的判斷。當(dāng)AI的行為目的超出了設(shè)計(jì)者的預(yù)設(shè)目的,那么其行為模式絕大部分情況是由AI自身控制,此時(shí)就要考慮它的主觀因素。犯罪意思的來源應(yīng)成為定罪量刑的標(biāo)準(zhǔn)。從目前或者可見的未來來看,隨著AI的發(fā)展其用途也越來越廣泛,其可能侵犯的客體自然也就愈發(fā)多樣。不論是人身權(quán)利、財(cái)產(chǎn)權(quán)利、民主權(quán)利等都有可能成為其犯罪的客體。從客觀方面來:AI已經(jīng)具備了獨(dú)立工作的能力,獨(dú)自實(shí)施危害行為產(chǎn)生危害結(jié)果。
二、 人工智能刑事責(zé)任主體資格論證
有論著認(rèn)為:“刑事責(zé)任能力,是指行為人構(gòu)成犯罪和承擔(dān)刑事責(zé)任所必需的,行為人具備的刑法意義上辨認(rèn)和控制自己行為的能力?!币灿姓撝J(rèn)為:“刑事責(zé)任能力,簡稱責(zé)任能力,是指行為人實(shí)施危害行為時(shí),能夠理解自己行為的性質(zhì)、后果和社會(huì)政治意義,并能夠控制自己行為,從而對自己所實(shí)施的行為能夠承擔(dān)刑事責(zé)任的能力?!边€有論著認(rèn)為:“刑事責(zé)任能力,……,是指行為人認(rèn)識(shí)自己行為的性質(zhì)、意義、作用和后果,并能夠控制自己行為方向和對自己行為承擔(dān)刑事責(zé)任的能力?!?/p>
不難發(fā)現(xiàn)這三個(gè)學(xué)說的共同點(diǎn)就是都認(rèn)為刑事責(zé)任能力的條件是能夠認(rèn)識(shí)自己行為的性質(zhì)和控制自己的行為。讓我們回過頭來看AI是否具有這種能力呢?AI得益于傳感器技術(shù)其對行為的辨認(rèn)能力遠(yuǎn)高于以往刑法所規(guī)定的自然人?,F(xiàn)有的AI大多以大數(shù)據(jù)的分析結(jié)果得出模型,將模型與其憑借傳感器所搜集的信息進(jìn)行比對,篩選出當(dāng)前環(huán)境下最適宜的行動(dòng)方案,并且很多機(jī)器的精度已經(jīng)遠(yuǎn)遠(yuǎn)高于手工制作了。因此這類AI具備認(rèn)識(shí)自己行為和控制自己行為的能力,據(jù)此可以推斷AI存在成為具備刑事責(zé)任能力的可能性。
三、 具備刑事責(zé)任能力的人工智能的范圍
但是并不能簡單根據(jù)有分析數(shù)據(jù)得出模型,進(jìn)而根據(jù)模型回應(yīng)的能力就認(rèn)為AI具有認(rèn)識(shí)自己行為的能力。因?yàn)檫@種回應(yīng)的內(nèi)容有些可能是被編程者預(yù)先設(shè)定的,而在回應(yīng)時(shí)它并沒有自己的意識(shí)和思維,應(yīng)該被理解為編程者表達(dá)意思或者行為的工具。顯然不適合把這類AI認(rèn)定為具有刑事責(zé)任能力。而另外一部分AI僅僅被預(yù)設(shè)了目的(即設(shè)計(jì)意圖)和基本工作原理,具體的工作方法和行為的實(shí)施均不是設(shè)計(jì)者可以具體控制的,這種情況下顯然AI已經(jīng)有了一定程度上的辨認(rèn)和控制能力。具體區(qū)分哪些AI是具有辨認(rèn)和控制能力,很難從技術(shù)角度來分析,因?yàn)槠浜艽蟪潭壬鲜且粋€(gè)主觀的概念。根據(jù)現(xiàn)在以及可見的未來的技術(shù)情況來看,AI都離不開深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的應(yīng)用,而深度學(xué)習(xí)的結(jié)果是否屬于編程者的設(shè)計(jì)意圖和可預(yù)見的范圍之內(nèi)難以確定客觀標(biāo)準(zhǔn)。在特殊情形下可能會(huì)出現(xiàn)邊界不明的情況。而AI難以像人類一樣確定刑事責(zé)任年齡和精神狀況。原因在于,不同的AI對行為辨認(rèn)和控制的能力不同,并且AI對社會(huì)的接觸方式和生存模式明顯不同于自然人,出于避免AI從事違法犯罪活動(dòng)的考慮,也使AI違法犯罪時(shí)進(jìn)行處罰具備合理性,法律應(yīng)當(dāng)賦予編程者將基本法律規(guī)范灌輸給AI的義務(wù)。當(dāng)未盡預(yù)防義務(wù)的編程者所設(shè)計(jì)的AI犯罪時(shí),編程者的主觀狀態(tài)應(yīng)當(dāng)認(rèn)定為明知道自身的行為可能會(huì)導(dǎo)致危害結(jié)果而持放任的態(tài)度即間接故意,此時(shí)AI不應(yīng)該承擔(dān)刑事責(zé)任。AI具備刑事責(zé)任能力的前提不只有對法律具備一定程度的了解,還應(yīng)當(dāng)包括具備獨(dú)立實(shí)施犯罪的能力(也就是控制能力的外在表現(xiàn))。其原因在于,即使一個(gè)AI對法律具備相當(dāng)程度的了解,清楚自身行為的性質(zhì),但其不具備獨(dú)立實(shí)施犯罪的能力,則說明其控制能力存在缺陷,是外部因素介入導(dǎo)致最終的危害結(jié)果發(fā)生。這種情況下顯然AI作為工具的成分更大,不適宜將AI作為刑事責(zé)任的主體。
辨別AI的控制能力,不僅僅要考慮其硬件上的限制(比如其本身不具備機(jī)器手臂,不可能進(jìn)行直接操作),還應(yīng)當(dāng)考慮其在該領(lǐng)域內(nèi)的智力水平是否達(dá)到實(shí)施犯罪的程度(即辨認(rèn)能力的基礎(chǔ)),否則一旦過大范圍賦予AI以刑事責(zé)任能力,AI難免成為部分犯罪分子的“替罪羊”。目前比較可行的考察AI的智能程度的方法是參考自然人測試智商(IQ)的方法測試AI的智商,將測試結(jié)果根據(jù)某年齡的自然人的平均IQ將AI的智力水平換算為對應(yīng)的自然人的年齡,以此作為參考確定AI智力水平對應(yīng)的辨認(rèn)和控制能力,進(jìn)而確定該AI是否具備刑事責(zé)任能力。綜上訴述,只有被編入了必要的法律規(guī)范并且智力達(dá)到了可以具備辨認(rèn)和控制能力的AI才具備刑事責(zé)任能力。
四、 具備刑事責(zé)任能力的人工智能犯罪之分類
雖然前文中為了確定AI的辨認(rèn)和控制能力參考了自然人的智力判斷標(biāo)準(zhǔn),但是AI的刑事責(zé)任能力的研究顯然不應(yīng)該被限定在自然人犯罪的框架之中。其原因在于AI作為被我們創(chuàng)設(shè)出的智能,不論是外在表現(xiàn)形式和思維方式都和自然人具有顯著的區(qū)別,用約束自然人的法律和思維方式去規(guī)范AI難免出現(xiàn)一些問題。具體到刑事責(zé)任能力這個(gè)方面,設(shè)計(jì)者的意圖和犯罪結(jié)果之間的聯(lián)系應(yīng)當(dāng)成為定罪量刑的依據(jù)之一。之所以把這二者的聯(lián)系作為定罪量刑的依據(jù)是因?yàn)榫幊陶邔τ贏I的控制和監(jiān)護(hù)人對于被監(jiān)護(hù)人的控制雖然有相似之處,但是二者也具有不小的區(qū)別。被監(jiān)護(hù)的自然人雖然受到監(jiān)護(hù)人(往往是父母)的監(jiān)護(hù)并且受監(jiān)護(hù)人的撫養(yǎng)和教育,但是被監(jiān)護(hù)人通常仍有其他途徑例如學(xué)校等方式來接觸社會(huì)和主流意識(shí)形態(tài)。自然人雖然是父母所生育,其性格思維等等方面受父母影響,但是父母并不能直接控制子女的狀態(tài)。AI則不同,在研發(fā)階段編程者對AI的控制幾乎是百分之一百的,這也導(dǎo)致了即使編程者可能沒有直接指使AI實(shí)施犯罪,但是施加了間接的影響。這種緊密的聯(lián)系達(dá)到一定程度時(shí)即成為因果關(guān)系,導(dǎo)致了編程者要承擔(dān)更加嚴(yán)格的責(zé)任。具體來說:當(dāng)AI所實(shí)施的犯罪行為本來就是編程者的設(shè)計(jì)目的,即使該AI已經(jīng)具備了辨認(rèn)和控制能力,設(shè)計(jì)者應(yīng)當(dāng)與有刑事責(zé)任能力的AI成立共同犯罪。而假如AI所實(shí)施的犯罪行為遠(yuǎn)遠(yuǎn)偏離了編程者的設(shè)計(jì)意圖,甚至超過了能夠預(yù)料的范圍,那么說明存在難以預(yù)料的介入因素,如果介入因素是具備辨認(rèn)和控制能力的AI本身造成的,則應(yīng)當(dāng)由AI本身承擔(dān)刑事責(zé)任,編程者不承擔(dān)刑事責(zé)任。
當(dāng)AI所實(shí)施的犯罪行為在編程者意圖之內(nèi),并且該案件中的AI無刑事責(zé)任能力,此時(shí)AI僅僅是編程者表達(dá)意思的工具,其狀態(tài)和處罰應(yīng)當(dāng)參考自然人犯罪中的間接正犯。
還有一種情況是:AI所實(shí)施的犯罪行為在編程者設(shè)計(jì)目的之外,且該AI是無刑事責(zé)任能力的情況下實(shí)施的犯罪行為。假如參考無刑事責(zé)任能力的自然人犯罪的情況,該自然人是不承擔(dān)刑事責(zé)任的。但是AI畢竟只是人類創(chuàng)設(shè)出的智能,人類對于無刑事責(zé)任的同類的寬容不應(yīng)該適用于AI。其原因在于假使其獨(dú)立實(shí)施犯罪而不承擔(dān)刑事責(zé)任顯然違背了公平正義的要求,并且該AI既然已經(jīng)實(shí)施了編程者意圖之外的犯罪行為證明其顯然具備一定的危險(xiǎn)性,假如不對其加以懲處顯然不符合安全的需要。
在本文開頭已經(jīng)討論了區(qū)分AI的刑事責(zé)任能力對于人類的作用,最后需要討論的是承擔(dān)刑事責(zé)任對AI是否有意義。自然人適用的刑事責(zé)任由于其性質(zhì)顯然不能對AI產(chǎn)生懲罰或者教育的意義。比如:只要不被徹底刪除,AI作為一串代碼幾乎能夠無限的存在下去。因此簡單粗暴的刪除并不能達(dá)到相當(dāng)于人類死刑的效果。而也正是這種幾乎無窮長的“生命”也使得有限度的限制自由對AI幾乎沒有意義。而AI通常也沒有財(cái)產(chǎn)和政治權(quán)利,財(cái)產(chǎn)刑和剝奪政治權(quán)利對其也不適用。
五、 結(jié)論
刑法理論必須與時(shí)俱進(jìn),跟上社會(huì)發(fā)展的腳步。否則無法適應(yīng)新的社會(huì)發(fā)展帶來的社會(huì)問題。AI時(shí)代的刑法理論不應(yīng)再將刑事責(zé)任主體的范圍限定為具有生命體的“人”和單位,那種認(rèn)為“刑法是以規(guī)制人的行為為內(nèi)容的,任何一種刑法規(guī)范,只有建立在對人性的科學(xué)假設(shè)的基礎(chǔ)之上,其存在與適用才具有本質(zhì)上的合理性”的觀點(diǎn),也應(yīng)當(dāng)隨著社會(huì)的進(jìn)步而有所改變。刑事責(zé)任能力的前提不應(yīng)再被限定為自然人,而應(yīng)以辨認(rèn)和控制能力為標(biāo)準(zhǔn)。雖然這一標(biāo)準(zhǔn)并不存在可以精確客觀量化的標(biāo)準(zhǔn),但是我們應(yīng)當(dāng)嚴(yán)守這一界限。既不讓AI成為人類的替罪羊,也不讓編程者和使用者承受無妄之災(zāi)。因此,AI的犯罪行為是否與編程者和使用者的目的和意圖有關(guān)聯(lián)應(yīng)當(dāng)作為確定刑事責(zé)任的依據(jù)之一。AI越來越多的深入我們的生活中,筆者認(rèn)為對AI刑事責(zé)任的研究和規(guī)定勢在必行。而視而不見導(dǎo)致的法律的滯后性的影響可能是巨大的。
參考文獻(xiàn):
[1]陳婉婷.網(wǎng)絡(luò)服務(wù)提供者幫助行為刑事責(zé)任模式探析[J/OL].北京警察學(xué)院學(xué)報(bào):1-9[2019-01-28].https:∥doi.org/10.16478/j.cnki.jbjpc.20190122.006.
[2]劉旭.人工智能體犯罪的刑事歸責(zé)——以自動(dòng)駕駛汽車為例[J].山西省政法管理干部學(xué)院學(xué)報(bào),2019(1):82-85.
[3]曾娜,吳滿昌.生態(tài)環(huán)境損害賠償中的多重責(zé)任之比例審查探討[J].武漢理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019,32(1):110-115.
作者簡介:
梁湖,男,江西景德鎮(zhèn)人,江西財(cái)經(jīng)大學(xué)學(xué)生,研究方向:法務(wù)會(huì)計(jì);
童彤,女,江蘇無錫人,江西財(cái)經(jīng)大學(xué)學(xué)生,研究方向:法學(xué);
熊?,?,女,江西南昌人,江西財(cái)經(jīng)大學(xué)學(xué)生,研究方向:法學(xué);
吳秀娟,女,福建寧德人,江西財(cái)經(jīng)大學(xué)學(xué)生,研究方向:法學(xué);
吳柏文,男,江西九江人,江西財(cái)經(jīng)大學(xué)學(xué)生。