摘 要 在人工智能時代下,現(xiàn)代社會生產(chǎn)技術(shù)水平顯著提高,人工智能技術(shù)可能使犯罪行為的社會危害性發(fā)生顯著變化,若不法分子可以使用人工智能技術(shù)來實施危害社會的行為,本文認(rèn)為必需要根據(jù)犯罪行為的特征并與傳統(tǒng)犯罪行為的社會危害性等多種維度進行分析,確定從平、從重、從輕三個方面進行處理;除此之外,人工智能機器人也會成為引發(fā)刑事案件的“主謀”,其刑事責(zé)任與刑罰體系的構(gòu)建也必須要具有針對性。
關(guān)鍵詞 人工智能 刑事責(zé)任 刑罰體系
作者簡介:康世強,深圳市寶安區(qū)新安街道公共法律服務(wù)中心。
中圖分類號:D924 文獻標(biāo)識碼:A DOI:10.19387/j.cnki.1009-0592.2018.06.325
在2017年,人工智能已經(jīng)成為各行業(yè)發(fā)展的熱門詞匯,與其他技術(shù)相比,人工智能技術(shù)對人類生活的改變最為明顯,已經(jīng)快速滲透到了社會生活的方方面面,直接促進了社會的改變。但是相關(guān)學(xué)者也有認(rèn)為,人工智能技術(shù)的出現(xiàn)不僅是社會進步的表現(xiàn),也會給社會的傳統(tǒng)法律秩序帶來挑戰(zhàn)。但是在實際上,人工智能技術(shù)作為時代發(fā)展不可逆轉(zhuǎn)的趨勢,其出現(xiàn)具有必要性,因此需要積極開展刑事責(zé)任與刑罰體系的重構(gòu),這樣才更好的適應(yīng)人工智能時代下的各種挑戰(zhàn)與變化。
一、人工智能時代下的刑事責(zé)任問題研究
(一)人工智能技術(shù)引發(fā)犯罪行為
與傳統(tǒng)技術(shù)相比,人工技術(shù)作為一種基于計算機程序模擬人類神經(jīng)網(wǎng)絡(luò),能夠完成深度學(xué)習(xí),進而完成對外界事物分析、判斷、決策的技術(shù),在當(dāng)前社會發(fā)展中發(fā)揮著重要的作用。從人工智能技術(shù)的發(fā)展情況來看,人工智能技術(shù)已經(jīng)在很多行業(yè)中得到了應(yīng)用:例如在醫(yī)療衛(wèi)生行業(yè)出現(xiàn)了高分通過執(zhí)業(yè)醫(yī)師資格考試的醫(yī)療機器人、新聞行業(yè)出現(xiàn)了能夠精準(zhǔn)報導(dǎo)新聞的人工智能機器人等。從這些行業(yè)的實踐經(jīng)驗可以發(fā)現(xiàn),人工智能技術(shù)的出現(xiàn)顯著改變了社會生產(chǎn)模式,傳統(tǒng)的人員分配等已經(jīng)發(fā)生了明顯的變化。
但是事物都具有兩面性,人工智能技術(shù)的出現(xiàn)雖然顯著推動了社會的進步,但是也會成為犯罪行為“推波助瀾”的幫兇,這一點可以從以下幾方面進行闡述:
1.人工智能技術(shù)的出現(xiàn)會讓犯罪行為發(fā)生“量”的變化。從社會發(fā)展的角度來看,每一次科學(xué)技術(shù)的創(chuàng)新對社會而言都是一個巨大的發(fā)展契機,但是與之相對應(yīng)的是,每一次時代的更迭也會導(dǎo)致犯罪行為的變化,正如互聯(lián)網(wǎng)時代的普及下,互聯(lián)網(wǎng)行業(yè)在短短幾年內(nèi)就成為犯罪行為的重災(zāi)區(qū),不法分子在互聯(lián)網(wǎng)技術(shù)的支持下,其犯罪行為的社會危害程度顯著提高,對社會正常發(fā)展的影響呈現(xiàn)出“量變”的趨勢。而在當(dāng)前人工智能技術(shù)快速發(fā)展的大環(huán)境下,不法分子可以借助人工智能技術(shù)對社會發(fā)展產(chǎn)生根深的破壞。例如,在人工智能技術(shù)的影響下,一些系統(tǒng)的系統(tǒng)程序中都采用了人工智能技術(shù),包括政府系統(tǒng)、銀行的金融系統(tǒng)等,若一些犯罪分子利用相關(guān)手段直接篡改了上述系統(tǒng)的人工智能技術(shù)體系,那么將會對整個社會造成嚴(yán)重影響。
2.人工智能技術(shù)的出現(xiàn)讓犯罪行為發(fā)生“質(zhì)”的變化。人工智能技術(shù)的發(fā)展與大數(shù)據(jù)、云計算之間存在著密切的聯(lián)系,因此人工智能技術(shù)經(jīng)常會對社會生產(chǎn)的各個環(huán)節(jié)完成信息的侵犯,甚至發(fā)展出現(xiàn)新的犯罪類型。
因此有研究認(rèn)為,數(shù)據(jù)的集中成為人工智能技術(shù)犯罪的核心。例如在大數(shù)據(jù)技術(shù)的支持下,不法分子不需要破壞不同的數(shù)據(jù)庫來獲得大量數(shù)據(jù),而是通過攻擊數(shù)據(jù)庫就能在短時間內(nèi)收集到海量的數(shù)據(jù)資料,一旦這種技術(shù)被應(yīng)用在獲取保密信息、敏感信息,將會造成巨大的危害。同時與傳統(tǒng)的犯罪模式相比,人工智能技術(shù)下的犯罪行為已經(jīng)出現(xiàn)了新的變化,不法分子可以利用世界任意一個有網(wǎng)絡(luò)的點實現(xiàn)對各地區(qū)數(shù)據(jù)系統(tǒng)的破壞,這是傳統(tǒng)技術(shù)所難以實現(xiàn)的。
(二)智能機器人會成為刑事案件的主體
智能機器人是一種由程序設(shè)計、編制而成并具有一定自主思維、自發(fā)行動的機器設(shè)備,在人工智能技術(shù)快速發(fā)展的大環(huán)境下,智能機器人在現(xiàn)代社會生產(chǎn)中越來越常見。與傳統(tǒng)的機器人相比,智能機器人具有更強的行為主動性,甚至可能超越人類設(shè)計和編制的程序并在獨立的思維模式下實施各種行為,所以存在危害社會的可能性。當(dāng)前理論界普遍認(rèn)為,刑事責(zé)任能力是指:行為人認(rèn)識到自己行為的性質(zhì)、意義、后果,并能對自己的行為進行解釋、控制,并承擔(dān)相應(yīng)刑事責(zé)任的能力。所以現(xiàn)階段理論界所達成的共識為:刑事責(zé)任的認(rèn)定應(yīng)該判斷行為人是否具有成為刑事責(zé)任主體的必要條件。
當(dāng)前大部分人沒有認(rèn)識到普通機器人與智能機器人之間的區(qū)別,所以在人們的正常認(rèn)知中,在智能機器人實施犯罪活動之后,需要對智能機器人的研發(fā)者進行懲處。在這種理論觀點下,很多人認(rèn)為在智能機器人犯罪之后,需要由機器人的研發(fā)人員來承擔(dān)責(zé)任。
但是本文認(rèn)為,這種觀點是錯誤的,沒有認(rèn)識到智能機器人與普通機器人之間實質(zhì)性的差別。正如前文所言,智能機器人與普通機器人之間存在著明顯的差別,其中智能機器人具有主體性并且具有思考的能力,在這種情況下,當(dāng)智能機器人的治理水平達到一定程度時,智能機器人在一定程度上可以實現(xiàn)自我運行,并脫離研發(fā)者的控制,此時的智能機器人就擁有了行為選擇權(quán),可以根據(jù)“自己的判斷”決定是否實施犯罪行為。在這種情況下,如果一味的將智能機器人所造成的危害完全歸結(jié)給研發(fā)人員,那么有失公允。
同時,考慮到達到一定程度的智能機器人與普通機器人之間存在著明顯的“智力差別”,并且會產(chǎn)生相應(yīng)的自主意識,因此有文獻建議將人工智能技術(shù)定義為具有智慧工具性質(zhì)又可作出獨立意思表示的特殊主體。但是在實際上,人工智能機器人作為人工智能技術(shù)的代表,其中不可能完全體現(xiàn)人工智能技術(shù),同時當(dāng)前的智能機器人發(fā)展顯示,智能機器人只會被應(yīng)用在一些特定的領(lǐng)域,包括外語翻譯、外科手術(shù)等。因此在這種工作范圍環(huán)境下,人工智能機器人的工作范圍主要集中在對特定行業(yè)的工作中,此時的智能機器人雖然具有一定的學(xué)習(xí)能力,但是卻沒有控制能力與辨認(rèn)能力,其大部分行為的開展都是在人工的控制(智能機器人的行為受編程軟件的控制)下完成的。
但是隨著人工智能技術(shù)的進一步發(fā)展,在未來可以預(yù)見:智能機器人的功能將會變得越來越完善,其功能更加豐富,因此產(chǎn)生犯罪行為的概率也會提高。在實際上,智能機器人實施違法犯罪行為主要分為兩種,分別是在程序設(shè)計與編制范圍內(nèi)實施行為和在程序設(shè)計編制范圍外實施行為。與傳統(tǒng)刑事案件相比,智能機器人的實施犯罪行為的現(xiàn)象就有更加明顯的特殊性,其責(zé)任主體的認(rèn)定、刑罰的懲處等都應(yīng)該明顯區(qū)別于傳統(tǒng)刑事案件。因此必須要構(gòu)建一個面向人工智能時代的刑事責(zé)任和刑罰體系,堅持以刑罰目的為導(dǎo)向、以刑罰相適應(yīng)原則為核心,這樣才能更好的適應(yīng)未來可能出現(xiàn)的人工智能犯罪現(xiàn)象。
二、智能機器人適用于刑罰
在上文分析中,本文將人工智能時代下的刑罰問題進行了介紹,并從兩個維度進行了闡述,其中人為利用人工智能犯罪的現(xiàn)象會由相關(guān)部門根據(jù)犯罪行為的危害性做出相應(yīng)的審判,所以本次研究中將不會做進一步的討論,將重點闡述智能機器人犯罪應(yīng)用于刑罰責(zé)任的相關(guān)問題。
通過對當(dāng)前全世界范圍內(nèi)的刑罰體系進行了解后可以發(fā)現(xiàn),刑罰主要可以分為生命刑罰、自由刑罰與財產(chǎn)刑罰三種形式,而相比之下,人工智能機器人不是一個自由人或者單位,其不存在生命,并且也沒有財產(chǎn)與人身自由的說法。在這種情況下,刑罰的三種特征都不適用于智能機器人,在這種情況下,如何正確的完成對智能機器人的刑罰已經(jīng)成為相關(guān)人員的關(guān)注的重點。針對這一問題,本文將從以下兩個角度做進一步分析。
(一)智能機器人適用于刑罰的必要性
考慮到智能機器人在實際上是一種設(shè)備,因此有人認(rèn)為可以通過“維修設(shè)備”的方式來控制智能機器人,不需要對機器人進行刑罰。但是根據(jù)前文分析可以了解,智能機器人區(qū)別于傳統(tǒng)機器人的主要區(qū)別,就是智能機器人具有智能的特征,對于事物具有獨立思考的能力,在這種情況下,智能機器人的特征在一定程度上已經(jīng)脫離了“設(shè)備”的范疇,而無限接近于人了,所以可以成為刑事責(zé)任的主體。在這種結(jié)論下可以認(rèn)為:既然智能機器人具有相應(yīng)的辨識能力,因此可以在自我獨立意識的支配下產(chǎn)生危害社會的犯罪行為,那么就有必要將智能機器人的這種危害社會的行為上升到刑罰的高度。
同時從社會發(fā)展的角度來看,未來人工智能技術(shù)水平將會進一步提高,人工智能技術(shù)在社會生產(chǎn)中的作用會進一步增大,智能機器人也將會更加常見。同時,生產(chǎn)力決定生產(chǎn)關(guān)系,法律制度的設(shè)計與完善受生產(chǎn)關(guān)系的影響。因此在未來社會中,智能機器人成為社會成員存在可能性,智能機器人依靠自我的控制與辨認(rèn)能力,甚至能夠完成人力所不能完成的任務(wù),這些都進一步說明了未來社會中智能機器人的重要性。就目前而言,人機合作模式已經(jīng)在社會生產(chǎn)的很多個領(lǐng)域中得到了應(yīng)用與推廣。例如在2017年,阿里健康推出了Doctor You,它作為人工智能技術(shù)在醫(yī)療行業(yè)中的運用,已經(jīng)可以承擔(dān)醫(yī)生助手的角色。因此在未來社會發(fā)展中,以智能機器人為代表的人工智能技術(shù)將會得到進一步的推廣。
同時,刑罰具有一般預(yù)防與特殊預(yù)防的功能,對于智能機器人而言,刑罰的這兩種功能都具有適用性。先從刑罰的一般預(yù)防功能來看,一般預(yù)防功能主要是刑罰對于犯罪人以外的洽談人所產(chǎn)生的積極社會功能,表現(xiàn)為威懾、安撫、補償?shù)确矫妫谥悄軝C器人實施犯罪行為之后,對智能機器人的一種刑罰可以慰藉被害人,例如在智能機器人殺人之后,對于被害人家屬而言,其并不在乎犯罪的主體是人還是“設(shè)備”,其期望的就是想要實施犯罪行為的主體接受懲罰。因此可以施加給自然人的刑罰,自然也需要施加給智能機器人。之后從刑罰的特殊預(yù)防功能來看,刑罰的特殊功能是指刑罰對犯罪人適用而可能產(chǎn)生積極的社會作用,包括對犯罪行為的個別威懾、個別教育功能等。對于智能機器人而言,它作為一個具有自我控制與辨識能力的設(shè)備,對事物具有自己的認(rèn)知與看法。在這種情況下如果對智能機器人施加刑罰,有助于對其他智能機器人形成威懾,促使其能夠更好的服務(wù)于社會,成為推動社會發(fā)展的動力。
(二)智能機器人使用者或者開發(fā)者的刑罰責(zé)任
雖然智能機器人具有獨立犯罪的可能性,但是我們必須要發(fā)現(xiàn)另一個問題,就是智能機器人的研發(fā)者在設(shè)計過程中就設(shè)置了充滿犯罪意圖的程序,或者使用者在使用智能機器人時,惡意植入了可能影響智能機器人行為的軟件,這些現(xiàn)象都會導(dǎo)致智能機器人出現(xiàn)犯罪現(xiàn)象,在這種情況下智能機器人的使用者或者開發(fā)者都應(yīng)該承擔(dān)相應(yīng)的責(zé)任。
同時就我國社會而言,責(zé)任與義務(wù)之間存在著密切的關(guān)系,在這種理論的認(rèn)知下,可以將智能機器人研發(fā)者與使用者的義務(wù)分別劃分為預(yù)見性的義務(wù)與監(jiān)督性的義務(wù),若在智能機器人使用過程中,相關(guān)責(zé)任方?jīng)]有盡到相應(yīng)的義務(wù),那么就需要承擔(dān)相應(yīng)的責(zé)任。相應(yīng)的,如果智能機器的相關(guān)責(zé)任方違反了監(jiān)督員義務(wù),也需要承擔(dān)監(jiān)督過失的刑罰責(zé)任。
一般認(rèn)為,過失罪的從成立應(yīng)該以行為人“應(yīng)當(dāng)預(yù)見而沒有預(yù)見”或者“已經(jīng)預(yù)見而輕信可以避免”危害結(jié)果發(fā)生為構(gòu)成條件。在這種情況下,假設(shè)智能機器人的研發(fā)人員對智能機器人出現(xiàn)犯罪行為是“已經(jīng)預(yù)見”的,但是卻盲目的相信使用者可以通過自己的控制或者管理來避免犯罪行為發(fā)展,此時一旦智能機器人出現(xiàn)了犯罪行為之后,那么研發(fā)者就需要承擔(dān)過失罪。這里應(yīng)該強調(diào)的是,上述關(guān)系結(jié)構(gòu)中存在著一種必要的前提,那就是研發(fā)者“已經(jīng)預(yù)見”下的危害結(jié)果絕對不是一種抽象性的“預(yù)見”,即認(rèn)為智能機器人在未來會危害社會,而是一種實際上的“預(yù)見”,例如在某年的某日,智能機器人發(fā)生了放火、殺人等危害社會安全的事件,這兩種情況存在著十分明顯的區(qū)別。同時還應(yīng)該注意得到的是,根據(jù)人工智能技術(shù)的發(fā)展情況,為了能夠更好的了解智能機器人的使用者或者開發(fā)者的刑罰責(zé)任,還可以從以下幾個維度做進一步的分析:
1.在使用或者研發(fā)智能機器人時,人工智能技術(shù)可以規(guī)避危害結(jié)果的發(fā)生,并且研發(fā)者/使用者富有預(yù)見性的義務(wù),最終因為沒有預(yù)見而導(dǎo)致了危害事件的發(fā)生,在這種情況下,智能機器人的研發(fā)者/使用者需要承擔(dān)過失罪。這一法律依據(jù)為:智能機器人的行為完全受到研發(fā)者或者使用者的限制,與使用者、研發(fā)者的使用情況、程序設(shè)計之間存在密切的關(guān)系,因此兩者與智能機器人的犯罪行為之間存在著因果關(guān)系。在這種情況下,雖然智能機器人具有自主意識,但是在很大程度上,這種自主意識來源于程序的編制或者后期使用時的改變,那么一旦研發(fā)者或者使用者的不當(dāng)操作而導(dǎo)致智能機器人的功能發(fā)生變化,那么兩者之間將會存在必然的聯(lián)系。
還應(yīng)該注意到的是,智能機器人的研發(fā)本身就是一個十分復(fù)雜的過程,這就決定了整個智能機器人系統(tǒng)功能的開發(fā)不是一個人來完成的,因此本文所介紹的“研發(fā)者”在實際上是指整個研發(fā)團隊,當(dāng)然團隊的領(lǐng)導(dǎo)者應(yīng)該承擔(dān)更多的責(zé)任。但如果在智能機器人產(chǎn)生犯罪行為之后,難以查明究竟是誰的過錯而導(dǎo)致了危害結(jié)果的產(chǎn)生,那么每個人只能做無罪處理,不適用于過失罪。
2.在研發(fā)或者使用過程中無法避免危害結(jié)果的發(fā)生。很多研究認(rèn)為,隨著智能技術(shù)的進一步發(fā)展,智能技術(shù)的應(yīng)用范圍或者技術(shù)水平將會進一步提高,智能機器人能否會突破“智能設(shè)備”這一范疇依然值得人們考慮。在這一問題中,可以借鑒2017年6月份Fackbook的人工智能研究所的發(fā)現(xiàn),研究所發(fā)現(xiàn)其研發(fā)的智能機器人逐漸在對話中自主“發(fā)明了”人們無法理解的語言,隨后Fackbook立刻宣布了終止這一研究,很多人猜測這一舉動的主要原因,就是Fackbook擔(dān)心智能機器人失去控制。從這一事件經(jīng)驗可以發(fā)現(xiàn),智能機器人其本身就存在一定的風(fēng)險性,存在“人工智能超過人類智能”的可能,因此這就決定了智能機器人本身存在一定的不確定性,而這種不確定性在未來很有可能轉(zhuǎn)變成為危害社會穩(wěn)定性的犯罪行為,并以引發(fā)嚴(yán)重的社會問題,所以必須要通過相應(yīng)的法律手段或者相關(guān)規(guī)范來阻止這一問題的發(fā)生。
三、人工智能時代下刑事責(zé)任的劃分
根據(jù)上述對人工智能技術(shù)的研究可以發(fā)現(xiàn),人工智能技術(shù)在當(dāng)前社會生產(chǎn)中具有必要性,但是產(chǎn)生危害社會行為也存在可以預(yù)見或者不可預(yù)見的特征。所以針對這種問題,相關(guān)人員就需要從更多的維度來對其中的關(guān)系進行評價,產(chǎn)生一個更加完善的刑事責(zé)任劃分體系,讓人工智能時代下的法律能夠更好的適應(yīng)社會發(fā)展。根據(jù)這一要求,本文提出了下列兩種觀點:
(一)對智能機器人研發(fā)者風(fēng)險防范與風(fēng)險監(jiān)督的限制
無論人工智能技術(shù)如何發(fā)展,其最初的技術(shù)結(jié)構(gòu)都是由研發(fā)者所設(shè)定的,因此可以認(rèn)為研發(fā)者對智能機器人的功能限定是一個“種子”,智能機器人的各種行為都是在這個種子上逐漸生根發(fā)芽的。同時也有研究,隨著未來人工智能技術(shù)的進一步發(fā)展,人們無法保證智能機器人可以經(jīng)由與人類身體相似性而承載人類所認(rèn)可的道德規(guī)范。在這種大的條件下,一旦智能機器人的智能水平超過人類的智能,那么在一定程度上智能機器人會自主結(jié)束“人工智能受控于人”的循環(huán),最終危及社會發(fā)展。所以從未來的角度來看,智能機器人必須要承擔(dān)相應(yīng)的責(zé)任,保證智能機器人的設(shè)計、編制、使用等環(huán)節(jié)都能始終處于人們的監(jiān)控之下。但是還需要明確的是,這種監(jiān)控并不是要求限制智能機器人的學(xué)習(xí)、工作等,否則在這種限制條件下,智能機器人的功能將會與普通機器人無異,這不是人工智能技術(shù)的發(fā)展趨勢。本文所闡述的這種“監(jiān)控”,是對智能機器人的行為進行監(jiān)控,要避免智能機器人出現(xiàn)一些危害他人、危害社會的行為,即監(jiān)控智能機器人的攻擊性,例如在智能機器人將要對人類造成傷害之后,人們可以通過遙控器、緊急按鈕等快速制止這種行為。
在上述要求下,如果智能機器人的研發(fā)者違反了這一監(jiān)督的義務(wù),而最終導(dǎo)致了智能機器人違法行為的發(fā)生,那么就可以通過增設(shè)“濫用人工智能技術(shù)罪”等罪名來對這種行為進行限制。
(二)對智能機器人所有者風(fēng)險防范與風(fēng)險監(jiān)督的限制
影響智能機器人行為的因素不僅僅局限在設(shè)計研發(fā)者上,也體現(xiàn)在了智能機器人的所有者上,針對這一問題,就需要設(shè)置阻止智能機器人危害發(fā)生的第二條法律防線,例如當(dāng)智能機器人出現(xiàn)了一些違反設(shè)定程序的攻擊行為等,此時預(yù)先設(shè)定的斷電、休眠、緊急停止功能等無法阻止智能機器人行為時,相關(guān)部門就應(yīng)該采用暴力的手段來組織危害的擴大,包括暴力擊毀等。在這種情況下,如果智能機器人的所有者存在“能夠銷毀而拒絕銷毀”并引發(fā)嚴(yán)重后果的,所有者需要承擔(dān)“不作為犯罪”的形式責(zé)任,并且履行銷毀義務(wù)的單位或個人不需要承擔(dān)賠償責(zé)任。此時還存在一種特殊的現(xiàn)象,即智能機器人正在實施損壞行為時,并且除了擊毀智能機器人不存在第二種彌補方法,但是要保證智能機器人所造成的經(jīng)濟損失明顯低于機器人本身的價值。在這種特殊的條件下,承擔(dān)制止義務(wù)的所有人可以主張不作為的緊急避險手段。
四、智能機器人與自然人共同犯罪的刑事責(zé)任分擔(dān)
在前文分析中已經(jīng)指出,當(dāng)人工智能技術(shù)發(fā)展到一定水平之后,智能機器人的功能很有可能會超越預(yù)先設(shè)定的程序范圍,并根據(jù)自主的意識來決定實施犯罪行為。在這種情況下可以認(rèn)為,智能機器人與自然人一樣存在相應(yīng)的辨識與控制能力,所以需要成為刑事主體并承擔(dān)相應(yīng)的責(zé)任。在這種情況分下,如何明確智能機器人與自然人共同犯罪情況下的形式責(zé)任劃分則成為相關(guān)人員關(guān)注的重點。
本文認(rèn)為,智能機器人與自然人的共同犯罪的刑事責(zé)任分擔(dān)情況滿足我國刑罰中有關(guān)共同犯罪的要求。一方面,智能機器人作為一個可以承擔(dān)刑事責(zé)任的個體,對于事物具有自己的認(rèn)識與辨識能力,既然承認(rèn)了這一點,就可以認(rèn)為智能機器人可以將自主的意識與自然人的意識連接在一起,兩者通過一種特殊的人機交互模式完成信息的交流;另一方面,智能機器人與自然人所實施的犯罪行為,在實際上是在相同的“故意實施”理念中實施的,并且兩者通過相互配合的方式完成了犯罪行為。在這種情況下,可以認(rèn)為兩者之間的配合都直接導(dǎo)致了犯罪活動的產(chǎn)生,例如一起搶劫、一起縱火等。并且智能機器人具有不同于傳統(tǒng)普通機器人的特征,就是在產(chǎn)生犯罪行為之前,智能機器人可以選擇拒絕參與犯罪行為,那么在這種情況下,犯罪行為可能不會發(fā)生,或者發(fā)生的犯罪行為所造成的危害將會顯著降低。
五、人工智能時代下犯罪刑罰體系的重構(gòu)
現(xiàn)階段我國社會中刑事責(zé)任的最主要承擔(dān)方式就是刑罰,在上文分析中,本文承認(rèn)了人工智能時代下智能機器人及其相關(guān)自然人所需要承擔(dān)的刑罰責(zé)任,那么在刑罰體系的重構(gòu)中,相關(guān)人員就需要充分考慮這一問題進行分析。
通過上述分析可以認(rèn)為,刑罰所具有的特殊預(yù)防與一般預(yù)防功能中能夠有效的約束智能機器人的相關(guān)行為,但是智能機器人同樣更容易被改造,在更多的情況下,智能機器人所產(chǎn)生的“犯罪行為”思想并不是天生的,而是在多種因素共同作用下而產(chǎn)生的結(jié)果。所以在很多情況下,只需要對智能機器人進行回爐改造,它依然可以成為推動社會發(fā)展的源動力。針對這種情況,在刑罰體系的重構(gòu)中,本文提出了以下幾種思路:
1.智能機器人的刑罰體系在很大程度上都應(yīng)該區(qū)別于自然人與單位,在我國在刑罰的刑種上進行了明確的規(guī)定,正如上文所介紹的那樣,智能機器人不具有生命,也不存在著財產(chǎn)權(quán)、人身權(quán)等,因此對智能機器人的刑事拘留、有期徒刑、死刑等都是沒有必要的,必須要對這種情況進行重構(gòu)。而為了實現(xiàn)這一目標(biāo),就應(yīng)該保證智能機器人所實施的犯罪與刑罰之間存在著“實質(zhì)上相對應(yīng)的關(guān)系”,能夠針對智能機器人可能產(chǎn)生的刑事犯罪行為作出相應(yīng)的懲處,通過有層次的懲罰階梯來對智能機器人的各種行為的限定。例如,針對智能機器人所實施的刑罰不僅應(yīng)該局限在斷電、銷毀等幾方面,還應(yīng)盡可能的轉(zhuǎn)變傳統(tǒng)單一的渠道方式,構(gòu)建多樣化的刑事處罰方式,例如功能的重造、工作懲罰等。
2.刑罰的本質(zhì)是對事件的一種“報應(yīng)”,即做到“有罪必罰”,所以在這種情況下,智能機器人所產(chǎn)生的各種犯罪行為都應(yīng)該被納入到“犯罪整治”的范疇內(nèi)。同時還需要關(guān)注的是,科處刑罰對該行為是否無效果、太昂貴、可替代,即以是否能夠?qū)崿F(xiàn)刑罰的目的來決定是否將該行為“劃出”犯罪圈。犯罪圈的劃定需要以刑罰的目的為導(dǎo)向,刑罰種類的設(shè)計更應(yīng)該以刑罰的目的為導(dǎo)向。刑罰的目的是預(yù)防犯罪,不能實現(xiàn)此種目的的刑罰即是不合理、無必要的刑罰。在更多的情況下,如果刑罰對智能機器人的影響是“不痛不癢”的,那么這種刑罰必然是毫無意義的。所以針對這種情況,相關(guān)人員就需要保證施加在智能機器人身上的刑罰能夠發(fā)揮預(yù)期效果。例如讓智能機器人感受到“被斷電”的痛苦,來加深智能機器人的痛苦,這樣才能保證法律的威懾性能。
3.刪除數(shù)據(jù)也是一種避免刑罰產(chǎn)生的有效手段,通過刪除智能機器人與犯罪行為有關(guān)的依賴信息,從智能機器人的源頭上控制犯罪行為的產(chǎn)生,促使其能夠轉(zhuǎn)變工作模式,不會在工作模式或者軟件運行中產(chǎn)生“實施違法行為”的狀態(tài)。在這種情況下,只需要智能機器人的研發(fā)者或者使用者能夠在今后的學(xué)習(xí)活動中積極引導(dǎo)智能機器人獲取正面數(shù)據(jù),并可能的杜絕各種可能產(chǎn)生違法行為的負(fù)面數(shù)據(jù),就能達到避免違法現(xiàn)象發(fā)生的目的。針對這種要求,在刑罰體系的構(gòu)建中,就可以圍繞這一點來對智能機器人的研發(fā)者、使用者的義務(wù)進行限定,明確研發(fā)者、使用者引導(dǎo)智能機器人“獲取正面數(shù)據(jù)的”工作,最終為切實保證智能機器人工作能力奠定基礎(chǔ)。
六、結(jié)論
在人工智能快速發(fā)展的大環(huán)境下,以智能機器人為代表的人工智能技術(shù)將會在社會生產(chǎn)中發(fā)揮著重要的作用,但是還必須要注意得到的是,智能機器人存在危及社會穩(wěn)定的風(fēng)險,所以必須要明確人工智能時代的刑事責(zé)任,并通過刑罰體系的重構(gòu),最終更好的滿足人工智能時代的發(fā)展要求,讓人工智能技術(shù)更好的服務(wù)于社會。
參考文獻:
[1]馬治國、田小楚.論人工智能體刑罰適用之可能性.華中科技大學(xué)學(xué)報(社會科學(xué)版).2018,32(2).
[2]劉憲權(quán).人工智能時代刑事責(zé)任與刑罰體系的重構(gòu).政治與法律.2018(3).
[3]侯國云、么惠君.人工智能倫理與法律風(fēng)險的探析.科技與法律.2018(1).
[4]劉憲權(quán).人工智能時代的刑事風(fēng)險與刑罰應(yīng)對.法商研究.2018(1).
[5]劉憲權(quán)、胡荷佳.論人工智能時代智能機器人的刑事責(zé)任能力.法學(xué).2018(1).
[6]高奇琦、張鵬.論人工智能對未來法律的多方位挑戰(zhàn).華中科技大學(xué)學(xué)報(社會科學(xué)版).2018,32(1).
[7]劉憲權(quán).人工智能時代的“內(nèi)憂”“外患”與刑事責(zé)任.東方法學(xué).2018(1).
[8]姚萬勤.人工智能影響現(xiàn)行法律制度前瞻.人民法院報.2017-11-25(002).
[9]孫道萃.人工智能對傳統(tǒng)刑罰的挑戰(zhàn).檢察日報.2017-10-22(003).