□段恩佳 管晞?dòng)?/p>
人工智能,利用計(jì)算機(jī)科學(xué)技術(shù)研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用的學(xué)科。在網(wǎng)絡(luò)技術(shù)日益發(fā)達(dá)的今天,人工智能技術(shù)不斷走向成熟,涌現(xiàn)出:特斯拉人工智能系統(tǒng)自動(dòng)駕駛、亞馬遜的個(gè)人助手Alexa、谷歌公司研發(fā)的AlphaGo等一大批人工智能產(chǎn)品。目前,人工智能產(chǎn)品的實(shí)際應(yīng)用已經(jīng)變得十分廣泛,物聯(lián)網(wǎng)的實(shí)現(xiàn)、辦公室、銀行系統(tǒng)、電子游戲等都是以人工智能技術(shù)為基礎(chǔ),人工智能已經(jīng)成為重大行業(yè)技術(shù)革新乃至國(guó)家競(jìng)爭(zhēng)實(shí)力的關(guān)鍵因素。但是,正如為曼哈頓工程工作的著名的波蘭裔美籍?dāng)?shù)學(xué)家烏拉姆直擊心靈的話:不斷加速的科學(xué)進(jìn)步,以及對(duì)人類生活模式帶來的改變,似乎已經(jīng)把人類帶到了可以稱之為“奇點(diǎn)”的階段,也就是人工智能超越人類的階段。眾所周知,人工智能依靠著計(jì)算機(jī)設(shè)定的程序算法運(yùn)行,現(xiàn)如今,超越人類大腦的非智能機(jī)器并不存在,但隨著未來智能科技的發(fā)展,未來不可預(yù)知,人類無法確保不會(huì)出現(xiàn)具有獨(dú)立于人類指令控制的具有自我感知、情感的超級(jí)機(jī)器人。超級(jí)機(jī)器人的出現(xiàn)將打破現(xiàn)有的既存的刑事責(zé)任理論認(rèn)知的結(jié)果,對(duì)于“只存在行為反應(yīng)出行為人是行動(dòng)者時(shí),行為人才要對(duì)行為負(fù)責(zé)”構(gòu)成一定的挑戰(zhàn)[1]。故對(duì)于未來可知的超級(jí)機(jī)器人的出現(xiàn),其應(yīng)用造成的傷害的刑事責(zé)任的承擔(dān)應(yīng)該作為考慮范疇。正如所說:新興科技倫理規(guī)約所面臨的現(xiàn)代化困境其實(shí)在于責(zé)任問題,如何確定人工智能技術(shù)活動(dòng)及其后果的責(zé)任主體,是人工智能的發(fā)展所必須考慮的問題[2]。
刑事責(zé)任可以定義為:刑事責(zé)任是刑事法律規(guī)定的,因?qū)嵭蟹缸镄袨槎a(chǎn)生的,由司法機(jī)關(guān)強(qiáng)制犯罪者承受的刑事懲罰或單純的否定性的法律評(píng)價(jià)的負(fù)擔(dān)[3]。人需要對(duì)自己的行為承擔(dān)刑事責(zé)任,刑事責(zé)任己成為一座犯罪與刑罰之間的橋梁。其中刑事責(zé)任能力作為刑事責(zé)任中的重要一環(huán),可以定義為:行為人能夠?qū)ψ约旱男袨橐庵?、意義及后果進(jìn)行控制并能承擔(dān)刑事責(zé)任的能力。又稱:行為人控制和辨認(rèn)自己行為的能力。在判斷行為人的是否構(gòu)成犯罪,需要根據(jù)行為是否符合犯罪構(gòu)成[4]。
人工智能的產(chǎn)品是否能夠具有人格屬性,具有刑事責(zé)任的主體地位?大多數(shù)學(xué)者認(rèn)為未來的人工智能產(chǎn)品應(yīng)該具備類似于人的刑事責(zé)任能力,承認(rèn)人工智能產(chǎn)品的主體性,認(rèn)為在人工智能發(fā)展的高級(jí)化階段,將會(huì)成為具有控制能力和辨認(rèn)能力的智能機(jī)器,當(dāng)具備此種能力之后,智能產(chǎn)品所實(shí)施的具有自主意識(shí)的行為達(dá)到了嚴(yán)重危害的程度,需要?dú)w責(zé)于人工智能產(chǎn)品,若將其責(zé)任歸責(zé)于人工智能產(chǎn)品的設(shè)計(jì)者和使用者是不恰當(dāng)?shù)摹?/p>
事實(shí)上,人工智能發(fā)展大體可以劃分為兩個(gè)發(fā)展階段:初級(jí)化階段和高級(jí)化階段。在人工智能的發(fā)展初級(jí)階段,智能機(jī)器處于人類的算法控制之下,人類事實(shí)上是真正的主宰者,并不具備達(dá)到人腦的發(fā)達(dá)神經(jīng)系統(tǒng)運(yùn)轉(zhuǎn)模式,并不具備自我控制能力和辨認(rèn)能力。智能產(chǎn)品行為所造成的危害結(jié)果,從根本上說,是行為人造成的危害后果。最終的刑事責(zé)任也將由行為人承擔(dān)。人工智能的高級(jí)發(fā)展階段預(yù)示著未來人工智能技術(shù)所創(chuàng)造的具有自我感知、控制和自我辨識(shí)能力的智能機(jī)器,此時(shí),承認(rèn)人工智能產(chǎn)品的法律人格屬性和刑事責(zé)任的主體地位還是否有真正的必要?人工智能產(chǎn)品本質(zhì)應(yīng)定義為工具,推動(dòng)人類社會(huì)發(fā)展的利益工具,無法擺脫自我的工具性質(zhì)。高級(jí)人工智能產(chǎn)品具備了在各方面超越一切智慧人類的時(shí)候,人類處于明顯弱勢(shì),形勢(shì)可能發(fā)生了變化。人類設(shè)計(jì)并利用的工具可能被激活,深度學(xué)習(xí)人類的智能產(chǎn)品將會(huì)成為社會(huì)統(tǒng)治的主體。當(dāng)這一時(shí)刻出現(xiàn)的時(shí)候,去界定人工智能產(chǎn)品的刑事責(zé)任討論將會(huì)失去意義。產(chǎn)品的設(shè)計(jì)者和利用者可能成為責(zé)任的附屬品,可能成為利用的工具。真正的責(zé)任承擔(dān)是社會(huì)人工智能的倫理立法,規(guī)避技術(shù)使人類面對(duì)的自我困境,考量風(fēng)險(xiǎn)社會(huì)下對(duì)于人工智能技術(shù)刑事立法規(guī)制問題,故無論何時(shí),人工智能的本質(zhì)屬性不會(huì)改變,也不應(yīng)發(fā)生改變。
在現(xiàn)實(shí)的刑法學(xué)理論中,生活中的人這個(gè)個(gè)體作為刑事責(zé)任的主體,刑事責(zé)任作為法律責(zé)任的一種,已然成為國(guó)家和社會(huì)對(duì)于人在整個(gè)社會(huì)價(jià)值中最嚴(yán)厲的一種懲罰手段[5]。無論是刑事責(zé)任理論中的法律責(zé)任說、強(qiáng)制方法說、法律后果說乃至否定評(píng)價(jià)說,都是國(guó)家對(duì)于犯罪人及其行為所作的一種否定性評(píng)價(jià)和譴責(zé)。故目前討論人工智能產(chǎn)品的刑事責(zé)任問題主要圍繞著人工智能產(chǎn)品是否能夠類似于人作為刑事責(zé)任的犯罪主體,是否應(yīng)當(dāng)賦予人工智能產(chǎn)品的法律主體地位。一部分學(xué)者主張:根據(jù)目前人工智能產(chǎn)品的發(fā)展階段將其劃分為弱人工智能階段和強(qiáng)人工智能階段,以人工智能的發(fā)展為著點(diǎn),認(rèn)為區(qū)分強(qiáng)人工智能與弱人工智能的關(guān)鍵在于其是否超出設(shè)計(jì)和編制的程序范圍,是否具備獨(dú)立意識(shí)和自我決策能力。承認(rèn)了弱人工智能產(chǎn)品刑事責(zé)任的的工具屬性,無需刑事責(zé)任的承擔(dān)。主張強(qiáng)人工智能產(chǎn)品的歸責(zé)性質(zhì),一個(gè)具備自我控制能力和辨認(rèn)能力的人工智能的產(chǎn)品,在原有的自我程序算法之外產(chǎn)生自我的犯罪意圖且實(shí)施了嚴(yán)重危害社會(huì)的行為,需要承擔(dān)單獨(dú)責(zé)任或者設(shè)計(jì)者或使用者的過失程度共同承擔(dān)責(zé)任。實(shí)際上承認(rèn)了強(qiáng)人工智能產(chǎn)品的責(zé)任屬性,賦予了其法律責(zé)任的地位。另外一些學(xué)者存在著對(duì)立的觀點(diǎn),其主張:人工智能產(chǎn)品的本質(zhì)是工具,無論如何,人工智能產(chǎn)品始終作為一種工具而存在,主張中的人工智能產(chǎn)品并不具備刑事責(zé)任中的犯罪主體地位,故現(xiàn)有的刑事責(zé)任理論能夠?qū)Υ诉M(jìn)行規(guī)制[6]。
大多數(shù)學(xué)者以人工智能的發(fā)展歷程,實(shí)質(zhì)上以未來科技能力作為衡量,普遍認(rèn)為人工智能產(chǎn)品可以劃分為兩個(gè)階段:初級(jí)階段與高級(jí)階段。在人工智能發(fā)展的初級(jí)階段,現(xiàn)有的計(jì)算機(jī)算法技術(shù)無法企及于人的大腦,人工智能產(chǎn)品依舊是附屬于人類可控制范圍的工具,在刑事責(zé)任的承擔(dān)上,創(chuàng)造和使用此工具的犯罪行為的實(shí)施者承擔(dān)著最終的刑事責(zé)任。在人工智能的初級(jí)階段,人工智能產(chǎn)品本質(zhì)上依舊是工具。自從艾倫.圖靈在其1950年的論文《計(jì)算機(jī)器與智能》中提出探索將大腦的核心算法變成人腦這一目標(biāo)以來,當(dāng)20世紀(jì)最杰出的數(shù)學(xué)家和電腦時(shí)代先驅(qū)的最后著作者堅(jiān)定計(jì)算機(jī)將會(huì)模仿人腦對(duì)信息進(jìn)行加工的過程,提出計(jì)算機(jī)和人腦在本質(zhì)上是相同的后,人工智能似乎在朝著此方向發(fā)展[7]。對(duì)此,即使未來的人工智能發(fā)展到高級(jí)階段,人類社會(huì)真正創(chuàng)造出具有獨(dú)立意識(shí)和獨(dú)立思考能力的超級(jí)人工智能產(chǎn)品,庫(kù)茲韋爾基定律預(yù)言成為現(xiàn)實(shí),計(jì)算機(jī)智能超越人類,真正將人類帶到“奇點(diǎn)”之后,智能產(chǎn)品擁有的能力超越人類,人類現(xiàn)有的知識(shí)框架、思考能力、聯(lián)結(jié)數(shù)目難以抗拒令人眩暈的加快爆發(fā)的人工智能,一切傳統(tǒng)的和習(xí)以為常的認(rèn)識(shí)、理念、常識(shí)將統(tǒng)統(tǒng)不復(fù)存在。超越臨界點(diǎn)之后的人類終將會(huì)迷失自我,嚴(yán)重的是失去對(duì)自我的控制。超強(qiáng)的人工智能真正具備了人類的模式識(shí)別、認(rèn)知能力后,真正具備處理紛繁復(fù)雜的人腦意志后,特別是意識(shí)、想象和創(chuàng)造能力后,人類的處理能力根本無法對(duì)抗智能產(chǎn)品后,人類社會(huì)將會(huì)淪為“工具”,當(dāng)人類成為附庸,人類不再成為現(xiàn)在的主體,討論未來的刑事責(zé)任承擔(dān)問題將會(huì)失去意義。強(qiáng)人工智能產(chǎn)品是否被需要,人們需要這樣的高級(jí)不可控制的人工智能產(chǎn)品嗎?答案可能是否定的。
本文的目的主要分析現(xiàn)有的人工智能刑事責(zé)任理論問題的認(rèn)定,并不是直接指明解決人工智能刑事責(zé)任問題具體的解決方案?,F(xiàn)在既存的刑事責(zé)任理論足以解決目前人工智能產(chǎn)品所帶來的刑事法律中刑事責(zé)任的挑戰(zhàn),真正的問題在于人工智能自由化發(fā)展引發(fā)的嚴(yán)峻挑戰(zhàn)。高級(jí)人工智能的設(shè)想能否實(shí)現(xiàn)及如何實(shí)現(xiàn)需要真正地掌控在刑事立法的規(guī)制之中。