鄭云鵬
【摘要】:風險必將伴隨著人工智能時代一同到來,屆時可能會產(chǎn)生一系列新的犯罪,或者高端的人工智能產(chǎn)品通過自我完善和學習擺脫人類控制,進而做出了具有嚴重的社會危害性的犯罪行為。面對千變?nèi)f化的現(xiàn)代社會,法律的滯后性和局限性不可避免,但對于將來大概率出現(xiàn)的危機,也應(yīng)當未雨綢繆,進行超前立法。刑法應(yīng)從立法源頭對研究人員和使用人員以及相關(guān)人工智能方面犯罪的刑事主體有所增加,但刑法秉承“寬嚴相濟”原則以及刑法的謙抑性,不應(yīng)當過度干預(yù)人工智能的發(fā)展。
【關(guān)鍵詞】:人工智能 立法 刑事責任主體
幾十年前,人類無法想象到我們已經(jīng)處于互聯(lián)網(wǎng)的時代潮流之中。正如今天的我們,也很難去預(yù)想我們將進入另一個全新的時代—人工智能時代。人工智能(Artificial Intelligence),英文縮寫為AI。它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學 。毋庸置疑,人工智能在高速發(fā)展的同時,隨之而來的是技術(shù)研發(fā)和應(yīng)用的過程中帶來在倫理上的、道德上的、法律上一定的風險。根據(jù)國務(wù)院最新發(fā)布的《新一代人工智能發(fā)展規(guī)劃》可知 ,人工智能發(fā)展的不確定性帶來新挑戰(zhàn)。人工智能是影響面廣的顛覆性技術(shù),可能帶來改變就業(yè)結(jié)構(gòu)、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關(guān)系準則等問題,將對政府管理、經(jīng)濟安全和社會穩(wěn)定乃至全球治理產(chǎn)生深遠影響。在大力發(fā)展人工智能的同時,必須高度重視可能帶來的安全風險挑戰(zhàn),加強前瞻預(yù)防與約束引導(dǎo),最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展。面臨一個風險與機遇并存的全新時代,我們需要盡快建立相關(guān)的法律法規(guī)、道德以及政府的相關(guān)政策。
一、新時代存在的刑事上的風險
人工智能時代以人工智能技術(shù)的應(yīng)用為核心,人工智能技術(shù)通過模擬人類的神經(jīng)網(wǎng)絡(luò),讓計算機系統(tǒng)對數(shù)據(jù)庫進行深度學習,使得計算機系統(tǒng)能夠進行分析、判斷以及決策。人工智能已經(jīng)被廣泛應(yīng)用在各個領(lǐng)域,其必然掀起另一次革命,但人工智能的全面化可能會導(dǎo)致與其他情形結(jié)合導(dǎo)致新型犯罪的出現(xiàn),其在工作的過程中會使數(shù)據(jù)進行集中,數(shù)據(jù)的集中本身就是一種風險,數(shù)據(jù)越大,被攻破時不法分子的獲利就越豐,這就出現(xiàn)了“地動山搖”的危險境地。
二、人工智能時代相關(guān)犯罪的主體認定
機器人分為智能機器人與一般機器人,其二者的主要區(qū)別為智能機器人不是簡單的從數(shù)據(jù)庫中提取相應(yīng)的信息,而是它進行自主的思考。從智能機器人本身的屬性來說,其就具有智能性、主動性、創(chuàng)造性的特點。一旦智能機器人能夠通過深度學習而產(chǎn)生意識和思想,并在自主意志和思想支配下實施不在人類設(shè)計和編碼的系統(tǒng)程序范圍內(nèi)的犯罪行為,那么智能機器人就極有可能需要面臨刑事責任的承擔問題。在現(xiàn)行刑事法律體系下,需要承擔刑事責任的主體只有一般自然人和單位。同自然人相比較,智能機器人雖然沒有像自然人一樣的生命體征,但是卻擁有作為刑事責任主體所要求的辨認能力與控制能力,所以智能機器人完全有可能成為刑事法律所調(diào)整的犯罪主體。同時應(yīng)當看到,智能機器人有一定的特殊性,即具有兩面性:一方面在研發(fā)人員和使用人員設(shè)計和編制的程序范圍內(nèi)實施行為—即在人類的可控范圍之內(nèi)實施犯罪,其實現(xiàn)的是人類的意志,智能機器人無法決定自己的行為目的,其可以看作為使用人員實施犯罪的“工具”,所以智能機器人實施的犯罪行為不需要承擔相應(yīng)的責任;另一方面,智能機器人在研究人員與使用人員設(shè)計和編制的程序范圍外實施行為—即智能機器人脫離人類控制在自己的意識支配實施的行為,實現(xiàn)的是自己的意志,與其他具有刑事責任能力的主體實施犯罪行為的情形高度一致。一個自然人從出生到死亡可以看做是一種“縱向”的刑事責任能力遞增的過程,即不滿14周歲的完全不具有刑事責任能力,已滿14周歲不滿16周歲的具有限制刑事責任能力只對八種犯罪行為承擔責任,已滿16周歲的就具有完全刑事責任能力。而智能機器人從設(shè)計和編制的程序內(nèi)到程序外可以看做是一種“橫向”的刑事責任能力的轉(zhuǎn)化過程,即智能機器人在設(shè)計和編制的程序內(nèi)實施行為不需要承擔刑事責任,而在設(shè)計和編制的程序外實施行為則需要承擔相應(yīng)的刑事責任。筆者認為,隨著人工智能廣泛的普及大概率可能使得智能機器人在人類社會生活中的地位從普通工具上升至刑事責任主體的標準,因此未來人類社會的法律制度需要針對人工智能技術(shù)的發(fā)展做出相適應(yīng)的標準,但不宜抑制其發(fā)展。
三、人工智能時代的刑法完善
為防止未來智能機器人脫離人類控制的局面出現(xiàn),我們應(yīng)防患于未然,從立法環(huán)節(jié)上,應(yīng)增設(shè)相關(guān)犯罪,刑法是調(diào)整社會關(guān)系最廣泛的法律,其對犯罪人權(quán)利的限制往往是不可逆的,能起到明顯的威懾作用。因而刑法必須對濫用人工智能的行為加以規(guī)避,人工智能風險才有可能得以有效的控制。但根據(jù)刑法的謙抑性理論,只有在其他法律仍不能調(diào)整的情況下,才應(yīng)得到刑法的規(guī)制。只有這樣,人工智能的發(fā)展能夠得到健康、有效、快速、高質(zhì)量的發(fā)展。同時,筆者認為應(yīng)該對研發(fā)人員和使用者進行嚴格限制,可以在人工智能源頭的創(chuàng)造上規(guī)避重大安全隱患。首先,開發(fā)人員應(yīng)當在書寫智能機器人的代碼時或產(chǎn)品系統(tǒng)的研發(fā)中必須嵌入人類社會所必須的道德、法律與倫理。換言之,就是產(chǎn)品成型后的第一時間內(nèi)必須讓其自主學習法律、道德與倫理。其次,研發(fā)人員具有保護數(shù)據(jù)的義務(wù),在數(shù)據(jù)爆炸的時代,數(shù)據(jù)代表著的不僅僅公民個人的隱私,乃至整個國家的政治、經(jīng)濟、文化等各方面的安全,對數(shù)據(jù)庫的嚴密保護應(yīng)成為研發(fā)人員的責任,最后,研發(fā)人員必須能夠保證完全的控制人工智能系統(tǒng)。當然可以在設(shè)置程序中,如果脫離控制,可以設(shè)置機器人的“自我終結(jié)”程序,其主旨就是為了保護現(xiàn)有的人類社會的安定。只有研發(fā)者違背了上述義務(wù),其需要承擔相應(yīng)的刑事責任。
四、結(jié)語
綜上所述,筆者認為人工智能時代已經(jīng)來臨,人們應(yīng)當具有控制它的能力。故應(yīng)當對機器人納入具有刑事責任能力的主體,并對研發(fā)者和使用者進行嚴格限制,將利用人工智具有嚴重的社會危害的行為納入刑法的調(diào)整范圍。
【參考文獻】:
【1】 劉憲權(quán):《人工智能時代的刑事風險與刑法應(yīng)對》,《法商研究》2018年第1期。
【2】 參見2017年7月8日國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》。