吳丁旺
摘 要:在人工智能時代,不能把智能機器視為簡單的犯罪工具,而應追究相應的刑事責任?,F(xiàn)以“2017.01.03案例”為對象,分析人工智能時代犯罪行為;從犯罪理論基礎分析智能機器承擔法律刑事責任的可行性;提出以智能機器承擔刑事責任為中心,刑罰體系重構(gòu)的法理方案。未來,必須要重新構(gòu)建刑罰體系,將智能機器的犯罪納入到犯罪行為制裁的范圍內(nèi)。
關(guān)鍵詞:人工智能;智能機器;刑罰體系;法理基礎
中圖分類號:D9 文獻標識碼:Adoi:10.19311/j.cnki.1672-3198.2018.28.055
1 人工智能時代犯罪行為的分析
為了說明人工智能時代犯罪行為的特點,現(xiàn)應用2017年9月22日紹興破獲的全國首例利用AI人工智能犯罪大案為案例進行剖析。2017年9月22日紹興破獲了一個全國首例利用AI人工智能犯罪大案(以下簡稱“2017.01.03案例”),徹底摧毀了一個入侵網(wǎng)站的黑客團伙。該黑客團伙利用AI技術(shù)識別圖片驗證碼,進行數(shù)據(jù)買賣,實施網(wǎng)絡詐片。該次共抓獲了犯罪嫌疑人193人,截留了被盜的公民個人信息10億余組,繳獲了贓款600余萬元及一系列的作案工具。在該案中,楊某承認犯罪團伙運用人工智能機器深度學習技術(shù)的能力,來訓練機器,讓機器能夠如同ALPHAGO一樣自主操作識別、有效識別圖片驗證碼,幫助建立突破互聯(lián)網(wǎng)公司設置的安全防護系統(tǒng)的策略,實施了黑客的行為。該團伙應用智能機器實施了犯罪行為259億次。
過去,人們擁有一種認知,認為人工機器和智能機器同屬于機器,機器即為犯罪的工具。犯罪的工具是不能承擔刑事責任的,如果犯罪機器實施了犯罪的行為,那么承擔犯罪責任的應為使用機器的人。然而在“2017.01.03案例”中,人們的認知被顛覆。人工機器和智能機器的性質(zhì)不一樣。人工機器是沒有智能學習能力的,它既不能自主的學習,也沒有自我的意志。人們應用人工機器實施犯罪行為,人工機器確實只是一個犯罪工具。智能機器則不同,智能機器人有辨識能力、控制能力,它具有獨立的意識與意志?,F(xiàn)在智能機器已經(jīng)具有了學習能力,未來,智能機器的智能進一步提高時,它可能完全不受研發(fā)者或使用者的控制,而具有自己的意志。于是,在新的刑罰體系中,智能機器可能是要承擔刑事責任的。
2 人工智能時代犯罪理論基礎分析
我國《中華人民共和國刑法》(以下簡稱《刑法》)規(guī)定,一切具有社會危害性,并且達到了《刑法》相關(guān)規(guī)定的標準,應視為犯罪,應處以刑罰處罰。如果要判斷智能機器是不是要承擔刑事責任,及刑罰的量刑,就必須探討犯罪構(gòu)成的四個要件,如果四個要件中有一條不達到標準,即意犯行為沒有達到犯罪的標準。
2.1 犯罪主體分類
智能機器能不能成為犯罪主體,需要從智能機器人的種類來探討。智能機器可以分為弱智能機器和強智能機器。區(qū)劃這兩種智能機器的標準為,弱智能機器只能在編程的范圍內(nèi)行來,它的行來范圍不能超過編程的范圍。以“2017.01.03案例”而言,犯罪團伙應用的智能機器雖然具備學習的能力,但是它的學習能力依然在編程的范圍內(nèi),于是它依然為弱智能機器。未來,隨著科學技術(shù)、生物技術(shù)的發(fā)展,有一些智能機器雖然在產(chǎn)生之初行為依賴程序,但是它能智能的成長,其行為將能夠超出程序預設的范圍,這樣的機器人將擁有自我的意志、獨立的判斷,這類智能機器就是強智能機器。強智能機器將能達到承擔刑事責任主體的標準。
2.2 犯罪主體主觀方面
智能機器是不是擁有犯罪主體意識,依然可以應用“2017.01.03案例”為例。犯罪團伙擁有的智能機器具備人工智能機器深度學習技術(shù)。從技術(shù)進行分析,這種智能機器的深度學習能力學習的范圍包括兩個方面。一個是向機器輸入指令的犯罪團伙,它能根據(jù)犯罪團伙的指令識辨犯罪團伙的需求;一個是向犯罪實施對象學習,它能智能分析有效識別圖片驗證碼的規(guī)則等,然后找出破解的指令。從這種智能機器的功能分析,雖然它已經(jīng)具備了很強的學習能力和識別能力,但是它沒有獨立的意識,沒有辨識的能力?!?017.01.03案例”中應用的智能機器是不具備犯罪主體主觀的。而當智能機器具備了獨立的意識和辨識的能力以后,它就具備了犯罪主體主觀意愿。
2.3 犯罪客觀
如果要界定智能機器是不是實施了犯罪行為,就要判它的犯罪客觀是不是達到了刑事犯罪的標準?!?017.01.03案例”中檢察機關(guān)將起非法獲取網(wǎng)絡數(shù)據(jù)的人員分別以《刑法》第285條第三款提供侵入、非法控制計算機信息系統(tǒng)程序、工具和非法獲取計算機信息系統(tǒng)數(shù)據(jù)的罪名提出起訴。未來具有承擔刑事責任的智能機器的犯罪客觀也將延用這一條標準。
2.4 犯罪客觀方法
評估犯罪客觀,需要評估行為是否具有危害性;是否具有危害結(jié)果;危害行為與危害結(jié)果之間是否具有關(guān)聯(lián);犯罪的時間、地點、方法手段?!?017.01.03案例”中智能機器的行為已經(jīng)存在社會危害性,正如公安機關(guān)所描述,智能機器已實施犯罪行為259億次,其犯罪行為已經(jīng)給社會帶來嚴重的危害結(jié)果,在智能機器掌握了人工智能識別技術(shù),可破解圖片驗證碼后,犯罪團伙中以黃某為首的成員應用這一技術(shù)主動入侵網(wǎng)站后臺用戶的注冊信息,然后將注冊信息整理后,賣給下線制作撞庫軟件的黑客團伙,而撞庫軟件又將這些數(shù)據(jù)進行批量匹配,將匹配的結(jié)果賣給網(wǎng)絡詐騙團伙。這一系列的犯罪行為擾亂了網(wǎng)絡秩序,并讓社會出現(xiàn)了大量詐騙犯罪。該案例中,智能機器危害行為與危害結(jié)果之間是存在直接關(guān)聯(lián)性的。未來,擁有了強智能的智能機器,其犯罪的方法及手段將遠超過當前的弱智能機器。
3 人工智能時代我國刑罰體系重構(gòu)的設想
3.1 智能機器的刑事責任重構(gòu)
將智能機器分為強智能機器與弱智能機器后,根據(jù)智能機器的分類,分析智能機器是否承擔刑事責任。要追究強智能機器的刑事責任,原因在于強智能機器已經(jīng)具備了獨立的意識和辨識的能力,所以要應用法律的手段給予強智能機器威懾,讓強智能機器應用辨識的方法了解,它必須控制自己的行為,不能觸犯法律法規(guī)。當前我國的刑法針對自然人和單位設計了不同的刑罰處罰方法。當前這些行為處罰方法都不適合應用于智能機器。智能機器目前沒有財產(chǎn)權(quán)、沒有參與政治生活的權(quán)力、沒有人身權(quán)。如果要讓智能機器受到刑罰處罰,就必須為智能機器設計一套刑罰處罰方案。針對智能機器的刑罰處罰方案原則如下:第一,適用性原則,對于智能機器也應像對待人一樣,為它設計數(shù)種刑罰處罰標準,這些標準由輕到重,達到了某種標準,就應適用該種標準的處罰方法。第二,目的導向性原則,設計刑罰處罰的目的,是為了給智能機器震懾,讓它把遵守法律法規(guī)納入智能判斷、自我辨識的范圍中。第三,減少成本的原則,智能機器本身是具有價值的,如果判決將智能機器銷毀,那么等于浪費了大量的資源和成本,為此,在設計刑罰處罰時,要盡可能的回收智能機器可以利用的資源。目前可以嘗試給予智能機器刪除數(shù)據(jù)、格式化數(shù)據(jù)、修改編程、回收機器資源這四重處罰。刪除數(shù)據(jù),是指刪除一部分數(shù)據(jù);格式化數(shù)據(jù),是指將當前智能機器所有的數(shù)據(jù)全部格式化,僅保留當前的編程;修改編程,是指修正它的程序,限制它的學習能力及思維能力,使它不具備犯罪的能力;回收機器資源,是指格式化它的程序及刪除它的程序,回收它的硬件機體,使它成為另一種智能機器。
3.2 智能機器與研發(fā)者及使用者關(guān)系的重構(gòu)
如果智能機器為弱智能機器,那么弱智能機器只能視為犯罪工具。然而當智能機器為強智能機器時,已經(jīng)不能視它為犯罪工具,它已經(jīng)是犯罪主體。此時,就必須重新構(gòu)建智能機器與研發(fā)者與使用者之間的關(guān)系。依然以“2017.01.03案例”為例。智能機器研發(fā)者為它設計了人工智能機器深度學習技術(shù)的能力。那么現(xiàn)在開始判研發(fā)者是否應當承擔刑事責任。從刑事主體來說,要判研發(fā)者是否存在主觀故意與間接故意。該次案例中,研發(fā)者不是為了實施犯罪而設計智能機器,他不存在主觀故意;從間接故意來說,研發(fā)者沒有預料到自己研發(fā)的智能機器會應用于犯罪,他不存在故意放任犯罪行為產(chǎn)生,于是他不存在間接故意。再從犯罪過失來分析,研發(fā)者不存在疏忽大意的過失,因為研發(fā)者不存在“應當預料”智能機器會被用來實施犯罪。也不存在過于自信過失,導致“已經(jīng)預見”到智能機器會實施犯罪卻疏于防范。于是當前,無論智能機器是不是具有承擔刑事責任的能力,研發(fā)者都不承擔刑事責任。需要為此承擔刑事責任的,是構(gòu)成了刑事主體及刑事主體行為的使用者。雖然“2017.01.03案例”中的智能機器還未成為強智能機器,卻可以看到,未來,強智能機器可能與研發(fā)者、使用者存在共犯關(guān)系。于是在追究刑事責任時,需要一一探討智能機器、研發(fā)者、使用者的刑事責任。
3.3 智能機器研發(fā)者的風險范圍、控制、監(jiān)督義務
未來,智能機器將具備人類的思維能力。就像父母對于自己生產(chǎn)出來的孩子具有監(jiān)護權(quán)一樣,應當讓研究者對自己研發(fā)出來的智能機器承擔風險范圍、控制、監(jiān)督義務。而在讓研發(fā)者承擔義務時,應當明確的劃分承擔任何的時間、標準、范圍,還要劃分研發(fā)者的主體、制訂相應的判罰標準等。只有對研發(fā)者作出限制,威發(fā)者才能在受到法律約束的前提下,設計及生產(chǎn)智能機器。
4 總結(jié)
在人工智能時代,必須重構(gòu)我國刑罰體系。刑罰體系構(gòu)建的需求可從“2017.01.03案例”可以看到,雖然“2017.01.03案例”中的智能機器還是弱智能機器,目前這種智能機器還不能承擔刑事責任,但是隨著科學技術(shù)的發(fā)展,強智能機器必然會出現(xiàn),如果不能給予這種智能機器進行法律約束,這種智能機器可能會由于個人的意志和辨識行為實施犯罪行為。從強智能機器的犯罪理論基礎分析,從法理上對它的犯罪行為進行約束,是必要的。為了從法理上對智能機器進行約束,需要重構(gòu)智能機器相關(guān)的刑罰處罰、追究智能機器有關(guān)的研發(fā)者及使用者的連帶法律責任、要求研發(fā)者承擔相應的風險范圍、控制、監(jiān)督義務。
參考文獻
[1]吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(西北政法大學學報),2017,35(5):128-136.
[2]劉憲權(quán).網(wǎng)絡犯罪的刑法應對新理念[J].政治與法律,2016,(9):2-12.
[3]杜嚴勇.人工智能安全問題及其解決進路[J].哲學動態(tài),2016,(9):99-104.