• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      智能機器人主體性的刑法審視

      2020-02-22 02:36:11
      上海政法學院學報 2020年2期
      關鍵詞:主體機器人人工智能

      問題的提出

      移動互聯(lián)網、大數(shù)據(jù)、超級計算、傳感網、腦科學等新技術是我國人工智能發(fā)展的催化劑。我國人工智能的加速發(fā)展引發(fā)鏈式突破,推動經濟社會各個領域從數(shù)字化、網絡化向智能化加速躍升。在弱人工智能發(fā)展階段,人們尚能夠通過法律手段對人工智能技術加以適度調控;而在強人工智能階段,智能機器人被認為具有了深度學習、自我認識和判斷的能力,這是人類難以通過技術和法律手段加以控制的。人工智能發(fā)展面臨的問題層出不窮,就業(yè)結構的變化、社會倫理的沖擊、個人隱私的侵犯,甚至國際關系也遭遇挑戰(zhàn),與此同時也帶來了一系列法律上的難題。近年來,關于智能機器人的主體性法律地位問題存在相當大的爭論,成為人工智能法律領域的中心議題。智能機器人是法律上的“物”還是法律上的“人”?是否可以成為法律關系的參與者?能否擁有法律人格,擁有得到尊重對待的主體權利,與自然人的法律地位是否平等或存在差別?如果可行,智能機器人可擁有哪些權利和義務,應當承擔何種法律責任?這些問題都需要深入思考。在立法層面,也需要未雨綢繆,設定相關主體的權利和義務,界定法律關系的主體和客體范圍,明確法律責任的歸結與承擔問題。①金夢:《中國人工智能立法的科學性探析》,《中共中央黨校(國家行政學院)學報》2019年第1期。應當說,在我國人工智能發(fā)展的時代背景下,人工智能法學研究是具有十分重要的前瞻意義和應用價值,并不是像有的學者所批評的那樣在“貼標簽”,是違反人類智力常識的反智化現(xiàn)象、制造學術泡沫的“泛人工智能化”研究。①參見劉艷紅:《人工智能法學研究中的反智化批判》,《東方法學》2019年第5期。在刑事法領域,智能機器人的主體性問題對與之相關的犯罪認定與處理顯得十分重要。在諸如機器人“殺人”“傷人”事件中,機器人能否成為犯罪人或被害人?如果機器人純粹是“機器”,是由自然人完全控制和操縱的工具,追究自然人犯罪的刑事責任并無問題;然而,如果機器人是智能的,具有自主意識和控制能力,這種機器人的活動是在自然人的實際控制和操縱之下實施的,是否屬于刑法理論上的間接實行犯?如果智能機器人的活動是在自然人控制和操縱之外實施的,能否將其視為刑事責任主體、對其進行刑事處罰?能否追究智能機器人研發(fā)者、銷售者、管理者等其他自然人的刑事責任?如果將智能機器人視為犯罪人,賦予其法律主體地位,其在承擔刑罰義務的同時,能否具有相應的刑事訴訟權利?申言之,如果智能機器人遭受不法侵害,能否被當作被害人看待、具有被害人的實體和訴訟權利?等等,上述問題的根本在于智能機器人主體性地位的認識問題。本文擬從刑法學角度加以探討。

      一、智能機器人的主體性學說之爭

      關于智能機器人的主體性地位,國內外學界存在諸多爭議,主要有否定說和肯定說?!胺穸ㄕf”認為,人工智能如果成為法律關系的主體,也應具有權利能力、行為能力和責任能力,但因為其不具有人類的意識、行為能力和責任能力,并不具有獨立的法律人格,因而無法成為法律關系中的主體。人工智能既缺少權利能力又不具備義務能力,義務與權利的分離徹底排除了人工智能的主體性;“機器人”只是機器而不是人,它不是人類的主體而只是人類的客體②參見冀洋:《人工智能時代的刑事責任體系不必重構》,《比較法研究》2019年第4期。;其不具備法律主體性,“而僅僅是技術工具或技術行為”③參見李愛君:《人工智能法律行為論》,《政法論壇》2019年第3期。。智能機器人像人類制造的其他工具一樣,其存在的目的就是代替人類從事特定活動;除此之外,智能機器人并無其他獨立價值,更不可能在人類的設計和編制的程序范圍外實施行為。同時,人工智能是人類為生產生活應用而創(chuàng)設的技術,技術上的可能并不能成為道德上的應當,機器人僅是權利的客體,只能被當作為人類服務的“工具”。否則,就會出現(xiàn)諸如機器人享有婚姻權同人類通婚,導致法律體系邏輯乃至倫理社會的崩塌。

      與上述觀點相反,“肯定說”認為,智能機器人有獨立的意識,能夠進行獨立的判斷,具有獨立的權利能力、行為能力和責任能力,主張法律應賦予其權利和義務,將其法律地位等同于自然人或擬制的法律主體。關于智能機器人主體性的根據(jù)和理由,“肯定說”中存在“電子代理人說”和“電子人格說”兩種觀點。“電子代理人說”將智能機器人視為其“所有人”的代理人;④美國統(tǒng)一州法全國委員會于1999年8月通過的《統(tǒng)一電子交易法》(修訂稿)第2條對“電子代理人”進行了定義:“系指非經人的行為或審核,全部或部分獨立地發(fā)起某種行為或應對電子記錄或履行的計算機程序、電子手段或其他自動化手段?!?加拿大1999年通過的《統(tǒng)一電子商務法》中同樣使用了“電子代理人”一詞。2016年5月31日,歐盟委員會法律事務委員會提交一項動議,要求歐盟委員會把正在自動化智能機器工人的身份界定為電子人的身份,并賦予這些機器人依法享有著作權等特殊的權利與義務?!半娮哟砣苏f”則將機器人的用戶或者操作者與機器人(人工智能體)的關系認定為法律代理關系中本人與代理人的關系。根據(jù)代理的基本法理,同時具備權利能力和行為能力是作為代理人的前提。批評者指出,目前機器人都不能、也不應當成為法律主體。它們之所以不應被賦予法律人格,恰恰是因為它們無法滿足這一基本標準,即獲得不可分割的與權利和義務相聯(lián)系的法律認可。盡管各國法律普遍認可法人的人格,但法人同樣由生物人組成,離開這些人類代理人,法人無法做任何事,而這一點就與動物以及機器人形成了鮮明的對比。①參見陳吉棟:《論機器人的法律人格:基于法釋義學的討論》,《上海大學學報(社會科學版)》2018年第3期。針對上述批評觀點,有些學者持修正的“有限法律人格說”,認為在有限范圍內可以承認其法律擬制人格,機器人的法律權利有別于人類的“自然權利”,具有擬制性、利他性以及功能性等。該觀點主張,人工智能應當成為法律擬制的主體,享有限定范圍內的權利并承擔相應的義務和責任,因此,人類社會的侵權責任法并不完全適用,應重新構建一套適合人工智能有限法律人格的侵權責任的制度安排。②參見張玉潔:《論人工智能時代的機器人權利及其風險規(guī)制》,《東方法學》2017年第5期。

      可見,智能機器人的法律主體地位問題與倫理、法律、道德等領域都息息相關,而不僅是簡單的法理問題。智能機器人是否具有法律主體地位,需要厘清兩個問題:一是智能機器人的本質特征;二是法律主體的實質屬性。

      二、智能機器人的主體性本質特征

      機器人的進化,是其“主動性”不斷增長的過程,即從被動反應指令到主動做出指令,這種“進化”的實質是“創(chuàng)造力”的不斷深化。智能機器人的發(fā)展核心在于“創(chuàng)造”或“預見”,這正是人類行為的本質屬性。正如有學者指出,機器人的進化史即是機器人“智能”逐漸增強并對自己“行為”的影響和作用逐步達到“自控”的歷史。③參見劉憲權:《對強智能機器人刑事責任主體地位否定說的回應》,《法學評論》2019年第5期。討論智能機器人的主體性問題,首先要建立在對其概念的準確界定基礎之上。

      (一)智能機器人的概念與類型

      首先,“智能機器人”與“人工智能”的概念是有區(qū)別的。所謂“人工智能”,是指與人類或其他動物表現(xiàn)的自然智能相對的機器智能,即任何能夠感知其所處環(huán)境,并根據(jù)環(huán)境變化自主作出反應的任何程序或設備系統(tǒng);“機器人”則是指一種智能系統(tǒng)的類人自動裝置,包含了各種各樣的傳感器以模擬人的行為和能力,例如感官感覺、思維判斷等。根據(jù)是否具有智能的標準,機器人可以分為一般機器人和智能機器人。一般機器人一般只具有普通編程能力和程序化操作功能,不具有智能。智能機器人具備視覺、聽覺、觸覺、嗅覺等各種內部信息傳感器、外部信息傳感器和作用于周圍環(huán)境的效應器,其與一般機器人的差異在于其可能超越人類設計和編制的程序對人的意識、思維的信息過程進行模擬,甚至產生獨立的意識和意志。智能機器人不是“人”,但能像自然人那樣思考,也可能超過自然人的智能。

      其次,人之所以與動物相區(qū)別的核心要素,是因其具有主觀能動性,即人具有主觀思考能力,并通過實踐活動對客觀世界產生能動作用。智能機器人是否具有自然人一樣的主體性特征,須從人類自身的概念及其所具有的機能上加以界定。人類是在類的知識基礎上對外界事物進行反應活動的動物。人的反應機能是意識,意識是人生命系統(tǒng)的高級部分(低級部分是生理部分),是中樞神經系統(tǒng)的反應機能,是基于人本能的功利性欲望,通過感官或工具對外界事物進行感知,并通過支配軀體如手腳的活動對外界事物和現(xiàn)象進行反應的過程。質言之,人類的意識反應來源于后天生活的經驗知識,這與動物心理反應的形成十分相似。可見,人與動物的本質區(qū)別在于其反應機能比動物的反應機能強大,人的意識反應與動物心理反應的區(qū)別是層次上的,原因在于人類有第二信號系統(tǒng)即語言和文字。動物由于沒有第二信號系統(tǒng),因此其經驗知識只能建立在個體活動的基礎上,這就決定了動物的心理反應內容是十分有限的,范圍也是狹窄的。而人類可以基于第二信號系統(tǒng)極大地擴張自身的知識體系,這是因為人能在汲取先輩們的知識后,形成類的經驗知識體系,從而對客觀世界進行實踐活動,成為地球上的主宰者。

      其三,智能機器人與動物的差異在于其具有獨立思考和判斷能力。與動物不同,智能機器人具有自然人的反應機能。智能機器人主要有兩個維度的定義,一是思考和推理程序,即具有像人類一樣理智地思考的能力,二是行為,即具有像人類一樣理性的行為能力。①Stuart J.Russell and Peter Norvig, Artificial Intelligence A Modern Approach, 3rd Ed., Pearson Education Limited, 2016, p1.相對于一般機器人而言,智能機器人至少要具備感覺、運動、思考3個要素,其中思考能力是鑒別智能機器人的核心要素,包括抽象概括、理解判斷、邏輯推理等能力。智能機器人中也有智能高低之分,可分為傳感型、交互型和自主型。傳感型智能機器人又稱外部受控機器人,機器人的本體上沒有智能單元,只有執(zhí)行機構和感應機構,具有利用傳感信息進行處理、實現(xiàn)控制與操作的能力;交互型智能機器人最大的特點是能夠通過人機互動的形式實現(xiàn)機器人的控制。其雖然可以獨立實現(xiàn)一些諸如定位、避障等簡單功能,但其行為仍是簡單的機械性操作;自主型智能機器人本體上具有感知、處理、決策、執(zhí)行等模塊,可以像自主的人一樣獨立地活動和處理問題。智能機器人能夠理解人類語言,用人類語言同操作者對話,分析出現(xiàn)的情況,設置可能實施的行為,并根據(jù)環(huán)境情況的復雜程度,及時調整自身行為以完成任務。

      (二)自主型智能機器人的主體性

      主體性是人區(qū)別于地球上其他生物的質的屬性。費爾巴哈就認為:“只有個人才能成為犯罪的可能主體”。②[德] 安塞爾姆·里特爾·馮·費爾巴哈:《德國刑法教科書》,徐久生譯,中國方正出版社2010年版,第37頁。人的主體性是基于不斷發(fā)展的自主意識以及主觀能動性而形成,是在人的實踐與認知活動中生成的本質,是后天獲得的人的本質力量。人類自身意識經過長時間的積累和發(fā)展,自我認知和世界認知能力已經達到很高水平,這為人類制造具備全新物質“自動機”功能的智能機器人提供了必不可少的支撐。而人工智能是否具有法律主體資格,這取決于其是否具有與自然人相同或相似的屬性與法律地位。具有強人工智能的自主型智能機器人在一定程度上具備了成為法律主體的基本條件,其主體性特征具體表現(xiàn)在:第一,智能機器人已經有了自身通用的代碼和語言。目前,機器人已經可以使用這些語言獨立編程,相互之間可以使用基本的語言進行溝通交流,在此基礎上相互學習、傳播知識,使機器人的語言體系得到積累和完善。第二,智能機器人可以通過不斷地實踐積累經驗,以改進自身的動作行為和結構。智能機器人通過后天的學習培養(yǎng)自己的自適能力,通過自我模仿進行直覺判斷,當直覺出現(xiàn)錯誤時,它們會根據(jù)自己的想象修正自身行為,從而更加先進。第三,自主學習是智能機器人具有自主性的重要體現(xiàn)。一旦機器人可以在新環(huán)境下再次利用已有的知識和經驗活動,就與人類習得知識的方式相一致,通過對以往經驗的分析提煉,機器人可以系統(tǒng)地形成知識體系和行為模式,更好地管理已有的行為,也為更復雜的行為能力奠定基礎。第四,智能機器人具有感知和效應的能力。通過自身智能化的傳感器,智能機器人具有自主性、目的性和積極性。其能夠感知外部環(huán)境變化,通過交流互動獲取目的性活動,從而主動調節(jié)自身狀態(tài)適應環(huán)境并達到目的要求。盡管如此,機器人的主體性仍然無法像人類一樣,這是因為機器人是人類的創(chuàng)造物,人類的思想和智慧制約它們的行為。顯然,機器人的主體性必然是受限的。

      應當看到,人類的大腦可以解決以前從未見過的問題,機器學習卻不能如此,一切都是為特定問題構建的。①JeffHecht, Meeting People’s Expectations, Nature,Vol.563(29November2018), p.S142.目前人類所制造的“智能機器人”還不能稱作是完全離開人類操作的真正的“自動機”,更不可能是像自然人一樣的“生命—物質的自動機”,智能機器人可能達不到自然人那樣高度“自動化”的水準,它們只能模仿人類的部分功能,完整性尚不能與人類媲美。同時還需要人類的輔助才能完成一些行為,例如智能機器人不是“永動機”,仍需要人類通過電力或其他能源輔助活動,再高級的人工智能也無法徹底擺脫其與生俱來的機器屬性,所有的智能機器人實際上全都是在擴大人類自身的部分功能意義上的“自動機”,具有可能重復操作的邏輯理路,總體的“自然智能”事實上將永遠都只能在“人類自動機”的水平之下。人工智能基于其有限的“自主意識”,無法保障總是進行理性的價值判斷。換言之,人工智能永遠都在追趕最高的自然智能,盡管永遠無法追上,但卻無限接近。在這種發(fā)展過程中,智能機器人的主體性特征逐步具備并得以完善。隨著人工智能的發(fā)展,法律主體理論打破了傳統(tǒng)的以抽象的“人”為中心的理論基礎,而逐漸向類人的存在物擴張,法律主體也朝著多元化的路徑發(fā)展。

      三、智能機器人的法律擬制主體地位

      如前所述,智能機器人是由人類創(chuàng)造以服務發(fā)展的智慧型工具,其工具屬性決定了其法律地位??茖W界的主流認為:“類人機器人”是智能機器人的未來發(fā)展趨勢,在“內在的智能要素”方面,“類人機器人”傾向于“越來越像人”甚至于“比人更像人”②參見[意]多梅尼·科帕西里:《機器人的未來:機器人科學的人類隱喻》,王志欣、廖春霞、劉春容譯,機械工業(yè)出版社2016年版,第29頁。。 因此,在未來社會,人類與智能機器人、智能機器人與智能機器人之間的關系將會錯綜復雜。智能機器人世界里的法律關系設置需要謹慎考慮,在保證人類社會安全的前提下,智能機器人才能作為主體行使正當權利,并不能妨礙人類正當權利的行使。只有達到這種和諧共處的狀態(tài),才能對智能機器人進一步開發(fā)和應用。人類自身的主體性當然優(yōu)于前者,后者僅具有有限的權利義務,更應適用特殊的法律規(guī)制標準。而只有在承認智能機器人的法律人格和擬制主體地位的前提下,方可對其如何進行刑法規(guī)制作出合理安排。

      (一)自主型智能機器人具備有限的法律人格

      從法律技術角度看,智能機器人作為一個單獨的實體,可以直接采用法律擬制的手段承認其法律主體地位,法律擬制主體的根據(jù)成為證成智能機器人可以作為法律主體的重要依據(jù)。人之所以被作為法律上的主體,是因為具有法律意義上的人格,即法律認可的享受權利、承擔義務的資格,包括自然人主體和法律擬制主體兩種形式。法律主體與現(xiàn)實生活中的人并不對等,對于任何自然人,法律均承認其法律人格;對于法律擬制主體的人格,則需要經過法律規(guī)定的程序方可取得。簡單地說,法律人格是某一主體能否成為法律意義上“人”的資格,是其享有權利、履行義務的基礎。人格是可以擴展于自然之外的實體,法律人格是可以擬制的??梢哉f,法律擬制主體總是與自然人連接在一起。比較而言,單位(法人)之所以可以被擬制為法律主體,是因為其以具有倫理人格的自然人為基礎,單位意志歸根結底是單位內部自然人意志的總和;盡管單位具有獨立的利益歸屬,但不可否認其本質上就是單位股東的利益,而不管是法人股東還是自然人股東,最終的代表總是自然人。在刑法上,盡管單位(法人)具有獨立承擔刑事責任的能力,但不管是雙罰制或單罰制,單位的直接責任人員和主要負責人員也都要在單位犯罪時承擔一定的刑事責任。

      然而,智能機器人的出現(xiàn)對傳統(tǒng)法律主體范圍提出挑戰(zhàn)。類型化法律主體思維無法解釋智能機器人的法律地位,因此需要以多層次、立體化思維重新審視法律主體理論。智能機器人可能具有人類思維和自主意識,可能具備具有倫理意義的人格,這就決定了其可以被承認為法律主體的關鍵。獲得獨立法律人格需要同時具備社會存在與法律確認,即具有自主意識,能夠在自由意志下進行活動并得到法律明確的確認。通過智能機器人本質屬性和類型化分析可以看出,“智能化”既決定了其符合社會存在的標準,也證明了智能機器人與人類不可能等同。因此,即使智能機器人能夠獲得法律人格,這種人格也是與自然人或法人不同的有限法律人格?;蛘哒f,智能機器人的法律人格有其法定的特定范圍,在不同法律關系中居于不同的主體地位。在智能機器人之間,法律關系雙方處于平等地位,智能機器人既可作為義務主體,也可作為權利主體。“機器人學之父”阿西莫夫提出著名的“機器人三原則”,其中“機器人必須保護自己”實際就是給予智能機器人自我保護的權利??梢钥闯觯谥悄軝C器人與自然人之間,或者在自然人之間,智能機器人的工具屬性決定了其不可能超越于后者之上,居于法律主體地位,只能處于行為客體地位,即權利和義務指向的對象(物)。

      (二)智能機器人主體性地位的法律確認

      法律主體是在法律關系中享有權利、履行義務或承擔責任的人或其它類人的存在物。法律主體理論隨著時代變遷不斷更新、擴張。最初,在區(qū)分了人與動物后,形成了以人為中心的法律主體理論。隨著社會經濟的發(fā)展,法律主體類型通過法律擬制手段得到拓展。法律主體不再僅限于生物意義上的人類,單位或法人能夠擬制成法律主體,為智能機器人成為法律主體提供了可能性。目前,法律主體可分為兩種類型:一是以生命為基礎的生物人自生命開始即獲得法律主體地位;二是無生命的實體通過法律擬制途徑成為法律主體。

      首先,智能機器人能否成為法律上的權利主體?享有權利是法律主體的體現(xiàn),在現(xiàn)有科學技術條件下,智能機器人已經可以自主活動,包括簽訂合同、管理公司,但是還未得到法律確認。也就是說,智能機器人獨立自主實施的行為尚不是法律行為。法律與實踐的鴻溝導致智能機器人的行為無法可依。其是否享有與人類相似的人格權利?例如,健康權、生命權、姓名權等;是否享有財產權利?例如所有權、占有權等。隨著智能機器人的智能程度越來越高,其可能也擁有快樂、孤獨、悲傷等情感感受,如果傷害了智能機器人的感情模塊,是否成立精神損害?根據(jù)斯通納的觀點,某一主體能否擁有法律權利應滿足下列條件:第一,該主體應其要求可以提起法律訴訟;第二,法院在決定授予法律救濟時必須考慮到損害;第三,法律救濟必須滿足它的利益要求。①參見袁曾:《人工智能有限法律人格審視》,《東方法學》2017年第5期。人工智能目前已經逐步應用于司法裁判,作為當事人提出訴訟請求并非難事。人工智能的損害可以衡量,法院可以根據(jù)實際可行的衡量標準確定人工智能受到的損害?,F(xiàn)行的法律救濟手段可以適用于人工智能,同時還可以新增特別適用于人工智能的法律救濟手段,例如,關機重置、銷毀、返廠修理等。由此,人工智能理應享有法律權利。

      其次,智能機器人是否可以成為法律關系的義務主體?義務與責任息息相關,義務需要有效的責任機制作保障。因此,根本問題在于智能機器人作為有可能侵害人類的施害者,如果讓智能機器人承擔責任,那么在何種意義上它是有責任能力的?責任承擔方式如何確定?是否需要設置特殊的責任方式?如果不讓其負責,就需要尋找其他責任人,可能是智能機器人背后的制造者、銷售者、使用者或第三方服務平臺。他們之間的法律關系錯綜復雜,判定責任主體十分困難。此外,自主型智能機器人有可能超出其所有人或管理人的控制,實施意料之外的侵權行為,此時如何承擔責任? 僅僅處罰其所有人或管理人,是否可以達到懲罰的效果? 這些問題都是目前的法律主體理論難以回答和解決的。

      然而,人工智能的發(fā)展應當服務于社會,智能機器人與人類應當和諧共處。法律至少應該在智能機器人內部設置公平公正、有強制力并對人類有益的行為規(guī)則。顯然,智能機器人應當成為這個法律體系內享有權利、承擔義務和責任的法律主體。可見,在人類與智能機器人共存的社會,需要構建二元法律體系,兼顧人類和智能機器人的價值體系。例如,關于商業(yè)秘密或專利的知識產權保護,完全可能產生一套符合人類社會價值目標但又兼顧人工智能特殊性的新規(guī)則。①參見蘇力:《法律與科技問題的法理學重構》,《中國社會科學》1999年第5期。立法機關可以先從基本原則和制度出發(fā),為智能機器人制定原則性法律以確定整個規(guī)則體系的價值取向,之后再逐步細化。目前,關于智能機器人的原則性法律主要包括《機器人倫理憲章》和《歐盟機器人民事法律規(guī)則》。從人工智能技術的發(fā)展趨勢和路徑分析,人工智能技術總是與各個傳統(tǒng)領域相結合,產生新問題,因此相應的法律部門應當根據(jù)具體產生的新現(xiàn)象細化相應的制度規(guī)定??傊?,以原則性的法律規(guī)定為指導,結合人工智能在相關領域可能發(fā)生的問題,及時制定或修改相應的具體細則,兼顧法律效果和社會效果,是人工智能立法的可循之路。

      三、智能機器人犯罪的刑事責任能力

      從刑法角度看,智能機器人的主體地位問題應在刑事法律關系中加以審視。刑事法律關系基于犯罪行為產生,是國家與犯罪人之間受刑法規(guī)范調整的權利和義務關系。國家有權按照刑法規(guī)定對犯罪人施以刑罰處罰,犯罪人有義務接受相應的處罰,并享有不受“法外用刑”的權利。機器人與自然人是否具有平等的法律地位、能否成為“犯罪人”?國家能否對其進行刑罰處罰?在機器人與自然人之間,能否形成犯罪人與被害人的關系?如果自然人以機器人為侵害對象,后者應被視為是“物”還是“人”(被害人)?同時,在智能機器人犯罪中研發(fā)者、制造者、銷售者、使用者、管理者和所有者等相關責任主體如何承擔刑事責任?這些問題都值得深入探討。

      (一)智能機器人刑事責任能力的根據(jù)

      在德國,為了應對機器人可能受害或施害的情況,關于智能機器人的刑法適用問題,主要有兩派觀點。第一種觀點是,應當修改刑法理論中已有的原則、概念等,肯定機器人適用刑法的可能性。代表性學者希爾根多夫教授認為,行為、責任這樣的基本概念并非只限于人類,也可以適用于法人。既然如此,也可以擴張到自控型智能機器人范圍。第二種觀點則否定智能機器人作為刑事法律主體適用刑法,強調刑法的人類中心主義,試圖通過對現(xiàn)行刑法理論的解釋、修正予以應對。約爾登教授是反對機器人刑法的典型代表。①參見儲陳城:《人工智能時代刑法歸責的走向》,《東方法學》2018年第3期。在我國刑法學界,對于智能機器人是否具備犯罪主體的刑事責任能力,有的學者持積極肯定的態(tài)度,主張賦予強人工智能機器人的法律主體地位,其可以獨立成為犯罪行為人承擔刑事責任,對于智能機器人犯罪應當進行刑罰處罰,智能機器人可以和自然人成立共同犯罪。②參見劉憲權:《人工智能時代刑事責任與刑罰體系的重構》,《政治與法律》2018年第3期。智能機器人在設計和編程之內實施的行為,智能機器人的研發(fā)者或使用者可能承擔刑事責任;智能機器人在設計和編程之外實施的行為,應當認定為智能機器人在自主意識支配下實施的犯罪行為,與研發(fā)者、使用者等第三方無關,應獨立承擔刑事責任。也有的學者持懷疑和否定態(tài)度,認為,肯定論者所提出的針對智能機器人適用的刑罰種類,實質上既缺乏刑罰的痛苦本質,又沒有剝奪犯罪人某種權利的刑罰屬性,對智能機器人適用這些措施也達不到刑罰的報應和功利目的。③參見周銘川:《強人工智能刑事責任之否定》,《上海政法學院學報(法治論叢)》2019年第2期。因此,對于人工智能產品而言,無論是從其本質屬性、權屬狀況,還是從當前我國國籍確定的規(guī)則來看,均無法適用屬人管轄和屬地管轄原則,因而也就難以成為刑事責任的主體。④參見吳波、俞小海:《人工智能時代刑事責任認定思路的挑戰(zhàn)與更新》,《上海政法學院學報(法治論叢)》2018年第5期。在民法上尚未做出明確規(guī)定的情況下,刑法上須首先明確智能機器人具有法律人格和擬制主體地位,才有可能將其視為犯罪人或被害人,否則只能將其看做自然人犯罪的對象和工具。

      機器人罪犯是人類創(chuàng)造機器人的不可避免的副產品。對機器人無止境的技術追求導致人工智能技術的高度發(fā)展,使得模仿人類思想及相關技能較之以前做得更好成為可能。⑤Gabriel Hallevy, When robots kill: artificial intelligence under criminal law 19(Northeastern University Press 2013).智能機器人內置的程序可以使其具有思考和學習的能力,并可能產生自主意識和意志。智能機器人具有深度學習的能力,這是其區(qū)別于普通機器人之所在。當智能機器人只能按照程序設計和編制設置實施行為時,其不具有辨認能力和控制能力,只能看做研發(fā)者或使用者的“工具”。而當智能機器人具有超越程序設計和編制范圍實施行為的能力時,則需要甄別支配犯罪行為的主觀意識是來自于智能機器人自身還是在設計范圍之內。如果在程序設計之外,則說明智能機器人不再僅僅是犯罪工具,此時若將侵害行為歸責于研發(fā)者或使用者,并不妥當。實際上,如果適用傳統(tǒng)的過失犯理論對自控型機器人進行歸責,則需要證明其違反注意義務并具有預見危險的可能性,無論從理論上還是技術上都是非常困難的。這是因為自控型機器人的智能化程度很高,已經具備學習和適應能力,并且尚未形成習慣等共同的行為法則,因此很難預測其具體行為,預見可能性是無法被認定的。如果將預見可能性理解為“大概可能會對人造成危險”這樣抽象的預見可能性的話,顯然會使得過失犯的范圍變得過于寬廣。⑥同注①。因此,刑法也有必要賦予智能機器人以擬制主體地位,使其具有犯罪行為人的法律人格,能夠獨立承擔刑事責任。

      (二)智能機器人刑事責任范圍的限定

      目前,我國刑法承認單位可以作為犯罪主體,但只能實施刑法分則中的部分犯罪,這是由單位犯罪的刑事責任能力范圍所決定的,智能機器人也同樣如此,刑法在肯定其能夠做為刑事責任主體的同時,也有必要對其適用范圍做出限定。從本質屬性來看,智能機器人其實是一種“數(shù)據(jù)人”,即經程序設計和編制而成的,可以通過深度學習產生自主意識和意志的智能系統(tǒng),其實施犯罪行為的過程實質上是一個信息數(shù)據(jù)的處理過程。作為刑法擬制的犯罪主體,智能機器人的主體范圍、行為類型與刑事責任承擔方式應具有特定性,應在刑事責任能力范圍內構成犯罪,并承擔刑事責任,而不應與普通的自然人犯罪等同。具體來說,其刑事責任范圍應從以下幾個方面加以限定:(1)智能機器人犯罪的主體范圍應限于智能機器人內部。而在智能機器人與自然人之間,智能機器人不能作為刑法意義上的“犯罪人”,只能被看作是自然人對另一自然人實施侵害的工具(即間接正犯)。反之,智能機器人也不能成為“被害人”,只能做為物的存在形式成為自然人犯罪指向的對象。例如,根據(jù)《刑法》第287條規(guī)定,利用智能機器人實施金融詐騙、盜竊、貪污、挪用公款、竊取國家秘密或其他犯罪,依照刑法有關規(guī)定定罪處罰;明知他人利用智能機器人實施犯罪,為其犯罪提供網絡技術支持和幫助的,則構成幫助實施信息網絡犯罪活動罪。(2)智能機器人犯罪行為類型應限于信息網絡犯罪領域。如《刑法》285條非法侵入計算機信息系統(tǒng)罪、非法獲取計算機信息系統(tǒng)數(shù)據(jù),非法控制計算機信息系統(tǒng)罪,提供侵入、非法控制計算機信息系統(tǒng)的程序工具罪,第286條破壞計算機信息系統(tǒng)罪。在上述罪名范圍內,智能機器人可作為犯罪主體,并且可與自然人構成共犯,共同承擔刑事責任。但對于發(fā)生在智能機器人之間、施害者機器人基于自主決定對受害者的機器零部件實施操縱、破壞、損毀,但對受害者機器人的信息系統(tǒng)本身沒有造成破壞的行為,不宜像對待自然人犯罪一樣適用普通的侵犯人身或財產的罪名,而是應當適用上述信息網絡犯罪的相關罪名。(3)適用于智能機器人犯罪的刑罰方法也應當是特定的,即限于對其信息數(shù)據(jù)系統(tǒng)予以實施。有學者建議可采取刪除數(shù)據(jù)、修改程序、永久銷毀3 種方式,值得考慮和借鑒。在刑事責任處罰模式上,對于自然人利用智能機器人實施的犯罪,可對兩者同時實施“雙罰制”;對于智能機器人之間實施的犯罪,則只能對智能機器人實行“單罰”。智能機器人之間相互侵害的,刑事立法也不一定設立新罪,只在故意殺人罪等現(xiàn)有條款中加以規(guī)定,機器人犯前款罪,依照本條論處即可,與單位犯罪刑事處罰模式相似。當然,對于智能機器人與自然人構成共犯的,對于其中的自然人則可適用刑法中現(xiàn)有的一般的刑罰種類和制度,并不存在什么障礙。

      (三)智能機器人研發(fā)者或使用者的刑事責任

      由于人工智能具有的法律人格有限,其無法獨立完全承擔相關侵權行為的刑事責任。聯(lián)合國教科文組織發(fā)布的《關于機器人倫理的初步草案報告》提出,讓所有參與機器人發(fā)明、授權和使用過程中的主體分擔責任①袁曾:《權利視閾下的人工智能法律主體地位》,《上海政法學院學報(法治論叢)》2019年第4期。, 督促系統(tǒng)的設計者、參與者、生產者自覺履行安全性義務,以保證受害者能夠尋找到主體獲得補償。如果沒有實際操縱者(機器人使用者),智能機器人在所謂自主意識下實施犯罪行為,則可追究設計者,制造者,銷售者或所有人的刑事責任。如果研發(fā)者或設計者在編程過程中存在過失,同時智能機器人在超過原有編程之外的自主意識支配之下,實施具有嚴重社會危害性行為,兩者是否構成共同犯罪?答案是否定的,原因在于智能機器人和背后研發(fā)者或設計者在主觀上不存在共同犯罪的故意。研發(fā)者或設計者的過失行為可能成立產品責任有關的過失犯罪,具體而言,由于其具有人工智能相關的專業(yè)技術知識儲備,在可以避免危害結果發(fā)生的情況下,研發(fā)者或設計者具有預見危害結果發(fā)生的義務,當他們沒有預見或已經預見但輕信能夠避免時,可能構成一般的過失犯罪;如果危害結果的發(fā)生超出當時人工智能技術的發(fā)展水平,智能機器人的研發(fā)者或使用者則不負有預見義務,也就不構成一般過失犯罪,無需承擔相關刑事責任。進一步需要闡明的問題是,智能機器人的研發(fā)者或使用者是否可以成立監(jiān)督過失犯罪? 智能機器人的研發(fā)者或使用者應負有人工智能技術研發(fā)和使用的安全監(jiān)督義務,通過技術手段控制智能機器人不攻擊人類、不危害社會,例如在機器人身上設置緊急按鈕或一鍵休眠等方式制止智能機器人的侵害行為,將機器人銷毀(擊毀、炸毀等)。①參見劉憲權:《人工智能時代刑事責任與刑罰體系的重構》,《政治與法律》2018年第3期。這就意味著,研發(fā)者或使用者應當負有監(jiān)督責任。即使智能機器人在超出編程之外的自主意識之下實施犯罪行為,研發(fā)者或使用者仍有可能承擔監(jiān)督過失的刑事責任。如果智能機器人的研發(fā)者或使用者既履行了監(jiān)督義務,又無法預見危害結果的發(fā)生,那么其可能不需要承擔刑事責任,此時,則為意外事件或由智能機器人獨立承擔刑事責任。

      結 論

      人工智能法律地位的研究不僅是對法律體系、法律理論的挑戰(zhàn)和突破,也關系到人工智能與人類社會的和平共處、法律秩序、道德倫理等各個領域。正如有學者指出,人工智能法律地位的研究應以實現(xiàn)法律價值為理論基礎,以服務人類社會為目標,以防范人工智能所帶來的社會風險為目的。②參見李愛君:《人工智能法律行為論》,《政法論壇》2019年第3期。刑法本身不是萬能的,對于先端技術,不應該過于積極地介入。我們承認智能機器人的擬制法律主體地位,對智能機器人及其研發(fā)者或使用者的行為進行法律規(guī)制,但這并不能直接得出所有在智能機器人領域發(fā)生的各種侵害行為及其事故后果必須作為犯罪對待并予以刑法規(guī)制。在很多情況下,都只能視為是人工智能技術發(fā)展過程中必然包含的社會風險,在刑法上是一種可允許的風險,所產生的損害可以通過民事法律手段加以彌補。智能機器人作為犯罪主體的存在范圍、行為類型以及承擔刑責的方式都是受局限的和特定的,如果一旦發(fā)生事故就認為智能機器人構成犯罪,適用刪除數(shù)據(jù)、修改程序、永久銷毀等制裁方法,很可能過度抑制人工智能技術發(fā)展,與人類幸福發(fā)展和社會進步背道而馳,這是在未來人工智能刑事立法和司法當中需要注意避免并加以克服的。

      猜你喜歡
      主體機器人人工智能
      論自然人破產法的適用主體
      南大法學(2021年3期)2021-08-13 09:22:32
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      IT經理世界(2018年20期)2018-10-24 02:38:24
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      關于遺產保護主體的思考
      機器人來幫你
      認識機器人
      機器人來啦
      認識機器人
      元朗区| 洪雅县| 旌德县| 萝北县| 孟津县| 句容市| 黄山市| 安阳县| 什邡市| 黄龙县| 西宁市| 富蕴县| 化隆| 平山县| 盐源县| 普宁市| 赤壁市| 章丘市| 茂名市| 莒南县| 海盐县| 侯马市| 桃园县| 靖边县| 马山县| 威海市| 吉林省| 札达县| 滕州市| 深州市| 隆安县| 阿勒泰市| 青川县| 桓仁| 安陆市| 侯马市| 南通市| 华宁县| 西乌珠穆沁旗| 西宁市| 留坝县|