余永悅 陳燕 徐穎
摘 要:自人工智能出現,人工智能的“侵權”事件隨之而來,但侵權責任的承擔主體在法律上的規(guī)定并不明確。人工智能的不同學說——工具說、代理說、有限人格權說等學說的不同,使得人工智能法律地位仍處于不確定的狀態(tài)?,F行立法也沒有對人工智能侵權主體作出規(guī)定,通常由所有人承擔侵權責任,但這對所有權人并不公平。為進一步明確人工智能侵權責任主體,本文擬從人工智能的法律人格和歸責原則等方面探究人工智能侵權的主體問題。
關鍵詞:人工智能;法律人格;侵權主體;歸責原則
人工智能出現以來,雖然給人類帶來便捷,但也產生了一系列的侵權事故。從1978年,日本廣島的摩托車廠機器人突然轉身將其背后的工人抓住并切割;到2018年美國亞利桑那州無人駕駛汽車Uber試行導致騎車婦女死亡事件。人工智能在世界各地以人類看得見和看不見的方式持續(xù)著人工智能的“侵權”事件。人工智能造成的侵權損失等需要賠償,故侵權責任主體的確定可以使人工智能造成的不穩(wěn)定的侵權狀態(tài)得以停止以及法律空白得到明確。但人工智能侵權主體的研究,意味人工智能的法律地位解釋問題。
一、關于人工智能的法律人格問題
關于人工智能的是否具有法律人格問題,現行的學說有工具說、代理人說、電子奴隸說以及有限人格說。但是大部分學說還是不承認人工智能的法律人格問題,而本文的觀點也是如此,本文將從兩方面論述人工智能無法律人格的觀點。
首先,是學界最常討論的問題。法律主體、客體的分類。這個劃分是以對象是否具有精神,或者思想為前提。而有人認為,人工智能擁有獨立行動、簽訂合同、做出決策等智慧性的行為,主張其具有一定的思想或者獨立的意思表示。但是,人工智能的工作原理并不能完美解釋該觀點。我們知道,人工智能的工作原理是其內部的編程和復雜算法。其行為服從于沒有任何思想或意思的一些數字,而非精神或者思想。其看似自主決定的“智慧型”行為則是遵從運算的一種表現,而非有無數自我選擇的抉擇。
其次,從法理上來說。民法上的法律人格要求要求具有一定的權利,履行一定的義務為前提。是權利能力和義務能力相統一的要求。但并非認為權利能力和行為能力必須同時具有,而是認為是兩種不同的解釋角度。如民法上將法律主體規(guī)定為自然人和法律擬制的人(如法人)。對于自然人,法律規(guī)定其出生就具有法律人格,甚至對未出生的胎兒也有一定法律人格的保護。對于自然人其就單純從權利能力的角度解釋即可,而其行為能力不作要求,只對后期法律責任承擔方面有影響。而對于法律擬制的人,如法人的法律人格問題是由有關部門審核過后就有法律人格,本文認為這種法律人格的賦予是基于其可能的行為能力以及背后出資人等人的權利能力為后盾的。法人的是具有意思表示的,是代表全體股東或者成員的共同意志,并有一定的資金作保障。而人工智能并沒有所謂的權利和義務,也沒有獨立承擔民事后果的能力。從這個方面看,人工智能也無法作為法律主體從而擁有一定的法律人格。
本文認為人工智能就是智慧型的工具,其通過算法、編程,可以從編程或算法中,結合事先輸入的情形,進行不同的智能行為。其行為是為實現特定目的,也是工具的用途。而并非獨立的意思表示。
二、人工智能侵權的歸責原則
人工智能作為工具的一種,其屬于產品。但本文認為,其不能簡單適用于《中華人民共和國產品質量法》(以下簡稱《產品質量法》)。原因在于人工智能即使作為工具而言也是一種智能的、復雜的、出現故障難以控制并且具有一定危險性的。所以其不能簡單適用《產品質量法》的歸責原則,僅僅對設計者、生產者、銷售者進行追責,且對不是由于人為原因產生的人工智能故障致使侵權事件的責任問題也需要進行規(guī)定。
(一)對于人為原因造成人工智能侵權事件的歸責原則
對于生產者、銷售者,其應當按照《產品質量法》的規(guī)定承擔人工智能產品缺陷侵權事件的賠償責任。但是,對于人工智能產品來說,其技術具有極大的復雜性,即使認為人工智能的質量有問題,很多人也是無從證明。而且對于人工智能缺陷問題的舉證也是尤為困難。人工智能產品并沒有制定相關的國家、行業(yè)標準。根據《產品質量法》第46條的相關規(guī)定,則需要受害人對于人工智能產品本身存在不合理的危險進行舉證。但這對于無法獲得或者理解人工智能數據的受害者來說,舉證責任過于嚴苛。
對于這個問題,本文建議可通過立法進行數據、記錄留存工作(如黑匣子)。將人工智能的初始設計數據由特殊政府機構留存,在發(fā)生主張人工智能缺陷后,經審核需要原始數據的演示、調查后,提供該證據,確定生產者、設計者的數據是否存在原始缺陷。但是該環(huán)節(jié)的商業(yè)秘密信息的安全性、秘密性也是一個需要關注的重要問題。此外,對于舉證責任問題。如果讓受害人承擔舉證責任則很難實現訴訟目的。本文認為應當修改舉證責任問題,讓受害人承擔初步舉證責任,即侵權事件是因人工智能產品造成,且和自己的行為無關。后續(xù)責任由使用者、銷售者、生產者依次進行舉證。生產者和設計者需承擔嚴格責任,即無過錯責任。該做法可能會一定程度上打擊研發(fā)者的積極性,不利于技術的創(chuàng)新。是否讓生產者設計者賠償全部損失?該問題會在下文繼續(xù)研究。
對于銷售者和使用者來說,由于其對于人工智能的實際控制可能性比較低,并不能像生產者和設計者那樣,充分了解人工智能的原理。其對于人工智能產品侵權事件承擔過錯責任。即銷售者在銷售過程中沒有遵守設計說明等要求造成人工智能產品質量缺陷;使用者在使用過程中不按照使用說明操作,或者私自改裝、調試等行為造成缺陷的,均承擔過錯責任。
(二)對于無過錯方的人工智能侵權的歸責原則
對于生產者、設計者設計生產均無問題,銷售者、使用者也無任何過錯行為。但由于人工智能本身出現技術問題。這時,如果采取“技術中立原則”即技術本身不產生責任,對于受害人而言是不公平的,受害者的利益也無從保障。
對于該問題,本文建議采取歐盟立法中的強制責任保險或者賠償責任基金的的做法。歐盟立法該做法是為了轉移生產者的賠償負擔,從國家財政撥款、生產者、或社會捐助等來源建立基金。但是,這種目的本身就有一定的問題,在生產者無任何過錯的情況下,其不應當承擔侵權賠償責任,而強制保險或賠償基金就是為了在這種意外事件或者是不可抗力的案件中保護受害者的權益。但是,本文認為基金來源除了上述來源外,銷售者和使用者也應當負擔基金的一部分。本文認為基于危險性開啟理論而言,銷售者或者是使用者都要承擔一部分的風險。故可從他們交納的稅費中劃分出這部分基金金額。但是在這種也應當有國家技術支持的政策在,上文提出的生產者的責任時的賠償是否由生產者全部承擔的問題,本文認為為了支持技術發(fā)展,應由一部分的賠償基金幫助生產者承擔。但是該部分賠償基金的來源應當只由政府財政撥款或者是社會捐贈等公共性的來源。
三、結語
對于人工智能法律人格的研究,不是單純的民法問題,其涉及到諸多法律,如刑法、知識產權法、勞動法等等。我們不能僅僅從保護自身權益角度出發(fā)而關注人工智能的法律人格問題,如此一來,人工智能的權利保護問題如何解決,如勞動薪酬問題。盡管對于人工智能的知識產權問題歐盟和日本等方面的法律有所建議,但本文認為其保護的法益關乎知識產權社會的穩(wěn)定以及排他性的體現,并非是法律人格的問題。因此,人工智能在現代社會也只是作為工具的智慧型作品,而并不具有法律人格。
參考文獻:
[1]吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(西北政法大學學報),2017,35(05):128-136.
[2]杜嚴勇.論機器人的權利[J].哲學動態(tài),2015,(8):83 -89.
[3]張保生.人工智能法律系統的法理學思考[J].法學評論,2001(05):11-21.
[4]袁曾.人工智能有限法律人格審視[J].東方法學,2017(05):50-57.
[5]劉小璇,張虎.論人工智能的侵權責任[J].南京社會科學,2018(09):105-110+149.