王曉彤 康雯菁 王筱盈 楊潔倩
摘要:21世紀開始以來,隨著科學技術的不斷發(fā)展,人工智能的發(fā)展空間已經(jīng)變得更加廣闊。在航空航天、汽車制造、醫(yī)療、服務等多個領域都出現(xiàn)了人工智能的身影。與此同時,人工智能的廣泛應用也不可避免地引發(fā)了一系列的問題,產(chǎn)品侵權的情形不斷出現(xiàn),對我國現(xiàn)有的法律制度提出了挑戰(zhàn)。與傳統(tǒng)的侵權責任做對比可以發(fā)現(xiàn),人工智能產(chǎn)品的侵權責任問題更為復雜,如何利用現(xiàn)有的法律制度對其進行有效規(guī)制以及現(xiàn)有法律還存在哪些問題,本文以人工智能產(chǎn)品特殊性為出發(fā)點,解決上述問題,尋求我國法律在人工智能領域的更完善的方案。
關鍵詞:人工智能產(chǎn)品;侵權責任;歸責
2022年北京冬奧會的成功舉辦向世界展示了中國風采,同時奧運村中的一些人工智能產(chǎn)品例如吧臺機器人、炒菜機器人等引起了媒體廣泛關注。這也意味著人工智能產(chǎn)品的運用已經(jīng)逐漸走向普遍化,在服務、金融、醫(yī)療等領域當中人工智能的身影已經(jīng)不再陌生。然而在我國,人工智能產(chǎn)品侵權的問題還沒有明確的規(guī)定,只能將人工智能產(chǎn)品與普通產(chǎn)品視為一致,用《產(chǎn)品質量法》以及《民法典》侵權編的內容來處理。然而人工智能產(chǎn)品與普通產(chǎn)品有著較大的區(qū)別,無論是研發(fā)過程還是產(chǎn)品的使用方面,都比一般產(chǎn)品要更加復雜,如何處理人工智能產(chǎn)品侵權責任的問題亟待解決。
一、問題提出
(一)案例導入
案例1:2015年,在德國大眾汽車公司一個工廠里,一位人工智能技術員在安放機器人的時候,機器人突然擊中這個技術員的胸部,緊接著又將技術員抓起重重砸在金屬板上,最終技術員救治無效死亡。之后大眾公司發(fā)布聲明:機器人并沒有發(fā)生技術上的故障。
案例2:2016年,在第十八屆中國國際高新技術成果交易會上,一臺名叫小胖的機器人在沒有任何命指令示的情況下向展臺方向走去,隨后揮動手臂砸碎了玻璃,導致了部分展臺損壞、一人受傷。
案例3:2018年,在美國亞利桑納州坦貝市行駛的一輛優(yōu)步自動駕駛測試車突然發(fā)生故障,致人死亡。
在上述3個案例中,誰應該為事故負責?
(二)案例問題分析
在這三個經(jīng)典人工智能產(chǎn)品侵權案例之中,產(chǎn)品的法律地位、侵權責任的主體、案件適用的歸責原則等方面都值得深入討論與研究。
首先,要解決人工智能產(chǎn)品侵權的問題,就必須對人工智能產(chǎn)品做出一個界定。事實上,因為人工智能領域技術進步非常快,我們很難對其做出一個十分固化的定義。人工智能,也就是我們熟知的AI,是指研究用于模擬和擴展人類智能的技術、理論、方法以及應用的新興技術科學。而人工智能產(chǎn)品,是技術的外現(xiàn)、表現(xiàn)形式。因此我們可以將人工智能產(chǎn)品理解為:基于人工智能技術,能夠獨立于人類思考、決策并完成相應任務的機器。
明確什么是人工智能產(chǎn)品之后,就必須要面對它的法律地位問題,是把它當作一般產(chǎn)品,還是因為其“智能性”而將其歸為特殊的法律關系主體?如果將其作為主體來看,在侵權責任當中它如何獨立承擔責任?顯然這樣的觀點在實務當中很難實踐。那如果將其作為普通產(chǎn)品,當發(fā)生侵權時,哪些人應當成為歸責主體?是否是與《產(chǎn)品質量法》規(guī)定中一樣,由生產(chǎn)者和銷售者來承擔呢?產(chǎn)品的研發(fā)者以及消費者作為人工智能產(chǎn)品的受益者可以免責嗎?這些角色又該分別適用什么樣的歸責原則?
二、現(xiàn)有法律及存在的缺陷
(一)相關法律規(guī)定
目前,我國現(xiàn)行法律體系中沒有明確人工智能產(chǎn)品侵權的法律依據(jù),該問題的解決主要還是依靠于《民法典》以及《產(chǎn)品質量法》等相關規(guī)定,具體如下:
①《民法典》第一千二百零二條;②《民法典》第一千二百零三條;③《產(chǎn)品質量法》第四十一條。
人工智能產(chǎn)品與一般產(chǎn)品是存在較大差別的,當前沒有專門針對人工智能產(chǎn)品的法律規(guī)定,因此在相關問題的解決的上面臨著法律困境。
(二)對現(xiàn)有法律直接適用的問題分析
根據(jù)人工智能“獨立自主性”的程度不同,它被分為弱人工智能、強人工智能以及超人工智能三個階段,因此我們可以根據(jù)這樣的標準將人工智能產(chǎn)品也分為對應的三個階段:弱人工智能產(chǎn)品,即必須借助人類的幫助,通過人類的編程與設計而完成相應任務的產(chǎn)品;強人工智能產(chǎn)品即可以脫離人類的指令約束,可以根據(jù)不同環(huán)境的變化作出相應的判斷,可以自主感知并行動的產(chǎn)品。而超強機階段則對應著人們最害怕的情形,即人工智能已經(jīng)可以與人類平等共存的階段。 ??因為我國的人工智能發(fā)展在弱人工智能向強人工智能過渡的時期,因此我們不對超強時期做出討論。因為強人工智能產(chǎn)品已經(jīng)可以脫離人類而自主工作,因此必須討論它的法律人格問題。雖然已經(jīng)有不少學者贊同其具備獨立人格,但筆者認為在歸責問題上存在太多難度,因此不贊同人格說?!吨腥A人民共和國產(chǎn)品質量法》 第二條規(guī)定,“本法所稱產(chǎn)品是指經(jīng)過加工、制作,用于銷售的產(chǎn)品?!币虼?,這兩個階段的人工智能產(chǎn)品還是可以被視為經(jīng)過研發(fā)、生產(chǎn)、進入流通領域的用于銷售的產(chǎn)品。人工智能產(chǎn)品侵權適用產(chǎn)品責任是合理性的。人工智能產(chǎn)品的侵權基本上是因為設計缺陷、制造缺陷、警示缺陷等原因造成的,與一般產(chǎn)品問題類似。從責任承擔方式看,我國法定的產(chǎn)品責任承擔方式包括排除妨礙、消除危險、賠償損失,以及召回的補救方式,而這些都可以適用于人工智能侵權場合。
但產(chǎn)品責任并不能完全解決人工智能產(chǎn)品中的侵權問題。我國的產(chǎn)品責任無過錯責任。民法典第一千二百零二條規(guī)定:“因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應當承擔侵權責任?!?嚴格責任確實可以督促研發(fā)者、生產(chǎn)者盡最大努力保證人工智能產(chǎn)品的效用和安全。但是,因為人工智能的發(fā)展本身就比其它一般產(chǎn)品技術要更難一些,由于技術并沒有非常成熟,人工智能產(chǎn)品可能出現(xiàn)的問題是許多研發(fā)者無法預料到的,如果適用無過錯原則很有可能打擊人工智能產(chǎn)品研發(fā)者的積極性,不利于我國人工智能技術的發(fā)展。至少從現(xiàn)階段技術發(fā)展的程度來看,對人工智能產(chǎn)品的研發(fā)者采取無過錯責任原則是不合理的。此外,還有因果關系難以證明的問題。按照“誰主張誰舉證”的證明規(guī)則,受害者如果要主張受到人工智能產(chǎn)品的侵害,就必須舉證證明產(chǎn)品缺陷與損害結果之間具有因果關系。我國目前關于人工智能產(chǎn)品的質量標準還沒有統(tǒng)一規(guī)定可供參考。而且人工智能產(chǎn)品的問題大多是系統(tǒng)問題,這些是非專業(yè)人士難以指出的。gzslib202204012202三、人工智能產(chǎn)品的責任主體和歸責原則
根據(jù)《民法典》侵權責任編的規(guī)定,產(chǎn)品責任的主體是生產(chǎn)者和銷售者,然而考慮到人工智能產(chǎn)品的特殊性,筆者認為責任主體還應當包括產(chǎn)品的研發(fā)者。從挖制危險源的理論出發(fā),研發(fā)者是危險源頭的控制者,人工智能產(chǎn)品的研發(fā)者可以通過程序來減少產(chǎn)品致人損害的可能性。我們還應當將人工智能產(chǎn)品的所有者與使用者納入到責任主體范圍內,因為使用者是產(chǎn)品利益的直接受益者,對人工智能產(chǎn)品擁有最直接的支配權。
因此,下文將從人工智能產(chǎn)品的研發(fā)者、生產(chǎn)者和銷售者、使用者三個方面來討論歸責原則。
(一)研發(fā)者
在我國產(chǎn)品責任的法規(guī)當中,產(chǎn)品的研發(fā)者不是責任主體,但正如上文所述,因為人工智能的特殊性,我們需要將研發(fā)者納入到責任主體當中,但是也正因為研發(fā)者在其他一般產(chǎn)品當中并不負有產(chǎn)品責任,如果我們將其列為責任主體并對應無過錯責任原則,實在太過苛刻。因此人工智能產(chǎn)品的研發(fā)者作為責任主體,其歸責原則應以過錯責任為主的原則??梢哉f,人工智能技術的發(fā)展是無數(shù)研發(fā)者的功勞,同時因為技術受限,研發(fā)者很難確保產(chǎn)品在投入使用時不會出現(xiàn)任何問題。因此如果適用無過錯責任原則實在太過嚴苛,很有可能打擊研發(fā)者們的研究積極性,這顯然也是不利于我國人工智能技術發(fā)展,不利于更多人工智能產(chǎn)品改善我們生活的。
(二)生產(chǎn)者與銷售者
生產(chǎn)者是產(chǎn)品與服務的提供商,也是資本的集中者,所以必定要在責任分配中占據(jù)重要的地位。銷售者在人工智能產(chǎn)品領域的收益也是巨大的,因此也需要在責任分配當中扮演重要角色。在《產(chǎn)品質量法》當中對生產(chǎn)者與銷售者的責任有著明確的規(guī)定,他們都需要承擔無過錯責任。筆者認為在人工智能產(chǎn)品當中也應當繼續(xù)適用無過錯責任原則。也即在人工智能產(chǎn)品侵權責任問題當中,銷售者與生產(chǎn)者的責任與一般產(chǎn)品的侵權責任問題當中的處理方式相同。唯一不同的一點是,因為人工智能非常復雜,與它高收入高回報相對應的應該就是生產(chǎn)者與銷售者更高的注意義務。即在生產(chǎn)與銷售人工智能產(chǎn)品過程中,必須對于產(chǎn)品的質量以及可能存在的問題更加注意。
(三)使用者
在傳統(tǒng)產(chǎn)品責任當中,使用者即消費者是不需要成為責任主體的,但考慮到人工智能產(chǎn)品使用的復雜性以及現(xiàn)實案例中出現(xiàn)的問題。筆者認為使用者也應當為產(chǎn)品問題負責。大多數(shù)的人工智能產(chǎn)品操作難度并不高,但是也存在部分產(chǎn)品對消費者有一定的操作要求。如果是因為消費者在使用當中沒有認真閱讀使用說明,或者因為自己的大意造成了傷害,那么消費者就必須為自己的過錯負責。因此,在對使用者歸責時,應當與研發(fā)者一樣采取過錯責任原則。這樣可以在一定程度上提醒消費者嚴謹對待人工智能產(chǎn)品的使用。
結束語
人工智能產(chǎn)品侵權問題涉及到的主體包括研發(fā)者、生產(chǎn)者、銷售者、使用者等,針對不同的責任主體也應當適用不同的歸責原則。當然,除了優(yōu)化責任分擔,還應當合理引入強制保險制度、建立登記公示與強制召回制度、設立安全標準,以此來全面保護在人工智能產(chǎn)品侵權事件中被侵權人的利益,也能更好地保障人工智能技術的蓬勃發(fā)展。
參考文獻:
[1]張童:“人工智能產(chǎn)品致人損害民責任研宄”,載《社會科學》2018年第5期.
[2]黃瑩:“人工智能產(chǎn)品致人損害侵權責任問題研究”,載《南京理工大學學報》.(社會科學版)2019年10月第32卷第5期.
[3]王利明:“人工智能時代對民法學的的新挑戰(zhàn)”,載《東方法學》2018年第3期.
[4]吳漢東:“人工智能時代的制度安排與法律規(guī)制”,載《法律科學》(西北政法大孥學報)2017年第5期.
[5]陳莉:“人工智能產(chǎn)品民事主體資格及侵權責任研究”,載《武漢冶金管理干部學院學報》2018年6月第28卷第2期.
[6]劉小璇、張虎:“論人工智能的侵權責任”,載《南京社會科孥》2018年第9期.
[7][意]烏戈帕加羅:《誰為機器人的行為負責?》,王黎黎、張卉林譯,上海人民出版社2018年版.
作者簡介:
王曉彤(2001-),女,漢族,江蘇連云港,江蘇大學法學院本科在讀,民商法方向。
基金項目: