孟 翔
廣東尚堯律師事務(wù)所,廣東 佛山 528000
近年來,人工智能快速發(fā)展,在人們的工作和生活中廣泛應(yīng)用,在給人們帶來便利的同時(shí),相關(guān)侵權(quán)風(fēng)險(xiǎn)也在不斷增加。人工智能侵權(quán)的情形如何,法律對(duì)其如何認(rèn)定,誰承擔(dān)侵權(quán)責(zé)任等,在理論界和司法界都尚未統(tǒng)一。對(duì)此,本文試圖對(duì)人工智能本身和其責(zé)任形態(tài)進(jìn)行分類,從而試圖對(duì)人工智能侵權(quán)的責(zé)任承擔(dān)提供一種構(gòu)建思路。
所謂人工智能,是在達(dá)特茅斯會(huì)議中被第一次提出。[1]其表明,人類在智能化產(chǎn)業(yè)上進(jìn)入到了一個(gè)新階段。智能程度更高的產(chǎn)品已經(jīng)被生產(chǎn)出來,甚至它們可以無需人類的控制,獨(dú)立展開工作。
今天,人們?cè)谟懻撊斯ぶ悄艿臅r(shí)候,往往將人工智能區(qū)分為人工智能技術(shù)、人工智能實(shí)體兩個(gè)方面。所謂人工智能技術(shù),是對(duì)人工智能相關(guān)理論運(yùn)用于技術(shù)中,從而開發(fā)、拓展和應(yīng)用相應(yīng)技術(shù)的一門技術(shù)科學(xué)。[2]它的側(cè)重點(diǎn)在于將理論轉(zhuǎn)化為具體的手段、方法。相比之下,人工智能實(shí)體,則是人工智能技術(shù)運(yùn)用后所形成的具有外在表現(xiàn)形式的產(chǎn)品,是一種可視化物體。
人工智能技術(shù)是無形的,而人工智能實(shí)體是有形的。早前,人工智能技術(shù)雖然存在,卻并不能夠造成侵權(quán),造成侵權(quán)的往往是人工智能實(shí)體,它可能體現(xiàn)為技術(shù)運(yùn)用到實(shí)體上本身存在缺陷,也可能是實(shí)體在運(yùn)作中出現(xiàn)了錯(cuò)誤。當(dāng)人們一般談到人工智能侵權(quán)的時(shí)候,其實(shí)指的是人工智能實(shí)體的侵權(quán)行為。
人工智能根據(jù)其智能化程度可以分為三類:弱人工智能、強(qiáng)人工智能和超人工智能。[3]之所以對(duì)其進(jìn)行智能化分類,是為了判定人工智能在遇到問題的時(shí)候,是否能對(duì)其獨(dú)立認(rèn)知和單獨(dú)解決。
所謂弱人工智能,是通過程序預(yù)設(shè)的方式,讓其按照指定目的,在單一維度下,所進(jìn)行的一種智力仿真性質(zhì)的工作。它具有人類的某些基本特征,能對(duì)特定領(lǐng)域的問題進(jìn)行分析和解決,但是它的突出特性仍舊為輔助性,是作為輔助人們工作的某些環(huán)節(jié)而存在。它無法獨(dú)立展開工作,也對(duì)外部事物缺乏認(rèn)知、理解能力。雖然,弱人工智能表現(xiàn)出了某些人類屬性,但是它無法獨(dú)立認(rèn)知、分析和解決問題。
強(qiáng)人工智能具有認(rèn)知能力,能夠?qū)ν饨邕M(jìn)行學(xué)習(xí),能夠?qū)栴}獨(dú)立思考、分析和試圖解決。通過圖靈測(cè)試可以判定人工智能是否達(dá)到強(qiáng)人工智能的程度。圖靈測(cè)試的主要內(nèi)容,是讓被測(cè)試者向?qū)ο驛 和對(duì)象B 提問,然后辨別哪一個(gè)對(duì)象是真實(shí)的人,哪一個(gè)對(duì)象是人工智能。如果被測(cè)試者不能準(zhǔn)確發(fā)現(xiàn),就表明該人工智能已經(jīng)達(dá)到了強(qiáng)人工智能的程度。[4]強(qiáng)人工智能有一定可能性完全擺脫人類的控制,獨(dú)立展開工作。
超人工智能則表現(xiàn)為更勝人類一籌的智能程度。通俗而言,即人工智能超越了人類的智慧。雖然從目前的相關(guān)技術(shù)發(fā)展看,尚無法達(dá)到這一效果。但是人們普遍擔(dān)心,在未來這種情況很可能出現(xiàn)。
人們之所以對(duì)人工智能的智能程度進(jìn)行分類,是為了更好地判斷人工智能發(fā)生侵權(quán)行為的機(jī)理,以及在侵權(quán)責(zé)任承擔(dān)中,人工智能的法律地位和相關(guān)人是否承擔(dān)責(zé)任。
如上所述,人們對(duì)人工智能的智能化程度進(jìn)行分類,在此基礎(chǔ)上對(duì)人工智能的法律地位進(jìn)行了探討。
就人工智能是否能夠成為法律上的主體,相關(guān)觀點(diǎn)有肯定說和否定說兩類。肯定說的贊同者認(rèn)為,一旦人工智能的智能化程度已經(jīng)和人類相當(dāng)或者超越人類,即其有獨(dú)立的認(rèn)知、思考、判斷和決策能力,就應(yīng)當(dāng)被視為法律主體,承擔(dān)對(duì)應(yīng)義務(wù)。[5]對(duì)于人工智能能夠成為什么樣的法律主體,有人提出其可以類似公司法人,有人認(rèn)為它是被代理人,還有人認(rèn)為其可以被類比為限制民事行為能力人,所謂的“未成年人”,人類則是它的監(jiān)管人。
否定人工智能能夠成為法律主體的學(xué)者認(rèn)為,人工智能本質(zhì)上是人類輸入數(shù)據(jù)、設(shè)定程序所形成的產(chǎn)品,它雖然可以進(jìn)行一系列獨(dú)立行為,但不可能有法律人格,也就不可能成為法律主體。這也是學(xué)界當(dāng)下的通說。[6]一些學(xué)者認(rèn)為,人工智能就是機(jī)器,是技術(shù)的產(chǎn)物。另一類學(xué)者認(rèn)為,人工智能也不可能成為擬制的法律主體,因?yàn)槠浔举|(zhì)上受到人類控制,或者應(yīng)當(dāng)受到人類控制。人們不應(yīng)當(dāng)允許人工智能脫離人的控制,成為獨(dú)立主體。相關(guān)學(xué)者大多認(rèn)為,人工智能應(yīng)該作為法律客體存在。即便是強(qiáng)人工智能,也不應(yīng)當(dāng)擁有法律主體地位。因?yàn)椋谄湮茨軌虺^人類智慧,真正獨(dú)立之前,它的一切類人行為,哪怕外觀看起來和人類無異,都是對(duì)人類的一種模擬。此外,人工智能也欠缺獨(dú)立承擔(dān)責(zé)任的能力。
所謂侵權(quán)責(zé)任形態(tài),是侵權(quán)編中根據(jù)不同類型的侵權(quán)行為,行為人單獨(dú)或者彼此之間進(jìn)行責(zé)任分配的一種形式。[7]對(duì)其探討,有助于闡明人工智能可能承擔(dān)的侵權(quán)責(zé)任的形態(tài)。
人工智能如果能對(duì)侵權(quán)行為自己決定,那么人工智能就有承擔(dān)責(zé)任的可能性,此時(shí)人工智能在法律地位上可能有機(jī)會(huì)獨(dú)立承擔(dān)責(zé)任,這一責(zé)任即為人工智能的自己責(zé)任。不過從目前看,主流學(xué)說并不贊同這一責(zé)任形態(tài),因?yàn)槠洳毁澇扇斯ぶ悄転榉芍黧w,而認(rèn)為其只能為法律客體。如此,人工智能侵權(quán)下就只存在替代責(zé)任,即人工智能的開發(fā)者、生產(chǎn)者、使用者等相關(guān)人員,要對(duì)人工智能的侵權(quán)承擔(dān)責(zé)任。
人工智能的單獨(dú)侵權(quán)行為所導(dǎo)致的對(duì)應(yīng)侵權(quán)責(zé)任,即為單獨(dú)責(zé)任。如上所探討的,此時(shí)人工智能的開發(fā)者、生產(chǎn)者、使用者等相關(guān)人要根據(jù)具體情況和法律規(guī)定而承擔(dān)替代責(zé)任。但是,如果人工智能和其他人工智能或者民事主體共同實(shí)施了侵權(quán)行為,那么該共同侵權(quán)主體就要承擔(dān)共同的侵權(quán)責(zé)任。此時(shí),人工智能的相關(guān)主體要和其他真正的侵權(quán)行為人來共同承擔(dān)責(zé)任。相關(guān)情形會(huì)變得極為復(fù)雜,他們彼此之間可能形成連帶責(zé)任,也可能為按份責(zé)任。
共同侵權(quán)責(zé)任還可以繼續(xù)被區(qū)分為連帶責(zé)任和按份責(zé)任。一般而言,法律會(huì)對(duì)此進(jìn)行規(guī)定,從而人們能夠確定共同侵權(quán)責(zé)任是連帶責(zé)任還是按份責(zé)任。如果法律對(duì)此欠缺具體說明,一般情況下會(huì)推定為連帶責(zé)任。因?yàn)檫B帶責(zé)任對(duì)于共同侵權(quán)人的要求更為嚴(yán)格。但是,也有人指出,實(shí)際上人工智能不可能和其他人形成連帶責(zé)任或按份責(zé)任。因?yàn)楣餐謾?quán)行為必須有意思上的共謀,人工智能不是法律主體,欠缺獨(dú)立意思表達(dá)的可能,而如果為人工智能的開發(fā)者、生產(chǎn)者、使用者等利用人工智能和他人合謀共同實(shí)施侵權(quán)行為,則實(shí)際侵權(quán)行為人為這些民事主體本身,而不涉及人工智能。
所謂補(bǔ)償責(zé)任,是在行為人無過錯(cuò)情況下,基于公平原則而對(duì)受害人承擔(dān)部分補(bǔ)償?shù)囊环N責(zé)任。它適用公平原則,所以并不對(duì)所有損害進(jìn)行補(bǔ)償,而是基于一種公平的考量,讓受害人能夠從某種途徑獲得一定受償,而不至于完全孤立無援,得不到任何補(bǔ)償。補(bǔ)償責(zé)任的承擔(dān)基于法律的規(guī)定,實(shí)踐中典型情況為高空墜物。但是在人工智能領(lǐng)域是否能出現(xiàn)類似高空墜物的情形,有待進(jìn)一步研究。補(bǔ)充原則是在實(shí)際加害人無法完全賠償?shù)那闆r下,補(bǔ)充責(zé)任人在不足范圍內(nèi)提供補(bǔ)充賠償。補(bǔ)充責(zé)任往往是次要責(zé)任,而且只承擔(dān)賠償范圍的一部分。如果人工智能有自己獨(dú)立的財(cái)產(chǎn)可以補(bǔ)償給被侵權(quán)人,那么可以考慮由其他相關(guān)主體承擔(dān)補(bǔ)充責(zé)任。但是人工智能是否能有自己獨(dú)立的財(cái)產(chǎn),也是一個(gè)問題。
結(jié)合人工智能的智能化程度而言,筆者認(rèn)為,在弱人工智能的情況下,人工智能全無任何獨(dú)立承擔(dān)侵權(quán)責(zé)任的可能性,它是完全的客體,所以侵權(quán)責(zé)任必然由相關(guān)自然人承擔(dān),此時(shí)僅涉及相關(guān)自然人或其他民事主體的替代責(zé)任。相關(guān)自然人或其他民事主體的侵權(quán)責(zé)任的具體承擔(dān),則按照《民法典》侵權(quán)責(zé)任編中的相關(guān)規(guī)定。在強(qiáng)人工智能的情形下,如果人工智能仍舊在非自決狀態(tài)下,則其也仍舊和弱人工智能一樣,是法律客體,而非法律主體,實(shí)際承擔(dān)侵權(quán)責(zé)任的仍舊為相關(guān)自然人或者其他民事主體。
無法自決狀態(tài)下的人工智能發(fā)生“侵權(quán)行為”,此時(shí)其并非真正的侵權(quán)行為,因?yàn)檎嬲那謾?quán)行為的行為人主體實(shí)際上必須為民事法律主體。這里可以說,人工智能作為一種工具,被人們所利用而實(shí)施了侵權(quán)行為。非自決狀態(tài)下,一旦發(fā)生侵權(quán)情形,歸則原則為無過錯(cuò)責(zé)任,人工智能物的相關(guān)設(shè)計(jì)者、生產(chǎn)者、所有人是否對(duì)于人工智能物之行為存在過錯(cuò),在所不問。只要人工智能發(fā)生了“侵權(quán)行為”,就要承擔(dān)相應(yīng)的侵權(quán)責(zé)任。責(zé)任的主體依據(jù)情形有所不同。如果人工智能發(fā)生“侵權(quán)行為”是由于設(shè)計(jì)上的缺陷,則設(shè)計(jì)者為責(zé)任承擔(dān)主體;如果人工智能發(fā)生“侵權(quán)行為”是由于生產(chǎn)上的原因,則由生產(chǎn)者承擔(dān)責(zé)任;如果其系所有人未按照規(guī)定進(jìn)行操作,錯(cuò)誤操作引起了“侵權(quán)行為”,則由所有人承擔(dān)相應(yīng)責(zé)任。在無從判斷的情況下,可以采取推定的方式,例如對(duì)人工智能系統(tǒng)決策合理性的推定,對(duì)所有人是否能完整控制人工智能的能力推定,以及結(jié)果避免可能性的推定等。[8]在實(shí)在無法推定具體的承擔(dān)主體時(shí),可以讓三者共同承擔(dān)責(zé)任,或者讓最有可能的主體承擔(dān)責(zé)任。在責(zé)任承擔(dān)范圍上,既應(yīng)當(dāng)包括直接的財(cái)產(chǎn)損失,也應(yīng)當(dāng)適當(dāng)包括間接的財(cái)產(chǎn)損失,以及可能給被害人造成的精神損失。
如果強(qiáng)人工智能的智能化程度能夠真正達(dá)到自決狀態(tài),并且其具有自己的財(cái)產(chǎn),在法律能夠提供一定相關(guān)依據(jù)的情況下,強(qiáng)人工智能可以獨(dú)立以自己財(cái)產(chǎn)承擔(dān)責(zé)任,但是賠償不足的部分,應(yīng)當(dāng)由相關(guān)自然人或其他民事主體承擔(dān)相應(yīng)的補(bǔ)充責(zé)任。目前尚無法考慮超人工智能的情況。但是如果有一天真的出現(xiàn)人工智能在智力上全面超越人類,那么人工智能在侵權(quán)責(zé)任的承擔(dān)上完全無需再特殊化考慮,而可以直接等同于一類民事主體,受到侵權(quán)責(zé)任相關(guān)法律規(guī)定的直接規(guī)制。筆者認(rèn)為,如果強(qiáng)人工智能已經(jīng)具備自覺能力,并在自決狀態(tài)下實(shí)施了侵權(quán)行為,且其有自己的財(cái)產(chǎn),法律并無理由阻礙其如同法律主體承擔(dān)責(zé)任,而只需要設(shè)置相應(yīng)規(guī)定,在其無法充分承擔(dān)自己責(zé)任的情況下,明確承擔(dān)補(bǔ)充責(zé)任的主體。
人工智能如果能獨(dú)立承擔(dān)侵權(quán)責(zé)任,首先意味著其滿足了成為民事主體的條件。人工智能只有在民事法律體系中有主體資格,才能承擔(dān)自己的侵權(quán)責(zé)任。實(shí)際上,此時(shí),人工智能并不會(huì)動(dòng)搖現(xiàn)有的侵權(quán)編基礎(chǔ)和侵權(quán)責(zé)任構(gòu)成要件。[9]因?yàn)榇藭r(shí)人工智能可以被視為一個(gè)擬制民事主體,如法人和其他具有民事主體資格的非法人組織,能夠以自己的名義享有權(quán)利,承擔(dān)相應(yīng)義務(wù)。不過,考慮到人工智能在財(cái)產(chǎn)擁有上的不確定性,似乎更宜將其對(duì)應(yīng)為未成年人,在其自有財(cái)產(chǎn)無法完成足夠償付的情況下,其“監(jiān)護(hù)人”要承擔(dān)補(bǔ)充責(zé)任,從而使得受害人能夠充分受償。此時(shí),侵權(quán)責(zé)任主體為人工智能,但是補(bǔ)充責(zé)任主體為其所有人。在責(zé)任承擔(dān)范圍上,人工智能以其全部財(cái)產(chǎn)為限承擔(dān)侵權(quán)責(zé)任,如果人工智能財(cái)產(chǎn)不足,則由其所有人以自己的財(cái)產(chǎn)承擔(dān)相應(yīng)的補(bǔ)充責(zé)任。
現(xiàn)代社會(huì)中,人工智能發(fā)展尚未達(dá)到完全自決的程度,故而人工智能一旦發(fā)生“侵權(quán)行為”,本質(zhì)上其實(shí)應(yīng)當(dāng)由與其相關(guān)的民事法律主體承擔(dān)相應(yīng)侵權(quán)責(zé)任。人工智能的本質(zhì)是工具,是法律客體,而不能夠成為法律主體。但是,我們也要考慮到未來如果人工智能能夠獨(dú)立決策、高度智能化,在一些特定情況下可以成為法律主體,獨(dú)立承擔(dān)侵權(quán)責(zé)任。此時(shí),考慮到其自有財(cái)產(chǎn)的不確定性,在其獨(dú)立承擔(dān)責(zé)任范圍內(nèi)賠償不足的部分,應(yīng)當(dāng)由其所有人承擔(dān)補(bǔ)充責(zé)任。