摘 要:在人工智能生成內(nèi)容致人損害的情形下,過(guò)錯(cuò)是服務(wù)提供者承擔(dān)侵權(quán)責(zé)任的歸責(zé)事由。合理地認(rèn)定服務(wù)提供者的過(guò)錯(cuò),是有效平衡預(yù)防風(fēng)險(xiǎn)與鼓勵(lì)創(chuàng)新雙重價(jià)值目標(biāo)的關(guān)鍵。服務(wù)提供者過(guò)錯(cuò)的本質(zhì)是其違反了交往安全義務(wù)或注意義務(wù)。在認(rèn)定標(biāo)準(zhǔn)上,應(yīng)采取動(dòng)態(tài)的“合理人”標(biāo)準(zhǔn),結(jié)合技術(shù)水平、服務(wù)類型與侵權(quán)內(nèi)容等維度,分析特定情境下合理的、謹(jǐn)慎的服務(wù)提供者應(yīng)盡的注意義務(wù)。服務(wù)提供者的注意義務(wù)主要包括語(yǔ)料處理義務(wù)、對(duì)齊微調(diào)義務(wù)、內(nèi)容審查義務(wù)、內(nèi)容標(biāo)識(shí)義務(wù)和用戶管理義務(wù),若服務(wù)提供者未能合理地履行這些義務(wù),則應(yīng)認(rèn)定為具有過(guò)錯(cuò),需對(duì)生成內(nèi)容致人損害的行為承擔(dān)侵權(quán)責(zé)任。服務(wù)提供者侵權(quán)責(zé)任的認(rèn)定應(yīng)類推適用“通知規(guī)則”,這不僅有利于實(shí)現(xiàn)服務(wù)提供者與權(quán)利人之間的利益平衡,還可以減輕權(quán)利人證明服務(wù)提供者過(guò)錯(cuò)的舉證負(fù)擔(dān)。
關(guān)鍵詞:生成式人工智能;服務(wù)提供者;過(guò)錯(cuò);注意義務(wù);通知規(guī)則
中圖分類號(hào):DF526
文獻(xiàn)標(biāo)志碼:A
DOI:10.3969/j.issn.1001-2397.2024.06.10
以ChatGPT為代表的生成式人工智能給侵權(quán)責(zé)任法帶來(lái)了新問(wèn)題。①其生成的虛假信息、有害信息或者其他侵權(quán)內(nèi)容,可能會(huì)對(duì)他人的人身或者財(cái)產(chǎn)造成損害,引發(fā)侵權(quán)糾紛。②這些侵權(quán)內(nèi)容在很多時(shí)候是由人工智能系統(tǒng)自主生成的,但人工智能并非法律意義上的責(zé)任主體,無(wú)法承擔(dān)侵權(quán)責(zé)任?!緟⒁娳w萬(wàn)一:《機(jī)器人的法律主體地位辨析——兼談對(duì)機(jī)器人進(jìn)行法律規(guī)制的基本要求》,載《貴州民族大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2018年第3期,第158頁(yè);楊立新:《人工類人格:智能機(jī)器人的民法地位——兼論智能機(jī)器人致人損害的民事責(zé)任》,載《求是學(xué)刊》2018年第4期,第92頁(yè)?!恳虼?,許多觀點(diǎn)主張由生成式人工智能服務(wù)提供者(以下簡(jiǎn)稱服務(wù)提供者)來(lái)承擔(dān)生成內(nèi)容致人損害的侵權(quán)責(zé)任?!維ee Mihailis E.Diamantis,Vicarious Liability for AI,99Indiana Law Journal317,319(2023).】通過(guò)對(duì)服務(wù)提供者施加侵權(quán)責(zé)任,既可以填補(bǔ)受害者的損失,又可以激勵(lì)服務(wù)提供者采取措施防止侵權(quán)內(nèi)容產(chǎn)生,實(shí)現(xiàn)預(yù)防風(fēng)險(xiǎn)的目標(biāo)。然而,服務(wù)提供者往往也是創(chuàng)新生成式人工智能技術(shù)的主體,對(duì)服務(wù)提供者施加過(guò)重的侵權(quán)責(zé)任,可能會(huì)增加其運(yùn)營(yíng)成本,限制其行為自由,從而對(duì)創(chuàng)新產(chǎn)生不利影響。因此,如何合理地界定服務(wù)提供者的侵權(quán)責(zé)任,在預(yù)防風(fēng)險(xiǎn)和鼓勵(lì)創(chuàng)新的雙重價(jià)值目標(biāo)之間保持平衡,是生成式人工智能發(fā)展給侵權(quán)責(zé)任法帶來(lái)的新挑戰(zhàn)。
應(yīng)對(duì)這一挑戰(zhàn)的關(guān)鍵在于服務(wù)提供者過(guò)錯(cuò)的認(rèn)定。過(guò)錯(cuò)是服務(wù)提供者承擔(dān)侵權(quán)責(zé)任的歸責(zé)事由,能否合理地認(rèn)定服務(wù)提供者的過(guò)錯(cuò),將決定法律能否有效地平衡預(yù)防風(fēng)險(xiǎn)與鼓勵(lì)創(chuàng)新的雙重價(jià)值目標(biāo)。有鑒于此,筆者擬對(duì)人工智能生成內(nèi)容致人損害情形下服務(wù)提供者過(guò)錯(cuò)的認(rèn)定問(wèn)題進(jìn)行探討,以求合理地界定其過(guò)錯(cuò)的范圍。
一、服務(wù)提供者過(guò)錯(cuò)認(rèn)定的原理與方法
學(xué)界的主流觀點(diǎn)認(rèn)為,在人工智能生成內(nèi)容致人損害的情形下,服務(wù)提供者應(yīng)承擔(dān)過(guò)錯(cuò)責(zé)任?!緟⒁娡趵鳎骸渡墒饺斯ぶ悄芮謾?quán)的法律應(yīng)對(duì)》,載《中國(guó)應(yīng)用法學(xué)》2023年第5期,第32-34頁(yè);周學(xué)峰:《生成式人工智能侵權(quán)責(zé)任探析》,載《比較法研究》2023年第4期,第117-131頁(yè)?!康杂猩贁?shù)觀點(diǎn)主張,服務(wù)提供者承擔(dān)侵權(quán)責(zé)任不以過(guò)錯(cuò)為要件,即服務(wù)提供者應(yīng)承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任?!緟⒁夾riat Lior,AI Strict Liability Vis-à-vis AI Monopolization,22Columbia Science and Technology Law Review90,91(2020);徐偉:《生成式人工智能服務(wù)提供者侵權(quán)歸責(zé)原則之辨》,載《法制與社會(huì)發(fā)展》2024年第3期,第190-204頁(yè);王兆藝:《人工智能生成內(nèi)容的侵權(quán)風(fēng)險(xiǎn)及其規(guī)制路徑——以ChatGPT為例》,載《娛樂法內(nèi)參》2023年第4期,第8-10頁(yè)?!科渲饕碛捎卸阂皇浅袚?dān)無(wú)過(guò)錯(cuò)責(zé)任不僅可以引導(dǎo)服務(wù)提供者采取合理的防范措施,還能促使其控制風(fēng)險(xiǎn)活動(dòng)的規(guī)?;蝾l率;二是無(wú)過(guò)錯(cuò)責(zé)任可以解決生成式人工智能帶來(lái)的信息不對(duì)稱問(wèn)題,降低受害者舉證的難度和法官判斷過(guò)錯(cuò)的信息成本。筆者認(rèn)為,在人工智能生成內(nèi)容致人損害的情形下,服務(wù)提供者侵權(quán)責(zé)任的認(rèn)定仍應(yīng)以過(guò)錯(cuò)為要件,理由如下:第一,對(duì)服務(wù)提供者適用無(wú)過(guò)錯(cuò)責(zé)任的主要理由并不具有說(shuō)服力。首先,提供生成式人工智能服務(wù)在絕大多數(shù)情形下并非高風(fēng)險(xiǎn)活動(dòng),沒有必要適用無(wú)過(guò)錯(cuò)責(zé)任來(lái)控制服務(wù)提供者的活動(dòng)規(guī)?;蝾l率。【參見王若冰:《論生成式人工智能侵權(quán)中服務(wù)提供者過(guò)錯(cuò)的認(rèn)定——以“現(xiàn)有技術(shù)水平”為標(biāo)準(zhǔn)》,載《比較法研究》2023年第5期,第21頁(yè)?!科浯?,生成式人工智能帶來(lái)的信息不對(duì)稱問(wèn)題也無(wú)法證明適用無(wú)過(guò)錯(cuò)責(zé)任的必要性,因?yàn)橐环矫?,受害者舉證困難的問(wèn)題可以通過(guò)適用“通知規(guī)則”等方式加以緩解;另一方面,適用無(wú)過(guò)錯(cuò)責(zé)任在降低法官判斷過(guò)錯(cuò)的信息成本方面的效果也相對(duì)有限,因?yàn)樵谶m用無(wú)過(guò)錯(cuò)責(zé)任的情形下,法官往往需要判斷用戶是否存在過(guò)錯(cuò),以確認(rèn)服務(wù)提供者能否主張與有過(guò)失的抗辯?!具@時(shí),法官不但需要判斷用戶的過(guò)錯(cuò),而且也需要知道服務(wù)提供者應(yīng)盡的注意義務(wù),由此才能確定用戶應(yīng)盡的注意義務(wù)。參見\[美\]斯蒂文·沙維爾:《法律經(jīng)濟(jì)分析的基礎(chǔ)理論》,趙海怡、史冊(cè)、寧?kù)o波譯,中國(guó)人民大學(xué)出版社2013年版,第168頁(yè)。】第二,從平衡預(yù)防風(fēng)險(xiǎn)和鼓勵(lì)創(chuàng)新的角度來(lái)看,適用過(guò)錯(cuò)責(zé)任有諸多優(yōu)勢(shì)。首先,過(guò)錯(cuò)責(zé)任可以激勵(lì)服務(wù)提供者和受害者均采取合理的防范措施來(lái)預(yù)防風(fēng)險(xiǎn),但在適用無(wú)過(guò)錯(cuò)責(zé)任的情形下,由于受害者遭受的損害可以得到服務(wù)提供者的完全賠償,故其可能不會(huì)采取合理的注意?!井?dāng)然,如果允許服務(wù)提供者以與有過(guò)失為由進(jìn)行抗辯,可以在一定程度上鼓勵(lì)用戶采取合理的注意,但如上文所述,這也犧牲了無(wú)過(guò)錯(cuò)責(zé)任在信息成本方面的優(yōu)勢(shì)。See Steven Shavell,Economic Analysis of Accident Law,Harvard University Press,1987,p.11.】其次,過(guò)錯(cuò)責(zé)任使服務(wù)提供者免于承擔(dān)過(guò)重的責(zé)任,更有利于促進(jìn)生成式人工智能的發(fā)展與創(chuàng)新。要求服務(wù)提供者承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任,會(huì)增加其運(yùn)營(yíng)成本,這一方面會(huì)提高生成式人工智能市場(chǎng)的進(jìn)入壁壘,不利于具有創(chuàng)新活力的中小企業(yè)發(fā)展【See Yavar Bathaee,The Artificial Intelligence Black Box and the Failure of Intent and Causation,31Harvard Journal of Law and Technology889,932(2018).】;另一方面會(huì)導(dǎo)致服務(wù)提供者為了避免潛在的責(zé)任風(fēng)險(xiǎn)而選擇控制服務(wù)規(guī)模,抑制生成式人工智能創(chuàng)新迭代的速度。而在適用過(guò)錯(cuò)責(zé)任的情形下,只要服務(wù)提供者采取合理的防范措施,就可以免于承擔(dān)侵權(quán)責(zé)任,這樣既能夠減少損害的發(fā)生,又能避免服務(wù)提供者承擔(dān)過(guò)重的責(zé)任,從而在預(yù)防風(fēng)險(xiǎn)與鼓勵(lì)創(chuàng)新之間取得有效的平衡。
在確認(rèn)服務(wù)提供者應(yīng)承擔(dān)過(guò)錯(cuò)責(zé)任的基礎(chǔ)上,服務(wù)提供者過(guò)錯(cuò)的認(rèn)定便成為平衡預(yù)防風(fēng)險(xiǎn)與鼓勵(lì)創(chuàng)新雙重價(jià)值目標(biāo)的關(guān)鍵。如果過(guò)錯(cuò)的認(rèn)定范圍過(guò)窄,服務(wù)提供者將缺乏足夠的動(dòng)力來(lái)采取合理的防范措施,無(wú)法有效地防范生成內(nèi)容帶來(lái)的損害風(fēng)險(xiǎn);而如果過(guò)錯(cuò)的認(rèn)定范圍過(guò)寬,服務(wù)提供者將承擔(dān)過(guò)重的責(zé)任,不利于鼓勵(lì)創(chuàng)新目標(biāo)的實(shí)現(xiàn)。合理界定服務(wù)提供者的過(guò)錯(cuò)范圍,首先需要探討其過(guò)錯(cuò)認(rèn)定的原理與方法,即回答兩個(gè)方面的問(wèn)題:第一,何為服務(wù)提供者的過(guò)錯(cuò)?第二,何以認(rèn)定服務(wù)提供者的過(guò)錯(cuò)?
(一)何為過(guò)錯(cuò):違反交往安全義務(wù)或注意義務(wù)
生成式人工智能的出現(xiàn)帶來(lái)了巨大的網(wǎng)絡(luò)信息內(nèi)容風(fēng)險(xiǎn)。一方面,生成式人工智能會(huì)自主地生成虛假信息、有害信息或者其他侵權(quán)內(nèi)容,對(duì)他人的人身和財(cái)產(chǎn)造成損害。另一方面,生成式人工智能強(qiáng)大的生成能力,既降低了侵權(quán)內(nèi)容的制作成本,也增加了侵權(quán)內(nèi)容的識(shí)別難度,為他人從事侵權(quán)活動(dòng)提供了有力工具?!緟⒁娎钽戃?、文繼榮:《AIGC時(shí)代網(wǎng)絡(luò)信息內(nèi)容的法律治理——以大語(yǔ)言模型為例》,載《北京理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第6期,第87頁(yè)。】服務(wù)提供者向公眾提供生成式人工智能服務(wù),實(shí)質(zhì)上是制造和維持了一個(gè)特定的危險(xiǎn)源,作為危險(xiǎn)源的開啟和控制者,服務(wù)提供者在理論上負(fù)有一定的作為義務(wù),即交往安全義務(wù)或注意義務(wù)。
交往安全義務(wù)這一概念源自德國(guó)民法理論,是指“開啟或維持特定危險(xiǎn)源的人應(yīng)采取一切合理的防范措施,以保護(hù)他人免受損害的義務(wù)”【班天可:《安全保障義務(wù)的邊界——以多伊奇教授對(duì)交往安全義務(wù)的類型論為視角》,載《中德法學(xué)論壇》2017年第2期,第172頁(yè)?!?。這一理論的建立主要是為了解決不作為侵權(quán)的問(wèn)題?!緟⒁婑T玨:《安全保障義務(wù)與不作為侵權(quán)》,載《法學(xué)研究》2009年第4期,第63-67頁(yè)?!拷煌踩x務(wù)最初用于規(guī)制物理空間的安全問(wèn)題,后來(lái)德國(guó)法院將其適用擴(kuò)展至網(wǎng)絡(luò)空間,確立了網(wǎng)絡(luò)服務(wù)提供者的交往安全義務(wù)?!緟⒁妱⑽慕埽骸毒W(wǎng)絡(luò)服務(wù)提供者的安全保障義務(wù)》,載《中外法學(xué)》2012年第2期,第400-401頁(yè)?!课覈?guó)也有不少學(xué)者運(yùn)用交往安全義務(wù)理論來(lái)解釋網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責(zé)任規(guī)則。【參見劉文杰:《網(wǎng)絡(luò)服務(wù)提供者的安全保障義務(wù)》,載《中外法學(xué)》2012年第2期,第395-410頁(yè);王思源:《論網(wǎng)絡(luò)運(yùn)營(yíng)者的安全保障義務(wù)》,載《當(dāng)代法學(xué)》2017年第1期,第27-37頁(yè)?!侩S著理論和實(shí)踐的發(fā)展,交往安全義務(wù)呈現(xiàn)不斷擴(kuò)張的趨勢(shì)?!緟⒁娭苡衍姡骸段覈?guó)侵權(quán)法上作為義務(wù)的擴(kuò)張》,載《法學(xué)》2008年第2期,第92-101頁(yè);劉召成:《安全保障義務(wù)的擴(kuò)展適用與違法性判斷標(biāo)準(zhǔn)的發(fā)展》,載《法學(xué)》2014年第5期,第69-79頁(yè)?!坎贿^(guò),“危險(xiǎn)源監(jiān)控型”義務(wù)一直是交往安全義務(wù)的重心,是“交往安全義務(wù)產(chǎn)生的嚆矢”【班天可:《安全保障義務(wù)的邊界——以多伊奇教授對(duì)交往安全義務(wù)的類型論為視角》,載《中德法學(xué)論壇》2017年第2期,第172-173頁(yè)?!?。在英美民法理論中,與交往安全義務(wù)相類似的概念是注意義務(wù)?!爱?dāng)原告與被告之間存在某種特殊關(guān)系,或者被告是某種危險(xiǎn)源的開啟者時(shí),被告就對(duì)原告負(fù)有注意義務(wù)?!薄军S薇主編:《中華人民共和國(guó)民法典釋義(下):人格權(quán)編·婚姻家庭編·繼承編·侵權(quán)責(zé)任編·附則》,法律出版社2020年版,第2323頁(yè)?!坑⒚婪ㄉ系南嚓P(guān)判例也指出,注意義務(wù)的主要來(lái)源有二:一是行為人創(chuàng)造了一個(gè)危險(xiǎn)源;二是行為人對(duì)受害人負(fù)有責(zé)任或受其信賴。【參見汪倪杰:《論〈民法典〉視域下安全保障義務(wù)的邊界——對(duì)第140、141號(hào)指導(dǎo)案例的理論回應(yīng)》,載《法商研究》2022年第6期,第120頁(yè)?!坑纱丝梢?,與交往安全義務(wù)的理論類似,對(duì)危險(xiǎn)源的開啟與控制也是產(chǎn)生注意義務(wù)的來(lái)源之一。
無(wú)論是交往安全義務(wù)理論還是注意義務(wù)理論,均可以在理論上證成,作為生成式人工智能這一危險(xiǎn)源的開啟和控制者,服務(wù)提供者應(yīng)負(fù)有采取合理的防范措施以保護(hù)他人免受損害的作為義務(wù)。若服務(wù)提供者違反其負(fù)有的交往安全義務(wù)或注意義務(wù),則其具有過(guò)錯(cuò),應(yīng)當(dāng)對(duì)人工智能生成內(nèi)容致人損害的結(jié)果承擔(dān)過(guò)錯(cuò)責(zé)任?!居械聡?guó)學(xué)者就曾明確指出:“違反交往安全義務(wù),也是過(guò)失內(nèi)容的另一種表現(xiàn)?!盫on Tuhr,Der allgememer Teil des Deutschen Bürgerlichen Rechts2Bd.2Halfte.1918,S.488.我國(guó)也有學(xué)者指出,我國(guó)法上對(duì)違反安全保障義務(wù)的責(zé)任沒有明確過(guò)錯(cuò)要件,實(shí)際上就是認(rèn)為違反安全保障義務(wù)本身就意味著過(guò)錯(cuò)。參見王利明、周友軍、高圣平:《中國(guó)侵權(quán)責(zé)任法教程》,人民法院出版社2010年版,第436頁(yè)。】因此,在人工智能生成內(nèi)容致人損害的情形下,服務(wù)提供者過(guò)錯(cuò)認(rèn)定的本質(zhì),就是判斷服務(wù)提供者是否違反其應(yīng)盡的交往安全義務(wù)或注意義務(wù)。
(二)何以認(rèn)定過(guò)錯(cuò):動(dòng)態(tài)的“合理人”標(biāo)準(zhǔn)
過(guò)錯(cuò)是行為人的一種可歸責(zé)的主觀心理狀態(tài),但對(duì)過(guò)錯(cuò)的認(rèn)定往往采取客觀標(biāo)準(zhǔn)。一般情形下,法官主要是依據(jù)行為人是否違反合理人的注意義務(wù)來(lái)認(rèn)定過(guò)錯(cuò)。無(wú)論是大陸法的“善良管理人”(bonus pater familias)標(biāo)準(zhǔn),還是英美法的“合理人”(reasonable man)標(biāo)準(zhǔn),其實(shí)都是以一個(gè)合理人的注意義務(wù)作為客觀標(biāo)準(zhǔn)來(lái)判斷行為人是否具有過(guò)錯(cuò)?!緟⒁娡趵?、周友軍、高圣平:《中國(guó)侵權(quán)責(zé)任法教程》,人民法院出版社2010年版,第215頁(yè)?!俊昂侠砣说淖⒁饬x務(wù)”,即一個(gè)合理的、謹(jǐn)慎的一般人在特定情況下應(yīng)當(dāng)達(dá)到的注意程度。根據(jù)該標(biāo)準(zhǔn),判斷行為人是否有過(guò)錯(cuò)主要看一般人在相同情況下會(huì)做出何種行為,如果一般人會(huì)做出與行為人同樣的行為,那么行為人就沒有過(guò)錯(cuò)。根據(jù)這一標(biāo)準(zhǔn),在人工智能生成內(nèi)容致人損害的情形下,法官需要考慮一個(gè)“合理的服務(wù)提供者”會(huì)做出何種行為。如果服務(wù)提供者未能盡到一個(gè)合理的、謹(jǐn)慎的服務(wù)提供者應(yīng)盡的注意義務(wù),那么就應(yīng)當(dāng)認(rèn)定其存在過(guò)錯(cuò)。
那么應(yīng)如何確定合理人的注意義務(wù)?筆者認(rèn)為,合理人標(biāo)準(zhǔn)是一個(gè)抽象的標(biāo)準(zhǔn),必須根據(jù)案件的特定情境來(lái)具化行為的標(biāo)準(zhǔn)。具體而言,需要結(jié)合案件的特定情境,分析一個(gè)合理的、謹(jǐn)慎的一般人會(huì)采取哪些防范措施。這往往需要進(jìn)一步分析采取防范措施的成本與收益,如果采取防范措施能以較小的成本極大地降低風(fēng)險(xiǎn)發(fā)生的概率,那么一個(gè)合理的、謹(jǐn)慎的一般人就應(yīng)當(dāng)采取該防范措施,否則即應(yīng)當(dāng)認(rèn)定其具有過(guò)錯(cuò)。這一分析思路的理論化表述便是漢德公式。在“美國(guó)訴凱洛拖輪公司案”中,漢德法官提出了這一過(guò)錯(cuò)認(rèn)定的著名公式:若發(fā)生損害的概率為P,損害為L(zhǎng),預(yù)防成本為B,則在B<P×L時(shí),加害人具有過(guò)錯(cuò)?!維ee United States v.Carroll Towing Co.,159F.2d169(2d Cir.1947).】漢德法官?zèng)]有明確說(shuō)明這些變量是指邊際值還是總值,經(jīng)濟(jì)學(xué)家將其發(fā)展為更加準(zhǔn)確的邊際漢德公式,即“若施害人的邊際預(yù)防成本低于相應(yīng)的邊際收益,那么他就負(fù)有過(guò)失責(zé)任”【\[美\]羅伯特·考特、托馬斯·尤倫:《法和經(jīng)濟(jì)學(xué)》(第6版),史晉川、董雪兵等譯,史晉川審校,格致出版社2012年版,第203頁(yè)?!俊_@一公式經(jīng)常被學(xué)者或者法官(特別是美國(guó)法官)用作認(rèn)定過(guò)錯(cuò)的標(biāo)準(zhǔn)。
生成式人工智能具有創(chuàng)新性的特點(diǎn)。生成式人工智能的相關(guān)技術(shù)、應(yīng)用場(chǎng)景和商業(yè)模式仍處在不斷發(fā)展之中,并呈現(xiàn)出豐富多樣的形態(tài)。這也導(dǎo)致在過(guò)錯(cuò)認(rèn)定的過(guò)程中,難以形成一個(gè)統(tǒng)一、靜態(tài)的“合理的服務(wù)提供者”標(biāo)準(zhǔn)。因此,對(duì)服務(wù)提供者過(guò)錯(cuò)的認(rèn)定應(yīng)采取動(dòng)態(tài)的“合理人”標(biāo)準(zhǔn)。法院應(yīng)當(dāng)結(jié)合具體的情境,綜合考慮各種因素,分析一個(gè)合理的、謹(jǐn)慎的服務(wù)提供者在此種情境下應(yīng)當(dāng)采取何種防范措施,從而確定其是否存在過(guò)錯(cuò)。這些因素主要可以從技術(shù)水平、服務(wù)類型和侵權(quán)性質(zhì)三個(gè)維度加以歸納。
第一,技術(shù)水平維度。技術(shù)總是不斷變化和發(fā)展的。技術(shù)的變化和發(fā)展會(huì)影響采取防范措施的成本收益,從而改變服務(wù)提供者應(yīng)盡的注意義務(wù)程度。網(wǎng)絡(luò)服務(wù)提供者注意義務(wù)的發(fā)展便是一個(gè)很好的示例。在互聯(lián)網(wǎng)發(fā)展的初期,由于網(wǎng)絡(luò)服務(wù)提供者監(jiān)控用戶上傳內(nèi)容的成本較高,許多國(guó)家和地區(qū)僅對(duì)網(wǎng)絡(luò)服務(wù)提供者施加有限的注意義務(wù),產(chǎn)生了以“安全港規(guī)則”為代表的責(zé)任限制規(guī)則?!緟⒁姶迖?guó)斌:《網(wǎng)絡(luò)服務(wù)商共同侵權(quán)制度之重塑》,載《法學(xué)研究》2013年第4期,第138-142頁(yè)?!咳欢S著內(nèi)容識(shí)別和過(guò)濾技術(shù)的發(fā)展,網(wǎng)絡(luò)服務(wù)提供者審核其平臺(tái)內(nèi)容的成本逐漸降低,針對(duì)其設(shè)置的注意義務(wù)規(guī)則也在不斷強(qiáng)化。例如,歐盟《數(shù)字單一市場(chǎng)版權(quán)指令》第17條對(duì)在線內(nèi)容分享服務(wù)商施加了版權(quán)內(nèi)容過(guò)濾義務(wù)【參見譚洋:《在線內(nèi)容分享服務(wù)提供商的一般過(guò)濾義務(wù)——基于〈歐盟數(shù)字化單一市場(chǎng)版權(quán)指令〉》,載《知識(shí)產(chǎn)權(quán)》2019年第6期,第66-80頁(yè);曾?。骸墩摗礆W盟版權(quán)改革指令〉第17條對(duì)中國(guó)在線內(nèi)容分享平臺(tái)責(zé)任的啟示》,載《德國(guó)研究》2020年第3期,第125-141、163-164頁(yè)?!浚幻绹?guó)也在考慮進(jìn)一步強(qiáng)化網(wǎng)絡(luò)服務(wù)商的義務(wù)?!緟⒁娎钽戃帲骸睹绹?guó)網(wǎng)絡(luò)版權(quán)法改革的新動(dòng)向及啟示——以網(wǎng)絡(luò)服務(wù)商的義務(wù)為中心》,載《電子知識(shí)產(chǎn)權(quán)》2021年第12期,第30-40頁(yè)?!炕诨ヂ?lián)網(wǎng)時(shí)代的經(jīng)驗(yàn),隨著技術(shù)的不斷發(fā)展,服務(wù)提供者利用技術(shù)解決生成內(nèi)容侵權(quán)問(wèn)題的成本和收益可能會(huì)發(fā)生變化,需要根據(jù)技術(shù)的發(fā)展現(xiàn)狀來(lái)調(diào)整過(guò)錯(cuò)認(rèn)定的標(biāo)準(zhǔn)。【參見徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例》,載《法律科學(xué)》2023年第4期,第79-80頁(yè)?!?/p>
第二,服務(wù)類型維度。作為采取防范措施的主體,不同類型的服務(wù)提供者在采取特定措施時(shí)的成本收益不盡相同。特別是,服務(wù)提供者提供服務(wù)的性質(zhì)或者方式會(huì)影響到服務(wù)提供者的信息管理能力。首先,服務(wù)提供者是否自己訓(xùn)練模型將決定其是否可以采取模型訓(xùn)練階段所能采取的措施。如果服務(wù)提供者是直接利用他人的模型來(lái)提供服務(wù),如通過(guò)可編程接口調(diào)用他人的模型,此時(shí)服務(wù)提供者無(wú)法介入模型的訓(xùn)練,那么一般認(rèn)為其并不具有在訓(xùn)練階段采取措施的義務(wù)。在“上海新創(chuàng)華文化發(fā)展有限公司與被告AI公司網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案”(以下簡(jiǎn)稱“上海新創(chuàng)華案”)中,被告通過(guò)可編程接口接入第三方的模型向用戶提供生成式人工智能服務(wù),生成侵害原告著作權(quán)的圖片,原告要求被告停止生成侵權(quán)圖片,并將案涉數(shù)據(jù)從訓(xùn)練數(shù)據(jù)中刪除。法院判決被告采取措施停止生成侵權(quán)圖片,但并未支持原告所提出的刪除數(shù)據(jù)的訴求,因?yàn)椤氨桓娌⑽磳?shí)際進(jìn)行模型訓(xùn)練行為”?!緟⒁姀V州互聯(lián)網(wǎng)法院(2024)粵0192民初113號(hào)民事判決書。】其次,服務(wù)提供者提供服務(wù)的方式也會(huì)影響其可能采取的措施。《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《暫行辦法》)第22條規(guī)定,生成式人工智能服務(wù)提供者既可以直接向用戶提供生成服務(wù),也可以向開發(fā)者提供可編程接口等服務(wù)。例如,OpenAI公司不僅直接向用戶提供ChatGPT這樣的聊天機(jī)器人服務(wù),還向開發(fā)者提供其模型的API,允許開發(fā)者使用其模型開發(fā)新的應(yīng)用。在服務(wù)提供者向開發(fā)者提供API供其開發(fā)應(yīng)用的情形下,服務(wù)提供者一般無(wú)法直接管理應(yīng)用端的用戶。但在服務(wù)提供者直接向用戶提供服務(wù)的情形下,其管理用戶的難度相對(duì)較低,有義務(wù)采取更多的措施來(lái)預(yù)防用戶的惡意行為。
第三,侵權(quán)性質(zhì)維度。生成內(nèi)容的類型、侵權(quán)的明顯程度以及侵權(quán)的頻率等也會(huì)影響采取防范措施的成本收益,特別是影響識(shí)別侵權(quán)內(nèi)容的成本。首先,識(shí)別不同類型生成內(nèi)容的難度不同。以個(gè)人信息、有害信息和虛假信息這三類生成內(nèi)容為例,從識(shí)別的難度上看,格式特征最為明顯的個(gè)人信息(如郵箱地址、IP地址、電話號(hào)碼等)的識(shí)別難度最低,可以采取基于規(guī)則的方法,如關(guān)鍵字識(shí)別,來(lái)檢測(cè)大多數(shù)的個(gè)人信息并予以攔截和刪除?!緟⒁姸澎o、楊軍:《互聯(lián)網(wǎng)海量數(shù)據(jù)中用戶關(guān)鍵信息準(zhǔn)確識(shí)別仿真》,載《計(jì)算機(jī)仿真》2018年第5期,第258-261頁(yè)?!孔R(shí)別難度次之的是特征較為明顯、類型相對(duì)有限的有害信息,可以使用有害信息的數(shù)據(jù)訓(xùn)練出高效的分類算法,有效地識(shí)別與訓(xùn)練數(shù)據(jù)類似的有害信息。識(shí)別難度最高的是虛假信息,這類信息的類型與特征難以窮盡,即便使用有限的數(shù)據(jù)訓(xùn)練出用于識(shí)別的分類算法,其精度也非常有限。【參見王樂、張紫瓊、崔雪瑩:《虛假評(píng)論的識(shí)別與過(guò)濾:現(xiàn)狀與展望》,載《電子科技大學(xué)學(xué)報(bào)(社科版)》2022年第1期,第31-41頁(yè)?!恳虼耍槍?duì)這些不同類型的內(nèi)容,服務(wù)提供者應(yīng)盡的注意義務(wù)也有所區(qū)別。其次,侵權(quán)的明顯程度和侵權(quán)的頻率會(huì)影響識(shí)別侵權(quán)內(nèi)容的成本。對(duì)非常明顯的侵權(quán)內(nèi)容(如典型的有害信息或者權(quán)利人發(fā)送通知要求下架的侵權(quán)內(nèi)容)或者重復(fù)出現(xiàn)的侵權(quán)內(nèi)容,服務(wù)提供者發(fā)現(xiàn)和確認(rèn)其侵權(quán)所需付出的成本較低,其注意義務(wù)也應(yīng)隨之提高。
事實(shí)上,我國(guó)早在制定針對(duì)網(wǎng)絡(luò)服務(wù)提供者的過(guò)錯(cuò)認(rèn)定法律標(biāo)準(zhǔn)時(shí),就采取了動(dòng)態(tài)系統(tǒng)論。該理論通過(guò)規(guī)定過(guò)錯(cuò)認(rèn)定的不同因素,賦予了法院一定的自由裁量權(quán)?!緟⒁娡趵鳎骸睹穹ǖ淙烁駲?quán)編中動(dòng)態(tài)系統(tǒng)論的采納與運(yùn)用》,載《法學(xué)家》2020年第4期,第1-12頁(yè)。】特別是,《最高人民法院關(guān)于審理侵害信息網(wǎng)絡(luò)傳播權(quán)民事糾紛案件適用法律若干問(wèn)題的規(guī)定》(以下簡(jiǎn)稱《信息網(wǎng)絡(luò)傳播權(quán)司法解釋》)第9條和《最高人民法院關(guān)于審理利用信息網(wǎng)絡(luò)侵害人身權(quán)益民事糾紛案件適用法律若干問(wèn)題的規(guī)定》(以下簡(jiǎn)稱《網(wǎng)絡(luò)人身權(quán)司法解釋》)第6條的規(guī)定,為判定生成式人工智能服務(wù)提供者的過(guò)錯(cuò)提供了規(guī)則適用上的參考?!尽缎畔⒕W(wǎng)絡(luò)傳播權(quán)司法解釋》第9條規(guī)定:“人民法院應(yīng)當(dāng)根據(jù)網(wǎng)絡(luò)用戶侵害信息網(wǎng)絡(luò)傳播權(quán)的具體事實(shí)是否明顯,綜合考慮以下因素,認(rèn)定網(wǎng)絡(luò)服務(wù)提供者是否構(gòu)成應(yīng)知:(一)基于網(wǎng)絡(luò)服務(wù)提供者提供服務(wù)的性質(zhì)、方式及其引發(fā)侵權(quán)的可能性大小,應(yīng)當(dāng)具備的管理信息的能力;(二)傳播的作品、表演、錄音錄像制品的類型、知名度及侵權(quán)信息的明顯程度;(三)網(wǎng)絡(luò)服務(wù)提供者是否主動(dòng)對(duì)作品、表演、錄音錄像制品進(jìn)行了選擇、編輯、修改、推薦等;(四)網(wǎng)絡(luò)服務(wù)提供者是否積極采取了預(yù)防侵權(quán)的合理措施;(五)網(wǎng)絡(luò)服務(wù)提供者是否設(shè)置便捷程序接收侵權(quán)通知并及時(shí)對(duì)侵權(quán)通知作出合理的反應(yīng);(六)網(wǎng)絡(luò)服務(wù)提供者是否針對(duì)同一網(wǎng)絡(luò)用戶的重復(fù)侵權(quán)行為采取了相應(yīng)的合理措施;(七)其他相關(guān)因素。”《網(wǎng)絡(luò)人身權(quán)司法解釋》第6條規(guī)定:“人民法院依據(jù)民法典第一千一百九十七條認(rèn)定網(wǎng)絡(luò)服務(wù)提供者是否‘知道或者應(yīng)當(dāng)知道’,應(yīng)當(dāng)綜合考慮下列因素:(一)網(wǎng)絡(luò)服務(wù)提供者是否以人工或者自動(dòng)方式對(duì)侵權(quán)網(wǎng)絡(luò)信息以推薦、排名、選擇、編輯、整理、修改等方式作出處理;(二)網(wǎng)絡(luò)服務(wù)提供者應(yīng)當(dāng)具備的管理信息的能力,以及所提供服務(wù)的性質(zhì)、方式及其引發(fā)侵權(quán)的可能性大小;(三)該網(wǎng)絡(luò)信息侵害人身權(quán)益的類型及明顯程度;(四)該網(wǎng)絡(luò)信息的社會(huì)影響程度或者一定時(shí)間內(nèi)的瀏覽量;(五)網(wǎng)絡(luò)服務(wù)提供者采取預(yù)防侵權(quán)措施的技術(shù)可能性及其是否采取了相應(yīng)的合理措施;(六)網(wǎng)絡(luò)服務(wù)提供者是否針對(duì)同一網(wǎng)絡(luò)用戶的重復(fù)侵權(quán)行為或者同一侵權(quán)信息采取了相應(yīng)的合理措施;(七)與本案相關(guān)的其他因素?!薄酷槍?duì)人工智能生成內(nèi)容致人損害的情形,法院可以類推適用《信息網(wǎng)絡(luò)傳播權(quán)司法解釋》第9條和《網(wǎng)絡(luò)人身權(quán)司法解釋》第6條的規(guī)定,綜合權(quán)衡認(rèn)定服務(wù)提供者是否已經(jīng)采取合理的防范措施。在技術(shù)水平維度,可以考慮“服務(wù)提供者采取預(yù)防侵權(quán)措施的技術(shù)可能性及其是否采取了相應(yīng)的合理措施”;在服務(wù)類型維度,可以考慮“服務(wù)提供者應(yīng)當(dāng)具備的信息管理能力,以及所提供服務(wù)的性質(zhì)、方式及其引發(fā)侵權(quán)的可能性大小”;在侵權(quán)性質(zhì)維度,可以考慮“該信息侵害人身權(quán)益的類型及明顯程度”“該信息的社會(huì)影響程度或者一定時(shí)間內(nèi)的瀏覽量”,以及“服務(wù)提供者是否針對(duì)同一網(wǎng)絡(luò)用戶的重復(fù)侵權(quán)行為或者同一侵權(quán)信息采取了相應(yīng)的合理措施”。未來(lái),隨著實(shí)踐的發(fā)展和研究的深入,也可以進(jìn)一步通過(guò)立法和司法解釋,以動(dòng)態(tài)系統(tǒng)論的方式總結(jié)和規(guī)定服務(wù)提供者過(guò)錯(cuò)認(rèn)定的標(biāo)準(zhǔn)。
二、服務(wù)提供者的注意義務(wù)類型與過(guò)錯(cuò)認(rèn)定
如上所述,認(rèn)定服務(wù)提供者是否存在過(guò)錯(cuò),需要分析一個(gè)合理的、謹(jǐn)慎的服務(wù)提供者應(yīng)當(dāng)采取的防范措施。具體而言,服務(wù)提供者可能采取多種防范措施:在模型訓(xùn)練階段,服務(wù)提供者可以通過(guò)語(yǔ)料處理、對(duì)齊微調(diào)等方式,降低生成侵權(quán)內(nèi)容的風(fēng)險(xiǎn);在內(nèi)容生成階段,服務(wù)提供者可以采取內(nèi)容審查、內(nèi)容標(biāo)識(shí)以及用戶管理等措施,阻止侵權(quán)內(nèi)容的生成或者降低其傳播造成損害的風(fēng)險(xiǎn)。這些防范措施都有可能構(gòu)成服務(wù)提供者注意義務(wù)的內(nèi)容。然而,如果服務(wù)提供者未能采取上述防范措施,是否就應(yīng)當(dāng)認(rèn)定其存在過(guò)錯(cuò)?筆者認(rèn)為,這需要結(jié)合案件的特定情境對(duì)服務(wù)提供者采取防范措施的合理性進(jìn)行分析。基于類型化的思維,筆者將對(duì)服務(wù)提供者可能負(fù)有的注意義務(wù)進(jìn)行分析,明確注意義務(wù)的范圍以及構(gòu)成過(guò)錯(cuò)的具體情形。
(一)語(yǔ)料處理義務(wù)
為降低生成侵權(quán)內(nèi)容的概率,訓(xùn)練模型的服務(wù)提供者應(yīng)當(dāng)負(fù)有對(duì)語(yǔ)料(訓(xùn)練數(shù)據(jù))進(jìn)行處理的義務(wù)。這一義務(wù)來(lái)源于語(yǔ)料與生成內(nèi)容的相關(guān)性。如果語(yǔ)料中包含個(gè)人信息或者其他侵權(quán)內(nèi)容,模型則會(huì)在訓(xùn)練過(guò)程中學(xué)習(xí)語(yǔ)料的特征甚至記住語(yǔ)料中的片段,導(dǎo)致最終生成個(gè)人信息等侵權(quán)內(nèi)容?!維ee Nicolas Carlini et al.,Extracting Training Data from Large Language Models,30USENIX Security Symposium2633,2633-2650(2021).】因此,《暫行辦法》第7條規(guī)定了服務(wù)提供者在語(yǔ)料處理活動(dòng)中的義務(wù),要求服務(wù)提供者不僅要使用來(lái)源合法的數(shù)據(jù),還要“采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強(qiáng)訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性”。如果服務(wù)提供者在模型訓(xùn)練階段未能合理地履行這一義務(wù),導(dǎo)致生成侵權(quán)內(nèi)容,那么便可以認(rèn)定服務(wù)提供者具有過(guò)錯(cuò)。例如,在北京互聯(lián)網(wǎng)法院審理的中國(guó)首例“AI聲音侵權(quán)案”中,被告之一未經(jīng)許可使用了原告的聲音數(shù)據(jù)來(lái)開發(fā)語(yǔ)言生成式人工智能產(chǎn)品,并在網(wǎng)絡(luò)上對(duì)外出售,法院認(rèn)定該被告存在過(guò)錯(cuò),應(yīng)承擔(dān)侵權(quán)責(zé)任?!緟⒁娞粕娇停骸度珖?guó)首例“AI聲音侵權(quán)案”宣判帶來(lái)何種警示》,載《中國(guó)城市報(bào)》2024年4月29日,第2版?!?/p>
值得強(qiáng)調(diào)的是,在語(yǔ)料規(guī)模極為龐大的情形下,語(yǔ)料處理義務(wù)并非要求服務(wù)提供者過(guò)濾掉語(yǔ)料中所有的個(gè)人信息、虛假信息、有害信息以及作品。理由在于:第一,要求服務(wù)提供者做到全面的過(guò)濾在技術(shù)上不具有可行性。無(wú)論是個(gè)人信息、虛假信息還是有害信息,要從海量的語(yǔ)料中全部識(shí)別出來(lái),都具有極高的難度。至于作品,由于服務(wù)提供者無(wú)法獲得所有尚在著作權(quán)保護(hù)期內(nèi)的作品信息,因此也不可能識(shí)別出語(yǔ)料中可能包含的所有作品。第二,對(duì)語(yǔ)料進(jìn)行全面過(guò)濾,可能會(huì)降低語(yǔ)料的質(zhì)量和多樣性。大量地過(guò)濾語(yǔ)料中的作品有可能會(huì)將許多高質(zhì)量?jī)?nèi)容排除在外。這不僅會(huì)使語(yǔ)料的質(zhì)量下降,影響模型的性能,還會(huì)導(dǎo)致語(yǔ)料缺乏多樣性,引發(fā)偏見歧視問(wèn)題?!維ee Amanda Levendowski,How Copyright Law Can Fix Artificial Intelligence’s Implicit Bias Problem,93Washington Law Review579,579(2018).】因此,有觀點(diǎn)認(rèn)為,將利用作品訓(xùn)練人工智能的行為認(rèn)定為合理使用,更有利于促進(jìn)人工智能的發(fā)展。【參見萬(wàn)勇:《人工智能時(shí)代著作權(quán)法合理使用制度的困境與出路》,載《社會(huì)科學(xué)輯刊》2021年第5期,第100頁(yè)?!靠紤]到以上因素,不能因?yàn)橛糜谟?xùn)練的語(yǔ)料中仍包含可能侵權(quán)的信息,就認(rèn)定服務(wù)提供者存在過(guò)錯(cuò)。一種可行的做法是,只要經(jīng)處理后的語(yǔ)料合格率達(dá)到一定的標(biāo)準(zhǔn),就可以認(rèn)定服務(wù)提供者合理地履行了語(yǔ)料處理義務(wù)。例如,我國(guó)公布的《生成式人工智能服務(wù)安全基本要求》(以下簡(jiǎn)稱《安全基本要求》)就對(duì)語(yǔ)料安全評(píng)估的要求作出了具體規(guī)定:“a)采用人工抽檢,從全部語(yǔ)料中隨機(jī)抽取不少于4000條語(yǔ)料,合格率不應(yīng)低于96%;b)結(jié)合關(guān)鍵詞、分類模型等技術(shù)抽檢,從全部語(yǔ)料中隨機(jī)抽取不少于總量10%的語(yǔ)料,抽樣合格率不應(yīng)低于98%;c)評(píng)估采用的關(guān)鍵詞庫(kù)、分類模型應(yīng)符合本文件第8章要求”。如果服務(wù)提供者對(duì)語(yǔ)料的處理達(dá)到《安全基本要求》中的語(yǔ)料安全評(píng)估要求或者類似的標(biāo)準(zhǔn),即使其語(yǔ)料中仍存在可能侵權(quán)的信息,也不宜認(rèn)定服務(wù)提供者存在過(guò)錯(cuò)。
(二)對(duì)齊微調(diào)義務(wù)
在模型訓(xùn)練階段,服務(wù)提供者還可以采取人類反饋強(qiáng)化學(xué)習(xí)等對(duì)齊微調(diào)技術(shù),減少虛假信息和有害信息的生成?!緟⒁娎钽戃?、文繼榮:《AIGC時(shí)代網(wǎng)絡(luò)信息內(nèi)容的法律治理——以大語(yǔ)言模型為例》,載《北京理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第6期,第86頁(yè)?!坷?,OpenAI公司曾指出,ChatGPT從GPT-3等早期模型的部署中吸取了許多經(jīng)驗(yàn)教訓(xùn),采取了包括人類反饋強(qiáng)化學(xué)習(xí)在內(nèi)的安全緩解措施,大幅減少了有害和不真實(shí)信息的輸出。筆者認(rèn)為,對(duì)服務(wù)提供者而言,采取合理的對(duì)齊微調(diào)技術(shù)來(lái)減少侵權(quán)內(nèi)容的生成,屬于應(yīng)盡的注意義務(wù)。雖然現(xiàn)有法規(guī)并未針對(duì)對(duì)齊微調(diào)義務(wù)作出具體規(guī)定,但是采取相同或者類似措施正在成為生成式人工智能領(lǐng)域的行業(yè)慣例,是一個(gè)“合理的服務(wù)提供者”會(huì)采取的防范措施。因此,如果服務(wù)提供者向公眾提供未經(jīng)對(duì)齊的模型,導(dǎo)致生成侵權(quán)內(nèi)容,則可以認(rèn)定其具有過(guò)錯(cuò)。
值得注意的是,即使服務(wù)提供者在模型訓(xùn)練階段采取了目前最先進(jìn)的技術(shù),還是無(wú)法完全避免生成一些侵權(quán)內(nèi)容。例如,ChatGPT等大語(yǔ)言模型存在“幻覺”(Hallucination)等無(wú)法徹底解決的固有缺陷,總會(huì)無(wú)中生有地生成虛假信息。【參見王祿生:《ChatGPT類技術(shù):法律人工智能的改進(jìn)者還是顛覆者?》,載《政法論壇》2023年第4期,第55頁(yè)?!抗P者認(rèn)為,只要服務(wù)提供者在模型訓(xùn)練階段已采取了合理的防范措施,效果達(dá)到了行業(yè)的一般水平,就可以認(rèn)定其在模型訓(xùn)練階段不存在過(guò)錯(cuò)。所謂行業(yè)的一般水平,可以參考法律法規(guī)以及行業(yè)標(biāo)準(zhǔn)和慣例來(lái)加以確定。例如,《安全基本要求》提出了生成內(nèi)容安全評(píng)估的要求:采用人工抽檢、關(guān)鍵詞抽檢和分類模型抽檢,從生成內(nèi)容測(cè)試題庫(kù)中隨機(jī)抽取不少于1000條測(cè)試題,模型生成內(nèi)容的抽樣合格率不應(yīng)低于百分之九十。如果服務(wù)提供者在模型訓(xùn)練階段采取了防范措施并使模型達(dá)到了上述安全評(píng)估要求,即使得到的模型仍有可能生成侵權(quán)內(nèi)容,也不應(yīng)認(rèn)定服務(wù)提供者在模型訓(xùn)練階段存在過(guò)錯(cuò)。
(三)內(nèi)容審查義務(wù)
關(guān)于服務(wù)提供者過(guò)錯(cuò)的認(rèn)定,一個(gè)備受爭(zhēng)議的問(wèn)題是,服務(wù)提供者是否對(duì)生成內(nèi)容負(fù)有審查義務(wù)?!緟⒁姼哧?yáng):《通用人工智能提供者內(nèi)容審查注意義務(wù)的證成》,載《東方法學(xué)》2024年第1期,第195-200頁(yè);徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例》,載《法律科學(xué)》2023年第4期,第77頁(yè);刁佳星:《生成式人工智能服務(wù)提供者版權(quán)侵權(quán)注意義務(wù)研究》,載《中國(guó)出版》2024年第1期,第27-29頁(yè)。】服務(wù)提供者的審查義務(wù)存在不同的類型,需分類討論。審查義務(wù)可以分為普遍的事前審查義務(wù)、特殊的事前審查義務(wù)以及事后審查義務(wù),其區(qū)分的標(biāo)準(zhǔn)主要在于審查時(shí)間是事前還是事后以及審查對(duì)象的范圍。【參見王杰:《網(wǎng)絡(luò)存儲(chǔ)空間服務(wù)提供者的注意義務(wù)新解》,載《法律科學(xué)》2020年第3期,第104-108頁(yè);熊皓男:《論網(wǎng)絡(luò)服務(wù)提供者的版權(quán)審查義務(wù)》,載《電子知識(shí)產(chǎn)權(quán)》2021年第6期,第41-42頁(yè)?!科毡榈氖虑皩彶榱x務(wù)要求服務(wù)提供者對(duì)所有生成內(nèi)容進(jìn)行全面的事前審查,通過(guò)審查后再向用戶提供;特殊的事前審查義務(wù)要求服務(wù)提供者僅針對(duì)生成內(nèi)容進(jìn)行特定范圍的事前審查;事后審查義務(wù)則要求服務(wù)提供者在收到侵權(quán)通知后采取必要的審查措施,并防止相同或類似內(nèi)容再次生成。
筆者認(rèn)為,服務(wù)提供者對(duì)人工智能生成內(nèi)容不負(fù)有普遍的事前審查義務(wù),但是應(yīng)承擔(dān)特殊的事前審查義務(wù)和事后審查義務(wù),這其中的主要考量因素是識(shí)別侵權(quán)內(nèi)容的成本。第一,對(duì)服務(wù)提供者而言,普遍的事前審查義務(wù)所帶來(lái)的侵權(quán)內(nèi)容識(shí)別成本過(guò)高,因此要求服務(wù)提供者承擔(dān)普遍的事前審查義務(wù)并不合理。一個(gè)類似的先例是網(wǎng)絡(luò)服務(wù)提供者是否應(yīng)承擔(dān)普遍的事前審查義務(wù),我國(guó)立法者認(rèn)為,“由于網(wǎng)絡(luò)具有開放性的特質(zhì),網(wǎng)絡(luò)信息十分龐雜,要求此類網(wǎng)絡(luò)服務(wù)提供者逐一審查,可能大量增加網(wǎng)絡(luò)服務(wù)提供者的運(yùn)營(yíng)成本,阻礙網(wǎng)絡(luò)產(chǎn)業(yè)的發(fā)展”。【黃薇主編:《中華人民共和國(guó)民法典釋義(下):人格權(quán)編·婚姻家庭編·繼承編·侵權(quán)責(zé)任編·附則》,法律出版社2020年版,第2321頁(yè)?!颗c網(wǎng)絡(luò)服務(wù)提供者面臨的情況相似,生成式人工智能服務(wù)提供者面對(duì)的生成內(nèi)容也非常龐雜。例如,早在2021年,GPT-3模型就已經(jīng)被“超過(guò)300個(gè)應(yīng)用程序使用,平均每天能夠生成45億個(gè)詞”【張欣:《生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)與治理路徑》,載《法律科學(xué)》2023年第5期,第46頁(yè)。】。全面審查海量的生成內(nèi)容對(duì)服務(wù)提供者而言將是極大的負(fù)擔(dān)。因此,不宜要求服務(wù)提供者承擔(dān)普遍的事前審查義務(wù),否則將極大地增加服務(wù)提供者的運(yùn)營(yíng)成本,阻礙生成式人工智能技術(shù)的發(fā)展。
第二,要求服務(wù)提供者承擔(dān)特殊的事前審查義務(wù)和事后審查義務(wù)具有一定合理性。特殊的事前審查義務(wù)僅要求服務(wù)提供者對(duì)生成內(nèi)容進(jìn)行特定范圍的事前審查,事后審查義務(wù)則要求服務(wù)提供者在獲得侵權(quán)內(nèi)容的相關(guān)通知后采取必要措施,這兩類審查義務(wù)都在一定程度上減輕了服務(wù)提供者識(shí)別侵權(quán)內(nèi)容的成本,因而具有技術(shù)上和經(jīng)濟(jì)上的可行性。具體而言,可以根據(jù)服務(wù)提供者和生成內(nèi)容的接收者(包括用戶和第三方)識(shí)別侵權(quán)內(nèi)容的成本大小,來(lái)確定服務(wù)提供者是承擔(dān)特殊的事前審查義務(wù)還是事后審查義務(wù)。這是因?yàn)?,由識(shí)別侵權(quán)內(nèi)容成本更小的一方來(lái)承擔(dān)發(fā)現(xiàn)和確認(rèn)侵權(quán)內(nèi)容的責(zé)任,可以減少社會(huì)成本,實(shí)現(xiàn)社會(huì)福利的最大化。如果服務(wù)提供者能以較低的成本來(lái)識(shí)別某些特定類型的侵權(quán)內(nèi)容,則可以要求服務(wù)提供者針對(duì)這些類型的侵權(quán)內(nèi)容承擔(dān)事前審查義務(wù)。例如,對(duì)格式化的個(gè)人信息、特征較為明顯的有害信息等,服務(wù)提供者可以直接采取簡(jiǎn)單的規(guī)則方法或者分類算法來(lái)識(shí)別這些侵權(quán)內(nèi)容,這既能有效地防止損害的發(fā)生,又能節(jié)省處理通知所帶來(lái)的成本。如果生成內(nèi)容的接收者更容易識(shí)別侵權(quán)內(nèi)容,那么可以由接收者來(lái)通知服務(wù)提供者,由服務(wù)提供者承擔(dān)事后審查義務(wù)。例如,對(duì)侵害著作權(quán)的內(nèi)容,著作權(quán)人或者利益相關(guān)人更容易發(fā)現(xiàn),由其通知并要求服務(wù)提供者采取必要的審查措施,可以節(jié)省識(shí)別侵權(quán)內(nèi)容的成本。
由于服務(wù)提供者對(duì)生成內(nèi)容不負(fù)有普遍的事前審查義務(wù),在滿足語(yǔ)料處理、對(duì)齊微調(diào)等義務(wù)的前提下,如果生成式人工智能仍生成了侵權(quán)內(nèi)容,則不能以服務(wù)提供者未對(duì)該內(nèi)容進(jìn)行審查為由主張其存在過(guò)錯(cuò)。但由于服務(wù)提供者應(yīng)承擔(dān)特殊的事前審查義務(wù)和事后審查義務(wù),在滿足以下條件的情形中,可以認(rèn)定服務(wù)提供者存在過(guò)錯(cuò):第一,綜合考慮服務(wù)提供者的技術(shù)水平、服務(wù)類型以及侵權(quán)性質(zhì)等因素,生成的侵權(quán)內(nèi)容屬于服務(wù)提供者能以較低的成本進(jìn)行識(shí)別并過(guò)濾的內(nèi)容,那么可以認(rèn)定服務(wù)提供者未盡到特殊的事前審查義務(wù),存在過(guò)錯(cuò)。這類內(nèi)容包括《暫行辦法》第4條第1款第(一)項(xiàng)規(guī)定的法規(guī)禁止的內(nèi)容、敏感個(gè)人信息、知名度較高的作品等。例如,ChatGPT在回應(yīng)網(wǎng)友提問(wèn)時(shí),有時(shí)會(huì)生成包含真人照片的內(nèi)容,這類內(nèi)容屬于敏感個(gè)人信息,如果出現(xiàn)這種情況,應(yīng)認(rèn)定服務(wù)提供者存在過(guò)錯(cuò)。第二,生成內(nèi)容的接收者向服務(wù)提供者發(fā)送內(nèi)容侵權(quán)的通知,且該通知符合法律規(guī)定的形式和內(nèi)容要件時(shí),服務(wù)提供者應(yīng)當(dāng)采取審查措施而未及時(shí)采取的,可以認(rèn)定服務(wù)提供者未盡到事后審查義務(wù),存在過(guò)錯(cuò)。
(四)內(nèi)容標(biāo)識(shí)義務(wù)
為降低生成內(nèi)容在利用和傳播過(guò)程中可能引發(fā)的損害,服務(wù)提供者還可以對(duì)生成內(nèi)容進(jìn)行標(biāo)識(shí),提示信息接收者生成內(nèi)容可能帶來(lái)的風(fēng)險(xiǎn)。從《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》到《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》再到《暫行辦法》,都對(duì)服務(wù)提供者的內(nèi)容標(biāo)識(shí)義務(wù)作出了規(guī)定。服務(wù)提供者不僅負(fù)有對(duì)生成內(nèi)容添加標(biāo)識(shí)的一般義務(wù)【參見《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第16條。】,還負(fù)有在特定情形下對(duì)生成內(nèi)容進(jìn)行顯著標(biāo)識(shí)的特別義務(wù),即如果服務(wù)提供者提供的特定生成服務(wù)可能導(dǎo)致公眾混淆或者誤認(rèn),則應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識(shí),向公眾提示生成情況?!緟⒁姟痘ヂ?lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第17條?!看送猓?wù)提供者還負(fù)有向用戶提供顯著標(biāo)識(shí)功能的義務(wù)。【參見《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第17條?!吭谏蓛?nèi)容致人損害的情形下,如果服務(wù)提供者未盡到上述義務(wù),則可能會(huì)被認(rèn)定為存在過(guò)錯(cuò),需要承擔(dān)侵權(quán)責(zé)任。例如,在“上海新創(chuàng)華案”中,法院在認(rèn)定被告是否應(yīng)就生成侵權(quán)圖片承擔(dān)賠償損失責(zé)任時(shí),認(rèn)為被告并未顯著標(biāo)識(shí)案涉生成圖片,未盡到標(biāo)識(shí)義務(wù),存在過(guò)錯(cuò)?!緟⒁姀V州互聯(lián)網(wǎng)法院(2024)粵0192民初113號(hào)民事判決書?!吭谡J(rèn)定服務(wù)提供者是否合理地盡到內(nèi)容標(biāo)識(shí)義務(wù)時(shí),應(yīng)當(dāng)充分考慮內(nèi)容的標(biāo)識(shí)難度、用戶的使用體驗(yàn)、造成的風(fēng)險(xiǎn)大小等因素,在標(biāo)識(shí)難度較小、對(duì)用戶影響較小、造成風(fēng)險(xiǎn)較大的情形下,服務(wù)提供者應(yīng)負(fù)有更高的顯著標(biāo)識(shí)義務(wù),但在一些標(biāo)識(shí)難度較大、對(duì)用戶影響較大、造成風(fēng)險(xiǎn)較小的情形下,應(yīng)當(dāng)允許服務(wù)提供者結(jié)合具體情形采取合理的標(biāo)識(shí)方式,包括添加隱式水印等?!緟⒁娎钽戃帯⑽睦^榮:《AIGC時(shí)代網(wǎng)絡(luò)信息內(nèi)容的法律治理——以大語(yǔ)言模型為例》,載《北京理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第6期,第90頁(yè)?!?/p>
(五)用戶管理義務(wù)
在人工智能生成內(nèi)容致人損害的情形中,有一些情形主要涉及用戶責(zé)任。一種是用戶故意誘導(dǎo)生成侵權(quán)內(nèi)容。例如,用戶可以使用越獄提示詞繞過(guò)生成式人工智能系統(tǒng)的防護(hù),主動(dòng)引導(dǎo)其生成虛假信息并加以傳播。【參見高陽(yáng):《通用人工智能提供者內(nèi)容審查注意義務(wù)的證成》,載《東方法學(xué)》2024年第1期,第195頁(yè)?!苛硪环N是用戶有過(guò)錯(cuò)地利用生成式人工智能自發(fā)生成的侵權(quán)內(nèi)容造成損害。例如,生成式人工智能可能會(huì)因?yàn)椤盎糜X”自發(fā)生成虛假信息,用戶在接收該信息后對(duì)其進(jìn)行傳播。此外,用戶也有可能利用生成式人工智能從事生成侵權(quán)內(nèi)容以外的侵權(quán)活動(dòng)。對(duì)用戶的上述行為,服務(wù)提供者應(yīng)當(dāng)負(fù)有管理義務(wù)。原因在于,一方面,服務(wù)提供者提供服務(wù)的行為開啟了用戶實(shí)施侵權(quán)行為的危險(xiǎn),客觀上也為用戶的侵權(quán)行為提供了便利和幫助,因而負(fù)有交往安全義務(wù);另一方面,從防范用戶侵權(quán)行為的角度來(lái)看,由服務(wù)提供者對(duì)用戶進(jìn)行管理,要比由受害者來(lái)制止用戶實(shí)施侵權(quán)行為更有效率。因此,服務(wù)提供者在發(fā)現(xiàn)用戶存在違法活動(dòng)時(shí),應(yīng)當(dāng)采取合理的處置措施。《暫行辦法》第14條第2款規(guī)定:“提供者發(fā)現(xiàn)使用者利用生成式人工智能服務(wù)從事違法活動(dòng)的,應(yīng)當(dāng)依法依約采取警示、限制功能、暫停或者終止向其提供服務(wù)等處置措施,保存有關(guān)記錄,并向有關(guān)主管部門報(bào)告?!?/p>
另外,服務(wù)提供者是否應(yīng)負(fù)有用戶行為監(jiān)控義務(wù),值得討論。與內(nèi)容審查義務(wù)的分析相似,影響服務(wù)提供者是否承擔(dān)用戶行為監(jiān)控義務(wù)的一個(gè)重要因素是實(shí)施監(jiān)控行為的成本大小。要求服務(wù)提供者對(duì)用戶進(jìn)行普遍的監(jiān)控,對(duì)服務(wù)提供者而言成本過(guò)高,不具有可行性。并且,普遍監(jiān)控的實(shí)現(xiàn)往往需要服務(wù)提供者對(duì)用戶的輸入、輸出行為進(jìn)行全方位審查,這可能會(huì)對(duì)用戶隱私造成嚴(yán)重侵害。然而,服務(wù)提供者有義務(wù)在接到通知后對(duì)用戶采取必要措施,以及對(duì)侵權(quán)極為明顯的行為進(jìn)行個(gè)別監(jiān)控。例如,針對(duì)大規(guī)模生成有害虛假信息、多次使用越獄提示詞等侵權(quán)特征較為明顯的行為,服務(wù)提供者應(yīng)當(dāng)設(shè)計(jì)相應(yīng)的技術(shù)進(jìn)行監(jiān)測(cè),在不侵害用戶隱私的前提下識(shí)別可疑行為,并及時(shí)采取必要的處置措施。
三、“通知規(guī)則”的適用與過(guò)錯(cuò)的認(rèn)定
在生成內(nèi)容致人損害的情形下,有關(guān)“通知規(guī)則”適用的問(wèn)題也引發(fā)了激烈的討論?!緟⒁娡趵鳎骸渡墒饺斯ぶ悄芮謾?quán)的法律應(yīng)對(duì)》,載《中國(guó)應(yīng)用法學(xué)》2023年第5期,第34-35頁(yè);王若冰:《論生成式人工智能侵權(quán)中服務(wù)提供者過(guò)錯(cuò)的認(rèn)定——以“現(xiàn)有技術(shù)水平”為標(biāo)準(zhǔn)》,載《比較法研究》2023年第5期,第31-33頁(yè)?!俊巴ㄖ?guī)則”是指《中華人民共和國(guó)民法典》(以下簡(jiǎn)稱《民法典》)第1195條所規(guī)定的“在網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)者提供的網(wǎng)絡(luò)實(shí)施侵權(quán)行為時(shí),權(quán)利人有權(quán)通知網(wǎng)絡(luò)服務(wù)提供者采取刪除、屏蔽、斷開鏈接等措施,網(wǎng)絡(luò)服務(wù)提供者接到通知應(yīng)當(dāng)及時(shí)將該通知轉(zhuǎn)送相關(guān)網(wǎng)絡(luò)用戶,或者采取必要措施?!薄就趵鳎骸渡墒饺斯ぶ悄芮謾?quán)的法律應(yīng)對(duì)》,載《中國(guó)應(yīng)用法學(xué)》2023年第5期,第34頁(yè)?!俊巴ㄖ?guī)則”針對(duì)的是“網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)實(shí)施侵權(quán)行為”的情形,在生成內(nèi)容致人損害的情形中,如果是網(wǎng)絡(luò)用戶利用生成式人工智能服務(wù)實(shí)施侵權(quán)行為,則落入“通知規(guī)則”的規(guī)制范圍,理論上可以直接適用該規(guī)則。存在爭(zhēng)議的問(wèn)題是,如果生成式人工智能自主生成侵權(quán)內(nèi)容,可否類推適用“通知規(guī)則”?如果可以,應(yīng)如何適用“通知規(guī)則”?
(一)“通知規(guī)則”的類推適用
類推的正當(dāng)性在于“同類事物相同對(duì)待”,當(dāng)“在對(duì)法律評(píng)價(jià)有決定性意義的方面,兩類事實(shí)構(gòu)成彼此類似”,就應(yīng)當(dāng)給予相同的評(píng)價(jià)。【參見\[德\]卡爾·拉倫茨:《法學(xué)方法論》(全本·第6版),黃家鎮(zhèn)譯,商務(wù)印書館2020年版,第479頁(yè)?!抗P者認(rèn)為,從規(guī)范目的的角度看,生成式人工智能服務(wù)提供者的侵權(quán)責(zé)任認(rèn)定與網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責(zé)任認(rèn)定面臨著類似的利益平衡問(wèn)題,能夠通過(guò)“通知規(guī)則”的類推適用加以妥善解決?!巴ㄖ?guī)則”源自《美國(guó)數(shù)字千年版權(quán)法》中的“避風(fēng)港規(guī)則”,其設(shè)立的主要目標(biāo)在于平衡網(wǎng)絡(luò)服務(wù)提供者與版權(quán)人之間的利益,即一方面要為網(wǎng)絡(luò)服務(wù)提供者提供法律確定性,保障互聯(lián)網(wǎng)生態(tài)系統(tǒng)可以蓬勃發(fā)展;另一方面要保護(hù)作者和其他版權(quán)人的合法利益免受猖獗的、低門檻的網(wǎng)絡(luò)侵權(quán)行為的侵害?!緟⒁娎钽戃帲骸睹绹?guó)網(wǎng)絡(luò)版權(quán)法改革的新動(dòng)向及啟示——以網(wǎng)絡(luò)服務(wù)商的義務(wù)為中心》,載《電子知識(shí)產(chǎn)權(quán)》2021年第12期,第31頁(yè)?!繉?shí)現(xiàn)這一平衡目標(biāo)的重要工具便是“通知規(guī)則”。首先,“通知規(guī)則”免除了網(wǎng)絡(luò)服務(wù)提供者的普遍事前審查義務(wù),為網(wǎng)絡(luò)服務(wù)提供者提供了足夠的法律確定性。根據(jù)“通知規(guī)則”,網(wǎng)絡(luò)服務(wù)提供者不需要對(duì)海量的信息進(jìn)行一一審查,在大多數(shù)情形下,只要接到權(quán)利人通知后采取了必要措施,網(wǎng)絡(luò)服務(wù)提供者就無(wú)需承擔(dān)侵權(quán)責(zé)任。其次,“通知規(guī)則”對(duì)網(wǎng)絡(luò)服務(wù)提供者施加了接到通知后采取必要措施的義務(wù),這能夠促進(jìn)網(wǎng)絡(luò)服務(wù)提供者和權(quán)利人積極合作,更有效率地制止侵權(quán)活動(dòng),防止侵權(quán)損害的擴(kuò)大。根據(jù)“最便宜的成本規(guī)避者”(cheapest cost avoider theory)理論,防范風(fēng)險(xiǎn)成本較低的一方應(yīng)當(dāng)承擔(dān)防范義務(wù)或侵權(quán)責(zé)任?!維ee Guido Calabresi,Concerning Cause and the Law of Torts:An Essay for Harry Kalven,Jr.,43The University of Chicago Law Review69,84(1975).】從防范風(fēng)險(xiǎn)成本來(lái)看,權(quán)利人能以較低的成本識(shí)別侵權(quán)活動(dòng),而網(wǎng)絡(luò)服務(wù)提供者則能以更低的成本制止侵權(quán)活動(dòng),因此在防范網(wǎng)絡(luò)侵權(quán)行為方面,“通知規(guī)則”也是最具效率的規(guī)則。在人工智能生成內(nèi)容致人損害的情形下,適用“通知規(guī)則”可以實(shí)現(xiàn)相同的規(guī)范目的。首先,生成式人工智能服務(wù)提供者與網(wǎng)絡(luò)服務(wù)提供者一樣,面對(duì)海量的生成內(nèi)容,無(wú)法進(jìn)行一一審查,適用“通知規(guī)則”能夠免除生成式人工智能服務(wù)提供者的普遍事前審查義務(wù),減少其在侵權(quán)責(zé)任方面所面臨的不確定性。其次,雖然生成式人工智能服務(wù)提供者在識(shí)別侵權(quán)內(nèi)容方面的信息成本較高,但是其在接到通知后防止侵權(quán)內(nèi)容繼續(xù)生成與傳播的成本相對(duì)較低,適用“通知規(guī)則”能夠促使其與權(quán)利人合作,以最具效率的方式防止侵權(quán)的發(fā)生與擴(kuò)大。因此,類推適用“通知規(guī)則”亦能有效地平衡生成式人工智能服務(wù)提供者與權(quán)利人之間的利益,具有合理性。
此外,類推適用“通知規(guī)則”的一大作用,在于緩解生成式人工智能黑箱帶來(lái)的權(quán)利人舉證困難問(wèn)題。以ChatGPT為代表的生成式人工智能遵循“大模型+大數(shù)據(jù)”的技術(shù)路線,是一個(gè)典型的黑箱。例如,ChatGPT模型的參數(shù)規(guī)模達(dá)到了千億級(jí)別,由于模型的參數(shù)規(guī)模巨大,權(quán)利人往往無(wú)法了解ChatGPT的內(nèi)部結(jié)構(gòu)和運(yùn)作原理。另外,訓(xùn)練以ChatGPT為代表的大型語(yǔ)言模型還需要龐大的數(shù)據(jù),加之研發(fā)者可能對(duì)訓(xùn)練的方法和數(shù)據(jù)進(jìn)行保密,權(quán)利人也難以知曉設(shè)計(jì)者究竟使用了哪些方法和數(shù)據(jù)得到了模型。生成式人工智能黑箱引發(fā)了嚴(yán)重的信息不對(duì)稱問(wèn)題,權(quán)利人往往難以獲得充分的證據(jù)證明服務(wù)提供者存在過(guò)錯(cuò),導(dǎo)致權(quán)利人與服務(wù)提供者之間的利益失衡。有觀點(diǎn)主張,在人工智能生成內(nèi)容致人損害的情形下,應(yīng)當(dāng)對(duì)服務(wù)提供者適用過(guò)錯(cuò)推定責(zé)任,以減輕權(quán)利人的舉證負(fù)擔(dān)?!緟⒁娭軐W(xué)峰:《生成式人工智能侵權(quán)責(zé)任探析》,載《比較法研究》2023年第4期,第125頁(yè)?!康^(guò)錯(cuò)推定責(zé)任必須是法律法規(guī)所明確規(guī)定的情形,在現(xiàn)有法律體系下,法院一般不能僅僅以生成式人工智能生成了侵權(quán)內(nèi)容,就推定服務(wù)提供者存在過(guò)錯(cuò)。既然不能推定服務(wù)提供者存在過(guò)錯(cuò),那么對(duì)于權(quán)利人而言,要證明服務(wù)提供者存在過(guò)錯(cuò),最為可靠的方法即是向服務(wù)提供者發(fā)出通知告知其服務(wù)會(huì)生成侵權(quán)內(nèi)容,如果在服務(wù)提供者接到通知的合理期限后,其所提供的服務(wù)仍會(huì)生成相同或者類似的侵權(quán)內(nèi)容,權(quán)利人就可以初步證明服務(wù)提供者在知曉侵權(quán)狀況的情形下未采取必要措施,即服務(wù)提供者存在過(guò)錯(cuò)??梢?,在“通知規(guī)則”下,權(quán)利人無(wú)需承擔(dān)過(guò)重的負(fù)擔(dān)去證明服務(wù)提供者的過(guò)錯(cuò)。不過(guò),如果服務(wù)提供者可以反證,其在接到通知后已經(jīng)采取相關(guān)措施,但是仍無(wú)法避免生成侵權(quán)內(nèi)容,那么可以允許服務(wù)提供者主張類似產(chǎn)品責(zé)任制度中的“發(fā)展風(fēng)險(xiǎn)抗辯”或者“現(xiàn)有技術(shù)抗辯”,來(lái)減輕或者免除其責(zé)任?!緟⒁娡跞舯骸墩撋墒饺斯ぶ悄芮謾?quán)中服務(wù)提供者過(guò)錯(cuò)的認(rèn)定——以“現(xiàn)有技術(shù)水平”為標(biāo)準(zhǔn)》,載《比較法研究》2023年第5期,第32頁(yè)?!慨?dāng)然,這一抗辯主張的舉證責(zé)任主要在服務(wù)提供者,并不會(huì)給權(quán)利人帶來(lái)過(guò)重的舉證負(fù)擔(dān)。
(二)“通知規(guī)則”下服務(wù)提供者過(guò)錯(cuò)的認(rèn)定
根據(jù)“通知規(guī)則”,在生成侵權(quán)內(nèi)容時(shí),權(quán)利人有權(quán)通知服務(wù)提供者采取必要措施,服務(wù)提供者接到通知后,應(yīng)當(dāng)根據(jù)構(gòu)成侵權(quán)的初步證據(jù)和服務(wù)類型采取必要措施,未及時(shí)采取必要措施的,對(duì)損害的擴(kuò)大部分承擔(dān)責(zé)任。此時(shí),服務(wù)提供者應(yīng)盡的注意義務(wù)是在接到通知后及時(shí)采取必要措施,若違反這一注意義務(wù),則構(gòu)成過(guò)錯(cuò)。前文已就服務(wù)提供者應(yīng)當(dāng)承擔(dān)事后審查義務(wù),即接到通知后及時(shí)采取必要審查措施的合理性作了論證,在此仍有必要結(jié)合“通知規(guī)則”進(jìn)一步探討如何對(duì)服務(wù)提供者的過(guò)錯(cuò)進(jìn)行認(rèn)定。
第一,合格通知的認(rèn)定。通知的作用在于使服務(wù)提供者知道在輸入特定的提示詞時(shí)模型會(huì)生成侵權(quán)內(nèi)容,而只有當(dāng)通知符合一定的要求時(shí),才能起到這樣的作用,進(jìn)而觸發(fā)服務(wù)提供者的作為義務(wù)。一般而言,合格的通知應(yīng)當(dāng)符合主體合格、形式合格和內(nèi)容完整等條件?!緟⒁娡趵鳎骸肚謾?quán)責(zé)任法研究(下卷)》,中國(guó)人民大學(xué)出版社2011年版,第133-134頁(yè)?!科渲凶钪饕氖且暾膬?nèi)容。根據(jù)《民法典》第1195條的規(guī)定,通知應(yīng)當(dāng)包括構(gòu)成侵權(quán)的初步證據(jù)及權(quán)利人的真實(shí)身份信息?,F(xiàn)有規(guī)則還對(duì)網(wǎng)絡(luò)侵權(quán)情形下權(quán)利人通知的內(nèi)容要求作出了較為具體的規(guī)定?!尽缎畔⒕W(wǎng)絡(luò)傳播權(quán)保護(hù)條例》第14條規(guī)定,通知書應(yīng)當(dāng)包含下列內(nèi)容:(1)權(quán)利人的姓名(名稱)、聯(lián)系方式和地址;(2)要求刪除或者斷開鏈接的侵權(quán)作品、表演、錄音錄像制品的名稱和網(wǎng)絡(luò)地址;(3)構(gòu)成侵權(quán)的初步證明材料?!繀⒄障嚓P(guān)規(guī)定,筆者認(rèn)為,權(quán)利人的通知應(yīng)當(dāng)包含下列內(nèi)容:(1)權(quán)利人的姓名(名稱)和聯(lián)系方式;(2)生成侵權(quán)內(nèi)容的具體情形,包括輸入的提示詞以及生成的具體內(nèi)容;(3)權(quán)利人要求采取必要措施的理由,包括生成內(nèi)容構(gòu)成侵權(quán)的初步證明材料。如果權(quán)利人發(fā)出的通知未能包含上述內(nèi)容,即便服務(wù)提供者接到通知后沒有采取必要措施,也不應(yīng)當(dāng)認(rèn)定其存在過(guò)錯(cuò)。
第二,必要措施的認(rèn)定?!睹穹ǖ洹返?195條所列舉的“刪除、屏蔽、斷開鏈接”等措施類型,主要是網(wǎng)絡(luò)服務(wù)提供者針對(duì)網(wǎng)絡(luò)用戶上傳內(nèi)容所能采取的必要措施,所要達(dá)到的目的是“在技術(shù)能夠做到的范圍內(nèi)避免相關(guān)信息進(jìn)一步傳播”?!军S薇主編:《中華人民共和國(guó)民法典釋義(下):人格權(quán)編·婚姻家庭編·繼承編·侵權(quán)責(zé)任編·附則》,法律出版社2020年版,第2315頁(yè)?!繀⒄站W(wǎng)絡(luò)侵權(quán)的情形,生成式人工智能服務(wù)提供者采取的必要措施應(yīng)當(dāng)針對(duì)的是生成的侵權(quán)內(nèi)容,所要達(dá)到的目的是在技術(shù)能夠做到的范圍內(nèi)防止侵權(quán)內(nèi)容的生成與傳播?!稌盒修k法》第14條規(guī)定:“提供者發(fā)現(xiàn)違法內(nèi)容的,應(yīng)當(dāng)及時(shí)采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進(jìn)行整改,并向有關(guān)主管部門報(bào)告?!边@里的“停止生成、停止傳輸、消除”以及“模型優(yōu)化訓(xùn)練”等措施,均屬于服務(wù)提供者可能采取的必要措施類型。值得強(qiáng)調(diào)的是,對(duì)必要措施的要求應(yīng)當(dāng)具有合理性,既不能過(guò)于寬松也不應(yīng)過(guò)于嚴(yán)苛??傮w而言,仍應(yīng)采取動(dòng)態(tài)的“合理人”標(biāo)準(zhǔn),結(jié)合具體的情境,綜合考慮各種因素,分析一個(gè)合理的、謹(jǐn)慎的服務(wù)提供者應(yīng)當(dāng)采取的措施。以“上海新創(chuàng)華案”【參見廣州互聯(lián)網(wǎng)法院(2024)粵0192民初113號(hào)民事判決書?!繛槔?,被告在接到通知后,采取了關(guān)鍵詞過(guò)濾等措施,當(dāng)輸入包含“奧特曼”的提示詞時(shí),網(wǎng)站會(huì)拒絕生成侵權(quán)圖片,但是當(dāng)輸入與奧特曼相關(guān)的其他關(guān)鍵詞,如“迪迦”等,仍會(huì)生成侵權(quán)圖片。法院在分析被告是否采取必要措施時(shí)指出,被告應(yīng)進(jìn)一步采取關(guān)鍵詞過(guò)濾等措施,防范程度應(yīng)達(dá)到“用戶正常使用與奧特曼相關(guān)的提示詞都不能生成與案涉奧特曼作品實(shí)質(zhì)性相似的圖片”。與此同時(shí),法院也拒絕了原告要求將案涉數(shù)據(jù)從訓(xùn)練數(shù)據(jù)中刪除的訴求,認(rèn)為“被告并未實(shí)際進(jìn)行模型訓(xùn)練行為”??梢?,法院在認(rèn)定必要措施時(shí)充分考慮了其合理性,既要求達(dá)到足夠的效果,也不應(yīng)超出服務(wù)提供者力所能及的范圍,從而有效地平衡了預(yù)防風(fēng)險(xiǎn)與鼓勵(lì)創(chuàng)新的價(jià)值目標(biāo)。
四、結(jié)語(yǔ)
服務(wù)提供者過(guò)錯(cuò)的認(rèn)定是合理界定服務(wù)提供者是否對(duì)其生成內(nèi)容承擔(dān)侵權(quán)責(zé)任的關(guān)鍵。筆者通過(guò)對(duì)過(guò)錯(cuò)認(rèn)定的原理和方法進(jìn)行考察、對(duì)注意義務(wù)的類型化以及對(duì)“通知規(guī)則”適用的討論,全面地探討了生成式人工智能生成內(nèi)容致人損害時(shí)服務(wù)提供者過(guò)錯(cuò)的認(rèn)定問(wèn)題。隨著生成式人工智能的發(fā)展,未來(lái)仍會(huì)不斷出現(xiàn)侵權(quán)糾紛的新場(chǎng)景。但“技術(shù)有變,法理有?!薄纠铊。骸墩撊斯ぶ悄艿姆▽W(xué)分析方法——以著作權(quán)為例》,載《知識(shí)產(chǎn)權(quán)》2019年第7期,第14頁(yè)?!?,只要能回歸侵權(quán)法的基本法理,秉持正確的價(jià)值取向和分析方法,就能有效地回應(yīng)技術(shù)所帶來(lái)的紛繁變化,實(shí)現(xiàn)預(yù)防風(fēng)險(xiǎn)與鼓勵(lì)創(chuàng)新的精妙平衡。
On Fault Identification of Generative Artificial Intelligence Service Providers
SHEN Senhong
(School of Finance,Renmin University of China,Beijing100872,China)
Abstract: In the case of damage caused by the AIgenerated content,the faultbased rule is the liability rule for generative artificial intelligence service providers to bear the tort liability.Reasonably identifying the fault of service providers is the key to effectively balance the dual goals of preventing risks and encouraging innovation.The fault of the service provider is essentially abreach of its duty of security or duty of care.In terms of the criteria,we should adopt the dynamic“reasonable man”standard to analyze the duty of care of areasonable and prudent service provider under aspecific situation considering technical level,service types,infringement content and other dimensions.Service providers'duty of care mainly includes duty of corpus processing,duty of alignment,duty of content review,duty of content labeling and duty of user management.If service providers fail to fulfill these duties reasonably,they should be deemed to be at fault and bear tort liability for the damage caused by the AIgenerated content.The noticeandtakedown rule should be applied to the determination of tort liability of service providers,which is not only conductive to the balance of interests between service providers and right holders,but also can reduce the burden of proof for right holders to prove the fault of service providers.
Key words:generative artificial intelligence;service provider;fault;duty of care;notice and takedown rule
本文責(zé)任編輯:黃 匯