陳全思 張浩 欒群
隨著人工智能技術(shù)的迅速普及,由其引發(fā)的侵害和侵權(quán)事件時有發(fā)生,既有因交通、生產(chǎn)事故引發(fā)的人身財產(chǎn)傷害,也有因智能系統(tǒng)故障引發(fā)的財產(chǎn)利益貶損。人工智能侵權(quán)案件與傳統(tǒng)侵權(quán)案件引發(fā)的損害和風險的形式不同,根據(jù)傳統(tǒng)侵權(quán)法規(guī)定,制造商和銷售商是主要責任主體,但人工智能情景下,還應當明確開發(fā)者的安全注意義務,建立新的人工智能侵權(quán)責任機制,保障行業(yè)健康發(fā)展。
四種人工智能侵權(quán)歸責的觀點
人工智能工具論——由使用者承擔責任。這種觀點認為目前人工智能尚不具備自主意識,只是一種工具,其行為是在人類授意下做出的,因此人工智能侵權(quán)應由使用該工具的人來承擔責任。使用者是人工智能程序和設(shè)備的控制者也是受益者,侵權(quán)風險是使用者的使用行為引起的,讓受益者承擔由其控制的工具引發(fā)的侵權(quán)責任是公平合理的。
人工智能產(chǎn)品論——由生產(chǎn)者承擔責任。根據(jù)《產(chǎn)品質(zhì)量法》,產(chǎn)品質(zhì)量應當檢驗合格,符合保障人體健康和人身、財產(chǎn)安全的標準或要求,生產(chǎn)者、銷售者依法承擔產(chǎn)品質(zhì)量責任。人工智能通常是一種產(chǎn)品,除了個別由于使用者或者第三人故意引起的侵權(quán)以外,大多數(shù)人工智能侵權(quán)是由于產(chǎn)品存在缺陷造成的。消費者對于人工智能產(chǎn)品缺陷,既難以理解也難以發(fā)現(xiàn)且難以舉證,所以應當由生產(chǎn)者承擔產(chǎn)品責任,銷售者承擔不真正連帶責任。
人工智能動物論——由管理者承擔責任。由于人工智能尚不具備自主意識,其行為又與一般工具不同,不完全受人類控制,這與飼養(yǎng)的動物頗為相似,動物可能在人類授意下實施侵權(quán),也可能在無人類授意下發(fā)生侵權(quán)。盡管古代立法中有讓動物承擔法律責任的規(guī)定,但現(xiàn)代立法不再將動物視作法律主體,因此動物的侵權(quán)行為應由飼養(yǎng)人或者管理人承擔侵權(quán)責任。借鑒動物侵權(quán)法律規(guī)定,人工智能侵權(quán)也應由對其負有管理義務的人承擔。
人工智能主體論——由人工智能承擔責任。人工智能最大的特點在于其擁有智能,不但可以做出行為,而且能夠自主做出分析判斷,同時擁有比人類更加強大的數(shù)據(jù)收集、記憶和計算能力。法律可以將自然人以外的實體規(guī)定為法律主體,例如法人,對于人工智能也可以參照這種做法。而且,已經(jīng)有一些國家賦予或正在考慮賦予人工智能法律主體資格,如沙特阿拉伯的索菲亞機器人已獲公民資格。如果人工智能成為法律主體,則應當承擔其侵權(quán)行為引起的法律責任。
人工智能侵權(quán)的特殊性
人工智能侵權(quán)構(gòu)成要素復雜。現(xiàn)階段人工智能的技術(shù)框架主要以機器學習和深度學習為中心。從軟件層面,人工智能系統(tǒng)作出的判斷、決策等行為,實際上是對人工智能模型輸入一定數(shù)據(jù)而得到的函數(shù)輸出結(jié)果,其基本模型可以用“輸出=人工智能模型(基礎(chǔ)算法+訓練材料)+輸入”表示。侵權(quán)的輸出結(jié)果實際受到基礎(chǔ)算法、訓練材料和輸入行為三個要素的影響,這三個要素可能獨立導致侵權(quán)結(jié)果,也可能相互作用累積引起侵權(quán),這使得具體侵權(quán)案件的歸責難度加大。特別是,現(xiàn)有的司法人員普遍沒有接受過人工智能技術(shù)相關(guān)培訓,而技術(shù)人員又少有精通法律的,對人工智能侵權(quán)的事實認定和法律認定都非常困難。
使用人或管理人通常沒有主觀過錯。侵權(quán)案件中,通常是侵權(quán)人的違法行為造成了損害事實,違法行為與損害事實之間具有因果關(guān)系,且行為人對違法行為具有主觀過錯。但人工智能侵權(quán),使用人或管理人通常不具有侵權(quán)的故意或者過失,侵權(quán)行為和損害事實是人工智能程序自主判斷、決策的結(jié)果。以完全自動駕駛汽車為例,使用人給車輛下達行駛的命令,途中使用人并不參與車輛的轉(zhuǎn)彎、減速、超車、避讓等各類行駛決策。在車輛自動行駛的過程中,如果發(fā)生侵權(quán)事故,盡管使用人最初下達的行駛命令與侵權(quán)事實也有一定的關(guān)系,但二者之間的因果關(guān)系太弱,使用人使用車輛的意志并不包含任何侵權(quán)意圖,此時歸責于使用人,則會給使用人施加過重的事故防范義務,既不符合公平原則,也不利于人工智能的推廣應用。
人工智能具有一定的自主性。由于難以歸責于使用人,人工智能侵權(quán)主要應當是由產(chǎn)品本身問題引起的,因此應當在產(chǎn)品責任視角下討論。一般產(chǎn)品侵權(quán)是由于存在缺陷而造成他人損害,所謂缺陷是指產(chǎn)品存在危及人身、他人財產(chǎn)安全的不合理的危險,通常在生產(chǎn)階段按照相應的產(chǎn)品標準或質(zhì)量要求應當能夠發(fā)現(xiàn)這種缺陷。但人工智能產(chǎn)品與一般產(chǎn)品不同,雖然尚不具有類似人類的意志,但具有一定自主性,具有學習能力,引起侵權(quán)事故的原因既可能是設(shè)計生產(chǎn)階段已經(jīng)存在的缺陷,也可能是人工智能自主學習后產(chǎn)生的“危險”。而因人工智能學習引起的危險是否屬于“缺陷”,在目前法律規(guī)定中尚不明確。
人工智能侵權(quán)責任主體與歸責機制
生產(chǎn)和設(shè)計者是人工智能侵權(quán)責任主體。目前人工智能還處于高級函數(shù)的階段,不具備侵權(quán)的主觀意志,也不具有承擔侵權(quán)責任的能力。人工智能侵權(quán)還是表象,本質(zhì)上仍然是有安全注意義務的人由于故意或過失而未履行相應義務,而導致人工智能侵權(quán)危險的發(fā)生。對人工智能侵權(quán)負有安全注意義務的,應當是有能力知曉人工智能工作機理并控制人工智能行為的人。一般情況下,應該是人工智能的生產(chǎn)者和設(shè)計者。由于人工智能構(gòu)成的復雜性,產(chǎn)品的瑕疵或缺陷是發(fā)生在算法設(shè)計、調(diào)試階段,還是發(fā)生在機器學習訓練、測試生產(chǎn)階段,又會決定該歸責于設(shè)計者或生產(chǎn)者。在人工智能時代,設(shè)計者和生產(chǎn)者常常是分離的,所以這是兩類不同的侵權(quán)主體。
嚴格適用產(chǎn)品責任免責事由。人工智能侵權(quán)主要適用產(chǎn)品責任,侵權(quán)法和產(chǎn)品質(zhì)量法規(guī)定了生產(chǎn)者的三類免責事由:(一)未將產(chǎn)品投入流通的;(二)產(chǎn)品投入流通時,引起損害的缺陷尚不存在的;(三)將產(chǎn)品投入流通時的科學技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的。由于大量人工智能產(chǎn)品屬于技術(shù)前沿成果,人工智能算法或程序中確實存在一些生產(chǎn)者(設(shè)計者)無法預見的瑕疵或缺陷,這三類免責事由仍有適用空間。一方面應寬容創(chuàng)新,對于開發(fā)者能夠證明已盡力避免,而以當時認知和技術(shù)水平確實無法發(fā)現(xiàn)的缺陷風險,應當免除開發(fā)者的責任;另一方面應嚴格適用免責事由,嚴格規(guī)范開發(fā)者涉及人身、財產(chǎn)安全的人工智能程序開發(fā)行為,強化開發(fā)者安全注意義務,預防人工智能侵權(quán)風險發(fā)生和累積。
建立人工智能責任機制。一是逐步建設(shè)人工智能產(chǎn)品標準,使開發(fā)者明確其產(chǎn)品需要滿足的保障人體健康和人身、財產(chǎn)安全的國家標準或行業(yè)標準,避免出現(xiàn)缺陷產(chǎn)品。引導行業(yè)建設(shè)人工智能開發(fā)者安全注意義務準則,加強行業(yè)自律規(guī)范。二是建立人工智能缺陷產(chǎn)品召回機制,建立算法變化節(jié)點時間表機制。對發(fā)現(xiàn)缺陷后的產(chǎn)品應及時召回或停止提供服務,并評估人工智能算法的變化節(jié)點,排查變化原因,明確引起變化并導致侵權(quán)的責任主體。三是探索類似交強險的人工智能責任險。由于人工智能可能存在無法歸責于使用者,也不宜歸責于生產(chǎn)設(shè)計者的侵權(quán)風險,可以設(shè)立人工智能責任險,及時為被侵權(quán)人提供救濟,分擔開發(fā)者風險,保障行業(yè)健康發(fā)展。