摘 要:因特網(wǎng)的廣泛應用讓算法應用席卷了社會的各個領域,信息時代重構了信息傳播的結構、突破了信息體量的上限、實現(xiàn)了信息的實時性傳輸、豐富了信息交互的方式,使算法這個數(shù)據(jù)驅(qū)動的力量可以跨空間、跨時間地采集和分析大量的數(shù)據(jù),從而讓算法發(fā)揮它真正的潛力。但是隨著算法技術的發(fā)展,算法應用產(chǎn)生的一系列問題也開始突顯。本論文旨在通過闡述算法技術發(fā)展給權益保護帶來的風險,分析侵權法應對算法侵權的可行性與缺陷,提出對算法侵權歸責制度的具體設想。
關鍵詞:算法;法律;侵權責任
一、機器學習算法與最優(yōu)數(shù)據(jù)表達
機器學習是目前利用算法處理數(shù)據(jù)最主流的一種方式,它可以從數(shù)據(jù)中學習并做出預測和決策,是現(xiàn)階段解決人工智能問題的重要方式。為了達到準確預測和決策的目標,機器學習會通過對原始數(shù)據(jù)的提煉,產(chǎn)生更好的數(shù)據(jù)表示,使后續(xù)任務的完成更加準確與高效,所以找到最優(yōu)的數(shù)據(jù)表達是機器學習的核心任務。機器學習發(fā)展至今出現(xiàn)了可以解決多種問題的學習方法,學界一般將這些機器學習方法分為監(jiān)督式學習、非監(jiān)督式學習、強化學習、深度學習。
二、算法應用給權益保護帶來的風險
算法作為當今社會建設中的一個重要技術支撐,廣泛應用于教育、醫(yī)療保健、能源、商業(yè)、交通等領域。例如在庫存管理中,可以通過算法來解決庫存管理中出現(xiàn)的問題,減少庫存周轉時間,提高空間利用率。在疾病診斷相關組(DRG)中,使用機器算法將大量患者的信息快速進行分類。在商業(yè)應用中,電商使用算法來進行動態(tài)定價,以增加市場競爭力和使利潤最大化,學習和分析顧客的瀏覽和點擊行為,定制產(chǎn)品和服務或進行個性化產(chǎn)品推送。似乎這樣看來算法和人類決策相比,算法更為著快速、效率、準確。然而隨著算法應用領域的不斷擴張,其對權利的侵害讓我們產(chǎn)生疑問,算法真的可以凌駕于人類之上,作出比人類更為公正的決策?
Predpol犯罪預測模型與LSI-R量表就是算法在公共安全和司法領域應用的例子,前者可以預測未來犯罪活動發(fā)生地點,后者可以評估罪犯的犯罪危險性水平。非營利組織Pro Publica研究發(fā)現(xiàn),這類算法系統(tǒng)性地歧視了黑人,白人更多被錯誤地評估為低犯罪風險,而黑人被錯誤地評估為高犯罪風險的概率是白人的兩倍。這兩者運用算法作出的決策都直接影響了公安部門與司法部門的行為,從而對算法決策相對人受到平等法律保護權利造成侵害。在社會經(jīng)濟方面,算法可以高效處理數(shù)據(jù)的能力,使一級價格歧視成為現(xiàn)實,其導致最典型的現(xiàn)象就是“大數(shù)據(jù)殺熟”,直觀體現(xiàn)就是“不同人不同價”、“不同手機不同價”等。甚至定價算法為商家之間達成默示壟斷協(xié)議創(chuàng)造了捷徑,從而構成“算法共謀”。如果這種情況不加以控制,算法的應用最終會侵害消費者權益,擾亂市場秩序。在個人信息保護方面,算法技術的發(fā)展已經(jīng)將個人信息權受到侵害的危險上升到了另一個高度,利用算法甚至可以從已被透露的個人信息中推測出未被透露的個人信息。
三、算法侵權適用侵權法的可行性與局限性
侵權法模式在規(guī)制算法方面有重要優(yōu)勢,它能夠快速響應算法時代侵權行為的復雜化,救濟方式更為靈活。然而,算法的技術性特點和應用廣泛的特點使得算法侵權變得普遍、行為方式更為隱秘、性質(zhì)難以被確定、損害結果更為多樣且影響范圍更大。目前的侵權法對算法侵害行為的認定與責任承擔存在諸多困難,因此有必要深入分析算法侵權適用侵權法的可行性與局限性,以期明確侵權法對算法侵權的未來立法方向。
(一)算法侵權適用缺陷產(chǎn)品侵權責任的局限性
承擔缺陷產(chǎn)品侵權責任包括以下兩種情況:第一,產(chǎn)品本身存在缺陷,且是由于該缺陷對他人人身權利、財產(chǎn)權利造成侵害;第二,由于銷售者的過錯導致產(chǎn)品缺陷,且是由于該缺陷對他人人身權利、財產(chǎn)權利造成侵害。
但是算法侵權適用產(chǎn)品責任路徑存在一定的困難:首先,算法的產(chǎn)品性質(zhì)的難以確定。比如像百度、Google等搜索引擎和電商的定價算法模型很難被認為是用于銷售的產(chǎn)品,搜索引擎的算法決策服務是免費提供的,甚至不享有知識產(chǎn)權中的專利權保護;其次,產(chǎn)品責任是建立在產(chǎn)品缺陷的前提之下,但是算法侵權可能是由于輸入數(shù)據(jù)的錯誤和偏差所造成的。最后,算法侵權相對人的舉證困難。產(chǎn)品責任適用的是一般舉證責任,而算法與一般產(chǎn)品最大的差異是其自動化技術發(fā)展的復雜性,受侵權人往往發(fā)現(xiàn)不了算法的缺陷,無法證明其缺陷存在,也無法確定算法決策侵權的原因是由于算法缺陷造成的。
(二)算法侵權適用一般侵權責任
(1)侵害行為
算法關系人之間行為互相所造成的影響錯綜復雜,因此確定算法侵權者的義務產(chǎn)生來源是界定義務范圍的重點。毋庸置疑,算法侵權人首先必然需要承擔不侵害他人合法權益的基本消極義務。但由于算法自動化決策的不透明性和算法應用的大規(guī)?;?,導致其可能侵權的風險增高,并且一旦侵權,所造成的損害也會更大。因此,事先規(guī)定算法侵權人的作為義務可以更加完善的保護法律認為重要的社會關系。比如,規(guī)定算法所有人或控制者由于先前行為創(chuàng)設了危險情況所產(chǎn)生的作為義務,或者是由于算法所處的平臺擁有法律規(guī)定的特定的職責所產(chǎn)生積極作為的安全保障義務。除此之外,算法侵權作為一種新型侵權類型,侵害行為的方式復雜且多樣,這其中還應當包括“準侵害行為”,也就是在算法完全自主決策情況下的侵權行為,因為這個行為從客觀上看并不被算法應用者完全控制。
(2)侵權主體
在算法決策造成他人損害時,不能簡單地認定由該算法開發(fā)者或使用者承擔侵權責任,因為算法模型可能是由多個主體共同開發(fā)設計,同時也要考慮算法使用者對算法決策結果的過程的影響。這就涉及到多個侵權主體之間共同性的判定。對多個侵權主體之間的“共同性”判斷是影響共同侵權構成的重中之重,在算法侵權的語境下,就是需要證明算法開發(fā)者與算法使用者對算法模型的設計目的、算法決策有共同認識,或者對算法決策造成的結果應當共同盡到合理的注意而沒有注意。如前文所提到運用在公共安全領域和司法實踐中的算法,這些算法模型的設計初衷是為了滿足社會需求、促進商業(yè)發(fā)展等合法目的,并不存在共同故意的情況。盡管共同過錯包括共同過失的情況,但是這也加重了受侵權人的舉證責任。因此,為了能夠更好保護受到算法決策相對人的合法權益,算法決策的共同侵權行為只要數(shù)個侵權主體基于一致的意思而行事,且在客觀上有共同的侵權行為,就應當承擔共同侵權責任。
(3)損害事實
算法決策可能會造成對人格權和身份權的損害,比如美國航空公司一名飛機駕駛員就由于算法多次錯誤地判定他是一名愛爾蘭共和軍領導人,使得他在機場遭到高達80多次的拘禁,該名飛機駕駛員的人格權受到了算法決策的侵害。算法決策的歧視性對自由、平等、尊重等利益的無形人格利益損害是算法侵權的重災區(qū)。在司法實踐中,受侵害人一般需要承擔證明損害結果的發(fā)生、大小、程度等要素的舉證責任。在算法侵權中,損害后果可能只是表現(xiàn)為對受侵害人造成了不同程度的精神負擔和心理憂慮,可是這些精神損害在引起一系列身體疾病之前是很難被證明的。這不僅僅是算法侵權損害確定中的問題,也是證明具體人格權被侵害的舉證難題。英美侵權法對此有一個特色的制度設計,只要對這類權益有侵害事實,受侵害人就有權請求侵權主體承擔侵權責任。它們將這種類型的損害事實稱為可訴性損害(damage per se),可訴性制度減輕了算法侵權中受侵害人的舉證責任難度,可以加大對算法侵權的權益保護的力度。
(4)因果關系
在算法侵權的語境下,一般因果關系比較難以確定,算法侵權主體往往存在數(shù)個,算法自動化決策具有不透明性,因此算法侵權具有相當?shù)碾[蔽性,甚至許多算法決策利害關系人不知道算法侵權的存在,因此也難以判斷其因果關系。為了明確算法侵權責任中的因果關系,可以考慮在某些權利保護領域內(nèi),對其適用違反作為義務的因果關系。例如算法開發(fā)者或者算法應用者因為先前的行為產(chǎn)生作為義務或者因為平臺責任負有積極作為的安全保障義務,那么其不作為的侵害事實與損害結果存在因果關系。
綜上所述,侵權主體義務范圍的界定、具體侵權主體的認定、適用可訴性制度、因果關系的判斷都需要建立在算法自動化決策的透明性和可解釋性的基礎之上,而這都需要圍繞算法的技術性展開立法。然而,我國無論是對算法技術的強制性標準,還是算法侵權責任都無專門規(guī)定,更不具有體系性。司法實踐中,只能根據(jù)其他分散在各個部門法中所涉及算法的條款予以適用,但特別規(guī)則多,普遍規(guī)則少。算法侵權責任相關法規(guī)的碎片化使規(guī)則的適用產(chǎn)生不確定性,規(guī)則適用又缺乏彈性。
四、結語
因此在當今算法時代,法律應當對算法侵害行為造成的權利損害提供更加完備救濟依據(jù),充分認識到傳統(tǒng)侵權法在認定算法侵權責任方面的可行性和不足,關注算法的模型設計、使用目的、投入應用、做出決策的每一個環(huán)節(jié)可能引發(fā)的風險。本論文主要分析了侵權法對算法侵害權益的救濟可行性,當然這僅僅是對算法侵權具體歸責制度的投礫引珠,更多的法律框架和具體制度的設計仍待學者進一步探究。
參考文獻
[1] [美]凱西·奧尼爾.算法霸權:數(shù)學殺傷性武器的威脅[M].中信出版集團,2018.
[2] 王利明.侵權責任法研究 (上卷)[M].中國人民大學出版社,2010.
[3] 王澤鑒.民法學說與判例研究(第二冊)[M].中國政法大學出版社,2009.
[4] 鄭戈.算法的法律與法律的算法[M].中國法律評論,2018.
[5] 孫政偉.大數(shù)據(jù)時代侵權責任法的基本功能與制度安排[M].吉林大學,2017.
[6] Yuxi Li,deep reinforcement learningar,Xiv:1810.06339v1 [cs.LG] 15 Oct 2018.
[7] Anupam Chander,The Racist Algorithm,115 Mich.L.Rev.1023(2016).
[8] Pasquale F.The black box society: The secret algorithms that control money and information.Harvard University Press,2015.
作者簡介:李思潁(1994- ),女,碩士研究生,研究方向:民法。