西安交通大學(xué)法學(xué)院 余楠
算法作為21世紀(jì)各大商業(yè)公司爭先研發(fā)的技術(shù),作為能夠代替人類頭腦進(jìn)行決策的工具,當(dāng)然存在著其特有的價值;另一方面,算法決策作為一項技術(shù)應(yīng)用,是被算法設(shè)計者所研發(fā)出來的,算法設(shè)計者在設(shè)計過程中為了滿足商業(yè)公司的要求與利益,本身就帶著不理性與偏見,而算法本身的決策輸出過程也可能存在著偏差,這就導(dǎo)致人們對算法決策產(chǎn)生了疑慮,甚至是恐懼。然而完全杜絕算法決策參與我們的生活與工作是不太現(xiàn)實的,不少學(xué)者便提出了算法透明的觀點,但這一觀點的實施立馬遭到了擁有算法技術(shù)公司的反對,他們認(rèn)為算法透明不僅侵害其商業(yè)秘密,而且由于算法具有極強的專業(yè)性,即使公開算法過程也很難向一般社會大眾解釋該套算法是如何運作的。通過何種路徑達(dá)到個人私權(quán)與企業(yè)的商業(yè)秘密的平衡也成了亟須解決的問題。
首先,算法存在偏見?!巴ㄟ^對已有研究成果的總結(jié),導(dǎo)致算法偏見的原因主要包括兩個方面:一是與輸入數(shù)據(jù)相關(guān)的偏見;二是與算法相關(guān)的偏見?!蹦壳?,市場上廣泛使用的算法是學(xué)習(xí)型算法,該類算法需要通過輸入海量的數(shù)據(jù)來進(jìn)行訓(xùn)練,從而形成自身的算法決策邏輯。因此,一旦輸入數(shù)據(jù)存在偏見,就會導(dǎo)致算法決策結(jié)果存在偏見,即使算法是一項中立且客觀的技術(shù)。另一方面,算法自身也可能存在偏見。算法是由人類創(chuàng)造出來的,算法設(shè)計者在進(jìn)行相關(guān)算法模型設(shè)計時就有可能帶有主觀偏見,這樣一來,算法偏見便形成了。
其次,算法會帶來價格歧視、大數(shù)據(jù)殺熟以及限制消費者瀏覽等問題。商家首先通過各種途徑獲知消費者個人信息,然后進(jìn)行數(shù)據(jù)分析并建構(gòu)事件模型。這些事件模型包括時間(時間截和時間長度)、地點(用戶接觸點即網(wǎng)址)、內(nèi)容(每個網(wǎng)址中的內(nèi)容)以及事情(評論、點贊、購買等),海量的事件聚集在一起就形成了該用戶的畫像。最后,商家便會利用算法形成的畫像對消費者進(jìn)行精準(zhǔn)的廣告推送,以此來影響消費者的決策。于是,價格歧視、大數(shù)據(jù)殺熟的問題就產(chǎn)生了,同樣的產(chǎn)品和服務(wù)針對不同的客戶會有不同的價格,甚至?xí)T客戶需要支付更高的價格來購買相同的產(chǎn)品和服務(wù)。同時,算法決策也剝奪了自我選擇的權(quán)利,使我們喪失了獲取那些我們不感興趣事物的機會。在生活中我們不難發(fā)現(xiàn),很多平臺軟件甚至比我們自己更了解我們,站在商家的立場上,他們認(rèn)為算法既大大增加了顧客的黏性,為他們創(chuàng)造了利益,也大大節(jié)省顧客的時間,避免了許多曲折的經(jīng)歷。我們不能否認(rèn)算法決策在這些方面顯示出的巨大優(yōu)越性,但未經(jīng)瀏覽者同意的算法決策植入是不是也在某種程度上損害了人們自由選擇的權(quán)利。
算法決策還可能導(dǎo)致歧視,從而損害信息被采集者的相關(guān)權(quán)利。美國威斯康辛州懲教署官員在為盧米斯制作量刑前調(diào)查報告時,采用了算法決策模型的分析結(jié)果,初審法院在量刑判決中也參考了該評估結(jié)果,并根據(jù)該評估結(jié)果對盧米斯做出了六年有期徒刑和五年社區(qū)監(jiān)督的處罰。盧米斯隨即便向初審法院提出了減輕刑罰的請求,并要求法院公開算法決策模型做出該評估結(jié)果的依據(jù)。盡管終審法院經(jīng)過審理后駁回了他的上訴理由,但依舊引起了許多學(xué)者對于該判決的反對。由此可見,隨著算法決策應(yīng)用的不斷深入,它對我們相關(guān)權(quán)利的影響也就越來越大。今后,當(dāng)企業(yè)、銀行、事業(yè)單位、行政機關(guān)都開始應(yīng)用算法決策模型來處理相關(guān)問題和事件時,對于算法決策模型規(guī)制的需求就越發(fā)強烈。企業(yè)會運用算法決策模型進(jìn)行招聘,銀行會依據(jù)算法決策模型進(jìn)行放貸,行政機關(guān)會依據(jù)算法決策模型做出行政行為,一旦算法決策模型不能得到規(guī)制,我們的相關(guān)權(quán)利就可能會遭到損害。
算法技術(shù)的運用就好比是汽車的應(yīng)用,科技進(jìn)步在帶來諸多便利和好處的同時,也存在著許多危及權(quán)利的風(fēng)險。毫無疑問我們必須允許這樣的危險存在,就像汽車雖然存在著危及人類生命健康的危險,汽車技術(shù)依舊普遍使用那樣;但與規(guī)制汽車的應(yīng)用不同,算法暫時還不需要設(shè)定一部像《道路交通安全法》那樣的法律來進(jìn)行規(guī)制。因此,為了平衡好算法發(fā)展與個人私權(quán)之間的關(guān)系,我們可以從以下路徑對算法決策進(jìn)行規(guī)制。
(1)建立算法決策模型備案機制。前面有提到不少學(xué)者提出了算法透明的觀點,立馬遭到了擁有算法技術(shù)公司的反對。從商業(yè)秘密的角度來看,將算法決策模型向公眾公開確實是一個不太現(xiàn)實的想法;甚至即使不考慮商業(yè)秘密,將算法模型予以公開,普通消費大眾也無法讀取其中有用的信息,在他們眼里算法決策模型只是一堆毫無意義的代碼。但是,我們可以借鑒專利申請注冊的經(jīng)驗,由專門機關(guān)和專業(yè)的人才為我們把控其中的風(fēng)險。讓算法設(shè)計者和算法使用者在使用算法決策模型前到指定的機關(guān)進(jìn)行審查備案,這樣就能在一定程度上杜絕一些算法決策可能造成的損害。同時,在算法技術(shù)公司的內(nèi)部也應(yīng)當(dāng)建立相應(yīng)的算法決策模型審查部門,隨時隨地監(jiān)管算法決策模型可能存在的潛在危害。
(2)算法相對人有權(quán)要求算法使用者/設(shè)計者對收集的個人信息履行告知披露義務(wù);對于錯誤的個人信息,算法相對人有權(quán)行使更正權(quán)。算法決策是以大數(shù)據(jù)為依托的,想要減少算法決策對個人私權(quán)的影響,首先得對算法決策收集的個人信息進(jìn)行規(guī)范。這就要求算法使用者/設(shè)計者應(yīng)當(dāng)履行相應(yīng)的告知以及披露義務(wù),而知情權(quán)在我國現(xiàn)有法律框架內(nèi)早有規(guī)定。根據(jù)《民法典》第111條和1035條的規(guī)定,算法使用者/設(shè)計者在收集他人信息時應(yīng)當(dāng)循序合法的原則,向信息收集者說明使用信息的目的,并確保信息的安全?!峨娮由虅?wù)法》第二十四條規(guī)定了用戶享有信息查詢、更正和刪除的權(quán)利,因此算法相對人在發(fā)現(xiàn)個人信息存在錯誤或者被未經(jīng)允許收集時,有權(quán)要求算法使用者/設(shè)計者對錯誤信息予以更正,對未經(jīng)允許收集的信息予以刪除。這就在一定程度上解決了算法決策模型在用戶畫像階段的信息準(zhǔn)確性,從而也減少了算法決策模型中存在的偏見。
(3)算法相對人有權(quán)拒絕對自己產(chǎn)生重大影響的算法決策?!盀榱朔乐箓€人淪為自動決策算法的純粹客體,我國未來的《個人信息保護(hù)法》可以借鑒歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡稱條例)第22條的規(guī)定,賦予數(shù)據(jù)主體對算法結(jié)果的拒絕權(quán)?!鼻懊鎯煞N措施都是在事前對算法決策進(jìn)行干預(yù),以保證其最終輸出的結(jié)果盡量符合客觀事實,但允許算法相對人拒絕對自己產(chǎn)生重大影響的算法決策是一種事后防御權(quán)。事后防御權(quán)我們不難理解,難以理解的是什么叫做產(chǎn)生重大影響。不少學(xué)者對條例中所提到的重大影響作出了剖析,認(rèn)為單純地以算法相對人的視角認(rèn)定重大影響是不可取的,因為算法相對人在主觀上都會認(rèn)為自己遭受了算法決策所帶來的重大不利影響?;蛟S可以借鑒民法合同訂立過程中一般理性人視角的經(jīng)驗,結(jié)合各方面事實綜合認(rèn)定算法決策是否對算法相對人產(chǎn)生重大影響,由此賦予算法相對人算法決策拒絕權(quán)。
(4)算法相對人在相關(guān)權(quán)利受到損害時,可以尋求司法救濟。在實際生活中,當(dāng)算法相對人發(fā)現(xiàn)算法決策結(jié)果對自己產(chǎn)生重大影響時,可以先與算法決策使用人或者算法決策設(shè)計者進(jìn)行協(xié)商,要求算法決策使用者或設(shè)計者重新決策或者要求算法使用者說明做出算法決策結(jié)果的依據(jù),雙方達(dá)成合意的,可以按照“意思自治”原則解決雙方糾紛;協(xié)商不成的,雙方可以尋求司法救濟,借助法院等相關(guān)機構(gòu)的力量解決兩者之間的糾紛。司法救濟作為一種事后救濟,是保護(hù)算法相對人相關(guān)權(quán)利的最后一道屏障。
法律的發(fā)展總是滯后于科技的進(jìn)步,當(dāng)一種新型事物出現(xiàn)時,必然會存在部分法律沒有規(guī)定的地方,對于新事物,我們永遠(yuǎn)處在發(fā)現(xiàn)它、認(rèn)識它以及規(guī)制它的這一發(fā)展過程中。就好比算法決策,大數(shù)據(jù)技術(shù)的發(fā)展為算法決策提供了支撐,漸漸地,商家開始運用算法為自身增加平臺用戶黏性以及經(jīng)濟收益,然后伴隨著算法決策的廣泛應(yīng)用,法律問題開始突顯,越來越多的人開始意識到算法決策模型有可能會對我們的權(quán)利造成損害。算法偏見、算法歧視、大數(shù)據(jù)殺熟等字眼,頻頻出現(xiàn)在各種媒體和新聞界面里,到現(xiàn)在人人都處于算法決策中,但也擔(dān)憂和恐懼算法有可能給自身帶來的重大影響。不少學(xué)者也開始探尋規(guī)制算法的路徑,希望能找到平衡商業(yè)秘密和個人權(quán)利保護(hù)的方法,以更好地促進(jìn)算法技術(shù)的發(fā)展和應(yīng)用。本文通過對算法決策模型問題的描述,進(jìn)而分析當(dāng)前算法決策存在的妨害,最終給出了規(guī)制算法決策的路徑:首先得建立算法決策模型備案機制,在源頭上把握算法決策模型可能帶來的權(quán)利損害;其次使用算法決策模型的企業(yè)應(yīng)當(dāng)履行相應(yīng)的披露義務(wù),將相關(guān)數(shù)據(jù)的收集情況告知算法相對人,以便于算法相對人及時行使刪除權(quán)、更正權(quán)等權(quán)利;對于算法決策結(jié)果應(yīng)當(dāng)賦予算法相對人拒絕權(quán),但拒絕權(quán)不是算法相對人想拒絕就拒絕,算法相對人僅有拒絕對自己產(chǎn)生重大影響的算法決策。重大影響的標(biāo)準(zhǔn)不能以算法相對人的認(rèn)知進(jìn)行判斷,而是引用民法中一般理性人的假設(shè)理論對重大影響進(jìn)行衡量;最后算法相對人在權(quán)利受到損害時,可以向司法機關(guān)尋求救濟。
總之,在法律的約束下,技術(shù)才能得到健康發(fā)展,因此,算法決策規(guī)制路徑的探索就顯得十分重要,我們需要不斷進(jìn)行探索以更好地促進(jìn)算法技術(shù)的發(fā)展。