鐘曉雯
(西南政法大學 民商法學院,重慶 401120)
“權(quán)力”是社會科學中的基本概念,其本質(zhì)體現(xiàn)為“意志自由”和“支配力”,其中“意志自由”指向權(quán)力主體的內(nèi)部效力,“支配力”指向權(quán)力主體與權(quán)力受體的外部關(guān)系。從內(nèi)部效力來看,權(quán)力的本質(zhì)表現(xiàn)為權(quán)力主體的意志自由。馬克斯·韋伯(Max Weber)曾描述“權(quán)力”為“一個人或若干人在社會行為中實現(xiàn)自己意志的機會,甚至不顧參與該行為的其他人的反抗”。[1]即權(quán)力主體能夠排除其他反抗意志,以自我決定和自我控制的方式實施自己的意志,但這需要以犧牲權(quán)力受體的意志自由為代價。如此一來,就衍生出了權(quán)力主體與權(quán)力受體的外部支配關(guān)系。支配力是權(quán)力的核心要素,權(quán)力主體的支配力來源于其占有的資源優(yōu)勢,如政府等公權(quán)力機關(guān)憑借統(tǒng)治資源形成對社會主體的支配力;私人資本憑借經(jīng)濟資源形成對勞動者的支配力等。[2]將這一結(jié)論移植于網(wǎng)絡空間,即可發(fā)現(xiàn),網(wǎng)絡服務提供者憑借技術(shù)資源形成了對用戶的支配力,但這僅為事實上的權(quán)力,尚缺乏行使的正當性依據(jù)。從現(xiàn)有法律與網(wǎng)絡服務實踐來看,立法與網(wǎng)絡服務用戶協(xié)議實際上授予了網(wǎng)絡服務提供者資格審查、信息監(jiān)管和處置,以及規(guī)范用戶的權(quán)力,恰好彌補了網(wǎng)絡服務提供者行使私權(quán)力缺乏正當性依據(jù)的缺陷。
《中華人民共和國民法典》(簡稱《民法典》)、《中華人民共和國網(wǎng)絡安全法》(簡稱《網(wǎng)絡安全法》)和《中華人民共和國電子商務法》(簡稱《電子商務法》)等法律文件授予了網(wǎng)絡服務提供者資格審查、信息監(jiān)管和處置的權(quán)力。例如《民法典》第1195條明確了網(wǎng)絡服務提供者在接到權(quán)利人提供的構(gòu)成侵權(quán)的初步證據(jù)及其真實身份信息的通知時,有義務將該通知轉(zhuǎn)送相關(guān)網(wǎng)絡用戶,并采取刪除、屏蔽、斷開鏈接等必要措施(“通知—必要措施”規(guī)則);《網(wǎng)絡安全法》第47條要求網(wǎng)絡服務提供者應當承擔信息監(jiān)管義務,在發(fā)現(xiàn)具體違法信息時,應采取停止傳輸、消除等必要處置措施;《電子商務法》第38條明確電子商務平臺經(jīng)營者負有對平臺內(nèi)經(jīng)營者的資質(zhì)資格進行審核的義務,以及在平臺內(nèi)經(jīng)營者侵害消費者合法權(quán)益時,負有采取必要措施的義務等。單從文義解釋上看,上述條款表達的是國家課以網(wǎng)絡服務提供者的義務,但從反向視角來看,這也可以理解為是一種授權(quán)。網(wǎng)絡服務提供者負擔的資格審查、信息監(jiān)管等義務,本質(zhì)上與物理空間中行政機關(guān)采取行政許可、接到報案后對受害人進行行政救助等情形一致,是一種借助權(quán)力實現(xiàn)社會監(jiān)管、權(quán)利救濟的機制。
網(wǎng)絡空間以網(wǎng)絡服務提供者為輻射中心形成了自上而下的“行政主管部門—網(wǎng)絡服務提供者—用戶”的權(quán)力邏輯關(guān)系,法律將本屬于“行政主管部門”的權(quán)力部分授予了網(wǎng)絡服務提供者。這是因為,相較于行政主管部門囿于網(wǎng)絡空間的虛擬性而難以追蹤或控制相關(guān)違法行為的劣勢,網(wǎng)絡服務提供者能夠利用其占有的技術(shù)資源優(yōu)勢迅速作出因應,“根據(jù)危險控制理論,離危險源越近的人,越容易控制危險的發(fā)生”。[3]因此,網(wǎng)絡服務提供者基于其技術(shù)資源優(yōu)勢,取得了源自行政主管部門的部分權(quán)力,可對用戶發(fā)布的信息等進行審查、監(jiān)管和處置。
意定授權(quán)指向網(wǎng)絡服務用戶協(xié)議,即網(wǎng)絡服務提供者與用戶間簽訂的,載有雙方服務關(guān)系及其權(quán)利義務的格式合同。網(wǎng)絡服務用戶協(xié)議通常為電子合同,傳統(tǒng)紙面上的簽字蓋章也逐漸演化為電子簽章?;陔娮由虅辗ㄖ械墓δ艿韧瓌t,以數(shù)據(jù)電文形式訂立的電子合同與以傳統(tǒng)書面形式訂立的紙質(zhì)合同具有同等法律效力。網(wǎng)絡服務提供者規(guī)范用戶行為的權(quán)力依據(jù)主要體現(xiàn)在協(xié)議內(nèi)容上。盡管不同的服務協(xié)議內(nèi)容設(shè)置各異,但協(xié)議內(nèi)容多以規(guī)范用戶行為和免除網(wǎng)絡服務提供者責任為主。
以微信APP的《軟件許可與服務協(xié)議》(簡稱《協(xié)議》)為例,《協(xié)議》第8條“用戶行為規(guī)范”針對微信用戶行為從五個方面作了詳盡規(guī)定:“信息內(nèi)容規(guī)范”“軟件使用規(guī)范”“服務運營規(guī)范”“對自己行為負責”以及“違約處理”;其中第8.1條“信息內(nèi)容規(guī)范”以“列舉+概括”的方式明確約定了微信用戶行為的邊界,即約定用戶使用微信過程中禁止制作、復制、發(fā)布和傳播的信息內(nèi)容范圍;第8.5條明確約定騰訊公司在用戶違反約定的行為規(guī)范時,有權(quán)不經(jīng)通知隨時采取刪除、屏蔽相關(guān)內(nèi)容及賬號封禁等必要措施。網(wǎng)絡服務用戶協(xié)議對網(wǎng)絡服務提供者的授權(quán)除體現(xiàn)在規(guī)范用戶行為上,也體現(xiàn)在網(wǎng)絡服務提供者的責任免除上。《協(xié)議》第10.3條規(guī)定,騰訊公司和用戶共同承擔維護軟件安全與正常使用的責任,但騰訊公司不對用戶終端設(shè)備信息和數(shù)據(jù)安全的保護承擔完全保證責任。由此可見,網(wǎng)絡服務用戶協(xié)議名義上以平等自由為基礎(chǔ),實則充斥著大量約束用戶行為與免除網(wǎng)絡服務提供者責任的條款。
總體而言,網(wǎng)絡服務提供者基于技術(shù)資源優(yōu)勢,以法定和意定的方式取得了針對用戶的權(quán)力,一方面能夠較之行政主管部門高效治理網(wǎng)絡違法行為或信息;另一方面用戶以協(xié)議的形式讓渡部分權(quán)利至網(wǎng)絡服務提供者,使其能夠在特定范圍內(nèi)對相關(guān)行為作出必要規(guī)范,確保用戶權(quán)利有序行使。
正如霍布斯所總結(jié)的,人類有著“得其一思其二、死而后已、永無休止的權(quán)勢欲”,[4]網(wǎng)絡服務提供者也并未按照預設(shè)軌跡運行權(quán)力,而是開始擴張權(quán)力。算法推薦強化了網(wǎng)絡服務提供者占有的技術(shù)資源優(yōu)勢,更加劇了其權(quán)力擴張與濫用的趨勢,具體表現(xiàn)為網(wǎng)絡服務提供者利用算法推薦侵犯用戶合法權(quán)益,以及構(gòu)建隱形規(guī)訓和統(tǒng)治空間。
網(wǎng)絡服務提供者利用算法推薦侵害用戶的合法權(quán)益,在隱私權(quán)、知情權(quán)以及人格尊嚴上表現(xiàn)得尤為明顯。
其一,侵害用戶隱私權(quán)。隱私權(quán)是自然人與生俱來的權(quán)利,該項權(quán)利已被明確列入法律。《民法典》第1032條第2款對“隱私”作了界定:“隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息?!币虼?,對隱私權(quán)的侵害既表現(xiàn)為個人私密信息的泄露,亦表現(xiàn)為對“私人生活安寧”的破壞。在個人私密信息的泄露上,由于算法實質(zhì)上是一種分析利用數(shù)據(jù)的智能技術(shù),即算法通過分類整理數(shù)據(jù)并依據(jù)計算模型作出算法決策,數(shù)據(jù)的體量直接決定了算法所能達到的深度,數(shù)據(jù)的精準度直接影響著算法決策的精確度。因此,算法的運行需要收集海量數(shù)據(jù),但這些數(shù)據(jù)收集可能并未獲得用戶的事先同意。不同的算法所針對的數(shù)據(jù)類別存在差異,但未經(jīng)用戶同意的數(shù)據(jù)收集行為必然侵犯了用戶的隱私權(quán)。比如搜索引擎的算法推薦應用中,搜索引擎的決策過程與決策結(jié)果(搜索結(jié)果)所依據(jù)的是算法對用戶的“個人畫像”,用戶在搜索時所輸入的關(guān)鍵字等數(shù)據(jù)僅是一個索引,“個人畫像”的形成更多的是依賴用戶的搜索歷史與瀏覽記錄,甚至是聊天記錄。倘若在未經(jīng)用戶同意前即對這些數(shù)據(jù)進行收集,將侵犯用戶的隱私權(quán)。[5]
算法對個體隱私權(quán)的侵犯還表現(xiàn)為對“私人生活安寧”的破壞?!氨本┌俣染W(wǎng)訊科技公司與朱燁隱私權(quán)糾紛”(1)參見江蘇省南京市中級人民法院(2014)寧民終字第5028號民事判決書。即為典型案例。在該案中,朱燁以“減肥”“豐胸”為關(guān)鍵詞在百度搜索引擎展開搜索后,其在瀏覽網(wǎng)頁時會頻繁出現(xiàn)關(guān)于減肥、豐胸的廣告。在這一過程中有幾點信息是可以確認的:朱燁的搜索關(guān)鍵字被搜索引擎所記錄,該搜索記錄被搜索引擎以外的廣告公司獲取(當然也可能是搜索引擎本身,但這種利用已經(jīng)背離了用戶使用搜索引擎的初衷,而且這種推送可能多次發(fā)生在不同對象中),廣告公司根據(jù)該搜索記錄對朱燁進行“畫像”并根據(jù)“畫像”向朱燁不斷推送廣告。在這些過程中,搜索引擎獲取朱燁的搜索關(guān)鍵詞是被許可的,因為這是算法展開分析與決策的前提條件,但搜索引擎將關(guān)鍵詞的相關(guān)數(shù)據(jù)轉(zhuǎn)移至廣告公司,以及廣告公司向用戶持續(xù)直接地推送廣告的行為,無疑侵犯了用戶的“私人生活安寧”。
其二,侵害用戶知情權(quán)。知情權(quán)的行使關(guān)乎公平、正義和自由。算法推薦通過收集、篩選并整理個體在網(wǎng)絡空間留下的數(shù)字痕跡(個體注冊信息,用戶閱讀、搜索、瀏覽、評論記錄等),能夠精確勾勒出個體的興趣和偏好圖譜,形成精確的“個人畫像”。利用該“個人畫像”,各種消費平臺能夠?qū)⑵鹾嫌脩襞d趣和偏好的信息精準分發(fā)至目標人群??梢哉f,個體消費者對于購物、用餐、出行、酒店的選擇基本全部依賴算法推薦。然而個體卻對其“個人畫像”形成的邏輯、根據(jù)(包括平臺抓取的數(shù)據(jù)類型、特征,形成畫像的具體維度等)以及內(nèi)容毫不知情,這顯然侵犯了其知情權(quán)。
其三,侵害用戶人格尊嚴。個體人格尊嚴的侵害與算法推薦衍生的算法歧視密切相關(guān)。算法歧視已經(jīng)成為算法時代下的常見風險形式,其充分證明了算法并非是技術(shù)中立的活動。算法歧視的產(chǎn)生主要來源于兩方面:一是算法抓取數(shù)據(jù)中產(chǎn)生的歧視。數(shù)據(jù)對于算法推薦結(jié)果具有基礎(chǔ)性作用,如果數(shù)據(jù)本身存在偏差,或者算法對于數(shù)據(jù)的選取出現(xiàn)偏差或側(cè)重,則可能導致推薦結(jié)果呈現(xiàn)歧視性。例如亞馬遜招聘系統(tǒng)將高薪職位更多推送給男性求職者的歧視現(xiàn)象,其根源在于該算法選用的原始數(shù)據(jù)是亞馬遜公司過往員工的相關(guān)數(shù)據(jù)。在亞馬遜公司的用工歷史上,男性員工明顯多于女性,由此導致算法推薦的結(jié)果偏重于男性。二是算法的設(shè)計/部署產(chǎn)生的歧視。算法在很多時候并非是一種完全價值中立的科學活動或數(shù)學活動,相反,其總是與特定的價值立場相關(guān),蘊含著價值判斷。[6]算法設(shè)計/部署者往往通過算法指令摻雜自己的價值觀,從而導致歧視現(xiàn)象產(chǎn)生。
算法推薦能夠通過收集分析用戶在網(wǎng)絡空間中留下的數(shù)字痕跡(注冊信息、瀏覽日志、歷史評價記錄等),挖掘用戶的興趣偏好,精準勾勒出用戶的“個人畫像”,并對用戶進行個性化的信息推薦與分發(fā),從而影響算法相對人,由此算法也具有了一定的權(quán)力(“算法權(quán)力”)。算法權(quán)力的表象是技術(shù)權(quán)力,其背后隱藏的是資本權(quán)力。[7]當算法權(quán)力滲透到人類生活的方方面面,即會在某種意義上形成一種隱性規(guī)訓和統(tǒng)治空間(“算法規(guī)訓”和“算法統(tǒng)治”)。
算法規(guī)訓首先表現(xiàn)在對用戶價值觀的影響上。人的價值觀的形成受到多種因素影響,其中新聞媒介的影響力不容小覷。在紙質(zhì)傳媒時代,新聞的內(nèi)容是經(jīng)過專業(yè)編輯選擇的,其中的意識形態(tài)與價值觀念也當然經(jīng)過了選擇。具有普世意義的價值觀更容易得到采納與傳播,并影響終端用戶,促進用戶正確價值觀的塑造。此外,紙質(zhì)傳媒內(nèi)容的豐富性,有利于讀者全面獲取信息。依據(jù)信息論的觀點,一個人掌握的信息越充分,其在進行個人價值實現(xiàn)方面的決策時就越能處于有利地位并趨于理性,但在算法分發(fā)新聞的情況下會出現(xiàn)截然相反的情形。
算法分發(fā)新聞會根據(jù)用戶的初始選擇對用戶主動推送相關(guān)新聞,在算法分發(fā)已成為網(wǎng)絡新聞最主要的分發(fā)方式的情況下,其優(yōu)勢與劣勢同時出現(xiàn)。盡管算法分發(fā)新聞只是對同類、偏好新聞的推送,并不創(chuàng)造新的內(nèi)容,但同類推薦會形成封閉的信息空間,隔絕多元信息穿透傳播的可能性,致使用戶接收到的信息趨于同質(zhì)化,逐漸形成信息繭房并衍生回音室效應。“信息繭房”和“回音室效應”的概念由凱斯·桑斯坦(Cass R. Sunstein)提出,他認為盡管互聯(lián)網(wǎng)技術(shù)可以促使人們逃離地理學上的繭房和回音室,但互聯(lián)網(wǎng)中的個性化信息服務過濾了多元化的觀點,不同網(wǎng)絡群體更傾向于選擇和獲取自己感興趣或與自己觀點相同/相似的信息,并忽視與外部世界的交流和溝通。這種持續(xù)衍化的群內(nèi)同質(zhì)和群際異質(zhì)現(xiàn)象會產(chǎn)生“信息繭房”效應,即如同置身于蠶繭般作繭自縛,進而形成“回音室效應”。[8]“回音室效應”意指信息過濾機制使人們只獲取到他們感興趣或認同的信息,長期以往,當這些信息中所蘊含的觀點被不斷重復并加深時,人們在這個信息封閉的圈子中將只能聽到自己的“回聲”,變得容易固守偏見甚至誤將偏見視為真理,進而排斥和拒絕其他的合理性觀點和意見。[9]“信息繭房”及其衍生的“回音室效應”會導致用戶的閱讀范圍受限,尤其是致使塑造人們價值觀的信息范圍越來越窄,進而導致個人可能在非理智的情況下作出決策。例如某用戶可能只是因心情煩悶而點擊了有關(guān)抑郁癥的新聞,卻導致類似新聞大量推送,最終可能致使該用戶逐漸失去生活的希望并走向極端。此外,分發(fā)新聞的算法也可能被嵌入算法設(shè)計/部署者的價值觀念或主觀意圖,類似于劍橋分析公司干預美國總統(tǒng)選舉一樣,會在潛移默化中影響用戶選擇。算法推薦網(wǎng)絡服務提供者對用戶的算法規(guī)訓也就此形成。
算法規(guī)訓還表現(xiàn)為推薦算法對用戶的行為選擇的干涉。網(wǎng)絡服務提供者可以利用算法收集、分析用戶的行為痕跡從而逐漸掌握用戶習慣和偏好,并依據(jù)用戶習慣和偏好定制契合或足以誘導用戶行為的推薦。用戶可能無法拒絕這種具有誘惑力且似乎尚未超出自己能力范圍的推薦,于是消費習慣開始發(fā)生變化。這種變化實則是算法推薦在人的行為領(lǐng)域中產(chǎn)生的規(guī)訓作用。
當算法規(guī)訓大量出現(xiàn)時,算法推薦相當于依靠自身影響力形成了一套行為準則。它對個體行為進行的預測與干預,成為現(xiàn)實中強有力的行為規(guī)范。[10]當個體成為算法下可被預測和計算的客體,算法由此可以控制人的生活,消除個體行為的不確定性,肆意賦值個體,并形成國家權(quán)力的替代性權(quán)力。[11]擁有算法推薦的網(wǎng)絡服務提供者也因此具備了在網(wǎng)絡中構(gòu)建隱性規(guī)訓和統(tǒng)治空間的權(quán)力。
網(wǎng)絡服務提供者當前呈現(xiàn)出利用算法推薦侵犯用戶合法權(quán)益,構(gòu)建隱形規(guī)訓和統(tǒng)治空間的權(quán)力異化現(xiàn)象。存在權(quán)力異化即需要進行權(quán)力歸化,但當前算法推薦網(wǎng)絡服務提供者的權(quán)力歸化面臨著法律與技術(shù)困境。
網(wǎng)絡服務提供者的主要職能是利用自身占有的技術(shù)資源為用戶提供信息傳播中介服務,即為公眾搭建一個信息交流平臺。鑒于網(wǎng)絡空間中存在海量數(shù)據(jù)和信息,由網(wǎng)絡服務提供者對用戶發(fā)布的全部信息負主動審查義務既不可能也不合理,故立法明確規(guī)定,當網(wǎng)絡服務提供者已盡到合理注意義務,在接到侵權(quán)通知后采取了必要措施的,可免除相關(guān)法律責任。但這一規(guī)范在規(guī)制算法推薦網(wǎng)絡服務提供者時存在罅隙,此處需要結(jié)合算法推薦的類型作進一步分析。
1.算法推薦的主要類型
學理研究通常從技術(shù)角度對算法推薦進行分類,分為基于內(nèi)容的算法推薦和協(xié)同過濾的算法推薦,其中基于內(nèi)容的算法推薦是根據(jù)用戶先前的消費、瀏覽或閱讀過的內(nèi)容之相似度來推薦內(nèi)容(例如,推薦的圖片X會具有與用戶先前查看的圖片Y和Z相似的標題);協(xié)同過濾的算法推薦則根據(jù)相似用戶消費的內(nèi)容進行推薦(例如,A、B、C喜歡E;D作為與A、B、C相似的個體,可能也喜歡E)。但筆者對算法推薦的分類是基于非技術(shù)層面的因素,即以算法推薦所依賴的數(shù)據(jù)集的來源為依據(jù),將其類型化為三種:一是公開型算法推薦;二是精選型算法推薦;三是封閉型算法推薦。[12]公開型算法推薦所依賴的數(shù)據(jù)集主要由用戶或廣告商直接提供或通過其他來源渠道自動引入/聚合。這些數(shù)據(jù)集并未由平臺進行專門選擇(盡管平臺內(nèi)部也會產(chǎn)生數(shù)據(jù)且用于算法推薦)。目前谷歌、YouTube、Facebook、Reddit、Instagram和亞馬遜采用的都是公開型算法推薦。例如,YouTube的用戶上傳的任何視頻通常都被默認帶入推薦系統(tǒng)。區(qū)別于公開型算法推薦,精選型算法推薦所依賴的數(shù)據(jù)集來源于經(jīng)由平臺策劃、批準或許可而形成的內(nèi)容池,其主要用于涉及行政許可的傳統(tǒng)媒體領(lǐng)域,如音樂、電影或電視節(jié)目等,Netflix即是采用精選型算法推薦的典型示例。區(qū)別于前兩類算法推薦,封閉型算法推薦是由平臺本身或運營該站點的組織生成欲推薦的內(nèi)容。例如,新聞機構(gòu)向用戶提供的個性化故事和文章提要即是由組織本身制作或委托制作的。
2.“紅旗”規(guī)則難以適用于公開型算法推薦
《民法典》第1195條確立了有關(guān)網(wǎng)絡服務提供者法律責任的“通知—必要措施”規(guī)則(也被稱為“通知—刪除”規(guī)則),明確了網(wǎng)絡服務提供者在接到權(quán)利人關(guān)于網(wǎng)絡用戶利用網(wǎng)絡服務實施侵權(quán)行為的通知時,應當采取包括刪除、屏蔽、轉(zhuǎn)通知等在內(nèi)的必要措施(“轉(zhuǎn)通知”在理論研究中是否屬于“必要措施”的范圍尚存在爭議)。在《民法典》頒布之前,《電子商務法》為加強對網(wǎng)絡知識產(chǎn)權(quán)的保護,已經(jīng)在第42條中規(guī)定了知識產(chǎn)權(quán)權(quán)利人與網(wǎng)絡服務提供者間的“通知—必要措施”規(guī)則?!峨娮由虅辗ā返?2條與《民法典》第1195條是一脈相承的,《民法典》第1195條相當于擴大了權(quán)利主體范圍,將“通知”的權(quán)利主體從《電子商務法》中的“知識產(chǎn)權(quán)權(quán)利人”擴張至所有“權(quán)利人”。早期對網(wǎng)絡服務提供者采用“通知—必要措施”規(guī)則主要有兩方面原因:一是在危險控制理論下,網(wǎng)絡服務提供者類同于物理空間中的公共經(jīng)營者,對網(wǎng)絡侵權(quán)危險的控制能力較強,由其履行注意義務具有經(jīng)濟學上的成本優(yōu)勢;二是出于促進互聯(lián)網(wǎng)產(chǎn)業(yè)經(jīng)濟發(fā)展的考量,立法以“必要措施”的履行作為免責條件,旨在減輕網(wǎng)絡服務提供者的注意義務。故“通知—必要措施”規(guī)則看似為網(wǎng)絡服務提供者的法律責任規(guī)范,實則將其視為網(wǎng)絡服務提供者的免責條款更為恰當。因此,該規(guī)則也被稱為“避風港”規(guī)則。
在“避風港”規(guī)則的保護下,網(wǎng)絡服務提供者接到侵權(quán)通知后及時采取了必要措施的,可免除其法律責任。但在以下情形中,網(wǎng)絡服務提供者仍然要承擔侵權(quán)責任:網(wǎng)絡服務提供者知道或者應當知道侵權(quán)行為存在且未采取必要措施的,需承擔侵權(quán)責任。此即“紅旗”規(guī)則?!凹t旗”規(guī)則規(guī)定于《民法典》第1197條,根據(jù)該條規(guī)定,只有在侵權(quán)行為顯而易見如“紅旗飄揚”時,網(wǎng)絡服務提供者才需要與實施侵權(quán)行為的用戶共同承擔連帶責任。當前司法實踐將“紅旗”規(guī)則的適用標準限定于包含定位信息的特定侵權(quán)內(nèi)容的知道(應知/明知)上,例如《最高人民法院關(guān)于審理侵害信息網(wǎng)絡傳播權(quán)民事糾紛案件適用法律若干問題的規(guī)定》(簡稱《規(guī)定》)第12條(2)《規(guī)定》第12條規(guī)定:“有下列情形之一的,人民法院可以根據(jù)案件具體情況,認定提供信息存儲空間服務的網(wǎng)絡服務提供者應知網(wǎng)絡用戶侵害信息網(wǎng)絡傳播權(quán):(一)將熱播影視作品等置于首頁或者其他主要頁面等能夠為網(wǎng)絡服務提供者明顯感知的位置的;(二)對熱播影視作品等的主題、內(nèi)容主動進行選擇、編輯、整理、推薦,或者為其設(shè)立專門的排行榜的;(三)其他可以明顯感知相關(guān)作品、表演、錄音錄像制品為未經(jīng)許可提供,仍未采取合理措施的情形?!绷信e的應認定網(wǎng)絡服務提供者為“應知”的相關(guān)情形,都暗含了網(wǎng)絡服務提供者必須知悉侵權(quán)內(nèi)容所在位置。因此,網(wǎng)絡服務提供者僅寬泛地知悉其平臺內(nèi)存在侵權(quán)行為并不會觸發(fā)“紅旗”規(guī)則。
總的來說,當前中國對網(wǎng)絡服務提供者采用的是“避風港”規(guī)則與“紅旗”規(guī)則并行的規(guī)制模式,但該模式在規(guī)制算法推薦網(wǎng)絡服務提供者時存在“真空地帶”。封閉型算法推薦因其依賴的數(shù)據(jù)集來源于平臺本身,當其造成侵權(quán)結(jié)果時,依據(jù)侵權(quán)責任法的一般規(guī)則即可解決。精選型算法推薦依賴的數(shù)據(jù)集需要經(jīng)由平臺選擇,即經(jīng)由網(wǎng)絡服務提供者審查編輯,此種情形下,一旦造成侵權(quán)結(jié)果而網(wǎng)絡服務提供者未采取必要措施的,可以認定網(wǎng)絡服務提供者明確知悉侵權(quán)內(nèi)容所在的定位信息(《規(guī)定》第12條中亦列舉了這一情形),從而歸入“紅旗”規(guī)則的調(diào)整范圍。但在規(guī)制公開型算法推薦服務提供者時,“避風港”規(guī)則和司法系統(tǒng)寬松的責任豁免傾向會導致“紅旗”規(guī)則被實質(zhì)性架空。其一,在“避風港”規(guī)則下,公開型算法推薦網(wǎng)絡服務提供者被免除了對于用戶或廣告商直接提供或通過其他來源渠道自動引入/聚合的數(shù)據(jù)集的事先審查義務,此時公開型算法推薦服務提供者將缺乏主動發(fā)現(xiàn)和處理侵權(quán)行為的制度動因。其二,如前所述,司法實踐中援引“紅旗”規(guī)則的前提是網(wǎng)絡服務提供者明確知悉平臺內(nèi)侵權(quán)內(nèi)容的定位信息,而公開型算法推薦網(wǎng)絡服務提供者因毋須對來源數(shù)據(jù)集進行審查編輯,自無法直接認定其明確知悉平臺內(nèi)侵權(quán)內(nèi)容的定位信息。
1.算法的“黑箱”邏輯
控制論中對“黑箱”作了定義:“所謂黑箱是指這樣一個系統(tǒng),我們只能得到它的輸入值和輸出值,而不知道其內(nèi)部結(jié)構(gòu)?!盵13]換言之,對于“黑箱”,人們只能觀測到輸入值和輸出值,但無從了解其內(nèi)部的復雜性工作。“黑箱”一詞也被控制論者用以表示“任何一部過于復雜的機器或者任何一組過于復雜的指令”。[14]科技實踐中的“黑箱”指代的是已經(jīng)被廣泛接受為真實的、有用的科學理論或技術(shù)產(chǎn)品(也被稱為“‘自然’的因素”),它將復雜且抽象的科學理論或技術(shù)產(chǎn)品作為一個不需解析的整體進行討論,阻止人們對其內(nèi)部的復雜性工作進行探究、質(zhì)疑或爭論,從而有助于科技的廣泛傳播。此外,科技的實踐應用一旦成功,也會進一步固化其“黑箱”狀態(tài),蓋因科技企業(yè)會將此技術(shù)作為商業(yè)秘密而避免向外界擴張適用或解釋。算法作為人工智能時代的新技術(shù),天然具有“黑箱”性質(zhì),這與算法的技術(shù)運行原理密切相關(guān)。從技術(shù)原理層面觀察,算法是一種計算機程序,其是在數(shù)據(jù)采集和數(shù)據(jù)模型訓練的基礎(chǔ)上,依據(jù)已設(shè)定的數(shù)學規(guī)則進行運算并輸出結(jié)果。簡單來說,算法包括了“輸入—運算—輸出”三個步驟,是“程序設(shè)計+數(shù)學規(guī)則”的集合。即便人們能夠獲悉算法的輸入數(shù)據(jù)和輸出結(jié)果,但對于算法內(nèi)部的運算過程也無從得知,由此便形成了算法“黑箱”。
算法所形成的“程序設(shè)計+數(shù)學規(guī)則”的高度技術(shù)性和復雜性,導致非算法專業(yè)人士尤其是普通公眾,無法掌握或理解算法的運行和決策原理。這掩蓋了網(wǎng)絡服務提供者在運行算法過程中的一些潛在風險,同時也導致社會個體難以發(fā)現(xiàn)算法技術(shù)運行過程中的問題并參與到對其的質(zhì)疑和爭論中。換言之,算法“黑箱”的技術(shù)壁壘導致非算法專業(yè)人士無法探究算法推薦網(wǎng)絡服務提供者是否存在過錯,這足以阻礙對算法推薦網(wǎng)絡服務提供者過錯責任的歸責。即便是采用無過錯責任原則,算法“黑箱”的技術(shù)壁壘也會導致司法實踐難以認定損害結(jié)果與算法運行間是否存在因果關(guān)系,不僅當事人舉證與論證困難,作為非算法專業(yè)人士的裁判者也無法作出正確判斷。
2.算法的價值內(nèi)嵌邏輯
當前不少研究提出了算法的“技術(shù)中立”的原假設(shè),但實踐中一旦算法走向應用,各種利益與價值取向的交織都使其難以保持中立。技術(shù)中立原則最初確立于“環(huán)球電影訴索尼案”中,即只要一項技術(shù)構(gòu)成“實質(zhì)性非侵權(quán)使用”,無論這種技術(shù)是否被用于合法或有爭議的目的,技術(shù)服務提供者都不必對用戶實施的或可能實施的侵權(quán)行為承擔責任。但此后的實踐表明,部分技術(shù)服務提供者明知或應當知道自己的用戶會利用自己提供的技術(shù)實施侵權(quán)行為,仍持放任態(tài)度。此時,以“實質(zhì)性非侵權(quán)用途”為標準免除技術(shù)服務提供者的法律責任既不公平也不合理?!癗apster案”的判決遂引入了“幫助侵權(quán)”的判斷標準,即如果明知一種行為構(gòu)成侵權(quán),仍然“引誘、促成或?qū)嵸|(zhì)性幫助他人進行侵權(quán)行為”,就應當作為“幫助侵權(quán)者”承擔侵權(quán)責任。在“索尼案”(3)參見Sony Corporation of America er al. v. Universal City Studios, Inc.,et al.,464 U.S.417 at 498 (1984)。中,少數(shù)派法官指出:“沒有人會單獨為非侵權(quán)的目的去購買產(chǎn)品,制造商明顯是有意從侵權(quán)行為中獲利,要求其承擔責任是合適的。”確立“引誘侵權(quán)”規(guī)則的“Grokster案”(4)參見MGM Studios Inc. v. Grokster Ltd., 545 U.S.(2005)。判決也明確提出:第一,被告的目的在于吸引之前的Napster用戶;第二,被告未嘗試開發(fā)建立一定的過濾軟件來防止使用者下載、傳播受版權(quán)法保護的作品,同時也沒有盡到相應的監(jiān)管責任,證明被告主觀上有為其用戶提供侵權(quán)之便的意圖;第三,被告是通過出賣廣告空間來獲利的,所收取的廣告費與軟件的用戶數(shù)量成正比。[15]
算法作為技術(shù)勃興的產(chǎn)物,在推動人類生產(chǎn)和生活方式顛覆性變革的同時,其中立性同樣受到質(zhì)疑。算法在實踐應用中會無可避免地呈現(xiàn)出偏向性,這與其運行過程中的價值嵌入邏輯密切相關(guān)。代碼的內(nèi)嵌規(guī)則決定了算法會隱藏人的自主意識,算法部署或使用者在算法部署/使用過程中或多或少會嵌入自身的價值觀念或主觀意圖。例如,數(shù)據(jù)集選取、變量選擇、權(quán)重設(shè)定、架構(gòu)設(shè)計等均是算法部署者在設(shè)計算法任務時需考量的因素,且可能受到個人價值觀念或主觀意圖的影響。部分算法推薦網(wǎng)絡服務提供者可能出于增強用戶粘性、達到流量最大化、攫取商業(yè)利益的目的,肆無忌憚地在運用算法技術(shù)時嵌入利潤導向的價值傾向,更甚者不惜制造“臟數(shù)據(jù)”,污染網(wǎng)絡生態(tài)場域。[15]值得注意的是,當算法部署者或使用者在算法中嵌入自身的價值觀念或主觀意圖后,算法在其后續(xù)的技術(shù)更新迭代過程中仍會沿襲且不斷深化和放大此種價值傾向。因此,在算法價值內(nèi)嵌的運行邏輯下,算法推薦網(wǎng)絡服務提供者能夠通過設(shè)計/部署算法,賦予算法以特定價值,并通過算法運行達到約束甚至支配他人行為的效果。此時,在算法“黑箱”的加持下,非算法專業(yè)人士難以甚至無法獲悉算法推薦網(wǎng)絡服務提供者是否在設(shè)計/部署算法時嵌入了其自身的價值觀念或主觀意圖,以及嵌入的價值觀念或主觀意圖是否合法,更無從提及對此種行為的規(guī)制問題。
綜上所述,算法的“黑箱”與價值內(nèi)嵌邏輯所構(gòu)成的技術(shù)壁壘成為了算法推薦網(wǎng)絡服務提供者權(quán)力歸化的困境之一。
算法時代下的相關(guān)利益關(guān)系已經(jīng)發(fā)生了變化,因此,不應一味減輕網(wǎng)絡服務提供者的注意義務。相反,應當強化其注意義務,理由如下。
1.算法推薦網(wǎng)絡服務提供者極強的信息管理能力
在民法的語境下,網(wǎng)絡服務提供者的注意義務實乃物理空間內(nèi)公共場所經(jīng)營者的安全保障義務在網(wǎng)絡空間的延伸。立足民法安全保障義務的相關(guān)理論,“善良管理人”這一概念可以為網(wǎng)絡服務提供者的注意義務之高低提供基準線。“善良管理人”的注意義務要求具有特定職責的行為人應當承擔與其專業(yè)思維、認知能力相匹配的注意義務。[16]引申至網(wǎng)絡空間中,網(wǎng)絡服務提供者信息管理能力的強弱將直接決定其注意義務的高低,而算法推薦的運行機制賦予了網(wǎng)絡服務提供者極強的信息管理能力。算法推薦的運行機制遵循以下四個步驟:首先,智能推薦算法對推薦內(nèi)容進行編輯、審查、識別、篩選和分類(編輯、審查推薦內(nèi)容僅出現(xiàn)在封閉型推薦算法和精選型推薦算法中);其次,智能算法收集、分析用戶的行為痕跡后,對用戶進行標簽化并勾勒用戶的“個人畫像”;再次,以形成的用戶標簽和“個人畫像”為根據(jù)向其推送相應的信息;最后,結(jié)合用戶的行為與反饋,對此前形成的用戶標簽和“個人畫像”進行修正,并根據(jù)修正后的用戶標簽和“個人畫像”再進行內(nèi)容推薦。[17]在這一閉環(huán)式的運行機制中,網(wǎng)絡服務提供者作為推薦算法的設(shè)計/部署者,實際上直接控制了用戶所能接收到的信息范圍和內(nèi)容,具有極強的信息管理能力。因此,算法推薦網(wǎng)絡服務提供者極強的信息管理能力決定了其應當承擔較重的注意義務。
2.算法推薦網(wǎng)絡服務提供者在言論表達和控制中的“把關(guān)人”角色
網(wǎng)絡服務提供者運用其掌握的算法推薦技術(shù),可以干預和控制言論表達的所有環(huán)節(jié)。有學者認為網(wǎng)絡服務提供者充當著數(shù)字環(huán)境中的“結(jié)構(gòu)性角色”,將其權(quán)力歸結(jié)為四個方面:一是管理網(wǎng)絡空間公共表達與參與平臺,決定信息流向;二是管理用戶活動空間與數(shù)據(jù),知悉傳播主體的行為;三是控制用戶網(wǎng)絡活動;四是突破國家邊界。[18]上述四個方面實際上基本涵蓋了“信息獲取—言論表達—言論傳播”的全過程。在算法推薦技術(shù)的加持下,網(wǎng)絡服務提供者的言論控制和保護權(quán)力被放大,蓋因算法推薦技術(shù)的設(shè)計標準、運行規(guī)則等均由服務提供者自行制定。掌握了算法推薦技術(shù)的網(wǎng)絡服務提供者不僅能干預言論表達的所有環(huán)節(jié),甚至能夠決定用戶得以發(fā)表的言論范圍、內(nèi)容及其影響射程。此外,網(wǎng)絡服務提供者還部分承擔了類同于言論“裁判”的司法功能,尤其是社交網(wǎng)絡平臺,往往會制定相關(guān)言論規(guī)則,在糾紛發(fā)生時通過聆聽各方的主張、申辯和解釋,進而作出具有實質(zhì)意義的“裁判”結(jié)論(刪除相關(guān)言論、禁言等)。[19]因此,基于算法推薦網(wǎng)絡服務提供者在言論表達和控制中的“把關(guān)人”角色,有必要強化其注意義務。
3.網(wǎng)絡服務提供者與內(nèi)容生產(chǎn)者對同一內(nèi)容的利益回報存在價值差
當前已進入流量經(jīng)濟時代,海量的內(nèi)容生產(chǎn)者誕生并相互競爭,這致使內(nèi)容生產(chǎn)者欲獲得合理利益回報的難度加大。相反,流量經(jīng)濟使得呈現(xiàn)內(nèi)容的網(wǎng)絡服務提供者能夠通過精準分發(fā)和傳播內(nèi)容獲取高額利益。概言之,權(quán)利人的利益回報與網(wǎng)絡服務提供者的利益回報處于不對等狀態(tài)。但社會發(fā)展依賴的是創(chuàng)作者的高質(zhì)量創(chuàng)作內(nèi)容,而非網(wǎng)絡服務提供者對內(nèi)容的精準分發(fā)和傳播。此外,強化算法推薦網(wǎng)絡服務提供者的注意義務已有立法雛形——《規(guī)定》第11條第1款即明確了網(wǎng)絡服務提供者從網(wǎng)絡用戶提供的作品中直接獲得經(jīng)濟利益的,要承擔較高的注意義務??傮w而言,對于同一內(nèi)容,內(nèi)容生產(chǎn)者與網(wǎng)絡服務提供者間的利益回報存在價值差,其中網(wǎng)絡服務提供者屬于資源優(yōu)勢方,為平衡二者間的利益關(guān)系,有必要對網(wǎng)絡服務提供者課以較高的注意義務。
4.強化算法推薦網(wǎng)絡服務提供者的注意義務符合法經(jīng)濟學原理
1947年美國法官勒尼德·漢德(Learned Hand)在“美國訴卡洛爾·波音拖船公司案”中提出了“漢德公式”。根據(jù)漢德公式,當B(Burden)
算法推薦網(wǎng)絡服務提供者的私權(quán)力之所以難以歸化的主要技術(shù)困境是,算法技術(shù)天然具有“黑箱”特性。解決“黑箱”問題的最直接方法就是打破“黑箱”,讓算法在陽光下運行。由此,學者們紛紛提出了算法透明理論。目前關(guān)于算法透明的解釋有廣義與狹義之分,辨析的關(guān)鍵在于算法透明與算法解釋的關(guān)系。在算法透明的狹義解釋下,算法透明與算法解釋是相對獨立的治理維度,二者在自身功能和關(guān)注點上存在差異:狹義的算法透明關(guān)注源代碼等信息的公開,是算法解釋的前提和基礎(chǔ);算法解釋則更側(cè)重可理解性,即著重以通俗易懂的方式向算法相對人或社會公眾解釋算法決策的原理、決策樹和邏輯關(guān)系等。[21]在算法透明的廣義解釋下,算法透明和算法解釋并非兩個獨立的治理維度,而是二者融合成為“可理解的算法透明”,即廣義的算法透明涵括了算法解釋,不僅關(guān)注源代碼等信息的公開,同時側(cè)重以通俗易懂的解釋方式達致算法決策的可理解性。[22]153-154筆者采用的是算法透明的廣義解釋。
1.算法透明的功用
透明原則初始是WTO法律制度的基本原則,主要用以要求政府在市場監(jiān)管過程中公開其管理和服務市場的相關(guān)信息,旨在克服因政策變動導致的市場風險,以及防止市場歧視、為市場運行提供可預見性規(guī)則和審議依據(jù)。[23]算法透明的提出亦是出于防止算法妨害、建立算法信任,以及為算法審議和問責提供可視化依據(jù)之目的。然而,對于算法透明的功用,學者們提出了不同的觀點。持算法透明反對論的學者們主要基于三大類原因:一是算法透明損害相關(guān)利益,其中涉及損害商業(yè)秘密制度的效能、為他人制造規(guī)避或“戲?!彼惴ǖ臋C會、泄露個人隱私或誘發(fā)個人信息安全問題等;[22]155二是算法透明不可能,這是一種源于不理解技術(shù)產(chǎn)生的遐想;[24]165三是算法透明無意義,因算法技術(shù)極其復雜,即便公開算法代碼和數(shù)據(jù)等信息,普通公眾也難以理解其中的運行原理。
然而,算法透明不僅可能而且可行。首先,算法透明的實現(xiàn)方式不僅僅局限于對算法源代碼、數(shù)據(jù)等信息的公開。從當前的立法例來看,從標示義務到向監(jiān)管部門報備參數(shù),一直到向社會公開參數(shù)都是算法透明的重要方式。[24]173其次,普通公眾難以理解算法技術(shù)中蘊含的復雜原理并不意味著算法透明無意義,而僅僅反映出當前算法設(shè)計/部署者缺乏以傳統(tǒng)直觀、通俗易懂的文字、文法和語言來解釋算法的能力。最后,算法透明在技術(shù)上具有可行性,反向工程學即為實現(xiàn)算法透明的重要技術(shù)手段。反向工程學可通過輸出結(jié)果逆向測試的方式打開算法“黑箱”。目前國際上已有相關(guān)示例:前谷歌公司工程師堯姆·沙洛(Guillaume Chaslot)在2018年創(chuàng)辦了算法透明網(wǎng)站(algotransparency.org),并于該網(wǎng)站上公布了其利用反向工程學破解了YouTube如何利用算法扭曲事實的真相。
算法透明主要在知情權(quán)和可問責性兩個維度發(fā)揮作用。其一,算法透明能夠賦予算法服務對象相當程度的知情權(quán)。此種知情權(quán)既可以是事前的,也可以是事后的:通過事前知情,能夠起到預防算法妨害之功用;通過事后對算法決策提出公平性和合理性之質(zhì)疑,能夠為被侵權(quán)者提供救濟途徑。其二,算法透明可以讓算法設(shè)計/部署者具有可問責性,即在算法透明的要求下,當算法運行過程中出現(xiàn)精確性與公平性之偏差,監(jiān)管者可以依據(jù)所披露的算法相關(guān)信息來判定算法設(shè)計/部署者的責任。此外,由于算法是一種技術(shù)機制,即便其天然具有“黑箱”性質(zhì),但相較于人類決策者的內(nèi)在偏見和私念,技術(shù)工具仍然更具有可視化的透明標準,也更易于監(jiān)督。
需要注意的是,從表面上看,算法透明義務的明確似乎是一種顯而易見的破除算法“黑箱”的方案,蓋因可借助該義務要求算法設(shè)計/部署者告知用戶算法的工作原理,并在適宜情形下賦予用戶相應的權(quán)利。但應當警惕陷入“透明度謬誤”。算法透明僅僅是一種補救措施,其實際上只是向用戶個體提供了不具有實體權(quán)利的相關(guān)算法信息,卻無法提供賦權(quán)和控制的預期效應。算法透明并不能真正解決算法“黑箱”問題,但它可以作為一個潛在的有用因素,即將其視為促進其他規(guī)則和監(jiān)管的一般原則,用以支持諸如用戶算法解釋權(quán)、算法問責機制等相應的制度建設(shè)。
2.算法透明的限度
鑒于算法透明涉及多方利益——商業(yè)秘密、個人隱私和個人信息安全等,其在踐行中應當設(shè)置相應的限度。行政法中的兩種透明類型或可為算法透明的限度提供參考:“魚缸透明”和“理性透明”。
“魚缸透明”側(cè)重于公眾獲取政府掌握的信息和政府工作的信息,即公眾能夠窺視政府內(nèi)部,獲取有關(guān)官員正在做什么的信息。它的具體實現(xiàn)方式包括舉行聽證會、公開檔案和記錄以及網(wǎng)上公開等,其目的是確保受政府決策影響的人能夠監(jiān)測官員正在做什么,并在知情的基礎(chǔ)上作出回應。與“魚缸透明”強調(diào)公眾獲取有關(guān)政府正在做的事情之信息相比,“理性透明”更強調(diào)了這些信息的有用性,即政府是否揭示了它采取行動的原因。“理性透明”側(cè)重的是行為正當性,即政府需要通過給出理由來解釋其行動的正當性。[25]從表征來看,“魚缸透明”和“理性透明”似乎分別保障的是形式透明和實質(zhì)透明,但實質(zhì)上“理性透明”涵蓋了“魚缸透明”的要求,蓋因政府要公開解釋為何采取某一特定行動,就必須披露它實際上采取了什么行動,以及它采取這一行動所收集到的事實和進行的相關(guān)分析。對于以機器學習為基礎(chǔ)的算法技術(shù)而言,算法設(shè)計/部署者可能能夠?qū)崿F(xiàn)“魚缸透明”,即確保受算法決策影響的人能夠監(jiān)測算法正在做什么,并在知情的基礎(chǔ)上作出回應,但卻難以實現(xiàn)“理性透明”,主要原因在于算法設(shè)計/部署者難以充分解釋算法決策的內(nèi)在邏輯及其決策結(jié)果的來源。但“理性透明”是算法透明的追求目標,也是解決算法“黑箱”實質(zhì)難題的關(guān)鍵。因此,“魚缸透明”可以說是算法透明目前應當達到的限度,而“理性透明”則是算法透明未來的發(fā)展方向。
3.算法解釋的標準
“算法解釋能夠直面算法設(shè)計并破解算法黑箱,從而在法律問責過程當中發(fā)揮作用?!盵14]因此,算法透明需要以算法解釋為技術(shù)支撐。算法解釋有“完全解釋”與“可信解釋”之分。具體而言,“完全解釋”要求解釋算法從輸入到輸出的全過程,即人工智能系統(tǒng)如何運行、如何與數(shù)據(jù)進行交互的背景信息等,包括要求算法設(shè)計/部署者公開數(shù)據(jù)、參數(shù)甚至是源代碼。“可信解釋”與“完全解釋”側(cè)重點不同,“可信解釋”側(cè)重對決策結(jié)果的解釋,即關(guān)注決策時對人產(chǎn)生具體影響的相關(guān)因素之解釋,而非對算法整個運行過程和技術(shù)模型的解釋。倘若說“完全解釋”側(cè)重于對“系統(tǒng)功能”的解釋,那么“可信解釋”則側(cè)重于對“特定決策”的解釋,其不糾結(jié)于算法模型的可解釋性,而是將重心轉(zhuǎn)移至向個人解釋特定決策結(jié)果,證明決策結(jié)果的合理性即可。
在算法時代(特別是自主學習形態(tài)),“完全解釋”不具有技術(shù)上的可行性和應用上的現(xiàn)實性。就技術(shù)層面而言,算法是以機器學習為基礎(chǔ)的,機器學習作為一種自動化決策方法,其決策規(guī)則由數(shù)據(jù)驅(qū)動,源代碼的公布只是暴露了使用的機器學習方法,而無法解釋決策過程。[26]有效的學習算法模型包含海量數(shù)據(jù)和代碼,且會根據(jù)輸入的數(shù)據(jù)動態(tài)調(diào)整內(nèi)在決策模式并迭代代碼內(nèi)容,加之算法模塊在運行過程中會持續(xù)復雜化和深度擬人化,故算法設(shè)計/部署者通常難以說明算法的決策過程。就應用層面而言,算法研究和應用的主體主要為大型互聯(lián)網(wǎng)企業(yè),驅(qū)動它們開發(fā)應用算法的根本原因正是算法技術(shù)應用背后的巨大商業(yè)利益。因此,算法技術(shù)也被這些大型互聯(lián)網(wǎng)企業(yè)視為商業(yè)秘密,而算法“黑箱”很大程度上則作為一種防止商業(yè)秘密外泄、自我防護的技術(shù)手段存在。倘若采用“完全解釋”的標準,必然會增加互聯(lián)網(wǎng)企業(yè)的成本,削弱其競爭優(yōu)勢。從長遠來看,合規(guī)成本的增加和獲利的減少必然會打擊企業(yè)投資算法的積極性,不利于科技發(fā)展。
算法透明抑或算法解釋并非為了擠壓算法的發(fā)展空間,而是為了實現(xiàn)算法權(quán)利人與相對人間的利益平衡,故算法解釋應以“可信解釋”為標準,當算法設(shè)計/部署者通過源代碼公開、運算原理與過程解釋、信息輸入與反饋及校驗等方式,并借助可視化分析、特征關(guān)聯(lián)等技術(shù)消解了相對人的疑慮,可認定為實現(xiàn)了“可信解釋”。此外,“可信解釋”不僅是技術(shù)標準,也是算法責任認定的證明標準。為實現(xiàn)“可信解釋”,算法部署者還可通過在軟件框架內(nèi)增加可解釋技術(shù)接口,或提供指標評估模型等方法增強算法可信解釋能力,這不僅有利于算法追責,也有利于算法風險預防與運行監(jiān)管。
算法推薦的治理是算法時代的重大命題,算法推薦網(wǎng)絡服務提供者基于技術(shù)資源優(yōu)勢取得了私權(quán)力,但技術(shù)并不必然具有中立性?;诖a內(nèi)嵌規(guī)則,算法設(shè)計/部署者或多或少會在算法中嵌入其價值觀。因此,算法推薦網(wǎng)絡服務提供者的權(quán)力呈現(xiàn)異化態(tài)勢,法律應當對此權(quán)力異化現(xiàn)象及時作出因應。規(guī)制算法推薦網(wǎng)絡服務提供者的目的并不在于徹底消除其私權(quán)力,而是為了廓清算法推薦的技術(shù)運行邏輯和價值負荷序列,通過系統(tǒng)化的思考和制度化的規(guī)范,促使算法推薦以技術(shù)工具的形態(tài)造福人類。