王德夫
隨著現(xiàn)代信息技術(shù)的發(fā)展,科幻意味濃厚的機(jī)器人或是更能引發(fā)人們暢想的人工智能,逐漸從文藝作品和科研機(jī)構(gòu)走進(jìn)社會(huì)公眾的日常生活。然而,人工智能的技術(shù)邊界仍顯模糊,其內(nèi)在的技術(shù)對(duì)象仍顯神秘,相關(guān)應(yīng)用也處于發(fā)展變化之中,遠(yuǎn)未成熟[1](P3-9)。在可預(yù)見的未來,是否真的會(huì)出現(xiàn)某種足以達(dá)到人類智力水平的“強(qiáng)人工智能”[2](P56)甚至“超人工智能”,這一問題仍然充滿了懸念[3](P417-457)。但是,對(duì)與人工智能相關(guān)的市場(chǎng)和社會(huì)風(fēng)險(xiǎn)進(jìn)行識(shí)別與應(yīng)對(duì),已經(jīng)是迫切的現(xiàn)實(shí)需求。當(dāng)下,我國(guó)僅通過《電子商務(wù)法》中零散的規(guī)定,對(duì)各類智能產(chǎn)品、服務(wù)底層的算法予以規(guī)制:該法第40條規(guī)定了搜索引擎以及競(jìng)價(jià)排名算法的行為規(guī)則,第18條規(guī)定了與智能推送算法相關(guān)聯(lián)的消費(fèi)者權(quán)益保障義務(wù)。事實(shí)上,這種做法的應(yīng)急色彩較濃而系統(tǒng)性不足,也難以適用于電子商務(wù)領(lǐng)域之外的人工智能應(yīng)用活動(dòng)。對(duì)此,在理論層面,相關(guān)的治理活動(dòng)既要充分地應(yīng)對(duì)人工智能算法與生俱來的技術(shù)底層性和不透明性,也要展現(xiàn)出足夠的前瞻性。在現(xiàn)實(shí)層面,則應(yīng)將人工智能算法治理從宏觀討論層面進(jìn)一步擴(kuò)展到治理框架與重要規(guī)則設(shè)計(jì)的層面,探尋符合相關(guān)技術(shù)條件的治理規(guī)則。
從概念上,算法并非一個(gè)新奇的事物,它與現(xiàn)代信息技術(shù)同步產(chǎn)生,距今已有超過半個(gè)世紀(jì)的歷史。人工智能算法作為廣義上計(jì)算機(jī)軟件算法的一種特殊類型,也屬于為了解決某個(gè)特定問題或者達(dá)到某個(gè)特定目的所要采取的一系列步驟[4](P398-415)。但是,作為相關(guān)領(lǐng)域最前沿的對(duì)象之一,人工智能算法與傳統(tǒng)計(jì)算機(jī)軟件算法之間的差異,才是其自身成為獨(dú)立技術(shù)對(duì)象和法律對(duì)象的前提。
現(xiàn)實(shí)中,無論是實(shí)現(xiàn)固定功能的傳統(tǒng)計(jì)算機(jī)程序還是自主化運(yùn)作的人工智能系統(tǒng),都以各自的算法作為運(yùn)行的基本邏輯。正確、合理的步驟設(shè)計(jì)是相關(guān)系統(tǒng)最終實(shí)現(xiàn)設(shè)計(jì)功能的必備前提。但是,極具技術(shù)前沿性的人工智能算法與傳統(tǒng)計(jì)算機(jī)軟件算法間的差異性仍然十分明顯。
一方面,人工智能算法專注于模擬基礎(chǔ)智能,不因具體應(yīng)用中的不同功能而變動(dòng),并以此區(qū)分于傳統(tǒng)的應(yīng)用軟件算法。因此,在技術(shù)語境下,人工智能算法往往也被稱為通用算法。這意味著,雖然同樣名為算法,但人工智能算法與傳統(tǒng)的計(jì)算機(jī)軟件算法之間更多地呈現(xiàn)出一種總分關(guān)系:前者為基礎(chǔ)性的“智能”部分,而后者則視不同的應(yīng)用場(chǎng)景和方式具象化為不同的信息產(chǎn)品或者服務(wù)算法。這也喻示了二者在制度層面的差異:現(xiàn)行法律規(guī)范可以較好地延伸至各式各樣的信息產(chǎn)品或者服務(wù)之中,以解決利用算法工具實(shí)施不當(dāng)行為的問題,但作用于更底層的通用算法則因?yàn)樽R(shí)別和針對(duì)性方面的不足而顯得力不從心。
另一方面,在運(yùn)行邏輯上,人工智能算法采取了與靜態(tài)的傳統(tǒng)編程邏輯迥然不同的技術(shù)路徑:它顛倒了傳統(tǒng)的計(jì)算機(jī)程序運(yùn)行順序,系統(tǒng)輸入的是數(shù)據(jù)和預(yù)期獲得的結(jié)果,輸出的則是另一個(gè)更新后的算法。舊算法到新算法的進(jìn)化即為“機(jī)器學(xué)習(xí)”,并與傳統(tǒng)的“人力設(shè)計(jì)規(guī)則”相對(duì)應(yīng)[5](P277-288)。人們嘗試以不同的方式實(shí)踐這種“認(rèn)知可計(jì)算化”[6](P99-108),并通過相關(guān)系統(tǒng)的重復(fù)運(yùn)行,實(shí)現(xiàn)人工智能算法的自主調(diào)整與更新。也就是說,人工智能算法的運(yùn)行是以迭代后的新算法自動(dòng)更新程序本身,獲得學(xué)習(xí)與進(jìn)化的能力,進(jìn)而找尋通用的、足以令計(jì)算機(jī)具備人類智能的理想方案[7](P58-65)。這種自我編程、自我進(jìn)化的能力,是人工智能脫胎于靜態(tài)的計(jì)算機(jī)程序而展現(xiàn)智能的主要方式。
其一,人工智能算法具備底層通用性:同一個(gè)人工智能系統(tǒng)可以運(yùn)行于不同的場(chǎng)景之中,產(chǎn)生截然不同的技術(shù)與應(yīng)用效果。這是真正意義上的人工智能與商業(yè)宣傳中人工智能噱頭的根本區(qū)別。在認(rèn)知層面上,人工智能必須具備這種靈活應(yīng)對(duì)不同問題的能力,突破擺脫特定應(yīng)用領(lǐng)域的限制①如市場(chǎng)上常見的智能電飯煲、智能洗衣機(jī)等產(chǎn)品,雖被冠以“智能”之名,也在一定程度上具備比傳統(tǒng)產(chǎn)品更加復(fù)雜的功能,但應(yīng)用領(lǐng)域十分受限、運(yùn)行流程單一,與真正意義上的人類智能相去甚遠(yuǎn)。。在法律層面上,通用算法的運(yùn)行方式、應(yīng)用領(lǐng)域和潛在的市場(chǎng)風(fēng)險(xiǎn)乃至倫理道德風(fēng)險(xiǎn),也不同于虛擬財(cái)產(chǎn)或者其他抽象的智力勞動(dòng)成果,是一種前所未有的新型對(duì)象,對(duì)法律制度的應(yīng)對(duì)與完善提出了新的要求。
其二,人工智能算法的迭代與進(jìn)化高度依賴外部的數(shù)據(jù)輸入。這一技術(shù)特性會(huì)帶來兩方面的影響,值得引起相關(guān)研究的注意。一方面,人工智能的分析能力和決策能力以大數(shù)據(jù)技術(shù)為基礎(chǔ)[8](P136-148),并且這是一個(gè)動(dòng)態(tài)的過程,始終依賴數(shù)據(jù)的持續(xù)更新,不存在單機(jī)或者脫網(wǎng)運(yùn)行的技術(shù)基礎(chǔ)[9](P33)。另一方面,人工智能算法在數(shù)據(jù)規(guī)模和更新頻率方面的需求,也極大地抬高了相關(guān)市場(chǎng)的進(jìn)入門檻,為相關(guān)的市場(chǎng)行為監(jiān)管、競(jìng)爭(zhēng)狀態(tài)分析乃至安全評(píng)估等活動(dòng)帶來了挑戰(zhàn)。
第三,人工智能算法的輸出具有不確定性。這種不確定性體現(xiàn)為人工智能算法單次運(yùn)行所輸出的結(jié)果并非確定的數(shù)值,而是一個(gè)新的決策方法或者過程。也即是說,人工智能算法運(yùn)行的結(jié)果是另一個(gè)算法,而且應(yīng)當(dāng)是一個(gè)比當(dāng)前運(yùn)行版本更優(yōu)化、可以解決更多問題或者更符合人們需求的新算法。這一過程與生物學(xué)的進(jìn)化相類似,在現(xiàn)代信息技術(shù)的支撐下,可以在有限的時(shí)間內(nèi)實(shí)施生物無法企及的龐大次數(shù),使相對(duì)原始、簡(jiǎn)陋的初始算法在外部數(shù)據(jù)供給下,通過反復(fù)學(xué)習(xí),進(jìn)化到足以實(shí)現(xiàn)某種程度的智能的水平。這也意味著,人工智能算法始終是一個(gè)不斷變化的中間狀態(tài),同一名目下不同版本的算法,卻有可能在基本功能、關(guān)鍵性能以及潛在應(yīng)用領(lǐng)域等方面具備截然不同的能力。
必要的類型化分析有助于厘清相關(guān)治理活動(dòng)的對(duì)象與邊界。在人工智能算法技術(shù)因素之外,可以依照不同的標(biāo)準(zhǔn),將其分為以下三種類別:
其一,按照人工智能技術(shù)本身的先進(jìn)程度,或者相關(guān)應(yīng)用領(lǐng)域的敏感程度,人工智能算法可以被劃分為管制類算法和非管制類算法。對(duì)于管制類的人工智能算法,需要通過專門法予以規(guī)定,以明確受管制的對(duì)象范圍和行為規(guī)則。在缺乏專門立法的情況下,我國(guó)對(duì)于管制類算法的識(shí)別是通過具體領(lǐng)域或者應(yīng)用活動(dòng)的其他規(guī)范性文件進(jìn)行附帶規(guī)定的。如2020年8月28日,我國(guó)商務(wù)部、科技部發(fā)布《中國(guó)禁止出口限制出口技術(shù)目錄》,新增“基于數(shù)據(jù)分析的個(gè)性化信息推送服務(wù)技術(shù)”和“人工智能交互界面技術(shù)”兩項(xiàng),將智能推送算法納入“維護(hù)國(guó)家安全基礎(chǔ)上擴(kuò)大對(duì)外技術(shù)交流”的范疇,從國(guó)家安全關(guān)切的角度對(duì)相關(guān)算法的對(duì)外技術(shù)交流活動(dòng)實(shí)施管制。而對(duì)于非管制類的人工智能算法,相關(guān)的權(quán)利和義務(wù)承擔(dān)則更多地遵循各專門法或者一般的法律原則,具有較大的自主性與靈活性。
其二,按照相關(guān)算法的技術(shù)細(xì)節(jié)是否向控制者之外的其他人公開,人工智能算法可以分為保密類與開放類算法。人工智能算法凝聚了相關(guān)研發(fā)人員聰明才智和相關(guān)機(jī)構(gòu)的投資,算法質(zhì)量也與其持續(xù)的經(jīng)營(yíng)狀況密切相關(guān),具備重要的經(jīng)濟(jì)和社會(huì)價(jià)值。因此,無論是出于技術(shù)原因還是相關(guān)主體的主觀意愿,相關(guān)的算法往往難以表露于產(chǎn)品或者服務(wù)外部,也更難以被用戶或者社會(huì)公眾所接觸,有著很高的保密性。但是,在當(dāng)前市場(chǎng)環(huán)境下,部分人工智能算法也呈現(xiàn)出一種主動(dòng)開放的趨勢(shì)。從技術(shù)角度觀察,這是因?yàn)闄C(jī)器學(xué)習(xí)對(duì)外部數(shù)據(jù)供給的依賴超過了對(duì)算法本身設(shè)計(jì)精妙程度的依賴。此時(shí),開放算法非但不會(huì)導(dǎo)致其失去對(duì)自己技術(shù)秘密的控制,或者使自己的人工智能系統(tǒng)被他人奪走,反而會(huì)因?yàn)檫@種公開吸引到更多的二次開發(fā)和社會(huì)應(yīng)用,支撐人工智能系統(tǒng)的不斷迭代與進(jìn)化。并且,在相關(guān)法律文件(如開源許可證等)的輔助下,開放算法換取數(shù)據(jù)回饋的做法更有助于相關(guān)主體將數(shù)據(jù)優(yōu)勢(shì)轉(zhuǎn)化為算法優(yōu)勢(shì),繼而轉(zhuǎn)化為產(chǎn)品或者服務(wù)的性能優(yōu)勢(shì),最終獲取市場(chǎng)競(jìng)爭(zhēng)優(yōu)勢(shì)。這種新型的研發(fā)或者經(jīng)營(yíng)模式,也應(yīng)當(dāng)引起治理關(guān)注。
其三,按照相關(guān)算法的外在表達(dá)形式,人工智能算法可以被劃分為作品類算法與技術(shù)方案類算法。在不同的應(yīng)用場(chǎng)景下,算法本身可以表現(xiàn)為文字、圖案、工程設(shè)計(jì)圖、產(chǎn)品設(shè)計(jì)圖、示意圖、計(jì)算機(jī)軟件等多種形式,既有可能直接來源于相關(guān)系統(tǒng)的自主運(yùn)行,也有可能來源于設(shè)計(jì)、編程人員的創(chuàng)作活動(dòng),因此也有可能被納入著作權(quán)保護(hù)客體范疇①由“機(jī)器自主學(xué)習(xí)”自動(dòng)生成的新算法,具有作品的外在形式,卻不是由自然人創(chuàng)作而來。對(duì)于此類對(duì)象是否屬于著作權(quán)意義上的作品、是否應(yīng)該納入到著作權(quán)保護(hù)范疇,有諸多學(xué)者進(jìn)行了熱烈的討論,各方觀點(diǎn)碰撞激烈。但相關(guān)討論與本文內(nèi)容無直接聯(lián)系,故不作詳細(xì)論述。,成為作品類算法。但是,從計(jì)算機(jī)程序設(shè)計(jì)、編程的角度看,人工智能算法更多的是一種解決“如何通過技術(shù)手段模擬人類智能”問題的技術(shù)措施,而非滿足相關(guān)人員“如何表達(dá)內(nèi)心世界”的愿望。這種技術(shù)方案類算法,更多地會(huì)與知識(shí)產(chǎn)權(quán)制度中的專利或者商業(yè)秘密產(chǎn)生關(guān)聯(lián)。在確定治理目標(biāo)與手段時(shí),相關(guān)制度設(shè)計(jì)會(huì)也更多地傾向于確保技術(shù)信息的安全、有效與開放。
綜合人工智能算法的技術(shù)原理、特性與分類,筆者所討論的人工智能算法聚焦于通用算法,即:處于人工智能技術(shù)底層的,兼具保密與開放性的非管制類技術(shù)方案,具有特定的技術(shù)功能和物理邊界。其本質(zhì)是一種技術(shù)信息,可以作為民、商事權(quán)利客體和公法視野下的監(jiān)管對(duì)象。
在外部形式方面,人工智能算法具有相對(duì)固定的形態(tài),可以實(shí)現(xiàn)法律上的識(shí)別與流轉(zhuǎn)。雖然計(jì)算機(jī)相關(guān)產(chǎn)業(yè)中,算法的書寫方式并無固定形式,但在設(shè)計(jì)、編程人員專業(yè)習(xí)慣的作用下,往往表現(xiàn)為計(jì)算機(jī)程序或者偽代碼②一種非正式的程序設(shè)計(jì)語言,它可以比較容易地被改寫為源代碼。編程人員在設(shè)計(jì)算法階段選擇將“算法”直接寫成計(jì)算機(jī)程序,十分耗費(fèi)精力,也缺乏現(xiàn)實(shí)的必要性,故多采用“偽代碼”。,而非可以被計(jì)算機(jī)運(yùn)行的程序。人工智能算法也不例外。對(duì)此,有兩方面的理解:一方面,它包含有人工智能系統(tǒng)運(yùn)行所需要的完整的技術(shù)信息和必要步驟,而不僅僅是抽象的思路或者想法。這意味著,它可以作為一個(gè)獨(dú)立的對(duì)象存在于人工智能系統(tǒng)之中,可以被單獨(dú)地表達(dá)出來或者被閱讀,也可以被相關(guān)領(lǐng)域普通的技術(shù)人員所理解。它可以被用來解決特定的技術(shù)問題,具有使用和交換的價(jià)值。另一方面,它具有跨語言(編程語言)的通用性——不同應(yīng)用領(lǐng)域、技術(shù)背景的使用者(編程人員),只要具備基本的專業(yè)知識(shí)或者能力,即可以根據(jù)人工智能算法相關(guān)文件,將其與自己所期望實(shí)現(xiàn)的功能相結(jié)合,形成新的人工智能應(yīng)用。這意味著,人工智能算法具有技術(shù)上的獨(dú)立性和物理上的可分割性,可以在現(xiàn)實(shí)應(yīng)用中被識(shí)別、使用和流轉(zhuǎn),是法律層面上合格的對(duì)象。這兩方面的特性,使得將人工智能算法納入法律治理的范疇,具備了現(xiàn)實(shí)的可操作性。
在內(nèi)在實(shí)質(zhì)方面,人工智能算法是一種特殊的技術(shù)方案,應(yīng)當(dāng)被納入處理技術(shù)方案相關(guān)問題的專門制度體系中。由此也決定了,雖然人工智能算法與知識(shí)產(chǎn)權(quán)制度存在著天然的密切聯(lián)系,但也不能簡(jiǎn)單地將其視作一種新型的知識(shí)產(chǎn)權(quán)客體。一方面,它表明,人工智能算法是智力勞動(dòng)的成果,只應(yīng)用于解決特定的技術(shù)問題,而與起到區(qū)分作用的標(biāo)識(shí)以及文學(xué)藝術(shù)或者表達(dá)作用的作品相區(qū)別。與此同時(shí),它專注于解決如何實(shí)現(xiàn)設(shè)計(jì)人員所理解的智能這一特定技術(shù)問題,不是抽象意義上的智力活動(dòng)的規(guī)則和方法,也不被用于解決其他的技術(shù)問題。另一方面,強(qiáng)調(diào)人工智能算法作為一種技術(shù)方案的特殊性①特殊性表現(xiàn)于:其一,人工智能算法與硬件的分離,使其在現(xiàn)行專利審查體系下因?yàn)椤安皇抢米匀灰?guī)律的技術(shù)手段”被排除于專利保護(hù)之外;其二,人工智能算法本身始終處于不斷進(jìn)化的過程中,其中間版本的設(shè)計(jì)與實(shí)施,主要依賴于人工智能系統(tǒng)的自主運(yùn)行,而較少地牽涉人為干預(yù)。,可以將其與人工智能程序、人工智能數(shù)據(jù)輸入、人工智能數(shù)據(jù)存儲(chǔ)、人工智能硬件等技術(shù)層面的對(duì)象間劃定清晰的邊界。這也使它與工程設(shè)計(jì)圖、產(chǎn)品設(shè)計(jì)圖以及計(jì)算機(jī)程序等技術(shù)類著作權(quán)客體相區(qū)別。
從治理的本義出發(fā),人工智能算法治理至少應(yīng)包含兩方面內(nèi)容,即通過制度對(duì)人工智能算法相關(guān)的各種利益進(jìn)行確認(rèn),以及對(duì)相關(guān)對(duì)象、行為進(jìn)行必要的定義與規(guī)制。
人工智能算法治理的對(duì)象,應(yīng)該是明確、清晰的人工智能算法,而非平臺(tái)、某種具體應(yīng)用或者某些特定信息之類的關(guān)聯(lián)對(duì)象。當(dāng)下,我國(guó)對(duì)人工智能的關(guān)注大多體現(xiàn)于相關(guān)的綱領(lǐng)性文件之中,更多的是一種系統(tǒng)性和戰(zhàn)略性描述:既強(qiáng)調(diào)科技倫理,也注重從技術(shù)攻關(guān)和產(chǎn)業(yè)發(fā)展規(guī)劃的角度描述相關(guān)基礎(chǔ)理論、技術(shù)對(duì)象和應(yīng)用場(chǎng)景。對(duì)于人工智能的治理問題,在相關(guān)學(xué)術(shù)研究中,既有基于風(fēng)險(xiǎn)視角[10](P128-136)的宏觀思考,也有對(duì)算法治理路徑的歸納與論證:以“個(gè)體賦權(quán)、外部問責(zé)和平臺(tái)義務(wù)”[11](P17-30)的方式來確定人工智能算法背后的權(quán)利義務(wù)分配規(guī)則。這些思考和治理策略具有相當(dāng)?shù)那罢靶耘c科學(xué)性,但是,這些做法所指向的對(duì)象仍然略顯抽象。而在立法實(shí)踐中,更缺乏對(duì)人工智能關(guān)鍵性技術(shù)對(duì)象的準(zhǔn)確描述和專門安排。對(duì)此,應(yīng)把相關(guān)治理活動(dòng)的對(duì)象明確地指向人工智能算法本身,才能符合技術(shù)發(fā)展要求和社會(huì)現(xiàn)實(shí)。
現(xiàn)實(shí)中,人工智能算法已經(jīng)從產(chǎn)品或者服務(wù)的技術(shù)底層走向了前端,并且直接引發(fā)了社會(huì)問題和制度回應(yīng)。這種趨勢(shì)已經(jīng)十分清晰:無論是我國(guó)頒布《中國(guó)禁止出口限制出口技術(shù)目錄》對(duì)智能推送算法的直接管制,還是發(fā)生在美國(guó)密歇根州的、由當(dāng)?shù)鼐用駥?duì)州政府反欺詐算法的綜合數(shù)據(jù)化系統(tǒng)“米達(dá)思(MIDAS)”過高的出錯(cuò)率(93%)所提出的集團(tuán)訴訟[12](P51-60),又或者是美國(guó)紐約市所頒布的對(duì)公用事業(yè)領(lǐng)域算法進(jìn)行監(jiān)管的“算法問責(zé)法”(Algorithmic Accountability Bill)[13],都直接地將智能算法帶到了法律的視野中。雖然各國(guó)做法均源于特定國(guó)情,但人工智能法律治理由宏觀、抽象逐步聚焦于核心技術(shù)對(duì)象的趨勢(shì)卻是一致的。將人工智能算法治理聚焦于算法本身,既是相關(guān)治理活動(dòng)的應(yīng)有之義,也是對(duì)技術(shù)現(xiàn)實(shí)的必要回應(yīng)。
人工智能算法相關(guān)風(fēng)險(xiǎn)源于“黑盒化”等技術(shù)屬性[14]對(duì)法律治理造成的障礙,以及更為深刻的技術(shù)理性與人的利益之間的天然矛盾:極致的技術(shù)追求代表著極致的理性,某種意義上,也會(huì)造成對(duì)人的利益的疏忽甚至損害。這種價(jià)值矛盾的產(chǎn)生,既有產(chǎn)業(yè)資本逐利性的因素,也有“技術(shù)理性”思維的推波助瀾。技術(shù)理性作為現(xiàn)代社會(huì)生產(chǎn)力發(fā)展的客觀驅(qū)動(dòng),本身并無可責(zé)備之處。但如何確保技術(shù)發(fā)展最終能夠造福于社會(huì)公眾,則依賴于正確的價(jià)值引導(dǎo)。算法治理的首要任務(wù),即需要對(duì)相關(guān)利益進(jìn)行確認(rèn)。
首先,要承認(rèn)和保護(hù)人工智能控制者的投資利益。人工智能并不會(huì)單獨(dú)、不受控制地游蕩于現(xiàn)實(shí)世界或者虛擬的網(wǎng)絡(luò)空間,而必然要?dú)w屬于某些機(jī)構(gòu)或者個(gè)人。這種歸屬關(guān)系來源于相關(guān)主體的人力、物力等多方面的資源投入。對(duì)于人工智能的控制者而言,其具有通過相關(guān)技術(shù)研發(fā)、市場(chǎng)應(yīng)用獲取投資收益的合理訴求,也享有在法律框架下利用自己所掌握的人工智能系統(tǒng)實(shí)施各項(xiàng)活動(dòng)的自由。對(duì)應(yīng)地,人工智能算法必然也要反映這些控制者的主觀意愿和投資期望。因此,尊重相關(guān)的投資利益,并且以制度的方式將這種尊重轉(zhuǎn)化為對(duì)權(quán)利的確認(rèn),是獲取技術(shù)進(jìn)步和產(chǎn)業(yè)發(fā)展的合理要求。對(duì)此,需要法律明確地尊重和保障相關(guān)投資利益以及人工智能控制者充分的自主活動(dòng)和經(jīng)營(yíng)利益,以合理的制度設(shè)計(jì)達(dá)成鼓勵(lì)創(chuàng)新、鼓勵(lì)投資和預(yù)防技術(shù)風(fēng)險(xiǎn)的平衡。
其次,應(yīng)保護(hù)相關(guān)技術(shù)研發(fā)者的知識(shí)利益。人工智能技術(shù)的產(chǎn)生和發(fā)展無法脫離自然人的聰明才智。即便在一定程度上實(shí)現(xiàn)了機(jī)器學(xué)習(xí)或者自主進(jìn)化,人工智能也離不開持續(xù)的人類智力勞動(dòng)投入。而在人工智能系統(tǒng)開發(fā)過程中,會(huì)產(chǎn)生大量的技術(shù)或者表達(dá)成果,與知識(shí)產(chǎn)權(quán)制度產(chǎn)生關(guān)聯(lián)。因此,人工智能算法治理也應(yīng)當(dāng)尊重和保障研發(fā)者的知識(shí)利益。一方面,雖然與現(xiàn)行專利制度中的授權(quán)標(biāo)準(zhǔn)存在差異,但人工智能算法作為技術(shù)方案,仍然有獲得專利制度保護(hù)的可能。無論是作為專利權(quán)人還是發(fā)明人、設(shè)計(jì)人,相關(guān)的人身利益和經(jīng)濟(jì)利益都應(yīng)當(dāng)?shù)玫奖U?。另一方面,人工智能算法在設(shè)計(jì)、書寫、使用和傳播過程中所涉及的種種文字、圖案、計(jì)算機(jī)程序也有獲得著作權(quán)制度保護(hù)的可能。而從治理的角度看,人工智能算法背后的知識(shí)創(chuàng)造和知識(shí)利益分配,也隱含著知識(shí)保密與公開、信息獨(dú)占與開放的深層次利益博弈,同樣需要通過知識(shí)產(chǎn)權(quán)制度予以協(xié)調(diào)和確認(rèn)。
第三,應(yīng)保護(hù)社會(huì)個(gè)體的人格與經(jīng)濟(jì)利益。人工智能算法作為現(xiàn)代信息產(chǎn)品或者服務(wù)的后臺(tái),往往并不能被用戶所直接感知。這種社會(huì)公眾主觀感知上的缺失或者隱蔽性,并不影響他們或主動(dòng)或被動(dòng)地成為人工智能系統(tǒng)用戶,也不否認(rèn)其“免受人工智能技術(shù)負(fù)面影響”或者“參與人工智能技術(shù)發(fā)展并受益”等利益訴求的合理性?,F(xiàn)實(shí)中,由于人工智能技術(shù)的快速發(fā)展和法律制度的相對(duì)滯后,利用人工智能算法侵害用戶利益或者掩蓋非法行為的活動(dòng)愈發(fā)猖獗,典型地表現(xiàn)為以龐大的信息化系統(tǒng)個(gè)性化地侵害社會(huì)個(gè)體利益,利用定價(jià)算法實(shí)施大數(shù)據(jù)殺熟[15](P111-119),利用算法偏見實(shí)施種族、性別、年齡歧視等屢見不鮮。而一些相對(duì)傳統(tǒng)的違法行為,也在積極地利用智能技術(shù)掩蓋非法目的。比如:具有市場(chǎng)支配地位的經(jīng)營(yíng)者通過“算法共謀”實(shí)施的壟斷行為[16](P112-121)以及廣泛數(shù)據(jù)搜集、利用活動(dòng)中的侵犯?jìng)€(gè)人信息行為等。對(duì)應(yīng)地,突破技術(shù)遮掩、切實(shí)規(guī)制相關(guān)違法行為的社會(huì)需求已經(jīng)較為迫切,對(duì)人工智能算法的法律治理也必須破除技術(shù)干擾,從“人”的角度衡量技術(shù)的價(jià)值。此外,社會(huì)公眾作為智能技術(shù)的消費(fèi)者和數(shù)據(jù)供給的原始來源,所應(yīng)享有的利益也不應(yīng)僅僅限于個(gè)人信息得以保護(hù)或者免受打擾,還應(yīng)有經(jīng)濟(jì)方面的回饋?;谛袨樾实目紤],這種經(jīng)濟(jì)利益或許并不直接體現(xiàn)為相關(guān)經(jīng)營(yíng)者對(duì)社會(huì)公眾的經(jīng)濟(jì)性給付,也應(yīng)該通過設(shè)計(jì)其他的給付方式得以呈現(xiàn)。
此外,從防范風(fēng)險(xiǎn)的角度觀察,人工智能算法除了直接涉及的控制者、開發(fā)者和用戶利益外,還有更長(zhǎng)遠(yuǎn)視角下的社會(huì)整體利益需要被納入法律治理的范疇中。在“網(wǎng)絡(luò)安全和信息化是一體之兩翼,驅(qū)動(dòng)之雙輪”[17]的科學(xué)論斷指引下,社會(huì)整體利益可以進(jìn)一步細(xì)化為發(fā)展利益和安全利益兩個(gè)方面。在這當(dāng)中,發(fā)展利益是我國(guó)發(fā)展和應(yīng)用人工智能技術(shù)所追求的根本利益,是我國(guó)相關(guān)技術(shù)進(jìn)步、市場(chǎng)拓展乃至經(jīng)濟(jì)增長(zhǎng)、贏得國(guó)際競(jìng)爭(zhēng)的重要驅(qū)動(dòng)力。對(duì)此,需要從促進(jìn)數(shù)據(jù)流動(dòng)與利用的角度,平衡相關(guān)經(jīng)營(yíng)者和社會(huì)整體以及個(gè)體間的人工智能技術(shù)利益分配,繼而進(jìn)一步平衡人工智能相關(guān)產(chǎn)業(yè)經(jīng)營(yíng)者自主經(jīng)營(yíng)、智力勞動(dòng)投入、資本投入、個(gè)人利益以及社會(huì)整體利益的關(guān)系。對(duì)于所牽涉的安全利益,則可以從縱向細(xì)分為四個(gè)層次:國(guó)家安全層面,包括數(shù)據(jù)信息的本地化和外流風(fēng)險(xiǎn),以及基于算法漏洞的外部攻擊、破壞風(fēng)險(xiǎn);社會(huì)秩序?qū)用妫P(guān)鍵信息基礎(chǔ)設(shè)施的正常運(yùn)行、算法影響下的數(shù)據(jù)安全和輿論導(dǎo)向;市場(chǎng)充分和有序競(jìng)爭(zhēng)層面,包括利用算法實(shí)施的各種阻礙競(jìng)爭(zhēng)、無序競(jìng)爭(zhēng)和侵犯消費(fèi)者利益的風(fēng)險(xiǎn);社會(huì)公眾個(gè)人利益保護(hù)層面,包括個(gè)人信息不當(dāng)搜集、使用以及對(duì)個(gè)人表達(dá)的不利影響等。相關(guān)安全利益牽涉面廣泛、敏感,同樣需要法律制度的重點(diǎn)關(guān)注。對(duì)不同層次安全利益的確認(rèn)與關(guān)注,也是基礎(chǔ)性的算法治理活動(dòng)的應(yīng)然之義。
基于對(duì)人工智能算法基本范疇和法律表達(dá)的判斷,以及對(duì)人工智能技術(shù)應(yīng)用所引發(fā)的利益變動(dòng)和制度需求的觀察,人工智能算法治理的思路可以進(jìn)一步明確為基于知識(shí)產(chǎn)權(quán)制度和基于專門法的兩條并行的路徑。
一方面,通過知識(shí)產(chǎn)權(quán)制度來規(guī)范人工智能算法開發(fā)和應(yīng)用中的新型對(duì)象,對(duì)所產(chǎn)生的種種利益或者行為予以確認(rèn)和規(guī)制,具有現(xiàn)實(shí)的優(yōu)先性和便利性。無論是從權(quán)利客體還是監(jiān)管對(duì)象的角度,人工智能算法的本質(zhì)都是一種特定的信息,符合知識(shí)產(chǎn)權(quán)客體的基本要求。知識(shí)產(chǎn)權(quán)制度作為客體法,也更適合于對(duì)具體和有限的信息對(duì)象進(jìn)行概括和定義。這是因?yàn)?,雖然人工智能算法的本質(zhì)是一種信息,但卻是一種解決明確技術(shù)問題的技術(shù)方案。這使得人工智能算法具備明確的物理功能和界限,以區(qū)別于抽象意義上的信息。具體而言,由于人工智能算法與現(xiàn)有知識(shí)產(chǎn)權(quán)客體之間存在著一定的相似性,可以通過知識(shí)產(chǎn)權(quán)制度對(duì)特定形態(tài)的人工智能算法提供及時(shí)、必要的保護(hù)。其一,人工智能算法作為一種解決特定技術(shù)問題的方案,而非某種著作權(quán)意義上的表達(dá)或者某種抽象的思維活動(dòng),與專利權(quán)客體存在著一致性。雖然在具體的授權(quán)標(biāo)準(zhǔn)方面,人工智能算法的專利保護(hù)制度還有待完善,但是將部分符合要求的人工智能算法納入專利制度,已經(jīng)被專利審查部門所采納①我國(guó)2019年底修訂的《專利審查指南》第九章新增規(guī)定:“如果權(quán)利要求中除了算法特征或商業(yè)規(guī)則和方法特征,還包含技術(shù)特征,該權(quán)利要求就整體而言并不是一種智力活動(dòng)的規(guī)則和方法,則不應(yīng)當(dāng)依據(jù)專利法第二十五條第一款第(二)項(xiàng)排除其獲得專利權(quán)的可能性”。。其二,人工智能算法作為以偽代碼書寫、記錄的信息,也有可能被作為計(jì)算機(jī)程序(被視作某種文檔),獲得著作權(quán)制度的保護(hù)。第三,考慮到人工智能算法往往以底層技術(shù)的方式發(fā)揮作用,處于表層產(chǎn)品或者服務(wù)的掩蓋之下,它也往往被其控制者當(dāng)作技術(shù)秘密,可以得到商業(yè)秘密相關(guān)制度的保護(hù)。
另一方面,更具前瞻性的專門法路徑,才具備精準(zhǔn)地描述人工智能算法,并及時(shí)地應(yīng)對(duì)相關(guān)的現(xiàn)實(shí)與潛在風(fēng)險(xiǎn)的能力。這是因?yàn)椋灾R(shí)產(chǎn)權(quán)制度來定義和規(guī)范人工智能算法以及相關(guān)活動(dòng),只是相關(guān)制度供給緊缺情況下的應(yīng)急。單獨(dú)地依靠現(xiàn)行知識(shí)產(chǎn)權(quán)制度,既不能對(duì)其進(jìn)行完整的描述與歸類,也無法通過簡(jiǎn)單創(chuàng)設(shè)新型知識(shí)產(chǎn)權(quán)客體的方式應(yīng)對(duì)相關(guān)應(yīng)用中所產(chǎn)生的種種超出知識(shí)產(chǎn)品利益分配范疇的問題。也即是說,人工智能算法作為一項(xiàng)特殊的技術(shù)方案,無法被整體地劃入專利、計(jì)算機(jī)軟件或者商業(yè)秘密范疇。而且,其所引發(fā)的利益變動(dòng)以及現(xiàn)實(shí)中的種種問題,也非單獨(dú)的知識(shí)產(chǎn)權(quán)法律制度所能應(yīng)對(duì)。在我國(guó)相關(guān)制度供給不足的現(xiàn)實(shí)下,應(yīng)急之余,也應(yīng)該嘗試通過專門法來對(duì)人工智能算法實(shí)施綜合治理。
通過知識(shí)產(chǎn)權(quán)制度,可以換取一定程度的算法技術(shù)公開,為知識(shí)傳播或者法律監(jiān)管提供方便。但是,知識(shí)產(chǎn)權(quán)權(quán)利畢竟屬于私權(quán),無法成為法律治理或者更具強(qiáng)制色彩的監(jiān)管活動(dòng)的可靠途徑。而人工智能算法治理也絕非單一的法律監(jiān)管所能涵蓋。當(dāng)中,技術(shù)理性與社會(huì)整體利益的協(xié)調(diào)發(fā)展,既是宏觀的治理目標(biāo),也是貫通于治理框架搭建與規(guī)則設(shè)計(jì)的具體指導(dǎo)。
圍繞人工智能算法所構(gòu)建的綜合治理體系,需要對(duì)相關(guān)對(duì)象范疇、治理活動(dòng)整體框架予以全新設(shè)計(jì),并體現(xiàn)出對(duì)現(xiàn)行主要治理方式的吸收與革新,在專業(yè)性和技術(shù)性等方面具有鮮明的制度創(chuàng)新色彩。但是,這并不意味著對(duì)現(xiàn)有治理工具的全面放棄。在這一理念下,人工智能算法專門治理制度中最具統(tǒng)領(lǐng)性的架構(gòu)設(shè)計(jì),應(yīng)遵循以下思路展開。
首先,系統(tǒng)化的治理體系應(yīng)體現(xiàn)對(duì)現(xiàn)有制度的充分利用。雖然當(dāng)下針對(duì)人工智能的專門規(guī)定較為稀少和分散,但是,也不排除我國(guó)在未來?xiàng)l件成熟時(shí)設(shè)立專門的人工智能“促進(jìn)法”或者“監(jiān)管法”,并在當(dāng)中設(shè)計(jì)“算法規(guī)則”的可能性。就目前而言,仍然應(yīng)當(dāng)注重與現(xiàn)有制度的配合,促使制度資源得以最大程度的發(fā)揮作用。一方面,可以通過具有網(wǎng)絡(luò)治理基本法地位的《網(wǎng)絡(luò)安全法》以及《數(shù)據(jù)安全法》等法律規(guī)范,對(duì)人工智能算法的設(shè)計(jì)與實(shí)施進(jìn)行監(jiān)督,對(duì)相關(guān)對(duì)象、行為等基本概念進(jìn)行界定,為算法治理活動(dòng)明確合理邊界。另一方面,可以通過具體應(yīng)用所涉領(lǐng)域的專門法實(shí)現(xiàn)對(duì)智能應(yīng)用中的算法活動(dòng)予以監(jiān)督,或者在“分級(jí)分類管理”①參見《中華人民共和國(guó)網(wǎng)絡(luò)安全法》第21條“網(wǎng)絡(luò)安全等級(jí)保護(hù)制度”的相關(guān)內(nèi)容,它是我國(guó)從網(wǎng)絡(luò)治理基礎(chǔ)性法律規(guī)范的層面對(duì)網(wǎng)絡(luò)治理活動(dòng)“分級(jí)分類管理”思路的正式確認(rèn)。思路的指引下,通過對(duì)數(shù)據(jù)搜集、傳輸、使用和存儲(chǔ)等方面行為進(jìn)行規(guī)定,可以形成對(duì)具體應(yīng)用領(lǐng)域中算法風(fēng)險(xiǎn)的間接識(shí)別和應(yīng)對(duì)。與此同時(shí),也可以通過知識(shí)產(chǎn)權(quán)制度,從智力勞動(dòng)成果保護(hù)的角度,確認(rèn)和保障相關(guān)的知識(shí)產(chǎn)權(quán)利益,鼓勵(lì)和促進(jìn)人工智能算法由技術(shù)底層走向開放,使用戶可感知、可理解,使社會(huì)公眾可以盡量自由地獲取和利用相關(guān)知識(shí)。此外,還可以從加強(qiáng)反壟斷執(zhí)法的角度,對(duì)利用算法工具實(shí)施的新型濫用市場(chǎng)支配地位或者壟斷協(xié)議等行為予以規(guī)制,規(guī)制運(yùn)用算法工具所實(shí)施的壟斷行為。
其次,應(yīng)超越傳統(tǒng)的“算法可解釋”和“平臺(tái)責(zé)任”治理模式。從操作層面實(shí)現(xiàn)對(duì)人工智能算法的有效治理、理論探討向?qū)嵺`轉(zhuǎn)化的必然要求。現(xiàn)有研究所給出的應(yīng)對(duì)策略,往往集中于“算法可解釋”和“平臺(tái)責(zé)任”兩種模式,卻難以真正應(yīng)對(duì)人工智能算法的技術(shù)復(fù)雜性。當(dāng)下,“算法可解釋”往往被認(rèn)為是突破人工智能算法黑盒障礙的重要手段——通過賦予社會(huì)公眾個(gè)體要求人工智能控制者解釋算法決策過程的權(quán)利,或者使相關(guān)主體承擔(dān)解釋算法運(yùn)行是否滿足合法性、合理性等標(biāo)準(zhǔn)的義務(wù),使原本難以被察覺的非法活動(dòng)暴露于監(jiān)管的視野之內(nèi)。但是,使人工智能支配者或者使用者解釋算法,只是實(shí)現(xiàn)治理目標(biāo)的手段之一,并不是最終的目標(biāo)本身。一般意義上的“算法可解釋”既無法應(yīng)對(duì)人工智能算法迭代所造成的版本干擾,也無法使底層的算法原理和具體應(yīng)用中的實(shí)際效果間形成清晰的映射。而且,人工智能技術(shù)以及相關(guān)應(yīng)用的基本原理決定了,單純地要求人工智能控制者或者使用者向用戶個(gè)人承擔(dān)解釋義務(wù),也無法真正地實(shí)現(xiàn)制度目標(biāo):通用的底層人工智能算法解決的是技術(shù)問題,而不是進(jìn)行價(jià)值判斷,無論其保持開放或者是保密的狀態(tài),對(duì)于用戶或者個(gè)人乃至立法者和執(zhí)法者而言,它仍然是專業(yè)性過強(qiáng)的技術(shù)方案,并不直接地與其個(gè)人利益產(chǎn)生關(guān)聯(lián);而簡(jiǎn)單化地對(duì)相關(guān)主體施加解釋算法的義務(wù),雖然從理論上或許可以充分地保障每一次自動(dòng)化決策或者人工智能活動(dòng)不至于脫離倫理、法律框架或者公平正義的價(jià)值觀,但會(huì)帶來致命的效率損耗,并因此極大地抵消掉人工智能技術(shù)的技術(shù)優(yōu)勢(shì)。與此同時(shí),設(shè)想中的“算法可解釋”還面臨著解釋方式、程度和檢驗(yàn)標(biāo)準(zhǔn)等方面的現(xiàn)實(shí)困擾。另外,也不能把人工智能算法治理簡(jiǎn)單地等同于以平臺(tái)責(zé)任規(guī)范人工智能控制者的行為。強(qiáng)調(diào)平臺(tái)責(zé)任確實(shí)可以在一定程度上保障平臺(tái)用戶乃至社會(huì)公眾的整體利益,但是如此處理,除了在治理思路上有應(yīng)急之嫌以外,并沒有真正地將人工智能算法納入治理范疇,也將視野過窄地限制在了市場(chǎng)經(jīng)營(yíng)領(lǐng)域,而忽視了人工智能技術(shù)的應(yīng)用前景。與此同時(shí),在智能化的社會(huì)中,非平臺(tái)化經(jīng)營(yíng)的人工智能技術(shù)研發(fā)、應(yīng)用規(guī)模也十分龐大,單憑平臺(tái)問責(zé)也難以充分應(yīng)對(duì)千變?nèi)f化的市場(chǎng)。
第三,以創(chuàng)新性的“算法可理解+數(shù)據(jù)可信+參數(shù)可解釋”為骨干構(gòu)建新的治理框架。作為對(duì)現(xiàn)有應(yīng)對(duì)策略的繼承與發(fā)展,在以算法為主要對(duì)象的治理體系下,著重強(qiáng)調(diào)數(shù)據(jù)與參數(shù)相配合。一方面,“算法可理解”可以被認(rèn)為是一種低水平的算法開放②算法開放的內(nèi)涵包括“算法可解釋”,但還有其他的內(nèi)容,如算法共享、算法許可使用、算法二次開發(fā)以及對(duì)應(yīng)的數(shù)據(jù)開放等。,它以最低限度的、可以被監(jiān)管部門的專業(yè)人員所理解為基本要求,而非對(duì)全體社會(huì)成員的充分公開,并以這樣的方式保障人工智能控制者、研發(fā)者的自主性和保密利益。這一設(shè)計(jì)的目的在于規(guī)避明顯的算法錯(cuò)誤和以人工智能為借口的欺詐或者虛假宣傳,而不奢求一勞永逸地解決一切算法問題。另一方面,“數(shù)據(jù)可信”①即要求人工智能控制者能夠?qū)ζ鋽?shù)據(jù)供給來源提供合理的解釋。和“參數(shù)可解釋”②即要求人工智能控制者要能夠?qū)ζ渌惴ㄔO(shè)計(jì)中各種參數(shù)的設(shè)定提供合理的解釋:是基于技術(shù)規(guī)格的需要,還是基于經(jīng)濟(jì)理性,又或者是單純地體現(xiàn)其主觀好惡等。可以較好地發(fā)揮各自的作用,同時(shí)也保有合適的監(jiān)管尺度。數(shù)據(jù)之于信息時(shí)代的重要性無須贅述,但數(shù)據(jù)治理也有其自己的功能與邏輯,并非萬能?!皵?shù)據(jù)可信”作為更寬泛意義上的數(shù)據(jù)治理活動(dòng)的一個(gè)組成部分,應(yīng)用于人工智能算法治理活動(dòng),在發(fā)揮基本功能的同時(shí),也應(yīng)體現(xiàn)出必要的克制:確保人工智能及其控制者所使用的數(shù)據(jù)擁有清晰、可信的來源,并且遵守法律規(guī)范中基本的數(shù)據(jù)行為規(guī)則即可,而不對(duì)其施加過多的數(shù)據(jù)安全或者數(shù)據(jù)合規(guī)義務(wù),為人工智能技術(shù)相關(guān)的數(shù)據(jù)利用活動(dòng)保留足夠的空間。而“參數(shù)可解釋”則可以視為是對(duì)人工智能算法支配者,或者更貼近應(yīng)用端的經(jīng)營(yíng)者的一種強(qiáng)約束。在工程技術(shù)語境下,參數(shù)往往帶有較強(qiáng)的技術(shù)客觀性。但是在底層的通用算法實(shí)現(xiàn)了基礎(chǔ)智能,以及外部數(shù)據(jù)供給具備基本的合法和可信度的情況下,相關(guān)的參數(shù)設(shè)置往往會(huì)更多地體現(xiàn)相關(guān)經(jīng)營(yíng)者的主觀意愿,更具主觀性。此時(shí),相關(guān)參數(shù)的設(shè)定或者選取,會(huì)更多地與人們所熟知的殺熟、偏見或者合謀等不合理行為產(chǎn)生關(guān)聯(lián)。將“參數(shù)可解釋”納入治理框架,是更具有針對(duì)性,更遠(yuǎn)離技術(shù)黑盒、貼近具體應(yīng)用和用戶感受,也面臨更小阻力的監(jiān)管手段。
在“算法可理解+數(shù)據(jù)可信+參數(shù)可解釋”的治理框架之下,還應(yīng)對(duì)人工智能算法治理的基本策略有所判斷,以回應(yīng)人工智能算法相關(guān)的技術(shù)屬性和應(yīng)用規(guī)律。其一,應(yīng)將治理的時(shí)機(jī)盡量提前,以應(yīng)對(duì)現(xiàn)代信息社會(huì)網(wǎng)絡(luò)外部性對(duì)風(fēng)險(xiǎn)的放大效應(yīng);其二,應(yīng)將通用算法治理與具體應(yīng)用領(lǐng)域相結(jié)合,提升算法治理的靈活性。具體而言,體現(xiàn)為兩方面內(nèi)容:
一方面,應(yīng)在傳統(tǒng)的“事后救濟(jì)”之外,嘗試對(duì)人工智能算法風(fēng)險(xiǎn)進(jìn)行事前防范。這是因?yàn)?,以人工智能技術(shù)發(fā)展和應(yīng)用為代表的智能社會(huì),面臨著風(fēng)險(xiǎn)活動(dòng)隱蔽化和損害結(jié)果擴(kuò)大化的新型技術(shù)條件和社會(huì)背景,事后補(bǔ)救的難度和成本都在急劇攀升。“在傳統(tǒng)社會(huì),很多風(fēng)險(xiǎn)是個(gè)別性、局部性、偶然性的,而在信息社會(huì)和智能社會(huì),大多數(shù)風(fēng)險(xiǎn)具有快速蔓延性、急劇增強(qiáng)性”[18](P4-19)。這種風(fēng)險(xiǎn)特性,要求對(duì)算法的治理須盡可能地提前,而不能被動(dòng)地等到損害發(fā)生后再補(bǔ)救?,F(xiàn)實(shí)中,對(duì)于人工智能算法所引發(fā)問題的事后救濟(jì)尚不能及時(shí)應(yīng)對(duì)已發(fā)生風(fēng)險(xiǎn),如何采取有效的事前防范措施更顯模糊,但相關(guān)制度建設(shè)仍應(yīng)對(duì)此進(jìn)行積極嘗試。
對(duì)于人工智能算法風(fēng)險(xiǎn)的事前防范,關(guān)鍵在于將人工智能系統(tǒng)底層的算法運(yùn)行從技術(shù)的黑盒中提取出來,以降低損害結(jié)果發(fā)生后的修復(fù)成本。它是對(duì)事后救濟(jì)的配合與補(bǔ)充,而非替代。因此,相比于應(yīng)對(duì)已發(fā)生損害的事后救濟(jì),“事前防范”更注重預(yù)防而非懲罰,更應(yīng)體現(xiàn)法律介入的謙抑性,需以對(duì)相關(guān)投資利益和自主經(jīng)營(yíng)的尊重為前提。對(duì)于人工智能算法風(fēng)險(xiǎn)的事前防范,至少應(yīng)當(dāng)包含三方面的內(nèi)容:其一,人工智能的控制者、經(jīng)營(yíng)者需要將其所控制、使用的人工智能系統(tǒng)的算法與其他的技術(shù)對(duì)象或者技術(shù)行為區(qū)分開來,以滿足必要的檢查或者開放要求。這種技術(shù)對(duì)象的獨(dú)立性要求,將確保算法不至于被掩蓋于紛繁復(fù)雜的技術(shù)活動(dòng)之下,成為法律治理的盲區(qū)。其二,人工智能的控制者應(yīng)當(dāng)能夠解釋其所應(yīng)用于算法的各種參數(shù)的合法性。這種解釋的標(biāo)準(zhǔn)較低,只要求相關(guān)參數(shù)的設(shè)定以及其所對(duì)應(yīng)的行為,不得違反現(xiàn)行法律法規(guī)的禁止性規(guī)定。除此以外,人工智能運(yùn)行中各種參數(shù)設(shè)定,可以以相關(guān)控制者的主觀意愿為依據(jù),以保障其行為的自主性。第三,人工智能的控制者應(yīng)當(dāng)能清晰解釋其人工智能系統(tǒng)所使用數(shù)據(jù)的來源。此處的解釋標(biāo)準(zhǔn)除了要滿足合法性的要求外,還應(yīng)滿足合理性要求,并與外部的數(shù)據(jù)搜集、使用規(guī)則相銜接。此外,數(shù)據(jù)層面的可解釋性,也體現(xiàn)出事前防范與事后監(jiān)督的過渡——作為事前風(fēng)險(xiǎn)防范對(duì)象的人工智能算法本身和事后救濟(jì)所指向的人工智能損害效果,往往也是通過數(shù)據(jù)來源的合法性以及數(shù)據(jù)行為的合理性而產(chǎn)生關(guān)聯(lián)。
另一方面,以具體的人工智能應(yīng)用領(lǐng)域和方式,以分級(jí)分類管理的思路,厘定不同的算法理解標(biāo)準(zhǔn)。具體而言,則體現(xiàn)在人工智能算法治理,還需要根據(jù)不同的應(yīng)用場(chǎng)景,設(shè)計(jì)差異化的“算法可理解”的方式與程度,理由有三。其一,在人工智能算法的控制者、使用者身份脫離的情形下,二者所應(yīng)承擔(dān)的法律義務(wù)與責(zé)任也是不一樣的。對(duì)于不同的算法,其輸出結(jié)果和自身的可理解程度都有差異,“只有監(jiān)督學(xué)習(xí)狀態(tài)下的算法才在設(shè)計(jì)者的掌控之下,對(duì)于無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)而言,結(jié)果是無法預(yù)測(cè)的”[18](P4-19),并且只有在控制者可以控制算法的明確輸入和輸出的情況下,才會(huì)對(duì)于人工智能所造成的損害負(fù)直接責(zé)任。而對(duì)于輸出具有不確定性的真正意義上的人工智能算法僅承擔(dān)類似于主人對(duì)其所擁有的動(dòng)物的看管責(zé)任,并且以“對(duì)計(jì)算機(jī)技術(shù)能力的一般預(yù)期”為前提[19](P497-521)。也就是說,在不同的應(yīng)用領(lǐng)域中,人工智能算法可理解性或者開放程度的高低,將影響到人工智能控制者的直接責(zé)任或者間接責(zé)任的認(rèn)定與分配。其二,人工智能算法治理意味著一定程度上對(duì)相關(guān)算法黑盒狀態(tài)的打破,應(yīng)當(dāng)有適宜的尺度。雖然在具體的運(yùn)營(yíng)過程中,人工智能算法有時(shí)以開放或者開源的方式呈現(xiàn)于市場(chǎng)或者其他領(lǐng)域,但這并不導(dǎo)致相關(guān)的保密行為喪失合理性。但是,人工智能算法治理要求其必須具備一定的可理解性。對(duì)此,我國(guó)在設(shè)計(jì)相關(guān)制度時(shí),可以借鑒美國(guó)計(jì)算機(jī)協(xié)會(huì)(Association for Computing Machinery)“鼓勵(lì)使用算法決策的系統(tǒng)和機(jī)構(gòu)對(duì)算法過程和特定決策提供解釋”[20]的做法,將人工智能算法的可理解問題放到具體的人工智能應(yīng)用領(lǐng)域中進(jìn)行綜合考慮,并以具體的應(yīng)用特性為基礎(chǔ),為人工智能控制者和人工智能用戶之間劃定保密與可理解的邊界。第三,也需要將“算法可理解”與我國(guó)網(wǎng)絡(luò)治理的“分級(jí)分類管理”理念相結(jié)合。對(duì)于事關(guān)國(guó)家安全的算法應(yīng)用,強(qiáng)調(diào)其主動(dòng)分級(jí)管理、接受全面監(jiān)督和報(bào)告風(fēng)險(xiǎn)的義務(wù);對(duì)于事關(guān)社會(huì)秩序的算法應(yīng)用,設(shè)計(jì)相關(guān)經(jīng)營(yíng)者就“通用算法”開放的事前開放義務(wù)和事后的風(fēng)險(xiǎn)管理報(bào)告義務(wù);對(duì)于市場(chǎng)范疇下的算法應(yīng)用,鼓勵(lì)相關(guān)經(jīng)營(yíng)者開放通用算法,保障其對(duì)個(gè)性化的應(yīng)用算法施以合理程度的保密;對(duì)于事關(guān)社會(huì)公眾個(gè)體利益的算法應(yīng)用,則應(yīng)構(gòu)建具有可操作性的個(gè)人信息保護(hù)和利用方面的權(quán)利體系,保障其人格尊嚴(yán)、生活安寧和公平參與數(shù)據(jù)活動(dòng)的基本權(quán)利。
人工智能算法技術(shù)的技術(shù)屬性與應(yīng)用方式是相關(guān)治理體系構(gòu)建的客觀基礎(chǔ)。當(dāng)宏觀的治理理念落實(shí)于具體的操作層面,也必然要求相關(guān)的基礎(chǔ)性規(guī)則應(yīng)當(dāng)滿足技術(shù)規(guī)律與社會(huì)需求的雙重要求。具體而言,當(dāng)中的基礎(chǔ)性規(guī)則至少應(yīng)包含以下四方面的內(nèi)容,才能在識(shí)別治理對(duì)象、規(guī)范基本行為和滿足社會(huì)利益關(guān)切方面,使相關(guān)治理體系得以真正實(shí)施和發(fā)揮作用。
其一,應(yīng)設(shè)計(jì)合理的算法識(shí)別規(guī)則,同時(shí)避免“唯算法論”的誤區(qū)。結(jié)合人工智能技術(shù)復(fù)雜性和對(duì)數(shù)據(jù)供給網(wǎng)絡(luò)的高度依賴性所喻示的高企的市場(chǎng)準(zhǔn)入門檻,實(shí)際上也暗示了人工智能相關(guān)應(yīng)用背后的資本因素,并且不排除其成為資本所利用的“算法獨(dú)裁”[21](P52-58)工具的可能性。因此,有關(guān)算法與法律的關(guān)系也引發(fā)了全社會(huì)的重視:基于算法之于現(xiàn)代法律制度的重要影響[22](P64-75),算法甚至帶來了新的權(quán)力形態(tài),導(dǎo)致了算力即權(quán)力的新現(xiàn)象,同時(shí)也使公民權(quán)利面臨更隱蔽、更無所不在的“權(quán)力技術(shù)”[23](P66-85)的侵蝕。而這種擔(dān)憂在極端情況下會(huì)將二者的關(guān)系歸納為“算法即法律”[24](P6),認(rèn)為在人工智能的時(shí)代,算法就是法律。誠(chéng)然,算法已經(jīng)通過愈發(fā)智能的系統(tǒng),成為幫助甚至一定程度上替代人類作出判斷的工具,其與基本權(quán)利乃至公權(quán)力的關(guān)系,理應(yīng)引起法學(xué)研究的關(guān)注。但是不能因?yàn)槿斯ぶ悄軕?yīng)用所展現(xiàn)出來的種種性能優(yōu)勢(shì),就將其中的人工智能算法給神秘化或者萬能化,縱然其被隱匿于層層的技術(shù)細(xì)節(jié)之下,也不影響其被法律制度所識(shí)別和規(guī)制。在“算法可理解”的基本要求下,實(shí)現(xiàn)人工智能通用算法、應(yīng)用算法的精準(zhǔn)技術(shù)識(shí)別和針對(duì)性處置,是人工智能算法治理的必然要求。
其二,應(yīng)設(shè)計(jì)數(shù)據(jù)可信規(guī)則,擺脫“唯數(shù)據(jù)論”的干擾。人工智能算法并不能單獨(dú)地支撐起相關(guān)系統(tǒng)的運(yùn)行和應(yīng)用,還依賴于龐大的外部數(shù)據(jù)供給。而且,從相關(guān)系統(tǒng)自身完備的角度衡量,數(shù)據(jù)供給的質(zhì)量和充足程度決定了人工智能算法在單位時(shí)間內(nèi)迭代的次數(shù)和質(zhì)量,并直接影響到相關(guān)系統(tǒng)的智能水平。在相關(guān)技術(shù)不斷進(jìn)步以及采用平臺(tái)化經(jīng)營(yíng)的數(shù)據(jù)主體不斷發(fā)展壯大的趨勢(shì)下,以龐大數(shù)據(jù)體量為支撐的運(yùn)算能力,所發(fā)揮的作用和影響早已經(jīng)超出了一般的市場(chǎng)經(jīng)營(yíng)范疇,而成為一種新興的社會(huì)力量[4](P398-415)。因此,對(duì)于人工智能的現(xiàn)實(shí)控制或者法律治理也存在著另一個(gè)思路,即通過數(shù)據(jù)控制或者數(shù)據(jù)治理的方式,控制人工智能系統(tǒng)的基本功能與性能乃至存續(xù)。從技術(shù)的角度來看,這種認(rèn)知并無明顯差錯(cuò),但并不能以單一的數(shù)據(jù)控制替代對(duì)人工智能算法本身的監(jiān)督。一方面,雖然對(duì)于人工智能而言數(shù)據(jù)至關(guān)重要,但二者的功能和作用并不一致,數(shù)據(jù)與智能之間的鴻溝也不會(huì)因?yàn)閿?shù)據(jù)規(guī)?;蛘哔|(zhì)量的提升而自然消除。對(duì)于人工智能而言,具有創(chuàng)造性的、足以解決特定技術(shù)問題的算法仍然不可或缺。另一方面,數(shù)據(jù)治理不能替代算法治理。對(duì)于數(shù)據(jù)治理,無論是我國(guó)《民法典》《數(shù)據(jù)安全法》等直接規(guī)定數(shù)據(jù)保護(hù)與利用的法律制度,還是其他相關(guān)的規(guī)范性文件,都以數(shù)據(jù)內(nèi)容的敏感性或者應(yīng)用領(lǐng)域?yàn)閯澐郑M(jìn)行分門別類的管理。這與人工智能算法的通用性之間存在著天然的差異。而且,在人工智能技術(shù)環(huán)境下,對(duì)于不同的數(shù)據(jù)輸入,同一個(gè)算法運(yùn)行的結(jié)果會(huì)迥然不同,數(shù)據(jù)的合法性無法成為判斷算法合法性或者合理性的依據(jù)。因此,在討論算法治理的基本架構(gòu)與基礎(chǔ)性規(guī)則時(shí),對(duì)于數(shù)據(jù)的重要性應(yīng)有清晰的定位:數(shù)據(jù)來源的可信與否,是人工智能算法設(shè)計(jì)與完善、相關(guān)產(chǎn)品或者服務(wù)發(fā)展與應(yīng)用所不可或缺的外部環(huán)境,但數(shù)據(jù)與算法并非彼此替代關(guān)系,數(shù)據(jù)治理不能代替其他的治理規(guī)則。
第三,應(yīng)設(shè)計(jì)算法理解規(guī)則,明確“可理解”的尺度與方式。當(dāng)下,人工智能領(lǐng)域的算法開放仍然出于人工智能控制者的自覺或者自愿,當(dāng)中既有出于開源情懷的考慮,也有對(duì)推廣自身算法、獲取數(shù)據(jù)反饋的利益驅(qū)動(dòng)。而相關(guān)算法的保密與開放之爭(zhēng),也不全是一個(gè)私權(quán)行使問題,而更是一個(gè)基于信息利益公平分配的社會(huì)公平問題。具體而言,包括人工智能在內(nèi)的現(xiàn)代信息技術(shù)不能脫離于人類社會(huì)單獨(dú)存在,它必然要從廣泛的社會(huì)主體處獲取數(shù)據(jù)資源并且實(shí)現(xiàn)投資利益。而廣泛的人工智能控制、經(jīng)營(yíng)活動(dòng)之外的社會(huì)個(gè)體,也應(yīng)當(dāng)享有從人工智能技術(shù)發(fā)展中獲益,以及不受人工智能技術(shù)影響自身合法權(quán)益的權(quán)利。此時(shí),信息利益公平分配這一價(jià)值導(dǎo)向也可以集中體現(xiàn)于算法可理解規(guī)則——對(duì)于人工智能控制者而言,這一規(guī)則可以使其在承擔(dān)必要開放義務(wù)的同時(shí)不至于失去對(duì)相關(guān)投資和核心競(jìng)爭(zhēng)力的掌控;對(duì)于社會(huì)公眾而言,通過這一規(guī)則可以使其免于遭受由于算法錯(cuò)誤或者算法歧視所帶來的不公,也可以更主動(dòng)地參與人工智能創(chuàng)新;對(duì)于市場(chǎng)監(jiān)管者而言,這一規(guī)則可以有助于其對(duì)潛在的算法濫用以及壟斷問題保持足夠的警惕并及時(shí)評(píng)估競(jìng)爭(zhēng)狀況,應(yīng)對(duì)由于信息利益不合理分配所引發(fā)的市場(chǎng)競(jìng)爭(zhēng)風(fēng)險(xiǎn);對(duì)于社會(huì)管理者而言,算法可理解規(guī)則也是其評(píng)估人工智能系統(tǒng)應(yīng)用效果和潛在社會(huì)風(fēng)險(xiǎn)的重要工具。換言之,一個(gè)安全、可信和不至于引發(fā)信息利益失衡的人工智能系統(tǒng),其算法必須是以某種形式和程度向監(jiān)管機(jī)關(guān)和社會(huì)公眾所開放的。算法可理解規(guī)則的設(shè)計(jì),以對(duì)相關(guān)信息系統(tǒng)控制者、開發(fā)者、經(jīng)營(yíng)者的投資和經(jīng)營(yíng)利益的確認(rèn)與保護(hù)為前提,不會(huì)造成人工智能系統(tǒng)控制者或者研發(fā)者保密技術(shù)的外泄,也不會(huì)為相關(guān)經(jīng)營(yíng)者帶來過重的解釋負(fù)擔(dān)。
最后,應(yīng)完善個(gè)人利益保障規(guī)則,同時(shí)也為技術(shù)發(fā)展保留足夠的空間。在現(xiàn)實(shí)的視角下,無論是作為整體的人工智能還是其中的算法,它們都是服務(wù)于“人”的技術(shù)工具,而遠(yuǎn)不至于獲得某種主體資格。這也意味著,無論是宏觀的治理體制構(gòu)建還是對(duì)基礎(chǔ)性規(guī)則的設(shè)計(jì),都必須把對(duì)個(gè)人利益的尊重與保障納入考慮范圍。這既是一種倫理層面的價(jià)值宣示,也是具體規(guī)則層面的利益分配:無論是歐盟《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation)對(duì)自動(dòng)化決策的警惕,還是我國(guó)《電子商務(wù)法》對(duì)算法推送所導(dǎo)致的對(duì)個(gè)人生活侵?jǐn)_的規(guī)制,都是對(duì)這種理念的積極實(shí)踐。但是也要看到,在當(dāng)前社會(huì)環(huán)境中,無論是否有嚴(yán)格的“知情/同意”或者“通知/刪除”規(guī)則,每一個(gè)社會(huì)個(gè)體都將或主動(dòng)或被動(dòng)地參與廣泛的數(shù)據(jù)活動(dòng)。這種信息化或者數(shù)據(jù)化浪潮,也必然為人工智能所用。這也意味著,相關(guān)的個(gè)人利益保障規(guī)則須以更加務(wù)實(shí)的方式看待人工智能的數(shù)據(jù)需求,具體體現(xiàn)在兩方面。
其一,應(yīng)保障社會(huì)個(gè)體對(duì)智能產(chǎn)品或者服務(wù)提供者的要求解釋的權(quán)利。這種權(quán)利與現(xiàn)有理論中的“算法解釋權(quán)”有一定的相似,但也存在區(qū)別。一般而言,算法解釋權(quán)更多體現(xiàn)的是倫理規(guī)范層面的“內(nèi)在之善”[25](P71-88),價(jià)值宣示的意味更濃。而筆者所要求的解釋,更傾向于是一種現(xiàn)實(shí)的操作規(guī)則,即對(duì)相關(guān)算法“算法可理解+數(shù)據(jù)可信+參數(shù)可解釋”標(biāo)準(zhǔn)的校驗(yàn)。這種校驗(yàn),可以通過司法途徑實(shí)現(xiàn),也可以通過行政管理的途徑實(shí)現(xiàn)。既包括實(shí)體層面的校驗(yàn),也應(yīng)當(dāng)包括程序性的規(guī)則,并為相關(guān)主體設(shè)計(jì)適當(dāng)?shù)姆韶?zé)任。其二,在充分實(shí)施各上位法、專門法的情況下,謹(jǐn)慎地創(chuàng)設(shè)個(gè)人信息保護(hù)或者隱私保護(hù)相關(guān)的“人工智能專門規(guī)定”。我國(guó)《民法典》中專設(shè)“人格權(quán)編”,已經(jīng)將我國(guó)對(duì)“人”的利益保障提升到了前所未有的高度,而在我國(guó)《電子商務(wù)法》《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》以及《個(gè)人信息保護(hù)法》的配合下,個(gè)人信息、個(gè)人隱私以及其他或具體或抽象的個(gè)人利益已經(jīng)得到了充分的彰顯。在這樣的情況下,人工智能技術(shù)以及相關(guān)應(yīng)用只要遵守現(xiàn)行法律法規(guī)或者政策性文件,就足以實(shí)現(xiàn)對(duì)個(gè)人利益的有力保障,并無針對(duì)人工智能再專設(shè)規(guī)則的迫切必要。此外,從可操作性的角度看,社會(huì)個(gè)體對(duì)智能產(chǎn)品或者服務(wù)的數(shù)據(jù)行為所主張的“解釋權(quán)”或者其他直接的經(jīng)濟(jì)利益,除了面臨計(jì)算依據(jù)匱乏的現(xiàn)實(shí)困難之外,也會(huì)為相關(guān)產(chǎn)業(yè)帶來高昂的經(jīng)營(yíng)成本和違法風(fēng)險(xiǎn),并會(huì)消耗大量的法治資源。在未來可能出現(xiàn)的人工智能專門立法中,也應(yīng)當(dāng)規(guī)避這一誤區(qū),為技術(shù)和產(chǎn)業(yè)發(fā)展保留充足的空間。
武漢大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)2021年5期