馬露露
中南財經(jīng)政法大學(xué)
“‘平等’是近現(xiàn)代以來最具有動員力、最震撼人心的觀念,并通常被賦予‘社會公平正義’的核心地位,乃至與‘公平正義’畫上等號?!比欢?,偏見、歧視和刻板印象一直存在于人類社會中法治陽光無法普照的角落。因此,為了營造反對歧視、平等、關(guān)愛的社會環(huán)境,人們寄希望于一種絕對理性客觀、排除人類主觀因素影響的工具。隨著人工智能時代到來,數(shù)據(jù)、算法和建模等數(shù)學(xué)方法似乎使這種理想照進現(xiàn)實,算法技術(shù)讓人類決策更量化、客觀及“平等”,在廣為流傳的“技術(shù)中立論”的包裝下,“人類現(xiàn)在對計算機、數(shù)學(xué)、算術(shù)法則和構(gòu)建模型的信任超過了對人性、自我感受和主觀判斷的信任”。
但實踐中越來越多案例表明,人們在享受著看似“技術(shù)中立”的算法帶來紅利的同時,也承擔(dān)著其隱形的更加嚴重和廣泛的危害,其中的算法歧視的問題逐漸浮出水面。如2000 年初美國司法系統(tǒng)使用的預(yù)測被告未來再犯可能性和人身危險性的COMPAS 算法,經(jīng)一家非營利機構(gòu)ProPublica 對COMPAS 算法結(jié)果分析,得出結(jié)論“黑人被告再次犯罪的可能性以及自身危險程度高于白人45%”。不僅在算法的結(jié)果當(dāng)中會產(chǎn)生歧視,我國有學(xué)者指出算法社會的不平等是自始至終的多形式不平等,因為算法社會對人的科技素質(zhì)要求極高,這就決定了只有少部分能夠精通算法,科技能夠位于算法之上掌控高新技術(shù),而大部人只能成為被高科技掌握的“魚肉”。[1]帶有偏見的不合理區(qū)別對待是對公民平等權(quán)的侵犯,算法歧視不僅具備傳統(tǒng)技術(shù)和制度手段難以識別的隱蔽性,還可能伴隨算法的擴展應(yīng)用廣泛復(fù)刻并蔓延至其他場景之中,對平等權(quán)的憲法保障提出了新的難題。
從當(dāng)前我國算法歧視治理現(xiàn)狀來看,早在2019 年3 月,我國科技部成立了專門委員會針對數(shù)據(jù)壟斷、算法歧視等人工智能治理的重點領(lǐng)域,監(jiān)測人工智能帶來的各種社會風(fēng)險。吳漢東教授在對人工智能作學(xué)術(shù)探討時強調(diào)“面向人工智能時代,科學(xué)技術(shù)文明的建設(shè)需要社會制度文明的促成,我們需要創(chuàng)設(shè)出保人工智能安全、可靠、可控的法律制度”。[2]由于算法歧視是近年來出現(xiàn)的市場亂象,一些大型企業(yè)正在利用大數(shù)據(jù)、算法與制定規(guī)則對用戶“磨刀霍霍”,我們迫切需要一個清朗的網(wǎng)絡(luò)空間,這就要求對算法治理建立規(guī)章制度,特別是以憲法所保障的平等權(quán)作為基本導(dǎo)向,建立健全平等權(quán)的保障機制,展開推進我國算法治理體系與治理能力現(xiàn)代化。
2014 年邱仁宗等學(xué)者就指出“大數(shù)據(jù)技術(shù)本身無所謂的好與壞之分,在倫理學(xué)上技術(shù)是中立的”。[3]而創(chuàng)造算法、使用算法的人具備很大的主觀能動性,再加上人工智能深度學(xué)習(xí)可以加強偏見意志數(shù)據(jù)化,因此數(shù)據(jù)中立論很可能不再適用,當(dāng)前有必要結(jié)合算法歧視的特征和類型梳理算法歧視的肇因,從技術(shù)層面解釋算法歧視對平等權(quán)產(chǎn)生的法律風(fēng)險。
算法的個體化的規(guī)制是法律針對不特定群體一般性規(guī)制的突破。法律的一般性原則在法治原則體系中舉足輕重,其被稱為是法治的“阿基米德支點”,主要體現(xiàn)為意志的一般性,對象的一般性和適用的一般性,平等權(quán)作為基本權(quán)利,是法律一般性規(guī)定的具體體現(xiàn),平等權(quán)的特征在于它強調(diào)一視同仁對待的原則滲透在個體、群體之間,而算法對個人的個性化定制看似人性實際是上一種不平等的體現(xiàn),它的個體性規(guī)則并沒有基于一般性規(guī)則之上,而是基于一種私人定制的不具有合理性的特殊規(guī)則,是建立在貧富差距、強弱分化的不平等基礎(chǔ)上的。如此一來,算法制定的個體性規(guī)則便會形成強者愈強、弱者愈弱的馬太效應(yīng),產(chǎn)生實質(zhì)不平等的危害結(jié)果。
憲法通過公民平等權(quán)、公民的政治權(quán)利和自由、社會經(jīng)濟權(quán)利等基本權(quán)利是為了防止國家公權(quán)力濫用,保護公民的基本權(quán)利不受到公權(quán)力的侵犯。算法作為“非人類行動者”占有海量形式的大數(shù)據(jù),通過電腦建模實現(xiàn)對人的認知感知能力、分析處理能力和決策判斷能力“模擬仿真”并在此基礎(chǔ)上超越,逐步實現(xiàn)對人的規(guī)則“代碼化”,脫離人的掌控并演化成為對人霸權(quán)的“準(zhǔn)公權(quán)力”主體,這給平等權(quán)在應(yīng)對公權(quán)力的侵害時又增添新的危機。算法權(quán)力的取得源于自身的無形拓展和權(quán)力-權(quán)利的雙向互動,算法曾被稱為是人生十字路口的“無形手”,其決策以潛移默化的形式影響到人們的日常生活,無形中決定著人們的選擇,在人工智能時代,算法可以突破物理空間的局限,涵蓋到人們生活的每個方位、每時每刻,突破時間和空間的維度,以更加隱蔽的方式完成對個人自由的限制,增強了算法權(quán)力對平等權(quán)的危險。
人工智能算法已經(jīng)不局限于單向的數(shù)據(jù)輸入-數(shù)據(jù)分析-預(yù)測產(chǎn)生的過程,而是對現(xiàn)有數(shù)據(jù)庫進行特定數(shù)據(jù)的特征提取,反復(fù)學(xué)習(xí)增強數(shù)據(jù)之間的關(guān)聯(lián)度,按照相應(yīng)的算法邏輯搭建初始的數(shù)據(jù)特征模型,自主分析出數(shù)據(jù)之間的密切程度和發(fā)展規(guī)律,最終生成高級的認知能力。在輸入帶有歧視性質(zhì)的數(shù)據(jù)時,算法會將這種實質(zhì)上是社會偏見數(shù)據(jù)化轉(zhuǎn)變?yōu)閿?shù)據(jù)偏見,在反復(fù)學(xué)習(xí)過程中形成定性的算法邏輯偏見,最終產(chǎn)生的偏見決策結(jié)果又反饋于社會之中強化歧視,這就是“回音壁效應(yīng)”。但即便是在數(shù)據(jù)特征模型的搭建過程中能夠完全摒棄法律禁止的歧視性特性,這種做法也是徒勞無功的,因為算法具有極強的數(shù)據(jù)挖掘能力,數(shù)據(jù)特征中往往也存在代理,算法在深度學(xué)習(xí)和訓(xùn)練數(shù)據(jù)過程中能在隱藏的相關(guān)關(guān)系中來尋找與個人敏感信息相關(guān)的代理,保證輸入的數(shù)據(jù)不存在偏差對消除算法歧視作用較小。
當(dāng)前傳統(tǒng)保護機制不足以治理算法歧視的亂象,我國憲法所保障的平等權(quán)面臨的危機不斷,因此有必要對當(dāng)前問題進行梳理,并前瞻性預(yù)測未來算法歧視帶來的風(fēng)險和挑戰(zhàn),根據(jù)問題導(dǎo)向探索保障平等權(quán)的具體路徑,減緩法律滯后性所造成的制度鴻溝之變故。
這種實質(zhì)不平等主要體現(xiàn)在以下兩方面:一方面,人工智能算法主體資源占有的不平等。人工智能、算法、機器學(xué)習(xí)、區(qū)塊鏈、大數(shù)據(jù),這些概念在當(dāng)今數(shù)字時代不斷涌現(xiàn),深度理解這些概念的人往往只會是社會上少數(shù)的擁有良好教育背景或者是專業(yè)領(lǐng)域的精英人才,而往往也正是這些人占據(jù)了數(shù)字時代中最重要的資源——數(shù)據(jù)。以數(shù)據(jù)為基礎(chǔ)的算法進行深度學(xué)習(xí),能夠?qū)崿F(xiàn)似人類自身智能的增幅與擴容。
另一方面,人工智能算法決策過程“偏見進,偏見出”。數(shù)據(jù)是算法深度學(xué)習(xí)的基礎(chǔ),算法掌握數(shù)據(jù)越多,決策結(jié)果越精準(zhǔn),但是當(dāng)數(shù)據(jù)不全面、不準(zhǔn)確時,即數(shù)據(jù)缺乏均衡性和代表性,則決策結(jié)果就會存在出現(xiàn)歧視的高度可能性。例如谷歌公司的圖片軟件曾將黑人的照片標(biāo)記為“大猩猩”,這就是因為數(shù)據(jù)庫中缺乏對黑人的特征模型。算法還會利用人們產(chǎn)生的電子痕跡結(jié)合其他數(shù)據(jù)庫的信息,挖掘其中潛在的價值,比如評價商業(yè)平臺中人們的消費能力和偏好,完成對消費者的數(shù)據(jù)畫像。商業(yè)平臺依據(jù)不同的算法結(jié)果針對不同消費者的消費水平顯示出不同的價格,這就是嚴重侵犯到消費者的知情權(quán)、隱私權(quán)、平等權(quán)與公平交易權(quán)的“算法(大數(shù)據(jù))殺熟”。[4]
算法技術(shù)的復(fù)雜性在源頭上增加歧視識別難度。算法屬于當(dāng)今數(shù)字時代的新興產(chǎn)物,一個正常運轉(zhuǎn)的算法的背后除了高新技術(shù)的支撐外,還有當(dāng)前無數(shù)條數(shù)據(jù)的聯(lián)結(jié),這無外增加了算法的神秘性,人們在節(jié)約探索成本的導(dǎo)向上往往會順從算法的決策。同時,算法運算的反饋循環(huán)不但深度挖掘出被摒除的歧視因子,通過回音壁效應(yīng)在無形中更加深了社會歧視。
在運算過程中,算法無法準(zhǔn)確區(qū)分相關(guān)性和因果性。當(dāng)前的人工智能仍屬于弱人工智能,即便是處于發(fā)展前沿的模擬人腦“神經(jīng)網(wǎng)絡(luò)”的人工智能,無論它再怎么“深度學(xué)習(xí)”“自我改善”,都不會有“人類情感”“人類意識”。算法可以對不同的變量進行相關(guān)性、顯著性檢驗,但相關(guān)性不同于因果性,這種定性的存在需要依靠大量的數(shù)據(jù)基礎(chǔ)。因此這種情況下提高了小概率事件無法被識別的幾率,[5]憲法對婦女、殘疾人、兒童、難民等特定主體的特殊保護很可能因無法被識別而遭受到算法歧視。
算法最終的決策結(jié)果不具有外部公開性。算法的個性化推薦基于個人電子痕跡的不斷累加而產(chǎn)生,而個性化推薦針對的對象只針對唯一個體,在個人信息保護下公民的自我隱私保護意識覺醒后不斷增強,導(dǎo)致個人信息更加隱蔽,這極易引起“信息繭房”效應(yīng),很多學(xué)者批評這種行為對個人的算法選擇權(quán)構(gòu)成威脅。
如今世界各國保障平等權(quán)多采用“事前立法規(guī)范”“事中行政監(jiān)管”和“事后司法救濟”構(gòu)成的三位一體的機制。平等權(quán)作為我國憲法保護的基本權(quán)利,相關(guān)的理論體系早已健全成熟,在理論指引下我國憲法建構(gòu)了對應(yīng)的法律保障體系。但在算法社會,在不同算法的表現(xiàn)方式下,算法歧視的高速變化發(fā)展給我國傳統(tǒng)的平等權(quán)保護機制帶來巨大挑戰(zhàn)。
首先是平等權(quán)立法保護機制的滯后性。立法產(chǎn)品和算法技術(shù)同為滿足人們對美好生活的需求,當(dāng)立法者的立法速度無法跟上算法技術(shù)發(fā)展的腳步時,人們急切需要另一種形態(tài)的社會治理規(guī)則,而傳統(tǒng)的立法權(quán)威將會一步步被瓦解。與此相比,人們對算法依賴感和信任度逐步增強,給歧視帶來更大的生存空間,這時候形式上新的立法生效實質(zhì)上是針對舊算法的規(guī)制。
其次是行政監(jiān)管算法歧視的盲區(qū)。一方面,算法技術(shù)的專業(yè)性要求行政主體作為綜合素質(zhì)人才全方位掌握人工智能和法律知識,然而高級算法的體系龐大到難以理解其中的內(nèi)部邏輯和運行過程,這是因為算法是協(xié)作的整體,是眾多計算機科學(xué)家和程序員在算法的不同階段貢獻了不同力量的聚合體,個人在監(jiān)察時仿佛“管中窺豹”難以掌握全局,同時算法更新的速度之快使監(jiān)管更加困難。[6]另一方面,算法黑箱的存在成為算法使用者的遮羞布,有意利用技術(shù)壁壘將算法移轉(zhuǎn)到法律的真空地帶以脫離現(xiàn)有的法律規(guī)制,更加導(dǎo)致了行政機關(guān)外部監(jiān)管的難度。
最后,司法救濟存在困境。2021 年我國“大數(shù)據(jù)(算法)殺熟”第一案的判決結(jié)果是將殺熟行為認定為欺詐行為,法院對算法的理解程度的淺薄讓法官更偏向于保守的判決,恰好本案原告屬于消費者,法官最終依據(jù)《消費者權(quán)益保障法》未認定該行為屬于算法歧視行為。但問題在于大部分主體在意識到算法歧視時不屬于消費者的身份,并且在算法歧視有強大的科技公司靠背時,私主體與之對抗的力量過于單薄,極少部分私主體會主動向法院提起訴訟,維權(quán)途徑的狹窄和對受害者的高要求兩方面因素讓救濟受到層層阻礙。
在平等權(quán)面臨算法歧視挑戰(zhàn)的背景下,形成與算法社會相匹配的平等權(quán)保障機制、推動權(quán)益保護和算法創(chuàng)新共同發(fā)展尤為重要。有學(xué)者預(yù)判,在超強算法能力、大數(shù)據(jù)的影響下,未來十年至二十年法律行業(yè)將迎來巨大變革。
當(dāng)前我們面臨的矛盾是算法權(quán)利主體和其他權(quán)利主體之間的博弈,有必要尋求二者平衡長遠發(fā)展的支點,既不磨滅算法技術(shù)創(chuàng)新的激情,又能增強法律的穩(wěn)定性,保障權(quán)利主體的平等權(quán)免受算法歧視的危害。[7]這要求既要防范算法權(quán)利濫用風(fēng)險,將其限制在民主法治框架中,涉及到重大公共決策時,應(yīng)取得權(quán)力機關(guān)的授權(quán)許可,也要在算法公權(quán)力制衡基礎(chǔ)上對算法私權(quán)力制約,建立起明確的算法設(shè)計者、控制人、技術(shù)使用者等監(jiān)管機制,明晰算法權(quán)利主體的權(quán)利與義務(wù)。
如上文所述,法律對算法歧視的規(guī)制并非空白,但侵權(quán)責(zé)任主體極易混淆導(dǎo)致算法權(quán)利主體義務(wù)缺失。即便是算法自主決策的結(jié)果引發(fā)歧視危機,但歸根結(jié)底在弱人工智能時代算法開發(fā)者和使用者的控制影響因素是首位的,應(yīng)當(dāng)明確區(qū)分算法的開發(fā)者對算法本身內(nèi)部的責(zé)任,算法使用者區(qū)分上層和下層使用者,分別對算法的宏觀結(jié)構(gòu)層面和明顯消極的算法歧視負責(zé)。同時,還需要對不同侵權(quán)主體承擔(dān)的責(zé)任類型進行劃分,判斷其行為是違反了刑法規(guī)定還是民法規(guī)定;不同算法行動者之間的分工配合是否構(gòu)成共同犯罪;承擔(dān)的主要法律責(zé)任和次要法律責(zé)任如何劃分。
國家公權(quán)力機關(guān)在治理算法歧視亂象時陷入算法識別困囿,原因在于智慧化法治社會要求治理主體的專業(yè)性更高、針對性更強。為解決這一困境,有學(xué)者主張應(yīng)該技術(shù)賦能,在算法歧視的背景下,我們需要形成算法代碼治理的特殊范式,通過法律治理驅(qū)動代碼規(guī)制上升到法律規(guī)范。[8]技術(shù)賦能要求我們進行算法數(shù)據(jù)樣本的預(yù)處理。要求增強輸入數(shù)據(jù)的代表性、平衡性和公平性,以便從根源上使算法的運作滿足法律要求的平等屬性。實踐中有研究學(xué)者探究出一種生成公平綜合數(shù)據(jù)的方法,即對于隨機挑選出的一組數(shù)據(jù),都能運用數(shù)據(jù)合成技術(shù)以此數(shù)據(jù)為基礎(chǔ)再生新的數(shù)據(jù),這樣算法無法分辨出任意輸入的數(shù)據(jù)是真實數(shù)據(jù)還是虛假數(shù)據(jù),避免算法模型過度擬合到非代表性數(shù)據(jù)。
算法本身的隱蔽性也是產(chǎn)生算法歧視以及我們無法識別出算法歧視問題的因素所在。因此打開算法黑箱、識別不可理解和解釋的算法是打破其中的算法歧視的方法之一。英國議會人工智能委員會報告中指出提高算法的透明度對增強算法的可解釋性尤為重要。我國學(xué)者張凌寒指出,自動化決策的算法解釋的內(nèi)容并非形式上的技術(shù)概念,而是實質(zhì)意義上具有法律意義的程序性要求,她提出了二層次具體解釋內(nèi)容,包括理由說明層次和行為指引層次。因此在不危及脅迫到企業(yè)商業(yè)發(fā)展和泄露商業(yè)秘密的情況下,讓具備可解釋性的算法在法治的陽光下運行能夠有效保障社會的公平正義。
“社會的進步離不開先進技術(shù)的開拓者,更離不開基本價值的守望者?!蓖ㄟ^在立法、行政、司法層面形成適配的法律閉環(huán)有效消除算法歧視對公民平等權(quán)的侵害。
第一,構(gòu)建智能化多元保護平等權(quán)的機制。單一的部門法無法滿足對平等權(quán)這一基本權(quán)利的全方位保障需要,特別在當(dāng)前新型的算法歧視語境下,亟須構(gòu)建多元法律保護機制,形成不同部門法之間的聯(lián)動全面保障公民的平等權(quán)。在平等權(quán)保護機制構(gòu)建過程中,算法飛速發(fā)展的同時,推動在算法治理中立法的科學(xué)化、精細化和智能化極為重要,善于利用算法去解決算法自身帶來的歧視問題,將立法工作與算法技術(shù)深度融合,通過大數(shù)據(jù)分析立法過程中存在的問題,增強立法的精確度、科學(xué)性和適度超前性。[9]
第二,構(gòu)建專門的算法歧視監(jiān)管機關(guān)。算法黑箱的隱蔽狀態(tài)使行政機關(guān)對其監(jiān)管存在真空區(qū)域,而技術(shù)層面上的漏洞我們可以通過強化互聯(lián)網(wǎng)信息監(jiān)管部門的監(jiān)管職責(zé)進行填補,同時可以邀請專家學(xué)者和專業(yè)技術(shù)人員進行技術(shù)輔導(dǎo)援助,適當(dāng)吸納專業(yè)學(xué)者和其他行業(yè)組織的意見建議。行政監(jiān)管部門應(yīng)當(dāng)轉(zhuǎn)變事中監(jiān)管的傳統(tǒng)職責(zé),將監(jiān)管引入到算法運行前,在源頭上打消算法歧視結(jié)果產(chǎn)生的可能性,維護真正的公平正義。
第三,建立配套的司法審查機制。由法院充當(dāng)司法審查機制的主體偏向于事后的救濟機制,需要明確規(guī)定算法歧視的審查標(biāo)準(zhǔn),算法歧視具有不同類型,大體上可以分為直接歧視和間接歧視兩類,不同的歧視類型對公民的平等權(quán)損害程度不同,理應(yīng)采取不同的審查標(biāo)準(zhǔn)。對于直接歧視,也稱為有意歧視,算法主體需要具備形成歧視的主觀要件,因此可采取目的審查標(biāo)準(zhǔn),法院通過判斷算法主體是否具備這一前提條件來決定是否應(yīng)該承擔(dān)相應(yīng)責(zé)任。間接歧視是一種無意識的歧視,可能是算法的訓(xùn)練數(shù)據(jù)中可能無意間產(chǎn)生歧視,因此法院審查時不應(yīng)以算法主體的主觀過錯作為承擔(dān)責(zé)任的要件,而是應(yīng)該采用效果審查的標(biāo)準(zhǔn),審查算法決策對社會的負面影響,對公平平等權(quán)的侵害程度來裁判算法主體是否應(yīng)該承擔(dān)間接歧視的法律后果。[10]