徐承棟
(山東建筑大學(xué),山東 濟(jì)南 250000)
隨著計(jì)算機(jī)和信息技術(shù)的廣泛應(yīng)用,人類已然步入了大數(shù)據(jù)時代,以算法(Algorithm)為核心的人工智能正深刻改變著人們的生活。算法是計(jì)算機(jī)程序運(yùn)行的數(shù)學(xué)公式,如果將人工智能視為大數(shù)據(jù)的輸入與數(shù)據(jù)分析結(jié)果的輸出,那么算法就是將輸入值(Inputs)轉(zhuǎn)化為輸出值(Outputs)的關(guān)鍵步驟。[1]
算法歧視(Algorithmic Discrimination)指由數(shù)據(jù)分析導(dǎo)致的對特定群體的系統(tǒng)性的、可重復(fù)的不公正對待。[1]不同于一般的歧視,一方面人與人工智能之間的交互聯(lián)系并非依靠人類的慣有邏輯方式,導(dǎo)致算法歧視難以預(yù)測;另一方面,由于人工智能技術(shù)主要依靠專業(yè)的計(jì)算機(jī)技術(shù),難以實(shí)施有效的安全保障,因此對于算法歧視的監(jiān)管也更加困難。
目前,算法歧視的類型主要包括以下三種。
1.特征選擇的歧視。這類算法歧視一般將敏感特征數(shù)據(jù)直接輸入算法系統(tǒng),系統(tǒng)進(jìn)而強(qiáng)化這種固有偏見,這是傳統(tǒng)歧視方式在人工智能中的一種體現(xiàn)。
2.關(guān)聯(lián)歧視,又稱偏見代理的算法歧視。這類歧視通常具有較強(qiáng)的隱蔽性,算法決策者并不一定具有發(fā)生歧視結(jié)果的主觀目的,決策者有可能使用了客觀中立的數(shù)據(jù),但這些客觀中立的數(shù)據(jù)相互組合最終卻導(dǎo)致了歧視結(jié)果的產(chǎn)生。
3.算法殺熟,即人們熟知的大數(shù)據(jù)殺熟。這種歧視一般體現(xiàn)為特定推送和價(jià)格歧視,計(jì)算機(jī)通過對個人歷史數(shù)據(jù)記錄的記憶學(xué)習(xí),從而較為隱蔽地對不同群體進(jìn)行區(qū)別對待。
佩雷爾和埃爾金科倫認(rèn)為,“算法在很大程度上就是一個黑箱子,普通人根本不知道算法決策是如何出來的,也不知道算法決策依據(jù)的具體數(shù)據(jù)和遵循的決策原則是什么”。算法本身具有較高專業(yè)性和技術(shù)復(fù)雜性,這意味著算法內(nèi)容難以公開透明,而現(xiàn)實(shí)中除了少數(shù)算法決策者之外,一般的相對人無法了解算法的設(shè)計(jì)運(yùn)行流程,造成信息過度不對稱,這導(dǎo)致普通個人不得不依附于算法精英,雙方的權(quán)利失衡最終形成“數(shù)字鴻溝”。由于算法黑箱的存在,算法決策很難被審查、質(zhì)詢,人們受到算法歧視后,也難以獲得有效救濟(jì)。[2]
平等權(quán)作為一種價(jià)值秩序的同時,更應(yīng)當(dāng)是一種由個人可以向國家主張的權(quán)利。[3]從法理學(xué)角度而言,存在歧視意味著平等權(quán)的缺失?;趹椃ㄒ饬x上對平等權(quán)的保護(hù),結(jié)合我國目前的司法實(shí)踐,法院對于以姓名、性別等要素為主的反歧視案件審理較為常見,然而算法歧視因其本身復(fù)雜的技術(shù)構(gòu)造,對于不同的算法歧視往往難以形成明確的審查標(biāo)準(zhǔn),這嚴(yán)重阻礙了法院對于具體案件的進(jìn)一步審理。算法歧視的審查標(biāo)準(zhǔn)在一定程度上是對個體平等保護(hù)的反映,如果審查標(biāo)準(zhǔn)存在模糊,人工智能系統(tǒng)中的“偏差”難以被察覺,最終導(dǎo)致算法歧視的惡性循環(huán),受歧視群體將會遭受更大的權(quán)利風(fēng)險(xiǎn)。
我國目前對算法歧視的規(guī)制方式主要采取政府規(guī)制和行業(yè)規(guī)制兩種。政府規(guī)制主要是借助法律法規(guī)、國家政策,指引人工智能技術(shù)走向正確的發(fā)展方向,對于侵犯隱私、數(shù)據(jù)濫用行為進(jìn)行懲戒,是一種他律性規(guī)制;行業(yè)規(guī)制則是依托于算法數(shù)據(jù)可靠性原則,即算法的設(shè)計(jì)者需要對基礎(chǔ)數(shù)據(jù)的來源及可靠性進(jìn)行說明,并且不得使用來源違法的基礎(chǔ)數(shù)據(jù)、敏感性數(shù)據(jù)和產(chǎn)生歧視性后果的數(shù)據(jù)。[2]在我國主要體現(xiàn)為知情同意原則的應(yīng)用,即信息處理者在對個人信息進(jìn)行收集利用時必須經(jīng)過用戶的明確同意,是一種自律性規(guī)制。但在實(shí)踐中對于算法歧視的監(jiān)管治理方式仍然亟待完善,例如企業(yè)利用掌握的數(shù)據(jù)信息對用戶進(jìn)行分類,進(jìn)而采取差別化對待以尋求更大利益,這并沒有違背隱私政策,但卻無疑在一定程度上產(chǎn)生了算法歧視。
為了保障人的權(quán)益,應(yīng)當(dāng)加強(qiáng)法律對技術(shù)的歸化。[4]算法歧視的產(chǎn)生與運(yùn)行主要由三個問題引發(fā),即算法內(nèi)置性編碼凝視、訓(xùn)練樣本數(shù)據(jù)偏差、算法計(jì)算領(lǐng)域的黑箱。[5]因此對于審查機(jī)制而言,引入技術(shù)性審查環(huán)節(jié)的必要性不言而喻。以算法黑箱為例,由于算法決策缺少透明性和可解釋性,一般的相對人無法了解算法的設(shè)計(jì)運(yùn)行流程,最終導(dǎo)致算法決策者與一般相對人出現(xiàn)權(quán)利失衡,如果算法審查缺少技術(shù)性環(huán)節(jié),同樣會面臨無法揭示其內(nèi)在因果關(guān)系的窘境。算法審查不可能將所有算法都納入審查范圍內(nèi),也不可能實(shí)現(xiàn)全部算法的透明化與可解釋化,因此從技術(shù)層面規(guī)制算法歧視,不僅需要開發(fā)具備反歧視意識的算法技術(shù),更需要將法律化的技術(shù)倫理內(nèi)化于算法技術(shù)之中。[6]
基于算法歧視的最大特點(diǎn)在于隱蔽性,因此可以根據(jù)不同類型的算法歧視明確不同的審查標(biāo)準(zhǔn)。
1.特征選擇的歧視——差異性對待標(biāo)準(zhǔn)
在特征選擇的歧視中,常常將種族、性別、宗教等敏感特征數(shù)據(jù)直接輸入算法系統(tǒng),系統(tǒng)進(jìn)而強(qiáng)化這種固有偏見,歧視者主觀上具有明顯的歧視意圖。因此對于這類歧視的審查可以采取差異性對待標(biāo)準(zhǔn),即通過判斷對不同主體對待上的差異是否符合正當(dāng)性,進(jìn)而得出是否存在算法歧視的結(jié)論。
然而值得警惕的是,并非所有的特征選擇歧視都依賴于較為敏感的特征進(jìn)行區(qū)分對待,算法決策者還可能通過公然替代因素(Blatant Proxy)進(jìn)行差異化分類,使歧視更具有隱蔽性,不易被察覺。例如美國禁止種族歧視,算法設(shè)計(jì)者采用郵政編碼作為種族的替代因素,通過郵政編碼來辨別和篩選是白人或黑人。
2.關(guān)聯(lián)歧視與算法殺熟——差異性影響標(biāo)準(zhǔn)
對于算法決策者并不一定具有主觀歧視意圖,算法設(shè)計(jì)未必沒有中立的關(guān)聯(lián)歧視與算法殺熟而言,審查的重點(diǎn)在于判斷對不同主體影響上的差異是否符合正當(dāng)性。但應(yīng)注意的是,法律上并不否認(rèn)合理的差別對待,因此對于該差別影響是否符合正當(dāng)性可以參照“合理、必要、合比例”的判斷依據(jù)。
目前我國主要是由網(wǎng)信辦負(fù)責(zé)互聯(lián)網(wǎng)信息管理工作,針對算法歧視的復(fù)雜性,可以在網(wǎng)信辦中設(shè)立算法審查委員會,從事前、事中、事后三個階段以健全監(jiān)管機(jī)制。
1.事前備案。即專門機(jī)構(gòu)認(rèn)真聽取算法設(shè)計(jì)者提供的算法決策理念、內(nèi)容、依據(jù)的說明,并實(shí)行備案制度。
2.事中監(jiān)督。即專門機(jī)構(gòu)在算法實(shí)施的過程中應(yīng)做到不定期地抽查檢驗(yàn),起到早發(fā)現(xiàn)、早糾正的良好監(jiān)督效果,降低忽略算法錯誤的可能性。
3.事后問責(zé)。即專門機(jī)構(gòu)應(yīng)當(dāng)對受歧視群體的算法質(zhì)疑,并進(jìn)行必要的解釋說明,拓寬算法歧視的申訴渠道,構(gòu)建完善的算法歧視問責(zé)機(jī)制。
算法自動化決策是一把雙刃劍,正以驚人的速度改變著人們的當(dāng)下和未來,目前我國尚處于人工智能的草創(chuàng)階段,還沒有形成完善的算法歧視法律規(guī)制體系,也缺少與信息社會相適應(yīng)的制度保障。身處以算法為中心的世界,法律人當(dāng)以更開放的思路規(guī)制算法歧視,探尋人工智能的治理之道。