卜 素
( 中國礦業(yè)大學(xué) 文法學(xué)院,北京 100083)
人工智能作為運用計算機實現(xiàn)對人的智能模擬、延展以獲取最佳結(jié)果的技術(shù)理論已成為一門極具研究價值的前沿交叉學(xué)科;由于其技術(shù)數(shù)據(jù)整合能力、處理能力以及系統(tǒng)協(xié)調(diào)能力極為出眾,人們已不再僅僅滿足于將人工智能作為簡單的決策輔助的工具,而是嘗試由其替代人類作出決策并完成各種工作任務(wù)。[1]如今,日漸成熟的人工智能技術(shù)在為人類社會的未來展現(xiàn)出美好愿景的同時,亦正滲透至各行各業(yè)中帶動行業(yè)與產(chǎn)業(yè)的升級,智能高效地滿足人們的各種需求。可以說,人工智能技術(shù)正縱向深入地影響著社會的具體運行體系。然而,在欣欣向榮的發(fā)展景象中,不能只對技術(shù)發(fā)展樂觀的吶喊助威,還應(yīng)當(dāng)從人類文明這一宏觀場景下對人工智能的應(yīng)用進行客觀審視。當(dāng)我們開始運用人工智能自動駕駛汽車、定罪量刑,甚至是操作武器系統(tǒng)時,是否應(yīng)先回答這樣一個問題,即人工智能系統(tǒng)能否勝任決策工作?目前這一問題的答案無疑是否定的,當(dāng)今主流的人工智能系統(tǒng)的研發(fā)與應(yīng)用仍處于弱人工智能水平,無法完全實現(xiàn)對智能的模擬,在復(fù)雜的工作環(huán)境中并不能做到同正常的人類本體一樣準(zhǔn)確地反映現(xiàn)實世界。這種先天的不足無疑會導(dǎo)致計算機所形成的“最佳結(jié)果”與現(xiàn)實生活的偏差,而本文所探討的“算法歧視”便是偏差現(xiàn)象之一,2018年英國議會所發(fā)布的人工智能報告中特別指出了這一現(xiàn)象:一方面,由于數(shù)據(jù)來源的偏差或是歧視性數(shù)據(jù)的存在,可能導(dǎo)致相應(yīng)偏差或歧視性的決策結(jié)論;另一方面,由于人為設(shè)計上的目的或訓(xùn)練技術(shù)算法設(shè)計失誤也可能導(dǎo)致這一結(jié)果。而這種歧視結(jié)果既可能是現(xiàn)實狀況的折射而導(dǎo)致的誤差,也有可能是社會中不公平現(xiàn)象的映射。[2]筆者認(rèn)為,人工智能所產(chǎn)生的歧視具有一定的獨特性,隱藏于技術(shù)背后的“算法歧視”與通常意義下的歧視問題有所聯(lián)系但又有所區(qū)別,若僅僅運用傳統(tǒng)觀念對這種算法歧視予以規(guī)制是不足的。因此,筆者嘗試通過本文的論述,對人工智能技術(shù)中的“算法歧視”現(xiàn)象予以界定,并探尋其背后的理論聯(lián)系與法律化解路徑,以便為人工智能技術(shù)未來的發(fā)展提供更多的智力支持。
在基本權(quán)利保障的范疇中,對歧視的禁止往往落腳于各類具體的要素,如禁止基于種族、性別、宗教等列舉要素所采取的不平等待遇,然而,大量間接歧視現(xiàn)象的出現(xiàn)意味著這種概念性的規(guī)范在面對復(fù)雜的社會變遷尤其是面對“算法歧視”這種新型問題時具有一定滯后性,并且不同于其他類型的歧視,算法歧視問題的出現(xiàn)有著其獨有的技術(shù)背景。因此,對算法歧視的研究應(yīng)當(dāng)從其抽象的本質(zhì)展開,分析算法歧視是如何對特定的群體作出類似于人類一樣“不合理”的歧視性“區(qū)別對待”。[3]歧視亙古有之,人們通常所理解的歧視形成的心理原因或是說動機一般來源于人們認(rèn)識事物時所秉持的“刻板印象”。這種“刻板印象”通常是人們對特定的個人或群體形象、性格以及文化習(xí)慣等特點的概括總結(jié),又因為人們的認(rèn)知習(xí)慣、社會經(jīng)驗以及所處社會環(huán)境等種種因素,這些“概括總結(jié)”無法全面地對特定群體的整體情況進行勾勒,在缺乏有效的溝通與信息交互的過程中,逐漸就形成了認(rèn)識主體對特定群體的一種固定的看法,即“刻板印象”。正因于此,這種缺乏科學(xué)的認(rèn)識論分析與實踐驗證的刻板印象中往往充斥著大量的謬誤,當(dāng)這些明顯錯誤的“刻板印象”轉(zhuǎn)變?yōu)橐环N社會偏見,并作為評價他人之先驗標(biāo)準(zhǔn)時,便會對特定的群體根據(jù)這些錯誤的看法予以區(qū)別對待,歧視由此產(chǎn)生。
值得注意的是,在上述過程中,無論群體的區(qū)分還是社會偏見的形成,都是在人類社會關(guān)系的交互中形成的。也就是說,當(dāng)人類個體在自然環(huán)境中單獨生存時,探討歧視是沒有意義的。只要在社會中生存,每一個人都不會是一個“孤島”,在世界多元化發(fā)展的過程中,每當(dāng)出現(xiàn)更多新的群體時,新的歧視可能就此應(yīng)運而生。然而,人工智能的出現(xiàn)看似會改變這樣一種現(xiàn)狀,當(dāng)人工智能發(fā)展到能夠?qū)γ總€人都作出“客觀理性”的認(rèn)識時,由其支配運行的社會體系便會在合理的規(guī)則下平等地對待每一個人,但從目前來看,現(xiàn)實距離這樣的理想仍有很大差距:第一,目前人工智能技術(shù)水平仍然有限,例如,2015年,谷歌所研發(fā)的自動圖像標(biāo)記軟件,在識別一對黑人夫婦的照片時將其標(biāo)記為“大猩猩”并自動上傳,而且,許多其他公司研發(fā)的自動標(biāo)記系統(tǒng)也都存在此類問題。[4]這些程序形成的“低級錯誤”讓人啼笑皆非,但也警醒人們,在實際應(yīng)用中這種技術(shù)不成熟所導(dǎo)致的“低級錯誤”可能會形成更為嚴(yán)重的歧視結(jié)果。第二,人工智能技術(shù)畢竟是人類的造物,難免存有其設(shè)計者與制造者的烙印,人類的刻板印象和社會偏見同樣可能“傳染”給人工智能,卡內(nèi)基梅隆大學(xué)的研究人員就曾發(fā)現(xiàn),當(dāng)利用一種廣告釣魚軟件來模擬普通用戶瀏覽求職網(wǎng)站以獲取相關(guān)求職廣告推送時,由谷歌推送的“年薪20萬美元的以上職位”這一廣告,在其他參數(shù)相同的情況下,女性用戶收到的次數(shù)為318次,而男性用戶獲得的次數(shù)則是1 852次,[5]這種針對女性的就業(yè)歧視與人類現(xiàn)實的表現(xiàn)如出一轍。第三,人工智能的深度學(xué)習(xí)能力并非是一個有效矯正歧視的手段,反而成為了一種借由技術(shù)不斷放大的“程序漏洞”。2016年微軟公司的技術(shù)研發(fā)部門將聊天機器人Tay通過Twitter發(fā)布,然而就在其發(fā)布不久,Tay在網(wǎng)友的“教導(dǎo)”下發(fā)布了大量煽動性的推文,對此Tay的研發(fā)團隊表示,Tay在上線時曾對表達(dá)過性別平等的觀點,團隊對Tay曾進行過平等觀念的教育,也就是說,Tay的這些錯誤的言論是被網(wǎng)友“教壞”的。[6]Tay的例子說明,人工智能在通過學(xué)習(xí)形成自我意識的技術(shù)研究仍不成熟,在如何甄別信息糾正歧視觀念的技術(shù)發(fā)展更是任重而道遠(yuǎn)。
總之,從上述的案例來看,目前的人工智能技術(shù)并不能幫助人類擺脫歧視的風(fēng)險,甚至人工智能本身亦會受到各種歧視現(xiàn)象與信息的影響作出歧視的行為,這些由人工智能所帶來的歧視成因雖然來源于人類固有的刻板印象,但卻是一種經(jīng)過人工智能背后的算法技術(shù)“轉(zhuǎn)譯”而來的,筆者認(rèn)為,這種“轉(zhuǎn)譯”而來的所形成的歧視便是“算法歧視”。固然,對于歧視可以采取法律、行政手段予以禁止,但僅采取禁止的方法并不能從根源上解決“算法歧視”問題,甚至對人工智能技術(shù)的發(fā)展也會造成不利的后果,因此,應(yīng)當(dāng)從本質(zhì)上認(rèn)識“算法歧視”并尋找對其規(guī)制之道。
“算法歧視”由于依附于人工智能技術(shù),在具體的表現(xiàn)上與一般的歧視現(xiàn)象相較呈現(xiàn)出難以預(yù)測、難以監(jiān)管以及責(zé)任主體多元化的特點。
1.算法歧視的難以預(yù)測性
目前,人們對于人工智能時代來臨最為深切的體會莫過于個性化的人機交互體驗。人工智能并非是基于大量數(shù)據(jù)的分析給出一個普遍性的結(jié)論,而是基于海量數(shù)據(jù)的來源,作出符合個人選擇的決策。一方面,由于人工智能所考量元素的多元化,已不能按照傳統(tǒng)的性別、種族等要素界定受歧視群體,受歧視群體成為了一個潛在的對象。例如,大量的互聯(lián)網(wǎng)企業(yè)存在的“大數(shù)據(jù)殺熟”的現(xiàn)象,本身應(yīng)當(dāng)受到優(yōu)惠待遇的老客戶卻被差別對待,在獲得同樣服務(wù)與產(chǎn)品的同時卻要支付更多的費用;無獨有偶,世界上最大的購物平臺亞馬遜在確定價格的過程中,亦通過隱藏與自己有合作的企業(yè)商品的運費,使其價格低于其他同類商品,誘導(dǎo)消費者購買此類商品。[7]由此可見,可能受到人工智能技術(shù)歧視對待的群體規(guī)??赡軘U大化,受到的歧視性對待更加難以察覺。
另一方面,人與人工智能之間的交互并非是以人類慣有的交往邏輯展開的。當(dāng)人工智能直接面對人們時,相應(yīng)的行為模式也發(fā)生了變化,服務(wù)供應(yīng)商與消費者之間面對面的聯(lián)系越來越少,實際上更多情況下是由使用者直面這些技術(shù)工具。人機之間的互動則并非通過普通人所能理解的語言文字得來,而需要經(jīng)歷“算法黑箱”的操作直接獲得結(jié)果。因此,當(dāng)人們面對“冰冷”的機器運用自己不甚了解的邏輯得出的結(jié)論時,心中的擔(dān)憂日漸蔓延。例如,上文中的谷歌的圖像標(biāo)記軟件在進行圖片分析時得出的錯誤結(jié)論時所采用的分析樣本竟然是程序設(shè)計人的照片,人工智能技術(shù)的“冷漠”正體現(xiàn)于此,即便是人工智能的創(chuàng)造者也沒有辦法防止針對自己的歧視結(jié)果出現(xiàn)。進一步而言,若是在一個更為復(fù)雜的決策體系中,算法環(huán)節(jié)的失誤則可能會以更為隱蔽的形式出現(xiàn),人們可能會在無法察覺的過程中受到不合理的對待。可以說人們對人工智能的普遍性的“不信任”也是源于對“未知算法”的恐懼。
2.算法歧視的監(jiān)管難度大
接上文所述,人工智能技術(shù)需要以專業(yè)的算法語言編寫而成,固然,這些看起來是“錯誤”或是“荒謬”的結(jié)果都可以轉(zhuǎn)化為技術(shù)問題由專業(yè)技術(shù)人員予以糾正,但互聯(lián)網(wǎng)世界中大量的黑客技術(shù)攻防案例實踐證明,計算機技術(shù)與網(wǎng)絡(luò)技術(shù)安全保障的難度極大。電子產(chǎn)品普遍性的使用以及技術(shù)開源與技術(shù)自由的趨勢亦昭示著人工智能技術(shù)壁壘的脆弱,隨著計算機技術(shù)的不斷發(fā)展,與之相對應(yīng)的規(guī)制理論與技術(shù)也應(yīng)當(dāng)不斷更新,這也意味著人工智能技術(shù)深層次倫理問題的監(jiān)管也將會越來越困難。
3.歧視責(zé)任主體多元化
歧視結(jié)果的出現(xiàn)往往直接由技術(shù)運算得出,是否意味著技術(shù)的編寫者就應(yīng)當(dāng)承擔(dān)產(chǎn)生歧視結(jié)果的全部責(zé)任呢?這顯然是不合理的,人工智能并非一個“離線”的程序孤島,其決策功能實現(xiàn)也必須與其所獲得的信息有關(guān),有的來源于輸入端的錯誤信息,有的則是系統(tǒng)在完善自我進行機器學(xué)習(xí)時所獲取的誤導(dǎo)信息。這些數(shù)據(jù)提供者可能是無意的,如“大數(shù)據(jù)殺熟”的現(xiàn)象,就是針對消費者的消費金額、消費頻率、訂單操作的時間甚至是所用的客戶端硬件等客觀信息進行分析,運用算法分析消費者的消費習(xí)慣,形成了某些消費者可能并不在意消費價格波動的決策結(jié)論,對這部分消費者采取了區(qū)別定價的策略;也可能是有意的,如“tay”被別有用心的一些網(wǎng)友通過惡意的信息交流將歧視思維灌輸于其中。因此一個算法程序形成決策的背后,設(shè)計者、數(shù)據(jù)提供者、使用者都有其特定的作用。因此,算法歧視的出現(xiàn)原因就成為了上述各主體影響因素的排列組合,相對應(yīng)若對算法歧視予以規(guī)制也必須是一個多方角力的過程。
基于上文所述算法歧視的所具有之特點,筆者認(rèn)為算法歧視并非歧視現(xiàn)象在人工智能技術(shù)領(lǐng)域中的簡單延伸,對此,應(yīng)當(dāng)基于算法歧視的成因探討該問題的本質(zhì),并與一般歧視作出區(qū)分。值得注意的是,這里所探討的成因既包括針對歧視所產(chǎn)生深層次文化因素,如刻板印象、社會偏見等外部性因素;也包括直接基于技術(shù)性因素的因果關(guān)系,例如,同樣可能導(dǎo)致種族歧視后果的行為既有可能是源于程序設(shè)計者的認(rèn)知思維偏差,也有可能是算法技術(shù)表達(dá)能力所限?;诖?,筆者根據(jù)算法歧視的成因予以歸類分為基于外部原因形成的算法歧視與基于內(nèi)部原因形成的算法歧視。
如前所述,現(xiàn)階段人工智能的算法技術(shù)呈現(xiàn)出來的更多是其工具性功能,并未形成具有獨立意識的人工智能系統(tǒng)。毋庸置疑,當(dāng)前的這種不具備獨立思維的人工智能作為人類發(fā)明的技術(shù)成果,其算法更多是人為設(shè)計的較為固定的思維片段,之所以當(dāng)前人工智能技術(shù)的運算結(jié)果在很多情況下都能符合人們的預(yù)期,主要是依靠全面完備的數(shù)據(jù)信息庫。在本質(zhì)上,數(shù)據(jù)是人類觀察世界的表征形式,無論是當(dāng)前的大數(shù)據(jù),還是存在與各個終端中的數(shù)據(jù)信息,其本質(zhì)上都是以研究人作為其使命本身的目的。[8]2在一定程度上,人工智能就是一種借由適當(dāng)?shù)木幋a方式,將事物的屬性與規(guī)律傳遞到另外一個同構(gòu)的事物上,形成一種“無損”的全息表達(dá)的過程。若在起初的信息提供上,就存在著偏差,從而導(dǎo)致了偏見結(jié)果的形成,“偏進則偏出”。這些存在偏差的外部信息傳輸至系統(tǒng)所導(dǎo)致的結(jié)果,是歧視現(xiàn)象產(chǎn)生的主要原因之一。往往很多算法歧視的結(jié)果的形成是由外部因素所導(dǎo)致的。因此,這種由于外部的“偏見”意識輸入所產(chǎn)生的歧視結(jié)果便是基于外部原因形成的算法歧視。這些偏見有的是出于人類本身的認(rèn)知習(xí)慣,有的則是由于文化固有印象。
人與技術(shù)往往互為主體和客體,在一定程度上而言,現(xiàn)代技術(shù)“發(fā)明”了現(xiàn)在意義上的人。人在發(fā)明工具的同時,也在技術(shù)中自我發(fā)明——自我實現(xiàn)技術(shù)化的外在化。而整個人類歷史,就是一套生物算法不斷進化而使得整個系統(tǒng)更加有效的歷史。[9]85而無論是人類自身的意識當(dāng)中,還是整個人類文明歷史過程中,歧視從未缺席。因此,從這個角度來說,作為人類思維外化物的人工智能,作為技術(shù)所表現(xiàn)出來的生命體特性,沿襲人類的這種歧視意識,就不足為怪了。比如當(dāng)見到蓄須的男子,沒有宗教知識的人可能會認(rèn)為是“邋遢”的表現(xiàn),而有一定宗教常識的人則會認(rèn)為是基于宗教信仰而所為,不同文化認(rèn)知基礎(chǔ)的人會形成偏差性的結(jié)論。不同知識前提的輸入所得來的算法結(jié)果也不相同,先入為主的認(rèn)識是人類在認(rèn)識過程中常犯的一種錯誤,與之對應(yīng),這些個體之間的認(rèn)知偏差放大至整個人類的文化歷史傳統(tǒng)中時就會導(dǎo)致更為廣泛的社會文化偏見,當(dāng)人類文化中對具體知識抽象化并固定下來的同時,一些根深蒂固偏見也承載了下來,以此為計算依據(jù)數(shù)據(jù)的人工智能算法同樣可以通過“有用數(shù)據(jù)”信息的搜集將歧視規(guī)則歸納出來。[10]比如,父系社會傳統(tǒng)所帶來的對女性工作分工的偏見認(rèn)為女性的工作就應(yīng)當(dāng)是在家相夫教子,當(dāng)這種文化上的偏見映射于社會中就產(chǎn)生了基于性別的歧視,盡管算法是對社會不公正現(xiàn)實的反映,但間接地?zé)o疑受到這種傳統(tǒng)文化的外部性影響。
不同于外部性社會文化以及人類生物性認(rèn)識等原因的影響,有的具有歧視性意味的結(jié)論并非基于人的主觀偏見,而是經(jīng)過算法的編譯后成為了看似具有歧視意味的表達(dá),例如黑人照片由于膚色與某些特征的存在被誤認(rèn)為是“黑猩猩”。這種算法歧視相對于外部原因所導(dǎo)致的算法歧視,其形成更多是因為算法內(nèi)部的技術(shù)原因所導(dǎo)致的,即由于算法技術(shù)本身的局限性,或者說是算法技術(shù)的不成熟出現(xiàn)的具有歧視性效果的“錯誤”結(jié)果。但相較于基于外部原因的算法歧視,但克服這類算法歧視則更加困難,需要在算法技術(shù)的升級中尋找突破。
目前,現(xiàn)代各類人工智能技術(shù)中,機器學(xué)習(xí)與知識圖譜技術(shù)發(fā)展對于算法歧視問題的影響最為顯著,諸多算法歧視形成的成因中都隱含了技術(shù)不成熟的原因。以機器學(xué)習(xí)為例,機器學(xué)習(xí)(Machine Learning)是研究如何盡可能地模擬人類的學(xué)習(xí)行為,以便在一個不斷自我完善的過程中更為有效地獲取相關(guān)知識與技能的技術(shù)手段。在這一過程中人工智能系統(tǒng)將不斷自動升級,將以更為擬人化或者說是形成自我智能作為發(fā)展目標(biāo),這也實現(xiàn)人工智能的終極理想相一致。[11]具體而言,技術(shù)的基本原理就是研究如何運用計算機從數(shù)據(jù)分析事物發(fā)展規(guī)律,再將規(guī)律內(nèi)化為程序本身,在往復(fù)過程中搭建起對未來進行預(yù)測的模塊。從原理上看,機器學(xué)習(xí)在形成初步規(guī)律的同時就是一個形成“刻板印象”的過程,盡管計算機可以對數(shù)據(jù)進行全方位的搜集,但是由于技術(shù)上的不足,計算機的分析得出的數(shù)據(jù)規(guī)律仍無法達(dá)到人類經(jīng)驗的程度,才導(dǎo)致計算機將人誤認(rèn)為動物的“低級錯誤”的出現(xiàn)。而另一方面知識圖譜技術(shù)亦與算法歧視的形成有著諸多的關(guān)聯(lián),如上所述,當(dāng)前人工智能的升級與發(fā)展需要依賴更為成熟知識數(shù)據(jù)庫的形成,即知識圖譜技術(shù)的不斷成熟。知識圖譜本質(zhì)上是一種由知識點之間相互聯(lián)系所組成的立體網(wǎng)狀化的語義知識庫,不同于平面的樹狀知識體系結(jié)構(gòu),在知識圖譜中,每個節(jié)點所體現(xiàn)的“實體”(現(xiàn)實事實)通過盡可能的窮盡其屬性形成與其他“實體”之間的“關(guān)系”,理論上照此所組織形成的知識庫最終能夠涵蓋人類所有的知識與智力成果。[12]但是,人類文明知識庫中的節(jié)點與關(guān)系的組織是一個龐大的系統(tǒng)工程,目前來看僅僅是依靠人工智能技術(shù)的發(fā)展是無法完成的,即便是“真理”亦是在實踐中不斷修正的過程中出現(xiàn)的,人工智能在知識圖譜上的缺陷是無法避免的客觀事實,基于偏見所形成的算法歧視同樣不可避免。
從算法本質(zhì)而言,其本身作為一種技術(shù)手段本應(yīng)無涉于法律道德規(guī)范的約束,但是,若法律對“算法歧視”等基于算法產(chǎn)生的對當(dāng)事人造成不利后果的不予歸責(zé)的話,必然會導(dǎo)致更為嚴(yán)重的后果。那么,如何對“算法歧視”問題在法律上予以規(guī)制呢?筆者認(rèn)為需要對規(guī)制該問題的法理基礎(chǔ)予以厘清。
歧視的落腳點在于不合理的差別對待, 但是并非所有的差別對待都屬于法律調(diào)整之范圍,若差別以合法的目的為其正當(dāng)之理由, 則就成為了法律許可的合理差別。例如,對未成年人工作的禁止并非是對未成年人的歧視,而是基于對未成年人保護的法律目的。在歧視與合理差別如何確定中,法律無疑能夠提供一種最優(yōu)的標(biāo)準(zhǔn)形式。刻板印象作為人類認(rèn)知過程中的一種常見的情況時難以克服的,人們在面對自己所不熟悉的領(lǐng)域往往偏向于借助其固有的觀念與認(rèn)識予以解決,對于這種思想觀念的糾正并非法律所能調(diào)整的范圍。然而,當(dāng)這些思想在人們的行動中轉(zhuǎn)化為現(xiàn)實時,并對相關(guān)群體的合法利益造成減損時,則需要法律予以調(diào)整了。簡言之,即法律上的歧視是以侵犯個人之權(quán)利與利益為基礎(chǔ),形成法律之禁止,并具象化為各種區(qū)別對待之情形。[13]26對歧視概念上的反向推理可以得出,相對人對于法律上的平等追求則是法律禁止歧視的法理基礎(chǔ)。法律上的平等保護體現(xiàn)為消極與積極的二元性,即國家既要積極地保障公民的基本權(quán)利,又要在消極層面上禁止作出公民受到不平等的對待的行為。[14]法律如何禁止歧視的具體形式要求則建立在相對人的訴求之上,即何種對待是符合其權(quán)利要求的。
誠然,算法歧視所導(dǎo)致對個人尊嚴(yán)與權(quán)利的損害可以借由法律予以禁止或規(guī)制,然而,在某一單個的人工智能算法體系中,導(dǎo)致歧視的可能僅僅是其中的一部分算法設(shè)計上的問題,在當(dāng)前,人工智能技術(shù)廣泛運用的背景下,許多人工智能程序所涉及的受眾范圍及其廣泛,若僅僅是“一禁了之”,會產(chǎn)生的巨大的社會成本與經(jīng)濟成本,因此,對算法的規(guī)制應(yīng)當(dāng)回歸對技術(shù)的約束而非對其適用的制約。的確,在歧視的范疇中一些普遍地存在于人們的觀念和行為且屬于社會心理和行為的范疇并非法律的調(diào)整范圍,法律不可能介入也不能夠消除,但是算法不屬于這一范疇,尤其是當(dāng)算法在應(yīng)用已與人類的權(quán)益日漸綁定,理應(yīng)受到法律的約束,并且隨著技術(shù)的不斷發(fā)展與應(yīng)用,算法技術(shù)甚至?xí)黄圃蟹懂牐纬赏獠啃?yīng),并影響到公民實際的基本權(quán)益??傊?,運用法律禁止“算法歧視”的關(guān)鍵在于如何運用法律約束算法技術(shù)本體,在相關(guān)法理基礎(chǔ)上建立針對算法歧視特點的平等保護準(zhǔn)則。
如上文所述,平等保護是禁止歧視的另一積極層面的涵義,“平等既是一種原則,也是一種權(quán)利”。[15]平等權(quán)作為一種價值秩序的同時,更應(yīng)當(dāng)是一種由個人可以向國家主張的權(quán)利。[16]然而,對于這種最為重要的基本權(quán)利,盡管平等權(quán)屬于我國憲法規(guī)定的公民基本權(quán)利,但由于當(dāng)前我國的違憲審查制度啟動門檻較高,在實踐中,這一權(quán)利卻很難落實到具體個案中,因此也就沒有一個相對可以適用的明確法律標(biāo)準(zhǔn)。因此,建立法律實踐中具體的平等保護標(biāo)準(zhǔn)更具有現(xiàn)實意義。從另一層面而言,從當(dāng)前的法律規(guī)范體系中進行反歧視訴訟來推動我國平等保護是另一重要手段,結(jié)合我國目前的司法實踐可以發(fā)現(xiàn),相對于憲法平等案件,法院對于基于身高、疾病、性別等要素所導(dǎo)致的反歧視案件采取了更為積極的態(tài)度,并由司法實踐中提供了大量的勝訴經(jīng)驗。[17]然而,目前有關(guān)算法歧視的訴訟與司法實踐的有關(guān)材料非常有限,因此,本文在這里主要論述如何將法律中的平等保護標(biāo)準(zhǔn)落實于算法技術(shù)的審查當(dāng)中。
當(dāng)前,國內(nèi)外各大科技企業(yè)也正在開展人工智能道德標(biāo)準(zhǔn)研究,不過這些標(biāo)準(zhǔn)雖涉及了人工智能安全、倫理、隱私保護等各個方面,但目前所形成的可應(yīng)用安全標(biāo)準(zhǔn)仍主要集中于個人信息保護、個人財產(chǎn)保護、人身安全保障等矛盾沖突較為直觀的層面,涉及反歧視標(biāo)準(zhǔn)的比較少。
具體而言,建立對算法歧視的審查標(biāo)準(zhǔn)同樣需要外部與內(nèi)部兩個方面的合力。對外部因素的規(guī)制,政策和法律應(yīng)致力于人工智能發(fā)展的外部社會環(huán)境的構(gòu)建,推動對社會個體的人工智能倫理和安全意識教育,讓社會警惕人工智能技術(shù)被濫用的風(fēng)險。而對內(nèi)部因素而言,應(yīng)當(dāng)注意檢查并糾正人工智能系統(tǒng)作出的歧視性決策。例如,大學(xué)利用機器學(xué)習(xí)算法來評估入學(xué)申請,假如用于訓(xùn)練算法的歷史入學(xué)數(shù)據(jù)(有意或無意)反映出之前的錄取程序的某些偏差(如性別歧視),這種偏差若得不到糾正就會以現(xiàn)實的形式存在下去成為機器學(xué)習(xí)的“規(guī)律”持續(xù)下去,造成惡性循環(huán)。目前,對人工智能技術(shù)應(yīng)用中的反歧視審查都是非常“粗陋”的,筆者認(rèn)為對人工智能算法應(yīng)當(dāng)從以下兩個方面確定審查之標(biāo)準(zhǔn)。
1.運用范疇論尋找“潛在”的受歧視群體
如上文所述,算法歧視最大的特點是隱蔽性,區(qū)別對待都是以“黑盒算法”直接作出,無法準(zhǔn)確地找到區(qū)別對待的指向群體,但對目標(biāo)人群定位不準(zhǔn)確的話,仍然無法得到具體的結(jié)果,例如在“大數(shù)據(jù)殺熟”的情況下,價格歧視既有可能是根據(jù)對日常消費金額較大消費群體的產(chǎn)生的歧視后果,也有可能是對不同操作系統(tǒng)的消費者采取不同的歧視定價策略,在之后的發(fā)展中,則會出現(xiàn)針對更多的細(xì)分群體的歧視,若無法對這些群體進行分類研究,則不會得出有效的結(jié)果。
人工智能是人類思維的映像,人類在面對這類問題時采取的是一種“范疇化傾向”的認(rèn)知態(tài)度。在認(rèn)識復(fù)雜多變的現(xiàn)實世界過程中,人類總是嘗試尋找一種節(jié)省有限的認(rèn)知資源,依據(jù)“最少付出原則”,盡可能簡化自己的認(rèn)知過程,其中的方法之一便是對事件進行分類 (或稱為范疇化)[18]。 范疇化既是構(gòu)成人類思維體系的框架結(jié)構(gòu),也是對我們規(guī)范地認(rèn)識世界,以及有條理的完成生活、工作中的各種任務(wù)的方法論依據(jù)。[19]但這種簡化處理的弊端,往往也是偏見的根源。
在本質(zhì)上,人工智能的算法流程尤其是機器學(xué)習(xí)技術(shù)與這種“社會范疇化”運作機理不謀而合。當(dāng)前人工智能技術(shù)研究學(xué)者對于數(shù)據(jù)挖掘領(lǐng)域的排名前十的數(shù)據(jù)挖掘算法( 如 C4.5、K-Means、SVM 等) 的研究發(fā)現(xiàn),它們在本質(zhì)上大多數(shù)都是為了“分類”和“聚類”而服務(wù)的。[20]雖然這些前十名的數(shù)據(jù)挖掘算法,并不完全等同于大數(shù)據(jù)算法,但絕大多數(shù)大數(shù)據(jù)算法,都是從這些算法的思想派生而來的。不同于人類范疇化的主觀性,算法的工作流程更具有工具理性的意味。
這些算法的運作流程大致是這樣的: 首先使用歷史數(shù)據(jù)(或稱訓(xùn)練集) 歸納出某個類別(或稱之為特征,不管是用分類還是聚類的方法),然后針對一個新來的對象,按照已知的數(shù)據(jù)特征,將其歸屬于“最像”它的那個類中,如果這個類還有其他已知的特征,那么就預(yù)測這個對象也具有這種特征,這樣就完成了預(yù)測功能,在此基礎(chǔ)上,就可以對新的對象在沒有深入了解的情況下,形成預(yù)前判斷。這種超前判斷形成,絕不是一蹴而就的,而是在收集相當(dāng)數(shù)量的歷史數(shù)據(jù)經(jīng)驗的前提下才能形成??偨Y(jié)起來就是,算法是通過歷史數(shù)據(jù)的訓(xùn)練,形成類的概念(或聚類或分類),并對新對象進行歸類,然后按類的集合屬性,實現(xiàn)新對象的特征預(yù)測?!邦惖母拍睢毙纬蛇^程中,無疑就潛藏著歧視的“基因”,若能對這些“基因”體系化,就能得到可能涉及歧視目標(biāo)的“圖譜”。因此,目前一方面要盡可能地提供算法流程所用到的真實數(shù)據(jù),以確保算法形成最擬人的認(rèn)知范疇;另一方面,則需要對算法運算中的范疇予以檢測,通過對不同范疇下的區(qū)別對待現(xiàn)象分析尋找可能存在歧視影響的行為結(jié)果。
2.借助差別性影響標(biāo)準(zhǔn)確定是否構(gòu)成歧視
在確定可能存在歧視的群體目標(biāo)后,如何界定是否構(gòu)成算法歧視便是第二個重要步驟,并且這亦為倫理審查提供了重要依據(jù)。如上文所述,基于內(nèi)部原因所導(dǎo)致的算法歧視往往是由于算法的“先天缺陷”而導(dǎo)致的間接歧視,這類歧視在具備一定的隱蔽性的情況下,往往難以確定其歧視目的或意圖,而最終結(jié)果往往會體現(xiàn)為不合理的差別對待。對此,美國司法實踐領(lǐng)域所采用的“差別性影響標(biāo)準(zhǔn)”則具有重要的參考意義。所謂差別性影響,就是行為或規(guī)則對特定的主體產(chǎn)生不同于其他個體的影響,而該標(biāo)準(zhǔn)便是通過對行為與決策是否構(gòu)成對特定群體的差別性的負(fù)面影響的考察,判斷是否存在歧視。
差別性影響標(biāo)準(zhǔn)便是針對形式上非歧視但在實踐中造成歧視結(jié)果行為的規(guī)制。最早在1971年的格里格斯訴杜克能源公司案中,法院針對杜克公司所設(shè)立的獲取高薪職位的需要高中學(xué)歷與通過IQ測試勞動政策是否構(gòu)成種族歧視的判斷運用了首次引入了差別性影響標(biāo)準(zhǔn)。法院指出,此政策并非能夠“合理衡量工作的測驗”,而在當(dāng)時的歷史背景下,黑人的學(xué)歷與IQ測試很難達(dá)到公司所設(shè)之標(biāo)準(zhǔn),以黑人為代表的少數(shù)族裔必然會受到差別性的影響,因此判定公司政策違反了《民權(quán)法案》第七款。因為在法官看來,相關(guān)條款在設(shè)計時就具有“消除那些以種族或其他違規(guī)方式進行惡意區(qū)分為基礎(chǔ)的、人為的、武斷的和不必要的就業(yè)障礙”之目的。當(dāng)然,對差別性影響標(biāo)準(zhǔn)的適用需要在一定的范圍之中,美國聯(lián)邦最高法院在1976年華盛頓訴戴維斯案所(Washington V. Davis)一案中指出,對于證明某一規(guī)則或行為是否構(gòu)成違反第十四修正案所規(guī)定的平等保護,除了證明差別性影響以外,還應(yīng)歧視意圖的存在。然而,在之后的禁止歧視類案件的司法實踐中,尤其是在差別性影響極其顯著的案件中,差別性影響亦成為了判斷歧視意圖的重要依據(jù)。
總之,具體案件中差別性影響的衡量是判斷歧視存在與否的重要依據(jù)。筆者認(rèn)為,算法歧視問題之所以更為嚴(yán)重就是在于其隱蔽性,即歧視的方法隱藏于算法之中,由于“黑盒算法”以及存在專業(yè)壁壘等原因,從行為手段上很難反映或是判斷程序作出決策的過程中是否以歧視為目的。因此,對所形成的結(jié)果或影響予以判斷是否構(gòu)成歧視,是一種更為直觀有效的路徑,差別性標(biāo)準(zhǔn)能夠給予了判斷歧視的原則標(biāo)準(zhǔn),運用這一標(biāo)準(zhǔn)形成審查依據(jù)是較為恰當(dāng)?shù)摹?/p>
基于歧視或曰平等保護的目的對算法技術(shù)予以審查基本都可以歸為對人工智能技術(shù)的倫理審查。人工智能技術(shù)的發(fā)展是一個不斷進化的過程,未來的人工智能會向著由專用智能向通用智能,由智能感知向智能認(rèn)知方向發(fā)展。未來人工智能在實現(xiàn)與人類感官特征互通的同時,也將全面地理解自然與人類社會;數(shù)據(jù)知識庫亦能將專業(yè)知識相互關(guān)聯(lián)逐漸拓展成全識知識,通盤考慮形成普適性的結(jié)論。盡管這一實現(xiàn)過程仍然很漫長,需要算法技術(shù)層面的不斷進步,但卻不是一個割裂的發(fā)展過程,在技術(shù)研發(fā)的標(biāo)準(zhǔn)中形成相應(yīng)的倫理標(biāo)準(zhǔn)是必不可少的,簡單而言就是人工智能的設(shè)計與實現(xiàn)必須秉持人類利益優(yōu)先的原則。目前世界各國與國際組織亦深知倫理審查的必要性,并紛紛出臺了一系列有關(guān)人工智能的倫理規(guī)范之標(biāo)準(zhǔn),以推動人工智能技術(shù)的發(fā)展。
目前各國對于人工智能技術(shù)的具體發(fā)展樣式與技術(shù)路徑并沒有形成清晰認(rèn)識和統(tǒng)一標(biāo)準(zhǔn),但對該技術(shù)的預(yù)期大致一致,即如何機器能夠通過對經(jīng)驗數(shù)據(jù)的學(xué)習(xí)模擬人類智能。人工智能在面對倫理問題時的表現(xiàn)是衡量人工智能模擬水準(zhǔn)的重要標(biāo)準(zhǔn),因為只有達(dá)到了相應(yīng)的倫理標(biāo)準(zhǔn)時才是完全的“人工智能”,在賦權(quán)于符合標(biāo)準(zhǔn)的機器之后才會產(chǎn)生符合人類預(yù)期的效果。人工智能作為一種進一步解放人類生產(chǎn)力的技術(shù),在解放生產(chǎn)力的同時也賦予了人類更多的自由空間,對這種自由空間如何進行平等分配,算法歧視的審查標(biāo)準(zhǔn)作為倫理標(biāo)準(zhǔn)的重要一環(huán)能夠提供較為現(xiàn)實的制度依托。因此,在大力發(fā)展人工智能技術(shù)的同時,應(yīng)當(dāng)注重對算法歧視問題的識別與解決。
在一定程度上,對歧視問題的探討充斥著對價值、利益以及基本權(quán)利的思考,這些探討在面對新的問題時,不免又會被反復(fù)探討。哲學(xué)、倫理上的這種不穩(wěn)定的基因在傳承至人工智能時也成為了新的難題,例如人工智能被應(yīng)用于自動駕駛車輛時面對“電車難題”如何解決,對人類而言,在面對這種問題時究竟要犧牲哪些利益或生命,都是一個難以回答的甚至是沒有答案的問題。那么當(dāng)機器替代人類作出了相關(guān)反應(yīng)時,應(yīng)當(dāng)如何評價,這些都需要法律人在之后的研究中進行認(rèn)真的求證,并謹(jǐn)慎地予以回應(yīng)。
山西大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)2019年4期