(中國(guó)科學(xué)技術(shù)大學(xué)科技哲學(xué)部,安徽合肥 230026)
人工智能(artificial intelligence,AI)作為一項(xiàng)革命性的技術(shù),正在改變著人類的生活方式和生產(chǎn)方式。我國(guó)已就人工智能產(chǎn)業(yè)發(fā)展作出長(zhǎng)期規(guī)劃,其中明確了人工智能發(fā)展的戰(zhàn)略性地位及其發(fā)展的不確定性可能帶來(lái)的社會(huì)倫理挑戰(zhàn)[1]。如今已經(jīng)很難找到一款不配備語(yǔ)音助手的智能手機(jī),以智能音箱為代表的智能家居也走入千家萬(wàn)戶,可以預(yù)見在不久的將來(lái),人工智能將成為人們生活中不可或缺的重要組成部分。然而,近年來(lái)一系列的“大數(shù)據(jù)殺熟”“人工智能侵權(quán)”和“算法歧視”等負(fù)面事件卻將人工智能技術(shù)推到了技術(shù)中立爭(zhēng)論的風(fēng)口浪尖[2]。更重要的是,隨著人們對(duì)人工智能依賴的日益加深,不僅人工智能的決策受到其設(shè)計(jì)者和使用者的影響,人工智能的決策反過來(lái)也已經(jīng)不可忽視地正在改變著人類的決策、行為以及生活方式[3-5]。在當(dāng)下這個(gè)看似價(jià)值中立的智能時(shí)代,當(dāng)我們通過百度等搜索引擎獲取信息時(shí),搜索結(jié)果卻是經(jīng)過人為干預(yù)和選擇的;當(dāng)我們使用亞馬遜、滴滴、攜程等平臺(tái)進(jìn)行消費(fèi)時(shí),殊不知很可能正在遭遇價(jià)格歧視;各個(gè)平臺(tái)和應(yīng)用所謂的個(gè)性化推薦更像是個(gè)性化廣告,個(gè)中隱藏著豐富的算法歧視,根據(jù)用戶特征投放不同內(nèi)容,表面上是在為用戶服務(wù)、為其推薦其感興趣的個(gè)性化內(nèi)容,實(shí)際上卻是行為誘導(dǎo)與偏見塑造。那么我們不禁要問,人工智能這個(gè)親密的伙伴真的是價(jià)值中立的嗎?我們還能信任它為我們做的決策嗎?
關(guān)于人工智能是否具有價(jià)值中立性這一論題,有的學(xué)者持肯定態(tài)度,認(rèn)為人工智能技術(shù)和以往的技術(shù)無(wú)異,倫理上是價(jià)值中立的[6];有的學(xué)者則持反對(duì)態(tài)度,認(rèn)為人工智能技術(shù)本質(zhì)上便潛藏著來(lái)自設(shè)計(jì)者、使用者以及學(xué)習(xí)數(shù)據(jù)的偏見[2,7]。然而,由于近年來(lái)人工智能技術(shù)的飛速發(fā)展,其價(jià)值非中立性凸顯,所引發(fā)的倫理問題讓人猝不及防[8-9]。為了搶占下一個(gè)科技革命制高點(diǎn),盡快實(shí)現(xiàn)符合倫理的人工智能刻不容緩。不僅如此,人工智能的算法更將會(huì)成為一種新的社會(huì)法則[10]。因此,有必要從算法的層面剖析人工智能價(jià)值非中立性的本質(zhì)。
目前國(guó)內(nèi)研究主要關(guān)注在由數(shù)據(jù)的社會(huì)性帶來(lái)的偏見問題[11-12];雖然近年來(lái)涌現(xiàn)出大量關(guān)于算法歧視的研究,但并未深入研究算法的內(nèi)在邏輯[13-15];關(guān)于人工智能的價(jià)值非中立性的闡釋尚停留在概念層面,有待深入到算法的內(nèi)在邏輯層面的系統(tǒng)性的研究[16]。國(guó)外研究亦存在上述問題。此外,國(guó)外學(xué)者更多關(guān)注于如何在規(guī)制的層面上維系人工智能的公平與公正性[17-18],如de Cornière 等[19]剖析了算法歧視的隱蔽性,但并未深入究其原因;Hoffmann[20]將人工智能的價(jià)值非中立性現(xiàn)象歸因?yàn)檫^分強(qiáng)調(diào)離散的壞因子,以劣勢(shì)為中心的單軸思維以及過分關(guān)注有限的一組物品,然而卻缺乏對(duì)算法本身的系統(tǒng)性的研究;Mann 等[21]討論了利用算法歧視進(jìn)行獲利的原理及其應(yīng)對(duì)方案,然而卻同樣沒有對(duì)算法本身進(jìn)行剖析。
因此,本研究擬從人文社會(huì)科學(xué)領(lǐng)域關(guān)注的價(jià)值問題出發(fā),借以自然科學(xué)的知識(shí)和手段對(duì)相關(guān)問題進(jìn)行分析。具體而言,分別從數(shù)據(jù)的社會(huì)性、算法的價(jià)值偏好以及決策的偏見強(qiáng)化這3 個(gè)角度,剖析人工智能算法內(nèi)在邏輯的非中立性本質(zhì),厘清歧視與偏見現(xiàn)象產(chǎn)生的原因,進(jìn)而為政策制定或相關(guān)從業(yè)人員提供在算法層面上規(guī)避偏見的指導(dǎo)性意見。
預(yù)期治理的“技術(shù)中立原則”(Technology Neutrality)是在1984 年由美國(guó)聯(lián)邦最高法院所審理的著名的“索尼案”中確立的,即某產(chǎn)品或技術(shù)同時(shí)被用于合法和非法用途,這并非是產(chǎn)品或技術(shù)提供者所能預(yù)料和控制的,因此其提供者可免負(fù)法律責(zé)任[22]。由其引申而來(lái)的“技術(shù)中立”,主要包含功能中立、責(zé)任中立和價(jià)值中立3 種內(nèi)涵[2]。本研究所要討論的主要是技術(shù)中立的價(jià)值中立內(nèi)涵。
有學(xué)者認(rèn)為技術(shù)是無(wú)罪的,技術(shù)是價(jià)值中立的。我國(guó)《著作權(quán)法》中的“避風(fēng)港規(guī)則”也從法律角度與之形成呼應(yīng)[23]。2014 年邱仁宗等[6]也曾指出“大數(shù)據(jù)與其他所有技術(shù)一樣是無(wú)所謂好壞的,它在倫理學(xué)上是中性的?!闭\(chéng)然,在技術(shù)應(yīng)用的過程中,人們普遍秉持“技術(shù)中立原則”。同樣,人們普遍認(rèn)為技術(shù)本身是無(wú)意識(shí)的,不具備主體性,所以技術(shù)是中立的,只是設(shè)計(jì)者和使用者把他們的目的性施加到了技術(shù)上。這一點(diǎn)在過去都是成立的,然而對(duì)于基于大數(shù)據(jù)和機(jī)器學(xué)習(xí)的當(dāng)代人工智能技術(shù),卻很可能已經(jīng)不再適用,因?yàn)楫?dāng)下的機(jī)器學(xué)習(xí)都可以歸屬于廣義的歸納學(xué)習(xí)(inductive learning),即“從樣例中學(xué)習(xí)”的機(jī)器學(xué)習(xí),都包含一個(gè)從特殊到一般的泛化(generalization)過程[24]1-4。機(jī)器學(xué)習(xí)的簡(jiǎn)易流程如圖1 所示,即通過對(duì)經(jīng)驗(yàn)(數(shù)據(jù))進(jìn)行學(xué)習(xí)(選擇最優(yōu)的模型、策略和算法)得到所謂的“學(xué)習(xí)算法”,進(jìn)而利用學(xué)習(xí)算法進(jìn)行決策,周而復(fù)始,循環(huán)往復(fù)。這種機(jī)器學(xué)習(xí)(包括深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí))基于統(tǒng)計(jì)學(xué)思想和強(qiáng)大的算力,通過對(duì)大數(shù)據(jù)進(jìn)行學(xué)習(xí),構(gòu)建概率統(tǒng)計(jì)模型并運(yùn)用模型對(duì)未知數(shù)據(jù)自主地進(jìn)行決策。
圖1 機(jī)器學(xué)習(xí)流程
雖然機(jī)器學(xué)習(xí)本質(zhì)上是自主性的,是能動(dòng)的,但其學(xué)習(xí)的內(nèi)容——數(shù)據(jù)卻是社會(huì)性的,因而也不可避免地帶有(價(jià)值)偏誤(bias),因?yàn)闅w根結(jié)底,人工智能是人類智能的延伸,人工智能的自主性是其設(shè)計(jì)者的目的性在工具層面上的表達(dá),人工智能的決策是人類社會(huì)價(jià)值判斷的遷移。因而,人工智能的技術(shù)中立性是存在疑問的。
如前所述,從倫理的角度看,人工智能的決策所涉及的不是一個(gè)能不能的問題,而是一個(gè)應(yīng)不應(yīng)該的問題,歸根結(jié)底還是一個(gè)價(jià)值判斷的問題[6]。于是我們不禁要問,人工智能有價(jià)值觀嗎?如果有,它們的價(jià)值觀是中立的嗎?如果不是,我們又將如何應(yīng)對(duì)其價(jià)值偏誤帶來(lái)的風(fēng)險(xiǎn)呢?以下將從機(jī)器學(xué)習(xí)過程的數(shù)據(jù)、(學(xué)習(xí))算法和決策3 個(gè)方面分別闡明機(jī)器學(xué)習(xí)的價(jià)值觀及其價(jià)值的非中立性特征。
2.1.1 概率:規(guī)律還是信念?
機(jī)器學(xué)習(xí)的統(tǒng)計(jì)學(xué)假設(shè)是:數(shù)據(jù)是具有一定的統(tǒng)計(jì)學(xué)規(guī)律性的。這個(gè)假設(shè)在經(jīng)驗(yàn)層面上通常是正確的,然而在操作層面上卻是無(wú)從保證的。如前所述,不論是當(dāng)下的(統(tǒng)計(jì))機(jī)器學(xué)習(xí)、深度學(xué)習(xí)或是強(qiáng)化學(xué)習(xí),都是基于統(tǒng)計(jì)學(xué)思想。統(tǒng)計(jì)學(xué)是一門以數(shù)據(jù)為研究對(duì)象的科學(xué),通過對(duì)樣本(sample)進(jìn)行研究,從而得到關(guān)于總體(population)的特征和規(guī)律的推斷[25]。從方法論上說(shuō),統(tǒng)計(jì)學(xué)不僅貫徹了形而上學(xué)的因果決定論,同時(shí)又包含著隨機(jī)性(不確定性)與必然性的辯證關(guān)系。而關(guān)于現(xiàn)代統(tǒng)計(jì)學(xué)思想,其萌芽于人們對(duì)不確定現(xiàn)象進(jìn)行預(yù)測(cè)的需求,后融合了古希臘時(shí)期的演繹推理、文藝復(fù)興時(shí)期弗朗西斯·培根(Francis Bacon)的經(jīng)驗(yàn)主義知識(shí)論和約翰·穆勒(John Stuart Mill)的歸納法、托馬斯·貝葉斯(Thomas Bayes)的逆概率法、弗朗西斯·高爾頓(Francis Galton)的回歸思想、卡爾·皮爾遜(Karl Pearson)的擬合優(yōu)度檢驗(yàn)等思想而形成了如今的統(tǒng)計(jì)學(xué)思想[26]。
條件概率(conditional probability)和貝葉斯理論(Bayesian Theory)是人工智能技術(shù)處理不確定現(xiàn)象的重要理論工具。其中概率(probability)是用來(lái)量化事物不確定性的一種數(shù)學(xué)工具,條件概率則反映的是各種(約束)信息對(duì)概率的貢獻(xiàn)價(jià)值,而貝葉斯理論則承認(rèn)先驗(yàn)概率的不確定性,并隨著新的證據(jù)的加入而不斷更新后驗(yàn)概率。
機(jī)器學(xué)習(xí)關(guān)于“數(shù)據(jù)”的基本假設(shè)是“同類數(shù)據(jù)具有一定的統(tǒng)計(jì)規(guī)律性”[27]1-2。然而這是一個(gè)復(fù)雜的假設(shè),包括來(lái)自統(tǒng)計(jì)學(xué)知識(shí)的先驗(yàn)假設(shè),來(lái)自社會(huì)和環(huán)境的對(duì)數(shù)據(jù)集的后驗(yàn)修訂,以及數(shù)據(jù)工程師的人為干預(yù)。關(guān)于數(shù)據(jù)的假設(shè)背后包含著太多的人類對(duì)于具體事件發(fā)生的可能性的信念。從貝葉斯學(xué)派的角度看,所謂的“概率”只是一個(gè)又一個(gè)的人們通過對(duì)現(xiàn)象進(jìn)行歸納得到的關(guān)于事件發(fā)生的信念而已,并不存在任何確定的“規(guī)律”。
2.1.2 大數(shù)據(jù):人類社會(huì)的鏡子
同樣作為以數(shù)據(jù)為研究對(duì)象的大數(shù)據(jù)技術(shù),彌補(bǔ)了以往統(tǒng)計(jì)學(xué)的高成本、高誤差、時(shí)效低及樣本局限等劣勢(shì),同時(shí)在搜索、聚類及擬合等方面依然依賴統(tǒng)計(jì)學(xué)方法[28]。大數(shù)據(jù)技術(shù)是統(tǒng)計(jì)學(xué)方法的改良與拓展,是統(tǒng)計(jì)學(xué)與計(jì)算機(jī)科學(xué)的完美結(jié)合。然而大數(shù)據(jù)技術(shù)卻引發(fā)了諸如個(gè)人隱私、信息安全和數(shù)據(jù)公平等一系列的倫理問題[29]。數(shù)據(jù)作為人類認(rèn)識(shí)客觀世界的標(biāo)度,在認(rèn)識(shí)論上,大數(shù)據(jù)技術(shù)盡管強(qiáng)調(diào)對(duì)應(yīng)關(guān)系,但本質(zhì)上遵循的依然是歸納法[30],因此不可避免的是,作為與人類社會(huì)同構(gòu)的大數(shù)據(jù)只是作為一面“鏡子”,如果進(jìn)來(lái)的數(shù)據(jù)不可避免地帶有偏見,那么出來(lái)的結(jié)果也必然是帶有偏見的[12]。例如2016 年微軟公司在Twitter 發(fā)布了一款聊天機(jī)器人Tay,“她”本是一位19 歲的清純少女,然而上線僅一天就“被學(xué)會(huì)了”嚴(yán)重的種族歧視因此被迫下線;而微軟的另一款聊天機(jī)器人小冰,也經(jīng)常因?yàn)閮?nèi)容低俗而飽受詬病。
鑒于由數(shù)據(jù)導(dǎo)致的非中立性前人已做了大量深入研究,在此不再贅述。簡(jiǎn)言之,對(duì)非中立的數(shù)據(jù)進(jìn)行學(xué)習(xí)必然得到非中立的學(xué)習(xí)模型,進(jìn)而產(chǎn)生非中立的價(jià)值判斷與決策。
2.2.1 特征提取的價(jià)值觀:復(fù)雜的現(xiàn)象可被少量主要特征所概括
工程上開始一個(gè)機(jī)器學(xué)習(xí)項(xiàng)目,數(shù)據(jù)工程師首先需要對(duì)數(shù)據(jù)進(jìn)行特征提?。╢eature extraction)并選擇最適合的模型來(lái)將抽象的現(xiàn)實(shí)問題轉(zhuǎn)換為具體的數(shù)學(xué)問題。特征提取是一個(gè)降維(dimensionality reduction)過程,體現(xiàn)了這樣一種價(jià)值觀(假設(shè)),即復(fù)雜的現(xiàn)象可以被少量的主要特征所概括。通過特征提取來(lái)抓主要矛盾,進(jìn)而達(dá)到簡(jiǎn)化問題,提高效率,揭示事物內(nèi)部規(guī)律的目的。特征提取的有效性,是模型有效性得以保障的前提。
2.2.2 特征提取過程的社會(huì)性
以分類模型為例,一個(gè)分類模型的分類質(zhì)量取決于分類的合理性和有效性。要保證分類的合理性,就必須首先保證分類標(biāo)志的單向性,即每個(gè)分類標(biāo)志都必須是建立在對(duì)象的某一確定特征上的;而要滿足單向性,就必須滿足周延性和互斥性。然而這在現(xiàn)實(shí)中是無(wú)從保證的。在特征選擇(feature selection)與特征提取階段,數(shù)據(jù)便不得不被“人為”地區(qū)分為重要的、次要的和無(wú)關(guān)的幾大類別。
機(jī)器學(xué)習(xí)可大致分為有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)以及二者的結(jié)合。對(duì)于有監(jiān)督學(xué)習(xí)的特征,會(huì)被“人為”地貼上“標(biāo)簽(label)”并作為“正確的榜樣”來(lái)訓(xùn)練符合該評(píng)價(jià)體系的模型;而對(duì)于無(wú)監(jiān)督學(xué)習(xí),則在特征提取和求解最優(yōu)化問題的過程中,皆按照設(shè)計(jì)者賦予學(xué)習(xí)方法的價(jià)值觀來(lái)對(duì)每個(gè)數(shù)據(jù)進(jìn)行評(píng)判??梢姡谒惴ǖ拈_發(fā)過程中,設(shè)計(jì)者無(wú)時(shí)無(wú)刻不在將自己的價(jià)值觀灌輸給算法,而正是這些價(jià)值觀最終導(dǎo)致了算法本身的偏好問題[8]。例如Lambrecht 等[31]在一項(xiàng)研究中發(fā)現(xiàn),由算法自動(dòng)推薦的求職廣,表面上看似是性別中性的,實(shí)則帶有明顯的性別歧視傾向。正如著名宇宙學(xué)家麥克斯·泰格馬克(Max Tegmark)所言,人工智能學(xué)習(xí)的不僅是人們的目標(biāo),還有人們的偏好,有時(shí)它會(huì)誤解,有時(shí)也會(huì)僅聽一面之詞[32]345-348。
2.2.3 算法的價(jià)值觀:如無(wú)必要,勿增參數(shù)
決策領(lǐng)域通常用損失最小化來(lái)保證收益最大化,并使用損失函數(shù)來(lái)量化損失的效用。通過學(xué)習(xí)得到的模型若想得到良好的泛化能力(generalization ability,指模型對(duì)未知數(shù)據(jù)的預(yù)測(cè)能力),則需要對(duì)損失函數(shù)(loss function,指度量模型一次預(yù)測(cè)結(jié)果的好壞的函數(shù))進(jìn)行正則化(regularization,指增加模型復(fù)雜度的正則化項(xiàng)(regularizer)或懲罰項(xiàng)(penalty term)來(lái)限制模型的復(fù)雜度,最后通過求解最優(yōu)化問題實(shí)現(xiàn)結(jié)構(gòu)風(fēng)險(xiǎn)最小化(structural risk minimization,SRM)[27]1-15。盡管歸納學(xué)習(xí)水平一直在不斷提高,但是由于來(lái)自生態(tài)學(xué)、社會(huì)學(xué)、現(xiàn)象學(xué)以及解釋學(xué)的挑戰(zhàn),致使其始終缺乏應(yīng)對(duì)信息的不確定性和不完整性的有效手段[33],由此,對(duì)于具體的學(xué)習(xí)算法,如果想得到唯一的模型,就必須賦予其對(duì)某種類型假設(shè)的偏好,即“歸納偏好”(inductive bias),而這個(gè)偏好即是這個(gè)算法的價(jià)值觀。最常見的但是并非唯一的一個(gè)價(jià)值觀即是奧卡姆剃刀(Occam’s razor),并且對(duì)奧卡姆剃刀的詮釋也不盡相同[24]6-7。上文提到的正則化便是奧卡姆剃刀的價(jià)值觀的一種具體體現(xiàn)形式。式(1)為結(jié)構(gòu)風(fēng)險(xiǎn)函數(shù):
此外,正則化項(xiàng)可以取不同的形式,最常見的為取參數(shù)向量的L2范數(shù)或L1范數(shù),即所謂的嶺回歸和LASSO 回歸,分別是以歐式距離和曼哈頓距離作為其統(tǒng)計(jì)距離。換言之,正則化項(xiàng)的形式不同,得到的最優(yōu)模型也不盡相同。
2.2.4 超參數(shù):算法的天賦
不僅如此,為了更有效地得到最優(yōu)解,數(shù)據(jù)工程師會(huì)在模型中加入若干超參數(shù)(hyperparameter),即在學(xué)習(xí)之前便已被人為給定的參數(shù)而非通過學(xué)習(xí)得到的參數(shù)。式(1)中的正則化項(xiàng)包含的非負(fù)系數(shù)λ 便是一個(gè)超參數(shù),即該正則化項(xiàng)的懲罰力度。再比如狹義的算法中最常用的梯度下降法中的學(xué)習(xí)率(learning rate)也是一個(gè)超參數(shù)。即使現(xiàn)在可以通過網(wǎng)格搜索(grid search)和交叉驗(yàn)證(cross validation)來(lái)輔助確定超參數(shù)的取值,然而依然只是起到輔助作用而已。換言之,超參數(shù)的取值主要依據(jù)數(shù)據(jù)科學(xué)家的經(jīng)驗(yàn)而定。如果把算法比作一個(gè)人,那么超參數(shù)就是它的天賦,超參數(shù)取值的差異就決定了這個(gè)模型在學(xué)習(xí)和決策時(shí)的不同的特性與偏好。
總之,每一個(gè)具體的機(jī)器學(xué)習(xí)算法中都隱含著大量的設(shè)計(jì)者所施加的價(jià)值偏好,算法基于這些被設(shè)定的價(jià)值偏好來(lái)習(xí)得最優(yōu)的模型,進(jìn)而使用得到的最優(yōu)模型進(jìn)行預(yù)測(cè)與決策。人工智能的智能行為背后總是離不開人類智能的干預(yù),如生活中常見的搜索引擎檢索結(jié)果中的不相關(guān)的廣告以及各出行服務(wù)平臺(tái)的“個(gè)性化定價(jià)”均是固著于算法之中的歧視。
2.3.1 人工智能決策是樸素的
決策作為人的一種認(rèn)知過程與判斷不盡相同。由于人類本質(zhì)上具有社會(huì)性,因此他們的判斷和決策皆會(huì)受到社會(huì)因素的影響。然而在某些情況下,社會(huì)因素影響的卻只是人的決策而非其背后的判斷[34]。但是對(duì)于人工智能,社會(huì)性因素對(duì)其決策與判斷的影響是等同的,因?yàn)槿斯ぶ悄苤皇且罁?jù)其通過數(shù)據(jù)學(xué)習(xí)到的模型進(jìn)行判斷,再根據(jù)判斷結(jié)果作出決策。人工智能在從判斷到?jīng)Q策的過程中缺少了人類的元認(rèn)知(meta-cognition)層面上的反思能力與過程,因此,人工智能的決策是樸素的,在同樣接收到了有偏誤的經(jīng)驗(yàn)和信息時(shí),人類有可能通過反思作出與原判斷不同的決策,而人工智能卻無(wú)法做到。這就必然會(huì)加強(qiáng)“信息繭房”效應(yīng),即由于長(zhǎng)期接受同質(zhì)化信息而導(dǎo)致的群體極化現(xiàn)象。尤其在當(dāng)下這個(gè)被算法支配的信息時(shí)代,如今日頭條和抖音等由算法實(shí)現(xiàn)的“個(gè)性化推薦”信息的APP,為了維系其用戶黏性,不斷地向用戶輸入同質(zhì)化信息,致使出現(xiàn)了嚴(yán)重的群體極化和群體隔離[35]。
2.3.2 偏見的強(qiáng)化過程
2015 年,谷歌照片曾將黑人的照片標(biāo)簽為大猩猩[7];無(wú)獨(dú)有偶,2018 年亞馬遜開發(fā)的Rekognition也曾將28 位國(guó)會(huì)議員識(shí)別為罪犯,并且這其中38%是有色人種[36]。正是由于缺少人類的反思能力,人工智能在使用從學(xué)習(xí)到的模型進(jìn)行判斷與決策時(shí),即使在作出非常偏頗的錯(cuò)誤判斷時(shí),依然會(huì)按照判斷結(jié)果進(jìn)行決策和行動(dòng)。
基于深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的遷移學(xué)習(xí)(transfer learning)將成為未來(lái)人工智能領(lǐng)域各巨頭爭(zhēng)奪的下一個(gè)豐碑,這在極大地拓寬了人工智能的應(yīng)用范圍的同時(shí)也增加了其產(chǎn)生偏誤的風(fēng)險(xiǎn)[37]。一方面,技術(shù)是按照人的目的,通過一定的體制和過程將種種社會(huì)存量以某種“黑箱”的方式集成起來(lái)的[38];另一方面,技術(shù)又是基于現(xiàn)象,通過組合得到的遞歸結(jié)構(gòu)[39]。因此,遷移學(xué)習(xí)在縮短了AI 的學(xué)習(xí)周期的同時(shí),不僅使人工智能這個(gè)“黑箱”變得更“黑”了,而且在這個(gè)基于以多數(shù)派的現(xiàn)象為樣本構(gòu)建的數(shù)據(jù)集的持續(xù)遞歸過程中,少數(shù)派群體總會(huì)“被成為”一些所謂的“孤立點(diǎn)”,進(jìn)而越來(lái)越被輕視。在模型持久化(model persistence)的過程中,模型會(huì)不斷地根據(jù)模型應(yīng)用的反饋來(lái)進(jìn)行自我修正,偏見便會(huì)在人工智能的每一次自我修正中得到強(qiáng)化。
由此我們不難發(fā)現(xiàn),機(jī)器學(xué)習(xí)作為一項(xiàng)技術(shù),不僅存在前人已經(jīng)深入討論過的數(shù)據(jù)本身的“偏見進(jìn),偏見出”的問題,同時(shí)在學(xué)習(xí)方法中也處處體現(xiàn)著人為的價(jià)值偏好,只是被隱蔽地藏在了方法的具體細(xì)節(jié)之中。正如有專家所指出的,算法歧視高度隱秘,個(gè)體不易察覺,算法的廣泛應(yīng)用使公眾愈發(fā)依賴算法[7]。不同的人工智能有著不同的價(jià)值觀和不同的習(xí)得算法,所以即使面對(duì)同一問題,其決策也不盡相同。而這些人工智能的價(jià)值觀在機(jī)器學(xué)習(xí)領(lǐng)域被稱為“假設(shè)”,然而拋開機(jī)器學(xué)習(xí)來(lái)看這些價(jià)值觀,它們更應(yīng)該被稱為人類對(duì)這個(gè)世界的規(guī)律性的信念。這些價(jià)值觀同數(shù)據(jù)一樣,都是人工智能算法歧視現(xiàn)象的根源,也是人工智能技術(shù)價(jià)值非中立性存在的根源。
如上所述,在機(jī)器學(xué)習(xí)的各個(gè)環(huán)節(jié)中都潛藏著人類有意或無(wú)意的價(jià)值偏好,這些價(jià)值偏好塑造了人工智能的價(jià)值觀,在人工智能的學(xué)習(xí)和決策過程中成為價(jià)值判斷的標(biāo)準(zhǔn)。人工智能的價(jià)值非中立性,實(shí)質(zhì)上便是根源于機(jī)器學(xué)習(xí)算法中各部分的價(jià)值偏好。從算法結(jié)構(gòu)的角度看,人工智能的價(jià)值非中立性是不可避免的,扎根于機(jī)器學(xué)習(xí)算法的各個(gè)重要組成部分之中。因此,總體上看,不存在價(jià)值中立的人工智能,人工智能價(jià)值觀始終被人類的價(jià)值偏見所制約。就現(xiàn)階段的人工智能技術(shù)而言,更多的智能也許就意味著更多的偏見。
毫無(wú)疑問,人工智能技術(shù)極大地改善了我們的生活質(zhì)量,同時(shí)再一次革命性地解放了人類的勞動(dòng)力,但與此同時(shí),我們也要對(duì)其負(fù)面效應(yīng)保持持續(xù)的警惕。目前我們或許僅僅擔(dān)心搜索引擎中的誤導(dǎo)或消費(fèi)過程中的價(jià)格歧視,但是很快我們將不得不擔(dān)心是否還能通過新聞來(lái)認(rèn)識(shí)外面的世界[35],算法裁決的判決與量刑是否也具有算法歧視[40],甚至自動(dòng)駕駛汽車是否會(huì)在算法的指引下對(duì)低價(jià)值對(duì)象的突然撞來(lái)[41]。不僅如此,隨著我國(guó)智慧醫(yī)療建設(shè)的推進(jìn),屆時(shí)更多的人工智能醫(yī)生和人工智能護(hù)士將加入到醫(yī)療共同決策(shared decision making)中進(jìn)行價(jià)值判斷并提供治療建議[42-43]。
盡管學(xué)術(shù)界對(duì)于人工智能能否成為道德主體依然存在較大爭(zhēng)議,但普遍認(rèn)同應(yīng)盡快將人工智能納入道德體系范疇之中。那么,人工智能技術(shù)帶來(lái)的決策風(fēng)險(xiǎn)應(yīng)該如何評(píng)估?人工智能應(yīng)承擔(dān)的法律責(zé)任與倫理義務(wù)又該如何得到保障?
首先,我們不能因其價(jià)值非中立性的不可避免便放棄作為。我國(guó)早在2005 年的《公司法》的修改中便明確提出,公司應(yīng)當(dāng)承擔(dān)社會(huì)責(zé)任,作為人工智能產(chǎn)品的設(shè)計(jì)者和部分使用者的人工智能企業(yè)因此就顯得責(zé)任格外重大。2018 年在北京召開的人工智能標(biāo)準(zhǔn)化論壇發(fā)布了《人工智能標(biāo)準(zhǔn)化白皮書(2018 版)》,建議研究制定人工智能產(chǎn)業(yè)發(fā)展的標(biāo)準(zhǔn)體系。正如偏見是人類社會(huì)所固有的一樣,價(jià)值非中立性是人工智能的固有屬性,我們不應(yīng)該也沒必要回避或是畏懼人工智能技術(shù)的價(jià)值非中立性實(shí)質(zhì);相反,我們應(yīng)該正視和承認(rèn)它的非中立性實(shí)質(zhì),并在此基礎(chǔ)上有針對(duì)性地制定合理的規(guī)范,將由人工智能技術(shù)固有的價(jià)值非中立性所引發(fā)的負(fù)面效應(yīng)限制在一個(gè)可接受的范圍之內(nèi),所以這是一個(gè)需要國(guó)家機(jī)構(gòu)、企業(yè)、學(xué)術(shù)界和普通大眾共同完成的艱巨任務(wù)。一方面,理論與算法研究應(yīng)秉持開源、透明和可解釋的算法價(jià)值取向;另一方面,也要為人工智能的決策設(shè)置“人為”的邊界。
具體而言,在宏觀層面上,明晰了算法及其偏見的產(chǎn)生機(jī)制,企業(yè)便可以在規(guī)制上有的放矢,指定符合倫理的算法開發(fā)規(guī)范,有效地將可預(yù)見的偏見扼殺在算法開發(fā)階段,如使用價(jià)值敏感設(shè)計(jì)方法進(jìn)行概念分析層面的數(shù)據(jù)倫理概念分析、經(jīng)驗(yàn)分析層面的實(shí)踐分析以及技術(shù)分析層面的算法倫理分析[44];國(guó)家相關(guān)機(jī)構(gòu)則可以根據(jù)具體算法的特征,有針對(duì)性地推進(jìn)改進(jìn)算法公平性、增加算法透明度和設(shè)計(jì)責(zé)任機(jī)制等工作,如針對(duì)人工智能技術(shù)引發(fā)的倫理問題,可采用倫理責(zé)任分級(jí)制進(jìn)一步細(xì)化各責(zé)任主體的倫理責(zé)任,同時(shí)針對(duì)共同決策制定完善的責(zé)任分擔(dān)機(jī)制。此外,應(yīng)加強(qiáng)政府部門的監(jiān)管力度與權(quán)限和各高校的人工智能技術(shù)倫理與規(guī)范教育。最終,由各界協(xié)同創(chuàng)建與人類的法律、社會(huì)規(guī)范、道德倫理相契合的算法和架構(gòu)。另一方面,在微觀層面上,用戶首先應(yīng)做到有意識(shí)地主動(dòng)保護(hù)個(gè)人數(shù)據(jù)的隱私與安全;更重要的是,若要破除如“信息繭房”之類的頑疾,用戶需主動(dòng)地向算法傳遞積極的價(jià)值取向,與人工智能共同完成每一個(gè)選擇與決策,而非被動(dòng)地任由算法左右我們的價(jià)值觀。唯有在算法層面上理解了當(dāng)代人工智能技術(shù)的運(yùn)作原理,才能有效地讓其為我們而服務(wù),進(jìn)而方可在與人工智能互動(dòng)的過程中張弛有度,既不會(huì)被其牽著鼻子走,亦不會(huì)因恐懼迷失其中而對(duì)其敬而遠(yuǎn)之。
綜上所述,人工智能的決策取決于它的經(jīng)驗(yàn)(數(shù)據(jù))和價(jià)值觀(機(jī)器學(xué)習(xí)算法),經(jīng)驗(yàn)難免有偏誤,價(jià)值觀也免不了有所偏好,致使人工智能技術(shù)在算法層面的價(jià)值非中立的難以絕對(duì)消除,人工智能背后充斥著人類智能的介入。然而我們依然可以通過共同的努力,將人工智能價(jià)值非中立性帶來(lái)的影響限制在可接受的范圍之內(nèi),最終實(shí)現(xiàn)安全、公平、透明、道德、智慧的人工智能技術(shù)體系。誠(chéng)如麥克斯·泰格馬克所言,我們并不必?fù)?dān)心人工智能會(huì)變得邪惡,也不必?fù)?dān)心人工智能會(huì)擁有意識(shí),實(shí)際上我們應(yīng)該擔(dān)心的是日益強(qiáng)大的人工智能與我們的目標(biāo)不一致[40],并且經(jīng)常反思“我們所說(shuō)的目標(biāo),究竟是誰(shuí)的目標(biāo)?”[32]67。