苗存龍,王瑞林
(重慶理工大學(xué) 馬克思主義學(xué)院, 重慶 400054)
人工智能介入人類(lèi)社會(huì)生活,雖然促使勞動(dòng)生產(chǎn)率有效提升,但是也顯露出顛覆傳統(tǒng)社會(huì)倫理秩序的能力,破壞了傳統(tǒng)人倫關(guān)系,引發(fā)了倫理問(wèn)題,甚至危及了人類(lèi)社會(huì)的未來(lái)發(fā)展。人類(lèi)不得不謹(jǐn)慎對(duì)待人工智能的發(fā)展和應(yīng)用,對(duì)人工智能的技術(shù)研發(fā),做出合乎人類(lèi)倫理價(jià)值的明智抉擇。據(jù)統(tǒng)計(jì),截至 2021 年 3 月8日,以“人工智能倫理風(fēng)險(xiǎn)”為相關(guān)主題的研究著作逐漸出版,例如,杜嚴(yán)勇的《人工智能倫理引論》、郭銳的《人工智能的倫理和治理》、高奇琦的《人工智能:馴服賽維坦》、李倫的《人工智能與大數(shù)據(jù)倫理》等,這些著作分別以專(zhuān)題和非專(zhuān)題的形式對(duì)“人工智能倫理風(fēng)險(xiǎn)”做了研究探討。通過(guò) CNKI 數(shù)字資源平臺(tái)進(jìn)行檢索發(fā)現(xiàn),以“人工智能倫理風(fēng)險(xiǎn)”為主題的期刊論文124篇,其中,博士碩士學(xué)位論文9篇,報(bào)紙7篇,這些研究成果針對(duì)“人工智能倫理風(fēng)險(xiǎn)”作了專(zhuān)題研究。以“人工智能倫理”為主題的期刊論文2 904篇,這類(lèi)論文中有部分文章也圍繞“人工智能風(fēng)險(xiǎn)”主題做了探討?,F(xiàn)梳理 、評(píng)述人工智能倫理風(fēng)險(xiǎn)的相關(guān)研究成果,總結(jié)經(jīng)驗(yàn)、發(fā)現(xiàn)不足并展望未來(lái)的研究工作,以期推動(dòng)后續(xù)研究。
人工智能的發(fā)展越來(lái)越迅速,其引發(fā)倫理風(fēng)險(xiǎn)的指數(shù)也越來(lái)越高。人工智能究竟緣何引發(fā)倫理問(wèn)題?學(xué)者們對(duì)此問(wèn)題不斷展開(kāi)追問(wèn)和探賾。學(xué)界普遍認(rèn)為人工智能引起倫理風(fēng)險(xiǎn)的可能性在于兩個(gè)邏輯層面:一是人工智能作為道德主體主動(dòng)介入引發(fā)倫理風(fēng)險(xiǎn)。二是人工智能作為道德客體被動(dòng)參與引發(fā)倫理風(fēng)險(xiǎn)。無(wú)論是主動(dòng)還是被動(dòng)地觸發(fā)倫理風(fēng)險(xiǎn),就論證過(guò)程而言,兩種狀態(tài)都是研究人工智能倫理風(fēng)險(xiǎn)可能性的基本邏輯起點(diǎn)。關(guān)于人工智能能否具備主動(dòng)介入人類(lèi)倫理領(lǐng)域的條件,學(xué)者們分別作了或直接或間接的相關(guān)論證。最早提出相關(guān)研究假設(shè)的學(xué)者是艾倫·麥席森·圖靈。雖然圖靈沒(méi)有研究人工智能是否能夠主動(dòng)介入人類(lèi)倫理領(lǐng)域,但是他著名的圖靈測(cè)試為人工智能在智能運(yùn)行技術(shù)可能性上提供了相關(guān)研究基礎(chǔ)。1950年,圖靈在論文《計(jì)算機(jī)器與智能》中預(yù)言了制造出具有真正智能機(jī)器的可能性。拘囿于“智能”這一概念難以明確界定和闡述,他創(chuàng)造性地提出了著名的圖靈測(cè)試以作為“智能”佐證:如果一臺(tái)機(jī)器能夠與人類(lèi)展開(kāi)對(duì)話(huà)而未被辨別出其機(jī)器身份,那么就認(rèn)為這臺(tái)機(jī)器具有智能。這一簡(jiǎn)化測(cè)試使得圖靈能夠令人信服地說(shuō)明“會(huì)思考的機(jī)器”是可能的[1]。由此則可以判定機(jī)器智能是否能夠擺脫人類(lèi)智能而在機(jī)器與人的關(guān)系中發(fā)揮主動(dòng)性。近年來(lái),國(guó)內(nèi)學(xué)界關(guān)于人工智能能否主動(dòng)介入倫理領(lǐng)域的研究逐漸增多,此處僅引入以下幾位代表學(xué)者觀點(diǎn)。杜嚴(yán)勇認(rèn)為,為了使人工智能“為人類(lèi)服務(wù)”,人類(lèi)可以為機(jī)器賦予“受限”的權(quán)利。如果把社會(huì)生活中的人稱(chēng)之為“完全的道德主體”,那么機(jī)器人就是“有限的道德主體”[2]。郭銳認(rèn)為,相比以往的傳統(tǒng)技術(shù),人工智能的獨(dú)特之處就在于它的“自主性”?;蛴捎诩夹g(shù)本身的特性、或由于其應(yīng)用過(guò)程中社會(huì)賦予了它特定角色,當(dāng)代人工智能技術(shù)已經(jīng)在深度“參與”人的決策[3]。張金鋼認(rèn)為智能機(jī)器人在算法的支持下,能夠像人一樣進(jìn)行自我思考,與人一樣有了自我獨(dú)立意志,能自主支配自己外在機(jī)體,即成了行為自由的主體[4]。有學(xué)者從人工智能核心的技術(shù)——算法角度進(jìn)行分析。王天恩認(rèn)為“人工智能的倫理問(wèn)題根源于從大數(shù)據(jù)處理到作為智能體自主行動(dòng)整個(gè)過(guò)程所涉及的智能算法”[5]。他認(rèn)為在相應(yīng)的大數(shù)據(jù)處理過(guò)程中,倫理問(wèn)題出現(xiàn)在3個(gè)時(shí)間點(diǎn):一是當(dāng)數(shù)據(jù)移到一組選定的變量時(shí);二是當(dāng)選定的數(shù)據(jù)移到由算法或倫理研究產(chǎn)生的結(jié)果時(shí);三是當(dāng)這些結(jié)果移到明確的行動(dòng)計(jì)劃時(shí)。當(dāng)這3個(gè)節(jié)點(diǎn)由算法控制時(shí),智能算法便具有重要倫理意蘊(yùn)。綜上所述,無(wú)論是將人工智能視為“完全的道德主體”,還是“有限的道德主體”,以上學(xué)者均認(rèn)為人工智能主動(dòng)涉足了人類(lèi)倫理生活領(lǐng)域。
持不同意見(jiàn)的學(xué)者認(rèn)為,人工智能只能被動(dòng)參與人類(lèi)社會(huì)倫理生活領(lǐng)域。學(xué)者們或直接或間接地做了有價(jià)值的相關(guān)論證。涂良川從歷史唯物主義層面分析認(rèn)為,人工智能奇點(diǎn)論主張人工智能獲得主體性,并非邏輯地證明了機(jī)器真正獲得價(jià)值的自主性,而是現(xiàn)實(shí)地證明了人類(lèi)智能的實(shí)踐性。人工智能物的特性及其立基并充分展開(kāi)的物性思維因其沒(méi)有社會(huì)歷史的存在論基礎(chǔ),只是以對(duì)比性的方式突顯了人作為實(shí)踐主體的創(chuàng)造性本質(zhì)[6]。戴益斌認(rèn)為,只有當(dāng)智能機(jī)器人主動(dòng)地面向人類(lèi),或者某人與智能機(jī)器人發(fā)生有意義的關(guān)聯(lián)時(shí),智能機(jī)器人才能獲得道德接受者的地位。這樣的智能機(jī)器人必須具備對(duì)話(huà)能力,會(huì)使用某種語(yǔ)言[7]。還有學(xué)者從現(xiàn)象學(xué)角度分析,如劉永安認(rèn)為,意識(shí)是制約道德主體是否可能的關(guān)鍵維度。目前,人工智能體能在功能等價(jià)的意義上對(duì)意識(shí)的智力性認(rèn)知層面予以模擬,但并不具備對(duì)于一個(gè)道德主體來(lái)說(shuō)至關(guān)重要的現(xiàn)象學(xué)意識(shí)。人工智能體缺乏現(xiàn)象學(xué)意識(shí)第一人稱(chēng)的定性特征[8]。學(xué)者們普遍認(rèn)為,因?yàn)槿斯ぶ悄懿豢赡軗碛腥祟?lèi)所特有的心智狀態(tài),所以人工智能無(wú)法成為真正的道德主體,而只能以道德客體身份被動(dòng)參與人類(lèi)倫理生活領(lǐng)域。
顯然,人工智能能夠引發(fā)倫理問(wèn)題已是不爭(zhēng)事實(shí),學(xué)界觀點(diǎn)分歧主要在于:人工智能究竟是以道德主體身份主動(dòng)涉足人類(lèi)倫理生活領(lǐng)域,還是以道德客體身份被動(dòng)參與人類(lèi)倫理生活領(lǐng)域。就目前學(xué)界研究現(xiàn)狀和未來(lái)任務(wù)而言,關(guān)于人工智能引起倫理風(fēng)險(xiǎn)可能性的兩方面研究,均需要繼續(xù)深化論證,應(yīng)更深層次探賾:作為主動(dòng)和被動(dòng)兩種引發(fā)人類(lèi)社會(huì)倫理風(fēng)險(xiǎn)的方式,其“意識(shí)”層面的邏輯理路有何不同?隨著人工智能技術(shù)的發(fā)展,不同“智能進(jìn)階”的弱人工智能、強(qiáng)人工智能、超人工智能的主體“意向性”“創(chuàng)造性”會(huì)提升,其參與倫理方式、程度又如何變化?分別產(chǎn)生哪些方面的倫理影響?諸如此類(lèi)研究將為進(jìn)一步探究人工智能引發(fā)的倫理風(fēng)險(xiǎn)內(nèi)容和尋求倫理風(fēng)險(xiǎn)規(guī)制之道奠定理論基礎(chǔ)。
人工智能已經(jīng)滲透到社會(huì)各個(gè)領(lǐng)域,造成的倫理影響是全方位的?,F(xiàn)對(duì)學(xué)界已經(jīng)開(kāi)展的幾個(gè)主要倫理風(fēng)險(xiǎn)進(jìn)行梳理述評(píng)。
在辯證唯物主義實(shí)踐觀中,人類(lèi)能夠主動(dòng)地認(rèn)識(shí)并通過(guò)實(shí)踐活動(dòng)改造自然界,從而使人類(lèi)自身達(dá)到自然性與社會(huì)性的和諧統(tǒng)一。人類(lèi)依托獨(dú)特智慧,躬身實(shí)踐,創(chuàng)造了人類(lèi)社會(huì)豐富燦爛的文明。傳統(tǒng)倫理秩序中,機(jī)器依附于人,人決定著機(jī)器如何開(kāi)展工作。在高度智能化的人工智能物面前,人顯得既笨拙又呆板,反而成為智能機(jī)器的“零部件”,人與機(jī)器的關(guān)系正逐步發(fā)生翻轉(zhuǎn),人的主體性已經(jīng)出現(xiàn)異化端倪。控制論之父維納在其名著《人有人的用處:控制論與社會(huì)》中認(rèn)為:“這些機(jī)器的趨勢(shì)是要在所有層面上取代人類(lèi),而非只是用機(jī)器能源和力量取代人類(lèi)的能源和力量。這種新的取代將對(duì)我們的生活產(chǎn)生深遠(yuǎn)影響。”[9]孫偉平認(rèn)為,作為人類(lèi)社會(huì)的基本技術(shù)支撐,智能科技構(gòu)成了對(duì)人類(lèi)或公開(kāi)的或隱蔽的宰制,人正在淪為高速運(yùn)轉(zhuǎn)的智能“附庸”和“奴隸”;智能機(jī)器人的快速發(fā)展模糊了人機(jī)界限,對(duì)人的本質(zhì)、人的主體地位等形成強(qiáng)烈的沖擊,使“人是什么?”“人機(jī)關(guān)系如何?”凸顯為挑戰(zhàn)哲學(xué)常識(shí)的時(shí)代難題[10]。閆坤如進(jìn)一步指出,人類(lèi)在享受智能技術(shù)帶來(lái)的便捷與自由的同時(shí),深陷被智能造物支配與控制的危機(jī)之中,人的主體性逐漸被智能機(jī)器解構(gòu)和占有,客體化危機(jī)嚴(yán)重,主體間的關(guān)系也日益疏離化、數(shù)字化和物化,人的尊嚴(yán)和自由面臨著被侵蝕的風(fēng)險(xiǎn)[11]。美國(guó)學(xué)者約翰·普利亞諾則從人工智能使用引起的勞動(dòng)機(jī)會(huì)變化入手進(jìn)行分析,認(rèn)為人工智能基本上相當(dāng)于免費(fèi)的勞動(dòng)力,這對(duì)勞動(dòng)者不利[12]。而在文學(xué)創(chuàng)作領(lǐng)域,人工智能也顯示出非凡的建構(gòu)能力。劉欣認(rèn)為,現(xiàn)代寫(xiě)作已無(wú)法以“限度”之名逃避與人工智能“作者”的競(jìng)爭(zhēng),寫(xiě)作的主體性問(wèn)題進(jìn)入反思領(lǐng)域。透過(guò)主體論詩(shī)學(xué)的“人性”神話(huà)與后人類(lèi)主義的激進(jìn)想象,人工智能寫(xiě)作在人機(jī)交互的間性主體和機(jī)器的他者維度得到重新思考[13]。還有學(xué)者關(guān)注到人的主體性會(huì)隨著弱人工智能、強(qiáng)人工智能、超人工智能的進(jìn)階,而逐步進(jìn)入更加弱化的時(shí)代。強(qiáng)人工智能或超人工智能將代表人類(lèi)“預(yù)測(cè)一切、決定一切、安排一切”,人的主體作用在下降,社會(huì)參與度在降低,勢(shì)必產(chǎn)生客體主體化、主體客體化的邏輯混淆[14]。如果說(shuō)康德的“人為自然界立法”論斷使人類(lèi)覺(jué)醒并擺脫對(duì)自然界的依賴(lài)和控制,破天荒地標(biāo)識(shí)了人的主體性地位,那么人工智能的快速發(fā)展則正在對(duì)這一論斷和現(xiàn)實(shí)帶來(lái)沖擊,對(duì)人類(lèi)主體性地位帶來(lái)挑戰(zhàn)。人工智能正在依托擬人特質(zhì),逐步增強(qiáng)替代人類(lèi)體力勞動(dòng)和腦力勞動(dòng)的能力。如何既能享受人工智能技術(shù)發(fā)展帶來(lái)的收益,又能規(guī)避主體性異化的風(fēng)險(xiǎn)?有無(wú)使人類(lèi)智能和人工智能兩者功能皆通暢發(fā)揮的平衡之道?諸如此類(lèi)研究是時(shí)代難題。
海量信息數(shù)據(jù)是人工智能發(fā)揮其智能性所不可缺少的“信息食糧”。人工智能越是智能,就越需要收集和存儲(chǔ)更多的個(gè)人數(shù)據(jù)和信息。然而,獲取和存儲(chǔ)海量信息數(shù)據(jù),就不可避免地涉及個(gè)人隱私泄露的倫理問(wèn)題。王璐認(rèn)為,一些單位為了鍛煉出更加“聰明”的智能體,有意采取合法與非法、公開(kāi)與隱蔽、知情與不知情等多種信息渠道,肆意挖掘整理人們的身份信息、家庭信息、健康信息、消費(fèi)喜好、日?;顒?dòng)軌跡等重要數(shù)據(jù)。這些數(shù)據(jù)在智能技術(shù)的強(qiáng)大驅(qū)動(dòng)下,則可以映射出個(gè)人支付能力、社交關(guān)系等高價(jià)值信息,進(jìn)而生成或還原出一個(gè)人的“生活肖像圖”[14]。在萬(wàn)物智聯(lián)的世界,人幾乎與“透明人”無(wú)異。金東寒等學(xué)者認(rèn)為,在人工智能的應(yīng)用中,云計(jì)算被配置到智能架構(gòu)中,許多企業(yè)、個(gè)人等將信息存儲(chǔ)至云端,這很容易遭到威脅和攻擊;如果將這些數(shù)據(jù)整合一起,那么便可“讀出”他人秘密,如隱蔽的身體缺陷、既往病史、犯罪前科、變性經(jīng)歷等。如果智能系統(tǒng)掌握的敏感的個(gè)人信息被泄露出去,會(huì)將人置于尷尬甚至危險(xiǎn)的境地,個(gè)人的隱私權(quán)會(huì)受到不同程度的侵害[15]。蔡立媛從人工智能在廣告方面的應(yīng)用入手進(jìn)行分析,認(rèn)為人工智能廣告的追蹤定位侵犯?jìng)€(gè)人隱私,會(huì)引起個(gè)人信息安全失控、個(gè)人私事泄露、個(gè)人財(cái)產(chǎn)失竊、心理失衡、心理焦慮甚至恐慌,而且個(gè)人行蹤泄露也危及人身自由和生命安全,影響社會(huì)秩序的穩(wěn)定。用戶(hù)的既有隱私、將有隱私、當(dāng)下隱私都可能被侵犯,都可能被無(wú)意地泄露[16]??萍紕?chuàng)新推動(dòng)社會(huì)發(fā)展,人類(lèi)雖不能由于隱私難題因噎廢食,但人工智能的發(fā)展也決不能以犧牲隱私權(quán)為代價(jià)。2019年6月17日,我國(guó)新一代人工智能治理專(zhuān)業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,要求人工智能發(fā)展應(yīng)尊重和保護(hù)個(gè)人隱私,充分保障個(gè)人的知情權(quán)和選擇權(quán)。人類(lèi)未來(lái)智慧生活中,如何兼顧“高度智能技術(shù)與高度隱私安全”,這是需要攻克的重點(diǎn)課題。
目前,關(guān)于人工智能對(duì)家庭婚戀觀念產(chǎn)生影響的相關(guān)研究,多數(shù)聚焦于智能機(jī)器人具有家庭或婚戀成員身份替代性的倫理領(lǐng)域,少數(shù)聚焦于人工智能參與相親匹配等大數(shù)據(jù)分析領(lǐng)域。總體而言,其風(fēng)險(xiǎn)大于收益。人工智能研究專(zhuān)家大衛(wèi)·利維撰寫(xiě)了一本書(shū)《與機(jī)器人的愛(ài)與性:人與機(jī)器人的關(guān)系進(jìn)化史》,他提出了一個(gè)引人注目的觀點(diǎn):到2050年左右,人與機(jī)器人將建立真正的伴侶關(guān)系。人形智能機(jī)器人的研制正在取得技術(shù)突破,更加助推了人工智能影響婚戀觀念的快速轉(zhuǎn)變。金東寒認(rèn)為,人形智能機(jī)器人越來(lái)越像人,越來(lái)越“善解人意”,也越來(lái)越“多愁善感”。人形智能機(jī)器人可能擁有完美的身材、漂亮的五官、光潔的皮膚、溫柔的性情、堅(jiān)貞的品格等,堪稱(chēng)完美的擇偶對(duì)象。人形智能機(jī)器人能長(zhǎng)情地陪伴人類(lèi),甚至為人類(lèi)懷孕、生子、養(yǎng)育子女[15]……駱安安認(rèn)為,因人工智能而興起的伴侶機(jī)器人,正在快速融入人類(lèi)的情感生活。人機(jī)之戀正成為新型戀愛(ài)關(guān)系,伴侶機(jī)器人進(jìn)入更多家庭甚至和人類(lèi)結(jié)成法律允許的婚姻關(guān)系也并非完全不可能[17]。王睿認(rèn)為,性趣機(jī)器人作為高人機(jī)交互型機(jī)器人,其設(shè)計(jì)、生產(chǎn)和廣泛研發(fā)應(yīng)用將造成廣泛的社會(huì)倫理影響。他通過(guò)問(wèn)卷調(diào)查、深度訪(fǎng)談和對(duì)網(wǎng)絡(luò)平臺(tái)的參與觀察,調(diào)查男性、女性對(duì)性趣機(jī)器人的各項(xiàng)選擇意愿。針對(duì)選擇性趣機(jī)器人作為伴侶的意愿原因和對(duì)基礎(chǔ)設(shè)定、主體地位的選擇意愿三項(xiàng)內(nèi)容,分別根據(jù)韓炳哲“愛(ài)欲之死”思想、情感社會(huì)學(xué)中“情感異化”理論和女性主義的社會(huì)性別觀點(diǎn),對(duì)選擇意愿的共性和差異進(jìn)行剖析,結(jié)果顯示人們對(duì)性趣機(jī)器人的喜好超乎想象[18]。美國(guó)普利策獎(jiǎng)得主戴夫·巴里曾說(shuō),他并沒(méi)有打算再婚,但如果非要結(jié)婚,他寧可娶個(gè)機(jī)器人。巴里的話(huà),顯然帶給我們的不全是幽默。人類(lèi)不得不面臨一個(gè)重要倫理風(fēng)險(xiǎn):人工智能的廣泛應(yīng)用,將顛覆傳統(tǒng)的婚戀關(guān)系、家庭模式,并使家庭結(jié)構(gòu)和倫理架構(gòu)陷入危機(jī)。
2018年2月,麻省理工學(xué)院的 Joy Buolamwini 發(fā)現(xiàn),IBM、微軟和北京曠視科技有限公司的三家公司最新研發(fā)的性別識(shí)別人工智能,可以在99%的情況下從照片中準(zhǔn)確識(shí)別一個(gè)人的性別,但其識(shí)別人種范圍僅限于白人。對(duì)于女性黑人來(lái)說(shuō),其準(zhǔn)確率會(huì)大幅降至35%。王天恩認(rèn)為,人工智能算法導(dǎo)致的偏見(jiàn)最初是從人類(lèi)習(xí)得的。人工智能可以從人類(lèi)語(yǔ)言信息中習(xí)得偏見(jiàn),智能算法設(shè)計(jì)中的前提性預(yù)設(shè),與智能算法的人類(lèi)理解密切相關(guān)[5]。卜素也認(rèn)為,人工智能技術(shù)在其實(shí)際應(yīng)用過(guò)程中經(jīng)常出現(xiàn)偏差性結(jié)論或反饋,其中最為典型的即為“算法歧視”問(wèn)題?!八惴ㄆ缫暋钡某梢蚋瓷显谟谌祟?lèi)固有的社會(huì)偏見(jiàn),經(jīng)由人工智能背后的算法技術(shù)轉(zhuǎn)譯,具有難以預(yù)測(cè)、難以監(jiān)管以及責(zé)任主體多元化的特點(diǎn);內(nèi)部成因與外部成因所導(dǎo)致的算法歧視又具有各自的獨(dú)特屬性[19]。仇筠茜以新聞生產(chǎn)為例,他認(rèn)為技術(shù)的“黑箱”切斷了算法結(jié)論與事實(shí)之間的關(guān)聯(lián)。算法所擅長(zhǎng)的大數(shù)據(jù)整理、挖掘、分析的處理能力,是人類(lèi)能力所不及的。特別是對(duì)宏觀趨勢(shì)的預(yù)測(cè)及其自我學(xué)習(xí)的邏輯以及決策的過(guò)程,即使是人工智能程序設(shè)計(jì)者也不能完全理解。這種方式將新聞生產(chǎn)過(guò)程推進(jìn)更深的“黑箱”,產(chǎn)品即是“勿需推敲”的成品。這導(dǎo)致了對(duì)事實(shí)的核查、對(duì)真相的追尋將變得迷霧重重[20]。張恩典從算法特征方面分析認(rèn)為,受算法決策自動(dòng)性和模糊性等因素影響,大數(shù)據(jù)算法歧視呈現(xiàn)出高度的隱蔽性、結(jié)構(gòu)性、單體性與系統(tǒng)連鎖性特征,增加了歧視識(shí)別判斷和規(guī)制的難度,并給傳統(tǒng)以差別待遇為標(biāo)準(zhǔn)的反分類(lèi)歧視理論和以差別性影響為標(biāo)準(zhǔn)的反從屬歧視理論帶來(lái)適用困境[21]。算法是人工智能技術(shù)的核心,在人工智能技術(shù)應(yīng)用領(lǐng)域,算法是導(dǎo)致偏見(jiàn)的深層次根源。人工智能時(shí)代,算法偏見(jiàn)早已深入了各個(gè)領(lǐng)域。
伴隨著人工智能在軍事化領(lǐng)域的廣泛應(yīng)用,人類(lèi)對(duì)未來(lái)安全問(wèn)題的憂(yōu)慮正日漸加深。人工智能時(shí)代,是否應(yīng)該限制或禁止使用致命性自主武器系統(tǒng)(1ethalau-tonomous weapons systems,簡(jiǎn)稱(chēng)LAWS)的話(huà)題備受熱議。2015年7月,一封要求停止研發(fā)致命性自主武器系統(tǒng)的公開(kāi)信獲得了多達(dá)3萬(wàn)人的簽名,其中包括斯蒂芬·霍金、埃隆·馬斯克以及眾多人工智能領(lǐng)域的專(zhuān)家學(xué)者。專(zhuān)家學(xué)者們認(rèn)為自主武器系統(tǒng)具有極大的風(fēng)險(xiǎn),一旦被研發(fā)成功并應(yīng)用,就有可能被恐怖組織掌控,對(duì)無(wú)辜平民將產(chǎn)生巨大的生命安全威脅[22]。軍事斗爭(zhēng)自古以來(lái)是人類(lèi)社會(huì)的一個(gè)沉重命題,由人工智能主宰軍事決策,意味著這一命題將變得簡(jiǎn)單化、程序化。鑄戈認(rèn)為,比這更嚴(yán)重的是,如果賦予人工智能武器系統(tǒng)“自主開(kāi)火權(quán)”,人與武器的關(guān)系將發(fā)生根本質(zhì)變,“機(jī)器代理人戰(zhàn)爭(zhēng)”將會(huì)成為人類(lèi)社會(huì)不可承受之重。而在智能化軍事體系中,政治因素和理性因素已不存在,“戰(zhàn)爭(zhēng)是戰(zhàn)爭(zhēng)的繼續(xù)”[23]。從這個(gè)意義上說(shuō),武器系統(tǒng)的智能化程度愈高,后果則愈嚴(yán)重。人工智能時(shí)代,“極速戰(zhàn)”是未來(lái)的戰(zhàn)爭(zhēng)走向。戰(zhàn)爭(zhēng)出發(fā)時(shí)間將縮短到幾乎是即時(shí)反應(yīng)。謝丹從軍事責(zé)任認(rèn)定視角分析認(rèn)為,智能武器的特殊性及其推廣應(yīng)用,給現(xiàn)行軍事法特別是武裝沖突法帶來(lái)諸多嚴(yán)峻的挑戰(zhàn)。在軍事沖突中,人類(lèi)幾乎完全不能參與“觀察—定向—決策—行動(dòng)”(OODA)的循環(huán)過(guò)程[24]。鑒于此,值得深刻思考的是:未來(lái)自主武器能否精確識(shí)別平民百姓和戰(zhàn)斗人員?能否恪守國(guó)際人道主義規(guī)范?一旦自主武器脫離控制對(duì)人類(lèi)造成大規(guī)模殺傷,誰(shuí)將為自主武器的決策和行為承擔(dān)責(zé)任和后果?是追究軍事指揮官的責(zé)任,還是人工智能的責(zé)任?責(zé)任認(rèn)定將難以判定。生死攸關(guān)的致命抉擇“讓渡”于機(jī)器定奪,是否意味著未來(lái)人類(lèi)社會(huì)將終結(jié)?大部分學(xué)者依據(jù)人工智能發(fā)展技術(shù),從長(zhǎng)遠(yuǎn)審視未來(lái)戰(zhàn)爭(zhēng),認(rèn)為人工智能在軍事化領(lǐng)域的應(yīng)用,對(duì)未來(lái)人類(lèi)安全終將造成威脅。如果人工智能超脫了人類(lèi)智能的控制,勢(shì)必將給人類(lèi)帶來(lái)滅頂之災(zāi)。
關(guān)于人工智能倫理風(fēng)險(xiǎn)防范規(guī)制問(wèn)題,學(xué)界主要從策略原則、算法設(shè)計(jì)、責(zé)任追究和制度管理等方面展開(kāi)討論。
阿西莫夫在他的機(jī)器人科幻作品中定義了機(jī)器人的三大定律,這三大定律從宏觀層面對(duì)人工智能倫理風(fēng)險(xiǎn)的防范規(guī)制進(jìn)行了預(yù)想。第一,機(jī)器人不得傷害人類(lèi)個(gè)體,或者目睹人類(lèi)個(gè)體將遭受危險(xiǎn)而袖手旁觀。第二,機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外。第三,機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。三大定律對(duì)研究如何規(guī)制人工智能倫理風(fēng)險(xiǎn)具有借鑒意義[25]。耶魯大學(xué)機(jī)器人學(xué)專(zhuān)家Jonathan Hartman建議把三大定律作為人工智能的適應(yīng)性標(biāo)準(zhǔn)。Jonathan Hartman認(rèn)為不能像自上而下的應(yīng)用定律那樣限制人工智能功能的發(fā)揮,定律應(yīng)該是一個(gè)寬松的指導(dǎo)原則,其后代將會(huì)根據(jù)他們的能力靠近這些目標(biāo)。Jonathan Hartman認(rèn)為三大定律的優(yōu)勢(shì)是:機(jī)器人會(huì)與定律形成一個(gè)更動(dòng)態(tài)的關(guān)系,把定律當(dāng)作是靈活的指導(dǎo)原則[25]。王璐認(rèn)為,人工智能的設(shè)計(jì)應(yīng)該重視科技理性與價(jià)值理性,必須堅(jiān)持科技服務(wù)人類(lèi)的根本價(jià)值取向,突出以人為本,強(qiáng)調(diào)公平正義,遵守倫理發(fā)展[14]。
因算法是人工智能技術(shù)的核心,有學(xué)者從人工智能思維內(nèi)核——算法層面,思考如何規(guī)避人工智能引發(fā)的倫理風(fēng)險(xiǎn)。閆坤如主張,倫理學(xué)家與技術(shù)哲學(xué)家不能袖手旁觀,人工智能設(shè)計(jì)應(yīng)該遵循“合乎倫理設(shè)計(jì)”的規(guī)則。人工智能設(shè)計(jì)主體必須在設(shè)計(jì)之初把人類(lèi)道德與規(guī)范嵌入到智能機(jī)器算法中,從而使得人工智能系統(tǒng)的決策、行為具有可靠性與安全性[26]。丁曉東認(rèn)為,要以實(shí)現(xiàn)負(fù)責(zé)任的算法為目標(biāo),采取場(chǎng)景化的規(guī)制路徑,根據(jù)不同場(chǎng)景類(lèi)型對(duì)算法采取不同的規(guī)制形式。在算法場(chǎng)景化規(guī)制原則的指引下,可以構(gòu)建算法公開(kāi)、數(shù)據(jù)賦權(quán)與反算法歧視等算法規(guī)制的具體制度[27]。為了避免涉及性別、族裔和性向等“敏感屬性”與中性特征無(wú)意關(guān)聯(lián)而觸碰紅線(xiàn),羅梅和魯格吉里提出了4個(gè)策略:控制訓(xùn)練數(shù)據(jù)集的失真;通過(guò)將其與反歧視標(biāo)準(zhǔn)相結(jié)合,修改分類(lèi)學(xué)習(xí)算法;提取分類(lèi)模型后,對(duì)模型進(jìn)行后處理;在應(yīng)用時(shí),對(duì)預(yù)測(cè)進(jìn)行更正,在受保護(hù)和不受保護(hù)的群體之間保持決策的相稱(chēng)性[28]。
學(xué)者們認(rèn)為加強(qiáng)追責(zé)問(wèn)責(zé)也是規(guī)制人工智能倫理風(fēng)險(xiǎn)的有效方法。孫保學(xué)探究了算法層面追責(zé)的策略,他認(rèn)為,由于算法中間環(huán)節(jié)較多,確定某一具體操作失誤究竟是編程錯(cuò)誤、系統(tǒng)故障或還是偏見(jiàn)干擾往往異常困難,這意味著準(zhǔn)確定位導(dǎo)致行為后果的直接責(zé)任主體更難[29]。顯然,從算法層面追責(zé)問(wèn)責(zé)是有難度的,而伯朗格(Béranger)則提出謹(jǐn)慎創(chuàng)新思路,他認(rèn)為可以在創(chuàng)新和謹(jǐn)慎之間找到平衡,這將導(dǎo)致一個(gè)基于賦予行動(dòng)者責(zé)任的雙贏體系。如果設(shè)計(jì)者沒(méi)有采取必要的預(yù)防措施來(lái)避免這種風(fēng)險(xiǎn),那么設(shè)計(jì)者應(yīng)該對(duì)重大損害后果承擔(dān)責(zé)任。誠(chéng)然,人工智能使用者也應(yīng)充分考慮自己在使用人工智能過(guò)程和操作中產(chǎn)生的倫理影響[30]。中國(guó)學(xué)者戴益斌的觀點(diǎn)與伯朗格相似,戴益斌認(rèn)為新工具主義主張將智能機(jī)器視為人類(lèi)的奴隸,機(jī)器倫理的支持者傾向于賦予智能機(jī)器以道德主體地位,這兩種方案在處理人工智能的倫理責(zé)任問(wèn)題時(shí)都面臨困境。他認(rèn)為應(yīng)將道德主體擴(kuò)展至他者以及非人類(lèi)的實(shí)體。智能機(jī)器導(dǎo)致的責(zé)任問(wèn)題可以指派給所有與智能機(jī)器相關(guān)的責(zé)任方[7]。
公共政策和管理治理機(jī)制可以為人工智能倫理規(guī)制提供基礎(chǔ)。田廣蘭認(rèn)為,為了抵御人工智能的倫理風(fēng)險(xiǎn),“蓄水池式”的公共決策機(jī)制有助于形成融貫性的行動(dòng)策略,以將人工智能的發(fā)展和應(yīng)用盡可能置放在人的意圖之下[31]。戴益斌從道德與法律兩方面分析規(guī)制策略,認(rèn)為應(yīng)堅(jiān)持“以人為本”“以德為先”“以法為界”的理性治理規(guī)則[7]?;谌斯ぶ悄芫哂蟹芍黧w地位的前提認(rèn)識(shí),黃甫全探討人工智能立法,在內(nèi)容上聚焦于人工智能主體的規(guī)范,主要包括交通法、隱私法、醫(yī)療法和著作權(quán)法等領(lǐng)域;在特征上突出表現(xiàn)為,以保障人類(lèi)利益為本,以原有法律體系為主,以部分類(lèi)型與領(lǐng)域立法為先[32]。針對(duì)人工智能在新聞傳播領(lǐng)域引發(fā)的倫理風(fēng)險(xiǎn),楊保軍提出4個(gè)規(guī)制原則:第一,透明原則;第二,風(fēng)險(xiǎn)可控原則;第三,知情同意原則;第四,核查與公正原則[33]。
現(xiàn)有的人工智能時(shí)代倫理風(fēng)險(xiǎn)研究成果為進(jìn)一步深化、拓展和完善研究奠定了基礎(chǔ)。同時(shí),通過(guò)梳理也發(fā)現(xiàn),當(dāng)前的研究正處在一個(gè)需要繼續(xù)深化的階段,這預(yù)示著人工智能倫理風(fēng)險(xiǎn)研究還有更廣闊的空間。
學(xué)界對(duì)人工智能倫理風(fēng)險(xiǎn)的研究雖然不乏真知灼見(jiàn),但總體而言仍存有不足,擇其要者,茲述如下。
一是研究布局尚欠合理,研究有待深化。一方面,研究布局不夠合理。人工智能倫理研究包括人工智能道德哲學(xué)、人工智能道德算法、人工智能設(shè)計(jì)倫理和人工智能應(yīng)用倫理等4個(gè)領(lǐng)域。通過(guò)對(duì)現(xiàn)有研究成果梳理可知,現(xiàn)有研究成果多集中于人工智能道德算法、人工智能設(shè)計(jì)倫理和人工智能應(yīng)用,而人工智能道德哲學(xué)領(lǐng)域研究成果相對(duì)薄弱。人工智能道德哲學(xué)研究關(guān)乎人工智能的善與惡、對(duì)與錯(cuò)、權(quán)利與義務(wù)等思辨和論證。推動(dòng)人工智能道德哲學(xué)研究,有利于我們審視人工智能的社會(huì)價(jià)值和倫理風(fēng)險(xiǎn)影響,以哲思智慧引領(lǐng)人工智能其他領(lǐng)域研究。另一方面,研究還有待深入。人工智能設(shè)計(jì)倫理關(guān)乎人工智能如何與人類(lèi)生活融合的問(wèn)題。鑒于人工智能本身固有的技術(shù)不確定性,研發(fā)設(shè)計(jì)環(huán)節(jié)究竟賦予其多少“智能”,才能確保不會(huì)引發(fā)倫理風(fēng)險(xiǎn)?如何針對(duì)人工智能的決策“僭越”加以控制和防范?這些都是值得繼續(xù)深入思考和研究的問(wèn)題。
二是研究立意略顯消極悲觀。因?yàn)槭艿饺斯ぶ悄芷纥c(diǎn)論影響,所以學(xué)界有部分學(xué)者對(duì)人工智能倫理風(fēng)險(xiǎn)研究持悲觀傾向。其實(shí)沒(méi)有必要持悲觀態(tài)度,應(yīng)理性看待人工智能與人類(lèi)智能的“較量”。因?yàn)槿斯ぶ悄苁请S人類(lèi)意識(shí)創(chuàng)造而產(chǎn)生的,人工智能每前進(jìn)一步都是建立在人類(lèi)智能創(chuàng)新的基礎(chǔ)上的。人的“意識(shí)代替他的本能,或者說(shuō)他的本能是意識(shí)到了的本能”[34]。無(wú)論人工智能技術(shù)發(fā)展如何迅速,作為“意識(shí)產(chǎn)物”的人工智能,不可能繞開(kāi)人類(lèi)意識(shí),實(shí)現(xiàn)無(wú)“意識(shí)”內(nèi)核驅(qū)動(dòng)境況下的智能跨越?,F(xiàn)今,人工智能引發(fā)的倫理風(fēng)險(xiǎn)不至于即刻給予人類(lèi)“致命一擊”,人類(lèi)仍然掌握著是否繼續(xù)研發(fā)和應(yīng)用人工智能各項(xiàng)技術(shù)的抉擇權(quán)。人類(lèi)作為唯一能夠以智力引領(lǐng)人工智能的物種,完全可以通過(guò)自身智慧解決人工智能倫理風(fēng)險(xiǎn)問(wèn)題,從而實(shí)現(xiàn)人工智能工具理性和價(jià)值理性的有機(jī)統(tǒng)一。因此,研究應(yīng)始終保持理性自持,做到客觀不悲觀、預(yù)想不幻想。
三是研究視角缺少整體性。關(guān)于人工智能倫理風(fēng)險(xiǎn)規(guī)制方法的研究,多數(shù)缺少整體性視角。部分學(xué)者提出的人工智能倫理風(fēng)險(xiǎn)的規(guī)制方法和措施較“碎片化”。部分研究出現(xiàn)“頭痛醫(yī)頭,腳痛醫(yī)腳”的現(xiàn)象。例如,面對(duì)人工智能算法導(dǎo)致算法歧視的現(xiàn)象,部分研究者往往忽略心智維度,將算法歧視歸罪于人工智能算法技術(shù)層面,以工具理性視角取代價(jià)值理性視角,這將阻礙人工智能技術(shù)發(fā)展,不利于科技發(fā)展和社會(huì)進(jìn)步。人工智能倫理風(fēng)險(xiǎn)研究與其他技術(shù)倫理風(fēng)險(xiǎn)研究不同,應(yīng)當(dāng)圍繞“機(jī)芯”和“人心”整體性建構(gòu)而展開(kāi)研究,未來(lái)人工智能倫理研究應(yīng)更多地賦予人工智能“善”的意蘊(yùn)。
鑒于上述人工智能時(shí)代倫理風(fēng)險(xiǎn)的總體研究存有不足,現(xiàn)對(duì)未來(lái)的研究提出幾點(diǎn)粗淺看法,僅供后續(xù)研究參考。
一是綜合多學(xué)科知識(shí)開(kāi)展研究。影響人工智能倫理風(fēng)險(xiǎn)研究的因素很復(fù)雜:一方面,人工智能的倫理問(wèn)題研究與傳統(tǒng)的倫理研究大有不同,其研究視域發(fā)生了較大的跨越,已經(jīng)超出了人類(lèi)主義的倫理學(xué)范圍。人工智能倫理風(fēng)險(xiǎn)研究討論的不再是人與人之間的關(guān)系問(wèn)題,也不是人類(lèi)與自然界的既定事實(shí)之間的關(guān)系問(wèn)題,而是人類(lèi)與自己所創(chuàng)造的智能產(chǎn)品之間的關(guān)系問(wèn)題。另一方面,人工智能倫理風(fēng)險(xiǎn)的研究環(huán)境也在快速變化。例如人類(lèi)對(duì)人工智能的接納程度正在發(fā)生變化。2017年10月26日,沙特阿拉伯已經(jīng)給予了美國(guó)漢森機(jī)器人公司生產(chǎn)的女性機(jī)器人索菲亞公民身份。因未來(lái)人工智能倫理風(fēng)險(xiǎn)研究所需知識(shí)將橫跨多學(xué)科領(lǐng)域,所以研究過(guò)程中應(yīng)與時(shí)俱進(jìn)地綜合運(yùn)用多學(xué)科知識(shí)。例如,可結(jié)合科學(xué)技術(shù)哲學(xué)、人工智能哲學(xué)、倫理學(xué)、社會(huì)學(xué)、工程學(xué)、法學(xué)等學(xué)科知識(shí),綜合審視人工智能倫理風(fēng)險(xiǎn),切實(shí)謀劃有效的風(fēng)險(xiǎn)防范策略。
二是重視人工智能倫理風(fēng)險(xiǎn)評(píng)估和管理研究。由于人工智能技術(shù)發(fā)展存在諸多不確定性,亟須加強(qiáng)人工智能潛在倫理風(fēng)險(xiǎn)的評(píng)估研究,推動(dòng)人工智能安全可控健康發(fā)展。人工智能倫理風(fēng)險(xiǎn)評(píng)估研究,既需要頂層的宏觀哲思方面的研究,以保持人工智能發(fā)展和倫理秩序穩(wěn)定之間的平衡,同時(shí)也需要基礎(chǔ)的微觀評(píng)估指標(biāo)的研究,以保障風(fēng)險(xiǎn)評(píng)估的有效操作性。應(yīng)著力建構(gòu)人工智能風(fēng)險(xiǎn)評(píng)估體系,實(shí)現(xiàn)評(píng)價(jià)指標(biāo)具體化、可操作化,為人工智能研究及應(yīng)用提供倫理風(fēng)險(xiǎn)評(píng)估反饋。要加強(qiáng)人工智能倫理風(fēng)險(xiǎn)管理研究,關(guān)注人工智能倫理風(fēng)險(xiǎn)管理中風(fēng)險(xiǎn)識(shí)別、數(shù)值評(píng)估、責(zé)任處理、預(yù)期監(jiān)控及匯報(bào)傳達(dá)等各環(huán)節(jié),探討各有關(guān)主體的風(fēng)險(xiǎn)管控責(zé)任。要堅(jiān)持評(píng)估的預(yù)防性原則,將倫理風(fēng)險(xiǎn)評(píng)估前置于人工智能開(kāi)發(fā)應(yīng)用階段。重視人工智能倫理風(fēng)險(xiǎn)評(píng)估研究,將有利于降低人工智能潛在倫理風(fēng)險(xiǎn),為更好決策人工智能未來(lái)發(fā)展奠定基礎(chǔ)。
三是增強(qiáng)人工智能與人類(lèi)智能協(xié)同發(fā)展研究。馬克思認(rèn)為“那些發(fā)展著自己的物質(zhì)生產(chǎn)和物質(zhì)交往的人,在改變自己的這個(gè)現(xiàn)實(shí)的同時(shí)也改變著自己的思維和思維的產(chǎn)物”[34]。因?yàn)槿说乃季S意識(shí)與生產(chǎn)生活是協(xié)同發(fā)展的,所以我們對(duì)人工智能引發(fā)倫理風(fēng)險(xiǎn)進(jìn)行歸因時(shí),決不能局限于人工智能技術(shù)本身,還應(yīng)同時(shí)反觀人工智能創(chuàng)造者們的設(shè)計(jì)水準(zhǔn)。人工智能和人類(lèi)智能之間決不是“你死我活”的完全沖突關(guān)系,我們應(yīng)打破“非此即彼”的形而上學(xué)的思維模式的禁錮。未來(lái)研究應(yīng)從人工智能倫理風(fēng)險(xiǎn)給人類(lèi)生存狀態(tài)、價(jià)值理念和人倫觀念帶來(lái)的各種沖擊中,逆向反思人類(lèi)智能發(fā)展的現(xiàn)實(shí)困境,謀求人工智能與人類(lèi)智能協(xié)同共生之道。面向未來(lái),既要推動(dòng)人工智能不斷完善,實(shí)現(xiàn)技術(shù)層面?zhèn)惱盹L(fēng)險(xiǎn)規(guī)避,又要以此為契機(jī)促使人類(lèi)智能逐步提升,實(shí)現(xiàn)價(jià)值層面?zhèn)惱韽?fù)歸。