□潘斌
人工智能是科技進(jìn)步的必然產(chǎn)物,雖然我們還不能說(shuō)已經(jīng)進(jìn)入了人工智能時(shí)代,但它的強(qiáng)勢(shì)興起正在深刻地影響與塑造著人類(lèi)社會(huì)的方方面面,甚至在重新刻畫(huà)與改寫(xiě)人類(lèi)文明進(jìn)程。當(dāng)人工智能在給現(xiàn)代社會(huì)定向與賦能之際,也在不斷制造風(fēng)險(xiǎn)與危機(jī),其中人工智能是否需要遵守道德準(zhǔn)則以及如何為其裝載何種道德準(zhǔn)則就構(gòu)成了當(dāng)前人工智能道德審度的核心問(wèn)題。
人工智能(artificial intelligence)簡(jiǎn)稱(chēng)AI,是研究、開(kāi)發(fā)用于模擬、延展與增強(qiáng)人類(lèi)智能的理論,它既是對(duì)以人的智能為對(duì)象的理論考察與方法研究,也指將這一理論認(rèn)知轉(zhuǎn)變?yōu)閷?shí)際應(yīng)用的科學(xué)實(shí)踐。關(guān)于人工智能的定義非常之多,維基百科形成了一個(gè)相對(duì)普遍且被認(rèn)可的定義,即人工智能( AI)是展示智能的機(jī)器。在計(jì)算機(jī)科學(xué)領(lǐng)域,一臺(tái)理想的“智能”機(jī)器應(yīng)該是一個(gè)隨機(jī)應(yīng)變且以最大限度實(shí)現(xiàn)其目標(biāo)為目的的理性中介。
傳統(tǒng)的人工智能研究認(rèn)為,AI的發(fā)展通常可描述為兩個(gè)階段,第一個(gè)階段是“弱人工智能”階段,即機(jī)器能像人一樣理性地思考與行動(dòng)。初級(jí)AI設(shè)計(jì)的目的是將其作為人類(lèi)身體的人工延展與人類(lèi)智能的技術(shù)深化,這一基于工具主義理念的智能體建構(gòu)路徑無(wú)疑是哲學(xué)理性主義、科技萬(wàn)能主義與經(jīng)濟(jì)實(shí)用主義的具體運(yùn)用與現(xiàn)實(shí)展開(kāi)。從掃地機(jī)器人、機(jī)械生產(chǎn)手臂到深海潛水機(jī)器人、極地探險(xiǎn)機(jī)器人等,作為弱人工智能的終端產(chǎn)物執(zhí)行著人類(lèi)設(shè)計(jì)的程序與發(fā)布的指令或代碼。但弱人工智能滿(mǎn)足不了人類(lèi)智能延展的需求,亦不符合技術(shù)迭代的增長(zhǎng)趨勢(shì),從“弱人工智能”向“強(qiáng)人工智能”的轉(zhuǎn)向是人工智能發(fā)展的必然路徑。“強(qiáng)人工智能”主張機(jī)器能和人一樣理性地思考與行動(dòng),能和人類(lèi)一樣進(jìn)行思維推理與解決問(wèn)題,它克服了對(duì)人類(lèi)智能的模擬與追趕,變得與人類(lèi)智能一樣,能完成以往人類(lèi)所不愿或不能完成的任務(wù)。在技術(shù)層面,強(qiáng)人工智能已不是通過(guò)對(duì)弱人工智能的簡(jiǎn)單疊加與規(guī)模擴(kuò)充而實(shí)現(xiàn)的功能強(qiáng)化,它更是從“擬人化”向“類(lèi)人化”的升級(jí),也即是說(shuō)使機(jī)器獲得與人類(lèi)同等心智水平的思維方式與行動(dòng)能力。目前強(qiáng)人工智能產(chǎn)品并未出現(xiàn),即便是戰(zhàn)勝了圍棋大師的機(jī)器人阿爾法狗(AlphaGo)也屬于弱人工智能范疇。
然而,自人工智能產(chǎn)生以來(lái)尤其是AlphaGo在人機(jī)對(duì)弈中的勝利,導(dǎo)致人類(lèi)對(duì)人工智能的未來(lái)走向與風(fēng)險(xiǎn)效應(yīng)極度憂(yōu)慮,一方面人工智能可能是人類(lèi)文明進(jìn)程中的又一次“哥白尼革命”,它以前所未有的科技變革產(chǎn)生了極為先進(jìn)的物質(zhì)產(chǎn)品與技術(shù)進(jìn)步,但另一方面人工智能又具有“雙刃劍”效應(yīng),科技的自反性力量使其成為人類(lèi)進(jìn)步的重大隱患甚至災(zāi)難,正如著名風(fēng)險(xiǎn)社會(huì)學(xué)家烏爾里希·貝克所言:“生活在現(xiàn)代社會(huì)就是生活在現(xiàn)代文明的火山口,現(xiàn)代科技宛如達(dá)摩克利斯之劍高懸于人們頭頂而面臨著隨時(shí)墜落的風(fēng)險(xiǎn)?!盵1]我們對(duì)人工智能的憂(yōu)慮不在于其心智水平是否和人類(lèi)一樣發(fā)達(dá),而是擔(dān)憂(yōu)它遲早會(huì)超越人類(lèi)智能并可能替代人類(lèi)智能,人類(lèi)這一物種將淪為機(jī)器的玩物或奴仆甚至被其消滅。庫(kù)茲韋爾在《奇點(diǎn)臨近》中就大聲疾呼,人類(lèi)終將進(jìn)入一個(gè)獨(dú)特的“奇點(diǎn)時(shí)刻”,當(dāng)人工智能跨越了這一臨界點(diǎn)之后將以成百上千倍的速度與效能超越人類(lèi)智能,這便是超人工智能(super intelligence)的來(lái)臨。它突破了傳統(tǒng)的弱人工智能與強(qiáng)人工智能二分范式,具有人類(lèi)思維的抽象性、復(fù)雜性與進(jìn)化性,但它又是在速度與能力方面遠(yuǎn)勝人類(lèi)心智水平的超級(jí)思維。強(qiáng)人工智能或超人工智能是否會(huì)到來(lái)這已是當(dāng)代人類(lèi)所不能回答的未來(lái)問(wèn)題,人工智能概念本身即是從人類(lèi)中心主義立場(chǎng)出發(fā)對(duì)機(jī)器的擬人化建構(gòu),而超級(jí)智能則是從“擬人化”向“類(lèi)人化”進(jìn)而轉(zhuǎn)向“超人化”的可能路徑。
現(xiàn)階段人工智能已成為社會(huì)熱點(diǎn)與時(shí)代主題,甚至在一定意義上說(shuō)人工智能正在創(chuàng)造歷史或改寫(xiě)未來(lái)。我們深入到這一熱點(diǎn)議題與流行話(huà)語(yǔ)的背后,不難發(fā)現(xiàn),當(dāng)下對(duì)人工智能所形成的多元立場(chǎng)本質(zhì)上是對(duì)人工智能問(wèn)題的闡釋視角與理解方式的差異所致。通常認(rèn)為存在著兩種理解人工智能的立場(chǎng):第一種,從實(shí)在論立場(chǎng)上闡釋人工智能,即人工智能就是客觀(guān)實(shí)在的感性現(xiàn)實(shí),它不僅存在于物理世界與感性活動(dòng)這類(lèi)顯而易見(jiàn)的客觀(guān)存在物之上,而且包括集成系統(tǒng)、智能程序、高級(jí)思維與人工情感等都是人工智能的存在形態(tài)。正如懷特在《分析的時(shí)代》中的分析,實(shí)在具有兩種形式:“一種是常識(shí)的形式,即諸如太陽(yáng)和星星這樣一切外在的物理對(duì)象不依賴(lài)于心靈而存在;另一種是柏拉圖式的存在論,即認(rèn)為存在著既不依賴(lài)于個(gè)人的心靈,又不同于物理對(duì)象的絕對(duì)理念或共相?!盵2]當(dāng)我們?cè)趯?shí)在論立場(chǎng)上談?wù)撊斯ぶ悄苤畷r(shí),它有三層意涵:(1)人工智能不是我們可以喜歡或拒絕的選項(xiàng),它的存在與來(lái)臨是現(xiàn)代社會(huì)必然的歷史境遇;(2)人工智能雖然延展與增強(qiáng)了人類(lèi)智能,但不是對(duì)人類(lèi)智能的簡(jiǎn)單疊加或人工延伸,它有著自我獨(dú)特的本質(zhì)屬性與結(jié)構(gòu)功能,甚至人類(lèi)智能可能無(wú)法理解或控制人工智能;(3)人工智能是自啟蒙以來(lái)科技理性發(fā)展的必然產(chǎn)物,其能動(dòng)性與自反性并存的二重特質(zhì)使其“雙刃劍”效應(yīng)彰顯無(wú)遺。
如果僅從實(shí)在論立場(chǎng)研究人工智能,那它尚不足以成為理論熱點(diǎn)與社會(huì)焦點(diǎn),這需要引入建構(gòu)論立場(chǎng)來(lái)闡釋人工智能及其風(fēng)險(xiǎn)效應(yīng)。建構(gòu)論作為一種致思取向,堅(jiān)持外部實(shí)體是主體能動(dòng)創(chuàng)造的結(jié)果,主體及其相關(guān)的理論認(rèn)知和社會(huì)實(shí)踐都是客觀(guān)實(shí)體的基礎(chǔ)。社會(huì)建構(gòu)論“雖有不同形式,但一個(gè)共性的觀(guān)點(diǎn)是,某些領(lǐng)域的知識(shí)是我們的社會(huì)實(shí)踐和社會(huì)制度的產(chǎn)物,或者相關(guān)的社會(huì)群體互動(dòng)和協(xié)商的結(jié)果。溫和的社會(huì)建構(gòu)主義觀(guān)點(diǎn)堅(jiān)持社會(huì)要素形成了世界的解釋?zhuān)患みM(jìn)的社會(huì)建構(gòu)主義則認(rèn)為,世界或它的某些重要部分,在某種程度上是理論、實(shí)踐和制度的建構(gòu)”[3]。人工智能被建構(gòu)成兩種截然不同的理論效應(yīng),一種是激進(jìn)的技術(shù)萬(wàn)能主義立場(chǎng),認(rèn)為人工智能的來(lái)臨尤其是強(qiáng)人工智能的來(lái)臨可以彌補(bǔ)現(xiàn)階段人類(lèi)智能所不及或所不能的諸種缺陷;另外一種是悲觀(guān)的人文主義衰亡論,即人工智能的強(qiáng)勢(shì)崛起將消滅人文主義,未來(lái)世界為智能機(jī)器所統(tǒng)治與支配,人類(lèi)淪為智能機(jī)器的“寵物”甚或被消亡。建構(gòu)論立場(chǎng)闡釋人工智能既不是要虛化或取消人工智能的客觀(guān)實(shí)在性,也不是要有意渲染或過(guò)度闡釋人工智能的風(fēng)險(xiǎn)性,而是基于人類(lèi)智能的深度創(chuàng)新與人類(lèi)持續(xù)發(fā)展而進(jìn)行的辯證考量,目的是從多維視角呈現(xiàn)人工智能研究的多元形態(tài)。
人工智能的出現(xiàn)是不可逃避的生存際遇與未來(lái)命運(yùn),我們究竟應(yīng)該如何看待人工智能體?這一問(wèn)題的實(shí)質(zhì)正是著名心靈哲學(xué)家約翰·塞爾(John Searle)為其框定的機(jī)器與心靈關(guān)系之辯的三個(gè)連續(xù)之問(wèn),即:機(jī)器能否具有人類(lèi)思維?如果機(jī)器有人類(lèi)思維,那么我們?nèi)绾蜗驒C(jī)器裝載或置入人類(lèi)思維?如果機(jī)器已經(jīng)被裝載了人類(lèi)思維,又如何證明機(jī)器具有人類(lèi)思維的能力?塞爾批評(píng)了著名的“圖靈測(cè)試”,該實(shí)驗(yàn)解決的核心問(wèn)題是:機(jī)器能否具有類(lèi)似人類(lèi)的思維?圖靈設(shè)置了一個(gè)“詢(xún)問(wèn)者-回答者”模式,詢(xún)問(wèn)者居于密封環(huán)境之中而無(wú)法知曉外界的回答者究竟是機(jī)器還是人。詢(xún)問(wèn)者按常規(guī)模式提問(wèn),而回答者給予的答案使問(wèn)詢(xún)者認(rèn)為這是機(jī)器在作答。一旦改變提問(wèn)程序與方式,則詢(xún)問(wèn)者不能準(zhǔn)確斷定回答者是機(jī)器還是人。如果機(jī)器的回答中有百分之三十的答復(fù)成功地欺騙了詢(xún)問(wèn)者而使其認(rèn)為回答者是人,那么我們就可以說(shuō)機(jī)器具有人類(lèi)思維,而圖靈測(cè)試的結(jié)果證明了機(jī)器成功地欺騙了詢(xún)問(wèn)者而通過(guò)了測(cè)試,據(jù)此可以宣稱(chēng)機(jī)器具有人類(lèi)思維。
“圖靈測(cè)試”一方面是計(jì)算科學(xué)進(jìn)入人類(lèi)認(rèn)知領(lǐng)域的轉(zhuǎn)型突破,被譽(yù)為人工智能領(lǐng)域的奠基性探索,但另一方面也招致后世諸多批評(píng)與質(zhì)疑,塞爾的“中文屋”實(shí)驗(yàn)提出了極具挑戰(zhàn)性的反駁。“中文屋”實(shí)驗(yàn)基本程序如下:假定在一密封屋子內(nèi)有一回答者,他雖能熟練使用英文,但對(duì)中文基本不懂,但有一部漢英詞典和一部他可理解與掌握的語(yǔ)法書(shū),屋外的提問(wèn)者將用漢語(yǔ)寫(xiě)的卡片通過(guò)窗口遞給屋內(nèi)的回答者,回答者在不懂漢語(yǔ)的情況下借助詞典與語(yǔ)法書(shū)能翻譯這些文字并用簡(jiǎn)單的中文字符回復(fù)。塞爾由此認(rèn)為,通過(guò)這一特定程序房間里面的人完全可以讓房間外面的人以為他會(huì)熟練地使用中文,但實(shí)際情形恰恰相反。這一實(shí)驗(yàn)證明了雖然通過(guò)程序設(shè)計(jì)能使機(jī)器完成人類(lèi)的任務(wù),但也不能說(shuō)機(jī)器就理解了任務(wù)本身,更不能證明機(jī)器就具有人類(lèi)心靈,其根本原因在于機(jī)器缺乏人腦這一關(guān)鍵基礎(chǔ)。
這兩個(gè)前后相繼而對(duì)照強(qiáng)烈的思想實(shí)驗(yàn)正是人類(lèi)對(duì)機(jī)器能否具有思維的認(rèn)知探索與心智歷險(xiǎn),在這一尚未決出勝負(fù)的紛爭(zhēng)背后潛藏著更為實(shí)質(zhì)性的哲學(xué)追問(wèn),即強(qiáng)人工智能或超級(jí)機(jī)器人能否成為主體。機(jī)器成為主體的前提是首先要成為實(shí)體,成為主體之前首先要成為實(shí)體是對(duì)黑格爾著名命題“實(shí)體即是主體”的時(shí)代回應(yīng)。在黑格爾那里實(shí)體內(nèi)在蘊(yùn)含著自我展開(kāi)、自我建構(gòu)與自我揚(yáng)棄的能動(dòng)性,它能獨(dú)立地建構(gòu)作為自我對(duì)立面的他者,又能在克服與超越他者的過(guò)程中回復(fù)到自我本身。之所以具有這種否定性的生成能力,其與作為黑格爾哲學(xué)“生長(zhǎng)點(diǎn)”的哲學(xué)基本原則“實(shí)體即是主體”密切相關(guān)。在《精神現(xiàn)象學(xué)》的《序言》中,黑格爾說(shuō),“一切的關(guān)鍵在于,不僅把真相理解和表述為一個(gè)實(shí)體,而且同樣也理解和表述為一個(gè)主體?!盵4]“實(shí)體即主體”嘗試解決自笛卡爾以來(lái),尤其是在康德哲學(xué)中所突顯的主客二分問(wèn)題,這一原則的根本意義在于以典型的觀(guān)念論方式解決主客同一性的認(rèn)知難題,而在人工智能的哲學(xué)境域中這一對(duì)立表現(xiàn)為人工智能能否既成為客觀(guān)實(shí)體又成為智能主體。
對(duì)前者而言,人工智能早已成為客觀(guān)世界的實(shí)體形式,因?yàn)樗仁侨祟?lèi)文明制造的產(chǎn)物與結(jié)果,同時(shí)人類(lèi)又以其為中介與工具去認(rèn)知與改造現(xiàn)存世界,在對(duì)象化的人類(lèi)實(shí)踐活動(dòng)之中人工智能已成為重要且必需的實(shí)踐形態(tài)。對(duì)后者而言,人工智能能否成為實(shí)踐主體才是問(wèn)題的根源與癥結(jié)所在。傳統(tǒng)觀(guān)點(diǎn)認(rèn)為只有人才能成為主體并認(rèn)識(shí)與改造對(duì)象世界,即使高級(jí)工具或機(jī)器人也不過(guò)是人類(lèi)延長(zhǎng)的手臂或中介而已。如此一來(lái)高度智能化的機(jī)器人無(wú)論如何也不能成為實(shí)踐主體,這必然導(dǎo)致人工智能面臨著兩難的道德責(zé)任困境:一方面,因?yàn)轭A(yù)設(shè)人工智能沒(méi)有類(lèi)似人類(lèi)的自由意志,也不能成為道德主體,那么它就無(wú)須擔(dān)負(fù)道德責(zé)任。進(jìn)言之,如果人工智能無(wú)須擔(dān)負(fù)道德責(zé)任,是否它就可以任意妄為甚至傷害人類(lèi)?另一方面,如果我們需要人工智能擔(dān)負(fù)起道德責(zé)任,那么我們必須承認(rèn)其實(shí)踐主體的地位,認(rèn)可其成為道德主體的權(quán)利資格。這即意味承認(rèn)機(jī)器具有心靈,人工智能具有人類(lèi)思維。但還存在著第三條道路,即既否定智能機(jī)器的道德主體地位又為其強(qiáng)制性地嵌入道德程序,而人類(lèi)則承擔(dān)起機(jī)器的“道德監(jiān)護(hù)人”角色。著名信息哲學(xué)家弗洛里迪(Luciano Floridi)指出:“為機(jī)器制定一套倫理無(wú)異于白日夢(mèng),更為負(fù)責(zé)任的策略是在智能機(jī)器內(nèi)部嵌入一定的安全措施,同時(shí)在機(jī)器自動(dòng)操作時(shí),人可以作為‘共同決策人’發(fā)揮監(jiān)管作用?!盵5]嵌入式道德是將智能機(jī)器的程序設(shè)計(jì)與道德植入結(jié)合起來(lái),要求技術(shù)性的架構(gòu)不能完全是價(jià)值無(wú)涉或道德無(wú)關(guān),一旦機(jī)器面臨著道德兩難選擇困境時(shí)必須有合乎倫理的價(jià)值引導(dǎo),避免機(jī)器做出損害人類(lèi)整體利益的行為。
為機(jī)器嵌入道德準(zhǔn)則的前提是需要重審人工智能的道德主體資格問(wèn)題。何謂“道德主體”?狹義層面而言,“道德主體(moral agent)”的法律術(shù)語(yǔ)可譯為“道德代理人”,即能夠具有主觀(guān)判斷且能夠承擔(dān)法律責(zé)任的人,顯然智能機(jī)器不能成為道德主體。廣義層面而言,“道德主體指的是具有自我意識(shí),能夠進(jìn)行道德認(rèn)知、能夠進(jìn)行推理并形成自我判斷、能夠進(jìn)行道德選擇與實(shí)施道德行為且承擔(dān)道德責(zé)任的道德行為體?!盵6]也即是說(shuō)是否成為人類(lèi)不是判斷能否成為道德主體的關(guān)鍵憑據(jù),經(jīng)過(guò)“合乎倫理設(shè)計(jì)”的智能機(jī)器也有資格成為道德主體。人工智能專(zhuān)家維貝克(Peter Paul Verbeek)就提出了“道德物化”(materialization of morality)的觀(guān)點(diǎn)。所謂“道德物化”指的是抽象的道德理念通過(guò)恰當(dāng)?shù)脑O(shè)計(jì),并在人工物的結(jié)構(gòu)和功能中得以體現(xiàn),從而對(duì)人的行為產(chǎn)生道德意義上的引導(dǎo)和規(guī)范作用。按照弗洛里迪與桑德斯(Sanders)的觀(guān)點(diǎn),人工道德主體應(yīng)該具有交互性(interactivity)、自主性(autonomy)與適應(yīng)性(adaptability)的特征。假定對(duì)于所有x而言,x是一個(gè)道德主體,當(dāng)且僅當(dāng)x具有以下內(nèi)容屬性:“第一,x及其環(huán)境能夠相互作用(交互性)屬性;第二,x能夠在沒(méi)有與外部世界交互刺激的情況下改變其狀態(tài)(自主性) ;第三,x能夠改變其轉(zhuǎn)換規(guī)則屬性(適應(yīng)性);第四,x能夠起作用,例如道德上對(duì)世界的重大影響。”[7]智能機(jī)器只要具有上述屬性就可稱(chēng)之為人工道德主體,承擔(dān)道德責(zé)任的機(jī)器只能在道德準(zhǔn)則與倫理義務(wù)的范圍之內(nèi)行事,嚴(yán)重的失范、越界與違規(guī)行為將損害或剝奪機(jī)器原本享有的主體資格與權(quán)利,智能機(jī)器擔(dān)負(fù)道德責(zé)任實(shí)際上是認(rèn)可“道德智能體”具有與人類(lèi)相同的道德權(quán)利與義務(wù)。賦予智能機(jī)器道德主體的資格是人類(lèi)所不情愿或所不期待的事情,畢竟一個(gè)與人類(lèi)完全不同的機(jī)體居然要與人類(lèi)共享相同的情感意志、思維方式甚至價(jià)值觀(guān)是令人匪夷所思或難以接受的事情,但人工智能的強(qiáng)勢(shì)來(lái)臨與智能機(jī)器的超級(jí)能力使我們必須認(rèn)真思考與辯證理解。單純地否定或徹底地拒絕人工智能既不能阻礙其發(fā)展也不會(huì)使人類(lèi)文明更加美好,只有提前干預(yù)與積極介入才可能預(yù)防人工智能自身的功能翻轉(zhuǎn)與屬性異化,為智能機(jī)器提前嵌入道德準(zhǔn)則是研發(fā)人工智能的必然選項(xiàng)。
面對(duì)人工智能的迭代性發(fā)展與顛覆性后果,人類(lèi)既不能拒絕或阻止其發(fā)展,同樣亦不能置之不理,一個(gè)缺乏倫理約束與道德制衡的智能系統(tǒng)將給人類(lèi)文明帶來(lái)滅頂之災(zāi)。審慎合理的態(tài)度是為人工智能的研發(fā)設(shè)定基本的道德準(zhǔn)則與倫理底線(xiàn),在機(jī)器人設(shè)計(jì)之初就提前植入應(yīng)有的道德準(zhǔn)則,當(dāng)其面臨道德難題之際,機(jī)器人將自動(dòng)根據(jù)這一被嵌入的法則行事,必要時(shí)又能進(jìn)行人為干預(yù)和矯正。目前而言,道德嵌入是規(guī)范智能機(jī)器行為的最佳方案,那么人類(lèi)應(yīng)該為智能機(jī)器賦予何種道德準(zhǔn)則?
早期人機(jī)關(guān)系最著名的闡釋是阿西莫夫在為其科幻小說(shuō)《我,機(jī)器人》中所指出的,“第一定律:機(jī)器人不得傷害人類(lèi)個(gè)體,或者目睹人類(lèi)個(gè)體遭受危險(xiǎn)而袖手不管;第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律相沖突時(shí)除外;第三定律:機(jī)器人在不違反第一、二定律的情況下要盡可能保護(hù)自己的生存?!盵8]除此之外,他又增加了作為三大定律之根的第零定律:“機(jī)器人必須保護(hù)人類(lèi)整體利益不受傷害 ”。第零定律的執(zhí)行順序排在三大定律之前,整體呈現(xiàn)一個(gè)詞典式的優(yōu)先順序。阿西莫夫?yàn)闄C(jī)器人所制定的這一道德律令被要求寫(xiě)入機(jī)器人開(kāi)發(fā)設(shè)計(jì)的底層軟件,雖然是道德式律令但必須被無(wú)條件執(zhí)行。細(xì)究起來(lái),它呈現(xiàn)兩種理解意義:一方面,這一道德律令看似要求機(jī)器人無(wú)條件地服從與保護(hù)人類(lèi),實(shí)則為機(jī)器人張目,原本只歸人類(lèi)所獨(dú)有的道德主體資格現(xiàn)在被賦予給機(jī)器人,相應(yīng)地人類(lèi)也必須承認(rèn)與保護(hù)機(jī)器人的主體權(quán)利。但另一方面,這一道德律令又毫無(wú)實(shí)效,根本原因有二:一是其基于義務(wù)論的倫理框架而缺乏有力的道德約束性,程序員在設(shè)計(jì)程序時(shí)完全可以忽視或篡改程序而為己所用;二是這一道德律令是基質(zhì)沙文主義立場(chǎng),它要求機(jī)器人必要時(shí)犧牲自我甚至整個(gè)物種來(lái)保護(hù)人類(lèi),這是典型的人類(lèi)中心主義進(jìn)路,即認(rèn)為人類(lèi)這一碳基文明從根本上優(yōu)越于智能機(jī)器人這一硅基文明。但超級(jí)人工智能來(lái)臨之際智能機(jī)器人未必會(huì)尊重這一規(guī)則,“弱肉強(qiáng)食,適者生存”的叢林法則既然成就了人類(lèi)的進(jìn)化優(yōu)勢(shì),那么同樣“能力至上”又會(huì)成為人機(jī)博弈的通行法則。
回溯“機(jī)器人”這一語(yǔ)詞的概念起源就會(huì)發(fā)現(xiàn)這是一個(gè)既內(nèi)蘊(yùn)著道德悖論而又充滿(mǎn)張力的詞匯,機(jī)器人(robot)一詞最初是在1920年由約瑟夫(Josef)和卡雷爾·恰佩克(Karel Capek)從捷克語(yǔ)“強(qiáng)迫勞動(dòng)”(robota)一詞創(chuàng)造出來(lái)的,意指苦工或奴隸[9]41。這一意指被轉(zhuǎn)喻為“機(jī)器人”是人類(lèi)心智的延展與能力的增強(qiáng),但創(chuàng)造這一高級(jí)智能的目的是將其變?yōu)槿祟?lèi)可資利用的工具與可以驅(qū)使的奴仆。基于幼稚的人類(lèi)中心主義立場(chǎng)驅(qū)使機(jī)器人甚或?qū)⑵渥鳛榕褪侨祟?lèi)對(duì)機(jī)器的不道德行為,將機(jī)器人視為奴隸則將使人類(lèi)重返蓄奴制本身固有的道德難題。著名“人造良知”機(jī)器人之父、佐治亞理工大學(xué)機(jī)器人專(zhuān)家羅納德·阿爾金(Ronald Arkin)認(rèn)為,“接受機(jī)器人成為仆人是在重新恢復(fù)奴隸制,從而使其在已經(jīng)正式廢止奴隸制的社會(huì)中又成為可行的選擇,而且可能使人類(lèi)奴隸制重新合法化或?qū)е氯祟?lèi)的懶惰?!盵9]41-42如此一來(lái),究竟是人類(lèi)奴役機(jī)器還是機(jī)器奴役人類(lèi)都面臨著二難的道德困境,人工智能研發(fā)不得不面臨著道德準(zhǔn)則的嵌入問(wèn)題,即在承認(rèn)人工智能也具有道德主體地位的前提下,當(dāng)我們?yōu)闄C(jī)器人設(shè)計(jì)智能化程序時(shí)應(yīng)該提前將道德準(zhǔn)則嵌入其中。
為智能機(jī)器嵌入道德,道德準(zhǔn)則本身承擔(dān)的角色可區(qū)分為三種不同的功能情境:第一,作為監(jiān)督者的道德準(zhǔn)則。如果機(jī)器人始終在法律制度與規(guī)則劃定的范圍之類(lèi)有序運(yùn)行,那么道德原則只是發(fā)揮監(jiān)視、督導(dǎo)的功能,人類(lèi)也不能以監(jiān)督者的角色而自居優(yōu)越感,人類(lèi)所發(fā)生因違反道德準(zhǔn)則而傷害機(jī)器人的行為亦當(dāng)受罰。第二,作為矯正者的道德準(zhǔn)則。道德準(zhǔn)則嵌入到技術(shù)性程序之中隨時(shí)對(duì)可能發(fā)生的失范行為進(jìn)行矯正調(diào)節(jié)。如果機(jī)器人發(fā)生越界行為,道德準(zhǔn)則必須采取行動(dòng)進(jìn)行即時(shí)矯正以避免更大損失發(fā)生;若機(jī)器人對(duì)此行為縱容任之,則道德準(zhǔn)則能強(qiáng)制停止機(jī)器人的程序運(yùn)行,以此來(lái)減少更大危害。第三,作為施事者的道德準(zhǔn)則。施事者是語(yǔ)法學(xué)概念,指出現(xiàn)于謂詞前面的主語(yǔ),擔(dān)負(fù)的是行動(dòng)發(fā)動(dòng)者、執(zhí)行者的角色。與之相對(duì)應(yīng)的角色是受事者,即置于謂詞之后的賓語(yǔ),充當(dāng)?shù)氖潜粓?zhí)行、被賦予的角色定位。道德準(zhǔn)則作為施事者是直接進(jìn)入與改造對(duì)象,使機(jī)器本身實(shí)現(xiàn)智能與道德的雙重賦能。道德準(zhǔn)則超越主客觀(guān)對(duì)立的二元論立場(chǎng)而介入與參與到行動(dòng)過(guò)程之中,將智能計(jì)算本身塑造為“可信任的計(jì)算”“負(fù)責(zé)任的智能”,這一切近具身認(rèn)知進(jìn)路的情境主義立場(chǎng)日益受到人工智能研究專(zhuān)家的重視與采納。
為智能機(jī)器嵌入道德的目的是構(gòu)造一臺(tái)可信任、負(fù)責(zé)任與守規(guī)則的智能機(jī)器,但道德嵌入的實(shí)現(xiàn)路徑是程序設(shè)計(jì),這取決于三個(gè)關(guān)鍵議題:第一,程序員本人遵守何種道德觀(guān)或者說(shuō)他所遵循的工程倫理是什么?第二,被嵌入的道德準(zhǔn)則本身是什么?第三,如果無(wú)法制定一個(gè)整全而統(tǒng)一的普遍法則,當(dāng)不同的智能機(jī)器在面臨道德沖突時(shí)如何實(shí)現(xiàn)道德妥協(xié)?這三重道德難題的不斷彰顯與反復(fù)糾纏實(shí)際上反映出人類(lèi)智能對(duì)于人工智能的思維探索與道德認(rèn)知,試圖在兩者之間尋求道德張力。
就第一個(gè)問(wèn)題而言,程序員作為智能機(jī)器的設(shè)計(jì)者對(duì)智能機(jī)器的道德塑造與價(jià)值養(yǎng)成發(fā)揮著重要作用,也即是說(shuō)程序員自身的道德立場(chǎng)影響著其行動(dòng)的后果。這一思想源于亞里士多德美德倫理學(xué)所主張的德行是道德與行動(dòng)的統(tǒng)一的立場(chǎng),一個(gè)品德高尚的人才可能做出符合德行的事情,主體自身的德性品質(zhì)決定了實(shí)踐行為的道德后果。作為程序設(shè)計(jì)主體的程序員,不能將程序設(shè)計(jì)本身視為價(jià)值無(wú)涉、道德無(wú)關(guān)的中性對(duì)象,程序設(shè)計(jì)本質(zhì)上是與人類(lèi)整體利益休戚相關(guān)并應(yīng)為人類(lèi)文明造福的行為,因而程序員自身的道德養(yǎng)成與倫理建設(shè)尤為重要。具體而言,保護(hù)隱私是程序倫理的首要原則。程序員基于自身的專(zhuān)業(yè)優(yōu)勢(shì)與技術(shù)特長(zhǎng)而具有數(shù)據(jù)壟斷的地位,但誤用或?yàn)E用數(shù)據(jù)傷害了客戶(hù)與公眾的隱私權(quán)利。其次,公平正義是程序倫理的重要規(guī)范。大數(shù)據(jù)時(shí)代雖然存在“算法黑箱”“數(shù)字鴻溝”,但程序員在設(shè)計(jì)程序時(shí)應(yīng)力求維護(hù)公平正義,不能為私利裹挾,否則將陷入韋伯對(duì)現(xiàn)代技術(shù)理性的悲觀(guān)詠嘆:“專(zhuān)家沒(méi)有靈魂,縱欲者沒(méi)有心肝,這個(gè)廢物幻想它達(dá)到了前所未有的文明程度?!?/p>
就第二個(gè)問(wèn)題而言,為機(jī)器嵌入何種道德準(zhǔn)則考慮的是智能機(jī)器需要遵守的道德要求,這一問(wèn)題關(guān)乎道德立場(chǎng)的選擇難題。在面對(duì)常識(shí)性的道德抉擇時(shí),智能機(jī)器與人類(lèi)一樣都是基于特定環(huán)境與具體情境而做出具身化的道德認(rèn)知,例如當(dāng)人與動(dòng)物都面臨食物短缺的時(shí)候,是優(yōu)先滿(mǎn)足人類(lèi)還是優(yōu)先滿(mǎn)足動(dòng)物是極其容易做出有利于人類(lèi)的道德判斷,但在智能時(shí)代道德難題卻層出不窮,例如無(wú)人駕駛是電車(chē)難題升級(jí)版,當(dāng)一輛正常行進(jìn)中的無(wú)人駕駛汽車(chē)面前有一輛失控的大貨車(chē)逆向駛來(lái),如果無(wú)人駕駛汽車(chē)?yán)^續(xù)前行則撞上貨車(chē)而導(dǎo)致乘客傷亡,但如果為了避讓貨車(chē)而變道撞向行人也會(huì)導(dǎo)致無(wú)辜路人傷亡,這時(shí)無(wú)人駕駛汽車(chē)陷入了新的道德悖論:如果為了保護(hù)乘客而撞死路人則有謀殺之嫌,如果為了保護(hù)路人而與貨車(chē)相撞則又傷及乘客,試想一輛連乘客生命都得不到保障的“舍身救人”式的汽車(chē)會(huì)有市場(chǎng)嗎?同樣,一輛“損人利己”式的汽車(chē)也不應(yīng)允許上路。
智能機(jī)器面臨類(lèi)似道德難題時(shí)應(yīng)如何抉擇已不是機(jī)器所能解決的事情,尤以在超級(jí)人工智能來(lái)臨、人機(jī)博弈的艱難時(shí)刻,完全將道德決定權(quán)交給智能機(jī)器來(lái)行使是人類(lèi)既非情愿又不放心的事情。當(dāng)我們給機(jī)器嵌入道德時(shí)發(fā)現(xiàn),無(wú)論是阿西莫夫的“機(jī)器人三原則”,還是谷歌、微軟等倡導(dǎo)的機(jī)器倫理,其基于義務(wù)論框架的內(nèi)在缺陷都使其無(wú)力應(yīng)對(duì)道德悖論,功利論過(guò)強(qiáng)的后果主義立場(chǎng)也使其往往落入效用至上、技術(shù)萬(wàn)能的窠臼。美德論強(qiáng)調(diào)行為者本身的德性對(duì)于實(shí)踐活動(dòng)善惡的決定作用,但人工智能時(shí)代德性本身與做出符合德性的行為二者之間不能等同,具備道德素質(zhì)也不能保證智能機(jī)器就一定能做出符合道德的行為,這一歸因于道德主體的德行自律進(jìn)路顯然是無(wú)法應(yīng)對(duì)資本競(jìng)逐、利益搏殺與弱肉強(qiáng)食的殘酷法則。為著人類(lèi)文明的世代傳承與整體利益的持續(xù)增進(jìn),必須將責(zé)任維度納入智能機(jī)器的倫理之維。責(zé)任倫理(the ethics of responsibility )由漢斯·尤納斯(Hans Jonas)提出,基本原則是“絕對(duì)不可拿整個(gè)人類(lèi)的存在去冒險(xiǎn)”[10]。這一“責(zé)任”倫理主張實(shí)踐活動(dòng)應(yīng)該是指向未來(lái)可持續(xù)發(fā)展、重視包括自然生態(tài)圈在內(nèi)的整體性權(quán)利以及關(guān)注未來(lái)不確定性的風(fēng)險(xiǎn)。智能機(jī)器亟需的道德準(zhǔn)則就是責(zé)任原則,即在任何時(shí)候都應(yīng)該將人類(lèi)的整體利益與持續(xù)發(fā)展置于優(yōu)先地位,這是應(yīng)該嵌入任何智能機(jī)器的底線(xiàn)倫理。
如果第一個(gè)問(wèn)題關(guān)注的是作為道德主體的人應(yīng)該具備的道德品質(zhì),第二個(gè)問(wèn)題考慮的是同樣作為道德主體的機(jī)器應(yīng)該遵守的道德準(zhǔn)則,那么第三個(gè)問(wèn)題則是當(dāng)不同智能主體之間所遵循的道德準(zhǔn)則不可避免地發(fā)生道德沖突時(shí),道德妥協(xié)與道德共識(shí)如何達(dá)成。人作為有差異的道德主體能在大部分情境下達(dá)成妥協(xié),但人機(jī)之間以及不同的智能機(jī)器之間如何形成道德共識(shí)與達(dá)成道德妥協(xié)則面臨考驗(yàn)。人機(jī)之間的道德沖突源于人機(jī)博弈,弱人工智能時(shí)代無(wú)疑是智能機(jī)器馴服于人類(lèi)智能之下,強(qiáng)人工智能則向人類(lèi)智能發(fā)出挑戰(zhàn),道德妥協(xié)的程度與效果則依具體情境而各有差異。而到超級(jí)人工智能來(lái)臨之際,所謂的賽博倫理、機(jī)器人倫理(the ethics of robot)、人工智能倫理都不過(guò)是人類(lèi)中心主義單向度的一廂情愿而已。各智能機(jī)器之間能否達(dá)成道德共識(shí),這分為兩個(gè)層面:第一個(gè)層面是人工智能與人類(lèi)智能尚處競(jìng)爭(zhēng)共生階段時(shí),智能機(jī)器之間能否達(dá)成道德妥協(xié)取決于智能機(jī)器背后的資本邏輯之間博弈與較量的結(jié)果,利益主體的道德取向與倫理法則深刻地影響著智能機(jī)器的抉擇;第二個(gè)層面是當(dāng)強(qiáng)人工智能興起并替代了人類(lèi)之后,各智能體之間能否達(dá)成道德共識(shí)已成為一個(gè)“偽問(wèn)題”,因?yàn)楫?dāng)人類(lèi)文明形態(tài)逐步退場(chǎng)或消亡之際,再來(lái)討論智能機(jī)器需要何種道德事實(shí)已經(jīng)毫無(wú)意義。今日我們對(duì)人工智能的深度憂(yōu)思并竭力為其嵌入合理的道德準(zhǔn)則,正是希望能馴服或駕馭這個(gè)極具創(chuàng)造性與風(fēng)險(xiǎn)性的“賽維坦”,以期能在人機(jī)融合的未來(lái)世界中實(shí)現(xiàn)人類(lèi)文明的發(fā)展創(chuàng)新。
華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2020年2期