包彥征,鄧輝文,2
(1.西南大學(xué) 邏輯與智能研究中心,重慶 400715; 2.西南大學(xué) 計(jì)算機(jī)與信息科學(xué)學(xué)院,重慶 400715)
進(jìn)入21世紀(jì),人類中心主義全面動(dòng)搖。原始的、傳統(tǒng)意義上的“人”正在消失。與此同時(shí),科學(xué)技術(shù)居于主導(dǎo)地位,智能機(jī)器崛起,人機(jī)融合將成為未來我們理解人的一個(gè)重要方面。在后人類時(shí)代,現(xiàn)代技術(shù)的高度發(fā)展是“后人類”最為顯著的特征,人們對(duì)技術(shù)的依賴超過以往任何時(shí)期。在后人類時(shí)代背景下,人工智能系統(tǒng)所具有的倫理道德、價(jià)值屬性、價(jià)值追求等計(jì)算理論將被設(shè)計(jì)到人工智能中以替代人類價(jià)值目標(biāo)的某些功能,人工智能體的價(jià)值觀的產(chǎn)生將推動(dòng)人機(jī)共同體在后人類時(shí)代實(shí)現(xiàn)人機(jī)和諧發(fā)展。實(shí)現(xiàn)人機(jī)和諧發(fā)展,一個(gè)重要的任務(wù)是為人工智能系統(tǒng)嵌入與人類一致的價(jià)值觀,以實(shí)現(xiàn)價(jià)值對(duì)齊,這是后人類時(shí)代人工智能技術(shù)發(fā)展的必然趨勢。本文通過展望后人類時(shí)代人工智能的發(fā)展趨勢,選取邏輯視角的方法論路徑以實(shí)現(xiàn)人機(jī)價(jià)值對(duì)齊,一定程度上彌合倫理邏輯的整體性造就的人類與技術(shù)物的屬性邊界,從而為后人類時(shí)代的人機(jī)和諧發(fā)展提供有益參考。
隨著大數(shù)據(jù)技術(shù)的發(fā)展、智能算法和算力水平的大幅提升,人工智能技術(shù)取得了長足進(jìn)步,人工智能產(chǎn)品遍及社會(huì)各個(gè)領(lǐng)域。人工智能技術(shù)發(fā)展給人們的生產(chǎn)生活方式帶來了革命性的變化。與此同時(shí),人工智能帶來的負(fù)面影響也不斷地引起人們的擔(dān)憂。并非危言聳聽的人工智能威脅論、“黑箱”問題的不可跟蹤以及人工智能應(yīng)用中產(chǎn)生的諸多問題等等,使人們對(duì)可信人工智能的發(fā)展充滿期待。為推動(dòng)實(shí)現(xiàn)人的自由而全面的發(fā)展,人工智能的發(fā)展應(yīng)以增進(jìn)人類福祉為目的,與人類的價(jià)值標(biāo)準(zhǔn)和道德規(guī)范相符合。因此,在預(yù)估人類整體發(fā)展趨勢的同時(shí),應(yīng)積極尋求人類和人工智能和諧發(fā)展的多元路徑,探尋后人類時(shí)代背景下人機(jī)和諧發(fā)展的可能性甚至法則。2017年1月,在美國召開的“阿西洛馬會(huì)議”通過了阿西洛馬人工智能原則(Asilo-mar AI Principles)。這些原則包括研究主題、倫理與價(jià)值、長期議題等三個(gè)方面。其中倫理與價(jià)值方面主要討論了隱私、道德地位、價(jià)值觀、價(jià)值歸屬、故障追責(zé)等問題。[1]近年來,學(xué)術(shù)界圍繞人工智能的價(jià)值定位、人工智能倫理等問題展開了廣泛的討論,產(chǎn)生了一系列富有卓見的研究成果。在進(jìn)行人工智能倫理研究的同時(shí),為適應(yīng)后人類時(shí)代人工智能技術(shù)發(fā)展的趨勢,應(yīng)同步開展人工智能體的價(jià)值觀研究并尋求將價(jià)值標(biāo)準(zhǔn)嵌入智能系統(tǒng)的方法論。
“后人類的觀點(diǎn)通過這樣或那樣的方法來安排和塑造人類,以便能夠與智能機(jī)器嚴(yán)絲合縫地鏈接起來。在后人類看來,身體性存在與計(jì)算機(jī)仿真之間、人機(jī)關(guān)系結(jié)構(gòu)與生物組織之間、機(jī)器人科技與人類目標(biāo)之間,并沒有本質(zhì)的不同或者絕對(duì)的界限?!盵2](PP.3~4)2017年12月在浙江烏鎮(zhèn)舉辦的世界互聯(lián)網(wǎng)大會(huì)上,蘋果公司首席執(zhí)行官庫克(Martin Cooper)提出了要把更好的人性與價(jià)值觀嵌入到人工智能技術(shù)中的想法。人工智能技術(shù)不應(yīng)該是冷冰冰的,人工智能設(shè)計(jì)人員應(yīng)強(qiáng)調(diào)程序設(shè)計(jì)和算法的人文情懷,將算法背后的價(jià)值觀體現(xiàn)在程序設(shè)計(jì)的整個(gè)過程。設(shè)計(jì)過程“包含了設(shè)計(jì)者的價(jià)值理念與價(jià)值判斷,在人工智能設(shè)計(jì)之初規(guī)范設(shè)計(jì)者的價(jià)值理念顯得尤為重要”[3]。因此,使人工智能體具有一定的價(jià)值觀,從根本上說,是人類價(jià)值觀對(duì)智能體的拓展和延伸,是人類意志和價(jià)值訴求在智能體與環(huán)境交互和智能決策過程中的具體體現(xiàn)。人類社會(huì)倫理道德的最現(xiàn)實(shí)作用就是使人對(duì)事物產(chǎn)生價(jià)值觀,而價(jià)值觀是產(chǎn)生意向和存在的主要源泉。意向性是意識(shí)的基礎(chǔ),因此,人類的價(jià)值觀標(biāo)準(zhǔn)與道德準(zhǔn)則在規(guī)范人類社會(huì)活動(dòng)和個(gè)人行為的指導(dǎo)作用上是基本一致的。價(jià)值觀更多強(qiáng)調(diào)整體價(jià)值理念,倫理道德更多注重具體的行為規(guī)范。換句話說,價(jià)值觀是“軟”要求,其規(guī)定價(jià)值選擇的基本方向;道德規(guī)范具有“硬”的要求,其規(guī)定智能體具體的道德決策內(nèi)容。因此,在人工智能系統(tǒng)中嵌入人類的價(jià)值觀標(biāo)準(zhǔn)和道德規(guī)范具有同等重要性。開展對(duì)人工智能價(jià)值觀及其邏輯嵌入的研究,既能夠確保人工智能的發(fā)展方向符合人類利益,又能夠使智能體在與環(huán)境交互的過程中,在遇到復(fù)雜的道德選擇而需要做出道德決策時(shí)擁有正確的價(jià)值標(biāo)準(zhǔn)的指導(dǎo),防止智能機(jī)器做出有悖人類價(jià)值理念和倫理道德的錯(cuò)誤決策。價(jià)值觀的指導(dǎo)意義也在于此,它不僅僅局限于具體的技術(shù)和操作層面,更重要的是在基本框架和根本問題上做出符合道德規(guī)范的指導(dǎo)。
在已有的智能程序和智能算法的設(shè)計(jì)中,技術(shù)權(quán)貴的價(jià)值理念和價(jià)值偏好在機(jī)器學(xué)習(xí)、邏輯嵌入等智能算法中已經(jīng)以間接的方式有所體現(xiàn),但不能直接影響智能行為和決策。因此,基于人工智能對(duì)事實(shí)判斷和價(jià)值判斷相互轉(zhuǎn)換的可操作性訴求,以及為滿足人工智能可解釋性和可信賴的現(xiàn)實(shí)需要,將人類價(jià)值觀的基本價(jià)值理念和價(jià)值標(biāo)準(zhǔn)嵌入到智能系統(tǒng)中,以實(shí)現(xiàn)其在與環(huán)境的交互活動(dòng)中發(fā)揮價(jià)值引導(dǎo)作用則顯得尤為重要。有學(xué)者提出,人工智能體在通用人工智能階段才會(huì)具有價(jià)值觀,在專用人工智能階段不會(huì)擁有價(jià)值觀。筆者認(rèn)為,只要人工智能體在專用人工智能階段擁有價(jià)值主體地位,就可以將人類的價(jià)值觀“輸入”智能體系統(tǒng)使其擁有價(jià)值觀。而如何面對(duì)人工智能的價(jià)值主體地位問題,同人工智能體的道德主體地位問題一樣,人工智能專家維貝克(Peter Paul Verbeek)提出的“道德物化(materialization of morality)”的觀點(diǎn)為我們提供了依據(jù)。[4]本研究正是立足于專用人工智能階段綜合研判后人類時(shí)代人機(jī)發(fā)展的基本趨勢,嘗試運(yùn)用邏輯工具將人類價(jià)值觀的基本價(jià)值標(biāo)準(zhǔn)嵌入到智能系統(tǒng)或程序設(shè)計(jì)中,使人工智能體擁有和人類一致的價(jià)值觀,實(shí)現(xiàn)人機(jī)價(jià)值對(duì)齊。
目前人類的普世價(jià)值觀由三個(gè)基本要件組成——公平、正義、自由,這是人類價(jià)值標(biāo)準(zhǔn)的共同底線。人類價(jià)值觀是一種潛移默化的價(jià)值理念,是人類意識(shí)的集中體現(xiàn),專用人工智能體沒有意識(shí),本身不會(huì)產(chǎn)生價(jià)值觀。在后人類背景下,人與智能機(jī)器逐步實(shí)現(xiàn)融合,技術(shù)權(quán)貴在設(shè)計(jì)智能體系統(tǒng)的過程中,將人類的價(jià)值標(biāo)準(zhǔn)以直接或者間接的形式植入智能體系統(tǒng),即將自身價(jià)值理念轉(zhuǎn)化為價(jià)值算子賦予技術(shù)中,并通過技術(shù)將其嵌入到智能體系統(tǒng)中,使智能體的智能行為和智能決策符合人類的價(jià)值標(biāo)準(zhǔn)和道德準(zhǔn)則。在此過程中,技術(shù)權(quán)貴的價(jià)值觀念、技術(shù)的價(jià)值追求、智能體的價(jià)值判斷應(yīng)堅(jiān)持一定的價(jià)值原則和基本要求。
人工智能的產(chǎn)生和發(fā)展應(yīng)以人的需要為根本,因此,應(yīng)該把堅(jiān)持人本性作為人工智能技術(shù)發(fā)展的首要和最為重要的原則。所謂人本性,就是人工智能的發(fā)展要堅(jiān)持“以人為本”的基本要求,即在框架結(jié)構(gòu)、程序設(shè)計(jì)、算法優(yōu)化和應(yīng)用實(shí)踐等環(huán)節(jié)都要把人的需要和利益放在第一位。2018年12月18日,歐盟人工智能高級(jí)別專家組正式向社會(huì)發(fā)布了一份人工智能道德準(zhǔn)則草案,該草案被視為歐洲制造“可信賴人工智能”的討論起點(diǎn)。秉持人類價(jià)值觀引領(lǐng)人工智能健康發(fā)展的理念,將人類價(jià)值規(guī)范更多地應(yīng)用于人工智能的發(fā)展,突出人本性的價(jià)值取向。無論是目前人工智能產(chǎn)品的普及應(yīng)用,抑或是后人類時(shí)代人機(jī)融合發(fā)展的未來趨勢,“以人為本”的價(jià)值理念應(yīng)主導(dǎo)智能科技的發(fā)展方向,并將其塑造為引領(lǐng)人工智能群體的核心價(jià)值理念,達(dá)到人本性和價(jià)值性的結(jié)合。
堅(jiān)持生命至上的原則,把保護(hù)人類的生命作為最高價(jià)值追求,在此基礎(chǔ)上最大化地減少生命財(cái)產(chǎn)的損失。以人類駕駛汽車為例,人類駕駛員在遇到特別緊急的情況時(shí),由于過度緊張而很難快速作出判斷并迅速采取正確措施來應(yīng)對(duì)險(xiǎn)情,他們往往會(huì)本能地選擇自我保護(hù),這樣做的后果是犧牲車上其他乘客的利益或車外第三者的利益,這樣的現(xiàn)實(shí)案例舉不勝舉。人的本能反應(yīng)是人類在長期的生物進(jìn)化過程中形成的一種生存應(yīng)激反應(yīng),智能機(jī)器雖不具備這種本能反應(yīng),但恰恰相反,無人駕駛汽車在緊急情況下卻能綜合判斷形勢并作出“理性”決策,這是人類駕駛員很難做到的。在實(shí)際的算法和編程設(shè)計(jì)中,可以按照優(yōu)先次序和偏好順序決定智能決策的結(jié)果,使無人駕駛汽車在遇到緊急情況時(shí)能夠堅(jiān)持“以人為本”和“生命第一”的原則,盡力保全車上乘客或者第三方的生命安全,避免傷亡或盡可能使傷亡降到最低限度。這不僅僅是法律問題、道德問題,更是技術(shù)蘊(yùn)涵人本性的重要體現(xiàn)。
按照普遍的劃分,人工智能的發(fā)展分為專用人工智能和通用人工智能兩個(gè)階段,目前的人工智能技術(shù)處于專用人工智能階段。理論支撐和技術(shù)制約等多方面因素的限制和類人的非理性能力、情緒控制、情感產(chǎn)生等技術(shù)的難以實(shí)現(xiàn),使通用人工智能是否能夠?qū)崿F(xiàn)成為具有很大爭議的問題之一,而基于后人類時(shí)代的人機(jī)融合將成為人工智能技術(shù)發(fā)展的未來趨勢。對(duì)人類而言,從工具論和目的論角度出發(fā),把人工智能發(fā)展到人類所需的上限,真正把人類從具體事務(wù)中解放出來,并幫助人類實(shí)現(xiàn)自由而全面的發(fā)展,是人工智能技術(shù)發(fā)展的根本動(dòng)力和目的所在。在人類社會(huì)中,“平等”的價(jià)值觀念占據(jù)主流。因此,基于工具目的的專用人工智能也要遵循平等原則,在實(shí)現(xiàn)人工智能技術(shù)造福人類的過程中,在技術(shù)研發(fā)的競爭性、系統(tǒng)設(shè)計(jì)的公開性、算法的非歧視性等各個(gè)環(huán)節(jié)都要體現(xiàn)這一原則。尤其需要注意的是,算法本身是中立的,然而在人工智能的具體應(yīng)用中,由于技術(shù)的限制、技術(shù)權(quán)貴的認(rèn)知偏見、在訓(xùn)練算法的過程中使用有問題的數(shù)據(jù)集等原因?qū)е轮悄軟Q策中可能存在的算法歧視等現(xiàn)象,這是目前人工智能發(fā)展體現(xiàn)平等性原則需要解決的重要問題。比如在2016年召開的首屆“國際人工智能選美大賽”上,機(jī)器人專家組依據(jù)“準(zhǔn)確評(píng)估人類審美與健康標(biāo)準(zhǔn)”對(duì)參賽選手的面部進(jìn)行評(píng)判,最后比賽的獲勝者都是白人,這就是技術(shù)權(quán)貴設(shè)計(jì)的算法未能考慮到其他膚色人種的評(píng)判需要所造成的歧視。這種不平等的情況在類似人臉識(shí)別等多種技術(shù)系統(tǒng)中的出現(xiàn),是人工智能算法設(shè)計(jì)者需要十分關(guān)注的問題。
“梅賽德斯-奔馳”無人駕駛汽車的程序設(shè)計(jì)中就存在著不平等的價(jià)值標(biāo)準(zhǔn)。針對(duì)在遇到緊急情況下智能系統(tǒng)會(huì)優(yōu)先選擇救路人還是保乘客的兩難問題,奔馳無人駕駛汽車的智能系統(tǒng)會(huì)優(yōu)先選擇保護(hù)駕駛員和乘客。隨著自動(dòng)駕駛技術(shù)的進(jìn)步和智能決策算法的優(yōu)化,智能系統(tǒng)在綜合各方面的情況后會(huì)做出最優(yōu)決策,使生命財(cái)產(chǎn)的風(fēng)險(xiǎn)降到最低,這也是解決上述兩難問題的最好出路。因此,人工智能技術(shù)發(fā)展要充分體現(xiàn)平等性原則,通過技術(shù)平等實(shí)現(xiàn)人類平等、人機(jī)平等,最終實(shí)現(xiàn)人機(jī)和諧相處,使智能技術(shù)能夠真正造福人類社會(huì)。這一要求既符合各方利益訴求,也會(huì)消除人類對(duì)“機(jī)器奴役人”“機(jī)器消滅人”等諸類問題的擔(dān)憂。
堅(jiān)持正確的價(jià)值導(dǎo)向、突出差異性,就是要依據(jù)不同的需求對(duì)體現(xiàn)不同價(jià)值目的的智能系統(tǒng)植入不同的價(jià)值標(biāo)準(zhǔn)和道德準(zhǔn)則。價(jià)值觀的植入,要體現(xiàn)人類的價(jià)值目標(biāo)和價(jià)值訴求,體現(xiàn)智能機(jī)器決策的最高指令要求,堅(jiān)持價(jià)值觀對(duì)價(jià)值選擇和道德決策的引領(lǐng)作用。
由于人工智能技術(shù)涉及多個(gè)領(lǐng)域,因此,應(yīng)在不同領(lǐng)域或不同用途的智能體系統(tǒng)中突出其差異性,使從事不同行業(yè)或工作的人工智能體的智能系統(tǒng)遵循不盡相同的價(jià)值標(biāo)準(zhǔn),并以此來指導(dǎo)具體的道德準(zhǔn)則和行為規(guī)范。對(duì)此,偏好邏輯為我們提供了一個(gè)很好的邏輯工具。有學(xué)者說:“提到的偏好的模型都是很抽象的,故它們可以應(yīng)用到與偏好邏輯相鄰的領(lǐng)域中去,如道義邏輯。我個(gè)人一直相信,規(guī)范和義務(wù)的改變也可以用與偏好改變相似的方式來建立模型?!盵5](P.13)關(guān)于這一點(diǎn),前面我們提到的自動(dòng)駕駛技術(shù)就是一個(gè)很好的例子。自動(dòng)駕駛汽車除了要遵守基本的交通規(guī)則外,在遇有突發(fā)情況需要進(jìn)行智能決策時(shí),價(jià)值觀要引導(dǎo)智能系統(tǒng)在第一時(shí)間發(fā)揮積極作用,引導(dǎo)其在智能決策過程中按照偏好次序做出正確決策。在具體的程序設(shè)計(jì)上,對(duì)體現(xiàn)差異性的智能體進(jìn)行分類設(shè)計(jì),將不同的價(jià)值算子嵌入到智能體系統(tǒng)中,并依據(jù)一定的偏好進(jìn)行排序。要確保正確的價(jià)值理念在人工智能系統(tǒng)中發(fā)揮導(dǎo)向作用,并體現(xiàn)其差異性,使其各盡所能地為人類服務(wù)。
中國人工智能學(xué)會(huì)人工智能倫理專委會(huì)主任陳小平指出:“已經(jīng)提出的人工智能倫理準(zhǔn)則,大部分屬于反映普世價(jià)值的原則,當(dāng)把這些準(zhǔn)則應(yīng)用于具體的實(shí)際場景,就需要細(xì)化為可操作的具體規(guī)定,否則必然停留在口號(hào)的層面上無法落地?!盵6]因此,將人工智能系統(tǒng)的價(jià)值觀構(gòu)建與具體的道德規(guī)范嵌入結(jié)合起來,在哲學(xué)反思的基礎(chǔ)上尋求開展人工智能體價(jià)值觀的邏輯嵌入的方法論研究,為后人類時(shí)代實(shí)現(xiàn)人機(jī)和諧發(fā)展提供有益參考。
人工智能體的價(jià)值觀歸屬問題是人工智能價(jià)值觀構(gòu)建的核心問題。工具論視角下的人工智能體本身不具有主體的屬性,同其他技術(shù)一樣,它只是人類認(rèn)識(shí)自然和改造自然的工具。而基于后人類時(shí)代的人工智能體的價(jià)值觀構(gòu)建,同樣需要建立在人類價(jià)值觀的基礎(chǔ)之上。在人類社會(huì),盡管公平、正義、自由成為人類價(jià)值標(biāo)準(zhǔn)的共同底線,但是文化傳統(tǒng)的差異又使人類具有了不同的價(jià)值觀念。因此,從制度層面統(tǒng)一人工智能技術(shù)權(quán)貴的價(jià)值觀念具有本體論承諾的現(xiàn)實(shí)意義。目前,針對(duì)算法邏輯主導(dǎo)下“流量變現(xiàn)”的平臺(tái)需求與人本導(dǎo)向下“算法批判”的價(jià)值需求之爭,歐美的人工智能發(fā)展戰(zhàn)略為智能時(shí)代的信息價(jià)值觀引領(lǐng)提供了借鑒。歐盟人工智能倫理高級(jí)專家組提出了人工智能倫理的七條準(zhǔn)則[7],即確保人的能動(dòng)性和監(jiān)督性、保證技術(shù)穩(wěn)健性和安全性、加強(qiáng)隱私和數(shù)據(jù)管理、保證透明度、維持人工智能系統(tǒng)使用的多樣性、非歧視性和公平性、增強(qiáng)社會(huì)福祉以及加強(qiáng)問責(zé)制。從整體來看,歐盟的人工智能發(fā)展戰(zhàn)略并非單純的技術(shù)發(fā)展方向,而是秉持“以人為本”的歐洲傳統(tǒng),突出人文牽引的價(jià)值觀和倫理觀以彰顯其獨(dú)特優(yōu)勢,即通過價(jià)值觀引領(lǐng)人工智能技術(shù)的發(fā)展,以體現(xiàn)人類對(duì)公平、正義、自由的價(jià)值訴求,造福人類社會(huì)。這一發(fā)展理念最大限度地體現(xiàn)了人類的共同價(jià)值觀對(duì)人工智能發(fā)展具有重要的指導(dǎo)意義。2019年6月,中國國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》強(qiáng)調(diào)人工智能發(fā)展應(yīng)堅(jiān)守的八條原則——和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理,在制度層面提出中國人工智能發(fā)展的基本原則和價(jià)值標(biāo)準(zhǔn),旨在推動(dòng)人機(jī)和諧發(fā)展。
人類社會(huì)制度層面的價(jià)值沖突和“道德難題”也是值得關(guān)注的重要問題。雖然目前一些國家和地區(qū)已經(jīng)建立了普遍認(rèn)同的人工智能發(fā)展倫理體系,但是基于價(jià)值觀和道德認(rèn)知標(biāo)準(zhǔn)的不同,因而對(duì)一定行為認(rèn)知的價(jià)值沖突和“道德難題”依然存在,它們?nèi)允钦軐W(xué)反思和現(xiàn)實(shí)爭議的重要問題。因此,讓持有不同價(jià)值理念的技術(shù)權(quán)貴為智能機(jī)器的價(jià)值標(biāo)準(zhǔn)和道德準(zhǔn)則進(jìn)行形式刻畫,會(huì)出現(xiàn)不完全一致的結(jié)果,機(jī)器在具體行為決策中的表現(xiàn)亦會(huì)有所差異?;诓煌膬r(jià)值取向和道德評(píng)判標(biāo)準(zhǔn),所得的評(píng)價(jià)結(jié)果亦有所區(qū)別,這主要取決于智能系統(tǒng)的設(shè)計(jì)者采取什么樣的設(shè)計(jì)理念、按照什么樣的價(jià)值觀念和道德標(biāo)準(zhǔn)進(jìn)行技術(shù)設(shè)計(jì)。從價(jià)值觀層面講,它可以為智能機(jī)器的價(jià)值判斷和道德決策提供一個(gè)宏觀的價(jià)值評(píng)判標(biāo)準(zhǔn),按照諸如人本性等基本價(jià)值標(biāo)準(zhǔn)指導(dǎo)智能體做出相應(yīng)的智能決策。因此,通過加強(qiáng)制度建設(shè)、規(guī)范技術(shù)行業(yè)和技術(shù)權(quán)貴的價(jià)值觀念和道德標(biāo)準(zhǔn),使技術(shù)權(quán)貴把人類意識(shí)中正確的價(jià)值觀要素和現(xiàn)實(shí)生活中的道德成分賦予人工智能體,以價(jià)值觀要素引領(lǐng)技術(shù)要素,在宏觀層面、核心領(lǐng)域、關(guān)鍵時(shí)刻發(fā)揮積極作用。
人工智能的產(chǎn)生給人類社會(huì)的發(fā)展注入了新的活力,加快了人類文明的發(fā)展進(jìn)程,但是悲觀主義者對(duì)未來人工智能的擔(dān)憂亦不無道理。人類不僅應(yīng)該預(yù)見后人類時(shí)代人工智能的發(fā)展對(duì)人類利益的損害,更應(yīng)該防止智能機(jī)器“奴役”或者“消滅”人類的悲劇出現(xiàn)。有效避免和消除這樣的憂慮,推動(dòng)后人類時(shí)代的人機(jī)和諧發(fā)展,是現(xiàn)階段人工智能研究領(lǐng)域需要努力的一個(gè)方向。確保算法安全以增強(qiáng)智能體的價(jià)值判斷和道德決策能力,可以從根本上解決這一問題?!凹夹g(shù)本身的安全性、可控性與人性化是實(shí)現(xiàn)友好人工智能的關(guān)鍵性內(nèi)在因素?!盵8]加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)學(xué)教授斯圖爾特·拉塞爾指出,如果我們能夠解決如何把人類價(jià)值變成可編程的代碼,那么這種危險(xiǎn)是可以避免的。[9]人工智能相關(guān)領(lǐng)域的研究人員應(yīng)該秉持“算法只是一種工具,指導(dǎo)算法的應(yīng)是一種價(jià)值觀”的理念,強(qiáng)化智能技術(shù)的社會(huì)融合功能與人類的價(jià)值引領(lǐng)作用,并將二者結(jié)合起來,增強(qiáng)智能體在與環(huán)境交互過程中的價(jià)值判斷和道德決策能力。
第一,基于算法基礎(chǔ)上的人工智能系統(tǒng)應(yīng)受到程序正義的約束。希特輪(Danielle Keats Citron)在其論文《技術(shù)正當(dāng)程序》中指出,鑒于智能算法日益決定著各種決策的結(jié)果,人們需要建構(gòu)技術(shù)公平規(guī)范體系,通過程序設(shè)計(jì)來保障公平的實(shí)現(xiàn),并借助于技術(shù)程序的正當(dāng)性來強(qiáng)化人工智能機(jī)器決策系統(tǒng)的透明性、可審查性和解釋性。[10]由于邏輯系統(tǒng)具有透明性、可追溯性和可解釋性的特點(diǎn),建立在符號(hào)主義基礎(chǔ)上的人工智能算法將會(huì)在程序正義的價(jià)值約束下發(fā)揮積極作用。智能主體在與環(huán)境進(jìn)行交互的過程中,通過認(rèn)知技能掌握交互環(huán)境知識(shí),并按照一定的程序?qū)⑵滢D(zhuǎn)化為相應(yīng)的行為;在此基礎(chǔ)上,智能主體的認(rèn)知活動(dòng)按照這樣的方式不斷進(jìn)行更新、修正,直至實(shí)現(xiàn)既定目標(biāo);在此過程中,受到程序正義約束的算法可以發(fā)揮重要作用?!巴ㄟ^對(duì)于人類價(jià)值評(píng)判行為的觀察、歸納與模擬,復(fù)制人類社會(huì)成員踐行人道主義原則的行為方式,并以這種迂回的方式盡量體現(xiàn)‘阿西莫夫三原則’對(duì)于人工智能產(chǎn)品的行為約束。”[11]
第二,建立長效的算法監(jiān)督和評(píng)估機(jī)制。在目前眾多的智能產(chǎn)品中,為防止智能機(jī)器作出違反人類價(jià)值理念的言語或行為選擇,可以通過人工智能技術(shù)系統(tǒng)來監(jiān)管人工智能技術(shù)系統(tǒng),借助大家普遍認(rèn)同的價(jià)值理念和道德標(biāo)準(zhǔn)來建立邏輯系統(tǒng)和設(shè)計(jì)智能算法,對(duì)人工智能機(jī)器或智能系統(tǒng)進(jìn)行持續(xù)性的技術(shù)監(jiān)管。實(shí)施監(jiān)督和評(píng)估機(jī)制有兩種途徑,即外部監(jiān)管和內(nèi)部評(píng)估。一是加強(qiáng)外部監(jiān)管。隨著智能機(jī)器交互能力的不斷增強(qiáng)以及交互環(huán)境的變化,智能機(jī)器的價(jià)值選擇和道德決策可能會(huì)偏離初始的設(shè)置標(biāo)準(zhǔn),因此技術(shù)監(jiān)管機(jī)構(gòu)需要定期對(duì)智能機(jī)器的算法進(jìn)行倫理水平測試,并按照一定的評(píng)估標(biāo)準(zhǔn)和實(shí)際需要決定是否有必要調(diào)整偏好順序或進(jìn)行算法升級(jí)。二是強(qiáng)化內(nèi)部評(píng)估。從算法上設(shè)置一種二階程序?qū)崟r(shí)監(jiān)控智能機(jī)器的道德決策行為,當(dāng)出現(xiàn)價(jià)值偏差或者道德決策錯(cuò)誤時(shí),即在短時(shí)間內(nèi)提示智能系統(tǒng)進(jìn)行糾正或者進(jìn)行二次決策。
通過優(yōu)化算法,確保算法安全、增強(qiáng)智能體進(jìn)行價(jià)值判斷和道德決策的算法能力,始終是人工智能與人類和諧發(fā)展的根本保證。智能技術(shù)驅(qū)動(dòng)的創(chuàng)新觀與人文牽引的價(jià)值觀之間的平衡,必將是我們反思智能時(shí)代信息價(jià)值觀的邏輯起點(diǎn)。[12]
人工智能源于數(shù)理邏輯,正是數(shù)理邏輯對(duì)“計(jì)算”的追根尋源,使得人類第一個(gè)計(jì)算的數(shù)學(xué)模型圖靈機(jī)得以誕生。目前邏輯學(xué)的知識(shí)和成果仍在不斷推動(dòng)人工智能技術(shù)的更新和升級(jí),智能系統(tǒng)中主體知識(shí)庫的表達(dá)、主體推理模式的建立充分地運(yùn)用一階邏輯、直覺邏輯、模態(tài)邏輯、多值邏輯和模糊邏輯等邏輯工具,使得邏輯的可解釋性特征愈發(fā)具有技術(shù)優(yōu)勢。使智能機(jī)器具有價(jià)值選擇和道德決策的能力可以實(shí)現(xiàn),但前提是我們要找到把人類的價(jià)值標(biāo)準(zhǔn)和道德規(guī)范設(shè)定成算法的方法和規(guī)則。對(duì)智能系統(tǒng)開展價(jià)值代碼植入研究,使智能機(jī)器算法遵循“善法”,是人工智能系統(tǒng)進(jìn)行符號(hào)主義路徑研究的重要內(nèi)容。邏輯預(yù)設(shè)了真的實(shí)在性,價(jià)值標(biāo)準(zhǔn)和道德規(guī)范預(yù)設(shè)了善的實(shí)在性,在邏輯手段的可刻畫性和機(jī)器的可實(shí)現(xiàn)性之間找到一個(gè)恰當(dāng)?shù)钠胶恻c(diǎn),是倫理學(xué)、邏輯學(xué)和計(jì)算機(jī)科學(xué)等相關(guān)領(lǐng)域共同的研究課題。
人工智能技術(shù)領(lǐng)先的國家應(yīng)加強(qiáng)技術(shù)合作,在基本價(jià)值理念框架下建立統(tǒng)一的、具體的價(jià)值標(biāo)準(zhǔn)和道德準(zhǔn)則,實(shí)現(xiàn)智能系統(tǒng)邏輯進(jìn)路的本體論承諾。首先是規(guī)范技術(shù)權(quán)貴的價(jià)值取向。技術(shù)權(quán)貴在進(jìn)行智能系統(tǒng)設(shè)計(jì)的過程中應(yīng)堅(jiān)持正確的價(jià)值取向,體現(xiàn)人本性和公平性的基本價(jià)值訴求,而不能設(shè)計(jì)帶有價(jià)值偏差和價(jià)值歧視的智能系統(tǒng)。其次是規(guī)范技術(shù)的價(jià)值目標(biāo)。技術(shù)權(quán)貴在將技術(shù)轉(zhuǎn)化為智能的過程中,應(yīng)將正確的價(jià)值理念“賦予”智能系統(tǒng),使智能機(jī)器在實(shí)現(xiàn)智能化的過程中始終堅(jiān)持正確的價(jià)值導(dǎo)向,引導(dǎo)其作出正確的價(jià)值選擇和道德決策,以實(shí)現(xiàn)價(jià)值目標(biāo)的科學(xué)化和最大化。當(dāng)然,由于人類對(duì)人工智能的需求具有多樣性,智能機(jī)器將在不同領(lǐng)域或不同技術(shù)層面受不同技術(shù)權(quán)貴的影響而擁有多樣化的價(jià)值體現(xiàn)。
如何將人類規(guī)范化的價(jià)值理念和價(jià)值標(biāo)準(zhǔn)轉(zhuǎn)化為形式語言,實(shí)現(xiàn)價(jià)值算子嵌入到智能體系統(tǒng)中呢?據(jù)美國石英財(cái)經(jīng)網(wǎng)站2016年11月1日?qǐng)?bào)道,加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)學(xué)教授斯圖爾特·拉塞爾認(rèn)為,隨著機(jī)器人從事更加復(fù)雜的任務(wù),我們絕對(duì)有必要把我們?nèi)祟惖牡赖罗D(zhuǎn)化為人工智能語言?!袄硇詸C(jī)器植入道德元素,如程序規(guī)則的行為,可能構(gòu)成人工道德主體所需的理性?!盵13]由于價(jià)值觀和倫理道德對(duì)行為所發(fā)揮的作用基本相同,因而,將價(jià)值觀的基本理念嵌入智能系統(tǒng)應(yīng)遵循與道德規(guī)范嵌入智能系統(tǒng)一樣的方法論。具體來說,應(yīng)遵循自下而上的機(jī)器學(xué)習(xí)方式和自上而下的邏輯嵌入方式。徐英瑾認(rèn)為:“康德對(duì)于人工智能科學(xué)家的啟發(fā)就在于:知覺的‘自上而下’進(jìn)路(‘知性’或‘高階知覺’)和‘由下而上’進(jìn)路(‘感性’或‘低階知覺’)都是不可或缺的,因此一個(gè)更全面的人工認(rèn)知模型將囊括這兩者?!盵14](P.86)
第一,自下而上的機(jī)器學(xué)習(xí)方式。這種進(jìn)路是讓機(jī)器自主學(xué)習(xí),進(jìn)而掌握一定的價(jià)值理念?!白韵露线M(jìn)路”與“自上而下進(jìn)路”的道德主體模型構(gòu)建都堅(jiān)持道德上“善”的行為標(biāo)準(zhǔn),不同之處在于“自上而下進(jìn)路”關(guān)注普遍性倫理學(xué)理論基礎(chǔ)上的道德構(gòu)建,而“自下而上進(jìn)路”獲得道德的方法是把規(guī)范化的價(jià)值當(dāng)作機(jī)器隱含的內(nèi)容。[15]以自動(dòng)駕駛汽車為例,一個(gè)來自NVIDIA公司的團(tuán)隊(duì)近期證明了一輛采用“端到端”機(jī)器學(xué)習(xí)的自動(dòng)駕駛汽車,僅通過72小時(shí)的人類駕駛觀察數(shù)據(jù)就能夠?qū)崿F(xiàn)自主駕駛。[16]自動(dòng)駕駛系統(tǒng)在短時(shí)間內(nèi)會(huì)根據(jù)人類駕駛員的實(shí)際操作進(jìn)行學(xué)習(xí),通過觀察實(shí)際情境中人類駕駛員的行為獲得相應(yīng)的價(jià)值理念和價(jià)值偏好,并在實(shí)際場景中進(jìn)行價(jià)值判斷和價(jià)值選擇。這符合人類價(jià)值觀潛移默化的功能。自動(dòng)駕駛系統(tǒng)在學(xué)習(xí)的過程中把規(guī)范化的價(jià)值當(dāng)作機(jī)器隱含的內(nèi)容固定下來,并在實(shí)際場景中指導(dǎo)機(jī)器做出相應(yīng)的價(jià)值判斷。但自下而上學(xué)習(xí)方式的問題是,機(jī)器在習(xí)得人類駕駛員好的駕駛習(xí)慣和價(jià)值偏好的同時(shí),無形中也學(xué)到了人類駕駛員不符合人類價(jià)值規(guī)范的行為偏好,比如有的駕駛員習(xí)慣跟車太近,有的駕駛員有路怒癥的表現(xiàn),等等,這些都是偏離正確價(jià)值理念的不恰當(dāng)行為偏好。因此,要對(duì)智能系統(tǒng)已學(xué)到的價(jià)值理念和價(jià)值偏好進(jìn)行測定,對(duì)不符合人類價(jià)值標(biāo)準(zhǔn)的行為習(xí)慣和價(jià)值判斷要給予修正,同時(shí)對(duì)智能系統(tǒng)進(jìn)行實(shí)時(shí)監(jiān)控并定期升級(jí)。需要指出的是,在自下而上的學(xué)習(xí)方式存在的問題中,有的是以“黑箱”的方式存在,實(shí)際操作中的行為決策很難被追溯。
第二,自上而下的嵌入方式。在智能系統(tǒng)中加入道德算子是人工智能道德技術(shù)正確的邏輯進(jìn)路,同樣,將人類價(jià)值觀的核心理念作為價(jià)值決策算子嵌入智能系統(tǒng)中,也要遵循同樣的方法論選擇。人工智能道德自上而下的邏輯進(jìn)路就是把倫理學(xué)理論中的德性論、義務(wù)論、功利主義、正義論等倫理標(biāo)準(zhǔn)、倫理規(guī)范與倫理原則嵌入到人工智能體系統(tǒng)的設(shè)計(jì)中,在此基礎(chǔ)上構(gòu)建人工道德主體模型。按照這樣的思路,技術(shù)權(quán)貴將含有人類價(jià)值理念的自然語言轉(zhuǎn)化為形式語言進(jìn)行技術(shù)刻畫,并將其嵌入到系統(tǒng)當(dāng)中,使智能系統(tǒng)在設(shè)計(jì)過程、智能行為和智能決策中帶有人類的價(jià)值理念和價(jià)值標(biāo)準(zhǔn)。在實(shí)際操作中這樣的方案是可行的。
首先,規(guī)范價(jià)值標(biāo)準(zhǔn)的本體論承諾。阿西莫夫三定律是“自上而下”道德主體模型的模板,“任何討論‘自上而下’式的機(jī)器人道德設(shè)計(jì)都不能不談阿西莫夫三定律”[17](P.91)。為智能主體系統(tǒng)設(shè)計(jì)利于形式化的價(jià)值標(biāo)準(zhǔn),主要依據(jù)人類的普世價(jià)值以及更能具體反映人類價(jià)值標(biāo)準(zhǔn)的自然語言,比如法律機(jī)器人可以依據(jù)“公正”原則提供相關(guān)法律建議,在其系統(tǒng)設(shè)計(jì)時(shí)可以借助道義邏輯這一工具進(jìn)行形式刻畫,技術(shù)人員依據(jù)道義邏輯的規(guī)則將含有“禁止”“允許”“中立”的算子加入到系統(tǒng)當(dāng)中。價(jià)值標(biāo)準(zhǔn)可以是普世價(jià)值的基本內(nèi)容或者反映普世價(jià)值的具體的價(jià)值準(zhǔn)則,如生命(目前自動(dòng)駕駛汽車的價(jià)值偏好是“優(yōu)先保護(hù)車內(nèi)乘客的生命安全”)、平等(前面提到的非歧視原則)、公正(法律機(jī)器人尤其需要關(guān)注的價(jià)值準(zhǔn)則)等等。同時(shí),普世價(jià)值的價(jià)值準(zhǔn)則可以結(jié)合具體的道德規(guī)范進(jìn)行形式刻畫,比如康德的絕對(duì)命令、功利主義或結(jié)果論的某種形式。在現(xiàn)實(shí)操作中不可避免地存在著價(jià)值沖突和“道德難題”,本杰明·康斯坦特(Benjam Constant)指出,絕對(duì)命令將迫使某人告訴殺人犯他的獵物位置,因?yàn)樵谌魏吻闆r下都禁止說謊。[18](PP.1774~1799)而如果遵循結(jié)果論就會(huì)得出結(jié)論認(rèn)為,作為一種減少造成不可避免損失的方法是一輛汽車最好選擇撞向相鄰車道內(nèi)兩輛車中比較便宜的那輛汽車,這顯然會(huì)引起人們的擔(dān)憂。[19](PP.58~65)基于價(jià)值觀的宏觀指導(dǎo)和道德規(guī)范的具體要求的不同,智能體做出的行為決策所發(fā)揮的作用也不盡相同。智能機(jī)器在面臨價(jià)值沖突或者道德困境時(shí),Piotr Kulicki和Robert Trypuz設(shè)計(jì)的道德機(jī)器為我們提供了一種思路,他們提出運(yùn)用“通盤考慮”(all-things-considered)的思想解決多值道義邏輯在面臨道德沖突問題時(shí)的解決辦法。(1)Piotr Kulicki, Robert Trypuz, Judging Actions on the Basis of Prima Facie Duties-the Case of Self-driving Cars, Logic and Logical Philosophy, 2019,(006)。按照這一思路,智能系統(tǒng)可以依據(jù)不同類型的智能主體以及要實(shí)現(xiàn)的價(jià)值目標(biāo)等綜合因素,進(jìn)而選擇不同的價(jià)值偏好次序。
其次,將人類價(jià)值觀的核心理念作為價(jià)值決策算子嵌入智能系統(tǒng),是智能機(jī)器體現(xiàn)人類價(jià)值標(biāo)準(zhǔn)的正確邏輯進(jìn)路。如何將人類現(xiàn)有的價(jià)值理念進(jìn)行形式刻畫,并將形式化的價(jià)值理念嵌入到智能機(jī)器中,是實(shí)現(xiàn)人工智能體價(jià)值觀的關(guān)鍵。在形式化方面,自然語言中與正確價(jià)值觀念和符合道德規(guī)范的相關(guān)詞項(xiàng)將得以符號(hào)化。在以邏輯為工具的智能系統(tǒng)設(shè)計(jì)中,道義邏輯在涉及法律法規(guī)、道德規(guī)范、價(jià)值標(biāo)準(zhǔn)等方面將發(fā)揮積極作用?!暗懒x邏輯有助于把模糊的倫理學(xué)概念精確地加以規(guī)定,并且把它們的潛在含義和關(guān)系闡發(fā)清楚,以構(gòu)成一個(gè)前后融貫的理論體系。”[20]然而,道義邏輯存在的一些悖論也使道義邏輯在人工智能法律和道德系統(tǒng)設(shè)計(jì)方面受到一定的局限,這也是邏輯學(xué)家和計(jì)算機(jī)技術(shù)專家需要解決的現(xiàn)實(shí)問題之一。比如道義邏輯悖論中最經(jīng)典的羅斯悖論,用邏輯公式表示為Op→O(p∨q)。這條道義邏輯定理是說,如果應(yīng)該p,則應(yīng)該p或q。這符合命題邏輯推理規(guī)則,但在現(xiàn)實(shí)生活中,我們通過語義解釋為如果說你應(yīng)該寄走這封信,那么,你應(yīng)該寄走這封信或者燒掉它,顯然是違反了人們的直覺。因此,羅斯(Alf Rose)指出這個(gè)推理并不被直接看作是邏輯有效的,說明標(biāo)準(zhǔn)道義邏輯的語義理論在刻畫道義推理的特征方面是不充分的。在實(shí)際應(yīng)用中,技術(shù)人員應(yīng)該結(jié)合技術(shù)設(shè)計(jì)的應(yīng)用場景,有效處理價(jià)值沖突、“道德難題”以及“邏輯悖論”的困擾,合理運(yùn)用非標(biāo)準(zhǔn)邏輯工具,把一些明確的價(jià)值標(biāo)準(zhǔn)和道德規(guī)范嵌入到智能系統(tǒng)當(dāng)中,使其在現(xiàn)實(shí)應(yīng)用中發(fā)揮價(jià)值引導(dǎo)和道德規(guī)范的積極作用。
除了發(fā)揮多值道義邏輯在智能系統(tǒng)自上而下進(jìn)路的作用外,動(dòng)態(tài)偏好邏輯、動(dòng)態(tài)認(rèn)知邏輯等非經(jīng)典邏輯將會(huì)在動(dòng)態(tài)認(rèn)知和不確定推理的價(jià)值判斷中發(fā)揮積極作用,這也將是人工智能符號(hào)主義者在今后的人工智能價(jià)值判斷和道德決策應(yīng)用當(dāng)中需要關(guān)注的問題?!皠?dòng)態(tài)認(rèn)知邏輯是關(guān)于知識(shí)、行為以及二者相互關(guān)系的邏輯,這不是關(guān)于一個(gè)邏輯,而是關(guān)于允許我們說明理性主體系統(tǒng)的靜態(tài)和動(dòng)態(tài)的一整套邏輯。”[21](Preface)同時(shí)在這方面已有不少動(dòng)態(tài)認(rèn)知模型,其中最流行的是布萊特曼(M.Bratman)的BDI模型(Belief-desire-intention model)。它是一種基于信念、愿望和意圖的模擬人類能動(dòng)性的較為合理的智能體抽象模型,嘗試將這一模型加入含有價(jià)值標(biāo)準(zhǔn)和道德規(guī)范的算子進(jìn)行邏輯刻畫,并依據(jù)價(jià)值偏好設(shè)置優(yōu)先次序,可以增強(qiáng)智能體在智能決策中進(jìn)行價(jià)值選擇和判斷的能力。當(dāng)然,由于價(jià)值沖突和道德難題的存在、人工智能技術(shù)的限制、邏輯工具的開發(fā)進(jìn)程緩慢等因素的影響,使得實(shí)現(xiàn)價(jià)值觀引領(lǐng)人工智能道德的邏輯進(jìn)路困難重重,這也是哲學(xué)、倫理學(xué)、邏輯學(xué)和計(jì)算機(jī)科學(xué)等相關(guān)學(xué)科研究需要共同解決的問題。
人工智能價(jià)值觀的構(gòu)建并不會(huì)在短期內(nèi)完全實(shí)現(xiàn),而是需要一個(gè)長時(shí)間的認(rèn)知過程和技術(shù)發(fā)展過程。但我們必須相信,價(jià)值觀引領(lǐng)的人文技術(shù)在未來人工智能應(yīng)用中,在確保未來人工智能的安全、可靠、可控以及實(shí)現(xiàn)人機(jī)和諧過程中必將發(fā)揮重要作用。展望未來,隨著人類認(rèn)知水平的大幅提高和智能技術(shù)的飛速發(fā)展,人們對(duì)智能機(jī)器的依賴程度不斷加深,人機(jī)融合將進(jìn)入新的階段,人機(jī)和諧發(fā)展必將成為后人類時(shí)代發(fā)展的主題。因此,將人類的價(jià)值理念具體化和價(jià)值標(biāo)準(zhǔn)形式化,并借助邏輯工具實(shí)現(xiàn)系統(tǒng)嵌入,從而為人工智能價(jià)值觀與人類價(jià)值觀實(shí)現(xiàn)價(jià)值對(duì)齊提供技術(shù)支持,將成為人工智能符號(hào)主義者未來的一個(gè)研究方向。在方法論上,動(dòng)態(tài)偏好邏輯、多值道義邏輯和動(dòng)態(tài)認(rèn)知邏輯等邏輯刻畫將成為符號(hào)主義者研究人工智能體的價(jià)值觀及其構(gòu)建問題的主要工具,并將為事實(shí)判斷與價(jià)值判斷在動(dòng)態(tài)的認(rèn)知活動(dòng)中實(shí)現(xiàn)相互轉(zhuǎn)化提供技術(shù)支持。
內(nèi)蒙古社會(huì)科學(xué)(漢文版)2021年1期