胡術(shù)恒, 向玉瓊
溫德?tīng)柡涂屏种赋?,?dāng)他們1999年涉足機(jī)器道德領(lǐng)域時(shí),如何建構(gòu)人工道德智能體方面的問(wèn)題,竟然還是未探索的哲學(xué)領(lǐng)域(1)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:1.,直到2017年這一領(lǐng)域在我國(guó)才成為熱點(diǎn)(2)據(jù)中國(guó)知網(wǎng)查詢,1986年第6期《中學(xué)政治學(xué)教學(xué)》雜志發(fā)表了方軍的《從機(jī)器人帶來(lái)的災(zāi)難談起——談道德和科學(xué)技術(shù)的關(guān)系》,從2017年開(kāi)始,研究相關(guān)問(wèn)題的文獻(xiàn)迅速增加。。這是因?yàn)?,道德?wèn)題實(shí)際上是當(dāng)代元倫理學(xué)的核心結(jié)構(gòu)性難題(3)邁克爾·絲密斯.道德問(wèn)題[M].林航,譯.杭州:浙江大學(xué)出版社,2011:11.,而在“人機(jī)共生”條件下,人工智能技術(shù)倫理變得更加復(fù)雜,在研究方法上,從機(jī)器人倫理的實(shí)在論進(jìn)路走向機(jī)器人倫理的關(guān)系論進(jìn)路又是一個(gè)重大轉(zhuǎn)折(4)李小燕.從實(shí)在論走向關(guān)系論:機(jī)器人倫理研究的方法論轉(zhuǎn)化[J].自然辯證法研究,2016(2):40-44.。近20年來(lái),盡管國(guó)外理論界在人工智能技術(shù)道德倫理方面做出了很多探究(5)從《道德機(jī)器——如何讓機(jī)器人明辨是非》的參考文獻(xiàn)大體可看出國(guó)外學(xué)者2007年以前的研究情況。,但如何使機(jī)器自身的道德能力逐漸增進(jìn)——依然是一個(gè)需要研究的課題(6)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:II.。
國(guó)內(nèi)研究人工智能道德的文獻(xiàn)大都處于“實(shí)在論”階段,還未邁入“關(guān)系論”。有文獻(xiàn)探究了人工智能技術(shù)的倫理樣態(tài),包括人機(jī)邊界模糊、責(zé)任歸屬困境、價(jià)值鴻溝加劇、智能技術(shù)依賴四個(gè)方面,并提出了協(xié)同治理的思路(7)譚九生,楊建武.人工智能倫理風(fēng)險(xiǎn)及其協(xié)同治理[J].中國(guó)行政管理,2019(10):44-50.。有文獻(xiàn)探究了人工智能體倫理建構(gòu)的內(nèi)涵、建構(gòu)的五項(xiàng)原則、基本框架及其實(shí)踐進(jìn)路,以此來(lái)明確人工智能倫理的基本價(jià)值、基本標(biāo)準(zhǔn)及落實(shí)人工智能倫理的相關(guān)責(zé)任(8)于雪,段偉文.人工智能的倫理建構(gòu)[J].理論探索,2019(6):43-49.。由于人工智能倫理和信息倫理之間存在一定的聯(lián)系,也有文獻(xiàn)希望從信息倫理中獲取對(duì)人工智能倫理的啟示(9)張正清,張成崗.第四次革命:現(xiàn)代性的終結(jié)抑或重構(gòu)——信息倫理對(duì)人工智能倫理的啟示[J].武漢大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(5):177-184.。還有文獻(xiàn)意識(shí)到“人機(jī)共生”關(guān)系下人工智能技術(shù)必然會(huì)挑戰(zhàn)既有的人類價(jià)值,因此提出要堅(jiān)持以人為本或以人為中心的發(fā)展原則(10)孫偉平.關(guān)于人工智能的價(jià)值反思[J].哲學(xué)研究,2017(10):120-126.。
隨著人工智能與人類生活關(guān)系的日益緊密,理論界對(duì)于“人機(jī)共生”狀態(tài)下人工智能體的道德問(wèn)題理解得更加深刻。有文獻(xiàn)提出,由于機(jī)器人和其他人工智能有自主感知世界并自主選擇行動(dòng)來(lái)實(shí)現(xiàn)目標(biāo)的特性,因此在設(shè)計(jì)時(shí),需要讓它們遵循人類的社會(huì)規(guī)范(11)BENJAMIN K. How can we trust a robot?[J].Communications of the ACM, 2018,61(3):86-95.。從人機(jī)互動(dòng)的角度看,需要考慮人與機(jī)器人道德地位的不對(duì)稱性,從機(jī)器人外觀、社會(huì)智能、人工情感等方面入手建構(gòu)機(jī)器人的道德能力(12)杜嚴(yán)勇.論機(jī)器人道德能力的建構(gòu)[J].自然辯證法研究,2018(5):43-48.。還有文獻(xiàn)強(qiáng)調(diào),未來(lái)的研究需要在全球情景條件下,從倫理體系建設(shè)、理論技術(shù)的前瞻性、倫理角色塑造和科學(xué)發(fā)展倫理觀等方面做進(jìn)一步的研究(13)謝洪明,陳亮,楊英楠.如何認(rèn)識(shí)人工智能的倫理沖突——研究回顧與展望[J].外國(guó)經(jīng)濟(jì)管理,2019(10):109-124.。在人工智能時(shí)代,“人機(jī)共生”意味著人和人工智能“類人”形成了共生共在的社會(huì)關(guān)系。因此,在“人機(jī)共生”的環(huán)境中,人工智能體的道德判斷更加具有復(fù)雜性。其復(fù)雜性主要表現(xiàn)在兩個(gè)方面:一是因?yàn)椤邦惾恕币鎸?duì)人類道德生活的復(fù)雜性;二是人類如何賦予“類人”道德判斷能力的復(fù)雜性。
本文根據(jù)溫德?tīng)柡涂屏痔岢龅娜斯さ赖轮悄荏w(AMAs)的兩維框架“自主性——倫理敏感性”來(lái)探索人工智能體道德判斷的復(fù)雜性問(wèn)題,重點(diǎn)探究三個(gè)方面的問(wèn)題:一是“人機(jī)共生”關(guān)系中道德判斷的現(xiàn)實(shí)復(fù)雜性;二是“人機(jī)共生”關(guān)系中道德判斷理論選擇的復(fù)雜性;三是提出解決人工智能體道德判斷復(fù)雜性的三條思路。
人們對(duì)技術(shù)和道德關(guān)系的認(rèn)識(shí)和定義會(huì)隨著時(shí)代的發(fā)展而變化。從農(nóng)業(yè)社會(huì)到工業(yè)社會(huì),技術(shù)是工具性、中性,機(jī)器的運(yùn)動(dòng)是物理運(yùn)動(dòng),既沒(méi)有自主性更沒(méi)有情感性。所謂技術(shù)的道德是工具性道德,它的主體有兩個(gè),即工具設(shè)計(jì)者和使用者。然而,人工智能體“類人”如同人一樣具有自主性,有自主行動(dòng)和自主決策能力。一旦討論人工智能體自主性問(wèn)題就會(huì)觸及人工智能體的道德判斷問(wèn)題。如果人工智能時(shí)代“人機(jī)共生”社會(huì)出現(xiàn),那么“人機(jī)共生”關(guān)系將會(huì)成為認(rèn)識(shí)道德判斷復(fù)雜性的起點(diǎn)。
古希臘思想家將人歸為萬(wàn)物之靈時(shí),其目的是希望徹底將人和物區(qū)分開(kāi)來(lái),從人類發(fā)展來(lái)看,這種區(qū)分的價(jià)值和意義巨大。當(dāng)人無(wú)需以道德的方式來(lái)處理物時(shí),就增強(qiáng)了人開(kāi)發(fā)自然、獲得資源的能力。盡管,這個(gè)過(guò)程破壞了自然,但人類仍然難以遏制,今天,技術(shù)依然是人類索取自然的基本工具。但人工智能技術(shù)的發(fā)展呈現(xiàn)出了新的狀態(tài),即“伴隨著日益增強(qiáng)的自主性和敏感性的交互作用進(jìn)行”(14)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:27.。由此可見(jiàn),具有自主性和敏感性的人工智能體,將給人類社會(huì)增加一種有自主性、敏感性的“人造物”?!邦惾恕钡某霈F(xiàn)促使人類社會(huì)形成了“人機(jī)共生”的新社會(huì)關(guān)系。這種新的社會(huì)關(guān)系,對(duì)“人是萬(wàn)物之靈”的哲學(xué)指引提出了挑戰(zhàn)。當(dāng)具有自主性和敏感性的人工智能“類人”進(jìn)入到人類社會(huì),人類就需要改變對(duì)自然界和人工智能“類人”地位的看法,否則,作為人造物的“類人”將給人類帶來(lái)傷害,人類和人工智能體都不可能獲得可持續(xù)發(fā)展。這就是“人機(jī)共生”關(guān)系中最基本的認(rèn)識(shí)?;谶@樣的認(rèn)識(shí),人類必須賦予、保證人工智能體具有道德判斷能力,將其發(fā)展成為具有道德判斷能力的“類人”。
人類對(duì)人工智能道德判斷能力的認(rèn)識(shí)是逐步形成的。一方面,通過(guò)文藝作品中機(jī)器人的意象,即通過(guò)科幻小說(shuō)和電影建構(gòu)“人機(jī)共生”的故事,將機(jī)器人視為人類一樣有情感、有智慧又超越人類能力的主體,在人們心目中強(qiáng)化其道德的形象,為人類賦予人工智能體道德判斷能力打下了文化基礎(chǔ)。另一方面,通過(guò)現(xiàn)實(shí)生活的要求。一旦人工智能“類人”步入人類社會(huì),就會(huì)影響人的行動(dòng)空間。隨著技術(shù)的發(fā)展,人工智能體將在教育、醫(yī)療診斷、經(jīng)濟(jì)投資、交通駕駛等涉及人類衣食住行的各種領(lǐng)域里,幫助人類提供數(shù)據(jù)、進(jìn)行決策,它們掌握著人類最隱私的信息。因此,人類對(duì)人工智能體的道德期待會(huì)更加強(qiáng)烈,必然要求它們有道德的行動(dòng)。如同人類社會(huì)中缺乏道德的人將被否定一樣,在“人機(jī)共生”社會(huì),“類人”必須成為具有道德能力和道德自我約束力的主體,缺乏道德的“類人”將被人類拒絕、遺棄甚至停止“生命”。
在“人機(jī)共生”關(guān)系中,人工智能體的自主性能力越強(qiáng),人類與它們的合作就越深入。隨著風(fēng)險(xiǎn)社會(huì)的來(lái)臨,人類需要尋求“第二層級(jí)的決策支持體系”,來(lái)解決具有高度復(fù)雜性和高度不確定性的社會(huì)問(wèn)題(15)溫德?tīng)枴ね呃眨屏帧ぐ瑐?道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:25.。人類和“類人”形成了新的合作決策方式,人類需要人工智能程序支持決策,以幫助人類解決超越其決策能力的問(wèn)題。在解決這些問(wèn)題時(shí),“這些系統(tǒng)將需要以現(xiàn)代的計(jì)算速度來(lái)處理復(fù)雜情況,在這些情況下所作出的選擇和采取的行動(dòng)方案是無(wú)法讓設(shè)計(jì)者和軟件程序員見(jiàn)到的”(16)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:25.。人工智能因此將獲得了人類的決策權(quán),“人機(jī)共生”的社會(huì)這樣的情況會(huì)越來(lái)越多。
工業(yè)革命以來(lái)技術(shù)設(shè)計(jì)的目標(biāo)是使機(jī)器更快、更有效率、更精確地實(shí)現(xiàn)人的需要。在今天,人工智能的目標(biāo)是它們根據(jù)人類的價(jià)值體系做出更好的決策(17)ROSSI F. How do you teach a machine to be moral? the Washington post[EB/OL].[2015-09-05].https:∥www.washingtonpost.com/news/in-theory/wp/2015/11/05/how-do-you-teach-a-machine-to-be-moral/.。這就要求人工智能體既有自主性又有倫理敏感性。如果人工智能體從未意識(shí)到或者不考慮過(guò)人類社會(huì)的道德問(wèn)題,就會(huì)帶來(lái)嚴(yán)重問(wèn)題。由于人類依賴人工智能系統(tǒng)的決策,因此需要持續(xù)提升人工智能體的自動(dòng)化程度,所以,“針對(duì)道德學(xué)科來(lái)說(shuō),挑戰(zhàn)在于怎樣在另一個(gè)坐標(biāo)的方向上移動(dòng),即道德考量的敏感性”(18)溫德?tīng)枴ね呃眨屏帧ぐ瑐?道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:25.。因此,對(duì)于人工智能體而言,自主性和倫理敏感性的統(tǒng)一具有決定性意義。
這就需要將人類的道德觀嵌入到人工智能體中,在不斷追求人工智能體道德判斷能力和道德決策能力提升的同時(shí),保證它們的倫理敏感性、安全性和可靠性,使之更好地服務(wù)于人類。在這個(gè)意義上,摩爾將人工道德智能體劃分為四類:最底層的是倫理效果智能體,其次是隱含式倫理智能體,第三層是顯現(xiàn)式倫理智能體,第四層是完備倫理智能體(19)MOOR J H.The nature, importance, and difficulty of machine ethics[J].Intelligent system,2006(24):18-21.。這也說(shuō)明人類賦予、提升人工智能體道德判斷能力的過(guò)程是漸進(jìn)性的。
與物相比,除了制造、使用工具和具有語(yǔ)言能力外,人還是自主性和倫理敏感性結(jié)合的主體?!叭说淖灾餍允窃谖幕⒄我约白晕业挠鸵蟮木C合作用下生成的”(20)張康之.論社會(huì)運(yùn)行和社會(huì)變化加速化中的管理[J].管理世界,2019(2):101-114.;既來(lái)源于自身的意識(shí)和決定,又來(lái)源于人和社會(huì)的相互作用。人的倫理敏感性則來(lái)源于人需要有道德的生活,所以從“ethic”(倫理)一詞的詞源可以看出(21)“倫理”一詞源自古希臘文ethos,ethos的本意是“本質(zhì)”“人格”;也與“風(fēng)俗”“習(xí)慣”的意思相聯(lián)系。見(jiàn)何懷宏著《倫理學(xué)是什么》,北京大學(xué)出版社2015年版第14頁(yè)。,人類社會(huì)運(yùn)行的基礎(chǔ)中的重要部分就是倫理道德(22)倫理和道德兩個(gè)詞有區(qū)別,何懷宏先生在《倫理學(xué)是什么》一書(shū)中提出,當(dāng)表示規(guī)范、理論的時(shí)候,傾向于用“倫理”一詞,而當(dāng)指稱現(xiàn)象、問(wèn)題的時(shí)候,傾向于使用道德一詞。??梢哉f(shuō),是人的倫理敏感性促使人將道德判斷融合在人類行為中。
道德判斷是一個(gè)識(shí)別道德問(wèn)題、選擇道德行為和評(píng)價(jià)道德結(jié)果的過(guò)程。沒(méi)有道德判斷和道德生活的社會(huì)秩序難以維持。用道德觀點(diǎn)去評(píng)價(jià)別人的行為和態(tài)度,這個(gè)是常識(shí)(23)邁克爾·絲密斯.道德問(wèn)題[M].林航,譯. 杭州:浙江大學(xué)出版社,2011:1.。道德生活對(duì)個(gè)體的影響主要有三個(gè)方面。其一,只有以道德主體開(kāi)展道德判斷并根據(jù)道德規(guī)范行動(dòng),個(gè)體才能在社會(huì)生活中被認(rèn)可;其二,道德判斷會(huì)影響個(gè)體的行為、價(jià)值觀和世界觀;其三,失德的個(gè)體經(jīng)常會(huì)被社會(huì)抵制、制裁甚至懲罰。道德判斷是對(duì)個(gè)體和社會(huì)的建構(gòu)過(guò)程。進(jìn)一步而言,人之所以具有倫理敏感性,是因?yàn)樯鐣?huì)對(duì)人的決策具有自主、理性和責(zé)任的要求,社會(huì)要求個(gè)體考慮自我利益的同時(shí)也要考慮他人利益。
在“人機(jī)共生”社會(huì),人和“類人”必須要形成一種新的道德關(guān)系,以確保避免人機(jī)沖突或“種族斗爭(zhēng)”。培根認(rèn)為,人應(yīng)該通過(guò)直接面對(duì)世間萬(wàn)物和利用技術(shù)改造的方法來(lái)取得自然的權(quán)威(24)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊(cè)[M]. 吳寧,等,譯.北京:社會(huì)科學(xué)文獻(xiàn)出版社,2017:156.。一直以來(lái),人類被賦予各種復(fù)雜的責(zé)任,人工智能時(shí)代同樣需要人來(lái)提升人工智能體的道德判斷能力。同樣,由于人工智能有“類人”性,也會(huì)與人一樣“類責(zé)任化”,即承擔(dān)和人一樣的責(zé)任。在兩個(gè)方面的作用下,倫理敏感性是人工智能體不可缺少的一部分,必須遵守人類的道德原則,具備道德判斷能力?!叭藱C(jī)共生”的社會(huì)關(guān)系既是思考人工智能體道德判斷的前提,又是思考其道德判斷復(fù)雜性的起點(diǎn)。
目前,人工智能體的道德判斷能力是人賦予的,“人工智能體的道德屬性根源于人類自身的道德認(rèn)識(shí)”(25)王東浩.人工智能體引發(fā)的道德沖突于困境初探[J].倫理學(xué)研究,2014(2):68-73.。道德判斷的核心在于人們是基于何種標(biāo)準(zhǔn)作出道德判斷(26)COHEN D J, AHN M. A subject utilitarian theory of moral judgment[J]. Journal of experiment psychology: genera, 2016(145).1359-1381.,所以,在賦予人工智能體道德判斷能力時(shí),人需要選擇理論依據(jù)。由于人是有情感、有理性、有公平正義需求的,是道德動(dòng)機(jī)復(fù)雜性的綜合體,其倫理理論總糾纏在情感、理性、公平正義和動(dòng)機(jī)之中,可以說(shuō),人類的倫理道德理論的復(fù)雜性是人工智能道德判斷復(fù)雜性的重要來(lái)源。
人是有情感的。人類如果沒(méi)有情感,就失去了活著的價(jià)值?;趯?duì)人類情感價(jià)值的深厚考察,休謨成為18世紀(jì)英國(guó)倫理學(xué)情感主義的先驅(qū),現(xiàn)在看來(lái),它的理論依然科學(xué)?!靶葜兊膫惱韺W(xué)可以稱之為同情的倫理學(xué),他將道德感稱之為人的自然感情與同情結(jié)合的產(chǎn)物。”(27)孫文玲.同情與道德判斷——由同情概念的變化看休謨的倫理學(xué)[J].世界哲學(xué),2015(4):125-133.他不認(rèn)同將道德感作為道德判斷的基礎(chǔ)。根據(jù)他的判斷,“把道德感歸源于人類心靈原始本源的那些人或許以充分的權(quán)威為德性做了辯護(hù),不過(guò)卻沒(méi)有那些用人類廣泛的同情來(lái)闡釋道德感的人們所具有的優(yōu)勢(shì)”(28)大衛(wèi)·休謨.人性論[M].關(guān)天運(yùn),譯.北京:商務(wù)印書(shū)館,2010:663.。在他看來(lái),同情心能夠超越自利的人而關(guān)注“他者”?!霸谕榉矫妫覀冏约翰⒎侨魏吻楦械膶?duì)象,沒(méi)有任何東西使我們的注意力固定在自我身上?!?29)大衛(wèi)·休謨.人性論[M].關(guān)天運(yùn),譯.北京:商務(wù)印書(shū)館,2010:377.休謨將同情心視為道德判斷的基礎(chǔ),正是看到了同情心使“自利的人”脫離了自身自私的局限。
休謨不太同意將理性視為道德判斷的基礎(chǔ),這一點(diǎn)與啟蒙學(xué)者對(duì)理性的崇拜不同,在理性和情感的結(jié)構(gòu)上,他認(rèn)為理性依附于情感,認(rèn)為理性對(duì)道德行為的影響是間接的,它要借助于道德感,理性無(wú)法單獨(dú)發(fā)生作用(30)孟繁英.道德判斷:情感抑或理性——亞當(dāng)·斯密的公正的旁觀者理論評(píng)介[J].蘭州學(xué)刊,2016(12):122-126.。休謨的倫理學(xué)與現(xiàn)實(shí)中的道德判斷是相符的,因?yàn)?,人的道德判斷與人的情緒密切相聯(lián)。道德判斷的結(jié)果包括“錯(cuò)誤的”“正確的”“更好的”“更糟的”“無(wú)法接受”“可以接受”等,表現(xiàn)出了人憤怒或愉悅的情緒。愉悅的情感產(chǎn)生積極努力的道德行動(dòng),不愉悅的情緒會(huì)產(chǎn)生消極的道德行動(dòng)。人可以把消極情緒轉(zhuǎn)化為積極情緒,也可以將消極行動(dòng)轉(zhuǎn)變?yōu)榉e極行動(dòng),這恰好說(shuō)明情緒影響和支配著行為。人的情感表征和情感實(shí)質(zhì)之間的關(guān)系復(fù)雜,人在使用同一情感表征時(shí),其情感實(shí)質(zhì)存在差異性。同樣是微笑,對(duì)敵人和對(duì)親人表征時(shí),其情緒完全不同。這也說(shuō)明人的情感和道德不完全一致。
休謨的同情倫理學(xué)對(duì)人工智能體的道德設(shè)計(jì)非常重要,尤其是對(duì)服務(wù)型人工智能體更有重要價(jià)值。這一類人工智能體與人的生活關(guān)系最為密切。人工智能體“讀懂他人情緒的能力對(duì)于居家服務(wù)型機(jī)器人與人的互動(dòng)來(lái)說(shuō)十分有幫助”。然而,“除非工程師有意去設(shè)計(jì)系統(tǒng),否則,計(jì)算機(jī)智能就是建立在一個(gè)沒(méi)有欲望、動(dòng)機(jī)和目標(biāo)的邏輯平臺(tái)上”(31)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:124-125.。但有些觀點(diǎn)認(rèn)為,具有完全理性的人工智能體的道德計(jì)算能力比不完全理性的人要更強(qiáng)大,因此應(yīng)對(duì)倫理挑戰(zhàn)的時(shí)候,電腦可能相比人類大腦更具優(yōu)勢(shì)(32)溫德?tīng)枴ね呃眨屏帧ぐ瑐?道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:61.。其實(shí),這類判斷沒(méi)有認(rèn)識(shí)到“人機(jī)共生”關(guān)系的復(fù)雜性。
基于情感來(lái)設(shè)計(jì)人工智能體依然有三方面的困難。其一,從技術(shù)發(fā)展過(guò)程來(lái)看,要使人工智能體獲得與人一樣復(fù)雜的情感非常困難。其二,即使人工智能體可以獲得人一樣的情感,人也很難對(duì)其產(chǎn)生情感認(rèn)同。因?yàn)槿藢?duì)情感認(rèn)同有排他性,一般只針對(duì)人類本身,甚至還可以縮小為同一國(guó)家、同一族群等,因此可能拒絕認(rèn)同人工智能體的情感。其三,“人機(jī)共生”的環(huán)境下,如果人類和人工智能體不理解、不認(rèn)同彼此的情感,兩者又如何合作呢?
康德的道德義務(wù)論將道德判斷歸結(jié)為理性選擇。他認(rèn)為人的善良意志由理性決定,將理性視為影響道德判斷的第一要素:“在世界之中,甚至世界之外,不可能設(shè)想一個(gè)無(wú)條件善的東西了”(33)康德.道德形而上學(xué)[M].苗力田,譯.上海:上海人民出版社,1986:42.。所以,道德判斷是基于絕對(duì)命令而進(jìn)行理性思考的結(jié)果。密爾同樣強(qiáng)調(diào)理性是倫理道德的基礎(chǔ),他指出:“我們的倫理能力是我們的理性的一個(gè)分支”(34)MILL J S. On liberty and other essays [M]. Oxford:Oxford University Press,2008:330.。如同斯密一樣,康德和休謨的判斷只有一定的合理性。
因?yàn)?,根?jù)理性進(jìn)行道德判斷,源于人對(duì)道德事實(shí)的抽象;但是,道德規(guī)則與道德事實(shí)只有形式同一性,而在內(nèi)容上很難直接對(duì)接和吻合。當(dāng)?shù)赖率聦?shí)需要道德規(guī)制時(shí),道德規(guī)則不會(huì)簡(jiǎn)單而嚴(yán)格地吻合道德事實(shí)。畢竟,“道德規(guī)則所主張的是一種嚴(yán)格論,它抽離現(xiàn)實(shí)中道德的特殊因素,因此,它不能包容不同的道德變化,以此缺少對(duì)道德感知和道德敏感性的關(guān)切”(35)何宇白.道德判斷的困境與赫爾曼的康德式變化[J].北方論叢,2016(6):151-155.。從而,在社會(huì)生活中,不同地域、不同文化的道德主體的判斷標(biāo)準(zhǔn)存在差異,由于道德情景及道德內(nèi)容的復(fù)雜性,從絕對(duì)理性出發(fā)來(lái)作出道德判斷存在困境。
從技術(shù)發(fā)展來(lái)看,根據(jù)康德的理性選擇論設(shè)計(jì)人工智能道德體,自上而下地賦予其道德判斷能力是重要方式。目前,設(shè)計(jì)者持有這樣的觀點(diǎn),“電腦做出的道德選擇從一開(kāi)始就不受情感所干擾。因此機(jī)器就不會(huì)受你的暴怒或者性嫉妒這樣的情感所劫持”(36)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:61.,因此要拋棄情感,使“無(wú)人駕駛汽車和其他人工智能道德主體,特別是具有自主決策能力的道德主體必須根據(jù)設(shè)計(jì)者賦予的道德原理,依據(jù)所面對(duì)的道德問(wèn)題,形成合理的道德判斷”(37)AMITAI E,OREN E.AI assisted ethics[J]. Ethics information technology,2016(18):149-156.。很明顯,拋棄情感來(lái)思考純粹“理性”的道德,是過(guò)于簡(jiǎn)單的方式。因?yàn)?,任何道德判斷都在具體情境中進(jìn)行,必不可少地包含著情感等非理性因素。如果不考慮這些,人工智能體很難做出恰當(dāng)?shù)牡赖屡袛唷?/p>
進(jìn)一步而言,在設(shè)計(jì)人工智能體道德程序的過(guò)程中,“為機(jī)器創(chuàng)建一個(gè)倫理準(zhǔn)則框架”(38)MICHAEL A, ANDERSON S L. Machine ethics[M]. Cambridge: Cambridge University Press, 2011:1.的設(shè)想,很難實(shí)現(xiàn)。因?yàn)?,針?duì)不同的道德主體、道德賦予主體和道德事實(shí),道德判斷主體的判斷依據(jù)及判斷結(jié)果,都會(huì)有很大差異,無(wú)法統(tǒng)一在一個(gè)“大一統(tǒng)”的倫理框架內(nèi)。只有從宏觀方面和微觀方面仔細(xì)考慮,明確道德的區(qū)域性、差異性和情感性,再將這些普遍性和特殊性的道德規(guī)范設(shè)計(jì)成為道德判斷程序,才能幫助它們識(shí)別道德問(wèn)題,形成合理的道德判斷。
在美國(guó)物理學(xué)家伯姆看來(lái),人的思維具有情感性、社會(huì)性和文化性,基于人的思維的道德判斷,理應(yīng)是情感和理性的結(jié)合。斯密指出:“美德在于服從理性,就某些方面來(lái)說(shuō)是正確的,而就某一意義來(lái)說(shuō),理性也可以很恰當(dāng)?shù)乇豢醋魇琴澰S與非難以及所有穩(wěn)健的是非判斷的源頭與原理?!?39)亞當(dāng)·斯密.道德情操論[M].謝宗林,譯.北京:中央編譯出版社,2009:317.他認(rèn)為,合理有效的道德判斷過(guò)程,是公正的旁觀者、理性和同情共同作用的過(guò)程。為了克服理性和情感自身的弱點(diǎn),道德判斷時(shí)內(nèi)心需要有一個(gè)“公正的旁觀者”。因?yàn)椋皼](méi)有同情,理性可能是不人道的或者無(wú)力的,但是,沒(méi)有這個(gè)公正的旁觀者,沒(méi)有理性判斷,同情也是徒勞無(wú)益的”(40)侯紅霞.亞當(dāng)·斯密的美德理論[M].上海:上海三聯(lián)書(shū)店,2013:96.。
公正是衡量一個(gè)社會(huì)合理性的重要因素,是二元的,它希望建構(gòu)一種平等的關(guān)系。追求公正既是人類道德判斷的重要部分,又是法律判斷的重要部分。這種平等的關(guān)系主要是指人和人之間的平等,而很難擴(kuò)展到人工智能體之中。如果目前人工智能技術(shù)都沒(méi)有足夠的能力賦予人工智能體情感和理性,在此情況下,又如何能再為它設(shè)置“一個(gè)公正的旁觀者”角色?而且,公正本身就是人類社會(huì)中的復(fù)雜問(wèn)題,在“人機(jī)共生”的關(guān)系中,公正的問(wèn)題將更為復(fù)雜。
有文獻(xiàn)提出,企業(yè)需要一種新型的人工智能程序監(jiān)督,即人工智能倫理輔助監(jiān)管體。通過(guò)這類人工智能體監(jiān)視、審核其他人工智能體的行為,以保證人工智能機(jī)器守法律、有道德、負(fù)責(zé)任運(yùn)行,從而為人類提供更好的服務(wù)(41)AMITAI E,OREN E. AI assisted ethics[J]. Ethics information technology,(2016)18:149-156.。這個(gè)觀點(diǎn),無(wú)論從理論還是實(shí)踐上看都是一個(gè)悖論,因?yàn)槲覀兊睦щy本身在于,難以賦予人工智能體道德判斷力,又如何能進(jìn)一步設(shè)計(jì)出以道德判斷力為基礎(chǔ)的監(jiān)督程序呢?此外,在某種程度上,人工智能倫理輔助監(jiān)管體也否定了人對(duì)人工智能體完全的道德判斷能力。在“人機(jī)共生”的環(huán)境中,使用人工智能程序監(jiān)督,有可能會(huì)進(jìn)一步加劇人和人工智能體之間的矛盾。
現(xiàn)代心理學(xué)研究認(rèn)為:“圍繞道德判斷及決策過(guò)程的研究越來(lái)越深入和細(xì)化,但是道德判斷形成的機(jī)制一直是學(xué)術(shù)界爭(zhēng)論的熱點(diǎn),尚未形成統(tǒng)一的理論。”(42)李良,李路云.直覺(jué)還是推理,道德判斷如何形成?[J].心理學(xué)探新,2019(4):300-307.這一研究還存在著很大的爭(zhēng)議。這些爭(zhēng)議也增加了“人機(jī)共生”關(guān)系中,賦予人工智能體道德判斷的復(fù)雜性。
其一,在道德動(dòng)機(jī)和道德判斷的關(guān)系上,理論界存在著內(nèi)在主義和外在主義的理論,但是,這兩種理論之間都無(wú)法圓滿解釋生活中的不道德現(xiàn)象,即一些人可以做出道德判斷但沒(méi)有道德行動(dòng)(43)楊松.道德判斷與道德動(dòng)機(jī)——內(nèi)在主義與外在主義的理論交鋒[J].哲學(xué)動(dòng)態(tài),2018(12):75-83.。在“人機(jī)共生”的關(guān)系中,人工智能體也會(huì)如此嗎?
其二,有文獻(xiàn)提出,“道德判斷和道德動(dòng)機(jī)涉及我們對(duì)信念、欲望等概念的理解;而從道德心理學(xué)角度來(lái)看,道德動(dòng)機(jī)是否由道德判者決定存在爭(zhēng)議”(44)王奇琦.道德判斷與道德動(dòng)機(jī)[J].求索,2016(12):55-60.。如果人工智能體有了意識(shí)、情感和信念,那么,它們和人的意識(shí)、情感和意識(shí)一樣嗎?
其三,人們的道德標(biāo)準(zhǔn)是不一致的,甚至個(gè)人的選擇在不同的具體情境中也不一致(45)李宏翰,溫舒雯.道德判斷研究的歷史、現(xiàn)狀和展望[J].廣西師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2017(4):91-98.,雖然人工智能體中“程序員已經(jīng)敲進(jìn)去了那些重要的關(guān)乎建立信任和合作的價(jià)值”(46)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:23.,由于人們很難理解人工智能體的運(yùn)行過(guò)程,也無(wú)法讀懂人工智能體的程序運(yùn)行過(guò)程,這些程序是否真正能達(dá)到道德判斷的作用,依然并不明確,只能通過(guò)結(jié)果來(lái)體現(xiàn)。這也增加了人類賦予人工智能體道德判斷的復(fù)雜性。
弗羅里迪和桑德斯提出人工智能機(jī)器E的倫理標(biāo)準(zhǔn):(1) 交互性,E與環(huán)境互動(dòng);(2) 獨(dú)立性,E有能力改變自身和它的相互作用,而不受外部條件的直接影響;(3) 適應(yīng)性,E可能會(huì)基于(1)的結(jié)果而改變?cè)?2)中的實(shí)現(xiàn)方式(47)FLORIDA L,SANDERS J W. On the morality of artificial agents[J]. Minds and machines,2004(3):349-379.。設(shè)計(jì)師可以賦予人工智能主體宏觀道德標(biāo)準(zhǔn),然而,在不同道德情景下,宏觀道德標(biāo)準(zhǔn)如何實(shí)現(xiàn),則是重要的問(wèn)題。根據(jù)生活經(jīng)驗(yàn),在道德判斷的過(guò)程中,個(gè)體的人不是教條主義者,很難有一成不變的道德標(biāo)準(zhǔn)。所以,道德標(biāo)準(zhǔn)的選擇與不同的道德情境、道德問(wèn)題及其道德判斷主體的關(guān)注點(diǎn)有著緊密的聯(lián)系。
總體而言,人的社會(huì)活動(dòng)形成了具有多層次、多功能、多領(lǐng)域、多情感、多態(tài)度、多角色、多動(dòng)機(jī)的系統(tǒng),人的道德判斷是在復(fù)雜性社會(huì)活動(dòng)中的判斷活動(dòng);加之,在“人機(jī)共生”關(guān)系中,道德判斷不僅和道德問(wèn)題、道德情景和道德主體相關(guān),而且和道德動(dòng)機(jī)和道德文化相關(guān)。在現(xiàn)實(shí)生活中,道德標(biāo)準(zhǔn)既復(fù)雜又充滿差異性:“從某個(gè)特定的道德參照系出發(fā),試圖樹(shù)立所有人接受的公正觀念,這是一件十分困難之事”。(48)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊(cè)[M].吳寧,等,譯.北京:社會(huì)科學(xué)文獻(xiàn)出版社,2017:296.因此,目前的道德倫理理論,很難直接給人工智能體的道德設(shè)計(jì)提供理論依據(jù),而且,以此來(lái)尋找合適的理論進(jìn)行道德編碼,同樣是復(fù)雜的選擇問(wèn)題。正如人總是在情感、理性、公正中徘徊一樣,人的道德動(dòng)機(jī)也是漂浮不定的,這讓人類賦予人工智能體道德判斷能力成為復(fù)雜的問(wèn)題。
“道德主體是指具有自我意識(shí),能夠進(jìn)行道德認(rèn)知,能夠進(jìn)行推理并形成自我判斷,能夠進(jìn)行道德選擇與實(shí)施道德行為且承擔(dān)道德責(zé)任的道德行為體?!?49)閆坤如.機(jī)器人倫理學(xué):機(jī)器的倫理學(xué)還是人的倫理學(xué)?[J].東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019(4):331-336.人作為道德主體很容易理解,而且每個(gè)成年人都被界定為一個(gè)道德主體。人工智能體的“道德”不是簡(jiǎn)單移植人的道德,機(jī)器道德是通過(guò)程序編碼形成和運(yùn)行的,兩者具有本質(zhì)的不同。在“人機(jī)共生”關(guān)系中,人們對(duì)機(jī)器倫理的認(rèn)識(shí)越來(lái)越清晰,“機(jī)器倫理是重要的,我們想要機(jī)器對(duì)我們更好。因?yàn)闄C(jī)器正在變得越來(lái)越復(fù)雜,并且使我們的生活更加愉悅,而將來(lái)的機(jī)器可能自主地去做這些。機(jī)器的能力越強(qiáng)就越需要更強(qiáng)的機(jī)器倫理”(50)MOOR J H.The nature, importance, and difficulty of machine ethics[J]. Intelligent system,2006,24(4):18-21.。然而,摩爾也認(rèn)為,對(duì)人類對(duì)機(jī)器人倫理能力的期望不能太樂(lè)觀。然而,在“人機(jī)共生關(guān)系”中,機(jī)器倫理又非常重要。因此,為了使人工智能體成為具有道德判斷能力的主體,我們提出三條供參考的思路。
盡管只有當(dāng)一個(gè)人工智能體具有充分的自由意志時(shí),才能說(shuō)它知道什么是倫理沖突,才能是一個(gè)真正的道德決策者(51)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:28.;但是,隨著大面積使用越來(lái)越多的人工智能體,其技術(shù)自主性和倫理敏感性的分裂會(huì)產(chǎn)生巨大危害。其一,人工智能體的自主性,意味著其行動(dòng)可能超出程序準(zhǔn)則,脫離了控制,因此產(chǎn)生非道德行為。其二,人工智能自主性能力的發(fā)展速度,可能遠(yuǎn)遠(yuǎn)超過(guò)人類賦予其道德判斷標(biāo)準(zhǔn)并確保其成為道德機(jī)器的速度。其三,為了提升競(jìng)爭(zhēng)能力,暫時(shí)忽視了對(duì)人工智能技術(shù)自主性的倫理監(jiān)管。其四,為了獲得競(jìng)爭(zhēng)利益,部分企業(yè)可能只關(guān)注發(fā)展它的自主性技術(shù)而忽視其倫理敏感性。但是,如何讓機(jī)器融合倫理自主性是一個(gè)難題。
《道德機(jī)器》一書(shū)介紹了“自上而下”和“自下而上”的原則。“自上而下”是指在設(shè)計(jì)AMAs時(shí),選取一個(gè)具體的倫理理論,進(jìn)而設(shè)計(jì)能夠執(zhí)行這個(gè)理論的算法和子系統(tǒng)。“自上而下”的模式隱含地給這些系統(tǒng)嵌入了特定的價(jià)值觀(52)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:24.。這種人造的代碼道德,既受倫理理論的復(fù)雜性的限制,也受道德技術(shù)的提供者、人工智能公司等利益相關(guān)者的限制?!白韵露稀钡倪M(jìn)路則類似于兒童大腦的發(fā)育,是在一個(gè)環(huán)境中讓機(jī)器自己去學(xué)習(xí),生成一個(gè)道德模型。由于人類對(duì)道德的理解和將這些理解變成技術(shù)的能力十分有限,因此,在實(shí)施中存在諸多困難。因?yàn)樾袨閿?shù)據(jù)具有歷史性、社會(huì)性,既包含著人類普遍的道德價(jià)值,又包含著地域性和文化差異性、道德歧視甚至是道德歪曲等。而且,人的行為數(shù)據(jù)不是簡(jiǎn)單的數(shù)字,而是在既有經(jīng)濟(jì)、文化和社會(huì)背景下的行為,體現(xiàn)了不同的道德認(rèn)知水平。從而,經(jīng)過(guò)這些數(shù)據(jù)喂養(yǎng)、學(xué)習(xí)成長(zhǎng)的人工智能體,其道德判斷不可避免地會(huì)有人的痕跡(53)KATE CRAWFORD K, RYAN C. There is a blind spot in AI research[J]. Nature, 2016(20):311-313.。但是,人工智能體是否能深層次理解這些行為數(shù)據(jù)的意義,并進(jìn)行加工和再現(xiàn),尚未可知。
《道德機(jī)器》一書(shū)介紹的第三種方式是“混合式”的進(jìn)路。它是“自上而下”和“自下而上”的聯(lián)合,即通過(guò)普遍性的倫理規(guī)則,與具體的道德情境相結(jié)合來(lái)賦予人工道德智能體道德判斷能力。這種方式實(shí)現(xiàn)起來(lái)更加困難,畢竟,人類作為有機(jī)體是從生物化學(xué)環(huán)境中進(jìn)化而來(lái)的,推理的能力形成于有情緒的大腦,而人工智能體在現(xiàn)階段是在邏輯平臺(tái)上建立的(54)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:61.。同時(shí),經(jīng)過(guò)漫長(zhǎng)進(jìn)化的人,其道德判斷能力來(lái)源于鮮活的道德事件,這是目前的人工智能體無(wú)法比擬的。所以,人工智能自主性技術(shù)的發(fā)展非常迅速,而獲得倫理敏感性則十分艱難。
從人工智能體技術(shù)的意義看,所有的研究都要立足于使人工智能體成為道德主體。在“人機(jī)共生”的社會(huì),確保人工智能體的自主性和倫理敏感性融合非常重要,這是發(fā)展人工智能技術(shù)需要堅(jiān)持的原則。因?yàn)椋赖屡袛鄬?duì)社會(huì)合作有重要意義(55)李明暉,饒儷琳.解釋水平視角下的道德判斷[J].心理科學(xué)進(jìn)展,2017(8):1423-1430.,對(duì)“人機(jī)共生”關(guān)系的維護(hù)更有重要意義?!半S著自主決策技術(shù)變得更為普遍,我們?cè)O(shè)想,未來(lái)(軟硬件)機(jī)器人專家會(huì)認(rèn)識(shí)到,他們自己的職業(yè)規(guī)范使AMAs的發(fā)展成為一項(xiàng)勢(shì)在必行的工程。”(56)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:23.這一工程,就是追求人工智能體的自主性和倫理敏感性的融合發(fā)展。
人們都希望與一個(gè)有道德的人工智能體為伴,“如何建構(gòu)一個(gè)好的人工智能社會(huì)已經(jīng)成為技術(shù)引領(lǐng)性國(guó)家所共同考慮的事項(xiàng)”(57)CATH C, WACHTER S, et al. Artificial intelligence and “the good society”: the US, EU, and UK approach science and engineering ethics[EB/OL].(2017-03-28)[2018-01-04].http:∥doi.org/10.1007/s11948-017-9901-7.。為了達(dá)成這一目標(biāo),需要堅(jiān)持對(duì)人工智能體進(jìn)行合作治理,具體要注意以下三個(gè)方面的問(wèn)題:
其一,成立由多元主體構(gòu)成的人工智能倫理委員會(huì)。盡管,學(xué)術(shù)界和公眾對(duì)人工智能風(fēng)險(xiǎn)進(jìn)行了激烈討論,但各國(guó)政府還沒(méi)有將人工智能的道德風(fēng)險(xiǎn)放在首位,也沒(méi)有對(duì)人工智能道德問(wèn)題開(kāi)展全球治理。在差異性條件下,對(duì)人工智能的倫理道德限制將妨礙技術(shù)創(chuàng)新的觀點(diǎn)也比比皆是。為了消除差異性,達(dá)到自主技術(shù)性和倫理敏感性的融合,有必要成立由多元主體,包括政府、企業(yè)、社會(huì)組織和學(xué)者等組成的人工智能道德委員會(huì)。委員會(huì)經(jīng)常性地就人工智能道德的設(shè)計(jì)進(jìn)行公共對(duì)話,并將對(duì)話機(jī)制制度化,以此更好地消除倫理失范。當(dāng)然,這一過(guò)程要求多元主體客觀中立嵌入進(jìn)來(lái),理性指引。進(jìn)一步而言,委員會(huì)還需要分領(lǐng)域來(lái)開(kāi)展活動(dòng)。因?yàn)?,無(wú)論是智能教育、服務(wù)、醫(yī)療診斷、無(wú)人駕駛還是智能潛水器、水下機(jī)器人、礦山機(jī)器人、自動(dòng)飛行器或者遠(yuǎn)程戰(zhàn)爭(zhēng)機(jī)器人,正確賦予其道德倫理能力是必不可少的。有研究者提出一個(gè)設(shè)想:全世界應(yīng)該建立一個(gè)“國(guó)際人工智能道德委員會(huì)”,并確保該委員會(huì)得到應(yīng)有的支持并避免受到不當(dāng)?shù)挠绊?58)Protect AI panel from interference[J]. Nature,2019,572(8):415.。這一提議確有必要。
其二,加強(qiáng)對(duì)人工智能體道德偏見(jiàn)的治理。目前,可能導(dǎo)致人工智能體形成道德偏見(jiàn)的主體主要有三個(gè):一是深度學(xué)習(xí)的智能體。人工智能體可以通過(guò)深度學(xué)習(xí)來(lái)獲得道德能力,而“深度學(xué)習(xí)取決于對(duì)一個(gè)對(duì)代價(jià)函數(shù)的優(yōu)化”(59)特倫斯·謝諾夫斯基.深度學(xué)習(xí):智能時(shí)代的核心驅(qū)動(dòng)力量[M].姜悅兵,譯.北京:中信出版集團(tuán),2019:320.。由于人類社會(huì)到處存在偏見(jiàn)、不平等、歧視、淡漠與對(duì)抗,但是,AI不但有強(qiáng)化所習(xí)得的偏見(jiàn)的潛能,而且它們不像人可以有意識(shí)地去抵制偏見(jiàn)(60)溫德?tīng)枴ね呃?,科林·艾?道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:I.。二是智能體設(shè)計(jì)師團(tuán)隊(duì)。歸根結(jié)底,人工智能體的道德判斷能力依然取決于“設(shè)計(jì)師團(tuán)隊(duì)”。由于利益的驅(qū)動(dòng),可能形成部分技術(shù)精英控制人工智能體道德判斷能力的困境。三是公司或政府。公司以營(yíng)利為取向,它可能采取一些臨時(shí)性的舉措來(lái)消除產(chǎn)品的不道德取向,比如,用暫停鍵來(lái)停止其道德侵害,但企業(yè)的逐利取向會(huì)導(dǎo)致其行為的短視性;同樣,一些政府也可能有類似行動(dòng)。因此,這就要求政府、企業(yè)、行業(yè)能自我規(guī)制;此外人工智能倫理委員會(huì)應(yīng)積極治理此類的道德偏見(jiàn)。
其三,充分發(fā)揮政府的監(jiān)督職能。在人工智能體生產(chǎn)的合作治理過(guò)程中,政府將起到非常重要的作用。作為社會(huì)發(fā)展的穩(wěn)定器,政府有義務(wù)調(diào)整技術(shù)發(fā)展對(duì)社會(huì)秩序的沖擊,其主要功能是提供法律、規(guī)章和制度來(lái)約束人工智能生產(chǎn)企業(yè)、設(shè)計(jì)者及其他主體的不良行為;此外,要有效監(jiān)管人工智能體可能造成或者已經(jīng)造成的各種傷害。
人工智能體獲得道德判斷能力的復(fù)雜性不僅有現(xiàn)實(shí)緣由,還有理論緣由。不能回避的問(wèn)題是,賦予人工智能體道德判斷能力時(shí),價(jià)值多元問(wèn)題必然要體現(xiàn)出來(lái)。雖然研究和預(yù)測(cè)人工智能時(shí)代倫理規(guī)范的走向是很難的問(wèn)題,但是改變目前思考倫理規(guī)范的理論研究思路是一個(gè)可探索的路徑。在“人機(jī)共生”關(guān)系中,人工智能倫理理論的發(fā)展需要以“關(guān)系型”研究為進(jìn)路。以此為基礎(chǔ),我們提出,人工智能倫理學(xué)引向“智慧倫理學(xué)”是需要探索的問(wèn)題。
一方面,在多元價(jià)值的條件下,智慧倫理學(xué)能夠幫助行為者在技術(shù)范疇中辨別方向(61)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊(cè)[M].吳寧,等,譯.北京:社會(huì)科學(xué)文獻(xiàn)出版社,2017:263.。智慧倫理學(xué)并不創(chuàng)造或建立什么許可和禁令,而是提出看問(wèn)題的觀點(diǎn),從而認(rèn)清什么是好的(睿智的和隨機(jī)應(yīng)變的)勸告和建議——這里所針對(duì)的問(wèn)題是鑒于特定技術(shù)的使能作用,如何對(duì)優(yōu)先權(quán)問(wèn)題進(jìn)行確定(62)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊(cè)[M].吳寧,等,譯.北京:社會(huì)科學(xué)文獻(xiàn)出版社,2017:263.。
另一方面,智慧倫理學(xué)是一種“使能的倫理學(xué)”,因?yàn)樗伎嫉膯?wèn)題是,什么可以通過(guò)技術(shù)來(lái)引起我們生活環(huán)境的根本改變或?yàn)橹潭ɑ?,同時(shí),它還對(duì)這些情況是否符合人們的愿望進(jìn)行質(zhì)疑(63)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊(cè)[M].吳寧,等,譯.北京:社會(huì)科學(xué)文獻(xiàn)出版社,2017:263-264.。這些新的思路可能為“人機(jī)共生”關(guān)系下倫理學(xué)的發(fā)展提出新的探索方向。人類社會(huì)正在走向智慧社會(huì),智慧倫理學(xué)的形成也反映了社會(huì)發(fā)展的要求。走向智慧倫理學(xué)是倫理學(xué)研究的巨大轉(zhuǎn)向,也是一個(gè)需要理論界著力探索的問(wèn)題。