• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      面向人工智能的形式倫理及其邏輯基礎(chǔ)

      2018-01-23 08:14:21王淑慶
      倫理學(xué)研究 2018年4期
      關(guān)鍵詞:道義能動(dòng)性心智

      王淑慶

      隨著深度學(xué)習(xí)(基于大數(shù)據(jù))和通用人工智能(強(qiáng)化學(xué)習(xí))等理論與技術(shù)的進(jìn)展,人工智能在沉寂二十多年后再次迎來一個(gè)發(fā)展高潮。除了技術(shù)本身的問題,人工智能引發(fā)的哲學(xué)、社會(huì)倫理等問題也凸顯出來。其中,人工智能帶來的倫理問題備受社會(huì)和哲學(xué)界關(guān)注,它關(guān)系到普通大眾的切身福祉問題。人工智能倫理作為應(yīng)用倫理學(xué)的一個(gè)研究領(lǐng)域[1],有很多問題更迫切地需要得到解決,比如自動(dòng)駕駛的法律責(zé)任問題、算法倫理問題、大數(shù)據(jù)的共享與隱私問題、人工智能對(duì)社會(huì)崗位的沖擊問題、人工智能陪伴人類服務(wù)的倫理問題等。然而,如果欲使機(jī)器具備一定程度的道德推理和道德決策能力,特別是讓機(jī)器成為一定意義上的道德主體,僅靠對(duì)道德決策算法的小修改和對(duì)人類道德案例的學(xué)習(xí),肯定是不夠的。人工智能體(artificial agent)應(yīng)該具備“理解”倫理規(guī)范并進(jìn)行合理的道德推理與決策的能力。這種能力除了能通過深度學(xué)習(xí)得到訓(xùn)練外,還應(yīng)該基于它的底層邏輯。

      嚴(yán)格來說,人工智能倫理至少包括兩方面的內(nèi)容:一是人工智能體對(duì)人的倫理,二是人對(duì)人工智能體的倫理。本文不討論人對(duì)智能體的倫理問題,比如人是否對(duì)人工智能體具有倫理關(guān)系,人機(jī)交互時(shí)人應(yīng)該遵循何種倫理規(guī)范,等等。本文不在于解決形式倫理本身的問題,而在于論證形式倫理的必要性及其邏輯基礎(chǔ)。文章的重點(diǎn)是基于根斯勒(H.J.Gensler)的形式倫理(formal ethics)思想,主要針對(duì)人工智能體的道德決策問題,論證心智邏輯(mental logic)和能動(dòng)性邏輯(logic of agency)比較適合形式倫理。這種探討可以增進(jìn)倫理學(xué)與邏輯學(xué)的交叉研究,最終促進(jìn)形式倫理在人工智能道德決策中的應(yīng)用。

      一、形式倫理的必要性

      按照吉普斯(J.Gips)的說法,機(jī)器/人工智能倫理有三個(gè)基本問題[2]:一是人工智能體的行為能否被認(rèn)為具有倫理特性?二是人工智能體的行為約束應(yīng)該以哪些倫理理論為基礎(chǔ)?三是在探討人工智能體的行為是否具有倫理時(shí),人們能學(xué)到什么倫理的東西?可見,第一個(gè)問題和第三個(gè)問題是純道德哲學(xué)問題,第二個(gè)問題既是哲學(xué)問題,也是技術(shù)問題。形式倫理在某種意義上就是第二個(gè)問題的技術(shù)方面。但按照阿薩羅(P.M.Asaro)的說法,人工智能倫理的三個(gè)基本問題是[3]:第一,如何把倫理系統(tǒng)植入到人工智能體中?第二,設(shè)計(jì)和使用人工智能體的人應(yīng)該遵循什么倫理規(guī)范?第三,人們應(yīng)該如何對(duì)待人工智能體?筆者認(rèn)為,相比吉普斯的說法,阿薩羅的提法更切合“人工智能倫理”的實(shí)質(zhì)內(nèi)容。阿薩羅的第一個(gè)問題,實(shí)際上還包含很多子問題,比如人工智能體實(shí)施道德行動(dòng)應(yīng)該基于哪些倫理理論?如何把這些理論表達(dá)成形式語言(形式倫理)?機(jī)器道德推理應(yīng)該符合什么原則或邏輯?應(yīng)該用什么樣的算法實(shí)現(xiàn)這些形式理論?等等。由此可見,不管是吉普斯的問題分類,還是阿薩羅的問題分類,都需要考慮形式倫理的問題。

      所謂形式倫理,就是指用現(xiàn)代邏輯的形式方法研究倫理規(guī)則或原則的表達(dá)與推理問題。如果不考慮人工智能,形式倫理主要是為了元倫理學(xué)精確化分析的需要。但問題在于,邏輯那么“硬的東西”如何與倫理那么“軟的東西”相結(jié)合起來呢?根斯勒認(rèn)為,倫理學(xué)的形式部分和邏輯一樣是很硬的,形式的倫理原則應(yīng)該像邏輯原則一樣得到普遍的接受[4]。那么,哪些倫理規(guī)則是人類社會(huì)最為基本的規(guī)范?在根斯勒看來,最基本的倫理規(guī)范有六條[4]:一是黃金規(guī)則,即“己所不欲,勿施于人”;二是邏輯規(guī)則,如一定的范圍內(nèi)保持信念的一致性;三是良心規(guī)則,即遵從你的良心;四是公平規(guī)則,即在相似的情形中作出相似的評(píng)價(jià);五是不后悔規(guī)則,不做意識(shí)到會(huì)后悔的事;六是最大化規(guī)則,即在普遍律令的前提下追求最大化效用。這幾條規(guī)則比較高級(jí),將來也許可以面向具有較高主體性的人工智能體。根斯勒把這些規(guī)則用道義邏輯和祈使句邏輯進(jìn)行了表達(dá),可以看作是形式倫理的初步工作。

      把形式倫理應(yīng)用到人工智能中來,就是讓機(jī)器能夠“理解”并運(yùn)用它們進(jìn)行推理,從而幫助其作出道德決策和實(shí)施道德行動(dòng)。人們希望人工智能體具有一定的自主性或能動(dòng)性,比如具有道德推理或推理決策的能力應(yīng)該是這種人工能動(dòng)性(artificial agency)所蘊(yùn)涵的,它的目的在于使人工智能體不對(duì)人類造成傷害,甚至遵守人類文明。阿西莫夫(I.Asimov)提出的三條倫理原則(不準(zhǔn)傷害人,服從命令,不準(zhǔn)自殺)顯然是不夠的,因?yàn)樗皇侨斯ぶ悄荏w對(duì)于人類奴隸式服從的三條基本原則。人工智能體應(yīng)該遵循哪些倫理規(guī)范,根斯勒沒有討論,筆者在第三部分將針對(duì)人工智能體的行動(dòng),提出兩條新的倫理原則。

      現(xiàn)在以及可以設(shè)想的未來,人工智能體與人類在思維和行動(dòng)上的差別還非常明顯。首先,人類行動(dòng)對(duì)于直覺與經(jīng)驗(yàn)的依賴與調(diào)控方式和人工智能體很不一樣。假設(shè)把人工智能體也看作一個(gè)行動(dòng)者(agent),那么她的行動(dòng)依據(jù)并不是人類直覺和經(jīng)驗(yàn)式的,因?yàn)樗挥性谛问秸Z言和機(jī)械算法的意義上才能實(shí)行推理和決策。在這個(gè)意義上,人工智能體對(duì)于推理語言的表達(dá)與推理過程的精確化需求,自然比人類個(gè)體對(duì)于推理精確化的需求更為迫切。其次,從理論上說,機(jī)器實(shí)施道德行動(dòng)比人更依賴形式倫理理論。任何一種倫理理論,如義務(wù)論、功利論、美德論以及正義論等,如果要把它移植到人工智能體中,必須要把它表達(dá)成人工智能體能夠理解的形式語言和推理模型算法,而這兩者肯定得是形式化的。再次,從實(shí)踐上說,人工智能體面臨沖突時(shí)不如人靈活。即使人工智能體不是基于大量的邏輯推理來進(jìn)行決策,比如基于貝葉斯期望效益來決策并實(shí)施行動(dòng),但它在面臨沖突時(shí),它總得按照一定的倫理原則進(jìn)行推理,然后才能取舍。而人工智能體如果要理解并執(zhí)行符合某種原則的行動(dòng),也必須是形式化的:比較簡(jiǎn)單的做法就是按照特定的形式模式來決策,從而最終實(shí)施行動(dòng);較為復(fù)雜的做法是基于一定的邏輯系統(tǒng),再把這些規(guī)則設(shè)置成“特定公理”,讓機(jī)器自己推理和決策。最后,深度學(xué)習(xí)算法無法讓機(jī)器真正地“理解”倫理世界。在圖靈獎(jiǎng)得主珀?duì)枺↗.Pearl)看來,目前基于深度學(xué)習(xí)的人工智能做法存在缺陷,即無法從因果的角度理解世界與進(jìn)行因果推理。他認(rèn)為,未來強(qiáng)人工智能體必須具備從因果性上“理解”世界并進(jìn)行相關(guān)的因果推理,這包括從因果性上理解人類社會(huì)及其倫理方面[5]。要實(shí)現(xiàn)這一點(diǎn),最為基礎(chǔ)的工作就是對(duì)因果進(jìn)行建模。從人機(jī)互動(dòng)的角度看,機(jī)器遵守人類倫理規(guī)范的前提是,她們能夠理解(或者部分地理解)人類行動(dòng)的規(guī)范性,這在一定程度上取決于形式倫理的進(jìn)展。

      如果上面的分析是正確的,那么形式倫理對(duì)于具有一定道德自主能力的人工智能體就是必要的。當(dāng)然,這種倫理推理規(guī)則在人工智能體中的實(shí)現(xiàn)中會(huì)面臨一些困難。正如徐英謹(jǐn)所認(rèn)為的,如何把表達(dá)倫理規(guī)范的自然語言和機(jī)器代碼具體結(jié)合在一起,實(shí)際上是一件非常麻煩的事[6]。比如,如果用貝葉斯期望效用最大化原則作為人工智能體的決策原則,則如何使得倫理推理適應(yīng)這種最大化原則,就不是一個(gè)簡(jiǎn)單的問題。再如,在復(fù)雜的情況下,特別是多種利益沖突的情況下,為了讓人工智能體能夠快速地作出決策,如何快速地進(jìn)行倫理推理也是比較困難的[7]。為了解決這些困難,最基本的工作之一也許就是探討形式倫理的邏輯基礎(chǔ)問題。

      二、從道義邏輯到心智邏輯

      倫理學(xué)理論由倫理命題組成,倫理命題需要用一定的語言表達(dá),關(guān)于倫理命題的正確推理需要遵循相應(yīng)的邏輯推理規(guī)范。經(jīng)典一階邏輯是最為普遍的邏輯,它是多數(shù)推理的基礎(chǔ)性邏輯。對(duì)于人工智能體來說,其道德推理不僅要遵守最基礎(chǔ)的一階邏輯,還需要遵守和道德推理相關(guān)的邏輯。然而,由于一階邏輯過于復(fù)雜,且在表達(dá)倫理推理時(shí)要構(gòu)造相當(dāng)多的謂詞,而相關(guān)的模態(tài)邏輯(如道義邏輯、心智邏輯)更有應(yīng)用價(jià)值。下文不考慮多人工智能體間的互動(dòng)關(guān)系,只討論形式倫理表達(dá)和單個(gè)智能體在進(jìn)行道德推理時(shí)應(yīng)該以什么樣的邏輯作為基礎(chǔ)。

      我們假定,人工智能體有意義的肢體移動(dòng)也算行動(dòng)。那么,如何保證人工智能體在實(shí)施行動(dòng)時(shí)遵行相應(yīng)的倫理規(guī)范,即讓人工智能體實(shí)施那些倫理允許的行動(dòng),并禁止做一些違反倫理規(guī)范的行動(dòng),這是形式倫理學(xué)的題中之義。最基本的要求是用相關(guān)邏輯語言形式化這些倫理規(guī)則,即用某一套形式語言來表達(dá)這些倫理規(guī)則或原則集。道義邏輯是最容易被想到的表達(dá)與推理工具,因?yàn)榈懒x邏輯研究道德算子(如應(yīng)該O、允許P、禁止F等)的邏輯。這意味著,在一定的范圍內(nèi),可以用道義邏輯表達(dá)倫理規(guī)范。比如,阿西莫夫就提出的三條機(jī)器倫理編碼原則有一條是義務(wù)規(guī)范,有兩條是禁止規(guī)范,從而可以表示為:Fφ,Oψ,F(xiàn)θ。至于 Fφ 與 Oψ 和 Fθ 與哪些行動(dòng)相關(guān)聯(lián),它們?nèi)绾螀⑴c到?jīng)Q策推理中來,則是進(jìn)一步研究的問題。另外,很多倫理規(guī)范只在一定的條件下才有效,這可用條件道義公式表示,比如用F(φ/ψ)表示在ψ的條件下,φ是禁止的,這就比單純的不講條件的禁止更切合實(shí)際。道義算子與“能夠”算子(用C表示)結(jié)合,還可以表達(dá)更豐富的倫理命題,如著名的“應(yīng)該蘊(yùn)涵能夠”原則(Oφ→Cφ)實(shí)際上有兩層意思:一是應(yīng)當(dāng)做的則一定是有能力做的,二是應(yīng)當(dāng)做的一定是符合倫理規(guī)范(允許做的)。如何讓機(jī)器區(qū)分并“理解”這兩層意思,需要更細(xì)致的行動(dòng)模型與邏輯表達(dá)。

      但是,道義邏輯有幾個(gè)問題阻礙了它作為形式倫理的邏輯基礎(chǔ)。一是道義悖論問題,如羅斯悖論、承諾悖論、樂善好施悖論、反義務(wù)悖論,人類在面對(duì)悖論或悖論性情景難以處理,更不用說機(jī)器;二是道義邏輯過于理想化,并不能很好地反映現(xiàn)實(shí)中道德或法律推理[8]。因此,需要對(duì)道義邏輯進(jìn)行進(jìn)一步修正研究,才能更好地適應(yīng)形式倫理的需要,比如它可以與心智邏輯結(jié)合起來。心智邏輯是為了從邏輯上刻畫一些重要的心智狀態(tài)。心理學(xué)認(rèn)為,知情意是心智的三個(gè)核心方面。相應(yīng)地,就有三類邏輯:刻畫認(rèn)知的認(rèn)知邏輯,刻畫情感的情感邏輯,以及刻畫意志的行動(dòng)邏輯。由于認(rèn)知邏輯目前在國(guó)內(nèi)外研究比較多,本文只關(guān)注情感邏輯和行動(dòng)邏輯,下面先討論情感邏輯與形式倫理的關(guān)系。

      一般認(rèn)為,情感是智能的一個(gè)重要方面。但是,并非任何情感都值得進(jìn)行邏輯刻畫,而且有些情感和倫理關(guān)系不大,但像欲望、后悔、害怕等情感是具有一定的倫理意義的,因?yàn)檫@些情感能夠驅(qū)動(dòng)或阻人去實(shí)施行動(dòng)。舉例來說,一個(gè)人工智能體在某種情況下,欲望做某事且做了此事,但之后發(fā)現(xiàn)其行為不符合某規(guī)范,于是產(chǎn)生了后悔“情感”;并且,在某些情況下,她欲望去做一些事,但并不確定是否能夠完全成功,這時(shí)她應(yīng)該具有害怕的情感。其實(shí),按照斯賓諾莎和休謨的看法,情感在倫理學(xué)上具有重要意義。在斯氏看來,欲望、快樂、痛苦、愛、恨、希望、同情等是一些基本的情感[9]。事實(shí)上,據(jù)心理學(xué)研究結(jié)果,人類的情感類型共有22種,目前已有文獻(xiàn)就其形式表達(dá)研究進(jìn)行了較為詳細(xì)的討論[10]。在此意義上,如何使人工智能體具有這些情感,且讓它們影響到人工智能體進(jìn)行理性決策和實(shí)施行動(dòng),這就更具倫理意義。比如“后悔R”,它是“對(duì)于既成事實(shí)的道德與邏輯反思”,這種表達(dá)既有邏輯特性也有倫理特性,即Rφ→φOφ□φ。[11]

      如果上述討論在未來是有可能實(shí)現(xiàn)的,那么情感邏輯對(duì)于形式倫理就不是可有可無的。這是因?yàn)?,要把這些情感“移植”到機(jī)器中,并進(jìn)行相關(guān)推理,最基本的工作就是進(jìn)行形式定義與表達(dá),建立相關(guān)模型。筆者目前能見到的情感形式理論,有后悔邏輯、希望邏輯、害怕憤怒邏輯、情感建模等。也許,人工智能體在“情感體驗(yàn)”上和人類完全不同,甚至沒有情感體驗(yàn),只有外在看上去的情感存在。但是,這不影響我們把她們看作或希望把她們看作是有“情感”的智能體,只要她們的行動(dòng)是受這些情感的影響——如果這種影響和人類情感對(duì)于行動(dòng)的影響方式在總體上是類似的。事實(shí)上,人工智能體的情感表達(dá)與推理研究,目前還處于起步階段。盡管未來任重道遠(yuǎn),但無疑是富有吸引力的。

      三、能動(dòng)性邏輯與形式倫理

      人工智能體進(jìn)行有效的且有倫理價(jià)值的實(shí)踐推理,并進(jìn)而實(shí)施符合道德的行動(dòng),這是人工智能倫理的目標(biāo)之一。如前所述,一種必要的工作是基于刻畫智能體意志的行動(dòng)邏輯。所謂行動(dòng)邏輯,就是對(duì)行動(dòng)的本質(zhì)特性進(jìn)行形式刻畫的邏輯,它主要包括能動(dòng)性邏輯、動(dòng)態(tài)行動(dòng)邏輯和信念修正邏輯。由于后兩類邏輯沒有把行動(dòng)者實(shí)施行動(dòng)的整個(gè)過程刻畫出來,特別是沒有刻畫出行動(dòng)者的心智狀態(tài)對(duì)于行為的影響,所以筆者認(rèn)為,對(duì)人工智能形式倫理來說,行動(dòng)邏輯中最有潛力的是能動(dòng)性邏輯。能動(dòng)性邏輯是對(duì)能動(dòng)性的形式表達(dá)與推理刻畫。它不僅可以和心智邏輯以及認(rèn)知邏輯結(jié)合起來,而且還有可能幫助人工智能體能夠進(jìn)行道德推理。

      在最一般的意義上,能動(dòng)性是“行動(dòng)者有能力實(shí)施行動(dòng)的體現(xiàn)”[12]。對(duì)于人類行動(dòng)者來說,能動(dòng)性的施展與心智狀態(tài)密切相關(guān),比如行動(dòng)哲學(xué)的主流理論行動(dòng)因果論就認(rèn)為,作為心智狀態(tài)的理由是行動(dòng)發(fā)生的原因。區(qū)別于人類能動(dòng)性,人工智能體有能力實(shí)施行動(dòng)的體現(xiàn),就是人工能動(dòng)性。目前有不少人工能動(dòng)性模型,其中最流行的是布萊特曼的BDI模型[13]。它之所以廣受人工智能體建模的歡迎,原因在于它是對(duì)人類能動(dòng)性的一種較為合理的抽象。當(dāng)然,它還有繼續(xù)發(fā)展的必要。發(fā)展的方向之一是,擴(kuò)展這個(gè)模型到人工道義能動(dòng)性模型及其推理研究,特別是把它與表達(dá)能動(dòng)性概念的“致使”(E φ)、“確?!保⊿φ)以及“嘗試”(Aφ)和“能夠”(Cφ)結(jié)合起來。至少在語言上,可以構(gòu)造出如下表達(dá)人工

      有了上述邏輯語言與模型,筆者在此提出人工智能體行動(dòng)的兩條倫理原則:確保原則和嘗試原則。假設(shè)φ是關(guān)乎倫理的事態(tài),那么這兩條原則的內(nèi)涵可理解如下。第一,確保原則:在資源允許的情況下,如果人工智能體能夠確保φ,就不要只嘗試φ;除非不能確保又只能嘗試的情況下。這條原則是很有倫理特性的,特別是一些和其他行動(dòng)者相關(guān)的確保內(nèi)容。比如,一個(gè)照看小孩的機(jī)器人,就必須有能力確保小孩不受到傷害。另外,弱人工智能的目標(biāo)是讓機(jī)器能像人一樣實(shí)施理性行動(dòng)。理性行動(dòng)意味著行動(dòng)主體應(yīng)盡量避免偶然事態(tài)的發(fā)生,換句話說,它要求行動(dòng)者經(jīng)過理性選擇,做那些能夠確保目標(biāo)事態(tài)的行動(dòng)。在分枝時(shí)間框架上,可以定義“確?!焙汀皣L試”等概念的精確語義,這就為人工智能體實(shí)施理性且道德的行動(dòng)提供了某種邏輯基礎(chǔ)。第二,嘗試原則:在不能確保φ的情況下,人工智能體要盡力嘗試實(shí)現(xiàn)φ。避免人工智能體對(duì)人類行動(dòng)者正在遭受的傷害漠視不管,這自然是人工智能道德體決策的重要問題。與人類行動(dòng)者類似,人工智能體在很多情況下是“力不從心”的,即不能確保一些安全事態(tài),特別是在危險(xiǎn)環(huán)境中?;谏鲜鲞壿嬚Z言與行動(dòng)模型,如果人工智能體能夠根據(jù)危險(xiǎn)情況“主動(dòng)”嘗試實(shí)現(xiàn)事態(tài)φ,就是一項(xiàng)值得期待的任務(wù)。這種“主動(dòng)嘗試”能夠體現(xiàn)人工智能體的“援助之心”,即使“這種嘗試”可能面臨失敗。有了上述能動(dòng)性邏輯作為基礎(chǔ),人工智能體才有可能“理解”并實(shí)施這兩條原則。值得一提的是,這兩條行動(dòng)原則可以在形式倫理中得到良好的表達(dá),而且它與阿西莫夫的機(jī)器人三條倫理原則是一致的。由此可見,基于上述能動(dòng)性邏輯語言和模型,人工智能體行動(dòng)的兩條倫理原則不僅與行動(dòng)的效率有關(guān),更重要的是能體現(xiàn)人工智能體行動(dòng)的倫理關(guān)懷。

      根據(jù)貝克的能動(dòng)性分層理論[14],能動(dòng)性可分層為三個(gè)級(jí)別:極小能動(dòng)性、審慎能動(dòng)性和道義能動(dòng)性。只要有心智狀態(tài)(如后悔、相信)作為實(shí)施行動(dòng)的理由,就是極小能動(dòng)性;有理性因素(知道、推理)和道德因素(必須、譴責(zé))的參與,則分別是審慎能動(dòng)性和道義能動(dòng)性。在這個(gè)意義上,理性因素與道義因素參與的能動(dòng)性,都是能動(dòng)性的高級(jí)表現(xiàn)。人工智能形式倫理更關(guān)注人工道義能動(dòng)性,特別是表達(dá)各種心智狀態(tài)推理是怎么影響到人工智能體道德推理與決策的。如前所述,要表達(dá)各種心智狀態(tài)對(duì)于道德決策的影響,需要把心智道義算子與表達(dá)行動(dòng)的算子結(jié)合起來。就目前來看,有的學(xué)者在事件演算的基礎(chǔ)上加入BDI算子和應(yīng)該算子O來進(jìn)行刻畫[15],但這種刻畫的問題在于它假定了理想人工智能體,且它對(duì)道義的表達(dá)非常狹窄(只有應(yīng)該算子),而且沒有把各種心智狀態(tài)算子與能動(dòng)性算子結(jié)合起來。而上述邏輯語言和模型,有可能真正地克服這些缺陷。

      由上可見,為了從邏輯上表達(dá)和刻畫形式倫理,最重要的是刻畫人工道義能動(dòng)性概念。而要達(dá)到這個(gè)目標(biāo),必須要把各種心智狀態(tài)算子與能動(dòng)性算子結(jié)合起來。由于心智邏輯與能動(dòng)性邏輯的結(jié)合本身也可以看作是能動(dòng)性邏輯,因而對(duì)于單智能體的道德推理來說,較為合適的邏輯基礎(chǔ)就是能動(dòng)性邏輯。事實(shí)上,能動(dòng)性邏輯近年發(fā)展的一個(gè)趨勢(shì)就是能動(dòng)性邏輯與認(rèn)知邏輯、道義邏輯的結(jié)合[16]。

      四、結(jié)論與進(jìn)一步的問題

      綜上所述,可以得到兩個(gè)結(jié)論:第一,形式倫理對(duì)于具有較高水平的人工智能體是必要的;第二,在已有的邏輯中,道義邏輯需要與心智邏輯進(jìn)行結(jié)合,心智邏輯中的能動(dòng)性邏輯對(duì)于形式倫理更有發(fā)展前景。如果欲使人工智能體在為人類服務(wù)或人機(jī)互動(dòng)時(shí)體現(xiàn)一定程度的道德水平,形式倫理及其邏輯基礎(chǔ)研究具有一定的價(jià)值。假定這個(gè)結(jié)論成立,以下兩個(gè)問題更是不可忽視的。

      第一,道德推理的邏輯規(guī)律。一般認(rèn)為,道德推理是實(shí)踐推理的一種類型,它的目的是得到一種關(guān)于道德的行動(dòng)或決定。不同的人基于不同的理由,可能會(huì)對(duì)道德判斷產(chǎn)生截然相反的結(jié)論。類似地,人工智能體也很可能出現(xiàn)這種情況。因此,道德判斷就需要進(jìn)行道德論證或推理[17]。但是,這種推理的邏輯結(jié)構(gòu)不是一般的演繹結(jié)構(gòu),也不是簡(jiǎn)單地通過歸納得到。探究它的結(jié)構(gòu),對(duì)于人工智能體的道德判斷或許具有基礎(chǔ)意義,并進(jìn)而影響其自動(dòng)進(jìn)行道德決策的能力。而且,就目前來說,實(shí)踐推理方面的研究實(shí)際上是非常薄弱且具有較大挑戰(zhàn)性,其中的很大困難在于需要多學(xué)科的合作[18]。

      第二,形式倫理對(duì)于人工智能體道德決策的影響方式。在目前的人工智能決策算法中,主要是基于期望效益最大化模型。比如,考察一個(gè)行動(dòng)α是否值得做,人工智能可能會(huì)通過計(jì)算它的價(jià)值V(α)來決定,且 V(α)用求和函數(shù) Σφ(α)來表達(dá)[19]。吉普斯認(rèn)為,從不具備道德決策的人工智能體到具備道德決策的人工智能體,區(qū)別在于是否有一層倫理規(guī)范在影響著她的決策[2]。那么,這些倫理規(guī)范或理論是如何影響到道德決策的呢?處理這個(gè)問題,不管是自上而下的邏輯方式,還是自下而上的機(jī)器學(xué)習(xí)方式,都會(huì)存在一些問題[20]。于是,有研究者認(rèn)為,需要對(duì)人工智能體道德決策實(shí)行監(jiān)管,包括外部制約和和內(nèi)部監(jiān)控。[21]

      猜你喜歡
      道義能動(dòng)性心智
      起始課要下得去的功夫
      《發(fā)現(xiàn)大腦:誰開啟了我們的心智之旅》書評(píng)
      自然雜志(2022年2期)2022-08-18 00:34:32
      默:從人生態(tài)度到審美心智
      李大釗:播火者的鐵肩道義
      神劍(2021年3期)2021-08-14 02:29:44
      調(diào)動(dòng)主觀能動(dòng)性,提高寫作水平
      甘露珠寶 匠心智造,創(chuàng)新引領(lǐng)未來
      高職英語教學(xué)中學(xué)生“主體能動(dòng)性”的發(fā)揮
      西漢道義觀的學(xué)理形成
      古代文明(2015年3期)2015-07-07 07:31:41
      情文兼具的道義承擔(dān)
      小說月刊(2015年10期)2015-04-23 08:51:52
      比較主觀能動(dòng)性、意識(shí)能動(dòng)性、意識(shí)對(duì)客觀事物的反作用的異同
      昌平区| 闽侯县| 佛教| 盐山县| 阳新县| 乐昌市| 越西县| 玛曲县| 基隆市| 丰城市| 英德市| 内江市| 开阳县| 清水县| 陇南市| 新闻| 会东县| 鄢陵县| 偃师市| 石棉县| 沛县| 沙河市| 伊宁市| 玛纳斯县| 恭城| 楚雄市| 耒阳市| 灌南县| 三江| 上思县| 克山县| 瓮安县| 青岛市| 台东市| 普宁市| 双柏县| 洛隆县| 紫阳县| 鹤山市| 高碑店市| 诸城市|