• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      走向道德人工智能(AI)
      ——賦予人工智能系統(tǒng)道德人格和構(gòu)建可解釋人工智能

      2024-01-12 03:16:28呂雯瑜曹康康
      學術(shù)探索 2023年12期
      關(guān)鍵詞:解釋性倫理決策

      呂雯瑜,曹康康

      (1.南京師范大學 公共管理學院,江蘇 南京 210023;2 安徽師范大學 馬克思主義學院,安徽 蕪湖 241002)

      一、問題的緣起

      隨著AI(artificial intelligence)技術(shù)在諸多行業(yè)中的應用,其所帶來的倫理問題促使全球的法律和政策進行了相應的改變。2018年,歐盟出臺了《通用數(shù)據(jù)保護條例》(GDPR),目的是確保歐盟地區(qū)的數(shù)據(jù)隱私權(quán)得到保障。[1]英國頒布《英國AI發(fā)展的計劃、能力與志向》,其中明確強調(diào)了數(shù)據(jù)倫理和保護數(shù)據(jù)隱私的重要性。[2]而在北美,加拿大出臺的《泛加拿大AI戰(zhàn)略》,確保AI的應用都是在遵循倫理原則的前提下進行。[3]這些國際政策和法規(guī),都在嘗試確保AI的發(fā)展不僅在技術(shù)上取得進步,更要在倫理和道德上與時俱進。

      道德AI是指AI的算法、架構(gòu)和接口都符合倫理準則,如確保透明度、維護公正、承擔責任等。之所以要走向道德AI,其背后有三大驅(qū)動因素:一是對社會責任的回應,二是技術(shù)演進的邏輯延伸,三是道德規(guī)范的內(nèi)在需求。首先,對社會責任的回應。隨著AI技術(shù)的廣泛應用,人們面臨著一個被稱為“責任差距”的新問題。這個問題是指當負面事件發(fā)生時,人們很難甚至無法將道德責任歸屬某一方。這個責任差距不僅限于技術(shù)層面,還涉及倫理和社會等諸多層面。為此,需要構(gòu)建一個與人類價值觀和能力相協(xié)調(diào)的技術(shù)系統(tǒng),確保AI在人類的掌控中,并保障其行動是有目的和可以預見的。這意味著AI的標準不僅僅局限于技術(shù)性質(zhì),更應在倫理維度上得到認可,以達到人與機器的和諧共生。[4]其次,技術(shù)演進的邏輯延伸。從技術(shù)發(fā)展的內(nèi)在規(guī)律來看,AI技術(shù)的發(fā)展目標是通過算法模擬并最終超越人類智能。[5]人類智能并非僅僅基于邏輯或數(shù)學推理,而是基于復雜的情感、判斷和道德等綜合能力。為了真正模擬并超越人類智能,AI不僅要在計算能力上進行優(yōu)化,還要深入探索情感和道德的本質(zhì)。[6]這表明,未來AI的研究應該更深入地探討人類的倫理觀念。最后,道德規(guī)范的內(nèi)在需求。走向道德AI是對道德規(guī)范內(nèi)在需求的回應,它揭示了社會共識和契約在技術(shù)進步中的核心地位。道德規(guī)范,作為社會共識和契約的產(chǎn)物,蘊含著人類理性自治的內(nèi)核價值。在AI的發(fā)展過程中,不僅需要遵守法律和外在規(guī)范,更要將道德規(guī)范的內(nèi)在精神連接到AI系統(tǒng)的設計和應用中,最終將其內(nèi)化為AI系統(tǒng)的目標函數(shù)和限制條件。這種內(nèi)化不僅僅是對道德規(guī)范發(fā)展的回應,也是對理性主體的尊重,它為構(gòu)建更為公正、透明和可信賴的AI系統(tǒng)提供了道德基礎。

      二、走向道德AI的雙重維度:道德人格與可解釋性

      走向道德AI包含兩個方面:一是賦予SAI(systems of artificial intelligence)道德人格,二是構(gòu)建XAI(explainable artificial intelligence)。賦予SAI道德人格和構(gòu)建XAI是兩個相對獨立但互補的研究領(lǐng)域。這種互補關(guān)系可以共同推動AI朝著更加道德的方向發(fā)展。這一方法被稱為“走向道德AI”。

      (一)賦予SAI道德人格:認知、自主與共生

      在許多特定領(lǐng)域,如診斷和預測,AI系統(tǒng)已經(jīng)證明其比人類專家更加精確和客觀。[7]這種高效的表現(xiàn)很大程度上歸因于統(tǒng)計方法的準確性,這使得它們超越了單純的人類判斷。[8]因此,人們越來越傾向于信賴并接受AI的決策。然而,隨著AI的能力增強,人們也需要兼顧AI的道德考量。正如美國認知領(lǐng)域?qū)<伊_莎琳德·皮卡德(R.W.Picard)所說:“一個機器越自由,則它就越需要道德標準”。[9]

      在西方的科幻哲學中,一些思考家預言,隨著人類對其智能的強化,人類將逐漸與機器結(jié)合,形成一種生物與非生物的混合體,被稱為“賽博格”(Cyborg)。這種賽博格是生物與機器的融合,其道德行為也可能受到AI決策屬性的影響。這意味著決策不再完全取決于人類的意志,AI的倫理屬性也被納入其中。進一步地,如果AI被賦予了足夠的自主性和倫理判斷能力,它可能會在特定的倫理框架內(nèi)進行選擇。若僅僅將機器行為解釋為“遵從人的指令”,并把錯誤歸咎于設計者,就會如喬姆斯基所言,人類可能會忽略AI所展現(xiàn)的道德缺失,如淡漠、逃避等行為。[10]當技術(shù)能夠獨立執(zhí)行任務時,人類需要反思“以人為中心”的觀念,并考慮賦予AI某種道德認知。這進一步強調(diào)了為何人類應該考慮擴大道德主體的定義范圍。當代社會需要堅持將道德主體地位平等地向所有符合資格的實體開放,這不僅包括人類,還包括那些具有道德判斷力的AI實體。這意味著,人類不應排除未來某些合格的AI實體被視為道德主體的可能性。[11]賦予SAI道德人格的初衷是期望AI能夠成為一個具備道德責任和情感認知的道德主體。對此,多位學者提供了見解。法國認知心理學家德哈納(Dehaene)堅信計算機未來將能夠模擬大腦。[12]這不僅說明機器人有望具備人類意識和感情,而且預示著它們可能獲得某種道德地位。意大利法學專家諾維利(Novelli)更進一步地強調(diào)AI已經(jīng)具有自主決策的能力,不再只是機械地執(zhí)行人類用戶或設計師預先設定的任務。[13]這些觀點與美國動物權(quán)利律師史蒂文·懷斯(Steven Wise)的論斷相呼應。他指出,非人類動物有時會被賦予某種權(quán)利,原因在于它們具有與人類相似的推理和“實踐自主權(quán)”屬性。[14]既然某些AI也顯示出了這些屬性,甚至可能更為顯著,為什么不考慮為其賦予相應的權(quán)利呢?美國機器倫理學專家岡克爾(Gunkel)進一步補充,機器人的形態(tài)和功能正日益逼近人類,它們所展現(xiàn)出的自主性和意識與人類有著驚人的相似性。[15]英國倫理學家阿什拉菲安(Ashrafian)也持同樣觀點,他認為AI和機器人領(lǐng)域的持續(xù)創(chuàng)新使得計算機展現(xiàn)出了與人類相似的意識、感知和理性。[16]帕特里克·哈伯德(Patrick· Hubbard)對賦予SAI人格特質(zhì)提出了一些具體的標準:首先,這個實體應該有與環(huán)境互動并進行復雜思考和交流的能力;其次,它需要有自我意識,并能為自己制定并執(zhí)行生活計劃;最后,這個實體應該具備在社區(qū)中與他人共存的能力。這些標準在某種程度上定義了賦予SAI道德人格的最低要求,幫助人們明確AI獲得人格特質(zhì)的精確邊界。AI專家卡普蘭(J.Kaplan)也曾提到:“只要合成智能能夠感知其環(huán)境中與道德有關(guān)的事物,并具備選擇行為的能力,它就滿足了作為一個道德實體的條件”。[17]

      (二)構(gòu)建XAI:理解、信任與透明

      僅僅賦予SAI道德人格這一做法并不足以確保AI的行為總是與人類的道德觀念一致。人們還需要AI對外具有可解釋性。美國計算機科學家Doshi-Velez(多什-韋勒茲)強調(diào)了AI輸出信息應以人類能理解的方式展現(xiàn),無論是通過自然語言、邏輯規(guī)則還是其他形式。[18]構(gòu)建XAI的核心不僅在于增強解釋的能力,更在于如何提高用戶的信任度和確保AI的決策過程更加透明。

      AI的可解釋性可以從三個方面來闡述,即為什么解釋?向誰解釋?怎么解釋?(1)為什么解釋?早期的研究表明,可解釋AI可以被人們理解。然而,算法運作機制猶如一個黑箱,其內(nèi)部運行原理對使用者而言是未知的。如果人們不了解機器的運算方式,就難以確保它們在實踐中的成功性。如果不成功,將可能導致嚴重的后果。人們因為無法對其進行檢查,就不能確保它們不會產(chǎn)生歧視。對于那些無法解釋內(nèi)部運作的算法,也將無法使人類產(chǎn)生對世界的解釋。[19]因此,只有實現(xiàn)算法的可解釋性,才能促使其具有合理性或非歧視性。(2)向誰解釋?為了保證AI決策的透明性,要根據(jù)不同的目標人群來調(diào)整解釋的焦點。AI決策涉及的受眾群體包括:一是業(yè)務用戶。AI 的決策過程對于業(yè)務用戶至關(guān)重要,他們需要了解其原理來優(yōu)化自己的商業(yè)策略。二是監(jiān)管機構(gòu)。監(jiān)管機構(gòu)需要驗證 AI 的決策是否遵守相關(guān)法規(guī)和標準。三是公眾。公眾需要了解 AI 的決策對他們的影響。第四, AI 研究者和專家。AI 研究者和專家需要了解 AI 的內(nèi)部工作原理,以評估 AI 的性能。(3)怎么解釋?為了提高AI的解釋能力,學者們已經(jīng)探索了各種方法。一些人使用諸如規(guī)則、決策樹和線性模型這樣更直接的模型。另一些則選擇用可視化工具展示AI的決策過程。還有研究者試圖通過對AI學習內(nèi)容的語義研究,來探尋其決策的根本動因。

      (三)賦予SAI道德人格和構(gòu)建XAI的關(guān)聯(lián)及共同作用

      賦予SAI道德人格特質(zhì)和構(gòu)建XAI相互依存,為實現(xiàn)道德AI提供雙重保障。當探討SAI的道德人格特質(zhì)時,實際上是在探究機器的“倫理認知”。這種“倫理認知”能在處理數(shù)據(jù)和執(zhí)行任務的過程中,集納并遵循人類社會的道德標準。道德人格特質(zhì)并非簡單的算法指令,它涉及深層次的價值判斷和權(quán)衡。對AI而言,它必須能夠識別并解決各種倫理挑戰(zhàn),從而做出與人的道德價值觀相符的選擇。而為了確保這種決策符合人們的預期,需要對其內(nèi)部邏輯進行審查,這就是XAI的角色。XAI的核心目的是為AI的決策提供一個邏輯清晰、可跟蹤的解釋路徑。當AI做出某個決策或行動時,其可解釋性能向人們闡明為何采取這種方式,并展示其是如何在倫理層面上進行權(quán)衡和思考的。這種可解釋性是建立人類對AI信任的基石,而信任是任何倫理系統(tǒng)的基礎。[20]

      從“內(nèi)在質(zhì)量”和“外部監(jiān)督”兩個角度也能夠理解賦予SAI道德人格和構(gòu)建XAI的關(guān)系。從“內(nèi)在質(zhì)量”這一角度出發(fā),賦予SAI道德人格意味著為其提供一套明確的倫理指南。這一目標無疑是走向智能系統(tǒng)倫理設計的前沿。過去的機器學習模型往往被編程為按照預定規(guī)則執(zhí)行,其行為模式較為機械、固定。然而,隨著技術(shù)的進步,人們期待AI不僅能夠遵循既定的指令,而且能在復雜、多變的環(huán)境中展現(xiàn)出某種道德直覺或判斷力。這樣的期待來源于對人類道德心理的深入理解。人類的道德決策往往基于一系列復雜的認知和情感因素,如同理心、公正和權(quán)責觀念。這些因素在特定的文化和社會背景中被塑造,并與每個人的經(jīng)驗和知識相互作用。因此,要使AI具備這樣的能力,人類首先需要構(gòu)建一個全面而深入的道德框架,將這些原則和價值觀映射到算法中。但是,即使人們成功地為SAI賦予了道德人格,并且SAI能夠按照我們所期望的方式進行決策,仍然存在一個重要問題:這些決策是否為用戶所接受和理解? 這引導我們進入“外部監(jiān)督”這一維度。從“外部監(jiān)督”的角度出發(fā),構(gòu)建XAI的作用尤為關(guān)鍵。如果用戶不明白機器的決策邏輯,即使這個決策符合道德標準,也可能對其失去信任。[21]在很多應用場景中,尤其是涉及人類生命安全和社會正義的領(lǐng)域,決策的透明性和可解釋性變得尤為重要。同時,構(gòu)建XAI還可以作為一個工具來檢驗和校正AI的決策。當機器的決策邏輯是明確和可解釋的,人們就可以更容易地發(fā)現(xiàn)其潛在的偏見和錯誤。例如,當可解釋AI工具揭示出一個決策是基于某些不應被考慮的特征(如種族、性別等)時,人們就能夠明確知道該模型存在的偏見。進而,研究者可以通過技術(shù)手段,如正則化或重新訓練,來糾正這種偏見。

      總之,只有當SAI與XAI的理念緊密融合時,人們才能期待AI在復雜的情境中作出符合道德規(guī)范的決策。為了實現(xiàn)這一目標,AI的研究與實踐必須走向雙重方向:一是加深對AI倫理的理解,確保其做出的決策不僅在技術(shù)上領(lǐng)先,還要在道德上符合標準;二是需要保證AI的決策過程公開且透明,這意味著其決策邏輯和原理對使用者來說是可解釋且可理解的。這樣的結(jié)合將為構(gòu)建一個人機和諧共生的未來打下堅實的基礎,確保機器在道德和倫理方面能夠與人類產(chǎn)生真實的共鳴與交流。

      三、走向道德AI的困境:技術(shù)超前與倫理滯后

      在技術(shù)與道德的交叉點上,人們常常面臨一個困境:技術(shù)的飛速發(fā)展往往超越了人類倫理和道德的反思速度。AI作為當前技術(shù)革命的前沿,尤其凸顯了這一點。當AI開始涉足決策、識別和自主行為時,人們必須審視:AI應該如何反映人類的倫理價值觀?走向道德AI面臨著哪些難題?

      (一)超越技術(shù)之境:探索賦予SAI道德人格的挑戰(zhàn)

      在本質(zhì)上,AI仍然是一種技術(shù)工具。將道德人格賦予SAI實際上是在技術(shù)層面上賦予其自主性。賦予SAI道德人格是一項極具挑戰(zhàn)性的任務,需要解決多個問題,包括社會認可、倫理原則、應用范圍和技術(shù)實施等問題。

      第一,在社會認可方面,人們對于是否應賦予SAI道德人格存在不同的觀點。首先,強人工智能觀點主張,AI有可能達到或超越人類的意識水平,并應被賦予道德人格。弱人工智能觀點則認為AI只是一個工具,缺乏真正的主觀意識和道德責任。無論從現(xiàn)有技術(shù)還是從未來展望看,AI難以擁有像人類這樣的道德主體所需要的實踐理性和自由意志。[22]同時,AI主體的行為仍然受到外部編程的命令,使得確定道德責任仍然具有挑戰(zhàn)性,特別是在不可預測的情境下。這種復雜性也降低了人們對AI的信任。[23]中立立場認為,盡管AI可以展現(xiàn)出一定的智能,但目前的技術(shù)水平還遠未達到賦予其道德人格的程度。許多人認為,現(xiàn)在的智能體并沒有真正完整的心智,因此不能負道德責任。即使它們擁有意識和道德感覺,但由于缺少體驗痛苦和懲罰的能力,如何能夠?qū)ζ湄撠熌?[24]

      第二,在倫理原則的應用方面,目前沒有一個通用的倫理標準可以適用于所有的AI應用場景。由于文化、宗教和社會意識形態(tài)的多樣性,構(gòu)建一個涵蓋所有國家、地區(qū)和民族的AI倫理原則頗為困難。當AI融入人類的倫理觀念,它不可避免地會碰到價值沖突問題,它應該根據(jù)哪個國家、地區(qū)或民族的道德準則來設定?當不同的倫理價值觀發(fā)生碰撞時,人類應如何權(quán)衡與選擇?更核心的疑問是:這種做法是否恰當?誰有資格來做出這個決策?這實際上觸及了權(quán)力的分配與行使。例如,以功利思想驅(qū)使的AI可能會為了大多數(shù)人的幸福而損害少數(shù)人的利益,而以德性倫理為指導的AI會更加關(guān)注品德和責任,而非僅僅是行為的后果。這種多元化的倫理理論導致在實際應用中難以形成統(tǒng)一的道德判斷標準。同時,在倫理原則的探討中,人們也經(jīng)常遇到其內(nèi)在的交織與重疊,導致理解和辨析上的挑戰(zhàn)。例如,“可預測性原則”與“透明性原則”很容易被混淆,而“可問責性原則”與“負責任原則”雖在描述上近似,但各自的關(guān)注點卻不同。一些倫理原則更多地針對組織層面,而另一些則更為聚焦于技術(shù)方面,這種層次上的不同進一步加大了區(qū)分難度,并可能導致誤導。[25]總之,倫理準則的內(nèi)涵理解亦因不同文化和地域背景而存在差異。這種差異性不僅影響了倫理界定的范圍,而且也表現(xiàn)在技術(shù)標準的不統(tǒng)一、風險評估的方法和策略以及制度規(guī)范的執(zhí)行力度上。

      第三,在應用范圍方面,AI的設計和使用目的將會對人類生活產(chǎn)生重大影響。如果AI被用于軍事目的或其他可能引發(fā)倫理爭議的領(lǐng)域,那么賦予其道德人格將面臨更大的挑戰(zhàn)。這是因為,當AI被賦予決策權(quán)時,其決策可能會導致人類傷亡或其他的嚴重后果。盡管AI技術(shù)的快速發(fā)展有可能從多個方面改變國家的戰(zhàn)爭方式,但AI革命帶來的新形勢的風險必須與軍事功能中算法系統(tǒng)的廣泛整合相協(xié)調(diào)。人類不能盲目地依賴AI,而是需要在其應用中進行嚴格的風險評估和管理。美國學者埃斯邁爾扎德(Esmaeilzadeh)的研究顯示,技術(shù)、倫理(信任因素)和監(jiān)管問題對使用AI應用程序的風險感知產(chǎn)生了顯著影響。[26]這表明,人們?nèi)孕杓訌妼I的監(jiān)督。瑞典倫理與生命倫理中心學者米歇爾·法里斯科(Michele Farisco)等人進一步提到,人類應該在考慮AI在某些特定人類活動中的角色時保持謹慎,因為盡管存在智能,但缺乏道德相關(guān)的特性。[27]人類不能簡單地將AI視為一個工具,而是需要認識到它是一個復雜的系統(tǒng)。

      第四,在技術(shù)實施方面,賦予SAI道德人格面臨諸多的技術(shù)難題。首先,因為沒有統(tǒng)一的道德理論框架,使得賦予SAI道德人格的標準變得困難。[28]倫理模型的多樣性和復雜性導致在為AI制定道德標準時的困惑。有些倫理觀點側(cè)重于強調(diào)個人的權(quán)益和職責,而其他理論則更關(guān)注整體的福祉和效益。[29]因此,確定哪一種道德理論模型最適合AI是一個巨大的挑戰(zhàn)。其次,AI的自主性與靈活性的界限并不明確,這容易導致與人類期望發(fā)生偏離。AI的自主性是指其能夠獨立地進行決策和行動,而靈活性則是指其能夠適應不同的環(huán)境和任務。然而,過度的自主性可能會導致AI做出與人類價值觀不符的決策,而靈活性過高則可能導致AI的行為難以預測。因此,如何平衡AI的自主性和靈活性,使其既能滿足任務需求,又不偏離人類的期望,是一個亟待解決的問題。最后,盡管AI的決策需要解釋與驗證,但其內(nèi)部的復雜性增加了實施難度。深度學習和神經(jīng)網(wǎng)絡等先進的AI技術(shù)往往具有高度的復雜性,這使得其決策過程難以解釋。此外,由于AI的決策過程是基于大量的數(shù)據(jù)和算法的,因此驗證其決策的正確性和合理性也是一大挑戰(zhàn)。[30]

      (二)構(gòu)建XAI的挑戰(zhàn):模型復雜性、數(shù)據(jù)不確定性與解釋權(quán)衡

      構(gòu)建XAI無疑在提高模型的透明度和可信度上具有不可估量的價值。然而,在實施過程中,常常面臨多種挑戰(zhàn),如深度學習模型的復雜性、數(shù)據(jù)的不確定性、解釋性與準確性之間的權(quán)衡等。這些困難涉及從模型結(jié)構(gòu)到實踐應用的各個層面。

      首先,深度學習模型的復雜度成為一個主要的挑戰(zhàn)。由于深度學習模型通常包含大量參數(shù)和層級,這種密集連接和深度堆疊的特性導致其決策路徑變得抽象。[31]盡管深度學習在多個領(lǐng)域中展現(xiàn)了出色的表現(xiàn),但模型的復雜化也讓其工作原理越來越難以解讀。這種復雜性的增加不僅來自模型的深度,還來自其寬度和參數(shù)的數(shù)量。一個典型的卷積神經(jīng)網(wǎng)絡(CNN)可能包含數(shù)百萬甚至數(shù)十億的參數(shù)。模型中的眾多參數(shù)讓其能夠捕捉數(shù)據(jù)的復雜性和非線性關(guān)系,但這也增加了解讀其決策機制的難度。此外,深度學習模型的決策路徑的抽象性也增加了其解釋的難度。相較于傳統(tǒng)諸如線性模型或決策樹的方法,深度學習模型展現(xiàn)出的決策邊界和特征呈現(xiàn)出更為復雜的非線性和高維特點。[32]這表示,哪怕人們能夠獲取模型的所有參數(shù)和中間狀態(tài),依然難以直接洞悉其決策邏輯。這種復雜性和抽象性帶來的挑戰(zhàn)不僅限于模型解釋。它們還影響模型的魯棒性、泛化能力和安全性。例如,深度學習模型容易遭受對抗性侵害,這些微小而幾乎看不出的輸入變化可能會使模型產(chǎn)生全然不同的預測。

      其次,面臨數(shù)據(jù)的不確定性。數(shù)據(jù)不確定性來源包括:數(shù)據(jù)收集過程中的誤差,如測量工具不準確、數(shù)據(jù)收集者主觀偏見或數(shù)據(jù)樣本不完整;[33]數(shù)據(jù)本身內(nèi)在屬性,如時變性未被完全捕捉;數(shù)據(jù)處理和清洗過程中的不確定性,如數(shù)據(jù)插值、平滑或轉(zhuǎn)換等。當這些不確定性存在時,構(gòu)建XAI的過程中就可能出現(xiàn)多種問題。模型可能會過度擬合這些不確定的數(shù)據(jù)。過度擬合意味著模型對訓練數(shù)據(jù)適應得很好,但對于新的、未知的數(shù)據(jù)則效果不理想。這是因為模型可能已經(jīng)記住了訓練數(shù)據(jù)中的噪聲,而不是真正的數(shù)據(jù)模式。當模型試圖解釋其決策過程時,這種不確定性可能會被放大。這可能導致解釋輸出變得模糊和不準確,從而降低模型的可靠性。更為嚴重的是,這種不確定性可能會導致用戶對模型的信任度下降。數(shù)據(jù)的不確定性還可能導致技術(shù)能力的局限性。當數(shù)據(jù)中充斥著大量噪聲時,高級模型,如深度學習模型,可能在這種數(shù)據(jù)環(huán)境中難以達到優(yōu)秀的表現(xiàn)。這是因為這類模型依賴于大量的高質(zhì)量數(shù)據(jù)來學習。此外,復雜的數(shù)據(jù)權(quán)限和公開政策可能會阻礙研究者和開發(fā)者的數(shù)據(jù)獲取和使用。這不僅使得構(gòu)建可解釋的人工智能更為困難,還可能妨礙模型的廣泛應用。在特定的應用場景,如水資源管理,對數(shù)據(jù)不確定性的精確評估變得至關(guān)重要。在這些場合,忽視不確定性可能導致誤判和資源的不當使用。

      最后,追求模型的可解釋性往往需要在解釋性和模型性能之間做出權(quán)衡。一些高性能的模型如卷積神經(jīng)網(wǎng)絡可能在精度上表現(xiàn)出色,但它們的內(nèi)部機制和參數(shù)對非專家來說難以理解。卷積神經(jīng)網(wǎng)絡(CNN)在深度學習中扮演了關(guān)鍵角色,尤其在圖像識別、聲音處理和自然語言處理等方面展現(xiàn)出了出色的性能。但隨著模型的復雜度增加,其工作機制也變得更加難以解釋。這種模型的不透明性和難以解釋可能會帶來問題,特別是在那些需要對模型決策給出解釋的場合。近年來,研究人員已經(jīng)開始探索如何在不犧牲性能的前提下提高模型的可解釋性。羅馬尼亞學者莫爾多萬(Moldovan)等人提出了一種新的CNN訓練機制,該機制整合了傳輸熵(TE)反饋連接。[34]這種方法可以加速訓練過程,但每個時代的計算開銷也會增加。一些研究者也提出了名為ECA的模塊,雖然只是增加了少量參數(shù),但模型性能得到了顯著提升。盡管有了這些發(fā)展,深度學習模型的透明度仍是一個問題。因此,有些研究者正在深入探究模型內(nèi)部,試圖弄清它的運作方式。這些研究探討了深度CNN模型的內(nèi)部學習機制,以了解它是如何分層提取光譜信息特征的。[35]簡而言之,盡管深度學習模型,尤其是CNN,在眾多任務上展現(xiàn)了優(yōu)異表現(xiàn),但其解釋性依然存在挑戰(zhàn)。

      四、走向道德AI的探索:超越技術(shù)障礙與構(gòu)建多維策略

      (一)超越技術(shù)障礙:賦予SAI道德人格的現(xiàn)實路徑

      如之前所述,賦予SAI道德人格具有諸多困難,包括社會認可、倫理原則、應用范圍和技術(shù)實施等方面。為此,可以通過代入道德編碼、開發(fā)倫理決策模型以及道德學習和迭代等方法來嘗試賦予SAI道德人格。

      1.道德編碼的代入

      為了保證AI行為的道德性和倫理性,可以將公認的倫理原則明確地編碼于系統(tǒng)之中。賦予AI道德編碼,實際上是將人類的道德規(guī)范和原則以某種方式嵌入AI的決策過程中。這不僅為公眾提供了一個清晰、可審查的道德基準,也確保了在特定的情境中AI能夠做出與人類道德相一致的判斷和行動,從而提高了賦予SAI的社會認可度。這種嵌入方法可能基于明確的規(guī)則、方針或通過機器學習得到的模型。鑒于不同的使用場景或情境可能存在各種倫理要求,人們可以將眾多倫理理念編制為單獨的AI單元。例如,醫(yī)療AI的倫理要求與自動駕駛汽車的倫理要求不同。對于每一個應用場景,都需要明確其使用環(huán)境,從而確定所需遵循的倫理準則。一旦這些準則被確定,它們將被轉(zhuǎn)化為可編程的規(guī)則或指導原則。進一步地講,這需要對傳統(tǒng)倫理準則進行形式化轉(zhuǎn)換,或者為AI設計新的倫理框架。[36]同時,這些編程規(guī)則需要被深入嵌入AI的訓練和決策過程中,使其行為更加可預測和一致。通過對多種倫理理論的編碼、形式化轉(zhuǎn)換和技術(shù)整合,不僅可以確保AI的道德性,還可以在眾多的應用情境中滿足各種倫理需求。

      為AI設置道德編碼的手段主要有兩種。一種是基于規(guī)則的方法,即將倫理準則轉(zhuǎn)化為明確的算法規(guī)則,使AI系統(tǒng)在決策時遵循這些規(guī)則。另一種是基于數(shù)據(jù)的方法,即通過在有倫理標注的數(shù)據(jù)上訓練AI,使其在未來的決策中能夠表現(xiàn)出道德的考慮。這兩種策略都有其長短處,要根據(jù)具體的使用環(huán)境來進行選擇。無論選擇哪種方法,代入道德編碼的關(guān)鍵問題是如何確保AI的決策與人類的道德觀念和社會價值觀相一致。[37]然而,代入道德編碼并非簡單地為AI寫一套固定的道德法則,而是要建立一個能夠理解并運用道德邏輯的系統(tǒng)。相較于常規(guī)編程手段,這樣的系統(tǒng)不僅分辨“好”與“壞”,還要洞察其背后的邏輯,確保在各種場合下做出恰當?shù)臎Q策。這意味著AI需要擁有邏輯判斷能力,同時能從眾多的倫理選擇中汲取并總結(jié)出適當?shù)臏蕜t。

      2.開發(fā)倫理決策模型

      賦予SAI道德人格的核心確實在于構(gòu)建一個綜合的倫理決策模型。該模型不僅要深入探索倫理學的理論體系,同時也需借鑒計算機科學的算法和技術(shù),確立一個全面且連貫的決策流程。而不同于靜態(tài)或單一維度的模型,它必須具備動態(tài)性和適應性,保證在各種情境下都能調(diào)整其決策策略。功利主義和德性倫理在決策過程中常常處于對立面。功利主義注重提高整體的幸福度,而德性倫理則強調(diào)個人的道德屬性和義務。該倫理決策模型的獨特之處在于它能夠整合這兩種看似矛盾的倫理理念。在此基礎上,評估潛在的決策后果時采取多維度的視角。這種多維度的評估不僅依賴純粹的邏輯和數(shù)據(jù),還必須充分考慮人類的情感、認知過程和所處的社會文化環(huán)境,以確保AI的決策與人類的倫理觀念保持一致。尤其在敏感領(lǐng)域如醫(yī)療、司法和金融,決策的復雜性常超出單一倫理原則的應用范圍,需要從多個倫理角度進行全面探索。

      為了達到這個目的,研究者們設計了多種倫理決策的構(gòu)建方式。(1)基于情境的決策模型。該模型強調(diào)外部環(huán)境和特定場景下的因素。這種模型認為,決策者在面對倫理問題時,往往會受到所處環(huán)境的強烈影響,如組織文化、社會壓力或角色期望等。這一模型尤其強調(diào)對具體情境的細致解讀和因應,因為不同的背景和環(huán)境會導致完全不同的倫理選擇和決策過程。[38](2)基于認知的決策模型。該模型著重于決策者的內(nèi)部心理過程,包括他們的認知結(jié)構(gòu)、道德推理和倫理覺悟等。該模型關(guān)注如何幫助決策者培養(yǎng)和加強他們的倫理思考能力,使其能夠在復雜的情境中進行更加明智和公正的選擇。通過了解和影響決策者的內(nèi)部心理機制,這一模型希望能夠提高他們的倫理判斷水平和決策質(zhì)量。(3)基于價值的決策模型。該模型主張倫理決策應該基于一套明確和堅定的價值觀。這表明當決策者遇到倫理問題時,應該參照自己的價值觀和道德信仰來做出決策,而不是僅僅基于效益或權(quán)宜之計。[39]這種模型鼓勵決策者明確自己的價值觀,認真考慮每一個決策背后的道德意義和長遠影響。

      3.道德學習和迭代

      社會的倫理觀點和價值觀隨著時間的流逝而不斷演變。在這種變化的背景下,AI需要具有強大的適應性來應對不斷變化的社會要求。道德學習通過讓AI學習人類的倫理標準,為AI提供了對社會文化變化的基礎性的理解。這種學習途徑有多種實施方式。監(jiān)督學習通過提供帶有道德標簽的數(shù)據(jù)來訓練AI,強化學習則采用獎勵和懲罰機制來指導AI,而遷移學習可以將已學到的道德知識遷移到新的道德場景。美國學者喬普拉(Chopra)也曾提到,AI的自主能力是由于其自主學習的能力,即它具備在變化的環(huán)境中感知和適應的能力。[40]但單純的學習不足以滿足現(xiàn)實世界的復雜性,這就需要迭代的過程。迭代是指AI通過不斷學習和改進自身來適應變化的環(huán)境。在此背景下,AI不僅要深刻理解人類的倫理價值觀和社會準則,還必須在多樣且不斷變化的情境中做出恰當?shù)牡赖聸Q策。為了實現(xiàn)這一目標,AI需要不斷汲取新的知識、數(shù)據(jù)和經(jīng)驗,然后調(diào)整其行為和決策模型。在AI的發(fā)展過程中,可能會遇到倫理挑戰(zhàn)、不明確的領(lǐng)域和潛在的矛盾。因此,AI需要具有一定的自我審視和調(diào)整機制,以確保在各種場景下都能堅守倫理標準和價值觀。

      通過結(jié)合道德學習與迭代方法,AI具有了接近人類道德判斷的能力。以MIT的道德機器(Moral Machine)項目為例。這個項目旨在探討自動駕駛汽車在面臨潛在的生命危險決策時應如何做出選擇。[41]人們被邀請在多種模擬的交通情境中,決策汽車應如何應對,究竟是撞向行人還是通過損害車內(nèi)乘客來進行緊急避讓?Moral Machine使用數(shù)百萬人的決策數(shù)據(jù),采用機器學習技術(shù),使AI系統(tǒng)能夠汲取人類在這些倫理難題中的選擇經(jīng)驗。另外,人們也嘗試在OpenAI的GPT-3模型中賦予其道德判斷能力。研究者試圖訓練這種語言模型,使其在處理倫理問題時能夠給出更為人性化的回應。通過輸入大量的道德和倫理文本,GPT-3被訓練成為一個可以進行道德辯論和判斷的模型。在實驗中,當提供給它一些倫理困境時,GPT-3不僅可以根據(jù)其訓練數(shù)據(jù)提供答案,還可以解釋其答案背后的道德原理。但僅僅依賴單一的訓練數(shù)據(jù)并不足以確保AI系統(tǒng)的道德決策完整無誤。因此,迭代方法在此起著作用。一旦AI系統(tǒng)基于初步的道德學習數(shù)據(jù)做出決策,研究者會對其輸出結(jié)果進行評估,檢查其是否與人類的道德直覺相符。如果系統(tǒng)在某個決策點的選擇與大多數(shù)人的選擇不符,研究者就需要重新調(diào)整其模型參數(shù),并再次進行訓練。該過程的反復迭代使得AI系統(tǒng)能夠不斷完善,并接近人類的道德判斷。

      (二)面對挑戰(zhàn):構(gòu)建XAI的多維策略

      為了應對構(gòu)建XAI所面臨的各種挑戰(zhàn),包括模型復雜性、數(shù)據(jù)的不確定性以及解釋性與模型性能之間的平衡問題,可以采取多種方法,如構(gòu)建可解釋性模型、局部解釋和全局解釋、交互式解釋等。

      1.可解釋性模型

      與傳統(tǒng)的黑箱模型不同,可解釋性模型更為人們所接受和理解。在一些應用中,可解釋模型與不可解釋模型一樣準確,卻因透明度而受到人們青睞。以模型蒸餾法為例。模型蒸餾法有助于解決構(gòu)建XAI時面臨的一般困難。第一,模型蒸餾有助于解決模型復雜度的問題。通過模型蒸餾,人們能把復雜模型的智慧遷移到簡化模型上,進而減少模型的復雜性。這種降低復雜度的方式有助于簡化模型的決策路徑,使得解釋變得相對容易。第二,模型蒸餾有助于平衡解釋性與性能的關(guān)系問題。模型蒸餾允許在保持或接近教師模型性能的同時提升學生模型的解釋性,這種方法有助于尋找解釋性和性能之間的理想折中點,使得不必為了獲得高解釋性而犧牲模型的預測性能。第三,模型蒸餾有助于解決數(shù)據(jù)的不確定性問題。簡單模型(學生模型)可以學習模擬復雜模型(教師模型)的預測行為,學生模型能夠從教師模型中學習如何在面對數(shù)據(jù)不確定性時做出更準確的預測。同時,通過采用自解釋性特質(zhì)的學生模型結(jié)構(gòu)(如決策樹或線性模型),可以簡化解釋方法的選擇。第四,通過在模型蒸餾過程中引入特征選擇技術(shù)和可視化技術(shù),為用戶提供直觀的解釋,從而減輕因數(shù)據(jù)不確定性和模型復雜度帶來的解釋困難。[42]

      一些開發(fā)和研究團隊也在不斷地摸索可解釋性技術(shù)。圖1(見下頁)展示了TA1開發(fā)團隊和TA2團隊的研究內(nèi)容。[43]TA1團隊的研究內(nèi)容為自治和數(shù)據(jù)分析。其中,有3個團隊只研究自治領(lǐng)域,有5個團隊只研究數(shù)據(jù)分析,其余3個團隊的研究兩者都有涉及。

      圖1 可解釋AI的研究團隊

      根據(jù)圖2所示,TA1 團隊正在研究和開發(fā)各種可解釋模型和解釋接口的技術(shù)。TA2 團隊的目標是開發(fā)和評估心理學上合理的解釋模型。他們?yōu)榻忉屘峁┛刹僮鞯母拍?、方法、措施和衡量標準。該團隊正在探究解釋本身的性質(zhì),即解釋一個復雜系統(tǒng)的工作原理以及特定情況下的運作方式。TA2團隊還建立了關(guān)于人類解釋和推理的自然模型,并為評估 XAI 的解釋提供指導。他們回顧了科學哲學和心理學領(lǐng)域的相關(guān)文獻,并從中總結(jié)出評估解釋的標準。此外,該團隊還收集和分析了個人解釋復雜系統(tǒng)工作原理的案例庫。為了衡量解釋的好壞、用戶的心理模型以及任務表現(xiàn),該團隊制定了相應的衡量標準。這使得用戶能夠?qū)螘r信任或懷疑系統(tǒng)做出合理和準確的判斷。為了獲得這種洞察力,用戶必須探索 XAI 的決策過程和性能。

      圖2 可解釋AI的研究團隊

      2.局部解釋和全局解釋

      局部解釋關(guān)注模型對單一數(shù)據(jù)點的預測分析。通過觀察模型對某一輸入的反應,可以更進一步地洞察其決策機制。例如,在一個深度學習模型中,人們可能想探究該模型為何將某圖像視為“貓”而非“狗”。局部解釋可以幫助人們識別那些對模型決策最具影響力的輸入特征。[44]這在面對數(shù)據(jù)的不確定性時尤為重要,因為它允許人們評估模型在特定情境下的敏感性和穩(wěn)健性。全局解釋則關(guān)注模型的總體表現(xiàn)。它試圖回答的問題是:模型通常如何做出決策?全局解釋為人們提供了一個宏觀的視角,幫助人們理解模型的整體策略和偏好。這對于評估模型的復雜性和性能至關(guān)重要。一個模型可能在大多數(shù)情況下都表現(xiàn)得很好,但全局解釋可以揭示它的潛在弱點和偏見。解決模型的復雜性和數(shù)據(jù)的不確定性是機器學習中的兩大挑戰(zhàn)。復雜的模型可能更難以解釋,但它們可以提供更高的性能。相反,簡單的模型可能更容易解釋,但它們的性能可能較差。局部解釋和全局解釋為人們提供了權(quán)衡這些因素的工具。通過局部解釋,人們能更深入地了解到模型在某些情境中的反應,從而調(diào)整或完善模型以應對數(shù)據(jù)中的變化。而全局解釋則可以幫助人們評估模型的整體復雜性和性能,從而做出更明智的決策。解釋性和模型性能之間的權(quán)衡是另一個關(guān)鍵問題。在某些應用中,如醫(yī)療診斷或金融決策,解釋性可能比性能更為重要。在這些情境下人們可能更傾向于選擇一個解釋性強但性能稍遜的模型。局部解釋和全局解釋為人們提供了評估這種權(quán)衡的框架。

      3.交互式解釋

      交互式解釋的核心理念是將用戶納入解釋的過程中,從而使得解釋不再是一個單向的、靜態(tài)的過程,而是一個動態(tài)交互的過程。這種理念的提出,實際上是對傳統(tǒng)解釋方法的一種深刻的批判和超越。傳統(tǒng)的解釋方法通常是靜態(tài)的,它們通過闡述結(jié)果來說明模型的選擇,而這種方法往往忽略了模型的輸入、參數(shù)和內(nèi)部結(jié)構(gòu)的重要性。與此相反,交互式解釋不僅關(guān)注模型的輸出,還關(guān)注模型的輸入、參數(shù)和內(nèi)部結(jié)構(gòu)。這種全面的關(guān)注,使得交互式解釋能夠為用戶提供一個更為深入和全面的模型理解。通過與用戶的交互,可以讓用戶更準確、全面地判斷模型的效能和穩(wěn)定性。交互式解釋還可以幫助用戶更好地理解模型的不確定性。如芬蘭學者戈希夫斯卡(Gosiewska)和比采克(Biecek)在其研究中所提到的,非加性預測模型的模型解釋的不確定性是一個關(guān)注點。[45]這種不確定性,實際上是由模型的復雜性和數(shù)據(jù)的不確定性導致的。但通過交互式解釋,用戶可以更直觀地看到這種不確定性是如何產(chǎn)生的以及如何影響模型的輸出。這種直觀的理解,可以幫助用戶更為準確地評估模型的風險和不確定性。交互式解釋還強調(diào)了用戶建模和“交互式”呈現(xiàn)風格的重要性。如Cawsey在其研究中所提到的,用戶建模和“交互式”呈現(xiàn)風格對于解釋的可接受性和可理解性都很重要。[46]交互式解釋可以根據(jù)用戶的特點和需求提供定制化的解釋,從而提高解釋的效果和效率。

      結(jié) 語

      AI技術(shù)的迅速進步與倫理道德的相對滯后形成了鮮明的對比。這種對比不僅僅是時間上的差異,更是價值觀、認知和實踐層面上的巨大鴻溝。AI技術(shù)的發(fā)展使得機器能夠在某些領(lǐng)域超越人類的認知能力。然而,這種超越并不意味著機器已經(jīng)具備了與人類相似的倫理觀念和道德判斷。賦予SAI道德人格的探索,實際上是對機器是否能夠擁有與人類相似的倫理觀念和道德判斷的探討。這種探索對于確保AI系統(tǒng)的道德高效運作具有重要意義,因為只有當機器具備了與人類相似的倫理觀念和道德判斷,它才能在復雜的現(xiàn)實環(huán)境中做出與人類相似的、符合人類道德標準的決策。構(gòu)建XAI的目標是讓AI的決策過程更加透明和可理解。這是因為,盡管機器可能已經(jīng)具備了與人類相似的倫理觀念和道德判斷,但如果人類不能理解機器的判斷邏輯,那么人類就無法對機器的決策進行有效的監(jiān)控和評估。透明和可理解的決策過程不僅可以增強人類對機器的信任,還可以確保機器的決策真正符合人類的道德標準。走向道德AI的探索,實際上是對人機和諧共生的探索。在這個時代,機器不僅僅是人類的輔助工具,更是人類的合作伙伴。機器與人類共建和諧社會,確??萍嫉倪M步能夠真正地造福于人類。為了實現(xiàn)這個未來,人類不僅需要技術(shù)上的創(chuàng)新,更需要倫理上的反思。

      盡管目前關(guān)于道德AI的研究已經(jīng)取得了許多進展,但仍然存在局限性,主要表現(xiàn)在對多文化背景和不同學科知識的融合不足。這種單一的研究視角可能會導致AI在某些情境下缺乏足夠的道德敏感性和全球視野。為此,未來研究應深入探討多文化和跨學科的合作,以確保AI的道德決策更具包容性。同時,人們應該深入思考AI的倫理問題,開辟關(guān)于AI如何理解并處理復雜道德情境的新方向。

      猜你喜歡
      解釋性倫理決策
      著力構(gòu)建可解釋性模型
      科學導報(2025年3期)2025-02-08 00:00:00
      《心之死》的趣味與倫理焦慮
      為可持續(xù)決策提供依據(jù)
      論行政自由裁量的“解釋性控權(quán)”
      法律方法(2021年4期)2021-03-16 05:35:16
      護生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      決策為什么失誤了
      融媒體時代解釋性報道的發(fā)展之路
      傳播力研究(2017年5期)2017-03-28 09:08:30
      非解釋性憲法適用論
      醫(yī)改莫忘構(gòu)建倫理新機制
      婚姻家庭法的倫理性及其立法延展
      西青区| 陵川县| 蒲城县| 盘山县| 松江区| 保山市| 镇坪县| 乃东县| 抚宁县| 明水县| 司法| 清涧县| 天祝| 苍山县| 宜良县| 临西县| 科技| 台中市| 桃园县| 西峡县| 清水河县| 崇仁县| 奉贤区| 恩平市| 灌云县| 日照市| 莎车县| 榆树市| 沈阳市| 丽水市| 青岛市| 湖州市| 彭山县| 仁怀市| 兴海县| 恩平市| 吉木乃县| 马龙县| 南宁市| 黔东| 吉木乃县|