• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    “人在回路”的道德機制:機器人倫理實踐的新路徑

    2025-01-23 00:00:00程海東胡孝聰

    摘 要:機器人倫理是以人類為主體的倫理,側重于機器人與人類的交互中的倫理問題。進入人工智能時代,機器人倫理的研究焦點之一為人機共生倫理。“人在回路”的道德機制將人類視為機器人道德建模過程中的關鍵參與者,尋求利用人機共生的優(yōu)勢來彌補彼此的不足。這種策略有兩種優(yōu)勢:一是人類能夠從人機交互的過程中進一步增強人類的能力,讓人類專注于獨特優(yōu)勢的任務;二是人類處于回路中能夠減少機器人不道德的輸出,在面對高風險情況時,人類能對機器人的行動及時糾偏。

    關鍵詞:機器人倫理;道德建模;人在回路

    基金項目:遼寧省社會科學規(guī)劃基金項目(L19BSZ013)

    作者簡介:程海東,哲學博士,東北大學馬克思主義學院副教授、博士生導師,主要從事技術哲學研究;胡孝聰,東北大學馬克思主義學院博士生。

    中圖分類號:TP242;B82-057 文獻標識碼:A 文章編號:1000-2359(2025)01-0108-07 收稿日期:2023-07-08

    自工業(yè)革命以來,機器人就一直處在不斷替代人類體力勞動的進程中。在人工智能時代,智能機器人又開始替代人類的腦力勞動。隨著人類社會的智能化進程,機器人已經(jīng)從傳統(tǒng)的制造業(yè)機器人,逐漸拓展到各類服務型機器人。作為新興技術,當代機器人技術在給社會治理提供高效治理方案的同時,也帶來了新的難題。其中機器人的道德倫理問題已成為社會和學界關注的焦點之一,這一問題又可以具體為機器人能否成為真正的道德智能體,有無可能對人類造成傷害,又該如何避免機器人造成的傷害,人類如何與機器人共處等問題。隨著AlphaGo的接連獲勝和ChatGPT的不斷升級,機器人超越人類的擔憂更是急劇上升。智能時代機器人的工作模式和人們對機器人不斷加深的擔憂使得機器人倫理的研究快速走向前臺。

    一、走向人工智能時代的機器人倫理

    (一)何為機器人倫理

    機器人是通過模擬人類的思維和行動與外部世界交互的電子器械。貝基認為,機器人是“在世界中運行的,能夠感知、思維和行動的機器。” Bekey George A. Current trends in robotics:Technology and ethics. in Robot ethics: The ethical and social implications of robotics,MIT press, 2014, pp.17-34.也就是說,機器人應該是在物理實體上運行的可以感知、思維和行動的實體機器人?!皺C器人倫理”一詞是由韋魯吉奧于2004年在意大利舉行的第一屆機器人倫理會議上提出:“機器人倫理指的是人類在設計、制造、使用機器人時的道德行為” Veruggio Gianmarco. Roboethics roadmap. in EURON Roboethics Atelier. 2011.,即人類在與機器人互動時所產(chǎn)生的責任以及應遵循的倫理準則。可見,機器人倫理學關注的是人在設計、制造和使用機器人的過程中產(chǎn)生的倫理問題。在阿薩羅看來,機器人倫理包含三個層面的含義:“機器人內(nèi)置的倫理系統(tǒng),設計和使用機器人的倫理,以及人們?nèi)绾螌Υ龣C器人的倫理?!?Asaro P M. What should we want from a robot ethic? The International Review of Information Ethics, 2006, p.10.即機器人倫理學關注的不僅是人類主體在設計、制造和使用機器人的過程所產(chǎn)生的倫理問題,也關注機器人內(nèi)置的倫理系統(tǒng)——機器人與人類相處時所遵循的倫理法則。阿布尼也提出了類似的觀點,他認為機器人倫理至少有這樣幾種含義:“第一,它可以指機器人專家的職業(yè)道德;第二,它可以指為機器人編寫的道德準則,這是機器人自己的道德準則,而不是機器人專家遵循的準則;第三(可能不存在的含義),‘機器人倫理’可以指機器人有自我意識的能力來進行倫理推理,這是機器人自己的、由自我選擇的道德準則?!?Abney K. Robotics,ethical theory,and metaethics:A guide for the perplexed.In:Keith Abney,George A. Bekey(eds.)Robot ethics:The ethical and social implications of robotics,MIT press,2016,p.35.

    具體而言,機器人倫理可劃分為如下子問題:與機器人相處時,人類如何看待機器人的行為是否符合自己的道德訴求;機器人能否承擔行為的責任,它們能否被看作是道德智能體;具有自主性的機器人如何與人類共處,而人類又該如何與它們共處?換言之,機器人倫理的目標不是要將機器人視為獨立的道德智能體,“在這一領域作出倫理決策時,我們應該抵制將機器人視為道德智能體或受動者(patients)的誘惑。在可預見的未來,將人類和機器人視為倫理上相似的物種比將它們視為倫理上不同的物種會帶來更多的倫理風險?!?Chrisley R. A human-centered approach to AI ethics. In: Dubber, M.D., Pasquale, F., Das, S. (eds.) The Oxford Handbook of Ethics of AI. Oxford University Press, 2020, p. 463.可見,機器人倫理學指的是圍繞機器人的設計、使用和如何看待機器人的倫理問題,包括諸如機器人的設計是否應優(yōu)先考慮人類安全,機器人應如何與人類互動等問題。

    (二)人工智能時代機器人倫理的面向

    從道德建模角度看,機器人倫理采取的策略是外部規(guī)約,“以人為責任主體” 閆坤如:《機器人倫理學:機器的倫理學還是人的倫理學》,《社會科學文摘》,2019年第10期。,將責任落實到設計者或使用者身上,集中探討在設計和使用機器人過程中人類所要遵循的道德原則和所擔負的道德責任。科克爾伯格認為機器人倫理應該以人類道德主體的表象為標準,使用擬人化特征想象地投射到機器人身上 Coeckelbergh M. Virtual moral agency, virtual moral responsibility: on the moral significance of the appearance, perception, and performance of artificial agents. AI amp; society, 2009, 24(2).,即通過關注人類在做道德決策時所表現(xiàn)出來的形態(tài),將這些形態(tài)投射到機器人身上,看它們是如何表現(xiàn)的。在人-機、機-機的交互中去觀察,根據(jù)它們的表現(xiàn)做出道德評價和責任認定,只要機器人能夠“表現(xiàn)”為負責任的道德形態(tài),就可以認為它們具有道德。

    人工智能時代,通過一定的技術手段,機器人能夠具備“明物理、通事理”的能力 余欣,朝樂門,孟剛:《人在回路型AI訓練的基本流程與交互模型研究》,《情報資料工作》,2022年第5期。。當前的機器人已經(jīng)可以做到與人類進行深度的交互和綁定。例如,英國的機器人公司生產(chǎn)的Ameca機器人,能夠與工程師熟練對話,使用 GPT-3進行對話和翻譯,使用DeepL進行語言檢測,并使用Amazon Polly Neural語音。源于現(xiàn)代道德建模方式的機器人,已經(jīng)具有一定的道德決策能力,只是還不能夠被看作是道德實踐的主體,布瑞將這種機器人稱作是“準道德主體”,能夠做到“明物理”和“通事理”,但還未能做到“懂人理”。

    隨著人工智能技術的發(fā)展,機器人倫理的研究路徑也需要轉換。在當下的研究路徑中,機器人倫理學與機器倫理學是密切相關但屬于不同的研究領域:以人為對象的機器人倫理,從人類獨有的倫理道德屬性出發(fā),關注的是人類主體在機器人應用過程中所要承擔的道德責任,以及是否可以對機器行為作出道德解釋等問題,關注于設計出能夠做出道德行為的機器人;以機器為對象的機器倫理,關注的是機器行為的道德源頭,以及如何讓機器能夠“聽懂”人類的道德原則,關注于設計出能夠依據(jù)人類道德原則獨立做出道德決策的機器人。這種將二者區(qū)分為不同研究領域、采取不同研究路徑的思路已不能滿足人工智能時代機器人倫理的研究和實踐要求,因為它們關注的或者是人對技術的主導性,或者是技術對人的塑造,而未關注到技術與人類的共生實際。智能時代的人機關系可以從人類道德的習得過程與運用中尋找答案——“師法自然” 高新民,何冠岐:《師法自然與基于“進化論轉向”的智能解剖》,《貴州社會科學》,2021年第4期。,即機器人的道德化過程與人類的道德化歷程具有很強的相關性:人類道德化的過程是在人與自然、人與社會、人與人的交互中不斷成熟的,機器人的道德化也應該是機器人在與人類、技術人工物、其他機器人的具體交互中構建出道德規(guī)范的連續(xù)過程。

    二、基于“人在回路”道德機制的機器人倫理

    (一)“人在回路”的道德機制及其功能

    “人在回路”(human-in-the-loop,HITL)的核心是強調人類在自動化系統(tǒng)決策過程中的關鍵角色,作為一種典型的人機協(xié)同模式,其起源可追溯至國防和航空領域的建模與仿真研究 DoD Modeling and Simulation (Mamp;S) Glossary, DoD 5000.59-M, January 1998, p.118.。在此模式中,人類操作員的職責包括處理監(jiān)控任務、控制異常、優(yōu)化任務及維護任務等,是自動化控制過程的重要一環(huán)。謝里丹將這一過程定義為:“一個或多個人類操作員間歇性地編程并不斷從計算機接收信息,該計算機本身通過人工效應器關閉到受控過程或任務環(huán)境的自主控制回路?!?Sheridan T B. Telerobotics, automation, and human supervisory control. MIT press, 1992, p.1.

    在自主武器系統(tǒng)的開發(fā)中,HITL指的是人類參與到自主武器的設計、測試、部署和使用等階段。自主武器是指“能夠自主獨立完成全部作戰(zhàn)任務周期,即搜索目標,確定攻擊和發(fā)動攻擊的武器。雖然稱作自主武器,但無論是監(jiān)督式自主武器還是完全自主武器,都是由人類設計并投入作戰(zhàn)行動的?!?保羅·沙瑞爾:《無人軍隊:自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社,2019年,第57-58頁。這也再次突出了人類在自主武器各階段的至關重要性。根據(jù)人類參與程度的差異,HITL又可以細化為三個部分,分別是人在回路中(human-in-the-loop)、人在回路上(human-on-the-loop)和人在回路外(human-out-of-the-loop)。其中,“人在回路中”是指半自主武器系統(tǒng),即武器系統(tǒng)主要用于搜索、識別和打擊目標,而人類負責下達打擊任務的指令,“在戰(zhàn)爭制勝問題上,人是決定因素” 黃松平等:《無人作戰(zhàn)及其指揮控制問題探析》,《火力與指揮控制》,2023年第4期。;“人在回路上”指的是有監(jiān)督式自主武器,其目標由人類設定,系統(tǒng)自主尋找、識別并決定是否對目標進行打擊,只有在必要時人類才干預打擊任務;“人在回路外”是指完全自主武器系統(tǒng),這種系統(tǒng)能自行尋找、監(jiān)測并決定是否發(fā)動打擊,人類無法直接參與或干預打擊任務 保羅·沙瑞爾:《無人軍隊:自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社,2019年,第48-51頁。。可見,“人在回路外”的模式涉及的潛在風險極大,當下的技術難以實現(xiàn)。

    因此,保證人類能夠干預系統(tǒng)的打擊決策,在智能化作戰(zhàn)中是至關重要的。特別是在系統(tǒng)誤將平民識別為戰(zhàn)斗人員時,人類操作員能及時干預并糾正打擊任務。人類的參與有助于在系統(tǒng)出現(xiàn)異?;蚺袛噱e誤時,作為能夠承擔責任的實體進行糾正和負責。在自主系統(tǒng)可能對人類造成傷害時,人類的適時介入可以最大限度地降低這種錯誤決策的可能性。例如,無人機的操控者能夠在緊急情況下采取手動控制,以避免誤傷平民。自動駕駛汽車的開發(fā)人員和使用者可以通過手動駕駛功能來處理復雜交通場景,以確保安全駕駛。這種人機結合的方式使得人類能夠在系統(tǒng)出現(xiàn)意外情況或設定錯誤時介入并糾正,確保智能系統(tǒng)的正常運行和人類的安全。

    隨著人工智能技術的快速發(fā)展,HITL理念已經(jīng)被引入到機器學習領域。在這里,“人在回路”是指人類參與構建、訓練和測試機器學習算法的過程,這是一種監(jiān)督式機器學習和主動學習的結合。這種結合可以創(chuàng)造出一個持續(xù)的反饋循環(huán),“在使用人工智能的應用中結合人和機器智能的策略” Monarch R M. Human-in-the-Loop Machine Learning: Active learning and annotation for human-centered AI, Simon and Schuster, 2021, p.4.,以此優(yōu)化算法的每次輸出。在監(jiān)督式機器學習中,人類通過標注和注釋數(shù)據(jù),為學習算法提供學習和決策所需的信息。同時,人類還可以對模型進行修正以提高其準確性。這個過程構成了HITL的算法周期。 Wang G. Humans in the loop: The design of interactive AI systems, Artificial Intelligence Res, 2019, pp.243-252.該周期始于人類對數(shù)據(jù)進行標記,為模型提供大量的高質量訓練數(shù)據(jù)。然后機器學習如何根據(jù)這些數(shù)據(jù)做出決策,直到人類開始對模型進行微調。最后,人類通過對模型的輸出進行評估以測試和驗證其準確性。隨著學習的推進,這一過程使得算法的效率和準確性都得到了顯著提升,其中人類的判斷有助于調整和測試模型的輸出,以實現(xiàn)最準確和可操作的決策。當人工智能在預測或識別上出現(xiàn)誤判時,位于回路中的人類可以進行糾錯,這一過程被稱為反饋回路。因此,HITL可以被視為一個連續(xù)的反饋回路,每次訓練、調優(yōu)和測試任務都將反饋給算法。通過反饋回路,人類能夠快速地識別和糾正機器人道德決策中的錯誤。主動學習是一個持續(xù)地迭代過程,每個迭代過程中都會選擇一些數(shù)據(jù)進行人工標注,然后使用新的人工標注數(shù)據(jù)重新訓練模型。在機器學習領域,人類可以調整數(shù)據(jù)的收集和處理方式,作為反饋的來源,并監(jiān)控模型的部署結果,從而改進和優(yōu)化整個流程。

    簡言之,HITL的機器學習是將人和機器學習有機地結合在一起,實現(xiàn)“1+1gt;2”的效應。在人工智能應用中,引入人類目的是提高機器學習模型決策的準確性。這種模式的兩個主要目標是:一是使用人工輸入使機器學習應用更精確,二是利用機器學習來改善人工任務 Monarch R M. Human-in-the-Loop Machine Learning: Active learning and annotation for human-centered AI, Simon and Schuster, 2021, pp.16-17.。例如,在進行機器翻譯時,我們可以利用機器翻譯系統(tǒng)推薦的單詞和短語來加快翻譯任務,就像我們現(xiàn)在使用的輸入法,在輸入單詞時,輸入法系統(tǒng)會自動推薦下一個可能的詞匯。這種通過提供人工翻譯的數(shù)據(jù)讓機器翻譯系統(tǒng)進行學習,可以提高機器翻譯的準確性,既改善了人類的生活體驗,同時實現(xiàn)了提高人類效率和機器準確性兩個目標。

    綜上所述,在不同的領域中,HITL實現(xiàn)了兩個重要功能:一是通過機器系統(tǒng),人類可以識別并糾正機器的錯誤行為;二是在機器學習中,人類能夠幫助機器學習模型做出更精確的決策,形成人-機學習模型的連續(xù)反饋回路,從而提高模型的性能和準確性。當然,HITL在機器學習領域也存在相應的挑戰(zhàn),人類對模型的調整和修正并不總是能提高模型的準確性,因為人類的決策也可能受到自身的偏見和誤解的影響。這就需要我們制定一套合理的反饋和監(jiān)督機制,以確保模型的公正性和準確性。

    (二)“人在回路”道德機制在機器人倫理學中的應用

    在機器人倫理中,將“人在回路”引入倫理考量是必要的,因為道德決策的可靠性來源通常被歸于人類。這種機制將道德建??醋鍪且粋€循環(huán)不斷地進程,通過人類與機器人在現(xiàn)實世界的交互式反饋,實現(xiàn)機器人與人類的倫理對齊。更重要的是,機器人和人類通過交互過程實現(xiàn)學習、決定和行動,它們的技術訣竅會隨著時間的推移而進化,因此對事件鏈的解釋和理解會更加嚴格 Pacaux-Lemoine M P, Trentesaux D. Ethical risks of human-machine symbiosis in industry 4.0: insights from the human-machine cooperation approach. IFAC-Papers OnLine, 2019, p.20.。在機器人的決策中,不僅要關注其行為的準確性,可解釋性在人機交互中也非常重要,因為人類不希望機器人是一個只能看到輸入和輸出的黑箱。如果機器人在我們的生活中扮演重要的角色,我們就需要理解它的決策依據(jù),這有助于加強人類對機器人的信任和降低可能的道德風險。人類是社會的一部分,機器人也將是社會中不可或缺的個體。一個最終需要在人類社會中發(fā)揮作用的機器不應該脫離人類的視野。人在回路的道德機制旨在將人類接管機器人訓練的回路之中,對機器人賦予特定的價值、倫理、道德、文化和意識形態(tài),使得機器人不僅能夠“明物理”和“通事理”,而且還可以“懂人理” 余欣,朝樂門,孟剛:《人在回路型:AI訓練的基本流程與交互模型研究》,《情報資料工作》,2022第5期。。“懂人理”并不是靜態(tài)的、由編程人員提供的代碼,而是需要在動態(tài)的人機交互中實現(xiàn)人類與機器人的集體能動性建構 于雪,初昊:《人機合作中集體能動性的建構》,《長沙理工大學學報》(社會科學版),2023年第2期。。

    在機器人倫理的語境中,“回路”具有獨特的含義,它不僅表征循環(huán)過程,更重要的是,它強調機器人的道德建模不是一次性或靜態(tài)的任務,而是一個動態(tài)的、持續(xù)的學習和進化過程。這一過程不只是從數(shù)據(jù)中學習,更是對新知識的不斷獲取和整合。要清晰地理解這一概念,需要強調的是:即使是已經(jīng)訓練完成的模型,也必須保持學習和進化的能力,以適應變化的環(huán)境和情境,處理新出現(xiàn)的道德挑戰(zhàn)。這種動態(tài)的學習模式將確保機器人能夠及時地獲取新的知識,適應未知的情況,從而在不斷變化的現(xiàn)實世界中保持其道德決策的效能。

    在道德建模的過程中,維護“人在回路中”與“人在回路上”的平衡至關重要。我們必須謹慎對待排除人類參與的情況,因為這可能會引發(fā)更多的倫理和技術問題。隨著機器人技術的發(fā)展,更為自主和適應性強的機器人正逐漸滲透進人類生活,人類的角色也可能從“在回路中”向“在回路上”過渡。這并不意味著人類的角色減弱,反而強調了人類在機器人決策中的指導性地位。雖然機器人能夠更高效地執(zhí)行重復和單調的任務,但它們?nèi)匀恍枰祟惖闹笇泶_定任務、解釋數(shù)據(jù)含義以及糾正模型偏見等。例如,完全自主的武器系統(tǒng)可能會引發(fā)嚴重的安全和倫理問題,這在法律、道德和戰(zhàn)略三個層面上都是不可接受的。在自動駕駛領域,盡管將人類排除在回路外可能帶來一些好處,比如更快的反應時間和降低因人為因素導致的事故率,但同時也可能增加系統(tǒng)性風險。在機器視覺處理或識別出現(xiàn)問題的情況下,人類的及時干預可以阻止?jié)撛谑鹿实陌l(fā)生。因此,在可預見的未來,人類應該在機器人道德決策中維持重要的角色,無論是“在回路中”還是“在回路上”,人類都應保持在這個系統(tǒng)中的關鍵位置。

    三、“人在回路”機器人道德機制的實踐

    如上所述,基于“人在回路”的建模策略,可以從兩個維度考量機器人的倫理實踐:一是權衡人類和機器人各自的優(yōu)勢和缺點,以確保處于“回路”的機器人能做出符合人類道德原則的道德決策;二是確保人類在機器人的設計、制造、使用和監(jiān)管過程中始終處于“回路”中,以實現(xiàn)“將所有利益相關方納入人工智能倫理、社會和監(jiān)管中……在利益相關方之間建立共識” Jotterand F, Bosco C. Keeping the “Human in the Loop”in the age of artificial intelligence, Science and Engineering Ethics, 2020(26), pp.2457-2458.,其中的關鍵在于確定機器人的自主性與人類的關鍵參與之間的平衡點。

    (一)權衡人與機器人的優(yōu)勢互補

    權衡人類和機器人的優(yōu)勢和缺點,利用各自的優(yōu)勢來彌補對方的缺陷?!叭祟惿瞄L將上下文和直覺應用于問題解決,可以把握和解釋因果關系?!?程海東,胡孝聰:《智能時代人機共生價值關系探析》,《道德與文明》,2023年第3期。在處理問題、解釋因果關系,以及進行道德推理方面,人類有著獨特的優(yōu)勢,這些都依賴于人類的上下文理解、直覺和適應性。盡管如此,人類的決策過程仍可能受到情緒、情感和身體疲勞引發(fā)的主觀偏見的影響,同時在處理和分析大量信息的能力上也相對有限。與此相對,機器人優(yōu)勢在于能夠快速、一致且客觀地處理和計算大量數(shù)據(jù)。當機器人被適當?shù)卦O計和訓練時,它們可以根據(jù)數(shù)據(jù)做出決策,避免人類可能的偶然偏見。然而,機器人的能力范圍通常局限于特定的訓練任務,無法超越預設的框架或理解人類的價值觀。此外,機器人在行動決策中也受限于其所依賴的形式化語言,“無法對現(xiàn)實的大千世界進行完全的表征” 李放放,商衛(wèi)星:《機器智能的理論困境》,《河南師范大學學報》(哲學社會科學版),2007年第1期。。盡管機器人能夠有效地處理重復和繁瑣的任務,但它們?nèi)匀恍枰祟愒O定任務、解讀數(shù)據(jù)的意義,以及糾正可能出現(xiàn)的模型偏見。由于人類和機器人各有其優(yōu)勢和局限,我們的目標應該是通過一定的設計和應用,將兩者的優(yōu)勢進行最佳的互補。我們要尋求將人類的創(chuàng)新思維與機器人的高效處理能力相結合,以期獲得更優(yōu)的表現(xiàn)和結果。

    “人在回路”的建模策略可以結合人類和機器人的優(yōu)勢,以減少機器人的不道德輸出。在面對高風險或復雜情況時,人類可以對機器人的決策進行監(jiān)督,及時糾正可能出現(xiàn)的錯誤;機器人則可以通過處理大規(guī)模數(shù)據(jù)分析、執(zhí)行重復任務和提供一致的輸出來增強人類的能力。這一機制使人類可以專注于需要其獨特優(yōu)勢的任務,而機器人可以被設計為向處于回路中的人類解釋其決策,幫助他們理解決策的緣由。同時,通過參與人在回路系統(tǒng)的工作,機器人可以從人類的輸入和決策中學習,以持續(xù)提升其性能。

    (二)實現(xiàn)跨學科的道德建模

    在機器人道德建模準備階段,必須構建一個跨學科的團隊以進行深入的論證。這個團隊的組成應確保其能夠在決策過程中融入各個領域的專業(yè)知識、觀點和立場。工程師和計算機科學家能夠為團隊帶來對機器人系統(tǒng)技術的深入理解,他們能夠精確地揭示機器人技術的潛在優(yōu)勢和局限性。倫理學家則具備道德哲學和倫理框架的專業(yè)視角,他們可以協(xié)助團隊識別和分析由機器人技術引發(fā)的倫理問題,確保開發(fā)過程遵循倫理原則和主流價值觀。社會學家和心理學家的參與則有助于評估機器人技術在更廣泛的社會背景下的應用,以及其可能產(chǎn)生的社會影響和人機交互的動態(tài)。政策制定者的參與則有助于將道德原則與實際政策執(zhí)行相融合,以確保道德建模過程與法律框架保持協(xié)調。此外,機器人的目標用戶和其他利益相關者也是機器人進入應用階段的關鍵參與者。他們的需求和期望是機器人產(chǎn)品必須滿足的關鍵要素。因此,我們需要建立多個專門的平臺,以收集各方的意見和反饋。通過積極的對話和充分尊重不同群體的關注點,我們可以建立社會信任,促進包容性,確保機器人道德建模過程充分考慮到了多元化的視角。在這個過程中,綜合各方觀點,充分反映盡可能廣泛的關注點和價值觀,并將收集到的反饋融到道德準則的制定過程中,這將是我們實現(xiàn)這一目標的關鍵環(huán)節(jié)。

    (三)明確道德建模者的道德責任

    在機器人道德建模的實施階段,人類參與者的角色和責任需得到明確,要特別注重明確機器人設計者和制造者的道德責任,并對可能出現(xiàn)的倫理問題進行仔細審查。“設計者和制造者都始終對他們的系統(tǒng)造成的風險或外部影響承擔責任。機器人設計者和制造者必須能夠在程序層面說明為什么系統(tǒng)以某種方式運行,以便應對和處理責任歸屬問題?!?國家機器人標準化總體組:《中國機器人倫理標準化前瞻(2019)》,北京大學出版社,2019年,第54頁。

    機器人設計者的重要任務是預測和評估具體使用語境中可能出現(xiàn)的倫理問題。從某種程度上說,“機器人的設計和研發(fā)不僅要考慮它們所能帶來的經(jīng)濟效益,也要考慮它們對人類生活整體和自然環(huán)境可能造成的不可逆的影響?!?國家機器人標準化總體組:《中國機器人倫理標準化前瞻(2019)》,北京大學出版社,2019年,第30頁。正如維貝克所言:“設計者協(xié)助塑造了技術物的行為調解方式,設計被看作是一種以物質的方式所從事的倫理活動?!?Verbeek P P. Moralizing technology:Understanding and Designing the Morality of Things, University of Chicago Press, 2011, p.91.這說明設計者可以通過技術手段,通過預測-評估-設計等環(huán)節(jié),將某種形式的倫理規(guī)范嵌入到機器人之中,對機器人進行道德化設計。因此設計者需要具備一種前瞻性思維,以便在設計環(huán)節(jié)嵌入一定的價值和倫理準則,并進行風險預測,盡可能預見其在社會中可能引發(fā)的倫理問題,并采取防范措施。在更復雜的情況下,機器人應被設計為在遇到無法自行解決的道德困境時能夠進行人機協(xié)商,以人類的倫理判斷作為最終的決策依據(jù)。

    在機器人制造過程中,制造者的責任絕不僅僅限于生產(chǎn),他們應深入審視每個環(huán)節(jié),建立和實施相應的倫理評估機構,以確保制造出的機器人符合人類的道德標準。特別是在制造和設計階段,他們需要“預測與識別、倫理問題的分析與澄清、解決方案的開發(fā)與確定來修正和完善開發(fā)方案” 王鈺,程海東:《人工智能技術倫理治理內(nèi)在路徑解析》,《自然辯證法通訊》,2019年第8期。。制造者有責任保證生產(chǎn)出的機器人符合產(chǎn)品質量標準。如果產(chǎn)品由于設計缺陷、不符合標準或無意的副作用導致傷害,制造者應承擔相應的責任。為此,制造者需要在用戶手冊中提供詳盡的操作指南,并明確指出可能出現(xiàn)的道德和倫理問題,以及相關責任歸屬情況。而在機器人投放市場后,制造者的職責并未結束。他們有義務持續(xù)跟蹤產(chǎn)品的使用情況,收集用戶反饋,并及時將這些信息反饋給設計者,以便于及時進行調整和改進。這樣的持續(xù)改進機制不僅可以幫助提升產(chǎn)品質量,也能確保機器人的道德建模始終處于不斷的優(yōu)化和提升過程中。

    (四)在應用階段實現(xiàn)人機優(yōu)勢互補

    在機器人的應用階段,使用者需深入理解機器人的能力及限制,以確保其在道德范圍內(nèi)運用機器人,并明確何時應介入其決策過程以發(fā)揮人機互補優(yōu)勢。同時,監(jiān)管者應負責制定機器人應用政策,監(jiān)控機器人行為是否符合道德規(guī)范,并在必要時解決由此產(chǎn)生的道德問題。

    傳統(tǒng)的技術倫理觀念將使用者視為技術后果的被動接受者,這種觀念往往忽視了“使用者對技術所引發(fā)的問題也應承擔重要的社會責任” 陳凡,陳多聞:《論技術使用者的三重角色》,《科學技術與辯證法》,2009年第2期。。實際上,使用者在整個技術周期中扮演著重要角色,他們“既是使用階段的現(xiàn)實建構者,也是發(fā)明、設計和制造階段的潛在建構者——技術的發(fā)明、設計和制造都是以預設的使用目的為楔入點?!?程海東,劉煒:《技術認識論芻議》,《自然辯證法研究》,2013年第7期。使用者會根據(jù)不同的使用情境將機器人應用于各種場景,以最大化機器人的價值。因此,使用者需要承擔起機器人可能帶來的問題的社會責任,并避免其違規(guī)或非法使用。任何“技術使用的情景塑造不是哪一類使用者的專有責任,而是使用者整體的責任,每個使用技術的人都應積極地、有意識地參與到重新塑造情景的行動中來,每個使用者都應履行自己的義務,并獲得自己的權利。” 陳多聞:《論技術使用者的人性責任》,《科學技術哲學研究》,2012年第2期。作為機器人交互的主體,使用者有責任提供有價值的反饋。一旦發(fā)現(xiàn)機器人的行為存在道德問題,使用者應將此反饋給相關方,如機器人的制造者或監(jiān)管者,從而促進機器人道德行為的持續(xù)優(yōu)化和提升。

    作為機器人倫理的守護者,監(jiān)管者承擔著制定適應性法律和規(guī)定的責任,以保障機器人決策的透明度、安全性和可靠性,同時確保使用者的隱私和數(shù)據(jù)安全。監(jiān)管者的主要任務是“通過制度調適、輿論調適和教育調適三條路徑,實現(xiàn)人工智能產(chǎn)品與社會價值體系的順利融合” 王鈺,程海東:《人工智能技術倫理治理內(nèi)在路徑解析》,《自然辯證法通訊》,2019年第8期。。首先,監(jiān)管者需要從制度角度完善與機器人技術和倫理相關的標準。這涉及對機器人的研發(fā)、設計和應用等各環(huán)節(jié)提供強有力的制度保障。針對不同的機器人應用場景,應有針對性地制定嚴格的技術標準,防止不合格產(chǎn)品進入市場。同時,對于機器人應用可能引發(fā)的倫理問題,需要為利益相關者設定明確的倫理標準和道德規(guī)范。其次,監(jiān)管者應善用輿論力量,對機器人產(chǎn)品的市場流通進行有效監(jiān)管,堅決阻止與基本道德原則相違背的產(chǎn)品進入市場。此外,通過利用新興的媒體技術,可以引導設計者、制造者和使用者之間建立有效的信息反饋渠道。同時,進行公眾咨詢,以收集公眾的觀點、疑慮和反饋,進一步完善機器人產(chǎn)品。最后,通過對各個環(huán)節(jié)的教育調整,監(jiān)管者應促成完善的機器人技術培訓和倫理教育體系的建立。這將有助于深化公眾對機器人倫理的理解,提高整個社會的倫理意識,從而讓機器人技術在符合倫理規(guī)范的前提下更好地服務人類。

    四、結語

    隨著機器人技術的發(fā)展和應用范圍的拓寬,所引發(fā)的機器人倫理問題將對我們現(xiàn)有的道德和法律框架提出更大的挑戰(zhàn)。而“人在回路”的道德建模策略,通過一種動態(tài)的、持續(xù)的方式,旨在完善機器人的道德準則,確保機器人的決策符合人類的道德原則。在準備、建模和應用機器人道德建模的各個階段,人類的參與可以增強人類對機器人的信任,并有助于降低機器人的道德風險?!叭藱C關系的未來將是合作而非競爭關系,人機一體化的理想狀態(tài)是人類與機器之間實現(xiàn)優(yōu)勢互補、和諧共生。” 張雪琴:《邁向智能化時代的勞動發(fā)展:價值陳述、系統(tǒng)變革與邏輯走向》,《河南師范大學學報》(哲學社會科學版),2023年第2期。作為社會的一部分,人類和機器人都是不可或缺的組成,不應該將機器人看作是脫離人類的“他者”。在這個“回路”中,人類和機器人都占據(jù)著特定的位置,發(fā)揮著各自的功能,承擔著各自的責任。由此看來,人工智能時代機器人倫理實踐并不是要設計出與人類一樣的倫理主體,而是要讓機器人在與人類的交互中實現(xiàn)倫理對齊,以此助力人類的倫理實踐,實現(xiàn)人類與機器人的共生共進。

    Human-in-the-loop Moral Mechanism:A New Path of Robot Ethics

    Cheng Haidong,Hu Xiaocong

    (Northeastern University, Shenyang 110169, China)

    Abstract:

    Robot ethics focuses on ethics with humans as the primary subjects, emphasizing ethical issues in the interactions between robots and humans. As we enter the era of artificial intelligence, the focus of research in robot ethics has shifted towards the dimension of human-machine symbiosis, namely the robot ethics of human-in-the-loop. This research path sees humans as key participants in the process of robot moral modeling, seeking to utilize the advantages of human-machine symbiosis to compensate for each other’s shortcomings. This strategy has two advantages. First, humans can further enhance their abilities through the process of human-machine interaction, allowing humans to focus on tasks where they have unique advantages. Second, having humans in the loop can reduce unethical outputs from robots, and in high-risk situations, humans can timely correct the actions of robots.

    Key words:robot ethics;moral modeling;human-in-the-loop[責任編校 劉 科,段玲玲]

    类乌齐县| 鄂尔多斯市| 永胜县| 嘉鱼县| 苏尼特右旗| 冷水江市| 柏乡县| 巴林右旗| 怀安县| 花垣县| 连平县| 青神县| 泾川县| 阿坝县| 确山县| 灵武市| 镇康县| 嘉定区| 西城区| 商城县| 柳州市| 巨野县| 乌拉特前旗| 宜都市| 财经| 买车| 桂林市| 楚雄市| 靖边县| 新和县| 襄城县| 奉贤区| 潞城市| 隆林| 博客| 宾阳县| 上虞市| 安达市| 南城县| 安泽县| 循化|