程 林
(廣東外語外貿大學 a.闡釋學研究院,b.西方語言文化學院,廣州 510420)
在抗擊新冠病毒的戰(zhàn)役中,臨危受命的醫(yī)用機器人完成了國內抗疫史上的規(guī)模性首秀。將智能機器人應用于抗擊疫情,猶如提前被搬上現(xiàn)實舞臺的科幻故事。但在當今“科技世代”,機器人出現(xiàn)在抗疫前線并不意外。相比應用于大數(shù)據(jù)分析等方面的技術,抗疫機器人雖也有智能,但主要完成“累活臟活”,扮演著“智能苦力”等角色。本文主要從醫(yī)用機器人倫理的角度,初探抗疫機器人倫理的特點,并針對問題提出建議。作為新分支領域,抗疫機器人倫理探討為醫(yī)用機器人倫理研究走向具體化和細化提供了契機。
在新冠病毒阻擊戰(zhàn)中,輔助和服務機器人成為“抗疫尖兵”,其實踐優(yōu)勢有四。一是節(jié)省人力。作為“智能苦力”(“苦力”在此并不含貶義,而是因為機器人有耐勞屬性和完成以下3D任務),機器人承擔3D(Dirty-Dangerous-Dull)任務,例如在樓道消毒、安防測溫等方面全天候執(zhí)勤,可節(jié)省醫(yī)護人員時間精力,以便后者投入到更需要專業(yè)技能的領域。二是保護醫(yī)護。作為醫(yī)護人員的“延伸手臂(眼睛)”或“投影器官”甚至“投影自體”(2)德國技術哲學家E·卡普在其代表作《技術哲學綱要(1877)》中提出了“器官投影說”(Organprojektion),將工具與人類器官作了類比。參見:Ernst kapp, “Grundlinien einer philosophie der Fechnik (1877),” Grundlagentexte der Medienkultur, ed. Andreas Ziemann (Wiesbaden: Springer VS, 2019):45-53。,機器人推動無人化和無接觸的配送和診治,避免交叉感染。它不僅可實現(xiàn)消毒殺毒與醫(yī)廢轉運的無人化作業(yè),還可協(xié)助醫(yī)護人員進行體征測試、咽拭子采樣和非接觸視頻問診。三是節(jié)省資源??谡帧⒆o鏡和防護服等戰(zhàn)略物資短缺是此次疫情面臨的重要挑戰(zhàn)之一,而機器人無需使用這些物資。四是在技術成熟的情況下,減少失誤。鐘南山認為,采樣機器人可“提升生物樣本采集的規(guī)范性、保證樣本質量。排除采集咽拭子過程中,因醫(yī)務人員水平差異導致咽拭子采集操作的不規(guī)范”(3)徐梅《AI趕考——疫情賦予使命,但先要活下去》,《南方人物周刊》2020年第12期,第31頁。。
醫(yī)用機器人技術發(fā)展迅速,但機器人抗疫是復雜的系統(tǒng)工程,需要全方位磨合和適配周期,安全性要求、技術門檻和研發(fā)成本都較高,在機器人應急使用中問題在所難免。部分倉促上陣的機器人與實際應用場景尚不契合,無法有效服務醫(yī)患。鑒于此,在統(tǒng)籌管理方面,相關部門未來應對技術抗疫做周密統(tǒng)籌,促進醫(yī)療自動化和智能化;在技術研發(fā)方面,應尋求突破技術魯棒性瓶頸,確保機器人在抗疫現(xiàn)場能應對復雜輔醫(yī)任務。而在倫理方面,與其功能與特點相應,抗疫機器人倫理事項具有自身特色,同樣需要得到應有重視。
醫(yī)患關系與社會實踐息息相關,長期以來都是富有爭議和值得深思的話題。作為醫(yī)學倫理(Medical ethics)的一部分,醫(yī)患倫理旨在合乎倫理地看待與處理醫(yī)患關系,對提高醫(yī)療質量有重要意義。當機器人出現(xiàn)在醫(yī)患之間時,就解構了傳統(tǒng)的醫(yī)患二元交往模式,并構建起醫(yī)護-機器人-病患三方關系。
21世紀初,“機器人倫理學”(Roboethics)正式成為應用倫理學分支,意大利工程師G.維汝吉奧起到了關鍵作用。在他和同行F.奧佩托看來,“機器人倫理學”旨在“促進和鼓勵機器人學的發(fā)展,使機器人有利于人類社會和個人,并且防止機器人的誤用對人類造成危害”,它字面上看似探討機器人的行為與倫理選擇,但實際上是“針對機器人設計師、制造商和用戶的倫理學”(4)Gianmarco Veruggio and Fiorella Operto, “Roboethics: Social and Ethical Implications of Robotics,” in Springer Handbook of Robotics, eds. Bruno Siciliano, Oussama Khatib (Heidelberg: Springer, 2008), 1504.,或曰“關于人類如何設計、處置、對待機器人的倫理學……以人為責任主體的倫理學”(5)閆坤如《機器人倫理學:機器的倫理學還是人的倫理學?》,《東北大學學報(社會科學版)》2019年第4期,第331頁。。只要機器人不具備自主意識,其倫理問題的背后都是人的意志和責任,這也符合當下的技術條件。作為“醫(yī)學倫理與機器人倫理的結合”(6)Spyros G. Tzafestas,“Medical Roboethics,” Roboethics-A Navigating Overview (Heidelberg: Springer, 2016), 81.,醫(yī)用機器人倫理(medical roboethics)在國內外學界均起步不久,但顯然非常重要,正如維汝吉奧等人所言,“從社會和倫理角度講,應用于健康護理和提高生命質量的機器人是機器人學中遭遇技術難度和倫理問題最大的領域之一”(7)Gianmarco Veruggio and Fiorella Operto, “Roboethics: Social and Ethical Implications of Robotics,” in Springer Handbook of Robotics, eds. Bruno Siciliano, Oussama Khatib, 1516.。鑒于現(xiàn)有機器人的輔助醫(yī)療性質,本文建議厘清漢語表達中的“醫(yī)用”與“醫(yī)療”。本文暫用“醫(yī)用”機器人和“醫(yī)用”機器人倫理,因為“醫(yī)療”可暗示機器人具有短期內實際上無法具備的行為和責任能動性(相應地,本文雖據(jù)主流表達使用了“抗疫機器人”,但目前仍是“疫用機器人”)。國際學界研究的重要案例是手術機器人的倫理問題(8)參見:Spyros G. Tzafestas,“Medical Roboethics,” Roboethics-A Navigating Overview (Heidelberg: Springer, 2016),烏戈·帕加羅《誰為機器人的行為負責?》,張卉林等譯,上海人民出版社2018年版,第92-100頁。,而機器人應用中人的主體性、患者的隱私和醫(yī)護人員被替代等問題則是國內討論的熱點。
由于新冠疫情突發(fā),“抗疫機器人倫理”在國內外學界還是嶄新概念,本文將其作如下定義:作為醫(yī)用機器人倫理的分支,“抗疫機器人倫理”是機器人倫理與疫期醫(yī)患倫理的結合,以人特別是醫(yī)護人員為行為和責任主體,考察和解決疫情期間醫(yī)護、機器人和患者三者關系的應用倫理,目標是確??挂邫C器人能以合乎倫理的方式協(xié)助和服務醫(yī)患。其間,機器人應成為醫(yī)護與病患之間的安全中介和關聯(lián)樞紐。與之相應,抗疫乃至醫(yī)用機器人倫理實際上是探討以機器人為中介的醫(yī)患關系的倫理。在醫(yī)用機器人倫理范疇下,抗疫機器人倫理與養(yǎng)老機器人倫理有相通之處,但也有顯著差異。鑒于養(yǎng)老機器人倫理在國內外的探討相對成熟,本文將養(yǎng)老機器人倫理領域的已有研究作為抗疫機器人倫理這個新話題討論的重要參考。
以上提到的人的主體性、病患隱私和醫(yī)護被替代等醫(yī)用機器人憂慮理論上都值得關注,但在機器人抗疫中均非迫在眉睫的核心問題,或者其本身亟待細化分析。例如,醫(yī)用機器人隱私問題雖重要,但無論是用于殺毒、采樣、宣傳還是遠程問診的抗疫機器人與病患隱私都關聯(lián)較少,與需要數(shù)據(jù)“供養(yǎng)”的部分養(yǎng)老機器人以及在德國被熱議的接觸追蹤程序(Corona-Warn-App)存在差異。
因此,與現(xiàn)有研究關注要點和視角略有不同,本文認為抗疫機器人倫理中有三個問題值得重視,而它大致可按機器人用前(及用中)、用中和用后的順序劃分如下。
第一,人對機器人的態(tài)度和取向,例如關于機器人“權利”和“主體性”的討論。在此,“機器人權利”并非是有獨立意識的機器人為自己伸張權利(如互動電影游戲《底特律:成為人類》中馬庫斯的“機器人權利宣言”),而是人們設想出的機器人權利問題。
第二,人機交互過程中產生的倫理問題,例如在人機交互過程中出現(xiàn)的人的心理、情感、意愿和尊嚴以及隱私問題,這些問題主要在于人應如何設計和使用機器人以避免人機交互產生的問題。
第三,機器人應用后的社會后果,例如機器人應用可在資源配置和工作分配等方面造成一系列值得討論的問題,在大眾媒體上最常見的是“機器代人”,但它至少包括“機器人代人要位”和“機器人代人勞作”兩類,這一問題在于人應如何設計和使用機器人以避免產生不良的社會后果。
作為新議題,抗疫機器人要求醫(yī)用機器人倫理討論走向細化和現(xiàn)實化,有助于重新思考醫(yī)用機器人倫理中的若干問題。接下來,本文以這三個層次為依據(jù),結合其它醫(yī)用機器人倫理討論,初探機器人抗疫的倫理可行性及其帶來的特有挑戰(zhàn)。
機器人抗疫符合其原始定義和傳統(tǒng)定位。機器人英文表達“robot”和德語中的“Roboter”來源自捷克語“robota”(出自恰佩克的舞臺劇《羅素姆的萬能機器人》),原意為“勞役”和“苦力”。在當今的技術愿景話語中,機器人越來越多地被定義為人們的“助手”甚至“伙伴”。但自當代機器人在現(xiàn)實中出現(xiàn)以來,傳統(tǒng)機器人事實上經常承擔了3D任務。在由J.倫克執(zhí)導的電視劇《切爾諾貝利》(Chernobyl,2019)第四集中,人們起初寄望于機器人清除核泄漏所產生的廢料。但當時的機器人技術還無法勝任這項艱難的任務。在以機車為基礎的德國機器手臂無法承受輻射的情況下,當時蘇聯(lián)前線指揮部門最終不得不使用“生物機器人”(“biorobots”)也就是人來清理核廢料。在對機器人極重視和友好的“機器人王國”日本,機器人也承擔著福島核泄漏清理任務?!熬仍畽C器人已從一個有趣想法轉變?yōu)榫o急反應中必不可少的部分?!?9)Robin R. Murphy et al., “Search and Rescue Robotics,” in Springer Handbook of Robotics, eds. Bruno Siciliano, Oussama Khatib (Heidelberg: Springer, 2008), 1171.抗擊未知而又兇險的新冠病毒同樣屬于“緊急反應”(emergency response),抗疫機器人不僅是醫(yī)用機器人、護理機器人,也是廣義上的救援機器人或“災用機器人”。在極端的災情下,如果機器人可堪調遣卻用人來承擔高危任務,會引發(fā)嚴重的倫理責難;而機器人解決3D問題、保護和解放醫(yī)護人員,符合在人類中心主義傳統(tǒng)下的原始定位。
從上世紀下半葉開始,國際學界就已出現(xiàn)了未來機器人是否應有權利的討論,近年來國內也出現(xiàn)了機器人權利的爭論。討論機器人權利,意味著超越人類中心主義成為可能。但在嚴峻的新冠疫情中,這種理論設想與實踐需求并不對等,無法得到所有群體認同。醫(yī)學界是抗擊疫情的中堅力量,而工程師們的貢獻也不可忽視。有參與抗疫機器人研發(fā)中的工程師直指“robot”的漢譯問題,并呼吁機器人回歸工具本質:“不要被‘人’字誤導,Robot這個詞的英文釋義并沒有人的屬性……也影響到了其后很多機器人產品的研制……機器人的本質其實就是智能設備,它的價值也應該回歸本質……能夠在這三種環(huán)境(即3D)或者承擔這三種類型工作的機器人,是最具價值的。”(10)徐梅《AI趕考——疫情賦予使命,但先要活下去》,《南方人物周刊》2020年第12期,第29頁。這與維汝吉奧等人總結的四種機器人定位之一“機器人只是機器、其它什么都不是”不謀而合,即便它們“非常復雜和有用,但總歸是機器”(11)Gianmarco Veruggio and Fiorella Operto, “Roboethics: Social and Ethical Implications of Robotics,” in Springer Handbook of Robotics, eds. Bruno Siciliano, Oussama Khatib, 1502.。這種觀念或會造成以下傾向:這類機器人雖有“智能”,但除了將其視為輔醫(yī)工具,其它問題(如“機器人權利”等倫理問題)不值得討論。這種機器人“工具論”姿態(tài)符合人類中心主義基調或“工程師文化”?!肮こ處熚幕弊钪匾晫嵺`需求的最優(yōu)解,并通過技術改變世界,方方面面的價值取向和是是非非一般不屬于工程師最關心的事情。
在此次疫情中,談論機器人可能擁有權利還是如何讓機器人發(fā)揮最大應用價值,是非人類中心主義的倫理文化與講究實效的工程師文化的典型對抗。實際上,后者在疫情中占據(jù)了上風:將醫(yī)用機器人應用于公共衛(wèi)生緊急事件,難以引發(fā)人們呼吁重視機器人權利,機器人救急有可能在未來也成為常態(tài)。嚴峻的新冠疫情再次放大了人的價值,一方面現(xiàn)有機器人不會取代醫(yī)護人員成為行動主體和責任主體,另一方面人們在危急時刻也不會去討論“工具”的權利。但新冠疫情是機器人權利討論的特殊外在條件,作為機器人是否應該具有權利的探討仍需解決人類中心與否等核心問題。因此,機器人權利問題在抗疫的背景下無法得到解決或被暫時懸置。關于機器人是否會代替人主體性的問題同樣非燃眉之急,即便這并不意味著它沒有討論價值。
但講究實效的工程師文化并非完美無缺,如果倫理價值不被全面重視,人機交互就存在倫理風險,畢竟人的情感與“工程師式理性”時有矛盾。英國倫理學家A.夏基與N.夏基認為,機器人可能給老人帶來人際接觸總量的潛在減少、被客體化感覺和失去控制感覺的增加、失去隱私、失去個體自由和被欺騙等倫理風險。(12)Amanda Sharkey and Noel Sharkey, “Granny and the robots: ethical issues in robot care for the elderly,” Ethics and Information Technology 14, no. 1 (2012): 27.這些潛在風險理論上在所有醫(yī)用機器人應用中都應被考慮,但又應具體分析,例如關于抗疫機器人是否涉及“欺騙”的問題。同時鑒于針對隱私等問題的討論比較常見,而其與抗疫機器人的聯(lián)系同樣不緊密,本文在此主要結合機器人抗疫實踐來討論人機交互中人的情感和尊嚴。在電影《機器人與弗蘭克》(RobotandFrank,2012)中,當兒子希望機器人照料記憶力衰退嚴重的父親弗蘭克起居時,后者激動地說:“我沒有那么可憐!我不需要該死的機器人喂我吃飯!”在后續(xù)情節(jié)中,隨著與機器人交往的增多,弗蘭克最終將其當作好友,對其形成了情感依賴??苹们楣?jié)固然在不少方面比現(xiàn)實夸張,但這兩個場景仍凸顯了人機交互中人的心理、情感、尊嚴與感知等問題的重要性。從效果來看,這些因素對機器人抗疫是否成功至關重要,也是抗疫機器人倫理在人機交互層面要著重考慮的問題。
如果技術不成熟或不具備價值敏感性,人機交互有時也有單向性和不確定性。本文認為,患者對機器人“醫(yī)護”的反應約有兩類六種可能。一類是不會引發(fā)倫理困境的反應,表現(xiàn)有二:有的病患能客觀理性地看待,無特殊感受;或有病患認為這是技術為善,喜聞樂見。另一類則會引發(fā)倫理責難,表現(xiàn)有四:如以上電影片段所示,有的病患在理論上可能會對機器人產生情感依賴;與之迥異,有的病患是在急需人際溫暖和慰藉時或許會意識到自己面對的是冰冷的機器,被動地進入技術系統(tǒng),因而產生情感抵觸或異化心理;有的病患可能會感到自己因為傳染病而被醫(yī)護人員或外界嫌棄,導致心理上的負面情緒增加;當技術不成熟時,病患與本就缺乏通用應變能力的抗疫機器人無法真正形成交互,遭遇“技術拒絕”(13)參見:段偉文等《科技世代與人類未來:面對技術拒絕,一笑而過?》,澎湃新聞,2020年6月15日發(fā)布,2020年6月15日訪問,https://www.thepaper.cn/newsDetail_forward_7848124。,認為技術過量或者感覺被智能技術社會所遺棄。至于哪種問題更值得重視,則需要社會學調查來證實。但只要出現(xiàn)后四種情況中的任何一種,都意味著機器人抗疫效果欠佳、人機交互失敗,從而引發(fā)倫理問題。
人機交互是機器人跨學科研究的核心領域,在國外學界不斷涌現(xiàn)出新的跨學科研究,例如近年來出現(xiàn)的“機器人哲學”(Robophilosophy)(14)作為比維汝吉奧的“機器人倫理學”涵蓋范圍更廣的研究領域,“機器人哲學”在2014年的社交機器人會議上被提出,意指“關于社交機器人的、為了社交機器人的和由之引發(fā)的哲學”。參見:Johanna Seibt,“Robophilosophy,” Posthuman Glossary, eds. Rosi Braidotti, Maria Hlavajova (London: Bloomsbury, 2017), 390。與“機器人心理學”(〔德〕Roboterpsychologie),后者更聚焦人機交互問題。不同于阿西莫夫在作品中虛構的關于智能機器人個性與行為的“機器人的心理學”(Robopsychology),對于“機器人心理學”,德國學者M.馬拉認為應回答以下問題:“人們如何感知不同類型的機器人,人們和機器人在面對彼此時(應)如何舉止或行為……人應該如何構造人工智能(產品)以讓它對不同的目標人群來說都是令人愜意的互動伙伴,我們如何通過智能技術來避免被支配或因其而害怕的感覺?!?15)Juliane Gringer, “Warum die Angst vor Robotern? (Interview mit Martina Mara),” January, 2020, accessed April 4, 2020, https://motionist.com/warum-die-angst-vor-robotern/.可見,“機器人心理學”從非技術的層面來研究人機交互問題,旨在讓機器人等智能技術更好地為人服務,并減少人機交互中人類的不適感,這種緊迫性的問題也更為學界所關注,能夠為相關的倫理探討提供依據(jù)。與之形成對比的是,大眾媒體討論最多的倫理話題是“機器代人”。
在醫(yī)用機器人領域,昂貴的機器人設備所引發(fā)的資源分配問題備受關注。德國學者M.德克爾曾指出,“如若只有少數(shù)有錢人才能用得起這種機器人系統(tǒng),社會將會有不公平之虞”(16)米夏埃爾·德克爾《機器人技術》,阿明·格倫瓦爾德主編《技術倫理學手冊》,吳寧譯,社會科學文獻出版社2017年版,第620頁。。具體到機器人抗疫領域,它不再涉及有錢人或窮人,因為機器人在特定醫(yī)院中得到統(tǒng)一配置和使用;但問題演變?yōu)椴⒎撬嗅t(yī)院都能在第一時間獲得使用機器人的機會。在此,本文主要簡論更需細化分析的熱題:“機器代人”。
早在古希臘神話傳說和史詩中,就有名為塔羅斯的青銅巨人,負責巡視和保衛(wèi)克里特島。到了近當代,關于機器人代人的想象更加豐富,例如阿西莫夫的科幻短篇小說。可見,讓機器人幫助自己完成重復性或艱難任務是人的千年夙愿。但人類對代人機器的憎恨也不少見,并在盧德運動時達到一次高峰。而當代大眾媒體上更是活躍著一種“機器人威脅論”,這與人在新技術面前的憂慮傾向、不同人群的知識不對等、大眾文化中科幻“惡托邦”圖景等因素息息相關。在醫(yī)用機器人討論中,也有關于醫(yī)護人員被替代的顧慮。但“機器代人”不應一概而論,不斷演進的實踐應用要求用發(fā)展的眼光具體分析問題。面對智能技術的發(fā)展,人們需要將“近憂”和“遠慮”、對未來星空的“仰望”與腳踏當下“實地”合理結合起來。本文認為,“機器代人”應有“機器人代人要位”和“機器人代人勞作”兩層內涵,而這兩者又都有正反兩面。
“機器人代人要位”即人們擔憂機器或機器人取代人在意的重要崗位,導致人失去勞動機會或讓人的技能無用化。審視“機器人代人要位”時應考慮特定崗位或技能是否值得人珍視的創(chuàng)造性工作。在近憂層面,同養(yǎng)老機器人一樣,抗疫機器人能減輕醫(yī)護人員的負擔、解決相關領域的燃眉之急,而非單純地取代人,因為無論是養(yǎng)老護工還是疫情初期的醫(yī)護人員都常有短缺之虞,乃至成燃眉之急。在養(yǎng)老和抗疫領域,單一地認為機器人會讓醫(yī)護人員失業(yè)的“近憂”脫離了現(xiàn)實土壤。在遠慮層面,機器人在抗疫中的實用性是否會加速機器人在其它領域的代人趨勢也值得注意。在本次疫情中,國外媒體談論了“新冠是否會加速機器人替代人類”的問題(17)Erika Hayasaki, “Covid-19 could accelerate the robot takeover of human jobs,” MIT Technology Review, June 17, 2020, accessed June 20, 2020, https://www.technologyreview.com/2020/06/17/1003328/covid-19-could-accelerate-the-robot-takeover-of-human-jobs/.。人們無需過度擔憂疫情中本就棘手的任務被機器人接過,但當機器人在特定場景中的實用性凸顯出來時,的確會成為機器人應用的名片,存在加速機器人替代人類其它領域工作的潛在傾向。但需要注意的是,這在不同經濟社會體和不同的發(fā)展階段中又有不同呈現(xiàn)和影響。例如,歐美社會對機器人代人的顧慮很大,而在中國和日本社會,機器人則被賦予厚望。
“機器人代人勞作”指機器人代替人從事繁重、危險或者少有人愿從事的工作,實為“機器助人”。一方面,應用機器人抗疫的理由充分,在這種情況下使用機器人,而不是醫(yī)護人員親身上陣完成高危任務,甚至事關抗疫成敗。但另一方面,“機器人過度助人”也會引發(fā)倫理顧慮。關于機器人養(yǎng)老涉及的人機分工問題,A.夏基和N.夏基提出,要“確保機器人應用到養(yǎng)老領域是有利于老人本身,而不僅是用來減少社會其他人員的看護負擔”(18)Amanda Sharkey and Noel Sharkey, “Granny and the robots: ethical issues in robot care for the elderly,” Ethics and Information Technology 14, no. 1 (2012): 28.。這應是在醫(yī)用機器人應用領域被普遍關注的倫理原則。與機器人養(yǎng)老相比,機器人抗疫的獨特之處在于,在疫情危機時刻,新冠病毒是醫(yī)護與病患的共同敵人,兩者安危都至關重要,合理地使用機器人并不直接意味著醫(yī)護人員逃避應盡責任。
相比機器人直接取代人,乃至危及人類生存,人機共存與協(xié)作更像是未來的發(fā)展趨勢。根據(jù)以上分析,有兩點對處理好在“機器代人”層面的機器人抗疫倫理問題最關鍵:一是機器人代人的直接作用和潛在威脅的二元共生關系,二是機器人與醫(yī)護人員分工與協(xié)作的原則與尺度。而第一個問題又需要考慮具體的社會經濟形勢和階段。探討以上兩點,也有助于細化分析醫(yī)用機器人對醫(yī)護人員主體的替代問題。
根據(jù)對“機器人權利”、“人機交互”和“機器代人”的分析,可見機器人抗疫所涉?zhèn)惱韱栴}的如下特點:在疫情中,暫時難有理想主義姿態(tài)的空間,例如在機器人權利或機器人主體方面;機器人抗疫的顯著作用不會終結這些討論,但有可能使其懸置。從人機交互的角度講,并非所有的機器人在使用過程中都會引發(fā)隱私問題,但病患的心理、情感反應和尊嚴等尤其值得重視。從社會后果的角度講,“機器代人”討論應注意醫(yī)護與機器人協(xié)作與分工的尺度以及機器人代人的直接作用和潛在威脅的二元共生關系。隨著機器人應用日廣,醫(yī)用機器人倫理問題雖需要總體把握,但其探討也須細化和具體分析。
在新冠疫情突如其來的情況下,機器人緊急參與抗疫,機器人應用無法輔以統(tǒng)籌完備的倫理考量。鑒于以上陳述,除了看似難以有統(tǒng)一結論的“機器人權利”問題,機器人抗疫倫理討論尚有以下三個提升空間:第一,尚缺席的機器人抗疫倫理的深入分析和統(tǒng)籌考量;第二,人機交互中病患的情感和尊嚴等問題;第三,醫(yī)護與機器人的協(xié)作與分工問題以及機器人代人的直接作用與潛在威脅問題。與之相應,在后疫情時代,人們應在倫理宏觀規(guī)劃、倫理敏感設計和醫(yī)-機-患倫理關系三個層面做好考量。
(一)倫理宏觀規(guī)劃:協(xié)調技術創(chuàng)新與倫理規(guī)劃關系,避免技術創(chuàng)新獨行和先行,促使兩者協(xié)同進化,并使倫理預案和動態(tài)審核甚至緊急撤回機制相結合。
在此次嚴峻的新冠疫情中,機器人迅速投入抗疫符合抗擊疫情的緊迫需要,有助于保護醫(yī)患人員的生命安危。但“無人技術”與“情緒化的人”結合可能導致“無人困境”(19)劉永謀《危機處理“無人困境”破解法》,《環(huán)球》雜志2020年第6期,第18-21頁。,合理治理與規(guī)劃至關重要。在后疫情時代,我們有時間和責任去爭取技術創(chuàng)新和倫理考量在未來協(xié)同進化。為避免制造出陷入“科林格里奇困境”(Collingridge Dilemma)的技術產品,人們“對人工智能倫理的考量應貫穿于人工智能產品與服務的整個生命周期”(20)曾毅《對新一代AI倫理的考量需貫穿整個產品生命周期》,《科技日報》2020年6月5日,第5版。。在抗疫機器人應用中,這意味著:第一,為未來可能發(fā)生的緊急公共衛(wèi)生事件做好預案,制定相關倫理準則;第二,建立中立的技術后果評估機制,實施動態(tài)治理,客觀評估機器人應用的效果,規(guī)避機器人應用的不確定性后果和無序局面;第三,在機器人技術的不良后果集中顯現(xiàn)時,要能在不影響大局的情況下對技術應用進行修復甚至“撤回”。技術創(chuàng)新與應用理想狀態(tài)應是,“不僅在科技創(chuàng)新之初就要對其價值倫理問題有所考量,而且要使科技倫理成為貫穿于科技創(chuàng)新全生命周期的反饋與調節(jié)機制,通過兩者的共同進化,讓科技在造福社會的同時盡可能減少負面后果與倫理風險”(21)段偉文《變“串行”為“并行” 科技創(chuàng)新應與科技倫理同進化》,《科技日報》2020年6月5日,第5版。。
(二)價值敏感設計:利用價值敏感性和人類友好型技術設計提高人機交互質量,規(guī)避人機交互中病患情感與尊嚴等引發(fā)的倫理問題。
技術并非完全從無到有,而是必然附帶著人的欲望、情感與愿景。如果不能全面重視價值與是非,“工程師文化”及其所持的機器人“工具論”亦有顯著局限,即可能對人的心理、情感與尊嚴重視不足。因此,抗疫機器人應當嵌入人類道德倫理,保護人的價值:第一,依據(jù)美國學者B.弗里德曼提出的價值敏感性設計(value senstive design)理念或荷蘭學派的道德物化觀,通過技術設計貫徹與保護人的價值與尊嚴,并避免讓人感覺受到歧視或客體化,因而產生排斥心理或挫敗感;第二,機器人設計應以人類用戶友好(human-friendly)為宗旨,以醫(yī)-機-病三者和諧交互為目標,將醫(yī)患交流習慣、患者情緒與反應等納入設計考量,提高人性化程度,并避免將部分病患群體拒之于技術福利門外。技術人員應與醫(yī)護人員合作推進倫理敏感和用戶友好設計,在機器人功能中融入人文關懷,例如可將娛樂互動和情感交互等模塊植入機器人,緩解醫(yī)護人員的工作壓力與病患的緊張情緒,確保在必須使用機器人時,讓它成為喜聞樂見的技術物。同時,要向病患合理解釋機器人的功能和人機協(xié)作的性質,并尊重病患的知情權與自主意愿。
(三)醫(yī)-機-患倫理關系:以保護醫(yī)患生命安全和身心健康為最終目標,把握好醫(yī)護人員與機器人分工協(xié)作的尺度,用辯證地眼光看待機器代人的影響。
相比科幻中的人機主仆論與現(xiàn)實中缺乏價值敏感性的機器人工具論,以人為本的人機協(xié)作更理性。在新的醫(yī)患或護患關系中,第一,要同時保障醫(yī)護與病患的生命安全和身心健康,處理好機器人應用的時機和人機協(xié)作的方式和尺度,這是所有醫(yī)用機器人應用都須考慮的問題。例如,國內雖有咽拭子采樣機器人,但在疫情穩(wěn)定后和醫(yī)護充足時,機器人應用價值驟降;德國雖有研發(fā)抗疫機器人的實力,但在醫(yī)療體系穩(wěn)固和醫(yī)護身心得以保障的情況下,在德國并未出現(xiàn)值得一提的機器人應用案例。第二,用發(fā)展的眼光具體分析“機器代人”話題,區(qū)分工作的類型和性質,并預估到它可能帶來的社會影響,避免其帶來過大過快沖擊。此外,要妥善解決機器人應用中的其它重要倫理問題,如人機交互的安全和責任歸屬。
在未來人類文明中,存在著未知危險病毒如影隨形的可能性,機器人仍會用于解決高傳染風險、繁重和重復性的工作。未來,醫(yī)療領域的人機協(xié)作或會不斷升級,而相關倫理討論更是未完待續(xù),這要求我們不僅要有宏觀的倫理原則和規(guī)劃,也應根據(jù)具體情況作細化分析,以期為以后的醫(yī)用機器人應用做好倫理準備。