(蘇州科技大學 馬克思主義學院 江蘇 蘇州 215009)
2020年春節(jié)前夕,新型冠狀病毒感染的肺炎疫情在湖北武漢地區(qū)爆發(fā),隨后打響全國戰(zhàn)“疫”。自這場威脅人類生存的傳染病在全國及世界范圍內(nèi)蔓延以來,許多國家對此高度重視,疫情已經(jīng)被世界衛(wèi)生組織認定為一場國際關(guān)注的突發(fā)公共衛(wèi)生事件。就在今年1月21日,英國《衛(wèi)報》報道了醫(yī)療機器人治療美國首例新型肺炎病患的新聞,為了防止病毒的傳播,這名患者將由人工智能醫(yī)生進行治療。這一消息再次引發(fā)人們對人工智能在醫(yī)療衛(wèi)生領(lǐng)域應(yīng)用方面的深思。醫(yī)療人工智能可以給出專業(yè)的參考意見、增強用藥規(guī)范性、促進人類醫(yī)生的學習,甚至可以增進醫(yī)患關(guān)系的和諧,對人類醫(yī)生也起到一定的幫助和輔助作用。那么,人工智能是否可以替代人類醫(yī)生呢?沃森醫(yī)生會不會出錯?如何定義機器人醫(yī)生的主體地位?這些是醫(yī)學界必須關(guān)注和亟需解決的問題。
英國最近的一項調(diào)查報告稱,63%的成年人對允許個人數(shù)據(jù)用于改善醫(yī)療保健狀況感到不安,也不利于人工智能系統(tǒng)取代醫(yī)生和護士從事他們通常從事的工作[1]。本項調(diào)查反映了人們對于AI在醫(yī)療領(lǐng)域存在的一些擔憂和倫理考慮,沃森醫(yī)生能否代替人類醫(yī)生、是否應(yīng)該給予醫(yī)療機器人主體地位、人工智能醫(yī)療能否解決醫(yī)患矛盾、增進醫(yī)患關(guān)系的和諧,這都是醫(yī)療人工智能目前所面臨的現(xiàn)實困境。不得不承認,醫(yī)療人工智能的飛速發(fā)展的確帶來了一系列潛在的倫理和社會挑戰(zhàn),如醫(yī)療共情和人機互動、個人數(shù)據(jù)和隱私保護、主體資格和責任認定等。
1.1 醫(yī)療共情與人機互動。機器會像人類一樣擁有意識嗎?至少當前的技術(shù)仍未做到,不過人工智能在模擬人類認知功能上在不斷發(fā)展,流行的人工智能技術(shù)包括結(jié)構(gòu)化數(shù)據(jù)的機器學習方法,如經(jīng)典的支持向量機和神經(jīng)網(wǎng)絡(luò),現(xiàn)代的深度學習,以及非結(jié)構(gòu)化數(shù)據(jù)的自然語言處理[2]。沃森醫(yī)生可以給病人看病,但必須接受精確的數(shù)據(jù)輸入才能診斷,何況有些癥狀病人無法用醫(yī)學術(shù)語對此描述,也會因為恐懼拒絕將真實的病情告知給醫(yī)療機器人,而相反一個資歷豐富的醫(yī)生卻能讀出病人神態(tài)中隱藏的有關(guān)信息。人機互動效果不佳的原因是人工智能缺乏人文關(guān)懷,在臨床表現(xiàn)中尤為明顯,可見醫(yī)療共情尤為重要。信任是病患關(guān)系的橋梁,醫(yī)護人員在與患者進行有效的臨床共情溝通后,得到病人的信任自然能夠做出準確診斷、提供治療方案。根據(jù)病人的需求和對其病情的判斷,醫(yī)生相應(yīng)地進行一定的安撫和心理疏導(dǎo),此時醫(yī)患關(guān)系更加和諧,病人不用再面對一臺冷冰冰的“機器人”,更配合治療過程。盡管醫(yī)療AI擁有類人的移情關(guān)懷的外觀,診療和用藥指導(dǎo)方面給人類醫(yī)生提供專業(yè)的參考意見,可仍面臨著人機互動和醫(yī)療共情不佳的困境。
1.2 個人數(shù)據(jù)與隱私保護。隨著物聯(lián)網(wǎng)的發(fā)展,我們儼然成為了全球互聯(lián)世界中的“透明人”,如何理解隱私和保護隱私,成為一個迫切需要重新概念化的倫理問題、法律問題和社會問題,加以重視[3]。人工智能基于醫(yī)療大數(shù)據(jù)的處理,包括患者的年齡、姓名、住址、婚姻狀況等個人信息,還包括遺傳史、各項體檢指標、過往病史、身體狀況以及診療數(shù)據(jù)等其他信息,這牽扯到個人數(shù)據(jù)與隱私泄露的風險。醫(yī)院的網(wǎng)絡(luò)服務(wù)器一旦遭致網(wǎng)絡(luò)病毒或黑客侵害,保存于云端或存儲器的含有病人隱私的信息就會被不法分子獲取,病人的隱私權(quán)得不到有效的保障。醫(yī)療人工智能的隱私保護存在的倫理困境主要有:采集醫(yī)療數(shù)據(jù)時是否得到患者的知情同意?誰有權(quán)利獲得患者的診療數(shù)據(jù)和健康信息?誰來承擔隱私泄露的風險和責任?2015年,一份由北大研究者提交的名為“關(guān)注自閉癥”的國際多中心臨床研究合作方案被北大生物醫(yī)學倫理委員會拒絕[4],委員會考量的一個現(xiàn)實原因正是該方案實驗參與者隱私保護的缺失,以及數(shù)據(jù)具有不可控性。
1.3 主體資格與責任認定。人工智能醫(yī)生可以代替人類醫(yī)生的主體地位嗎?如何處理由醫(yī)療AI所引發(fā)的醫(yī)療事故?是否應(yīng)該賦予醫(yī)療機器人和人類一樣的“權(quán)利和義務(wù)”呢?這些問題迫使我們思考人工智能技術(shù)帶來的倫理法律困境,迫使我們重新審視科技和人類社會之間的關(guān)系,以便人工智能更好地服務(wù)人類。2016年5月,歐盟法律事務(wù)委員會已立法將智能機器定位為“電子人”,并賦予其“特定的權(quán)利和義務(wù)”,這在法律層面將顛覆我們對人工智能的認知。今年美國首例新冠肺炎患者是由醫(yī)療機器人治療,其裝備有攝像頭、麥克風和聽診器,這是人工智能參與輔助診療的最新案例。當前技術(shù)還不成熟,人工智能并未做到全程無需醫(yī)生參與的獨立診斷,未來機器人有可能會發(fā)展成一名類似于醫(yī)生的“自然人”,擁有獨立的判斷能力,在法律主體資格上極具挑戰(zhàn)。那么手術(shù)機器人在診療中發(fā)生醫(yī)療事故,誰來承擔相應(yīng)的責任?Brent Mittelstadt在他的文章《AI Ethics-Too Principled to Fail?》中提到“原則主義”是從醫(yī)學中產(chǎn)生的一種理論道德框架,其基礎(chǔ)是從業(yè)者、研究倫理委員會的經(jīng)驗,以及醫(yī)療機構(gòu)在逐案處理道德問題時的經(jīng)驗[5]。以原則主義的觀點剖析,實施手術(shù)的主角是機器人醫(yī)生,可主體責任歸咎于擁有從業(yè)經(jīng)驗的人類醫(yī)生,也就是法律責任層面還是醫(yī)生占據(jù)主導(dǎo)地位。若機器人因為設(shè)計缺陷和機器故障發(fā)生傷人事件,或其做出違背設(shè)計者意圖的行為,怎么認定該行為?這涉及到機器人的程序員、設(shè)計者以及生產(chǎn)廠商的相關(guān)責任,主體資格與責任認定不清晰和各方的“權(quán)利和義務(wù)”不明確,是醫(yī)療AI目前的倫理和法律困境。
AI在醫(yī)療領(lǐng)域的快速發(fā)展為人類健康保障提供了支撐,雖然醫(yī)療AI應(yīng)用中存在一些倫理困境,但只要對這些倫理困境提出相應(yīng)的治理對策,就能讓醫(yī)療AI更好地造福人類。
2.1 以人為主的“人-機”醫(yī)療模式。如今智能機器人能夠通過圖像識別、大數(shù)據(jù)等技術(shù)幫助人類醫(yī)生進行臨床指導(dǎo),除此之外,機器人的心智開發(fā)已然成為科學家們研究的焦點。AI倡導(dǎo)者認為機器也能擁有類人腦,人們創(chuàng)造出優(yōu)于人類的、獨立自主的、具有與自然人一樣人性構(gòu)建的智能體并非假想。因此,若把這樣的觀點納入醫(yī)療行業(yè)來思考,在實踐中醫(yī)療AI很有可能根據(jù)一套機器倫理來實現(xiàn)醫(yī)療共情與人機互動,前提是智能機器人在開始行動前首先需要遵循一定的倫理原則。最近,有一個過程“裝備”認知結(jié)構(gòu)與機器學習的最新進展,可這根本不能模擬任何心理過程[6]。因此,筆者反對機器的心智可被開發(fā)和復(fù)制這一說法,盡管DeepMind研究人員提出了一種具備理解自己以及周圍智能體心理狀態(tài)能力的新型神經(jīng)網(wǎng)絡(luò)ToMnet,可這無法證明人工智能已完全掌握人類的“心智”。AI雖有感知和思維(智能系統(tǒng)),但無情感系統(tǒng)(感受和動機)以及意志系統(tǒng)(意志和行動)的引導(dǎo),就不能發(fā)揮其應(yīng)有的能力,比如自愿做出照顧病患的決定和行為。而在以人為主的“人-機”醫(yī)療模式下,一方面能發(fā)揮AI的輔助作用,另一方面有利于護理工作中的人文關(guān)懷和相互信任,以人為主的“人-機”醫(yī)療模式的構(gòu)建顯然可以促進患者的健康和福祉。
2.2 患者隱私保護法律的制定與完善。首先,通過一系列法律法規(guī)的制定可以規(guī)避病人隱私的泄露,使人工智能系統(tǒng)的安全性、保密性更高,從而保障患者的隱私權(quán)。我國涉及病人隱私權(quán)的法律有《職業(yè)醫(yī)師法》、《母嬰保護法》等,但這些法律轉(zhuǎn)化為實踐的行之有效的方法仍很困難,原因在于它不是系統(tǒng)完善的專門法,所以在對病人隱私權(quán)保護法律的制定與完善上可借鑒歐美國家的立法經(jīng)驗,例如在1996年美國國會通過的法案,《健康保險轉(zhuǎn)移與責任法案》中提到泄露患者姓名也將觸犯法律。另外部分歐美國家有專門對醫(yī)療數(shù)據(jù)進行必要監(jiān)管的法律條例,若分析和管理數(shù)據(jù)時有牽扯到關(guān)鍵的個人隱私信息,通過馬賽克的方式予以保護。其次,政府應(yīng)加強病人的隱私保護,并利用互聯(lián)網(wǎng)融合醫(yī)療的模式來推進患者隱私保護新技術(shù)的開發(fā)和運用。數(shù)據(jù)加密也是一項防止隱私泄露的技術(shù),對此進行推廣可保證數(shù)據(jù)的安全,同時再設(shè)定一套嚴格的訪問程序以防止他人竊取。最后,網(wǎng)絡(luò)保險的購買用于減少隱私泄露的風險也是一項防范措施,能將損失降到最低。
2.3 建立責任倫理規(guī)范與AI監(jiān)管機構(gòu)。在醫(yī)療人工智能發(fā)展的治理中,如何確定各個利益方的相關(guān)責任,是需要迫切解決的問題。首先,出于安全性、可控性、可靠性和問責制的考慮,可以認為在不同的應(yīng)用領(lǐng)域?qū)崿F(xiàn)智能系統(tǒng)部署的透明責任分工符合民主社會的利益,因此這些制度應(yīng)按照立法權(quán)制定的道德和法律規(guī)范行事,并允許追溯,以便于司法權(quán)分配責任。那么該如何追究相關(guān)責任人呢?按照誰設(shè)計誰負責、誰使用誰負責的原則,建立合適的責任倫理規(guī)范,例如我國《侵權(quán)責任法》中規(guī)定,一旦因醫(yī)療設(shè)備和醫(yī)療產(chǎn)品的缺陷所引發(fā)的醫(yī)療事故,生產(chǎn)者和醫(yī)療機構(gòu)必須承擔連帶賠償責任。其次,成立專門的由醫(yī)學專家、計算機專家、倫理學學者等構(gòu)成的醫(yī)療AI監(jiān)管機構(gòu),負責對人工智能的安全性、倫理性進行一定的評估報告,以減少醫(yī)療事故的發(fā)生率。最后,建議采用一定的技術(shù)手段為人工智能設(shè)定人類的道德標準,執(zhí)行醫(yī)療機器人的登記制度,醫(yī)療AI監(jiān)管機構(gòu)監(jiān)督醫(yī)療機器的生產(chǎn)和應(yīng)用,這些治理方法都可降低醫(yī)療風險,消除人們的顧慮和擔憂。
科技與倫理就如同天平的兩端,科技的發(fā)展會給價值觀與倫理道德帶來巨大的沖擊,如何平衡兩者之間的關(guān)系是我們當前亟待解決的問題。醫(yī)療人工智能的發(fā)展勢如破竹,正向新臺階邁進,在醫(yī)療AI為我們提供優(yōu)質(zhì)、高效醫(yī)療服務(wù)的同時,必將帶來新一輪的倫理困境。針對醫(yī)療人工智能的倫理問題,醫(yī)學界應(yīng)準確把握當前形勢,重新調(diào)整當下思路,化危機為契機、化被動為主動,將前瞻性研究與回顧性分析兩者相結(jié)合,合理評估醫(yī)療人工智能帶來的利弊,并根據(jù)臨床實踐制定出相應(yīng)的有效對策,以此達到醫(yī)療與科技的融合與創(chuàng)新,進而推動人類醫(yī)學的進步與發(fā)展。目前世界各國均建立起相對完善的科技治理體系和倫理研究框架,我國也在積極應(yīng)對風險、推進人工智能與人類的和諧共存,讓人工智能技術(shù)朝著積極的方向發(fā)展。