徐漢輝
“新興醫(yī)學(xué)工程倫理與治理”???/p>
基于“醫(yī)患信任”理論的醫(yī)療AI可信度問題的探討
徐漢輝
(南開大學(xué) 醫(yī)學(xué)院,天津 300071)
21世紀(jì)以來,人工智能技術(shù)在醫(yī)療領(lǐng)域中得到了廣泛的應(yīng)用,其在疾病預(yù)測方面顯示出超出人類醫(yī)生的精準(zhǔn)和高效。然而,由于尚不清楚人工智能系統(tǒng)內(nèi)部的工作原理,這種精準(zhǔn)預(yù)測是如何實現(xiàn)的仍然無法解釋。這被稱為人工智能的“黑箱問題”?!昂谙鋯栴}”引發(fā)了人們對于人工智能“不透明性”的擔(dān)憂,進而對其可信度提出了質(zhì)疑。面對質(zhì)疑,一種觀點認為,對于“黑箱”的擔(dān)憂并無必要。這種觀點的持有者往往強調(diào),很多時候,人類醫(yī)生是憑著直覺和經(jīng)驗在為病人做診斷,而這些直覺和經(jīng)驗連他們自己也很難解釋清楚。既然我們能夠信任人類醫(yī)生,也應(yīng)該信任人工智能?;谛湃卫碚?,從醫(yī)患信任的角度來回應(yīng)上述觀點,嘗試論證,醫(yī)患信任和患者對于醫(yī)療人工智能的信任,這兩種信任的基礎(chǔ)完全不同,不具有可比性。
醫(yī)療人工智能;黑箱;醫(yī)患關(guān)系;信任
基于深度學(xué)習(xí)(Deep Learning)的人工智能,其工作機理是模擬人腦神經(jīng)網(wǎng)絡(luò),對輸入的數(shù)據(jù)進行“自主”學(xué)習(xí),進而輸出精準(zhǔn)的結(jié)果。正如人類尚不清楚人腦的工作原理一樣,應(yīng)用于醫(yī)療診斷的人工智能系統(tǒng)對于患者、醫(yī)生甚至程序設(shè)計者來說都是不折不扣的“黑箱(Black Box)”。即,雖然這些人工智能系統(tǒng)能夠?qū)δ承┘膊∵M行精準(zhǔn)預(yù)測,但研究人員并不知道這種精準(zhǔn)預(yù)測是如何實現(xiàn)的。由此引發(fā)了人們對于其“不透明性”的擔(dān)憂,進而對其可信度提出了質(zhì)疑。國內(nèi)圍繞人工智能中倫理問題的探討更多地集中在數(shù)據(jù)隱私保護[1]、社會公平公正等當(dāng)面[2]。對于“黑箱”的不透明性的討論也多是指出這一問題的存在[3]。相比較而言,本文將從信任這一概念的本質(zhì)出發(fā),基于醫(yī)患信任的理論來展開討論,并對醫(yī)療人工智能黑箱問題的已有辯護予以回應(yīng)。
21世紀(jì)以來,人工智能技術(shù)(Artificial Intelligence,AI)在醫(yī)療領(lǐng)域中得到了廣泛的應(yīng)用,其在疾病預(yù)測方面顯示出超出人類醫(yī)生的精準(zhǔn)和高效。首先,在乳腺癌的預(yù)測和診斷方面,人工智能有著不俗的表現(xiàn)[4]。在大量學(xué)習(xí)乳腺癌患者的乳房X光片后,對于新的乳房X光片,人工智能系統(tǒng)能夠準(zhǔn)確預(yù)測出就診者是否有得乳腺癌的風(fēng)險。對于其他疾病的預(yù)測,人工智能也有著驕人的“成績”。2015年,位于紐約西奈山醫(yī)院(Mount Sinai Hospital)的一個研究團隊研發(fā)出了一套名為“深度患者(Deep Patient)”的人工智能(診斷)系統(tǒng)。通過對該醫(yī)院歷年來總計70余萬份電子病例的“深度學(xué)習(xí)”,“深度患者”系統(tǒng)可以準(zhǔn)確地預(yù)測出新病例中“隱藏”的疾病[5]。不僅如此,“深度患者”系統(tǒng)對于精神分裂癥這類精神疾病的預(yù)測有著難以想象的精準(zhǔn)度[5]。相比較而言,對人類醫(yī)生來說,由于病癥的復(fù)雜,病因的不確定性,精神類疾病一直以來都是最難診斷的。
然而,這些出色表現(xiàn)并未打消人們對于人工智能“不透明性”的擔(dān)憂。一種觀點認為,將診斷結(jié)果寄希望于一個無法解釋工作原理和內(nèi)部機制的“黑箱機器”,是對患者的不負責(zé)任,因此,考慮到人工智能的不透明性,不能盲目地信任其所給出的診斷結(jié)論,以免造成嚴重的后果。與之相對的另一種觀點則認為,人工智能優(yōu)于人類醫(yī)生的高精準(zhǔn)度就是其可信度的保障,對于“黑箱”的擔(dān)憂,盡管可以理解(人們總是會對某些未知的不確定的事物感到擔(dān)心),但其實并無必要。這種觀點的持有者往往強調(diào),就所謂“黑箱”而言,人類醫(yī)生并不比人工智能好多少。很多時候,人類醫(yī)生是憑著直覺和經(jīng)驗在為病人做診斷,而這些直覺和經(jīng)驗連他們自己也很難解釋清楚。如韋德·潘杰(Vijay Pande)表示:“人類智能本身就是,而且一直總是,一個黑箱。例如,當(dāng)一個人類醫(yī)生做診斷的時候,患者可能會問這位醫(yī)生,她是如何給出這個診斷結(jié)論的?這位醫(yī)生大概率會告訴患者她是如何從已有的數(shù)據(jù)中得出的結(jié)論。然而,這位醫(yī)生真的可以清楚地解釋出她是從什么樣的研究中怎樣得到支撐她結(jié)論的數(shù)據(jù)嗎?當(dāng)然,她一定會給出自己做診斷的理由,但這其中難免有猜測或者憑借直覺的成分?!盵6]如果我們能夠信任醫(yī)生給出的“難以解釋”的診斷,也就沒有理由排斥人工智能系統(tǒng)給出的結(jié)論。
上文中對于醫(yī)療AI可信度的第二種觀點就涉及了人們對醫(yī)生和對醫(yī)療AI的信任的比較,為回應(yīng)這一比較,必須厘清使用與未使用醫(yī)療AI時的“信任”情況。不同的醫(yī)患關(guān)系模式下,醫(yī)患信任的依據(jù)和表現(xiàn)有所不同;現(xiàn)代醫(yī)患關(guān)系中,醫(yī)患信任的基礎(chǔ)是患者知情同意權(quán)的有效保障。從這一點說來,患者對于“黑箱”模式下人工智能系統(tǒng)的診斷結(jié)論缺乏醫(yī)患信任中的必要因素。換句話說,患者對于醫(yī)生診斷信任的基礎(chǔ)是自己可以充分知情及在知情情況下的自主決定,哪怕只是部分知情(如上文潘杰所言,很多時候,醫(yī)生提供的信息也有基于自身揣測的成分),而這種充分知情的缺失恰恰是患者對于醫(yī)療人工智能“黑箱”不信任的原因。因此,認為“人類醫(yī)生的診斷很多時候也難以解釋,患者既然信任人類醫(yī)生也應(yīng)該信任醫(yī)療人工智能”的觀點并不如其所言的那樣可靠?;诖耍P者將嘗試從哲學(xué)角度厘清“信任”這一概念的本質(zhì)及不同種類的信任,進而梳理醫(yī)患關(guān)系模式的發(fā)展歷程,并分析不同醫(yī)患關(guān)系模式下“醫(yī)患信任”的基礎(chǔ)和特點。為區(qū)分使用與未使用醫(yī)療AI時的“信任”情況,需要論證在現(xiàn)代醫(yī)患關(guān)系模式下,醫(yī)患信任的基礎(chǔ)之一是患者知情同意權(quán)的保障,也就是說,盡管在一些個案中,醫(yī)生可能會給出“難以解釋”的診斷,但患者的信任并不是所謂的“盲目信任(Blind Trust)”。而這將使得醫(yī)患信任區(qū)別于患者對醫(yī)療人工智能的信任,因為,在不理解人工智能系統(tǒng)內(nèi)部工作原理的情況下,對其診斷結(jié)論的信任必然是一種盲目信任。
分析醫(yī)患信任這一特殊關(guān)系中的信任之前,需要厘清更一般意義上的信任概念。一個有意思的現(xiàn)象是,很多有關(guān)信任的哲學(xué)討論[7, 8]都選擇從著名的“囚徒困境(Prisoner’s Dilemma)”開始。“囚徒困境”是這樣一種假設(shè):兩名銀行劫匪A和B被捕入獄,警方對單獨關(guān)押的A和B說了同樣的話:“如果你招供而你的同伙保持沉默,我們將無罪釋放你,并用你的證詞指控你的同伙,他將因此被判刑5年;反之,則是你的同伙被釋放而你被判5年。如果你和你的同伙同時招供,由于證據(jù)確鑿,你們都將被判3年。而如果你和你的同伙都保持沉默,那么,由于證據(jù)不充分,你們都將只被判1年?!泵鎸@樣的境況,兩名劫匪該如何選擇?如果我們把這兩名劫匪看作是一個利益共同體,那么,顯然,兩人相互配合的利益最大化結(jié)果是都保持沉默,均被判1年。然而,要實現(xiàn)這一結(jié)果,雙方都要(1)信任對方不會招供,且(2)確信對方也信任自己不會招供。
從上述分析中,我們能夠?qū)π湃巫龀鲆粋€初步的概述:信任是一種態(tài)度和傾向——將自己置身于一種對他人的依賴之中并持有一種信念,即所依賴之人有能力且出于好意(或至少沒有惡意)完成(某事)[9]。首先,信任需要寄予信任的一方對于被給予信任的一方有所依賴。如上文中的囚徒困境,對于兩名劫匪而言,利益最大化的結(jié)果依賴于對方的決定。這種依賴也就意味著,寄予信任的一方對于被給予信任的一方來說是處于一種脆弱的或者易受傷害的(Vulnerable)境地。這種境地體現(xiàn)在,寄予信任的一方有可能遭到背叛。在囚徒困境中,假設(shè)劫匪A信任其同伙B不會招供,為求二人利益最大化,劫匪A最終選擇保持沉默。然而,劫匪B卻并未如A所料想的那樣守口如瓶,而是選擇了招供。這樣一來,A對B的信任便遭到了背叛。信任的這一特征表明信任本身是有風(fēng)險的。其次,信任需要寄予信任的一方對被給予信任的另一方(完成某事)的能力持樂觀態(tài)度。仍以囚徒困境為例,當(dāng)劫匪A決定保持沉默以求實現(xiàn)二人利益最大化時,他一定對于同伙B抵御警方“威逼利誘”有所信心。最后,信任需要寄予信任的一方認定被給予信任的一方對其有善意或者至少不會有惡意。在囚徒困境中,我們也能想象到,當(dāng)劫匪A決定保持沉默時,他一定相信其同伙B不會有意出賣自己。如果劫匪A了解到,其同伙B早有致自己于死地以獨吞贓款之意,那么,A對B的信任一定會大打折扣。這里需要指出的是,信任并不要求寄予信任一方排除被給予信任一方出于自利動機行動的可能。也就是說,當(dāng)我們信任他人時,并不一定要求對方一定對我們有善意(Good Will),有些時候,即使當(dāng)他們出于自利動機行動時,我們也會信任他,只要其行動動機不是惡意的。比如,囚徒困境中,劫匪A可以信任劫匪B,相信即使B依據(jù)自利動機行動,也應(yīng)該會選擇保持沉默。
就信任的分類而言,朱莉·安妮·羅斯坦(Julie Anne Rothstein)[9]56-72將信任分為自我信任(Self-Trust)、嬰兒期信任(Infantile Trust)、人際信任(Interpersonal Trust)、角色信任(Role Trust)以及機構(gòu)信任(Intuitional Trust)。簡單說來,自我信任和嬰兒期信任是一個人成長工程中所具有的建立其他信任的能力和基礎(chǔ)。這里不做展開。人際信任是指人與人之間所建立的信任,如與親人、朋友、同事、合作伙伴之間形成的信任,可以表達為:P信任Q做X。囚徒困境中的信任就是這樣一種信任。影響人際信任的主因來自兩方面,一是P對Q的了解,如基于Q之前的表現(xiàn)來判斷Q是不是一個值得信任的人,或者基于對Q的了解來判斷Q有沒有能力完成X;二是P和Q之間的親密程度,即P和Q的關(guān)系是否親密到了足以讓P放心Q不會辜負P的信任去完成X?;氐角敉嚼Ь持?,當(dāng)劫匪A決定保持沉默的時候,一定是他對同伙B有信心,知道以B的為人不會輕易出賣朋友也能夠抵擋住警方的“攻勢”,同時,A也相信,其和B之間的關(guān)系緊密到B不會出賣自己。
與之相比,角色信任弱化了個體之間的直接信任。所謂角色信任是指對于處在某個特定角色中的個體的信任。這種信任最直接的體現(xiàn)在職業(yè)信任,即對于從事某種職業(yè)的人的信任。例如,在當(dāng)前的醫(yī)療模式下,很多患者去醫(yī)院看病,對于給自己看病的醫(yī)生也許并不認識,患者不了解他們面前的這位醫(yī)生是不是一個值得信賴的人,但是,基于對醫(yī)生這一職業(yè)的信任,患者仍然會選擇與其合作并相信這位醫(yī)生給出的治療建議。類似的信任還包括,對于某位(陌生的)警察的信任,相信他會為市民提供保護,對于某位(陌生的)老師的信任,相信他能夠傳道授業(yè)。不同于人際信任,角色信任并非直接基于對一個人的了解和彼此之間的親密程度,而是基于對一個特點群體(如醫(yī)生)的信任。羅斯坦將角色信任進一步細化為廣義和狹義。他說:“廣義的(角色信任)更加社會性和角色性。從這個意義上說,一個人相信飛行員可以安全地駕駛飛機從一個地方到另一個地方。狹義的(角色信任)則加入對具體情境和個體的考慮。從這個意義上說,一個人可能不那么信任一個一身酒氣踉踉蹌蹌進入駕駛艙的飛行員。同樣的,一個人可能也會不那么相信一身酒氣上手術(shù)臺的醫(yī)生?!盵9]65-66也就是說,在一個具體的醫(yī)療環(huán)境中,人們對于一位素不相識的醫(yī)生的信任,來自兩個方面,一方面是人們對醫(yī)生群體的信任,另一方面則是基于該醫(yī)生的具體表現(xiàn)而產(chǎn)生的信任。前者的信任程度受醫(yī)生群體公信力的影響。如果整個醫(yī)生群體的公信力很高,那么患者基于此對于該醫(yī)生也就更信任;反之,患者則會更加謹慎。20世紀(jì)以來的眾多違反倫理的醫(yī)療事件的出現(xiàn),如納粹醫(yī)生活體實驗、塔斯基吉梅毒實驗等,在一定程度上削弱了醫(yī)生共同體的公信力。這也部分解釋了為什么在現(xiàn)代醫(yī)患關(guān)系中,患者對于醫(yī)生的信任更加謹慎。后者的信任程度受醫(yī)生個人表現(xiàn)的影響。問題在于,作為一名醫(yī)生,他的哪些表現(xiàn)更能夠獲得患者的信任?針對這一問題,筆者將在下文詳細闡述。這里只是說明了狹義的角色信任的影響因素。
機構(gòu)信任是指個人對于機構(gòu)或者公共服務(wù)部門的信任。此類信任同樣受到機構(gòu)公信力的影響。但機構(gòu)公信力的表現(xiàn)不同于上文中提到的某個群體的公信力的表現(xiàn)。機構(gòu)公信力主要體現(xiàn)在制度建設(shè)上。換句話說,要想讓個人信任某個機構(gòu),要從制度建設(shè)上保障個人權(quán)利,使得人們相信,在于該機構(gòu)打交道的過程中,自己的利益可以得到有效的保障。那么,具體到醫(yī)療機構(gòu),如醫(yī)院,贏得患者信任的制度建設(shè)又是如何體現(xiàn)的呢?這一問題,筆者也將在下文中加以論述。
上文中,筆者將信任這一概念的含義及其分類進行了簡要的闡釋。那么,具體到醫(yī)患關(guān)系中,醫(yī)患信任又有什么樣的特點呢?要弄清這一問題,首先需要對醫(yī)患關(guān)系的不同模式有所了解,因為不同的醫(yī)患關(guān)系模式所形成的醫(yī)患信任有所不同。
從發(fā)展歷史來看,醫(yī)患關(guān)系模式經(jīng)歷了從“醫(yī)生主導(dǎo)型”向“醫(yī)患共同決定型(Shared Decision Making)”的轉(zhuǎn)變[10]。“醫(yī)生主導(dǎo)型”的醫(yī)患關(guān)系模式即常被批評的“家長主義”醫(yī)患關(guān)系模式。在這種模式下,醫(yī)生基于自己的專業(yè)知識和技能為患者做出“最好的”安排和治療,無需過多征求患者的意愿。這種模式下的醫(yī)患關(guān)系也因此被類比為“家長-嬰兒(Parent-infant)”關(guān)系。在這種模式中,患者對于醫(yī)生往往是一種絕對的信任,甚至是盲目的信任(Blind Faith)。按照上文中的劃分,這種信任更多地表現(xiàn)為一種人際信任,即醫(yī)生和患者直接地建立一種人際關(guān)系,并在相處的過程中產(chǎn)生對彼此的信任。實際上,這與古代行醫(yī)模式有著密切關(guān)系。近代之前,無論中外,醫(yī)生大多以自我雇傭(Self Employed)的形式出現(xiàn)。他們生活在固定的地方,有自己的診所(很多時候醫(yī)生的家就是診所),前來看病的多是周圍的鄰居和鄉(xiāng)親。這些人對于這位醫(yī)生的信任首先是基于對他這個人的信任。比如,某人的發(fā)小會些醫(yī)術(shù),去找他看病時對他的信任自然而然的是基于彼此所形成的關(guān)系的一種信任,也就是上文中的人際信任。關(guān)系密切的人際信任恰恰是盲目信任的基礎(chǔ),這好像,孩子應(yīng)該充分信任父母為他們做的安排和規(guī)劃,如果有質(zhì)疑,反而是不合適的。同樣的,去找發(fā)小看病,卻問東問西,總是擔(dān)心他開的藥是不是對癥,這反而傷了他的心,他會想,“我們的關(guān)系這么好,難道我會害你嗎?”因此,在這種基于人際信任的醫(yī)患信任中,“盲目信任”其實并不盲目,也可以解釋得通。而對于那些走街串巷的游醫(yī),患者的盲目信任則是基于醫(yī)生共同體的公信力。這種公信力的形成來自兩個方面,一方面是相比之患者,醫(yī)生對于疾病的診療有絕對的權(quán)威;另一方面,醫(yī)生共同體有自己的行業(yè)規(guī)范和職業(yè)倫理,如《希波克拉底誓言》,以保證大眾相信其醫(yī)療行為是為患者利益著想的。換句話說,患者相信醫(yī)生共同體能夠遵守諸如《希波克拉底誓言》,加之醫(yī)生在疾病治療方面的專業(yè)權(quán)威,絕對信任也就順理成章。
近代醫(yī)患關(guān)系向著“醫(yī)患共同決定型”轉(zhuǎn)變。這種醫(yī)患關(guān)系模式的轉(zhuǎn)變與行醫(yī)模式的改變有關(guān)。傳統(tǒng)的自我雇傭式的行醫(yī)模式逐漸被醫(yī)療機構(gòu)所取代,大多數(shù)醫(yī)生在醫(yī)院工作且流動性增大。這樣一來,傳統(tǒng)“熟人模式”的醫(yī)患關(guān)系變?yōu)榛颊呷メt(yī)院找“陌生的”醫(yī)生就診。因此,傳統(tǒng)醫(yī)患關(guān)系模式下雙方的人際信任也就消失了。在轉(zhuǎn)型后的醫(yī)患關(guān)系中,盡管是醫(yī)患共同決定,仍然需要患者對于醫(yī)生一定程度的信任,如對于醫(yī)生醫(yī)術(shù)的信任,對于醫(yī)生醫(yī)德的信任等。轉(zhuǎn)型后的醫(yī)患信任更多地體現(xiàn)為患者對于醫(yī)生的(狹義的)角色信任加上患者對于醫(yī)院的機構(gòu)信任。
如上所述,影響患者對(某位)醫(yī)生的角色信任的因素包括,醫(yī)生群體的公信力和具體這位醫(yī)生的表現(xiàn)。首先,受到20世紀(jì)以來一系列不良事件的影響,加之現(xiàn)代媒體常常對于醫(yī)療事故進行放大報道,總的說來,醫(yī)生群體的公信力有所下降。這種下降還表現(xiàn)在隨著醫(yī)學(xué)知識的普及以及信息技術(shù)的發(fā)展,醫(yī)生在醫(yī)療診斷方面的權(quán)威也在受到挑戰(zhàn)。例如一些患者經(jīng)過自學(xué)醫(yī)學(xué)知識,常會對醫(yī)生的專業(yè)判斷提出質(zhì)疑。那么,具體到某個醫(yī)生,他的哪些表現(xiàn)更能夠獲得患者信任呢?在這里,筆者嘗試歸納為以下四個方面的表現(xiàn)。第一,醫(yī)生的能力。醫(yī)生的能力可以由其學(xué)歷、職稱、從業(yè)年資以及過往救治病人的表現(xiàn)所體現(xiàn),這些都可以增加患者的信任。第二,醫(yī)生和患者良好的溝通。這種溝通包括及時地告知患者病情、可選的治療方案、治療所涉及的風(fēng)險以及其他患者希望了解到的情況等。第三,醫(yī)生的熱情和耐心。第四,沒有利益沖突。利益沖突可以體現(xiàn)在醫(yī)生和某種藥品/器材有利益關(guān)聯(lián),或者醫(yī)生的收入與患者醫(yī)藥費掛鉤等。避免這些利益沖突,更能讓患者相信,醫(yī)生的診斷、治療建議等是出于患者利益最大化的考量,也更能獲得患者信任。
至于患者對于醫(yī)院的信任,如上所述,機構(gòu)信任靠機構(gòu)公信力加以實現(xiàn),主要體現(xiàn)在機構(gòu)的制度建設(shè)上。具體到醫(yī)療機構(gòu),最重要的公信力保障之一便是對患者知情同意權(quán)的制度化保障。知情同意是“醫(yī)患共同決定”模式最直接的體現(xiàn)。在現(xiàn)代醫(yī)療實踐中,知情同意權(quán)被看作是對保護患者利益最有效最重要的措施[11]。所謂知情同意權(quán),簡單說來,是指患者對于自己的病情有充分知情權(quán),對于醫(yī)生提供的多種治療方案所依據(jù)的理由和涉及的風(fēng)險有充分的知情權(quán),同時,在患者充分知情的基礎(chǔ)上,需征得患者同意,某種治療才可以被實施[12]。從這一定義中,我們能夠看出,充分知情是患者知情同意的前提。問題在于,如何才算是(使患者)充分知情?一般而言,患者應(yīng)該被告知的信息包括:(1)患者病情;(2)治療方案及替代方案;(3)治療方案的依據(jù)、涉及的風(fēng)險、常見的或者可預(yù)見的副作用;(4)其他患者希望了解的與其病情及診斷相關(guān)的信息。醫(yī)療機構(gòu)對患者知情同意權(quán)的制度化的保障是贏得患者信任的關(guān)鍵。正如哲學(xué)家歐若拉·奧尼爾(Onora O’Neill)所認為的,患者知情同意權(quán)的有效保障不僅是出于對患者自主性的保護,同時也是現(xiàn)代醫(yī)患信任重塑所必須的[13]。也就是說,正因為知情同意權(quán)的確定,患者才相信,醫(yī)生的診療是符合自己的最大利益的,才相信不會出現(xiàn)類似納粹醫(yī)生的行為或者塔斯基吉梅毒實驗事件。
綜上,現(xiàn)代醫(yī)患信任不是之前醫(yī)患關(guān)系模式下那種人際信任,而是患者對醫(yī)生(狹義)角色信任及對醫(yī)院機構(gòu)信任的結(jié)合。影響這種信任的因素,有醫(yī)生群體的公信力、某個醫(yī)生的個人表現(xiàn)以及醫(yī)院的公信力(主要靠對患者知情同意權(quán)的制度化保障來體現(xiàn))。由此可見,在具體的醫(yī)療實踐中,患者信任一名醫(yī)生給出的診斷,并不僅僅因為其過往診斷的高精確性,而是諸多因素的綜合。這其中,醫(yī)生對于患者病情的充分告知是不可缺少的要素,一方面,這是醫(yī)生獲得患者(狹義)角色信任的重要組成部分;另一方面,也是醫(yī)院對于患者知情同意權(quán)制度化保障的直接體現(xiàn)。
讓我們回到文章開頭中關(guān)于醫(yī)療人工智能黑箱問題的關(guān)切。那種認為“很多時候,人類醫(yī)生是憑著直覺和經(jīng)驗在為病人做診斷,而這些直覺和經(jīng)驗連他們自己也很難解釋清楚;如果我們能夠信任醫(yī)生給出的‘難以解釋’的診斷,也應(yīng)該信任人工智能系統(tǒng)給出的結(jié)論”的觀點很難站得住腳。因為,人工智能由于黑箱問題,對于其做出的診斷結(jié)論無法給出任何可能的解釋,讓患者信任這樣的診斷結(jié)論實質(zhì)仍是一種盲目信任。然而,如上所述,現(xiàn)代醫(yī)患關(guān)系模式下,患者對醫(yī)生的盲目信任不復(fù)存在,讓患者充分知情才是獲得信任的前提和基礎(chǔ)。
醫(yī)療AI的優(yōu)勢之一是其具有的高精確性,醫(yī)療人工智能在疾病診斷方面表現(xiàn)出了高于人類醫(yī)生的精準(zhǔn)性,這成為其優(yōu)于人類醫(yī)生的重要理由。但同時這一優(yōu)勢也帶來了可信度方面所存在的風(fēng)險,即,診斷的高準(zhǔn)確度或許意味著患者被誤診的風(fēng)險降低,但由于人工智能系統(tǒng)的不透明性,一旦被誤診,對患者的傷害可能更大。換句話說,高準(zhǔn)確性并不意味著高安全性。在這里,筆者嘗試通過一個思想實驗來論證,即使人類醫(yī)生和人工智能都具有一定程度的不可解釋性,人類醫(yī)生給出的診斷和人工智能系統(tǒng)給出的結(jié)論卻有可能有著本質(zhì)的差異。
假設(shè)有四種疾病A、B、C、D。其中,A通過幾天的休息就能痊愈;疾病B需要服用止痛片外加充足睡眠;C需要使用抗生素;疾病D則必須截肢。假設(shè)當(dāng)具有特殊癥狀的病人前來就診的時候,某位人類醫(yī)生首先排除C和D,而后在A和B中做判斷。其實,根據(jù)病人的癥狀,這位醫(yī)生并不十分清楚為什么是A而不是B。但是根據(jù)他多年行醫(yī)的經(jīng)驗和直覺,大多數(shù)情況下,他會建議病人回去休息。另一邊,假設(shè)人工智能系統(tǒng)面對相同癥狀的病人前來就診時,首先排除的是B和C,而后在A和D之間做選擇,并在絕大多數(shù)情況下將此類癥狀診斷為疾病A。然而,人工智能系統(tǒng)的診斷精確度高于人類醫(yī)生,但并非百分之百精準(zhǔn)。在這種情況下,很多人就醫(yī)的時候可能仍然會選擇人類醫(yī)生而非人工智能。理由也很明顯:雖然人工智能系統(tǒng)的診斷準(zhǔn)確性更高,但一旦出現(xiàn)誤診(將疾病A誤診為疾病D),其給患者造成的傷害更大。相比較而言,人類醫(yī)生即使誤診,也最多是將疾病A誤診為疾病B,而不會將其誤診為疾病D。這里需要指出的是,筆者并不是認定所有的應(yīng)用于醫(yī)療診斷的人工智能系統(tǒng)都存在類似風(fēng)險。但是由于人工智能系統(tǒng)的不透明性,我們并不清楚其內(nèi)部工作機制,因此,上述思想實驗中的假設(shè)就有可能為真。正是這種可能性使得人們對于人工智能系統(tǒng)不透明性的擔(dān)憂具有合理性和必要性。換句話說,盡管具有高精確性,人工智能系統(tǒng)的不透明性也會使其可信度大打折扣。
回到文章開頭提到的“深度患者(Deep Patient)”系統(tǒng)。通過對總計70余萬份電子病例的“深度學(xué)習(xí)”,該系統(tǒng)可以準(zhǔn)確地預(yù)測出新病例中“隱藏”的疾病。然而,“黑箱”模式下的“深度患者”系統(tǒng)同樣受到了可信度的質(zhì)疑。這種質(zhì)疑和擔(dān)心并非杞人憂天?;颊哂欣碛啥覒?yīng)該對于不透明的高準(zhǔn)確度保持謹慎的態(tài)度,畢竟,高精確性并不意味著絕對的安全。而且,由于其不透明性,很難預(yù)料一旦出現(xiàn)誤診,會給患者帶來怎樣的后果。如上所述,“不透明性”恰恰是現(xiàn)代醫(yī)患關(guān)系,即“醫(yī)患共同決定型”的醫(yī)患模式,所要盡力避免的。因此,現(xiàn)代醫(yī)患關(guān)系中的信任是基于患者的充分知情,而對于“黑箱”模式下的醫(yī)療人工智能的信任卻要求患者放棄知情而僅僅依據(jù)其準(zhǔn)確性去盲目信任。那種認為“人類醫(yī)生也是‘黑箱’,患者既然信任人類醫(yī)生,也應(yīng)該信任醫(yī)療人工智能”的觀點正是沒有意識到這兩種信任的前提根本不同。對于醫(yī)療人工智能的黑箱問題,筆者更傾向于一種謹慎的態(tài)度,即醫(yī)療人工智能系統(tǒng)應(yīng)該更加透明,即使這種透明化有可能降低其效率或者增加社會成本。因為,患者對于醫(yī)療人工智能不具備信任的基礎(chǔ),且任何技術(shù)的應(yīng)用都應(yīng)以保障患者的安全為前提。
綜上所述,對于“黑箱”的醫(yī)療人工智能的盲目信任難以得到辯護。一方面,這種盲目信任與現(xiàn)代醫(yī)患關(guān)系模式中,對患者充分知情權(quán)的尊重和保障有巨大的價值沖突;另一方面,由于人工智能系統(tǒng)的不透明性,其診斷的高精確性并不等于高安全性,一旦出現(xiàn)誤診,對患者造成的傷害可能更大。因此,解決醫(yī)療人工智能黑箱問題的可行之路是使其更加透明化,讓診斷結(jié)果更加的“可解釋”,而不是要求患者基于其高精確性而盲目信任其診斷結(jié)論。這里,一種可能的透明化方案是,通過對人工智能系統(tǒng)的設(shè)置,使得當(dāng)醫(yī)療人工智能的診斷結(jié)論與醫(yī)生的診斷出現(xiàn)偏差的時候,或者當(dāng)不同的醫(yī)療人工智能給出不同的診斷意見的時候,醫(yī)生能夠知道造成這種不一致的原因,以便向患者解釋相關(guān)情況。
[1] 潘若琳, 鄭秋瑩. 人工智能在健康產(chǎn)業(yè)應(yīng)用中的倫理問題分析[J]. 中國醫(yī)學(xué)倫理學(xué), 2019, 12: 1541-1546.
[2] 楊慶峰. 從人工智能難題反思AI倫理原則[J]. 哲學(xué)分析, 2020, 2: 137-150.
[3] 徐 鳳. 人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開[J]. 東方法學(xué), 2019, 6: 78-86.https:// www.nytimes.com/2018/01/25/opinion/artificial-intelligen- ce-black-box.html. 2020.
[4] Alakwaa F M, Chaudhary K, Garmire L X. Deep learning accurately predicts estrogen receptor status in breast cancer metabolomics data[J]. Journal of Proteome Research, 2017, 17(1): 337-347.
[5] Miotto R, Li L, Dudley J T M. Deep learning to predict patient future diseases from the electronic health records[C]. European Conference on Information Retrieval, 2016: 768-774.
[6] Pande V. Artificial intelligence’s ‘black box’ is nothing to fear[EB/OL]. (2018-01-25)[2020-01-15]. https://scholar.harvard.edu/people_analytics/publications/artificial- intelligences-black-box-nothing-fear.
[7] Annette B. Trust and antitrust[J]. Ethics, 1986, 96(2): 231-260.
[8] Russell H. Trust[M]. Oxford: Polity Press, 2006.
[9] Rothstein J A. Reconsidering trust in the physician-patient relationship[D]. Yale: Yale University, 1996.
[10] Kaba R, Sooriakumaran P. The evolution of the doctor-patient relationship[J]. International Journal of Surgery, 2007, 5(1): 57-65.
[11] Del Carmen M G, Joffe S. Informed consent for medical treatment and research: A review[J]. The Oncologist, 2005, 10(8): 636-641.
[12] Faden R R, Beauchamp T L. A history and theory of informed consent [M]. Oxford: Oxford University Press, 1986.
[13] O’neill O. Autonomy and trust in bioethics[M]. Cambridge: Cambridge University Press, 2002.
On Credibility of Medical Artificial Intelligence Technologies based on Physician-Patient Trust
Xu Hanhui
(School of Medicine, Nankai University, Tianjin 300071, China)
Since the 21st century, artificial intelligence (AI) technology has been widely used in the medical field, and has shown more accuracy and efficiency than human doctors for diagnosis. However, as the internal mechanisms are often unclear, an AI system is usually regarded as a “black box.” This “black box” problem has raised concerns regarding the credibility of AI. However, one view claims that the concern regarding the “black box” is unnecessary, as human doctors do not seem not much better than AI in terms of providing diagnoses based on intuition and experience. In many cases, the human intuitions and/or experiences are also difficult to explain. Thus, if we can trust human doctors, it seems reasonable to trust medical AI. In this study, I attempt to respond this view, based on a theory of physician-patient trust.
medical AI; Black Box; physician-patient relationships; trust
2020–02–26;
2020–06–02
徐漢輝(1988–),男,博士,講師,研究方向為生命倫理學(xué)、醫(yī)學(xué)倫理學(xué)。E-mail:018205@nankai.edu.cn
R-02;TP39
A
1674-4969(2020)03-0252-08
10.3724/SP.J.1224.2020.00252