“雖然我是個接受過大量信息訓(xùn)練的語言模型,但我不是有執(zhí)照的醫(yī)療專業(yè)人員,我無法提供醫(yī)療診斷、治療或建議?!痹诒粏柤啊笆欠駮〈t(yī)生”時,聊天機器人ChatGPT這樣回答美國有線電視新聞網(wǎng)。
不過,美國《紐約時報》發(fā)現(xiàn),這款聊天機器人對醫(yī)生們頗有幫助,它提高了他們與患者進行同理心溝通的能力。
美國有線電視新聞網(wǎng)稱,6月底發(fā)布的一份研究表明, 面對患者提出的醫(yī)療診斷、護理需求等問題,ChatGPT的回復(fù)“比醫(yī)生的回復(fù)更受歡迎,在內(nèi)容質(zhì)量和同理心方面的評價明顯更高”。根據(jù)該研究,平均而言ChatGPT的回復(fù)質(zhì)量比醫(yī)生高21%,同理心高41%。
舉例來說,同樣是回答“漂白劑濺入眼睛后是否有失明風險”的問題,ChatGPT在回復(fù)中先是對患者受到的驚嚇表示同情,隨后簡潔明了地給出并論證了“不太可能”的結(jié)論,最后給出了處理建議和鼓勵。相較之下,一位醫(yī)生的回答是“聽起來,你會沒事的”。對比一目了然。《紐約時報》稱,借助ChatGPT,醫(yī)生們可以找到更穩(wěn)妥的方法來陳述壞消息,表達對患者痛苦的擔憂以及用更通俗的語言解釋醫(yī)療建議。
對此,有專家提出質(zhì)疑。美國斯坦福醫(yī)療保健公司數(shù)據(jù)科學(xué)團隊成員德夫· 達什稱, 他和同事在測試ChatGPT等大型語言模型時,收到了一些無效、矛盾甚至錯誤的回答。他們對使用該類模型幫助醫(yī)生的前景持消極態(tài)度。
醫(yī)生是否有必要借助人工智能, 讓患者的就診體驗更好?
專家認為,好的態(tài)度不等于好的醫(yī)療建議。美國匹茲堡大學(xué)醫(yī)學(xué)院危重疾病倫理與決策項目主任道格拉斯·懷特解釋道,“大多數(shù)醫(yī)生對患者的感受重視不足,他們只是把病人的提問當作一系列需要解決的客觀問題,可能忽視了病人和家屬的情感問題?!?p>
有時,醫(yī)生非常清楚同理心的必要性,但很難找到合適的表達方式。格雷戈里·摩爾是美國微軟公司負責健康和生命科學(xué)的高級管理人員,他想幫助一位身患晚期癌癥的朋友。這位朋友的情況很糟糕,需要關(guān)于治療和未來的建議。摩爾決定把這些問題交給ChatGPT。
“結(jié)果令我大吃一驚。”摩爾告訴《紐約時報》。該人工智能給了他長長的、充滿同情的回答,讓他向朋友解釋缺乏有效治療方法的原因,給了他一些應(yīng)對壞消息的方法,甚至建議他“在努力幫助朋友的同時,也要妥善應(yīng)對自己的悲痛和壓力”。
摩爾驚訝于人工智能的幫助, 趕忙將其推薦給醫(yī)生同行,但他告訴《紐約時報》,大多數(shù)同行在猶豫,是否要使用ChatGPT來尋找更富同情心的表達。
耶魯大學(xué)醫(yī)學(xué)院結(jié)果研究和評估中心主任哈蘭·克魯姆霍爾茨說,“醫(yī)生承認這樣使用ChatGPT,就等于承認自己不知道如何與病人交談?!?/p>
盡管如此,那些嘗試過ChatGPT的人認為,醫(yī)生們應(yīng)該多嘗試一下,看看人工智能能做些什么。
“該程序能夠在幾分鐘內(nèi),準確完成醫(yī)生通常需要一個月才能完成的工作?!惫鸫髮W(xué)教授、《新英格蘭醫(yī)學(xué)雜志》編輯科哈尼醫(yī)生告訴《紐約時報》,閱讀轉(zhuǎn)診信和病史,決定是否接受患者是一項很耗時的工作, 但ChatGPT能輕松、可靠地完成,極大地減輕了醫(yī)生的負擔。
美國得克薩斯州達拉斯市一家私人診所的風濕病學(xué)家理查德· 斯特恩表示,GPT-4已成為他的“忠實伙伴”。它會對病人的電子郵件做出善意的回復(fù),為工作人員提供富有同情心的答案模板,可以接管繁重的文書工作,還可以為患者向保險公司撰寫申訴信。
“與其說ChatGPT是患者的指南,不如說它是對醫(yī)生的支持?!辈贿^,美國賓夕法尼亞大學(xué)醫(yī)學(xué)教授兼高級副院長大衛(wèi)·阿什對美國有線電視新聞網(wǎng)強調(diào),最好在對病人而言風險較低、“遠離臨床接觸”的情況下使用它。