福建農(nóng)林大學(xué) 鄧衛(wèi)文
人工智能概念于1956年提出以來,經(jīng)過幾十年的發(fā)展,已經(jīng)不再是遙遠的科幻概念,而是越來越緊密的走進社會的各個領(lǐng)域,走進人們的日常生活中。人工智能表現(xiàn)出超高的“智力”,是一門專門研究、模擬人類智能理論和方法的科學(xué)。目前人工智能的研究方向主要傾向于與社會上各個領(lǐng)域的結(jié)合。醫(yī)療領(lǐng)域是人工智能與其他領(lǐng)域相結(jié)合研究過程中,研究最早、聯(lián)系最密切、投入最大、影響最深遠的領(lǐng)域之一。如使用最多的手術(shù)機器人達芬奇手術(shù)機器人,是目前最先進手術(shù)機器人。我國人口基數(shù)大,隨著人口老齡化,我國將面臨巨大的養(yǎng)老醫(yī)療壓力,此外國家鼓勵生育計劃的出臺,我國也需要更多的醫(yī)療資源,導(dǎo)致我國醫(yī)療資源緊缺。因此我國對醫(yī)療人工智能的發(fā)展也非常重視。2017年,國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》就提出建立快速精準(zhǔn)的智能醫(yī)療體系。2018年國務(wù)院印發(fā)《關(guān)于促進“互聯(lián)網(wǎng)+醫(yī)療健康”發(fā)展的意見》,其中指出要加深人工智能與醫(yī)療的結(jié)合,促進醫(yī)療服務(wù)行業(yè)的快速發(fā)展,有效提高醫(yī)療健康業(yè)整體的服務(wù)能力和普惠水平。
人工智能賦能醫(yī)療領(lǐng)域的同時,不可避免的由于人工智能技術(shù)本身存在的問題,或者使用者的過錯,會造成患者的損害。在出現(xiàn)醫(yī)療人工智能侵權(quán)事故的時候,如何通過法律規(guī)定確定事故發(fā)生因果關(guān)系、責(zé)任承擔(dān)主體成為各國關(guān)注的焦點。人工智能本身具有自主學(xué)習(xí)能力,雖然現(xiàn)階段的人工智能不具備自主思維能力,但人工智能通過自身算法,根據(jù)大數(shù)據(jù)判斷,在治療的過程中會自主做出判斷,醫(yī)生在這過程中由決定者變成了監(jiān)督者,由于“技術(shù)黑箱”問題,人工智能在醫(yī)療過程中如何做出決斷的原因也不得探究,則傳統(tǒng)的醫(yī)療損害責(zé)任和產(chǎn)品責(zé)任難以判定的損害因果關(guān)系。此外,根據(jù)民法規(guī)定,人工智能并不具備法律主體的地位,那么如果由人工智能本身的原因造成的損害,由人工智能本身負責(zé),還是由醫(yī)療機構(gòu)或者生產(chǎn)者負責(zé),通過現(xiàn)行的法律并無法合理給出答案。這些問題也就成為了我們研究的重點。
因果關(guān)系分析是確定侵害行為與損害結(jié)果之間具備關(guān)聯(lián)性的邏輯推理活動,也是責(zé)任主體要為此承擔(dān)法律帶來的不利后果的前提條件,要確定一個責(zé)任主體,必須準(zhǔn)確推理出因果關(guān)系。而人工智能運用于醫(yī)療領(lǐng)域所導(dǎo)致的侵權(quán)具有復(fù)雜性,難以準(zhǔn)確認定侵權(quán)因果關(guān)系。首先人工智能算法復(fù)雜,設(shè)計者在設(shè)計的時候醫(yī)療人工智能就可能存在技術(shù)缺陷,也有可能在制造或者銷售的時候?qū)е庐a(chǎn)品出現(xiàn)了缺陷。人工智能是極其復(fù)雜的算法,其程序運行、對醫(yī)療數(shù)據(jù)的整合,和如何做出決斷的過程是不透明的,因此被稱為“技術(shù)黑箱”,也導(dǎo)致人工智能其本身具有很多難以解釋、預(yù)測的現(xiàn)象。因為人工智能行為的復(fù)雜性和不透明性,也就很難確定醫(yī)療人工智能本身存在產(chǎn)品質(zhì)量問題。
其次,人機交互使得因果關(guān)系難以確定。現(xiàn)階段醫(yī)療人工智能的使用是人工智能與醫(yī)生相互結(jié)合使用的。有檢測型人工智能,主要提供給病人檢測,得出數(shù)據(jù)供醫(yī)生使用;也有醫(yī)生和醫(yī)療人工智能共同作用給患者治療的;也有由醫(yī)療人工智能全自主給患者治療,而醫(yī)生只是起到一個監(jiān)督者的作用。醫(yī)生會出現(xiàn)錯誤與過失,醫(yī)療人工智能也會出現(xiàn)錯誤,在一起醫(yī)療事故中,如何查明是人的過錯還是醫(yī)療人工智能的過錯,又或者是二者競合行為導(dǎo)致的過錯,這過程是非常困難的。
醫(yī)療人工智能侵權(quán)中確定法律主體地位,決定著誰有資格、有義務(wù)承擔(dān)法律責(zé)任,是法律責(zé)任構(gòu)成的必備要件。我國現(xiàn)行的法律主體包括自然人和法人?,F(xiàn)階段關(guān)于法律主體的認定主要以倫理角度出發(fā),強調(diào)法律主體具有自由意志,能夠自由支配自己的行為,并對其負責(zé),享受權(quán)利并承擔(dān)義務(wù)。自由意志是成為法律主體的前提條件,而現(xiàn)階段人工智能處于弱人工智能階段,并不具有自由意志,按此觀點,現(xiàn)階段的醫(yī)療人工智能并不能成為法律責(zé)任的主體。但一部分學(xué)者以工具性角度分析,法律對民事主體的確定除了倫理問題外,更重要的是實用性,法律是人的利益的體現(xiàn)。以此角度決定是否賦予醫(yī)療人工智能法律主體資格,有支持賦予醫(yī)療人工智能“電子人”身份的肯定說,也有只承認其具有有限主體資格的折中說。
人工智能是否具備法律責(zé)任主體地位,目前存在著三種不同的觀點。(1)肯定說。歐盟2 01 6年發(fā)布的《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》中將人工智能定義為“電子人”,使其具有一定的民事權(quán)力和義務(wù)。(2)否定說。否定說將醫(yī)療人工智能劃分為醫(yī)療工具,由于其本身不具備自由意志,也就不具備完全的行為能力,因此不能將其認定為法律主體。(3)折中說。以工具論主義出發(fā),一定條件下賦予人工智能法律主體地位,以彌補法律在人工智能領(lǐng)域的漏洞。
過錯是過錯法律責(zé)任的核心要素,是指行為人在實施某種侵害行為時,沒有盡到特定標(biāo)準(zhǔn)的注意義務(wù),從而造成他人損害時的一種應(yīng)受非難的主觀狀態(tài)。過錯是承擔(dān)過錯責(zé)任的必備前提。醫(yī)療人工智能侵權(quán)的過錯責(zé)任適用情況是當(dāng)醫(yī)生在醫(yī)療過程中,出現(xiàn)過失,致使患者受到損害,而根據(jù)醫(yī)療損害責(zé)任承擔(dān)的一種過錯責(zé)任。
但以人的自由意志為理論基礎(chǔ)的過錯責(zé)任的適用,在醫(yī)療人工智能的快速發(fā)展下面臨著巨大的挑戰(zhàn)。首先,現(xiàn)在人工智能醫(yī)療檢測疾病的準(zhǔn)確率往往比醫(yī)生高,當(dāng)出現(xiàn)醫(yī)療人工智能的判斷與醫(yī)生判斷不一致的情況下,醫(yī)生可能選擇準(zhǔn)確率更高的人工智能,那么,這種情況下出現(xiàn)醫(yī)療損害就不符合醫(yī)生的過失的條件。此外,有些完全自主操作的醫(yī)療人工智能在醫(yī)生的監(jiān)督下工作,其行為完全自主,醫(yī)生監(jiān)督情況下仍發(fā)生的醫(yī)療損害,更加不屬于醫(yī)療損害中的過失了。如果不能認定醫(yī)生存在過失行為,則醫(yī)療損害責(zé)任歸責(zé)路徑也就難以實現(xiàn)。但如果認定是醫(yī)療人工智能本身存在“過失”行為,直接適用產(chǎn)品責(zé)任,將侵權(quán)責(zé)任歸責(zé)到設(shè)計者或者生產(chǎn)者,則顯得不公平,容易打擊醫(yī)療人工智能的發(fā)展前景。
首先要確定醫(yī)療人工智能的法律地位——醫(yī)療器械。從倫理性的角度出發(fā),現(xiàn)階段醫(yī)療人工智能還處于弱人工智能階段,并不具備自主思維,不能對自己的行為負責(zé),賦予醫(yī)療人工智能法律主體地位的條件還不成熟。而且在現(xiàn)階段的醫(yī)療過程中,醫(yī)療人工智能主要起到輔助作用,在最終對患者的治療方案也由醫(yī)生決定。由此看來,人工智能在醫(yī)療活動中不能脫離人類,也不能做出獨立診斷行為,所以人工智能產(chǎn)品在實踐中不可能被視為擁有獨立法律人格。
從工具性的角度出發(fā),賦予醫(yī)療人工智能法律主體地位主要是為了解決現(xiàn)階段醫(yī)療人工智能侵權(quán)責(zé)任分配不清的問題,賦予其“電子人”身份或者有限主體地位,并以此為主體承擔(dān)對患者的賠償責(zé)任。但其作為財產(chǎn),如何賠償患者也難以界定。如果醫(yī)療人工智能擁有一定的法律地位和財產(chǎn)后,其財產(chǎn)的管理權(quán)將產(chǎn)生巨大的爭議。醫(yī)療人工智能是醫(yī)院的財產(chǎn),如果其也擁有財產(chǎn),那么醫(yī)療人工智能所擁有的財產(chǎn)是否能歸屬到醫(yī)院也是個問題。
鑒于醫(yī)療人工智能責(zé)任主體難以確定、因果關(guān)系不明、傳統(tǒng)歸責(zé)路徑不完善的困境,為了保障患者得到應(yīng)有的賠償,并且在不打擊醫(yī)療人工智能的發(fā)展前景下,可以借鑒歐盟的經(jīng)驗,建立人工智能注冊登記的形式進行管理。并且為維護公平正義,在平衡各方面的利益情況下,建立強制保險制度,在醫(yī)療人工智能投入使用之前,由醫(yī)院、生產(chǎn)者等相關(guān)主體共同出資,為醫(yī)療人工智能購買強制責(zé)任險。當(dāng)發(fā)生醫(yī)療損害事故時,由保險公司進行賠償,既可以公平分配各方責(zé)任,也能保障患者的合法權(quán)益。
醫(yī)療人工智能算法的復(fù)雜性和不透明性,導(dǎo)致很難確定醫(yī)療人工智能在侵權(quán)過程中發(fā)揮了一個怎樣的作用。為了應(yīng)對“技術(shù)黑箱”問題,應(yīng)該更加強調(diào)透明性原則,強調(diào)透明性原則能夠有效抑制智能機器人發(fā)展的不確定性而給人類社會帶來的極端風(fēng)險。因此有必要考慮引進“黑匣子”技術(shù),記錄醫(yī)療人工智能執(zhí)行的每一個活動的數(shù)據(jù),學(xué)習(xí)的每一份數(shù)據(jù),以及對其決策做出貢獻的邏輯[6]。此外,對于先進的醫(yī)療人工智能還應(yīng)配備內(nèi)部錄像系統(tǒng),對于提供診療服務(wù)的全過程,以醫(yī)療機器人的視角予以錄像,為后期的專家鑒定提供一手資料。
醫(yī)療人工智能技術(shù)的發(fā)展是一柄劍雙刃劍,一方面其給醫(yī)療領(lǐng)域?qū)崿F(xiàn)精準(zhǔn)化、個性化、高質(zhì)量的診斷和治療帶來希望;另一方面,因其參與診療活動,給醫(yī)療損害責(zé)任的分配與承擔(dān)提出了現(xiàn)實挑戰(zhàn)。但技術(shù)的發(fā)展是不可避免的,將來醫(yī)療人工智能越來越深入的運用是發(fā)展的趨勢,等醫(yī)療人工智能技術(shù)進入強人工智能時代時,法律也必須面對和解決智能機器人醫(yī)生的法律行為和法律地位問題,并對其進行適時的修正和更新,保障患者的權(quán)益,分配各方責(zé)任。