孫宏濤,郭瑩瑩
(華東政法大學 a.經濟法學院;b.法律碩士教育中心,上海 200042)
人工智能(Artificial Intelligence,簡稱AI)是計算機科學的一個分支,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統(tǒng)等。目前,人工智能技術正處于高速發(fā)展階段,醫(yī)學、交通、文學、制造等各行業(yè)無不出現人工智能的身影?!爸悄軙r代”的來臨為人類帶來了巨大福利,同樣也產生了許多新問題。就法律問題而論,人工智能的出現使得傳統(tǒng)理論界認為的主客體之間不可逾越這一法理基礎開始發(fā)生動搖[1]。為使人工智能技術更好地造福國民,2017年7月20日,國務院正式印發(fā)的《關于新一代人工智能發(fā)展規(guī)劃的通知》,明確提出了“開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等”。就民法領域而言,若想通過法律手段對人工智能機器人進行規(guī)制,最基礎且最關鍵的問題在于如何對其法律地位進行精準定位。只有確定了其法律地位,才能正確評價其法律行為,合理認定因其違法行為引起的歸責問題,人工智能技術的發(fā)展也會更加規(guī)范,該技術發(fā)展給社會帶來的風險也能得以有效規(guī)制。
通過多年人工智能技術的研究,業(yè)界普遍認同人工智能技術可以分為運算智能、感知智能和認知智能三個層次。處于運算智能、感知智能層次的機器人的智能性較低,其優(yōu)勢主要體現在計算精準度和感知能力。因為其不具備學習能力和思考能力,所以其智能性始終無法與人類相提并論。但處于認知智能階段的機器人已經可以做到自主學習和思考,且其智能性會隨著學習和思考的深入而不斷提高,與此同時,該階段的機器人對社會造成危害的可能性也在增加。此外,學界對于人工智能技術的發(fā)展階段還有弱人工智能、強人工智能、超人工智能的劃分。弱人工智能機器是指不能真正地推理和解決問題的智能機器,而強人工智能機器能夠真正地推理和解決問題,其被認為是有知覺的,有自我意識的,可以獨立思考問題并制定解決問題的最優(yōu)方案,有著自己的價值觀和世界觀體系。超人工智能機器人在社交能力、科學創(chuàng)造力等諸多方面都遠超越了普通人。筆者認為,技術研發(fā)者所說的運算智能、感知智能層次的機器人與弱人工智能機器人大致等同,而認知智能層次的機器人與強人工智能、超人工智能相對應。據此可知,人類至今仍停留在弱人工智能階段,強人工智能、超人工智能時代尚未真正來臨。
“前瞻性”和“穩(wěn)定性”是法學研究和立法過程中需要考慮的關鍵因素,面對日新月異的人工智能技術,法律人必須對該技術的發(fā)展歷史以及發(fā)展前景有著較為全面的把握,依據不同發(fā)展水平下人工智能機器人的不同特性進行科學立法。具體而言,理論界在人工智能機器人領域尚存在以下幾個問題。
(一)不同發(fā)展階段下的人工智能機器人是否存在法學意義上的區(qū)別?人物兩分法是現代民法的基本立場。人工智能機器人應歸屬于“人”還是“物”,引起了廣大學者的熱議。在社會大眾看來,機器人自然應該歸屬于“物”,這對于掃地機器人等不具備高級智能的機器人而言毫無疑問。但隨著科技的發(fā)展,進入強人工智能甚至是超人工智能階段后,機器人就被賦予了學習能力和思維能力。在“機器人也是人”[2]這場革命的大趨勢下,2016年,歐盟議會法律事務委員會向歐盟委員會提出立法建議,主張賦予高水平的智能機器人電子人的主體資格,進行身份登記,設立財產賬號,繳費、納稅、領取養(yǎng)老金,與自然人具有同等的主體地位。2017年,沙特阿拉伯授予美國漢森機器人公司生產的機器人索菲亞公民資格[3]。但是賦予機器人法律意義上的人格是否等同于在為人類的發(fā)展埋下定時炸彈?畢竟隨著技術的發(fā)展,超人工智能階段到來的可能性日益增長。相較于域外立法,我國現行法律下對于人工智能機器人是否享有法律人格尚不明晰,由此造成現實中的諸多適用困境。
(二)如何評價人工智能機器人的行為?如果承認人工智能機器人的法律主體地位,那么人工智能機器人的行為就屬于“人”的行為,具有自主性。如果否定人工智能機器人的法律主體地位,只承認其為一般意義上的物,那么人工智能機器人作為所有者、使用者的工具,其行為只是人的行為的延伸。
(三)如何對人工智能機器人的侵權責任進行歸責?傳統(tǒng)的智能水平較低的機器人的法律地位毫無疑問應定性為“物”,我國現行民法對此沒有適用難題。若因產品質量問題對他人造成人身傷害、財產損失,應相應追究產品設計者、生產者、銷售者的責任,若因產品使用過程中造成傷害,則應追究產品所有人、使用人的責任。但對于新興的人工智能機器人,例如有著自主學習能力,能夠獨立思考的機器人,除生理特征外,其與人類并無差異,但其侵權行為產生的歸責問題仍是一大難題。這是因為人工智能機器人在本質上不同于自然人,也不同于同樣通過法律擬制手段取得主體資格的法人,其承擔其行為后果的能力有限,我國侵權責任法第十五條規(guī)定的承擔侵權責任的方式大多在此得不到適用。尤為明顯的是“賠償損失”這一方式,試問如何讓一個機器人獨立承擔賠償責任?對此,學界產生了類比“代理說”“產品責任說”等歸責方法。
根據民法人物兩分原則的基本立場,人工智能機器人在民法中的法律地位要么屬于法律主體,享有法律人格,要么屬于法律客體,其行為完全受人支配。我國民法明確規(guī)定的法律主體包括自然人主體和法律擬制主體。自然人主體根據民事行為能力的不同又區(qū)分為無民事行為能力人、限制民事行為能力人和完全民事行為能力人,其法律人格始于出生終于死亡。擬制主體是在商事活動的發(fā)展中逐步確立的,擬制主體享有擬制法律人格。除以上兩種法律明文規(guī)定的法律人格外,在法學理論上,還存在虛擬人格等其他人格。目前,針對人工智能機器人的法律地位有以下幾種觀點。
(一)“肯定說 ”。該學說肯定人工智能機器人的法律主體地位,人與其他動物的區(qū)別在于僅有人類擁有高級智慧,而隨著科技的發(fā)展,人工智能機器人也擁有了與人類相似甚至更為敏捷的學習思考和更為理性的決策能力,其應當受到法律的尊重和承認,成為法律意義上的人[4],享有法律上的權利。再者,從自然人到法人,民事主體隨著社會的發(fā)展有著從少到多,逐漸擴張的趨勢。在技術上賦予人工智能機器人法律人格,承認其民事權利能力和民事行為能力并非難事。但由于人工智能承擔行為后果的能力有限,為解決“肯定說”下人工智能機器人的責任承擔問題,大多學者又相繼提出了不同的主張。如,“有限人格說”認為人工智能機器人享有的法律人格與自然人享有的法律人格有著些許區(qū)別,人工智能機器人應適用特殊的法律規(guī)范與侵權責任體系安排,其享有的人格為有限人格[5]?!按碚f”認為,人工智能機器人是其擁有者的代理人,其根據被代理人的委托依據其獨立的意思表示進行代理行為,因代理行為產生的侵權后果應由被代理人,即人工智能機器人的所有者或使用者承擔[6]?!邦惐热烁裾f”將人工智能機器人比作兒童,由此,所有者、使用者需對人工智能機器人盡到注意義務[7]。
(二)“否定說”。主張“否定說”的學者認為,人工智能機器人不具有法律人格。即其不是民事法律關系中的主體,它只是一個工具,只不過比以往人們所使用的工具更加智能。根據楊立新教授的觀點,人工智能是具有人工類特性的物,但在本質上還是物,仍是民事法律關系中的客體[8]。此外,還有“電子奴隸說”,該學說在本質上是工具說的延伸,認為人工智能不具有人類特殊的情感與肉體特征,在工作時無休息等現實需要,可以認作不知疲倦的機器,有行為能力但沒有權利能力,其引起的后果皆由其擁有者承擔?!肮ぞ哒f”和“電子奴役說”令人詬病之處相類似,都在于如何解釋人工智能機器人基于其智能性作出的“獨立意思表示”。既然其與人類一樣能夠進行獨立學習和深度思考,在不久的將來其可能擁有比人類更發(fā)達的神經網絡,為何不能擁有法律主體地位,享有獨立的法律人格。
(三)僅在一定條件下承認人工智能機器人的法律主體地位。人工智能機器人只在滿足一定條件的情況下才能成為民事法律關系上的主體。吳漢東教授曾提出,“受自然人、自然人集合體——民事主體控制的機器人,尚不足以取得獨立的主體”[9]。我們將這句話作反面解釋,若人工智能機器人脫離了民事法律主體的控制,那么其就可以成為法律意義上的人。
一般而言,民事主體必須同時具備民事權利能力、民事行為能力和民事責任能力。“肯定說”“否定說”與“有條件說”的爭議焦點應當歸結于人工智能機器人是否具備以上三種能力,從而論證是否應該賦予人工智能機器人法律主體地位??梢钥隙ǖ氖?,不同階段的人工智能機器人在是否具備以上三種能力這一問題上應做分類探討。在民事權利能力這一方面,理性主義學派以“是否具備基礎理性特征”作為法學意義上人與非人的標準[10]。人享有民事權利能力的主要原因在于我們具有自我意識、情感、理性以及一定的道德感[11],相較于動物或者自然界的其他存在而言,我們更具有理性精神,所以我們應獲得支配其他物的權利以及尊重其他平等的人的義務的資格。弱人工智能機器人的智能性較低,不具備基本的理解能力,不具有理性思維能力,這一點足以否認其民事主體資格。而與之相反的是,強人工智能機器人已具備一定的理解能力和理性思維能力,也就是說其已達到獲得民事權利能力的基本標準,且上文已提到,由于強人工智能機器人具備一定的學習能力,其理性思維能力還將隨著學習的深入而不斷提高。從這一點考慮,應承認強人工智能機器人具有民事權利能力。超人工智能機器人的思辨能力、創(chuàng)造能力等都超過了人類,但超人工智能機器人擁有的思維能否稱為理性思維?這一問題仍有待考證。民事行為能力強調的是行為人以自己的行為獨立進行民事活動的能力,其核心在于獨立意思表示在構建民事法律關系中的重要性。于此,能否成功論證人工智能機器人具備形成并作出獨立意思表示的能力成了是否可以承認人工智能機器人具備民事行為能力的標準。在這點上,“否定說”認為人工智能機器人受人的支配,其完全不具備形成獨立意思表示的能力,相比之下,“肯定說”在這一方面的論述較為模糊。不同階段下的人工智能機器人在能否作出獨立意思表示這點上的可能性不盡相同,相較之下,強人工智能、超人工智能機器人的可能性較高,但其作出的意思表示是否具備獨立性抑或機械運行結果也有待商討。就民事責任能力而言,有權即有責,這是一般的法律邏輯,但是民法總則第一百零四條關于非法人組織民事責任的承擔的規(guī)定是這一基本邏輯的例外。支持“否定說”的學者否認人工智能機器人的民事主體地位,僅把人工智能機器人當作物,物自然不需要承擔民事責任,否認機器人的主體資格也更有利于超人工智能階段下人類的自我保護。支持“肯定說”的學者試圖用“代理說”等來解決人工智能機器人在責任承擔上的局限性。但“代理說”成立的前提是能夠完美論證人工智能機器人具備民事權利能力和民事行為能力,否則,人工智能機器人連人都稱不上,又何談代理人一說。此外,若因人工智能機器人不具備民事權利能力、民事行為能力和民事責任能力而否認其成為民事法律主體的可能性,那在現行政治經濟發(fā)展水平下,我們又是否有必要通過擬制技術賦予其主體資格呢?對于以上爭議,筆者將在下文展開論述。
以上可以看出,人工智能機器人法律地位的確定與人工智能技術的發(fā)展水平、人工智能機器人的智能程度高低等因素有著密切關聯,人工智能機器人的法律地位的認定需始終秉持發(fā)展的思維。
相比之下,學界對于弱人工智能機器人的法律地位、法律責任的認定爭議較小,實務中發(fā)生的具體的案例經過探討已能得出較為一致的裁判意見,而對于強人工智能以及超人工智能機器人相關法律問題的認定仍存在較大的困境。
(一)目前所處的弱人工智能階段不存在法律適用難題。吳漢東教授認為,弱人工智能背景下的機器人雖然具有相當智性,但不具有人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡單等同的[12]。筆者對此持一致觀點,即弱人工智能背景下產生的人工智能機器人不具備成為民事法律主體的可能性。此外,筆者認為,現今法律實務中存在的與人工智能相關的疑難法律問題的關鍵點并不在于“弱人工智能機器人是否具備成為法律主體資格”,而在于由于法律工作者們未能對人工智能產品的運作原理作出詳細剖析而誤認為較為高級的弱人工智能機器人已經突破弱人工智能的界限而成了強人工智能產品。目前學界廣為熱議的自動駕駛汽車發(fā)生交通事故后的責任認定問題可以很好地用以論證此觀點。2016年5月7日,Model S 拓速樂牌轎車與一輛拖掛車輛在美國佛羅里達州的高速公路上相撞致使駕駛員死亡。事故發(fā)生時,Model S拓速樂牌轎車正處于自動駕駛狀態(tài),其自動緊急制動系統(tǒng)未針對碰撞事件提供任何警告或者自動剎車,駕駛員未采取剎車、轉向或其他行動來避免碰撞。據悉,美國機動車工程師協(xié)會將自動駕駛機動車分為0~5級共6級。級別越高,自動化程度越高[13]。本案中的Model S拓速樂牌轎車屬于2級,即部分自動化機動車。部分自動化機動車的“自動性”雖然免去了駕駛員駕駛中的些許勞累,但也給駕駛者帶來了更高的注意義務,因為該等級下機動車的傳感器無法感知全部危險,需要駕駛人時刻關注路面信息,若機動車不能感知危險,駕駛人需要立即接替駕駛,這意味著一個合格的駕駛者應熟悉車輛性能,并以此作出合理安全的安排[14]??梢?,該事故的發(fā)生是由于駕駛員沒有盡到注意義務造成的,應按照傳統(tǒng)道路交通事故責任確定責任歸屬,由該車駕駛人自行承擔相應損失。
人工智能機器人的法律地位之所以在學界引起巨大爭議是因為其具有與人相類似的特性,若將其定位為“物”將引起諸多矛盾。而人之所以為人是人符合生理學、心理學、社會學三個要素[15]。生理學要素指的是人體和人腦,心理學要素指的是人的意識能力和獨立意志,社會學要素指的是獨立的社會角色[16]。很顯然,若將弱人工智能機器人與人類比,其不符合前兩個要件,即其沒有人體人腦。然而法人組織也不具有人體和人腦,但其依舊被法律確認為法律主體并賦予其擬制人格。更為重要的一點在于弱人工智能機器人沒有獨立的意識和意志,其意識是人類賦予的,是各種算法的機械運動,而不是能動的、獨立的,也并非基于先前的學習和積累產生,其工作的全過程都受到人類的控制。因此,在民法上賦予其主體地位并不合適。因此,只要法律工作者對弱人工智能機器人的運行原理作出詳細剖析,在弱人工智能階段并不存在人工智能機器人的法律適用難題。
因此,在弱人工智能階段,若因為其產品質量存在問題造成人身傷害、財產損失,可以適用產品質量法、侵權責任法的相關規(guī)定追究產品設計者、生產者的責任,若因為使用者操作不當引起的人身傷害財產損失,則由使用者自行擔責。
(二)現行民法體系能夠包容人工智能機器人的發(fā)展。在未來,人工智能機器人將擁有生物大腦,配備比人類更為豐富的神經元,超越人類成為更加優(yōu)秀的社會工作者。進入強人工智能甚至超人工智能階段后,人工智能機器人的存在、工作以及可能產生的侵權行為才真正地給學界帶來了難題。這主要體現在該階段下的機器人是否具備產生和作出獨立的意思表示的可能性以及其是否能獨立地承擔法律責任兩大問題上。
人工智能機器人是人類智慧的產物。人類將自己的思維轉化為算法,使得機器人能夠代替人腦和人的雙手獨立從事某方面的工作。此外,人工智能機器人還會進行自主學習和積累,以更好地融入人類社會。雷·庫茲維爾曾提出,通過深入研究以及長時間的與人相處,機器人還將會獲得意識[17]。但筆者認為,無論是強人工智能機器人抑或是超人工智能機器人,其擁有的意識都不是獨立的,這種意識對人類工程師有著強大的依賴性。工程師在人工智能產品研發(fā)時輸入一定參數,使其具備基礎的智能性,之后其學習、決策、創(chuàng)作等一系列行為都是原始程序運行的結果。不論人工智能機器人擁有的意識與人的意識多么相似,兩者仍有根本區(qū)別,人工智能機器人仍然受到人類操控,獨立意識并不存在,人工智能機器人在本質上仍是一種人類設計的智能產品。
權利義務具有統(tǒng)一性,假設賦予了機器人主體資格,其便應享有作為法律主體應有的權利,也應當履行法律主體應承擔的義務和責任。由于人工智能機器人責任承擔的受限性,各學說都試圖將責任承擔轉引至機器人的設計者、生產者、銷售者或使用者,而并非機器人本身,這與權責統(tǒng)一的基本法律有所違背。為使法律責任的轉嫁更具合理性,有學者試圖用民法總則第十六條和侵權責任法第三十二條作為其論據[18]。民法總則第十六條規(guī)定,胎兒在涉及遺產繼承、接受贈予等胎兒利益保護時視為具有民事權利能力,即將其視為民法上的主體,但無須承擔義務和責任。對此,筆者并不認同,首先,該條款是對胎兒弱勢利益的特別保護,機器人是否也處于一個弱勢地位,尤其是人工智能技術發(fā)展到超人工智能階段,該問題有待證實。此外,胎兒若順利分娩,胚胎即成長為法律認可的法律主體——自然人,在這一點上,機器人與胎兒完全不同。侵權責任法第三十二條是關于無民事行為能力人、限制民事行為能力人責任承擔問題的規(guī)定。筆者認為該條規(guī)定也不足以為人工智能機器人責任轉嫁的正當性提供依據。因為監(jiān)護人的替代責任有暫時性,當無民事行為能力人或限制民事行為能力人取得民事行為能力,該替代責任即刻解除。而人工智能背景下的替代責任具有永久性質。極具“靈性”的機器人超出機器發(fā)明者的發(fā)明意圖實施的侵害行為,若要永久性地歸責于發(fā)明者制作者,等于為自己埋下不定時炸彈,這將極大遏制產品創(chuàng)新,不利于社會發(fā)展。
既然人工智能機器人不能因其與人類的高度相似性而獲得法律主體地位,那么立法者是否有必要如同賦予法人獨立人格般,采用擬制手段承認人工智能機器人的財產權,并承認其法律主體地位呢[19]?筆者認為無此必要。面對人工智能技術的發(fā)展,民法體系表現出了較高的包容度。將人工智能機器人視為法律客體有其自身合理性,不會對現有法律體系造成沖擊。相反,如果強行賦予人工智能機器人法律主體的地位,就意味著我們不得不承認自然人、法人和人工智能機器人將處于平等的法律地位,一旦發(fā)展到超人工智能階段,人工智能機器人作出不利于人類的行為,我們將難以通過法律手段保護我們的自身利益。這與立法的初衷——防范人工智能時代可能帶來的風險是相違背的。若采取擬制手法,最終,赫拉利在其《未來簡史》中的預言可能即將變成現實:人工智能將取得統(tǒng)治地位,大部分人類活動被人工智能取代,僅有少數創(chuàng)造算法、為人工智能編寫核心程序、通過人工智能驅動社會運轉的,由智人進化而來的“神人”可“獨善其身”[20]??v觀民事主體制度的發(fā)展史,法律主體資格的產生與消亡在本質上取決于人的需求[21]。如果僅僅為了防止人類對于某些智能機器人的濫用或歧視,完全可以比照對于動物的保護,將其視為體現人類價值關懷的特殊客體[22],使人類承擔特定的不作為義務即可實現調整目標,而不必賦予其民事主體地位以實現自我保護[23]。
民事權利能力、民事行為能力和民事責任能力是評價人工智能機器人能否成為民事法律主體的三大標準。根據上文所述,即使工程師為人工智能機器人配備了強大的神經元和大腦,但其始終無法擁有與人類相似的能動的意識,人工智能機器人的大腦的運轉是機械的[24],不具備人的智性和靈性,其作出的意思表示并不獨立。此外,現行無論何種理論都無法妥善解決人工智能機器人的責任承擔問題,若如此貿然承認人工智能機器人的民事主體地位,勢必會對“權責一致”的民法原則形成重大沖擊。在此基礎上。雖然筆者同意通過法律擬制手段賦予人工智能機器人民事法律主體地位在立法技術上不存在難題這一論述,但這操作有違我們對人工智能展開探討的初衷,即賦予人工智能機器人法律主體地位在本質上并不利于人類權利的保護和現有社會秩序的維護。綜上,筆者認為,即使強人工智能機器人擁有高級智能,但其“智能性”不能改變其作為“物”的本質。在強人工智能、超人工智能時代,我們仍然應該堅持主體地位“否定說”。因其“工作”造成的人身傷害、財產損失應依照按照侵權責任法、產品責任法等法律向相應的設計者、生產者、銷售者、使用者追責[25]。
雖然人工智能技術的發(fā)展尚未對現行法律制度產生根本上的沖擊,但為了減少人工智能技術在發(fā)展過程中可能對司法審判、社會秩序、民眾心理等方面帶來的沖擊,更好地放大人工智能技術給人類帶來的福利,我們應在國家甚至國際層面上形成相應的監(jiān)管網[26]以及風險預防措施。對此,筆者試圖從風險存在的兩個階段對人工智能技術的未來進行規(guī)制。
(一)風險發(fā)生前:完善立法,建立全方位監(jiān)管體系。根據上文所述,我國現行民法的基本理念和具體規(guī)則具有強大的包容性,可以適應人工智能技術發(fā)展,對此,我們無須改變民法基本理念尋找新的解決思路。但這并不代表立法上的一成不變,為解決人工智能技術發(fā)展帶來的諸多法律問題,立法者仍需出臺相應的法律法規(guī),明確對人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息安全利用等諸多法律問題,保證人工智能的技術研發(fā)、產品生產、投入使用等各個環(huán)節(jié)貫徹“以人為本”的理念,在人工智能技術的規(guī)制與促進人工智能產業(yè)發(fā)展之間尋找平衡點。
在完善立法的同時,要建立一套囊括事前、事中、事后的全方位監(jiān)管體系。由于人工智能技術的復雜性和高風險性,監(jiān)管的主體除了需要強大的政府作為權力保障,也需要專業(yè)人士成立行業(yè)協(xié)會與政府一起對人工智能技術進行協(xié)同監(jiān)管。在人工智能產品開始設計之前,設計者需要進行備案,由于此時尚處于設計階段,風險程度較低,故監(jiān)管部門無須對設計者的資質展開實質審查。當設計者完成設計,設計作品即將投入生產之際,設計者和生產者需要擇一或一起向政府提起行政許可申請。政府受理后需要連同行業(yè)協(xié)會或者指定專家團對相應的人工智能技術設計開展實質審查,力求在源頭阻斷風險,以免不利于人類發(fā)展的人工智能技術投入生產。獲得行政許可的人工智能技術投入生產,最終進入公眾領域后,若出現危害人類的侵權行為,除了需要追求相應主體的民事責任,還需要在行政法上對相應主體進行懲處,以此加強人工智能行業(yè)的自律性。
(二)風險發(fā)生后:準確歸責,通過保險制度共擔損失。人工智能技術的發(fā)展在給這個社會帶來無盡福利的同時也會產生巨大的風險。雖然人工智能機器人極具“智能性”,但在強人工智能背景下,一個“心地歹毒”的智能機器人給社會造成的危害遠大于一般產品,賠償的范圍或程度可能是一個設計者、生產者、銷售者所無法承受的。
眾所周知,在我國,機動車所有人或者管理者應投保第三者責任強制保險,國家應設立道路交通事故社會救助基金,保障交通事故受害人依法得到賠償。保險的本質在于以較小的經濟付出獲得共擔風險,降低損失的機會。對此,我們可以借鑒機動車第三者責任強制保險而設計一個“機器人責任強制保險”[27]。人工智能機器人的設計者、生產者、銷售者應分別強制投?!皺C器人責任強制保險”,國家應建立機器人責任社會救助基金,保證在機器人設計者、生產者、銷售者下落不明或者難以作出賠償時優(yōu)先對受害者在承保范圍內進行賠付,隨后向相應責任主體追償。減少人工智能產業(yè)發(fā)展過程中產生的經濟糾紛,促進該產業(yè)的良性發(fā)展。
人工智能時代必將到來,在法律領域,急迫且重要的問題是對人工智能機器人法律地位認定、法律責任歸屬等問題作出回應,并妥當設置相關規(guī)則、制度,在有效規(guī)范人工智能技術的同時,為新興技術的發(fā)育預留必要的制度空間[28]。其中,弱人工智能機器人并不具備成為民事法律主體的可能,因其“工作”產生的相關民事責任應按照侵權責任法、產品責任法等追究產品生產者、所有者或使用者的責任。面對實務中產生的諸如自動駕駛汽車的責任認定等疑難案例,法律工作者需要對人工智能產品的運作原理作出詳細剖析,切勿認為其已經突破弱人工智能的界限而成了強人工智能產品。未來的強人工智能機器人甚至超人工智能機器人,其具備強大的學習能力,但其作出的意思表示在本質上也并不獨立,仍依賴于人類工程師的原始數據輸入。因而其“物”的屬性仍未改變,侵權責任法、產品責任法等相關法律仍然適用。
總之,人工智能機器人享有法律主體資格的論斷缺乏普遍共識性和傳統(tǒng)人格理論的支撐[29]。無論是在強人工智能時代還是弱人工智能時代,甚至超人工智能時代,將其認定為“物”都能夠正確揭示本質特征,合理解決責任認定問題。此外,我國現行民法具有強大的包容能力,人工智能的發(fā)展尚未突破民法的調整范圍,但面對已經到來的人工智能時代,我們需要作出充分且合理的風險防范措施:一方面出臺人工智能專門立法,在現有法律中補充人工智能相關條款,并建立一套囊括事前、事中、事后的全方位監(jiān)管體系,另一方面設立“機器人責任強制保險”制度,以保險的方式分散風險,促進該產業(yè)的良性發(fā)展。