楊易川,李 娜
(東北財經大學 法學院, 遼寧 大連 116025)
1956年美國達特茅斯會議上,“人工智能”概念被正式提出,各界對人工智能的研究方興未艾,法學領域內,伴隨人工智能發(fā)展出現(xiàn)的“達芬奇”手術機器人侵權的產品責任與醫(yī)療事故責任、“微軟小冰”詩集的著作權歸屬、Uber無人機動車致人死亡的責任歸屬與責任承擔等一系列問題仍未有明確答案,如何用法律規(guī)制人工智能成為法學研究界的新興思考方向,將人工智能放在法律層面來研究,脫離不開人工智能如何擔責這一基本范疇,而解決這一問題的前提則是對人工智能應為何種法律地位、人工智能是否應被賦予人格進行界定,法學學者對此的理論和實踐研究一直未有統(tǒng)一的結論。
目前來看,法學學者針對“人工智能應為何種法律地位”這一問題基本上形成了“主體說”和“客體說”兩種學派觀點,“主體說”對人工智能的發(fā)展持包容態(tài)度,認為人工智能具有法律人格,能夠為法律意義上之主體[1],又如楊立新所言,人工智能可被歸為主客體之間的第3類[2],亦或賦予其特殊或者受限制的法律人格[3],張玉潔提出可參照法人使其成為法律主體,以降低人類在機器人應用上的成本[4]。“客體說”學者對人工智能是否應被賦予主體地位持否定態(tài)度,人工智能與人類無法等同[5],存在巨大的鴻溝[6],而擬制路徑采取片段化的類比也不能充分實現(xiàn)證成[7]。在研究思路與方法上,郭少飛、張建文主要通過反思法律主體的歷史演變過程(1)將人工智能與奴隸制度、法人等擬制主體、動物權利的保護相比較。、人工智能的發(fā)展現(xiàn)狀下的域外制度研究以及對人工智能未來情況的預測分析人工智能的法律地位[8-9]?!爸黧w說”立論雖有創(chuàng)新性,但相關學者無法自證其言,難以真正厘清“人與人工智能”之間的法律關系,本文試圖基于主客體二分法,對“主體說”的賦予證成依據重新審視,進而反思“主體說”相關觀點的理論支撐依據,嘗試對“主體說”不當之處進行論證,并通過對域外法律文本的研究,探求人工智能客體地位確立之可能。
現(xiàn)有的基礎法學理論框架是以“主—客體”二分的形式所構建的,笛卡爾完成了主體與客體相區(qū)分的思維模式的建構,并從哲學倫理學流淌到法學之中,形成了“主—客體”二分的法學研究范式,將人與人、人與自然的關系作為基礎研究對象?!岸址ā睂⑹澜鐒澐譃槿?主體)與物(客體)兩部分,并且將二者之間的關系作為民法研究的基本問題。在二分法視角下,法律主體被定義為享有權利并承擔義務,且具有感知、表達和訴求能力的法律實體;法律客體是與法律主體相對的,具有對主體有用且受主體所控制的特性,是主體意志行為所指向的客觀對象。法律將自然界中的人上升為法律中的主體,將其余的一切作為客體是實證法面對具體事實的抽象提煉,是法律技術所創(chuàng)造的規(guī)制社會現(xiàn)象的標準,與自然法作為一切動物的法律有著天然的不同。
法學對法律地位的相關研究往往基于主體、客體二分的思維模式來展開[7,10],這也是相關法學理論構建的基礎,對人工智能相關法律制度的回應也要順從二分法的理論成果,遵循二分法的基本準則。具體來看,首先應明確人工智能的基礎屬性,它(他)是否具有法律主體所應具備的外在及內在滿足要素?它(他)是否具有可以被擬制為法律主體的條件?它(他)是否具有享受權利并承擔義務及責任的客觀基礎?它(他)是作為意志主體還是意志主體所指向的對象?只有明確這些問題,才能開始探討人工智能的法律地位。其次,在該視角下,還應考慮賦予人工智能何種地位方可以滿足法律制度構建的原始目的,最重要的是應界定“人與人工智能的關系”。人類是社會的統(tǒng)治者,是法律制度構建的出發(fā)點和歸屬點,人類構建法律制度以回應社會發(fā)展,保障一切以人類目的為核心的制度運行,體現(xiàn)著“人類中心主義”色彩,社會是不斷發(fā)展變化的,法律也不斷調整以適應其發(fā)展,但以“人類中心主義”的“主—客”格序始終不應改變,人類不應與其他“智慧體”平權。人工智能為人類所創(chuàng)造出的服務于人類的實體,這一點必須始終明確。于此,法律對于人工智能法律地位的探討,須符合主客體二分法的構建標準。
學術界對于人工智能法律地位和法律人格的觀點與學說不盡相同。持“主體說”觀點的學者認為,隨著科學技術的發(fā)展,人工智能會形成與人類所類似之“自我意識”,并更多地參與、滲透到社會生活之中,逐步對人類生活產生影響。為此,法律應確立人工智能主體地位,明確其權利義務的范圍,這也符合國家對于明確人工智能法律主體地位的要求,勢必為一種最終趨勢[11]。在“主體說”領域,人工智能具備法律主體地位這一觀點立論鮮明,但不同學者對人工智能應被賦予何種法律人格、人工智能法律人格是否應受到限制,應受何種限制等問題時仍莫衷一是,具而言之,主要包括擬制人格說、電子人格說和有限人格說。
擬制人格說和電子人格說兩種觀點殊途同歸,在認定方法上基本相同,均認為從法律主體的發(fā)展來看,法律主體的涵蓋范圍呈擴大趨勢,擬制人格說更側重于解決責任承擔問題[12],而電子人格說則著眼于人工智能自主程度提高,單純的工具性可能越來越小,因此可以通過賦予電子人格和通過法律人格擬制等方式賦予人工智能法律主體資格[12-14],并提出實證依據作為支撐:2016年美國國家公路交通安全局在給谷歌公司關于無人車自動駕駛系統(tǒng)是否適用美國聯(lián)邦機動車安全標準的回函中表明,該自動駕駛系統(tǒng)可視為“駕駛員”[15];歐盟議會于2017年通過決議,使至少最復雜的自主機器人被確立為電子人。
有限人格說承認人工智能的部分法律人格,強調人工智能具有法律人格,應賦予法律主體的地位,享有權利并能夠承擔義務[3]。雖然其具有獨立自主的行為能力,有資格享有權利,但因其承擔能力的后果有限,其法律人格為有限的法律人格[16]。在有限法律人格下,應當對人工智能適用特殊的法律規(guī)制方式,可適用“刺破人工智能面紗”的歸責原則[17-18]。許中緣認為,人工智能應被賦予具有優(yōu)先性、技術性和替代性特點的工具性法律人格,這種賦予并不會對以人類為中心的現(xiàn)有法律主體制度產生動搖[19]。
盡管“主體說”理論內部對人工智能法律人格的討論仍未達成共識,但在其法律地位為“主體”這一方向上則保持了一致,下文對“主體說”的法理論證進行梳理,闡述該學說的立論依據:
1.科技快速發(fā)展為人工智能取得主體地位提供技術支撐
在“云計算”“大數據”等技術提供的支持下,按照現(xiàn)有技術的發(fā)展趨勢,人工智能的智能化水平勢必會產生實質性突破,發(fā)生質的變革,人工智能從“物”到“智慧人”的演進趨勢具有可預見性,賦予其法律主體地位可更好地應對未來人工智能高度發(fā)達的情形。
2.與人類特征進行對比,人工智能在內在要素上具備被賦予法律主體的條件
第一,理性條件。人工智能能夠基于程序設計規(guī)則,獨立自主完成所設定的任務,并且能夠實現(xiàn)結果的最優(yōu)化[20],這是人類因認知局限和時間有限所達不到并且希望達到的最好結果[21]。第二,人工智能具有將道德內化的可能。道德并非先天擁有,而是后天養(yǎng)成,因此,道德也并非自然人專屬,人工智能也可基于本身學習特性而習得[22]。第三,人工智能具有財產權,具有權利能力與責任能力基礎。首先,人工智能可基于代理人的身份獲得財產權;其次,通過類比法人制度,人工智能也具備享有相應權利、承擔相應義務的制度設計可能;最后,人工智能作為擁有意志的法律關系中的主體,能夠合理做出意思表示行為,進行“認知—學習—創(chuàng)造”過程。
3.“主體說”符合“以人為中心”的法律制度的構建
“以人為中心”的理念是構建人工智能法律體系的基本要求,目的是在不侵犯人類權利,維護人類生存安全的基礎上,解決人工智能在規(guī)制問題上的無所依從,這也是對現(xiàn)代民法的發(fā)展和民法內容的豐富。
“主體說”以人工智能發(fā)展的客觀情況作為切入點,從法律地位、法律人格演變和實證層面對人工智能的主體性要素進行證成,看似為實踐層面的法律責任承擔提供了解決方案,但是主體說的理論支撐依據仍然存疑,無法自圓其說,下文將對主體說的理論依據提出反思。
從20世紀50年代起,經過半個世紀的發(fā)展,人工智能技術依舊停留在弱人工智能發(fā)展階段,時至今日,研究者也無法對人工智能是否最終能成為“類人”做出判斷。面對未來的不可預期,周志華從3個層面對人工智能研究提出觀點:在研究方向上,人工智能的研究從來不是朝向強人工智能發(fā)展,且強人工智能的研究方向未知,人類沒有正確的研究方法;在研究技術上,既有技術的發(fā)展無法實現(xiàn)人工智能的“進化”;在研究原則上,應秉持不觸碰人工智能紅線的原則,即使強人工智能實現(xiàn)具有可能,也不應觸碰[23]。擁有“終極算法”的強人工智能難以出現(xiàn),即使出現(xiàn)也應是人類意志的延伸[24]。
法律是社會現(xiàn)實問題的解決規(guī)則,而不是對科幻場景下人類構想的預設,法律需要立足于對社會現(xiàn)實問題的回應,對人工智能權利訴求的滿足,這兩點都是當前社會現(xiàn)實和立法無法做到的。
首先,法律的回應以現(xiàn)實為對象。法律固有的滯后性和穩(wěn)定性決定了法律的構建從來都是以社會為基礎構建的[25]。給人工智能賦予主體地位必然會設定相關權利,袁曾試圖為其設定新型權利[17],需知人工智能權利的產生前提是人工智能要參與人類生活、與人類形成穩(wěn)定的社會關系。與任何初創(chuàng)期的新興技術相比,人工智能技術同樣需要建立在穩(wěn)定的人類社會關系之上,尤其要重視與人類的關系問題,對其所產生的的未知技術風險,如反制風險,要采取評估、預防等相應規(guī)制措施。在現(xiàn)今社會條件下,無論是人工智能自身的發(fā)展,還是人類自身對社會穩(wěn)定性的建構,都不具有將人工智能定義為“法律主體”的條件。
其次,人工智能需要有權利的訴求?!爸黧w說”認為人工智能享有權利,但權利設定后能否行使、如何行使訴求也不可忽視。權利行使的本質是意識的能動反映,是合理期望的意思表示,權利產生的目的在于作為或不作為的行使,無法行使訴求的權利是否有設定的必要,這一點值得懷疑。人工智能是否能夠主張權利尚未可知,盡管有學者將沙特阿拉伯給與“索菲亞”公民身份作為理論支撐,但此類帶宣傳性質的做法夸大了人工智能的客觀實際情況,當前未有任何證據證明“索菲亞”與人類等量齊觀,退一步說,具有公民身份的“索菲亞”面對損害依舊無法主張其權利,也無法對自己的公民身份做出與產品完全不同的認知。
目前,人工智能具有“主體”能力的時代并未到來,并且短期內也無法到來,法律更沒有主動賦予其主體地位、保障人工智能權利的現(xiàn)實必要。將人工智能賦予主體地位的做法顛倒了法律制定的基本原則,如果背離客觀事實而進行超前立法,不僅無法起到預先的規(guī)范目的,甚至會與本來目的“背道而馳”。人類與人工智能的關系,不管人工智能如何發(fā)展,永遠只能是主體與工具的關系,人工智能無論如何發(fā)展,都是工具。一旦發(fā)展到與人類搶占主體地位的時候,那可能就是人工智能來討論是否賦予人類法律人格的問題了,顯然這與人類發(fā)明和利用人工智能的初衷是嚴重背離的,也是十分恐怖的。
法律人格是法律主體的基礎,并與權利能力相對應,三者可做互相替換性解釋[26]。在現(xiàn)有“主客體二分法”下賦予人工智能法律主體地位,其實質是對人工智能是否具有法律人格進行探討,目前,我國基于法律規(guī)范和法學理論主要認可兩類主體,一類是自然人主體,另一類是法律擬制主體。故應對人工智能的法律人格的要素討論與自然人、法人的法律人格要素進行對比,尋求理論基礎與實踐需求上的合理證明[19]。
1.人工智能無法擁有自然人的法律人格
首先,人工智能是智能科技產物,不具備自然人的生理基礎,換言之,不具有生命。大腦是生命的核心,而人類的大腦因其大腦皮層的神經元數量遠高于其他生物[27],成為統(tǒng)治其他生物的智慧體,大腦是人類溝通、交流等認識世界、改造世界行為的源頭,是理性、自我意識產生的器官。根據“腦死亡”學說,人類大腦的死亡會被認為人的法律人格的喪失。正是于此,人類大腦是人類生命的核心。而無論是無形的人工智能程序,還是有形的人工智能實體,人工智能都是由無機體構成,其核心在于由“硅”組成芯片,相當于人類由“碳”組成的大腦的作用,于此,二者在構造上存在顯著不同,且人工智能無向人類構造進化的可能性。盡管人工智能的構造會使其具有計算能力上的明顯優(yōu)勢,也有預測認為未來可能出現(xiàn)的人工智能將擁有“大腦”,甚至可以與人腦的神經元數量相媲美,但其仍不是由“碳”基組成的生物體,是無機體組成物,人類尚不會將與人類構造類似的其他有機體動物作為法律主體,更何談無機體的人工智能。因此,人工智能缺乏生理因素。
其次,人工智能不具有理性和意志。理性和意志是人所獨有的,是專屬于人類的。從理性方面來說,理性不僅包括人感知事物以及規(guī)律的能力,也包括人認識道德要求并遵從道德行為的能力[28]??档绿岢?,人是理性的,其本身就是目的論斷[29]。黑格爾也認同“人因理性而具有目的”[30],可知人因理性而具有自我審視,自我反省的能力。羅素(Russell)等將人工智能定義為“行動理性”[21],混淆了人工智能中“智能”與法哲學中“理性”的概念。人工智能所謂的“理性”是基于“智能”而表現(xiàn)出遵照人類意愿,運用自身對已由人類所編寫的計算機規(guī)則的執(zhí)行,其本質為邏輯運算,不僅無法獲得與人同樣“天賦”的、“先驗”的理性,而且人工智能“理性”的目的也是為實現(xiàn)其他人的意愿、目的,換言之,以人類意愿為目的。另外,在當下,人工智能無法對自身進行反省,無法跳出人類設定的規(guī)則系統(tǒng)進行批判性的反思,即使人工智能擁有“深度學習”能力后,人工智能可以基于深度學習技術對自身的運算修正,但也無法擁有天然自身擁有的理性,這也是人類所賦予的“智能”能力的表現(xiàn)。
從意志方面來說,意志并非是單純的邏輯演算,意志本身包含欲望和行動兩個方面[31],即能夠把內在思想通過外在行為表達出來。欲望不是簡單的邏輯推算,人類是在欲望下進行倫理價值判斷,正是因為人擁有意志能力,存在欲望,人類才將腦中的幻想變成了現(xiàn)實,通過不斷改造自然以適應自我生存。人工智能“無欲無求”,沒有情感的束縛,無法理解人類所面臨像“電車難題”時難以決定的價值衡量過程,不知生命的意義為何,其只是在人類的觸發(fā)或者人類觸發(fā)程序的設定下,依據算法中得出的概率的大小做出選擇,并始終無法脫離人類的意志而獨立存在,這與人類意志顯然不同。
此外,Hubbard主張將理性和意志作為具有法律人格的必要不充分條件,以缺乏二者為由否定人工智能的主體地位,可能存在“物種歧視”[32]。其實并非如此,在人類社會中理性和意志缺失的特殊人群,如植物人依舊存在恢復的可能性,對特殊人群的保護是人類理性的體現(xiàn),彰顯人類文明的價值取向。
最后,人工智能無法承擔責任。現(xiàn)有責任制度下,人工智能不具備自然人的責任能力。賦予主體地位只能在形式上解決責任的承擔問題——由人工智能的財產承擔,但人工智能如何擁有財產,如何控制財產,法律制度上留下了大量缺口需要填補,而且為應當承擔者留下了規(guī)避法律責任的空間?!坝邢奕烁裾摗闭J為人工智能承擔的責任有限[3],并且許中緣認為可以同時建立相關保險、信托基金制度[19],這正好表明了賦予人工智能主體地位的不必要性,也無法通過“奧克姆剃刀原則”的檢驗。
2.人工智能無法類比法人擬制獲得法律人格
團體法律人格是法學學者運用法的技術手段,使得人與人格相分離后的產物,賦予當時已經大量存在的具有獨立地位和價值的團體法律主體地位[33],目的是為解決法律關系中的權利義務分配。尤瓦爾·赫拉利認為,法律既然能認可公司這類實體,稱為法人并賦予主體地位,也可以同樣認可人工智能的法律人格,使之成為法律關系中的主體[34]。孫占利認為,可以等到強人工智能時代,賦予人工智能擬制的法律人格[35]。法律主體地位可以通過法律授予的方式獲得,但法人因何獲得主體地位,其法律人格要素究竟為何,背后存在怎樣的制度考量,人工智能能否滿足擬制條件,這一系列問題值得思考。
法人人格是法律擬制的法律人格,團體被法律擬制為法人并非一蹴而就,而是經歷了漫長的發(fā)展過程。與自然人的法律人格不同,法人非倫理主體,團體組織最終獲得法律人格,被賦予主體地位,需要實體性要素、價值性要素和法技術性要素的同時滿足[36]。而人工智能無法適應其中的實質性要素、價值性要素,從而使其無法獲得類法人法律人格。
法人人格的實體性要素即存在被賦予法律地位的團體——形式實體要素,且該實體需要同時滿足具有獨立的意志和財產條件——實質實體要素。而人工智能的存在形式無論是有形還是無形,均不是以團體或組織的形式展現(xiàn),不具備客觀的形式實體要素。在意志和財產問題上,法人財產由法人獨立控制,無論來源為何,是成員出資、他人贈與還是國家撥付,最終還是由團體所有,而不是其中某個或集體成員共同所有;擬制主體法人的意志源自團體成員的共同意志,并與之相獨立。由此可見,意志同樣也存在于法人之中,而正是以團體成員中自然人的存在為基礎,才有賦予團體被擬制為法律主體的正當性。人工智能無法對財產擁有所有權,且無法從財產中獲益,至多只享有類似占有、處理的權能,意志也如上文所說無法擁有,也難以如法人一般,體現(xiàn)其背后自然人的意志。
法人人格的價值性要素即存在滿足社會經濟發(fā)展需要的價值選擇,獲得法律上的肯定。迪特爾·梅迪庫斯認為價值性要素是基于推動交易和有助于責任限制兩方面的考量結果[37]。賦予人工智能主體地位,以其獨立財產承擔責任,降低了制造者、設計者、所有者的風險,促進人工智能的研究發(fā)展,有助于為市場提供更高質量的供給,從這一角度看來,交易價值是值得肯定的。但在責任限制方面,法人具有獨立財產,只有當控制者濫用實際控制地位時才能對法人人格進行否認,即“刺破公司面紗”,突破責任承擔的一般規(guī)定,法人人格否認制度的確立,旨在維護交易穩(wěn)定和實質公平之間尋求最佳平衡,也有助于推動交易進行;袁曾提出人工智能可以參照法人,構建“刺破人工智能面紗”制度[3],但人工智能與以群體為常態(tài)的法人股東制度不同,其身后是以個體為常態(tài)的實際控制人,如果適用法人責任限制的特殊規(guī)則,反而會規(guī)避人工智能自身所應承擔的責任,就算人工智能作出行為可理解成是基于多人的共同意愿,仍應將他們視為共同體,是共同意思表示作出的決定,其常態(tài)即與法人“刺破”的特殊條件近似,這也極有可能造成將例外規(guī)則作為原則規(guī)定而引起責任分配不當的后果,因此,人工智能參照法人構建“刺破人工智能面紗”制度設計欠妥。從另一視角來看,這是否也為人工智能實際屬于人類所控制的物提供了強有力的佐證?又例如在自動駕駛情景下,自動駕駛保有人對人工智能汽車的駕駛行為完全不具有控制能力時,“刺破”條件如何設定,責任如何劃分?這些疑問僅僅依靠類法人法律人格說尚不能得到很好解答,將其界定為擬制主體也存在立法技術所解決不了的問題。
綜上,人工智能雖在客觀上滿足法技術型要素的要求,但在實質性要素和價值性要素上皆無法充分適應,因此無法通過法人的擬制主體理論而成為擬制主體。
傳統(tǒng)的法學研究是以“主客體二分法”作為研究的理論基礎,二分法的核心在于以人為目的,人具有與物截然相反的最高地位,人以外的一切皆以人的需求為導向而設立,“人類中心主義”原則成為人類法律制度建立遵循的最核心原則,法律人格也是基于此發(fā)生著歷史演變。
因法律主體具有法律性與社會性的特征[38],因此在不同的社會、不同的歷史時期,法律主體的種類并非完全相同。古羅馬將同時享有自由權、市民權、家族權的個體認定為完整的法律主體,除此之外的其他人具有不完全的法律主體地位或者不具有法律地位[33]。隨著民法不斷發(fā)展,文藝復興、思想啟蒙等運動推進,“人文主義”傳播中“人人平等”“天賦人權”等思想使得“人類中心主義”的原則得以確立,對人類社會和法律制度產生了巨大影響。自然人法律主體地位在1900年《德國民法典》中得到確立,在近代獲得普遍認可,通過法律,自然人被給予了第二次生命[39]。而隨著商品經濟的持續(xù)發(fā)展,從形式上看,法律主體開始向人以外的法人、非法人組織、國家乃至動物進行擴展[40],表明法律主體的范圍是隨著經濟發(fā)展和社會文明的程度而不斷變化的,星野英一對于私法上法律主體的概念也認為適用于人以外的“非人”,并能夠得到認可[26]。而人格擴展的實質,并非只有包含實用主義內核的形式上的革新,也應遵循“人類中心主義”原則對人的重視,擬制主體人格擴展的背后依然存在人的管理、控制,離不開人的意志?!半p罰制”“法律人格否認制度”皆體現(xiàn)了“人類中心主義”的價值考量。
有主體說學者對“人類中心主義”存在理解上的偏差,認為賦予人工智能主體地位可以以建立監(jiān)管機構的方式更好實現(xiàn)“人類中心主義”原則,來促進人工智能發(fā)展(2)“有限人格說”學者提出的“以人為本”價值的本質同樣是“人類中心主義”。[3,19]。人類是自然社會的統(tǒng)治者,將與人類具有完全不同的內在和外在屬性的,且可能完全超過人類能力的人工智能在人類社會予以提升地位,本質上就是“反人類中心主義”的體現(xiàn)?!坝邢奕烁裾f”將人工智能提升到主體地位,卻依然承認其具有工具性,稱為“工具性”人格,以監(jiān)管、倫理規(guī)則制定來約束人工智能,實現(xiàn)人本主義的價值追求,這種為“自圓其說”而倒果為因的循環(huán)論證,缺乏理論依據?!坝邢奕烁裾f”承認人工智能的工具性,正恰恰說明人工智能具有法律關系中的客體屬性,賦予人工智能主體地位,未能基于這一客觀事實,只是對人工智能的主體法律人格進行限制,以實現(xiàn)所稱之“以人為本”。法律應對人工智能發(fā)展最好的態(tài)度是保持其謙抑性,在現(xiàn)有“主客體二分法”制度體系下,將“人類中心主義”作為法律應對人工智能風險的出發(fā)點,仍將人工智能作為客體予以對待,才是實現(xiàn)“人類中心主義”的真正途徑。
面對人工智能快速發(fā)展的現(xiàn)實,域外法學界對人工智能法律地位的研究已經從理論層面向實踐立法層面過渡。2016年,歐盟率先對人工智能法律地位問題展開立法研究,歐盟議會法律事務委員會提交的歐盟“建議稿”中提出了“電子人”的表述[41],并在2017年的最終決議,即《機器人民事規(guī)范》中予以確認[42]。俄羅斯也緊隨其后,于同年提出了專家建議稿性質的草案——《在完善機器人領域關系法律調整部分修改俄羅斯聯(lián)邦民法典的聯(lián)邦法律》(下文簡稱“格里申法案”)[9]——提出了對人工智能分情況套用對動物和法人的調整規(guī)則的立法設想。作為主體說學者依據的兩部法律草案,都基于不同理念賦予人工智能主體地位。但現(xiàn)階段人工智能所引發(fā)的責任歸責仍存在問題,并未得到妥善解決,甚至成為逃避法律責任的借口[43],遂嘗試對兩部草案以及歐盟正式文件《機器人民事規(guī)范》進行研究,希望從域外方面獲得裨益。
歐盟對于人工智能“電子人”的表述,存在于“建議稿”中的第31段之F項和之后的《機器人民事規(guī)范》的第59段F項,這也成為主張“電子人人格說”學者的主要依據[2]。通過對比兩個條文可以發(fā)現(xiàn),最終決議確定“電子人”法律地位應賦予至少最復雜的自動性機器人,對“建議稿”予以認可,二者在人工智能適用“電子人”的上限標準問題上達成一致意見,并用“最復雜”“自動性”等詞組作出限定。而在正式文稿中,在F段開頭增加了“從長遠來看”的表述,并且刪除了建議稿中對人工智能“有特殊權利、承擔特殊義務”的法律定位,改變?yōu)椤坝胸熑巍睆浹a損害。
“格里申法案”在人工智能的法律地位上,采用了類型化區(qū)分的觀點,將“無人類完全控制”、具有獨立“感知—獲取—行動—評估”定義為高度自主性和智能性,法律主體地位僅賦予具有此種特性,可以作為“人類代理人”的人工智能,而其他不具有該特性的人工智能則通過修改俄聯(lián)邦法律部分條文,采取法律客體的方式予以規(guī)制。
可以看出,歐盟與俄羅斯在面對人工智能法律地位的賦予問題上還是持審慎態(tài)度,兩個文件最終都落腳到責任承擔問題上,可知責任承擔才是法律應該努力的方向,賦予其主體地位并非解決責任承擔問題的明智之選。歐盟基于法安定性的考量,將“電子人”適用于未來情況,而“格里申法案”也同樣未將主體地位適用于當下的人工智能,均有應對未來發(fā)展的前瞻性考慮。
在賦予的必要性問題上,人類最初對人工智能主體地位的關注源自人類對未來不可知的憧憬和對科幻作品的幻想,而法律的規(guī)制是對已發(fā)生的歷史的尊重,是在已有條文、制度的基礎上,對新興科學技術進行規(guī)范,而不是對未來面臨的不確定因素的盲目預測,僅僅為簡化操作考慮,而賦予人工智能主體地位的立法缺乏必要性和可行性方面的論證支撐。同時,“電子人”法律人格和人工智能主體地位的確立,會損害“人類中心主義”原則,造成難以估量的后果,將自然人獨有的主體地位以及權利、義務關系與不可預測、難以預測的人工智能共享,極有可能造成人類制度的崩塌,甚至最終導致人類社會滅亡,這與人類的設計初衷南轅北轍。最后,“格里申法案”對于人工智能的保護采取了類似羅馬法上的特有產制度,而在特有產制度下的家子是不具有獨立的人格地位的,這實質也是自相矛盾的自說自話,亦是對客體地位的間接肯定。
在責任承擔方面,《機器人民事規(guī)范》第56段和“格里申法案”在責任承擔問題上均認為當下的人工智能侵權責任應當由人類承擔,二者的理解基本一致,但仍未對現(xiàn)有情況下人工智能責任的合理分配提出具體解決方式。在具有自主性、智能性的人工智能責任承擔的具體法律制度構建上,《機器人民事規(guī)范》提出可以通過強制保險、基金補充的方式補償損失;“格里申法案”更為深入,已經進入法律技術性構建和理念向條文轉化的階段[9],明確規(guī)定,人工智能作為財產時發(fā)生的高度危險致?lián)p的情況,產生的責任由作為所有權人、占有人或技術人員的人類承擔??梢?,無論人工智能如何承擔責任,最終的責任都會由自然人承擔[44],這也從法律效果上肯定了人工智能客體地位。
法學領域對人工智能法律地位的討論,最終目的是為解決社會科學技術快速發(fā)展的新興產物——人工智能的規(guī)制問題。將人工智能作為主體予以對待,是人類打破常規(guī)方式、難以自圓其說的做法,會造成社會發(fā)展動蕩不安、法律制度無法準確調整的困境。以現(xiàn)有制度為基礎,將人工智能依舊定位為法律地位中的客體,才能切實實現(xiàn)人工智能運用與規(guī)制的雙重目標,申言之,具有促進人工智能良性發(fā)展和保障人類現(xiàn)有法律制度充分運行的合理性。
1.客體定位能促進人工智能良性發(fā)展
在未來可能由人工智能研發(fā)、生產、創(chuàng)造人工智能,從而提升工具的利用方式、手段、程度,將目前一部分必須要人類才能完成的工作自行獨立完成,但人工智能無論處于何種發(fā)展階段,人工智能最初的行為必須由人類來觸發(fā),后續(xù)的觸發(fā)可以無需人類的觸發(fā)行為而由人工智能運行,人類是設定人工智能行為目的之“開啟者”,是以實現(xiàn)人工智能為人類服務的需求,這是人類創(chuàng)造人工智能的目的,也是人工智能發(fā)展過程中無法改變的客觀事實。人工智能是人類改造世界而創(chuàng)造的智能工具,雖因其“智能”而特殊,但人的目的決定了人工智能的行為方式,這與法律客體的定位能夠充分契合,一切以人的目的為導向,一切以人類為中心。阿西莫夫在《I,Robot》中提出的“機器人三原則”(3)阿西莫夫,美國科幻小說家。在他的短篇小說《我,機器人》里提出了“機器人三原則”。第1條:機器人不得傷害人類或看到人類受到傷害而袖手旁觀;第2條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾;第3條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。,處處體現(xiàn)了“人類中心主義”的色彩;美國舉行的阿西洛馬會議提出的規(guī)制人工智能及其人工智能研發(fā)的23條原則[45],作為研究人員的道德準則價值標準,同樣要求創(chuàng)造的人工智能必須符合人類多樣性的價值追求,滿足人類的需要。科學技術在人類社會只是手段,人的全面發(fā)展才是目的[46]。維護好千百年來逐漸形成的人類社會的穩(wěn)定發(fā)展,才是法律最初產生的目的。將人工智能最終定義為法律客體地位,消除了人類對其“反人類”前景的擔憂,更好地發(fā)揮了其智能工具價值。
2.客體定位能保障人類現(xiàn)有法律制度充分運行
法律是人類社會規(guī)范體系中至關重要的一部分,具有定分止爭的作用,與道德規(guī)范、職業(yè)規(guī)范等共同調整人類社會的正常運行。穩(wěn)定、可預期是法律制度存續(xù)、社會制度正常運轉的前提保證。盡管人工智能在外形上表現(xiàn)多樣,如智能機器人、智能汽車、智能程序等,未來可能還會有新形式的人工智能出現(xiàn),但其內在的實質仍然是人類社會發(fā)展的工具,屬于法律關系中的客體。不可否認的是,人工智能在現(xiàn)今社會發(fā)展中已成為不可取代的一部分,我們可以在關注其“智能”性的基礎上調整法律的適用規(guī)則,使之適應人工智能產生的相關法律問題。這一點,域外文本給了我們很多啟示,在我國國務院于2017年7月發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中,“明確人工智能法律主體以及與之相關的權利義務關系和責任的承擔”成為其中重要內容之一。在此要求之下,人工智能法律地位的研究應當在“主客體二分法”下進行討論,以維護人類發(fā)展的穩(wěn)定和滿足人工智能為人類服務的目的。賦予人工智能法律主體地位錯誤理解了其“智能”性的特點,人為地將其歸入主體進行制度設計不僅不能實質上解決責任承擔問題,而且會導致人類法律制度的顛覆。
在“主客體二分法”的理論之下,人工智能的本質是人類的工具,賦予法律主體地位不僅未對客觀事實予以尊重,也缺乏法理依據的支撐。雖然對人工智能是否存在主體性,是否賦予法律主體地位是人類對人工智能發(fā)展前瞻性的思考,旨在發(fā)展風險的防范,但是法律具有謙抑性,是保守的,超越社會的法律是沒有意義的,只能被束之高閣,不能以此來指導實踐。我們應從當下的現(xiàn)實作為法律運行的出發(fā)點和落腳點,并兼顧人工智能發(fā)展中人類行為的規(guī)制,對人與人工智能的法律關系深入研究。無論人工智能本體的創(chuàng)造還是人工智能自身所謂的“創(chuàng)造”,其目的仍以人類為中心,服務于人類以及人類社會,朝著有利于人類的方向發(fā)展,不應脫離現(xiàn)有法律關系中客體的地位。