摘 要:人工智能時代下,以智能機器為代表的人工智能實體在與人的交互中產生了一系列法律問題,凸顯技術高速發(fā)展所帶來的法律規(guī)制空白。人工智能實體具備的智能水平已足以與人類智能比肩,是一種事實上具備理性的機器?,F(xiàn)代法律主體是理性法律主體,具備理性的實體可以成為法律主體。然而理性僅僅提供了人工智能實體成為法律主體的可能性。從法律主體的社會基礎出發(fā),人工智能實體并不具備成為法律主體的現(xiàn)實性。
關鍵詞:人工智能;人工智能實體;法律主體;理性
從AlphaGo到AlphaGo Zero,人工智能技術迅猛發(fā)展的勢頭與人機關系的緊密性、復雜化,“如何規(guī)制人工智能、保證其朝向有利于人類利益方向發(fā)展”成為了域內外立法討論的核心問題。2017年國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中亦提及“要建立保障人工智能健康發(fā)展的法律法規(guī),開展與人工智能應用相關的法律問題研究,明確人工智能法律主體以及相關權利、義務和責任等,為新技術的快速應用奠定法律基礎”。毫無疑問,亟待法律規(guī)制的是作為技術載體的人工智能實體,如智能機器。而推進人工智能法律研究,首先需要明確人工智能的法律地位。面對在某些方面已經超過人類“智力水平”的、具有深度強化學習能力的人工智能實體,討論“人工智能是否可以成為適格的法律主體”已不再是無稽之談。要從法理層面證成人工智能實體作為法律主體的可能性,必須要回溯到成為“法律上的人”需要具備何種條件的問題上來。
一、人工智能的內涵
伴隨著大數(shù)據(jù)、云計算、深度強化學習等技術的發(fā)展,人工智能的內涵也逐漸豐富起來。根據(jù)人工智能的“智能水平”,我們將人工智能劃分為弱人工智能,強人工智能。弱人工智能是指專門應用于某一特定領域的人工智能,這類“智能”不能超出其預先規(guī)定的操作規(guī)程為“行為”,它突出的仍是工具屬性;強人工智能,又可以稱為通用人工智能,目的在于全面實現(xiàn)智能。它可以執(zhí)行人類所能完成的一切智力任務,解決不同領域的復雜問題,還可以支配自己的思想、情感、煩惱,優(yōu)勢、弱點和傾向等。[1]如此,在強人工智能范疇下討論人工智能實體的法律地位更具意義,因為并非任何附有“人工智能”標簽的實體都具有主體性的討論價值。
人工智能是相對人類智能而言的,它起源于人類對自身行為的模擬,對身體極限的挑戰(zhàn),對自我結構的追求。[2]其內部依對人類智能的抽象程度,劃分出不同的研究路徑,因此,對人工智能做出精準而全面的定義是困難的。
起初,人工智能的概念是由約翰?麥卡錫在1956年的達特矛斯學會上提出的,他認為:“人工智能就是要讓機器的行為看起來就像是人所表現(xiàn)出的智能行為一樣”。美國麻省理工學院的溫斯頓教授則認為,“人工智能就是研究如何讓計算機去做過去只有人才能完成的智能工作”。[3]美國斯坦福大學人工智能研究中心的尼爾遜教授將它界定為:“人工智能是關于知識的學科——怎樣表示知識以及怎樣獲得知識并使用知識的科學”。[4]以色列刑法學家Gabriel將人工智能定義為:能夠借助計算機或其他設備(集成在家用設備、機器人、自動駕駛汽車等中的住宅管理系統(tǒng))來模擬人的思維方式的軟件系統(tǒng)。[5]還有學者認為人工智能旨在實現(xiàn)與人類智能相似的智能表現(xiàn),它一方面有賴于通過算法程序、技術方法來模擬人類;另一方面,必須借助機器裝備、系統(tǒng)等載體之上,以表現(xiàn)智能。[6]《國際人工智能詞典》則將人工智能定義為一個涉及迅速發(fā)展的技術并允許計算機以智能的方式行動的系統(tǒng),比如人類。[7]雖然,對人工智能的定義呈現(xiàn)出一定的個殊性,但都圍繞著兩個關鍵詞:(人類)智能、載體。差異源于對智能的理解角度不同。機器所要達成的智能,或是在特定情形下做出人一樣的行為,或是具備人一般的解決問題的能力,或是仿照人腦的思維結構來運行等等??偟膩碚f,人工智能的目標是“讓計算機像人腦那樣工作”,以電子或機械裝置為載體,能夠實現(xiàn)智能表現(xiàn)行為的一項技術。它所旨在達成的“智能表現(xiàn)”是一種類人類的自主學習,并能夠通過“語言”、行為表達的能力。
二、人工智能可以成為法律主體
對人工智能的法律定性,學界一直存在不同的聲音。持有“人工智能屬客體范疇”觀點的學者認為,人工智能只是一項強化、延伸人類智能的技術手段,其實質上仍舊是人類認識世界、改造世界的工具。若人們未對人工智能做出事先的程序安排、數(shù)據(jù)資料的輸入,人工智能是不可能自主獲得知識數(shù)據(jù),并進行目的性活動的。人工的智能脫離人類智能的安排和配合將寸步難行,人類的應用才能使人工智能發(fā)揮實質功用和效果。因此,人工智能的法律性質應當是受人支配、使用的“物”。將人工智能視為“物”,確實極大減輕了對整個法律體制的沖擊。但現(xiàn)實是單純地依靠現(xiàn)有的法律體制,已不足以解決人工智能帶來的法律問題。實踐中,技術的更新進步超越了人們的預想,以智能機器為代表的人工智能實體已經具備自主學習,思考積累經驗,脫離設計者、生產者、使用者而自主作出判斷和決策行為的能力。而回歸到成為法律主體應具備的條件來看,人工智能實體之智能表現(xiàn)契合于“法律上的人”的理性要件,人工智能成為法律主體具備事實上的可能性。
(一)人工智能“主體”的官方實例
域內外雖未對人工智能是主體抑或客體進行系統(tǒng)規(guī)定,但部分國家、政府組織在具體實例和立法倡議方面,已將人工智能視為一定意義上的“人”。
(1)契合于阿西莫夫提出的“機器人三大原則”,韓國政府起草了《機器人倫理憲章》,規(guī)定機器人用戶和制造商應遵循的‘保護機器人的道德準則。該機器人道德憲章的要點包括:確保人類對機器人的控制、保護機器人獲得的數(shù)據(jù)、禁止違法使用、虐待機器人等。
(2)2016年針對谷歌公司提出的“要求美國國家公路交通安全管理局解釋美國聯(lián)邦機動車安全標準是否適用于自動駕駛汽車”的申請,該管理局(NHTSA)在給谷歌公司的回函中表示,根據(jù)美國聯(lián)邦法律,谷歌公司研發(fā)的自動駕駛系統(tǒng)可以視為“駕駛員”。[8]
(3)2017年2月歐洲議會通過歐盟委員會法律事務委員會提交的《關于機器人民事法律規(guī)則立法建議》動議。議會擬定草案,建議為最復雜的自動機器人設定“電子人”的特殊法律地位,并賦予其特殊的權利義務。同時設立高級機器人登記制度,明確機器人的數(shù)量和相應責任。
雖然實踐中的這種將人工智能定性為“人”的舉措多是少數(shù)國家、組織原則性的立法倡議或官方回應,但通過這些基于人工智能發(fā)展的新考量,可以確定的是人工智能技術已發(fā)展到了若不“尊重人工智能權利,就不能使人類自身的利益獲得切實保障”的智能化階段。因此,從法律層面上討論人工智能的主體資格具有現(xiàn)實意義。
(二)法律主體的判斷標準-----理性
人工智能的研究路徑從很大程度上來說就是創(chuàng)制類人的活動主體,這些借助一定物質載體的‘活動主體可能僅具備人類某方面智能,也可能具備一般人全部智能,而且現(xiàn)今的人工智能,尤其是通用人工智能(AGI)越來越朝向具備全部人的智能這一方向發(fā)展。顯然,我們不能堂而皇之地基于人工智能的官方實例而直接將人工智能實體定性為法律主體。實例中體現(xiàn)的人工智能主體性,只能作為從理論上闡釋人工智能法律主體資格的助推器。成為法律中的“人”是歷史的、有條件的。法律是從現(xiàn)實的、普遍的人類中抽象出一般人所共有的特質,從而使生活中的現(xiàn)實人具有了為法律所設定、所規(guī)制的“法律上的人”這一形象。[9]厘清人之為‘人的本質屬性,是確定法律主體判斷標準的關鍵。
(1)從人(Mensch)到‘人(Person)
德國學者拉倫茨曾指出:“對我們整個法律制度來說,倫理學上的人的概念須臾不可或缺。這一概念的內涵是:人依其本質屬性,有能力在給定的各種可能性的范圍內,自主地和負責任地決定他的存在和關系,為自己設定目標,并對自己的行為加以限制?!盵10]法律中的人與現(xiàn)實中的人有著較大的區(qū)別。法律上的人不必通過擬制與人等同,或者根本不必通過人的生活加以填補, 也不必被提煉成為一個較多的組織的生命單元,相反,經驗中的人必須致力于約束、抑制其感情與情感, 以成為道德與法律上的人。[11]也就是說,“法律上的人”是經由法律形式化處理,滌除各種自然的本質和情感等非理性因素的人,是一個理性人。這一建構“統(tǒng)一了人的行為模式與特性,不僅使法律政策的控制變得容易,而且使每個人的行為具有可預測性”。[12] “法律上的人”作為理性人剝離了現(xiàn)實中的人的血肉和感性,成為了一個抽象、客觀的存在?,F(xiàn)代法律主體是理性法律主體,這已成為法學界的通識。[13]
(2)“法律上的人”的本質是理性
從笛卡爾的‘我思故我在開始,‘人作為能動地思想主體,確立了其理性主體的地位。人之為‘人的本質屬性即為理性,那么理性究竟是‘人的何種能力?康德哲學將人之理性區(qū)分為理論理性和實踐理性兩大功能。
理論理性體現(xiàn)了人之為‘人所具備的自我意識。在康德的“哥白尼式革命”主體能動性思想中,他將人的認識能力劃分為感性、知性和理性。感性是直接感知事物并建立對經驗對象感覺的能力;知性是運用概念整理感性知識,建立科學知識的思維能力;理性則是把知性知識統(tǒng)一起來,追求“理念”的推理能力。[14]其中理性是體現(xiàn)人之主觀能動性的重要階段,區(qū)分于知性單向性的接受感性知識,它是一種在規(guī)范感性材料基礎上,反思、分析,經過主體能動地“改造”,進而形成知識的能力。
實踐理性事實上就是人作為主體能自我決定。主體的實踐行為是預先設定目的的,目的的設定是根據(jù)他自己的意志、或是任意、或是自由的,提出一個目的,實現(xiàn)這個目的的結果也就是自由的結果。[15]康德認為人作為一個有理性的東西,它不單純是意志的工具。獸類靠本能來支配活動,人類則靠理性來主宰自己的行為。人作為理性者存在,作為自在的道德主體,本身就是目的,具有絕對價值。因為人擁有理性特質,所以在任何時候,人都應當是受到尊重的對象,不應把自己和他人僅僅當作工具,“一切目的的主體都是人”。[16]理性人基于其自身就是行為目的而是自由的,因而基于自由意志進行自我行為、作出決定;而出于每個人都以‘人作為目的,所有人都必須尊重自己和他人。在這一層面上,理性呈現(xiàn)為一種客觀條件,即尊重人本身、遵守‘人為一切目的、‘像對待自己一樣對待人的規(guī)則。理性是對人之自由意志的內在約束。
因此,依據(jù)康德哲學對理性的闡釋,理性指的是“人類認識和感知世界的事物及其規(guī)律性的能力”,“也包括人類識別道德要求處事行為的能力”。[17]簡單來說,理性就是成為主體應當具備的‘自主、‘自律能力。‘自主意味著為某種目的性與外界交互中,發(fā)揮主觀能動性獲取知識性認識的能力;‘自律意味著能夠約束、限制自己行為,在以‘人為一切目的的范圍內作出行為選擇的能力。
(三)人工智能具備成為法律主體的可能性
人工智能實體具備一定條件才能成為享有權利履行義務的法律主體。而這種條件也即是上文所闡述的理性能力。具備這種理性能力就意味著,人工智能要具有能夠自由自主地認識世界,能夠規(guī)范其與外界交互過程中獲得的經驗,并能動‘改造形成知識的能力。同時,人工智能還應當能夠在理性的普遍性要求下,進行有指向性的、以現(xiàn)實中的人為目的活動。
現(xiàn)實中,人工智能實體的智能等同于“法律上的人”的理性能力。
(1)AlphaGo Zero的深度強化學習能力
深度強化學習結合了深度神經網絡和強化學習的優(yōu)勢,可以用于解決智能體在復雜高維狀態(tài)空間中的感知解決問題。[18]深度強化學習的巨大潛能,從圍棋人工智能AlphaGo Zero擊敗AlphaGo的事例中就能看出。AlphaGo是使用人類專家棋譜基于監(jiān)督學習的核心算法進行訓練。AlphaGo Zero則不需要人類輸入專業(yè)知識,只單純使用深度強化學習技術和蒙特卡羅樹搜索,僅用3天自我對弈就以100比0擊敗上一版本的AlphaGo。深度學習和強化學習的發(fā)展使得直接從原始的數(shù)據(jù)中提取高水平特征進行感知決策變成可能。[19]深度學習源于對人工神經網絡的研究,因此深度學習研究多集中在語音識別、圖像識別等極具表征性的領域。機器具備深度學習能力,意味著其具備一定的感知功能,能夠通過自主學習產生數(shù)據(jù)并逐步提升性能。強化學習是以試錯的機制與環(huán)境進行交互,通過最大化累積獎賞來學習最優(yōu)策略,具有較強的決策能力。[20] AlphaGo Zero將深度學習和強化學習二者結合起來,通過深度學習,AlphaGo Zero成為了一個具有‘自主性的實體,能夠在與對象交互中獲得經驗性的認識;并通過強化學習中的試錯機制,對獲得的經驗性認識進行分析、判斷,作出最優(yōu)決策。
(2)非公理性推理系統(tǒng)
美國天普大學王培教授設計發(fā)明的非公理推理系統(tǒng)(簡稱NARS系統(tǒng))已經被人工智能界視為廣義上的“通用人工智能”運動的代表性項目之一。[21]整個系統(tǒng)之所以是非公理的,是因為,系統(tǒng)的設計者在預設系統(tǒng)每一層次的推理規(guī)則之后,既不會將整個系統(tǒng)的知識庫予以固定,也不會賦予知識庫中某一命題以公理的形式。[22]它以人的理性原則為指導,在知識和資源相對不足的假設下,能夠自主與外界交流過程中形成知識、做出決策,并能夠實現(xiàn)自我控制和自我規(guī)劃。[23]Nars系統(tǒng)事實上已經是一個‘自主,‘自律的實體。該系統(tǒng)運用真值函數(shù)來“主動”分析、獲取知識。對于一個給定的陳述,如果正面和總計(即正負數(shù))證據(jù)的數(shù)量分別謝偉w+和w,那么語句的真值就表示為[0,1]中的一對實數(shù),<頻率f,可信度c>,其中頻率=w+/w,可信度c=w/(w+1)。[24]Nars系統(tǒng)通過這樣的真值函數(shù)判斷、描述對象,并基于對象出現(xiàn)的頻率來獲得對事物具可信度的經驗性認識。而且Nars系統(tǒng)可以使用決策程序自主創(chuàng)建新的目標,并賦予這些目標事件一定的期望值,加以處理和控制,事件的操作也會與這些因素相關。[25]
不論是應用于特定領域的AlphaGo Zero,抑或是已具有廣義上通用人工智能特質的Nars系統(tǒng),人工智能實體所表現(xiàn)出來的智能水平已不再是依賴人類輔助、引導的機械性智能階段,而轉向為‘自主、‘自律的理性機器。人工智能之‘智能就是理性,是“從一般人中抽象出來的”成為“法律中的人”的本質屬性。人工智能實體確具有成為法律主體的可能性。
三、未竟之事:人工智能尚不具備成為法律主體的現(xiàn)實性
(一)人工智能納入法律主體范疇的目的
就人工智能體現(xiàn)的智慧能力,其在事實上已經具備法律主體資格的條件。但需要明確的是,非人類實體的加盟,歸根究底還是為人而存在的。將人工智能列入法律主體,表面上是為了保護它們的利益,實質上是為了實現(xiàn)對人之利益的保障。譬如在著作權領域,國內外已存在對人工智能撰寫的文字作品署名,即標注該人工智能的名稱或注明作品是由人工智能完成的。理論上很多學者都對人工智能的創(chuàng)作物采取保守態(tài)度,認為該著作權應歸屬于機器的使用者、制造者。但試問,如此又如何保障那些真正發(fā)揮個人獨創(chuàng)性完成作品的人的權益呢?因此,雖然當下人工智能體現(xiàn)的仍舊是一種工具性的使用,但“一切目的均因人而設”,基于人的發(fā)展需要和利益保護,賦予人工智能主體地位,使之更好地實現(xiàn)服務于人的工具價值。
(二)人工智能缺乏成為主體的現(xiàn)實基礎
從非人類實體被法律接受為法律主體來看,主體“非人可人”的趨勢逐漸增強,在主體制度上確實存在容納具備理性的人工智能實體的空間。
但就像馬克思所指出的那樣:“社會不是以法律為基礎,那是法學家的幻想。相反,法律應該以社會為基礎?!狈芍黧w雖然是作為一種抽象法律概念而存在,但其背后有著深厚的社會歷史因素。什么樣的實體享有法律主體資格,不是由立法者依據(jù)該實體的“權利能力”、“法律人格”任意型構出來的,而是基于當時社會的整體價值訴求、物質生活條件所抽象或虛擬的,并通過立法者的意志表現(xiàn)出來的。以被《民法總則》規(guī)定為自然人、法人之外的第三類民事主體非法人組織為例,一個實體成為法律主體不僅需要具備法律上的可能性,更重要的是現(xiàn)實中人的接受(社會認可)和立法者的確認。
《民法總則》在規(guī)定自然人、法人之后以專章規(guī)定非法人組織,從法典上確認非法人組織是與自然人、法人并列的另一類民事主體,不僅使民事法律的規(guī)定相互協(xié)調,順應了社會需求,也代表了現(xiàn)代民法主體制度的發(fā)展方向,是我國民事立法和民法理論發(fā)展的新成果。[26]事實上,從非法人組織在經濟社會中出現(xiàn)到最終立法上主體地位的確定,經歷了一個相當曲折的過程。非法人組織是《民法總則》新提出的一個概念,其前身即為‘其他組織。初始,《民法通則》并未規(guī)定其他組織的概念,其他組織僅作為民事訴訟主體存在,直到1999年通過的《合同法》才將它明確規(guī)定為合同主體。至此,其他組織才從訴訟法進入到實體法中,具有了合同法中民事主體的身份。
《民法總則》規(guī)定非法人組織具有獨立的民事主體地位也是對現(xiàn)實社會需要的適時反饋。獨資企業(yè)、合伙企業(yè)、不具有法人資格的專業(yè)服務機構等非法人組織在社會中存在的普遍性、對社會經濟整體發(fā)展的積極貢獻,是將非法人組織納入法律主體范疇的最深層次原因。立法者順應市場經濟發(fā)展對多元市場主體參與的需求,肯定非法人組織在我國的存在價值,從法律上明確賦予非法人組織以民事主體的獨立地位,有助于對非法人組織這類市場主體的監(jiān)管,為帶動、活躍市場經濟構建完善的法律規(guī)范架構。同時非法人組織能以自己的名義獨立地參與市場經濟活動,將有利于調動和保護非法人組織的設立人、投資人發(fā)展經濟的積極性和合法權益。[27]
因此,一個非人類實體能最終成為法律主體,除卻立法者的確認,還要審視其背后存在的社會價值,即作為社會主體的絕大多數(shù)人是否認同、肯定該實體的存在意義。目前,社會整體對人工智能實體的認知程度、立法者對人工智能智能水平持有的觀感,可能還不足以使人工智能實體進階為法律主體成為現(xiàn)實,針對人工智能之法律主體資格的判定仍處于一種理論上的討論階段。
四、結語
面對日新月異的科學技術,法律制度總是滯后的,但對新生法律問題必須要做有預見性的思考。思考是否應當將法律主體資格延伸至人工智能上,確是為法學理論提供了一個有價值的思想實驗。主體資格的開放性并不會降低生物學意義上人的地位。討論人工智能主體資格可能性,實質上是在保護人在科技浪潮下的合法權益,并為未來創(chuàng)制有利于人工智能健康、有序發(fā)展的規(guī)范制度提供方向指引。
參考文獻:
[1]Goertzel B, Pennachin C. Contemprorary approaches to artificial general intelligence[M]//Artificial General Intelligence. Berlin: Springer,2007:1-28.
[2]林命彬.哲學視角下智能機器在自我意識和行為意義上的突破[J].黑龍江社會科學,2016,6:8-14.
[3]林夕.人工智能時代下的教育遐想[J].教育實踐與研究,2017,21:1-1.
[4]Nils J.Nilsson.人工智能[M].機械工業(yè)出版社,2000:1.
[5]Gabriel H. The criminal liability of artificial intelligence entities-from science fiction to legal social control[J].Akron Intelligence Property Journal, 2010,4(2):171-175.
[6]郭少飛.”電子人”法律主體論[J].東方法學,2018(3).
[7]William J R. The International Dictionary of Artificial Intelligence [M].London: Fitztroy Dearborn Publishers,1999.
[8]郭少飛.”電子人”法律主體論[J].東方法學,2018(3).
[9]科斯塔斯·杜茲納.人權的終結[M].江蘇人民出版社2002年版,275.
[10]卡爾·拉倫茨.德國民法通論[M].法律出版社.2003年版.56.
[11]羅爾夫·克尼佩爾.法律與歷史[M].法律出版社.2003年版.87.
[12]李永軍.民法上的人及其理性基礎[J] .法學研究.2005(5).
[13]龍衛(wèi)球.民法主體的觀念演化、制度變遷與當下趨勢[J].國家檢察官學院學報,2011,(4).
[14]陳惠蓮.康德”哥白尼式革命”的主體能動性思想[J].湖北大學學報,1989(3).
[15]鄧曉芒.德國古典哲學講演錄[M].湖南教育出版社,2010,149-153.
[16]金守東.試論康德“人是目的”命題的理論內涵[J].安徽大學學報.1997,(6)
[17]卡爾·拉倫茨.德國民法通論[M].法律出版社.2003.
[18]趙冬斌,邵坤,朱圓恒等.深度強化學習綜述:兼論計算機圍棋的發(fā)展[J].控制理論與應用,2016,33.
[19]LECUN Y,BENGIO Y,HINTON G E. Deep learning[J].Nature,2015, 521(7553).
[20]SUTTON R S, BARTO A G. Reinforcement Learning: An Introduc tion[M].Massachusetts: MIT Press.1998.
[21]Ben Goertzel, Cassio Pennachin(Eds0,Atificial General Intelligence, Springer,2017,pp.31-60.
[22]徐英瑾.心智、語言和機器---維特根斯坦和人工智能科學的對話[M].人民出版社.
[23]Pei Wang From NARS to a Thinking Machine,2007,2-4.
[24]Pei Wang From NARS to a Thinking Machine,2007,2-4.
[25]Pei Wang From NARS to a Thinking Machine,2007,2-4.
[26]郭明瑞.民法總則中非法人組織的制度設計[J]法學家.2016(5).
[27]楊立新.《民法總則》規(guī)定的非法人組織的主體地位與規(guī)制[J]求是學刊.2017(3).
作者簡介:
侍妍(1992—),女,江蘇連云港,首都師范大學在讀碩士研究生,主要研究方向:法律哲學與法律方法。