武雪健
迅猛發(fā)展的人工智能技術(shù)亟待相關法律的設立,以對其進行規(guī)制和引導,相關技術(shù)領先國家也在近些年進行了有益的探索與實踐,但人工智能技術(shù)的特殊性也為法律的細化和落地帶來諸多挑戰(zhàn)。
人工智能立法的國外狀況
近年來,人工智能技術(shù)發(fā)展迅猛并日益滲透到人類生活的多個方面,也正因此,人工智能愈發(fā)引起全世界的廣泛關注。人工智能是一種正在給人類社會帶來全方位深刻變革的技術(shù),與以往技術(shù)進步相同的是,人工智能同樣由人類開發(fā)并以服務人類為目的,但其特殊性在于人工智能的技術(shù)核心依賴于機器學習(尤其是無監(jiān)督學習),這當中就存在著很大的風險和不確定性,還很有可能引發(fā)諸多法律監(jiān)管和倫理道德問題。因而,如何在確保人工智能技術(shù)不至于觸及法律底線和引發(fā)倫理道德問題的前提下,最大程度地發(fā)揮其促進生產(chǎn)力發(fā)展、促進社會進步的功能,就必然成為亟待解答的時代課題。例如,聯(lián)合國下屬的科學知識和科技倫理世界委員會就在2016年8月發(fā)布了《機器人倫理初步報告草案》,認為機器人不僅需要尊重人類社會的倫理規(guī)范,還需要將特定倫理準則編寫進機器人程序中。電氣和電子工程師協(xié)會則在2016年12月發(fā)布《合倫理設計:利用人工智能和自主系統(tǒng)最大化人類福祉的愿景》,就一般原則、倫理、方法論、通用人工智能和超級人工智能的安全與福祉、個人數(shù)據(jù)、自主武器系統(tǒng)、經(jīng)濟/人道主義問題、法律等八大主題給出具體建議。與國際組織和社會機構(gòu)不同的是,超國家組織與各國政府對于人工智能的發(fā)展事項具有一定實操性的權(quán)能,進行立法引導和規(guī)制也就成為人工智能技術(shù)領先國家的普遍做法,下文分別就歐盟和美國的立法進行介紹。
1.歐盟:率先提出人工智能立法動議
歐盟是最早進行人工智能立法探討的超國家組織。最早在2015年1月,歐盟議會的法律事務委員會(下稱“委員會”)決定成立一個工作小組來負責研究機器人、人工智能發(fā)展等相關法律問題。2016年5月,委員會發(fā)布了《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》;同年10月,又發(fā)布研究成果《歐盟機器人民事法律規(guī)則》。在這些報告和研究的基礎上,2017年1月12日,委員會以12票贊成、2票反對、2票棄權(quán)的結(jié)果通過一份決議,在其中提出了一些具體的立法建議,要求歐盟委員會就機器人和人工智能提出立法提案。2017年2月16日,歐盟議會以396票贊成、123票反對、85票棄權(quán)的結(jié)果通過這份決議。委員會的主要考慮是針對機器人和人工智能出臺民事法律規(guī)則,為人工智能研發(fā)和審查人員制定倫理守則,從而保證在整個研發(fā)和審查環(huán)節(jié)中都充分考慮到人類價值,最終確保面向消費者和社會的機器人能夠符合人類利益。其中具體的立法建議主要包括以下四個方面。
確定人工智能的倫理準則。在機器人和人工智能的設計、研發(fā)、生產(chǎn)和利用過程中,需要一個指導性的倫理框架,確保以符合法律、倫理等標準的方式運作。比如,設計者應當設置一個“一鍵關閉”的功能,從而能夠在緊急情況下將機器人關閉。委員會還提出了“機器人憲章”,這一憲章針對人工智能科研人員和研究倫理委員會,構(gòu)想了在機器人設計和研發(fā)階段需要遵守的基本倫理原則。對于機器人科研人員而言,諸如不作惡、正義、基本權(quán)利、可責性、安全性、隱私等都是需要認真對待的事項。此外,還需要倫理審查委員會對人工智能設計和研發(fā)進行把關,確保機器人符合人類社會的倫理、法律等規(guī)范。
考慮賦予復雜的自主機器人以法律地位的可能性。將人工智能寫入法律,至少要回答關于法律主體地位的兩個問題:其一,機器人應當被界定為自然人、法人、動物還是物體;其二,是否需要創(chuàng)造新的法律主體類型,以便復雜的高級機器人可以享有權(quán)利和承擔義務,并對其造成的損害承擔責任。因為界定監(jiān)管對象是人工智能立法的起點,委員會的觀點是智能自主機器人應屬監(jiān)管對象,并提出了四大特征加以辨析:(1)通過傳感器和/或借助與其環(huán)境交換數(shù)據(jù)(互聯(lián)性)獲得自主性的能力,并能夠分析相應數(shù)據(jù);(2)從交互中學習的能力;(3)機器人的物質(zhì)支撐形式;(4)因環(huán)境而調(diào)整行為和行動的能力。此外,委員會認為還應當提出機器人的分類標準,建立高級機器人登記制度,從而實現(xiàn)可追溯性,并促進推薦性規(guī)范的落實。
實施強制保險機制和賠償基金。自動駕駛汽車、工業(yè)機器人、護理機器人等類型的人工智能產(chǎn)品可能完全或者部分脫離人類的控制,一旦對人類和財產(chǎn)造成損害,其設計者和開發(fā)者是否應當承擔嚴格責任,抑或承擔有限責任。對此,委員會提出兩個建議:一是對機器人適用強制保險機制,由機器人的生產(chǎn)者或者所有者負責購買,以便對機器人造成的損害進行責任分配;二是設立賠償基金,對強制險未予覆蓋的損害進行賠償,并讓投資人、生產(chǎn)者、消費者等多方主體參與這一機制,從而形成賠償基金。
明確人工智能的“獨立智力創(chuàng)造”。第一,委員會建議歐盟委員會就與軟硬件標準、代碼有關的知識產(chǎn)權(quán)提出一個更平衡的路徑,以便在保護創(chuàng)新的同時也促進創(chuàng)新;第二,對于計算機或者機器人創(chuàng)作的可確認版權(quán)的作品,需要提出界定人工智能的“獨立智力創(chuàng)造”的標準,以便明確版權(quán)歸屬。
2.美國:提出“人工智能未來法案”搶抓發(fā)展機遇
雖然特朗普政府對人工智能的反應相對消極,但美國國會認為人工智能可以極大地促進經(jīng)濟增長,理解人工智能并為其發(fā)展和應用做好準備對美國的經(jīng)濟繁榮與社會穩(wěn)定至關重要,所以在2017年12月12日提出了“人工智能未來法案”。這一法案的目的在于大力發(fā)展人工智能,主要內(nèi)容是要求商務部設立聯(lián)邦人工智能發(fā)展與應用咨詢委員會(下稱“人工智能委員會”),并明確了人工智能咨詢委員會的職責、權(quán)力、人員構(gòu)成等內(nèi)容。
明確發(fā)展人工智能的必要性。法案認為,理解人工智能并為其發(fā)展做好準備,對美國經(jīng)濟發(fā)展和社會穩(wěn)定至關重要。因而根據(jù)此法案成立的人工智能咨詢委員會有必要就以下議題優(yōu)先出具指南或建議:其一,建立一個有利的投資和創(chuàng)新環(huán)境,以保持美國在人工智能領域的全球競爭力;其二,優(yōu)化人工智能發(fā)展,以處理人工智能發(fā)展給勞動力帶來的潛在增長、重塑或改變;其三,推動和支持人工智能的發(fā)展和應用;其四,保護個人隱私。
厘清人工智能相關概念。法案對人工智能相關概念作出了一般性解釋,并要求人工智能咨詢委員會根據(jù)其解釋修訂并明確人工智能相關概念。法案指出,圍繞人工智能存在不同的定義,總體來看,通用人工智能是未來人工智能概念,即在眾多認知領域上像人類智能那樣靈活和全面的系統(tǒng),能夠做出智能行為,包括認知、學習、語言、感知、推理和社會化行為等。狹義的人工智能則強調(diào)特定應用領域,能夠執(zhí)行專門的、定義明確的任務,如玩策略游戲、智能翻譯、自動駕駛汽車和圖像識別等。
成立聯(lián)邦人工智能發(fā)展與應用咨詢委員會,并明確其職責、組成與權(quán)力。人工智能咨詢委員會的職責有三點:提建議、從事研究、出具報告和建議。具體而言,提建議的事項包括促進投資和創(chuàng)新、勞動力、教育、倫理研究和培訓、數(shù)據(jù)開放、國際合作和競爭、法律責任和權(quán)利、算法歧視、人工智能與鄉(xiāng)村社區(qū)、行政效率十個方面。從事研究的事項包括:(1)創(chuàng)造有利于公共和個人投資的環(huán)境;(2)發(fā)展人工智能可能對經(jīng)濟、勞動力市場和美國競爭力的正負面影響;(3)人工智能的應用將如何取代就業(yè)機會或者創(chuàng)造新的就業(yè)崗位;(4)如何在人工智能開發(fā)和相關聯(lián)的算法中識別并消除歧視;(5)是否需要以及如何在人工智能開發(fā)和應用中融入倫理標準,(6)如何激勵開發(fā)可以惠及各社會階層和經(jīng)濟團體的人工智能技術(shù);(7)人工智能如何影響個人隱私權(quán);(8)人工智能的發(fā)展是否會影響消費者保護相關的法律和管理體制;(9)是否需要更新現(xiàn)有的關于數(shù)據(jù)獲取和隱私保護的法律;(10)聯(lián)邦政府如何利用人工智能處理重大且復雜的數(shù)據(jù)集;(11)多方利益相關者之間的持續(xù)對話和談判如何實現(xiàn)將人工智能的潛力最大化;(12)人工智能如何促進政府各個職能領域節(jié)約成本和簡化運營。出具報告和建議為人工智能咨詢委員會應于該法案頒布后540天內(nèi)向商務部長和國會提交人工智能相關事項的研究報告,并對出臺相關立法或行政措施提出建議。人工智能咨詢委員會由19名經(jīng)商務部任命的投票委員(含1名主席)和眾多非投票委員組成,每年至少召開兩次全體會議,每兩個月召開一次電話會議。其權(quán)力包括為行使該法案規(guī)定的職責而舉行聽證會、采取行動,收集證據(jù)等;必要時向國會、聯(lián)邦政府機構(gòu)提交建議;出具報告、指南和備忘錄;舉行會議和研討;與第三方專家合作并監(jiān)督員工;建立分會和議會規(guī)則等。
人工智能立法的難點分析
從前述梳理可知,雖然人工智能的立法在近幾年得到了相關國家的關注和發(fā)展,但相關立法的規(guī)定內(nèi)容實際上多數(shù)仍停留在初步構(gòu)想階段,將人工智能賦予法律主體地位,從而進行立法,這一本應是核心的內(nèi)容卻少有涉及。究其原因,除卻人工智能技術(shù)的發(fā)展時間較短,因而相關法律并未及時跟進制定外,人工智能技術(shù)本身的特殊性也為立法帶來一些難題。參照刑法學者王素之對于人工智能犯罪的三方面刑法難題的分析——人工智能的刑法地位、人工智能犯罪的主觀方面、人工智能犯罪的客觀方面,下文對其進行法律難點的擴展。
主體難題:人工智能的法律地位。隨著人工智能的發(fā)展,其智能化的發(fā)展程度和獨立性也愈發(fā)突顯。雖然人工智能主要受預設程序的控制,但這并不意味著人工智能不具有獨立性。例如發(fā)表特定言論可以構(gòu)成犯罪,如果他人誘導人工智能散布相關言論該如何認定,特別是該人工智能是基于自身的“學習”并“發(fā)表”以上言論時又該如何認定和處理。在傳統(tǒng)的法律認知中,人(法人也是法律主體的人格化)才是法律規(guī)制的主要主體。當法律的規(guī)制主體變?yōu)闄C器人,就將面臨至少兩個問題:其一,法律需要保證道德主體的權(quán)利;其二,機器人也需要遵守法律上的義務。但是現(xiàn)階段人工智能顯然不具備自然人的特征,這會導致在認定其法律行為的認定上存在障礙,在處罰層面也容易存在難以起到有效地震懾犯罪的問題。就此而言,人工智能作為傳統(tǒng)體系的適格主體進入法律范疇存在問題。
罪過難題:人工智能的主觀“認識”方面。隨著人工智能的發(fā)展,機器人逐漸能夠從周圍環(huán)境的刺激中學習,并從自己的行為中獲得知識和技能,進而可能越來越難以被它們的用戶和設計師預測。一直以來,人的主觀罪過是法律考量的重要元素,獨立意志成為權(quán)利、義務、責任包括處罰的前提基礎,構(gòu)成這一思想的核心是主張尊重理性的觀點。然而我們也了解到,BBC地平線系列紀錄片《尋找人工智能》曾經(jīng)報道過針刺機器人會根據(jù)自己的判斷是否會刺傷人的手指,那么對于其行為的主觀方面該如何認定呢?更何況人工智能領域本就存在強人工智能和弱人工智能的爭論,其中強人工智能的觀點認為未來能夠真正制造出能進行推理和解決問題的智能機器,這種智能機器像人一樣有知覺和意識;弱人工智能的觀點認為,智能機器只是看起來像是智能的,它的智能只是表面的、非實質(zhì)性的,不會像人類一樣真正擁有智能和意識。這更加使得對人工智能主觀“認識”的判斷成為難題。
行為難題:人工智能的客觀方面。從行為層面,人工智能可能涉及以下兩種類型:第一種類型是本就應用于社會之中,由于人工智能出現(xiàn)問題或其他原因?qū)е虏涣己蠊缣厮估詣玉{駛導致交通事故等嚴重后果的情形。在這種情形中,人工智能本身用途無害,但是客觀上造成了侵害。第二種類型是人工智能被直接用于犯罪。如“全國首例利用人工智能犯罪案”中,人工智能將文本識別技術(shù)用于非法獲取個人信息,人工智能被直接用于犯罪目的。在傳統(tǒng)意義上,法律中的行為主要是人的行為。即行為是人的身體活動,犯罪行為必須是在客觀上侵犯了法益,這是行為的實質(zhì)要素。然而人工智能犯罪中的行為卻處在兩者之間:第一,人工智能的“行為”并非人們所直接發(fā)出的,有些甚至并非人們所直接指令其發(fā)出的,人工智能的“行為”在歸因于人的過程中存在一定障礙。第二,人工智能的“行為”又與人的行為有一定的關聯(lián),即使未曾直接指令人工智能實施一定的“行為”,但是至少會對人工智能的模式和范式做出設定。由此,如何認定人的行為與人工智能“行為”的性質(zhì)與界限也是一個需解答的難題。
從海外人工智能立法情況和出現(xiàn)的難點來看,人工智能立法問題必須要加強研究,積極學習海外的經(jīng)驗。我國對于人工智能產(chǎn)業(yè)發(fā)展當中出現(xiàn)的社會影響,需要提前加強社會研究,尋找社會共識。在立法上也需要結(jié)合經(jīng)濟學等學科的研究成果,使人工智能的發(fā)展能促進社會更美好