在第三次人工智能發(fā)展的浪潮中,以大數(shù)據(jù)為依托的人工智能因其深度學(xué)習(xí)和強化學(xué)習(xí)能力的提升不斷沖擊著人們的想象空間,也開始深刻地影響人類現(xiàn)實生活。我們需要在構(gòu)建人工智能法律規(guī)則時考慮如何實現(xiàn)算法的透明性和可解釋性、算法的正義問題,以及是否應(yīng)給予人工智能系統(tǒng)以獨立的法律地位及其對個人隱私、自由尊嚴(yán)等的影響。從人工智能法律規(guī)制整體建構(gòu)的角度來看,應(yīng)從立法、司法裁判和法律效果評價環(huán)節(jié)嵌入倫理性考量因素,將具體的道德考量因素轉(zhuǎn)化為可以實施的法律原則乃至法律規(guī)制,同時發(fā)揮人在司法裁判過程中的主觀能動性,防止過度依賴人工智能輔助系統(tǒng),從而保障司法裁判結(jié)果的公平公正。
作為一個專業(yè)術(shù)語,“人工智能”可以追溯到20世紀(jì)50年代。美國計算機(jī)科學(xué)家約翰·麥卡錫及其同事在1956年的達(dá)特茅斯會議提出“讓機(jī)器達(dá)到這樣的行為,即與人類做同樣的行為”被稱為人工智能。[1](P4)不同于以往的其他技術(shù),人工智能由于其特有的深度學(xué)習(xí)①能力,“技術(shù)樂觀派”認(rèn)為 “未來的超級人工智能可能與人類智慧媲美甚至超越人類智慧,擁有與人類相同的價值觀”。同時,“技術(shù)懷疑主義者”堅信“建造超人類水平的通用人工智能實在太困難了,沒有幾百年的時間,根本無法實現(xiàn),擔(dān)心人工智能的崛起,就好像擔(dān)心火星出現(xiàn)人口過剩一樣”[2](P41)。我們無意去做技術(shù)發(fā)展進(jìn)程中的“盧德分子”②,因為無論人工智能未來發(fā)展的進(jìn)程如何,可以肯定的是技術(shù)賦予了生命一種進(jìn)化的力量,讓我們?nèi)ッ鎸夹g(shù)進(jìn)步帶來的一次次驚喜與考驗。
具有道德和倫理意識是我們?nèi)祟悈^(qū)別于其他生命體的特征之一,人工智能目前乃至未來是否具有自我意識,我們尚不可知。人類在面對人工智能帶來的各種挑戰(zhàn)時,連最基本的何為“智能”的概念都無法達(dá)成共識。但是,當(dāng)我們面對人工智能技術(shù)的迅猛發(fā)展,例如“電車難題”③這樣的倫理問題在以技術(shù)為驅(qū)動的無人駕駛汽車領(lǐng)域成為程序設(shè)計者們不得不面對的倫理拷問。當(dāng)我們?nèi)祟惷鎸@樣的倫理難題無所適從時,如何在算法中嵌入我們認(rèn)為普適的人類價值觀,從而引導(dǎo)人工智能作出符合人類法律倫理準(zhǔn)則的決策。除此之外,算法引發(fā)的種族和性別歧視、算法殺熟等問題如何解決都是需要我們直面的法律和倫理困境。現(xiàn)有的法律體系和法律框架可以解決由人工智能引發(fā)的部分法律難題,例如自動駕駛引發(fā)的責(zé)任分配等問題可以在現(xiàn)有的侵權(quán)法和產(chǎn)品責(zé)任法框架內(nèi)找到部分答案;人工智能創(chuàng)作物是否可以受到法律的保護(hù),依賴著作權(quán)法的法律路徑可以部分得以解答。但是,人工智能技術(shù)對現(xiàn)有法律體系的沖擊引發(fā)的最棘手的問題是法律倫理的考量,當(dāng)理性的法律面對需要拷問人性本真的道德和倫理時,如何在現(xiàn)有的法律框架中進(jìn)行適時的調(diào)整,是本文待解之題。
人工智能因其自主性和學(xué)習(xí)能力帶來不同于以往任何科技的新的倫理問題,對人類社會各方面將帶來重大影響。讓人工智能符合人類社會的各種規(guī)范和價值并實現(xiàn)全球普惠發(fā)展,是構(gòu)建普惠人工智能和有益人工智能必須解決的問題。2016年以來,人工智能倫理問題日益得到重視。2016年8月,聯(lián)合國下屬的COMEST(科學(xué)知識和科技倫理世界委員會)發(fā)布《機(jī)器人倫理初步報告草案》,認(rèn)為機(jī)器人不僅需要尊重人類社會的倫理規(guī)范,而且需要將特定倫理準(zhǔn)則編寫進(jìn)機(jī)器人中。同年9月,英國政府發(fā)布的人工智能報告《機(jī)器人學(xué)與人工智能》呼吁加強人工智能倫理研究,最大化人工智能的益處,并尋求方法以最小化其潛在威脅。之后,美國白宮在其發(fā)布的《國家人工智能研發(fā)戰(zhàn)略計劃》中提出開展人工智能倫理研究,呼吁研究新的方法來實現(xiàn)人工智能與人類社會的法律、倫理等規(guī)范和價值相一致。2017年1月,人工智能研究機(jī)構(gòu)——未來生命研究所(Future of Life Institute)召集人工智能、法律、倫理、哲學(xué)等領(lǐng)域眾多專家和學(xué)者召開阿西洛馬會議并形成了23條人工智能原則,作為人工智能研究、開發(fā)和利用的指南。[3](P22)此外,各國政府及產(chǎn)業(yè)界已經(jīng)斥巨資設(shè)立了多個研究基金,推進(jìn)對人工智能倫理問題的研究。
但是,也有觀點對人工智能發(fā)展過程中倫理因素考量的必要性存疑。例如斯坦福汽車研究中心的執(zhí)行總監(jiān)Stephen Zoepf認(rèn)為,對電車難題的討論是沒有意義的。德國汽車制造商梅賽德斯公司更是直接給出自己對于電車難題的答案即梅賽德斯公司將優(yōu)先保護(hù)車上人員的安全。計算機(jī)編程無法完全模仿人類的心理活動,例如情緒等因素?zé)o法量化衡量,因此無法實現(xiàn)真正意義上的倫理編程。人類的道德判斷和決策并非完全基于理性、經(jīng)驗,更多的是一種感性且隨機(jī)的直覺反應(yīng)。因此,整個社會的道德框架一般是穩(wěn)定的,但是當(dāng)不同的主體面對利益取舍時,卻會因人、因事的差異而作出不同的選擇,也就是說,人類的道德決策過程本身就兼具有意識性和無意識性的特征。人工智能發(fā)展過程中,我們必須要考慮的倫理問題概括來說包括以下內(nèi)容。
人工智能系統(tǒng)進(jìn)入人類社會,必然需要遵守人類社會的法律、道德等規(guī)范和價值,做出合法合道德的行為。易言之,被設(shè)計、被研發(fā)出來的人工智能系統(tǒng)需要成為道德機(jī)器。在實踐層面,人工智能系統(tǒng)做出的行為需要和人類社會的各種規(guī)范和價值保持一致,也即價值一致性或者說價值相符性。由于人工智能系統(tǒng)是研發(fā)人員的主觀設(shè)計,這一問題最終歸結(jié)到人工智能設(shè)計和研發(fā)中的倫理問題,即一方面需要以一種有效的技術(shù)上可行的方式將各種規(guī)范和價值代碼化,植入人工智能系統(tǒng),使系統(tǒng)在運行時能夠做出合倫理的行為;另一方面需要避免研發(fā)人員在人工智能系統(tǒng)研發(fā)過程中,將其主觀的偏見、好惡、歧視等帶入人工智能系統(tǒng)。2015年谷歌公司的圖片識別服務(wù)錯誤地將某些黑人標(biāo)記為大猩猩后,被批評種族主義事件的谷歌公司立刻采取措施在搜索結(jié)果中刪除了這一標(biāo)簽。
算法如何作出這樣的匹配我們尚不可知,可以肯定的是這種算法歧視與算法本身的構(gòu)建和其基于的數(shù)據(jù)樣本數(shù)量及樣本性質(zhì)密不可分。算法歧視問題其實取決于底層數(shù)據(jù)的積累,數(shù)據(jù)積累越多算法計算就越準(zhǔn)確,對某一人群的算法描述就越精準(zhǔn)。同時,隨著算法復(fù)雜性的增加和機(jī)器學(xué)習(xí)的普及導(dǎo)致算法黑箱問題越來越突出。美國計算機(jī)協(xié)會公共政策委員會在《算法透明性和可問責(zé)性聲明》中提出七項基本原則,第一項基本原則即為解釋,其含義是鼓勵使用算法決策系統(tǒng)對算法過程和特定決策提供解釋,并認(rèn)為促進(jìn)算法的可解釋性和透明性在公共政策中尤為重要。未來人工智能系統(tǒng)將會更加緊密地融入社會生活的方方面面,如何避免諸如性別歧視、種族歧視、弱勢群體歧視等問題,確保人工智能合倫理行為的實現(xiàn),這需要在當(dāng)前注重數(shù)學(xué)和技術(shù)等基本算法研究之外,更多地思考倫理算法的現(xiàn)實必要性和可行性。
依托于深度學(xué)習(xí)、算法等技術(shù),從個性化推薦到信用評估、雇傭評估、企業(yè)管理再到自動駕駛、犯罪評估、治安巡邏,越來越多的決策工作正在被人工智能所取代,越來越多的人類決策主要依托于人工智能的決策。由此產(chǎn)生的一個主要問題是公平正義如何保障?人工智能的正義問題可以解構(gòu)為兩個方面:第一,如何確保算法決策不會出現(xiàn)歧視、不公正等問題。這主要涉及算法模型和所使用的數(shù)據(jù)。第二,當(dāng)個人被牽扯到此類決策中,如何向其提供申訴機(jī)制并向算法和人工智能問責(zé),從而實現(xiàn)對個人的救濟(jì),這涉及透明性、可責(zé)性等問題。在人工智能的大背景下,算法歧視已經(jīng)是一個不容忽視的問題,正是由于自動化決策系統(tǒng)日益被廣泛應(yīng)用在諸如教育、就業(yè)、信用、貸款、保險、廣告、醫(yī)療、治安、刑事司法程序等諸多領(lǐng)域。[4](P60)從語音助手的種族歧視、性別歧視問題,到美國犯罪評估軟件對黑人的歧視,人工智能系統(tǒng)決策的不公正性問題已經(jīng)蔓延到了很多領(lǐng)域,而且由于其“黑箱”④性質(zhì)、不透明性等問題,難以對當(dāng)事人進(jìn)行有效救濟(jì)。例如美國的人工智能軟件系統(tǒng)Entelo可以幫助招聘公司搜索社交網(wǎng)絡(luò)上的信息,尋找到那些在公共場合表達(dá)想要跳槽的潛在員工。又如HireVue等系統(tǒng)能夠通過分析面試視頻數(shù)據(jù)評估應(yīng)聘者的人格特點以及合適度,在視頻面試的情境下,這類智能系統(tǒng)可以迅速對應(yīng)聘者的面部活動、表達(dá)以及肢體語言進(jìn)行分析,并且與其他的應(yīng)聘者進(jìn)行比較,為招聘公司找到“最合適的人選”。像Mya、JobBot等智能系統(tǒng)甚至可以實現(xiàn)面試環(huán)節(jié)完全自動化,通過讓應(yīng)聘者與智能聊天系統(tǒng)互動來安排面試時間,即時產(chǎn)生應(yīng)聘者排名,節(jié)省超過75%的時間,大幅度地提高招聘效率。但是效率的提升并不意味著公平。智能系統(tǒng)中潛存著多種類型的偏見,可能會對應(yīng)聘者帶來決定性的負(fù)面影響。在很多情形下,應(yīng)聘者甚至不知道自己正受到機(jī)器偏見導(dǎo)致的不公正對待。
美國很多州的法院嘗試基于智能的犯罪管理分析系統(tǒng)(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)預(yù)測作出關(guān)乎罪犯命運的司法判決,例如量刑輕重、保釋金數(shù)額、是否允許以及在何時假釋等。系統(tǒng)對關(guān)押的一萬多名刑事罪犯的刑事判決展開了對比分析。這些罪犯在被關(guān)押進(jìn)監(jiān)獄之前,需要填寫一份COMPAS問卷,他們的回答將會被錄入COMPAS軟件中,隨即系統(tǒng)會得出某一罪犯在若干方面的分?jǐn)?shù),例如累犯的風(fēng)險、暴力犯罪累犯的風(fēng)險,等等。將這些系統(tǒng)得出的預(yù)測累犯率與在兩年內(nèi)這數(shù)萬名罪犯實際發(fā)生再次犯罪的情形進(jìn)行了對比分析后,發(fā)現(xiàn)COMPAS算法的準(zhǔn)確率達(dá)到了60%左右(其中白人罪犯是59%,而黑人罪犯是63%)。其中,由于機(jī)器偏見導(dǎo)致白人與黑人的犯罪率產(chǎn)生了鮮明的對比。一方面,在錯誤預(yù)測的情形中,黑人被錯誤識別為高風(fēng)險再犯的幾率要比白人高出幾乎兩倍。另一方面,實際發(fā)生再犯的白人被標(biāo)識為低風(fēng)險再犯的幾率要比黑人高出20個百分點。[5](P74)這一事實很好的驗證了羅爾斯在其《正義論》中提及的觀點:“正義是社會制度的首要價值,某些法律和制度,不管他們?nèi)绾斡行屎陀袟l理,只要他們不正義,就必須加以改造或者廢除?!保?](P3-4)以往的法律體系中我們通過程序正義保證實體正義,那么進(jìn)入人工智能時代,我們不得不考慮如何實現(xiàn)“數(shù)字正義”。數(shù)字正義本身比任何的規(guī)制和原則范圍更廣,它對法律的各個領(lǐng)域都帶來了挑戰(zhàn)。它的目標(biāo)不僅僅限于澄清技術(shù)的發(fā)展如何引發(fā)各種新問題,更在于運用技術(shù)來解決新問題,從而使得社會中的每個個體都可以運用技術(shù)來解決糾紛。[7]
技術(shù)的發(fā)展使得人工智能系統(tǒng)的外在表現(xiàn)形式和內(nèi)在機(jī)理方面越來越像人,如何在未來的法律框架體系中看待人工智能系統(tǒng),其是否可以享有一定的道德地位或法律地位至關(guān)重要。主張不能賦予其道德和法律地位的群體,他們的觀點主要基于兩大理論:道德主體和道德痛苦。前者是普遍人權(quán)的基礎(chǔ);后者則是動物權(quán)利的基礎(chǔ),因為動物被認(rèn)為可以感受到痛苦,所以需要給予一定的道德權(quán)利,而人工智能系統(tǒng)不具有道德痛苦的感知力,因此不應(yīng)賦予其獨立的道德和法律地位。早在17世紀(jì),隨著人文主義和啟蒙運動的興起,圍繞自然人的主體意志和法律行為,創(chuàng)設(shè)了主客體兩分的法律人格理論,以此打破了羅馬法體系下根據(jù)實踐的需要設(shè)置不同的法律人格的傳統(tǒng)。[8](P74)但是工業(yè)革命的進(jìn)程促進(jìn)了機(jī)械大工業(yè)的發(fā)展,具有擬制法律人格的法人的出現(xiàn),一定程度上可以說是復(fù)興了羅馬法關(guān)于不同法律主體的法律地位。法人的出現(xiàn)讓非自然人以外的主體開始擁有法律主體地位。
人工智能時代,大量電子契約的成立及由人工智能引發(fā)的各種侵權(quán)行為的發(fā)生,對我們?nèi)绾我?guī)制人工智能的侵權(quán)問題提出了挑戰(zhàn)。美國法學(xué)家大衛(wèi)·弗拉德克認(rèn)為,如果無人駕駛汽車發(fā)生了交通事故,應(yīng)由汽車自己對其行為負(fù)責(zé)。他提出應(yīng)該允許無人駕駛汽車持有相應(yīng)的保險,安全記錄良好的無人駕駛汽車可以支付較低的保險費用,相反,安全記錄不好的無人駕駛汽車則需要支付高額的保險費用,從而抬高該種車輛的整體價格,被市場淘汰。如果我們認(rèn)為可以讓無人駕駛汽車擁有保險,那么是否意味著我們同時應(yīng)該允許他們擁有相應(yīng)的財產(chǎn)?進(jìn)一步,如果人工智能可以擁有財產(chǎn),也就意味著法律上賦予其獨立人格具有理論和實踐意義。在現(xiàn)有的法律框架下各國立法都有法律擬制主體“法人”的存在,其獨立存在的意義在于其很好地完成了從封建社會以個人為本位的社會法律體系到資本主義社會以資本為核心的公司制法律體系的重構(gòu)。那么,我們有理由相信人工智能這一擬制主體的出現(xiàn)會促使我們重新審視現(xiàn)有的法律主體類型。在現(xiàn)有的法律框架中意圖為人工智能體設(shè)立獨立的法律地位,其首先需要滿足“道德行為體”即該主體必須有能力感知到他們行為后果中與道德相關(guān)的部分,而且必須有能力在行動方案之間作出選擇。[9](P78)目前人工智能體尚沒有能力感知其行為后果并作出相應(yīng)的選擇,但是隨著人工智能體硬件和軟件的不斷進(jìn)化與發(fā)展,未來法律的建構(gòu)需要為其預(yù)留相應(yīng)的法律空間。
人工智能系統(tǒng)對數(shù)據(jù)的大量收集、利用,數(shù)據(jù)分析的自動化、智能化,以及隱私與數(shù)據(jù)保護(hù)提出了挑戰(zhàn)。當(dāng)前基于機(jī)器學(xué)習(xí)的人工智能系統(tǒng)在訓(xùn)練和運行過程中,需要使用大量的數(shù)據(jù),其中很多是個人數(shù)據(jù),在人工智能時代,如何重新定義隱私顯得尤為重要。一方面,人工智能由于有大數(shù)據(jù)作為學(xué)習(xí)和分析的基礎(chǔ),可以清晰分析出個人的消費習(xí)慣、收入狀況等隱私內(nèi)容,基于這些數(shù)據(jù)分析形成的“算法殺熟”現(xiàn)象會導(dǎo)致不同人在獲得相同服務(wù)時花費不同的價格,加劇了社會不公平現(xiàn)象。人工智能系統(tǒng)對個人數(shù)據(jù)的自動化智能化的分析和決策,可以形成個人畫像或者形象,進(jìn)而影響個人的投資和收益。例如基于人工智能技術(shù)的智能投顧,可以根據(jù)客戶的財產(chǎn)狀況等提出合理化的投資建議。但是如果投資失敗,客戶的權(quán)益如何保障,銀行等商業(yè)性金融機(jī)構(gòu)如何實現(xiàn)數(shù)據(jù)商業(yè)利用與個人數(shù)據(jù)管理之間的平衡,就成了新的難題。另一方面,在司法活動過程中,機(jī)器學(xué)習(xí)技術(shù)可以通過分析腦部傳感器收集的大腦數(shù)據(jù),尤其是在測謊等方面的能力變得越來越強。在司法審判過程中,現(xiàn)有的還原案件真實情況的過程將極大地簡化,但隨之而來的問題是我們的思想是否應(yīng)該接受司法的檢查,我們的人格尊嚴(yán)和個人權(quán)利隨著技術(shù)的進(jìn)化是否會逐漸喪失。人工智能時代我們個人身份范式已經(jīng)從現(xiàn)實空間延伸到數(shù)字空間,每個人在以數(shù)字身份生存的時候,個人尊嚴(yán)和自由如何獲得保障,在人類決策受到人工智能左右時,我們的選擇自由或許會受到威脅,從而威脅到我們?nèi)祟愔詾槿说淖饑?yán)問題。
法律與技術(shù)的雙向互動性,要求技術(shù)對倫理的考量轉(zhuǎn)化為法律的內(nèi)在道德。人類有偏見,機(jī)器也有偏見。最近美國的一個網(wǎng)站設(shè)計了一系列無人駕駛汽車設(shè)定程序時需要回答的道德問題,面對這樣的難題,功利主義者認(rèn)為,實現(xiàn)最大多數(shù)人的最大幸福是判斷是非的標(biāo)準(zhǔn);自由主義者認(rèn)為,違背一個人的自由意志而讓其犧牲是不可接受的。[10](P117)這些道德問題是人類需要預(yù)先設(shè)定并回答的,但是倫理問題因各國文化、宗教和信仰等的不同而存在差別。如何研究出新的算法從而確保人工智能作出的決策與現(xiàn)有的法律、社會倫理一致,是一項具有挑戰(zhàn)性的任務(wù)。
技術(shù)倫理走入人工智能研究者的視野,谷歌、臉書公司、亞馬遜等硅谷企業(yè)也開始關(guān)注技術(shù)倫理問題,紛紛在其公司內(nèi)部成立專門的倫理中心或倫理委員會進(jìn)行相應(yīng)的研究。更有部分的美國高校將技術(shù)倫理課程引入校園,例如哈佛大學(xué)和美國麻省理工學(xué)院合作開設(shè)了“倫理與治理”課程,德克薩斯州大學(xué)創(chuàng)設(shè)了名為“計算機(jī)科學(xué)的倫理”基礎(chǔ)課程,此外,斯坦福大學(xué)、紐約大學(xué)、康奈爾等大學(xué)也設(shè)置了類似的課程,從而引發(fā)下一代技術(shù)人才對人工智能倫理問題的關(guān)注和思考。如果說在人工智能技術(shù)的研究和開發(fā)過程中嵌入倫理學(xué)的考量是保證技術(shù)中立、無歧視的先前步驟,那么在法律活動中對技術(shù)倫理的考量則更需要考驗法律人的智慧。我們需要從以下幾個方面著手來建構(gòu)人工智能的法律倫理規(guī)則。
人工智能系統(tǒng)對于人類而言就像是一個黑匣子,我們只能看到其通過復(fù)雜運算得到的 “最優(yōu)”結(jié)果,但是對于結(jié)論是如何作出的我們卻毫無頭緒。2017年初,英國政府的獨立評估小組對人工智能在英國的發(fā)展進(jìn)行評估并發(fā)布了一份名為《發(fā)展英國人工智能產(chǎn)業(yè)》的報告。報告中提出,治理人工智能的主要目標(biāo)是保障所使用的算法足夠的公平、公正和透明。在這幾項治理目標(biāo)或原則當(dāng)中,算法的透明度無疑是保障算法結(jié)果的公平和公正的前提。這份報告提出了十八條建議,其中一條就是建立一個人工智能的解釋機(jī)制,讓編程者提供必要的信息,解釋人工智能系統(tǒng)的構(gòu)造和機(jī)理,幫助公眾了解這些智能系統(tǒng)是如何得出結(jié)論的。為了解決這個認(rèn)知難題,很多學(xué)者提出了這樣的治理方案:我們首先需要讓算法的創(chuàng)造者幫助我們理解算法的形成以及運行邏輯。要滿足這樣的需求,解釋權(quán)制度應(yīng)運而生。歐盟在其《一般數(shù)據(jù)保護(hù)條例》(GDPR)中首創(chuàng)該制度,即公眾有權(quán)要求與其個人相關(guān)的自動決策系統(tǒng)對其算法決策作出必要的解釋。[11](P104)通過行使這種權(quán)利,個人在理論上就可以了解算法是怎樣運行的,也就可以利用法律賦予的其他權(quán)利來調(diào)整算法在個人生活中所扮演的角色。
算法雖然可以在司法活動中輔助司法并進(jìn)行決策,但是算法決策也存在著算法目標(biāo)不確定、使用的數(shù)據(jù)不完整以及算法對偏差的固化和放大等問題。因此,有必要在算法進(jìn)入司法決策過程之前就進(jìn)行干預(yù),也即如何在立法前置階段解決人工智能所帶來的法律難題。分析法學(xué)派的奠基人約翰·奧斯汀就曾說過“立法科學(xué)是倫理學(xué)的一個分支,其作用在于確定衡量實在法的標(biāo)準(zhǔn)以及實在法為得到認(rèn)可而必須依賴于其上的原則”[10](P132)。因此,立法活動也是將倫理學(xué)中的道德因素轉(zhuǎn)化為實然法的過程。目前,雖然全球各主要國家和地區(qū)如美國、歐盟、英國、日本等都出臺了相應(yīng)的人工智能國家戰(zhàn)略和前沿立法,但是目前的立法中并沒有明確嵌入倫理和道德規(guī)范。美國著名法學(xué)家德沃金認(rèn)為:“原則是一個社會中人們所公認(rèn)的政治理想和道德觀念,是規(guī)則背后把分散的規(guī)則聯(lián)結(jié)為一個整體的東西?!保?2](P18)我國在人工智能相關(guān)的立法過程中,可以將人工智能的倫理原則和道德規(guī)范通過法律原則的形式體現(xiàn)。將人工智能倫理建構(gòu)中的普遍原則轉(zhuǎn)化為立法形式,需要運用法律原則、法律規(guī)則等形式指導(dǎo)立法,而這些法律原則、法律規(guī)則也必須是各國立法中所共同承認(rèn)的、可以普遍得到遵守的基本法律原則。
我國在2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中指出:“建設(shè)集審判、人員、數(shù)據(jù)應(yīng)用、司法公開和動態(tài)監(jiān)控于一體的智慧法庭數(shù)據(jù)平臺,促進(jìn)人工智能在證據(jù)收集、案例分析、法律文件閱讀與分析中的應(yīng)用,實現(xiàn)法院審判體系和審判能力智能化?!保?3](P53)英國倫敦大學(xué)學(xué)院、謝菲爾德大學(xué)和美國賓夕法尼亞大學(xué)的最新研究成果顯示,人工智能已經(jīng)可以進(jìn)行法律證據(jù)與道德問題的判斷,從而協(xié)助法官提高庭審的準(zhǔn)確性。我國也在智能輔助審判方面積極探索,根據(jù)最新公布的統(tǒng)計數(shù)據(jù),北京法院智能輔助系統(tǒng)的應(yīng)用將法官的案情分析效率提升75%以上,文本檢索的案例匹配度從20%提升到基于法律知識圖譜與事實相似的90%,同時,基于該系統(tǒng)對相似案例結(jié)合裁判尺度的分析,可以將法官的裁判尺度偏差降低一半以上。[14]而在2016年末,美國數(shù)據(jù)科學(xué)家設(shè)計出能夠預(yù)測案件的新型人工智能系統(tǒng)。研究人員將歐洲人權(quán)法院近年的584個案件作為測試數(shù)據(jù),測試人員將這些案件交由人工智能系統(tǒng)學(xué)習(xí),并且獨立對判決結(jié)果作出預(yù)測即回答究竟哪一方可以勝訴的問題。結(jié)果顯示,人工智能系統(tǒng)預(yù)測的準(zhǔn)確率高得驚人,可以達(dá)到79%。雖然人工智能系統(tǒng)預(yù)測成功率令人滿意,但是人工智能的司法裁判是基于規(guī)則理性的推理,而無法像人類一樣運用超越規(guī)則進(jìn)行價值判斷。人工智能的預(yù)測更多地依賴于非法律事實,而非人類創(chuàng)設(shè)的法律規(guī)則。
此外,更多目前人工智能預(yù)測系統(tǒng)的主要問題在于,研究人員使用的數(shù)據(jù)范圍相對有限,現(xiàn)階段基于大數(shù)據(jù)的類案推薦大多數(shù)采用的是自然語言識別技術(shù)進(jìn)行海量文書的關(guān)鍵案情的提取,導(dǎo)致人工智能對判決的理解僅僅局限于訓(xùn)練數(shù)據(jù)[15](P142),而對于案件的背景知識知之甚少,所以常常無法理解判決與判決之間的細(xì)微差別,可能會導(dǎo)致案件判決的偏差。馬爾庫塞說:“當(dāng)技術(shù)成為物質(zhì)生產(chǎn)的普遍形式時,就制約著整個文化,人的體力和智力不得不依附于越來越復(fù)雜的機(jī)器,從而使人失去了其應(yīng)有的創(chuàng)造性,成為機(jī)械系統(tǒng)的奴隸?!保?6](P77)當(dāng)法官在司法裁判中越來越多的運用人工智能作為輔助裁判工具時,人工智能審判輔助系統(tǒng)分析產(chǎn)生的結(jié)果會對法官的自我判斷產(chǎn)生一定的導(dǎo)向性。當(dāng)個案中出現(xiàn)一些需要給予特別考量的道德因素時,輔助審判系統(tǒng)可能會出現(xiàn)偏差。如果法官不對這些因素進(jìn)行個案衡量,而是導(dǎo)向性的依賴輔助審判系統(tǒng)給出的結(jié)果,可能會產(chǎn)生裁判的不公正。長此以往,以人工智能為依托的輔助審判系統(tǒng)會導(dǎo)致法官產(chǎn)生技術(shù)上的路徑依賴⑤,縮小司法的自由裁量權(quán)的適用空間,最終影響審判的公正性。因此,在司法裁判過程中,我們需要在算法決策之外,發(fā)揮人對技術(shù)的主觀判斷,避免形成以人工作智能為核心的技術(shù)上的路徑依賴。具體來說,在人工智能輔助司法決策過程中,應(yīng)要求輔助法官直接審判決策類的算法必須提供決策解釋,鼓勵其他影響法官決策的算法盡可能提高算法的可解釋性,以促進(jìn)司法決策的透明和公開,保證案件判決結(jié)果的公平公正。
制定有效的人工智能治理規(guī)則往往依賴于我們對人工智能的正確理解。然而在作出任何有意義的治理決策之前,擺在人類面前的首先是一道認(rèn)知難題:我們對于人工智能的認(rèn)知有限,也缺乏了解人工智能的工具。在現(xiàn)實生活中,人工智能產(chǎn)生的成果關(guān)乎著人類各方權(quán)利義務(wù)的分配和利益的衡量。例如微軟小冰創(chuàng)作的詩集,其法律性質(zhì)如何,可否定義為作品,從而獲得著作權(quán)法的保護(hù)。如果能獲得保護(hù),參與小冰創(chuàng)作的各方包括小冰算法的工程師、人工智能小冰及后續(xù)參與創(chuàng)作的人類創(chuàng)作者之間如何分配相應(yīng)的權(quán)利義務(wù)。這些新型法律問題的解決依賴于我們合理考量這些法律問題背后所帶來的社會影響和法律實施效果。在評價法律實施效果的過程中我們需要選擇合理的分析路徑。
首先,我們必須為機(jī)器進(jìn)行雙重意義的編碼:也就是說我們需要將人類所要實現(xiàn)的法律目的寫入法律,同時寫入控制機(jī)器的軟件。因為只有將現(xiàn)存的第一層編碼,也就是法律編碼里所有不清楚和不確定的因素完全排除,我們才能進(jìn)行第二層編碼的編寫。而在這個階段,明確的法律目的至關(guān)重要。具體來說,就是要運用法律分析工具具體衡量各方利益及由此帶來的社會效果。以小冰詩集為例,對于人工智能生成物是否應(yīng)該納入法律保護(hù)范圍,需要運用成本效益分析的法經(jīng)濟(jì)學(xué)分析方法,分析比較將其納入法律保護(hù)框架中的社會效果。人工智能產(chǎn)生的大量創(chuàng)作成果在滿足了獨創(chuàng)性要求的情況下,如果不對這些成果給予著作權(quán)法上的保護(hù),其后果是大量的具有獨創(chuàng)性內(nèi)容的成果將會進(jìn)入公有領(lǐng)域,人類使用者將會有大量的免費優(yōu)質(zhì)內(nèi)容可以使用,不用再需要通過付費獲取內(nèi)容,從而損害創(chuàng)作者的版權(quán)獲利,挫傷版權(quán)人的創(chuàng)作意愿。我們可以將其歸結(jié)為創(chuàng)作成果的“激勵”與“接觸”之間的交換平衡被打亂,沒有法律保護(hù)復(fù)制的發(fā)生,則創(chuàng)造知識財產(chǎn)的激勵也受到破壞。[17](P14)著作權(quán)法所設(shè)定的鼓勵創(chuàng)作、激勵創(chuàng)新的法律目的就難以實現(xiàn)。
其次,如果我們將法律條文編程輸入智能機(jī)器,在第二次編碼的編寫過程中,軟件代碼不允許含混,因此代碼必須表意明確,這樣機(jī)器才能按照代碼執(zhí)行。[18](P138)這種輸入過程一方面要求我們對法律條文的理解具有準(zhǔn)確性,另一方面還需要為法律條文的法解釋學(xué)留有一定的空間。面對不斷涌現(xiàn)的新興事物,司法過程中需要運用法解釋學(xué)對新情況、新問題作出回應(yīng),這就需要我們在將法律條文輸入的過程中將該法律條文背后所蘊含的法律目的和法律原理等內(nèi)容進(jìn)行轉(zhuǎn)換,幫助人工智能在輔助司法決策過程中可以更好地服務(wù)于特定的法律目的,實現(xiàn)對各方權(quán)利義務(wù)的合理配置。
人工智能被譽為是當(dāng)代創(chuàng)新技術(shù)“工具箱”中的極為重要的一種。過去的半個世紀(jì)以來,技術(shù)創(chuàng)新成為推動各行各業(yè)轉(zhuǎn)型發(fā)展的基礎(chǔ)性要素,從中央處理器、個人電腦、互聯(lián)網(wǎng)絡(luò)、智能設(shè)備、移動通信,到云計算、大數(shù)據(jù)、物聯(lián)網(wǎng)、區(qū)塊鏈等,新興技術(shù)的日趨成熟,不斷激活新一輪的創(chuàng)新浪潮,引領(lǐng)社會經(jīng)濟(jì)生活多個領(lǐng)域的深刻變革,但這些技術(shù)的變革與更新是以人的思想創(chuàng)新為根本。法國思想家布萊茲·帕斯卡曾說過:“人不過是一根蘆葦,是自然界里最脆弱的東西;但他是一根會思想的蘆葦?!保?](P1)我們?nèi)祟愡M(jìn)步與創(chuàng)新的源泉在于思想,而人工智能時代我們引以為傲的思想也可能會被取代和復(fù)制。
哲學(xué)家溫迪楚指出,從基因密碼到市場看不見的手,從意識形態(tài)到文化,程序?qū)蔀橐磺胁豢梢姷膮s又有著巨大影響力的事物的強有力的“隱喻”。我們的基因密碼也是數(shù)字化的,正如電腦代碼一般。我們的文化也是可以再編程的,我們的大腦就是一臺由神經(jīng)元構(gòu)成的電腦,進(jìn)化就是對我們的編程,而基因密碼每天都在被不斷寫入。我們?nèi)祟愡M(jìn)化的過程也伴隨著技術(shù)的不斷發(fā)展,而技術(shù)的進(jìn)化過程中,也必然會從最初的只關(guān)注技術(shù)本身的發(fā)展逐漸過渡到將人類的價值觀和倫理觀納入其中,更好地促進(jìn)和引導(dǎo)技術(shù)的發(fā)展朝著有利于人類自身發(fā)展的方向演進(jìn),而人工智能便是這股技術(shù)進(jìn)化浪潮中的典型代表。有人說:“人工智能,是西方式法治的大敵?!保?9](P190)因為即使是我們?nèi)祟惪雌饋矸彪s的程序、與日俱增的法規(guī)案例,人工智能系統(tǒng)可以迅速掌握。所有這些法律人引以為傲的知識和身份,連同多年積累的辦案經(jīng)驗、人脈資源,被人工智能取代,成為算法與數(shù)據(jù)。我們在面對人工智能帶來的機(jī)遇與挑戰(zhàn)時候,不應(yīng)盲目地否定或認(rèn)可,應(yīng)更加冷靜客觀地分析其背后的技術(shù)原理和算法實現(xiàn)過程。在法律實踐的全流程中將技術(shù)與道德、倫理因素緊密結(jié)合,將人類的價值觀和法律的目的性納入人工智能的實現(xiàn)過程中,使其更好地為法律服務(wù),構(gòu)建一套人工智能在法律領(lǐng)域特有的并在各國具有普適性的法律倫理框架。
注釋:
①機(jī)器學(xué)習(xí)是人工智能的一種類型,允許計算機(jī)在沒有特別的程序指導(dǎo)下可以自主學(xué)習(xí),使計算機(jī)可以通過大數(shù)據(jù)可以進(jìn)行適應(yīng)性學(xué)習(xí)。See Andrew Arruda,An Ethical Obligation to Use Artificial Intelligence?An Examination of the Use of Artificial Intelligence in Law and the Model Rules of Professional Responsibility,40 Am.J.Trial Advoc.443(2017).
②常被用作貶義詞,形容那些站在歷史對立面、反對技術(shù)進(jìn)步和必然變革對新技術(shù)持仇視態(tài)度的人,這些人被概括稱為“盧德分子”。參見:王闖《盧德分子》,《視野》2017年第19期第32頁。
③電車難題,是一個倫理學(xué)的思想實驗。英國哲學(xué)家菲利帕·芙特在1967年首次提出這個問題。在1996年,朱迪斯·湯姆遜、彼得·昂格爾等人重新提出這個問題,使這個問題為人所熟知。大致內(nèi)容是假設(shè)你看到一輛剎車壞了的有軌電車,即將撞上前方軌道上的五個人,而備用軌道上有一個人,如果你什么都不做,五個人會被撞死,如果你按下一個按鈕,車會駛?cè)雮溆密壍?,只會撞死一個人。你是否會犧牲一個人的生命而拯救另外五個人的生命?
④黑箱是指一個系統(tǒng),該系統(tǒng)只能得到它的輸入值和輸出值,而不知道其內(nèi)部結(jié)構(gòu)。黑箱可以是任何系統(tǒng),只要是僅根據(jù)其外部性質(zhì)的研究來對它進(jìn)行判斷的系統(tǒng)。參見:高奇琦《人工智能:馴服賽維坦》,上海交通大學(xué)出版社2018年版第23頁。
⑤路徑依賴的概念最早來源于生物學(xué)界,用來說明偶然性隨機(jī)因素對物種進(jìn)化路徑的影響,之后美國經(jīng)濟(jì)學(xué)家David將其引入經(jīng)濟(jì)學(xué)的研究范疇,用于解釋技術(shù)變遷中的問題。See P.A.David,Clio and The Economics of Qwerty.American Economic Review,1985,75(2).