王亦偉
(北京韜安律師事務(wù)所,北京 100123)
伴隨第三次人工智能革命的到來,人工智能在自動(dòng)駕駛、圖像識(shí)別、智能家居、機(jī)器翻譯、醫(yī)療服務(wù)、電子競(jìng)技等領(lǐng)域的應(yīng)用隨處可見,有關(guān)人工智能的話題不斷涌現(xiàn)。2017年以來,法學(xué)領(lǐng)域有關(guān)人工智能的討論越發(fā)活躍。在此背景下,人工智能在法律判斷領(lǐng)域的應(yīng)用以及基于此技術(shù)在法院判決中實(shí)踐的假想制度也不時(shí)成為討論對(duì)象。
事實(shí)上,有關(guān)人工智能的研究很早就涉及法律判斷這一應(yīng)用領(lǐng)域。早在1970年,Buchanan等[1]便發(fā)表了《關(guān)于人工智能和法律推理若干問題的考察》一文。在20世紀(jì),以人工智能在法律領(lǐng)域應(yīng)用為主題召開的國際會(huì)議,有ICAIL(International Conference on Artificial Intelligence and Law)和JAC(Jurix Annual Conference)[2]。人工智能主題研究大都基于人工智能發(fā)展的第一次熱潮(20世紀(jì)50年代到60年代)、第二次熱潮(20世紀(jì)80年代到90年代)和第三次熱潮(2006年至今)展開。有關(guān)人工智能在法律判斷領(lǐng)域的應(yīng)用研究在第二次熱潮期興盛起來。這一時(shí)期,備受世界矚目的人工智能技術(shù)是關(guān)于“知識(shí)表示學(xué)習(xí)(Knowledge Representation Learning)”的技術(shù),其與現(xiàn)今第三次熱潮中廣為人知的“機(jī)器學(xué)習(xí)(Machine Learning)”完全不同。探討人工智能在法律判斷領(lǐng)域的應(yīng)用時(shí),不僅需要著眼于現(xiàn)時(shí)流行的機(jī)器學(xué)習(xí),而且需要關(guān)注那些所謂“過時(shí)”的基于“知識(shí)表示”的推理技術(shù)。只有梳理多方面的研究,才能把握人工智能技術(shù)發(fā)展與變遷的實(shí)質(zhì)。因此,筆者擬整理各國以法律判斷為對(duì)象的人工智能應(yīng)用研究的歷史和現(xiàn)狀,并在此基礎(chǔ)上提出法學(xué)領(lǐng)域在接受這些研究時(shí)可以采取的基本立場(chǎng)。
所謂知識(shí)表示學(xué)習(xí)模型,是指將“知識(shí)”符號(hào)化后輸入計(jì)算機(jī)系統(tǒng),而后由推理系統(tǒng)從“知識(shí)”中導(dǎo)出有意義的信息,最終由判斷系統(tǒng)基于前述信息作出一定的決策智能行動(dòng)[3]。在此,“知識(shí)”是指可由推理系統(tǒng)方便處理的、具備特定形式的數(shù)據(jù),與機(jī)器學(xué)習(xí)中使用的單純數(shù)據(jù)完全不同。如前所述,知識(shí)表示學(xué)習(xí)模型是在第二次熱潮中流行的研究主題,但事實(shí)上至少在法律判斷領(lǐng)域,目前依舊有關(guān)于此主題的研究。依據(jù)使用的知識(shí)種類,法律判斷的知識(shí)表示學(xué)習(xí)模型大致可以分為規(guī)則基礎(chǔ)型和判例基礎(chǔ)型兩種類型[4],筆者將結(jié)合研究實(shí)例闡述這兩種模型。
規(guī)則基礎(chǔ)型系統(tǒng)是以執(zhí)行演繹推理的知識(shí)表示學(xué)習(xí)系統(tǒng)為基礎(chǔ)的系統(tǒng),使用的是具有“如果……,那么……”這類形式的“知識(shí)(規(guī)則型知識(shí))”,通過將輸入的信息與這些規(guī)則型知識(shí)相匹配導(dǎo)出結(jié)論(進(jìn)行判斷)。也可以將這種形式的系統(tǒng)視為第一次熱潮時(shí)已獲成功的“自動(dòng)定理證明系統(tǒng)(關(guān)于一定范圍的數(shù)學(xué)定理,自動(dòng)構(gòu)成對(duì)其的證明的系統(tǒng))”的衍生系統(tǒng)來捕捉其意義。
基于這種“規(guī)則型知識(shí)”進(jìn)行法律判斷,似乎是件極其自然的事情。因?yàn)榉梢?guī)范一般具有“如果滿足‘某項(xiàng)法律構(gòu)成要件’,則發(fā)生‘某種法律效果’”這樣的典型結(jié)構(gòu),系統(tǒng)便是基于制定法的規(guī)則型知識(shí),依據(jù)上述邏輯對(duì)法律問題給予回答的推理結(jié)構(gòu)。
倫敦帝國學(xué)院Sergot等開發(fā)的一個(gè)系統(tǒng),將1980年《英國國籍法》(BritishNationalityAct1980)的各項(xiàng)條文作為命題,將其程序化后可對(duì)有關(guān)《英國國籍法》的多種問題給出答復(fù)[5],這是制定法判斷系統(tǒng)研究方面的一個(gè)典型實(shí)例。Sergot等在該系統(tǒng)中采用了邏輯編程語言Prolog(Programming in logic)。
Prolog是將程序作為Horn子句邏輯的集合來表現(xiàn)的編程語言。命題的集合一般被稱為理論(theory),Prolog是將程序理解為一種理論,作為從中證明命題的嘗試來表示程序執(zhí)行的語言。總而言之,如果《英國國籍法》的各項(xiàng)條文可以通過Prolog來表達(dá),Prolog就可以在此基礎(chǔ)上對(duì)有關(guān)《英國國籍法》的問題,以該問題項(xiàng)目是否可以從《英國國籍法》“證明”的形式給出回答。筆者將針對(duì)《英國國籍法》具體條文,以“如果A就B”的形式簡(jiǎn)單地呈現(xiàn)Prolog的表現(xiàn)形式(如表1所示),與標(biāo)準(zhǔn)的Prolog程序相比,下述內(nèi)容較為簡(jiǎn)略。
表1 Prolog對(duì)《英國國籍法》的表現(xiàn)形式
上述第二項(xiàng)規(guī)則中包含了 “只要不能證明在英國境外出生,便視為在英國境內(nèi)出生”的含義,由此不僅引入了邏輯非(logical negation),還導(dǎo)入了失敗即否定(negation as failure)的表現(xiàn)形式。分別使用這兩種否定形式,可以很容易地呈現(xiàn)法條的結(jié)構(gòu)。該研究的一大特征是將制定法的邏輯分析直接作為人工智能來開發(fā)。從20世紀(jì)50年代開始,制定法邏輯分析的主要目的是對(duì)去除制定法的句法歧義(syntactical ambiguity)的嘗試[6]。
在亞洲,日本國立信息科學(xué)研究所的計(jì)算機(jī)專家佐藤健等嘗試開發(fā)了根據(jù)要件事實(shí)理論進(jìn)行法律判斷的PROLEG[7]。PROLEG是作為前述Prolog的擴(kuò)展語言所構(gòu)建的程序語言,采用的是“如果是‘要件事實(shí)’,則得出‘效果’并且追加了‘原則/例外’”這樣的雙重結(jié)構(gòu),以此記述要件事實(shí)理論。PROLEG可以根據(jù)以此方式表達(dá)的規(guī)則型知識(shí)和關(guān)于當(dāng)事人的主張和證明的信息(事實(shí)基礎(chǔ))來引導(dǎo)該案件中的判決(接受/駁回當(dāng)事人的訴訟請(qǐng)求)。
與Sergot等的研究不同,佐藤健等研究的特殊點(diǎn)在于將審判這一實(shí)際法律適用場(chǎng)景中含有的證明責(zé)任規(guī)范的要件事實(shí)理論作為對(duì)象。值得一提的是,PROLEG過去始終專注于民事訴訟方面的定義,但近年來也嘗試向刑事訴訟擴(kuò)展[8]。
基于判例數(shù)據(jù)的法律判斷系統(tǒng)是以執(zhí)行類推的知識(shí)表示學(xué)習(xí)系統(tǒng)為基礎(chǔ),使用過去的類似判例知識(shí),在“類案類判”的大原則前提之下,通過借用類似判例的結(jié)論來進(jìn)行判斷。這里所關(guān)注的是根據(jù)過去的判例知識(shí),以及以過去判例的類似性為理由(或以非類似性為理由)導(dǎo)出與該判例相同的結(jié)論(或?qū)С鱿喾吹慕Y(jié)論)。
此類研究的一個(gè)實(shí)例:美國匹茲堡大學(xué)計(jì)算機(jī)專家Ashley開發(fā)了一種系統(tǒng)——HYPO,該系統(tǒng)以美國《商業(yè)秘密保護(hù)法案》(TradeSecretLaw)為材料,模擬各方當(dāng)事人之間的主張與答辯。HYPO是使用因次(dimension)展現(xiàn)的判例知識(shí)來進(jìn)行類推的結(jié)構(gòu)。這里所說的因次,簡(jiǎn)而言之是構(gòu)成案件的各個(gè)要素,表現(xiàn)了有關(guān)在認(rèn)定構(gòu)成商業(yè)秘密的判例中的某些特定事實(shí)(例如,對(duì)該秘密采取了一定的保密措施等)。各個(gè)判例中的每個(gè)因次都存在一個(gè)連續(xù)值,表明它在多大程度上可以成立,由此構(gòu)成該判例的一個(gè)總特征值。如果將判例知識(shí)同樣以因次這種表現(xiàn)形式輸入,HYPO便會(huì)開始檢索過去的類似判例,利用這樣的知識(shí)構(gòu)建當(dāng)事人可能作出的主張,并對(duì)此進(jìn)行模擬。HYPO還有幾個(gè)后續(xù)系統(tǒng),比如由Alevan等開發(fā)的CATO就是其中之一[9]。
同樣,美國德克薩斯大學(xué)的Branting博士則開發(fā)了一個(gè)以工傷事故判例為研究對(duì)象的系統(tǒng)——Grebe[10]。其中一個(gè)工傷判例的描述為:在卡車公司工作的Vahn被允許在運(yùn)輸過程中去吃午飯,但在去餐館的路上發(fā)生了事故。針對(duì)前往餐廳的行為是否為工作中的行為雙方有所爭(zhēng)議,法院著眼于以下事實(shí)認(rèn)定其為工作中的行為:(1)Vahn是卡車公司的員工;(2)公司認(rèn)可可以吃午飯;(3)Vahn吃了午飯;(4)吃了午飯就不會(huì)餓;(5)不吃午飯餓了會(huì)妨礙正常工作;(6)Vahn在去餐廳吃午飯的過程中受傷。假設(shè)這里發(fā)生了新的案件(Jarek案),該案中鐵路公司的Jarek收到需夜間工作的緊急命令,因?yàn)殡x家很近,他被允許去告知妻子這件事,在歸宅途中受了傷。同樣將該事件拆分為各種要素,并與上述Vahn事件的判例規(guī)則的條件進(jìn)行類似判斷,如果認(rèn)定的要素相似度較高,則判斷Jarek的行為同屬于工作中的行為。Grebe對(duì)工傷判斷的表現(xiàn)形式如表2所示。
表2 Grebe對(duì)工傷判斷的表現(xiàn)形式
在亞洲,日本東京工業(yè)大學(xué)的計(jì)算機(jī)專家新田克己等研究開發(fā)了HELIC-Ⅱ系統(tǒng),該系統(tǒng)是依據(jù)日本法律和日本判例對(duì)各方之間的主張與答辯進(jìn)行模擬[11]。但與HYPO不同,HELIC-Ⅱ是一種混合型系統(tǒng),其還是一種使用制定法相關(guān)知識(shí)的規(guī)則基礎(chǔ)型推理系統(tǒng),當(dāng)事人的主張基本上由該規(guī)則基礎(chǔ)型推理系統(tǒng)構(gòu)建,判例推理系統(tǒng)則是在前述規(guī)則推理不能充分發(fā)揮作用的情況下才會(huì)被使用。也就是說,規(guī)則知識(shí)常常包含“抽象的概念”,在與案件相關(guān)的具體記述之間可能會(huì)產(chǎn)生隔閡,因此,使用判例推理來對(duì)規(guī)則推理進(jìn)行補(bǔ)充。
在HELIC-Ⅱ系統(tǒng)中,判例分為“狀況記述”和“判例規(guī)則”兩種表現(xiàn)形式。大體上可以認(rèn)為前者是對(duì)客觀事實(shí)的一種認(rèn)定,后者則是判例固有的一些規(guī)則(法律解釋和經(jīng)驗(yàn)規(guī)則等)。HELIC-Ⅱ原本便是基于該“判例規(guī)則”構(gòu)建的語義網(wǎng)絡(luò),計(jì)算判例之間的類似性,并據(jù)此在制定法相關(guān)知識(shí)和具體判例的記述之間架起橋梁的結(jié)構(gòu)。HELIC-Ⅱ也有幾個(gè)后續(xù)項(xiàng)目,例如,搭載了語音識(shí)別技術(shù)等進(jìn)行訴訟模擬的系統(tǒng)MrBengo就是其中之一[12]。
由以上研究可以看出,知識(shí)表示學(xué)習(xí)模型極其樸素,但是,其至少與對(duì)法律判斷的直率理解相輔相成。例如,法律判斷有演繹推理和類推推理兩種類型,前者對(duì)應(yīng)制定法知識(shí),后者對(duì)應(yīng)判例知識(shí),二者很容易相互結(jié)合。另外,在本文介紹的范圍內(nèi),規(guī)則基礎(chǔ)型系統(tǒng)都是實(shí)現(xiàn)“推理”的系統(tǒng);與此相對(duì),判例基礎(chǔ)型系統(tǒng)則只是對(duì)案情討論的模擬。這是因?yàn)?,相比基于類推推理的判例基礎(chǔ)型系統(tǒng),基于演繹推理的規(guī)則基礎(chǔ)型系統(tǒng)更容易導(dǎo)出唯一的結(jié)論。此外,由上面介紹的HELIC-Ⅱ是混合結(jié)構(gòu)的系統(tǒng)也可以看出,規(guī)則基礎(chǔ)型系統(tǒng)和判例基礎(chǔ)型系統(tǒng)不是二選一的關(guān)系,而是可以根據(jù)適合的情形任意分開或組合使用。例如,在第二次熱潮期開發(fā)的“法律專家系統(tǒng)”也和HELIC-Ⅱ一樣,以基于制定法的規(guī)則基礎(chǔ)型系統(tǒng)為基礎(chǔ),并用判例基礎(chǔ)型系統(tǒng)來補(bǔ)充[13]。
機(jī)器學(xué)習(xí)模型是在第三次熱潮中備受關(guān)注的主題。這一時(shí)期的研究將機(jī)器學(xué)習(xí)和分類問題作為基本事項(xiàng),并探究如何將其應(yīng)用于法律判斷。機(jī)器學(xué)習(xí)是指從一定的數(shù)據(jù)中構(gòu)建具有普遍性的判斷標(biāo)準(zhǔn)的技術(shù)。這種具有普遍性的判斷標(biāo)準(zhǔn)模型被稱為學(xué)習(xí)模型,構(gòu)筑模型的過程稱為學(xué)習(xí)或泛化(generalization)。所謂學(xué)習(xí),是指從有限的信息中推導(dǎo)出具有普遍性模型的泛化處理,就如同人類或其他生物一樣從經(jīng)歷中掌握普適性規(guī)律[14]。知識(shí)表示學(xué)習(xí)模型使用的是對(duì)于推理系統(tǒng)而言可用的,經(jīng)過特殊篩選與處理的數(shù)據(jù)(即知識(shí))來開發(fā)人工智能;而機(jī)器學(xué)習(xí)則是讓系統(tǒng)在數(shù)據(jù)中通過泛化自動(dòng)構(gòu)筑具有普遍性的模型來開發(fā)人工智能。使用這種機(jī)器學(xué)習(xí)時(shí)遇到的典型問題之一,就是“分類問題(classification problem)”。分類問題是指將輸入值按其特征分配給合適的小組。對(duì)輸入值進(jìn)行分類的系統(tǒng)(分類器)很多情況下是通過機(jī)器學(xué)習(xí)完成的,一般來說,機(jī)器學(xué)習(xí)適合對(duì)比較繁雜的問題進(jìn)行分類。將人工智能應(yīng)用于法律判斷時(shí),采用機(jī)器學(xué)習(xí)就是將法律判斷作為一個(gè)分類問題并加以公式化。也就是說,將法律判斷看作是將輸入的信息集合分為“接受”“駁回”等類別,建立解決分類問題的系統(tǒng)。
使用自然語言處理技術(shù)對(duì)判決進(jìn)行“預(yù)測(cè)”的研究,是基于該種形式的人工智能的一個(gè)應(yīng)用實(shí)例。如果以上述公式化為前提,那么,所謂判決的“預(yù)測(cè)”可以被定義為將不包括判決結(jié)論部分的信息歸類為法院將認(rèn)定的判決類別的問題;而且,由于判決是一種文本數(shù)據(jù),這類任務(wù)的一種單純的具體化過程便是將不包含與判決結(jié)論相當(dāng)部分(例如判決理由部分)的文本用于表示其結(jié)論的類別(例如“接受”或“駁回”)。謝菲爾德大學(xué)計(jì)算機(jī)專家Aletras等[15]使用支持向量機(jī)(Support Vector Machine,SVM)這一機(jī)器學(xué)習(xí)算法,通過讓人工智能學(xué)習(xí)歐洲人權(quán)法院的判決書,驗(yàn)證人工智能能進(jìn)行判決預(yù)測(cè)的準(zhǔn)確度。實(shí)驗(yàn)僅針對(duì)違反《歐洲人權(quán)公約》第3.6.8條構(gòu)成侵權(quán)的判例,通過十折交叉驗(yàn)證法(stratified 10-fold cross validation)驗(yàn)證使用這些判例的文本信息(詞袋和主題信息)學(xué)習(xí)后的SVM算法模型的預(yù)測(cè)準(zhǔn)確度。當(dāng)使用文本信息和主題信息,特別是“circumstances”(即其中有關(guān)訴爭(zhēng)情況的部分)進(jìn)行預(yù)測(cè)時(shí),準(zhǔn)確度達(dá)到了79%。
在使用自然語言處理的預(yù)測(cè)研究中,可以有多種變化。例如,Aletras 等在研究中使用的SVM算法模型擅長使用相對(duì)少數(shù)數(shù)據(jù),研究中用于訓(xùn)練的數(shù)據(jù)集數(shù)量只有250個(gè)左右。而Aletras等在后續(xù)進(jìn)行的另一項(xiàng)研究中,嘗試使用神經(jīng)網(wǎng)絡(luò)作為學(xué)習(xí)模型,使之學(xué)習(xí)相對(duì)大量的數(shù)據(jù)(大約2 500個(gè))[16]。與針對(duì)特定條文并預(yù)測(cè)侵權(quán)/非侵權(quán)這一課題的研究不同,該研究沒有預(yù)先確定適用的條文,而是要求系統(tǒng)先如法院一般判定是否構(gòu)成侵權(quán)。如果認(rèn)定構(gòu)成侵權(quán),則需要繼續(xù)判斷是依據(jù)第幾款法條作出的認(rèn)定,其特點(diǎn)在于嘗試了更為復(fù)雜的預(yù)測(cè)任務(wù)(多級(jí)分類問題)。
上述研究是通過將法律判斷中輸入的信息總體分類為判決中對(duì)應(yīng)的各項(xiàng)類別而建立的公式化系統(tǒng)。與之前已經(jīng)確認(rèn)的知識(shí)表示學(xué)習(xí)模型在法律判斷上比較直接的邏輯相比,將分類問題加以公式化在技巧上顯得有些不協(xié)調(diào)。特別是在法律判斷中,基于制定法或判例等“法律淵源”的判斷是必要的。從上述研究中可以看出,這樣的構(gòu)造并沒有出現(xiàn)在機(jī)器學(xué)習(xí)這一方式中。
綜上所述,已有多種形式的人工智能被應(yīng)用于法律判斷領(lǐng)域。可以說,上述研究的初心都是希望人工智能在某種程度上代替司法裁判中的法官,并對(duì)相關(guān)法律問題作出獨(dú)立判斷。事實(shí)上,早在1977年,美國學(xué)者D′Amato[17]就提出了“人類法官能否以及應(yīng)否被機(jī)器法官所取代”的問題,我國也有不少學(xué)者對(duì)此問題進(jìn)行了探討。學(xué)者們普遍認(rèn)為,人工智能僅能作為輔助法官或律師的手段,而不能完全取代法官或律師。
法律的形式理性希望法律達(dá)到一種確定性的狀態(tài),在這種狀態(tài)下,人們能對(duì)各種社會(huì)行為作出一個(gè)預(yù)先的規(guī)范要件判斷,以便在出現(xiàn)爭(zhēng)議時(shí)不必借助其他手段而僅通過三段論的法律邏輯推理得到一個(gè)確定的結(jié)果。但是,無論是大陸法系國家的制定法還是英美法系國家的判例法,都具有遲滯性,無法及時(shí)回應(yīng)社會(huì)上某些新興事物引發(fā)的法律問題。此外,某些法律條文的含義也可能存在有爭(zhēng)議或者模糊不清的情況。此種情形下,人類法官必須借助法律的各項(xiàng)基本原則,甚至是道德、宗教、政治、經(jīng)濟(jì)上的因素去作出判斷。相應(yīng)地,在沒有預(yù)設(shè)的、明確具體的規(guī)范可以參照的情形下,人們顯然不太確信人工智能可以作出正確的、符合正義的判決[18]。
有學(xué)者認(rèn)為,即使人工智能法律系統(tǒng)通過了圖靈測(cè)試,能做到像人一般思考,也不能獨(dú)立替代法官的地位。其列舉了1968年美國“人民訴柯林斯案”以及“17世紀(jì)詹姆斯一世與英格蘭首席大法官柯克一段談話”兩個(gè)例子來證明上述觀點(diǎn)。在前一個(gè)例子中,根據(jù)證人證言,一名白人女性襲擊并試圖搶劫一名老年婦女后,乘一輛非裔美國男子開的轎車從現(xiàn)場(chǎng)逃離。隨后,符合其描述的一名白人女性和一名非裔美國男性被送交審判??胤皆谛淌掳讣幸氩⑹褂脭?shù)學(xué)上的蓋然性證據(jù),運(yùn)用“乘積規(guī)則”,將一系列相互獨(dú)立事件發(fā)生的可能性以百分比的形式歸納出來,相乘之后的積,被認(rèn)為是各事件并發(fā)的可能性。檢方將這一乘積定律應(yīng)用于案件事實(shí),進(jìn)而得出了一個(gè)蓋然性結(jié)論:一對(duì)男女同時(shí)具有兩被告明顯特征的概率只有一千二百萬分之一,由此憑借計(jì)算對(duì)這兩位在押嫌疑人進(jìn)行指控。在后一個(gè)例子中,當(dāng)國王提出希望參與審判的想法時(shí),柯克大法官回答道:“不錯(cuò),上帝的確賦予陛下極其豐富的知識(shí)和無與倫比的天賦;但是,陛下對(duì)于英格蘭王國的法律并不精通。法官要處理的案件動(dòng)輒涉及臣民的生命、繼承、動(dòng)產(chǎn)或不動(dòng)產(chǎn),只有自然理性是不可能處理好的,更需要人工理性。法律是一門藝術(shù),在一個(gè)人能夠獲得對(duì)它的認(rèn)識(shí)之前,需要長期的學(xué)習(xí)和實(shí)踐。”[19]學(xué)者通過這兩個(gè)例子證明,法律判斷不應(yīng)僅僅是主觀的單純概率判斷的問題,法律也不局限于法律專業(yè)知識(shí)本身,還會(huì)涉及政治學(xué)、經(jīng)濟(jì)學(xué)、社會(huì)學(xué)、哲學(xué)等其他學(xué)科。如果一個(gè)人只懂得法律,其作出的判斷往往會(huì)背離司法所需要的真正正義[20]。也就是說,司法判決絕對(duì)不是單純的理性裁判過程,還有道德、習(xí)慣、文化、社會(huì)觀念等方面內(nèi)容,這些內(nèi)容往往需要和法官的感性判斷掛鉤,這正是人工智能所不具備的[21]。
根據(jù)上述理由,筆者認(rèn)為,應(yīng)該依據(jù)人工智能的發(fā)展水平對(duì)其有所區(qū)分對(duì)待。例如,當(dāng)人工智能已經(jīng)達(dá)到通過圖靈測(cè)試的級(jí)別時(shí),無論法律本身是否具有不周延性,抑或法律是一種價(jià)值判斷的問題,已經(jīng)具有類似人類思考能力的人工智能當(dāng)然不會(huì)局限于法律本身作出機(jī)械、僵硬的判斷。這或許正如日本學(xué)者駒村圭吾[22]所言:“如果從法治其根本目的便是為了排除人治這一點(diǎn)來考量的話,人工智能的支配在排除人治這一點(diǎn)上不也有著異曲同工之妙,并且即使是法治,其中也有一半是由作為人的法官所獨(dú)占。所以,為了全面實(shí)施法治,甚至可以說人工智能的支配更為徹底。”
誠然,法條只有經(jīng)過法官的解釋方得以適用。在此過程中,人不免會(huì)受到自身價(jià)值觀的影響,甚至是朝著自身所希望的結(jié)論去解讀[23]。但是,法治和人治并不是完全對(duì)立的。法治是使用一種具有明確性、可預(yù)期性的規(guī)則去指導(dǎo)、約束社會(huì)的方方面面,這個(gè)過程中也無法脫離人的因素。各國的上述研究也在諸多環(huán)節(jié)上體現(xiàn)了人對(duì)于人工智能的干涉。如在知識(shí)表示學(xué)習(xí)模型中使用的數(shù)據(jù),數(shù)據(jù)本身就是經(jīng)過人為挑選后而輸入的,機(jī)器學(xué)習(xí)模型中算法的學(xué)習(xí)邏輯也是由人決定的。更為重要的是,人工智能對(duì)于某個(gè)法律問題的判斷邏輯本身就是基于法官、法學(xué)家等法律從業(yè)者對(duì)于法律的解釋而適用的。
近年來,我國的研究人員也開發(fā)了一些將人工智能應(yīng)用于法律判斷的系統(tǒng)。例如,早在1993年,武漢大學(xué)法學(xué)院教授趙廷光便開發(fā)了電腦輔助量刑軟件;同年,中山大學(xué)學(xué)生胡釗、周宗毅、汪宏杰等合作研制了“Loa律師辦公自動(dòng)化系統(tǒng)”[24]。在2016年世界互聯(lián)網(wǎng)大會(huì)智慧法院網(wǎng)絡(luò)法治論壇上,最高人民法院周強(qiáng)院長提出,“將積極推動(dòng)人工智能在司法領(lǐng)域的應(yīng)用”[25]。2017 年,武俠律師打造的“法律機(jī)器人”上線,欲借助互聯(lián)網(wǎng)、人工智能的優(yōu)勢(shì)構(gòu)建法律服務(wù)平臺(tái)。該系統(tǒng)可根據(jù)當(dāng)事人選中需要咨詢的問題,拆分問題點(diǎn),引導(dǎo)當(dāng)事人逐一進(jìn)行回答,最后系統(tǒng)將在1秒內(nèi)生成上萬字的法律咨詢意見和預(yù)判報(bào)告。第十二屆全國人民代表大會(huì)第三次會(huì)議審議通過的《最高人民法院工作報(bào)告》中指出,人民法院將加快建設(shè)智慧法院,綜合運(yùn)用云計(jì)算、大數(shù)據(jù)等技術(shù),研究構(gòu)建司法人工智能系統(tǒng),為審判體系和審判能力現(xiàn)代化注入新動(dòng)力,為司法改革和法治中國建設(shè)提供有力支撐。在最高人民法院積極推進(jìn)下,全國各地法院紛紛響應(yīng),各自推出了名稱不同的人工智能法律系統(tǒng),如北京法院的“睿法官”智能研判系統(tǒng),上海法院的“206”刑事案件智能輔助辦案系統(tǒng),蘇州法院的“智慧審判蘇州模式”等。
盡管我國已經(jīng)有了較為成功的實(shí)踐,但從整體上看,我國司法裁判領(lǐng)域的人工智能依舊處于起步階段。除上文提到的人工智能本身所具有的共性問題外,在中國,人工智能的發(fā)展還面臨著許多獨(dú)有的困境。筆者將逐一分析這些困境,并探尋應(yīng)對(duì)的方法。
人工智能法律判斷在中國的發(fā)展面臨如下困境:
第一,技術(shù)上存在障礙。中國目前的人工智能在系統(tǒng)上表達(dá)不夠標(biāo)準(zhǔn),邏輯建構(gòu)不夠確定,場(chǎng)景設(shè)計(jì)高度同質(zhì)化[26]。另外,算法的設(shè)計(jì)還比較粗糙,大部分公司使用的只是“神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)”算法,沒有結(jié)合填充了豐富細(xì)節(jié)后的“知識(shí)圖譜”,使得其對(duì)于案件的判斷結(jié)果往往較為粗淺與模糊。
第二,研究領(lǐng)域過于集中,研究點(diǎn)與現(xiàn)實(shí)需求相偏離。目前,我國對(duì)于人工智能在法律判斷領(lǐng)域應(yīng)用的研究主要集中在刑事案件領(lǐng)域,而在民事案件領(lǐng)域中研究的重點(diǎn)則是合同文本自動(dòng)生成及部分內(nèi)容可視化表達(dá)、智能類推等[27]。事實(shí)上,我國85%的案件均為民事案件,需求也遠(yuǎn)不止合同文本的生成,因此,客觀原因也造成了有關(guān)民事法律問題判斷的研究進(jìn)展緩慢。
第三,數(shù)據(jù)的搜集整理不足。在我國,使用人工智能進(jìn)行分析時(shí),主要的數(shù)據(jù)來源是法院的裁判文書,但我國發(fā)布在網(wǎng)上的裁判文書可能僅有實(shí)踐中案例的50%,半數(shù)的案件都沒有被收錄[28]。
第四,相關(guān)人才儲(chǔ)備薄弱。人工智能的持續(xù)推進(jìn)需要法學(xué)人才和技術(shù)人才共同努力。然而,目前我國法學(xué)人才對(duì)于大數(shù)據(jù)、算法和人工智能的理解普遍較弱;技術(shù)人才又對(duì)法律行業(yè)感知不深,往往注重眼前利益,對(duì)還在發(fā)展階段的人工智能投入較少[29]。
第五,司法公信力缺失。從古至今,我國民眾都十分強(qiáng)調(diào)實(shí)體正義,注重情理與法理兼顧,對(duì)如包拯、海瑞這樣清正廉潔的官員天然具有一種信賴感。中華人民共和國成立以來,同樣有像馬錫五、宋魚水、陳燕萍這樣具有高度人格魅力的法官,他們以人際關(guān)系的信任為基礎(chǔ),推行親民式的審判方式,以打消百姓對(duì)于司法判決正當(dāng)性的質(zhì)疑或擔(dān)憂[30]。此外,法官與當(dāng)事人之間的良好溝通、法官的著裝、法庭的布置、開庭的程序,這些都會(huì)讓當(dāng)事人感受到司法過程的公信力以及增加對(duì)法官的信任感。然而,如果將人工智能運(yùn)用在法律判斷領(lǐng)域,則容易產(chǎn)生完全相反的效果。一是大部分人會(huì)覺得人工智能就是一個(gè)冰冷的機(jī)器,其缺少人的溫情,也不會(huì)主動(dòng)和當(dāng)事人溝通交流。二是人工智能本身就是一個(gè)黑箱。由于缺乏專業(yè)知識(shí),大部分普通中國百姓難以理解人工智能的運(yùn)轉(zhuǎn)原理,也無法親眼親耳去見證判斷過程,自然會(huì)對(duì)其作出的判決充滿不信任感。因此,如果當(dāng)事人對(duì)人工智能不夠信任,那么,無論是由多么優(yōu)秀的人工智能作出的判決,當(dāng)事人都會(huì)對(duì)判決的合理性表示懷疑,進(jìn)而可能導(dǎo)致上訴率增加或產(chǎn)生其他問題,反而無法達(dá)到提升司法效率的目的。
第一,在技術(shù)上,應(yīng)當(dāng)堅(jiān)持知識(shí)圖譜和深度學(xué)習(xí)相結(jié)合的思路,并逐步優(yōu)化算法。具體而言,可以使用非單調(diào)推理,多用思維導(dǎo)圖,將區(qū)塊鏈技術(shù)加入算法的設(shè)計(jì)中等??梢宰尫▽W(xué)專家參與到算法的編寫中,以起到監(jiān)督的作用。應(yīng)加快更多領(lǐng)域技術(shù)解決方案的開發(fā),將適用范圍擴(kuò)展到裁判的各個(gè)方面。
第二,在數(shù)據(jù)上,應(yīng)當(dāng)建立完善的數(shù)據(jù)管理系統(tǒng),并擴(kuò)大數(shù)據(jù)來源,積極推進(jìn)司法電子化。推進(jìn)法院案例資源上網(wǎng),并努力實(shí)現(xiàn)法院、檢察院、公安、社會(huì)中公司等機(jī)構(gòu)之間的數(shù)據(jù)共享。對(duì)于既有資源,應(yīng)當(dāng)加強(qiáng)管理,實(shí)現(xiàn)要件提取標(biāo)準(zhǔn)化、類案標(biāo)注科學(xué)化、類案問答交互化。
第三,在人才儲(chǔ)備上,應(yīng)當(dāng)加強(qiáng)法學(xué)人才與技術(shù)人才之間的交流合作,鼓勵(lì)法官等一線法律工作者在辦案過程中形成思維導(dǎo)圖、規(guī)范的辦案流程、規(guī)范的裁判用語等便于機(jī)器歸納與學(xué)習(xí)的材料。
第四,人工智能的算法應(yīng)具備一定的公開性和可解釋性。正如我國司法機(jī)關(guān)將裁判文書公示在網(wǎng)上,推進(jìn)網(wǎng)上庭審直播等,要使公眾信任司法判決,就需要將司法過程展現(xiàn)在公眾的視線中。同理,人工智能對(duì)于法律問題的判斷邏輯、方法原理等也應(yīng)該公之于眾。但是,僅僅公開并不當(dāng)然能使公眾信服人工智能所作出的判斷,唯有讓公眾理解其算法,才能使得公眾相信人工智能。然而,越是具有判斷準(zhǔn)確性的人工智能,一般其算法也越是具有復(fù)雜性。為增強(qiáng)人工智能的司法公信力,需要在判斷準(zhǔn)確性與可解釋性之間進(jìn)行平衡[31],這是有待解決的重要問題。
目前,人工智能在我國法律判斷領(lǐng)域的應(yīng)用尚不成熟,基礎(chǔ)性的資源、相應(yīng)的技術(shù)和人才儲(chǔ)備等方面都存在一定的問題。要解決這些問題,除了需要調(diào)整觀念和方向外,還需要一定的時(shí)間。技術(shù)的進(jìn)步會(huì)逐步改變?nèi)藗兊牧?xí)慣與認(rèn)知,隨著人工智能在法律判斷領(lǐng)域的應(yīng)用不斷升級(jí),可被方便識(shí)別的電子法律數(shù)據(jù)的積累、機(jī)器學(xué)習(xí)等算法模型的迭代效率程度及優(yōu)化效率也將呈指數(shù)級(jí)加速。無論人們是否愿意接受,司法裁判中的相當(dāng)一部分工作都正在逐步轉(zhuǎn)移給人工智能,未來人工智能所承擔(dān)工作的比重會(huì)逐漸增大,人們對(duì)于人工智能的認(rèn)知也會(huì)更加深入,但未來也將面臨新的困境與挑戰(zhàn)。
北京郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2021年1期