• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    人工智能嵌入司法審判的邏輯、困境與路徑

    2020-02-22 08:46:56王東方
    研究生法學(xué) 2020年2期
    關(guān)鍵詞:審判司法人工智能

    王東方

    1956年人工智能(artificial intelligence)概念首次提出,經(jīng)歷六十余年的發(fā)展,人工智能技術(shù)逐步實現(xiàn)弱人工智能(week intelligence)到強人工智能(strong intelligence)之歷史嬗變。在這一演變過程中,大數(shù)據(jù)(big date)充當(dāng)著跨越式的跳板作用,即以大數(shù)據(jù)為基礎(chǔ)的智能算法逐漸取代計算機程序并最終實現(xiàn)“機械循環(huán)—深度學(xué)習(xí)”的變革,例如“阿法零”(Alpha Zero)、無人駕駛汽車、風(fēng)險預(yù)警及評估系統(tǒng)等。人工智能自產(chǎn)生以來便與社會生活有著天然的聯(lián)系,在司法實踐中,如何將人工智能嵌入司法審判更是其中的重要議題。2013年以來,最高人民法院陸續(xù)出臺《人民法院信息化建設(shè)五年發(fā)展規(guī)劃(2016-2020)》、《最高人民法院信息化建設(shè)五年發(fā)展規(guī)劃(2016-2020)》以及《最高人民法院關(guān)于加快建設(shè)智慧法院的意見》等一系列文件更是將人工智能的研發(fā)與應(yīng)用推向高潮。目前,司法領(lǐng)域中,“泛人工智能”的研究方興未艾,回歸學(xué)術(shù)理性,人工智能之價值應(yīng)做何種界定?人工智能嵌入司法審判的邊界與路徑應(yīng)如何選擇?對于上述問題的回答需深入理解人工智能的算法邏輯,在實體思維向關(guān)系思維的轉(zhuǎn)變中,探究人工智能融入司法審判的路徑模式。

    一、人工智能嵌入司法審判的邏輯

    算法作為人工智能的核心,通過編程、建模為人工智能嵌入司法審判提供可能。從弱人工智能到強人工智能,算法賦予機器以“思考”的外部特征,對于其內(nèi)在生成邏輯的梳理是深刻理解其嵌入模式的前提。

    (一)人工智能的算法邏輯

    1.弱人工智能:“像人一樣思考行動”到“合理地思考行動”

    人工智能作為新興的科學(xué)與工程技術(shù),自產(chǎn)生之日起便與生物科學(xué)一起被其他學(xué)科的研究者譽為“最想?yún)⑴c的領(lǐng)域”。[1]See Hutan and Ashrafian, AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics, 21 Science and Engineering Eethics (2015), p.29.發(fā)展至今,人工智能已經(jīng)包含了數(shù)量龐大的子領(lǐng)域應(yīng)用,例如:下棋,疾病診斷,數(shù)理證明等。關(guān)注思維與推理過程者機械地認為,人工智能無非在于機器能像人一樣思考行動,這一邏輯以人為核心,強調(diào)人之參與或控制;而關(guān)注于數(shù)學(xué)與工程技術(shù)者認為,人工智能應(yīng)是合理的思考行動,這一邏輯以合理性(rationality)為考量因素,即淡化或者排除人之參與。人們不禁追問,當(dāng)下的人工智能真能替代人進行活動嗎?換言之,人工智能是否真的實現(xiàn)了從“像人一樣思考行動”到“合理地思考行動”?

    其一:像人一樣行動思考

    人工智能最早可追溯至20世紀40年代。1942年美國科幻作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《四處奔跑》(Run Around)中第一次提出機器人的三大法則,[2]See Michael Haenlein and Andreas Kaplan, A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence, 61 California Management Review (2019), p.5.根據(jù)該法則可知:人工智能的初期設(shè)計理念呈現(xiàn)出一種機械性,突出的是人工智能的工具價值即服從、服務(wù)于人,而對于一臺計算機是否真的具有智能,并沒有提供明晰的識別標準,但阿西莫卻為機器人、人工智能和計算機科學(xué)的研究指明了方向。隨之,1950年,圖靈在他的《計算機與智能》一文中,對機器是否具有智能提供了一個可操作性的界定方式。[3]See Eva-Maria Engelen, Can we share an us-feeling with a digital machine? Emotional sharing and the recognition of one as another, 43 Interdisciplinary Science Reviews (2018), p.125.因此,人們普遍認為圖靈測試為人工智能(AI)作為一門學(xué)科的建立和快速發(fā)展提供了具體靈感,對計算機技術(shù)和智能的發(fā)展具有里程碑意義,被譽為哲學(xué)和AI的靈感之源。[4]See Daniel Berrar and Akihiko Konagaya, Turing Test Considered Mostly Harmless, 31 New Generation Computing (2013), p.241.但是,早期的人工智能理念側(cè)重于“以人為中心”,只能是簡單的模仿,即由人們設(shè)定目標程序,當(dāng)既定的場景與該程序契合時,計算機便機械的做出如人一樣的反應(yīng),其應(yīng)是人行為的一種映射,由此可抽象出早期的人工智能行為模型:輸入為從傳感器得到的當(dāng)前感知信號,返回的是執(zhí)行器的行為抉擇,即“條件—行為規(guī)則”。根據(jù)這一行為模型可知,早期的人工智能模型實質(zhì)是建立在三段論(syllogisms)推理結(jié)構(gòu)之上的,即只要前提正確,機器總能機械的得到正確的結(jié)論。局限性在于其間沒有價值判斷以及價值選擇的“合理性”因素考量,正如學(xué)者所言:圖靈似乎高估了技術(shù)進步的速度或者對根深蒂固的思想范式的轉(zhuǎn)變過于樂觀,他對“思維機器”可行性的預(yù)測都尚未在工程學(xué)或符號語義學(xué)上實現(xiàn)。[5]See Appa Rao Korukonda, Taking stock of Turing test: a review, analysis, and appraisal of issues surrounding thinking machines, 58 Computer Studies (2003), p.240.

    其二:合理地思考行動

    由于人類知識的有限性,對行為選擇或者行為前提的正確性也并非百分之百確定,在某種層面上對復(fù)雜問題的決斷也僅僅是達到“合理性”標準?;诖?,“合理Agent”(rational agent)理念便具有了說服力,即:當(dāng)存在不確定性時,為了實現(xiàn)最佳期望結(jié)果而行動。[6]參見[英]斯圖爾特·羅素:《人工智能—一種現(xiàn)代的方法》,殷建平等譯,清華大學(xué)出版社2013年版,第4頁。但是,對于“合理地思考行動”之模型在思維法則層面存在三項難題:首先,獲取非形式地知識并用邏輯表示法所要求的形式術(shù)語表現(xiàn)出來并不容易;其次,機器所賴以做出行為決策的大前提并非是絕對正確的,即其對大前提并沒有判斷能力;最后,行動是建立在最大可能獲取的基礎(chǔ)之上,其實質(zhì)是知識的不完全獲取。該種行為模型通過賦予機器以“智能選擇”,其可以通過自身判斷來實現(xiàn)目標的合理性,并在多種可選擇方法中,擇取最優(yōu)方案。但該行為模型關(guān)注的是行為選擇的合理性,即通過大量的示例性標記來證明是否與預(yù)先存在的行為相對應(yīng),以確認認知類型是否符合測試所假定的智能行為。[7]See Paul Schweizer, The Truly Total Turing Test, 8 Minds and Machines (1998), p.263.其本質(zhì)是以經(jīng)驗科學(xué)為基礎(chǔ),進而對符合經(jīng)驗科學(xué)與否的檢視,仍屬于弱人工智能范疇。

    2.強人工智能:“合理地思考行動”到“完全圖靈測試(total Turing test)”

    由于人的物理模擬對智能是不必要的,所以圖靈測試有意避免詢問者與計算機之間的直接物理交互,而一臺真正的智能計算機不僅要具備對現(xiàn)象的感知判斷能力,也應(yīng)具備相應(yīng)的思考的能力,因為思維有時伴著行動,有時卻沒有。[8]See Paul Schweizer, The Externalist,Foundations of a Truly Total Turing Test, 22 Minds and Machines (2012), p.191.據(jù)此,完全圖靈測試認為,真正的人工智能應(yīng)具有以下能力:(1)自然語言處理(2)知識表達(3)自動推理(4)機器學(xué)習(xí)(5)計算機視覺等。一臺真正的智能機器,應(yīng)綜合具備自主思考,自主行動,自主學(xué)習(xí)以及自主判斷的能力,其并非是一種忽略道德,倫理與價值判斷的“合理性”機器。但隨著信息技術(shù)的發(fā)展,大數(shù)據(jù)(big data),“深度學(xué)習(xí)”(deep learning)的興起,人們似乎看到了希望,進而認為完全圖靈測試將最大程度的成為可能。事實真的如此嗎?以自動駕駛汽車為例,根據(jù)國外一項統(tǒng)計數(shù)據(jù)顯示:每行駛一百萬英里,傳統(tǒng)汽車的事故率為1.9%,自動駕駛汽車為9.1%;傳統(tǒng)汽車造成的受傷率為0.77%,自動駕駛汽車為3.29%;傳統(tǒng)汽車造成的死亡率為0.01%,自動駕駛汽車為0。[9]See Brandon Schoettle and Michael Sivak, A PrelIminary Analysis Of Real-World Crashes Involving Self-Driving Vehicles, available at: https://pdfs.semanticscholar.org/0c0d/9cf05025a885c0c55c99fec862860410db3c.pdf?ga=2.29548223.147122049.1571967505-514633799.1571967505, last access on 10 December 2019.由此可知,“人工智能時代”,智能機器之表現(xiàn)并不如預(yù)想的完美。

    (二)人工智能嵌入司法審判的運作邏輯

    人工智能嵌入司法審判的運作邏輯可分為兩種:其一,運用符號學(xué)知識將法律文本編寫入計算機程序,對于可直接適用法律的問題,直接遵循法律裁判,此種邏輯類似于語法的淺層結(jié)構(gòu);其二,對于尚需裁量解釋的案件,通過智能算法對先前的法律適用不斷進行整合、分析、學(xué)習(xí),隨之抽象出核心觀點并將其教義化設(shè)定為大前提作為裁判依據(jù),此種類似于語義的深層結(jié)構(gòu)。

    1.人工智能嵌入司法審判的淺層結(jié)構(gòu)

    法律適用并非必然涉及價值判斷,對于簡單案件的裁判一般直接沿著“事實——法律”的涵攝路徑展開,該類案件一般事實清楚、案情簡單,其間沒有復(fù)雜的法條競合,法律解釋等。例如2019年民事訴訟重大改革中規(guī)定,基層法院標的額5萬元以下的實行一審終審。此種裁判方式類似于“條件(法律)—行為(裁判)”的算法運作結(jié)構(gòu),即根據(jù)某一事實是否符合某一法律規(guī)定,進而做出相應(yīng)的裁判?;诖?,程序人員通過對審判邏輯的抽象建模,將既定的法律文本運用符號學(xué)知識編入程序,運用數(shù)字掃描、關(guān)鍵詞提取、法條自動匹配以及類案的自由裁量系統(tǒng)等技術(shù)最終通過人工智能生成裁判文書。

    2.人工智能嵌入司法審判的深層結(jié)構(gòu)

    法律適用不僅有法條的獨立適用還有復(fù)雜的體系解釋,文義解釋以及相應(yīng)的法理遵循。司法實踐中,對于復(fù)雜案件的裁判可能會涉及到個案中復(fù)雜法律關(guān)系的認定,同案同判的公平正義,更可能需要對法律條文進行解釋適用。目前,人工智能仍停留在“弱人工智能”階段,對于復(fù)雜案件的智能審判是以“最大合理性”框架進行建模,即運用深度學(xué)習(xí)系統(tǒng)對大量司法數(shù)據(jù)進行訓(xùn)練,并通過調(diào)整自己的參數(shù)最終提高預(yù)測的可靠性。隨之,忽略深度學(xué)習(xí)結(jié)果的真?zhèn)涡詫⑵渥鳛榇笄疤徇M行類型化適用,此種模型構(gòu)建的邏輯有二:其一,假定類案中裁判都是正確的,因而得出的結(jié)論也應(yīng)該是正確的;其二,認為機器學(xué)習(xí)工具提供了一種可能性,即基于比人類能夠處理和操作的多得多的數(shù)據(jù),做出更準確、更快的決策。[10]See Ashley Deeks, The Judicial Demand For Explainable Artificial Intelligence, 7 Columbia Law Review (2019), p.1831.

    二、人工智能嵌入司法審判的困境

    從應(yīng)然層面上看,人工智能嵌入司法審的確可實現(xiàn)審判形式的智能化,審判過程的效率化,審判結(jié)果的公正化;但是從實然層面上看,司法邏輯并不當(dāng)然可通過算法邏輯進行準確表達,因為法律體系范圍廣泛、形式多樣,所以在這一領(lǐng)域進行公理化是個有難度的冒險活動,[11]參見[德]烏爾里?!た吮R格:《法律邏輯》,雷磊譯,法律出版社2016年版,第262頁。同時,基于個案事實不一,如何能保證機器智能識別進而對案件做妥適的評價?如何基于法理以保證法律的解釋化適用?換言之,符號主義必然無法完成類腦智能的目標而被連接主義和行為主義取代。[12]參見林艷:“人工智能的符號主義綱領(lǐng)及其困境”,載《求索》2019年第6期,第189頁。因此,對于人工智能的嵌入困境需基于技術(shù)與理念雙層維度展開。

    (一)人工智能嵌入司法審判的技術(shù)困境

    公平正義是司法的基石,司法是否公正,在一定程度上取決于審判方式和訴訟規(guī)則的構(gòu)建,這是一個非常重要的內(nèi)在邏輯起點。人工智能嵌入司法審判的技術(shù)困境集中體現(xiàn)為涉及疑難案件時運用大數(shù)據(jù)進行的深度學(xué)習(xí),因智能技術(shù)的固有屬性,其嵌入司法審判時必然會帶來規(guī)則映射的斷裂。

    1.大數(shù)據(jù)

    作為保障人工智能推理正確性的知識前提,如何抓取系統(tǒng)所需的知識一直是阻礙人工智能發(fā)展的癥結(jié),而在這個加速數(shù)字化和先進的大數(shù)據(jù)分析的時代,多數(shù)人堅信:利用高質(zhì)量的數(shù)據(jù)和洞察力將使創(chuàng)新的研究方法和管理方法成為可能。[13]See Stefan Cremer and Claudia Loebbecke, Artificial Intelligence Imagery Analysis Fostering Big Data Analytics, 11 Future Internet (2019), p.1.目前,各種軟計算、機器學(xué)習(xí)、和其他技術(shù)在人工智能應(yīng)用方面一直都是利用索引來滿足要求其數(shù)據(jù)需求,但是移動設(shè)備和云應(yīng)用產(chǎn)生的數(shù)據(jù)量、速度和多樣性的爆炸性增長,使得有效的數(shù)據(jù)存儲和管理解決方案并不能滿足數(shù)據(jù)量不斷增加的異構(gòu)數(shù)據(jù)的需求。[14]See Abdullah Gani and Aisha Siddiqa, A survey on indexing techniques for big data: taxonomy and performance evaluation, 46 Knowledge and Information Systems (2016), p.241.而作為系統(tǒng)所賴以行為的知識,本身應(yīng)是有限的,當(dāng)系統(tǒng)不具備此種知識時,系統(tǒng)可否做出正確的反應(yīng)?換言之,是否對于任意一種數(shù)據(jù)均可以通過索引技術(shù)進行索引以滿足其知識的飽和供給?因此,基于知識之特征、類型的多樣性,應(yīng)摒棄人工智能“萬能論”思想,可將知識分為非人工智能索引信息、人工智能索引信息和協(xié)作人工智能索引信息,對于非人工智能索引信息,不應(yīng)有人工智能介入空間;對于協(xié)作人工智能索引信息,人工智能僅應(yīng)部分介入;對于人工智能索引信息,方可突出其獨立價值。

    2.深度學(xué)習(xí)

    學(xué)習(xí)新知識是人類的主要特征之一,包括行為主義、社會認知、語境和發(fā)展理論等,由于人類具有各種非同質(zhì)性的學(xué)習(xí)方式,因此可將學(xué)習(xí)分為兩種:(1)直接學(xué)習(xí),即通過直接教學(xué)進行學(xué)習(xí);(2)自主學(xué)習(xí),即通過人對直接學(xué)習(xí)結(jié)果的重新組合進行學(xué)習(xí)。[15]See Dianyu Z, English learning strategies and autonomous learning, 1 Foreign Lang Educ.(2005), p.12.學(xué)習(xí)同樣在自主agent[16]See Dorigo M and Colombetti M, Robot shaping: Developing autonomous agents through learning, 71 Artif.Intell (1994), p.321.的發(fā)展中也起著至關(guān)重要的作用,目前,深度學(xué)習(xí)已經(jīng)取得了極大的成功,并被廣泛應(yīng)用于人工智能的幾乎每一個領(lǐng)域,尤其是在其取得了令人自豪的計算圍棋記錄之后。[17]See Yankang Jing and Yuemin Bian, Deep Learning for Drug Design: an Artificial Intelligence Paradigm for Drug Discovery in the Big Data Era, 20 The AAPS Journal (2018), p.1.就人工智能的演變而言,直接學(xué)習(xí)對應(yīng)的是弱人工智能模式,而自主學(xué)習(xí)對應(yīng)的是強人工智能模式。人類知識積累的主要方法是自主學(xué)習(xí),因此,如果計算機能夠進行類似于人類的自主學(xué)習(xí),它們也將能夠像人類那樣自主積累知識。[18]See McGrath R.G, Exploratory learning, innovative capacity, and managerial oversight, 44 Acad Manag (2001), p.118.然而,計算機卻不能積累超過其給定程序設(shè)計的額外知識,為了使計算機積累更多的知識,額外的程序編碼是必要的,[19]See InHyo Joseph Yun and Dooseok Lee, Not Deep Learning but Autonomous Learning of Open Innovation for Sustainable Artificial Intelligence, 8 Sustainability (2016), p.9.因此智能算法的編寫便構(gòu)成深度學(xué)習(xí)的基礎(chǔ)。梳理人之學(xué)習(xí)邏輯,人類認知過程中的學(xué)習(xí)是由直接學(xué)習(xí)和自主學(xué)習(xí)的循環(huán)構(gòu)成,在這個學(xué)習(xí)過程中,已被證實的知識和假設(shè)的知識分別轉(zhuǎn)化為確認的信息和非確認的信息,并將兩者之間的邊界相對設(shè)定,使其能夠循環(huán)。[20]See Corbett A.T and Anderson J.R, Knowledge tracing: Modeling the acquisition of procedural knowledge, 4 User Mode User Adapt (1994), p.253.“已證實的知識”是通過各種方式和渠道直接從外部環(huán)境輸入的知識,通過直接學(xué)習(xí)而建立起來并將已證實的知識與人類意識相結(jié)合;“假設(shè)性知識”是在自主學(xué)習(xí)的過程中,通過對這些信息的各種重新組合而獲得,這種假設(shè)性的知識被轉(zhuǎn)化為“非確認信息”,通過環(huán)境與人的相互作用產(chǎn)生一定的分支。[21]See Polanyi M, Personal Knowledge: Towards a Post-Critical Philosophy, University of Chicago Press, 2012, p.125.由此可知,自主學(xué)習(xí)是人類之認知和元認知能力發(fā)展而來的功能:(1)處理、計劃和調(diào)節(jié)學(xué)習(xí)活動;(2)控制和調(diào)節(jié)情感和動機。[22]See Kessler G and Bikowski D, Developing collaborative autonomous learning abilities in computer mediated language learning: Attention to meaning among students in wiki space, 23 Comput Assist Lang Learn (2010), p.41.然而,即使是深度學(xué)習(xí),計算機所積累的知識或信息也僅限于以程序形式輸入的已確認的知識,這些程序是通過直接學(xué)習(xí)內(nèi)部完成的,即直接編碼過程。換言之,即使現(xiàn)在計算機已經(jīng)可以通過深度學(xué)習(xí)分層訓(xùn)練模型和自我編碼解碼校驗方式等自主提取分析數(shù)據(jù),例如2011年“谷歌大腦”研究計劃中機器成功的形成了對一只貓的印象,[23]參見萬赟:“從圖靈測試到深度學(xué)習(xí):人工智能60年”,載《科技導(dǎo)報》2016年第7期,第27頁。但是其仍舊缺乏類似于人類在社會交互關(guān)系中所進行的自主學(xué)習(xí)過程。

    (二)人工智能嵌入司法審判的話語沖突

    司法本質(zhì)上是一種爭端解決機制,任何爭端解決機制的系統(tǒng)設(shè)計都有其邏輯起點。司法審判以公平正義理念為邏輯起點,遵循個案中規(guī)范的張力平衡適用;人工智能以“最大合理性”為規(guī)則編寫的邏輯起點,遵循個案中適用的最優(yōu)狀態(tài),人工智能嵌入司法審判的話語沖突可具體為以下幾個方面。

    1.算法“技術(shù)評價”與司法“價值判斷”

    作為一種技術(shù)規(guī)范,算法編寫以數(shù)理邏輯為基礎(chǔ),其追求的是算法運作的流暢性,效率性,即在最優(yōu)前提下保證邏輯的對應(yīng)性契合,對于事實與規(guī)范的判定注重形式公平;但司法實踐不僅需注重法律條款的正確適用,更涉及到復(fù)雜的價值判斷與法理遵循。因此,司法領(lǐng)域的固有屬性和獨特需求使得人工智能嵌入司法審判時對技術(shù)的專業(yè)性和精確度有著極高的要求,[24]參見劉艷紅:“大數(shù)據(jù)時代審判體系和審判能力現(xiàn)代化的理論基礎(chǔ)與實踐展開”,載《安徽大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第3期,第97頁。例如,刑事證據(jù)中證明力的判斷一般遵循自由心證原則,具體涉及到證據(jù)的真實性、關(guān)聯(lián)性判斷,而區(qū)別于法律推理明確的前提和結(jié)構(gòu),證明力的判斷并無確切的法律依據(jù),其是一種主觀性較強的理性判斷。從一定程度上來說,雖然人工智能與司法審判具有同樣的規(guī)則運作邏輯,即:只要能厘清人類智能所遵循的功能原理就可以通過形式化的符號來描述人類智能的認知過程。但不容忽略的是,兩者的邏輯起點卻大相徑庭,算法本質(zhì)上來說是基于語法,語義,語境的唯一確定性,在忽略歧義的前提下,進而保證結(jié)論的正確性,其只是一種技術(shù)性的運作過程,其間沒有價值判斷。但司法審判中,不僅會涉及到體系解釋,學(xué)理解釋,文義解釋等,更涉及到法理與情理的考量,例如司法審判中,不僅會涉及到法律的正確適用問題還會通過法律解釋兼顧社會影響。

    2.算法“剛性”有限適用與司法“柔性”周延涵攝

    算法通過模擬人之認知過程,遵循邏輯推理規(guī)則運用符號學(xué)知識編寫程序并最終形成類人腦的運作系統(tǒng),因此有人認為:“在本質(zhì)上,人類就是一臺智能機器,是一臺計算機”。[25]See Haugeland J, AI: The Very Idea, Massachusetts, MIT Press, 1985, p.2.可事實真是如此嗎?一方面,科技的進步雖已使機器可以自主學(xué)習(xí),但機器的自主學(xué)習(xí),自我革新,自我升級仍屬于技術(shù)性范疇,對于情感、假定、直覺和想象等其他基本的思維形式,其仍無法應(yīng)對。另一方面,算法運作更傾向于獨立思維,而缺乏交互的關(guān)系思維,人類的推理不應(yīng)是脫離語境的獨立結(jié)構(gòu),正如笛卡爾所言:“即便會有智能機器與人類相似并盡可能在道德層面可行的范圍內(nèi)仿效我們,但它們?nèi)匀徊⒉皇钦嬲娜恕?。法律的適用過程也就是法規(guī)范通過邏輯演繹適用于個案的過程,即將個案事實涵攝入法。[26]參見劉風(fēng)景:“關(guān)系思維的法學(xué)意義”,載《法商研究》2019年第5期,第127頁。法律涵攝內(nèi)在包含兩者方式,其一為法律規(guī)范與法律事實直接契合;其二為法律規(guī)范通過解釋以契合法律事實。當(dāng)智能算法嵌入司法審判時,其運作邏輯同樣可分為兩種層次:其一是忽略語義障礙,以法的一般性規(guī)則為基礎(chǔ),智能識別法律關(guān)系,實現(xiàn)兩者契合,在理想層面上,此時算法確實可對事實進行有效的回應(yīng),但卻呈現(xiàn)出一種孤立、機械性;但當(dāng)算法嵌入到特殊性規(guī)則時,通過深度學(xué)習(xí)在一定程度上其也可實現(xiàn)部分案件的裁判,可涉及到復(fù)雜的法理解釋,法律常識,法律術(shù)語時,智能算法則會表現(xiàn)得相當(dāng)乏力,出現(xiàn)涵攝不周延的現(xiàn)象。與之相反,司法審判卻可通過多種關(guān)系思維關(guān)系的轉(zhuǎn)換,運用多種解釋方法,不僅可突破復(fù)雜法律關(guān)系與思維關(guān)系機械性映射障礙,實現(xiàn)事實認定從“模糊抽象”到“明確具體”的突破;更可以增強法律規(guī)范的張力,實現(xiàn)其“柔性”涵攝。

    3.算法“隱蔽運作”與司法“公開透明”

    算法依附于程序借助計算機而內(nèi)在運作,因而具有高度隱蔽性,同時由于缺乏外在的透明度,對應(yīng)的約束追責(zé)機制以及監(jiān)督制約機制導(dǎo)致的算法偏見、算法控制等各種算法異化現(xiàn)象屢見不鮮。人工智能話語下,編程者將同一類問題的處理過程進行數(shù)據(jù)分割,模型選擇,模型訓(xùn)練進而模式化稱之為算法,[27]參見劉友華:“算法偏見及其規(guī)制路徑研究”,載《法學(xué)雜志》2019年第6期,第60頁。基于問題解決方案的多樣性,同一問題的解決算法并不是唯一的,但最終的模式設(shè)計將由計算機工程師所決定。毫無疑問,在這一背景之下,設(shè)計者的偏好或目的將會導(dǎo)致計算機程序產(chǎn)生某種偏見,例如性別歧視、種族歧視以及各種損害公私權(quán)益的算法偏見,但即便這種程序設(shè)計有明顯的不合理,因其為內(nèi)在隱蔽運作,也很難被非專業(yè)人士所知悉。相反,司法審判中整個審判過程能以直接,公開、公正的樣態(tài)展現(xiàn)在當(dāng)事人面前并接受其監(jiān)督來保證過程、根據(jù)及其理由方面的公開透明。[28]參見陳瑞華:“司法權(quán)的性質(zhì)——以刑事司法為范例的分析”,載《法學(xué)研究》2000年第5期,第40頁。此外,司法審判作為一種法律文化,有其自身的文化意蘊,無論是法庭布置、服飾還是司法的儀式性都表征著其固有的莊嚴性、權(quán)威性與嚴肅性。[29]參見王祿生:“司法大數(shù)據(jù)與人工智能技術(shù)應(yīng)用的風(fēng)險及倫理規(guī)制”,載《法商研究》2019年第2期,第108頁。將“數(shù)據(jù)審判”模式嵌入傳統(tǒng)的“法官審判”模式時,大數(shù)據(jù)的樣本選取,裁判觀點的提取,程序的遵循度都處于一種隱蔽的狀態(tài),當(dāng)事人很難就可能發(fā)生的侵害行為進行救濟。同時,數(shù)據(jù)審判時,當(dāng)時人的參與感,庭審話語權(quán),審判的威嚴性以及當(dāng)事人的內(nèi)在訴求都無法有效的得到滿足,司法的定爭止紛、懲戒威懾以及保障救濟之權(quán)能將其進一步弱化。

    4.算法“標準論證”與審判“相當(dāng)論證”

    司法審中證明標準多樣且刑事訴訟與民事訴訟又有本質(zhì)差異,對于不同民事案件不僅存在“高度可能性”標準,同樣也有“排除合理懷疑”的標準。作為案件定性的依據(jù),算法對于證明標準問題存在明顯的適應(yīng)性不足,算法是將某一種運作過程固化并進行程序化的智能設(shè)計,其在保證標準統(tǒng)一的同時也不可避免的陷入到適用困境。一方面,智能機器通過對“先例”裁判文書的深度學(xué)習(xí),雖然可以在數(shù)字量化方面有客觀的評價但是對于實體定性的證明標準方面仍無法有效回應(yīng),例如,故意殺人罪中,故意包括直接故意與間接故意,對于間接故意的認定不僅涉及到行為人的危害程度,行為人的主觀過錯,還涉及到是否為正當(dāng)防衛(wèi),是否為緊急避險等一系列問題,這些問題的判斷不僅需要考慮人之生活經(jīng)驗、生理本能、主觀認識,還應(yīng)綜合考慮刑事政策,[30]參見周詳、李耀:“正當(dāng)防衛(wèi)司法糾偏的刑事政策視角”,載《河北法學(xué)》2019年第9期,第40頁。社會影響以及所采用的權(quán)利論視角等多方面因素,例如,于歡案、昆山龍哥砍人案等。另一方面,對于不同證明標準本身的邊界,智能算法無法應(yīng)對,民事訴訟中對于一般案件的證明標準只需達到高度可能性,而對于欺詐、脅迫、惡意串通以及口頭遺囑或贈與事實所采用的排除合理懷疑標準,但兩者適用標準選擇問題以及具體證明時所涉及的程度問題,智能算法顯然無法有效解決,即使可以通過大數(shù)據(jù)對先例裁判進行深度挖掘,但也很難以一種標尺化的方式實現(xiàn)裁判正義。

    三、人工智能嵌入司法審判的路徑

    算法對于司法之話語沖突、異化風(fēng)險、倫理障礙等多重困境,當(dāng)兩者深度融合時應(yīng)以比例原則為綱要并對算法的編寫、運作以及結(jié)果進行多維度透視。

    (一)前提維度:從“技術(shù)理念”向“法律理念”轉(zhuǎn)變

    目前,人工智能的開發(fā)和利用已進入爆炸式發(fā)展階段,但對于算法之設(shè)計理念,倫理遵循,法律規(guī)制等方面仍處于空白。2017年歐盟《向歐洲委員會提出的關(guān)于涉及機器人民事法律規(guī)則的提案》中規(guī)定了研發(fā)者的行為規(guī)范包括尊重包容、問責(zé)追責(zé)、隱私保護、效益最大、危害最小等內(nèi)容,2018年歐盟《人工智能開發(fā)和適用倫理指南》規(guī)定歐洲人工智能聯(lián)盟需在數(shù)據(jù)、算法、技術(shù)等方面共同遵守該指南;同時日本也對人工智能之開發(fā)應(yīng)用提出相應(yīng)的要求,即,以人為本,防范風(fēng)險,技術(shù)中立以及靈活變通。[31]參見季衛(wèi)東:“人工智能開發(fā)的理念、法律以及政策”,載《東方法學(xué)》2019年第5期,第8頁。算法之技術(shù)理念追求的是最大合理性下,算法編寫的最優(yōu)性以及程序運作的安全穩(wěn)定性,但程序人員對法律背后目標的明確表示還很匱乏,例如目的、政策、利益、價值;此外對法律結(jié)構(gòu)的分析以及對法律內(nèi)容的研究匱乏。[32]See Vytautas ?yras, On formalisation of the goal concept in law, 20 Engineering Applications of Artificial Intelligence.(2006), p.601.與之相反,法律不僅追求的是法之穩(wěn)定性,可預(yù)測性,同時也包括法律適用的實質(zhì)公平以及人文關(guān)懷。算法偏見或稱算法歧視可內(nèi)在分為兩種情形:一種為算法編寫的歧視,例如Northpointe開發(fā)的COMPAS罪犯再犯預(yù)測系統(tǒng)蘊含著對黑人的歧視;一種為算法運作過程中的歧視,例如基于數(shù)據(jù)選取,模型訓(xùn)練而產(chǎn)生的病毒性歧視。[33]See Anupam Chander, The Racist Algorithm, 115 Mich.L.Rev.( 2017), p.1036.因此,在人工智能嵌入司法審判時,算法編寫應(yīng)明確算法編程者之法律責(zé)任,首先應(yīng)改變價值選取順位,算法編寫不應(yīng)簡單的以技術(shù)思維抽象出最優(yōu)架構(gòu),而應(yīng)向法律思維轉(zhuǎn)變更多關(guān)注司法適用的人文關(guān)懷,無論是大數(shù)據(jù)的過濾選取,還是模型的架構(gòu)都應(yīng)尊重人格倫理,堅持公開、透明理念避免人之合法權(quán)益受損。[34]山本龍彥, 『AIと個人の尊重、プライバシー』(日本経済新聞出版社、2018年)59-119頁“參照”。其次,辯證對待技術(shù)中立觀點,明晰政府及其程序人員之社會責(zé)任,引入監(jiān)管與評估機制,明確界定追責(zé)與免責(zé)之邊界,同時強化倫理觀念,將道德內(nèi)化于算法設(shè)計,增強算法設(shè)計者之法律思維。

    (二)過程維度:秉持“部分融入”觀,切分司法運作過程

    人工智能與法學(xué)的研究領(lǐng)域相遇并融合到人工智能與法學(xué)的跨學(xué)科研究領(lǐng)域中并不是巧合。因為這兩個領(lǐng)域都使用形式方法,在AI中,有軟件、邏輯與統(tǒng)計;在法律中有法規(guī)、程序和機構(gòu)。但算法運作具有機械性,當(dāng)涉及到價值判斷、價值選擇、法理表達時則會出現(xiàn)適用乏力。司法審判時,并非每一個環(huán)節(jié)均會涉及到價值判斷,法律解釋,法理考量,因此對于價值無涉的環(huán)節(jié)均可有其適用的余地,突出其獨立價值;而對于需進行價值判斷的部分不應(yīng)突出其獨立價值,此時其可作為一種案件裁判的輔助檢視工具。

    具體而言,需基于比例原則切分司法運作過程,堅持效率與公平并舉,警惕技術(shù)異化,避免算法造法之風(fēng)險。第一,訴訟前:對于各種訴訟文書,例如答辯狀,起訴狀等均可通過數(shù)字系統(tǒng)進行傳遞,對于是否符合起訴條件,訴訟材料是否齊全,人工智能可借助語音識別與圖像識別技術(shù),將相關(guān)信息迅速進行電子化處理并做出判斷以突出其效率性。第二,訴訟中:一方面,對于簡單的案件,例如適用簡易程序案件,小額訴訟案件、涉及數(shù)額裁量以及無需進行價值判斷案件,法律解釋適用無涉的普通案件等,此時因為標的額多數(shù)較小、案情簡單,可通過人工智能進行裁判;另一方面,對于復(fù)雜的訴訟案件,仍應(yīng)以法官審判為主,審判人員可以通過人工智能進行案件模擬審判,運用大數(shù)據(jù)避免出現(xiàn)同案不同判的對應(yīng)性偏差;此外法官也可借助人工智能系統(tǒng),縮短對于法律法規(guī)、司法解釋、同類案件等信息的檢索時間,從而提高審判效率。[35]參見涂永前、于涵:“司法審判中人工智能的介入式演進”,載《西南政法大學(xué)學(xué)報》2018年第3期,第50頁。第三,判決做出前:通過人工智能可建立法官案件裁判的預(yù)警評估機制,對法官之裁判做預(yù)警審核,以一種“二次審核”的方式,確保法官之裁判公正正義;同時基于算法編程的多樣性,對于運用人工智能獨立審判的案件也可編寫一套路徑不同的審判系統(tǒng),因為AI司法必然要將有利和不利、加重或減輕責(zé)任的事實轉(zhuǎn)化為可替換、梯度性處理數(shù)據(jù)的計算參數(shù),法院可基于此進行交叉檢驗,[36]參見李飛:“人工智能與司法的裁判及解釋”,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018年第5期,第36頁。確保人工智能作出更審慎公正的裁判。

    (三)結(jié)果維度:工具價值優(yōu)先,遵循“人工+人工智能”結(jié)合

    人工智能和機器人技術(shù)的持久創(chuàng)新提供了預(yù)期的計算機意識,感知力和理性能力,但人工智能之于司法審判不應(yīng)冠以“萬能論”,因此在兩者深度融合時應(yīng)堅持工具價值優(yōu)先,堅持“人工+人工智能”的組合。目前人工智能仍處于巨大技術(shù)瓶頸,而算法編寫又是建立在回避技術(shù)盲區(qū)基礎(chǔ)上的有限理性,但并不能由此否定人工智能部分已成熟的技術(shù)優(yōu)勢。人工智能嵌入司法審判的最大困境在于,前者對于人類主觀意識影響的社會文化和意識領(lǐng)域的各類問題仍是無法應(yīng)對,[37]參見吳月輝:“人工智能會取代人類嗎”,載《人民日報》2017年7月7日。也即復(fù)雜的法理于情理以及法律推理問題,而這一部分恰是法官審判能動性的獨特表現(xiàn)。自1970年代起,人工智能與法律交互關(guān)系的研究一直在進行,例如,如何進行文本挖掘和案例自動摘要,如何開發(fā)支持論證的工具,如何開發(fā)基于案例推理技術(shù)的量刑工具以及如何將AI應(yīng)用于法律證據(jù)的研究,如何將其應(yīng)用于打擊犯罪和犯罪的識別工具等[38]See Ephraim Nissan, Digital technologies and artificial intelligence’s present and foreseeable impact on lawyering, judging, policing and law enforcement, 32 AI and Society (2017), p.441.,遺憾的是,雖然計算機儲存以及信息開發(fā)技術(shù)突飛猛進,但對上述問題似乎正日益滑向“不可知論”。[39]參見劉艷紅:“人工智能法學(xué)研究的反智化批判”,載《東方法學(xué)》2019年第5期,第119頁。人工智能本質(zhì)上仍是一種算法,而人類思維中除了算法之外,社會思維、形象思維、靈感等占了大多數(shù),但恰恰在這一方面人類自己都尚不清楚其運作機制,又如何能實現(xiàn)人工智能的模擬?[40]參見縱博:“人工智能在刑事證據(jù)判斷中的運用問題探析”,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2019年第1期,第65頁。同時,國外研究表明法官的情緒很大程度上會影響司法審判,它由四種基本類型構(gòu)成—憤怒、恐懼、厭惡和同情。憤怒和厭惡源于對不公正的蔑視,這種蔑視會激發(fā)人們的直覺,而這種直覺總是傾向于刑事判決;另一方面,恐懼和同情會引起對誤判的關(guān)切,促使法官進行分析性思考,從而得出更富有同情心的裁決。[41]See Kim and Hyum Seok, Judge’s emotion during trial and judicial decision-making processes, Korean Lawyers Association Journal (2019), p.254.因此,人工智能與司法審判應(yīng)是相輔相成,相得益彰的關(guān)系,個案適用中的自由裁量、利益平衡以及對公平的判斷,智能算法顯然無法應(yīng)對,而對于人工智能獨特的中立價值又是司法正義所追尋的,例如:上海市高院的智能輔助辦案系統(tǒng)、[42]參見王建、閆帥:“貴州開啟大數(shù)據(jù)辦案新模式”,載《民主與法治周刊》2017年5月15日。貴州檢察院的證據(jù)標準系統(tǒng)、[43]參見嚴劍漪:“揭秘“206”:法院未來的人工智能圖景—上海刑事案件智能輔助辦案系統(tǒng)164天研發(fā)實錄”,載《人民法治》2018年第2期,第40頁。以及例如:法律推理系統(tǒng)、司法裁量系統(tǒng)、信息檢索系統(tǒng)、法律知識與概念分析系統(tǒng)、證據(jù)標準系統(tǒng)等。基于此,從部分的角度看,人工智能有其固有的工具價值可以促進效率,公正統(tǒng)一適用;但是從整體看,人工智能也并不當(dāng)然無法獨立承擔(dān)案件審判,只是應(yīng)區(qū)分是否會涉及到價值判斷,如果僅有法律適用問題,其仍可獨立適用,反之便應(yīng)突出其工具價值。

    結(jié) 語

    人工智能和控制論的持續(xù)發(fā)展為理性和有意識的機器人提供了越來越近的可能性。在某種意義上,本文之論述似有“潑涼水”之嫌,但通過對算法邏輯的細致梳理,可得出算法并非萬能之結(jié)論。目前,在這一領(lǐng)域的研究中,壓倒一切的優(yōu)勢集中在人機交互上,并沒有充分考慮未來人工智能共同交流的道德必然性,同樣也沒有解決機器人間交互的道德本質(zhì)。概言之,人工智能應(yīng)以是否涉及價值判斷為標準作為其嵌入司法審判之邊界,并以“工具價值”為主,“獨立價值”為輔作為其嵌入理念,在嵌入過程中應(yīng)摒棄盛行的“學(xué)術(shù)泡沫”研究思路,回歸到司法的具體應(yīng)用問題,不應(yīng)只追求效率而忽略實質(zhì)公平。具體而言:需從“技術(shù)理念”向“法律理念”轉(zhuǎn)變,代碼編寫、模型建構(gòu)應(yīng)融入法律思維;秉持人工智能“部分融入”觀,以是否需價值判斷為節(jié)點切分司法審判運作過程;明確算法“工具價值”的邏輯前提,司法審判應(yīng)遵循“人工+人工智能”的結(jié)合。

    猜你喜歡
    審判司法人工智能
    制定法解釋中的司法自由裁量權(quán)
    法律方法(2021年4期)2021-03-16 05:34:28
    司法所悉心調(diào)解 墊付款有了著落
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    非正式司法的悖謬
    人工智能與就業(yè)
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    下一幕,人工智能!
    七十年前那場文明的審判
    消失中的審判
    政法論叢(2015年5期)2015-12-04 08:46:28
    論司法公開的困惑與消解
    大理市| 卢湾区| 筠连县| 涟源市| 西青区| 凯里市| 林芝县| 威信县| 定西市| 工布江达县| 肇源县| 东平县| 同仁县| 惠水县| 镇安县| 崇信县| 旬阳县| 蒲城县| 呈贡县| 东方市| 澎湖县| 油尖旺区| 寻甸| 葵青区| 错那县| 新化县| 太保市| 深州市| 衡阳县| 浦县| 佛冈县| 长武县| 青阳县| 罗江县| 兰西县| 阜康市| 华安县| 顺昌县| 兰西县| 新余市| 玉林市|