黃 博 劉麗榮
長春財經(jīng)學(xué)院,吉林 長春 130000
1956年的特茅斯會議標(biāo)志著"人工智能"學(xué)術(shù)概念的誕生,從此開辟了利用智能機器代替人類從事腦力勞動的新紀(jì)元。此后,顯著減輕腦力勞動和實現(xiàn)生產(chǎn)過程智能化成為可能。人工智能不但在社會、經(jīng)濟(jì)、文化等諸多方面產(chǎn)生不可或缺的作用,而且在法律層面也產(chǎn)生重要的影響。
人工智能的概念從被提出至今,沒有一個精準(zhǔn)的定義。但學(xué)者普遍認(rèn)為人工智能技術(shù)是研究、開發(fā)用于模擬、延伸和發(fā)展人類智能的理論方法、技術(shù)及應(yīng)用系統(tǒng)的一門新技術(shù)學(xué)科。①美國麻省理工學(xué)院的維斯頓教授對人工智能的定義是:人工智能就是研究如何使計算機去做過去只有人才能做的智能的工作。若計算機去做以前人類去做的事,那么,人工智能人格問題也就此產(chǎn)生了。
人工智能是否應(yīng)被賦予法律人格,即未來人工智能是否可成為法律上的主體,我持有否定的態(tài)度。我認(rèn)為這不但妨礙人工智能領(lǐng)域的發(fā)展,而且受損害者則是機器人的擁有者,進(jìn)而使人工智能科研家們喪失對其制造商品的積極性。但凡事都具有兩面性,在人工智能是否應(yīng)被賦予”法律人格”的問題上,也同樣具有它對人類的有益之處。
1.方便于人類,促進(jìn)法律職業(yè)的改革
人工智能在法律上的作用也不容忽視,近年“智能律師”的出現(xiàn)給法律咨詢者提供極大的方便,咨詢者可以用最短的時間獲取更多的有用信息,而且與一個小時要幾百元的人工律師相比,簡直是即經(jīng)濟(jì)又方便。若是給人工智能賦予法律人格,即機器人可具有等同律師的法律責(zé)任和義務(wù),與律師“平起平坐”,例如法學(xué)界中“法小淘”的產(chǎn)生,它是中國第一個應(yīng)用于法律行業(yè)的機器人,咨詢者可通過簡單的手機語言對話方式將實際案例描繪出來,法小淘能可快速的得出法律相關(guān)損害事實,賠償依據(jù)及事實,并且可在30萬律師中分析出3位于此案例相關(guān)的開庭律師。這對人類未來的法律發(fā)展無疑起到促進(jìn)的作用,人們可以廉價且快速的使用人工智能通行法律咨詢。
隨著人工智能時代的到來,智能機器人已逐漸被引入到法院、檢察院,參與到司法人員的工作中,可謂將法律相關(guān)工作引入一個改革時代。比如檢察院的檢務(wù)智能語言系統(tǒng),該系統(tǒng)具備較強的語言識別功能,可以將不同的聲音甚至方言信息轉(zhuǎn)化為較為精準(zhǔn)的電子文本,而且隨著系統(tǒng)的不斷升級,文字轉(zhuǎn)換的準(zhǔn)確率也不斷地提升。針對智能語言系統(tǒng)開發(fā)的智能詢問系統(tǒng)、會議系統(tǒng),都經(jīng)過智能語言試點逐批引入檢察機關(guān),此語言系統(tǒng)的發(fā)明,不但在很大程度上減輕檢察人員的書寫、記錄的工作量,在案件繁瑣量大時,也可以提高工作人員的工作效率。與此系統(tǒng)可以媲美的還有近年研發(fā)的案管機器人,它是現(xiàn)今檢察院在整個司法辦案活動中的一個非常重要的平臺,其中有智能績效考核、智能大數(shù)據(jù)應(yīng)用等多個子系統(tǒng)多個應(yīng)用平臺。他不但能完成上述對海量的數(shù)據(jù)進(jìn)行總結(jié),還可以幫助案件處理人員提供準(zhǔn)確的案件有關(guān)資料、案件相關(guān)人員,并對這些數(shù)據(jù)進(jìn)行大數(shù)據(jù)采集,可以說便利了檢察人員整個辦案流程。案管智能系統(tǒng)除了對案件進(jìn)行分析處理,還可對檢察院各部門,甚至各檢察官的工作進(jìn)行監(jiān)管,通過對各檢察人員,部門錄入相應(yīng)的工作要求,例如辦案數(shù)量、工作作風(fēng)、司法技能等各工作指標(biāo),案管機器人會將工作人員、各部門日常工作情況記錄下來,最后兩者進(jìn)行比較,通過生成業(yè)務(wù)報表的形式對每一位檢察人員、檢察部門生成各個的綜合考核結(jié)果,從而形成了前所未有的良好監(jiān)督管理機制,從很大程度上提高檢察官的司法作風(fēng)和工作質(zhì)量??梢?,智能系統(tǒng)被引入檢察院,參與進(jìn)檢察工作的作用不容忽視。隨著信息科技的不斷發(fā)展,法律行業(yè)也隨之進(jìn)入大數(shù)據(jù)時代,那么將人工智能引入法院將成為大多數(shù)人關(guān)注的問題,在現(xiàn)實生活中法院代表著國家的權(quán)威,是為公民贏得公平的圣地,但仍存在一些“同案不同罪”,也會有少數(shù)貪污受賄的法官為了一舉私利而作出顯失公平的判決,這嚴(yán)重影響當(dāng)事人的利益和國家的信譽。因此,將人工智能系統(tǒng)引入法院,將會促進(jìn)法院對案件的公平審理。針對案件的處理,人工智能可在裁判文書網(wǎng)生成的大數(shù)據(jù)中找到相似案件的裁判情況,并分析出此案件應(yīng)適用的規(guī)則、原則。這在很大程度上為法官分析案件提供了便利條件,也促進(jìn)案件審理的公平正義。倘若法官審判案件的結(jié)果與數(shù)據(jù)分析得出結(jié)論相差巨大,系統(tǒng)會自動提示此法官是否對本次判決不做改動,若法官選擇“確定不做改動”的情況時,系統(tǒng)會自動將該案件及審判結(jié)果移送給法官聯(lián)合會議,并要求每位法官提出自己的看法,這避免“同案不同判”的情況發(fā)生。
2.方便通過法律手段加以規(guī)范和管制
若將人工智能賦予“法律人格”,不但在很大程度上促進(jìn)法律職業(yè)的改革,而且會更加方便法律對人工智能的規(guī)劃與管制。規(guī)范律師行為可適用《律師法》等行業(yè)道德規(guī)范等一切法律都將適用于人工機器人。這樣,無論是像“法小淘”,“阿爾法狗”這樣的人工機器人,還是提供語言咨詢的手機“助理”,都將會被人類的法律規(guī)范。若人工智能違法,則會按照人類的法律對其進(jìn)行管制。這樣,則不用再擔(dān)心人工智能的“肆無忌憚”從而威脅人類生活。賦予人工智能以法律人格給人類帶來的利益是值得肯定的,但它所帶來的弊端也不容忽視。
1942年伊薩克.阿莫夫在短篇小說《轉(zhuǎn)圓圈》中提出機器人應(yīng)遵守的三條法則“第一:一個機器人不得傷害一個人類也不能因不作為而允許一個人類被傷害;第二:一個機器人必須遵守人類施加給他的規(guī)則,除非一些規(guī)則與第一條規(guī)則相沖突;第三:一個機器人必須保護(hù)自己的存在,只要這種自我保護(hù)不與第一或第二條相沖突”。但發(fā)現(xiàn),機器人無法同時遵守二、三兩條規(guī)則,從而不斷重復(fù)他先前的行為,形成“轉(zhuǎn)圓圈”的狀況?;舨妓拐f過:“自我保護(hù)是第一自然法則?!比魏我粋€人類都不會發(fā)生這些怪異行為。因為人類是變通的,無論何時遇到危險其第一生理現(xiàn)象應(yīng)是自我保護(hù),只有這種強行的規(guī)則才會使機器人陷入到這個“轉(zhuǎn)圓圈”當(dāng)中。從此可見,機器人完全像人類一樣遵守規(guī)則,沒有獨立自主辨別事物的能力顯然是不能做到的。
1.造成損害責(zé)任劃分困難
2016年,歐洲會議向歐盟委員會提出報告,為規(guī)范機器人的生產(chǎn)及市場的流通要制定相應(yīng)的民事規(guī)范。也就是說,賦予機器一定的“法律人格”,即“電子人格”,這是對機器人獨立與第三人交往的案例中所要遵守的法律,但報告中并沒有提出明確的處罰方法,若是機器人違法,是像人類法律中規(guī)定的那樣罰款?繳費?若機器人觸犯到人類的生命安全,是予機器人一定的刑罰?還是判處死刑?還是由它的生產(chǎn)者、制造商或是它的使用者來承擔(dān)應(yīng)有的法律責(zé)任?我認(rèn)為這都不是最合適、有效的方法。
首先機器本身沒有生命,從何談及“生命權(quán)”?而它所謂的“生命權(quán)“也是歸他的擁有者所有的;作為一個機器人,不會有獨立的個人財產(chǎn),因此對它進(jìn)行罰款也是不可能的。
其次,如果讓人工智能的生產(chǎn)者、制造商對其的行為而擔(dān)責(zé),這雖然在一定程度上的確會促進(jìn)生產(chǎn)商對機器人產(chǎn)品的質(zhì)量嚴(yán)格把關(guān),但如果真的將此規(guī)則寫入法律,就等于鞭炮制造商要對因顧客不當(dāng)使用鞭炮而傷害他人的行為承擔(dān)責(zé)任;槍支的生產(chǎn)商可因謀殺而造成的損害被起訴。現(xiàn)是人工智能發(fā)展的初步階段,因技術(shù)和經(jīng)濟(jì)的問題對人工機器人潛在危險性存在尚不明確的情況,對此有待探明。因此,其生產(chǎn)者、制造商一味對其產(chǎn)品統(tǒng)攬其責(zé),可能造成機器人的高價,從而導(dǎo)致購買者的數(shù)量隨之下降。
再次,換一種問責(zé)角度,讓人工智能的消費者承擔(dān)損害責(zé)任,消費者購買機器人后獨立承擔(dān)其風(fēng)險,其法律問責(zé)與生產(chǎn)者、銷售商都無關(guān),是一種消費者風(fēng)險自負(fù)方式。這種方式的優(yōu)點在于促進(jìn)人工智能的設(shè)計者對機器人的定價下調(diào),也是大多數(shù)顧客可以承擔(dān)得起對機器人的購買,促進(jìn)商品經(jīng)濟(jì)的發(fā)展。但不可忽視的是會有一些人工智能的生產(chǎn)者和開發(fā)商因不需承擔(dān)任何法律責(zé)任,而忽略產(chǎn)品的質(zhì)量,從而給消費者帶來不可估量的損失。
最后,如果責(zé)任由生產(chǎn)者和消費者雙方分擔(dān),那么,又將涉及到歸責(zé)比例問題。對于歸責(zé)原則,依照我國目前法律體系來看,有過錯責(zé)任制和嚴(yán)格責(zé)任制兩種,而兩種責(zé)任方式都要求生產(chǎn)商在設(shè)計人工智能的過程中盡可能各個環(huán)節(jié)都謹(jǐn)慎、考慮周全,制造者能夠保障機器的質(zhì)量、功能的健全,人工智能的所有者在轉(zhuǎn)讓他物權(quán)時有提醒義務(wù),保障其能夠正常使用的義務(wù)。但人工智能與我們?nèi)粘J褂玫挠陚?、背包不同,機器人更像我們使用的電子產(chǎn)品,例如手機、電腦等,簡單的從外觀很難辨別其好壞,也許在使用以后的某個時間節(jié)點出現(xiàn)問題,甚至有些問題究竟是因為消費者使用不當(dāng)所造成的還是因為生產(chǎn)者在生產(chǎn)過程中的過錯而造成的,難以分辨。綜上,從責(zé)任界定角度來看,若想給予人工智能以法律人格目前難以實現(xiàn)。
2.阻礙人工智能的發(fā)展,抑制研發(fā)者的積極性
在當(dāng)今科技發(fā)展如此迅速的社會,毫無疑問,人工智能給人類帶來的好處遠(yuǎn)大于弊端。但倘若倉促的賦予人工智能以法律人格,不但不能有效的對人工智能領(lǐng)域起到很好的規(guī)范作用,還會抑制研發(fā)者對人工智能創(chuàng)新研發(fā)的積極性。因為人工智能法律人格的賦予,會將機器人的研發(fā)與市場銷售都規(guī)定在義務(wù)范圍內(nèi),這種規(guī)定的局限性在于沒有把因機器人自身不可避免的缺陷和消費者使用不當(dāng)?shù)脑蚩紤]在內(nèi)。這會導(dǎo)致就算科技研發(fā)者有了新的創(chuàng)新思維,但因為智能主體擁有主體資格,懼怕于新產(chǎn)品的出現(xiàn)會導(dǎo)致新風(fēng)險的產(chǎn)生,從而被追究法律責(zé)任,進(jìn)而降低新產(chǎn)品的研發(fā),這在一定程度上也阻礙了智能技術(shù)的發(fā)展。因此,法學(xué)界對此問題的充分討論是有必要的,但盲目對人工智能賦予則是不正當(dāng)行為。
3.與當(dāng)前的法律理念相矛盾
弱人工智能是指例如在我們?nèi)粘I钪须S處可見的搜索引擎、自動駕駛、室內(nèi)智能體溫計等,多數(shù)是在某一領(lǐng)域有實用價值的人工智能;強人工智能是指具有類似人一樣的自我意識和較高的創(chuàng)新思維,可完全支配自己的行為和思想,可達(dá)到"人類認(rèn)知"水平,并在處理問題的速度上遠(yuǎn)高于人類;超強人工智能是指人工智能達(dá)到可以像人一樣去思考問題,去社交,甚至可以利用以儲備的知識完成自主的學(xué)習(xí)、去發(fā)掘新技術(shù)、新領(lǐng)域。而我國目前處于弱人工智能階段,可以說是弱人工智能的初步發(fā)展階段。從我國當(dāng)前的法律領(lǐng)域來看,“獨立認(rèn)知能力”和“表意能力”是擁有法律主體資格的前提。機器人經(jīng)不斷的自主學(xué)習(xí)和深度學(xué)習(xí),在一定程度上可超過人類的認(rèn)知能力。例如,近幾年研發(fā)的“法小淘”、“阿爾法圍棋”等智能機器人。但單單用認(rèn)知能力去衡量法律人格問題是不全面的,我國目前還處于弱人工智能階段,現(xiàn)階段的機器人還未達(dá)到完全擁有人類的思維,而是缺乏人類的情感和感性思想。因此,倉促的賦予人工智能以法律人格顯然與我國立法原則相違背,存在一定的矛盾。
目前,人工智能還處于初步發(fā)展階段,雖然現(xiàn)在其人格問題還沒有在法律層面對人類構(gòu)成太大的威脅,但未雨綢繆,人工智能是未來社會發(fā)展的必然結(jié)果,“強人工智能”在不久的將來定會走進(jìn)我們的生活。因此,人工智能是否具有法律人格是我們應(yīng)該面對的問題,我們應(yīng)如何控制并合理分配對機器人潛在危險的預(yù)防;怎樣制定法律規(guī)則既不與法律根本原則相違背又能達(dá)到規(guī)范機器人行為的目的,是立法者在目前需要解決的問題。
我認(rèn)為,要從根本上解決對人工智能法律問責(zé)的問題,盲目的賦予其法律主體資格顯然局限,我們應(yīng)從以下三個方面對人工機器人進(jìn)行法律上的防控:第一,在機器人發(fā)生危險時,應(yīng)明確法律問責(zé)的主體,調(diào)整人工智能的生產(chǎn)者、銷售商以及其擁有者之間責(zé)任劃分的矛盾;第二,在有關(guān)人工智能的法律規(guī)則的制定中,要充分的保護(hù)人工智能科技研發(fā)者的利益,使其對新技術(shù)的開發(fā)具有積極性,進(jìn)而促進(jìn)我國人工智能技術(shù)早日向“強人工智能”發(fā)展。第三,立法者在法律制定的過程中,要注意其立法規(guī)則不能與傳統(tǒng)的法律原則相違背,更不能與《憲法》發(fā)生抵觸,違憲即無效。
法學(xué)界對人工智能問責(zé)的相關(guān)問題進(jìn)行充分的討論是一個好的趨勢,但盲目的對其立法、設(shè)規(guī)顯然局限,也不能解決實時性問題。因此,對人工智能法律人格應(yīng)如何設(shè)定的問題,還要在我們未來的法律學(xué)習(xí)中繼續(xù)摸索。
[ 注 釋 ]
①趙梓含.人工智能與法律的未來[J].法治與社會,2018.2(上).