肖季業(yè)
(中南財(cái)經(jīng)政法大學(xué) 法學(xué)院,湖北 武漢 430072)
近年來(lái),域外人工智能與法律的結(jié)合日益緊密,并取得了一定數(shù)量的研究成果,理應(yīng)成為我國(guó)法學(xué)界人工智能研究的重要參考與借鑒素材。具體而言,其發(fā)展趨勢(shì)體現(xiàn)為研究主題更為拓展、內(nèi)容更具針對(duì)性和實(shí)用性、學(xué)科融合更緊密、科研成果在法律領(lǐng)域的應(yīng)用更迅速等方面,證明人工智能與法律的結(jié)合對(duì)提高法律系統(tǒng)的質(zhì)量和運(yùn)行效率具有積極意義,對(duì)人工智能的發(fā)展也有促進(jìn)完善作用[1]。
引導(dǎo)美國(guó)人工智能發(fā)展的重要報(bào)告《為未來(lái)人工智能做好準(zhǔn)備》認(rèn)為,人工智能涵蓋了幾種分類(lèi):(1)像人類(lèi)一樣思考的系統(tǒng);(2)仿人系統(tǒng);(3)理性思考的系統(tǒng);(4)理性行動(dòng)的系統(tǒng)。其中,政府需要扮演多種角色,包括在應(yīng)用程序開(kāi)發(fā)過(guò)程中監(jiān)控其安全性和公平性,調(diào)整監(jiān)管框架,以鼓勵(lì)創(chuàng)新、保護(hù)公眾,支持基礎(chǔ)研究和將人工智能應(yīng)用于公共產(chǎn)品,提供更有效便捷的公眾服務(wù)等[2]。緊接著白宮即發(fā)布《國(guó)家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃》,提出應(yīng)優(yōu)先發(fā)展人工智能的倫理、法律和社會(huì)影響,確保系統(tǒng)安全可靠,制定標(biāo)準(zhǔn)和基準(zhǔn)等七個(gè)戰(zhàn)略方向與建議,為聯(lián)邦資助人工智能研究制定了系列目標(biāo)[3]。
國(guó)外學(xué)者對(duì)人工智能的關(guān)注并不僅僅局限在各自的學(xué)科領(lǐng)域,相反,必須以跨學(xué)科視角考察人工智能已成為了學(xué)術(shù)界的共識(shí),相當(dāng)數(shù)量的研究成果立足于機(jī)器人的具體應(yīng)用場(chǎng)景,基于現(xiàn)實(shí)需求探討其中所展現(xiàn)的理論和社會(huì)意義。盡管讓人感到驚奇,但人工智能目前的確缺乏一個(gè)精確、普遍認(rèn)可的定義,美國(guó)斯坦福大學(xué)在一份研究中嘗試這樣定義:人工智能是一種旨在使機(jī)器智能化的活動(dòng),而這種智能則能夠使機(jī)器實(shí)體合理運(yùn)行,且具預(yù)測(cè)性[4]。而華盛頓大學(xué)法學(xué)院助理教授瑞恩·卡洛認(rèn)為,人工智能可以理解為基于對(duì)現(xiàn)實(shí)世界的分析數(shù)據(jù),解決特定領(lǐng)域的問(wèn)題、所設(shè)計(jì)近似于人類(lèi)或動(dòng)物部分認(rèn)知能力的機(jī)器[5]。美國(guó)國(guó)際商用機(jī)器公司人工智能研究部門(mén)在報(bào)告中提出,人工智能是實(shí)現(xiàn)眾多宏偉目標(biāo)的工具,將在醫(yī)療保健、社會(huì)服務(wù)、公共安全、環(huán)境保護(hù)等諸方面推動(dòng)生產(chǎn)方式的變革[6]。馬克·庫(kù)克柏夫?qū)C(jī)器人“本體論個(gè)人主體”在哲學(xué)、倫理中的含義提出質(zhì)疑,認(rèn)為機(jī)器人作為單一道德實(shí)體的形象能夠幫助或威脅我們,不僅因?yàn)槠渑懦渌鼜?fù)雜本體論的現(xiàn)實(shí),也否認(rèn)地理關(guān)系和整體性質(zhì),這種社會(huì)關(guān)系的轉(zhuǎn)變要求我們修正對(duì)機(jī)器人的定義,關(guān)注與機(jī)器人交往、生活在一起的道德意義[7]。應(yīng)如何看待人工智能?霍斯特·艾丹米勒認(rèn)為只有法律能夠決定人工智能的未來(lái),但充滿挑戰(zhàn)與困難,機(jī)器人規(guī)制應(yīng)針對(duì)特定機(jī)器人及具體場(chǎng)景而定,機(jī)器人法律受到社會(huì)深層次規(guī)范結(jié)構(gòu)的影響[8]。
盡管域外對(duì)人工智能的準(zhǔn)確定義沒(méi)有達(dá)成共識(shí),但人工智能對(duì)社會(huì)的巨大促進(jìn)作用卻得到了政府和學(xué)術(shù)界的一致認(rèn)可。國(guó)家的管理者與科研機(jī)構(gòu)先后出臺(tái)部署規(guī)劃,明確人工智能的戰(zhàn)略發(fā)展方向與目標(biāo)。不同于我國(guó)人工智能在法學(xué)研究領(lǐng)域所進(jìn)行的單一學(xué)科理論探索,域外法學(xué)界一般立足于哲學(xué)、倫理學(xué)、工程學(xué)等多學(xué)科交叉視野,關(guān)注于人工智能在現(xiàn)實(shí)發(fā)展過(guò)程中與公共安全、環(huán)境保護(hù)等場(chǎng)景的應(yīng)用。值得注意的是,域外人工智能的研究主體并非僅僅是法學(xué)學(xué)者與產(chǎn)業(yè)界人士,政府部門(mén)、商業(yè)機(jī)構(gòu)、科研院所、法律界(包括律師、法官)、哲學(xué)界等均參與到了相關(guān)的研究之中,從不同的專(zhuān)業(yè)領(lǐng)域嘗試解決問(wèn)題,提供不同的思考路徑。
1.隱私問(wèn)題。面對(duì)機(jī)器人技術(shù)發(fā)展所帶來(lái)的隱私、版權(quán)和安全問(wèn)題,伯克哈德等認(rèn)為需要“通過(guò)設(shè)計(jì)實(shí)現(xiàn)透明”的原則,但這也會(huì)帶來(lái)更大的脆弱性和安全風(fēng)險(xiǎn),問(wèn)題的討論應(yīng)嵌入到對(duì)數(shù)據(jù)公平處理原則的討論之中[9]。阿爾貝托等分析隱私問(wèn)題將如何影響網(wǎng)絡(luò)機(jī)器人在歐洲城市地區(qū)的部署,提出應(yīng)明確以具體方式面對(duì)的哪些法律挑戰(zhàn),用于私人目的的數(shù)據(jù)記錄和存儲(chǔ)需要用戶在一般法律框架內(nèi)同意,個(gè)人資料的處理必須是限制性或匿名的,法律框架需要適應(yīng)技術(shù)可能帶來(lái)的變化,除非法律允許網(wǎng)絡(luò)監(jiān)視,否則機(jī)器人不應(yīng)不加區(qū)別地讀取個(gè)人信息、標(biāo)識(shí)符號(hào)[10]。
2.責(zé)任的歸屬問(wèn)題。韋斯頓·科威特提出人工智能軟件開(kāi)發(fā)的責(zé)任是非常具有現(xiàn)實(shí)意義的,第三方與人工智能之間的交互所造成損傷,不應(yīng)成為對(duì)軟件開(kāi)發(fā)人員免責(zé)的理由。而這種交互是無(wú)法完全預(yù)見(jiàn)的,法律的設(shè)計(jì)必須考慮在保護(hù)受害者與人工智能公司之間取得平衡[11]。伯利克里·薩爾維尼等基于對(duì)意大利行政、刑事和民事法律的調(diào)查,試圖回答城市地區(qū)從事衛(wèi)生服務(wù)的自主機(jī)器人是什么和能做什么等問(wèn)題,認(rèn)為機(jī)器人的資格屬性屬于規(guī)范性空白,應(yīng)由立法者填補(bǔ),現(xiàn)階段盡管機(jī)器人具有自主性,仍應(yīng)視為財(cái)產(chǎn),不應(yīng)在造成傷害承擔(dān)個(gè)人責(zé)任[12]。
3.人工智能的權(quán)利問(wèn)題。權(quán)利問(wèn)題的核心質(zhì)疑在于機(jī)器人是否有自我意識(shí),這也是提倡人工智能應(yīng)屬于機(jī)器的重要論調(diào)。而丹尼爾·登尼特駁斥了反對(duì)者從哲學(xué)、技術(shù)、精神論等方面提出的質(zhì)疑,認(rèn)為機(jī)器人可能在未來(lái)?yè)碛凶晕乙庾R(shí),因?yàn)槲覀內(nèi)祟?lèi)本質(zhì)上也屬于一種機(jī)器人,而我們擁有意識(shí)[13]。菲爾·麥克納利認(rèn)為權(quán)利的擴(kuò)展性決定了機(jī)器人有朝一日會(huì)擁有權(quán)利。這可能有助于我們重新評(píng)價(jià)人類(lèi)、機(jī)器和自然相互聯(lián)系的權(quán)利和責(zé)任,而法律體系中權(quán)利與責(zé)任的劃分標(biāo)準(zhǔn)也會(huì)進(jìn)一步演變[14]。
4.人工智能的倫理與法律風(fēng)險(xiǎn)。人工智能的發(fā)展不斷入侵監(jiān)管的空白領(lǐng)域,造成了新的法律風(fēng)險(xiǎn)和倫理問(wèn)題,法律的使命即在于試圖減緩甚至消除這種威脅。通過(guò)測(cè)試人類(lèi)與機(jī)器人互動(dòng)的責(zé)任要件,烏戈·帕加羅在刑法、合同法、侵權(quán)法的視野下分析了27種假設(shè),以期精確描述處于重重壓力的機(jī)器人法律,他提出法律管控技術(shù)的目標(biāo)不僅僅在于進(jìn)入法律領(lǐng)域的機(jī)器人,還關(guān)系塑造人類(lèi)與機(jī)器人互動(dòng)環(huán)境的條款和形式[15]。彼得·阿薩羅等通過(guò)法律概念審視當(dāng)前和未來(lái)機(jī)器人的適用,提出法律體系是應(yīng)對(duì)機(jī)器人倫理道德時(shí)的重要選擇,但法律的視線以外,機(jī)器人元倫理問(wèn)題依然被忽略[16]。塞吉奧·費(fèi)拉茲等提出人工智能實(shí)體所造成的傷害并不能承擔(dān)責(zé)任,因?yàn)樗鼈儽举|(zhì)上仍然屬于工具,而法律在人工智能的規(guī)制作用主要體現(xiàn)在兩個(gè)方面:一是研究因使用人工智能而產(chǎn)生的行為或不作為所引起的責(zé)任制度,以及在這種情況下適用的懲罰;二是防止這種傷害,這意味著建立一套道德規(guī)范,包括建立和編寫(xiě)智能系統(tǒng)或機(jī)器人取代人類(lèi)活動(dòng)的基本規(guī)則[17]。溫德?tīng)枴ね呃照J(rèn)為機(jī)器人和神經(jīng)技術(shù)的發(fā)展離不開(kāi)倫理、法律和公共政策的核心保障作用,其目標(biāo)在于從科學(xué)技術(shù)中獲得最大限度的利益與最小化的傷害。人工智能技術(shù)的不可預(yù)測(cè)性不應(yīng)該等同于不可治理,分析可以產(chǎn)生預(yù)期的知識(shí),包括可預(yù)測(cè)的趨勢(shì)、具體技術(shù)的用途,反過(guò)來(lái)這些知識(shí)也有助于制度的完善,在很大程度上這是一個(gè)漸進(jìn)的過(guò)程[18]。在回答機(jī)器人是否能夠?yàn)樽陨硇袨樨?fù)責(zé)、關(guān)注這一問(wèn)題的意義是什么等問(wèn)題時(shí),阿曼達(dá)·夏基認(rèn)為智能機(jī)器人對(duì)他人的關(guān)系是已經(jīng)寫(xiě)入編程的,機(jī)器人的任何決定依然取決于其最初的設(shè)計(jì),盡管是經(jīng)過(guò)訓(xùn)練或進(jìn)化而來(lái),這種智能在某些時(shí)候仍涉及人類(lèi)的干涉,承認(rèn)人類(lèi)的責(zé)任是必要的[19]。
5.人工智能監(jiān)管問(wèn)題。羅納德·萊昂尼斯等認(rèn)為,處理機(jī)器人管制問(wèn)題包括了在機(jī)器人設(shè)計(jì)中加入特定規(guī)則以對(duì)其行為進(jìn)行規(guī)制,考慮到機(jī)器人在高度規(guī)范的環(huán)境中發(fā)揮作用這一事實(shí),其不僅需要?jiǎng)?chuàng)造一種道德場(chǎng)景,還必須堅(jiān)持和尊重現(xiàn)有的規(guī)范場(chǎng)景,在人類(lèi)環(huán)境中工作的機(jī)器人應(yīng)遵守社會(huì)和法律的規(guī)范[20]。
人工智能對(duì)傳統(tǒng)法律體系帶來(lái)的顛覆性影響,具體表現(xiàn)在隱私領(lǐng)域,隱私的泄露較之過(guò)往,手段更為便利智能、更加難以防范、情形更為嚴(yán)重,借助于人工智能的分析技術(shù),個(gè)人的所有信息安全難以得到有效保障,但過(guò)度嚴(yán)格地限制企業(yè)的用戶信息獲取,則可能影響人工智能的發(fā)展,這一矛盾命題迫切需要法律做出取舍與平衡。人工智能軟件、機(jī)器人的出現(xiàn)與應(yīng)用,在責(zé)任歸屬領(lǐng)域,究竟是由用戶、開(kāi)發(fā)者、銷(xiāo)售者中的誰(shuí)來(lái)承擔(dān)所引發(fā)的民事、刑事、行政責(zé)任?,F(xiàn)實(shí)中可能人工智能產(chǎn)品的問(wèn)世,存在更多的參與者,法律需要盡快填補(bǔ)這一空白。在機(jī)器人權(quán)利領(lǐng)域,權(quán)利的來(lái)源在于自我意識(shí),而未來(lái)我們是否應(yīng)該承認(rèn)機(jī)器人的自我意識(shí)?這種意識(shí)與人類(lèi)意識(shí)之間應(yīng)該處于什么樣的關(guān)系?依靠法律無(wú)法回答這些問(wèn)題,哲學(xué)、工學(xué)、產(chǎn)業(yè)界等更多的主體都需要參與進(jìn)來(lái)。在倫理與風(fēng)險(xiǎn)領(lǐng)域,人工智能的不可預(yù)測(cè)性加劇了風(fēng)險(xiǎn)社會(huì)的不穩(wěn)定因素,任何人都處于這一風(fēng)險(xiǎn)之中,盡管學(xué)者之間存在爭(zhēng)議,但機(jī)器人行為的可控性是減少人工智能風(fēng)險(xiǎn)的重要手段。在監(jiān)管領(lǐng)域,監(jiān)管主體、監(jiān)管對(duì)象、監(jiān)管方式、監(jiān)管場(chǎng)景的變化都需要法律體系做出回應(yīng)。
面對(duì)著諸多人工智能所引發(fā)的各種困境,傳統(tǒng)法律體系賴以生存的責(zé)任認(rèn)定體系、權(quán)利義務(wù)設(shè)定等基礎(chǔ)理論的原生根基發(fā)生了變化,但法律體系本身仍堅(jiān)守著舊有規(guī)范,這明顯是無(wú)法適應(yīng)人工智能發(fā)展需求的。因此,考慮到現(xiàn)實(shí)中人工智能的變化、多樣性,由學(xué)者們先行進(jìn)行理論層面的探索與思考,就顯得具有相當(dāng)?shù)谋匾粤恕?/p>
1.實(shí)務(wù)領(lǐng)域。面對(duì)人工智能對(duì)法律實(shí)務(wù)界的影響,肖恩·塞姆勒等認(rèn)為,隨著人工智能在法律研究和合同起草領(lǐng)域的深入應(yīng)用,勢(shì)必改變律師等法律職業(yè)所扮演的角色,但人工智能缺乏對(duì)信息的分析理解能力,律師將填補(bǔ)這個(gè)空白,即借助工具提供更有效的法律服務(wù)[21]。通過(guò)審視人工智能的定義及進(jìn)化,班尼爾·班阿瑞等認(rèn)為,面對(duì)人工智能對(duì)法律界和律師職業(yè)的改變,我們已通過(guò)市場(chǎng)和技術(shù)兩種方式做好準(zhǔn)備,市場(chǎng)失靈導(dǎo)致司法系統(tǒng)超載,法律科技初創(chuàng)企業(yè)的資金增長(zhǎng)到驚人的高峰,市場(chǎng)失靈和技術(shù)成就將共同為新一代法律專(zhuān)業(yè)鋪平道路[22]。
2.司法領(lǐng)域。人工智能在域外司法領(lǐng)域得到快速發(fā)展,在犯罪評(píng)估、輔助量刑等方面發(fā)揮著人工智能的運(yùn)算和預(yù)測(cè)功能,也引發(fā)實(shí)務(wù)屆與學(xué)術(shù)界的討論。李本提出,目前美國(guó)司法中人工智能的應(yīng)用遭受到準(zhǔn)確性、社會(huì)歧視、 正當(dāng)程序等多方批評(píng),刑事領(lǐng)域算法的不透明可能導(dǎo)致發(fā)展的重心關(guān)注于科技企業(yè)的利潤(rùn)而不是司法的工作,我們需要進(jìn)行坦誠(chéng)、公開(kāi)地討論,也要增加人工智能技術(shù)的透明性[23]。瑞恩·卡洛著眼于機(jī)器人在司法想象中的具體作用,認(rèn)為由于可能作為解釋決定的論點(diǎn),法官如何使用“機(jī)器人”這個(gè)概念成為解決問(wèn)題的重點(diǎn),對(duì)機(jī)器人隱喻的使用能夠在某些方面強(qiáng)化正義,但從實(shí)際理解程度來(lái)看,法官對(duì)機(jī)器人的心理構(gòu)建已經(jīng)落后于技術(shù)的發(fā)展,隨著機(jī)器人繼續(xù)進(jìn)入主流生活,并產(chǎn)生新的法律沖突,法官們需要更新這種思維模式[24]。
無(wú)論是實(shí)務(wù)抑或司法領(lǐng)域,人工智能在于法律共同體相結(jié)合的過(guò)程,對(duì)后者的轉(zhuǎn)型產(chǎn)生著重要影響。在為法律界帶來(lái)運(yùn)算便利、降低工作強(qiáng)度的同時(shí),不可避免地也帶來(lái)了對(duì)算法歧視、不透明等問(wèn)題的質(zhì)疑,而如何做好程序員與法官律師、算法與法律之間的平衡、和諧發(fā)展,確保公平的價(jià)值觀,是解決問(wèn)題的關(guān)鍵。
知識(shí)產(chǎn)權(quán)領(lǐng)域已成為最早、最多面對(duì)人工智能沖擊的法律領(lǐng)域,法學(xué)界一直未能對(duì)權(quán)利的屬性、歸屬等問(wèn)題得到公認(rèn)的回答。亞瑟·米勒在二十世紀(jì)九十年代即提出計(jì)算機(jī)生成作品的出現(xiàn),存在難以忽視的人為因素干預(yù),導(dǎo)致權(quán)益分配時(shí)存在困難[25]。本杰明·索貝爾認(rèn)為人工智能技術(shù)在保護(hù)版權(quán)作品方面具有巨大潛力,美國(guó)最有可能促進(jìn)機(jī)器學(xué)習(xí)數(shù)據(jù)的法律機(jī)制是公平使用原則,但當(dāng)前該原則應(yīng)用在表達(dá)性機(jī)器學(xué)習(xí)時(shí)產(chǎn)生不利后果:拒絕使用可能會(huì)造成創(chuàng)新停止,鼓勵(lì)使用可能會(huì)損害創(chuàng)造者合法利益,這種困境表明公平使用可能無(wú)法符合預(yù)期目標(biāo),作者探討了對(duì)應(yīng)學(xué)說(shuō)和政策的變化問(wèn)題,但是對(duì)如何避免問(wèn)題,沒(méi)有給出答案[26]。
蒂姆斯·巴特勒分析了人工智能發(fā)展所帶來(lái)的威脅,對(duì)著作權(quán)的作者身份和獨(dú)創(chuàng)性的概念進(jìn)行了探討,認(rèn)為目前對(duì)傳統(tǒng)版權(quán)破壞性最小的方案是假設(shè)一個(gè)虛構(gòu)的人類(lèi)作者,然后將版權(quán)分配給軟件的創(chuàng)造者、問(wèn)題解決者或者是電腦所有者,法院也能夠認(rèn)可這種方案,但這個(gè)解決辦法是權(quán)宜之計(jì)。隨著人工智能的全面發(fā)展,需要警惕未來(lái)可能的更大影響[27]。
艾麗卡·弗雷澤認(rèn)為,人工智能加快創(chuàng)新步伐的潛在社會(huì)效益,將迫使人們重新審視知識(shí)產(chǎn)權(quán)法的基本原則。專(zhuān)利制度必須認(rèn)識(shí)到其中的含義,并做好準(zhǔn)備應(yīng)對(duì)這樣一個(gè)技術(shù)現(xiàn)實(shí):人類(lèi)與人工智能在發(fā)明創(chuàng)造中的貢獻(xiàn)所占的比例逐漸在變化,而且逐漸朝向有利于機(jī)器的方向轉(zhuǎn)變,專(zhuān)利制度必須在確保繼續(xù)保護(hù)創(chuàng)新投資的同時(shí)控制作品權(quán)益之爭(zhēng)所引發(fā)的風(fēng)險(xiǎn)[28]。羅伯特·德尼科拉認(rèn)為憲法和版權(quán)法沒(méi)有明確定義作者這一概念,版權(quán)局和一些法院要求作品中可受版權(quán)保護(hù)的表達(dá)方式來(lái)源于人的存在。如果人用電腦來(lái)輔助創(chuàng)作,結(jié)果可受版權(quán)保護(hù);如果用戶與計(jì)算機(jī)的交互提示是由計(jì)算機(jī)生成的表示,則不受版權(quán)保護(hù),這是一個(gè)細(xì)微的、最終會(huì)產(chǎn)生反效果的區(qū)別,否認(rèn)計(jì)算機(jī)創(chuàng)作的作品在物質(zhì)和價(jià)值上與人類(lèi)創(chuàng)造的作品沒(méi)有區(qū)別,而開(kāi)啟計(jì)算機(jī)生成表達(dá)方式的計(jì)算機(jī)用戶,應(yīng)該被確定為作品的作者和版權(quán)所有者[29]。安德魯·吳則認(rèn)為,毫無(wú)疑問(wèn)作品本身應(yīng)該受到法律保護(hù),但版權(quán)歸屬于智能最初的發(fā)明人,可能無(wú)法進(jìn)一步激發(fā)創(chuàng)造力的發(fā)展[30]。
瑞安·艾博特則提出在部分領(lǐng)域計(jì)算機(jī)輸出能構(gòu)成可專(zhuān)利申請(qǐng)的主題,而計(jì)算機(jī)本身并不符合傳統(tǒng)發(fā)明創(chuàng)造對(duì)人的要求,盡管專(zhuān)利局已對(duì)計(jì)算機(jī)的發(fā)明授予過(guò)專(zhuān)利,但法院、國(guó)會(huì)或?qū)@謴奈纯紤]過(guò)計(jì)算機(jī)發(fā)明人的問(wèn)題,應(yīng)在憲法和版權(quán)法律條文的框架內(nèi)探索創(chuàng)造計(jì)算機(jī)作為發(fā)明人,以順應(yīng)技術(shù)發(fā)展趨勢(shì),達(dá)成保護(hù)法律秩序穩(wěn)定之目標(biāo)[31]??帧ず绽锼雇蟹蛘J(rèn)為從產(chǎn)業(yè)的長(zhǎng)遠(yuǎn)發(fā)展來(lái)看,給予人工智能程序員和所有者作者身份是必不可少的,與其重新定義“作者身份”以覆蓋非人類(lèi),在美國(guó)版權(quán)法的條款中重新解釋“員工”和“雇主”這些術(shù)語(yǔ)更為妥當(dāng),這種解釋無(wú)需對(duì)目前的規(guī)則和指導(dǎo)方針進(jìn)行冗長(zhǎng)或有爭(zhēng)議的改革[32]。
人工智能的出現(xiàn),首先需要回答物權(quán)、產(chǎn)權(quán)、所有權(quán)、受益權(quán)等問(wèn)題,因而我們可以認(rèn)為,人工智能的法律問(wèn)題,起源發(fā)展于知識(shí)產(chǎn)權(quán)。但事實(shí)上,這些問(wèn)題至今仍存在著爭(zhēng)議,人工智能發(fā)展存在著不同階段和不同類(lèi)型,基于視野的差別,域外學(xué)者面對(duì)“人工智能生成物版權(quán)”的答案也不盡相同。從人工智能的發(fā)展來(lái)看,在人工智能具備自我意識(shí)之前,對(duì)問(wèn)題的爭(zhēng)論還將持續(xù)相當(dāng)長(zhǎng)的一段時(shí)間。
機(jī)器人被設(shè)計(jì)成具有一定的社交屬性,逐漸進(jìn)入社會(huì),成為與人類(lèi)相似的“社會(huì)成員”,甚至成為“家庭成員”,人機(jī)之間的交互可能會(huì)引發(fā)人類(lèi)情感和行為上的變化,而制度規(guī)范對(duì)這些社會(huì)機(jī)器人的定位、屬性、資格、權(quán)責(zé)等方面已經(jīng)嚴(yán)重落后于現(xiàn)實(shí),引發(fā)了眾多學(xué)者的思考。盡管距離科幻小說(shuō)所描述的那種擁有類(lèi)人化認(rèn)知或情感的機(jī)器人還為時(shí)過(guò)早,但目前的技術(shù)和可預(yù)見(jiàn)的未來(lái)發(fā)展可能對(duì)機(jī)器人權(quán)利采取不同的方法。凱特·達(dá)林提出人類(lèi)有將社會(huì)機(jī)器人擬人化的傾向,探討將情感投射到機(jī)器人伴侶身上是否會(huì)導(dǎo)致有限法律權(quán)利的延伸,這牽扯到法律應(yīng)該影響人們的心理喜好,抑或反之,我們應(yīng)該向社會(huì)機(jī)器人提供法律保護(hù)的時(shí)間點(diǎn)取決于能否證明我們對(duì)機(jī)器人的行為會(huì)轉(zhuǎn)化為其他場(chǎng)景[33]。社交機(jī)器人更容易被擬人化,很多場(chǎng)景中已開(kāi)始以類(lèi)似于寵物,甚至人類(lèi)伴侶的形象出現(xiàn)。安德烈·波托尼亞等認(rèn)為機(jī)器人伴侶產(chǎn)品對(duì)現(xiàn)有消費(fèi)者保護(hù)制度構(gòu)成挑戰(zhàn),從法律和倫理角度來(lái)看,它們都是產(chǎn)品,目的是為了滿足可識(shí)別的人類(lèi)需求,改變適用法律范式的論點(diǎn)應(yīng)該基于純粹的功能主義,即對(duì)特定機(jī)器人技術(shù)可取性的政策考慮,以及對(duì)現(xiàn)有法律提供的激勵(lì)措施有效性的評(píng)估[34]。而詹姆斯·凱扎等學(xué)者通過(guò)實(shí)證分析個(gè)體層面的性別、宗教信仰、技術(shù)感知能力等因素在不同程度影響了用戶對(duì)機(jī)器人外觀的態(tài)度和情感,這種情緒和感知導(dǎo)致了技術(shù)的同化,對(duì)未來(lái)人機(jī)交互具有重要影響,而人類(lèi)伴侶更傾向于將外觀擬人化程度更高的機(jī)器人視為真實(shí)的人[35]。
盡管機(jī)器人距離影視作品中的“完全類(lèi)人化”還為時(shí)尚早,但域外學(xué)者認(rèn)為現(xiàn)有的機(jī)器人已經(jīng)逐漸給現(xiàn)實(shí)社會(huì)帶來(lái)一定的問(wèn)題。一方面機(jī)器人可以扮演類(lèi)似寵物的角色,寄托人類(lèi)情感,另一方面機(jī)器人的外觀越來(lái)越貼近人類(lèi),對(duì)機(jī)器人的態(tài)度可能會(huì)映射到對(duì)社會(huì)中的真實(shí)人類(lèi),尤其是給女性等弱勢(shì)角色帶來(lái)影響。已有學(xué)者對(duì)此表示擔(dān)憂,而目前法律體系對(duì)此尚未給予足夠的關(guān)注和回應(yīng)。
國(guó)外學(xué)者對(duì)人工智能的研究起步較早,多學(xué)科形成了較為翔實(shí)的理論成果,但也存在重問(wèn)題輕解決等現(xiàn)象,概括而言,域外人工智能研究的特點(diǎn)主要包括以下幾個(gè)方面。從研究方法來(lái)看,以跨學(xué)科研究為主。人工智能的復(fù)雜性與廣泛性超過(guò)單學(xué)科單學(xué)者的研究能力,已經(jīng)成為學(xué)者們的共識(shí),如在國(guó)際機(jī)器人大會(huì)上,有多篇學(xué)術(shù)論文由法學(xué)、工學(xué)、哲學(xué)等學(xué)者合作完成。從研究主題來(lái)看,多主體共同參與。理論界與實(shí)務(wù)界聯(lián)系緊密,學(xué)術(shù)界負(fù)責(zé)理論研究,產(chǎn)業(yè)界負(fù)責(zé)技術(shù)研究,政府機(jī)構(gòu)負(fù)責(zé)政策引導(dǎo),各主體發(fā)揮自身優(yōu)勢(shì)積極參與人工智能的研究規(guī)制活動(dòng),產(chǎn)學(xué)結(jié)合、政學(xué)結(jié)合成為常態(tài)。從研究?jī)?nèi)容來(lái)看,關(guān)注于人工智能的現(xiàn)實(shí)場(chǎng)景。理論研究成果大多基于人工智能的實(shí)踐運(yùn)用,在實(shí)踐中發(fā)掘問(wèn)題、反思社會(huì)影響,理論貼近社會(huì)的實(shí)際需求。從研究角度來(lái)看,橫向、縱向研究視野開(kāi)闊。學(xué)者認(rèn)為人工智能的管控縱向上應(yīng)參考工業(yè)革命的應(yīng)對(duì)策略,二者均屬于技術(shù)推動(dòng)的社會(huì)變革,具有重要的參考作用;橫向上融合各國(guó)的治理實(shí)踐,探索本土化研究。從制度規(guī)范來(lái)看,政策引導(dǎo)發(fā)展較快,立法經(jīng)驗(yàn)豐富。在政策支持、倫理法規(guī)制定等方面已開(kāi)始進(jìn)行直接修改法律或出臺(tái)新法律等諸多立法嘗試,如美、德等國(guó)在自動(dòng)駕駛等領(lǐng)域,賦予人工智能企業(yè)試驗(yàn)、路試的合法地位,鼓勵(lì)產(chǎn)業(yè)應(yīng)用;同時(shí)國(guó)家資助大學(xué)、科研機(jī)構(gòu)從事理論研究,建立支持人工智能發(fā)展的政策體系。
對(duì)于我國(guó)而言,面對(duì)人工智能的巨大經(jīng)濟(jì)驅(qū)動(dòng)作用和社會(huì)變革影響,法律體系理應(yīng)成為保障人工智能平穩(wěn)、順利發(fā)展,防范社會(huì)問(wèn)題、矛盾發(fā)生的重要屏障。但現(xiàn)階段,受制于人工智能治理的復(fù)雜性、法律制度的滯后性等多重因素,人工智能的法律問(wèn)題研究并未取得實(shí)質(zhì)意義的進(jìn)展。法學(xué)理論界的研究更傾向于閉門(mén)造車(chē),對(duì)人工智能產(chǎn)業(yè)的發(fā)展缺乏足夠的關(guān)注,忽視與其他學(xué)科的交流,具體表現(xiàn)為學(xué)術(shù)研究成果的數(shù)量較多而關(guān)鍵領(lǐng)域的研究較少,對(duì)理論問(wèn)題的研究較多而對(duì)實(shí)踐應(yīng)用研究較少。但人工智能是一門(mén)實(shí)踐性與應(yīng)用性強(qiáng)的交叉學(xué)科,僅依靠法學(xué)單一學(xué)科是無(wú)法實(shí)現(xiàn)發(fā)展目標(biāo)的。因而,以開(kāi)放性視野持續(xù)關(guān)注域外法學(xué)研究的發(fā)展動(dòng)態(tài),加強(qiáng)人工智能?chē)?guó)際學(xué)術(shù)交流合作,結(jié)合本土特色打造我們自身跨學(xué)科、產(chǎn)學(xué)結(jié)合的人工智能研究體系,就具有相當(dāng)程度的必要性與合理性了。