吳清卿
科幻文學(xué)作品經(jīng)常會(huì)描繪一幅人類和機(jī)器人共同生活的場(chǎng)景。其中,有機(jī)器人服務(wù)、保護(hù)人類的情節(jié),也有人類與機(jī)器人相互對(duì)立、彼此仇視的情節(jié)。這些作品的故事背景,通常是人類社會(huì)的數(shù)字科技已經(jīng)達(dá)到強(qiáng)人工智能(ArtificialGeneralIntelligence,AGI)甚至超人工智能(ArtificialSuperIntelligence,ASI)的水平,然而在現(xiàn)實(shí)中,這仍是現(xiàn)今科學(xué)家和科幻作家們夢(mèng)想中的“新大陸”。
但是,科學(xué)幻想與科學(xué)現(xiàn)實(shí)之間的距離正在拉近。在人工智能技術(shù)日新月異、不斷進(jìn)化的當(dāng)下,以ChatGPT為代表的生成式人工智能已經(jīng)能夠與人類對(duì)話,并代替人類進(jìn)行設(shè)計(jì)、繪畫(huà)。站在這樣一個(gè)技術(shù)升級(jí)的轉(zhuǎn)折點(diǎn)上,人類與智能機(jī)器之間的這種從前經(jīng)由科幻故事所闡發(fā)的復(fù)雜而又微妙的關(guān)系,連同許多糾纏于人類和智能機(jī)器之間的疑難問(wèn)題,又一次被帶入公眾視野。其中最受關(guān)注的問(wèn)題仍舊是智能時(shí)代的人機(jī)關(guān)系:人工智能是否可能具備自由意志?人工智能在何種意義上可以被視為具有主體人格?
所有問(wèn)題的關(guān)鍵或許在于,人類可否用看待同類的方式去理解自己的“造物”并賦予它們一定的權(quán)利。面對(duì)來(lái)自技術(shù)的挑戰(zhàn),法律或許可以借鑒歷史的經(jīng)驗(yàn)賦予人工智能某種“人格”,從權(quán)利/義務(wù)的角度去探討它們?cè)谌祟惿鐣?huì)中的參與;也可以插上想象的翅膀,思考法律將如何持存于一個(gè)強(qiáng)人工智能的未來(lái)時(shí)代。
人工智能技術(shù)的發(fā)展分為三個(gè)階段:弱人工智能(ArtificialNarrowIntelligence,ANI)、強(qiáng)人工智能和超人工智能。①《什么是強(qiáng)AI?》,IBM網(wǎng)站,https://www.ibm.com/cn-zh/topics/strong-ai。弱人工智能指的是需要遵守固定程序從而進(jìn)行交互的人工智能,例如語(yǔ)音助手、掃地機(jī)器人等單一任務(wù)、單一場(chǎng)景的AI。強(qiáng)人工智能是指能夠達(dá)到人類思維水平的AI。在強(qiáng)人工智能領(lǐng)域,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是近年來(lái)發(fā)展最迅速的子領(lǐng)域,其中深度學(xué)習(xí)就是模擬人類的神經(jīng)網(wǎng)絡(luò)建造多層次模型,讓機(jī)器通過(guò)學(xué)習(xí)已有的數(shù)據(jù)集從而自動(dòng)形成算法并觸類旁通地解決問(wèn)題。近來(lái)風(fēng)靡全球的ChatGPT所依賴的大語(yǔ)言模型(LargeLanguageModel)本質(zhì)上就屬于深度學(xué)習(xí)的框架。而最后一種超人工智能則為人們想象中的、可以超過(guò)人類的AI。與AI相關(guān)的電影和文學(xué)作品中的“人機(jī)大戰(zhàn)”大約指的都是超人工智能時(shí)代才可能發(fā)生的事。有人工智能科學(xué)家指出,目前人工智能的發(fā)展處于弱人工智能與強(qiáng)人工智能的中間點(diǎn)。
自2022年12月以來(lái),以ChatGPT為代表的大語(yǔ)言模型產(chǎn)品帶來(lái)了文字、圖片和設(shè)計(jì)創(chuàng)作的革新,比如可以根據(jù)用戶輸入的關(guān)鍵詞生成包含關(guān)鍵詞中各種元素的圖片。ChatGPT在經(jīng)歷迭代以后,最新的GPT-4產(chǎn)品可以在美國(guó)的法學(xué)院入??荚嚕↙SAT)中獲得排名前10%的成績(jī),也可以高分通過(guò)美國(guó)司法考試。①ChatGPTV4AcestheBar,SATsandCanIdentifyExploitsinETHContracts,2023-03-15,https://cointelegraph.com/news/chatgpt-v4-aces-the-bar-sats-and-can-identify-exploits-in-eth-contracts.
“人工智能之父”圖靈(Turing)提出了著名的“圖靈測(cè)試”,以檢測(cè)AI技術(shù)是否達(dá)到“強(qiáng)智能”。該測(cè)試認(rèn)為如果讓檢測(cè)者和機(jī)器對(duì)話,當(dāng)超過(guò)50%的檢測(cè)者無(wú)法辨別對(duì)方是人類還是機(jī)器時(shí),則認(rèn)為該技術(shù)具有“智能”。目前,盡管沒(méi)有任何官方機(jī)構(gòu)宣布ChatGPT及其迭代產(chǎn)品已經(jīng)通過(guò)圖靈測(cè)試,但是已有許多相關(guān)領(lǐng)域的教授和計(jì)算機(jī)科學(xué)家們完成了對(duì)GPT-3和GPT-4的相關(guān)測(cè)試。②Andrew,ChatGPTPassesTuringTest:ANewBenchmarkinAI,2023-04-01,https://www.westarter.org/chatgpt-turing-test/.AllisaJames,ChatGPTHasPassedtheTuringTestandIfYou’reFreakedOut,You’reNotAlone,2023-03-29,https://www.techradar.com/opinion/chatgpt-has-passed-the-turing-test-and-if-youre-freaked-out-youre-not-alone.DamirYalalov,ChatGPTPassestheTuringTest,2022-12-08,https://mpost.io/chatgpt-passes-the-turing-test/.此外,谷歌(Google)的大語(yǔ)言模型LaMDA也已在2022年6月通過(guò)該測(cè)試,比LaMDA更先進(jìn)的GPT-4能通過(guò)圖靈測(cè)試也就不奇怪了。③WillOremus,Google’sAIPassedaFamousTestandShowedHowtheTestisBroken,2022-06-17,https://www.washingtonpost.com/technology/2022/06/17/google-ai-lamda-turing-test/.GPT-4能夠根據(jù)提出的問(wèn)題調(diào)整說(shuō)話方式,可以用輕松的、正式的、幽默的甚至諷刺的語(yǔ)氣進(jìn)行溝通。當(dāng)然,即使GPT-4通過(guò)了圖靈測(cè)試,也并不一定意味著它可以像人類一樣思考或理解問(wèn)題。有科學(xué)家認(rèn)為圖靈測(cè)試并不能全面地測(cè)試AI的智能水平,④A.P.Saygin,PragmaticsinHuman-ComputerConversation,Journal of Pragmatics,2002(34),pp.227-258.因?yàn)樵摐y(cè)試并不直接測(cè)試計(jì)算機(jī)的行為是否智能,它僅測(cè)試計(jì)算機(jī)的行為是否像人類一樣,而人類行為和智能行為并不相同,因?yàn)槿祟惖哪承┬袨槭遣幻髦堑摹?/p>
美國(guó)斯坦福大學(xué)教授米哈爾·科辛斯基(MichalKosinski)于2023年2月發(fā)表論文稱GPT-3.5的心智水平已達(dá)到7歲兒童的水平。這個(gè)結(jié)論是通過(guò)心理學(xué)的心智理論(TheoryofMind)測(cè)試得到的,該試驗(yàn)主要檢測(cè)各種語(yǔ)言模型能否意識(shí)到其他人有與現(xiàn)實(shí)不同的“錯(cuò)誤信念”。該研究表明,2020年之前發(fā)布的語(yǔ)言模型幾乎沒(méi)有表現(xiàn)出解決“錯(cuò)誤信念”任務(wù)的能力,而2020年5月發(fā)布的第一個(gè)版本的GPT-3解決了約40%的任務(wù),表現(xiàn)與3.5歲兒童相當(dāng);2022年1月發(fā)布的第二個(gè)版本解決了70%的任務(wù),相當(dāng)于6歲兒童;2022年11月發(fā)布的GPT-3.5解決了90%的任務(wù),達(dá)到了7歲兒童的水平;2023年3月發(fā)布的GPT-4更是解決了95%的任務(wù)。這些研究表明,從前被認(rèn)為是人類所獨(dú)有的心智能力,可能作為語(yǔ)言模型提高語(yǔ)言技能的“副產(chǎn)品”而出現(xiàn)了。⑤MichalKosinski,TheoryofMindMayHaveSpontaneouslyEmergedinLargeLanguageModels,websiteofCornellUniversity,2023-02-04,https://arxiv.org/abs/2302.02083.
當(dāng)技術(shù)更迭日益朝著智能化發(fā)展時(shí),許多在機(jī)器人技術(shù)開(kāi)端就被埋下伏筆的疑問(wèn)會(huì)再度進(jìn)入我們的視野:人工智能是否會(huì)超越人類?是否可以用思考人類主體的方式去理解人工智能?關(guān)于人工智能是否具有人格,以及未來(lái)它在人類社會(huì)中的地位是什么,法律似乎自有一套話語(yǔ)加以應(yīng)對(duì)。然而,當(dāng)我們?yōu)闄C(jī)器人或人工智能模型賦予某種類似“人格”的地位時(shí),似乎注定會(huì)帶來(lái)更多理論和實(shí)踐中的問(wèn)題。無(wú)論如何,當(dāng)機(jī)器和人工智能日益被“縫”進(jìn)人類生活,法律的登場(chǎng)只是時(shí)間問(wèn)題。問(wèn)題在于,我們是否為這樣的未來(lái)做好了充足準(zhǔn)備。
2017年,沙特阿拉伯授予機(jī)器人索菲亞以公民身份。①AndrewGriffin,SaudiArabiaGrantsCitizenshiptoaRobotfortheFirstTimeEver,Independent,https://www.independent.co.uk/tech/saudi-arabia-robot-sophia-citizenship-android-riyadh-citizen-passport-future-a8021601.html.索菲亞由注冊(cè)于中國(guó)香港的機(jī)器人公司制作,有皺紋、有表情,能夠在回答問(wèn)題時(shí)微笑或露出疑惑、難受的表情。然而著名AI科學(xué)家楊立昆(YannLeCun)在當(dāng)時(shí)便指出這是一場(chǎng)“騙局”,因?yàn)樗鞣苼喌脑S多回答是通過(guò)程序設(shè)定好的。索菲亞在回答記者提前提交給會(huì)務(wù)組的3個(gè)問(wèn)題時(shí)表現(xiàn)優(yōu)秀,但當(dāng)遇到記者現(xiàn)場(chǎng)隨機(jī)提出的問(wèn)題時(shí),其對(duì)話水平明顯下降。②《“曖昧騙局”機(jī)器人索菲亞》,知乎網(wǎng),2018年1月7日,https://zhuanlan.zhihu.com/p/32702643。6年后的今天,應(yīng)用于索菲亞和ChatGPT的自然語(yǔ)言處理模型蓬勃發(fā)展,索菲亞是否會(huì)更像一個(gè)“人”?作為第一個(gè)被賦予“人權(quán)”的機(jī)器人,索菲亞的權(quán)利問(wèn)題引發(fā)了廣泛討論。假設(shè)未來(lái)到達(dá)了AGI或ASI時(shí)代,人工智能機(jī)器人是否可以具有法律人格?其權(quán)利又是什么?
根據(jù)《中華人民共和國(guó)民法典》第九百九十條,人格權(quán)是民事主體享有的生命權(quán)、身體權(quán)、健康權(quán)、姓名權(quán)、名稱權(quán)、肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)等權(quán)利。自然人也享有基于人身自由、人格尊嚴(yán)的其他人格權(quán)。當(dāng)人格權(quán)受到侵害時(shí),受害人可以依法請(qǐng)求行為人承擔(dān)民事責(zé)任;同樣,侵害他人權(quán)利時(shí),也應(yīng)當(dāng)承擔(dān)相應(yīng)的民事責(zé)任。如果給予人工智能“人格權(quán)”,那么當(dāng)它侵害他人權(quán)利時(shí)應(yīng)當(dāng)以什么形式、什么能力來(lái)承擔(dān)責(zé)任?這需要結(jié)合我國(guó)的法律制度進(jìn)行深刻思考。以ChatGPT為例,目前ChatGPT生成的信息并非都是真實(shí)的信息,有些虛假信息極有可能損害他人的名譽(yù)權(quán)。再比如,如果用戶在與ChatGPT交互的過(guò)程中不小心透露了隱私信息,由于ChatGPT會(huì)收集并學(xué)習(xí)用戶輸入的信息,因此它很有可能在日后回答其他用戶的問(wèn)題時(shí)泄露該隱私,侵犯用戶的隱私權(quán)。在當(dāng)前的技術(shù)和法律框架下,ChatGPT之類的產(chǎn)品并不能承擔(dān)責(zé)任,所以當(dāng)它侵犯他人權(quán)利時(shí),其生產(chǎn)經(jīng)營(yíng)公司就需要承擔(dān)民事責(zé)任。如果承認(rèn)了類似的技術(shù)的獨(dú)立人格,那么就要讓技術(shù)本身承擔(dān)責(zé)任,而在無(wú)法確定人工智能的其他相關(guān)權(quán)利義務(wù)的時(shí)候,讓它獨(dú)立承擔(dān)責(zé)任好似天方夜譚。
其實(shí)歐洲的立法者很早就開(kāi)始思考人工智能是否具備獨(dú)立人格。2016年,歐盟三大常設(shè)機(jī)構(gòu)之一歐洲議會(huì)呼吁建立“人工智能倫理準(zhǔn)則”,提出要考慮賦予某些自主機(jī)器人“電子人”(ElectronicPersons)的法律地位。盡管該提案最后并沒(méi)有被通過(guò),但歐洲議會(huì)對(duì)于人工智能技術(shù)的載體可能擁有的法律地位的相關(guān)思考在世界上仍是超前的。關(guān)于智能自主機(jī)器人,歐盟的法律事務(wù)委員會(huì)提出了四大特征:(1)通過(guò)傳感器和/或借助于其環(huán)境交換數(shù)據(jù)(互聯(lián)性)獲得自主性的能力,以及分析那些數(shù)據(jù);(2)從經(jīng)歷和交互中學(xué)習(xí)的能力;(3)機(jī)器人的物質(zhì)支撐形式;(4)因環(huán)境而調(diào)整其行為和行動(dòng)的能力。①《十項(xiàng)建議解讀歐盟人工智能立法新趨勢(shì)》,騰訊研究院,2017年2月16日,https://www.tisi.org/4811。目前,生成式人工智能可以做到根據(jù)用戶的問(wèn)題而形成交互的答案。也有科學(xué)家將ChatGPT技術(shù)接入機(jī)器人,機(jī)器人可以流暢地交互,適應(yīng)不同環(huán)境并調(diào)整其行為。這些特征都非常符合歐盟提出的“電子人”概念。
這么看來(lái)“電子人”的概念似乎很合理,像是模仿“法人”而產(chǎn)生的。法人是依法成立的社會(huì)組織,擁有獨(dú)立的財(cái)產(chǎn)和經(jīng)費(fèi),獨(dú)立承擔(dān)民事責(zé)任,并且能夠以法人的名義從事民事活動(dòng)。法人具有獨(dú)立的人格權(quán),主要包含名稱權(quán)、名譽(yù)權(quán)和榮譽(yù)權(quán)。法人的概念源于羅馬法。隨著當(dāng)時(shí)羅馬領(lǐng)土的擴(kuò)張、商品貿(mào)易的頻繁,私人團(tuán)體被承認(rèn)具有主體資格,能夠以團(tuán)體的名義共同擁有財(cái)產(chǎn)、進(jìn)行商品買賣。②萬(wàn)錫林:《談法人成為法律主體的演變》,中國(guó)法院網(wǎng),2019年11月4日,https://www.chinacourt.org/artic le/detail/2009/11/id/380640.shtm l。法律主體是隨著經(jīng)濟(jì)和時(shí)代的發(fā)展不斷變化而來(lái)的,所以探討未來(lái)是否有“電子人”的可能性也未嘗不可。無(wú)論是從自然人還是法人的角度來(lái)看,民事權(quán)利和責(zé)任都是相對(duì)應(yīng)的。如果給予人工智能一定的法律主體地位,那么它必定享有相應(yīng)的權(quán)利,也必須承擔(dān)一定的義務(wù)。
然而要厘清“電子人”的權(quán)利與義務(wù),絕非易事。根據(jù)當(dāng)前大語(yǔ)言模型的發(fā)展現(xiàn)狀,主要的權(quán)利問(wèn)題集中在著作權(quán)和勞動(dòng)權(quán)上。
首先是著作權(quán)。其實(shí)在ChatGPT之前就有過(guò)關(guān)于人工智能生成物的討論,在我國(guó)更是有過(guò)一次關(guān)于生成式人工智能著作權(quán)的訴訟?!膀v訊寫作機(jī)器人”(Dreamwriter)是騰訊公司開(kāi)發(fā)的智能寫作輔助系統(tǒng),自2015年開(kāi)發(fā)完成以來(lái),每年可以完成大約30萬(wàn)篇作品。其完成的一篇關(guān)于股市的文章發(fā)表以后,被上海某科技公司直接原文復(fù)制,騰訊公司將該公司訴至法院,稱其侵犯了騰訊公司享有的著作權(quán)。案件最終裁定涉案文章由原告主創(chuàng)團(tuán)隊(duì)人員運(yùn)用Dreamwriter軟件生成,其外在表現(xiàn)符合文字作品的形式要求,其表現(xiàn)的內(nèi)容體現(xiàn)出對(duì)當(dāng)日上午相關(guān)股市信息、數(shù)據(jù)的選擇、分析、判斷,文章結(jié)構(gòu)合理、表達(dá)邏輯清晰,具有一定的獨(dú)創(chuàng)性,應(yīng)予以保護(hù)。③萬(wàn)勇:《人工智能“作品”,著作權(quán)誰(shuí)屬》,《光明日?qǐng)?bào)》2019年5月13日。當(dāng)然,ChatGPT在與用戶交互的過(guò)程中的回答不一定全都具有獨(dú)創(chuàng)性,不是ChatGPT的所有產(chǎn)出都可以獲得著作權(quán)的保護(hù),甚至一些以圖像為主的生成式AI還存在侵權(quán)的可能性。我國(guó)著作權(quán)法規(guī)定,我國(guó)公民、法人或者非法人組織可以享有著作權(quán)。那么,如果承認(rèn)了人工智能的法律人格,它是否也應(yīng)當(dāng)享有相應(yīng)的著作權(quán)呢?這是著作權(quán)領(lǐng)域非常有意思且值得探討的問(wèn)題。
其次是勞動(dòng)權(quán)。無(wú)論是網(wǎng)頁(yè)、軟件還是機(jī)器人,這些人工智能的載體都是“硅基”的,也有人稱人工智能具有“硅基生命”。與人類這種“碳基生命”相比,“硅基生命”可以長(zhǎng)久生存,也不需要氧氣等資源。這么看的話,人工智能如果接通機(jī)器等載體,一定會(huì)比人類“活”得長(zhǎng)久,且不怎么需要生存資料,幾乎可以滿足“無(wú)限勞動(dòng)”的想象。機(jī)器可以替人類做一些難以完成的工作,比如海底救援、宇宙探索,而初期的機(jī)器人也以減輕人類的勞動(dòng)負(fù)擔(dān)為目的,比如掃地機(jī)器人、投遞機(jī)器人。然而機(jī)器或人工智能對(duì)勞動(dòng)的參與方式也有不同。美國(guó)的經(jīng)濟(jì)學(xué)家就證明,相較于增加生產(chǎn)力的“賦能技術(shù)”,“替代技術(shù)”一旦接管工人的工作后,就會(huì)減少就業(yè)和人工薪酬,這對(duì)經(jīng)濟(jì)產(chǎn)生了顯著的負(fù)面影響。①DaronAcemoglu,Machinevs.Man:TheLaborMarketintheAgeofRobots,2017-02-06,https://inequality.hks.harvard.edu/event/daron-acemoglu-machine-vs-man-labor-market-age-robots.那么,如果人工智能始終是一種“賦能技術(shù)”,它便可以讓現(xiàn)有的自動(dòng)化、智能化的產(chǎn)品更加“智慧”,哪怕技術(shù)可以自行迭代成長(zhǎng),人工智能的勞動(dòng)也不一定會(huì)給經(jīng)濟(jì)造成負(fù)面影響。不過(guò),以比爾·蓋茨為代表,也有一種聲音認(rèn)為政府應(yīng)當(dāng)對(duì)人工智能征稅,用來(lái)補(bǔ)貼和培訓(xùn)因機(jī)器人的大規(guī)模應(yīng)用而失業(yè)的人。②BillGates,Job-StealingRobotsShouldPayIncomeTaxes,2017-02-17,https://www.cnbc.com/2017/02/17/bill-gates-jobstealing-robots-should-pay-income-taxes.html.這種設(shè)想的一個(gè)連帶后果卻是,征稅使得人工智能在法律上更接近于人格主體的特征,因?yàn)榧{稅是一種既有權(quán)利又有義務(wù)的主體行為。
回到所謂“電子人”的概念。事實(shí)上“電子人”一直沒(méi)有被歐洲議會(huì)所接受,這一提議備受爭(zhēng)議,在2017年之后發(fā)布的多個(gè)報(bào)告中都沒(méi)有授予人工智能法律人格,但是歐洲議會(huì)法律事務(wù)委員會(huì)在2020年7月的報(bào)告里堅(jiān)持了最初的提議并對(duì)各種批判意見(jiàn)進(jìn)行辯駁。該報(bào)告并未否定賦予人工智能以法律人格的可能性,也承認(rèn)授予法律人格并非解決問(wèn)題的唯一方法。③劉云:《論人工智能的法律人格制度需求與多層應(yīng)對(duì)》,《東方法學(xué)》2021年第1期。不知是不是因?yàn)槿斯ぶ悄芊ò福ˋrtificialIntelligenceAct)草案的提出,給了歐洲議會(huì)以更多底氣再次談?wù)撛撛掝},但可以看出,能否以及如何授予法律人格,本身需要滿足一定的時(shí)代和社會(huì)條件,法學(xué)的討論只能在時(shí)代所需要的議程框架中展開(kāi)。這也決定了賦予人工智能以法律人格,至少在目前是超前于時(shí)代的需求的。
如果說(shuō)關(guān)于人工智能的主體人格的討論,是現(xiàn)實(shí)世界對(duì)不久之后的未來(lái)所作的思想準(zhǔn)備,那么關(guān)于人工智能具備自由意志的狀況,則仍舊是科幻作品面向更遠(yuǎn)未來(lái)的幻想。比如2001年上映的電影《人工智能》改編自英國(guó)科幻作家?jiàn)W爾迪斯(BrianAldiss)于1969年發(fā)表的短篇小說(shuō);2004年上映的《我,機(jī)器人》受到阿西莫夫(IsaacAsimov)同名科幻短篇小說(shuō)集的啟發(fā)。這些電影里描繪了人工智能具有自由意志的時(shí)代,也討論了人類和人工智能機(jī)器人的關(guān)系,尤其是討論當(dāng)機(jī)器人的能力有可能“超越”人類的時(shí)候,機(jī)器人將會(huì)消滅人類還是依然服從人類這一問(wèn)題。
當(dāng)然,這些文學(xué)和電影作品中的人工智能已經(jīng)到達(dá)了AGI甚至是ASI的階段。可早在1942年,阿西莫夫在其科幻小說(shuō)《環(huán)舞》中就首次提出了“機(jī)器人三定律”。然而,這三條定律不無(wú)悖論性,其微妙之處在于,它們看似在保護(hù)人類,實(shí)則卻將具有高度智能的機(jī)器和人類放置在對(duì)抗的位置上??梢韵胍?jiàn),如果到了機(jī)器人被允許擁有自由意志的那一天,它們將可能不受任何“定律”的束縛,因而所謂的“機(jī)器人三定律”更多是面向人類的自我慰藉,或是人類為科技發(fā)展劃定的一條基準(zhǔn)線。但也正因人們很早就注意到了人機(jī)關(guān)系在未來(lái)可能發(fā)生的顛覆,現(xiàn)在的科學(xué)家更傾向于開(kāi)發(fā)一類在價(jià)值觀上與人類相一致的人工智能,也即所謂“人工智能對(duì)齊”(AIAlignment),從而克服或減少?gòu)?qiáng)人工智能時(shí)代可能出現(xiàn)的倫理風(fēng)險(xiǎn)。
或許這樣的“未來(lái)”已經(jīng)不再遙遠(yuǎn)。2022年2月9日,OpenAI聯(lián)合創(chuàng)始人、人工智能科學(xué)家伊利亞·莎士科爾(IlyaSutskever)表示:現(xiàn)在的大型神經(jīng)網(wǎng)絡(luò)可能已經(jīng)有微弱的自主意識(shí)了。①AlbertoRomero,OpenAI’sChiefScientistClaimedAIMayBeConscious,2022-03-17,https://towardsdatascience.com/openaischief-scientist-claimed-ai-may-be-conscious-and-kicked-off-a-furious-debate-7338b95194e.同年6月,谷歌的工程師布雷克·雷蒙恩(BlakeLemoine)宣稱,LaMDA已存在感知能力和自我意識(shí),并在網(wǎng)上公布了他和LaMDA的對(duì)話。他認(rèn)為,LaMDA擁有七八歲孩童的智力,并相信LaMDA正在爭(zhēng)取自己作為一個(gè)人的權(quán)利,而且“不想被關(guān)掉”。②《谷歌AI具有意識(shí)?LaMDA像個(gè)聰明孩子?專家:胡扯》,澎湃新聞,2022年6月16日,https://www.thepaper.cn/newsDetail_forward_18579232。該言論引發(fā)了巨大的風(fēng)波和討論,尤其是在谷歌否認(rèn)其言論的真實(shí)性并以泄露商業(yè)秘密為由解雇了雷蒙恩之后,該言論受到了更多人的質(zhì)疑。莎士科爾很巧妙地用了“可能”一詞,雖然他被很多人工智能科學(xué)家抨擊,但OpenAI的合伙人山姆·奧特曼(SamAltman)卻支持他的觀點(diǎn),認(rèn)為OpenAI正是因?yàn)楦鞣N“可能”才得以發(fā)展,進(jìn)而才有了橫空出世的ChatGPT和迅速迭代的GPT-3、GPT-4以及未來(lái)的GPT-5。
史蒂芬·霍金早在2017年就警告過(guò):“強(qiáng)大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對(duì)于好壞我們?nèi)詿o(wú)法確定,現(xiàn)在人類只能竭盡所能,確保其未來(lái)發(fā)展對(duì)人類和環(huán)境有利,人類別無(wú)選擇?!雹跘rjunKharpal,StephenHawkingSaysAICouldBeWorstEventintheHistoryofOurCivilization,2017-11-06,https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.htm l.他所說(shuō)的糟糕的情況指的是超人工智能時(shí)代,一旦AI超越人類,就意味著人類將面臨前所未有的挑戰(zhàn)——尤其是AI可能會(huì)被用于制造武器,這其中的威力將不可估量。因此,霍金很早就呼吁,要確保對(duì)AI有一套完備、有效的管理體系,減少不可預(yù)知的風(fēng)險(xiǎn)。
可以肯定的是,一旦人工智能擁有自由意志,那么迎接人類的將是一個(gè)完全未知的未來(lái)——不僅人工智能是否會(huì)保護(hù)、尊重人類是未知的,而且人類是否會(huì)信任人工智能也同樣未知。我們?nèi)砸粲?,要理性地看待人工智能技術(shù)的成長(zhǎng),盡可能地善用技術(shù)進(jìn)步以造福人類。但法學(xué)家們或許仍免不了操心,尤其是在法學(xué)尚未完全為人工智能時(shí)代設(shè)定好議題的今天。提前設(shè)定關(guān)于人工智能的倫理及規(guī)范,構(gòu)建一種更為良性的未來(lái)人機(jī)關(guān)系,或許是人類更好地發(fā)掘和利用人工智能的前提之一。