(青島大學(xué) 山東 青島 266000)
1950年,圖靈在論文《計算機器與智能》中提出了“機器能夠思維嗎?”,人們開始關(guān)注人工智能??v觀人工智能的發(fā)展史,在20世紀70-80年代主要是以計算機啟發(fā)式編程為基礎(chǔ)來模擬人類的某一類智能行為。此時的人工智能并不具備認知、意識等高級智能,僅僅使機器能替代人類做一些繁雜勞作。90年代,神經(jīng)網(wǎng)絡(luò)等技術(shù)的突破,使人工智能從基于邏輯走向社會智能。其超越了只能簡單模擬人腦邏輯的“人類助手”,變?yōu)榭赡軗碛凶灾饕庾R的存在。21世紀,隨著各類新興技術(shù)不斷進步,人工智能載體材料日益豐富,由模擬人到類人的技術(shù)路徑也日趨成熟。
目前人工智能的研究方法主要使用系統(tǒng)建模,并以此為手段模擬人腦機制。雖然距離“人工智能超越人類”這一終極目標的實現(xiàn)還有漫長的道路要走,但是反觀人類科學(xué)與發(fā)展的歷史可以看到,人類的選擇具有盲目性,并非全部具有理性思維。如果量子計算機等技術(shù)的發(fā)展可以賦予人工智能某種意義上的意識,最終可能會讓人類喪失對該技術(shù)的控制。況且我們對于世界的認知總是基于先行的概念框架才得以可能的,而人類目前對于宇宙的認知范圍還太過狹窄,運行于自然界間的客觀規(guī)律尚難以被確切把握,人工智能最終將走向何處將很大可能突破人類現(xiàn)有認知,難以為人類所把控。
如今數(shù)據(jù)成為未來世界最寶貴的資產(chǎn),權(quán)威將會從人類身下轉(zhuǎn)移到算法上,“人類已從中心主義滾向了X”①。計算機的發(fā)展帶來足夠大的計算能力,再輔以生物學(xué)中腦科學(xué)研究獲取的大量生物數(shù)據(jù)。兩者的結(jié)合,就有可能創(chuàng)造出比人類更了解自己的算法。而“一個擁有足夠多的關(guān)于我的數(shù)據(jù)、也有足夠算力的算法能理解我的欲望、情緒、想法、決策,進而能夠在很大程度上控制我、操縱我?!贝藭r,在政治、文化等各體系,決策的只能更加依托于大數(shù)據(jù)算法,而人類將會失去決策能力。正如曼紐爾·卡斯特在《千年終結(jié)》中闡述的那樣,數(shù)據(jù)時代下人民將與權(quán)利日漸遙遠。當我們放棄以人為中心的世界觀,而秉持以數(shù)據(jù)為中心的世界觀,就難免會淪落為單純“數(shù)字人類”的社會,②引發(fā)人類身份認知的危機。
隨技術(shù)的發(fā)展,人工智能將在越來越多領(lǐng)域超過人類,在越來越多任務(wù)上表現(xiàn)的比人類更出色,其將一步步取代重復(fù)性的人力生產(chǎn)勞動,且由于具有極高效的信息處理能力,未來一些高端行業(yè)例如醫(yī)藥制造、金融業(yè)等也將會由人工智能所操控。少數(shù)擁有先進算力與算法的精英階層將控制著經(jīng)濟與政治話語權(quán)。在此之下工作崗位的減少,大面積失業(yè)現(xiàn)象將到來。人類社會很可能在此后被分成兩大階層,一部分是非常少的能創(chuàng)造和使用技術(shù)的階層;另外一部分則是在此經(jīng)濟體系下難以繼續(xù)創(chuàng)造價值,將被系統(tǒng)的排除在能使他們自主的地方之外的“無用階級”。③人們不禁要擔(dān)憂:“21世紀經(jīng)濟學(xué)最重要的問題,可能就是多余的人能有什么用。一旦擁有高度智能而本身沒有意識的算法接手幾乎一切工作,而且能比有意識的人類做得更好時,人類還能做什么?”④這部分無事可做的“無用階級”將與全球體系毫無邏輯、毫無干系,陷入極端空虛、縹緲的生活狀態(tài)。對于世界而言,這一部分群體可能成為隨時爆發(fā)的潛在危機。
根據(jù)赫拉利的觀點,人與其他物種不同,之所以能夠創(chuàng)造生產(chǎn)、發(fā)展經(jīng)濟。這得益于人類可以進行靈活的大規(guī)模合作。而這種合作體系的建構(gòu)是基于人類構(gòu)造了不同于客觀現(xiàn)實世界的第二層虛擬世界。而在人工智能環(huán)境下,人們的歷史文化意識將被改變,漂流到虛擬的數(shù)字文化中;生產(chǎn)關(guān)系發(fā)生變革;國家和政府的力量被逐漸削弱;社會失去政治權(quán)力的控制等等。這些生產(chǎn)、權(quán)力和經(jīng)驗關(guān)系的改變將匯聚成社會生活、時間與空間的物質(zhì)基礎(chǔ)的轉(zhuǎn)化,最終使得人類無法繼續(xù)當前集體合作的模式,目前已經(jīng)建構(gòu)的二層虛擬世界將很可能面臨崩塌。在此種境況下,人與人之間如何產(chǎn)生凝聚的力量,重建共存的意識,迫切的需要一種全新的認同。
從人本主義的角度出發(fā),技術(shù)發(fā)展的目的是為人所用的。但在現(xiàn)實生活中,技術(shù)常常突破其應(yīng)為范疇而被濫用。從利用互聯(lián)網(wǎng)技術(shù)進行高科技犯罪的現(xiàn)象中我們可以看出,運用復(fù)雜技術(shù)的犯罪相較于普通犯罪,其更難事前管控、做出預(yù)測、且更易為極端分子所操縱;從犯罪后果來說其波及范圍亦更廣、破壞力更強;事后追責(zé)懲戒也更為困難。人工智能技術(shù)是通過代碼和算法來實現(xiàn)的,對于參與人員有著極高的專業(yè)性要求;且大多數(shù)人工智能系統(tǒng)是黑盒的,其內(nèi)部原理的隱蔽性可以幫助罪犯規(guī)避審查?,F(xiàn)有法律無法有效的防范人工智能被濫用。而算法在開發(fā)過程中如果包含價值偏好和不公正的因素,那么憑借算法的優(yōu)勢去侵害大眾權(quán)益的案件將會屢見不鮮。更需要警惕的是,這種濫用的風(fēng)險不僅僅體現(xiàn)在經(jīng)濟領(lǐng)域,侵犯人身權(quán)利的范疇更應(yīng)該被關(guān)注。例如,人工智能領(lǐng)域的軍備競賽已經(jīng)展露苗頭,一旦人工智能得以武器化,最終毀滅的將會是全人類。
1978年9月,世界上第一宗機器殺人案件發(fā)生于日本廣島,一名值班工人死于切割機器人刀下。2016年5月,世界第一宗自動駕駛汽車致人死亡案正是由于特斯拉公司自動駕駛技術(shù)的缺陷造成的。2018年11月,由于機器人錯誤的將心臟放錯位置,最終使得英國首例機器人心瓣修復(fù)手術(shù)以失敗告終,病人也于一周后死亡。我們可以預(yù)見,未來隨著人工智能技術(shù)的發(fā)展與廣泛應(yīng)用,人工智能造成的人身侵權(quán)案件將會以更多的形態(tài)呈現(xiàn)。而這一系列侵權(quán)乃至侵害事件的責(zé)任界定將成為人工智能應(yīng)用領(lǐng)域的一個重要法律問題。以機器人修復(fù)心臟手術(shù)失敗為例,這一事件中主刀的達芬奇機器人是目前世界上最先進的手術(shù)機器人,尚且造成了病人死亡的后果。這些案件中機器人應(yīng)當被賦予何種身份?誰來為它的行為負責(zé)?機器人生產(chǎn)商還是程序編寫員還是技術(shù)測評師還是該醫(yī)院還是主治醫(yī)生亦或是同意使用機器人手術(shù)的病人?如果由多方主體共同負責(zé),那么他們之間的責(zé)任如何劃分?又該適用怎樣的評判標準?這一過程亦存在著證據(jù)的收集,舉證責(zé)任的分配等難題。
在社交網(wǎng)絡(luò)時代,人工智能包括3個核心要素:深度學(xué)習(xí)的算法、高質(zhì)量的數(shù)據(jù)收集、高性能的計算能力。人工智能技術(shù)發(fā)展主要依賴于大數(shù)據(jù)包括敏感數(shù)據(jù)的收集和使用,在這一過程中,數(shù)據(jù)一旦被披露,將對個人隱私產(chǎn)生直接影響。有媒體報道,2017年5月Google旗下的DeepMind獲取了英國皇家慈濟NHS信托基金運營的3家醫(yī)院160萬病人的NHS(英國國家醫(yī)療服務(wù)體系)數(shù)據(jù),其中包括HIV感染狀況、過去的吸毒過量和墮胎信息等私密數(shù)據(jù)。該新聞在英國掀起了軒然大波。此外,在社交網(wǎng)絡(luò)下,個人隱私遭到無所不在的窺探,人類實現(xiàn)了與肉體相分離的數(shù)字化生存。但凡通過鍵盤留下的痕跡都會迅速系統(tǒng)的被數(shù)據(jù)商收集,通過這些網(wǎng)絡(luò)環(huán)境中所采集的點滴數(shù)據(jù)的集合,可以立體的構(gòu)建出真實世界中的個體形象。個人的行蹤、言談、取向等一系列隱私,都已經(jīng)全面暴露在數(shù)據(jù)的洪流中,基本權(quán)益面臨巨大的威脅。
根據(jù)美國Narrative Science提供的數(shù)據(jù),在未來新聞領(lǐng)域?qū)⒂?0%的稿件由機器人完成,同時人工智能也將用于藝術(shù)創(chuàng)作。關(guān)于這些人工智能的生成作品,在涉及到著作權(quán)法領(lǐng)域有兩個主要問題需要解決:第一,機器生產(chǎn)的作品是否享有與人創(chuàng)作出的作品相同的權(quán)利?依照我國現(xiàn)行《著作權(quán)法》,其保護的作品應(yīng)當具有獨創(chuàng)性并能以某種有形形式復(fù)制。而人工智能的生產(chǎn)是將網(wǎng)絡(luò)中已經(jīng)存儲的數(shù)據(jù)進行匯編整理,這是否可以被認定為具有獨創(chuàng)性?是否可以將其認定為一項智力成果?第二,該項權(quán)利的權(quán)利享有主體應(yīng)歸屬于機器還是創(chuàng)制該機器的人?《著作權(quán)法》中將著作權(quán)人分為兩類:一類是作者,即直接創(chuàng)作作品的人;另一類是非作者,即通過某種法律關(guān)系獲得著作權(quán)的公民、法人或者非法人單位。對于“作者”亦有明確的說明,只有公民即自然人才能成為作者。而人工智能現(xiàn)階段還不具有獨立的人格意義,不具備法律上的主體地位,因此無法成為《著作權(quán)法》中的“作者”。但在未來的發(fā)展中,人工智能必然會生產(chǎn)出大量的創(chuàng)造物,這些創(chuàng)造物的性質(zhì)、形式和價值可能將具備甚至高于《著作權(quán)法》所要保護的法益,對這部分內(nèi)容進一步具體規(guī)制具有非常重要的現(xiàn)實意義。
人工智能是人類實現(xiàn)自身解放的重大機遇,但機會與風(fēng)險及法律問題總是相伴而行。雖然文中的社會風(fēng)險當前尚未切實發(fā)生在每一個個體身上,但人工智能革命引發(fā)的倫理、意識形態(tài)、法律問題僅是剛剛開始,伴隨技術(shù)發(fā)展的日新月異,亟需相關(guān)理論的創(chuàng)新和制度創(chuàng)新以跟進。在預(yù)防和規(guī)制方面,應(yīng)以理性主義為指導(dǎo),切實可行的將人工智能納入現(xiàn)有法律體系中來。
注釋:
① [美]戴維·魯本.《法律現(xiàn)代主義》[M].北京:中國政法大學(xué)出版社,2004:23.
② 馬長山.《人工智能的社會風(fēng)險及其法律規(guī)制》[J].《法律科學(xué)》,2018,6.
③ [美]曼紐爾·卡斯特.《千年終結(jié)》[M].北京:社會科學(xué)文獻出版社,2006.
④ [以色列]尤瓦爾·赫拉利.《未來簡史》[M].北京:中信出版社,2017.