趙洲洋
技術(shù)對(duì)人們享有權(quán)利和福利產(chǎn)生了巨大且深遠(yuǎn)的影響。信息時(shí)代越來(lái)越多的技術(shù)創(chuàng)新、迭代都以數(shù)據(jù)為基礎(chǔ)。與以往的技術(shù)相比,數(shù)據(jù)與數(shù)字技術(shù)更加靈活、更易于流動(dòng),使其影響的范圍更大。以大數(shù)據(jù)、云計(jì)算等數(shù)字技術(shù)為基礎(chǔ),使機(jī)器實(shí)現(xiàn)感知、認(rèn)知、決策、行動(dòng)等智能行為的人工智能,更是引領(lǐng)了新一輪科技革命和產(chǎn)業(yè)變革,增強(qiáng)了人類自我改造能力,豐富了社會(huì)治理的實(shí)踐方式,營(yíng)造了空前透明的社會(huì)環(huán)境,推動(dòng)人類社會(huì)迎來(lái)人機(jī)協(xié)同、跨界整合、共創(chuàng)分享的智能時(shí)代,(1)《習(xí)近平向國(guó)際人工智能與教育大會(huì)致賀信》,《人民日?qǐng)?bào)》2019 年5 月17 日,第1 版。助推了民眾權(quán)益的擴(kuò)展、深化與享有的便捷。中國(guó)順應(yīng)時(shí)代地提出,推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合,建設(shè)智慧社會(huì)。(2)習(xí)近平:《不斷做強(qiáng)做優(yōu)做大我國(guó)數(shù)字經(jīng)濟(jì)》,《求是》2021 年第2 期。智慧社會(huì)是高度網(wǎng)絡(luò)化、數(shù)字化和智能化的社會(huì),其基本特征是在數(shù)字化基礎(chǔ)上實(shí)現(xiàn)萬(wàn)物感知,在網(wǎng)絡(luò)化基礎(chǔ)上實(shí)現(xiàn)萬(wàn)物互聯(lián),在智能化基礎(chǔ)上使社會(huì)更智慧,(3)汪玉凱:《智慧社會(huì)與國(guó)家治理現(xiàn)代化》,《中共天津市委黨校學(xué)報(bào)》2018 年第2 期。它是面向生活過(guò)程與社會(huì)細(xì)節(jié)的治理和服務(wù)模式的發(fā)展愿景,也將改變?nèi)藗兊纳鐣?huì)連接方式,重組生產(chǎn)組織方式,重塑生活方式。(4)王天夫:《數(shù)字時(shí)代的社會(huì)變遷與社會(huì)研究》,《中國(guó)社會(huì)科學(xué)》2021 年第12 期。
面對(duì)智慧社會(huì)帶來(lái)的變革且作為智慧社會(huì)建設(shè)的重要方面,黨的十九屆中央歷次全會(huì)提出“建立健全運(yùn)用互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)手段進(jìn)行行政管理的制度規(guī)則”,“以數(shù)字化轉(zhuǎn)型整體驅(qū)動(dòng)治理方式變革”,“科技支撐的社會(huì)治理體系”與“信息化支撐的社會(huì)管理服務(wù)平臺(tái)”等要求,要求將大數(shù)據(jù)、云計(jì)算、人工智能等前沿智能技術(shù)運(yùn)用于社會(huì)治理場(chǎng)景。(5)劉燦華:《社會(huì)治理智能化:實(shí)踐創(chuàng)新與路徑優(yōu)化》,《電子政務(wù)》2021 年第3 期。對(duì)此,各地近年來(lái)紛紛出臺(tái)各類舉措,釋放創(chuàng)新潛力,為利用數(shù)字技術(shù)進(jìn)行智能社會(huì)治理與服務(wù)建設(shè)進(jìn)行了有益的探索。越來(lái)越多的治理主體加入智能社會(huì)治理中來(lái),基本形成“政府+公民+企業(yè)+組織+科研機(jī)構(gòu)”的多元治理模式。(6)曲甜、張小勁:《大數(shù)據(jù)社會(huì)治理創(chuàng)新的國(guó)外經(jīng)驗(yàn):前沿趨勢(shì)、模式優(yōu)化與困境挑戰(zhàn)》,《電子政務(wù)》2020 年第1 期。在就業(yè)、教育、衛(wèi)生、養(yǎng)老、社會(huì)保障與救助以及司法等社會(huì)治理與服務(wù)領(lǐng)域,通過(guò)判別服務(wù)對(duì)象、登記服務(wù)信息、預(yù)測(cè)可能的風(fēng)險(xiǎn)與服務(wù)內(nèi)容等數(shù)字技術(shù),公、私治理主體已經(jīng)將云儲(chǔ)存、算法決策、人工智能與數(shù)字識(shí)別等數(shù)字技術(shù)應(yīng)用于社會(huì)治理與服務(wù)。(7)林榮全:《數(shù)字化時(shí)代街頭官僚的責(zé)任性:分析框架與研究展望》,《電子政務(wù)》2021 年第10 期。以數(shù)字技術(shù)為支撐的智慧社會(huì)治理與服務(wù)具有明顯的高效性、(8)賈開:《人工智能與算法治理研究》,《中國(guó)行政管理》2019 年第1 期。預(yù)測(cè)性(9)高琦奇、張鵬:《從算法民粹到算法民主:數(shù)字時(shí)代下民主政治的平衡》,《華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2021 年第4 期。和混合性(10)韓志明、劉華云:《計(jì)算、算法和算力:基于信息的國(guó)家計(jì)算邏輯》,《探索與爭(zhēng)鳴》2021 年第3 期。,增強(qiáng)了社會(huì)治理的整體性、回應(yīng)性、開放性和合作性。(11)王振興等:《大數(shù)據(jù)背景下社會(huì)治理現(xiàn)代化:解讀、困境與路徑》,《電子政務(wù)》2019 年第4 期。但同時(shí)它也具有不透明性和部分自主性。為了應(yīng)對(duì)人工智能(AI)、間諜軟件和數(shù)字化國(guó)家等數(shù)字技術(shù)的影響,有研究者批判性地指出,如果不能從根本上改變對(duì)技術(shù)和私人行為的理解進(jìn)路,就難以確保新技術(shù)的開發(fā)和運(yùn)用會(huì)尊重和促進(jìn)民眾的根本利益。那么在以數(shù)字化技術(shù)為支撐的社會(huì)治理中,是否存在數(shù)字技術(shù)難以突破的關(guān)于權(quán)益保障的結(jié)構(gòu)性困境?數(shù)字技術(shù)的發(fā)展又為什么難以緩解甚至加劇一些結(jié)構(gòu)性矛盾?與此同時(shí),將數(shù)字技術(shù)應(yīng)用于社會(huì)治理與服務(wù)又對(duì)民眾的權(quán)益和問(wèn)責(zé)體系帶來(lái)了什么新的挑戰(zhàn)?又應(yīng)該如何解決這些結(jié)構(gòu)性困境與新興挑戰(zhàn)?中國(guó)和歐美國(guó)家?guī)缀跬瑫r(shí)開啟智慧社會(huì)治理與服務(wù),考察國(guó)外經(jīng)驗(yàn),對(duì)于理解智慧社會(huì)治理中民眾權(quán)益保障的問(wèn)題具有重要意義。
為此,文章將以既有研究為基礎(chǔ),首先挖掘數(shù)字技術(shù)應(yīng)用于社會(huì)治理與服務(wù)所形成的智能社會(huì)治理與服務(wù)依舊難以突破的結(jié)構(gòu)性困境,以及其形成的機(jī)制,著重探討數(shù)字技術(shù)自身特性及其對(duì)公共權(quán)力、問(wèn)責(zé)機(jī)制以及社會(huì)治理與服務(wù)中私人權(quán)力的影響。其次,探究數(shù)字技術(shù)應(yīng)用于社會(huì)治理與服務(wù)所引發(fā)的對(duì)民眾權(quán)益和責(zé)任體系所帶來(lái)的新挑戰(zhàn)。需要注意的是,社會(huì)治理本身內(nèi)含多主體性,以及數(shù)字技術(shù)的賦權(quán),令高科技企業(yè)提供的數(shù)據(jù)和相關(guān)服務(wù)具有公共性,成為具有部分公共權(quán)力的主體,其運(yùn)作過(guò)程也在行使公共權(quán)力,可能對(duì)民眾的權(quán)益和國(guó)家問(wèn)責(zé)體系造成影響。例如國(guó)家或企業(yè)未經(jīng)授權(quán)即使用新技術(shù)形成的工具來(lái)監(jiān)視甚至威嚇民眾,這不僅對(duì)民眾的福利構(gòu)成風(fēng)險(xiǎn),還會(huì)更根本地撼動(dòng)傳統(tǒng)的責(zé)任體系,模糊并削弱了損害權(quán)利行為的責(zé)任,進(jìn)而導(dǎo)致不平等。最后,由于人工智能的認(rèn)知、決策、行動(dòng)能力強(qiáng)大,將從價(jià)值、技術(shù)和制度幾個(gè)層面嘗試提出,在實(shí)踐中應(yīng)對(duì)這些挑戰(zhàn)有效的方式。
和歷史上的技術(shù)進(jìn)步一樣,數(shù)字技術(shù)的發(fā)展也影響著涉及民眾權(quán)利和大眾福利的法律制度和社會(huì)實(shí)踐,但數(shù)字技術(shù)應(yīng)用于社會(huì)治理也存在一些難以突破的困境,甚至加深了一些結(jié)構(gòu)性矛盾。首先,數(shù)字技術(shù)本身深深嵌入原有社會(huì)的權(quán)力關(guān)系之中;其次,它可能阻礙和破壞傳統(tǒng)的問(wèn)責(zé)與追責(zé)機(jī)制;第三,由于數(shù)字技術(shù)的尖端性,使得傳統(tǒng)上不受法律和制度約束的私人行為者,擁有越來(lái)越多、越來(lái)越大的公共責(zé)任和權(quán)力。這三者是數(shù)字時(shí)代智能社會(huì)治理與服務(wù)在結(jié)構(gòu)上對(duì)民眾權(quán)益的侵害。
數(shù)字技術(shù)所支撐的智能社會(huì)治理與服務(wù)并未能突破傳統(tǒng)的權(quán)力結(jié)構(gòu),甚至數(shù)字技術(shù)被質(zhì)疑為一場(chǎng)由精英主導(dǎo)的游戲。(12)尤班克斯:《自動(dòng)不平等》,李明倩譯,北京:商務(wù)印書館2021 年版,第2 頁(yè)。技術(shù)通常被視為分散和破壞穩(wěn)定權(quán)力關(guān)系的手段,如蘭德(Land)等人就認(rèn)為技術(shù)為民眾更廣泛、更真實(shí)地提出訴求和保護(hù)民眾權(quán)益提供了機(jī)會(huì)。(13)Land M.K., “Participatory Fact-finding: Developing New Approaches to Human Rights Investigation through New Technologies”, in Alston, P., Knuckey, S., eds.,The Future of Human Rights Fact-Finding, Oxford, UK: Oxford University Press, 2015, pp. 399—424.盡管調(diào)查技術(shù)的發(fā)展可以關(guān)鍵性地推動(dòng)問(wèn)責(zé)運(yùn)作,(14)Dubberley S., Koenig A., Murray D., “Introduction: the Emergence of Digital Witnesses”, in Dubberley S., Koenig A., Murray D.,eds.,Digital Witness:Using Open Source Information for Human Rights Investigation,Documentation,and Accountability, Oxford, UK: Oxford University Press, 2020, pp. 1—11.但從整體上來(lái)看,“技術(shù)能夠增強(qiáng)民眾權(quán)益與社會(huì)福利”的假設(shè)并未在實(shí)踐上被證實(shí)。圖費(fèi)克奇(Tufekci)對(duì)“阿拉伯之春”和“占領(lǐng)華爾街”運(yùn)動(dòng)中社交媒體所發(fā)揮的作用進(jìn)行了研究,他發(fā)現(xiàn),盡管技術(shù)推動(dòng)社會(huì)運(yùn)動(dòng)以驚人的速度發(fā)展,但速度也限制了其發(fā)展成熟的能力,而這種能力是使社會(huì)運(yùn)動(dòng)能夠擁有長(zhǎng)期權(quán)威和效力的關(guān)鍵。(15)Tufekci Z.,Twitter and Tear Gas:The Power and Fragility of Networked Protest, New Haven, CT: Yale University Press, 2017, pp.3—27.正如占領(lǐng)華爾街和“黃馬甲”等運(yùn)動(dòng)所表明的那樣,技術(shù)確實(shí)在許多方面有助于普通民眾提出訴求,但倡導(dǎo)關(guān)于民眾權(quán)益的長(zhǎng)期變革依舊十分重要。
針對(duì)科學(xué)和技術(shù)作用的研究認(rèn)為“傳統(tǒng)的科學(xué)和創(chuàng)新政策會(huì)增加不平等,除非它們是專門為增進(jìn)平等而設(shè)計(jì)的”。(16)Cozzens S, Thakur D., “Problems and Concepts”, In Cozzens S., Thaku Cheltenham D., eds.,Innovation and Inequality:Emerging Technologies in an Unequal World, Cheltenhom, UK: Edward Elgar Publishing, 2014, pp. 3—22.這源于設(shè)計(jì)、開發(fā)、運(yùn)營(yíng)技術(shù)具有一定壟斷性,從而使其設(shè)計(jì)者、開發(fā)者與運(yùn)營(yíng)者擁有特權(quán)。市場(chǎng)激勵(lì)為導(dǎo)向的創(chuàng)新系統(tǒng)與模式,無(wú)論是知識(shí)產(chǎn)權(quán)系統(tǒng),(17)Kapczynski A., “The Cost of Price: Why and How to Get beyond Intellectual Property Internalism”,UCLA Law Review,Vol.59, 2012, pp.970—1026.還是西方社交媒體生態(tài),(18)Zuboff S.,The Age of Surveillance Capitalism:The Fight for a Human Future at the New Frontier of Power, NY: Public Affairs, 2019.在結(jié)構(gòu)上都傾向于滿足那些本已富裕或有權(quán)勢(shì)群體的需求。正如比拉內(nèi)(Birhane) 所說(shuō),“技術(shù)從來(lái)都不是中立的或客觀的——它就像一面鏡子,反映了社會(huì)偏見、不公平和不公正”。(19)Birhane A., “The Algorithmic Colonization of Africa”,CyFyAfrica2019 Blog, https://abebabirhane. wordpress.com/2019/07/10/the-algorithmic-colonization-of-africa/, 2021-12-10.蘭德等人詳細(xì)說(shuō)明了權(quán)力不平衡嵌入技術(shù)系統(tǒng)的幾種方式,從基于假設(shè)的家庭人口數(shù)量來(lái)安裝的供水系統(tǒng),到對(duì)于新的氣候適應(yīng)技術(shù)或數(shù)據(jù)分析工具的需求與負(fù)擔(dān)能力不匹配,再到數(shù)據(jù)挖掘、政策算法和預(yù)測(cè)風(fēng)險(xiǎn)模型各個(gè)環(huán)節(jié),數(shù)字技術(shù)的運(yùn)用最終不可避免地會(huì)復(fù)制并進(jìn)一步加深現(xiàn)有的不平等和權(quán)力失衡。
除延續(xù)不平等的權(quán)力框架外,技術(shù)還影響了追究侵犯民眾權(quán)利與大眾福利行為責(zé)任的能力。除用途好壞之別外,在許多情況下,技術(shù)可能幫助隱匿信息,并進(jìn)一步導(dǎo)致責(zé)任追溯困境。應(yīng)用數(shù)字技術(shù)還會(huì)模糊和分裂權(quán)威,從而使傳統(tǒng)的促進(jìn)問(wèn)責(zé)的機(jī)制失效。
技術(shù)使得辨別違規(guī)者的身份更加困難,所以追責(zé)變得更加復(fù)雜與困難。即使涉及到價(jià)值判斷,公私治理主體也積極推動(dòng)自動(dòng)化決策,而技術(shù)所支撐的自動(dòng)化決策使違規(guī)行為變得更加隱蔽,令原本必定被視為損害的行為變得自然而然。例如,預(yù)付費(fèi)式水表要求先預(yù)付水費(fèi)再供水,若未付款則會(huì)被斷水,然而在實(shí)踐中,預(yù)付費(fèi)和直接斷水兩種供水系統(tǒng)的處理方式截然不同,后者有法律保護(hù),防止被錯(cuò)誤剝奪,而前者卻缺乏此類保護(hù)。
此外,決策自動(dòng)化弱化了對(duì)侵權(quán)行為的追責(zé),也會(huì)破壞羞恥、社會(huì)化等機(jī)制,這些機(jī)制是維護(hù)民眾權(quán)利和大眾福利所依賴的。因數(shù)字技術(shù)的去時(shí)間性和去地域性,運(yùn)行某項(xiàng)技術(shù)的人員可能并不會(huì)對(duì)由此產(chǎn)生的任何違規(guī)行為承擔(dān)責(zé)任,因?yàn)樗麄儽旧聿⑽粗苯釉斐蓚?。例如市政機(jī)構(gòu)的工作人員可以決定安裝可能在未來(lái)某一時(shí)刻斷水的水表,但民眾對(duì)他們施加壓力很困難,因此當(dāng)發(fā)生斷水時(shí),并沒(méi)有人會(huì)以此為憾事。(20)Roth K., “Defending Economic, Social and Ultural Rights: Practical Issues Faced by an International Human Rights Organization”,Human Rights Quarterly, Vol.26, No.1, 2004, pp.63—73.
在新的數(shù)字技術(shù)的創(chuàng)新、開發(fā)和推廣中,私營(yíng)機(jī)構(gòu)起到了重要作用,這些企業(yè)是非常強(qiáng)大的信息和交流把關(guān)人,他們控制普通民眾的表達(dá)活動(dòng)、用戶之間的聯(lián)系以及民眾獲取信息的途徑。(21)Gillespie T.,Custodians of the Internet:Platforms,Content Moderation,and the Hidden Decisions that Shape Social Media, New Haven, CT: Yale University Press, 2018.這就使得在數(shù)字技術(shù)時(shí)代,私人機(jī)構(gòu),特別是高科技企業(yè)在基礎(chǔ)設(shè)施和社會(huì)治理與服務(wù)中占據(jù)了重要的地位,它們也因技術(shù)壟斷了大量的公共權(quán)力。
針對(duì)私營(yíng)公司掌握公共權(quán)力、提供公共服務(wù)這一新情況,各國(guó)政府的態(tài)度并不一致。在許多領(lǐng)域,美國(guó)政府越來(lái)越多地授權(quán)這些私營(yíng)公司,使它們成為治理和監(jiān)管的代理人。(22)Bloch-Wehba H., “Global Platform Governance: Private Power in the Shadow of the State”,SMU Law Review, Vol.72, 2019, pp.27—80; Langvardt K., “Regulating Online Content Moderation”,Georgetown Law Journal, Vol.106, 2018, pp.1353—1388.特別是,政府將線上表達(dá)活動(dòng)的監(jiān)管權(quán)下放給私營(yíng)公司,(23)Land M.K., “Against Privatized Censorship: Proposals for Responsible Delegation”,Journal of International Law, Vol. 60, 2020, pp.363—432.它們因此有權(quán)決定是否公開那些被上傳到私營(yíng)平臺(tái)的侵犯他人權(quán)益的證據(jù)。私營(yíng)公司還研發(fā)和銷售既能實(shí)施又能阻止監(jiān)視的技術(shù),配合或拒絕政府監(jiān)視某些個(gè)人的要求,并創(chuàng)建可能決定人們生死的算法和武器系統(tǒng)。這些決定通常是出于商業(yè)利益,而不是基于對(duì)公共利益或權(quán)益保障的關(guān)切才做出的。(24)J?rgensen R.F., “Human Rights and Private Actors”, in Land & Aronson eds.,New Technologies for Human Rights Law and Pactice, Cambridge, UK: Cambridge Universh, Press, 2018, pp. 243—69.盡管如此,目前處理商業(yè)組織侵害權(quán)益的框架,仍舊建立在國(guó)家行使的公共權(quán)力與公司行使的私人權(quán)力的劃分基礎(chǔ)上,(25)Callamard A., “The Human Rights Obligations of Non-state Actors”, in R.F. J?rgensen, ed.,Human Rights in the Age of Platforms,Cambridge, MA: MIT Press, 2019, pp. 191—226.兩者涇渭分明,其中公共權(quán)力需遵守尊重和保護(hù)權(quán)利的約束性義務(wù),而私人權(quán)力是個(gè)體權(quán)利,不僅不必遵守約束性義務(wù),而且還需被尊重和保護(hù)。因此,目前美國(guó)等國(guó)家對(duì)于個(gè)人權(quán)益保護(hù)的相關(guān)法律規(guī)定,并不適用于這種劃分,且無(wú)法有效彌合兩者的區(qū)分。
治理理論指明了公共權(quán)力和私人權(quán)力不可逆地交織在一起的狀況和前景,應(yīng)該用什么樣的框架來(lái)分析兩者深度交融的狀況呢?公共機(jī)構(gòu)為私有技術(shù)提供資金、銷售渠道并建立了創(chuàng)新系統(tǒng),(26)福斯特、麥克切斯尼:《監(jiān)控式資本主義:壟斷金融資本、軍工復(fù)合體和數(shù)字時(shí)代》,《國(guó)外社會(huì)科學(xué)》2015 年第1 期。當(dāng)國(guó)家要求非國(guó)家行為者規(guī)范用戶的言論時(shí),公司是否僅需負(fù)尊重言論自由的道德責(zé)任?當(dāng)公司設(shè)計(jì)并建立的人工智能系統(tǒng),在言論監(jiān)管背景下復(fù)制種族或性別偏見時(shí),能否要求公司對(duì)其造成的權(quán)益損害負(fù)責(zé)?政府用私人公司設(shè)計(jì)建立的系統(tǒng)設(shè)置就業(yè)條件與社保繳費(fèi)率,一旦造成了危害應(yīng)由誰(shuí)來(lái)負(fù)責(zé)?所謂公共事務(wù)和私人事務(wù)之間的區(qū)別已經(jīng)過(guò)時(shí)了,過(guò)分關(guān)注它,還影響我們對(duì)更為重要的責(zé)任體系與權(quán)益救濟(jì)的關(guān)注。
除了智能社會(huì)治理與服務(wù)面臨的三項(xiàng)結(jié)構(gòu)性障礙外,數(shù)字技術(shù)應(yīng)用于社會(huì)治理與服務(wù)時(shí)還引發(fā)了一些新的挑戰(zhàn)。近期數(shù)字技術(shù)對(duì)權(quán)益保護(hù)造成的挑戰(zhàn),包括政府進(jìn)行的信息監(jiān)視與騷擾對(duì)公民隱私權(quán)利的破壞、算法自動(dòng)化決策和深度造假背景下人工智能與社會(huì)不平等的再生產(chǎn),以及數(shù)字國(guó)家興起造成的新的責(zé)任困境。
時(shí)至今日,技術(shù)作為國(guó)家權(quán)力潛在破壞者的時(shí)代早已過(guò)去,它更多地被用以加強(qiáng)和鞏固國(guó)家權(quán)力。手機(jī)和社交媒體等技術(shù)在很大程度上已被國(guó)家利用,(27)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal of Human Rights Practice, Vol.11, No.2, 2019, pp.373—392.政府和與為國(guó)家及資本服務(wù)的私人行動(dòng)者,使用異常強(qiáng)大的間諜軟件和其他新工具來(lái)控制和管理信息空間,從而限制為爭(zhēng)取社會(huì)權(quán)益與福利而活動(dòng)的社會(huì)人士。這些工具可分為侵?jǐn)_工具和監(jiān)視工具。米吉多(Megiddo)就認(rèn)為,政府的監(jiān)視和虛假信息,會(huì)極大地威脅和破壞民眾權(quán)益和法治,(28)Megiddo T. Online Activism, “Digital Domination, and the Rule of Trolls: Mapping and Theorizing Technological Oppression by Governments”,Columbia Journal of Transnational Law,Vol. 58, 2020, pp.394—442.這些“數(shù)字控制措施”的危害已不僅僅侵犯了個(gè)人隱私,還對(duì)自由和法治造成了重大危害,因此應(yīng)該被概念化為“一套構(gòu)成政府壓迫威脅的控制措施”。
1.侵?jǐn)_。西方國(guó)家的精英越來(lái)越多地使用社交媒體等工具來(lái)攻擊和削弱威脅者。正如美國(guó)律師協(xié)會(huì)人權(quán)中心的一份報(bào)告中所顯示,政府和與政府關(guān)系密切的一些行動(dòng)者正通過(guò)社交媒體平臺(tái)騷擾和恐嚇為民眾權(quán)益保護(hù)而活動(dòng)的人士。(29)Abbas M., Al-Wohaibi E., Donovan J., Hale E, Marugg T., et al.,Invisible Threats:Mitigating the Risk of Violence from Online Hate Speech Against Human Rights Defenders, Chicago: American Bar Association, 2019.其造成的寒蟬效應(yīng),不僅對(duì)活動(dòng)者個(gè)人產(chǎn)生作用,而且還會(huì)削弱公眾對(duì)他們活動(dòng)的支持。政府及相關(guān)方積極通過(guò)惡搞或造謠,或通過(guò)威脅公民和活動(dòng)人士的切身利益,以詆毀他們表達(dá)的內(nèi)容。事實(shí)上,社交媒體的強(qiáng)大力量正在為政府所用,以對(duì)抗和控制為民眾權(quán)利和社會(huì)福利而活動(dòng)的人士,政府利用了網(wǎng)絡(luò)分布式架構(gòu)和低把關(guān)的組織方式,來(lái)詆毀和混淆對(duì)立的信息來(lái)源。(30)Tufekci Z.,Twitter and Tear Gas:The Power and Fragility of Networked Protest, pp.223—236變革成功與否的前提是倡議者傳達(dá)可靠信息的能力,但在充斥假新聞和巨魔農(nóng)場(chǎng)的環(huán)境中,即使那些有資源查證信息來(lái)源的人也很難知道該相信什么。
因此,盡管許多學(xué)者和活動(dòng)人士認(rèn)為海量的信息源會(huì)使審查更加困難,從而間接有利于民眾表達(dá)訴求和政府提升回應(yīng)性。但各國(guó)政府則改變審查和應(yīng)對(duì)的策略,政府意識(shí)到它們不必阻止言論,而只需詆毀它即可。(31)Tufekci Z.,Twitter and Tear Gas:The Power and Fragility of Networked Protest, pp.263—268.它們也不需要特別準(zhǔn)確地表達(dá)它們所懷疑的信息,相反,要破壞公眾動(dòng)員,只需抹黑所有的信息來(lái)源,當(dāng)人們不知道該相信什么的時(shí)候,就什么也不會(huì)相信、什么也不會(huì)做。宣傳正在削弱真相的意義,從而破壞基于事實(shí)進(jìn)行組織的能力。政府為削弱異議、限制民間社會(huì)組織的空間甚至在某些情況下煽動(dòng)暴力,而傳播的虛假信息和錯(cuò)誤信息威力巨大,在技術(shù)和社交媒體素養(yǎng)水平低且缺乏強(qiáng)大獨(dú)立媒體的環(huán)境中更是如此。(32)Kelly S, Truong M, Shahbaz A, Earp M, White J.,Freedom on the Net 2017:Manipulating Social Media to Undermine Democracy,Washingtom, DC: Freedom House, 2017.
人工智能系統(tǒng)自動(dòng)生成的虛假音頻或視頻,越來(lái)越成為虛假信息的來(lái)源,利用舊視頻合成沒(méi)有現(xiàn)實(shí)依據(jù)的全新內(nèi)容。這種深度造假對(duì)個(gè)人和社會(huì)造成了一系列危害,(33)Chesney B, Citron D., “Deep Fakes: a Looming Challenge for Privacy, Democracy, and National Security”,California Law Review, Vol.107, 2019, pp.1753—1819.格里高利(Gregory) 認(rèn)為“這些精心制造的假信息可能會(huì)被用來(lái)進(jìn)行可信度攻擊、混淆調(diào)查,并煽動(dòng)針對(duì)社會(huì)活動(dòng)人士的暴力行為”。(34)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal of Human Rights Practice, Vol.11, No.2, 2019, p.380.他建議,平臺(tái)與搜索引擎有責(zé)任設(shè)計(jì)和監(jiān)督生成式人工智能系統(tǒng)(AI)上述功能。他堅(jiān)持認(rèn)為,公司需要在產(chǎn)品設(shè)計(jì)之初就考慮人工智能等技術(shù)的潛在危害,而不僅僅是對(duì)已發(fā)布產(chǎn)品所造成的危害做出反應(yīng)。政府也有責(zé)任確立一個(gè)有效的制度框架來(lái)防范潛在危害。(35)Koenig A., “Half the Truth is Often a Great Lie: Deep Fakes, Open Source Information, and International Criminal Law”,AJIL Unbound, Vol.113, 2019, pp.250—255.
虛假信息不僅對(duì)維權(quán)活動(dòng)人士個(gè)人構(gòu)成威脅,而且往往蓄意破壞他們追究損害權(quán)益行為的努力。因此,通過(guò)數(shù)字技術(shù)工具進(jìn)行的信息侵?jǐn)_旨在限制賦權(quán)權(quán)利(empowerment rights),(36)Cope K.L, Crabtree C., Lupu Y., “Beyond Physical Integrity”,Law Contemporary Problem, Vol.81, No.4, 2018, pp.186—188.即既懲戒行使這些權(quán)利的具體行為,也可以更普遍地用于“阻止挑戰(zhàn)國(guó)家權(quán)威的組織和動(dòng)員意圖”??破?Cope)等指出,“信息和通信技術(shù)的進(jìn)步已經(jīng)并可能繼續(xù)降低政府實(shí)施大規(guī)模預(yù)防性鎮(zhèn)壓的成本”。(37)Cope K.L, Crabtree C., Lupu Y., “Beyond Physical Integrity”,Law Contemporary Problem, Vol.81, No.4, 2018, pp.189.因此,以數(shù)字技術(shù)為基礎(chǔ)的新型侵?jǐn)_工具使得追究國(guó)家責(zé)任比以往都更加困難。
2.監(jiān)視。西方各國(guó)還在使用監(jiān)視工具來(lái)維持和鞏固權(quán)力。一些國(guó)家政府就在使用由以色列NSO集團(tuán)公司生產(chǎn)的Pegasus 間諜軟件,來(lái)監(jiān)視和攻擊一些維權(quán)人士。一旦被安裝到手機(jī)上,Pegasus 軟件可以自動(dòng)提取設(shè)備上所有數(shù)據(jù),如短信、聯(lián)系人、GPS 位置、電子郵件和瀏覽器的歷史記錄。它還可以通過(guò)使用手機(jī)麥克風(fēng)和攝像頭來(lái)記錄用戶周圍的環(huán)境,從而創(chuàng)建新的數(shù)據(jù)。(38)Hopkins N., “WhatsApp Spyware Attack was Attempt to Hack Human Rights Data, Says Lawyer”,Guardian, 2019-05-14.如生物識(shí)別數(shù)據(jù)、禁止在線加密和匿名、公共場(chǎng)所的面部識(shí)別等技術(shù)也被用以監(jiān)視人群,(39)Megiddo T., “Online Activism, Digital Domination, and the Rule of Trolls: Mapping and Theorizing Technological Oppression by Governments”,Columbia Journal of Transnational Law, Vol.58, 2020, pp.405—406.即使是普通的手機(jī)也會(huì)產(chǎn)生大量數(shù)據(jù),可用于識(shí)別個(gè)人的位置和行動(dòng)軌跡。(40)Thompson SA, Warzel C., “Twelve Million Phones, One Dataset, Zero Privacy”,New York Times, 2019-12-10.通過(guò)技術(shù)制造商和平臺(tái)所有者收集的海量的各種數(shù)據(jù),使精準(zhǔn)跟蹤個(gè)人的身體活動(dòng)、運(yùn)動(dòng)、交流和消費(fèi)信息成為可能。(41)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal Human Rights Practice, Vol.11, No.2, 2019, p.380.人工智能、云計(jì)算等技術(shù)手段和缺乏保護(hù)精確隱私的法律框架,使這種監(jiān)控幾乎能夠在所有公私空間中實(shí)時(shí)進(jìn)行。許多國(guó)家為了進(jìn)一步推進(jìn)這種監(jiān)視活動(dòng),還限制民眾使用加密技術(shù)、禁止可能掩蓋互聯(lián)網(wǎng)用戶身份和位置的VPN(虛擬專用網(wǎng)絡(luò)),并威脅對(duì)記錄侵權(quán)行為的人施以人身暴力。(42)Kelly S., Truong M., Shahbaz A., Earp M., White J.,Freedom on the Net 2017:Manipulating Social Media to undermine Democracy, Doc., Freedom House, 2017, https://freedomhouse.org/report/freedom-net/2017/manipulating-social-media-undermine-democracy, 2021-10-18.正如威茲曼(Weizman)所描述的,如內(nèi)置攝像功能的手機(jī)等最初被認(rèn)為能夠監(jiān)督國(guó)家的工具,經(jīng)由政府及相關(guān)技術(shù)公司的“改造”,已被西方國(guó)家“武器化”。(43)Weizman E.,Forensic Architecture:Violence at the Threshold of Detectability, Brooklyn, NY: Zone Books, 2017.
面對(duì)突如其來(lái)的新冠肺炎疫情,為了更加有效控制疫情而建立的公共衛(wèi)生追蹤機(jī)制,可能也會(huì)導(dǎo)致更具侵入性的監(jiān)視,尤其是由不符合隱私保護(hù)標(biāo)準(zhǔn)的私人機(jī)構(gòu)進(jìn)行的監(jiān)視。(44)Kaye D.,Disease Pandemics and the Freedom of Opinion and Expression,Report of the Special Rapporteur on the Promotionand Protection of the Right to Freedom of Opinion and Expression, UN Human Rights Council, A/HRC/44/49, 2020-04-23.各國(guó)普遍使用智能手機(jī)追蹤病毒傳播軌跡,監(jiān)控人們是否遵守居家隔離指令。這些軟件搜集用戶的歷史位置等個(gè)人信息,在第三方服務(wù)器上儲(chǔ)存這些信息,有些商家還在軟件中嵌入了秘密搜集用戶信息的“后門”。澳大利亞的“新冠肺炎安全”軟件使用藍(lán)牙科技,可以自動(dòng)在用戶手機(jī)上啟動(dòng)位置定位。該軟件將海量數(shù)據(jù)儲(chǔ)存在美國(guó)亞馬遜公司的云存儲(chǔ)器中,需遵守美國(guó)《澄清境外數(shù)據(jù)合法使用法》,美國(guó)執(zhí)法機(jī)構(gòu)可利用該法案調(diào)用存儲(chǔ)在境外互聯(lián)網(wǎng)上的數(shù)據(jù)。(45)高望來(lái):《人工智能與后疫情時(shí)代的數(shù)字治理》,《當(dāng)代世界與社會(huì)主義》2021 年第6 期。許多人擔(dān)心,如果緊急措施正?;?,或政府利用危機(jī)來(lái)制定原本不可接受的措施,抑或如果公民更傾向于接受對(duì)其權(quán)利的限制,為應(yīng)對(duì)特殊危機(jī)狀態(tài)而采取的措施,就可能會(huì)被固定為日常性措施。(46)Nay O., “Comment: Can a Virus Undermine Human Rights”,Lancet, No.5, 2020, pp.238—39.
侵?jǐn)_和監(jiān)視都涉及深度交融的公共和私人行動(dòng),例如,在線的宣傳通常通過(guò)網(wǎng)絡(luò)中心或巨魔農(nóng)場(chǎng)等私人公司的系統(tǒng)來(lái)進(jìn)行,(47)Abbas M., Al-Wohaibi E., Donovan J., Hale E., Marugg T., et al.,Invisible Threats:Mitigating the Risk of Violence from Online Hate Speech against Human Rights Defenders, Chicago: American Bar Association, 2019.諸如Pegasus 之類的間諜軟件是由私人公司創(chuàng)建和銷售的,卻被公共權(quán)力用以進(jìn)行監(jiān)視活動(dòng)。鑒于監(jiān)視的危害,聯(lián)合國(guó)特別報(bào)告員呼吁“除非科技公司提供令人信服的證據(jù),證明自己在盡職調(diào)查、透明度和責(zé)任等方面已采取足夠的措施……來(lái)防止或減輕使用這些技術(shù)侵犯民眾權(quán)益”,(48)Kaye D.,Surveillance and Human Rights,Report of the Special Rapporteur on the Promotion and Protection of the Rightto Freedom of Opinion and Expression, UN Human Rights Council, A/HRC/41/35, 2019-05-28.科技公司應(yīng)停止生產(chǎn)和銷售監(jiān)視技術(shù)。因此,數(shù)字化時(shí)代的公共與私人的關(guān)系,正如米吉多所說(shuō),“外包數(shù)字壓迫揭示了私人和公共權(quán)力的結(jié)合,這與以往的政府和私人商業(yè)行為者之間的關(guān)系不同”。(49)Megiddo T., “Online Activism, Digital Domination, and the Rule of Trolls: Mapping and Theorizing Technological Oppression by Governments”,Columbia Journal of Transnational Law, Vol.58, 2020, p.402.
在過(guò)去幾年中,人們?cè)絹?lái)越關(guān)注基于算法的決策對(duì)民眾權(quán)益和大眾福利的影響。(50)吳進(jìn)進(jìn)、符陽(yáng):《算法決策:人工智能驅(qū)動(dòng)的公共決策及其風(fēng)險(xiǎn)》,《開放時(shí)代》2021 年第5 期。人工智能研究院(AI Now Institute)將自動(dòng)決策系統(tǒng)定義為“數(shù)據(jù)驅(qū)動(dòng)的將原由人實(shí)行的程序、實(shí)踐或政策得以自動(dòng)化的技術(shù),可以用于預(yù)測(cè)、識(shí)別、監(jiān)督、檢測(cè)和針對(duì)個(gè)人或社區(qū)等目的”。這些技術(shù)被廣泛應(yīng)用于各種場(chǎng)景,包括“分配有限的政府資源(如公共福利或衛(wèi)生服務(wù));預(yù)見并可能預(yù)防特定風(fēng)險(xiǎn);消除或限制決策中的自由裁量權(quán);并提供人本身無(wú)法進(jìn)行的大規(guī)模和大范圍分析”。(51)Richardson R., Cahn A., Kak A., Diaz A., Samant A., et al.,Confronting Black Boxes:a Shadow Report of the New York City Automated Decision System Task Force. Rep., AI Now Institution., https://ainowinstitute.org/ads-shadowreport-2019.pdf., 2021-11-28.
許多公司、計(jì)算科學(xué)家和決策科學(xué)家都對(duì)自動(dòng)化決策系統(tǒng)大加推崇,可以通過(guò)大數(shù)據(jù)驅(qū)動(dòng)的議程設(shè)置信息化、備擇方案討論全民化、決策執(zhí)行自動(dòng)化、決策評(píng)估實(shí)時(shí)化、全過(guò)程跨領(lǐng)域綜合集成化等公共決策創(chuàng)新,(52)陳一凡、胡象明:《大數(shù)據(jù)驅(qū)動(dòng)型的公共決策過(guò)程創(chuàng)新及效果評(píng)估——基于SSCI 和SCI 的文獻(xiàn)研究》,《電子政務(wù)》2019 年 第8 期。消除社會(huì)和政治議題中的人為偏見。(53)Miller A.P., “Want Less-biased Decisions? Use Algorithms”,Harvard Business Review, 2018-07-26.相較于人類,這些系統(tǒng)處理數(shù)據(jù)的能力更強(qiáng)、規(guī)模更大、速度更快,人類不得不依賴文化啟發(fā)法來(lái)克服信息鴻溝,但理論上人工智能系統(tǒng)不會(huì)受到這種障礙的影響。此類系統(tǒng)已被用于幫助警方預(yù)測(cè)犯罪熱點(diǎn)、調(diào)節(jié)交通、確定犯罪嫌疑人的社會(huì)風(fēng)險(xiǎn)、探查某人是否參與金融欺詐或貸款額度、判斷工作匹配度、選擇要在線上向用戶展示的廣告、判別特定社交媒體帖子是否違反了平臺(tái)標(biāo)準(zhǔn)或當(dāng)?shù)胤?,并在法律和安全環(huán)境中創(chuàng)建面部和生物識(shí)別系統(tǒng)。
然而,研究者和人工智能批評(píng)者已經(jīng)證明,這些所謂的中立或客觀的人工智能系統(tǒng)復(fù)制了它們所運(yùn)用數(shù)據(jù)中固有的偏見,或者將特定的思維方式轉(zhuǎn)化為代碼。正如奧尼爾(O’Neil)所說(shuō),算法是嵌入在代碼中的觀點(diǎn),不同于人們將算法視為是客觀、真實(shí)、科學(xué)的。另外,因?yàn)樾湃魏秃ε聰?shù)字,而用算法來(lái)恐嚇用戶,讓用戶信任和恐懼算法,這也是一種營(yíng)銷技巧。但當(dāng)我們盲目相信大數(shù)據(jù)時(shí),很多事情都會(huì)出錯(cuò)。(54)O’Neil C., The Era of Blind Faith in Big Data Must End., TED2017, April, 2017,Vancouver, Canada, https://www.ted.com/talks/cathy_o_neil_the_era_of _blind_faith_in_big_data_must_end, 2019-04-23.
人工智能在就業(yè)信息、就業(yè)保障和公共衛(wèi)生方面的應(yīng)用,(55)Richardson R., Schultz J.M., Crawford K., “Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice”,N.Y. University Law Review, Vol.94, 2019, pp.192—233.以及其在司法系統(tǒng)保釋、審判、警務(wù)和假釋等過(guò)程中潛在的負(fù)面影響,也受到了關(guān)注。人工智能在人臉識(shí)別系統(tǒng)、(56)Garvie C., Bedoya A., Frankle J.,The Perpetual Line-up:Unregulated Police Face Recognition in America, Georgetown Law Center of Privacy Technology, 2016, https://www.perpetuallineup.org/, 2021-11-28.社會(huì)救濟(jì)系統(tǒng)、自動(dòng)駕駛汽車等領(lǐng)域?qū)γ癖姍?quán)益和社會(huì)福利的影響也備受關(guān)注。在互聯(lián)網(wǎng)基礎(chǔ)設(shè)施中人工智能直接影響世界各地的人們?nèi)绾闻c他人交流、分享觀點(diǎn)、參與政治行動(dòng)以及在線查找信息,但人工智能系統(tǒng)存在的偏見早已為人所知。(57)Sweeney L., “Discrimination in Online ad Delivery”,Communication ACM, Vol.56, No.5, 2013, pp.44—54.搜索引擎和社交媒體平臺(tái)等在線中介機(jī)構(gòu)使用人工智能以多種方式控制人們?cè)L問(wèn)其平臺(tái)內(nèi)容,包括決定顯示的信息、產(chǎn)品、服務(wù)或其他帖子的內(nèi)容。對(duì)信息內(nèi)容的隱現(xiàn)和排序是數(shù)字時(shí)代重要的公共權(quán)力,在一些情況下,對(duì)信息的隱現(xiàn)或排序可能源于道德原因,不便于民眾搜索和運(yùn)用信息;而有一些可能會(huì)侵犯言論自由、隱私和集會(huì)自由等基本權(quán)利。當(dāng)人工智能被用以監(jiān)管言論和交流時(shí),它可能有意或無(wú)意地屏蔽某些具有公共價(jià)值的主題、圖像或話語(yǔ)。人工智能系統(tǒng)也對(duì)殘障人士有很大的影響。隨著人工智能系統(tǒng)越來(lái)越多地用于匹配工作崗位、確定公共服務(wù)獲得資格、確定空間設(shè)計(jì)方案以及公民身份獲益權(quán),殘疾人士尤其會(huì)受到這類系統(tǒng)如何定義正常和殘障的影響。(58)West SM, Whittaker M, Crawford K.,Discriminating Systems:Gender,Race,and Power in AI, AI Now Institution, https://ainowinstitute.org/discriminatingsystems.pdf, 2019, 2021-07-23.
在過(guò)去幾年中,面部識(shí)別系統(tǒng)可能對(duì)人身權(quán)利造成的侵害也令人擔(dān)憂。(59)Schippers B., “Face Recognition Technology: the Human Rights Concerns”,Eolas Magazine, https://www.eolasmagazine.ie/facerecognition-technology-the-human-rights-concerns/, Vol.12, 2018, 2021-11-27.面部識(shí)別系統(tǒng)被廣泛地應(yīng)用在各國(guó)的執(zhí)法、公共安全和維護(hù)社會(huì)秩序行動(dòng)中。除面部識(shí)別系統(tǒng)存在很大謬誤外,在美國(guó)和一些西方國(guó)家,人工智能為內(nèi)核的面部識(shí)別系統(tǒng)也被證明在多種方面存在歧視,尤其是針對(duì)女性和有色人群。(60)Buolamwini J., Gebru T. “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”,Proceedings of Machine Learning Research, Vol.81, 2018, pp.77—91.執(zhí)法部門使用設(shè)計(jì)不佳的技術(shù)進(jìn)行識(shí)別,會(huì)產(chǎn)生很高的錯(cuò)誤識(shí)別率,進(jìn)一步導(dǎo)致?lián)p害民眾權(quán)益的風(fēng)險(xiǎn),尤其是被應(yīng)用于已經(jīng)在因過(guò)度監(jiān)管而苦苦掙扎的少數(shù)族裔社區(qū)?;谄た?Picard) 在“情感計(jì)算”方面的開創(chuàng)性工作,(61)Picard R.W.,Affective Computing, Cambridge, MA: MIT Press, 1997.科學(xué)家和技術(shù)公司最近提出,人工智能系統(tǒng)可以超越單純的身份識(shí)別,還能檢測(cè)從情感、影響、犯罪到性行為(62)Wang Y., Kosinski M., “Deep Neural Networks are More Accurate than Humans at Detecting Sexual Orientation from Facial Images”,Journal Personal Social Psychologics, Vol.114, No.2, 2018, pp.246—257.等多種特征,面部識(shí)別工具甚至有朝一日能夠預(yù)測(cè)政治意識(shí)形態(tài)和智商得分。(63)Levin S., “Face-reading AI will be able to Detect Your Politics and IQ, Professor Says”,Guardian, 2017-09-12.盡管其中一些功能有潛在的有益用途(如對(duì)抑郁或焦慮的自動(dòng)視覺(jué)篩查),但無(wú)論預(yù)測(cè)是否準(zhǔn)確,此類系統(tǒng)都對(duì)隱私構(gòu)成巨大威脅。(64)Burdick A., “The A.I. ‘Gaydar’ Study and the Real Dangers of Big Data”,New Yorker, 2017-09-15.因?qū)γ娌孔R(shí)別系統(tǒng)中固有歧視和侵犯隱私的擔(dān)憂,它被如奧克蘭、伯克利、薩默維爾和波特蘭等許多城市禁止使用,值得思考的是,這些城市正是許多生產(chǎn)這些系統(tǒng)代碼的公司所在地。一些社會(huì)活動(dòng)家、學(xué)者和許多技術(shù)開發(fā)人員擔(dān)心這些系統(tǒng)將被用來(lái)扼殺言論和集會(huì)自由,對(duì)本已脆弱的少數(shù)群體造成更大的影響,而以超越傳統(tǒng)的警務(wù)和公共安全的方式使用這些技術(shù),容易出現(xiàn)重大錯(cuò)誤,導(dǎo)致錯(cuò)誤逮捕或定罪。(65)Garvie C., Bedoya A., Frankle J.,The Perpetual Line-up:Unregulated Police Face Recognition in America, Georgetown Law Center of Privacy Technology,https://www.perpetuallineup.org/, 2016, 2021-10-19.
除了可能侵犯隱私和具有偏見外,人工智能和自動(dòng)化還可能會(huì)限制勞動(dòng)者權(quán)利。例如,泰勒(Taylor)就認(rèn)為,大部分人工智能革命的內(nèi)容實(shí)際上是炒作,旨在嚇唬員工,使得他們因?yàn)閾?dān)心最終會(huì)被機(jī)器取代,而少對(duì)資方提出要求。(66)Taylor A., “The Automation Charade”,Logic Magazine, 2018-08-01.許多看似由人工智能完成的工作,實(shí)際上是通過(guò)像亞馬遜的Mechanical Turk 這樣的系統(tǒng)將任務(wù)分解,再向低收入群體發(fā)包來(lái)完成的。泰勒等人稱這種現(xiàn)象為“人造自動(dòng)化”(fauxtomation),在某些情況下,“人造自動(dòng)化”只是一種廉價(jià)的營(yíng)銷噱頭。但在其他情況下,憑借社交媒體與數(shù)字網(wǎng)絡(luò),資本實(shí)現(xiàn)了對(duì)勞動(dòng)控制的轉(zhuǎn)型升級(jí),勞動(dòng)被更為細(xì)致地分化,現(xiàn)代人成為被數(shù)字所架構(gòu)的數(shù)字勞動(dòng)主體的同時(shí),資本剝削的觸角也延伸至人內(nèi)在的生命活動(dòng)。(67)藍(lán)江、陳朦:《從產(chǎn)業(yè)勞動(dòng)到數(shù)字勞動(dòng)——?dú)v史唯物主義視角下的勞動(dòng)批判研究》,《社會(huì)科學(xué)》2021 年第10 期。數(shù)字技術(shù)不僅成為一種限制勞工的手段,使工人不敢也無(wú)法保護(hù)自己的基本權(quán)利;而且導(dǎo)致社會(huì)呈現(xiàn)出資本集中的趨勢(shì),以及依賴與貧困化的趨勢(shì),這使得勞動(dòng)者所遭遇的不僅僅是金錢的貧困,更是一種思想的貧困。
最后,人工智能技術(shù)也催生了進(jìn)一步加劇全球不平等的數(shù)據(jù)市場(chǎng)。例如,急于將人工智能引入欠發(fā)達(dá)國(guó)家有可能導(dǎo)致算法殖民,(68)Birhane A., “The Algorithmic Colonization of Africa”,CyFyAfrica2019Blog, https://abebabirhane. wordpress.com/2019/07/10/the-algorithmic-colonization-of-africa/, 2021-12-10.在這種殖民體系中,被剝奪權(quán)利和被邊緣化的人的數(shù)據(jù)被提取出來(lái)用以獲取價(jià)值,最有權(quán)勢(shì)的全球公司和機(jī)構(gòu)從中獲益,而供給數(shù)據(jù)的人卻喪失了隱私,付出了巨大的代價(jià)。
(三)數(shù)字化國(guó)家與新的責(zé)任困境
前聯(lián)合國(guó)極端貧困與人權(quán)問(wèn)題特別代表菲利普·阿爾斯通(Alston)在提交給聯(lián)合國(guó)的報(bào)告中,著重探討了利用技術(shù)系統(tǒng)提供社會(huì)保護(hù)和援助的“數(shù)字福利國(guó)家”的發(fā)展,以及這種方式對(duì)最弱勢(shì)群體權(quán)利的影響。(69)Alston P.,Extreme Poverty and Human Rights. Report of the Special Rapporteur on Extreme Poverty and Human Rights, UN Human Rights Council, UN Doc. A/74/493, 2019-10-11.為了追求效率和效果,西方各國(guó)越來(lái)越多地使用生物識(shí)別和算法等技術(shù)來(lái)確定接受社會(huì)援助的資格,并管理獲得福利的機(jī)會(huì)與流程。盡管這些技術(shù)“被描述為科學(xué)和中立的,但它們所反映的價(jià)值觀和預(yù)設(shè)卻與普惠的福利原則相去甚遠(yuǎn),甚至可能背道而馳”。
利用技術(shù)救助社會(huì)中最弱勢(shì)群體,事實(shí)上給他們帶來(lái)了沉重的負(fù)擔(dān),因?yàn)樗麄凂{馭這些技術(shù)的能力最弱。皮尤研究中心(Pew Research Center)的一份報(bào)告顯示,10%的美國(guó)人根本不使用互聯(lián)網(wǎng),這其中的大多數(shù)人都是貧困群體、少數(shù)族裔、農(nóng)村人口和老年人口以及沒(méi)接受過(guò)高中教育的人。正如阿爾斯通所指出的那樣,數(shù)字素養(yǎng)的匱乏會(huì)導(dǎo)致一些人群根本無(wú)法使用基本的數(shù)字工具,遑論有效和高效地使用了。同時(shí)互聯(lián)網(wǎng)的可及性也并非均質(zhì),對(duì)于那些需要支付高額費(fèi)用、需要曠工、需要去圖書館等公共設(shè)施、或必須向他人求助才能上網(wǎng)的人來(lái)說(shuō),上網(wǎng)獲取社會(huì)援助為他們的生活設(shè)置了額外的障礙。此外,數(shù)字化的福利國(guó)家也會(huì)不成比例地影響最弱勢(shì)群體的權(quán)利,因?yàn)樗殡S著更大的隱私負(fù)擔(dān),而這些負(fù)擔(dān)則由貧困及無(wú)權(quán)者承擔(dān)。數(shù)字化技術(shù)使得國(guó)家能夠更容易地監(jiān)視、識(shí)別、騷擾和懲罰福利受益人,尤其是其中最貧窮和最脆弱的人。
事實(shí)上,阿爾斯通報(bào)告關(guān)于數(shù)字技術(shù)對(duì)社會(huì)治理與服務(wù)影響的分析,并不局限于社會(huì)保護(hù)和福利國(guó)家的范疇,還針對(duì)更廣泛的數(shù)字化國(guó)家,因?yàn)槊慨?dāng)政府采用新技術(shù)來(lái)進(jìn)行治理和提供服務(wù)時(shí),最脆弱的群體都有受到傷害的風(fēng)險(xiǎn)。對(duì)數(shù)字國(guó)家的擔(dān)憂也與聯(lián)合國(guó)等國(guó)際組織相關(guān),因?yàn)樗鼈冊(cè)谌说乐髁x行動(dòng)中采用了大量未經(jīng)測(cè)試的新技術(shù)。如最近聯(lián)合國(guó)世界糧食計(jì)劃署與數(shù)據(jù)挖掘公司Palantir 之間的合作就受到廣泛批評(píng),因?yàn)樵摴镜纳虡I(yè)模式在疫苗分配領(lǐng)域存在侵犯基本人權(quán)的問(wèn)題。(70)Greenwood F., “Why Humanitarians are Worried about Palantir’s Partnership with the U.N”,Slate Magazine, https://slate.com/technology/2019/02/palantir-un-world-food-programme-data-humanitarians.html, 2021-10-25.
采用新技術(shù)來(lái)解決治理問(wèn)題也是有風(fēng)險(xiǎn)的,因?yàn)榧夹g(shù)系統(tǒng)將內(nèi)嵌性地反映設(shè)計(jì)者的特權(quán)。如南非約翰內(nèi)斯堡在貧困社區(qū)安裝的預(yù)付費(fèi)式水表,這些社區(qū)居民經(jīng)常無(wú)錢支付水費(fèi)。(71)Shaver L., Safeguarding Human Rights from Problematic Technologies, See Land & Aronson, 2018, pp.25—45.為解決財(cái)務(wù)問(wèn)題,約翰內(nèi)斯堡水務(wù)公司(Johannesburg Water)推出了新型水表作為技術(shù)解決方案。預(yù)付式水表每月只給每個(gè)家庭分配少量的免費(fèi)水,而不足的部分則需要通過(guò)購(gòu)買水表代幣來(lái)補(bǔ)充。盡管安裝新水表主要是為了提高供水效率,但它反映并延續(xù)了固有的特權(quán)。例如約翰內(nèi)斯堡水務(wù)公司為費(fèi)里(Phiri)社區(qū)的每戶家庭分配6000 升的免費(fèi)水,假設(shè)一個(gè)家庭內(nèi)有8 口人,那么這個(gè)家庭每人每天就能夠分到25 升水。但事實(shí)上,費(fèi)里社區(qū)家庭平均有16 口人,這就使得原本就微薄的用水補(bǔ)貼被減半。那些決定何時(shí)停止供水的人是根據(jù)自己的經(jīng)驗(yàn)做出了上述家庭人口數(shù)的假設(shè),而其經(jīng)驗(yàn)就反映了財(cái)富的分配與環(huán)境。
技術(shù)還使對(duì)侵犯權(quán)益行為提出質(zhì)疑變得更加困難,因?yàn)檫@些行為所產(chǎn)生的惡劣影響通常由那些沒(méi)有能力挑戰(zhàn)其影響的人承擔(dān)。為什么沒(méi)有法律和技術(shù)保障的預(yù)付費(fèi)式水表會(huì)安裝在像費(fèi)里這樣的脆弱社區(qū)?可能是因?yàn)樵诟辉5纳鐓^(qū)安裝這種水表可能會(huì)招致更大的公眾抗議和政治壓力。同樣,阿爾斯通指出,“許多領(lǐng)取福利的人因相對(duì)剝奪和無(wú)能為力被強(qiáng)加了條件和要求,如果改為在成員較為富裕的社區(qū)進(jìn)行,這些條件、要求和形式就永遠(yuǎn)不會(huì)被接受”。
此外,在利用技術(shù)提供公共產(chǎn)品時(shí),深度交融的公共和私人行動(dòng)可能令追究侵犯權(quán)利行為的責(zé)任更加困難?!霸谠O(shè)計(jì)、建設(shè)甚至運(yùn)營(yíng)數(shù)字化國(guó)家的部分過(guò)程中,私營(yíng)部門甚至發(fā)揮著主導(dǎo)作用”。(72)Alston P.,Extreme Poverty and Human Rights. Report of the Special Rapporteur on Extreme Poverty and Human Rights, UN Human Rights Council, UN Doc. A/74/493, 2019-10-11.然而,這些公司在運(yùn)作的過(guò)程中“幾乎不考慮民眾權(quán)益”,因?yàn)樗鼈冏约旱种票O(jiān)管,同時(shí)受新自由主義影響,政府也抵制監(jiān)管私營(yíng)公司。對(duì)私人行為者的依賴也帶來(lái)了價(jià)值觀沖突的風(fēng)險(xiǎn),私營(yíng)行為體參與福利供給和社會(huì)援助系統(tǒng)的動(dòng)機(jī)不同,可能會(huì)導(dǎo)致福利系統(tǒng)本應(yīng)服務(wù)的公共利益與公司及其私人利益之間的沖突。因此,當(dāng)在數(shù)據(jù)資本主義基礎(chǔ)上建立的商業(yè)公司,承擔(dān)了設(shè)計(jì)監(jiān)控貧困者使用公共援助技術(shù)的責(zé)任時(shí),保護(hù)貧困者的隱私權(quán)就變得更加困難。水表的例子就顯示出,私人參與者為了營(yíng)利而開發(fā)的技術(shù)如何損害了民眾的基本權(quán)益。在商業(yè)環(huán)境中引入新技術(shù)通常需要投資,而投資可能會(huì)導(dǎo)致并鎖定后續(xù)的錯(cuò)誤。在費(fèi)里的個(gè)案中,公司安裝儀表的巨額成本成為支持保留新系統(tǒng)的法律依據(jù),在訴訟期間,約翰內(nèi)斯堡市辯稱,卸載預(yù)付費(fèi)式電表將對(duì)自來(lái)水公司的“財(cái)務(wù)和可持續(xù)性”產(chǎn)生重大影響。(73)Bond P, Dugard J., “The Case of Johannesburg Water: What Really Happened at the Prepaid ‘Parish Pump’”,Law,Democracy andDevelopment, Vol.12, No.1, 2010, p.11.因此,該項(xiàng)技術(shù)已因?yàn)槌杀?,成為一種自我實(shí)現(xiàn)式的預(yù)言,一旦安裝,它及它對(duì)權(quán)利造成的任何損害將會(huì)被鎖定。
最后,也許最令人擔(dān)憂的是,使用技術(shù)來(lái)實(shí)現(xiàn)權(quán)利的方式鞏固和強(qiáng)化了一種商品化的意識(shí)形態(tài),在這種意識(shí)形態(tài)中,諸如水、住房、電力和食物等只是需要提供的商品,而不是生活所需的基本權(quán)利。正如阿爾斯通所指出的那樣,引入新技術(shù)也有可能會(huì)破壞享有經(jīng)濟(jì)權(quán)利,促進(jìn)向官僚程序的轉(zhuǎn)變,而背離了以社會(huì)保障權(quán)或社會(huì)保護(hù)權(quán)為前提的程序。同樣,對(duì)約翰內(nèi)斯堡的管理者來(lái)說(shuō),安裝水表的理由似乎是合理和適當(dāng)?shù)摹滤砜梢韵拗评速M(fèi)并確保居民支付水費(fèi)。但是當(dāng)居民買不起額外的預(yù)付代幣時(shí),他們的生活就遭受了極大的困難。那些本就靠微薄資源生活的人被迫做出不可能的選擇,限制他們自己和家人的基本衛(wèi)生與需求,以確保免費(fèi)用水量可以持續(xù)整月。當(dāng)供水的目標(biāo)是以回收成本而不是提供基本需求為導(dǎo)向時(shí),貧困者不可避免地遭受損失。
從西方國(guó)家智能社會(huì)治理與服務(wù)的過(guò)程可以發(fā)現(xiàn),當(dāng)今技術(shù)對(duì)人們權(quán)益構(gòu)成的威脅并不是像流行文化和科幻小說(shuō)中描繪的那樣,機(jī)器擺脫了人類控制,成為自為的破壞者。相反,技術(shù)以相當(dāng)平常的方式威脅著民眾權(quán)利和大眾福利,除侵?jǐn)_公民隱私權(quán)外,技術(shù)將知識(shí)和權(quán)力集中在那些已經(jīng)掌握它們的人手中,并進(jìn)一步剝奪那些無(wú)權(quán)者,造成不平等的再生產(chǎn);同時(shí)造成傳統(tǒng)追責(zé)機(jī)制失效。對(duì)此,需要從價(jià)值導(dǎo)向、技術(shù)設(shè)計(jì)實(shí)踐和制度與法律等幾個(gè)層面著手,提出應(yīng)對(duì)這些問(wèn)題的具體策略。
人工智能從誕生的那一刻起,就讓人類陷入一定程度的憂慮和恐懼當(dāng)中。智慧社會(huì)蘊(yùn)含著推動(dòng)社會(huì)發(fā)展的巨大潛能,也具有無(wú)可否認(rèn)的風(fēng)險(xiǎn),要遏制人工智能帶來(lái)的風(fēng)險(xiǎn),最大限度地消除人工智能的負(fù)面影響,發(fā)揮“負(fù)責(zé)任”的人工智能,可以助力社會(huì)治理走向善治?!柏?fù)責(zé)任”已成為發(fā)展人工智能的高頻詞匯,2019 年5 月,OECD 成員國(guó)簽署政府間《人工智能推薦性原則和建議》,呼吁發(fā)展負(fù)責(zé)任的人工智能?!柏?fù)責(zé)任”涵蓋了人工智能的基礎(chǔ)研發(fā)層到應(yīng)用層,更應(yīng)成為貫穿人工智能發(fā)展的一條主線。無(wú)論是人工智能提供的產(chǎn)品還是服務(wù),都應(yīng)該是負(fù)責(zé)任的、全面的,應(yīng)該以增進(jìn)人類共同福祉為目標(biāo),應(yīng)該符合人類的價(jià)值觀和倫理道德,避免誤用,禁止濫用。
人工智能的到來(lái)使得一些人高呼“一切皆可計(jì)算”。需要警惕這種技術(shù)理性控制與人文精神流失的行為,無(wú)論何時(shí)發(fā)展都應(yīng)以人為中心,最終的目標(biāo)也是要實(shí)現(xiàn)人的自由全面發(fā)展。以發(fā)展人工智能來(lái)提升人民生活品質(zhì),抓住教育、醫(yī)療、養(yǎng)老等社會(huì)民生領(lǐng)域的突出矛盾和難點(diǎn)。大力發(fā)展智慧社會(huì)治理與服務(wù),讓人類生活更便捷、自在、舒適。以人工智能在人們?nèi)粘9ぷ鲗W(xué)習(xí)生活中的深度應(yīng)用,創(chuàng)造更加智能的工作和生活方式,來(lái)促進(jìn)人的全面發(fā)展,從保障和改善民生,為人民創(chuàng)造美好生活的需要出發(fā),讓改革成果更多惠及人民,智慧社會(huì)變革在一定程度上導(dǎo)致了社會(huì)分層和利益分化。人工智能的負(fù)面效應(yīng)造成的損失需要政府承擔(dān)調(diào)解和再分配與縮小貧富差距,使民眾感受到社會(huì)公平,因此要加強(qiáng)對(duì)勞動(dòng)者的保護(hù),建立完善的社會(huì)保障制度,切實(shí)保障民眾基本生活,對(duì)于因人工智能而失業(yè)的人來(lái)說(shuō),政府應(yīng)該加大對(duì)人工智能企業(yè)的稅收,并進(jìn)一步將稅收轉(zhuǎn)化為失業(yè)人群的短期失業(yè)福利,以完善的社會(huì)保障制度,增加群眾的幸福感、獲得感、安全感。
首先,面對(duì)智慧社會(huì)治理中的隱私問(wèn)題,學(xué)者們提出了技術(shù)解決方案的方向:第一,去識(shí)別化(de-identification),即在數(shù)據(jù)分析過(guò)程中避免將某一個(gè)特定人從人群識(shí)別出來(lái)。一是通過(guò)差分隱私(differential privacy);一是通過(guò)k-匿名(k-anonymity)。第二,限制搜索(limited searchability)。例如Snapchat 的“閱后即焚”功能,用戶拍攝照片或視頻發(fā)送給好友,好友閱后照片或視頻將自動(dòng)焚毀。(74)曲甜、張小勁:《大數(shù)據(jù)社會(huì)治理創(chuàng)新的國(guó)外經(jīng)驗(yàn):前沿趨勢(shì)、模式優(yōu)化與困境挑戰(zhàn)》,《電子政務(wù)》2020 年第1 期。
其次,要解決社會(huì)不平等問(wèn)題需要采取積極措施,在技術(shù)設(shè)計(jì)過(guò)程中分散知識(shí)和權(quán)力。多年來(lái),政策、法律部門和技術(shù)界一直在討論如開源運(yùn)動(dòng)(75)Benkler Y., “Law, Innovation, and Collaboration in Networked Economy and Society”,Annual Review of Law Social Science, Vol.13, 2017, pp.231—250.等替代性的參與式設(shè)計(jì)和技術(shù)開發(fā)的愿景。然而,大多數(shù)研究者都主要關(guān)注掌握權(quán)力技術(shù)優(yōu)勢(shì)的發(fā)達(dá)國(guó)家的參與者,但最近關(guān)于設(shè)計(jì)正義的研究(76)Costanza-Chock S.,Design Justice:Community-Led Practices to Build the Worlds We Need, Cambridge, MA: MIT Press, 2020.認(rèn)為,來(lái)自發(fā)展中國(guó)家的弱勢(shì)群體成員和專家必須參與決策,共商這些技術(shù)的未來(lái)。正如皮拉克(Piracés)指出的,正在進(jìn)行的關(guān)于人工智能和包容性的關(guān)鍵對(duì)話,“有可能蘊(yùn)含著被‘人工智能社會(huì)’塑造的風(fēng)險(xiǎn),這一對(duì)話討論的是包容,但卻沒(méi)有真正包括邊緣化人群的聲音。人工智能生態(tài)系統(tǒng)設(shè)計(jì)中若未考慮邊緣化人群的聲音,他們可能遭受技術(shù)的侵害?!?77)Piracés E., “Let’s Avoid an Artificial Intelligentsia”,Medium, Oct. 12. 2018 , https://points.datasociety.net/lets-avoid-an-artificialintelligentsia-inclusion-artificial-intelligence-and-human-rights-3905d708e7ed, 2021-11-29.參與式設(shè)計(jì)還要確保技術(shù)滿足從業(yè)者和權(quán)益捍衛(wèi)者對(duì)隱私、安全和免受傷害的需求,保護(hù)民眾的權(quán)利與福利“需要開放、分散化的平臺(tái),和不會(huì)保存用戶信息并出售的工作人員”,(78)Al-Sharif M., “The Dangers of Digital Activism”,New York Times, https://www.nytimes.com/2018/09/16/opinion/politics/thedangers-of-digital-activism.html, 2021-11-29.如果無(wú)法保證上述條件,濫用平臺(tái)收集數(shù)據(jù)可能使人們面臨被騷擾和攻擊的風(fēng)險(xiǎn)。
對(duì)于發(fā)展中國(guó)家而言,要避免民眾被日益邊緣化,需要在地方層面來(lái)探討國(guó)家采用哪些技術(shù)。不應(yīng)在不清楚“潛在目的是什么、誰(shuí)受益以及誰(shuí)可能受損,就簡(jiǎn)單地引進(jìn)最新、最先進(jìn)的機(jī)器學(xué)習(xí)系統(tǒng)或其他的人工智能工具”。(79)Birhane A., “The Algorithmic Colonization of Africa”,CyFyAfrica2019 Blog, https://abebabirhane. wordpress.com/2019/07/10/the-algorithmic-colonization-of-africa/, 2021-12-10.由非洲民眾自己領(lǐng)導(dǎo)的保護(hù)非洲大陸國(guó)家免受西方公司和思維方式剝削,并建立基于地方專業(yè)知識(shí)和企業(yè)的運(yùn)動(dòng)正方興未艾。南非土人會(huì)議深度學(xué)習(xí)項(xiàng)目(Deep Learning Indaba)可能是此類運(yùn)動(dòng)最明顯的實(shí)例,該組織贊助了各種針對(duì)特定國(guó)家和整個(gè)非洲大陸的項(xiàng)目,將非洲計(jì)算機(jī)科學(xué)家和程序員聚集在一起,來(lái)教授、學(xué)習(xí)和開發(fā)系統(tǒng),用以解決共同關(guān)心的技術(shù)和社會(huì)問(wèn)題的,Indaba 旨在發(fā)出非洲的聲音,成為一個(gè)由非洲主導(dǎo)的空間。
來(lái)自世界各地的科學(xué)家還積極參與倫理、法律和社會(huì)問(wèn)題的討論,如在計(jì)算機(jī)協(xié)會(huì)年會(huì)中組織公平、問(wèn)責(zé)和透明度會(huì)議等活動(dòng)??萍脊ぷ髡咭查_始組織起來(lái),反對(duì)將他們的設(shè)計(jì)與產(chǎn)品用于明顯侵犯民眾權(quán)利和大眾福利之處。(80)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal of Human Rights Practice, Vol.11, No.2, 2019, p.380.一些大學(xué)的教師和學(xué)生抗議美國(guó)移民和海關(guān)執(zhí)法局使用亞馬遜網(wǎng)絡(luò)服務(wù)、GitHub 和 Palantir 等平臺(tái)與軟件,這表明軟件工程師和科技工作者更加關(guān)注和捍衛(wèi)自己智力創(chuàng)造的社會(huì)用途。(81)Costanza-Chock S., “Designing AI with Justice”,Public Books, 2019.然而,格林卻質(zhì)疑科技人士是否有完善的、能夠妥善處理這些具有挑戰(zhàn)性問(wèn)題的社會(huì)和道德框架。(82)Green B.,The Smart Enough City:Putting Technology in Its Place to Reclaim Our Urban Future, Cambridge, MA: MIT Press, 2018.由于缺乏方法和理論來(lái)清晰地理解“善”的實(shí)際含義,計(jì)算科學(xué)家通常采用狹隘的方法來(lái)理解政治,包括對(duì)什么樣的社會(huì)條件在價(jià)值上是可取的,也僅僅提出模糊的(幾乎是重復(fù)的)主張。計(jì)算科學(xué)本身也“傾向于想當(dāng)然地認(rèn)為,以技術(shù)為中心的漸進(jìn)式改革是促進(jìn)社會(huì)進(jìn)步的合宜策略”,但僅通過(guò)技術(shù)可能無(wú)法解決潛在的不平等和壓迫,而不平等和壓迫會(huì)產(chǎn)生負(fù)面的社會(huì)結(jié)果,計(jì)算科學(xué)家只試圖通過(guò)他們的技術(shù)干預(yù)來(lái)補(bǔ)救。為了提高效率與效能,技術(shù)專家仍需在新技術(shù)的開發(fā)、設(shè)計(jì)和運(yùn)用過(guò)程中全面、共同協(xié)作。
參與進(jìn)程也需要透明度。由于自動(dòng)化決策技術(shù)的發(fā)展,人們通常沒(méi)有機(jī)會(huì)去審查被用于分析的數(shù)據(jù)、其背后的代碼或其中嵌入的假設(shè)和價(jià)值判斷。不僅不從事程序員工作的人難以理解這些代碼,而且公司還經(jīng)常不遺余力地將它們作為商業(yè)機(jī)密加以保護(hù)。這就難以測(cè)試人工智能系統(tǒng)的準(zhǔn)確性或更好地理解其局限性,正如拉姆 (Ram) 等人所言,當(dāng)自動(dòng)化系統(tǒng)做出關(guān)涉生死的決定時(shí),通過(guò)增強(qiáng)技術(shù)透明度來(lái)監(jiān)督數(shù)字技術(shù)的能力至關(guān)重要。(83)Ram N., “Innovating Criminal Justice”,Northwest University Law Review, Vol.112, No.4, 2018, pp.659—724.
在技術(shù)創(chuàng)新領(lǐng)域中,公共部門同私營(yíng)企業(yè)的行動(dòng)深深交融的情況下,除實(shí)踐技術(shù)外,重新認(rèn)識(shí)有關(guān)維護(hù)民眾權(quán)利和大眾福利的制度,以及法律中的公/私區(qū)分是必要的。這并不意味著制度與法律是無(wú)關(guān)緊要的,而是它們必須以某種方式發(fā)展,以彌補(bǔ)應(yīng)用新技術(shù)所造成的責(zé)任缺口。如當(dāng)政府通過(guò)將權(quán)力外包給私營(yíng)公司來(lái)審查它們自己無(wú)法審查的內(nèi)容,來(lái)規(guī)避對(duì)其權(quán)力的檢查時(shí),(84)Land M.K., “Against Privatized Censorship: Proposals for Responsible Delegation”,Journal of International Law, Vol.60, 2020, pp.363—432.或者當(dāng)公眾無(wú)法補(bǔ)救他們所不了解的自動(dòng)化系統(tǒng)造成的損害時(shí),就會(huì)出現(xiàn)責(zé)任缺口而難以問(wèn)責(zé)。(85)Crawford K, Schultz J. “AI Systems as State Actors”,Columbia Law Review, Vol.119, 2019, pp.1941—1972.在這種情況下,對(duì)公共權(quán)力和私人權(quán)力的嚴(yán)格區(qū)分并不能促進(jìn)作為保護(hù)民眾權(quán)益基礎(chǔ)的問(wèn)責(zé)制和實(shí)現(xiàn)補(bǔ)救的根本目標(biāo)。然而,可以更新和實(shí)施國(guó)家在國(guó)際層面的行動(dòng)和國(guó)內(nèi)法的規(guī)則,(86)Crawford K, Schultz J. “AI Systems as State Actors”,Columbia Law Review, Vol.119, 2019, pp.1941—1972.以確保國(guó)家無(wú)法逃避與使用新技術(shù)相關(guān)的損害的責(zé)任。
解決新技術(shù)的潛在危害還要求各國(guó)認(rèn)真履行保護(hù)個(gè)人免受非國(guó)家行為者傷害的責(zé)任。(87)Karanicolas M. “Squaring the Circle between Freedom of Expression and Platform Law”,Journal of Technology Law Policy, Vol.20, 2019—2020.國(guó)家可能要求私營(yíng)公司自行制定評(píng)估技術(shù)產(chǎn)生影響的流程并將之制度化,要求技術(shù)公司必須將風(fēng)險(xiǎn)評(píng)估納入技術(shù)開發(fā)和設(shè)計(jì)系統(tǒng),以便在涉及侵權(quán)風(fēng)險(xiǎn)之前便排除它。國(guó)家不僅需要承擔(dān)推進(jìn)技術(shù)創(chuàng)新和發(fā)展技術(shù)的義務(wù),而且還必須擔(dān)負(fù)以支持而不是阻礙人們享有權(quán)益的方式促進(jìn)技術(shù)創(chuàng)新的責(zé)任。
盡管運(yùn)用技術(shù)手段來(lái)維護(hù)社會(huì)秩序、尋求社會(huì)公益的項(xiàng)目受到各方歡迎,但技術(shù)不能也不會(huì)自動(dòng)解決社會(huì)問(wèn)題。拉托內(nèi)羅(Latonero)在《連線》(WIRED)的一篇專欄文章中指出,將人工智能應(yīng)用于社會(huì)治理與公共服務(wù)活動(dòng)中“帶有技術(shù)主義的味道,可能會(huì)掩蓋問(wèn)題的本質(zhì),并在沒(méi)有適當(dāng)保障的情況下對(duì)弱勢(shì)人群造成風(fēng)險(xiǎn)”。(88)Latonero M., “Opinion: AI for Good is Often Bad”,WIRED, https://www.wired.com/story/opinion-ai-for-good-is-often-bad/, 2021-11-27.他認(rèn)為,“被簡(jiǎn)化的由最聰明的企業(yè)技術(shù)人員與最受尊敬的國(guó)際組織合作所提供的方案”永遠(yuǎn)不可能解決大規(guī)模的社會(huì)問(wèn)題。格林也反對(duì)將復(fù)雜的政治和社會(huì)現(xiàn)象簡(jiǎn)化為可以通過(guò)算法或應(yīng)用程序解決的技術(shù)問(wèn)題,工程師和科學(xué)家無(wú)法識(shí)別和定義社會(huì)問(wèn)題,這些問(wèn)題只能由民眾自己完成,他人無(wú)法也不能越俎代庖。
通過(guò)數(shù)據(jù)獲取信息、進(jìn)行計(jì)算、直接供給,智能社會(huì)治理與服務(wù)加劇了現(xiàn)有市場(chǎng)制度下的不平等。如由數(shù)字技術(shù)所支撐的預(yù)測(cè)性警務(wù)威脅著生活在被嚴(yán)密監(jiān)管社區(qū)中的少數(shù)群體權(quán)利、雇傭與社會(huì)救助算法威脅就業(yè)人員的權(quán)利、社會(huì)保障算法威脅民眾權(quán)利。智慧社會(huì)治理與服務(wù)面臨的問(wèn)題首先是歧視,即預(yù)測(cè)模型會(huì)出錯(cuò),越來(lái)越多的證據(jù)表明,對(duì)于脆弱的群體,模型出錯(cuò)的頻率更高。其次是算法的不透明會(huì)削弱個(gè)人通過(guò)各種追責(zé)程序糾正錯(cuò)誤的能力。最后,數(shù)據(jù)可能被用以監(jiān)視會(huì)使個(gè)人隱私權(quán)受到侵害。因此,高風(fēng)險(xiǎn)決策中的錯(cuò)誤、削弱個(gè)人糾正這些錯(cuò)誤能力的不透明性、對(duì)生活各個(gè)領(lǐng)域的監(jiān)控日益增多,使得人們?nèi)找鎿?dān)憂在社會(huì)治理與服務(wù)中技術(shù)的作用。
此外,若要使技術(shù)對(duì)社會(huì)治理與服務(wù)產(chǎn)生變革性影響,必須更加關(guān)注誰(shuí)出于什么目的設(shè)計(jì)和構(gòu)建了技術(shù)、以及其中嵌入了什么樣的權(quán)力和特權(quán)。因此,確保公平地獲取運(yùn)用技術(shù)的機(jī)會(huì)是技術(shù)處理社會(huì)問(wèn)題的前提,但技術(shù)并非憑空運(yùn)作,而是依賴于體現(xiàn)結(jié)構(gòu)性不平等的復(fù)雜的專業(yè)知識(shí)、維護(hù)和治理網(wǎng)絡(luò)。引進(jìn)新技術(shù)的努力必須反思一系列有關(guān)權(quán)力的重要問(wèn)題,包括在利益分配不均的社會(huì)情境中,哪些群體將從技術(shù)對(duì)現(xiàn)狀所做的改變中受益。技術(shù)還必須具有透明度,能夠接受外部監(jiān)督和審查,尤其是那些受負(fù)面影響最大的人的監(jiān)督和審查。
隨著智能治理進(jìn)程的加速推進(jìn),人們?cè)谙硎軘?shù)字紅利的同時(shí)也面臨著“數(shù)字暴政”的風(fēng)險(xiǎn),這種風(fēng)險(xiǎn)在小范圍內(nèi)或許有差異地作用于個(gè)人,如接受社會(huì)福利的對(duì)象,但極端情況下,也存在著無(wú)差別的社會(huì)風(fēng)險(xiǎn)。近年來(lái),社會(huì)治理中掌握公共權(quán)力的政府與企業(yè)也越來(lái)越注重運(yùn)用數(shù)字工具,然而,當(dāng)我們?cè)趶?qiáng)調(diào)數(shù)字的工具價(jià)值和經(jīng)濟(jì)價(jià)值的時(shí)候,不能低估或者忽略了其對(duì)社會(huì)的深層次影響,特別是對(duì)弱勢(shì)群體的影響。技術(shù)確實(shí)有在諸多方面增強(qiáng)了決策的可能性,然而,科技能否挑戰(zhàn)世界基本權(quán)力結(jié)構(gòu)仍值得懷疑,創(chuàng)新的風(fēng)險(xiǎn)和收益不太可能被平等分享。為此,需要以社會(huì)治理目標(biāo)為方向,來(lái)構(gòu)建有利于促進(jìn)民眾權(quán)益的技術(shù)。