容 志,任晨宇
(武漢大學(xué) 政治與公共管理學(xué)院,湖北 武漢 430072)
伴隨互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和5G等新一代數(shù)智技術(shù)的飛速發(fā)展,人類正在進(jìn)入第二次機(jī)器革命時代。新技術(shù)的深度運(yùn)用不斷引發(fā)全球性變革,“智慧力量”在工作、生活、學(xué)習(xí)等各個領(lǐng)域?qū)⒏嗟刂渖踔寥〈鷤鹘y(tǒng)的“金屬力量”,人和受軟件驅(qū)動的機(jī)器之間亦可能由互補(bǔ)關(guān)系轉(zhuǎn)向替代與被替代的關(guān)系。[1]XVIII-XXIII作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),人工智能實(shí)現(xiàn)了對人腦力的模擬、延伸和擴(kuò)展,憑借強(qiáng)大的信息處理能力為社會現(xiàn)代化提供有力的技術(shù)支撐。人工智能在服務(wù)經(jīng)濟(jì)社會發(fā)展的同時,產(chǎn)生的風(fēng)險也時刻對人類的財產(chǎn)、健康、自由乃至生命安全造成威脅?,F(xiàn)實(shí)中,侵犯個人隱私、偽造肖像詐騙、自動駕駛事故、誘導(dǎo)危險行為等安全問題同社會生活密切相關(guān),無一不凸顯出人工智能的“雙刃劍”作用。這種風(fēng)險甚至隨著人工智能應(yīng)用領(lǐng)域的不斷擴(kuò)大而越來越多。根據(jù)網(wǎng)絡(luò)安全公司Surfshark于2023年發(fā)布的報告顯示,人工智能翻車事故(AI incident)的數(shù)量在十年時間增長了15倍。[2]
總體上看,關(guān)于技術(shù)的研究可以分成賦能和風(fēng)險兩大視角。前者關(guān)注技術(shù)運(yùn)用于不同場景中所產(chǎn)生的價值,以及如何最大程度發(fā)揮技術(shù)的功效;后者則關(guān)注技術(shù)對人類社會帶來的問題與隱患,探討應(yīng)如何在技術(shù)發(fā)展及運(yùn)用過程中對與之相關(guān)的社會安全風(fēng)險進(jìn)行治理。有關(guān)人工智能實(shí)踐運(yùn)用的研究同樣與人工智能的發(fā)展歷程相伴相隨。特別是隨著GPT-4等更為復(fù)雜的模型問世,以及各類隱患不斷被曝光,人工智能社會安全風(fēng)險問題日漸受到學(xué)界關(guān)注。由于涉及領(lǐng)域眾多且與人類自身息息相關(guān),此類討論涉及工學(xué)、哲學(xué)、法學(xué)、管理學(xué)、教育學(xué)等諸多學(xué)科乃至實(shí)務(wù)領(lǐng)域,并且大致呈現(xiàn)出積極與消極兩種態(tài)度。積極一派強(qiáng)調(diào)人工智能的社會安全風(fēng)險是有限或可控的,認(rèn)為人類有能力如控制其他技術(shù)一樣控制人工智能,在既定的框架內(nèi)同其展開合作;而消極一派則對人類在人工智能面前的行動及風(fēng)險應(yīng)對能力表示深刻擔(dān)憂,認(rèn)為人工智能不僅可能從體力與腦力維度實(shí)現(xiàn)對人的全面超越,甚至直接威脅到人類文明。
目前,關(guān)于人工智能安全風(fēng)險的討論日漸增多,但主要從技術(shù)和法律的角度切入,內(nèi)容較為分散,大多直接提出對策和建議,尤其缺乏對人工智能社會安全風(fēng)險的整體性和理論性分析。事實(shí)上,催生第四次科技革命的人工智能技術(shù)同以往的技術(shù)發(fā)展有著明顯的不同,其對社會的革命性變革力度更大,影響更為深遠(yuǎn),只有從整體上認(rèn)識和把握人工智能技術(shù)的社會效應(yīng)及其風(fēng)險,才談得上未雨綢繆、見微知著,提早進(jìn)行風(fēng)險防控和有效規(guī)制。因此,本文首先在風(fēng)險社會的背景下梳理了技術(shù)風(fēng)險反思的基本理論,討論了技術(shù)的實(shí)踐性和風(fēng)險性問題,進(jìn)而基于人工智能的技術(shù)特性探討其社會安全風(fēng)險的生成機(jī)理,接著從類型上對風(fēng)險的具體表現(xiàn)形式進(jìn)行劃分和剖析,最后探討了實(shí)現(xiàn)人工智能風(fēng)險長效治理的機(jī)制和路徑。
盡管作為一種革命性的新興技術(shù),人工智能在功能和應(yīng)用等多方面表現(xiàn)出同其他技術(shù)的顯著差異,但至少目前仍作為一種延展人類能力邊界的高級工具而被使用。人和人工智能依舊保持主客關(guān)系,并未超出合理的人機(jī)分工。[3]同樣地,人工智能的社會安全風(fēng)險仍然是在人工智能技術(shù)的進(jìn)步與運(yùn)用中,社會成員在技術(shù)與社會的互動中受到的直接或間接的負(fù)面影響。從本質(zhì)上講,這種“人-技術(shù)”關(guān)系問題亦屬于技術(shù)風(fēng)險的研究范疇。
技術(shù)指人類為了滿足自身需求,基于自然規(guī)律而改造世界和自身的所有方法、技能和手段的總和,包括各種工藝方法、操作技能、勞動工具和工程裝置等。技術(shù)與科學(xué)既有內(nèi)在關(guān)聯(lián),又有一定區(qū)別??茖W(xué)的目的是探索現(xiàn)象背后的客觀規(guī)律,認(rèn)識世界運(yùn)行的因果關(guān)系;而技術(shù)則追求實(shí)用,強(qiáng)調(diào)解決現(xiàn)實(shí)問題或者達(dá)到某種實(shí)用目的??梢哉f,技術(shù)和技術(shù)運(yùn)用是同義詞,即技術(shù)就是一種運(yùn)用。換言之,并不存在完全脫離實(shí)踐的技術(shù),或者說完全客觀的技術(shù)。簡·E·芳汀(Jane E.Fountain)在《構(gòu)建虛擬政府》一書中即探討了“行動者內(nèi)嵌于認(rèn)知、文化、社會以及制度結(jié)構(gòu)的特性是怎樣影響對因特網(wǎng)和相關(guān)IT技術(shù)的設(shè)計(jì)、感知和使用”的問題。[4]正所謂“行動中的技術(shù)”,技術(shù)自誕生伊始便存在于人與世界的互動中,與其他事物產(chǎn)生普遍、客觀及多樣的聯(lián)系。因此歸根結(jié)底,實(shí)踐性是技術(shù)的根本屬性之一,脫離了人的主觀能動性和社會實(shí)踐性也就無所謂技術(shù)。
從歷史上看,技術(shù)的發(fā)展史也就是人類的實(shí)踐史。從石器時代到青銅時代、再到鐵器時代,采礦、冶煉技術(shù)的發(fā)展帶來了生產(chǎn)工具的進(jìn)步,進(jìn)而推動生產(chǎn)力向前發(fā)展,人類脫離了原始社會的茹毛飲血,創(chuàng)造了輝煌的農(nóng)耕文明。技術(shù)同樣作用于防災(zāi)減災(zāi)、保護(hù)人類安全等方面,在應(yīng)對“社會以外力量”[5]所引發(fā)的災(zāi)害中,起到如疏導(dǎo)洪澇、治療疾病等作用,為社會穩(wěn)定提供有力保障。近代以來,蒸汽機(jī)的發(fā)明將人類帶入工業(yè)文明,機(jī)械工程、化學(xué)工業(yè)、冶金術(shù)等領(lǐng)域的技術(shù)突飛猛進(jìn),催生了工廠和大規(guī)模生產(chǎn),鐵路和大規(guī)模運(yùn)輸時代得以到來。第一次機(jī)器革命開啟了人類現(xiàn)代意義上的生產(chǎn)與生活。[1]8-9隨著電力的運(yùn)用和普及,電氣化生產(chǎn)進(jìn)一步推動生產(chǎn)力快速發(fā)展,人類社會在短短上百年的時間創(chuàng)造了比此前幾千年創(chuàng)造的總和還要多的生產(chǎn)力。這些都是技術(shù)在社會發(fā)展中的正向作用和功能。
正因?yàn)檫@種實(shí)踐的特性,技術(shù)在大面積應(yīng)用中必然會對社會產(chǎn)生多種影響和效用。馬克思、恩格斯等人在當(dāng)時就已敏銳地注意到機(jī)器生產(chǎn)和工業(yè)化帶來的就業(yè)替代、生態(tài)污染等問題??傮w來說,工業(yè)時代的風(fēng)險根源于技術(shù)實(shí)踐的外部效應(yīng),即偏離技術(shù)運(yùn)用本意的負(fù)面效應(yīng)。例如,運(yùn)用電力技術(shù)的目的是為了發(fā)動機(jī)器,提高工作效能,但操作不當(dāng)就可能造成用電傷害事故;汽車制造技術(shù)的目的是為了生產(chǎn)高速交通工具,但車輛的普及也會帶來交通事故;醫(yī)療技術(shù)的使用是為了治病救人,但在綜合性因素的影響下也可能出現(xiàn)醫(yī)療衛(wèi)生事故等。整體上看,這類安全風(fēng)險具有以下幾個共同特點(diǎn)。第一,從影響范圍來說,往往是對個體和少數(shù)人群造成健康層面的傷害,并沒有對社會成員的整體健康帶來威脅。第二,從形成原因來說,往往是因?yàn)槿祟惒僮鞑划?dāng)或者技術(shù)設(shè)備故障所引發(fā),大量的安全生產(chǎn)事故都屬于這一類,甚至包括影響較為嚴(yán)重的?;繁ㄊ鹿实?。因此,傳統(tǒng)工業(yè)技術(shù)的安全往往依靠操作者技能培訓(xùn)、安全監(jiān)管制度和技術(shù)本身的進(jìn)步和發(fā)展來實(shí)現(xiàn),屬于安全生產(chǎn)的范疇。第三,這類事故的發(fā)生具有一定的隨機(jī)性、概率性,因此可以靠理性計(jì)算進(jìn)行預(yù)測,甚至可以通過納入保險等方式減少社會的總體傷害,提高整體的社會福利。例如,為了保障勞動者的權(quán)益,大多數(shù)國家都建立了工傷保險制度,即勞動者在工作中或在規(guī)定的特殊情況下,遭受意外傷害或患職業(yè)病導(dǎo)致暫時或永久喪失勞動能力以及死亡時,勞動者或其遺屬可以從國家和社會獲得物質(zhì)幫助。
當(dāng)然,更為重要的是,這類風(fēng)險并沒有產(chǎn)生規(guī)模性的、社會性的影響和后果。所謂“社會性”,根據(jù)烏爾里?!へ惪?Ulrich Beck)的看法,是指“不僅是對健康的威脅,而且是對合法性、財產(chǎn)和利益的威脅。進(jìn)一步說,風(fēng)險社會的風(fēng)險不僅是自然和人類健康的次級問題,而且是這些副作用所帶來的社會的、經(jīng)濟(jì)的和政治的后果——市場崩潰、資本貶值、對工業(yè)決策的官僚化審查、新市場的開辟、巨額浪費(fèi)、法律程序和威信的喪失”[6]21-22。因此傳統(tǒng)工業(yè)技術(shù)風(fēng)險一般是局部的、可感知的、后果有限的、相對可控的。在近代社會技術(shù)創(chuàng)新及政治革新的基礎(chǔ)上,人類已經(jīng)形成一套系統(tǒng)的技術(shù)及制度手段對此類風(fēng)險進(jìn)行預(yù)防、預(yù)測與響應(yīng),例如,生物制藥的發(fā)展、行業(yè)保險的建立等。
第二次世界大戰(zhàn)后,特別是20世紀(jì)70年代以來,隨著工業(yè)化、信息化和全球化的深入發(fā)展,現(xiàn)代科學(xué)技術(shù)也迎來了前所未有的加速期和爆發(fā)期。不到半個世紀(jì)的時間里,現(xiàn)代生產(chǎn)就經(jīng)歷了以電子信息技術(shù)為主的工業(yè)3.0,以及基于信息物理融合的工業(yè)4.0。計(jì)算機(jī)、核能、生物等領(lǐng)域的發(fā)展成就超過了此前很長一段時期的積累。但是,也出現(xiàn)了切爾諾貝利核泄漏、全球氣候變暖和環(huán)境污染等重大風(fēng)險事故,對人類社會安全造成了更為深層和長期的影響,引發(fā)學(xué)界對技術(shù)風(fēng)險的再次深入反思。這時的思考也超越了安全生產(chǎn)的范疇,進(jìn)一步拓展到社會層面,聚焦技術(shù)對社會形態(tài)與生產(chǎn)生活方式的影響。可以說,總體上看,理論層面的反思集中體現(xiàn)為“風(fēng)險社會”理論。這一理論集中對新興科學(xué)技術(shù)對社會的廣泛深遠(yuǎn)的影響進(jìn)行了深刻剖析,特別是基于對社會結(jié)構(gòu)、社會未來形態(tài)等方面的思考。在這一理論視角下,現(xiàn)代技術(shù)的風(fēng)險主要體現(xiàn)在三個方面。
第一,被制造性。風(fēng)險(risk)是個古老的概念,甚至可以追溯到大航海時代的投資行為。但眾多思想家都一致認(rèn)為,傳統(tǒng)的“風(fēng)險”與現(xiàn)代的“風(fēng)險”具有不同的內(nèi)涵和表征。安東尼·吉登斯(Anthony Giddens)就將現(xiàn)代社會的風(fēng)險分為外部風(fēng)險(external risk)和被制造出來的風(fēng)險(manufactured risk)。外部風(fēng)險就是“來自外部的、因?yàn)閭鹘y(tǒng)或者自然的不變性和固定性所帶來的風(fēng)險”,包括千百年來一直伴隨著人類社會的自然災(zāi)害,如地震、海嘯、洪水等,以及國家之間的沖突和戰(zhàn)爭等。這里的“外部”主要是指外在于人類社會,從人類之外孕育和策源的。而所謂被制造出來的風(fēng)險,指的是“由我們不斷發(fā)展的知識對這個世界的影響所產(chǎn)生的風(fēng)險,是指我們沒有多少歷史經(jīng)驗(yàn)的情況下所產(chǎn)生的風(fēng)險”[7]22。雖然吉登斯也強(qiáng)調(diào)全球化的重要影響,但這里“不斷發(fā)展的知識”顯然與現(xiàn)代科學(xué)技術(shù)密切相關(guān),與基于科學(xué)認(rèn)識之上的技術(shù)實(shí)踐相關(guān)。道理很簡單,如果人類僅僅停留在科學(xué)研究的層面,那么僅僅是認(rèn)識了世界(包括人類自身),只有運(yùn)用技術(shù)的實(shí)踐活動才是真正改造世界。而由于技術(shù)本身的實(shí)踐性本質(zhì),人類“不斷發(fā)展的知識對這個世界的影響”其實(shí)正是技術(shù)發(fā)展及其運(yùn)用所產(chǎn)生的影響。而且,隨著全球化進(jìn)程的加速,外部風(fēng)險占主導(dǎo)地位逐漸轉(zhuǎn)變成為被制造出來的風(fēng)險占主要地位。[7]23
第二,不確定性。從主流來看,目前主要是從不確定性的角度來認(rèn)識和界定技術(shù)風(fēng)險。盧曼認(rèn)為,風(fēng)險就是“未來不確定性的危害可能性”[8]。吉登斯明確提出,被制造出來的風(fēng)險與外部風(fēng)險不同,人們很難準(zhǔn)確知道這種風(fēng)險的大小和程度,“而且在很多情況下,直到很晚,我們也不能確切知道這種風(fēng)險的大小”[7]25。例如,對于震驚世界的烏克蘭切爾諾貝利核電站事故,人們很難知道這個事故的長期后果是什么。這種不確定性是與現(xiàn)代理性主義相對立的概念。理性主義彰顯人類認(rèn)識世界和人類自身的理性能力,強(qiáng)調(diào)對世界運(yùn)行規(guī)律的把握以及對未來的預(yù)測和干預(yù)。但不確定性打破了理性主義神圣的光環(huán)。正是在這種情形下,甚至所謂的謊言和謠言有時也能夠起到減少風(fēng)險的作用,因?yàn)椤霸诖蟛糠直恢圃斐鰜淼娘L(fēng)險中,是否存在風(fēng)險甚至都可能受到懷疑。我們不能預(yù)先知道我們什么時候真的在散布謠言,什么時候又沒散布謠言”[7]27。對于現(xiàn)代社會來說,這當(dāng)然是最為吊詭的事情。貝克也認(rèn)為,風(fēng)險社會的“風(fēng)險”不同于工業(yè)時代的風(fēng)險之處在于,后者更多是指針對個體的不確定性,正如哥倫布在航海時所認(rèn)識的“風(fēng)險”,而在后現(xiàn)代社會,如因核裂變和放射性廢料儲藏而出現(xiàn)的問題,“對整個人類來說這是全球性的威脅”[6]18?;蛘哒f,傳統(tǒng)的風(fēng)險“有著勇敢和冒險的意思,而不意味著地球上所有生命自我毀滅這樣的威脅”[6]18,這與后現(xiàn)代風(fēng)險是不同的。同時,“文明的風(fēng)險通常是不被感知的,并且只出現(xiàn)在物理和化學(xué)的方程式中(比如食物中的毒素或核威脅)。過去,危險能夠追究到醫(yī)療技術(shù)的缺乏,但現(xiàn)在,問題的根源在于工業(yè)的過度生產(chǎn)。在面對風(fēng)險社會時,科學(xué)和法律制度建立起來的風(fēng)險計(jì)算方法已經(jīng)崩潰了,因?yàn)橄裨幽苁鹿蔬@樣的災(zāi)害的影響已經(jīng)超出了世代,那些當(dāng)時還未出生的或者多年以后在距離事故發(fā)生地很遠(yuǎn)的地方出生的人都會受到這種影響。在風(fēng)險社會中,不明的和無法預(yù)料的后果成為歷史和社會的主宰力量?!盵6]18-20因此,貝克認(rèn)為,現(xiàn)代社會的風(fēng)險是工業(yè)化的副產(chǎn)品,并且隨著它的全球化的不斷深入而加劇。此外,例如瑪麗·道格拉斯基于社會文化研究立場,同樣對依賴經(jīng)濟(jì)學(xué)“成本-受益”計(jì)算和推崇專家知識的傳統(tǒng)風(fēng)險評估機(jī)制進(jìn)行了批判。[9]
第三,再分配性。再分配性是技術(shù)風(fēng)險的社會效應(yīng)最重要的體現(xiàn)之一。不論是傳統(tǒng)技術(shù)風(fēng)險還是新興技術(shù)風(fēng)險,人們一般認(rèn)為都是無差別作用于社會成員的。但貝克對此持明確否認(rèn)的態(tài)度,他認(rèn)為,“在完全由化學(xué)、生物和技術(shù)術(shù)語引導(dǎo)的對環(huán)境問題的討論中存在著一種危險,即不知不覺地把人僅僅歸結(jié)為一個有機(jī)物?!盵6]22也就是說,沒有從社會關(guān)系和社會分化的角度來看待人及其面對的風(fēng)險和威脅。馬克思主義認(rèn)為,人是社會關(guān)系的總和,因此社會中的人并不是單純的生物形態(tài),而是有著各種社會身份和關(guān)系的社會存在。因?yàn)槊總€人的生活環(huán)境、經(jīng)濟(jì)地位、工作性質(zhì)都不同,即使是同樣的風(fēng)險事件,不同人所面臨的威脅、損失都不相同。例如,如果以平均值來看,全球的糧食產(chǎn)量是足夠?qū)崿F(xiàn)人類溫飽的,但其實(shí)糧食并非平均分給每個地球人。同樣的道理,如果發(fā)生糧食減產(chǎn)風(fēng)險,每個人的口糧也并非等比例縮減。這種風(fēng)險的分配顯然受到經(jīng)濟(jì)社會格局、秩序和權(quán)力結(jié)構(gòu)的制約和影響。進(jìn)一步看,在技術(shù)大行其道的后現(xiàn)代社會,在社會權(quán)力和分配結(jié)構(gòu)的框架內(nèi),技術(shù)的運(yùn)用者和技術(shù)的受用者之間也存在很大的差異,不同的社會位置和關(guān)系就會對風(fēng)險的分配和分擔(dān)造成最為直接的影響。
風(fēng)險社會理論深刻揭示了現(xiàn)代化、技術(shù)化進(jìn)程所造成的社會性后果,對技術(shù)發(fā)展帶來的“文明的風(fēng)險”提出了警示。在這里,技術(shù)風(fēng)險既是風(fēng)險社會的主要成因,也是風(fēng)險社會的重要特征。[10]但對于人工智能技術(shù)風(fēng)險的研究來說,風(fēng)險社會理論似乎還缺少了一些更明確和深入的內(nèi)容。這主要體現(xiàn)在:不確定性是技術(shù)風(fēng)險的主要特征,但如何深度認(rèn)識人工智能的不確定性?不確定性是否僅僅意味著模糊和無方向感?另外,人工智能技術(shù)風(fēng)險的影響是否僅僅停留在人類的健康、身體層面?是否會,以及如何會對社會生產(chǎn)、社會生活乃至社會結(jié)構(gòu)等深層次因素造成影響?切爾諾貝利核泄漏事故是啟發(fā)貝克的風(fēng)險社會理論思考的重要誘因,但類似核泄漏事故事實(shí)上并未如人工智能一般對社會生產(chǎn)方式和生活秩序造成顛覆性、重構(gòu)性影響。
人工智能在1956年達(dá)特茅斯會議上首次被提出,如今成功越過科學(xué)與應(yīng)用之間的“技術(shù)鴻溝”,在理論、技術(shù)與應(yīng)用方面都取得了重要突破。[11]作為模擬人類思維活動并按照既定目標(biāo)開展行動的計(jì)算系統(tǒng),人工智能以數(shù)據(jù)、算力、算法三大要素為核心,愈發(fā)體現(xiàn)出“人類高級工具”這一特征。[12-13]區(qū)別于貝克在20世紀(jì)80年代關(guān)注的核能、化學(xué)、生物等技術(shù),人工智能技術(shù)具有顯著的高速迭代、通用性、顛覆性和重塑性等特性。
第一,高速迭代,指人工智能的創(chuàng)新速度在60余年間實(shí)現(xiàn)了指數(shù)級增長,取得了長足的進(jìn)步。摩爾定律指出,集成電路上可容納的晶體管數(shù)目約每經(jīng)過18—24個月便會增加一倍?;谶@一推論,新的產(chǎn)出與應(yīng)用將隨著信息技術(shù)的持續(xù)升級而不斷涌現(xiàn)。特別是近十年來,伴隨科學(xué)研究的深入,以及神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)和深度學(xué)習(xí)等技術(shù)的運(yùn)用,人工智能的性能愈發(fā)取得大幅提升。[14]如今,ChatGPT作為生成式人工智能發(fā)展的一個重要里程碑,不僅可以就某些問題做出搜索引擎式的規(guī)范回答,還可以完成更具綜合性、邏輯性和復(fù)雜性的任務(wù),例如提供建議、編寫程序、創(chuàng)作樂曲等。這一現(xiàn)象級應(yīng)用產(chǎn)品實(shí)現(xiàn)了對原先語言機(jī)械、功能單一的人工智能聊天技術(shù)的重大突破,引領(lǐng)了諸多行業(yè)的變革,甚至直接推動社會的智能化轉(zhuǎn)型。
第二,通用性,指相較于僅“專用”于某些領(lǐng)域的技術(shù)而言,人工智能技術(shù)的應(yīng)用范圍更加廣泛。通過模擬人腦思維的更高階段,人工智能可以實(shí)現(xiàn)知識的自主創(chuàng)造。[15]因此,人工智能不需要行為主體的時刻控制就能夠做出決策和行動,并且可以順利適應(yīng)相應(yīng)的工作環(huán)境,這也為其在不同領(lǐng)域中的應(yīng)用提供了有力保障。憑借降低成本、提高效率、優(yōu)化服務(wù)等優(yōu)勢,人工智能目前已同醫(yī)療、教育、金融、交通等領(lǐng)域跨界融合,在互聯(lián)互通與快速擴(kuò)散的同時,進(jìn)一步實(shí)現(xiàn)更高層級的創(chuàng)新應(yīng)用。因此有觀點(diǎn)認(rèn)為,人工智能作為繼蒸汽、電力與信息技術(shù)后新一輪工業(yè)革命的先導(dǎo),具有“通用目的技術(shù)”(general purpose technology,簡稱GPT)的特征,能夠在與新舊產(chǎn)業(yè)的交互中助力全球經(jīng)濟(jì)增長與包容性發(fā)展,最終推動經(jīng)濟(jì)形態(tài)的整體性變革。[16-17]
第三,顛覆性,指人工智能技術(shù)在實(shí)用領(lǐng)域得到廣泛運(yùn)用的同時,還會對傳統(tǒng)生產(chǎn)生活方式產(chǎn)生顛覆性影響。從本質(zhì)上講,發(fā)明創(chuàng)新是一種對各種要素的組合,人工智能技術(shù)的飛躍與應(yīng)用亦是如此,即通過對原有要素的嵌入與整合,造就更大可能的創(chuàng)新。[18]更進(jìn)一步地,人工智能技術(shù)賦能不應(yīng)被視為線性的增長,而是一種指數(shù)性的提升,是量變引發(fā)的質(zhì)變。它不僅能夠?qū)崿F(xiàn)一般意義上技術(shù)進(jìn)步帶來的便利,甚至?xí)ㄟ^破壞現(xiàn)有的知識體系,進(jìn)而顛覆某些長期以來一直存在的模式。[19]例如通過對汽車動力系統(tǒng)進(jìn)行優(yōu)化,可以實(shí)現(xiàn)提高速度、節(jié)約能源、提升舒適度等目標(biāo),延展汽車原本的功能。而人工智能一旦進(jìn)入駕駛領(lǐng)域,則有望以無人駕駛完全替代原先的駕駛員駕駛,從而引發(fā)駕駛模式革命性的突破,由此帶來例如責(zé)任判定等一系列新問題也是此前鮮有涉及的。聚焦宏觀層面,隨著人工智能的發(fā)展,流動性進(jìn)一步增大,未來社會結(jié)構(gòu)甚至將從“人-技術(shù)”雙層面演變?yōu)椤叭?智能技術(shù)-社會”三層面。[20]
第四,重塑性,指伴隨人工智能技術(shù)大規(guī)模普及后帶來的數(shù)字化轉(zhuǎn)型,部門、行業(yè)、社會乃至人自身的狀態(tài)都有可能被改變,并在技術(shù)的作用下實(shí)現(xiàn)更深層次的重塑。習(xí)近平總書記指出:“新一輪科技革命和產(chǎn)業(yè)變革正在重構(gòu)全球創(chuàng)新版圖、重塑全球經(jīng)濟(jì)結(jié)構(gòu)?!盵21]一方面,人工智能可以再造新的流程。人工智能作為一項(xiàng)新興技術(shù)嵌入到原有業(yè)務(wù)管理流程中,能夠發(fā)揮解放、分解、取代和增強(qiáng)的功效,改變組織的工作方式,進(jìn)而構(gòu)建“AI+”的新形態(tài)。[22]以出版產(chǎn)業(yè)為例,人工智能賦能策劃、審校、印制及發(fā)行等環(huán)節(jié),以自動化、智能化、系統(tǒng)化的智能出版流程助力傳統(tǒng)出版與新興出版融合發(fā)展。[23]另一方面,人工智能可以再造新的角色。工業(yè)革命就重塑了社會中的時間觀念,使人們對時間的把握更加精確和嚴(yán)格。同理,為了構(gòu)建智能時代人機(jī)和諧關(guān)系,個人同樣有必要且不得不對原先的社會行為做出相應(yīng)的改變。例如,在生產(chǎn)領(lǐng)域,人工智能在推動傳統(tǒng)行業(yè)轉(zhuǎn)型升級的同時,對角色定位、部門分工等內(nèi)容提出新的要求與挑戰(zhàn),呼吁從業(yè)者適時更新自身的觀念與技能。
基于上述特性,同傳統(tǒng)技術(shù)風(fēng)險相比,人工智能技術(shù)風(fēng)險在影響范圍和深度兩方面呈現(xiàn)新的特點(diǎn)。
一方面是影響群體的廣泛性。飛速發(fā)展的人工智能目前已在許多領(lǐng)域和行業(yè)得到運(yùn)用,幾乎無差別地覆蓋了生產(chǎn)生活的各個方面。同時,數(shù)字化成為不可逆轉(zhuǎn)的時代潮流,在沉沒成本等因素的作用下,人工智能技術(shù)一旦進(jìn)入到某個領(lǐng)域便很難被移除。因此,人類幾乎沒有可能再像規(guī)避傳統(tǒng)風(fēng)險一樣順利規(guī)避人工智能帶來的社會安全風(fēng)險。工業(yè)時代中,某項(xiàng)技術(shù)引發(fā)的風(fēng)險往往只針對一定范圍內(nèi)的群體。例如,為避免遭遇可能發(fā)生的空難,人類還有其他交通工具可供出行選擇。而在大數(shù)據(jù)與人工智能時代中,不論是瀏覽網(wǎng)頁還是線上購物,只要試圖在互聯(lián)網(wǎng)中同其他對象進(jìn)行聯(lián)系,個人隱私便會時常暴露于人工智能的掌控之下。英國政治咨詢公司“劍橋分析”在2018年被爆出通過至多有幾十萬人參加的智力競賽應(yīng)用程序,最終竊取了至少8700萬份臉書用戶的數(shù)據(jù)。[24]這一數(shù)據(jù)濫用問題的影響范圍顯然是其他傳統(tǒng)技術(shù)難以達(dá)到的,也充分證明了人工智能社會安全風(fēng)險具有規(guī)?;?、常態(tài)化的特點(diǎn)。在這一情境下,無處不在的風(fēng)險點(diǎn)使社會群體被進(jìn)一步籠罩在技術(shù)威脅的陰影中,對安全乃至生存問題的深入關(guān)注也推動了人工智能技術(shù)風(fēng)險的社會建構(gòu)。
另一方面是影響程度的深刻性。傳統(tǒng)技術(shù)風(fēng)險的影響往往易被公眾直接感知,且很大程度上表現(xiàn)在物理的、個體的層面。而人工智能風(fēng)險在影響程度方面顯著區(qū)別于傳統(tǒng)技術(shù)風(fēng)險,表現(xiàn)為模糊性、疊加性和社會性的集合。其一,許多人工智能風(fēng)險隱藏于技術(shù)應(yīng)用的“合理外衣”之下,并被有意或無意地掩蓋。即使公眾正親身經(jīng)歷來自人工智能的威脅,仍可能對此缺乏察覺以及預(yù)防。因而這一特性使得公眾更易在無形中受到侵犯,例如APP借默認(rèn)勾選隱私條款等手段違規(guī)收集用戶信息的情況屢見不鮮。其二,因?yàn)槿斯ぶ悄芘c其他技術(shù)表現(xiàn)為耦合發(fā)展而非絕對替代的關(guān)系,所以人工智能技術(shù)風(fēng)險也是在其他技術(shù)風(fēng)險之上的疊加與演進(jìn)。例如人工智能應(yīng)用于自動駕駛領(lǐng)域,不僅同樣可能發(fā)生安全事故,還會引發(fā)新的倫理爭議。因此,人工智能技術(shù)風(fēng)險也更加復(fù)雜、不穩(wěn)定和難以控制。其三,隨著人工智能技術(shù)發(fā)展水平的不斷提升,以及應(yīng)用領(lǐng)域的不斷擴(kuò)張,其帶來風(fēng)險的層次也會隨之加深。相較于主要影響生命、健康等外在層面的機(jī)器爆炸或交通事故,人工智能風(fēng)險對人類的沖擊進(jìn)一步拓寬到權(quán)利、價值等內(nèi)在層面,乃至引發(fā)關(guān)于人的生存發(fā)展將受到威脅等深層次的擔(dān)憂。特別是運(yùn)用于關(guān)鍵領(lǐng)域的人工智能一旦出現(xiàn)問題,則更有可能在全社會范圍內(nèi)產(chǎn)生“牽一發(fā)而動全身”的后果,對政治、經(jīng)濟(jì)、文化等各方面的影響甚至?xí)綍r間和空間的限制。
技術(shù)的實(shí)踐性說明,技術(shù)并非絕對獨(dú)立的存在。人工智能社會安全風(fēng)險有別于傳統(tǒng)的自然災(zāi)害或人為事故,是技術(shù)、技術(shù)的使用者和受眾等多重主體相互作用的結(jié)果,可以被視為技術(shù)因素與社會因素的結(jié)合。[25]參考已有研究成果,本文認(rèn)為,其中既有源于人工智能技術(shù)本身的本體性風(fēng)險,又有源于技術(shù)利用主體的主體性風(fēng)險,還包括在技術(shù)利用過程中對社會群體產(chǎn)生影響的客體性風(fēng)險。
本體性風(fēng)險是指由于人工智能技術(shù)本身發(fā)展的不成熟、不完善,從而可能在算法、數(shù)據(jù)等方面產(chǎn)生一系列的問題。該類風(fēng)險往往與技術(shù)的利用者和利用過程無關(guān),在人工智能產(chǎn)品“出廠”那一刻起就決定了風(fēng)險發(fā)生的必然性。因此,本體性風(fēng)險主要依靠工程技術(shù)的手段進(jìn)行防范??傮w而言,本體性風(fēng)險包括技術(shù)事故、技術(shù)漏洞等方面。
1.技術(shù)事故
作為一項(xiàng)方興未艾的高新技術(shù),人工智能盡管在許多領(lǐng)域都實(shí)現(xiàn)了突破,但仍存在許多提升空間。因此,人工智能在設(shè)計(jì)及后續(xù)運(yùn)行的過程中,不可避免地會因設(shè)計(jì)不合理或缺乏足夠訓(xùn)練冗余量等因素而出現(xiàn)數(shù)據(jù)誤差或運(yùn)算錯誤等,從而產(chǎn)生一系列事故。[26]例如許多醫(yī)生在使用醫(yī)療健康領(lǐng)域的人工智能系統(tǒng)Watson(沃森)時,發(fā)現(xiàn)其給出了“多個不安全、不正確的治療意見”。更有甚者,Watson還出現(xiàn)過給有出血癥狀的癌癥病人開容易導(dǎo)致出血的藥品的情形。[27]當(dāng)然,這類事故不僅可能發(fā)生在人工智能的使用過程中,也同樣是其他技術(shù)普遍會面臨的問題。
2.技術(shù)漏洞
快速發(fā)展的人工智能技術(shù)也存在一些特有的技術(shù)缺陷或技術(shù)漏洞,導(dǎo)致一定的安全隱患,使其難以應(yīng)對來自數(shù)據(jù)或環(huán)境的不良影響。 對于復(fù)雜系統(tǒng)而言,類似問題甚至將直接引發(fā)全局性的后果。有研究指出,在輸入中施加細(xì)微擾動,就會沖擊機(jī)器學(xué)習(xí)模型固有的安全脆弱性,易使其得出錯誤的結(jié)果。在自動駕駛、人臉識別等敏感領(lǐng)域,這更是會帶來嚴(yán)峻的安全威脅。[28]例如,倘若在停車指示路牌上貼上一些簡單的貼紙,就可能會干擾到自動駕駛汽車的識別系統(tǒng),從而使其錯誤識別這個路牌。[29]
主體性風(fēng)險是指在人工智能技術(shù)的研發(fā)及使用過程中,因人類自身行為而直接導(dǎo)致的風(fēng)險。這類風(fēng)險產(chǎn)生的原因既包括人的疏忽等主觀上無意的行為,又包括人主觀上有意的行為,例如為滿足某些需求而利用人工智能侵犯他人權(quán)益等。因此,主體性風(fēng)險的應(yīng)對需要構(gòu)建相應(yīng)的制度規(guī)范體系??傮w而言,主體性風(fēng)險包括隱私侵犯、群體歧視、責(zé)任沖突和角色危機(jī)等方面。
1.隱私侵犯
隨著人工智能、大數(shù)據(jù)等技術(shù)的發(fā)展和普及,個人信息正被愈發(fā)頻繁地獲取并應(yīng)用于各種用途?;ヂ?lián)網(wǎng)時代,人工智能的人機(jī)交互與聯(lián)網(wǎng)能力使數(shù)據(jù)處理更加便捷,對隱私數(shù)據(jù)的大規(guī)模監(jiān)測與處理因而成為可能。[30]一方面,隱私侵犯更加呈現(xiàn)隱蔽性的特征;另一方面,隱私暴露程度在智能算法作用下大幅增加。由于個體數(shù)據(jù)全貌僅需一定的片段信息就可以被獲取,因而隱私侵犯還呈現(xiàn)出整體性特征。[31]與此同時,這類權(quán)益問題不僅可能發(fā)生在商業(yè)行為中,甚至也會受到公權(quán)力的影響。例如在公共安全領(lǐng)域,有學(xué)者針對人工智能賦能的唇語識別技術(shù)指出,一方面可能會有人惡意進(jìn)行唇語獲取識別,另一方面可能因存儲、使用等環(huán)節(jié)保護(hù)不當(dāng),而導(dǎo)致相關(guān)數(shù)據(jù)被竊取或?yàn)E用。[32]
2.群體歧視
眾多研究表明,盡管人工智能可以基于既定的、中立無偏的算法,在一定程度上減少人主觀感情色彩的影響,但也不能夠做到絕對客觀、公正與科學(xué)。[33]在選取數(shù)據(jù)、建構(gòu)模型及訓(xùn)練優(yōu)化等環(huán)節(jié)中,可能會受到制作者價值偏好的影響,或者數(shù)據(jù)來源會反映社會上存在的固有偏見,最終導(dǎo)致人工智能的決策判斷出現(xiàn)種族、性別歧視等不公平問題。值得注意的是,類似由人工智能做出的歧視在很大程度上看似中立,實(shí)則排斥了部分群體的間接歧視(indirect discrimination),這種更為隱蔽的差別影響同樣需要社會治理主體的認(rèn)真對待。[34]例如曾有研究指出,用于預(yù)測犯罪的COMPAS系統(tǒng)使黑人被告比白人被告更可能被錯誤地判斷為有更高的累犯風(fēng)險。[35]
3.責(zé)任沖突
隨著人工智能在決策領(lǐng)域的推廣,如何應(yīng)用人工智能的決策,以及如何界定人工智能決策的責(zé)任是值得思考的新問題?,F(xiàn)實(shí)中,多數(shù)決策場景均涉及了各主體的交互,是包含情感、倫理等因素的復(fù)雜權(quán)衡過程。而單純依靠數(shù)據(jù)與算法的人工智能則可能使決策變得“非人格化”,例如某些外賣騎手就陷入了被效率主義剝削的“算法困境”。更嚴(yán)重的是,類似決策引發(fā)的后果很難在設(shè)計(jì)者、使用者乃至監(jiān)管者等主體間劃分責(zé)任,甚至可能造成無人承擔(dān)責(zé)任的責(zé)任空場,從而誘發(fā)一系列倫理沖突或懶政怠政等問題。誠然,一般情況下,可以由人對人工智能的決策做出最終選擇。但在某些需要人工智能決策的、不確定性的場合,這種困境將帶來深刻不安。例如德國梅賽德斯-奔馳公司澳大利亞分公司高管麥卡錫指出,當(dāng)車禍無法避免時,無人駕駛汽車更傾向于犧牲路人以保護(hù)車內(nèi)人員的安全,由此引發(fā)了諸多關(guān)于生存權(quán)利的爭議。[36]
4.角色危機(jī)
人工智能在被應(yīng)用于日常生活與社會治理時,同樣會在觀念及行動層面對作為社會主體的人起到反作用。具有強(qiáng)大適用性的人工智能可能使人類對其產(chǎn)生過度的信任與依賴,甚至逐步完成原本應(yīng)由人完成的事項(xiàng)。[37]事實(shí)上,有關(guān)“科技進(jìn)步使人懶惰”的隱憂早已有之,不過在如今表現(xiàn)得更為明顯。例如,據(jù)美國一項(xiàng)對1000名18歲以上學(xué)生的調(diào)查顯示,有89%的學(xué)生在完成作業(yè)時使用過ChatGPT。[38]ChatGPT在教育領(lǐng)域的廣泛運(yùn)用就導(dǎo)致了一系列關(guān)于過度依賴人工智能從而降低學(xué)生學(xué)習(xí)能力、使其缺乏思考力和創(chuàng)造力的擔(dān)憂。更進(jìn)一步地,當(dāng)便利的人工智能技術(shù)不止作為工具本身而且在社會空間中長期存在時,就可能助長極端的理性主義(rationalism)和技治主義(technocracy),對人類原本的能力、價值乃至主體地位產(chǎn)生沖擊。
客體性風(fēng)險是指在人工智能規(guī)?;瘧?yīng)用過程中間接作用于部分社會群體,并對其產(chǎn)生例如社會排斥等長期性影響的風(fēng)險。盡管該類負(fù)外部性風(fēng)險同樣源于技術(shù)與社會的結(jié)合,但相較于主體性風(fēng)險而言,往往不是出自技術(shù)設(shè)計(jì)或使用者的本意,且難以在有限時間內(nèi)得到妥善應(yīng)對,因而需要更具針對性的治理機(jī)制創(chuàng)新??傮w而言,客體性風(fēng)險包括就業(yè)替代、數(shù)字鴻溝等方面。
1.就業(yè)替代
技術(shù)進(jìn)步往往伴隨著舊產(chǎn)業(yè)與舊職業(yè)的衰退乃至消亡。人工智能對就業(yè)市場的影響究竟是以替代效應(yīng)還是以創(chuàng)造效應(yīng)為主,學(xué)界對此莫衷一是。譬如有研究指出,人工智能可以促進(jìn)產(chǎn)業(yè)轉(zhuǎn)型升級,激發(fā)社會創(chuàng)新創(chuàng)業(yè)活力,從而創(chuàng)造新的就業(yè)機(jī)會。[39]盡管如此,人工智能對勞動與就業(yè)環(huán)境產(chǎn)生的顛覆性影響仍不容忽視。特別是在人工智能顯著輔助乃至替代人類的某些領(lǐng)域里,原先的人工崗位確實(shí)會在一定程度上受到威脅,進(jìn)而誘發(fā)失業(yè)、再教育、權(quán)益保障等方面的風(fēng)險。這種風(fēng)險將隨著以ChatGPT為代表的生成式人工智能的運(yùn)用而進(jìn)一步擴(kuò)張。例如,據(jù)美國高盛集團(tuán)發(fā)布的報告顯示,生成式人工智能可能對勞動力市場產(chǎn)生重大沖擊,“預(yù)計(jì)全球18%的工作崗位可由AI實(shí)現(xiàn)自動化,約3億個工作崗位將受到影響”[40]。
2.數(shù)字鴻溝
互聯(lián)網(wǎng)與人工智能在提高生活質(zhì)量的同時,也對人的數(shù)字素養(yǎng)提出了更高的要求。隨著社會信息化水平進(jìn)一步提升,文化程度偏低或年齡偏大的群體可能被逐漸排除在數(shù)字福利之外,由此產(chǎn)生的“數(shù)字鴻溝”等新的社會不平等問題值得關(guān)注。[41]在馬太效應(yīng)的影響下,甚至這種差異不僅僅體現(xiàn)在一個國家內(nèi)部不同的地區(qū)與群體上,還容易加劇各國之間原本就存在的信息以及財富不平等現(xiàn)象。例如以色列歷史學(xué)家、《人類簡史》和《未來簡史》的作者尤瓦爾·赫拉利就此指出:“單個國家不足以解決這個問題,何況不同的國家也會分化——有的國家會從人工智能中獲益,變得更加繁榮富裕,而有的國家會被遠(yuǎn)遠(yuǎn)地甩在后面?!盵42]
在世界經(jīng)濟(jì)社會加速分化,風(fēng)險呈現(xiàn)深度全球性和不確定性,以及全人類對權(quán)利、責(zé)任、公平、正義的追求日益增強(qiáng)的“烏卡”(VUCA)時代,更加需要實(shí)現(xiàn)“敏捷回應(yīng)、開放包容、韌性容錯”的技術(shù)善治。[43]整體而言,技術(shù)風(fēng)險的善治意味著在充分發(fā)揮新一代信息技術(shù)正面效用的同時,有效規(guī)避、控制或轉(zhuǎn)移其帶來的風(fēng)險,最大程度上實(shí)現(xiàn)興利除弊。2018年,習(xí)近平總書記在中共中央政治局第九次集體學(xué)習(xí)時指出:“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可靠、可控。”[44]
對于快速迭代創(chuàng)新的人工智能技術(shù)而言,單純依靠自上而下的監(jiān)管與處罰可能會扼殺創(chuàng)新主體的積極性,不利于新興產(chǎn)業(yè)的持續(xù)健康發(fā)展。同時,靜態(tài)的規(guī)制顯然也難以妥善應(yīng)對層出不窮的新問題、新挑戰(zhàn)。因此,在人工智能的利用方面,要以統(tǒng)籌技術(shù)賦能過程中的發(fā)展與安全為核心目標(biāo),構(gòu)建快速預(yù)見風(fēng)險、持續(xù)回應(yīng)變化、多元協(xié)調(diào)共治的敏捷治理體系,通過提高治理的前瞻性與敏捷性,最終實(shí)現(xiàn)對人工智能的全方位治理。[45]這既要求采取動態(tài)性、適應(yīng)性、包容性的發(fā)展策略,為技術(shù)進(jìn)步與創(chuàng)新提供充足的空間,又要求切實(shí)通過頂層設(shè)計(jì)、精細(xì)管理與機(jī)制革新,主動回應(yīng)新技術(shù)時代的治理風(fēng)險與挑戰(zhàn),對人工智能可能帶來的社會安全風(fēng)險進(jìn)行前瞻預(yù)測及快速反應(yīng)。[46]
首先,應(yīng)從政治的高度看待人工智能的使用及風(fēng)險治理,將滿足人民對美好生活的向往作為出發(fā)點(diǎn)和落腳點(diǎn),推動技術(shù)成果惠及民生。對于作為技術(shù)利用主體之一的政府部門而言,應(yīng)當(dāng)助推城市管理、公共安全、醫(yī)療保障等公共服務(wù)領(lǐng)域的數(shù)字化轉(zhuǎn)型,更好地發(fā)揮人工智能提升體驗(yàn)、態(tài)勢研判、前瞻預(yù)測等優(yōu)勢,以管理工具的變革推動社會治理的提效,使公眾充分享受到數(shù)字化與人工智能帶來的便利。還要注意處理好技術(shù)應(yīng)用過程中目的與手段的關(guān)系,克服技術(shù)主義和工具主義傾向,避免使“數(shù)字官僚”“面子工程”完全取代行之有效的傳統(tǒng)群眾工作方式。[47]此外,從硬件建設(shè)到軟件操作,將人工智能融入社會治理需要大量的高新技術(shù)人才。[48]因此,政府既要加大對優(yōu)秀數(shù)字人才的引進(jìn)力度,還應(yīng)通過技術(shù)培訓(xùn)、實(shí)踐運(yùn)用等途徑不斷提高工作人員的數(shù)字素養(yǎng)和信息化能力,以適應(yīng)信息化時代人工智能技術(shù)治理的要求。
同時,在人工智能技術(shù)狂飆突進(jìn)的今天,政府還要積極迎接人工智能對人類自由、正義等價值帶來的挑戰(zhàn)。歸根結(jié)底,技術(shù)的利用應(yīng)當(dāng)堅(jiān)持以人為本的理念,將實(shí)現(xiàn)人的全面發(fā)展作為核心目標(biāo)。因此,政府為更好地應(yīng)對就業(yè)替代、數(shù)字鴻溝等社會排斥風(fēng)險,賦予每一位公民更加平等的參與權(quán)利,一是要推進(jìn)普及性技術(shù)教育培訓(xùn),提升公民在網(wǎng)絡(luò)時代的數(shù)字素養(yǎng)和技能,使其重新適應(yīng)勞動力市場的要求;二是要推進(jìn)互聯(lián)網(wǎng)應(yīng)用及產(chǎn)品的適老化改造,為老年人等數(shù)字弱勢群體提供更具針對性的信息服務(wù),從而彌合現(xiàn)實(shí)中存在的“接入溝”,實(shí)現(xiàn)人工智能的開放、共享。[49]
技術(shù)的發(fā)展和運(yùn)用始終是在人的主導(dǎo)下進(jìn)行的,因此,技術(shù)生態(tài)是一種社會性、制度性和文化性的環(huán)境。為了應(yīng)對未來深度的不確定性,需要營造人文良善的技術(shù)生態(tài)。一方面,要加強(qiáng)人工智能的應(yīng)用創(chuàng)新,以技術(shù)的優(yōu)化提升幫助實(shí)現(xiàn)人工智能的向善運(yùn)用。對此,一是要把握好數(shù)字化、網(wǎng)絡(luò)化、智能化發(fā)展方向,牢固抓住數(shù)字時代機(jī)遇,實(shí)現(xiàn)產(chǎn)學(xué)研深度融合,推動針對算法缺陷等固有問題的行業(yè)合作攻關(guān),助力技術(shù)的迭代升級,在提高人工智能發(fā)展優(yōu)勢的同時主動規(guī)避可能發(fā)生的風(fēng)險。二是要在需求導(dǎo)向的基礎(chǔ)上強(qiáng)化人工智能的場景應(yīng)用。既要推動人工智能在能夠顯著提高生產(chǎn)水平和生活質(zhì)量的領(lǐng)域中的合理使用,充分發(fā)揮技術(shù)創(chuàng)新對人類發(fā)展與社會進(jìn)步的積極作用,又要尤為注意某些領(lǐng)域存在的例如侵犯他人權(quán)益、引發(fā)倫理爭議等安全風(fēng)險,并積極采取提高人工智能系統(tǒng)運(yùn)行的透明性和解釋性等方式加以預(yù)控。[50]
另一方面,要推動實(shí)現(xiàn)人工智能行業(yè)的自律自治,營造公平公正、包容創(chuàng)新的發(fā)展環(huán)境。鼓勵人工智能行業(yè)聯(lián)盟、龍頭企業(yè)等主體積極承擔(dān)社會責(zé)任,圍繞產(chǎn)品應(yīng)用與風(fēng)險規(guī)制等內(nèi)容凝聚合力,從而形成有效的行業(yè)共識、宣言、標(biāo)準(zhǔn)等,并自覺接受社會監(jiān)督。[51]例如2019年,深圳市人工智能行業(yè)協(xié)會與數(shù)十家人工智能企業(yè)共同發(fā)起首份《新一代人工智能行業(yè)自律公約》。這一公約旨在促進(jìn)人工智能健康可持續(xù)發(fā)展,提出了堅(jiān)持以人為本、促進(jìn)正義公平、確保安全可控等原則,是對人工智能行業(yè)環(huán)境的有效塑造和規(guī)范。[52]除此之外,還需要每一位人工智能從業(yè)人員在提高技術(shù)研發(fā)能力的同時牢固樹立責(zé)任意識和風(fēng)險意識,時刻堅(jiān)守職業(yè)倫理和法律規(guī)范,以保障公眾的生命權(quán)、自由權(quán)、隱私權(quán)、財產(chǎn)權(quán)等權(quán)利作為人工智能技術(shù)發(fā)展的前提,摒棄例如將主觀的性別歧視嵌入算法或竊取隱私數(shù)據(jù)等侵犯他人合法權(quán)益的行為。
敏捷治理原則強(qiáng)調(diào)全過程和全周期治理,即人工智能社會安全風(fēng)險的治理既要從技術(shù)設(shè)計(jì)研發(fā)的源頭入手,又要在技術(shù)的運(yùn)用過程中科學(xué)研判,并及時解決出現(xiàn)的問題。[53]因此作為政府部門,在事前領(lǐng)域,一是要在安全、透明、公正等倫理原則的基礎(chǔ)上重視對人工智能前端開發(fā)者資質(zhì)和行為的審核,并要求其構(gòu)建事前數(shù)據(jù)風(fēng)險評估認(rèn)證機(jī)制,以更具針對性的監(jiān)管環(huán)境幫助相關(guān)行為主體提高風(fēng)險防范能力。[54]二是要加強(qiáng)數(shù)據(jù)安全保護(hù)制度建設(shè)。既需要在規(guī)則層面明確相關(guān)行為主體的權(quán)限與責(zé)任,例如由國家網(wǎng)信辦等七部門聯(lián)合公布,自2023年8月15日起施行的《生成式人工智能服務(wù)管理暫行辦法》就指出,“提供者對使用者的輸入信息和使用記錄應(yīng)當(dāng)依法履行保護(hù)義務(wù)”[55]。此外,還要在實(shí)踐層面完善以國家網(wǎng)信辦為中心,以各地區(qū)、各行業(yè)、各領(lǐng)域的網(wǎng)信工作機(jī)構(gòu)和第三方數(shù)據(jù)安全監(jiān)管機(jī)構(gòu)為支撐的數(shù)據(jù)安全治理機(jī)構(gòu)體系,[56]并通過落實(shí)防火墻等技術(shù)保障措施,實(shí)現(xiàn)對數(shù)據(jù)安全的有效監(jiān)管。
在事后領(lǐng)域,一是要健全公民權(quán)利救濟(jì)機(jī)制。這不僅需要推進(jìn)申訴程序法制化,通過細(xì)化查詢、申辯、更正機(jī)制等方面的具體規(guī)定以保障公民陳述、申訴或?qū)沟臋C(jī)會,還要完善相應(yīng)的公益訴訟制度,在人工智能日益普及的背景下因時更新公益訴訟類型。[47]可以建立針對人工智能公司的集體訴訟制度,更好地解決受害者人數(shù)眾多且分散的問題。[57]二是要健全輿情風(fēng)險控制機(jī)制。后現(xiàn)代風(fēng)險社會中,技術(shù)風(fēng)險同樣呈現(xiàn)出主觀建構(gòu)的特征。為避免因公眾缺乏了解或存在恐懼心理而產(chǎn)生的輿情危機(jī),在與人工智能相關(guān)的社會安全風(fēng)險事件發(fā)生后,既要珍惜輿情處置的黃金時間,于輿情蔓延前快速啟動應(yīng)急流程,以多部門的協(xié)調(diào)共享做好信息收集和處理工作,又要真實(shí)、準(zhǔn)確、全面且易懂地回應(yīng)公眾關(guān)切,加大科普宣傳力度,從而有效預(yù)防虛假消息或煽動性信息等不良現(xiàn)象的產(chǎn)生。
人工智能社會安全風(fēng)險的敏捷治理亦強(qiáng)調(diào)多元主體參與,旨在通過對各方關(guān)切的事項(xiàng)進(jìn)行有效溝通,從而凝聚社會信任,并實(shí)現(xiàn)共識下的一致行動。[58]對此,在人工智能的研發(fā)、應(yīng)用與監(jiān)管過程中,一是要提高全流程的開放程度。打破各行其道的封閉環(huán)境,有序引導(dǎo)科研機(jī)構(gòu)、研發(fā)企業(yè)、社會組織等利益相關(guān)者充分發(fā)揮各自的專業(yè)優(yōu)勢,實(shí)現(xiàn)跨學(xué)科、跨領(lǐng)域、跨地區(qū)的參與和融入。二是要重視對社會需求和民眾訴求的吸納。各主體尤其要著眼于對隱私、財產(chǎn)安全等事關(guān)人民群眾切身利益的風(fēng)險的防范,并將其納入到人工智能技術(shù)落地與推廣的標(biāo)準(zhǔn)中。三是要構(gòu)建有效的社會監(jiān)督體系。有關(guān)部門應(yīng)注意在提高公眾數(shù)字素養(yǎng)的基礎(chǔ)上,通過宣傳、教育等手段幫助公眾進(jìn)一步了解人工智能技術(shù)的原理及應(yīng)用概況;同時暢通民意表達(dá)渠道,為公眾進(jìn)行社會監(jiān)督創(chuàng)造有利條件。
此外,聚焦全球視野,還應(yīng)當(dāng)構(gòu)建人工智能的國際合作與全球治理機(jī)制,使人工智能的發(fā)展與應(yīng)用更好地增進(jìn)全人類共同福祉。世界性風(fēng)險社會中,技術(shù)風(fēng)險的跨域傳播使每一個國家都難以獨(dú)善其身。同時,數(shù)字行業(yè)具有開放、融合、相互依賴的本質(zhì)特征,決定了世界各國必須走合作治理的道路。[59]因此,一方面有必要加強(qiáng)同各國在數(shù)據(jù)處理、人才培養(yǎng)、權(quán)利保護(hù)、準(zhǔn)則制定等方面的戰(zhàn)略合作,推動實(shí)現(xiàn)人工智能技術(shù)的健康發(fā)展;另一方面,應(yīng)摒棄單邊主義、孤立主義傾向,努力搭建讓每個國家都可以平等對話發(fā)聲的平臺,在構(gòu)建人類命運(yùn)共同體理念的指引下發(fā)揮負(fù)責(zé)任大國作用,與國際社會共同營造開放、公平、公正、非歧視的人工智能發(fā)展環(huán)境。
廣州大學(xué)學(xué)報(社會科學(xué)版)2023年6期