楊建武
[提要]責(zé)任困境正成為人工智能嵌入政府治理的難題,剖析其生成過程以及理性應(yīng)對(duì),有助于發(fā)揮人工智能技術(shù)價(jià)值,提升智能社會(huì)的政府治理效能,推動(dòng)實(shí)現(xiàn)以人民為中心的服務(wù)型政府。責(zé)任困境是一種程序化與過程化的問題,需從動(dòng)態(tài)過程來分析,基于“信息—解釋—結(jié)果”的分析框架,從避責(zé)、問責(zé)、追責(zé)的全過程視角,剖析人工智能嵌入政府治理的責(zé)任困境。通過推進(jìn)算法透明度技術(shù)創(chuàng)新,構(gòu)建責(zé)任清晰的政府治理決策機(jī)制,建立健全智能時(shí)代責(zé)任追究制度,推動(dòng)建立公共治理演練數(shù)據(jù)庫,加強(qiáng)智能時(shí)代行政文化建設(shè)等舉措,確保智能治理與公共倫理同步發(fā)展。
責(zé)任是人類社會(huì)的核心價(jià)值追尋,無論是公共行政,還是私人行政,其均被視為最為重要的詞匯。從傳統(tǒng)公共行政的“效率至上”偏執(zhí),到新公共行政的“責(zé)任價(jià)值”復(fù)蘇,再到新公共服務(wù)的“責(zé)任倫理”復(fù)興,公共行政責(zé)任價(jià)值的演變,見證了公共行政發(fā)展歷程。公共行政的公共性、服務(wù)性、價(jià)值性等特性,決定了“責(zé)任倫理”并非簡(jiǎn)單的價(jià)值旨趣,而是一個(gè)“以維護(hù)公共價(jià)值為皈依,又根植于行政人員內(nèi)心深處的政治價(jià)值取向和行政道德規(guī)范。它包含一系列的價(jià)值判斷和倫理品質(zhì),其中包含自由民主、公平正義、公民意識(shí)、服務(wù)意識(shí)、效率意識(shí)、法治意識(shí)等”[1]。隨著公共行政的發(fā)展,清晰明了的責(zé)任機(jī)制是提高公共治理效力和效率的工具,也是確保公共行政行為合乎目的性、保證公共行政事務(wù)順利進(jìn)行、減除公共行政合法性危機(jī)的重要保障。黨的十九屆四中全會(huì)提出了“堅(jiān)持和完善中國(guó)特色社會(huì)主義行政體制,構(gòu)建職責(zé)明確、依法行政的政府治理體系”目標(biāo)任務(wù)。因此,在國(guó)家治理體系與治理能力現(xiàn)代化背景下,責(zé)任是推動(dòng)制度優(yōu)勢(shì)轉(zhuǎn)化為治理效能的關(guān)鍵因素。
黨的十九大報(bào)告指出當(dāng)前國(guó)家治理體系和治理能力有待加強(qiáng),并提出了建設(shè)“數(shù)字中國(guó)”的戰(zhàn)略目標(biāo)。從技術(shù)與政治的互動(dòng)來看,政府治理現(xiàn)代化就是通過運(yùn)用科學(xué)方法,改善治理體系,提供更好的公共服務(wù)。而由數(shù)據(jù)、算法與機(jī)器識(shí)別等帶來的人工智能正處于革命性發(fā)展中,高效率、低成本的運(yùn)用前景,使得其在技術(shù)和人類互動(dòng)方面的影響無處不在。對(duì)于緊扣技術(shù)發(fā)展脈搏的政府治理而言,人工智能的廣泛應(yīng)用為世界各國(guó)政府帶來了無數(shù)機(jī)會(huì),引入人工智能有助于優(yōu)化政府治理決策、改善公共服務(wù)質(zhì)量、提高城市風(fēng)險(xiǎn)識(shí)別能力,成為推動(dòng)政府治理智能化轉(zhuǎn)型的核心力量。與此同時(shí),由于技術(shù)黑箱、制度缺失等原因,其存在的責(zé)任困境也是人工智能嵌入政府治理所面臨的倫理困境之一。責(zé)任是一個(gè)復(fù)雜性問題,尤其是涉及人工智能這一更為復(fù)雜技術(shù)之后,變得更為棘手,然而在弱、強(qiáng)、超的不同階段,人工智能嵌入政府治理所形成的責(zé)任困境是不同的。從當(dāng)前人工智能技術(shù)發(fā)展現(xiàn)狀以及趨勢(shì)來看,其尚處于弱人工智能階段,在此階段,人工智能僅是政府治理的輔助手段而不是治理主體,政府治理的主體仍是實(shí)體的政府與社會(huì)主體。因此,探討智能技術(shù)嵌入政府治理的責(zé)任困境具有可行性。我們應(yīng)反思與追問:在人工智能日漸助推政府治理能力提升的時(shí)代背景下,作為其核心價(jià)值的責(zé)任實(shí)現(xiàn)為何會(huì)成為一個(gè)難題?其又是如何產(chǎn)生的?又應(yīng)如何應(yīng)對(duì)?因此,在風(fēng)險(xiǎn)社會(huì)與智能技術(shù)疊加時(shí)代,必須關(guān)注技術(shù)對(duì)政府治理的消極影響,全面把握技術(shù)發(fā)展與政府變革的關(guān)系,這對(duì)發(fā)揮人工智能技術(shù)價(jià)值、提升智能社會(huì)的政府治理效能、推動(dòng)實(shí)現(xiàn)以人民為中心的服務(wù)型政府,有著重要的理論與現(xiàn)實(shí)意義。
隨著人工智能的持續(xù)發(fā)展及其不斷嵌入政府治理,國(guó)內(nèi)外學(xué)者從不同視角分析了人工智能嵌入政府治理存在的責(zé)任困境問題。
一是智能機(jī)器的責(zé)任歸屬問題。在國(guó)外學(xué)界看來這一問題屬于元問題,有學(xué)者認(rèn)為盡管大多數(shù)研究者意識(shí)到計(jì)算機(jī)的識(shí)別算法和確定性性質(zhì)缺乏相應(yīng)的“人”的意志,即使是這些智能機(jī)器被嚴(yán)密地監(jiān)控,但仍有約五分之一的研究者將責(zé)任歸咎于機(jī)器的錯(cuò)誤,[2]從這一點(diǎn)來看,智能機(jī)器似乎被推上了責(zé)任承擔(dān)者前沿。那么,智能機(jī)器是否已具備承擔(dān)相應(yīng)法律責(zé)任的人格屬性呢?有學(xué)者指出計(jì)算機(jī)與設(shè)計(jì)師的工作間存在著不同,認(rèn)為只有人類設(shè)計(jì)師才是道德主體顯然是沒有認(rèn)識(shí)到科技和計(jì)算機(jī)系統(tǒng)對(duì)人類行為的塑造功能。[3](P.221)而在另外一些學(xué)者看來,智能機(jī)器似乎已達(dá)到了某種程度的主體自主性,因此有必要運(yùn)用“集體責(zé)任”分配智能機(jī)器的行動(dòng)責(zé)任,[4]甚至基于學(xué)習(xí)能力可以將智能系統(tǒng)視為一個(gè)具有獨(dú)立地位的責(zé)任主體,[5]就目前人工智能的發(fā)展階段來看,智能機(jī)器暫不具備道德責(zé)任主體地位。在國(guó)內(nèi)學(xué)者看來,人工智能的行動(dòng)責(zé)任既不能歸咎于人類設(shè)計(jì)者或使用者,也不能歸咎于人工智能自身,責(zé)任鴻溝問題實(shí)際上產(chǎn)生于歸因的過程中,[6]一旦人工智能和自動(dòng)系統(tǒng)的智能化判斷或決策出現(xiàn)錯(cuò)誤和偏見,人與機(jī)器、數(shù)據(jù)與算法的責(zé)任往往難以厘清,因此機(jī)器人沒有能力承擔(dān)全部道德責(zé)任,[7]如智能駕駛中出現(xiàn)的過錯(cuò)侵權(quán)責(zé)任難以適用于智能機(jī)器人,追究責(zé)任將愈發(fā)困難,甚至帶來責(zé)任鴻溝。[8]針對(duì)這一問題,可根據(jù)與人類關(guān)聯(lián)的形式,將人工智能所承擔(dān)的義務(wù)責(zé)任視為聯(lián)合義務(wù)責(zé)任,分為多種責(zé)任承擔(dān)形式。[9]
二是人工智能嵌入政府治理的責(zé)任問題。雖然算法越來越有助于從根本上調(diào)解個(gè)人和公共機(jī)構(gòu)之間的關(guān)系,但算法決策的責(zé)任正在成為討論的中心問題和實(shí)踐的關(guān)鍵問題,[10]由此而來的缺乏透明度挑戰(zhàn)著社會(huì)的道德、政治秩序。[11]在人工智能不斷賦能公共服務(wù)質(zhì)量、政府決策、價(jià)值創(chuàng)造的過程中,其可用來更好地理解和模仿官僚的決策和裁量權(quán),但公職人員在提供數(shù)字化公共服務(wù)過程中的責(zé)任值得關(guān)切,尤其是缺乏必要的分析工具來理解和評(píng)估參與這些系統(tǒng)的設(shè)計(jì)、開發(fā)、采購和維護(hù)等因素的人員所起的作用。[12]另外技術(shù)黑箱的存在、無法確定人工智能責(zé)任的法律和司法框架,[13]使得不能清楚誰應(yīng)對(duì)使用人工智能做出的決策負(fù)責(zé),[14]不清楚誰負(fù)責(zé)以及誰擁有控制權(quán)。[15]而在國(guó)內(nèi)學(xué)者看來,當(dāng)智能技術(shù)嵌入政務(wù)服務(wù)時(shí),由于政務(wù)服務(wù)自身特征與智能技術(shù)之間的差異,以機(jī)器代碼自動(dòng)化為特征的實(shí)踐運(yùn)用容易造成行為主體“虛化”,從而引發(fā)責(zé)任性問題。[16]且隨著人工智能嵌入的不斷加深和擴(kuò)展,政府公共行政過程中責(zé)任主體模糊、責(zé)任追究困難的尷尬爭(zhēng)論可能會(huì)越來越多,誰負(fù)責(zé)任、向誰負(fù)責(zé)、負(fù)何責(zé)任以及如何負(fù)責(zé)等問題更加需要理性考量,[17]而造成這些問題的原因,主要在于算法的不透明性,使得某些平臺(tái)企業(yè)與商業(yè)公司集聚了數(shù)據(jù)和財(cái)富乃至分享了公權(quán)力,但這又缺乏明確的公共問責(zé)機(jī)制。[18]倘若運(yùn)用人工智能輔助決策,則因決策者的避責(zé)和人工智能缺乏擔(dān)責(zé)的能力,導(dǎo)致行政人員利用權(quán)力轉(zhuǎn)移之機(jī)擺脫責(zé)任追究,也無法追究相關(guān)責(zé)任主體的責(zé)任,[19]從而導(dǎo)致沒有主體來承擔(dān)決策失敗的責(zé)任,決策責(zé)任認(rèn)定上的道德風(fēng)險(xiǎn)問題開始凸顯。[20]
整體而論,學(xué)者們?cè)谄饰鋈斯ぶ悄芮度胝卫淼呢?zé)任困境時(shí),主要從智能機(jī)器是否可承擔(dān)相關(guān)責(zé)任以及存在何種責(zé)任困境中尋找答案。無論何種視角,均傾向于從靜態(tài)層面剖析問題,一方面其基本邏輯依然是從主體性視角出發(fā),把人工智能作為一般的技術(shù)工具,但忽視了人工智能的“自主性”特征,具備自主性的人工智能嵌入政府治理,本身就是治理網(wǎng)絡(luò)中的“行動(dòng)者”,必然給政府治理結(jié)構(gòu)變更產(chǎn)生革命性影響,但弱人工智能暫不具備承擔(dān)道德責(zé)任的主體地位,將責(zé)任歸屬于人工智能不具備可能性。另一方面從結(jié)果可能性角度梳理責(zé)任困境,然而責(zé)任追究并不僅僅局限于結(jié)果責(zé)任追究,而應(yīng)是過程性問責(zé)。因此,現(xiàn)有研究沒有較為準(zhǔn)確分析為何產(chǎn)生責(zé)任困難,實(shí)際上政府治理是具有鮮明“情境—場(chǎng)域”的社會(huì)實(shí)踐活動(dòng),責(zé)任概念自然也是“重疊的、矛盾的并且不斷發(fā)展的”[21]。當(dāng)人工智能嵌入政府治理,涉及政府治理的過程性因素,以及人工智能系統(tǒng)的數(shù)據(jù)、算法等結(jié)構(gòu)性因素,二者的過程性與結(jié)構(gòu)性要素不能有效耦合,是產(chǎn)生責(zé)任困境的重要原因。鑒于此,本文試圖從人工智能嵌入政府治理的動(dòng)態(tài)角度出發(fā),通過辨析影響其責(zé)任困境的多個(gè)因素間的復(fù)雜關(guān)系,全面把握人工智能嵌入政府治理的責(zé)任困境問題。
所謂分析框架,其實(shí)質(zhì)是因素間的邏輯呈現(xiàn),以及一系列變量間關(guān)系的確定。[22](P.7)馬克·博文斯在剖析和評(píng)估問責(zé)制時(shí)認(rèn)為,一個(gè)有意義的責(zé)任實(shí)踐應(yīng)由信息(透明度)、解釋或證明、結(jié)果(可能性)等三個(gè)階段組成,首先必須要有任務(wù)執(zhí)行情況、結(jié)果或程序的各種信息,并且在出現(xiàn)風(fēng)險(xiǎn)時(shí)能提供相關(guān)解釋或緣由,最后根據(jù)信息、解釋提取責(zé)任的可能性。[23]人工智能嵌入政府治理的責(zé)任困境之形成,不能簡(jiǎn)單地從技術(shù)或政府治理結(jié)構(gòu)視角剖析問題,本文將借用博文斯關(guān)于評(píng)估責(zé)任制的三階段要素,基于“信息—解釋—結(jié)果”的分析框架,探索性剖析人工智能嵌入政府治理的責(zé)任困境:其一,人工智能嵌入政府治理是具有鮮明實(shí)踐特征的動(dòng)態(tài)過程,從人工智能開始進(jìn)入政府治理伊始,其與政府治理關(guān)系就已從傳統(tǒng)“治理主體→治理客體”向“(治理主體-技術(shù))→治理客體”的具身關(guān)系轉(zhuǎn)變,技術(shù)自身因素也隨之進(jìn)入政府治理系統(tǒng),而信息是支撐人工智能的基礎(chǔ)要素,也是政府有效治理的前提,只有掌握大量的信息,政府治理才能有效開展,但信息的不對(duì)稱卻使得避責(zé)更為方便。其二,信息只為減少信息不對(duì)稱,卻不能解決責(zé)任問題,因?yàn)樨?zé)任與可回答性緊密相關(guān),也即人工智能運(yùn)用于政府治理的過程是否具有可解釋性。然而,要求披露代碼和數(shù)據(jù)集的規(guī)制手段或許在某一時(shí)間段具有規(guī)制效果,但卻無法保障具有動(dòng)態(tài)性特點(diǎn)的算法決策能提供解釋和審查依據(jù),[24]問責(zé)成為難點(diǎn)。其三,信息與解釋是評(píng)估和判斷所采取的決定或行動(dòng)是否適當(dāng)?shù)幕A(chǔ),技術(shù)進(jìn)步是公共行政發(fā)展的關(guān)鍵因素,智能技術(shù)為政府治理帶來透明度、可控性和響應(yīng)性,[25]也為政府治理的問責(zé)體制設(shè)計(jì)提供了技術(shù)支持,有效消解執(zhí)行偏差的可能,并降低了行政負(fù)擔(dān)。但與此同時(shí),政府治理也面臨著信息越多卻理解越少的悖論,當(dāng)人工智能嵌入政府治理時(shí),在治理系統(tǒng)中流動(dòng)卻脫離了情境的海量數(shù)據(jù)容易導(dǎo)致新的意義黑箱,并強(qiáng)化了官僚組織理性特質(zhì),從而出現(xiàn)操縱數(shù)據(jù)、扭曲政策、推卸責(zé)任等新難題??梢姡@一分析框架克服了單純從智能技術(shù)或政府治理角度剖析責(zé)任困境的弊端,從避責(zé)、問責(zé)、追責(zé)的全過程視角,剖析人工智能嵌入政府治理的責(zé)任困境。
圖1 人工智能嵌入政府治理責(zé)任困境的分析框架
人類已邁入信息化時(shí)代,信息成為政府運(yùn)行的杠桿,某種程度而言,政府治理是通過多種方式搜集整理信息數(shù)據(jù)并做出決策的過程,而人工智能正是在數(shù)據(jù)的支撐下,通過大量數(shù)據(jù)訓(xùn)練集進(jìn)行有效的“輸入—輸出”,將其映射到解決某些治理問題的方法上,并“通過建立跨部門共享的信息收集平臺(tái)和智能化的公共服務(wù)需求識(shí)別系統(tǒng),傳統(tǒng)政府組織的權(quán)力運(yùn)行、監(jiān)管方式、信息機(jī)制和決策模式都面臨著調(diào)整,一種扁平化、協(xié)同化和一體化的科層治理結(jié)構(gòu)有望形成,打破了傳統(tǒng)科層結(jié)構(gòu)中封閉、本位和保守的碎片化狀態(tài)”[26]。換言之,智能時(shí)代社會(huì)事實(shí)以高度信息化的形態(tài)流動(dòng),而政府治理實(shí)質(zhì)是通過智能技術(shù)不斷收集、掃描社會(huì)事實(shí)信息,并將其置于高度縝密的算法系統(tǒng),以提高治理的清晰度。從人工智能嵌入政府治理的具體過程來看,其一,算法是一個(gè)獨(dú)立的決策支持系統(tǒng),需要具有高度專業(yè)性的技術(shù)團(tuán)隊(duì)提供支持。其二,在政府治理中使用算法需要各種專業(yè)知識(shí),以及知道如何使用系統(tǒng)的專家,也需要維護(hù)算法并確保其正確安裝到組織信息環(huán)境中的專家。然而,在此過程中政府無法獨(dú)立創(chuàng)設(shè)一套人工智能算法并運(yùn)用于政府治理,算法等核心技術(shù)往往被技術(shù)主體所掌控,這也造成了技術(shù)與治理不同主體間處于信息不對(duì)稱狀態(tài)。信息不對(duì)稱最先用于微觀信息經(jīng)濟(jì)學(xué)研究,簡(jiǎn)而言之,即在某些事情上一部分人掌握的信息比另外一部分人要多,這既有主觀能力差異,也有信息渠道等限制因素。在信息不對(duì)稱下,政府運(yùn)用人工智能實(shí)際上存在著某種“委托—代理”關(guān)系,“委托—代理”理論來源于經(jīng)濟(jì)學(xué),是指信息不對(duì)稱的雙方存在將信息優(yōu)勢(shì)方視為代理人,而另一方為委托人的交易行為。一般而言,簡(jiǎn)單的委托代理能有效澄清責(zé)任,但在智能治理場(chǎng)域中,不對(duì)稱導(dǎo)致委托代理鏈條增加,責(zé)任關(guān)系也變得日益復(fù)雜。
盡管人工智能具有一定的操作復(fù)雜性,但數(shù)字時(shí)代的政府面臨治理困境,而人工智能能更快速、高效以及規(guī)模性解決政府面臨的復(fù)雜問題,加速了其向政府治理嵌入速度。因此,政府迫于治理壓力,將借用強(qiáng)大的人工智能技術(shù)系統(tǒng)處理復(fù)雜問題,但由于專業(yè)性限制以及注意力有限等原因,政府不得不“委托”人工智能從事決策、執(zhí)行等行政行為,甚至以合同制或外包制等形式將部分權(quán)限讓渡給技術(shù)精英。然而,人工智能主要依靠以代碼為主的指令,嵌入政府治理過程,而就當(dāng)前的智能技術(shù)而言,其不能預(yù)測(cè)行為后果,加之智能技術(shù)裹挾下的政府治理,不太可能有能力來評(píng)估算法輸出和預(yù)測(cè)所必需的參數(shù)是否有效,特別是數(shù)據(jù)模型的假設(shè)、數(shù)據(jù)結(jié)構(gòu)與關(guān)鍵特征交互有效性,無法避免出現(xiàn)安全風(fēng)險(xiǎn)。一旦出現(xiàn)減損性后果,“委托—代理”將為行政人員利用權(quán)力轉(zhuǎn)移空間排斥責(zé)任提供特定情境,同時(shí)雙方也面臨定義和分擔(dān)責(zé)任的挑戰(zhàn),對(duì)參與者決定和行動(dòng)或不行動(dòng)的洞察使得責(zé)任追究陷入困境,在胡德看來這屬于機(jī)構(gòu)性策略避責(zé),通過信息不對(duì)稱而層層分散責(zé)任,最終達(dá)到規(guī)避責(zé)任。[27]如“算法權(quán)力”的興起,使得更多的政府行為是通過算法予以表達(dá),然而一方面機(jī)器學(xué)習(xí)具有絕對(duì)的信息優(yōu)勢(shì),政府并沒有有效監(jiān)督其輸出結(jié)果的能力,[28](P.25)另一方面算法背后的運(yùn)行原理一直被商業(yè)企業(yè)視為高度機(jī)密而不愿意公開,[29]這也加劇了公共部門對(duì)算法模型的嚴(yán)重依賴,當(dāng)出現(xiàn)不利影響時(shí),政府部門會(huì)認(rèn)為這是算法代碼或第三方的錯(cuò)誤,而非政府自身責(zé)任,被委托企業(yè)則會(huì)指出算法自主性在復(fù)雜環(huán)境下處理信息以及輸出結(jié)果不是設(shè)計(jì)者所能控制的,存在著某種難以預(yù)估的行為,因此在以政治晉升激勵(lì)、“一票否決”、人事升降等為核心的問責(zé)形式下,[30]當(dāng)脫離具體情境,孤立地談?wù)摼哂幸欢ㄗ灾髂芰Φ娜斯ぶ悄芟到y(tǒng)應(yīng)為其自身缺陷而要承擔(dān)與人類一樣的道德責(zé)任,極易使政府參與者逃脫責(zé)任追究。可見,“委托—代理”關(guān)系下的人機(jī)互動(dòng)為政府避責(zé)提供了“避風(fēng)港”。如備受爭(zhēng)議的美國(guó)罪犯管理分析(COMPAS),原本用于刑事司法中替代制裁,但出現(xiàn)一系列問題后,其算法背后的源代碼以及工作方法一直未被披露,這也導(dǎo)致了公共部門無法遵守其對(duì)受影響公民的披露職責(zé)。
政府治理過程的透明度與責(zé)任自成一體,意即能窺探治理過程背后的邏輯,尤其是在信息爆炸時(shí)代,人類大腦認(rèn)知的局限,使得對(duì)信息技術(shù)、智能算法日漸依賴的背景下,推進(jìn)國(guó)家治理能力與治理體系的現(xiàn)代化,就必須“構(gòu)建職責(zé)明確、依法行政的政府治理體系”[31]。隨著人工智能不斷成功運(yùn)用于政府治理各方面,技術(shù)人員、研創(chuàng)企業(yè)等嘗試使嵌入政府治理的算法模型容易理解,如利用可視化技術(shù)透視交互過程,使其成為人類大腦思維所熟知的事物。然而,在現(xiàn)有認(rèn)知條件下,人工智能的復(fù)雜性使得篩選、識(shí)別、分析其嵌入政府治理的背后邏輯變得困難,這也使得試圖解釋這些人工智能的行為難以實(shí)現(xiàn),更遑論去追查其中的責(zé)任歸屬問題。
一是算法的難以解釋性。算法本質(zhì)上是一種計(jì)算機(jī)代碼,通過輸入代碼從而輸出或獲得某種響應(yīng),尤其是深度算法的成功運(yùn)用,使得智能算法擁有“上帝視角”美譽(yù)。也正因人工智能算法的專有性和復(fù)雜性,使得往往對(duì)其難以解釋,且長(zhǎng)久以來被人詬病,一直被視為“黑箱”而限制人工智能在特定領(lǐng)域的運(yùn)用。當(dāng)政府運(yùn)用人工智能進(jìn)行治理時(shí),冰冷代碼與輸入變量仍是算法治理固有邏輯,且缺乏統(tǒng)一解釋標(biāo)準(zhǔn),政府人員要發(fā)現(xiàn)其存在意想不到的后果有難度。以最伊始的神經(jīng)網(wǎng)絡(luò)算法為例,其雖誕生于20世紀(jì)40年代,但經(jīng)歷幾次迭代更新,逐漸衍生出膠囊網(wǎng)絡(luò)、元學(xué)習(xí)等算法,并在語言識(shí)別、人臉識(shí)別等領(lǐng)域廣泛運(yùn)用,成為最為常見的算法之一。然而,即使它是最普通的算法,也是由多個(gè)隱藏的人工神經(jīng)元層組成,涉及數(shù)以百萬計(jì)權(quán)重,再借助超高算力將海量數(shù)據(jù)的輸入和輸出聯(lián)系起來,但其背后存在的層層疊加的神經(jīng)元層,[10](P.5)以及復(fù)雜源代碼對(duì)于非專業(yè)人員而言,無異于天書??梢娝惴ǖ碾y以解釋性絕大部分原因來自于其自身的復(fù)雜性。例如,在英國(guó)被用于政府評(píng)估危害風(fēng)險(xiǎn)的工具“HART”系統(tǒng),擁有成千上萬個(gè)嵌入和特有的決策樹,單決策點(diǎn)就有450萬個(gè),試圖從中找到特定的決策解釋難度似乎較大。[32]在這種情況下,如果向社會(huì)公眾公開算法決策的運(yùn)行路徑,橫亙?cè)诠娒媲暗膶I(yè)認(rèn)知鴻溝,使得即使是知曉代碼與模型,公眾仍無法了解一個(gè)復(fù)雜系統(tǒng)的運(yùn)行邏輯,甚至專業(yè)人士也難以完全理解,更遑論普通人。因此,討論規(guī)制算法系統(tǒng)存在的黑箱,是建立在對(duì)運(yùn)行邏輯的可理解性基礎(chǔ)上,但就目前來看,因?yàn)樽陨淼牟豢山忉屝裕惴ㄟ\(yùn)行似乎不會(huì)遇到現(xiàn)實(shí)挑戰(zhàn),也使得追責(zé)變得苛求。如由于英國(guó)國(guó)家衛(wèi)生醫(yī)療系統(tǒng)(National Health System,NHS)的乳腺癌篩查安排軟件中的錯(cuò)誤算法,使45萬名女性沒有受到邀請(qǐng)而錯(cuò)失篩查機(jī)會(huì),引發(fā)廣泛關(guān)注,但錯(cuò)誤算法究竟是如何產(chǎn)生的,因果關(guān)系如何厘清,國(guó)家衛(wèi)生醫(yī)療系統(tǒng)、公共衛(wèi)生局以及負(fù)責(zé)軟件維護(hù)的日立咨詢公司等三方卻相互推諉。[33]
二是因果關(guān)系的模糊性。依靠人工智能進(jìn)行政府治理,主要是利用智能技術(shù)將紛繁復(fù)雜的數(shù)據(jù)有效轉(zhuǎn)化為可供政府治理的智慧知識(shí)。與此不同的是,常規(guī)的政府決策是建立在一定規(guī)范程序基礎(chǔ)上的預(yù)判,并有著與之相對(duì)應(yīng)的決策文本,當(dāng)需要溯源時(shí)相關(guān)人員可較為清晰地解釋決策過程以及理由,一般稱之為責(zé)任歸因敘事。但由于政府注意力有限、數(shù)據(jù)獲取不全面,尤其是敏感信息掌握不全,導(dǎo)致政府在做出相應(yīng)的決策時(shí)存在認(rèn)知局限性。而人工智能借助其強(qiáng)大的分析與建構(gòu)能力,在嵌入政府治理時(shí)將數(shù)據(jù)整合并描繪出具體事件的“情景”畫像,改變了以往“事件鏈”的線性因果分析模式。[34]然而,一方面從智能技術(shù)嵌入政府治理的因果條件來看,目前人工智能算法系統(tǒng)對(duì)某項(xiàng)事務(wù)的預(yù)測(cè),是建立在相關(guān)數(shù)據(jù)間的關(guān)聯(lián)性基礎(chǔ)之上,并非因果關(guān)系。由于信息不對(duì)稱性、算法的復(fù)雜性、專有算法的保密性等,公共部門等治理主體的意圖、決定與人工智能行為后果間缺乏明確的因果關(guān)系,也就無法依據(jù)因果聯(lián)系有效控制行為發(fā)生。[35]因此,從本質(zhì)視之,責(zé)任困境是主體模糊的問題,如運(yùn)用人工智能擁有政府決策,這是一個(gè)連續(xù)過程,且涉及到算法研發(fā)者、系統(tǒng)開發(fā)者、工具使用者,并分布于不同環(huán)節(jié)、不同場(chǎng)景,倘若最終決策出現(xiàn)問題,如何確定責(zé)任主體則面臨挑戰(zhàn),因?yàn)闆Q策并非單個(gè)個(gè)體行為,而是多重合力作用下的結(jié)果,權(quán)力轉(zhuǎn)移中出現(xiàn)的裂縫讓歸責(zé)與問責(zé)愈發(fā)困難。[36]另一方面從責(zé)任歸因的敘事結(jié)構(gòu)來看,因果關(guān)系的敘事均是基于主謂結(jié)構(gòu)進(jìn)行,且受制于主體的信息呈現(xiàn)。[6]一般而言,我們將具有一定自主性的行動(dòng)者視為能承擔(dān)責(zé)任的主體,而就目前來看,人工智能系統(tǒng)暫不具備對(duì)道德判斷的情感感知能力。更為重要的是,自動(dòng)化決策系統(tǒng)的非人類化使其脫離了人類主觀判斷,技術(shù)形式的進(jìn)化始終是人類對(duì)技術(shù)的聚焦點(diǎn),過往人們對(duì)相關(guān)問題責(zé)任歸屬的判斷,是建立在生活經(jīng)驗(yàn)基礎(chǔ)之上的理性行為,但作為人類智慧延伸的人工智能自主學(xué)習(xí),將人類視為技術(shù)的載體而非主體,甚至將人矮化為附屬物,這似乎意味著人承認(rèn)技術(shù)進(jìn)化如同生物自然進(jìn)化,人無法對(duì)其進(jìn)行有效掌控,而只能臣服于神秘性之下。如智能系統(tǒng)因算法黑箱而繞開監(jiān)管,并輕松地將一些重要郵件自動(dòng)刪除,但人們卻不知道其為什么要?jiǎng)h除,無法解釋機(jī)器背后的原因,這樣使得責(zé)任歸屬更是撲朔迷離。
判斷某一責(zé)任是否可實(shí)現(xiàn)的核心在于結(jié)果的可回答性,然而,囿于復(fù)雜的信息問題以及缺乏對(duì)算法功能的充分解釋,隨之而來的是人工智能嵌入政府治理將出現(xiàn)診斷失敗和確保糾正的困難,責(zé)任后果難以把控。
一是責(zé)任追究制度的缺失。相關(guān)制度的缺失使得基于信息不對(duì)稱、不可解釋性做出的錯(cuò)誤決策,不能采取必要措施予以糾正與解決。盡管人工智能技術(shù)實(shí)現(xiàn)了政府決策的強(qiáng)理性以及政府運(yùn)行的清晰化,但社會(huì)倫理與道德體系難以嵌入這一決策與運(yùn)行體制內(nèi),導(dǎo)致無法對(duì)政府治理運(yùn)行的環(huán)境以及突發(fā)情形做出預(yù)判與應(yīng)對(duì),此時(shí)對(duì)技術(shù)的監(jiān)督就變得格外重要。從當(dāng)前來看,我國(guó)缺少強(qiáng)力AI監(jiān)管機(jī)制以及追責(zé)機(jī)制,尤其是政府治理中的AI運(yùn)用,存在著數(shù)據(jù)采集授權(quán)超限、約束不夠;數(shù)據(jù)分析AI安全標(biāo)準(zhǔn)不明,應(yīng)用安全評(píng)估缺失;漏洞監(jiān)測(cè)披露機(jī)制不健全等情況。數(shù)據(jù)應(yīng)用追責(zé)機(jī)制的不足,數(shù)據(jù)泄露、存儲(chǔ)混亂、非法使用以及精英壟斷將導(dǎo)致政府陷入無力應(yīng)對(duì)的窘境。
二是“技術(shù)先行”策略犧牲了責(zé)任審議原則。由于科層制考核壓力,加之上級(jí)政府部門通過“行政目標(biāo)責(zé)任書”形式將行政任務(wù)攤派給各下級(jí)單位,同時(shí)“晉升達(dá)標(biāo)賽”的推行,使得不同層級(jí)政府面臨著繁重治理任務(wù)。[37]在這種制度語境下,數(shù)字形式主義滋生,有些政府不得不急于采用智能技術(shù)以提升治理績(jī)效,這也導(dǎo)致智能技術(shù)嵌入政府治理中缺乏倫理審查,沒有及時(shí)將人工智能技術(shù)存在的黑箱問題進(jìn)行排查,導(dǎo)致帶有偏見、歧視等弊端的技術(shù)滲透至政府治理中,美國(guó)新奧爾良警察局為提高治理效率,與帕蘭提爾公司開展了一項(xiàng)預(yù)測(cè)性警務(wù)合作,利用其軟件識(shí)別潛在的犯罪者,但之前合作并沒有經(jīng)過公眾和議會(huì)的審查,最終因?qū)€(gè)人隱私等帶來較大風(fēng)險(xiǎn)而終止。[38]再者,智能治理對(duì)人工智能技術(shù)的強(qiáng)烈依賴,使得政府需借助核心企業(yè)的幫助,二者維持著一種外包與合作的關(guān)系。然而,雙方存在的較大價(jià)值差異,加之政府監(jiān)管不夠,極易從安全風(fēng)險(xiǎn)衍化為責(zé)任風(fēng)險(xiǎn)等。另外,人工智能是建立在算法基礎(chǔ)上的技術(shù)系統(tǒng),其主要依靠算法執(zhí)行指令,而政府治理因素繁多,過程復(fù)雜,各種規(guī)則與程序既是開放性的,也是實(shí)質(zhì)性的。囿于治理責(zé)任壓力、技術(shù)時(shí)髦主義等,相關(guān)政府并不關(guān)心技術(shù)治理效果,政策執(zhí)行中“機(jī)器程序主義”增加了追責(zé)難度。
三是算法私權(quán)力與政府公權(quán)力的沖突。從人工智能嵌入政府治理過程來看,這一過程涉及到以政府為主的公權(quán)力以及以算法為核心的私權(quán)力。政府的公權(quán)力較為容易理解,其是依法所獲得的公民讓渡的與生俱來、不可剝奪的能量。而以算法為核心的私權(quán)力則是伴隨人工智能發(fā)展而生成的,從技術(shù)角度而言,算法本身并不具有權(quán)力色彩,但其一旦與公共利益相結(jié)合,廣泛運(yùn)用于公共領(lǐng)域,繼而能對(duì)公共事務(wù)運(yùn)行規(guī)則產(chǎn)生影響,此時(shí)算法便褪去了技術(shù)純粹性,權(quán)力色彩便隨之而來。算法產(chǎn)生的私權(quán)力與政府所具有的公權(quán)力在人工智能嵌入政府治理中不期而遇,此時(shí)私權(quán)力已具有“公共屬性”,其是“智能治理時(shí)代主流政治權(quán)力的技術(shù)延伸,承載了治理者的權(quán)力意志和政治意識(shí),成為社會(huì)治理的重要方式”[39]。借助其機(jī)器架構(gòu)優(yōu)勢(shì)搭建智能監(jiān)控體系,甚至在某些方面具有對(duì)政府公權(quán)力的僭越。一旦缺乏相應(yīng)監(jiān)控舉措,公私權(quán)力便面臨著異化風(fēng)險(xiǎn),“Facebook數(shù)據(jù)門”事件向世界展示了算法私權(quán)力如何影響公權(quán)力,甚至是如何影響美國(guó)大選的。其一,算法權(quán)力這一新興權(quán)力形態(tài)出現(xiàn),并逐漸向公權(quán)力滲透之后,政府開始擔(dān)憂其嵌入政府治理將對(duì)自身權(quán)威地位造成威脅,開始謹(jǐn)慎甚至限制某些核心領(lǐng)域采用人工智能??梢灶A(yù)見的是,此時(shí)的公私權(quán)力將出現(xiàn)彼此消耗與爭(zhēng)斗,政府須在維護(hù)公共利益與自身權(quán)威中作出取舍。其二,與前述不同的是,囿于在算法層面的知識(shí)匱乏,政府與算法企業(yè)之間存在不對(duì)稱甚至失衡問題。在諸多治理領(lǐng)域,政府只能將部分治理權(quán)限讓渡給算法私權(quán)力,私權(quán)力將得到極大強(qiáng)化,擴(kuò)大其在公共領(lǐng)域的執(zhí)行能力,加之政府監(jiān)管制度等缺失,人工智能將帶來不可預(yù)知的“隱層”,將侵蝕社會(huì)公共空間,對(duì)社會(huì)安全、公平、民主等價(jià)值造成減損,倫理風(fēng)險(xiǎn)隨之而來。
人們?cè)谒伎既绾斡行Ч芸厝斯ぶ悄茱L(fēng)險(xiǎn),以減輕其對(duì)人類社會(huì)生活的困擾時(shí),還應(yīng)該思考如何在人工智能嵌入政府治理,并不斷沖向倫理困境時(shí),不會(huì)導(dǎo)致政府治理失去對(duì)公共價(jià)值的關(guān)懷,更不會(huì)肆意踐踏人類賴以維系的倫理道德價(jià)值,從而采取積極舉措,確保智能時(shí)代政府治理與公共倫理同步發(fā)展。
其一,增強(qiáng)算法透明度。透明度簡(jiǎn)而言之即信息可見,而人工智能算法透明度則是算法的可訪問性與可審查性。從當(dāng)前情況來看,許多研創(chuàng)企業(yè)因投入巨大的人力物力成本才將算法演練成熟,因而將算法視為提升企業(yè)競(jìng)爭(zhēng)的絕對(duì)工具,最終導(dǎo)致企業(yè)以商業(yè)秘密為由隱蔽算法操作流程與標(biāo)準(zhǔn),但這也給使用者提出了難題:無法知曉算法運(yùn)行邏輯。因此,可在不涉及核心機(jī)密及所有者權(quán)益基礎(chǔ)上,將算法代碼、算法準(zhǔn)則、操作標(biāo)準(zhǔn),以及可供審查的信息適度公開。特別是對(duì)于運(yùn)用于政府治理的算法,要充分保障服務(wù)對(duì)象的知情權(quán)以及質(zhì)疑權(quán),并制定算法透明度的技術(shù)標(biāo)準(zhǔn),從而增強(qiáng)算法透明度。其二,提高算法解釋度。所謂解釋度即邏輯可知,算法的本質(zhì)是指令代碼,在常人看來這些代碼不通俗易懂,因此其嵌入政府治理中的算法邏輯就讓人難以理解與評(píng)估。因缺乏解釋度導(dǎo)致算法規(guī)則不明晰,一旦其嵌入政府治理而帶來決策錯(cuò)誤、歧視偏見,不可避免對(duì)個(gè)人造成倫理價(jià)值減損。因此,各研創(chuàng)企業(yè)應(yīng)定期公布算法技術(shù)內(nèi)容與特征,向公眾演示數(shù)據(jù)采集、算法決策的大致流程以及解釋算法的內(nèi)部結(jié)構(gòu),特別是向社會(huì)公眾告知智能系統(tǒng)存在的信息隱私和其他基本權(quán)利的風(fēng)險(xiǎn),以及程序和實(shí)質(zhì)公平的風(fēng)險(xiǎn)。[40]
不可否認(rèn)的是,人工智能能為政府決策提供傳統(tǒng)經(jīng)驗(yàn)主義所不能揭示的數(shù)據(jù)關(guān)聯(lián)性與事件規(guī)律性,大大提高決策能力。也正因如此,有些行政部門與行政人員忽略智能治理的權(quán)力邊界與技術(shù)嵌入的限度約束,只看到了人工智能能依據(jù)運(yùn)行邏輯自主決策,而沒有看到二者間具有明確的界限,“在科層制行政場(chǎng)景中,權(quán)力中樞的指令依賴于決策—執(zhí)行體系,依賴于上下級(jí)之間通暢的信息傳遞系統(tǒng)。而在‘窗口’場(chǎng)景中,信息依靠系統(tǒng)自動(dòng)傳遞,權(quán)力實(shí)踐也不再依賴于對(duì)官僚的身體控制,辦事員只是接受系統(tǒng)的指令,而非上級(jí)指令”[41]??梢姡斯ぶ悄芙^對(duì)不是某些行政部門推卸責(zé)任,奉行“機(jī)械程序主義”,形成“無為之惡”的借口。因此,有效克服人工智能嵌入政府治理的責(zé)任困境,既需要規(guī)避算法本身“黑箱”,又必須拓展公眾參與范圍,充分尊重公眾的參與權(quán)利,發(fā)揮其資源知識(shí)、監(jiān)督批判功能,以此避免單一治理主體的“致命的自負(fù)”(哈耶克語)。著眼于此,要革新現(xiàn)有政府決策模式,摒棄經(jīng)驗(yàn)決策,克服信息孤島,保證數(shù)據(jù)共享,努力創(chuàng)造出多元主體參與治理決策模式;著力暢通社會(huì)參與機(jī)制,以促進(jìn)共同參與,加強(qiáng)對(duì)話與協(xié)商,尋找合理的解決方案。要積極引導(dǎo)社會(huì)公眾、企業(yè)團(tuán)體等參與相關(guān)規(guī)則的制定;引入獨(dú)立的第三方監(jiān)管組織,平衡人工智能嵌入政府治理的科學(xué)與民主互動(dòng)關(guān)系。要明確職能邊界,詳列“責(zé)任清單”,規(guī)避職能模糊與層級(jí)節(jié)制弊端造成的責(zé)任監(jiān)督缺口。
責(zé)任是制度的重要組成部分,并服務(wù)于制度的目標(biāo)。從人工智能嵌入政府治理構(gòu)成來看,其涉及政府、企業(yè)與社會(huì)等不同主體,相應(yīng)地就會(huì)有政府責(zé)任、企業(yè)責(zé)任與社會(huì)責(zé)任。在政府層面,政府有義務(wù)與責(zé)任提供公共服務(wù),滿足人民需要,人工智能與公共服務(wù)的全面結(jié)合,為政府公共服務(wù)供給提供了全新視角,這一過程將涉及到政府多個(gè)層面的責(zé)任:職責(zé)賦予的法定責(zé)任、引入技術(shù)的決策責(zé)任、技術(shù)發(fā)展的監(jiān)督責(zé)任。引入人工智能,不是讓政府對(duì)治理放任不管,其地位與職責(zé)賦予的法定責(zé)任不能被人工智能技術(shù)取代,無論人工智能技術(shù)如何先進(jìn),政府的主觀能動(dòng)性不能缺失。而技術(shù)引入并不是一勞永逸地解決了效率與公平問題,相反,誰引入的,如何引入的,這均涉及到政府治理的決策責(zé)任,倘若不充分論證而隨意引入不成熟技術(shù)造成對(duì)社會(huì)價(jià)值的減損,應(yīng)當(dāng)對(duì)相關(guān)責(zé)任人進(jìn)行問責(zé),要求行為人能對(duì)自己的決定或行為作出解釋,并對(duì)相應(yīng)過失進(jìn)行彌補(bǔ),此舉在于約束相關(guān)行政主體行為。此外,技術(shù)對(duì)企業(yè)的評(píng)估與監(jiān)督責(zé)任不可或缺,人工智能創(chuàng)新主體作為技術(shù)提供商,應(yīng)保證技術(shù)供給過程中的質(zhì)量,而這離不開政府的監(jiān)督責(zé)任。因此,要完善智能治理過程中的政府問責(zé)機(jī)制,避免政府不作為、亂作為,對(duì)智能治理中隨意泄露個(gè)人信息的相關(guān)政府部門與個(gè)人要追究其責(zé)任;對(duì)技術(shù)供給過程中因技術(shù)漏洞而造成倫理損失的企業(yè),要健全對(duì)技術(shù)創(chuàng)新主體的責(zé)任追究機(jī)制,并設(shè)立“行業(yè)黑名單”制度;通過完善相關(guān)法律體系,明確人工智能開發(fā)主體的法律責(zé)任;要建立健全政府公權(quán)力與算法私權(quán)力的制約與監(jiān)督體系,并且嘗試建立利益相關(guān)者的網(wǎng)絡(luò)化權(quán)力監(jiān)督與問責(zé)體系,并加強(qiáng)民主、科學(xué)與依法決策,充分吸納社會(huì)公眾參與人工智能嵌入政府治理的決策議程,踐行全過程人民民主。
公共治理是一項(xiàng)復(fù)雜、動(dòng)態(tài)的活動(dòng),且牽涉到公共服務(wù)、公眾權(quán)益、政府合法性等核心問題,一旦出現(xiàn)失誤則會(huì)造成重大影響。而運(yùn)用人工智能,政府公共治理則又面臨著新的挑戰(zhàn),即智能治理需依靠模型處理數(shù)據(jù),但算法卻存在不確定性。因此,從人工智能嵌入政府治理實(shí)際來看,要規(guī)避責(zé)任風(fēng)險(xiǎn),利用數(shù)據(jù)對(duì)算法進(jìn)行盡可能的演練,以使模式更為成熟可靠是現(xiàn)實(shí)需要。演練數(shù)據(jù)庫顧名思義即強(qiáng)化算法學(xué)習(xí)的數(shù)據(jù)集,這種方法在人工智能領(lǐng)域并不新鮮,如美國(guó)四所頂級(jí)大學(xué)聯(lián)合推出大規(guī)模機(jī)器人學(xué)習(xí)數(shù)據(jù)集用于預(yù)訓(xùn)練模型的訓(xùn)練,以強(qiáng)化機(jī)器自主學(xué)習(xí)能力。[42]而在政府治理領(lǐng)域,也可借鑒這種方式。一方面,政府可設(shè)定相關(guān)機(jī)制,將收集的部分不涉及隱私的公共數(shù)據(jù)給相關(guān)智能技術(shù)企業(yè),使其對(duì)算法不斷進(jìn)行演練,找到技術(shù)漏洞,以完善人工智能技術(shù)。另一方面,政府要針對(duì)公共治理的具體領(lǐng)域建立公共治理演練數(shù)據(jù)庫,在正式投入前不斷訓(xùn)練,以提高技術(shù)針對(duì)性與數(shù)據(jù)安全性。要順利推進(jìn)公共治理演練數(shù)據(jù)庫建設(shè),須在算法容錯(cuò)設(shè)計(jì)、技術(shù)漏洞檢查和修復(fù)等方面加強(qiáng)監(jiān)管與評(píng)估。所謂算法容錯(cuò)設(shè)計(jì),即當(dāng)算法因各種原因出現(xiàn)數(shù)據(jù)、偏見等問題時(shí),系統(tǒng)能自動(dòng)檢測(cè),并保持系統(tǒng)功能在可接受范圍內(nèi),其主要目的在于提高算法的可靠性。這其實(shí)是一種消極悲觀策略,即承認(rèn)算法存在漏洞的應(yīng)對(duì)方式。技術(shù)漏洞檢查與修復(fù)是建立在算法容錯(cuò)設(shè)計(jì)之上的步驟,當(dāng)檢查出技術(shù)漏洞時(shí),系統(tǒng)應(yīng)將錯(cuò)誤限制在一定范圍之內(nèi),防止錯(cuò)誤進(jìn)一步擴(kuò)散,尤其是對(duì)存在算法黑箱的人工智能技術(shù),應(yīng)檢查出漏洞并禁止運(yùn)用于安全責(zé)任要求較高的政府治理領(lǐng)域。
行政文化被視為公共行政之靈魂,正如勞倫斯·邁耶等人所言:“一個(gè)現(xiàn)代政治體系文化形式會(huì)在許多方面受到其國(guó)家歷史的影響,其中影響最深的恐怕算是這個(gè)體系的政治文化了?!盵43](P.15)良性行政文化對(duì)公共行政發(fā)展具有強(qiáng)大的導(dǎo)向和調(diào)節(jié)功能,尤其是智能時(shí)代,推動(dòng)人工智能嵌入政府治理的實(shí)現(xiàn)需要一種新型數(shù)字文化,其區(qū)別于傳統(tǒng)行政文化,具有強(qiáng)調(diào)技術(shù)領(lǐng)先、追求和諧合作、鼓勵(lì)社會(huì)參與、主動(dòng)共享資源等特點(diǎn)。因此,良性行政文化對(duì)促進(jìn)資源共享、提升行政效率具有重要價(jià)值。從當(dāng)前智能治理的實(shí)踐過程來看,存在著形式主義的消極文化、忽視人文關(guān)懷的政績(jī)文化、技術(shù)依賴的懶政文化,這制約了政府治理效能的提高。因此,面對(duì)陌生而又神奇的人工智能技術(shù),一方面部分政府部門及其工作人員將引入智能技術(shù)視為追趕時(shí)髦,而不論自身是否適合引入以及相關(guān)配套設(shè)施是否完善,有的存在職業(yè)倫理失范、數(shù)字能力缺失、知識(shí)革新欲望較弱等不足,而這將會(huì)導(dǎo)致隨意收集數(shù)據(jù)、錯(cuò)誤收集數(shù)據(jù)等問題。另一方面,積極向上的行政心理文化是保證行政人員以充滿活力的精神狀態(tài)完成行政目標(biāo)的關(guān)鍵因素。而在現(xiàn)實(shí)中,由于部分工作人員面對(duì)新興技術(shù)時(shí)缺乏必要的心理準(zhǔn)備,容易將其視為圭臬而不思發(fā)揮主觀能動(dòng)性。立足于此,其一,要不斷重塑智能時(shí)代的責(zé)任倫理體系。責(zé)任倫理是行政文化的重要內(nèi)容,康德曾高度認(rèn)可責(zé)任的重要性,責(zé)任一旦被理性主體理解與吸收,則會(huì)逐漸內(nèi)化并指導(dǎo)自身行為。因此,必須著眼于智能時(shí)代政府治理建設(shè)需要,培養(yǎng)公共行政人員的風(fēng)險(xiǎn)識(shí)別能力、批判性思維,注重倫理美德養(yǎng)成,明確自身責(zé)任,加強(qiáng)行政心理的調(diào)適,努力適應(yīng)智能技術(shù)帶來的強(qiáng)大沖擊力。其二,要防止引入人工智能而使得政府治理滑入價(jià)值悖論與技術(shù)官僚主義旋渦,從而須構(gòu)建智能時(shí)代的法治性、積極性行政文化,以支持政府模式與技術(shù)創(chuàng)新的態(tài)度,增強(qiáng)行政人員數(shù)字能力素養(yǎng),使其了解智能技術(shù)本質(zhì),明晰運(yùn)用人工智能并非機(jī)器替換人,而是作為提升政府治理效能的有效手段。不能用機(jī)器責(zé)任替換行政固有責(zé)任,克服智能官僚主義,推動(dòng)政府治理革新。其三,要努力打造崇尚公共服務(wù)精神的行政文化,當(dāng)智能系統(tǒng)能有效處理政府治理中日常性事務(wù)時(shí),各級(jí)政府應(yīng)注重自主性管理,主動(dòng)作為,不能成為智能機(jī)器附庸,以智能自主性擠兌行政自主性,而要提高自我價(jià)值判斷和自主選擇能力,使自身成為能動(dòng)性道德主體,將更多精力置于提高公共服務(wù)質(zhì)量和公眾滿意度之上。
注釋:
①“墮距”一詞最先來源于奧格本(William Fielding Ogburn)的文化墮距理論(Culture Lag),意指由于文化的變遷,但文化各部分變遷速度不一致,將導(dǎo)致各部分之間的緊張和失調(diào)(參見[美]威廉·奧格本.社會(huì)變遷:關(guān)于文化和先天的本質(zhì)[M].王曉毅,陳育國(guó)譯.杭州:浙江人民出版社,1989.),后來被廣泛用于應(yīng)然與實(shí)然之間的懸殊和失調(diào)的現(xiàn)象,如政府職能、制度與執(zhí)法等。本文所指問責(zé)墮距是指由于諸多因素影響導(dǎo)致實(shí)際問責(zé)與應(yīng)然存在差距。