郭一帆
(1.忻州師范學(xué)院 法律系,山西 忻州 034000;2.全州大學(xué) 法學(xué)院,韓國 全州 55069)
詹姆斯·瓦特發(fā)明蒸汽機導(dǎo)致第一次工業(yè)革命,最終使農(nóng)業(yè)社會轉(zhuǎn)變?yōu)楣I(yè)社會。第一次工業(yè)革命的產(chǎn)業(yè)核心從農(nóng)產(chǎn)品生產(chǎn)轉(zhuǎn)向機械化勞動生產(chǎn),生產(chǎn)中心從生產(chǎn)各種農(nóng)產(chǎn)品的農(nóng)村轉(zhuǎn)移到生產(chǎn)批量產(chǎn)品的工業(yè)城市。新技術(shù)的出現(xiàn)、人口向城市遷移以及重點工業(yè)的轉(zhuǎn)移導(dǎo)致了農(nóng)業(yè)社會向工業(yè)社會不可逆轉(zhuǎn)的轉(zhuǎn)變。城市成為社會、經(jīng)濟和政治交往的主要平臺。制造業(yè)成為經(jīng)濟中最重要的部分,成為國家財富和權(quán)力的源泉。制造業(yè)創(chuàng)造了新的需求和市場,進一步加速了生產(chǎn)者的崛起,促進了加工工業(yè)以及其他工業(yè)的快速發(fā)展,推動了現(xiàn)代化工業(yè)國家的建立。類似的社會變革也體現(xiàn)在第二和第三次工業(yè)革命進程中。電力促進了電燈器具的發(fā)明,進而擴大了人們夜間活動的范圍,也推動了諸如電報等通信設(shè)備的使用,使人們能夠進行即時長途通信,縮短了獲得信息的時間。然后在電學(xué)基礎(chǔ)之上,人類發(fā)明了模仿人類大腦計算功能的計算機,隨后又發(fā)明了互聯(lián)網(wǎng)——將計算機連接成一個類似大腦的網(wǎng)絡(luò)。計算機和互聯(lián)網(wǎng)共同形成了所謂的信息社會(Information Society),其經(jīng)濟活動從物質(zhì)生產(chǎn)轉(zhuǎn)向信息處理活動。在信息社會中,人工智能(AI)、物聯(lián)網(wǎng)(IOT)、機器人工學(xué)、大數(shù)據(jù)、云計算、無人機、3D打印機、生命工學(xué)、納米工學(xué)等信息技術(shù)的發(fā)展推動了新一輪的工業(yè)革命——“第四次工業(yè)革命”[1]?!暗谒拇喂I(yè)革命”一詞最早是在2016年達沃斯論壇(Davos Forum;World Economic Forum)上由論壇創(chuàng)始人兼現(xiàn)任會長克勞斯·施瓦布(Klaus Schwab)提出的。[2]
在第一次工業(yè)革命中,大多數(shù)國家仍處于農(nóng)業(yè)國,而西歐少數(shù)幾個國家如英國、法國、德國開始轉(zhuǎn)型為工業(yè)社會,人口開始從農(nóng)村遷移到城市,制造業(yè)成為國家經(jīng)濟支柱產(chǎn)業(yè)。英國、法國、德國等國家從新的生產(chǎn)引擎中獲得了前所未有的權(quán)力和財富,在農(nóng)業(yè)時代掌握了統(tǒng)治權(quán)。第一次工業(yè)革命以前,土地和農(nóng)業(yè)是財富和權(quán)力的主要來源,因此國王、貴族、地主等特權(quán)階級占有絕大多數(shù)的土地,控制著國家政權(quán)。[3]當時政府公職由繼承或買賣獲得,政府的政策和決策因領(lǐng)導(dǎo)人的不同而具有很大的差異,由此導(dǎo)致了公共行政標準缺乏全面性和一致性,進而導(dǎo)致當時的傳統(tǒng)農(nóng)業(yè)社會不能適應(yīng)工業(yè)革命所帶來的混亂,社會的混亂迫使政府公共行政開始尋求轉(zhuǎn)型。此外,農(nóng)業(yè)社會是以血緣關(guān)系、面對面接觸、不成文規(guī)范和相互依存的社會網(wǎng)絡(luò)為基礎(chǔ)的,而工業(yè)社會的社會關(guān)系則是非面對面的、不以人與人之間的關(guān)系為基礎(chǔ)。工業(yè)社會的發(fā)展導(dǎo)致以血緣為紐帶的農(nóng)業(yè)社會關(guān)系的解體,引發(fā)了社區(qū)失靈,因此需要有一種新的管理體制來協(xié)調(diào)這些匿名和非基于血緣關(guān)系的陌生人關(guān)系,這種新的社會管理體制即我們的現(xiàn)代政府。[4]新的政府體制取代了舊的體制,政府公職人員不再由貴族擔(dān)任,土地規(guī)劃不再由國王決定而是由憲法、法律、行政法規(guī)規(guī)定。政府的行政辦公逐漸全面化、規(guī)范化,行政決策也逐步標準化、法治化。盡管我們把這一切變革理解為政府為應(yīng)對工業(yè)革命而作出的改變,但實際上成功的轉(zhuǎn)型并不容易。新技術(shù)本身并不能使一個國家過渡到下一階段——政府需要適應(yīng)新的環(huán)境,提供新的政策、程序和結(jié)構(gòu),以借助這一次工業(yè)革命的力量順利實現(xiàn)轉(zhuǎn)型。[5]當前,第四次工業(yè)革命如何助力政府數(shù)字化轉(zhuǎn)型成為新的議題。
人工智能、算法和大數(shù)據(jù)可以稱之為決定未來國家競爭力的重要產(chǎn)業(yè)領(lǐng)域,是第四次工業(yè)革命的核心領(lǐng)域。人工智能(Artificial Intelligence)是指通過人的設(shè)計和加工而具有人性或智力的存在或智能。另一種說法是,人工智能也被稱為人造智能、智能機器人或智能代理。[6]人工智能并不是單一的一項技術(shù),而是由復(fù)雜的多種計算機技術(shù)構(gòu)成的智能系統(tǒng)。這些技術(shù)包括人工神經(jīng)網(wǎng)絡(luò)、進化計算(由遺傳算法、進化戰(zhàn)略和遺傳程序設(shè)計)、模糊邏輯、專家系統(tǒng)、學(xué)習(xí)分類系統(tǒng)、自動學(xué)習(xí)和深度學(xué)習(xí)等。[7]簡單來說,人工智能可以分為軟件(算法)和硬件(機器)兩類。軟件中的人工智能技術(shù)包括數(shù)據(jù)挖掘、文本挖掘和情緒分析。在硬件中,主要有機器人、自主車輛、人工視覺和虛擬現(xiàn)實等技術(shù)。[8]這些技術(shù)的應(yīng)用將有助于實現(xiàn)工業(yè)自動化、降低成本和錯誤、提高效率和競爭力、創(chuàng)造價值和避免欺詐。人工智能技術(shù)的產(chǎn)生需要具備以下領(lǐng)域的知識:物理學(xué)、生物學(xué)、電子學(xué)和編程學(xué),在一些特殊領(lǐng)域,研究人工智能甚至還需要了解神經(jīng)科學(xué)、語言學(xué)、程序設(shè)計、統(tǒng)計學(xué)、運籌學(xué)、博弈論等方面知識。
算法是指明確描述解決某一問題的程序(過程)。[9]算法來源于9世紀波斯數(shù)學(xué)家“阿勒霍瓦里松(al-khwarizmi)”的名字,算法由邏輯(logic)和控制(control)兩個元素組成。邏輯是知識解決問題,控制是策略解決問題。算法按照事先給定的順序依命令運行并提供結(jié)果,例如,谷歌搜索算法“頁面排名(PageRank)”根據(jù)文檔的相對重要程度進行加權(quán),對結(jié)果進行排序。算法具有權(quán)力性、政治性、秘密性、商業(yè)性和生活滲透性。[10]算法的權(quán)力性,是指算法可以改變?nèi)说奈幕?、價值觀,也可以判斷人的重要權(quán)利受到的侵害和影響。另外,算法也具有政治性。人在與他人進行多種方式的互動中,他們的價值觀和想法可以被修正和調(diào)整,也就是說,通過算法可以控制人的價值觀、想法和世界觀等。這些算法的控制可以被算法的創(chuàng)建者多樣化,因此算法本身可以作為一個政治工具而具有政治性。算法還具有秘密性,即算法不容易被公開或者即使算法被公開也不容易被人了解。此外,算法在我們的生活中隨處可見,并經(jīng)常用于商業(yè)和生活,因此具有商業(yè)性和生活滲透性。例如算法通過分析人們的喜好,向人們推薦音樂、電影、新聞等多種服務(wù)或商品等。
大數(shù)據(jù)是指提取和分析大量整型或非整型數(shù)據(jù)的集合以及從這些數(shù)據(jù)中提取價值的技術(shù),其規(guī)模龐大、生成周期短,提取的數(shù)據(jù)不僅包括數(shù)值數(shù)據(jù),還包括文字和圖像數(shù)據(jù)。梅塔集團(現(xiàn)加特納)的分析師道格蕾妮(Doug Laney)在2001年的研究報告和相關(guān)講座中提出了“3V”模式來定義大數(shù)據(jù)的三個特征:數(shù)據(jù)量(volume)、數(shù)據(jù)輸入輸出的速度(velocity)、數(shù)據(jù)種類的多樣性(variety)。[11]這個“3V”模式后來成為使用最廣泛的大數(shù)據(jù)的定義。之后IBM加上“準確性”(veracity)這一元素,此外還添加了“可變性”(variability)來定義其特征。
人工智能(AI)、算法和大數(shù)據(jù)構(gòu)成了第四次工業(yè)革命的三大要素。其中大數(shù)據(jù)是基礎(chǔ)要素,如果沒有高質(zhì)量的、大量的數(shù)據(jù)注入,那么AI技術(shù)和算法就毫無意義。反過來,人工智能和算法技術(shù)的發(fā)展也提高了數(shù)據(jù)的質(zhì)量和利用效率,促進了大數(shù)據(jù)技術(shù)的發(fā)展。
人工智能、算法、大數(shù)據(jù)等前沿技術(shù)能減輕行政負擔(dān)、協(xié)助解決資源分配問題,各個國家、政府機構(gòu)都在努力發(fā)展前沿技術(shù)來改善政務(wù)服務(wù)。
在澳大利亞,虛擬聊天助理“Alex”減輕了澳大利亞稅務(wù)局客服的服務(wù)壓力?!癆lex”答復(fù)了接近80%的客戶咨詢,并解決了客戶60%到65%的問題,讓澳大利亞稅務(wù)局的工作人員可以利用剩余時間解決客戶相對復(fù)雜的難題。[12]
在美國,洛杉磯機場的警察沒有足夠的警力來隨時對機場人員進行檢查,他們在AI的幫助下,預(yù)測了洛杉磯機場的安全日程并制定了巡邏路線,以此減少警力輸出壓力。在紐約和洛杉磯主要港口,類似的AI技術(shù)被用于隨機安排船只巡邏路線。紐約市使用大數(shù)據(jù)和人工智能方法監(jiān)測水流、識別和修復(fù)水泄漏。華盛頓特區(qū)通過檢查用水趨勢數(shù)據(jù)來確定潛在的水管滲漏和管道問題并為顧客提供用水高峰示警。舊金山市通過無線智能控制器運行街燈系統(tǒng)以降低能源成本,該系統(tǒng)讓城市工作人員能夠遠程監(jiān)控城市每一盞燈的性能,根據(jù)需要調(diào)整光強水平,在檢測不到人類活動時減少所需的光線。此外,美國數(shù)個城市已安裝名為“Shot Spotter”的偵測系統(tǒng),利用分布在城市街區(qū)內(nèi)的網(wǎng)絡(luò)聲音感應(yīng)器,自動識別槍彈的聲響并準確地報告地點。Shot Spotter的算法可以區(qū)分槍彈和其他類似聲音如汽車回音,可以測量槍彈的起源、確定是否涉及多枚槍械,并識別射手移動的方向。[13]
在英國,英國自然環(huán)境研究委員會(NECK)正在向國立海洋科學(xué)中心、埃克塞特大學(xué)和南安普敦大學(xué)投資430萬英鎊進行傳感器研究。這些傳感器將幫助研究人員回答有關(guān)海洋中的問題,例如二氧化碳如何在大氣和水之間流動、海洋保護區(qū)中的冷水珊瑚的健康狀況等。[14]
在我國,大數(shù)據(jù)、人工智能、云計算等技術(shù)為我國政府數(shù)字化轉(zhuǎn)型帶來了契機。我國不斷推進“互聯(lián)網(wǎng)+政務(wù)服務(wù)”業(yè)務(wù)體系,創(chuàng)建電子政務(wù)app,實現(xiàn)了“最多跑一次”“一網(wǎng)通辦”的便民服務(wù)。以北京市為例,市民打開“北京通”,無論是辦身份證、居住證,還是辦理社??ǖ葮I(yè)務(wù),僅需要填一張表就可以完全辦理,省去了繁瑣的程序和手續(xù)費。[15]又如,在疫情防控期間,“健康碼”“行程碼”的應(yīng)用對加強疫情防控、穩(wěn)定社會秩序起到了重要作用。
第四次工業(yè)革命在對政府數(shù)字化轉(zhuǎn)型提供種種助力的同時,也提出了諸多挑戰(zhàn),這些挑戰(zhàn)包括人工智能的倫理挑戰(zhàn)、算法不透明和算法歧視導(dǎo)致的社會公正挑戰(zhàn)、大數(shù)據(jù)公開和共享難題導(dǎo)致的數(shù)據(jù)利用挑戰(zhàn)以及在信息化社會中公民個人信息保護的挑戰(zhàn)。
目前,人工智能技術(shù)似乎正在為人們做出一些次要和初步的決定,隨著數(shù)據(jù)的可獲得性和機器學(xué)習(xí)工具的日益成熟,未來它們可能做出具有法律后果的重要決策,這些決策可能會引發(fā)一些倫理挑戰(zhàn)。
首先,我們?nèi)绾未_定人工智能的決策界限?例如COMPAS是預(yù)測犯罪分子再犯可能性的人工智能,該軟件基于犯罪分子對137個調(diào)查問題的回答,推斷出其再犯的可能性。也就是說,COMPAS可以對犯罪分子的犯罪經(jīng)歷、教育水平、職業(yè)經(jīng)歷、是否服用藥物、精神健康狀態(tài)等進行評價,并在此基礎(chǔ)上預(yù)測再犯的可能性。美國司法部的法官們將以COMPAS的再犯危險評價為基礎(chǔ),決定被告保釋金的數(shù)額及刑量相關(guān)的所有問題。[16]這一事實引起了人們關(guān)于人工智能決策的廣泛討論:在這種情況下,我們應(yīng)該僅僅把人工智能的決策作為建議呢,還是會把它置于人類決定之上呢?換句話說,我們要把人工智能推導(dǎo)的決策視為一種政治正確的、價值中立的、基于證據(jù)的客觀結(jié)果來遵循,還是我們僅僅將它們視為值得我們考慮的建議?我們必須為人工智能的決策定下界限。
其次,另一個需要考慮的重要問題是人工智能將如何確定“好”(或可?。┖汀皦摹保ú豢扇。┮约啊案匾保榱苏l)?換句話說,就是人工智能的決策標準是什么?當前人工智能技術(shù)廣泛地應(yīng)用于各種自主系統(tǒng)中,如無人駕駛系統(tǒng)或者自主武器系統(tǒng),當發(fā)生人類無法介入而只有人工智能可以決策的情況時,究竟該如何決策?例如,公共汽車進行自動駕駛時,如果不可避免地卷入一起交通事故,而其智能系統(tǒng)只有兩個壞選擇,要么是選擇避開附近的幾名行人但是公共汽車司機將會發(fā)生危險,要么是選擇保護司機而使行人受損。在這種類似“電車困境”的道德難題下,人工智能應(yīng)根據(jù)什么原則進行決策是當前需要進行明確的。[17]
最后,人工智能是否應(yīng)為它的決策失誤負責(zé)?換句話說,人工智能能否成為權(quán)利主體(legal subject)?如果人工智能可以成為權(quán)利主體,那么根據(jù)民法,人工智能的意思表示可以認定為具有法律效力,那么基于人工智能意思表示而作出的決策產(chǎn)生錯誤的話,人工智能也可以作為責(zé)任主體承擔(dān)責(zé)任。但是賦予人工智能與人類相同的權(quán)利能力和行為能力具有相當大的倫理風(fēng)險,關(guān)于這一問題還需要深入討論。
算法不透明是信息時代最大的困境之一。不透明是算法的一個特征,就連程序員也無法完全理解該算法如何讀取和處理數(shù)據(jù)。在研究機器學(xué)習(xí)算法的具體情況時,珍娜·伯雷爾描述了三種不透明性[18]:第一種我們可以稱為“故意的”不透明——這是一種保密形式,使用該算法的公司故意隱瞞其工作過程。這種形式的不透明是出于保護公司秘密、保持競爭優(yōu)勢或避免公眾監(jiān)督的意圖。第二種可以稱之為技術(shù)文盲的不透明——這是一種功能不透明形式,表現(xiàn)為沒有技術(shù)訓(xùn)練的人無法閱讀代碼。由于寫作和閱讀代碼是一種專門的活動,大多數(shù)人沒有接受過任何訓(xùn)練是無法理解算法代碼的,所以造成了這種形式的不透明。例如編程人員開放了算法的源代碼,這些算法可以公開使用,但對沒有適當培訓(xùn)的人來說,它們的操作基本上是難以理解的。第三種是本質(zhì)上的不透明。現(xiàn)實情況是,某些機器學(xué)習(xí)算法(例如神經(jīng)網(wǎng)絡(luò))本質(zhì)上是非常不透明的。給這些算法編程的人并不知道算法做出決定的依據(jù)。編程人員只是使用學(xué)習(xí)規(guī)則對系統(tǒng)進行編程,然后在對算法進行數(shù)據(jù)訓(xùn)練后,算法便會生成自己的規(guī)則集。此外,編程人員不會單獨對算法進行操作,他們通常通過團隊合作將舊代碼組合在一起形成新系統(tǒng),這就創(chuàng)建了一個復(fù)雜的算法生態(tài)系統(tǒng),而由于編程人員較多、編程過程復(fù)雜,所以可能很難進行算法逆向推理。算法的不透明造成了人們無法確定算法的分析和決策是否符合倫理標準,因此也就無法準確判斷在人工智能事故中算法是否存在問題。
此外,越來越多的學(xué)者開始關(guān)注算法歧視問題。凱西·奧尼爾在其“算法霸權(quán)”一書中寫道,數(shù)學(xué)應(yīng)用助推數(shù)據(jù)經(jīng)濟,但這些應(yīng)用的建立是基于不可靠的人類所做的選擇。有些選擇無疑是出于好意,但也有許多模型把人類的偏見、誤解和偏愛編入了軟件系統(tǒng),而這些系統(tǒng)正日益在更大程度上操控著我們的生活。[19]算法也是如此,算法程序可能包含了人類的偏見,而這種偏見導(dǎo)致了對少數(shù)群體的歧視。
算法的歧視大致可分為兩類。第一種是指在算法的設(shè)計階段,開發(fā)人員故意插入了一個歧視性元素,從而導(dǎo)致了歧視性結(jié)果。第二種可以認為,不管算法開發(fā)者的意圖如何,都會產(chǎn)生差異效果。根據(jù)算法的程序,自動決策中包含的優(yōu)先級、分類、關(guān)聯(lián)、過濾等都可能繼承現(xiàn)有社會的偏見并隱含歧視性屬性。這種歧視往往很難通過技術(shù)手段消除,而從源頭上甄別哪些數(shù)據(jù)帶有歧視性是極其困難的,導(dǎo)致這一算法一旦形成并投入使用的話會對社會公平造成較大的影響。例如,谷歌的廣告門戶網(wǎng)站將關(guān)鍵詞“黑人女孩”“亞洲女孩”和“拉丁女孩(但不是“白人女孩”)”與色情網(wǎng)站連接起來。另外,在針對美國國家橄欖球聯(lián)盟(National Football League)的訴訟中,黑人球員聲稱,聯(lián)盟使用的評估神經(jīng)認知功能算法認為黑人球員天生就比白人球員有更低的認知功能,這使得他們更難獲得與腦震蕩有關(guān)的癡呆癥的賠償。[20]這一事件迅速引起了美國社會中對算法種族歧視的討論。除此以外,算法的歧視還表現(xiàn)在性別歧視、國籍歧視等方面。
海量的數(shù)據(jù)產(chǎn)生,起到了持續(xù)觸發(fā)良性循環(huán)結(jié)構(gòu)、引導(dǎo)第四次工業(yè)革命的關(guān)鍵作用。大數(shù)據(jù)是信息社會最基礎(chǔ)的元素,是提升國家和社會競爭力的有力武器。如果全社會的數(shù)據(jù)可以實現(xiàn)完全流通和交易,那么其價值將不可估量。數(shù)據(jù)的流通需要具備完善的數(shù)據(jù)生態(tài)系統(tǒng)。數(shù)據(jù)生態(tài)系統(tǒng)可分為五個階段過程:第一獲取階段,即生產(chǎn)數(shù)據(jù)階段。在這個階段,可能會有收集和加工現(xiàn)有數(shù)據(jù)的過程;第二階段是處理數(shù)據(jù)的階段,為符合利用的目的進行存儲、修改、刪除和補充數(shù)據(jù);第三個階段是分析利用數(shù)據(jù)的階段;第四階段是將與分析和利用相關(guān)的數(shù)據(jù)結(jié)果存放在儲存裝置中;第五個階段是重新使用或銷毀保存的數(shù)據(jù)。[21]在這五個階段中,第一和第二最容易實現(xiàn),例如我國政府通過多種方式收集、記錄公民信息,并成立了多個數(shù)據(jù)平臺進行數(shù)據(jù)的處理和存儲。而第四步和第五步也較容易實現(xiàn)。我國數(shù)據(jù)不能實現(xiàn)完全流通,問題出在第三步,即數(shù)據(jù)的利用。
當前我國數(shù)據(jù)“割據(jù)”問題嚴重,數(shù)據(jù)管理各自為政、數(shù)據(jù)共享縱強橫弱,部門獲取地方信息容易、地方獲取部門信息困難,垂直管理部門內(nèi)部共享容易、跨省橫向共享困難。[22]究其原因,一是數(shù)據(jù)孤島難打破。部門與部門之間相對獨立,數(shù)據(jù)被各自存儲、各自保管。又因為各部門功能不同,對數(shù)據(jù)的使用和定義有比較大的差異,最終導(dǎo)致數(shù)據(jù)無法互通,形成孤島。另外,各部門功能化、層級化管理衍生出的數(shù)據(jù)保護主義,導(dǎo)致各部門認為其收集的數(shù)據(jù)屬于“個人資產(chǎn)”或者“部門資產(chǎn)”,為鞏固本部門權(quán)力而“不敢共享、不愿共享”。二是并未建立統(tǒng)一的數(shù)據(jù)共享和交易平臺。目前,我國多數(shù)省份建立了大數(shù)據(jù)處理中心以處理各省采集的公共數(shù)據(jù),基本實現(xiàn)了市與省之間的縱向數(shù)據(jù)傳輸,但是市與市之間、省與省之間并未建立統(tǒng)一的數(shù)據(jù)共享和交易平臺,數(shù)據(jù)與數(shù)據(jù)的共享和交易仍存在橫向的物理隔離。三是數(shù)據(jù)開放和共享的法律制度不夠完善。例如目前我國在國家層面缺乏統(tǒng)一的數(shù)據(jù)開放和共享的法律規(guī)定,已經(jīng)有數(shù)據(jù)開放和共享立法實踐的部分省市在數(shù)據(jù)開放的種類、開放的原則、開放的程序、開放的標準等方面也存在許多差異。另外這些地方立法存在“立法重復(fù)”“立法抄襲”的情況,因此,有必要完善數(shù)據(jù)共享開放法律制度,在國家層面制定數(shù)據(jù)開放和共享法律或者行政法規(guī)以統(tǒng)一數(shù)據(jù)處理規(guī)范、指導(dǎo)地方數(shù)據(jù)處理實踐,為提高數(shù)據(jù)利用效率保駕護航。
個人信息是以電子或者其他方式記錄的能夠單獨或者與其他信息結(jié)合識別特定自然人的各種信息,包括自然人的姓名、出生日期、身份證件號碼、生物識別信息、住址、電話號碼、電子郵箱、健康信息、行蹤信息等。個人信息分為私密信息和非私密信息,其中私密信息適用《民法典》有關(guān)隱私權(quán)的規(guī)定。
政府出于管理的目的收集和利用個人數(shù)據(jù)。政府部門之間公開和共享數(shù)據(jù),有助于促進部門合作、減少行政負擔(dān)、提高服務(wù)效率,降低政務(wù)成本。然而數(shù)據(jù)開放和共享是把雙刃劍,數(shù)據(jù)之間加速流通不僅帶來了種種便利,也帶來了公民個人信息被侵犯的風(fēng)險。這種風(fēng)險表現(xiàn)為:一是非法處理個人信息的風(fēng)險,如不經(jīng)過公民同意,任意采集、使用、加工、公開公民個人信息。二是因政府工作人員或系統(tǒng)漏洞、黑客攻擊等原因造成個人信息被泄露的風(fēng)險。
在現(xiàn)實生活中,政府可以根據(jù)公共管理需要采集、使用、公開個人信息,但是在這一過程中政府機關(guān)不經(jīng)過公民同意,任意處理公民個人信息的例子并不鮮見。例如,新京報記者在景德鎮(zhèn)市人社局官網(wǎng)上,發(fā)現(xiàn)一則名為“大學(xué)生一次性創(chuàng)業(yè)補貼人員花名冊”,用戶無需登錄,即可下載這一表格。表格中,14名創(chuàng)業(yè)大學(xué)生的學(xué)號、身份證號、手機號碼等信息均有載錄。記者詢問其中4名大學(xué)生,均表示此前曾被告知領(lǐng)取創(chuàng)業(yè)補貼需進行公示程序,但對個人信息被一并發(fā)布一事不知情。[23]這一事例說明雖然隨著公眾對政府信息公開需求的提升,政府信息公開制度已逐步建立,但是這一制度欠缺個人信息保護機制,同時缺少敏感信息審查機制和程序。
此外,因政府工作人員失誤、系統(tǒng)存在漏洞或者黑客攻擊等原因造成個人信息泄露的案例也層出不窮。例如,“健康寶”是北京市大數(shù)據(jù)中心依托北京市防疫相關(guān)數(shù)據(jù)和國家政務(wù)服務(wù)平臺相關(guān)功能,針對當前新冠肺炎疫情防控需要,方便廣大市民、進(返)京人員查詢自身防疫相關(guān)健康狀態(tài)、幫助城市恢復(fù)生產(chǎn)生活秩序,推出的一項數(shù)字化信息服務(wù)工具。而2020年12月,眾多明星在健康寶上的素顏照被泄露,明星素顏照甚至被黃牛以“1元錢”打包出售。[24]這次明星素顏照被泄露是因為健康寶查詢核酸檢測結(jié)果的程序存在漏洞導(dǎo)致的。除此以外,2020年8月公安部通報了數(shù)起防疫工作人員違反疫情防控工作紀律的事件,例如因防疫需要收集的公民個人信息通過微信群進行公開而造成了公民個人信息泄露等。
第四次工業(yè)革命帶來的社會變革是全局性、根本性和長期性的,政府為了在這場社會變革中享受技術(shù)紅利,就有必要對這些前沿技術(shù)進行規(guī)范和引導(dǎo),以維護社會的公平穩(wěn)定和安全,促進社會和諧健康發(fā)展。
人工智能是一把雙刃劍:一方面,政府可以利用人工智能應(yīng)用的潛力改善公共事務(wù)、提高行政服務(wù)效率。另一方面,人工智能的風(fēng)險表明,人工智能需要基于原則和社會核心價值的倫理規(guī)范和監(jiān)管才能為人類帶來好處。
首先,確保人類對人工智能的控制權(quán)、確保人類才是決策者,需要設(shè)定人工智能的倫理規(guī)范——類似于阿西莫夫的機器人三原則——將人工智能設(shè)定為人類的從屬助手。阿西莫夫的機器人三原則是指:一是機器人不能傷害人類,或因不作為使人類受到傷害;二是機器人必須服從人類發(fā)出的命令,除非這些命令違反第一條規(guī)定。三是機器人必須保護自己的存在,但這種保護違反第一和第二原則時除外。[25]許多國家在這一基礎(chǔ)上發(fā)展了各自的人工智能倫理規(guī)范。例如,2007年韓國產(chǎn)業(yè)資源部制定機器人倫理規(guī)范作為對機器人產(chǎn)業(yè)的積極應(yīng)對方案,其具體內(nèi)容是:人與機器人應(yīng)相互尊重生命的尊嚴,保護并遵守既定的權(quán)利、信息倫理及工程倫理等,機器人作為使用者——人類的朋友和幫手伙伴,必須始終服從人類的命令。[26]我國可以參照這一規(guī)范,制定我國的人工智能倫理規(guī)范指南。
其次,為解決道德困境,我們必須為人工智能輸入人類的價值觀。香港科技大學(xué)和南洋理工大學(xué)的研究人員審查了主要AI會議上關(guān)于現(xiàn)有倫理決策框架的文章,并提出了將其劃分為四個領(lǐng)域:探索倫理困境、個人倫理決策框架、集體倫理決策框架和人類與AI相互作用的倫理。其他研究者也回顧了關(guān)于通用AI的安全性研究,提出倫理決策問題研究通常采用強化學(xué)習(xí)的理論框架。他們假設(shè)理性的智能主體可以通過與社會環(huán)境互動的經(jīng)驗來學(xué)習(xí)人類的道德偏好和規(guī)則。因此,在強化學(xué)習(xí)的框架下,人工智能設(shè)計者可以將道德價值觀指定為獎勵函數(shù),以使人工智能的目標與其人類伙伴保持一致,并刺激其按照人類道德規(guī)范行事。[27]因此,我們應(yīng)該把人類的價值觀、倫理規(guī)范內(nèi)化為人工智能的軟件規(guī)范,指導(dǎo)人工智能系統(tǒng)的設(shè)計和實現(xiàn)。在設(shè)計人工智能之初,編程人員就應(yīng)該根據(jù)不同的場景設(shè)計不同的道德原則和標準,并根據(jù)這些道德標準對人工智能進行訓(xùn)練,而且這些訓(xùn)練應(yīng)貫穿人工智能生產(chǎn)和應(yīng)用的整個生命周期。在人工智能強化學(xué)習(xí)框架下,通過不斷內(nèi)化人類的道德規(guī)范,人工智能才可以規(guī)避更多的道德風(fēng)險、可以更好地適用于各種道德場景中,在未來,也許人工智能可以解決連人類都無法完美解決的“道德困境”。
最后,關(guān)于人工智能能否為決策失誤承擔(dān)責(zé)任,需要考慮人工智能的意思表達能力。目前人工智能技術(shù)仍處于弱人工智能階段。具備一定心智和意識,能夠根據(jù)自身意圖展開行動的“強人工智能”還沒有產(chǎn)生。[28]因此,現(xiàn)階段不應(yīng)當認定人工智能具有和人類相同的權(quán)利主體地位。根據(jù)民法的規(guī)定,人工智能可以認定為物(或產(chǎn)品),在不同情況下,人工智能的生產(chǎn)者、銷售者、使用者或者所有者應(yīng)為人工智能的決策失誤負責(zé)。
算法在人類社會快速發(fā)展的同時,算法的不透明和算法歧視也引起了人們對算法侵害公民權(quán)利和自由、威脅社會公平和正義的普遍擔(dān)憂,因此,政府應(yīng)堅持人性尊嚴本位,對算法進行監(jiān)管和規(guī)范。
算法不透明有三種形式,針對第一種“故意的”算法不透明,理論上來說只需要取消法律特殊保護、堅決抵制企業(yè)知識產(chǎn)權(quán)壟斷、推動建立更多的開源系統(tǒng),就可以消除這種形式的算法不透明。目前歐盟的《一般數(shù)據(jù)保護條例》(GDPR)正在進行這方面的努力。[29]但是要實現(xiàn)這方面的算法透明,其真正的阻力是企業(yè)對算法利益的維護。因此,即使歐盟努力推進GDPR法案實施,但是其有效性仍有待于觀察。我國可以在加強算法知識產(chǎn)權(quán)保護力度的基礎(chǔ)上,逐步推動企業(yè)公開算法程序。在涉及成為商業(yè)秘密的算法時,可以不強制要求算法公開,要求企業(yè)對算法決策過程進行解釋即可。針對第二種所謂技術(shù)文盲算法不透明形式,從長遠來看,可以通過加強算法教育來應(yīng)對,例如從小學(xué)起開設(shè)算法編程課程以培養(yǎng)人們的算法知識素養(yǎng)。從短期來看,可以對政府工作人員進行算法知識培訓(xùn),尤其是重點培養(yǎng)監(jiān)管人員的算法知識水平。除此以外可以建立獨立的算法審查和許可機構(gòu),通過招聘、聘任、選調(diào)有能力的算法專家,加強對算法的審查和監(jiān)管。針對第三種本質(zhì)上的算法不透明,可以采用技術(shù)和制度雙重手段進行監(jiān)督。一是可以設(shè)計“算法記錄儀”放置于算法程序中,專門記錄算法演算過程。二是通過法律規(guī)定強制要求編程人員進行更加簡單的、具有可解釋性的算法編程,但這可能會在一定程度上影響程序的效率和準確性。事實上,在算法監(jiān)管中,算法決策系統(tǒng)的不透明性是至關(guān)重要的變量。如果我們要保障個人的合法權(quán)益,那么就需要確保算法透明度。因此,為加強監(jiān)管,根據(jù)比例原則和公平原則,在算法程序的效率和準確性方面做出讓步是必要的。
算法可能隱含偏見和歧視,會對社會的公平和正義造成負面影響,因此有必要減少和消除這些偏見和歧視。而要做到這一點,需要從開發(fā)做起,即選擇適當?shù)臄?shù)據(jù)樣本,選擇合適的開發(fā)者。選擇數(shù)據(jù)樣本需要注意避免樣本偏差、幸存者偏差以及概率偏差,也就是說選擇較大的樣本進行統(tǒng)計可以避免以偏概全、選擇多樣的樣本可以全面地觀察問題、選擇用數(shù)學(xué)方法驗證客觀概率以及咨詢多位專家以避免心理概率的偏差。而選擇合適的開發(fā)者需要注意盡量選擇不同性別、不同種族的開發(fā)者,不要對開發(fā)者的選擇存在偏好。同時開發(fā)者也應(yīng)遵守人工智能開發(fā)的倫理原則,避免輸入自己的價值取向,尤其是在行政領(lǐng)域更要避免偏見和歧視態(tài)度,保持對公民的客觀、公正態(tài)度。對于算法歧視的監(jiān)管,一方面可以成立專門的監(jiān)管機構(gòu),如美國的算法問責(zé)法案提出指派一個特別工作組來研究城市政府機構(gòu)使用算法的方式,研究使用算法決策如何影響紐約人的生活,是否系統(tǒng)地出現(xiàn)基于年齡、種族、宗教、性別、性取向或國籍等歧視現(xiàn)象。[30]另一方面可以通過法律規(guī)定創(chuàng)建算法問責(zé)制。算法問責(zé)制,簡單來說就是企業(yè)應(yīng)對自己編程的算法所計算的結(jié)果負責(zé)。對于在算法編程中故意輸入歧視因素,可以直接認定編程人員的責(zé)任,對于非故意造成的歧視,可以通過規(guī)定算法的可解釋性來明確責(zé)任,即如果編程人員可以從技術(shù)角度解釋為什么算法會作出歧視的決定,那么編程人員可以減輕或者免除責(zé)任,如果編程人員無法解釋算法,那么編程人員要為算法歧視結(jié)果負責(zé)。
信息社會中,決定國家競爭力最要緊的是數(shù)據(jù)流通。如果沒有相關(guān)數(shù)據(jù),一個高度精密的人工智能平臺或算法就沒有多大意義。因此,應(yīng)該制定有效的數(shù)據(jù)開放和共享制度,以促進穩(wěn)健的數(shù)據(jù)創(chuàng)造和傳播。各國已開始實施某種形式的國家開放數(shù)據(jù)政策,以促進數(shù)據(jù)的產(chǎn)生和傳播。英國實施了數(shù)據(jù)開放運動,目標包括刺激經(jīng)濟和社會增長、改善社會服務(wù)、提高政府透明度等內(nèi)容,并正在運營開放數(shù)據(jù)門戶。加拿大已開發(fā)了一個數(shù)據(jù)開放門戶試點,建立了十個數(shù)據(jù)開放原則。澳大利亞也開放并啟動了開放數(shù)據(jù)平臺data.gov.au。[31]我國也需要通過完善數(shù)據(jù)公開和共享的法律制度、建立統(tǒng)一的數(shù)據(jù)開放和共享平臺、培養(yǎng)部門信息共享意識等措施,推動數(shù)據(jù)的快速交流和傳播。
首先,制定《數(shù)據(jù)公開和共享法》或者《數(shù)據(jù)公開和共享條例》。我國的政府信息公開和共享的法律體系不夠完善,2016年出臺的《政務(wù)信息資源共享管理暫行辦法》對于完全公開共享數(shù)據(jù)、限制公開共享數(shù)據(jù)、不公開共享數(shù)據(jù)的界限規(guī)定不夠明確,對于各部門的公開共享數(shù)據(jù)的原則和程序也規(guī)定得不夠清晰,因此,有必要盡快制定《數(shù)據(jù)公開和共享法》或者《數(shù)據(jù)公開和共享條例》,以法律或行政法規(guī)的形式規(guī)范政府數(shù)據(jù)公開和共享工作,建立數(shù)據(jù)公開和共享的統(tǒng)一標準,明確數(shù)據(jù)公開和共享的界限、原則、程序以及法律責(zé)任,完善數(shù)據(jù)公開和共享的監(jiān)管機制,為各部門的信息管理工作提供充分的法律依據(jù)。
其次,培養(yǎng)部門信息共享意識。政府數(shù)據(jù)公開與共享的目的是服務(wù)大眾,信息作為一種公共資源,不應(yīng)成為信息利益化、利益部門化的資本,更不能成為信息特權(quán)和信息腐敗的“籌碼”,而應(yīng)為全體社會公眾共同擁有和利用。除國家安全、個人隱私和商業(yè)秘密外,政府信息管理部門應(yīng)盡量擴大數(shù)據(jù)公開的范圍,盡力滿足社會公眾的信息需求。[32]政府應(yīng)通過教育、培訓(xùn)、宣傳等方法培養(yǎng)部門公職人員信息共享意識,樹立以公民需求和利益為中心的服務(wù)理念。
最后,應(yīng)建立統(tǒng)一的數(shù)據(jù)開放和共享平臺。為破解“數(shù)據(jù)割據(jù)”難題,我國應(yīng)建立統(tǒng)一的數(shù)據(jù)開放和共享平臺,以促進數(shù)據(jù)的交流和互動。統(tǒng)一的數(shù)據(jù)開放和共享平臺應(yīng)促進各部門、各層級按照統(tǒng)一的數(shù)據(jù)標準對數(shù)據(jù)進行整合、歸檔、存儲和再利用。通過這一平臺,各部門可以實現(xiàn)部門間的數(shù)據(jù)交換和數(shù)據(jù)確認,避免部門間的重復(fù)數(shù)據(jù)采集。此外,數(shù)據(jù)開放和共享平臺應(yīng)提供在線查閱功能,及時為公眾開放公共數(shù)據(jù),在保障公眾知情權(quán)的基礎(chǔ)上,方便公眾了解、監(jiān)督政府工作。
個人信息需要多維度、多元化保護,最重要的是需要完備的法律制度保障,我國當前通過《民法典》《網(wǎng)絡(luò)安全法》《個人信息保護法》等法律已經(jīng)構(gòu)建個人信息保護法律框架,但是這一法律框架仍有待完善。具體來說,個人信息保護應(yīng)重點從以下幾個方面對個人信息進行保護。
首先,要全面保障個人的信息自決權(quán)。廣義上的信息自決權(quán)是指自主決定和管理有關(guān)自己的信息以保護自己信息的權(quán)利。信息自決權(quán)包括以下內(nèi)容:自愿決定有關(guān)自我的信息的權(quán)利,或主張排除收集、分析和處理有關(guān)自我信息的行為的權(quán)利;訪問自我信息的權(quán)利和索取自我信息的權(quán)利;要求自我信息更正的權(quán)利、中止或阻止使用自我信息的權(quán)利、要求刪除自我信息的權(quán)利;提出質(zhì)疑的權(quán)利和要求賠償?shù)臋?quán)利。個人信息的隱私將通過信息自決權(quán)得到保障。因此,個人信息保護法應(yīng)通過法律規(guī)定全面賦予公民自愿決定、訪問、更正、提出質(zhì)疑等個人信息自決權(quán),如果政府未征得公民的同意、未按照特定目的使用個人信息或者使用個人信息超過了必要的限度等,那么公民可以拒絕政府使用個人信息或要求政府予以賠償。
其次,要創(chuàng)建個人信息安保機制。個人信息最大的特征是可識別性,因此,要保護個人信息安全,可以對個人信息做假名處理(或脫敏處理)。[33]所謂信息假名處理,是指對當前的信用信息進行處理后,若沒有其他信息予以輔助,就無法通過處理后的信息來鎖定出特定個人。當個人信息經(jīng)過假名處理(高度敏感信息在假名處理后還需要加密處理),在充分保障數(shù)據(jù)安全后方能提供給其他部門使用。此外,要建立個人信息影響評估機制,對于有可能因使用個人信息而造成重要影響的決策進行個人信息影響評估,根據(jù)評估結(jié)果決定是否要使用個人信息。
再次,建立統(tǒng)一的個人信息監(jiān)管機構(gòu)。有必要在政府層面建立個人信息和隱私保護組織,專門管理個人信息保護事務(wù)。以韓國為例,韓國個人信息保護委員會是韓國個人信息保護制度的主控中心,是統(tǒng)籌和管理個人信息保護事務(wù)的中央行政機構(gòu)。這一機構(gòu)具有一元化和獨立的主控中心地位,其工作內(nèi)容不僅在于與各行政機構(gòu)、企業(yè)、個人建構(gòu)進行充分協(xié)商和合議的共治,而且在于對個人信息保護工作進行統(tǒng)一監(jiān)管。當前我國個人信息監(jiān)管部門呈現(xiàn)多頭管理、分散管制的特點,個人信息保護的效果和力度不夠集中,因此,有必要在政府層面建立統(tǒng)一的個人信息保護機構(gòu),形成統(tǒng)一的監(jiān)管機制,集中力量進行監(jiān)管。
最后,加強公職人員個人信息保護意識。盡管從制度上防止未經(jīng)許可使用個人信息很重要,但是加強公職人員對個人信息保護的意識,使公職人員了解個人信息的重要性和價值并認識到未經(jīng)許可不得使用個人信息同樣具有必要性。尤其是最近的個人信息侵權(quán)案件更多是由政府內(nèi)部人員泄露而不是由外部黑客入侵或其他未經(jīng)授權(quán)入侵引起的,因此,提高公職人員保護公民個人信息安全的法律意識尤為重要。具體來說,一方面可以通過教育、宣傳、培訓(xùn)、考核等方式提高公職人員認識;另一方面可以通過法律明確規(guī)定公職人員泄露個人信息的法律責(zé)任使公職人員在處理個人信息時負有審慎態(tài)度。
與第一次工業(yè)革命相同,第四次工業(yè)革命將以不可避免、不可逆轉(zhuǎn)之勢帶來社會的深刻變革,接受并順應(yīng)這一變革的國家將崛起成為信息時代的贏家,而抵制這一趨勢的國家將成為失利者。新的“比賽”已經(jīng)拉開帷幕,中國應(yīng)積極備賽。具體來說,在法律層面上,應(yīng)推進數(shù)據(jù)安全立法、數(shù)據(jù)公開和共享立法、個人信息保護法實施條例立法,制定人工智能倫理指南、算法公開指南;在組織層面上,應(yīng)建立統(tǒng)一的信息技術(shù)監(jiān)管機構(gòu)、個人信息保護機構(gòu)、數(shù)據(jù)公開和共享平臺;在社會意識方面,應(yīng)通過教育、宣傳等方式提升社會整體數(shù)據(jù)素養(yǎng),提高政府、企業(yè)、個人的數(shù)據(jù)安全意識,以爭取在國際賽道上取得優(yōu)勝。