段偉文
(中國社會科學研究院哲學研究所,北京 100732)
隨著信息化、數字化和智能化技術的迅猛發(fā)展,作為世界的存在、事件的發(fā)展和人的行為發(fā)生痕跡的各種數據呈指數增長,我們日漸生活在由數字化的數據所構成的信息空間與編碼空間之中。而新一輪人工智能熱潮,不僅源于計算能力和深度學習等智能算法上的突破性發(fā)展,更在于數據驅動。近20年來,網絡搜索、電子商務、新媒體的發(fā)展,帶給數字產業(yè)界巨大的啟示是反映每個人的特征、行為和偏好的數據均有可能構成世界的鏡像。如果能夠充分運用這個數據構成的鏡像世界,就有可能重構社會生活的各種流程,使之變得更加精準和高效。
基于這一認知,通過各種被稱為商業(yè)智能、認知計算等基于數據智能的社會計算,人的線上和線下行為數據越來越多地被搜集和分析,在一定意義上使每個人都成為被追蹤、觀測、分析的對象。借助特定的算法,數據的掌握者可以通過行為評分和內容推薦等數據智能對人的行為進行評判、引導和干預。由此,當前作為人工智能應用熱點的數據智能已經揭開了智能社會的一種可能形態(tài)——智能解析社會的序幕。這一新愿景是信息網絡技術等數字烏托邦的新發(fā)展,但由此所帶來的人工智能未來是否會成為人人向往的智能烏托邦尚待進一步探討。其中一個重要的方面是,如何從價值層面反思智能社會構建的認知與行動的實質,對其加以必要的倫理調適。
自二十世紀后半葉以來,高科技革命引發(fā)了后工業(yè)社會、信息社會與知識社會的理論探索與創(chuàng)新實踐,智能社會的思想與實踐隨之開啟。在觀念層面,20世紀80年代后期,中國社會科學院童天湘曾發(fā)表系列文章與相關專著指出,高技術首先是高智力,高科技的發(fā)展正在帶來智能革命,未來社會應是智能社會。同時期,也有一些國外學者曾提出過“智能社會”的概念。近年來,歐盟和日本等相繼提出了智能社會的愿景,其主旨是充分運用數字與智能技術使社會實現智能化,同時更有效地解決健康、醫(yī)療、養(yǎng)老、教育等既存的社會問題以及氣候變化、可持續(xù)發(fā)展等全球問題。
從技術前提來看,普適計算和社會感知計算等方面的研究為智能社會的實現奠定了基礎。1991年,馬克·威賽(Mark Weiser)在《科學美國人》雜志上發(fā)表文章《21世紀的計算模式》,提出了“普適計算”(ubiquitous computing或pervasive computing)的概念,指出可以通過無處不在的計算服務人們的生活和工作,使人置身于遍布計算能力的人工環(huán)境或智能環(huán)境之中。這一概念標明了從信息社會向智能社會前進的大方向。此后的發(fā)展表明,通往智能社會的關鍵路徑是數據驅動和智能集成。一方面,人工智能的研究表明,讓機器具有所謂的智能需要走一條和人的認知完全不同的道路。這就是發(fā)揮計算機在計算和存儲方面的特長,利用大數據的完備性,發(fā)現人難以發(fā)現的規(guī)律,得到傳統(tǒng)方式無法得到的結果,從而在某些方面超越人的智力。另一方面,普適計算或智能環(huán)境的實現必然建立在智能集成之上。這也是錢學森提出基于開放復雜巨系統(tǒng)理論的智能系統(tǒng)的主旨所在,其中不僅包括分布式與現場人工智能、智能體,還包括人工社會研究所關注的社會智能的集成。
近年來成為研究熱點的社會計算和社會物理學在一定程度上可視為數據驅動的普適計算。早在大數據興起前的2005年,MIT科學家彭特蘭(Alex Pentland)便提出了社會感知計算的概念,試圖通過收集和分析人際交往與社會生活的數據流理解與改進人類行為,在社會管理與治理層面推動數據驅動與智能集成的綜合運用;此后,彭特蘭進一步倡導,在基于大數據的社會物理學研究的基礎上,從思想流(idea flow)和社會學習等出發(fā),構建數據驅動的智能社會。(1)[美]阿萊克斯·彭特蘭.智慧社會: 大數據與社會物理學[M].汪小凡,汪蓉,譯.杭州: 浙江人民出版社,2015: 7.不論是社會計算還是社會感知計算,都有一個基本的假定: 我們可以將世界的全部轉化為數據,從而實現世界的數據化?;诖?,我們不僅可以用數據刻畫和描述真實世界,還可以運用這些數據影響和干預其所刻畫和描述的世界。換言之,數據世界可能成為與真實世界相對應的平行世界。而這一假定背后的預設是,數據即“事實”,世界的數據化意味著我們可以用數據刻畫和影響世界所發(fā)生的全部事實。
在數據驅動的智能應用中,世界的數據化往往會發(fā)展成一種理想化的數據觀——數據主義。在數據主義者看來,在數據記錄、觀測與分析技術得以普遍應用的情況下,關于世界與生活在其中的人的行為的數據等同于世界及生活在世界中的人的行為本身,是可用于計算和干預世界及人的行為的資源。在此,數據主義者顯然沒有看到數據與世界和資源的等同在技術、價值上的合理性限度。
世界的數據化可視為一種具體類型的技術化科學(technoscience)對世界或對象的行為的有條件、有選擇和有目的的表征或干預。其一般過程是: 數據分析者一般會為了某個目的,比方說視頻網站要向用戶推送視頻內容和廣告,就會采集用戶的相關數據,如觀看內容、時長等,還可能包括年齡、性別、所在區(qū)域等數據,通過數據分析,就可以對用戶的行為特征和偏好等進行數據挖掘和繪制數據畫像,并據此向用戶推薦他可能喜歡花時間看的內容,同時穿插有針對性的廣告。根據這一過程,可展開相應價值合理性分析: 數據分析者對用戶數據的采集是否會侵害用戶的隱私權,所采集的數據是否得到安全的存儲,所繪制的數據畫像是否存在偏見和歧視,所推送的內容是否會導致用戶的沉迷,所推送的廣告是否存在蓄意誤導用戶不合理消費的情況,等等。毋庸置疑,這些價值合理性分析只有通過對數據驅動的智能社會的可能形態(tài)的反思和追問方能具體地展開。
從社會形態(tài)的變遷來看,認知計算和數據智能的廣泛應用意味著一種新的社會形態(tài)——解析社會或數據解析社會的來臨。(2)段偉文.人工智能與解析社會的來臨[J].科學與社會,2019,9(1): 115-128.一方面,政府、企業(yè)等組織的管理與治理活動越來越多地借助數據分析與洞察;另一方面,個人也開始運用可穿戴設備采集生活和健康數據,對自我實施量化管理。從信息社會向智能社會發(fā)展的宏觀脈絡來看,我們可以認為這種社會形態(tài)是智能社會的一種可能方案,故又可稱之為智能解析社會。這種新的社會形態(tài)是顛覆性的。一方面,數據所扮演的角色如同13世紀時出現的透鏡。透鏡所制造的望遠鏡和顯微鏡讓宇宙和微觀世界得以清晰地觀測與呈現。如今,“數據透鏡”則使人的行為得到量化地記錄與透視。另一方面,就像17世紀笛卡爾發(fā)明解析幾何使得自然界的結構與規(guī)律得以探究一樣,數據分析與智能算法的應用正在使人的行為規(guī)律得到洞察和解析。
用數據和智能算法來分析人的行為,意味著對人的智能監(jiān)測。所謂智能監(jiān)測,大多是在被分析對象不知情的情況下展開的,但也有一些是自我監(jiān)測,如智能手環(huán)等智能化可穿戴設備的應用。即便是后者,設備使用者的個人數據也會被產品及軟件廠家或第三方采集和分析。這種智能監(jiān)測并不是什么新鮮事,在一定程度上是傳統(tǒng)情報監(jiān)測的延伸。根據斯諾登披露,在大數據出現之前,美國國家安全局早就通過元數據分析對公眾的電話進行監(jiān)測。這種監(jiān)測一般不涉及通話內容,因為僅依據通話的號碼、時間、長度、頻率、位置這些元數據,就可以了解很多情況。比如,A接通一家大型醫(yī)學中心的心臟病專家的熱線并進行了長時間交談,又致電醫(yī)學實驗室進行了簡短交談,然后接到了藥房的電話,并給家里打了一個簡短的電話;B向專門銷售某種槍支商店打了許多電話,并且還與生產這種槍支的制造商進行了長時間溝通。這種監(jiān)測只是提供了一些可能的線索,如A可能有心臟病,B準備購買槍支,但這只是把一些事件串聯(lián)起來之后所產生的猜想,只要大家略微發(fā)揮想象力,劇情還可以千變萬化。
毋庸置疑,智能監(jiān)測這種認知方式帶有很大的揣測成分。早在電報技術時代,亨利·詹姆斯(Henry James)于1898年發(fā)表的短篇小說《籠中》(IntheCage)的年輕女報務員似乎已深諳此道。憑著一雙明眸和了無束縛的想象力,透過從她指間匆匆流過的只言片語,她瞥見了主顧們各式各樣的風流韻事、約會安排、小把戲和小秘密,加之眾人在態(tài)度、禮節(jié)、言辭、階層、金錢、性別上的分別,經過幾番琢磨、編織和腦補,硬是把吞吐摩爾斯電碼的電報機變造成了繪制眾生身份的世界機器(world machine),數據流在其中被復原為生命流。那些由此醞釀出的故事隨風彌散,其劇情看起來有多么真實,就有幾多虛擬。(3)[英]馬修·福勒.媒介生態(tài)學: 藝術與技術文化中的物質能量[M].上海: 上海社會科學院出版社,2019: 312.通過這一早期媒介信息監(jiān)測場景,不難管窺數據解析的奧秘在于監(jiān)測者對事件的虛構與想象。當代監(jiān)測理論的研究者將這種通過監(jiān)測捕捉“事實”的過程稱為“作為生產的監(jiān)測”或“生產性監(jiān)測”。而在移動互聯(lián)網和即將到來的萬物互聯(lián)甚至想法互聯(lián)時代,每個人的生活將變得更加透明。你的手機提供商會跟蹤你的位置,并知道與你在一起的人;各種網絡應用會記錄你的在線購買模式,知道你是否失業(yè)、生病或懷孕。
耐人尋味的是,盡管并未訴諸可檢驗的理論或假說,谷歌、臉書等掌握了海量個人數據的科技巨頭卻往往將數據混同于事實,把從數據中發(fā)現的模式看作絕對真實存在的東西。谷歌因為記錄了你的搜索數據,就認為可以知道你的想法。當你在搜索引擎上輸入“should I tell my w”時,就會建議你輸入“should I tell my wife I had an affair”(我應該告訴妻子我有外遇)或“should I tell my work about dui”(我是否應該告訴單位我酒后駕駛)。曾任谷歌CEO的埃里克·施密特(Eric Schmidt)坦言:“我們知道您在哪里,我們知道您去過哪里,我們或多或少可以了解您的想法?!?4)Bruce Schneier. Data and Goliath: The Hidden Battles to Collect Your Data and Control Your World [M]. New York and London: W.W. Norton & Company, 2015: 16.對于那些具有壟斷地位的巨量數據追蹤者而言,他們會越來越多地擁有有效的機器學習所需要的數據,從而可以更好地構建算法、更迅速地預測趨勢、更多地了解用戶,當然也要通過外包業(yè)務讓更多的人為這些數據打標簽。盡管大多數企業(yè)相信數據的充分運用對于整個社會而言最終利大于弊,而且可以通過企業(yè)的合規(guī)與自律行為不斷調整和改進;但從產業(yè)規(guī)則與社會治理的角度來看,至關重要的是如何為可能出現的數據壟斷與濫用設定邊界。
在這種抑制不住的自信背后,充斥著近年最常聽到的陳詞濫調——“數據就是石油”。這個論調似乎表明,培根提出的“知識就是力量”的口號,如今要改為“數據就是力量”。就像培根當年主張拷問自然一樣,或者說更像新行為主義者斯金納擺布迷宮里的小白鼠那樣,面對互聯(lián)網這個巨型的迷宮,掌握著巨量數據資源的企業(yè)研究者在拷問著數據,讓數據交代出人的秘密:
計算機科學家有句行話,說的是算法如何不停地尋找模式: 它們折磨數據,直到數據招供為止。不過這個比喻也有未加審視的隱含意義。數據就像酷刑的受害者一樣,審訊的人想聽什么,數據就說什么。(5)[美]富蘭克林·福爾.沒有思想的世界: 科技巨頭對獨立思考的威脅[M].舍其,譯.北京: 中信出版社,2019: 58.
但實際上,這種拷問并非對客觀知識的探究,而是將人的行為本身視為一種需要解決的問題,其目的是通過對人的行為數據的計算影響人的行為。正如前文所言,所謂讓數據說話,不是無目的地對人的行為的客觀刻畫,而是數據分析者或算法設計者從特定目的出發(fā),對計算對象作出的具有定向性、引導性和干預性的社會計算與調控。
典型的社會計算有三類。一是結果預測。比如,有人用已有的各種審判數據和人工智能算法預測某個法官對某個案件可能的判決結果。由于人總有其自由意志,人們所作出的決策是多方面綜合考慮的結果。不管法官的行為是否有規(guī)律可循,這種預測本質上與占卜并沒有什么不同。之所以這么說,一個重要的原因是一旦脫離了原來的語境,各種計算和預測所依據的原始數據的意義已經不完整,而將大量意義不完整的數據拼接起來,得到的可能性拼圖只能說是一種大致的猜測,而且每個猜測只能接受一次檢驗。
二是偏好預測。這與其說是機器智能對人的行為可能性的認知,不如說是對人的行為引導,其所體現的并不是人的意愿,而是設計算法的人希望被預測者具有的意愿。比方說,亞馬遜和奈飛都推薦圖書和電影,美其名曰理解或幫讀者發(fā)現自己的品位。但前者會給你推薦瀏覽過的書,因為那樣你購買的概率更大;后者則推薦你看一些鮮為人知的內容,因為那樣可能會給一些不太熱門的產品帶來更多流量,從而獲取更大的利潤。
三是先發(fā)制人。先發(fā)制人原本是一種軍事策略,在“9·11”之后,因為反恐或應對所謂“未知的未知”的風險的需要,而成為一種國家安全策略。這一策略建立在一種基于預見的可能性而采取控制行動的政治邏輯之上,可稱之為可能性的政治,而使其得以落地的就是數據的采集挖掘和分析預測。就像斯皮爾格導演的電影《少數派報告》中搶先阻止未實施的犯罪一樣,人工智能已用于打擊潛在的壞人,對某些特定人群或特定行為進行可能性預測,在有些場景中可以實施強制性阻止,甚至予以懲戒。近年來,隨著數據采集和處理的便捷化和計算能力的提升,很多國家和地區(qū)都建立起了各種區(qū)域犯罪預測系統(tǒng),如美國PredPol公司開發(fā)的犯罪預測軟件和日本東京警察局(Tokyo’s Metropolitan Police Department, MPD)的犯罪監(jiān)測與畫像系統(tǒng)等,其基礎就是對個人行為數據的采集、分析、預見和預警。但先發(fā)制人與可能性的政治無疑是自相矛盾的,既然罪行沒有實施,為何要受到強行處置和打擊。從法理上講,這顯然不符合無罪推定的基本假設。
從這三種典型的社會計算可以看到,它們在本質上是技術和工程層面有效解決具體問題的方案。臉書等社交媒體和網絡平臺之所以不遺余力地倡導人們共享數據,首先是為了增加流量,更精準地行銷產品,而不是考慮如何讓這些產品和服務給每個人帶來美好生活,讓全社會更加和諧幸福。更進一步而言,數據驅動的認知計算或智能在認識論和方法論上的基本策略,是通過思維自動化解決其關切的問題。思維自動化是一種工程思維模式,這種模式在認識論上的目標不是發(fā)現客觀真理或所謂先驗真理,而是通過技術和工程操作造成其希望達到的既成事實或后驗真理。例如,智能推薦系統(tǒng)給用戶推薦圖書時,僅僅根據其推薦后用戶接受的比例來決定其認知計算的準確度,其真理性并不是事先存在的,而是完全以設計者的滿意程度為評價標準。在工程思維模式下,人被當成數據,當成企業(yè)和機構的編碼系統(tǒng)和運營系統(tǒng)的構成部分。
實際上,無論這些社會計算及其生產性的監(jiān)測有多么精致,其悖謬在于既頗具創(chuàng)造性,又每每挖坑、誤導乃至構陷。從人臉識別到智能手環(huán),從行車記錄儀到布滿天際的電子眼,人們對世界的認識終于結出了世界時刻不知疲憊地關注我們的奇異果。各種機器所捕獲的數據看似對人的行為進行定格,但這些被剝離場景和意義的原始數據的意涵有時候完全仰賴數據使用者的解釋,難免出現根據特定的視角加以編排的情況。由于數據的意義依賴解讀,對各種數據碎片的整合也時常會導致誤解的疊加,這就使得一些基于數據智能的監(jiān)測結果可能產生類似自我兌現諾言的假象。
假使有個司機小Q輕微違章不幸偶遇希望打撈“危險分子”的警察,其所有數據記錄被調出來交叉比對。小Q之前在購買行車記錄儀、電視等設備時因為接受折扣的誘惑而應允將數據與廠家共享。警察在廠家的服務器中調出了各種數據,以收集與其人格相關的信息。結果發(fā)現他喜歡看一級方程式賽車和汽車拉力賽,還喜歡看警方公布的包括汽車追逐的監(jiān)控錄像,最近還瀏覽過捷豹和保時捷網站。據此,檢控律師將小Q認定為沉溺于極速駕駛強迫癥的危險分子。但辯護律師指出,小Q之所以關注高品質的跑車,是因為他是個負責任的公民,希望座駕更安全可靠,而關注警方監(jiān)控錄像則表明他高度關注道路交通安全。多少有點莫名滑稽的是,在這種生產性的監(jiān)控生態(tài)中,基于數據拼圖游戲的各種解釋都在披露“真相”,似乎都比作為“數據—身體”主人的小Q的供述或辯解更加可信。(6)[英]馬修·福勒.媒介生態(tài)學: 藝術與技術文化中的物質能量[M].上海: 上海社會科學院出版社,2019: 319.
由此可見,在社會計算中運行的算法正在體現出巨大的力量,其引導性和強制性作用很容易遭到濫用,甚至會發(fā)展為“算法霸權”。不論其方式是柔性的計算機說服技術或智能化助推,還是剛性的簡歷篩選和對行動自由的限制,都體現了某種宰制性的權力或霸權。以前文論及的數據畫像為例,很多擁有數據的社交媒體或網絡平臺會根據所掌握的數據繪制用戶的數據畫像,雖然每個人的數據畫像如同其數據雙胞胎,但卻既不為用戶本人所掌握也不為其所知,擁有它們的企業(yè)或機構可完全根據自身目的加以運用。雖然這種行為可以視為企業(yè)的商業(yè)秘密,但如果出現對用戶的偏見、歧視和傷害等情況,用戶無法對其提出質疑和參與改進,數據分析和算法設計者也很難主動發(fā)現問題并加以修正。
面對冷酷無情的思維自動化和工程思維對人性的挑戰(zhàn),必須構建一種可以制衡其濫用的倫理反射弧。在此,本文無意贅述關于透明、負責任、可解釋、可信任的數據和人工智能之類的各種科技向善的口號,只提幾點相對可落實的舉措。首先,要認識到人與技術在本質上相伴而生的關系,在人與技術構成的行動者網絡中反思和校正新技術帶來的價值倫理問題。當我們思考人機關系時,不應陷入抽象的人機關系反思,也要避免將機器視為獨立于人的存在,而要認識到人機關系的本質是人與人之間以機器為中介的關系。以人臉識別技術應用所引發(fā)的爭議為例,如果能以所涉及技術產品(服務)及其相關的群體所共同構成的行動者網絡為研究對象,剖析該技術的應用對人臉識別技術的開發(fā)者、使用人臉識別技術的機構、被人臉識別的對象以及原有工作可能被人臉識別技術所取代的群體的影響,無疑有助于深化對相關問題的認知。
其次,通過有針對性的“技術-倫理”設計對數據智能應用施以適度的倫理治理,在此過程中無疑需要通過人文學者與科技專家的對話,以實現價值訴求與技術需求之間的“轉譯”。例如,針對短視頻應用中反復出現推薦低俗內容的現象,批評者應該看到,這是由數據聚類等推薦算法放大了人性的弱點造成的,但機器所抓取的是數據的抽象特征,具體推薦內容并非算法設計者有意為之;而設計者應該看到這些現象雖非其故意所為,但必須對這種技術在功能上的盲目性進行有意識的價值引導。由此,一種可操作的解決方案是先對某些類型的低俗內容建模,然后對其加以必要的過濾。
最后,不論是企業(yè)、機構、政府還是個人,都應該看到人的獨特性和無限可能性才是人類文明和一切創(chuàng)新的根源。數據的無度采集和濫用不僅會導致對人的尊嚴和隱私等基本權利的侵害,更重要的是會讓人喪失自我的獨立性、能動性和創(chuàng)造性??陀^而言,數據對人的行為的絕對理解是一種不可能實現的幻術,因為巨量的數據實驗所捕捉到的往往不是鮮活的人類生活,而只是由作為人的行為痕跡的數據所構造的刻板化世界版本。在走向智能社會的開始,人們應該運用人類最古老的智慧——承認自己的無知,認識到不可能全盤揭示世界“真相”的現實,從而給人們反思自我和前瞻未來留下微妙而必要的縫隙。